You are on page 1of 217

A PUNTES DE A LGEBRA 2

Juan Pablo Muszkats


Isabel Pustilnik
II

Prlogo

F
a
cu
lt
a
d
d
e
In
g
en
ie
r
a
-
U
B
A
Prlogo

Estas notas tienen por objetivo cubrir todos los temas tericos correspondientes a la asignatura lgebra 2, tal y como se dicta

A
actualmente en la Facultad de Ingeniera de la Universidad de Buenos Aires. Para que resulten de utilidad a los alumnos que

B
las usen, consideramos oportuno hacer algunas aclaraciones y advertencias:

U
Estos apuntes consisten, a grandes rasgos, de una exposicin de los temas tericos junto con algunos ejemplos y ejer-
cicios. Hemos intentado dar algunas motivaciones y justificaciones de los teoremas expuestos, abarcando las demos-

-
traciones que consideramos ms formativas para los estudiantes.

a
r
Quienes quieran profundizar tanto en las aplicaciones del lgebra lineal como en los detalles tcnicos de las demos-
ie

traciones ms exigentes, encontrarn a lo largo del texto indicaciones bibliogrficas de los textos que consideramos
en

adecuados para ello.


g

Aunque sea una obviedad decirlo, un texto de matemtica no se lee como una novela. Un texto de matemtica se estudia
In

de maneras diversas que cada lector debe encarar, explorar y evolucionar. Una primera lectura podra ser ms super-
ficial, omitiendo las demostraciones y concentrndose en las definiciones y resultados importantes. Una segunda (o
e

tercera) lectura podra detenerse en los detalles de las demostraciones. Creemos que el estudio de las demostraciones
d

es formativo y permite madurar los conceptos involucrados, lo cual las hace relevantes aun para quienes no estudian
d

la matemtica como una profesin. Adems, la lectura atenta de las demostraciones suele echar luz sobre los alcances
a

de un teorema: para un ingeniero es importante, por ejemplo, distinguir si un teorema tan solo prueba la existencia de
lt

una solucin o brinda adems un mtodo para calcularla efectivamente. Esta es la clase de habilidades que deseamos
cu

fomentar en nuestros lectores.


a

Para facilitar la lectura, hemos incorporado recuadros para destacar las ideas principales, como las definiciones y los
F

teoremas, as como tambin delimitadores para los ejemplos:

Definicin 0.1

Teorema 0.1

Ejemplo 0.1
IV

y el siguiente smbolo para las notas, comentarios u observaciones

Toda vez que se aluda a un teorema, frmula, etc. como por ejemplo

...en el teorema 1.1 y la frmula (1.1)

el nmero funciona como vnculo, y permite llegar directamente al objeto aludido.

A lo largo del texto aparecen algunos ejercicios breves para reforzar los conceptos que se exponen:

A
B
Ejercicio.

U
-
Muchas de las respuestas se encuentran al final.

a
Al realizar este trabajo, hemos intentado aportar nuestra experiencia en la asignatura y nuestro conocimiento de las dificul-
r
tades que atraviesan los estudiantes al cursarla. Como esperamos sinceramente que les resulte de utilidad, invitamos a todos
ie

nuestros lectores a compartir cualquier aporte, correccin o crtica que nos permita mejorarlo.
en
g

Por ltimo, agradecemos la generosidad del profesor Jos Luis Mancilla Aguilar que puso a nuestra disposicin sus valiosos
In

apuntes, de los que tomamos numerosas ideas y ejemplos.


e
d

Juan Pablo Muszkats e Isabel Pustilnik


d

Buenos Aires, diciembre de 2016.


a
lt
cu
a
F
NDICE GENERAL

1 E SPACIOS VECTORIALES PGINA 3


1.1 Introduccin 3

A
1.2 Subespacios 7

B
1.3 Combinaciones lineales 10

U
1.4 Independencia lineal y bases 13

-
1.5 Subespacios fundamentales de una matriz 20

a
1.6 Coordenadas r 24
1.7 Matriz de Cambio de Base 28
ie

1.8 Operaciones entre subespacios 30


en
g

2
In

T RANSFORMACIONES LINEALES PGINA 39


2.1 Introduccin 39
e
d

2.2 Ncleo e Imagen 42


2.3 Teorema Fundamental de las Transformaciones Lineales 46
d
a

2.4 Clasificacin de las transformaciones lineales 49


lt

2.5 Transformacin Inversa 52


cu

2.6 Matriz asociada a una transformacin lineal 54


2.7 Composicin de transformaciones lineales 57
a
F

3 P RODUCTO I NTERNO PGINA 63


3.1 Introduccin 63
3.2 Proyeccin ortogonal 75
3.3 El complemento ortogonal de un subespacio 83
3.4 Descomposicin QR 88
3.5 Cuadrados Mnimos 92
3.6 Aplicaciones geomtricas 99

4 AUTOVALORES Y AUTOVECTORES PGINA 103


4.1 Introduccin 103
VI

4.2 Diagonalizacin de matrices 112


4.3 Potencias de matrices y polinomios matriciales 118

5 M ATRICES SIMTRICAS Y HERMTICAS PGINA 127


5.1 Matrices ortogonales y unitarias 127
5.2 Diagonalizacin de matrices simtricas y hermticas 130
5.3 Formas cuadrticas 133
5.4 Conjuntos de nivel 138
5.5 Signo de una forma cuadrtica 140
5.6 Optimizacin de formas cuadrticas con restricciones 142

A
B
6

U
D ESCOMPOSICIN EN VALORES SINGULARES PGINA 151
6.1 Introduccin 151

-
6.2 Descomposicin en valores singulares 159

a
6.3 La DVS y los subespacios fundamentales de una matriz
r 163
ie
6.4 Matriz seudoinversa. Cuadrados mnimos. 166
en
g

7
In

E CUACIONES DIFERENCIALES Y
SISTEMAS DE ECUACIONES DIFERENCIALES PGINA 171
e

7.1 Introduccin 171


d

7.2 Ecuacin diferencial lineal de primer orden 173


d

7.3 Estructura de las soluciones en la ecuacin de primer orden 177


a
lt

7.4 Ecuacin diferencial lineal de segundo orden 179


cu

7.5 La ecuacin homognea de segundo orden 182


7.6 Mtodo de los coeficientes indeterminados 187
a
F

7.7 Sistemas de ecuaciones diferenciales 190


7.8 Sistemas homogneos 192
7.9 Sistemas no homogneos 197

S OLUCIONES PGINA 199


Soluciones del Captulo 1 199
Soluciones del Captulo 2 200
Soluciones del Captulo 3 201
Soluciones del Captulo 4 202
Soluciones del Captulo 5 203
Soluciones del Captulo 6 204
Soluciones del Captulo 7 205
1

NDICE ALFABTICO PGINA 206

B IBLIOGRAFA PGINA 211


A
B
U
-
a
r
ie
en
g
In

Esta pgina fue dejada intencionalmente en blanco


e
d
d
a
lt
cu
a
F
1 Espacios vectoriales

A
B
U
1.1 Introduccin

-
a
El concepto de vector, que usualmente comienza por estudiarse en R2 y R3 , se generaliza mediante la siguiente definicin.
r
ie

Definicin 1.1
en

Un espacio vectorial es un conjunto no vaco V en el que estn definidas una ley de composicin interna denominada
g
In

suma, que a cada par de elementos u, v V le asigna un elemento w V denotado w = u+v, y una ley de composicin
externa denominada producto por escalares, que a cada nmero K (siendo K = R C) y a cada elemento u V les
asigna un elemento v V denotado v = u, de manera tal que se verifican las siguientes condiciones para todos
e
d

u, v, w V , , K :
d

1 conmutatividad: u + v = v + u
a
lt

2 asociatividad: u + (v + w) = (u + v) + w
cu

3 existencia de un elemento neutro 0V V tal que u + 0V = u


a
F

4 para cada u V existe un opuesto, denotado u, tal que u + (u) = 0V

5 distributividad respecto de los escalares: ( + )u = u + u

6 distributividad respecto de los vectores: (u + v) = u + v

7 asociatividad respecto de los escalares: (u) = ()u

8 1u=u

A los elementos del espacio vectorial V se los denomina vectores, mientras que a los nmeros del conjunto K se los
denomina escalares.

En el caso de que sea K = R, se dice que V es un espacio vectorial real o un R-espacio vectorial, mientras que si K = C se
dice que V es un espacio vectorial complejo o un C-espacio vectorial. Diremos simplemente que V es un espacio vectorial o
un K-espacio vectorial cuando no sea preciso distinguir el conjunto de escalares. La notacin habitual para los vectores ser
4 Espacios vectoriales

con las letras latinas minsculas u, v, w, ..., mientras que para los escalares se usarn las letras griegas , , .... En ocasiones
se notar mediante 0 al vector nulo 0V : el contexto debe permitir al lector saber a qu se est aludiendo en cada caso.

Veamos ahora algunos ejemplos de espacios vectoriales.

Ejemplo 1.1 Vectores en Rn

Al conjunto de n-uplas (x 1 , ..., x n ) con x i R para todo i = 1, ..., n lo denotaremos Rn . Definiendo la suma de dos
n-uplas arbitrarias mediante

(x 1 , ..., x n ) + y 1 , ..., y n = x 1 + y 1 , ..., x n + y n

y el producto por escalares como


(x 1 , ..., x n ) = (x 1 , ..., x n )

se obtiene un espacio vectorial. Queda como ejercicio para el lector identificar el neutro, los opuestos y comprobar

A
que se cumplen todas las condiciones de un espacio vectorial.

B
U
-
Ejemplo 1.2 Vectores en Cn

a
Si en lugar de n-uplas de nmeros reales consideramos n-uplas de nmeros complejos (z 1 , ..., z n ) con z i C, defi-
r
niendo las operaciones de manera anloga al espacio anterior obtenemos en este caso un C-espacio vectorial, al que
ie

denotamos Cn .
en
g
In

Muchas de las propiedades conocidas para los vectores de R2 y R3 se conservan para el caso general. A partir de la definicin
de espacio vectorial se deducen las siguientes propiedades elementales.
e
d

Teorema 1.1 Propiedades elementales


d

El elemento neutro 0V V es nico. Tambin es nico el elemento opuesto que corresponde a cada u V
a

1
lt

2 u V : 0u = 0V
cu

3 K : 0V = 0V
a
F

4 Si u 6= 0V u = u =

5 Si 6= 0 u = v u = v

6 u V : (1)u = u

Demostracin:
Para probar la unicidad del neutro, se considera que existen dos neutros 01 y 02 en V . Entonces, por la misma definicin de
neutro resulta que 01 + 02 = 01 , a la vez que 02 + 01 = 02 . Adems, la propiedad conmutativa garantiza que 01 + 02 = 02 + 01 de
donde se deduce que 01 = 02 .
Para probar 2 , consideramos que
u = 1u = (1 + 0)u = 1u + 0u = u + 0u

(el lector deber explicar qu propiedad justifica cada paso). Entonces 0u es el neutro del espacio vectorial, con lo cual
0u = 0V .
Espacios vectoriales 5

Dejamos la demostracin del resto de las propiedades como ejercicio para el lector.

Veamos algunos ejemplos ms de espacios vectoriales que sern frecuentes a lo largo del curso.

Ejemplo 1.3 Matrices en Kmn

Kmn es el conjunto de matrices de m filas y n columnas cuyas componentes son elementos de K, con las definiciones
de suma y producto por escalar usuales:

a 11 a 1n b 11 b 1n a 11 + b 11 a 1n + b 1n
.. .. ..
+ .. .. ..
= .. .. ..
. . . . . . . . .


a m1 a mn b m1 b mn a m1 + b m1 a mn + b mn

a 11 a 1n

A
a 11 a 1n
.. .. .. .. .. ..

B
=
. . . . . .

U
a m1 a mn a m1 a mn
El elemento neutro es la matriz nula, que es aquella cuyos elementos son todos nulos. El opuesto de una matriz A con

-
elementos de la forma a i j es la matriz A con elementos de la forma a i j .

a
r
ie
en

Ejemplo 1.4 Espacio de funciones


g

Un espacio vectorial real que aparece frecuentemente en las aplicaciones es el de las funciones f : I R definidas en
In

un intervalo I de la recta real, que denotaremos RI , con la suma y producto por escalar como usualmente se definen
e

para funciones:
d

suma: dadas f , g RI , se define una nueva funcin f + g : I R mediante


d
a

( f + g )(x) = f (x) + g (x) para todo x I


lt
cu

producto por escalar: dados f RI y R, se define una nueva funcin f : I R mediante


a

( f )(x) = f (x) para todo x I


F

El elemento neutro para la suma es la funcin idnticamente nula, es decir, la funcin h tal que para todo x I verifica
h(x) = 0 (es crucial distinguir a la funcin nula de las funciones que eventualmente se anulan para algn x I ). Por
otra parte, el opuesto de una funcin f RI es la funcin f definida mediante ( f )(x) = ( f (x)) para todo x I .
Por ejemplo, si consideramos el intervalo abierto I = (0, 1), las funciones f (x) = x + x1 y g (x) = x1
1
son efectivamente
I
elementos de R y quedan definidas

1 1 x 3 x 2 + 2x 1
( f + g )(x) = x + + =
x x 1 x2 x
3
(3 f )(x) = 3x +
x
6 Espacios vectoriales

(a) suma de funciones (b) producto por escalar, funcin nula y opuesta

A
B
Figura 1.1: las funciones como vectores

U
Ejemplo 1.5 Espacio de funciones continuas

-
a
Consideremos un intervalo I de la recta real y denominemos C (I ) al conjunto formado por todas las funciones
r
f : I R continuas. C (I ) es un espacio vectorial real con las operaciones de suma y producto por escalar definidas
ie

en el ejemplo anterior. Ntese que ambas operaciones son cerradas en C (I ), en el sentido de que sus resultados son
elementos de C (I ), porque tanto la suma como el producto de funciones continuas son funciones continuas.
en
g

La funcin nula, que es continua y por ende pertenece a C (I ), es el elemento neutro para la suma. Por otra parte, el
In

opuesto de f C (I ) es la funcin continua f .


e
d
d

Ejemplo 1.6 Espacio de polinomios


a
lt

Otro espacio vectorial real que se usar con frecuencia es el de los polinomios a coeficientes reales
cu

P = p : p(t ) = a n t n + a n1 t n1 + ... + a 0 , n N0 , a i R, i = 0, ..., n



a
F

con las operaciones de suma y producto por un escalar habituales.

Queda como ejercicio para el lector comprobar que los polinomios, junto con las operaciones indicadas, satisfacen la
definicin de espacio vectorial, e identificar los elementos neutro y opuesto.

Los espacios vectoriales reales o complejos que mencionamos hasta aqu son algunos de los que aparecen con ms frecuen-
cia en las aplicaciones del lgebra lineal a la ingeniera. El ejercicio que sigue tiene por objeto repasar la definicin de espacio
vectorial y mostrar que existen muchas ms posibilidades que las que convencionalmente se usan.

Ejercicio.

1.1 Considere V = R2+ , donde R2+ es el conjunto de pares ordenados compuestos por nmeros reales positivos. Por
ejemplo (1; 1, 5) R2+ , mientras que (1, 0) R2+ y (1, 5) R2+ . En V definimos las siguientes operaciones de suma y pro-
ducto para (x 1 , x 2 ), (y 1 , y 2 ) V y R:
Espacios vectoriales 7

(x 1 , x 2 ) + (y 1 , y 2 ) = (x 1 y 1 , x 2 y 2 )

(x 1 , x 2 ) = x 1 , x 2

Demuestre que el conjunto V con las operaciones definidas es un espacio vectorial.

N Luego de haber visto algunos ejemplos de espacios vectoriales, es importante notar lo siguiente: todo espacio
vectorial complejo es a su vez un espacio vectorial real si se considera la misma operacin suma y el producto
por escalares se restringe a nmeros reales (por qu?). Por ende, ser importante dejar siempre en claro cul es el
conjunto de escalares que se considera.

A
Ejemplo 1.7

B
C2 es un espacio vectorial complejo y, por lo dicho recin, tambin es un espacio vectorial real. Sin embargo, si consi-

U
deramos a C2 como espacio vectorial real, el producto (2+i )(1, i ) carece de sentido, pues = (2+i ) no es un nmero

-
real. Tampoco es vlida la descomposicin

a
r
(1 + 2i , i ) = (1 + 2i )(1, 0) + i (0, 1)
ie

(que s vale si consideramos a C2 como espacio vectorial complejo). Una descomposicin posible en este caso es
en

(1 + 2i , i ) = 1(1, 0) + 2(i , 0) + 1(0, i )


g
In

Veremos ms adelante que, a pesar de tratarse del mismo conjunto de vectores, sus propiedades como espacio vecto-
rial real sern diferentes de sus propiedades como espacio vectorial complejo.
e
d
d
a

Convencin
lt

De aqu en ms, por comodidad, vamos a convenir en identificar Rn y Cn con Rn1 y Cn1 respectivamente. Es
cu

decir, cuando sea conveniente escribiremos


a


x1
F

.
u= ..

xn
en lugar de u = (x 1 , ..., x n ).

A menos que se especifique lo contrario, siempre consideraremos tanto a Cn como a Cmn como C-espacios
vectoriales.

1.2 Subespacios

Algunos de los espacios vectoriales que hemos estudiado estn relacionados entre s. Por ejemplo, C (I ) es un subconjunto
de RI . A su vez, P puede pensarse como subconjunto de C (R), ya que cada polinomio define una funcin continua en R.
8 Espacios vectoriales

Por cierto, las operaciones definidas en RI y en C (R) valen para elementos de los subconjuntos C (I ) y P respectivamente.
Esta situacin - la de tener un subconjunto de un espacio vectorial V que, con las operaciones definidas en V , tambin es un
espacio vectorial - es muy comn y tiene consecuencias importantes. Esto motiva la siguiente definicin.

Definicin 1.2

Un subconjunto S de un espacio vectorial V es un subespacio de V si S es un espacio vectorial con las operaciones


definidas en V .

Ejemplo 1.8

De acuerdo con las observaciones hechas al comienzo de esta seccin y con la definicin de subespacio, es inmediato
que C (I ) es un subespacio de RI y que P es un subespacio de C (R).

A
B
U
En principio, para comprobar que cierto subconjunto S de cierto espacio vectorial V es un subespacio, debera comprobarse
formalmente que se cumplen en S todas las propiedades exigidas en la definicin de espacio vectorial 1.1. Sin embargo,

-
las propiedades 1 8 se cumplen para todos los elementos de V : luego se cumplen en particular para los elementos del

a
subconjunto S. Slo resta probar que S no es vaco y es cerrado para las operaciones con sus elementos. Resumimos esta
r
observacin en el teorema siguiente.
ie
en

Teorema 1.2 (del Subespacio)


g

Sea S un subconjunto de un espacio vectorial V . Entonces S es subespacio de V si y slo si se verifican las siguientes
In

condiciones:
e

1 S no es vaco
d

2 u, v S u + v S
d
a

3 u S, K u S
lt
cu
a

Ejemplo 1.9 Subespacios triviales


F

Claramente S = {0V } (el conjunto que solamente contiene al vector nulo del espacio) y S = V son subespacios de V . A
estos subespacios se los denomina subespacios triviales .

Ejemplo 1.10

En R2 toda recta que pasa por el origen es un subespacio. Esta afirmacin puede justificarse mediante el teorema del
subespacio apelando a las interpretaciones geomtricas de la adicin de vectores en el plano (regla del paralelogra-
mo) y del producto de vectores por escalares. En efecto, S no es vaco porque el origen de coordenadas pertenece
a S; si sumamos dos vectores contenidos en la recta S el vector resultante pertenece a la misma recta y, por ltimo,
si multiplicamos un vector cualquiera de S por un escalar, el vector que obtenemos tiene la misma direccin que el
primero y por lo tanto tambin pertenece a S.
Espacios vectoriales 9

Mediante argumentos similares tambin se puede justificar que en R3 toda recta o plano que contenga al origen es un
subespacio.

A
B
U
-
a
r
ie
en

(a) recta en R2 (b) plano en R3


g

Figura 1.2: Subespacios en R2 y R3


In
e
d

Ejemplo 1.11 Subespacio asociado a un sistema homogneo


d

Sea A Kmn . Entonces


a

S = x Kn : Ax = 0

(1.1)
lt
cu

es un subespacio de Kn . Para comprobarlo usaremos nuevamente el teorema del subespacio.


a

1. S no es vaco porque 0 S, dado que A0 = 0.


F

2. Sean u, v S. Entonces, por la misma definicin de S se cumple que Au = 0 y Av = 0. Por lo tanto A(u + v) =
Au + Av = 0 + 0 = 0, de donde se deduce que u + v S.

3. Sea u S: luego Au = 0. Dado un escalar arbitrario K, tenemos que A(u) = (Au) = 0 = 0. Vale decir que
u S.

A partir de este resultado se puede probar formalmente lo que se enunci en el ejemplo anterior. En efecto, si S es
una recta en R2 que contiene al origen, sus puntos verifican una ecuacin de la forma ax 1 + bx 2 = 0. Es decir que
S = x R2 : ax 1 + bx 2 = 0 . Definiendo la matriz A = [a b], la recta se adapta a la forma general caracterizada por

(1.1). De manera similar se demuestra que en R3 las rectas y planos que pasan por el origen son subespacios (los
detalles quedan como ejercicio).
10 Espacios vectoriales

Ejemplo 1.12

Dado un nmero n N0 , denominamos P n al subconjunto de P compuesto por los polinomios de grado menor o
igual a n junto con el polinomio nulo a :

P n = p : p(t ) = a n t n + a n1 t n1 + ... + a 0 , a i R, i = 0, ..., n


La demostracin de que P n es efectivamente un subespacio de P se deja como ejercicio.


a Un detalle tcnico es que al polinomio nulo no se le asigna grado, de ah que se lo mencione aparte.

Ejemplo 1.13

A
Dado un intervalo I de la recta real, consideremos el conjunto C 1 (I ) formado por todas las funciones f : I R

B
derivables con continuidad. Evidentemente C 1 (I ) es un subconjunto de C (I ), pues toda funcin derivable es

U
continua. Afirmamos que C 1 (I ) es un subespacio de C (I ). En efecto, la funcin nula es derivable y su derivada, que
es la misma funcin nula, es continua. Esto prueba que C 1 (I ) no es vaco. Por otra parte, dadas f , g C 1 (I ), resulta

-
que f + g C 1 (I ) porque ( f + g )0 = f 0 + g 0 es continua por ser continuas f 0 y g 0 . Similarmente, si f C 1 (I ) y es un

a
nmero real cualquiera, ( f )0 = f 0 es continua y, por lo tanto, f C 1 (I ).
r
ie

De manera semejante se puede probar que C k (I ) , el conjunto compuesto por las funciones definidas en I que son k
en

veces derivables con continuidad, es subespacio de C (I ).


g
In
e

1.3
d

Combinaciones lineales
d
a
lt

Las operaciones de un espacio vectorial consisten en multiplicar vectores por escalares y en sumar vectores. Queda entonces
cu

bien definida cualquier expresin de la forma


1 v 1 + 2 v 2 + ... + r v r
a
F

es decir, una coleccin finita de las operaciones permitidas en el espacio vectorial.

Definicin 1.3

Dados v 1 , v 2 , ...v r vectores de un espacio vectorial V , una combinacin lineal de ellos es cualquier expresin de la
forma
1 v 1 + 2 v 2 + ... + r v r

donde 1 , 2 , ..., r son escalares arbitrarios.

Por otra parte, se dice que un vector v V es una combinacin lineal de (o que depende linealmente de) v 1 , v 2 , ...v r
si existen escalares 1 , 2 , ..., r tales que v = 1 v 1 + 2 v 2 + ... + r v r
Espacios vectoriales 11

Ejemplo 1.14

El vector nulo es combinacin lineal de cualquier conjunto de vectores v 1 , v 2 , ...v r V , pues

0V = 0v 1 + 0v 2 + ... + 0v r

Ejemplo 1.15

En R3 , w = (1, 1, 1) es combinacin lineal de v 1 = (2, 1, 3) y v 2 = (1, 0, 2), pues

w = 1v 1 + (1)v 2

Asimismo, (2, 2, 2) es combinacin lineal de (1, 1, 1), ya que (2, 2, 2) = 2(1, 1, 1)

A
B
Ejercicio.

U
1.2 Considere en C2 los vectores v 1 = (1, 0), v 2 = (0, 1) y w = (1 + i , 2). Demuestre que si se considera a C2 como C

-
espacio vectorial, w es combinacin lineal de v 1 y v 2 , mientras que si se considera a C2 como R espacio vectorial, w no

a
es combinacin lineal de v 1 y v 2 . r
ie

Ejercicio.
en

1.3 Demuestre que en C (R) el vector f (x) = sen x + 4 es combinacin lineal de los vectores f 1 (x) = cos x y

g

f 2 (x) = sen x.
In
e

Definicin 1.4
d

Dados los vectores v 1 , v 2 , ..., v r V , se denomina gen {v 1 , v 2 , ..., v r } al conjunto de todas sus posibles combinaciones
d
a

lineales. Es decir
lt

gen {v 1 , v 2 , ..., v r } = {v V : v = 1 v 1 + 2 v 2 + ... + r v r 1 , 2 , ...r K}


cu
a
F

N Es conveniente destacar la diferencia fundamental entre las notaciones {v 1 , v 2 , ..., v r } y gen {v 1 , v 2 , ..., v r }, que sue-
len confundirse. La primera alude a un conjunto finito de r vectores, mientras que la segunda alude al conjunto de
las infinitas combinaciones lineales de dichos vectores.

Queda como ejercicio para el lector demostrar que gen {v 1 , v 2 , ..., v r } es subespacio.

Definicin 1.5

Al subespacio S = gen {v 1 , v 2 , ..., v r } se lo denomina subespacio generado por los vectores v 1 , v 2 , ..., v r , y a estos
ltimos generadores de S.

Se dice que {v 1 , v 2 , ..., v r } es un conjunto generador de S y que S es un subespacio finitamente generado.


12 Espacios vectoriales

Ejemplo 1.16

En R2 , gen {(1, 1)} es el conjunto de todos los mltiplos del vector (1, 1), el cual coincide con la recta de pendiente 1
que pasa por el origen.

Ejercicio. Demuestre que en P , gen 1, t , t 2 = P 2 .


Ejemplo 1.17

Sea S = x R3 : 2x 1 + x 2 + x 3 = 0 . S es subespacio de R3 (ver ejemplo 1.11). Adems,


A
x S 2x 1 + x 2 + x 3 = 0 x 3 = 2x 1 x 2

B
Entonces los x S son de la forma x = (x 1 , x 2 , 2x 1 x 2 ) = x 1 (1, 0, 2) + x 2 (0, 1, 1) con x 1 , x 2 R.

U
En otras palabras, S = gen {v 1 , v 2 } donde v 1 = (1, 0, 2) y v 2 = (0, 1, 1).

-
a
r
ie
en

N En el ltimo ejemplo, lo correcto es referirse a {(1, 0, 2), (0, 1, 1)} como un conjunto generador de S, y no como el
conjunto generador. Esto es as porque existen otros conjuntos generadores de S, tales como {(2, 0, 4), (0, 2, 2)} y
g

{(1, 0, 2), (0, 1, 1), (1, 1, 3)} (verifquelo).


In

Veamos algunos ejemplos ms.


e
d

Ejemplo 1.18
d
a

R2 = gen {e 1 , e 2 } con e 1 = (1, 0) y e 2 = (0, 1). En efecto, si x = (x 1 , x 2 ) con x 1 , x 2 R, resulta


lt
cu

x = (x 1 , 0) + (0, x 2 ) = x 1 (1, 0) + x 2 (0, 1) = x 1 e 1 + x 2 e 2


a

Con mayor generalidad, se prueba que Rn = gen {e 1 , e 2 , ..., e n } siendo e 1 = (1, 0, ..., 0), e 2 = (0, 1, ..., 0), ..., e n = (0, 0, ..., 1).
F

Ejemplo 1.19

Cn = gen {e 1 , e 2 , ..., e n } con e 1 , e 2 , ..., e n definidos como en el ejemplo anterior.

Ejemplo 1.20

P n = gen 1, t , ..., t n .

Espacios vectoriales 13

Ejemplo 1.21

K22 = gen {E 11 , E 12 , E 21 , E 22 } siendo


" # " # " # " #
1 0 0 1 0 0 0 0
E 11 = , E 12 = , E 21 = , E 22 =
0 0 0 0 1 0 0 1

En efecto, para cualquier A = a i j tenemos la combinacin lineal A = a 11 E 11 + a 12 E 12 + a 21 E 21 + a 22 E 22 .

En el caso general, Kmn = gen {E 11 , E 12 , ..., E 1n , ..., E m1 , ..., E mn } donde E i j es la matriz que tiene todos sus elementos
nulos, salvo el correspondiente a la posicin i j que es 1.

Ejemplo 1.22

A
P no es un espacio vectorial finitamente generado.

B
U

Para demostrarlo consideramos cualquier conjunto finito de polinomios no nulos p 1 , p 2 , ..., p N y llamamos g i al

-
grado del polinomio p i . Sea entonces G el mximo entre los grados de los p i , es decir

a
r
G = max g 1 , g 2 , ..., g N
ie

Entonces cualquier combinacin lineal de los polinomios p 1 , p 2 , ..., p N ser un polinomio nulo o un polinomio de
en

grado G, con lo cual


gen p 1 , p 2 , ..., p N P

g
In
e
d

1.4 Independencia lineal y bases


d
a
lt

Como ya sealamos en la nota del ejemplo 1.17, es posible que un subespacio finitamente generado tenga diferentes con-
cu

juntos generadores, incluso con diferentes cantidades de vectores. Por ejemplo cada uno de los conjuntos {(1, 0), (0, 1)},
{(1, 1), (1, 1)} y {(1, 1), (1, 1), (1, 0)} genera R2 . En el caso de los dos primeros conjuntos generadores, para cada vector de
a
F

R2 hay una nica combinacin lineal adecuada que lo genera. En cambio, existen distintas combinaciones lineales de los
elementos del tercero que generan un mismo vector, como se aprecia en la figura 1.3. (Dejamos la demostracin formal de
esta afirmacin como ejercicio para el lector).

Usualmente ser preferible trabajar con conjuntos de generadores tales que la combinacin lineal que hay que efectuar para
obtener cada vector del espacio es nica.

Consideremos ahora el caso de un subespacio S generado por un solo vector v. Si v 6= 0, entonces combinaciones lineales
diferentes darn origen a diferentes vectores. En efecto, usando la propiedad 4 del teorema 1.1, si v = v = . De
manera equivalente: 6= v 6= v. Obviamente, si v = 0, distintas combinaciones lineales de v producen el mismo re-
sultado; por ejemplo 1v = 2v = 0.

La definicin siguiente nos permitir caracterizar a los conjuntos de generadores para los cuales cada vector del subespacio
generado se alcanza con una nica combinacin lineal.
14 Espacios vectoriales

Figura 1.3: Dos combinaciones lineales que generan al mismo vector

A
B
Definicin 1.6

U
Un conjunto de vectores {v 1 , v 2 , ..., v r } de un espacio vectorial V se dice linealmente independiente si la nica solucin

-
de la ecuacin
1 v 1 + 2 v 2 + ... + r v r = 0V
a
r (1.2)

es la solucin trivial 1 = 2 = ... = r = 0.


ie
en

A su vez, {v 1 , v 2 , ..., v r } se dice linealmente dependiente si existe una solucin no trivial de la ecuacin (1.2); es decir si
existen escalares 1 , 2 , ..., r no todos nulos para los cuales se verifica (1.2).
g
In
e

Ejemplo 1.23
d
d

Apliquemos la definicin de independencia lineal a los conjuntos de vectores {(1, 1), (1, 1)} y {(1, 1), (1, 1), (1, 0)}
a

mencionados al comienzo de esta seccin.


lt
cu

Al plantear la ecuacin 1.2 para el primer conjunto tenemos


a

1 (1, 1) + 2 (1, 1) = (0, 0)


F

(1 + 2 , 1 2 ) = (0, 0)

lo que nos lleva al sistema de ecuaciones

1 + 2 = 0
1 2 = 0

cuya nica solucin es 1 = 2 = 0, por lo que afirmamos que el conjunto de vectores {(1, 1), (1, 1)} es linealmente
independiente.

En cuanto al conjunto {(1, 1), (1, 1), (1, 0)}, el planteo de la ecuacin 1.2 es

1 (1, 1) + 2 (1, 1) + 3 (1, 0) = (0, 0)


(1 + 2 + 3 , 1 2 ) = (0, 0)
Espacios vectoriales 15

lo que nos lleva al sistema de ecuaciones

1 + 2 + 3 = 0
1 2 = 0

cuyo conjunto solucin es gen {(1, 1, 2)}. Afirmamos entones que el conjunto {(1, 1), (1, 1), (1, 0)} es linealmente de-
pendiente.

Ejemplo 1.24

1, t 1, t 2 + 2t + 1 es un conjunto linealmente independiente en P . Para comprobarlo planteamos la ecuacin (1.2)


con v 1 = 1, v 2 = t 1, v 3 = t 2 + 2t + 1:

A
1 1 + 2 (t 1) + 3 (t 2 + 2t + 1) = 0

B
U
(1 2 + 3 ) + (2 + 23 ) t + 3 t 2 = 0

-
Como un polinomio es nulo si y slo si todos sus coeficientes los son, necesariamente

a
r
1 2 + 3 = 0
ie

2 + 23 = 0
en

3 = 0
g
In

con lo cual, resolviendo el sistema obtenemos 1 = 2 = 3 = 0.


e
d

Ejercicio.
d
a

1.4 Demuestre que un conjunto {v 1 , v 2 , ..., v r } con r 2 es linealmente dependiente si y slo si hay un vector que es
lt

combinacin lineal de los dems.


cu
a
F

Ejemplo 1.25

sen x, cos x, sen x + 4 es linealmente dependiente en C (R) ya que, como mencionamos en el ejercicio 1.3, la fun-

cin sen x + 4 es combinacin lineal de las otras dos.


Ejemplo 1.26

{sen x, cos x} es linealmente independiente en C (R). Para probarlo, supongamos que 1 y 2 son escalares tales que

1 sen x + 2 cos x = 0 x R

Como suponemos que la igualdad vale para todo x R, en particular vale para x = 0, con lo cual

1 sen 0 + 2 cos 0 = 0 2 = 0
16 Espacios vectoriales


Considerando ahora x = 2 y teniendo en cuenta que 2 = 0, resulta


1 sen = 0 1 = 0
2
Con esto hemos demostrado que necesariamente 1 = 2 = 0, y con ello que el conjunto es linealmente independien-
te. Para finalizar, destaquemos que no nos hubiese servido elegir como segundo punto x = (por qu?).

La definicin 1.6 se puede reformular diciendo que un conjunto de vectores es linealmente independiente si hay una sola
combinacin lineal que da el vector nulo. Veremos en el teorema siguiente que con esto basta para caracterizar a los conjun-
tos de vectores con una nica combinacin lineal para cada elemento del espacio que generan.

Teorema 1.3

A
Sea {v 1 , v 2 , ..., v r } un conjunto generador de un subespacio S del espacio vectorial V . Entonces son equivalentes:

B
U
1 Para cada v S existen escalares nicos 1 , 2 , ..., r tales que v = 1 v 1 + 2 v 2 + ... + r v r .

-
2 {v 1 , v 2 , ..., v r } es linealmente independiente.

a
r
ie

Demostracin:
en

Demostraremos en primer lugar que 1 2 . Es decir, debemos probar que el conjunto {v 1 , v 2 , ..., v r } es linealmente inde-
pendiente asumiendo que verifica 1 . Pero esto es inmediato, porque al plantear la ecuacin (1.2) se deduce que los escalares
g

deben ser todos nulos.


In

A continuacin, demostraremos la implicacin 2 1 . Suponemos entonces que para cierto v V existen escalares 1 , 2 , ..., r
e

y 1 , 2 , ..., r tales que


d

v = 1 v 1 + 2 v 2 + ... + r v r = 1 v 1 + 2 v 2 + ... + r v r
d
a

Entonces
lt

1 1 v 1 + 2 2 v 2 + ... + r r v r = 0

cu

y dada la independencia lineal de los vectores, debe ser para todo i = 1, ..., r :
a
F

i i = 0 i = i

El teorema anterior garantiza que un conjunto generador linealmente independiente tendr una nica combinacin lineal
posible para alcanzar cada vector del espacio generado. Esta clase de conjuntos ser de gran inters a lo largo del curso, lo
cual motiva la siguiente definicin.

Definicin 1.7

Un conjunto de vectores B = {v 1 , v 2 , ..., v r } del espacio vectorial V es una base de un subespacio S si y slo si es un
conjunto linealmente independiente que genera S.
Espacios vectoriales 17

N El espacio nulo carece de base, pues el conjunto {0V } es linealmente dependiente.

Planteamos ahora la siguiente cuestin: dado un conjunto generador de un subespacio S 6= {0V } cmo podemos obtener
una base de S? La respuesta la brinda el siguiente lema.

Lema 1.1

Sea {v 1 , v 2 , ...v r , v r +1 } un conjunto generador del subespacio S. Supongamos que v r +1 depende linealmente del resto,
entonces {v 1 , v 2 , ...v r } tambin es un conjunto generador de S.

Demostracin:
Dado un vector v S, existen escalares 1 , 2 , ...r , r +1 tales que

A
v = 1 v 1 + 2 v 2 + ... + r v r + r +1 v r +1

B
U
Por otra parte, hemos supuesto que v r +1 es una combinacin lineal de los dems vectores. Es decir que existen escalares
1 , 2 , ..., r tales que

-
v r +1 = 1 v 1 + 2 v 2 + ... + r v r
Reemplazando en la ecuacin anterior tenemos
a
r
ie

v = 1 v 1 + 2 v 2 + ... + r v r + r +1 1 v 1 + 2 v 2 + ... + r v r

en

= 1 v 1 + 2 v 2 + ... + r v r + r +1 1 v 1 + r +1 2 v 2 + ...r +1 r v r

= 1 + r +1 1 v 1 + 2 + r +1 2 v 2 + ... + r + r +1 r v r

g
In

y por lo tanto existe una combinacin lineal de los vectores v 1 , v 2 , ..., v r que genera a v S.
e
d

El lema anterior nos indica un mtodo para obtener una base a partir de un conjunto generador. Supongamos que {v 1 , v 2 , ..., v r }
es un conjunto generador de un subespacio S 6= {0V }.
d

Si r = 1, es decir si el conjunto generador posee un nico elemento v 1 , teniendo en cuenta que S 6= {0V } debe ser v 1 6= 0V . Por
a

lo tanto v 1 es base de S.
lt

Supongamos ahora que r > 1. Si {v 1 , v 2 , ..., v r } es linealmente independiente, entonces es base de S. Si en cambio es lineal-
cu

mente dependiente, alguno de sus elementos depende linealmente del resto; eliminamos ese elemento del conjunto y ob-
a

tenemos un conjunto que sigue generando S pero con r 1 elementos en lugar de r . Si el conjunto obtenido es linealmente
F

independiente, es base de S; si es linealmente dependiente, algn elemento es combinacin lineal del resto. Entonces eli-
minando ese elemento del conjunto obtenemos un conjunto de generadores de S con r 2 elementos. Prosiguiendo de esta
manera, despus de un nmero finito de pasos (no ms de r 1) obtendremos un conjunto de generadores de S linealmente
independiente: una base de S. En el ms extremo de los casos llegaremos a un conjunto generador de S compuesto por un
solo vector, que forzosamente deber ser no nulo, pues S 6= {0V }, y que por ende ser base de S.

El argumento anterior demuestra el siguiente resultado.

Teorema 1.4

Sea G = {v 1 , v 2 , ..., v r } un conjunto generador de un subespacio S 6= {0V } de cierto espacio vectorial V . Entonces existe
un subconjunto de G que es base de S.

Una consecuencia inmediata de este teorema es la siguiente.


18 Espacios vectoriales

Teorema 1.5

Todo subespacio finitamente generado y distinto del nulo posee una base.

En lo que sigue vamos a enunciar una serie de propiedades tiles e interesantes que se deducen de la existencia de bases 1 .

Lema 1.2

Si {v 1 , v 2 , ..., v r } es una base de un subespacio S de un espacio vectorial V , entonces todo conjunto de vectores de S
con ms de r elementos es linealmente dependiente.

Una consecuencia del lema anterior es el resultado siguiente.

A
Teorema 1.6

B
U
Sea S un subespacio no nulo finitamente generado. Entonces todas las bases de S tienen el mismo nmero de ele-
mentos.

-
a
r
Este teorema garantiza que exista un nmero de elementos comn a todas las bases y justifica la definicin que sigue.
ie
en

Definicin 1.8
g

La dimensin de un subespacio no nulo finitamente generado es el nmero de elementos que posee una base cual-
In

quiera de S. Se define tambin que el subespacio nulo tiene dimensin cero. A la dimensin de S se la denota dim(S).
e
d
d

Ejemplo 1.27 Base cannica de Kn


a
lt

Tanto la dimensin de Rn como la de Cn (C espacio vectorial) es n. En efecto, el conjunto E n = {e 1 , e 2 , ..., e n } ya estudia-


cu

do en los ejemplos 1.18 y 1.19 es una base tanto de Rn como de Cn . Ya vimos que E n genera cada uno de esos espacios;
por otra parte la independencia lineal es muy sencilla de probar. A la base E n se la suele denominar base cannica.
a
F

Ejemplo 1.28

La dimensin de Cn como R espacio vectorial no es n sino 2n.

Vemoslo para el caso n = 2 (el caso general es anlogo). En primer lugar, notemos que si bien {e 1 , e 2 } es un conjunto
linealmente independiente en C2 , ya no genera todo el espacio. Por ejemplo, el vector (2 + i , 1) no puede escribirse
como combinacin lineal de e 1 y e 2 si los escalares de la combinacin son nmeros reales.

Veamos ahora que la dimensin es 4. Para ello exhibiremos cuatro vectores linelamente independientes que generen
a C2 . Consideramos
(1, 0) (i , 0) (0, 1) (0, i ) (1.3)

1 Hemos optado por omitir las demostraciones, aunque el lector interesado puede encontrar los detalles en la bibliografa. Por ejemplo, en [4] y [5].
Espacios vectoriales 19

En primer lugar comprobamos que efectivamente generan a C2 : sea (z 1 , z 2 ) C2 ; entonces z 1 = x 1 + i y 1 y z 2 = x 2 + i y 2


con x 1 , x 2 , y 1 , y 2 R. Luego

(z 1 , z 2 ) = (x 1 + i y 1 , x 2 + i y 2 )
= x 1 (1, 0) + y 1 (i , 0) + x 2 (0, 1) + y 2 (0, i )

Luego cualquier vector de C2 es una combinacin lineal (con escalares reales) de los cuatro vectores de (1.3).
Para probar que son linealmente independientes, planteamos la ecuacin

1 (1, 0) + 2 (i , 0) + 3 (0, 1) + 4 (0, i ) = (0, 0)


(1 + i 2 , 3 + i 4 ) = (0, 0)

Con lo cual es necesariamente


1 + i 2 = 0 3 + i 4 = 0

A
B
Como se trata de escalares reales, la nica solucin posible es 1 = 2 = 3 = 4 = 0. Por lo tanto, los cuatro vectores

U
de (1.3) son linealmente independientes.

-
Ejemplo 1.29 Base cannica de Kmn
a
r
ie

Las dimensiones de Rmn y de Cmn son ambas iguales a m n. En efecto, como ya mostramos en el ejemplo 1.21,
en

ambos espacios estn generados por el conjunto E mn = {E 11 , E 12 , ..., E 1n , ..., E m1 , ..., E mn } definido oportunamente y
cuya independencia lineal se prueba fcilmente. Este conjunto es la base cannica tanto de Rmn como de Cmn .
g
In

Ejemplo 1.30 Base cannica de P n


e
d

1, t , ..., t n es base de P n (verifquelo) y por lo tanto dim (P n ) = n + 1. Dicha base es la base cannica del espacio P n .

d
a
lt
cu

Ejemplo 1.31
a

Consideremos el conjunto V = f : [0, 1] R : f (x) = a 0 + a 1 x + a 2 x 2 e x . Este conjunto de funciones resulta un



F

espacio vectorial si se consideran las operaciones suma y producto usuales para funciones.
Ms aun, V = gen e x , xe x , x 2 e x . Afirmamos que dim(V ) = 3.

Para constatarlo, basta con ver que el conjunto generador e x , xe x , x 2 e x es linealmente independiente. Usaremos

el mismo argumento que en el ejemplo 1.26: supongamos entonces que existen escalares 1 , 2 , 3 tales que

1 e x + 2 xe x + 3 x 2 e x = 0 x [0, 1] (1.4)

Evaluando en x = 0, x = 0,5 y x = 1, obtenemos el sistema de ecuaciones

1 = 0
0,5 0,5 2 0,5
1 e + 2 0,5e + 3 0,5 e =0
1 1 1
1 e + 2 e + 3 e =0

que tiene por nica solucin 1 = 2 = 3 = 0.


20 Espacios vectoriales

Otra forma de demostrar la independencia lineal del conjunto generador es la siguiente: como e x 6= 0 para todo x R,
la ecuacin (1.4) es equivalente a
1 + 2 x + 3 x 2 = 0 x [0, 1] (1.5)

Para que se cumpla (1.5) es necesario que sean 1 = 2 = 3 = 0 ya que 1 + 2 x + 3 x 2 debe ser el polinomio nulo.

Supongamos que la dimensin de un subespacio S es dim(S) = n. Para demostrar que un conjunto de vectores {v 1 , v 2 , ..., v r } S
es base de S, segn la definicin de base debemos probar por una parte que es linealmente independiente y por otra que
genera a S. Sin embargo, debido al siguiente resultado, la tarea es ms sencilla: basta con probar que el conjunto verifica
solamente una de las dos condiciones.

Teorema 1.7

A
Sea S un subespacio de un espacio vectorial V . Supongamos que dim(S) = n. Luego

B
1 Si {v 1 , v 2 , ..., v n } S es linealmente independiente, entonces {v 1 , v 2 , ..., v n } es base de S.

U
2 Si {v 1 , v 2 , ..., v n } S genera a S, entonces {v 1 , v 2 , ..., v n } es base de S.

-
a
r
ie
Ejemplo 1.32
en

{(1, 1), (2, 1)} es base de R2 pues es linealmente independiente y dim R2 = 2.



g
In

Ejercicio.
e
d

1.5 Demuestre que 1 t , 1 + t , t 2 es una base de P 2 .



d
a

Para finalizar esta seccin, no podemos dejar de mencionar un resultado motivado por la siguiente pregunta: dado un con-
lt

junto linealmente independiente {v 1 , v 2 , ..., v r } de vectores de un espacio vectorial V finitamente generado forman parte de
cu

alguna base de V ? Dicho de otra manera: se puede extender un conjunto linealmente independiente hasta completar una
a

base?
F

Teorema 1.8

Sea V un espacio vectorial de dimensin n y sea {v 1 , v 2 , ..., v r } V con r < n un conjunto linealmente independiente.
Entonces existen v r +1 , ..., v n V tales que B = {v 1 , v 2 , ..., v r , v r +1 , ..., v n } es una base de V .

1.5 Subespacios fundamentales de una matriz

En la seccin 1.1 identificamos los vectores de Kr con los de Kr 1 . A partir de esta seccin y en lo que resta del texto, usare-
mos libremente esta identificacin. Por lo general, ser muy ventajoso y facilitar la notacin interpretar a los vectores de Kr
como vectores columna de Kr 1 .
Espacios vectoriales 21

Dada una matriz A Kmn , cada una de sus columnas puede ser interpretada como un vector de Km . Entonces, si denomi-
namos A i a la i -sima columna de A, tenemos que A i Km y que
h i
A = A1 A2 An

Por ejemplo, si
1 2
A= 1 1 (1.6)

1 0
sus columnas son
1 2
A1 = 1 , A2 = 1

1 0
Similarmente, cada fila de A puede ser interpretada como un vector columna de Kn transpuesto y, si denominamos F i al

A
vector columna que se obtiene transponiendo la i -sima fila de A, podemos escribir

B
t
F1

U
.
A= ..

-
t
Fm

a
r
Por ejemplo, las filas transpuestas de la matriz A de (1.6) son
ie
" # " # " #
1 1 1
en

F1 = , F2 = , F3 =
2 1 0
g

Con esta notacin, el producto de la matriz A Kmn por un vector x Kn puede escribirse en la forma
In

t t
F1 F1 x
e

. .
Ax = .. x = ..
d



t t
Fm Fm x
d
a

que no expresa otra cosa que la regla usual de multiplicacin de una matriz por un vector: la i -sima componente del pro-
lt

ducto es el producto de la i -sima fila de A por el vector x.


cu

En cada matriz podemos definir subespacios a partir de lo que generan sus filas y columnas.
a
F

Definicin 1.9

Dada una matriz A Kmn

El espacio columna es el subespacio de Km generado por las columnas de A y se denota Col A:

Col A = gen {A 1 , ..., A n } Km (1.7)

El espacio fila es el subespacio de Kn generado por las filas transpuestas de A y se denota Fil A:

Fil A = gen {F 1 , ..., F m } Kn (1.8)

Dado que transponiendo las filas de A obtenemos las columnas de A t , tenemos que el espacio fila de A no es otro que el
espacio columna de A t , es decir
22 Espacios vectoriales

Proposicin 1.1

Para toda matriz A Kmn se verifica que


Fil A = Col A t

Vamos a dar ahora una interpretacin del producto entre una matriz y un vector que usaremos a menudo. Comenzamos con
un ejemplo: sean A la matriz definida en (1.6) y x = [1 2]t , aplicamos la definicin usual de producto de matrices y luego
reescribimos el resultado

1 2 " # 1 1 + 2 (2) 1 2
1
Ax = 1 1 = 1 1 + 1 (2) = 1 1 + (2) 1

2
1 0 1 1 + 0 (2) 1 0

Esto es un ejemplo de que el producto de una matriz por un vector columna consiste en combinar linealmente las columnas

A
de la matriz empleando como escalares las componentes del vector. No es difcil demostrar el caso general.

B
Proposicin 1.2

U
Dada una matriz A Kmn y dado un vector x = [x 1 x 2 ...x n ]t Kn , el producto se puede expresar como la siguiente

-
combinacin lineal de las columnas de la matriz

a

r
x1
ie

i x2
h
Ax = A 1 A 2 A n . = x 1 A 1 + x 2 A 2 + ... + x n A n
en


..
g

xn
In
e

Cada vez que multiplicamos a una matriz A Kmn por un vector x Kn obtenemos un elemento de Col A y, recprocamente,
d

todo elemento de Col A puede escribirse en la forma Ax eligiendo un x Kn con los escalares adecuados. Luego vale la
d

siguiente afirmacin.
a
lt

Proposicin 1.3
cu

Para toda matriz A Kmn se verifica que


Col A = Ax : x Kn

a
F

En lo que sigue, vamos a vincular los subespacios Col A y Fil A con el rango de A, al que denotaremos rango A. Recordando
que el rango de una matriz es tanto el nmero mximo de columnas linealmente independientes como el nmero mximo
de filas linealmente independientes, se llega sin dificultad a la siguiente afirmacin.

Proposicin 1.4

Para toda matriz A Kmn se verifica que

rango A = dim (Col A) = dim (Fil A)

A continuacin vincularemos a cada matriz con el sistema de ecuaciones lineales que se le asocia naturalmente. Es decir,
dada A Kmn , consideraremos la ecuacin matricial
Ax = b (1.9)
Espacios vectoriales 23

donde b Km y x Kn es la incgnita. En el caso de que b sea el vector nulo, la ecuacin (1.9) resulta Ax = 0 y se tiene un
sistema homogneo . El conjunto solucin de dicho sistema es un subespacio de Kn (ejercicio!) y le asignamos un nombre
propio:

Definicin 1.10

Dada una matriz A Kmn , el espacio nulo es el conjunto solucin del sistema homogneo asociado a la matriz y se
denota Nul A. Es decir
Nul A = x Kn : Ax = 0

Teniendo en cuenta el trabajo hecho en esta seccin, podemos dar una nueva interpretacin de lo que significa que un sis-
tema de ecuaciones sea o no compatible. Volviendo a mirar la ecuacin (1.9), notamos ahora que el sistema es compatible
si y slo si existe una combinacin lineal de las columnas de A que resulte ser el vector b. Vale decir que el sistema ser

A
compatible si b Col A. Ms an, si Col A = Km entonces el sistema ser compatible para cualquier b.

B
U
Con esto, queda demostrado el siguiente teorema.

-
Teorema 1.9

Dada A Kmn son equivalentes


a
r
ie

El sistema Ax = b tiene solucin para todo b Km .


en

Col A = Km
g
In

rango A = m
e
d

En cuanto a la unicidad de las soluciones, cada sistema Ax = b (con b arbitrario) tiene a lo sumo una solucin si y slo si la
ecuacin homognea tiene solucin nica (trivial), esto es, Nul A = {0}. 2 Ahora bien, que Nul A = {0} significa que la ecuacin
d

Ax = 0 tiene solamente solucin trivial y esto equivale a que las columnas de A sean linealmente independientes (por qu?).
a
lt

En consecuencia, la solucin de (1.9), en caso de existir, es nica si y slo si las columnas de A son linealmente independien-
cu

tes. Esto ltimo equivale a que sea dim (Col A) = rango A = n.


a

Reunimos las observaciones anteriores en el teorema que sigue.


F

Teorema 1.10

Dada A Kmn son equivalentes

El sistema Ax = b tiene a lo sumo una solucin (una o ninguna) para cada b Km .

Nul A = {0}

dim (Col A) = n

rango A = n

2 Suponiendo que Nul A = {0}, basta con sealar que si existen dos soluciones x e y, es decir si Ax = Ay = b, entonces A(x y) = 0 y se deduce que x = y.

Recprocamente, si cada sistema Ax = b tiene a lo sumo una solucin, vale en particular para b = 0 y en tal caso la nica solucin es x = 0.
24 Espacios vectoriales

Definicin 1.11

A los cuatro subespacios que hemos asociado a cada matriz A: Col A, Fil A, Nul A, Nul(A t ) se los denomina subespacios
fundamentales de A.

1.6 Coordenadas

En el teorema 1.3 qued establecido que, en los conjuntos linealmente independientes, hay una nica combinacin lineal
adecuada para cada vector del espacio que generan. Esa combinacin lineal queda caracterizada por los escalares que se
usan: en esta seccin estableceremos una correspondencia entre dichos escalares y el vector que producen. Para ello, co-

A
menzamos por establecer un orden en cada base del espacio.

B
Definicin 1.12

U
Una base ordenada de un espacio vectorial V de dimensin finita es una base en la cual se ha establecido un orden.

-
En general emplearemos la notacin
B = {v 1 ; v 2 ; ...; v n }
a
r
ie
para enfatizar que la base est ordenada. Es decir, separaremos los vectores con punto y coma.
en
g

Consideremos una base ordenada B = {v 1 ; v 2 ; ...; v n }3 de cierto espacio V . Como ya mencionamos, para cada vector v V
In

existe y es nico el conjunto de escalares 1 , 2 , ..., n (en ese orden) tales que v = 1 v 1 + 2 v 2 + ... + n v n . Esto nos permite
establecer la correspondencia entre vectores y escalares que habamos anticipado.
e
d

Definicin 1.13
d

Dados un espacio vectorial V y una base ordenada B = {v 1 ; v 2 ; ...; v n }, para cada vector v V definimos el vector de
a
lt

coordenadas de v respecto de la base B , al que denotamos [v]B , mediante


cu

1

a

2
F

Kn

[v]B =
..
.
n

donde 1 , 2 , ..., n K son los nicos escalares tales que

v = 1 v 1 + 2 v 2 + ... + n v n

t
Por otra parte, si = 1 2 ... n Kn , entonces existe un vector w V tal que [w]B = . Efectivamente, tal vector es

w = 1 v 1 + 2 v 2 + ...n v n . De acuerdo con lo que acabamos de decir, al fijar una base ordenada B de V podemos establecer
una correspondencia biyectiva entre los vectores de V y los vectores de Kn . Tal correspondencia consiste en asignar a cada
vector de V su vector de coordenadas en la base B .

3 Hacemos esta distincin con punto y coma porque en la notacin de conjuntos B = {v , v , ..., v } alude a un conjunto que contiene a los elementos
1 2 n
v 1 , v 2 , ..., v n sin tener, en principio, ningn orden. Es decir, dara lo mismo escribir B = {v 1 , v 2 , ..., v n } = {v n , v 2 , ..., v 1 }.
Espacios vectoriales 25

Ejemplo 1.33

Consideramos la base ordenada B = t 1; t + 1; t 2 + 1 de P 2 (verifquelo).


En primer lugar, buscamos las coordenadas del polinomio p = t 2 t + 1 en la base B . Para ello es necesario encontrar
los escalares que verifican
p = 1 (t 1) + 2 (t + 1) + 3 t 2 + 1

Operando en el segundo miembro de la igualdad llegamos a la ecuacin

t 2 t + 1 = 3 t 2 + (1 + 2 ) t + (1 + 2 + 3 )

y por lo tanto debe ser

3 = 1

A
1 + 2 = 1

B
1 + 2 + 3 = 1

U
Resolviendo el sistema de ecuaciones obtenemos 1 = 0,5, 2 = 0,5 y 3 = 1, con lo cual p B = [0,5 0,5 1]t .

-
a
Para ilustrar el camino inverso, buscamos un polinomio q P 2 tal que q B = [0,5 0,5 2]t . Para ello calculamos
r
ie

q = 0,5(t 1) 0,5(t + 1) + 2 t 2 + 1 = 2t 2 + 1

en

A continuacin compararemos las coordenadas de la suma de vectores con la suma de coordenadas. La suma de las
g

coordenadas de q con las de p es


In

q B + p B = [0 1 3]t

e

mientras que las coordenadas de la suma q + p surgen de


d

q + p = 0,5(t 1) 0,5(t + 1) + 2 t 2 + 1 + 0,5(t 1) 0,5(t + 1) + 1 t 2 + 1



d

= 0(t 1) 1(t + 1) + 3 t 2 + 1

a
lt

q + p B = [0 1 3]t

cu

con lo cual
a


q B + p B = q +p B (1.10)
F

Por ltimo, compararemos la multiplicacin de las coordenadas por un escalar con las coordenadas del vector multi-
plicado por un escalar. Consideramos el vector p y el escalar 2:

2 p B = [1 1 2]t

A su vez

2p = 2 0,5(t 1) 0,5(t + 1) + 1 t 2 + 1

= 1(t 1) 1(t + 1) + 2 t 2 + 1

2p B = [1 1 2]t

Entonces tenemos que



2 p B = 2p B (1.11)
26 Espacios vectoriales

Las frmulas (1.10) y (1.11) del ejemplo sugieren la validez del teorema que sigue.

Teorema 1.11

Dados un espacio vectorial V y una base ordenada B = {v 1 ; v 2 ; ...; v n }, para dos vectores cualesquiera u, v V y cual-
quier escalar k K se verifica que

[u + v]B = [u]B + [v]B

[ku]B = k [u]B

Demostracin:
Sean [u]B = [1 2 ... n ] y [v]B = 1 2 ... n . Vale decir que

A
u = 1 v 1 + 2 v 2 + ... + n v n

B
v = 1 v 1 + 2 v 2 + ... + n v n

U
u + v = 1 + 1 v 1 + 2 + 2 v 2 + ... + n + n v n

-
de donde se deduce que

a
r t
[u + v]B = 1 + 1 2 + 2 ... n + n

ie
t
= [1 2 ... n +]t + 1 2 ... n

en

= [u]B + [v]B
g

Por otra parte,


In

ku = k (1 v 1 + 2 v 2 + ... + n v n )
e

= (k1 ) v 1 + (k2 ) v 2 + ... + (kn ) v n


d
d

con lo cual
a

[ku]B = [k1 k2 ... kn ]t


lt
cu

= k [1 2 ... n ]t
= k [u]B
a
F

Como hemos visto recin, al fijar una base ordenada B de V , podemos reducir todas las operaciones entre vectores de V a
operaciones entre sus coordenadas como vectores de Kn . Ms an, como veremos a continuacin, tambin es posible deter-
minar la dependencia o independencia lineal de un conjunto de vectores de V a partir de la dependencia o independencia
lineal de sus coordenadas.

Teorema 1.12

Dados un espacio vectorial V , una base ordenada B = {v 1 ; v 2 ; ...; v n } y un conjunto {u 1 , u 2 , ..., u r } de vectores de V ,
entonces son equivalentes

{u 1 , u 2 , ..., u r } es linealmente independiente en V .

[u 1 ]B , [u 2 ]B , ..., [u r ]B es linealmente independiente en Kn .



Espacios vectoriales 27

Demostracin:
Aplicando el teorema 1.11 y el hecho de que el vector nulo tiene coordenadas nulas, tenemos

1 [u 1 ]B + 2 [u 2 ]B + ... + r [u r ]B = 0 [1 u 1 + 2 u 2 + ... + r u r ]B = 0 1 u 1 + 2 u 2 + ... + r u r = 0

Vale decir que las soluciones de las ecuacin en coordenadas son las mismas que las soluciones de la ecuacin con los vec-
tores originales. Por lo tanto, la ecuacin 1 [u 1 ]B + 2 [u 2 ]B + ... + r [u r ]B = 0 tiene como nica solucin 1 = 2 = ... =
r = 0 si y slo si la nica solucin de la ecuacin 1 u 1 + 2 u 2 + ... + r u r = 0 es 1 = 2 = ... = r = 0. En otras palabras,
[u 1 ]B , [u 2 ]B , ..., [u r ]B es linealmente independiente en Kn si y slo si {u 1 , u 2 , ..., u r } es linealmente independiente en V .

Ejemplo 1.34

Determinar si B = 1 + t ; 1 + t 3t 2 ; 1 + 2t 2t 2 es base de P 2 .

A
En primer lugar, sabemos que la dimensin de P 2 es 3. Luego (aplicando el teorema 1.7) bastar con estudiar su

B
independencia lineal. Ahora bien, aplicando el teorema 1.12, podemos estudiar las coordenadas de los vectores con

U
respecto a la base cannica E = 1, t , t 2 :

-
[1 + t ]E = [1 1 0]t 1 + t 3t 2 E = [1 1 3]t 1 + 2t 2t 2 E = [1 2 2]t

a
r
Para estudiar la independencia lineal de estos vectores de R3 disponemos de varios mtodos. Por ejemplo, podemos
ie

formar una matriz de tamao 3 3 disponiendo cada uno de esos vectores como fila y determinar su rango: si ste es
en

igual al nmero de filas de la matriz, los vectores son linealmente independientes. En nuestro caso, la matriz es
g


1 1 0
In

A= 1 1 3

1 2 2
e
d

Para calcular su rango aplicamos eliminacin gaussiana (triangulacin):


d
a


1 1 0 F2 F1 1 1 0 1 1 0
F F
lt

2 3
1 1 3 0 0 3 0 3 2


cu

1 2 2 F3 + F1 0 3 2 0 0 3
a

Como el rango de la ltima matriz es 3, el rango de la matriz inicial es tambin 3 ya que, como es sabido, en cada
F

paso de triangulacin cambia la matriz pero no el espacio fila. Por lo tanto los vectores coordenados son linealmente
independientes y B es una base de P 2 .

Una alternativa es la siguiente: como A es una matriz cuadrada y solamente nos interesa saber si su rango es 3, cal-
culamos su determinante; si resulta distinto de cero entonces rango A = 3, en caso contrario es rango A < 3. Dejamos
como ejercicio completar esta alternativa.
28 Espacios vectoriales

1.7 Matriz de Cambio de Base

Como hemos visto, dada una base ordenada B de un espacio vectorial V de dimensin n, podemos identificar cada vector de
V con su vector de coordenadas en la base B . Esto nos permite operar con las coordenadas en Kn , lo cual suele ser ms prc-
tico (como se ilustr en el ejemplo 1.34). En algunas aplicaciones es posible que comencemos describiendo un problema
usando las coordenadas de los vectores en una base B , pero que su solucin se vea facilitada si empleamos las coordenadas
de los vectores en otra base ordenada C . Entonces aparece naturalmente el siguiente problema:

Dadas las coordenadas de cierto vector v en la base ordenada B , obtener las coordenadas de v en la base ordenada C

cuya solucin se expresa en el teorema que sigue.

A
Teorema 1.13 Matriz de Cambio de Base

B
U
Sean B y C bases ordenadas del espacio vectorial V , donde B = {v 1 ; v 2 ; ...; v n }. Entonces existe una nica matriz M
Knn tal que

-
[v]C = M [v]B v V

a
Adems, M es la matriz cuyas columnas son las coordenadas de los vectores de la base B con respecto a la base C . Es
r
decir
ie
h i
M = [v 1 ]C [v 2 ]C [v n ]C (1.12)
en

A la matriz M se la denomina matriz de cambio de coordenadas de la base B a la base C y se la denota C BC .


g
In

Demostracin:
e

Consideremos un vector v V arbitrario. Entonces existen y son nicas sus coordenadas con respecto a la base B : [v]B =
d

[1 2 ... n ]t . Vale decir que


d

v = 1 v 1 + 2 v 2 + ... + n v n
a

Tomando coordenadas y aplicando el teorema 1.11 obtenemos


lt
cu

[v]C = 1 [v 1 ]C + 2 [v 2 ]C + ... + n [v n ]C
a

En esta ltima expresin se aprecia que para realizar el cambio de coordenadas alcanza con saber las coordenadas con
F

respecto a la base C de los vectores de la base B . Tomando en consideracin la matriz definida en 1.12 y pensando al producto
entre matriz y vector como una combinacin lineal de las columnas de la matriz, la ltima expresin queda

[v]C = 1 M 1 + 2 M 2 + ... + n M n = M [v]B

como queramos probar. Falta ver la unicidad de la matriz de cambio de base. Para eso y como es usual, supongamos que
existe cierta matriz N Knn que realiza el mismo cambio de base que M , es decir [v]C = N [v]B v V . Probaremos que
todas las columnas Ni (con i = 1...n) de la matriz N coinciden con las respectivas columnas de M . Para ello, tengamos en
cuenta que las coordenadas de los vectores de la base B con respecto a esa misma base son los vectores cannicos de Kn , es
decir [v i ]B = e i . Con eso resulta
h i
M i = [v i ]C = N [v i ]B = N1 N2 Nn e i = Ni

como queramos demostrar.

A continuacin presentamos dos propiedades de la matriz de cambio de base.


Espacios vectoriales 29

Teorema 1.14

Sean B , C y D bases ordenadas del espacio vectorial V de dimensin finita. Entonces

1 C B D = CC D C BC

2 C BC es inversible y (C BC )1 = CC B

Demostracin:
Empecemos por el punto 1 . Es suficiente comprobar que para todo v V se verifica que [v]D = (CC D C BC ) [v]B , ya que la
matriz de cambio de base es nica. Ahora bien,

(CC D C BC ) [v]B = CC D (C BC [v]B ) = CC D ([v]C ) = [v]D

En cuanto al punto 2 , notemos en primer lugar que C B B = I donde I representa la matriz identidad. En efecto, como para

A
todo v V es [v]B = I [v]B , la unicidad de la matriz de cambio de base garantiza que C B B = I . Entonces, usando el punto 1

B
deducimos que C BC CC B = CCC = I y CC B C BC = C B B = I y con ello que C BC es inversible y (C BC )1 = CC B .

U
-
Ejemplo 1.35

a
Consideremos la base B = 1 t , 1 + t , 1 + t + t 2 de P 2 y supongamos que deseamos hallar las coordenadas de
r
p = 2t 2 2t + 4 en la base B .
ie
en

Comencemos por sealar que las coordenadas de p con respecto a E = 1, t , t 2 , la base cannica de P 2 , son p E =

[4 2 2]t . De acuerdo con el teorema 1.13, p B = C E B p E . Por ende, debemos calcular C E B . Para ello sealamos dos
g


In

alternativas:

1. Obtener las coordenadas de los vectores de la base E con respecto a la base B . Esto implicara resolver los tres
e
d

sistemas de ecuaciones que surgen de plantear


d

1 = 1 (1 t ) + 2 (1 + t ) + 3 1 + t + t 2

a

t = 1 (1 t ) + 2 (1 + t ) + 3 1 + t + t 2

lt
cu

t 2 = 1 (1 t ) + 2 (1 + t ) + 3 1 + t + t 2

a
F

2. Construir la matriz C B E y, aplicando el teorema 1.14 obtener C E B como su inversa.

Desarrollamos la segunda alternativa: la matriz C B E se construye con facilidad puesto que

[1 t ]E = [1 1 0]t [1 + t ]E = [1 1 0]t 1 + t + t 2 E = [1 1 1]t


con lo cual
1 1 1
CB E = 1 1 1

0 0 1
y su inversaa es la matriz buscada:
1
12

2 0
C E B = (C B E )1 = 1 1
1

2 2
0 0 1
30 Espacios vectoriales

de modo que
1
21

2 0 4 3
1 1

p B = CE B p E = 1 2 = 1

2 2
0 0 1 2 2
a Quienes calculen la inversa con el conocido mtodo que consiste en yuxtaponer la matriz identidad y triangular, notarn la relacin con la

primera alternativa que consista en resolver tres sistemas de ecuaciones.

1.8 Operaciones entre subespacios

A
Para estudiar las posibles operaciones entre subespacios comenzamos con un ejemplo.

B
U
-
a
r
ie
en
g
In
e
d
d
a

Figura 1.4: Dos subespacios de R3


lt
cu
a

Ejemplo 1.36
F

Consideremos los planos que pasan por el origen

S 1 = x R3 : x 1 + 2x 2 + 2x 3 = 0 S 2 = x R3 : x 2 = 0

Si consideramos su unin, se trata del conjunto de vectores que pertenecen a un plano o al otro:

S 1 S 2 = x R3 : x S 1 x S 2

Elijamos los vectores u = (2, 1, 0) S 1 y v = (1, 0, 2) S 2 . Al calcular la suma resulta que u + v = (3, 1, 2) S 1 S 2 ,
como se aprecia en la figura 1.4. En consecuencia, S 1 S 2 no es subespacio pues la suma no es cerrada.

Si en cambio consideramos la interseccin de estos subespacios, es decir el conjunto de vectores que pertenecen a
ambos:
S 1 S 2 = x R3 : x S 1 x S 2

Espacios vectoriales 31

queda planteado el sistema de ecuaciones

x 1 + 2x 2 + 2x 3 = 0 (1.13)
x2 = 0 (1.14)

cuya solucin consta de todos los vectores de la forma (2x 3 , 0, x 3 ) = x 3 (2, 0, 1) con x 3 R. Vale decir que

S 1 S 2 = gen {(2, 0, 1)}

y se trata efectivamente de un subespacio: en este caso es una recta que pasa por el origen.

En general, ni la diferencia entre dos subespacios ni el complemento de un subespacio pueden ser subespacios, ya que en
ambos casos el vector nulo no pertenece al conjunto resultante. Ya hemos visto que la unin de subespacios no tiene por qu

A
ser un subespacio. El teorema siguiente confirma lo que sugiere el ejemplo: que la interseccin entre subespacios es a su vez

B
un subespacio.

U
Teorema 1.15

-
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , su interseccin

a
r
S 1 S 2 ... S r = {v V : v S 1 v S 2 ... v S r }
ie
en

tambin es subespacio de V .
g
In

Demostracin:
Probaremos las tres condiciones que exige el teorema del subespacio 1.2.
e
d

1. Es claro que 0 S 1 S 2 ... S r , luego la interseccin no es vaca.


d

2. Sean u, v S 1 S 2 ... S r . Luego para todo i = 1, ..., r resulta, usando el hecho de que todos los S i son subespacios,
a
lt

u, v S i u + v S i u + v S 1 S 2 ... S r
cu

3. Sean u S 1 S 2 ... S r y K. Luego para todo i = 1, ..., r resulta


a
F

u S i ku S i ku S 1 S 2 ... S r

Hasta ahora, hemos considerado operaciones de conjuntos: unin, interseccin, complemento y diferencia. A continuacin
definimos una nueva operacin basada en las operaciones del espacio vectorial.

Definicin 1.14

Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , la suma de estos subespacios se denota como S 1 +S 2 +...+S r
y se define como el conjunto de todas las sumas posibles de vectores en S 1 , S 2 , ..., S r . Es decir,

S 1 + S 2 + ... + S r = {v V : v = v 1 + v 2 + ... + v r donde v 1 S 1 , v 2 S 2 , ..., v r S r }


32 Espacios vectoriales

Ejemplo 1.37

Si retomamos el ejemplo 1.36, la suma de los subespacios S 1 y S 2 es, como el grfico permite anticipar, todo el espacio
R3 . Para demostrarlo formalmente, notemos que

S 1 = gen {(0, 1, 1), (2, 1, 0)} S 2 = gen {(1, 0, 0), (0, 0, 1)}

Luego los elementos de S 1 son de la forma (0, 1, 1) + (2, 1, 0) con , arbitrarios, mientras que los de S 2 son de la
forma (1, 0, 0) + (0, 0, 1) con , arbitrarios. Por ende, los elementos de S 1 + S 2 sern de la forma

v = (0, 1, 1) + (2, 1, 0) + (1, 0, 0) + (0, 0, 1)

Es decir que S 1 + S 2 contendr todas las combinaciones lineales de los vectores (0, 1, 1), (2, 1, 0), (1, 0, 0), (0, 0, 1), que
constituyen un conjunto generador de R3 .

A
B
En el ejemplo anterior la suma de subespacios result ser un subespacio. El teorema siguiente generaliza este hecho.

U
Teorema 1.16

-
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , la suma S 1 + S 2 + ... + S r es un subespacio de V .

a
r
ie

Demostracin:
en

Una vez ms, probaremos las tres condiciones que exige el teorema del subespacio 1.2.
1. Dado que 0 S 1 0 S 2 ... 0 S r , resulta 0 = 0 + 0 + ... + 0 0 S 1 + S 2 + ... + S r
g
In

2. Sean u, v S 1 + S 2 + ... + S r . Entonces existen u 1 S 1 , u 2 S 2 , ..., u r S r tales que u = u 1 + u 2 + ... + u r . Anlogamente


v = v 1 +v 2 +...+v r para ciertos v 1 S 1 , v 2 S 2 , ..., v r S r . Luego, teniendo en cuenta que los S 1 , S 2 , ..., S r son subespacios
e
d

u + v = (u 1 + u 2 + ... + u r ) + (v 1 + v 2 + ... + v r )
d

= (u 1 + v 1 ) + (u 2 + v 2 ) +... + (u r + v r )
a

| {z } | {z } | {z }
S 1 S 2 S r
lt

u + v S1 + S2
cu

3. Sean u S 1 + S 2 + ... + S r y K. Entonces existen u 1 S 1 , u 2 S 2 , ..., u r S r tales que u = u 1 + u 2 + ... + u r . Por lo tanto
a
F

u = (u 1 + u 2 + ... + u r )
= u 1 + u 2 +... + u r
|{z} |{z} |{z}
S 1 S 2 S r

u S 1 + S 2 + ... + S r

Ejercicio.

1.6 Compruebe que en R2 la suma de dos rectas rectas distintas S 1 y S 2 que pasan por el origen es R2 . Interprete
grficamente. Qu sucede si las rectas estn contenidas en R3 ?

El mtodo empleado en el ltimo ejemplo para hallar un conjunto generador del subespacio suma se puede generalizar sin
mayores dificultades (dejamos los detalles como ejercicio):
Espacios vectoriales 33

Proposicin 1.5

Sean v 11 , v 12 , ..., v 1k1 , v 21 , v 22 , ..., v 2k2 , ..., v r 1 , v r 2 , ..., v r kr conjuntos generadores de los subespacios S 1 , S 2 , ..., S r
de un espacio vectorial V respectivamente. Entonces

S 1 + S 2 + ... + S r = gen v 11 , v 12 , ..., v 1k1 , v 21 , v 22 , ..., v 2k2 , ..., v r 1 , v r 2 , ..., v r kr

es decir, la unin de conjuntos generadores de los subespacios S 1 , S 2 , ..., S r , es un conjunto de generadores de S 1 +S 2 +


... + S r .

Ejemplo 1.38

Obtener una base de S 1 + S 2 , siendo

A
S 1 = x R4 : x 1 + 2x 2 x 3 + x 4 = 0 x 1 x 4 = 0

B
U
y
S 2 = gen {(1, 1, 0, 0), (2, 1, 2, 1)}

-
a
Para resolver el problema necesitamos un conjunto generador de S 1 . Resolviendo las ecuaciones lineales homogneas
r
que definen el subespacio S 1 , obtenemos la siguiente base de S 1 : {(1, 1, 0, 1) , (0, 1, 2, 0)}. Como {(1, 1, 0, 0), (2, 1, 2, 1)}
ie

genera S 2 , aplicando la proposicin 1.5 tenemos que


en

{(1, 1, 0, 1), (0, 1, 2, 0), (1, 1, 0, 0), (2, 1, 2, 1)}


g
In

es un conjunto generador de S 1 + S 2 . Sin embargo, este conjunto no es base, ya que es linealmente dependiente. Apli-
cando, por ejemplo, eliminacin gaussiana, se verifica que el cuarto vector es combinacin lineal de los tres primeros,
e

y que estos son linealmente independientes, con lo cual


d

{(1, 1, 0, 1), (0, 1, 2, 0), (1, 1, 0, 0)}


d
a

es la base buscada.
lt
cu
a
F

N Como se desprende del ejemplo anterior, la unin de bases de los subespacios es un conjunto generador de la
suma, pero no es necesariamente base de esa suma.

El teorema que enunciamos a continuacin permite obtener nuevas conclusiones acerca de la suma de dos subespacios. 4

Teorema 1.17

Sean S 1 y S 2 subespacios de dimensin finita de un espacio vectorial V . Entonces S 1 + S 2 es de dimensin finita y

dim (S 1 + S 2 ) = dim (S 1 ) + dim (S 2 ) dim (S 1 S 2 ) (1.15)

4 La demostracin puede ser un buen repaso de los conceptos estudiados en este captulo. Recomendamos consultarla en la bibliografa, por ejemplo en

[4].
34 Espacios vectoriales

Ejemplo 1.39

Si retomamos el ejemplo 1.38, podemos aplicar el teorema anterior para deducir la dimensin de la interseccin. En
efecto, la frmula (1.15) resulta en este caso

3 = 2 + 2 dim (S 1 S 2 )

y concluimos que dim (S 1 S 2 ) = 1.

Como ya hemos definido en 1.14, cada elemento v de S 1 + S 2 + ... + S r puede expresarse en la forma

v = v 1 + v 2 + ... + v r donde v 1 S 1 , v 2 S 2 , ..., v r S r (1.16)

Sin embargo, esta descomposicin de v como suma de vectores en los subespacios S 1 , S 2 , ..., S r no tiene por qu ser nica.

A
Ejercicio. Considerando el ejemplo 1.36, encuentre dos descomposiciones distintas del vector v = (1, 1, 1) como suma

B
de elementos de S 1 y S 2 .

U
En lo que sigue, prestaremos atencin al caso en que la descomposicin es nica.

-
a
Definicin 1.15 r
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , se dice que la suma es directa si cada v S 1 + S 2 + ... + S r
ie

admite una nica descomposicin en la forma (1.16). Es decir, si los v 1 S 1 , v 2 S 2 , ..., v r S r son nicos. Cuando la
en

suma es directa emplearemos la notacin S 1 S 2 ... S r .


g
In

Ejemplo 1.40
e
d

La suma de un subespacio arbitrario S de un espacio vectorial V con el subespacio nulo {0} es directa, es decir
d

S {0} = S
a
lt

pues la nica forma de expresar v S, como suma de un elemento de S con uno de {0} es v = v + 0.
cu
a
F

Ejemplo 1.41

La suma de dos rectas distintas de R3 que pasan por el origen es directa.

En efecto, la suma es el plano que contiene a ambas rectas (ver ejercicio 1.6) y cada vector de ese plano puede
descomponerse en forma nica como suma de dos vectores, uno en la primera recta y otro en la segunda.

Ejercicio.

1.7 Demuestre que en R3 es directa la suma de un plano S 1 que pasa por el origen con una recta S 2 que tambin pasa
por el origen pero no est contenida en el plano.
Espacios vectoriales 35

Ejemplo 1.42

En R3 la suma de dos planos distintos S 1 y S 2 que contienen al origen nunca es directa.

En efecto, sea L = S 1 S 2 . Entonces L es una recta que pasa por el origen (por qu no puede ser tan solo un punto?).
Sea w cualquier vector no nulo de L. Entonces w S 1 y w S 2 , con lo cual tambin w S 2 . Pero entonces 0 S 1 + S 2
admite las dos siguientes descomposiciones:

0 = 0 + 0 y 0 = w + (w)

que demuestran que la suma de S 1 con S 2 no es directa.

Sealemos que en los ejemplos anteriores en los cuales la suma de los subespacios es directa, su interseccin es el subespacio

A
nulo. En cambio en el ejemplo en que la suma no es directa, la interseccin de los subespacios no es el subespacio nulo. El
teorema siguiente generaliza esta observacin.

B
U
Teorema 1.18

-
Sean S 1 y S 2 subespacios de un espacio vectorial V . Entonces la suma de S 1 y S 2 es directa si y slo si S 1 S 2 = {0}.

a
r
ie

Demostracin:
en

Para demostrar la doble implicacin, asumimos en primer lugar que la suma de S 1 y S 2 es directa. Evidentemente, 0 S 1 S 2 :
supongamos que existe otro vector v S 1 S 2 . En tal caso, como v pertenece a ambos subespacios se podran hacer dos
g

descomposiciones distintas
In

v = |{z} v = |{z}
0 + |{z} v + |{z}
0
S 1 S 2 S 1 S 2
e
d

en contra de que la suma es directa.


d

Asumamos ahora que S 1 S 2 = {0}. Razonando nuevamente por el absurdo, supongamos que existe cierto vector v que
a
lt

admite dos descomposiciones distintas:


v = v1 + v2 = w1 + w2
cu

|{z} |{z} |{z} |{z}


S 1 S 2 S 1 S 2
a

Pero entonces
F

v1 w1 = w2 v2
y dado que v 1 w 1 S 1 , w 2 v 2 S 2 , como la interseccin es el vector nulo, deducimos que

v1 w1 = w2 v2 = 0 v1 = w1 v2 = w2

luego la descomposicin es nica y la suma es directa.

Ejemplo 1.43

En el espacio de matrices cuadradas Rnn consideramos el subespacio S 1 de matrices simtricas (aquellas tales
que A = A t ) y el subespacio S 2 de matrices antisimtricas (aquellas tales que A = A t ). Dejamos como ejercicio
comprobar que se trata efectivamente de subespacios. Probaremos que la suma de estos subespacios es directa e
igual a todo el espacio, es decir S 1 S 2 = Rnn .
36 Espacios vectoriales

Notemos que cualquier matriz A Rnn admite la descomposicin

A + At A At
A= +
2 2
El primer trmino de la descomposicin es una matriz simtrica, mientras que el segundo es una matriz antisimtrica:
t t
A + At At + At At + A A + At

= = =
2 2 2 2
t t
A At At At At A A At

= = =
2 2 2 2
Esto prueba que la suma de S 1 y S 2 es todo el espacio de matrices. Falta ver que la suma es directa. Basndonos en el
teorema 1.18, probaremos que S 1 S 2 = {0}. Sea A S 1 S 2 : entonces A es simtrica y antisimtrica. Luego

A
A = A t A = A t A = A A = 0

B
U
En lo que sigue enunciaremos una condicin que permite determinar cundo los subespacios S 1 , S 2 , ..., S r estn en suma

-
directa. Para ello, sealemos que los teoremas 1.17 y 1.18 nos permiten afirmar que la suma dos subespacios S 1 y S 2 es

a
directa si y slo si dim (S 1 + S 2 ) = dim (S 1 ) + dim (S 2 ). El teorema siguiente generaliza esta observacin.
r
ie

Teorema 1.19
en

Sea V un espacio vectorial y sean S 1 , S 2 , ..., S r subespacios de dimensin finita. Entonces la suma S 1 + S 2 + ... + S r es
g

directa si y slo si se verifica que


In

dim (S 1 + S 2 + ... + S r ) = dim (S 1 ) + dim (S 2 ) + ... + dim (S r ) (1.17)


e
d
d

Ejemplo 1.44
a
lt

La suma de los subespacios de R5


cu


S 1 = gen {(1, 1, 0, 0, 1), (1, 0, 1, 0, 0)} S 2 = gen (2, 1, 0, 1, 1) S 3 = gen {(1, 1, 1, 1, 0)}
a
F

es directa, ya que el conjunto

{(1, 1, 0, 0, 1), (1, 0, 1, 0, 0), (2, 1, 0, 1, 1), (1, 1, 1, 1, 0)}

es linealmente independiente y por lo tanto base de S 1 +S 2 +S 3 , con lo cual se cumple la relacin establecida en (1.17):

dim (S 1 + S 2 + S r ) = dim (S 1 ) + dim (S 2 ) + dim (S r )}


| {z } | {z } | {z } | {z }
4 2 1 1

Ejemplo 1.45

En R3 consideremos un plano S 1 y dos rectas S 2 y S 3 , distintas y no contenidas en el plano, tales que S 1 S 2 S 3 = {0}.
Qu es S 1 + S 2 + S 3 ? Es directa la suma?
Espacios vectoriales 37

En primer lugar, S 1 +S 2 +S 3 = R3 (por qu?). La suma no es directa porque no se verifica la ecuacin (1.17): en efecto,
dim (S 1 + S 2 + S 3 ) = 3 mientras que dim (S 1 ) + dim (S 2 ) + dim (S 3 ) = 4.

Ejercicio.

1.8 Demuestre que la suma de los subespacios de P 3

S 1 = p P 3 : p(1) = 0 p(1) = 0 S 2 = gen t 3 + 8 S 3 = gen 2t 3 + t 2 + 15


no es directa.

A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
A
B
U
-
a
r
ie
en
g
In

Esta pgina fue dejada intencionalmente en blanco


e
d
d
a
lt
cu
a
F
2 Transformaciones lineales

A
B
U
2.1 Introduccin

-
a
r
En la seccin 1.5 del captulo 1, dedicada a los subespacios fundamentales de una matriz, propusimos una interpretacin de
ie
los sistemas de ecuaciones lineales de la forma Ax = b, segn la cual el sistema es compatible si y slo si b es combinacin
lineal de las columnas de A.
en
g

Una nueva interpretacin posible del sistema de ecuaciones Ax = b consiste en pensar que la expresin Ax define una
In

funcin de Kn Km , que a cada x Kn le asigna el vector Ax Km . En este contexto, el sistema de ecuaciones Ax = b


ser compatible si el vector b pertenece a la imagen de la funcin. En este captulo presentaremos una clase de funciones
e

que permite, entre otras cosas, representar sistemas de ecuaciones. Para ello, destaquemos dos caractersticas que tiene la
d

funcin definida con la frmula Ax:


d
a

x, y Kn : A(x + y) = Ax + Ay
lt

x Kn , K : A(x) = (Ax)
cu
a
F

Definicin 2.1

Dados dos espacios vectoriales V y W con el mismo conjunto de escalares K, la funcin f : V W es una transfor-
macin lineal si verifica

1 u, v V : f (u + v) = f (u) + f (v)

2 u V, K : f (u) = f (u)

Ejemplo 2.1

Cualquier funcin f : Kn Km definida mediante f (x) = Ax donde A Kmn es una transformacin lineal, por los
argumentos expuestos al comienzo.
40 Transformaciones lineales

Si consideramos entonces la funcin definida mediante

f : R3 R2 , f [(x 1 , x 2 , x 3 )] = (x 1 x 3 , x 2 + 5x 3 )

para probar que es una transformacin lineal alcanza con mostrar que su expresin es de la forma Ax, en este caso
con A R23 . Usando una vez ms la identificacin entre los espacios Kr y Kr 1 , podemos escribir

f : R3 R2 , f [x 1 x 2 x 3 ]t = [x 1 x 3 x 2 + 5x 3 ]t


" # x1
1 0 1
= x2

0 1 5
x3

A
Convencin

B
U
En el ejemplo anterior hemos usado la notacin f [(x 1 , x 2 , x 3 )] para destacar que f asigna a cada vector (x 1 , x 2 , x 3 ) R3
un vector de R2 . Sin embargo, muchas veces simplificaremos la notacin escribiendo

-
a
f (x 1 , x 2 , x 3 ) = ...
r
ie
en

Ejercicio.
g
In

2.1 Determine si la siguiente funcin es una transformacin lineal

f : P 2 R, f (p) = p(0)
e
d
d
a

Ejemplo 2.2
lt

La funcin
cu

f : R3 R3 , f (v) = v w
a

siendo w un vector fijo, es una transformacin lineal. Veamos que cumple las dos condiciones de la definicin, usando
F

las propiedades del producto vectorial:


1 Sean u, v R3 . Entonces

f (u + v) = (u + v) w = u w + v w = f (u) + f (v)

2 Sean u R3 , R. Entonces
f (u) = (u) w = (u w) = f (u)

Sealemos tambin que las propiedades del producto vectorial permiten afirmar que

f (0) = 0

f (v) = v para todo v R3 .

Estas ltimas observaciones se generalizan sin dificultad, como probaremos en el siguiente teorema.
Transformaciones lineales 41

Teorema 2.1

Dados los espacios vectoriales V,W y la transformacin lineal f : V W , se cumple que:

1 f (0V ) = 0W

2 u V : f (u) = f (u)

Demostracin:
Para probar la propiedad 1 , usamos el hecho de que el cero por cualquier vector da el vector nulo (ver 2 del teorema 1.1) y
la definicin de transformacin lineal:
f (0V ) = f (0v) = 0 f (v) = 0W

Anlogamente
f (v) = f [(1)v] = (1) f (v) = f (v)

A
B

U
Las propiedades anteriores, adems de tener inters por s mismas, sirven tambin para detectar funciones que no son trans-
formaciones lineales. En efecto, como toda transformacin necesariamente las verifica, decimos que son condicin necesaria

-
para ser transformacin lineal.

a
Ejemplo 2.3
r
ie

Estudiemos las funciones


en

f : R2 R2 , f (x 1 , x 2 ) = (2x 1 1, x 2 )
g

g : R2 R2 , g (x 1 , x 2 ) = x 12 , x 2

In

En el caso de f , notemos que f [(0, 0)] = (1, 0) 6= (0, 0). Por ende f no cumple una condicin necesaria y entonces no
e
d

puede ser transformacin lineal.


En el caso de g , es g (0) = 0 y se cumple la condicin necesaria. Sin embargo, que una funcin transforme al vector
d

nulo en el vector nulo no es una condicin suficiente para ser transformacin lineal. En este caso, notemos que
a
lt

g [3(1, 1)] = g (3, 3) = (9, 3) 6= 3g (1, 1) = (3, 3)


cu
a
F

Proposicin 2.1

Dados los vectores v 1 , v 2 , ..., v r V , los escalares 1 , 2 , ..., r K y la transformacin lineal f : V W , se cumple que

f (1 v 1 + 2 v 2 + ... + r v r ) = 1 f (v 1 ) + 2 f (v 2 ) + ... + r f (v r )

La demostracin surge al aplicar sucesivamente la definicin de transformacin lineal y la dejamos como ejercicio.

N A menudo diremos que las transformaciones lineales preservan las combinaciones lineales, en el sentido que
seala la propiedad anterior. Queremos destacar que, de todas las funciones posibles entre espacios vectoriales, le
prestamos atencin a las transformaciones lineales por propiedades como esta.
42 Transformaciones lineales

2.2 Ncleo e Imagen

Para comenzar esta seccin recordamos una notacin que, si bien usaremos en el contexto de las transformaciones lineales,
tiene validez para cualquier funcin f : A B , donde A y B son respectivamente el dominio y codominio de la funcin.

Definicin 2.2

Sea f : A B una funcin.

1 Dado un subconjunto del dominio M A, al conjunto de los transformados de los elementos de M por la
funcin f lo denominamos imagen de M por f . Con la notacin f (M ) resulta

B
f (M ) = f (m) : m M

U
2 Dado un subconjunto del codominio N B , al conjunto de los elementos del dominio que la funcin f trans-

-
forma en elementos de N lo denominamos preimagen de N por f . Con la notacin f 1 (N ) resulta

a
f 1 (N ) = x A : f (x) N
r
ie

Cuando el conjunto N tiene un solo elemento, o sea N = y , es usual suprimir las llaves:
en

f 1 (y) = x A : f (x) = y

g
In
e
d
d
a
lt

N La notacin f 1 (N ) suele inducir a la confusin con la funcin inversa. Por eso es imprescindible tener en cuenta
cu

que la preimagen de un conjunto queda bien definida para cualquier funcin f : A B , tenga o no inversa.
Por ejemplo, la funcin f : R R, f (x) = 1 no es biyectiva y por ende no tiene inversa. Sin embargo podemos
a

calcular las preimgenes de subconjuntos del codominio tales como f 1 (1) = R y f 1 ([1, 0]) = ;.
F

En las funciones de variable real f : R R es usual estudiar sus races o ceros , es decir los x R tales que f (x) = 0. De igual
manera definimos al ncleo de una transformacin lineal.

Definicin 2.3

Dada una transformacin lineal f : V W , se define su ncleo como el conjunto de vectores del dominio cuya imagen
es el vector nulo. Adoptando la notacin Nu f resulta

Nu f = v V : f (v) = 0W = f 1 (0W )

Otro concepto que incorporamos, al igual que en las funciones de R R, es el de conjunto imagen.
Transformaciones lineales 43

Definicin 2.4

Dada una transformacin lineal f : V W , se define su imagen como el conjunto de vectores del codominio que son
imagen por f de algn vector del dominio. Adoptando la notacin Im f resulta

Im f = f (v) : v V = f (V )

Ejemplo 2.4

Dada la transformacin lineal


f : R3 R3 , f (x 1 , x 2 , x 3 ) = (x 1 2x 2 , 0, 2x 1 4x 2 )

A
buscaremos su ncleo e imagen. Para encontrar el ncleo, planteamos la definicin

B
Nu f = (x 1 , x 2 , x 3 ) R3 : f (x 1 , x 2 , x 3 ) = (0, 0, 0)

U
de donde llegamos a

-
(
x 1 2x 2 = 0

a
(x 1 2x 2 , 0, 2x 1 4x 2 ) = (0, 0, 0) x 1 = 2x 2
2x 1 4x 2 = 0
r
ie
Como no aparecen restricciones sobre x 3 , la forma genrica de un elemento del ncleo es
en

(2x 2 , x 2 , x 3 ) = x 2 (2, 1, 0) + x 3 (0, 0, 1)


g
In

donde x 1 y x 3 son arbitrarios, con lo cual

Nu f = gen {(2, 1, 0), (0, 0, 1)}


e
d

y una posible base del ncleo es


d

B Nu f = {(2, 1, 0), (0, 0, 1)}


a
lt

En cuanto a la imagen de la transformacin lineal, podemos reescribir la expresin de f como


cu

f (x 1 , x 2 , x 3 ) = x 1 (1, 0, 2) + x 2 (2, 0, 4)
a
F

y como x 1 y x 2 pueden asumir cualquier valor real, concluimos que la imagen est generada por todas las combina-
ciones lineales de los vectores (1, 0, 2) y (2, 0, 4):

Im f = gen {(1, 0, 2), (2, 0, 4)}

y dado que son vectores linealmente dependientes

Im f = gen {(1, 0, 2)}

con lo cual una base para el conjunto imagen es

B Im f = {(1, 0, 2)}

En el ejemplo anterior, los conjuntos ncleo e imagen resultaron ser subespacios del dominio y codominio respectivamente.
Veremos a continuacin que esto es el caso particular de una propiedad ms general.
44 Transformaciones lineales

Teorema 2.2

Dada una transformacin lineal f : V W :

1 Si S V es un subespacio de V , entonces f (S) es un subespacio de W .

2 Si T W es un subespacio de W , entonces f 1 (T ) es un subespacio de V .

Demostracin:
En ambos casos, debemos probar que se verifican las condiciones de subespacio establecidas en el teorema 1.2.

Para demostrar 1 , sealemos en primer lugar que 0V S por ser subespacio, luego f (0V ) = 0W f (S).
Consideremos ahora dos vectores w 1 , w 2 f (S): esto significa que existen v 1 , v 2 V tales que f (v 1 ) = w 1 f (v 2 ) = w 2 . En-
tonces w 1 + w 2 = f (v 1 ) + f (v 2 ) = f (v 1 + v 2 ) y dado que v 1 + v 2 S, deducimos que w 1 + w 2 f (S).

A
Finalmente, consideremos w f (S) y K: debe existir v S tal que f (v) = w. Entonces w = f (v) = f (v) y dado que

B
v S, deducimos que w f (S).

U
La demostracin de la propiedad 2 es anloga y la dejamos como ejercicio.

-
a
r
Ejercicio.
ie

2.2 Demuestre que para cualquier transformacin lineal f : V W , el ncleo y la imagen son subespacios de V y de
en

W respectivamente.
g
In

Si revisamos las dimensiones del ncleo y la imagen en el ejemplo 2.4, notamos que dim Nu f + dim Im f = dim R3 .

Generalizamos esta relacin en el teorema que sigue1 .


e
d

Teorema 2.3 (de la dimensin)


d

Dada una transformacin lineal f : V W definida en un espacio V de dimensin finita, se cumple la relacin:
a
lt


dim(V ) = dim Nu f + dim Im f (2.1)
cu
a
F

Ejemplo 2.5

Dada la transformacin lineal


" #
3 22 x1 + x2 x2 + x3
f :R R , f (x 1 , x 2 , x 3 ) =
2x 1 3x 2

determinaremos su ncleo e imagen.

Ahora bien, reescribiendo la frmula de f tenemos que


" # " # " #
1 0 1 1 0 1
f (x 1 , x 2 , x 3 ) = x 1 + x2 + x3
2 0 0 3 0 0

1 La demostracin es un poco trabajosa y hemos decidido omitirla. Sin embargo, puede ser un ejercicio muy instructivo leerla en algn texto de la

bibliografa como [4]


Transformaciones lineales 45

con lo cual deducimos que (" # " # " #)


1 0 1 1 0 1
Im f = gen , ,
2 0 0 3 0 0

y siendo estas tres matrices linealmente independientes (comprubelo) podemos afirmar que dim Im f = 3. Enton-
ces del teorema de la dimensin 2.3 deducimos que dim(Nu f ) = 0 y que por lo tanto

Nu f = {(0, 0, 0)}

En la seccin 1.5 del captulo 1 relacionamos cada matriz A Kmn y sus espacios fundamentales con el sistema de ecuacio-
nes que se le asocia. Ahora estamos en condiciones de interpretar un sistema de ecuaciones en trminos de transformaciones
lineales. Como ya anticipamos al comienzo de este captulo, el sistema de ecuaciones

A
Ax = b (2.2)

B
puede representarse por medio de la transformacin lineal

U
f : Kn Km , f (x) = Ax (2.3)

-
a
con lo cual el sistema (2.2) ser compatible si y slo si b Im f . r
ie

El ncleo de la transformacin f es, por definicin, el espacio nulo de la matriz A:


en

Nu f = x Kn : f (x) = 0 = x Kn : Ax = 0 = Nul A

g
In

y el conjunto imagen de la transformacin coincide con el espacio columna de la matriz A:

Im f = f (x) : x Kn = Ax : x Kn = Col A

e
d

Con estas equivalencias, el teorema de la dimensin nos permite obtener nuevas conclusiones acerca de los sistemas lineales.
d

En estas condiciones, la frmula (2.1) queda


a
lt

n = dim(Nul A) + dim(Col A)
cu

Teniendo en cuenta que dim(Col A) es el rango de la matriz y que n es la cantidad de incgnitas del sistema, queda demos-
a

trada la proposicin siguiente.


F

Proposicin 2.2

Dado un sistema de ecuaciones de la forma Ax = b, se verifica la relacin

cantidad de incgnitas = dim(Nul A) + rango A (2.4)

N El rango de una matriz es la cantidad de columnas o filas linealmente independientes; como las operaciones
elementales entre filas no lo alteran, rango A es la cantidad de filas no nulas que quedan despus de escalonarla. A
su vez, dim(Nul A) es la cantidad de variables libres que tendr la solucin del sistema homogneo.
46 Transformaciones lineales

2.3 Teorema Fundamental de las Transformaciones Lineales

Ya mencionamos al comienzo de este captulo, ms precisamente en la proposicin 2.1, que las transformaciones lineales
preservan las combinaciones lineales. Teniendo esto en cuenta, se llega sin dificultad a la siguiente proposicin.

Proposicin 2.3

Sea f : V W una transformacin lineal. Entonces los transformados de una base del dominio generan la imagen. Es
decir, dada una base B = {v 1 , v 2 , ..., v n } de V :

Im f = gen f (v 1 ) , f (v 2 ) , ..., f (v n )

A
B
Demostracin:

U
En primer lugar, w Im f v V / f (v) = w. Ahora bien, cualquier v V es combinacin lineal de los elementos de la base
B , luego

-
a
w Im f 1 , 2 , ..., n K/ f (1 v 1 + 2 v 2 + ... + n v n ) = w
r
1 , 2 , ..., n K/1 f (v 1 ) + 2 f (v 2 ) + ... + n f (v n ) = w
ie


w gen f (v 1 ) , f (v 2 ) , ..., f (v n )
en
g


In

Ejemplo 2.6
e
d

Consideremos la transformacin lineal


d

" #!
22 3 x 11 x 12
f :R R ,f = (x 11 + x 12 + x 22 , x 22 , x 22 )
a

x 21 x 22
lt
cu

y busquemos una base de Im f .


a

De acuerdo con la proposicin 2.3, alcanza con transformar una base de R22 para obtener un conjunto generador.
F

Transformamos entonces la base cannica de R22 :


" #! " #! " #! " #!
1 0 0 1 0 0 0 0
f = (1, 0, 0) f = (1, 0, 0) f = (0, 0, 0) f = (1, 1, 1)
0 0 0 0 1 0 0 1

De esta forma, la proposicin 2.3 nos permite afirmar que

Im f = gen {(1, 0, 0), (1, 0, 0), (0, 0, 0), (1, 1, 1)}

Para obtener una base de Im f suprimimos los generadores linealmente dependientes:

B Im f = {(1, 0, 0), (1, 1, 1)}


Transformaciones lineales 47

N En el caso de una transformacin lineal f : Kn Km definida mediante f (x) = Ax con A Kmn , los transforma-
dos de los vectores de la base cannica son precisamente las columnas de A, en concordancia con que Im f = Col A.

Consideremos ahora el siguiente problema: buscamos una transformacin lineal f : R2 R2 que transforme al cuadrado
rojo en el cuadrado azul, como se indica en la figura 2.1 .

A
B
U
-
a
r
ie

Figura 2.1: Transformacin de R2 en R2


en

Para lograrlo, notemos lo siguiente: dado que f preserva las combinaciones lineales, alcanzar con describir cmo transfor-
g

ma a los vectores de la base cannica e 1 y e 2 . En efecto, cualquier vector de R2 es de la forma


In

x = x1 e 1 + x2 e 2
e
d

y dado que f es lineal


f (x) = f (x 1 e 1 + x 2 e 2 ) = x 1 f (e 1 ) + x 2 f (e 2 )
d
a

En este caso, una posibilidad es definir


lt

f (e 1 ) = e 1 f (e 2 ) = e 2
cu

lo que lleva a la frmula general


a

f [(x 1 , x 2 )] = f (x 1 e 1 + x 2 e 2 )
F

= x 1 f (e 1 ) + x 2 f (e 2 )
= x1 e 1 x2 e 2
= (x 1 , x 2 )

Ejercicio.

2.3 Definir una transformacin lineal f : R2 R2 que transforme el cuadrado rojo de la figura 2.1 en:

Un paralelogramo de vrtices (0, 0), (1, 0), (2, 1), (1, 1).

El segmento de extremos (0, 0), (0, 1).

En general, una transformacin lineal f : V W quedar bien determinada si conocemos cmo se transforma una base del
espacio V . Esa es la idea que queremos destacar en el siguiente teorema.
48 Transformaciones lineales

Teorema 2.4 (Fundamental de las Transformaciones Lineales)

Sean V y W dos espacios vectoriales con B = {v 1 , v 2 , ..., v n } una base de V . Dados los vectores w 1 , w 2 , ..., w n de W (no
necesariamente distintos), entonces existe una nica transformacin lineal f : V W que verifica

f (v i ) = w i (i = 1, 2, ..., n)

La demostracin formal del teorema es bastante tcnica, pues implica probar que dicha transformacin existe, que es lineal
y que es nica. Se pueden consultar los detalles en la bibliografa.

Ejemplo 2.7

Hallar la frmula de la transformacin lineal f : R2 R3 que verifica

A
f [(1, 0)] = (0, 1, 0) f [(1, 1)] = (0, 1, 0)

B
U
De acuerdo con el teorema, existe y es nica la transformacin lineal que verifica lo pedido, porque B = {(1, 0), (1, 1)}
es una base de R2 . En este caso particular, las imgenes de los vectores de la base se repiten, por lo que podemos

-
anticipar que dim(Im f ) = 1. Para hallar la frmula de f [(x 1 , x 2 )], tendremos en cuenta que contamos con la infor-

a
macin de cmo se transforman los vectores (1, 0) y (1, 1). Luego, si logramos escribir al vector genrico (x 1 , x 2 ) como
r
combinacin lineal de ellos
ie

(x 1 , x 2 ) = (1, 0) + (1, 1)
en

para transformarlo sencillamente usamos la linealidad de f :


g

f [(x 1 , x 2 )] = f (1, 0) + (1, 1)



In

= f [(1, 0)] + f [(1, 1)]


e

= (0, 1, 0) + (0, 1, 0)
d
d

Vale decir que nos falta conocer y , las coordenadas de (x 1 , x 2 ) con respecto a la base B . Para ello planteamos
a
lt

(x 1 , x 2 ) = (1, 0) + (1, 1)
cu

de donde llegamos al sistema de ecuaciones


a
F

+ = x1
= x2

Entonces = x 2 y = x 1 x 2 y llegamos a

f [(x 1 , x 2 )] = (0, 1, 0) + (0, 1, 0)


= (0, x 1 , 0)
Transformaciones lineales 49

2.4 Clasificacin de las transformaciones lineales

Recordemos que para cualquier funcin f : A B , se dice que es inyectiva si verifica que

x 1 , x 2 A : f (x 1 ) = f (x 2 ) x 1 = x 2

vale decir que a elementos distintos del dominio corresponden imgenes distintas. Si adems dicha funcin es una transfor-
macin lineal, recibe un nombre especial.

Definicin 2.5

Se dice que una transformacin lineal inyectiva f : V W es un monomorfismo.

A
B
La propiedad siguiente caracteriza a los monomorfismos.

U
Teorema 2.5

-
La transformacin lineal f : V W es un monomorfismo si y slo si Nu f = {0V }.

a
r
ie

Demostracin:
en

En primer lugar, asumamos que f es un monomorfismo. Sabemos que f (0V ) = 0W por ser una transformacin lineal, lue-
g

go 0V Nu f . Como hemos supuesto que f es inyectiva, no puede haber otro vector que se transforme en cero. Por ende
In

Nu f = {0V }.
e

Recprocamente, supongamos que Nu f = {0V }. Necesitamos probar que f es inyectiva: de acuerdo con la definicin de
d

inyectividad, consideramos dos vectores v 1 , v 2 V tales que f (v 1 ) = f (v 2 ). Entonces


d

f (v 1 ) = f (v 2 ) f (v 1 ) f (v 2 ) = 0W
a
lt

f (v 1 v 2 ) = 0W
cu

v 1 v 2 Nu f
a

y como asumimos que el ncleo es trivial, se deduce que v 1 v 2 = 0V como queramos demostrar.
F

En general, cualquier funcin f : A B , se dice suryectiva o sobreyectiva si alcanza todos los elementos del codominio. Es
decir, si verifica que
f (A) = B
Si adems se trata de una transformacin lineal, adquiere un nombre especial.

Definicin 2.6

Se dice que una transformacin lineal sobreyectiva f : V W es un epimorfismo.


O sea que f es un epimorfismo si y slo si
Im f = W

Por ltimo, cualquier funcin f : A B , se dice biyectiva si es simultneamente inyectiva y sobreyectiva.


50 Transformaciones lineales

Definicin 2.7

Se dice que una transformacin lineal biyectiva f : V W es un isomorfismo..

Ejemplo 2.8

Consideremos la transformacin lineal

f : R2 R3 , f (x 1 , x 2 ) = (x 1 + x 2 , x 1 x 2 , 2x 1 )

Calculamos en primer lugar el ncleo:

(x 1 , x 2 ) Nu f f (x 1 , x 2 ) = (0, 0, 0)

A
(x 1 + x 2 , x 1 x 2 , 2x 1 ) = (0, 0, 0)

B
x1 = 0 x2 = 0

U
Entonces ya podemos afirmar que es un monomorfismo, puesto que Nu f = {(0, 0)}.

-
a
Por otra parte, planteando el teorema de la dimensin 2.3 tenemos para este caso
r
dim R2 = dim(Nu f ) + dim(Im f )

ie

| {z } | {z }
en

2 0

de donde deducimos que dim(Im f ) = 2 y por ende Im f 6= R3 , con lo cual f no es un epimorfismo (ni un isomorfismo).
g
In
e
d

Ejemplo 2.9
d

Consideremos la transformacin lineal


a

" #!
lt

22 2 x 11 x 12
g :R R ,g = (x 11 + x 12 , x 22 )
cu

x 21 x 22
a

Calculamos en primer lugar el conjunto imagen, reescribiendo la frmula de g :


F

" #!
x 11 x 12
g = x 11 (1, 0) + x 12 (1, 0) + x 22 (0, 1)
x 21 x 22

con lo cual
Im g = gen {(1, 0), (1, 0), (0, 1)}

y deducimos que dim Im g = 2, con lo cual Im g = R2 y g es un epimorfismo.


Dejamos como ejercicio demostrar que g no es un monomorfismo.

Ejemplo 2.10

Consideremos la transformacin lineal


h : R2 P 1 , h (a, b) = 2a b t
Transformaciones lineales 51

Tal vez sea conveniente aclarar esta definicin antes de seguir. Para ello, consideramos la imagen de (2, 3):

h (2, 3) = 2 2 (3)t = 4 + 3t

Ahora s, decidamos si h es monomorfismo. Para ello planteamos

(a, b) Nu h h (a, b) = 0P 1
2a b t = 0P 1
a = 0b = 0

con lo cual Nu f = 0P 1 y se trata de un monomorfismo.
Por otra parte, al plantear el teorema de la dimensin 2.3 llegamos a

dim R2 = dim(Nu f ) + dim(Im f )


A
| {z } | {z }
2 0

B
de donde deducimos que dim(Im f ) = 2 y por ende Im f = P 1 . En este caso, h es un epimorfismo y un isomorfismo.

U
-
a
Ejercicio. r
2.4 Considere una transformacin lineal f : V W entre espacios de dimensin finita.
ie
en

Es posible que sea un isomorfismo si dim(V ) 6= dim(W )?


g

Es posible que sea un monomorfismo si dim(V ) > dim(W )?


In

La propiedad siguiente es una consecuencia directa del teorema de la dimensin 2.3 y dejamos su demostracin como ejer-
e
d

cicio.
d

Proposicin 2.4
a

Sea f : V W una transformacin lineal entre espacios de igual dimensin n. Entonces f es monomorfismo si y slo
lt

si f es epimorfismo si y slo si f es isomorfismo.


cu
a
F

Para terminar esta seccin, profundizaremos en la relacin que existe entre los vectores de un espacio y sus coordenadas con
respecto a una base.

Sea entonces B = {v 1 ; v 2 ; ...v n } una base ordenada de un espacio vectorial V con escalares K. Consideremos la aplicacin que
a cada vector del espacio le asigna sus coordenadas con respecto a la base B :

c B : V Kn , c B (v) = [v]B

Ya hemos demostrado en el teorema 1.11 que las coordenadas son lineales con respecto a la suma de vectores y la multipli-
cacin por escalares. Por lo tanto c B es una transformacin lineal.

Estamos en condiciones de demostrar que adems se trata de un isomorfismo. Veamos en primer lugar cul es su ncleo:

v Nu c B c B (v) = (0, 0, ..., 0)


v = 0v 1 + 0v 2 + ... + 0v n
v =0
52 Transformaciones lineales

Luego el ncleo de c B es trivial y se trata de un monomorfismo. Al aplicar el teorema de la dimensin 2.3 obtenemos
n = dim(V ) = dim(Im c B ), con lo cual Im c B = Kn y se trata de un epimorfismo. Agrupamos estas observaciones en un teore-
ma.

Teorema 2.6

Dada una base ordenada B = {v 1 ; v 2 ; ...; v n } de un espacio vectorial V con escalares K, la aplicacin que a cada vector
del espacio le asigna sus coordenadas con respecto a la base B

c B : V Kn , c B (v) = [v]B

es un isomorfismo, llamado isomorfismo de coordenadas.

A
Queda establecida entonces una correspondencia lineal y biyectiva entre los vectores de un espacio y sus coordenadas con

B
respecto a cierta base. La profunda identidad estructural que hay entre el espacio original y el espacio de coordenadas se

U
hace evidente en resultados como el teorema 1.12, segn el cual un conjunto de vectores es linealmente independiente si y

-
slo si sus coordenadas lo son.

a
r
2.5
ie
Transformacin Inversa
en
g

Al final de la seccin anterior dejamos establecida una correspondencia uno a uno entre los vectores de un espacio vectorial y
In

sus coordenadas con respecto a cierta base ordenada. Por tratarse de una biyeccin debe ser posible hacer el camino inverso,
es decir: dadas las coordenadas del vector, recuperar el vector original. Manteniendo la notacin establecida en el teorema
e

2.6, la funcin buscada es


d

(c B )1 : Kn V, (c B )1 (1 , 2 , ..., n ) = 1 v 1 + 2 v 2 + ... + n v n
d
a

En la figura 2.2 se aprecia la relacin uno a uno entre los vectores y sus coordenadas.
lt
cu
a
F

Figura 2.2: Isomorfismo de coordenadas y su inversa

Sealamos en primer lugar que la composicin 2 de c B y (c B )1 resulta la transformacin identidad en el espacio adecuado:

(c B )1 c B = I V c B (c B )1 = I K n

2 Recordemos que la composicin g f de dos funciones f : A B y g : C D es posible siempre que B C y se define como (g f )(x) = g f (x) .

Transformaciones lineales 53

Por lo tanto (c B )1 es la funcin inversa 3 del isomorfismo de coordenadas c B . Otra observacin importante, cuya demostra-
cin dejamos como ejercicio, es que la inversa (c B )1 es una transformacin lineal.

Los comentarios anteriores se generalizan en el teorema siguiente.

Teorema 2.7

Sea f : V W un isomorfismo. Entonces la funcin inversa f 1 : W V existe y es tambin un isomorfismo.

Se verifica entonces que f 1 f = I V y f f 1 = I W .

Demostracin:
Por ser f una funcin biyectiva, sabemos que existe la funcin inversa f 1 : W V y es biyectiva. Falta probar su linealidad.

A
Sean entonces w 1 , w 2 W : por ser f biyectiva existen y son nicos los v 1 , v 2 V tales que f (v 1 ) = w 1 y f (v 2 ) = w 2 . Luego,

B
usando la linealidad de f :

U
f 1 (w 1 + w 2 ) = f 1 f (v 1 ) + f (v 2 ) = f 1 f (v 1 + v 2 ) = f 1 f (v 1 + v 2 )

-
a
y como la composicin f 1 f es la identidad en V resulta r
f 1 (w 1 + w 2 ) = I V (v 1 + v 2 ) = v 1 + v 2 = f 1 (w 1 ) + f 1 (w 2 )
ie
en

Esto prueba la linealidad de f 1 con respecto a la suma. La linealidad con respecto al producto por escalares es similar y se
g

deja como ejercicio.


In
e

Ejemplo 2.11
d

Sea la transformacin lineal


d

f : R2 P 1 , f (a, b) = (a b) + 2a t (2.5)
a
lt

Dejamos como ejercicio comprobar que se trata de un isomorfismo y que por ende existe la inversa.
cu

Una forma de buscar la transformacin inversa es estudiando cmo se transforma una base de R2 :
a
F

f (e 1 ) = 1 + 2t f (e 2 ) = 1

Por lo tanto la transformacin inversa f 1 : P 1 R2 debe verificar

f 1 (1 + 2t ) = e 1 f 1 (1) = e 2

Dado que {1 + 2t , 1} es una base de P 1 y ya sabemos cmo se transforma, el teorema fundamental de las transfor-
maciones lineales 2.4 garantiza que f 1 ya qued bien definida.

Para hallar una expresin explcita de f 1 escribimos un polinomio genrico a + bt P 1 como combinacin lineal de
los elementos de la base:
b b

a + bt = (1 + 2t ) + a (1)
2 2

3 Recordemos que la funcin f : A B admite inversa si y slo si existe cierta funcin f 1 : B A tal que f 1 f = I y f f 1 = I . La funcin inversa
A B
existe si y slo si la funcin es biyectiva.
54 Transformaciones lineales

y ahora usando la linealidad de f 1

b 1 b

1
f (a + bt ) = f (1 + 2t ) + a f 1 (1)
2 2
b b

= e1 + a e2
2 2
b b

= , a
2 2

Para comprobar la frmula obtenida realizamos la composicin

f 1 f (a, b) = f 1 f (a, b)

= f 1 [(a b) + 2a t ]

2a 2a

A
= , (a b)
2 2

B
= (a, b)

U
por lo que resulta efectivamente f 1 f = I R2

-
a
r
ie

2.6
en

Matriz asociada a una transformacin lineal


g
In

Al comienzo de este captulo sealamos que cualquier funcin f (x) = Ax con A Kmn define una transformacin lineal de
Kn Km . Ms an, vimos en el ejemplo 2.1 cmo una transformacin lineal de Kn Km se poda representar en la forma
e

Ax. A esta matriz se la denomina matriz de la transformacin lineal.


d
d

En esta seccin veremos cmo cualquier transformacin lineal entre espacios de dimensin finita se puede representar me-
a

diante la multiplicacin por una matriz. Evidentemente, si tenemos una transformacin lineal de V W con V y W espacios
lt

arbitrarios, es posible que la multiplicacin por matrices no est definida. Por eso consideraremos los espacios de coorde-
cu

nadas asociados a V y W .
a
F

Para ilustrar estas ideas, retomamos el ltimo ejemplo de la seccin anterior.

Ejemplo 2.12

Consideremos entonces la transformacin lineal definida en (2.5). Una vez ms, la clave est en saber cmo se trans-
forma una base. Por eso hacemos el siguiente manejo

f (x 1 , x 2 ) = f (x 1 e 1 + x 2 e 2 ) = x 1 f (e 1 ) + x 2 f (e 2 )

La expresin anterior es una combinacin lineal de f (e 1 ) y f (e 2 ), sus coeficientes son x 1 y x 2 . Ahora bien, f (e 1 ) y
f (e 2 ) son polinomios. Para transformar esta expresin en una combinacin lineal de las columnas de una matriz,
tomamos coordenadas con respecto a la base cannica de polinomios E = {1; t }:

f (x 1 , x 2 ) E = f (x 1 e 1 + x 2 e 2 ) E = x 1 f (e 1 ) E + x 2 f (e 2 ) E (2.6)

Y ahora s estamos en condiciones de expresar esto como combinacin lineal de las columnas de una matriz, puesto
Transformaciones lineales 55

que " # " #


1 1
f (e 1 ) E = f (e 2 ) E =
2 0

Entonces la expresin (2.6) queda " #" #


1 1 x1
f (x 1 , x 2 ) E =
2 0 x2
" #
1 1
La matriz es la matriz asociada a la transformacin lineal f (con respecto a las bases cannicas).
2 0

Para conocer el transformado del vector (2, 3), sencillamente hacemos la cuenta indicada:
" #" # " #
1 1 2 5
f (2, 3) E = =
2 0 3 4

A
Donde el resultado se obtiene en coordenadas con respecto a la base E . El polinomio se recupera haciendo la combi-

B
nacin lineal que indican las coordenadas:

U
f (2, 3) = (5) 1 + (4) (t ) = 5 4t

-
a
r
ie

Destacamos del ejemplo anterior que una transformacin lineal se puede representar con una matriz cuyas columnas son
en

los transformados de los vectores de la base del dominio, en coordenadas con respecto a la base del codominio. La siguiente
proposicin generaliza lo que hemos sealado en el ejemplo. 4
g
In

Proposicin 2.5 (Matriz asociada a una transformacin lineal)


e

Sea f : V W una transformacin lineal y sean


d

B = {v 1 ; v 2 ; ...; v n } B 0 = {w 1 ; w 2 ; ...; w m }
d
a

bases ordenadas de V y W respectivamente. La matriz asociada a f con respecto a las bases B y B 0 se denota f B B 0 y

lt

tiene por columnas las coordenadas con respecto a la base B 0 de los transformados de los vectores de la base B :
cu

h i
a


f BB0 = f (v 1 ) B 0 f (v 2 ) B 0 f (v n ) B 0
F

La matriz asociada a f verifica



f B B 0 [x]B = f (x) B 0

Convencin

En el caso de que sea f : V V y se considere una sola base B , adoptaremos la notacin f B para la matriz asociada.

4 La demostracin formal no es difcil, aunque tiene una notacin un poco exigente. Los lectores podrn buscarla en la bibliografa para repasar estos

conceptos.
56 Transformaciones lineales

Ejemplo 2.13

Consideremos la transformacin lineal

f : R2 R3 , f (x 1 , x 2 ) = (x 1 + 2x 2 , x 1 x 2 , x 2 ) (2.7)

y las bases ordenadas


B = {(0, 1); (1, 1)} B 0 = {(1, 0, 0); (1, 1, 0); (0, 1, 1)}

Para construir la matriz asociada a f con respecto a estas bases, transformamos los vectores de la base B y los expre-
samos en coordenadas con respecto a la base B 0 :


4

f (0, 1) = (2, 1, 1) = 4(1, 0, 0) + (2)(1, 1, 0) + 1(0, 1, 1) f (0, 1) B 0 = 2

A
1

B

4

U

f (1, 1) = (3, 0, 1) = 4(1, 0, 0) + (1)(1, 1, 0) + 1(0, 1, 1) f (0, 1) B 0 = 1

-
con lo cual
a

4 4
r

f B B 0 = 2 1

ie

1 1
en

Para calcular f [(3, 5)], necesitamos expresar al vector en coordenadas con respecto a la base B :
g
In

(3, 5) = 2(0, 1) + 3(1, 1)


e

luego
d

" #
2
[(3, 5)]B =
d

3
a

y por lo tanto
lt


4 4 " # 20
cu

2
f (3, 5) B 0 = 2 1 = 7

3
1 1 5
a
F

Para recuperar f (3, 5), debemos tener en cuenta que obtuvimos coordenadas con respecto a la base B 0 , luego

f [(3, 5)] = 20(1, 0, 0) + (7)(1, 1, 0) + 5(0, 1, 1) = (13, 2, 5)

Dejamos como ejercicio comprobar que si se eligen las base cannicas E 2 y E 3 la matriz asociada es

1 2

f E2 E3 = 1 1

0 1

que es precisamente la matriz de la transformacin que puede deducirse de la frmula (2.7).

A continuacin daremos una interpretacin del rango de la matriz asociada a una transformacin lineal. El rango de una
matriz es el nmero de columnas linealmente independientes que tiene: en nuestro caso dichas columnas representan (en
coordenadas) a los transformados de los vectores de la base, que son generadores de la imagen. Resumimos este argumento
Transformaciones lineales 57

en la propiedad siguiente.

Proposicin 2.6

Sea f : V W una transformacin lineal entre espacios de dimensin finita. Sea f B B 0 la matriz asociada con res-
pecto a ciertas bases. Entonces

rango f B B 0 = dim Im f

(ntese que el rango no depende de las bases elegidas).

Sealemos que en el ejemplo 2.13, las dos matrices asociadas son de rango 2, por lo que la dimensin de la imagen es 2 y el
teorema de la dimensin nos permite afirmar que el ncleo es trivial.

A
B
U
2.7 Composicin de transformaciones lineales

-
a
r
Para presentar las ideas de esta seccin retomamos (una vez ms!) el ejemplo presentado en 2.11 y continuado en 2.12.
ie
en

Ejemplo 2.14
g

Buscaremos la matriz asociada a f 1 : P 1 R2 con respecto a las bases cannicas de P 1 , (E = {1, t }) y de R2 (E 2 ).


In

Para ello deducimos, del trabajo hecho en ejemplo 2.11, que los transformados de los vectores de la base cannica de
polinomios son (verifquelo)
e

1
d

f 1 (1) = e 2 f 1 (t ) = (e 1 + e 2 )
2
d

con lo cual
a

" # " #
1 0 1 1/2
lt


f (1) E2 = f (t ) E2 =
1 1/2
cu

y entonces la matriz asociada es


a

" #
0 1/2
F

1

f E E2 =
1 1/2

Dado que las coordenadas de un polinomio a + bt con respecto a la base cannica son [a b]t , la matriz nos permite
obtener fcilmente la expresin de f 1 :

f 1 (a + bt ) = f 1 E E 2 [a + bt ]E

E
" #" #
0 1/2 a
=
1 1/2 b
" #
b/2
=
a + b/2

como ya conocamos del ejemplo 2.11.

Ahora que ya conocemos las matrices f 1 E E 2 y f E 2 E , estamos en condiciones de dar una interpretacin de su

58 Transformaciones lineales

producto:
" # " # " #
1
0 1/2 1 1 1 0
f E E2 f E2 E = = =I
1 1/2 2 0 0 1
" # " # " #
1 1 0 1/2 1 0
f E 2 E f 1 E E 2 =

= =I
2 0 1 1/2 0 1

Por qu las matrices asociadas son inversas? Pensemos qu sucede al multiplicar un vector x R2 por f E 2 E y luego

1 1
por f E E 2 : el producto de las matrices f E E 2 y f E 2 E da la matriz identidad porque esa es la matriz asociada a
la composicin f 1 f = I R2 .

A
Las observaciones hechas en este ejemplo pueden extenderse al caso general sin mayores cambios. Queda como ejercicio

B
demostrar las proposiciones que siguen.

U
Proposicin 2.7

-
Sean
a
f :U V
r
g :V W
ie

dos transformaciones lineales entre espacios de dimensin finita. Entonces


en

1 La composicin de las transformaciones lineales f y g es una transformacin lineal


g
In


(g f ) : U W, (g f )(u) = g f (u)
e

2 Dadas B 1 , B 2 , B 3 bases de U ,V,W respectivamente, la matriz asociada a la composicin se obtiene haciendo el


d

producto de matrices
d


g f B1 B3 = g B2 B3 f B1 B2
a
lt
cu

La figura 2.3 ilustra la composicin de las transformaciones lineales y las respectivas transformaciones de coordenadas.
a
F

Figura 2.3: Composicin de transformaciones lineales


Transformaciones lineales 59

Proposicin 2.8

Sea f : V W un isomorfismo entre espacios de dimensin finita. Sean B, B 0 bases de V y W respectivamente y sea
f 1 : W V la transformacin inversa. Entonces las matrices asociadas f B B 0 y f 1 B 0 B son inversas. Es decir

1
f 1

B 0B = f BB0

La figura 2.4 ilustra la composicin de las transformaciones inversas y las respectivas transformaciones de coordenadas.

A
B
U
-
a
r
ie

Figura 2.4: Composicin de transformaciones inversas


en
g

Ejemplo 2.15
In

Sea f una transformacin lineal definida mediante


e
d

f : R3 R3 , f (x 1 , x 2 , x 3 ) = (x 1 + x 2 , x 1 x 3 , x 3 )
d

buscaremos (si es que existe) una frmula para f 1 .


a
lt

La matriz asociada con respecto a la base cannica de R3 es


cu

1 1 0
F


A= f E = 1 0 1

0 0 1

Como esta matriz es inversible, podemos asegurar que f es un isomorfismo (por qu?). De acuerdo con la proposi-
cin 2.8, la inversa de la matriz A ser la matriz asociada a f 1 con respecto a la base cannica:

0 1 1
1 1
A 1 = f E = f = 1 1 1

E
0 0 1

Luego la frmula para f 1 se obtiene multiplicando un vector genrico (en coordenadas) por f 1 E :


0 1 1 x1 x2 + x3
f 1 : R3 R3 , f 1 [x 1 x 2 x 3 ]t = 1

1 1 x 2 = x 1 x 2 x 3

0 0 1 x3 x3
60 Transformaciones lineales

N A la luz de lo expuesto en la proposicin 2.7, podemos ampliar lo estudiado en el teorema 1.13 acerca de la ma-
triz de cambio de una base B a otra C . Ahora podemos interpretar que es la matriz asociada a la transformacin
identidad, aunque con respecto a las bases B y C . Es decir

C BC = [I ]BC

Terminamos esta seccin con un ejemplo en que se estudia cul es la relacin entre dos matrices asociadas a una misma
transformacin lineal, pero con respecto a bases diferentes. Este ejemplo es importante, porque nos acerca al problema de
cul es la representacin matricial ms adecuada: es decir, cules bases son ms convenientes.

A
B
U
-
a
r
ie
en
g

Figura 2.5: Cambio de representacin matricial


In
e

Ejemplo 2.16
d

Sea f : R2 R2 una transformacin lineal cuya matriz asociada con respecto a la base cannica es
d
a

" #
1 3
lt


f E=
2 2
cu


y buscamos f B , siendo
a
F

B = {(1, 1), (3, 2)}

Para ello, consideramos el esquema de la figura 2.5 donde se sugiere que realizar la transformacin en coordenadas
con respecto a la base B es equivalente a cambiar a coordenadas cannicas, transformar y volver a cambiar a coor-
denadas en base B . Teniendo en cuenta el orden en que la multiplicacin de matrices representa la composicin,
es

f B = CE B f E CB E (2.8)

De las dos matrices de cambio, la ms fcil de construir es la que cambia de base B a cannica:
" #
1 3
CB E =
1 2

de donde obtenemos " #


1 1 2 3
C E B = (C B E ) =
5 1 1
Transformaciones lineales 61

Al realizar el clculo planteado en (2.8) llegamos al resultado


" #
4 0
f B=
0 1

Notablemente, la matriz asociada a f con respecto a la base B es diagonal y puede simplificar muchos clculos elegir
esta base en lugar de la cannica.

A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
A
B
U
-
a
r
ie
en
g
In

Esta pgina fue dejada intencionalmente en blanco


e
d
d
a
lt
cu
a
F
3 Producto Interno

A
B
U
3.1 Introduccin

-
a
r
Al comienzo de estas notas se defini el concepto de espacio vectorial basndose en algunas propiedades fundamentales que
verifican los vectores ya conocidos de R2 y R3 . Siguiendo en esta lnea de argumentacin, sealaremos algunas propiedades
ie

que tiene el producto escalar para los vectores del plano. Esto nos permitir introducir una nocin de producto interno en
en

espacios vectoriales generales, a partir de la cual surgirn los conceptos geomtricos de longitud, distancia, ngulo...
g
In

En el espacio vectorial R2 el producto interno (o escalar) se define para dos vectores cualesquiera mediante la frmula

e

(x 1 , x 2 ) y 1 , y 2 = x 1 y 1 + x 2 y 2 (3.1)
d
d
a
lt
cu
a
F

Figura 3.1: Longitud de vectores en R2

En la interpretacin geomtrica usual de los vectores de R2 como segmentos orientados (flechas), el teorema de Pitgoras
adquiere una expresin sencilla en trminos de las componentes de cada vector u = (x 1 , x 2 ) y su norma (o longitud) kuk:
q
kuk = x 12 + x 22

La norma de los vectores puede tambin escribirse usando el producto escalar


p
kuk = u u (3.2)
64 Producto Interno

Figura 3.2: Teorema del coseno en R2

Es conocido en la geometra plana el teorema del coseno 1 , que cuando se aplica a dos vectores y al tringulo que determinan

A
adquiere la expresin

B
U
ku vk2 = kuk2 + kvk2 2 kuk kvk cos (3.3)

-
a
r
Podemos despejar una frmula que permite calcular el coseno del ngulo que forman dos vectores (no nulos) y a partir
ie
de esto obtener el ngulo. Para ello, destacamos tres propiedades que tiene el producto escalar de R2 , cuya comprobacin
dejamos como ejercicio. Dados los vectores u, v, w R2 y dado k R, se cumple que
en
g

u (v + w) = u v + u w
In

u v = v u
e

(ku) v = k (u v)
d
d

Considerando la relacin (3.2), desarrollamos la expresin de la norma y aplicamos las propiedades precedentes:
a
lt
cu

ku vk2 = (u v) (u v)
= u u + u (v) + (v) u + (v) (v)
a
F

= kuk2 u v v u + v v
= kuk2 u v u v + kvk2

Al reemplazar en la frmula (3.3) y cancelar, se obtiene una expresin para el coseno del ngulo

uv
cos = (3.4)
kuk kvk

La definicin que sigue nos permitir extender las nociones de norma y ngulo a espacios mucho ms generales. Para ello,
consideraremos como producto interno a una operacin entre vectores que verifique propiedades como las ya sealadas en
el producto de R2 .

1 En todo tringulo el cuadrado de la longitud de un lado es igual a la suma de los cuadrados de las longitudes de los otros dos lados, menos el doble del

producto de dichas longitudes multiplicado por el coseno del ngulo que forman.
Producto Interno 65

Definicin 3.1

Un producto interno en un espacio vectorial real V es una funcin que a cada par de vectores u, v V le asigna un
nmero real (u, v), de modo tal que se verifican las siguientes condiciones para cualesquiera u, v, w V y k R:

1 (u, v + w) = (u, v) + (u, w)

2 (ku, v) = k (u, v)

3 (u, v) = (v, u)

4 (u, u) 0 (u, u) = 0 u = 0

A
Ejemplo 3.1 producto interno cannico de Rn

B
U
El producto escalar definido en R2 mediante (3.1) se extiende naturalmente al espacio Rn . El producto interno can-
nico en Rn de dos vectores arbitrarios u = (x 1 , ..., x n ) y v = y 1 , ..., y n es

-
a
n
X
(u, v) = x 1 y 1 + ... + x n y n = xi y i
r
i =1
ie

La comprobacin de las condiciones exigidas en la definicin 3.1 de producto interno es inmediata, y la dejamos
en

como ejercicio.
g
In

Teniendo en cuenta la identificacin que hacemos entre las n-uplas de Rn y los vectores columna de Rn1 , el producto
interno cannico puede escribirse como el producto entre una matriz fila y una matriz columna:
e
d

(u, v) = u t v (3.5)
d

(donde el resultado es una matriz de tamao 1 1 que identificamos con un escalar). Haremos amplio uso de esta
a
lt

notacin a lo largo del texto.


cu
a

La frmula (3.5) se ha definido para matrices columna y resume el procedimiento de multiplicar las componentes respectivas
F

y sumar todo. En el ejemplo que sigue lo extendemos a matrices de 2 2.

Ejemplo 3.2

En el espacio de matrices cuadradas R22 definimos un producto interno considerando para A = a i j y B = b i j


X
(A, B ) = a 11 b 11 + a 21 b 21 + a 12 b 12 + a 22 b 22 = ai j bi j
1i , j 2

La comprobacin de que esta frmula define un producto interno es inmediata y la dejamos como ejercicio.
Una forma de reescribir este producto consiste en inspeccionar el producto
" #" # " #
t a 11 a 21 b 11 b 12 a 11 b 11 + a 21 b 21 a 11 b 12 + a 21 b 22
A B= =
a 12 a 22 b 21 b 22 a 12 b 11 + a 22 b 21 a 12 b 12 + a 22 b 22

Notamos que en la diagonal se encuentran los productos entre los elementos respectivos de A y B . Entonces slo falta
66 Producto Interno

sumarlos para escribir el producto interno. Para ello calculamos la traza: a

tr A t B = a 11 b 11 + a 21 b 21 + a 12 b 12 + a 22 b 22

a Recordemos que la traza de una matriz cuadrada se define como la suma de los elementos de su diagonal principal. La denotaremos tr.

Ejercicio.

3.1 En el espacio de matrices Rmn se define


(A, B ) = tr A t B

Demuestre que es un producto interno.

A
Ejemplo 3.3

B
En el espacio C ([a, b]) de las funciones continuas en un intervalo, podemos proponer un producto interno obrando

U
por analoga con el producto cannico de Rn . Para dos funciones cualesquiera f , g C ([a, b]) definimos entonces:

-
Z b

a

f ,g = r f (t )g (t )d t (3.6)
a
ie

En primer lugar, sealamos que este producto est bien definido, en el sentido de que siempre puede puede calcularse
en

para dos elementos cualesquiera de C ([a, b]). En efecto, por ser un espacio de funciones continuas, el producto ser
una funcin continua y siempre puede calcularse su integral definida en un intervalo cerrado y acotado. Falta ver que
g

se cumplen las condiciones de la definicin 3.1. Las condiciones 1 , 2 y 3 son una consecuencia inmediata de las
In

propiedades de la integral y dejamos su comprobacin formal como ejercicio. La condicin 4 exige probar que para
cualquier funcin continua f
e

Z b Z b
d

2 2
f (t ) d t 0 f (t ) d t = 0 f = 0
a a
d

(donde f = 0 debe interpretarse como que f es la funcin nula). Sealemos en primer lugar que para cualquier fun-
a

2
lt

cin f es f (t ) 0 y entonces la primera desigualdad es inmediata. Por otra parte, si una funcin continua y no
negativa tiene su integral nula a lo largo de un intervalo [a, b], es un resultado conocido del anlisis que dicha funcin
cu

debe ser la funcin nula. El argumento para demostrar esto consiste en considerar una funcin g continua y no nega-
a

tiva en el intervalo: si fuera g (t ) > 0 para cierto t del intervalo, entonces habra un entorno de dicho punto en que la
F

funcin es positiva (por qu?) y por ende la integral no sera nula.

La frmula (3.2) vincula, en R2 , a la norma de los vectores con el producto interno interno cannico. Usaremos esta relacin
para extender la nocin de norma.

Definicin 3.2

Dado un espacio vectorial V con producto interno, para cada vector u V definimos su norma como
p
kuk = (u, u) (3.7)

Como esta norma depende del producto interno que se haya definido, es usual nombrarla como norma inducida por
el producto interno.
Producto Interno 67

Ejercicio.

3.2

Considerando el espacio de funciones continuas C ([0, 1]) y el producto interno definido por la frmula (3.6),

calcule ( f , g ) y g siendo f (t ) = 1 y g (t ) = t .

Repita los clculos en el espacio C ([1, 1]).

Con la definicin de producto interno que hemos adoptado, es posible definir distintos productos internos en un mismo
espacio vectorial, que inducirn normas diferentes. Ilustramos esta afirmacin exhibiendo un producto interno en R2 que
no es el cannico.
Ejemplo 3.4

A
Para dos vectores cualesquiera de R2 , u = (x 1 , x 2 ) y v = (y 1 , y 2 ) definimos el producto interno mediante

B
(u, v) = 2x 1 y 1 + x 1 y 2 + x 2 y 1 + x 2 y 2 (3.8)

U
Para demostrar que esta frmula define un producto interno, ser de utilidad considerar a los vectores de R2 como

-
columnas y reescribir la definicin como un producto de matrices:

a
"
r
#" #
h i 2 1 y1
(u, v) = x 1 x 2
ie

1 1 y2
en

(comprobarlo!) Denominando a la matriz de 2 2 que aparece como A, la funcin definida puede expresarse como
g

(u, v) = u t Av
In

Con esta ltima expresin y usando propiedades del producto de matrices, las condiciones 1 , 2 y 3 se demuestran
e
d

con facilidad. En efecto


d

(u, v + w) = u t A(v + w) = u t (Av + Aw) = u t Av + u t Aw = (u, v) + (u, w)


a

(ku, v) = (ku)t Av = k u t Av = k(u, v)



lt

t
(u, v) = u t Av = u t Av = v t A t u = v t Au = (v, u)
cu

En el ltimo rengln, se us que u t Av es un escalar y que por ende es igual a su transpuesto, junto con la propiedad
F

de la transposicin (AB )t = B t A t y el hecho de que A es en este caso una matriz simtrica.


Para comprobar la condicin 4 , aplicamos la frmula (3.8) a (u, u) y completamos cuadrados:

(u, u) = 2x 12 + 2x 1 x 2 + x 22
= x 12 + x 12 + 2x 1 x 2 + x 22
= x 12 + (x 1 + x 2 )2

La ltima expresin es una suma de cuadrados, de donde deducimos que para todo u es (u, u) 0 y

(u, u) = 0 x 1 = 0 x 1 + x 2 = 0 x 1 = x 2 = 0 u = 0

como queramos.

Evidentemente, al cambiar la definicin de producto interno en un espacio vectorial, cambiarn las nociones geom-
tricas definidas a partir del producto interno. Si consideramos por ejemplo al vector de la figura 3.1, la norma inducida
68 Producto Interno

p p
por el producto interno cannico es 32 + 22 = 13. En cambio para el producto definido por (3.8) la nueva norma
resulta, segn la definicin dada en (3.7),
p p
k(3, 2)k = 2 32 + 2 3 2 + 22 = 34

En lo que sigue introduciremos una definicin de producto interno para C espacios vectoriales. A primera vista, parece
que alcanzara con copiar la definicin dada en 3.1 para R espacios. Sin embargo, aceptar las condiciones de esa definicin
producira contradicciones al permitir escalares complejos. Consideremos por ejemplo un vector no nulo u V de un C
espacio. Entonces (u, u) > 0. Ahora bien, consideremos el producto (iu, iu), que debera ser positivo de acuerdo con 4 . Sin
embargo, al aplicar 2 y 3 resulta

(i u, i u) = i (u, i u) = i (i u, u) = i i (u, u) = (1)(u, u) < 0

A
B
Dejamos como ejercicio para el lector comprobar que la definicin siguiente evita el problema expuesto.

U
-
Definicin 3.3

a
Un producto interno en un espacio vectorial complejo V es una funcin que a cada par de vectores u, v V le asigna
r
un nmero complejo (u, v) de modo tal que se verifican las siguientes condiciones para cualesquiera u, v, w V y
ie

z C:
en

1 (u, v + w) = (u, v) + (u, w)


g
In

2 (zu, v) = z (u, v)
e

3 (u, v) = (v, u)
d

4 (u, u) 0 (u, u) = 0 u = 0
d
a
lt
cu
a
F

N Esta ltima definicin abarca a la anterior como un caso particular. Podra enunciarse para un K espacio vectorial
y sealar que en el caso de los R espacios la conjugacin no altera los escalares. Muchos de los enunciados que
siguen se enunciarn para un espacio vectorial con producto interno, dado que son vlidos tanto si se trata de
un R espacio como de un C espacio.

La frmula (3.7) con que se defini la norma inducida por el producto interno se aplica de idntica manera a los C espacios.
p
La condicin 4 garantiza que (u, u) es un nmero real no negativo, para el que est bien definida (u, u).

N Existen muchos autores que definen la condicin 2 de una forma alternativa. El lector que los consulte deber
hacer las adaptaciones del caso.
Producto Interno 69

Ejemplo 3.5 producto interno cannico de Cn

La definicin del producto interno cannico en Cn de dos vectores arbitrarios u = (z 1 , ..., z n ) y v = (w 1 , ..., w n ) es
n
X
(u, v) = z 1 w 1 + ... + z n w n = zi w i (3.9)
i =1

Considerando matrices columna de Cn1 , el producto interno cannico puede escribirse como

(u, v) = u H v (3.10)

donde H indica la transposicin del vector columna y la conjugacin de cada elemento, es decir u H = u t . Esta ltima
expresin permite demostrar con sencillez las condiciones del producto interno:

A
(u, v + w) = u t (v + w) = u t v + u t w = (u, v) + (u, w)

B
(zu, v) = (zu)t v = zu t v = z(u, v)

U
t
(u, v) = u t v = u t v = v t u = v t u = (v, u)

-
(u, u) = u t u

a
r
z1
..
h i
ie

= z1 zn .
en

zn
n n
g

|z i |2 0
X X
= zi zi =
In

i =1 i =1

y por tratarse de una suma de cuadrados de mdulos, ser nula si y slo si todas las z i lo son.
e
d

De la ltima expresin se deduce que la norma, definida por la frmula (3.7), se calcula mediante
d
a

s
n
lt

|z i |2
X
kuk =
i =1
cu
a
F

Ejercicio.

3.3 En el espacio vectorial C2 con el producto interno cannico definido en (3.9) y (3.10) considere los vectores
" # " #
1+i 2i
u= v=
2 1 3i

y calcule (u, v), kuk, kvk.

La notacin H para referirse al transpuesto y conjugado de un vector columna puede extenderse a matrices de tamao arbi-
trario.
70 Producto Interno

Definicin 3.4

Dada una matriz A Cmn , denotamos como A H a la matriz transpuesta y conjugada A t . Es decir, si A = a i j Cmn

entonces A H = a j i Cnm .

A continuacin, presentamos algunas propiedades que se desprenden de la definicin de producto interno. Las enunciamos
y demostramos para un K espacio vectorial con producto interno. (En el caso de que sea K = R, la conjugacin no altera los
escalares).

Teorema 3.1

Sea V un espacio vectorial con producto interno. Entonces para cualesquiera u, v, w V y K se verifican

A
1 (u + v, w) = (u, w) + (v, w)

B
2 (u, v) = (u, v)

U
3 (u, 0) = (0, u) = 0

-
a
r
Demostracin:
ie

Probamos 1 :
en

(u + v, w) = (w, u + v) = (w, u) + (w, v) = (w, u) + (w, v) = (u, w) + (v, w)


Destacamos que en el escalar de la segunda componente no se conjuga:
g

2
In

(u, v) = (v, u) = (v, u) = (v, u) = (u, v)


e

Dejamos como ejercicio la demostracin de 3 . (Sugerencia: escribir al vector nulo como 0v v v).
d
d

Ejercicio.
a
lt

3.4 Demuestre que en un espacio vectorial V con producto interno la norma inducida verifica la llamada identidad
cu

del paralelogramo:
ku + vk2 + ku vk2 = 2 kuk2 + 2 kvk2
a
F

para cualesquiera u, v V . Interprete geomtricamente en R2 .

La norma inducida por el producto interno verifica las propiedades que mencionamos en el siguiente teorema. Su demos-
tracin es inmediata a partir de la definicin de norma y dejamos los detalles como ejercicio. La segunda propiedad se
corresponde, en R2 , con la interpretacin usual del producto de un escalar por un vector flecha.

Teorema 3.2

Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u V y K se
verifican

1 kuk 0 kuk = 0 u = 0

2 kuk = || kuk
Producto Interno 71

El teorema siguiente establece una importante desigualdad que nos permitir desarrollar el concepto de ngulo entre vecto-
res. Remitimos a los lectores interesados en la demostracin a la bibliografa.

Teorema 3.3 desigualdad de Cauchy-Schwarz

Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V se cumple
que
|(u, v)| kuk kvk

Ms an, la igualdad se realiza si y slo si u y v son linealmente dependientes.

La frmula (3.4) tiene validez para vectores en el plano. Ahora la usaremos para extender el concepto de ngulo entre vectores
en R espacios arbitrarios. Para ello, notemos que la desigualdad de Cauchy-Schwarz 3.3 garantiza, para dos vectores no nulos
de un R espacio vectorial, que

A
(u, v)
1 1

B
kuk kvk

U
(u,v)
Vale decir que el cociente kuk kvk tiene el mismo rango de valores que la funcin coseno, lo cual permite la siguiente defini-
cin.

-
a
Definicin 3.5 r
Sea V un R espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V no
ie

nulos el ngulo que forman se define como el nico [0, ] que verifica
en

(u, v)
cos =
g

kuk kvk
In
e
d

Ejemplo 3.6
d

Consideramos en R2 los vectores u = (1, 0) y v = (1, 1).


a
lt

Si el producto interno es el cannico, el ngulo que forman u y v se deduce de


cu

1
cos = p =
a

2 4
F

Si en cambio consideramos el producto interno del ejemplo 3.1, definido por la frmula (3.8), obtenemos (compro-
barlo)
3 3
cos = p p = arc cos p
2 5 10

Convencin

De aqu en ms, siempre que se mencionen Rn y Cn como espacios con producto interno, se entender que es el
producto interno cannico como se lo defini en 3.1 y 3.5 respectivamente, a menos que se indique explcitamente
otra cosa.

A continuacin presentamos una desigualdad con una interpretacin geomtrica inmediata para el caso de vectores de R2 .
72 Producto Interno

Teorema 3.4 desigualdad triangular

Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V se verifi-
can
ku + vk kuk + kvk

Demostracin:
Desarrollamos la definicin de norma:

ku + vk2 = (u + v, u + v) = (u, u) + (u, v) + (v, u) + (v, v)

Teniendo en cuenta que (v, u) = (u, v) y que para cualquier nmero complejo z es z + z = 2 Re z, la expresin anterior queda:

A
ku + vk2 = kuk2 + kvk2 + 2 Re (u, v)

B
Por otra parte, para cualquier nmero complejo z es (Re z)2 (Re z)2 + (Im z)2 = |z|2 . Por lo tanto Re z |Re z| |z|. Con esto

U
podemos escribir

-
ku + vk2 kuk2 + kvk2 + 2 |(u, v)|

a
Aplicando ahora la desigualdad de Cauchy Schwarz 3.3 obtenemos
r
ie

ku + vk2 kuk2 + kvk2 + 2 kuk kvk = (kuk + kvk)2


en

de donde se deduce inmediatamente la desigualdad buscada.


g
In

En la geometra del plano R2 , para calcular la distancia entre dos puntos medimos el vector que ellos determinan. En la figura
e

3.2, la distancia entre dos vectores u y v es ku vk. Generalizamos esta idea:


d
d

Definicin 3.6
a
lt

Sea V un espacio vectorial con norma kk. Entonces para cualesquiera u, v V definimos la distancia entre ellos como
cu

d(u, v) = ku vk
a
F

Ejercicio.

3.5 Demuestre que la distancia verifica las siguientes propiedades para cualesquiera u, v, w V . Interprete geomtri-
camente en R2 .

d(u, v) 0 d(u, v) = 0 u = v

d(u, v) = d(v, u)

d(u, v) d(u, w) + d(w, v)


De la definicin de ngulo dada en 3.5 se desprende que si el ngulo que forman dos vectores es de 2, necesariamente su
producto interno ser nulo, por eso la definicin que sigue.
Producto Interno 73

Definicin 3.7

Sea V un espacio vectorial con producto interno.

Dos vectores u, v V se dicen ortogonales si (u, v) = 0. Notacin: u v.

Dado un conjunto S V , la notacin u S indica que u es ortogonal a cada elemento de S. Vale decir

u S s S : (u, s) = 0

Ejercicio.

D un ejemplo de vectores de R2 que sean ortogonales para el producto interno cannico pero no para el producto
interno definido en (3.8).

A
D un ejemplo de vectores de R2 que sean ortogonales para el producto interno definido en (3.8) pero no para el

B
producto interno cannico.

U
Existe un par de vectores de R2 no nulos que sean ortogonales para ambos productos internos?

-
a
El concepto de ortogonalidad nos permite extender el teorema de Pitgoras de la geometra plana a los espacios con producto
r
interno.
ie
en
g
In
e
d
d
a

Figura 3.3: Teorema de Pitgoras


lt
cu

Teorema 3.5 de Pitgoras


a
F

Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V tales que
u v resulta
ku + vk2 = kuk2 + kvk2

La demostracin consiste en desarrollar la definicin de norma y aplicar el hecho de que (u, v) = 0. Dejamos los detalles
como ejercicio.

Es vlida la implicacin recproca del teorema? En el caso de la geometra plana el enunciado recproco es: si en un tringulo
el cuadrado del lado mayor es igual a la suma de los cuadrados de los otros dos lados, entonces el tringulo es rectngulo.

Ejercicio.

3.6 Demuestre que en un R espacio con producto interno, si dos vectores u, v V verifican la relacin ku + vk2 =
kuk2 + kvk2 , entonces u v.
74 Producto Interno

Entre las propiedades que tienen las bases cannicas, tanto de Rn como de Cn , destacamos que sus vectores son ortogonales
y de norma uno. En lo que sigue extenderemos estas nociones a conjuntos ms generales de vectores.

Definicin 3.8

Sea V un espacio vectorial con producto interno. El conjunto de vectores {v 1 , v 2 , ..., v r } V se dice un conjunto orto-
gonal si sus elementos son ortogonales de a pares. Esto es, si para todo i 6= j

vi , v j = 0

Ejemplo 3.7

En R3 , el conjunto

A
{(1, 1, 1) , (1, 1, 0) , (1, 1, 2) , (0, 0, 0)}

B
es ortogonal, como se puede comprobar por un clculo directo.

U
-
a
Ejercicio. En C ([1, 1]), con el producto definido por la frmula (3.6) r
Z 1
ie

(f ,g) = f (t )g (t )d t
en

muestre que el conjunto 1, t , t 2 31 es ortogonal.



g
In

Teorema 3.6
e
d

Sea V un espacio vectorial con producto interno. Si el conjunto de vectores {v 1 , v 2 , ..., v r } V es ortogonal y ninguno
d

de sus elementos es el vector nulo, entonces es un conjunto linealmente independiente.


a
lt
cu

Demostracin:
Buscamos una combinacin lineal de los vectores que d el cero:
a
F

1 v 1 + 2 v 2 + ... + r v r = 0

A continuacin, hacemos el producto con un vector genrico v i donde i puede ser cualquier valor entre 1 y r . Usando las
propiedades del producto interno y teniendo en cuenta que v i es ortogonal al resto de los vectores del conjunto:

(v i , 1 v 1 + ... + i v i + ... + r v r ) = (v i , 0)
1 (v i , v 1 ) +... + i (v i , v i ) + ... + r (v i , v r ) = 0
| {z } | {z }
0 0

Queda entonces
i (v i , v i ) = 0
y teniendo en cuenta que (v i , v i ) > 0 por ser v i no nulo, deducimos que i = 0 para todo i = 1, ..., r .
Producto Interno 75

Ejemplo 3.8

Destacamos que el teorema anterior es vlido para cualquier producto interno definido en el espacio vectorial. Si
consideramos en R2 el producto interno definido en el ejemplo 3.4, el conjunto {(2, 1), (1, 3)} es ortogonal (com-
probarlo!), y por el teorema anterior, resulta linealmente independiente.

Finalizamos esta seccin agregando un poco de terminologa.

Definicin 3.9

Sea V un espacio vectorial con producto interno. El conjunto de vectores {v 1 , v 2 , ..., v r } V se dice un conjunto orto-
normal si es un conjunto ortogonal y todos sus elementos tienen norma uno.

A
B
U
Ejercicio. Demuestre que todo conjunto ortonormal es linealmente independiente.

-
a
r
ie

Definicin 3.10
en

Sea V un espacio vectorial con producto interno.


g
In

El conjunto de vectores B = {v 1 , v 2 , ..., v n } se dice una base ortogonal si es un conjunto ortogonal y base del
espacio.
e
d

El conjunto de vectores B = {v 1 , v 2 , ..., v n } se dice una base ortonormal si es un conjunto ortonormal y base del
espacio.
d
a
lt
cu

Ejercicio.
a
F

3.7 Demuestre que el conjunto 1, t , t 2 13 es una base ortogonal del espacio P 2 considerando el producto interno

definido mediante Z 1
(p, q) = p(t )q(t )d t
1
Es una base ortonormal?

3.2 Proyeccin ortogonal

Para los casos ms conocidos de vectores en un plano o un espacio tridimensional, la proyeccin de un vector v sobre un
subespacio S tiene una interpretacin geomtrica clara.
76 Producto Interno

(a) Proyeccin sobre una recta (b) Proyeccin sobre un plano

A
Figura 3.4: Proyecciones ortogonales

B
U
Consiste en construir una recta perpendicular al subespacio S, que pase por el extremo del vector v. La interseccin de la
perpendicular con el subespacio S es el extremo del vector proyeccin v = P S (v). La proyeccin as obtenida es el vector del

-
subespacio S ms prximo al vector v. En este captulo presentaremos diversas situaciones en que se busca aproximar un

a
vector con elementos de cierto subespacio. Para resolverlas, necesitaremos generalizar el concepto de proyeccin.
r
ie

Notemos que en ambos esquemas de la figura 3.4 el vector v v es ortogonal al subespacio sobre el que se proyecta. Esta
en

propiedad es suficiente para caracterizar a la proyeccin ortogonal.


g

Definicin 3.11
In

Sea V un espacio vectorial con producto interno. Dados un subespacio S y un vector v V , decimos que v es la
e

proyeccin ortogonal del vector v sobre el subespacio S si verifica


d

v S v v S
d
a
lt

Notacin: v = P S (v).
cu
a

Es importante sealar que, en principio, nada garantiza que para cada vector de cierto espacio exista su proyeccin orto-
F

gonal sobre cualquier subespacio. Veremos en primer lugar que si la proyeccin existe, entonces es nica. Ms adelante
probaremos que en los espacios de dimensin finita siempre es posible encontrar la proyeccin e indicaremos un mtodo
para hacerlo.

Teorema 3.7

Sea V un espacio vectorial con producto interno. Sean v V y S un subespacio de V . Entonces si existe P S (v) es nica.

Demostracin:
Suponemos que existen dos vectores v1 y v2 proyeccin. Demostraremos que v1 v2 = 0 probando que su norma vale cero:

kv1 v2 k2 = (v1 v2 , v1 v2 )
= (v1 v2 , v1 v + v v2 )
= (v1 v2 , v1 v) + (v1 v2 , v v2 )
Producto Interno 77

Ahora bien, v1 v2 es un elemento de S por serlo v1 y v2 . A su vez v1 y v2 son proyecciones de v, de modo que v1 v y v v2
son ortogonales a cualquier elemento de S, en particular a v1 v2 . Esto prueba que kv1 v2 k2 = 0 como queramos.

Ejemplo 3.9

Consideremos en R3 el subespacio S = gen {(1, 1, 2) , (1, 1, 0)}. Buscaremos la proyeccin v del vector v = (1, 0, 0)
sobre S. Adoptando la notacin
v 1 = (1, 1, 2) v 2 = (1, 1, 0)

y teniendo en cuenta cmo se defini la proyeccin en 3.11, debemos hallar un vector en S, es decir de la forma
v = v 1 + v 2 , para el cual se cumpla que v v S. Esta ltima exigencia equivale a que v v sea ortogonal a los dos
generadores de S (por qu?). Comenzamos planteando la ortogonalidad con v 1 :

A
B
= v 1 , v v 1 v 2 = (v 1 , v) (v 1 , v 1 ) (v 1 , v 2 )

0 = (v 1 , v v)

U
Teniendo en cuenta que v 1 y v 2 son ortogonales y no nulos, resulta

-
(v 1 , v) 1
0 = (v 1 , v) (v 1 , v 1 ) =
a
=
(v 1 , v 1 ) 6
r
ie

Dejamos como ejercicio comprobar que


(v 2 , v) 1
en

= =
(v 2 , v 2 ) 2
g

con lo cual llegamos a


In


1 1 2 1 1
P S (v) = v = (1, 1, 2) + (1, 1, 0) = , ,
6 2 3 3 3
e

Como los coeficientes resultaron nicos, podemos afirmar que en este caso la proyeccin existe y es nica.
d
d
a
lt
cu

El ejemplo precedente seala el camino para calcular la proyeccin ortogonal sobre un subespacio siempre que se conozca
una base ortogonal del mismo.
a
F

Teorema 3.8

Sea V un espacio vectorial con producto interno. Sea S un subespacio de V con una base ortogonal B = {v 1 ; v 2 ; ...; v r }.
Entonces para cualquier v V existe P S (v) y es

(v 1 , v) (v 2 , v) (v r , v) r (v , v)
X i
P S (v) = v1 + v 2 + ... + vr = vi (3.11)
(v 1 , v 1 ) (v 2 , v 2 ) (v r , v r ) i =1 (v i , v i )

Demostracin:
Buscamos un vector del subespacio S, es decir un vector de la forma v = 1 v 1 + 2 v 2 + ... + r v r , para el cual se verifique la
relacin v v S. Esto ltimo equivale a que v v v i con i = 1, ..., r . Teniendo en cuenta que se trata de una base ortogonal
78 Producto Interno

resulta

v v v i (v i , v v)
=0
(v i , v 1 v 1 2 v 2 ... r v r ) = 0
(v i , v) 1 (v i , v 1 ) 2 (v i , v 2 ) ... r (v i , v r ) = 0
(v i , v) i (v i , v i ) = 0
(v i , v)
i =
(v i , v i )
vale decir que los coeficientes de v estn unvocamente determinados y conducen a la frmula (3.11). Cabe sealar que los
i de la demostracin se obtuvieron sin conjugar porque se despejaron de la segunda componente del producto interno,
aplicando la propiedad 2 del teorema 3.1.

A
B
N La frmula (3.11) debe usarse con especial cuidado al aplicarla en C espacios. En efecto, si se alterara el orden de

U
los coeficientes (v i , v) por (v, v i ), se obtendran los conjugados de los valores correctos.

-
El ejemplo 3.9 es un caso particular de aplicacin de la frmula de proyeccin (3.11), puesto que se conoce una base ortogo-
a
r
nal del espacio sobre el que se pretende proyectar. Planteamos ahora el problema de proyectar sobre un subespacio del que
ie
no se conoce una base ortogonal.
en
g
In
e
d
d
a
lt
cu

Figura 3.5: Construccin de una base ortogonal


a
F

Ejemplo 3.10

Consideremos en R3 el subespacio S = gen {(1, 1, 2) , (1, 0, 1)}. Buscaremos la proyeccin v del vector v = (1, 2, 0) sobre
S. Una base del subespacio S es B = {v 1 , v 2 }, donde

v 1 = (1, 1, 2) v 2 = (1, 0, 1)

Dado que no es una base ortogonal, nos proponemos en primer lugar hallar una base B 0 = {w 1 , w 2 } de S que s lo sea.
Para ello, definimos en primer lugar
w1 = v1
La eleccin de w 2 no es tan sencilla (de hecho, en el subespacio S existen infinitos vectores ortogonales a v 1 ). Basn-
donos en el esquema de la figura 3.5 planteamos que w 2 = v 2 + w 1 es ortogonal a w 1 para una eleccin adecuada de
:
(w 1 , v 2 )
0 = (w 1 , v 2 + w 1 ) = (w 1 , v 2 ) + (w 1 , w 1 ) =
(w 1 , w 1 )
Producto Interno 79

Por lo tanto el vector que completa la base ortogonal buscada es

(w 1 , v 2 )
w2 = v2 w1 (3.12)
(w 1 , w 1 )

Dejamos como ejercicio comprobar que la base ortogonal buscada resulta entonces

7 1 2
B 0 = (1, 1, 2) ; , ,
6 6 3

y que a partir de ella la frmula de proyeccin (3.11) arroja



16 7 5
P S (v) = , ,
11 11 11

A
B
U
-
a
r
Destacamos del ejemplo 3.10 que la frmula (3.12) para calcular el segundo vector de la base ortogonal consiste en restarle
ie

al vector v 2 su proyeccin sobre el subespacio que genera w 1 :


en
g
In

w 2 = v 2 P gen{w 1 } (v 2 )
e
d
d

En efecto, por ser gen {w 1 } un espacio de dimensin uno, {w 1 } es una base ortogonal y se puede aplicar la frmula de pro-
a

yeccin (3.11). Es la misma definicin de proyeccin ortogonal la que garantiza que el vector v 2 P gen{w 1 } (v 2 ) ser ortogonal
lt

a gen {w 1 }, como se aprecia en la figura 3.6. Esta idea nos permitir demostrar, en el prximo teorema, que en todo espacio
cu

de dimensin finita puede construirse una base ortogonal a partir de una base dada.
a
F

Figura 3.6: Construccin de una base ortogonal usando proyecciones


80 Producto Interno

Teorema 3.9 mtodo de Gram-Schmidt

Sea V un espacio vectorial con producto interno y con una base B = {v 1 ; v 2 ; ...; v n }. Entonces el conjunto B 0 =
{w 1 ; w 2 ; ...; w n } es una base ortogonal de V si sus elementos se definen mediante

w1 = v1
(w 1 , v 2 )
w2 = v2 w 1 = v 2 P gen{w 1 } (v 2 )
(w 1 , w 1 )
..
.
(w 1 , v n ) (w n1 , v n )
wn = vn w 1 ... w n1 = v n P gen{w 1 ,...,w n1 } (v n )
(w 1 , w 1 ) (w n1 , w n1 )

Ms aun, los subespacios que generan los primeros k vectores de cada base coinciden. Esto es

A
B
gen {v 1 , ..., v k } = gen {w 1 , ..., w k } k = 1...n

U
-
Demostracin:

a
En el caso de que la base B tenga un solo vector, es decir n = 1, el teorema es inmediatamente verdadero. Para probar el caso
r
general de n vectores, usaremos un argumento de induccin, construyendo la base paso por paso. El primer paso ya esta
ie

dado definiendo w 1 = v 1 . A continuacin presentamos una frmula general para el paso k:


en

(w 1 , v k ) (w k1 , v k )
wk = vk w 1 ... w k1 (3.13)
g

(w 1 , w 1 ) (w k1 , w k1 )
In

(Por supuesto, esta frmula requiere que se hayan construido previamente los vectores w 1 , ..., w k1 ). As, por ejemplo, la
frmula para el caso k = 2 resulta
e

(w 1 , v 2 )
d

w2 = v2 w1
(w 1 , w 1 )
d

Dado que {w 1 } es una base ortogonal de gen {w 1 } podemos afirmar que se ha definido
a
lt

w 2 = v 2 P gen{w 1 } (v 2 )
cu
a

y la definicin de proyeccin garantiza que w 2 ser ortogonal a gen {w 1 }. Por lo tanto ya tenemos un conjunto ortogonal
F

{w 1 , w 2 }. Adems, ninguno de sus vectores es nulo: w 1 = v 1 no lo es por ser elemento de una base, mientras que si w 2 fuera
nulo resultara v 2 un elemento de gen {w 1 }, lo cual es absurdo (por qu?). Por el teorema 3.6, el conjunto {w 1 , w 2 } resulta
linealmente independiente. Dado que sus elementos son combinaciones lineales de v 1 y v 2 , genera el mismo subespacio
que {v 1 , v 2 }. Este argumento se puede repetir con w 3 , w 4 , .... Para garantizar que se puede repetir hasta cubrir los n vectores,
supondremos que lo hemos aplicado k 1 veces hasta obtener un conjunto ortogonal {w 1 , w 2 , ..., w k1 } que genera el mismo
subespacio que {v 1 , v 2 , ..., v k1 }. Entonces la frmula (3.13) equivale a

w k = v k P gen{w 1 ,...,w k1 } (v k )

y una vez ms la definicin de proyeccin garantiza que el vector w k ser ortogonal a gen {w 1 , ..., w k1 }. Razonando como
antes, w k no puede ser nulo porque en tal caso sera v k un elemento de gen {w 1 , ..., w k1 } = gen {v 1 , ..., v k1 }. Este argumen-
to tiene generalidad: si k = 2, muestra cmo podemos construir {w 1 , w 2 } a partir de {w 1 }; si k = 3, {w 1 , w 2 , w 3 } a partir de
{w 1 , w 2 } ... y seguir construyendo paso a paso, hasta completar una base ortogonal.
Producto Interno 81

N Ya sabemos (por el teorema 1.4) que los espacios finitamente generados admiten una base. Adems, hemos mos-
trado cmo obtener una base ortogonal, cmo realizar la proyeccin y que dicha proyeccin es nica. Por lo tanto,
podemos afirmar que en todo espacio vectorial con producto interno, la proyeccin ortogonal de un vector v
sobre un subespacio de dimensin finita existe y es nica.

Una consecuencia inmediata del mtodo de Gram Schmidt es que para cualquier espacio de dimensin finita puede obte-
nerse una base ortonormal. En efecto, basta con aplicar el mtodo, calcular una base ortogonal y luego dividir a cada vector
por su norma.

A
B
U
Ejemplo 3.11

-
a
En el espacio vectorial R4 se considera el subespacio S determinado por la base B = {v 1 ; v 2 ; v 3 }, siendo
r
ie
v 1 = (1, 1, 1, 1) v 2 = (2, 1, 1, 1) v 3 = (0, 2, 3, 3)
en

La aplicacin del mtodo de Gram Schmidt arroja (comprobarlo) la base ortogonal B 0 = {w 1 ; w 2 ; w 3 } con
g


9 3 3 3 2 1 1
In

w 1 = (1, 1, 1, 1) w 2 = , , , w 3 = 0, , ,
4 4 4 4 3 3 3
e

n o
La base ortonormal buscada es B 00 = kw w1
; w 2 ; w 3 = {u 1 ; u 2 ; u 3 }:
d

1 k kw 2 k kw 3 k
d

( r )
00 1 2 9 3 3 3 3 2 1 1
a

B = (1, 1, 1, 1); p , , , ; 0, , ,
2 3 3 4 4 4 4 2 3 3 3
lt
cu

Queremos sealar que cuando se usa una base ortonormal para calcular la proyeccin de un vector, la frmula (3.11)
adquiere una escritura particularmente sencilla. En nuestro ejemplo, para proyectar un vector v R4 sobre S es
a
F

3
X
P S (v) = (u 1 , v) u 1 + (u 2 , v) u 2 + (u 3 , v) u 3 = (u i , v) u i
i =1

Dejamos como ejercicio demostrar que P S (1, 0, 1, 0) = 1, 0, 21 , 12 .


Finalizamos esta seccin demostrando que la proyeccin de un vector sobre un subespacio es la mejor aproximacin que se
puede obtener de dicho vector con elementos del subespacio. La figura 3.7 ilustra esta afirmacin: de todos los vectores en
el subespacio S, el vector ms prximo a v es P S (v). En este contexto, la mejor aproximacin se entiende en el sentido de
la distancia definida en 3.6. Vale decir que de todos los vectores u S, el valor de kv uk se hace mnimo si u = P S (v).
82 Producto Interno

Figura 3.7: Mejor aproximacin de v con elementos de S

A
B
Formalizamos esta afirmacin con el teorema siguiente.

U
Teorema 3.10

-
Sean V un espacio vectorial con producto interno y S un subespacio. Sea v V para el cual existe la proyeccin

a
ortogonal v = P S (v). Entonces r
kv uk u S
kv vk (3.14)
ie


Adems, la igualdad se da solamente para u = v.
en
g
In

Demostracin:
La figura 3.7 sugiere considerar el tringulo rectngulo de hipotenusa v u. Para ello escribimos
e

+ (v u)
v u = (v v)
d
d

S mientras que (v u) S. Por ende se trata de vectores ortogonales y se puede aplicar el teorema
y sealamos que (v v)
a

de Pitgoras 3.5:
lt

2 + kv uk2
kv uk2 = kv vk
cu

Por tratarse de cantidades no negativas, es inmediato que


a

kv uk2 kv vk
2
F

y la igualdad se dar si y slo si kv uk = 0, es decir si y slo si u = v.


Con esto cobra sentido la siguiente definicin.

Definicin 3.12

Sean V un espacio vectorial con producto interno y S un subespacio. Sea v V para el cual existe la proyeccin
ortogonal v = P S (v). Entonces la distancia de v al subespacio S es

d(v, S) = kv P S (v)k

Esta propiedad de la proyeccin nos permite aproximar funciones eventualmente difciles de calcular mediante otras ms
sencillas. El ejemplo siguiente nos brinda una aproximacin de la funcin exponencial mediante una funcin polinmica de
grado uno. La figura 3.8 muestra la recta que mejor aproxima al grfico de la funcin exponencial en el intervalo [1, 1].
Producto Interno 83

Figura 3.8: Aproximacin lineal de e x

A
Ejemplo 3.12

B
U
En el espacio de funciones continuas C ([1, 1]) consideramos el producto interno como se defini en la frmula
(3.6). Buscaremos la proyeccin de la funcin f (x) = e x sobre el subespacio de polinomios S = P 1 = gen {1, t }. Dado

-
que {1, t } es una base ortogonal para el producto definido (verificarlo), aplicamos la frmula de proyeccin (3.11):

a
r
(1, f ) (t , f )
PS ( f ) = 1+ t
ie
(1, 1) (t , t )

1 1 3
en

= e + t
2 e e
g

La distancia de la funcin exponencial al subespacio P 1 es


In

r
7
e

d f , S = f P S ( f ) = 1 0,229
e2
d
d
a

Ejercicio.
lt
cu

3.8 En el espacio R3 considere el subespacio S = x R3 : x 1 + x 2 + x 3 = 0 y el vector v = (1, 0, 0). Encuentre el vector de


S que mejor aproxima a v y calcule d(v, S).


a
F

3.3 El complemento ortogonal de un subespacio

Ahora que ya hemos dejado asentada la existencia de la proyeccin ortogonal sobre espacios de dimensin finita, comenta-
remos algunas propiedades considerando un espacio V con producto interno y un subespacio S de dimensin finita:

1. La proyeccin ortogonal, entendida como una aplicacin que a cada vector v V le asigna su proyeccin P S (v), es una
transformacin lineal. Dejamos como ejercicio verificarlo: la comprobacin es inmediata usando la frmula de proyec-
cin (3.11) y las propiedades del producto interno; tambin se puede demostrar aplicando directamente la definicin
de proyeccin.

2. Para todo vector v S es P S (v) = v. En efecto, es el propio vector v el que verifica la definicin de proyeccin 3.11: v S
y v v S.
84 Producto Interno

3. Como consecuencia de lo anterior, la composicin de proyecciones P S sobre un mismo subespacio S equivale siempre
a la misma proyeccin.

4. Si un vector v es ortogonal a S, entonces su proyeccin sobre S es el vector nulo, porque 0 S y v 0 S. Recproca-


mente, si la proyeccin de un vector v sobre S es el vector nulo, significa que v 0 S.

Resumimos estas observaciones en la siguiente proposicin.

Proposicin 3.1

Sea V un espacio vectorial con producto interno y sea S un subespacio de dimensin finita. Entonces se cumplen

1 P S : V V es una transformacin lineal

A
2 P S (v) = v v S

B
3 PS PS = PS

U
4 P S (v) = 0 v S

-
a
r
Dado que la proyeccin es una transformacin lineal, prestaremos atencin a a su imagen y ncleo.
ie
en

1. De acuerdo con la definicin de proyeccin, para cualquier v V es P S (v) S, con lo cual Im P S S. Usando adems
la propiedad 2 , resulta que el conjunto imagen de la proyeccin es todo el subespacio S.
g
In

2. Segn la propiedad 4 , el ncleo de la proyeccin P S est constituido por los vectores que son ortogonales a todo
elemento de S.
e
d

Reunimos estas observaciones en una proposicin.


d
a

Proposicin 3.2
lt
cu

Sea V un espacio vectorial con producto interno y sea S un subespacio de dimensin finita. Entonces la proyeccin
ortogonal P S : V V es una transformacin lineal que verifica
a
F

1 Im P S = S

2 Nu P S = {v V : v S}

Este conjunto de vectores ortogonales a un subespacio dado ser de gran inters (an para casos de dimensin infinita) y
lleva nombre propio.

Definicin 3.13

Sea V un espacio vectorial con producto interno. Dado un subespacio S, su complemento ortogonal es el conjunto de
vectores ortogonales a S. Con la notacin S queda

S = {v V : v S} = {v V : (v, u) = 0 u S}
Producto Interno 85

Figura 3.9: Complemento ortogonal de un subespacio S

A
Ejercicio. Demuestre que en un espacio con producto interno V , dado un subespacio S = gen {v 1 , v 2 , ..., v r }, un vector
arbitrario es ortogonal al subespacio S si y slo si es ortogonal a sus generadores v 1 , v 2 , ..., v r . Es decir

B
U
v S (v, v 1 ) = (v, v 2 ) = ... = (v, v r ) = 0

-
a
Ejercicio. En el espacio R3 r
ie
calcule el complemento ortogonal del subespacio gen {(1, 2, 1), (1, 2, 0)}
en

calcule el complemento ortogonal del subespacio gen {(2, 1, 4)}


g
In

Ejercicio. Dado un espacio vectorial con producto interno V , demuestre que


e

Para cualquier subespacio S su complemento ortogonal es un subespacio de V .


d

V = {0V }
d
a

{0V } = V
lt
cu

La figura 3.9 sugiere que un espacio puede descomponerse como la suma directa de un subespacio y su complemento orto-
a

gonal. Veremos que esto es as en el caso de subespacios de dimensin finita.


F

Teorema 3.11

Sean V un espacio vectorial con producto interno y S un subespacio de dimensin finita. Entonces

V = S S

Demostracin:
Por tratarse de un subespacio de dimensin finita, sabemos que existe la proyeccin ortogonal P S . Luego escribimos, para
cualquier vector v V
v = P S (v) + (v P S (v))
| {z } | {z }
S S

con lo cual V = S +S . Para ver que la suma es directa, segn el teorema 1.18 basta con probar que la interseccin es el vector
nulo. Sea entonces un vector v S S . Por estar en S , debe ser ortogonal a todo vector de S, en particular a s mismo.
86 Producto Interno

Luego
(v, v) = 0 kvk2 = 0 v = 0

Otra propiedad que sugiere la figura 3.9 es que el complemento del complemento es el subespacio original. Una vez ms,
esto ser cierto en el caso de subespacios de dimensin finita.

Teorema 3.12

Sean V un espacio vectorial con producto interno y S un subespacio de dimensin finita. Entonces

S =S

A
Demostracin:

B
Probaremos la doble inclusin de los conjuntos. En primer lugar, consideramos un vector v S. Por definicin de comple-

U
mento ortogonal

= v V : (v, u) = 0 u S

S

-

Dado que v S verifica esta definicin, concluimos que S S (notemos que esta inclusin es vlida sin necesidad de
imponer ninguna restriccin sobre la dimensin del subespacio S).
a
r
ie

Para demostrar la otra inclusin, consideramos un vector v S . Aplicando el teorema 3.11, podemos descomponer al
en

espacio como V = S S . Vale decir que existen nicos v 1 S y v 2 S tales que v = v 1 + v 2 . Probaremos que v 2 = 0 y que

por lo tanto v = v 1 S, lo cual demostrar la inclusin S S. Para esto, sealamos que (v, v 2 ) = 0, puesto que v S y
g
In

v 2 S . Luego
0 = (v, v 2 ) = (v 1 + v 2 , v 2 ) = (v 1 , v 2 ) + (v 2 , v 2 ) = 0 + kv 2 k2
e

de donde v 2 = 0 como queramos demostrar.


d
d
a
lt
cu
a
F

Figura 3.10: Descomposicion de un vector en sus componentes de S y S

De acuerdo con los teoremas anteriores, todo vector v V puede descomponerse (de manera nica) como la suma de un
vector en S y otro en S : v = P S (v) + (v P S (v)). Afirmamos que (v P S (v)) = P S (v). En efecto, verifica la definicin de
proyeccin sobre S :

(v P S (v)) S (por definicin de P S )



v (v P S (v)) = P S (v) S = S

Con esto hemos probado el siguiente teorema.


Producto Interno 87

Teorema 3.13

Sean V un espacio vectorial con producto interno y S un subespacio de dimensin finita. Entonces para cualquier
v V es
v = P S (v) + P S (v)

N Existen ocasiones en que la proyeccin sobre un subespacio es ms dificultosa que la proyeccin sobre su com-
plemento ortogonal. Como sugiere la figura 3.10, puede ser conveniente entonces calcular la proyeccin sobre el
complemento ortogonal y luego despejar la proyeccin buscada. Para calcular entonces la distancia de un vector

v al subespacio S como se defini en 3.12, se puede usar que kv P S (v)k = P S (v).

A
B
U
Ejemplo 3.13

-
En R4 consideramos el subespacio S = x R4 : x 1 + x 2 + x 3 x 4 = 0 de dimensin 3. Para calcular la proyeccin del

a
vector v = [1 1 2 1]t sobre S habra que encontrar una base ortogonal de S, presumiblemente aplicando el mtodo
r
de Gram Schmidt, para recin entonces usar la frmula de proyeccin (3.11). Si en cambio consideramos que S es de
ie

dimensin 1, alcanzar con encontrar un generador: ser inmediatamente una base ortogonal con la que podremos
en

realizar la proyeccin. Para obtener S reescribimos la definicin de S:


g


x1
In





h i x2
S= x R4 : 1 1 1 1 =0

x3

e

x4

d

Con esto se pone en evidencia que, considerando la matriz


a
lt

h i
A= 1 1 1 1
cu

resulta que los vectores de S son aquellos vectores ortogonales a las filas de A, es decir que S = (Fil A) . Aplicando el
a

teorema 3.12 obtenemos


F

S = Fil A = gen [1 1 1 1]t


(Recordemos que en R3 esto permite detectar el vector normal a un plano). La proyeccin de v sobre S es, aplicando
la frmula (3.11):
5 5 5 5 t

P S (v) =
4 4 4 4
con lo cual
1 1 3 1 t

P S (v) = v P S (v) =
4 4 4 4
y
5
d(v, S) = kv P S (v)k = P S (v) =
2
88 Producto Interno

Ejemplo 3.14

Calculamos en R3 el complemento ortogonal del subespacio




1 2
S = gen 1 , 2


1 0

Bastar con encontrar los vectores v = [x 1 x 2 x 3 ]t ortogonales a los generadores:

S = v R3 : x 1 + x 2 x 3 = 0 2x 1 + 2x 2 = 0


" # x1 " #
1 1 1 0
= v R3 : x2 =

2 2 0 0
x3

A
Vale decir que considerando la matriz

B
" #
1 1 1

U
A=
2 2 0

-
el complemento ortogonal de S es el espacio nulo de la matriz A, formado por los vectores ortogonales a sus filas:

a
r

1
S = Nul A = (Fil A) = gen 1
ie


0

en
g
In

Las observaciones hechas en los ejemplos acerca de los espacios fundamentales de una matriz se pueden extender sin difi-
cultades al caso general. Dejamos los detalles como ejercicio.
e
d

Proposicin 3.3
d

Dada una matriz A Rmn , los subespacios fundamentales verifican las siguientes relaciones (en los espacios Rm o
a
lt

Rn segn corresponda):
cu

1 (Fil A) = Nul A
a

(Col A) = Nul A t
F

Ejercicio.

3.9 Adaptar la proposicin anterior para el caso de matrices de Cmn .

3.4 Descomposicin QR

En lo que sigue veremos que toda matriz A Kmn con rango A = n, es decir cuyas columnas forman un conjunto linealmen-
te independiente, se puede factorizar como producto de dos matrices, una de ellas de m n tal que sus columnas forman un
conjunto ortonormal y otra de nn que es triangular superior y con nmeros positivos en la diagonal (y por tanto inversible).
Producto Interno 89

Tal factorizacin, que se denomina descomposicin QR de A, es utilizada por varios algoritmos numricos para la resolucin
de problemas diversos, incluyendo sistemas de ecuaciones lineales.

Definicin 3.14

Dada A Kmn con rango A = n, una descomposicin QR es una factorizacin

A = QR con Q Kmn y R Knn

tales que Q H Q = I y R es triangular superior con nmeros positivos en la diagonal principal.

En principio, la definicin no garantiza que pueda obtenerse la descomposicin QR de cualquier matriz, ni cmo calcularla
efectivamente. Veremos que cualquier matriz A Kmn con rango A = n admite una descomposicin QR y mostraremos un

A
mtodo para calcularla. Para ello, comenzamos con un teorema que brinda algunas caractersticas de la descomposicin.

B
U
Teorema 3.14

-
Sea A Kmn con rango A = n tal que A = QR es una descomposicin QR. Entonces las columnas de Q forman una
base ortonormal de Col A.
a
r
ie
en

Demostracin:
g

Denotamos como q i a la i -sima columna de Q. De acuerdo con la definicin 3.14


In

q 1H q 1H q 1 q 1H q 2 q 1H q n


q 2H q 2H q 1 q 2H q 2 q 2H q n
e

h i
I = QHQ =

d

.. q1 q2 qn = .. .. ..
..

.

. . . .
d

q nH H
qn q1 H
qn q2 H
qn qn
a
lt

Al igualar esta ltima matriz con la identidad concluimos que


cu

(
0 si i 6= j
q iH q j
a

=
1 si i = j
F


de modo que q 1 , q 2 , ..., q n es un conjunto ortonormal. Por lo tanto constituye una base de ColQ.

Para terminar, probaremos que ColQ = Col A: dado que ambos subespacios tienen dimensin n, alcanzar con probar una
inclusin. Sea entonces y Col A, es decir que y es combinacin lineal de las columnas de A. Por lo tanto debe existir cierto
x Kn tal que y = Ax. Usando la descomposicin QR, tenemos que y = QR x = Q(R x). Ahora bien, R x es un vector de K n ,
con lo cual y es una combinacin lineal de las columnas de Q. Luego, Col A ColQ.

Teniendo en cuenta que en una descomposicin A = QR la matriz R es triangular superior, podemos afirmar que la primera
columna de A es combinacin lineal de la primera columna de Q, la segunda columna de A es combinacin lineal de las
primeras dos columnas de Q y as sucesivamente. Como adems las columnas de Q son una base ortonormal, podemos
concluir que la descomposicin QR explica cmo se relacionan dos bases de un mismo espacio, una de ellas ortonormal.
Veremos entonces cmo el mtodo de Gram-Schmidt 3.9 nos permite construir la descomposicin.
90 Producto Interno

Ejemplo 3.15

Hallar una descomposicin QR de


1 1 0
A= 1 0 1

0 1 1
Llamando v i a la i -sima columna de A, aplicamos el mtodo de Gram-Schmidt para obtener una base ortogonal
{w 1 ; w 2 ; w 3 } de Col A:

1
w1 = v1 = 1


0

1/2
w 1H v 2
w2 = v2 H = 1/2

A
w1 w1
1

B

2/3

U
w 1H v 3 w 2H v 3
w3 = v3 H = 2/3

w 1 w 1 w 2H w 2

-
2/3

a
De acuerdo con el teorema 3.14, formamos la matriz Q normalizando a los vectores {w 1 ; w 2 ; w 3 }:
r
p p p
ie

2/2 6/6 3/3
p p p
en

Q = 2/2 6/6 3/3



p p
0 6/3 3/3
g
In

Dado que A = QR (probaremos en el prximo teorema que la descomposicin efectivamente existe) y por ser Q H Q =
I , podemos calcular R
e

A = QR Q H A = Q H QR = R
d
d

Luego p p p
a

2 2/2 2/2
p p
lt

H
R =Q A = 0 6/2 6/6

p
cu

0 0 2 3/3
a
F

Teorema 3.15

Sea A Kmn con rango A = n. Entonces existe una descomposicin QR de A.

Demostracin:
Denominemos v 1 , v 2 , ..., v n a las columnas de A. Por hiptesis, B = {v 1 ; v 2 ; ...; v n } es un conjunto linealmente independiente.
Producto Interno 91

Aplicando el mtodo de Gram-Schmidt al conjunto B obtenemos una base ortogonal {w 1 ; w 2 ; ...; w n } de Col A que satisface

w1 = v1
w 2 = v 2 12 w 1
w 3 = v 3 13 w 1 23 w 2
..
.
w n = v n 1n w 1 ... n1,n w n1

w iH v j
donde i j = . Despejando cada v i :
w iH w i

A
v1 = w1

B
v 2 = 12 w 1 + w 2

U
v 3 = 13 w 1 + 23 w 2 + w 3

-
..
.

a
v n = 1n w 1 + ... + n1,n w n1 + w n
r
ie
en

lo cual puede escribirse en forma matricial


g
In

12 13 1n

1
i 0 1 23 2n
e

h i h
A= v1 v2 vn = w1 w2 wn .. .. .. .. ..
d

.

. . . .
0 0 0 1
d
a
lt

Esta factorizacin es muy parecida a la buscada. Falta lograr que los vectores columna del primer factor sean de norma uno.
cu

Para ello, definimos


h i wi
Q = q1 q2 qn con q i = (i = 1, ..., n)
a

kw i k
F

y modificamos adecuadamente el segundo factor

12 kw 1 k 13 kw 1 k 1n kw 1 k

kw 1 k
h i
0 kw 2 k 23 kw 2 k 2n kw 2 k

A= q1 q2 qn .. .. .. .. ..
.

. . . .
0 0 0 kw n k

con lo que llegamos a la descomposicin buscada.

N Mencionamos, sin demostracin, que en las condiciones de la definicin 3.14 la descomposicin QR es nica.
92 Producto Interno

Ejercicio.


1 0 1
3.10 Calcule la descomposicin QR de la matriz A = 1 2 1 .

0 1 1

3.5 Cuadrados Mnimos

A
Dada una matriz A Rmn , consideraremos una vez ms la ecuacin matricial

B
U
Ax = b (3.15)

-
donde b Rm y x Rn es la incgnita. En la seccin 1.5 habamos sealado que el sistema es compatible si y slo si existe
a
r
una combinacin lineal de las columnas de A que resulte ser el vector b. Dicho de otra forma: el sistema es compatible si y
ie
slo si b Col A. En las aplicaciones, es muy comn que un modelo se describa mediante ecuaciones lineales en la forma
de (3.15) y que, debido a mltiples factores como por ejemplo errores de medicin, no se pueda obtener un x que verifique
en

exactamente las ecuaciones. En esta seccin estudiaremos una alternativa que se presenta para el caso en que el sistema es
g

incompatible pero pretendemos obtener, al menos, una solucin aproximada.


In
e
d
d

Definicin 3.15
a

Dado el sistema de ecuaciones (3.15), el vector x Rn es una solucin por cuadrados mnimos si A x minimiza la
lt

distancia a b, es decir si
cu

kb Axk x Rn
kb A xk
a
F

N Dado que estamos considerando la norma usual, el clculo de kb Axk2 es la suma de los cuadrados de las compo-
nentes de un vector de Rm . Buscamos x para que dicha suma sea mnima: de all el nombre cuadrados mnimos.

Ejercicio. Demuestre que en el caso de que el sistema (3.15) sea compatible, cualquier solucin en el sentido usual es
tambin solucin por cuadrados mnimos.
Producto Interno 93

Figura 3.11: Mejor aproximacin de b con elementos de Col A

A
B
U
Ejemplo 3.16

-
Hallaremos la solucin por cuadrados mnimos x = [x1 x2 ]t del sistema de ecuaciones

a

1 1 " 1
r #
x1
Ax = 1 0 = 2

ie

x2
2 1 0
en

La figura 3.11 ilustra este caso, en el que se tiene una matriz A R32 , con lo cual b R3 y x R2 . Por lo que se ve,
g
In

el vector b no est en Col A y el sistema es incompatible. Basndonos en el teorema de mejor aproximacin 3.10,
sabemos que el elemento de Col A ms prximo a b es la proyeccin ortogonal de b sobre Col A. Ahora bien, para
conocer la proyeccin apelamos al ejemplo 3.10, en que proyectbamos un vector [1 2 0]t sobre un subespacio S que
e
d

coincide con Col A. Habamos obtenido


16
d

1
P Col A (b) = 7

a

11
lt

5
cu

Falta entonces encontrar la solucin por cuadrados mnimos x. La solucin por cuadrados mnimos x no debe confun-
dirse con la proyeccin de b sobre Col A. El vector x es un elemento de R2 tal que A x = P Col A b:
a
F


1 1 " # 16
x1 1
1 0 = 7

x2 11
2 1 5

Este sistema s es compatible, porque la proyeccin de b es un elemento de Col A. La solucin es


" #
1 7
x =
11 9

Siguiendo con la lnea de argumentacin del ejemplo 3.16, pasamos a considerar el caso general del sistema (3.15). Una vez
ms, el teorema de mejor aproximacin 3.10 indica que el elemento de Col A ms prximo a b es la proyeccin ortogonal de
b sobre Col A. Por eso una forma de buscar la solucin por cuadrados mnimos es resolver el sistema

A x = P Col A (b)
94 Producto Interno

como ya hicimos en el ejemplo. Destacamos que este sistema es compatible, porque consiste en encontrar una combina-
cin lineal de las columnas de A que genere un elemento de Col A. Sin embargo, este procedimiento implica calcular una
proyeccin ortogonal y, eventualmente, obtener una base ortogonal de Col A. Presentamos una alternativa ms eficaz: para
ello, consideramos que
A x = P Col A (b) b A x Col A b A x (Col A)
Teniendo en cuenta que (Col A) = Nul A t (ver la proposicin 3.3) resulta

A x = P Col A (b) b A x Nul A t A t (b A x)


=0

y llegamos a que la ecuacin A t A x = A t b es equivalente al planteo original; con la ventaja de que no hay que calcular expl-
citamente la proyeccin. Resumimos el mtodo propuesto en el siguiente teorema.

Teorema 3.16

A
Dado el sistema de ecuaciones (3.15), el vector x Rn es una solucin por cuadrados mnimos si y slo si verifica la

B
ecuacin normal
A t A x = A t b (3.16)

U
Adems, la ecuacin normal siempre tiene al menos una solucin.

-
a
r
Basndonos en la figura 3.11, podemos definir al error como la distancia entre el vector original y su aproximacin con un
ie

elemento de Col A.
en

Definicin 3.16
g
In

Dado el sistema de ecuaciones (3.15) y una solucin por cuadrados mnimos x Rn , el error por cuadrados mnimos
se define como la distancia entre el vector b y su proyeccin sobre Col A, es decir
e
d


E = kb A xk
d
a
lt

Ejercicio. Encuentre la solucin por cuadrados mnimos del sistema del ejemplo 3.16 planteando la ecuacin normal.
cu

Calcule el error de la aproximacin por cuadrados mnimos.


a
F

Llegados a este punto, conviene mencionar una aplicacin de la descomposicin QR para encontrar soluciones por cua-
drados mnimos. Considerando una matriz A Kmn con rango A = n y descomposicin QR como se defini en 3.14, la
ecuacin normal 3.16 resulta
A t A x = A t b (QR)t (QR)x = (QR)t b R t R x = R t Q t b
donde usamos que Q t Q = I . Como adems R es una matriz inversible, tambin lo es R t (por qu?), luego podemos multi-
1
plicar a izquierda por R t para llegar a una ecuacin equivalente a la ecuacin normal

R x = Q t b

con la ventaja de que es un sistema cuya matriz de coeficientes es triangular superior y reduce la cantidad de clculos nece-
sarios.

Ejercicio. Encuentre la solucin por cuadrados mnimos del sistema del ejemplo 3.16 usando la descomposicin QR
de la matriz de coeficientes del sistema.
Producto Interno 95

Ejemplo 3.17

Resolvamos el siguiente sistema de ecuaciones



1 2 " # 1
x1
A= 1 2 = 2

x2
1 2 1

Como visiblemente es un sistema incompatible, planteamos la ecuacin normal (3.16):


" #" # " #
3 6 x1 4
=
6 12 x2 8

de donde se obtienen infinitas soluciones de la forma


" # " #

A
4/3 2
x = + R
0 1

B
U
El producto entre A y cualquiera de las soluciones por cuadrados mnimos da la proyeccin de b sobre Col A:

-

" # " #! " # 4/3
4/3 2 4/3

a
P Col A (b) = A + =A = 4/3

0 1 0
r
4/3
ie

El error cometido es
en


1 4/3
r2
g

2 4/3 =

3
In


1 4/3
e
d

El ltimo ejemplo pone de manifiesto que la ecuacin normal (3.16) no slo es compatible sino que podra tener infinitas
d

soluciones. Como ya habamos sealado, la ecuacin normal es equivalente a A x = P Col A b. En esta ecuacin es claro que
a

si las columnas de A son linealmente independientes, habr una nica combinacin lineal para generar cada elemento de
lt

Col A, con lo cual x ser nica. Si en cambio las columnas de A son dependientes, habr un conjunto xp + Nul A de infinitas
cu

soluciones (donde xp es una solucin particular).


a
F

A continuacin probaremos algunos resultados ms acerca de las soluciones por cuadrados mnimos. Para ello, necesitamos
establecer previamente una propiedad.

Teorema 3.17

Para toda matriz A Rmn se verifica que


Nul A = Nul A t A

y por lo tanto
rango A = rango A t A

Demostracin:
Probaremos la doble inclusin de los conjuntos Nul A y Nul A t A. En primer lugar, consideramos

x Nul A Ax = 0 A t Ax = 0 x Nul A t A
96 Producto Interno

Para la segunda inclusin, consideremos un x Nul A t A. Entonces A t Ax = 0. Multiplicando a izquierda por x t obtenemos

x t A t Ax = 0 (Ax)t Ax = 0 kAxk2 = 0 Ax = 0 x Nul A

La igualdad de los rangos se prueba teniendo en cuenta que para cualquier matriz B Rmn vale la relacin

dim(Nul B ) + rango B = n

como consecuencia del teorema de la dimensin 2.3 (justifquelo). Entonces

dim(Nul A) + rango A = n = dim(Nul A t A) + rango A t A

y se deduce que rango A = rango A t A.

En el caso de que una matriz A Rmn tenga sus columnas linealmente independientes, la ecuacin normal (3.16) tendr

A
una matriz A t A de rango n y por lo tanto inversible. En tal caso, la nica solucin por cuadrados mnimos ser

B
1 t
x = A t A

A b

U
Ms an, al multiplicar a izquierda por A obtendremos la proyeccin de b sobre Col A:

-
a
1 t
A x = P Col A b = A A t A

r A b
1 t
con lo cual A A t A
ie

A es la matriz asociada a la proyeccin sobre Col A. Agrupamos estas observaciones en un teorema.
en

Teorema 3.18
g

Dado el sistema de ecuaciones (3.15), si la matriz A Rmn tiene sus columnas linealmente independientes, entonces
In

1 Existe una nica solucin por cuadrados mnimos x y se obtiene como


e
d

1 t
x = A t A

A b
d

(A la matriz A ] = A t A
1 t
a

A se la denomina matriz seudoinversa de A.)


lt

2 La proyeccin ortogonal de b sobre Col A se puede calcular mediante


cu

1 t
P Col A b = A A t A

A b
a
F

A = A A ] es la matriz asociada a la proyeccin sobre Col A, con respecto a la base cannica


1 t
La matriz A A t A

3

de Rm :
A = A A ] = [P Col A ]E
1 t
A At A

Ejemplo 3.18

Retomamos el ejemplo 3.9. En este caso, buscamos una frmula para la proyeccin ortogonal P S . Por supuesto que
podemos usar la frmula de proyeccin (3.11). Sin embargo, optaremos por una opcin ms breve que se desprende
del teorema 3.18. Como nuestra intencin es proyectar sobre el subespacio S, construiremos una matriz A que tenga
por columnas una base de ese mismo subespacio: de acuerdo con 3 , la matriz asociada a la proyeccin sobre Col A = S
ser
A = A A]
1 t
[P S ]E = A A t A

Producto Interno 97

Ahora bien, si elegimos la base de modo que sea ortonormal, ser A t A = I y la expresin anterior se reducir a

[P S ]E = A A t

En nuestro caso podemos normalizar la base y presentarla como columnas de la matriz A. Con esto, la matriz asociada
a la proyeccin es
p p
1/ 6 1/ 2 " p p p # 2 1 1
p p 1/ 6 1/ 6 2/ 6 1
[P S ]E = 1/ 6

1/ 2 p p = 1 2 1

p 1/ 2 1/ 2 0 3
2/ 6 0 1 1 2

Para obtener una frmula:



x1 2 1 1 x1 2x 1 x 2 x 3
1 1
P S (x) = [P S ]E x 2 = 1

A
2 1 x 2 = x 1 + 2x 2 x 3

3 3
x3 1 1 2 x3 x 1 x 2 + 2x 3

B
U
El mtodo usado en el ejemplo para obtener la matriz asociada a la proyeccin se generaliza sin dificultad.

-
a
Teorema 3.19 r
Sea B = {u 1 ; u 2 ; ...; u r } una base ortonormal del subespacio S de Rm . Si A Rmr tiene por columnas a los vectores de
ie

la base B , entonces
en

[P S ]E = A A t
g
In

Ejercicio.
e
d

3.11 Considere en R4 el subespacio S = gen [1 0 1 0]t , [0 1 1 0]t . Calcule [P S ]E .



d
a

Terminamos esta seccin con un ejemplo de ajuste de datos. Ya mencionamos que un problema usual en las aplicaciones es
lt

adaptar una coleccin de datos a un modelo lineal.


cu
a
F

Figura 3.12: Ajuste de datos por cuadrados mnimos


98 Producto Interno

Ejemplo 3.19 Ajuste de datos

Consideremos en R2 los puntos


(1, 1) (2, 1) (3, 2) (5, 2)

que podemos interpretar como mediciones de cierto fenmeno. Aunque no estn exactamente alineados, buscare-
mos la recta que mejor ajuste los datos en algn sentido. Para eso, consideramos que la forma general de dicha recta
ser y = ax + b con a, b a determinar. Si hubiera un ajuste exacto, todos los puntos verificaran la ecuacin de la recta:

1 = a(1) + b
1 = a2 + b
2 = a3 + b
2 = a5 + b

A
lo cual escrito matricialmente queda

B

1 1 " # 1

U
2 1 a 1
=

b

3 1 2

-
5 1 2

a
| {z } | {z }
A b
r
y para este sistema incompatible buscamos una solucin por cuadrados mnimos. Dejamos como ejercicio obtener el
ie

resultado
en

" # " #
a 14/75
x = =
b 27/25
g
In

La recta de ecuacin
14 27
y= x+
75 25
e
d

es entonces la recta de ajuste por cuadrados mnimos. Sabemos, por la definicin de cuadrados mnimos 3.15, que el
es mnimo comparado con cualquier otra eleccin de a, b. En nuestro ejemplo, el cuadrado
valor del error kb A xk
d

de este error es
a
lt

2
1 67/75
cu


1 109/75
2
=
kb A xk

a


2 41/25
F


2 151/75
67 2 109 2 41 2 151 2

= 1 + 1 + 2 + 2
75 75 25 75
26
= 0,347
75
vale decir que cada componente del vector b A x mide la diferencia entre la altura verdadera del punto y la que
alcanza la recta. Es la suma de los cuadrados de estas diferencias lo que la recta minimiza, como se aprecia en la figura
3.12.

Ejercicio.

3.12 Ajuste los mismos datos del ejemplo 3.19 con una funcin cuadrtica y = ax 2 + bx + c.
Producto Interno 99

N Hemos optado por presentar el tema de cuadrados mnimos en el contexto de los R espacios vectoriales. Sin
embargo, la adaptacin al caso de C espacios no presenta mayor dificultad. La ecuacin normal (3.16), por ejemplo,
debe plantearse como A H A x = A H b.

3.6 Aplicaciones geomtricas

Dedicaremos esta seccin a algunos aspectos geomtricos de las transformaciones lineales y los espacios con producto in-
terno. Aunque muchas de las ideas que expondremos pueden extenderse a espacios ms generales, limitaremos nuestra
atencin al espacio Rn con el producto interno cannico.

A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F

Figura 3.13: Reflexin de un vector con respecto a un subespacio

Consideramos el problema de lograr en una reflexin (simetra) con respecto a un subespacio S. En la figura 3.13 se aprecia
un esquema general. Dado un vector v es posible descomponerlo como v = P S (v) + P S (v); su reflexin con respecto a S
surge de preservar la componente en S e invertir la componente en S .

Definicin 3.17

Sea S un subespacio de Rn . La reflexin del vector v con respecto al subespacio S es

R(v) = P S (v) P S (v) (3.17)

Por tratarse de una suma de proyecciones, resulta inmediato que la reflexin R : Rn Rn es una transformacin lineal.
100 Producto Interno

Ejercicio.

3.13 Demuestre que la reflexin de un vector v Rn con respecto a cierto subespacio S verifica

v y R(v) determinan una recta perpendicular a S.

v y R(v) determinan un segmento cuyo punto medio es P S (v).

v y R(v) equidistan del subespacio de reflexin.

Ejemplo 3.20 Reflexin con respecto a un plano

Consideremos en R3 el subespacio S = gen [1 1 2]t , [1 0 1]t que ya se estudi en el ejemplo 3.10. Usaremos nue-

vamente al vector v = [1 2 0]t , aunque esta vez para calcular su reflexin con respecto al plano S. Como ya habamos

A
calculado su proyeccin sobre S resulta

B
t
5 15 5 t

16 7 5

U
v = P S (v) + (v P S (v)) = +
11 11 11 11 11 11

-
y de acuerdo con la frmula (3.17) obtenemos

a
r t
21 8 10
R(v) = P S (v) (v P S (v)) =
ie
11 11 11
en

La complicacin del mtodo utilizado es que para calcular P S (v) hubo que construir una base ortogonal de S. A con-
tinuacin, exponemos una alternativa que se basa en la proyeccin sobre S , con la ventaja de que es un subespacio
g
In

de dimensin uno. Para ello, reescribimos la frmula (3.17):



R(v) = v P S (v) P S (v) = v 2P S (v)
e
d

Dado que u = p1 [1 3 1]t constituye una base ortonormal de S , aplicamos la frmula de proyeccin del teorema
11
d

3.19, segn la cual uu t es la matriz asociada a la proyeccin y resulta



a
lt


1 3 1
1
cu

t
P S (v) = uu v = 3 9 3 v

11
1 3 1
a
F

Entonces la reflexin es

R(v) = v 2 uu t v

= I 2 uu t v


9 6 2
1
= 6 7 6 v

11
2 6 9

Al evaluar esta frmula en v = [1 2 0]t se obtiene nuevamente la reflexin ya calculada.

Los argumentos empleados en el ejercicio anterior pueden generalizarse sin dificultad: I 2 uu t es la matriz asociada a

una reflexin con respecto a un subespacio, cuyo complemento ortogonal est generado por un vector normalizado u.
Producto Interno 101

Definicin 3.18

Para cada u Rn tal que kuk = 1 asociamos una matriz de Householder

H = I 2 uu t

(3.18)

con la que a su vez definimos la transformacin de Householder

T : Rn Rn , T (x) = H x = I 2 uu t x

(3.19)

Ejercicio. Demostrar que la matriz de Householder es involutiva (H 2 = I ) e interpretar grficamente en R3 .

A
Ejemplo 3.21 Reflexin con respecto a una recta

B
Hallaremos la frmula de la transformacin lineal R : R3 R3 que es la reflexin con respecto a la recta

U
S = gen [1 1 2]t .

-
a
Como ya se indic en la frmula (3.17), para calcular R(v) debemos descomponer al vector en sus proyecciones sobre
r
S y S . En este caso, es ms fcil proyectar sobre S puesto que es de dimensin uno:
ie

R(v) = P S (v) P S (v) = P S (v) (v P S (v)) = 2P S (v) v


en

Si consideramos un generador normalizado de S, u = p1 [1 1 2]t , la matriz asociada a la proyeccin sobre S es uu t ,


g

6
In

con lo cual

R(v) = (2P S I ) v = 2uu t I v



e
d


2 1 2
1
d

= 1 2 2 v

3
a

2 2 1
lt

Debido a la naturaleza geomtrica del problema, existen muchos recursos para validar los resultados obtenidos. Una
cu

verificacin (parcial) de la frmula consiste en elegir un vector v R3 , transformarlo y comprobar que 21 (v + R(v)) S.
a

Si elegimos, por ejemplo, v = [3 5 1]t , resulta


F


1
1
R(v) = 5

3
17

5
1 1
(v + R(v)) = 5 S

2 3
10
A
B
U
-
a
r
ie
en
g
In

Esta pgina fue dejada intencionalmente en blanco


e
d
d
a
lt
cu
a
F
4 Autovalores y autovectores

A
B
U
4.1 Introduccin

-
a
r
Comenzamos esta seccin retomando el ejemplo 3.20. All habamos obtenido la frmula
ie

9 6 2
1
en

R(v) = 6 7 6 v

11
2 6 9
g
In

para definir la reflexin con respecto al plano

S = gen [1 1 2]t , [1 0 1]t



e
d

La matriz que aparece en la frmula anterior es la matriz asociada a la reflexin R : R3 R3 con respecto a la base cannica
d

(de acuerdo con la definicin 3.18, se trata de una matriz de Householder):


a


9 6 2
lt

1
[R]E = 6 7 6 (4.1)

cu

11
2 6 9
a

Ahora bien, la matriz asociada a una transformacin tiene por columnas a los transformados de los vectores de una ba-
F

se, expresados en coordenadas con respecto a cierta base (eventualmente la misma). En el caso de [R]E , sus columnas son
los transformados de los vectores de la base cannica. Ya habamos mencionado que un problema importante es encon-
trar una base del espacio para la que la matriz asociada sea mejor en algn sentido. Las caractersticas geomtricas de la
transformacin R nos hacen prestarle atencin a los subespacios S y S . Destacamos que los vectores de S permanecern
fijos, mientras que los de S se transformarn en sus opuestos: esto es todo lo que se necesita para describir la reflexin.
En otras palabras: es mucho ms simple describir la reflexin explicando cmo se transforman los vectores de S y S que
describiendo cmo se transforma la base cannica. Definiendo una base ordenada de R3 con vectores de S y S

B = [1 1 2]t , [1 0 1]t , [1 3 1]t


resulta

R [1 1 2]t = 1 [1 1 2]t

R [1 0 1]t = 1 [1 0 1]t

R [1 3 1]t = (1) [1 3 1]t



104 Autovalores y autovectores

y las coordenadas de los transformados con respecto a la base B son sencillamente [1 0 0]t , [0 1 0]t y [0 0 1]t . La matriz
asociada resulta entonces mucho ms simple
1 0 0
[R]B = 0 1 0 (4.2)

0 0 1
y ms fcil de interpretar en trminos geomtricos que [R]E .

Ejercicio.

4.1

Interprete geomtricamente las potencias

([R]B )n = [R]B . [R]B ... [R]B

A
| {z }
n veces

B
Es inmediato que det [R]B = 1. Explique por qu det [R]E = 1 tambin.

U
-
Las observaciones anteriores ponen de manifiesto que la clave para lograr una matriz asociada diagonal es encontrar una

a
base de vectores que se transformen en mltiplos de ellos mismos. r
ie

Definicin 4.1
en

Dada una matriz A Knn , un escalar K es un autovalor de la matriz si existe un vector no nulo x Kn1 tal que
g
In

Ax = x (4.3)

Todo vector no nulo que verifica la relacin (4.3) se dice un autovector de la matriz A asociado al autovalor .
e
d
d
a

Una propiedad que se desprende inmediatamente de la definicin es que los autovectores asociados a un autovalor, junto
lt

con el vector nulo, constituyen un subespacio. Dejamos la demostracin formal como ejercicio.
cu

Proposicin 4.1
a
F

Dada una matriz A Knn , el conjunto de autovectores asociados a un autovalor, junto con el vector nulo, es decir

S = x Kn1 : Ax = x

es un subespacio de Kn1 . Lo denominamos autoespacio asociado al autovalor .

Ejemplo 4.1

Dada la matriz
1 2 2
1
A= 2 1 2

3
2 2 1
buscaremos sus autovalores y autovectores. Para ello, planteamos la ecuacin (4.3) que los define y buscamos alguna
Autovalores y autovectores 105

equivalencia que nos permita avanzar:

Ax = x Ax I x = 0 (A I )x = 0 (4.4)

De acuerdo con la ltima expresin, el problema de hallar autovectores equivale a encontrar elementos no triviales
de Nul(A I ). En principio, nada garantiza que existan tales elementos: podra ser Nul(A I ) = {0}. Por lo tanto,
debemos elegir valores adecuados de , para los cuales sea Nul(A I ) 6= {0}, y esto equivale a que el determinante de
la matriz (A I ) se anule. Ahora bien,

1/3 2/3 2/3
det(A I ) = det 2/3 1/3 2/3

2/3 2/3 1/3


= 3 2 + + 1

A
= ( 1)( + 1)2

B
Por lo tanto, slo eligiendo = 1 = 1 la ecuacin (4.4) tendr soluciones no triviales.

U
Si elegimos = 1, los autovectores sern las soluciones no triviales de

-
a

4/3 r 2/3 2/3
(A 1I )v = 0 2/3 4/3 2/3 v = 0

ie

2/3 2/3 4/3


en

con lo cual el autoespacio asociado al autovalor = 1 resulta


g
In

S 1 = Nul(A 1I ) = gen [1 1 1]t



e

De manera similar, al elegir = 1 los autovectores sern las soluciones no triviales de


d


2/3 2/3 2/3
d

(A + 1I )v = 0 2/3 2/3 2/3 v = 0



a
lt

2/3 2/3 2/3


cu

En este caso, la dimensin del espacio nulo es dos:


a

S 1 = Nul(A + 1I ) = gen [1 1 0]t , [1 0 1]t


F

Si consideramos la transformacin lineal que se asocia con la matriz

T : R3 R3 , T (x) = Ax

notamos que todos los vectores de S 1 permanecen fijos, mientras que los de su complemento ortogonal S 1 se trans-
forman en su opuesto. Se trata, por lo tanto, de una reflexin con respecto al eje S 1 .

El argumento usado en el ejemplo 4.1 para encontrar los autovalores y autovectores tiene generalidad. Basndonos entonces
en la ecuacin (4.4), agrupamos las observaciones hechas.
106 Autovalores y autovectores

Proposicin 4.2

Dada una matriz A Knn , son equivalentes

1 K es un autovalor de A.

2 Nul(A I ) 6= {0}

3 rango(A I ) < n

4 det(A I ) = 0

Como ya se vio en el ejemplo 4.1, det(A I ) es un polinomio que tiene a por indeterminada. Ms aun, de la definicin de
determinante se desprende que es un polinomio de grado n. Por ser de gran inters, recibe nombre propio.

A
Definicin 4.2

B
Dada una matriz A Knn , su polinomio caracterstico a es

U
p A (t ) = det(A t I )

-
a Lo escribiremos usualmente en la indeterminada t para evitar confusin con los autovalores.

a
r
ie

Podemos ahora enunciar y demostrar algunas propiedades interesantes sobre los autovalores de una matriz a partir de su
en

polinomio caracterstico.
g

Teorema 4.1
In

Sea A Cnn . Entonces


e
d

1 Los autovalores de A son las races de su polinomio caracterstico p A (t ).


d

2 Siempre es posible factorizar al polinomio caracterstico como


a
lt

p A (t ) = (1)n (t 1 ) (t 2 ) ... (t n )
cu

donde los 1 , 2 , ..., n C son los autovalores de A (eventualmente repetidos).


a
F

3 A tiene a lo sumo n autovalores distintos.

Demostracin:
El enunciado 1 es una consecuencia inmediata de la proposicin 4.2.

De las propiedades del determinante se desprende que

p A (t ) = det [(1)(t I A)] = (1)n det(t I A)

y de acuerdo con el teorema fundamental del lgebra, todo polinomio con coeficientes en C y grado n 1 tiene n races en C
(contando multiplicidades). Por lo tanto siempre es posible factorizar al polinomio caracterstico como

p A (t ) = (1)n (t 1 ) (t 2 ) ... (t n )

donde los 1 , 2 , ..., n C son los autovalores de A. Entonces A tiene a lo sumo n autovalores distintos.
Autovalores y autovectores 107

Ejemplo 4.2

Consideremos la matriz asociada a una rotacin de ngulo 3 con centro en (0, 0). En la figura 4.1 se aprecian los
transformados de los vectores de la base cannica. Luego la matriz asociada para esta base es
p
cos 3 sen 3
" # " #
1/2 3/2
A= = p
sen 3 cos 3 3/2 1/2

Antes de hacer clculos, podemos anticipar un dato sobre los autovalores basndonos en las caractersticas geom-
tricas de la transformacin: ningn vector (distinto del nulo) se transformar en un mltiplo real de s mismo al rotar
un ngulo de 3 . Luego los autovalores deben ser nmeros complejos. En efecto, el polinomio caracterstico es
p p
p A (t ) = t 2 t + 1 = t 1+i2 3 t 1i2 3

Llamando

A
p p
1+i 3 1i 3
1 = 2 =

B
2 2

U
los autoespacios correspondientes son

-
(" #) (" #)
i i
S 1 = gen S 2 = gen

a
1 r 1
ie
en
g
In
e
d
d
a
lt
cu
a
F

Figura 4.1: Rotacin de ngulo 3


108 Autovalores y autovectores

En este ltimo ejemplo, las races del polinomio caracterstico son simples. Si en cambio observamos la factorizacin del
polinomio caracterstico para la reflexin del ejemplo 4.1, detectamos que = 1 es una raz simple mientras que = 1 es
una raz doble. Esto se vincula con el hecho de que hay una recta (dimensin 1) de vectores que permanecen fijos, mientras
que hay un plano (dimensin 2) de vectores que se transforman en sus opuestos. A lo largo del captulo estudiaremos la
relacin que hay entre la multiplicidad de las races del polinomio caracterstico y la dimensin del autoespacio asociado.
Comenzamos con una definicin.

Definicin 4.3

Dada una matriz A Knn , para cada autovalor definimos su multiplicidad algebraica como su multiplicidad en
cuanto raz de p A (t ).

Notacin: si es autovalor de A, denotamos a su multiplicidad algebraica como m .

A
B
Ejercicio.

U
4.2 Considere la matriz " #

-
2 1
A=

a
1 r 2

Encuentre los autovalores, indicando su multiplicidad algebraica y los autoespacios asociados.


ie

Interprete geomtricamente considerando la transformacin f : R2 R2 , f (x) = Ax.


en

A continuacin, indagaremos el polinomio caracterstico de una matriz A = a i j K22 para establecer una relacin con

g
In

sus races 1 , 2 C, es decir con los autovalores de A.

p A (t ) = det (A t I )
e
d

!
a 11 t a 12
= det
d

a 21 a 22 t
a

= t 2 (a 11 + a 22 ) t + (a 11 a 22 a 12 a 21 )
lt

= t 2 (tr A) t + det A
cu

(Esta expresin de p A (t ) se puede constatar en el ejemplo 4.2).


a
F

Por otra parte, desarrollando la expresin factorizada obtenemos

p A (t ) = (t 1 ) (t 2 )
= t 2 (1 + 2 ) t + 1 2

De esta forma, igualando las dos expresiones obtenidas para p A (t ), podemos establecer una relacin entre los autovalores
de una matriz y los coeficientes de su polinomio caracterstico.

Proposicin 4.3

Dada una matriz A K22 con autovalores 1 , 2 C


1 Su polinomio caracterstico es p A (t ) = t 2 (tr A) t + det A

2 det A = 1 2

3 tr A = 1 + 2
Autovalores y autovectores 109

Una pregunta que surge naturalmente en este contexto es si estas relaciones pueden extenderse de alguna forma a matrices
de mayor tamao. La respuesta es que, efectivamente, para cualquier matriz A Knn la traza es la suma de los autovalores
y el determinante es el producto de los autovalores.

Proposicin 4.4

Dada una matriz A Knn con autovalores 1 , 2 , ..., n C

1 det A = 1 2 n

2 tr A = 1 + 2 + ... + n

A
B
U
La demostracin del caso general usa las mismas ideas que para A K22 , aunque es ms exigente en cuanto a notacin y la

-
dejamos como ejercicio para los lectores interesados.

a
r
Ejercicio. Dada una matriz A Knn con autovalores 1 , 2 , ..., n C y adoptando para su polinomio caracterstico
ie

la notacin p A (t ) = (1)n t n + a n1 t n1 + ... + a 1 t + a 0 , demuestre que


en

1. a n1 = (1)n1 tr A
g
In

2. a 0 = det A

3. tr A = 1 + 2 + ... + n
e
d

4. det A = 1 2 n
d
a
lt
cu

Finalizamos esta seccin mencionando un concepto que abarca al de autoespacio como caso particular.
a
F

Definicin 4.4

Dados un subespacio S de Kn1 y una matriz A Knn , se dice que S es un subespacio invariante por A si para todo
vector x S se cumple que Ax S.

Ejercicio. Demuestre que todo autoespacio de una matriz A Knn es un subespacio invariante de Kn1 .

El ejemplo siguiente ilustra la diferencia que existe entre las nociones de autoespacio y subespacio invariante.
110 Autovalores y autovectores

A
B
Figura 4.2: Rotacin de ngulo 3 en torno del eje x 3

U
-
Ejemplo 4.3

a
r
En R3 consideramos una rotacin de 3 en torno del eje x 3 . Razonando como en el ejemplo 4.2, deducimos que la
ie

matriz que representa este movimiento con respecto a la base cannica es


p
en

cos 3 sen 3 0

1/2 3/2 0
p
A = sen 3 cos 3 0 = 3/2 1/2 0
g


In

0 0 1 0 0 1
Antes de hacer ningn clculo, podemos anticipar que el eje x 3 ser un autoespacio asociado al autovalor uno. El
e

polinomio caracterstico es a
d

p p
p A (t ) = (t 1) t 2 t + 1 = (t 1) t 1+i2 3 t 1i2 3

d
a

Llamando p p
lt

1+i 3 1i 3
1 = 2 = 3 = 1
cu

2 2
los autoespacios correspondientes son
a
F


i
i
0

S 1 = gen 1 S 2 = gen 1 S 3 = gen 0


0 0 1

Es claro que el plano x 1 x 2 no puede ser autoespacio, porque ninguno de sus vectores (distinto del nulo) se transforma
en mltiplo de s mismo. Sin embargo, es un subespacio invariante. En efecto, llamando S al plano x 1 x 2 , tenemos que
S = gen {e 1 , e 2 }. Sus elementos son de la forma e 1 + e 2 con , R. Luego sus transformados son elementos del
mismo subespacio:
p
1/2 3/2 0 1 0
p
A e 1 + e 2 = 3/2 1/2 0 0 + 1

0 0 1 0 0
p
1/2 3/2
p
= 3/2 + 1/2

0 0
Autovalores y autovectores 111

El eje x 3 , en cambio, es autoespacio y por ende subespacio invariante.


a Se trata de un polinomio con coeficientes reales. Por lo tanto, si un nmero complejo es raz, tambin lo es su conjugado: con esto se deduce

que al menos una raz es un nmero real. Esto seala una notable diferencia con los movimientos en R2 .

Ejercicio. Demuestre que la suma de autoespacios de una matriz A Knn es un subespacio invariante por A. Es
siempre esta suma un autoespacio?

Ejercicio. Demuestre que si A es una matriz con elementos en R y C es un autovalor con un autovector asociado
v Cn , entonces es un autovalor con un autovector asociado v (es decir, con todos sus elementos conjugados).

A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
112 Autovalores y autovectores

4.2 Diagonalizacin de matrices

Al comienzo de la seccin anterior habamos considerado la reflexin con respecto a un subespacio y elegido una base
B adecuada para que la matriz asociada [R]B fuera diagonal. Dicha base contiene lo que llamamos autovectores. Con los
cambios de base, la relacin entre las matrices (4.1) y (4.2) es

[R]E = C B E [R]B C E B = C B E [R]B (C B E )1 (4.5)

En esta seccin generalizaremos esta idea, buscando para cada matriz A una matriz inversible P de modo tal que resulte
A = P DP 1 siendo D una matriz diagonal. Veremos en qu condiciones es posible lograr esto. Para ello, daremos previamente
algunas definiciones.

A
B
Definicin 4.5

U
Dadas las matrices A Knn y B Knn , se dice que son semejantes si existe una matriz inversible P Knn tal que

-
A = P B P 1

a
r
ie
en
g
In

N Evidentemente, las matrices [R]E y [R]B son semejantes: basta con observar la ecuacin (4.5) y considerar P = C B E .

No es difcil extender este razonamiento para concluir que dos matrices f B 1 y f B 2 asociadas a una misma
e

transformacin lineal f con respecto a dos bases distintas son semejantes. En otras palabras: podemos interpretar
d

la semejanza de matrices como dos representaciones matriciales de una misma transformacin.


d
a

A la luz de este ltimo comentario, es de esperar que las matrices semejantes tengan muchas propiedades y caractersticas
lt

en comn: las llamaremos propiedades invariantes por semejanza. Recogemos algunas de ellas en el teorema siguiente.
cu
a

Teorema 4.2
F

Sean A Knn y B Knn matrices semejantes, es decir que existe una matriz inversible P Knn tal que A = P B P 1 .
Entonces se cumple que

1 p A (t ) = p B (t )

2 A y B tienen los mismos autovalores con igual multiplicidad algebraica.

3 det A = det B

4 tr A = tr B

5 rango A = rango B

Demostracin:
Autovalores y autovectores 113

Para probar la parte 1 usamos propiedades del determinante:

p A (t ) = det(A t I ) = det(P B P 1 t I )
= det(P B P 1 t P P 1 ) = det P (B t I )P 1

= det(P ) det(B t I ) det P 1


= det(B t I ) = p B (t )

De la igualdad de p A (t ) y p B (t ) se desprende inmediatamente 2 . Como en particular es p A (0) = p B (0), resulta det (A 0I ) =


det (B 0I ), con lo cual se deduce 3 . En cuanto a 4 , dado que p A (t ) = p B (t ) y usando la expresin que se da en la pro-
posicin 4.3, se deduce la igualdad de las trazas. La propiedad es vlida para matrices de Knn : para demostrarla se usa la
expresin del polinomio caracterstico enunciada al final de la seccin 4.1.
Para demostrar 5 tenemos en cuenta que A es la matriz asociada, en base cannica, a la transformacin T (x) = Ax. A su vez
B , por ser semejante, es la matriz asociada a T con respecto a otra base. Por ende, rango A = dim (Im T ) = rango B .

B
U
Ejercicio.

-
4.3 Considere las matrices
a
" # r " #
1 1 1 0
A= y I=
0 1 0 1
ie
en

Compruebe que verifican todas las propiedades enunciadas en el teorema 4.2.


g

Decida si son semejantes.


In

La definicin que sigue refleja la idea con que comenzamos este captulo: buscar una base para la que la representacin
e
d

matricial de una transformacin sea diagonal.


d
a

Definicin 4.6
lt

Una matriz A Knn se dice diagonalizable si es semejante a una matriz diagonal.


cu
a
F

Como primer ejemplo de matriz diagonalizable, retomamos la que ya fuera estudiada en el ejemplo 4.1.

Ejemplo 4.4

La matriz
1 2 2
1
A= 2 1 2

3
2 2 1
representa, en coordenadas con respecto a la base cannica, una reflexin. Consideramos una base formada por
autovectores asocidados, respectivamente, a los autovalores 1 = 1, 2 = 3 = 1:

B = [1 1 1]t , [1 1 0]t , [1 0 1]t


Siguiendo la ecuacin (4.5), proponemos una matriz P que sea el cambio de coordenadas de la base B a la base
114 Autovalores y autovectores

cannica y una matriz diagonal D que representa a la reflexin con respecto a la base de autovectores:

1 1 1 1 0 0
P = 1 1 0 D = 0 1 0

1 0 1 0 0 1

Con estos datos se comprueba por un clculo directo la semejanza de A y D:



1 1 1 1 0 0 1 1 1
1
P DP 1 = 1 1 0 0 1 0 1 2 1 = A

3
1 0 1 0 0 1 1 1 2

Ejercicio.

A
B
4.4 Demuestre que la matriz A del ejemplo 4.2 es diagonalizable. Encuentre una matriz inversible P y una matriz

U
diagonal D de modo tal que sea A = P DP 1 . Son nicas?

-
El ejemplo y el ejercicio anteriores involucran matrices diagonalizables. Llegados a este punto nos preguntamos entonces si

a
toda matriz A Knn es diagonalizable. La respuesta ser negativa. Sin embargo, tenemos hasta ahora pocos elementos para
r
asegurar que no se puede diagonalizar cierta matriz: habra que probar que no es semejante a ninguna matriz diagonal. Para
ie

simplificar esto, estableceremos una importante caracterizacin de las matrices diagonalizables.


en

Teorema 4.3
g
In

Una matriz A Knn es diagonalizable si y slo si existe una base de Kn1 formada por autovectores de A.
e
d

Demostracin:
d

Debemos probar una doble implicacin: comenzamos por el caso que ya se vio en los ejemplos, es decir, suponemos que
a

existe una base B = {v 1 , v 2 , ..., v n } formada por autovectores de A. Denotamos como i a los autovalores correspondientes.
lt

Es decir Av i = i v i para i = 1, 2, ..., n. Proponemos entonces las matrices


cu

1

0
a

h i . . ..
F

P = v1 v2 vn D = .. .. .

0 n

La matriz P Knn es de rango n (por qu?) y por lo tanto inversible. Si logramos probar que AP = P D, multiplicando a
derecha por P 1 obtendremos A = P DP 1 como queremos.
h i
AP = A v 1 v 2 v n
h i
= Av 1 Av 2 Av n
h i
= 1 v 1 2 v 2 n v n

1

0
. .. ..
h i
= v1 v2 vn .. . .

0 n
= PD
Autovalores y autovectores 115

Recprocamente, suponemos ahora que la matriz A es diagonalizable, es decir que A = P DP 1 para cierta matriz inversible
h i
P = p1 p2 pn

y cierta matriz diagonal


1

0
. .. ..
D = ..

. .

0 n
Probaremos que las columnas de P constituyen la base de autovectores buscada. En primer lugar, dichas columnas son
una base de Kn1 , puesto que P es inversible. Falta ver que son autovectores de A. Para ello deducimos de A = P DP 1 que
AP = P D, con lo cual h i h i
Ap 1 Ap 2 Ap n = 1 p 1 2 p 2 n p n

A
vale decir que Ap i = i p i para i = 1, 2, ..., n como queramos.

B
Usaremos este teorema para nuestro primer ejemplo de matriz no diagonalizable.

U
-
Ejemplo 4.5

Consideremos la matriz
a
"
r #
4 1
ie
A=
0 4
en

Su polinomio caracterstico es p A (t ) = (t 4)2 , de modo que su nico autovalor es 1 = 4 con multiplicidad algebraica
g

dos. Ahora bien, el autoespacio asociado es


In

(" #)
1
S 2 = gen
0
e
d

Por lo tanto no existe una base de autovectores y la matriz no es diagonalizable.


d
a

Destacamos del ejemplo anterior que el autoespacio asociado al autovalor 1 = 4 es de dimensin uno: como no hay ms
lt
cu

autovalores, ser imposible construir una base de autovectores. Dicho de otra manera: dado que la multiplicidad algebraica
de 1 = 4 es dos, habramos necesitado que el autoespacio asociado tuviera la misma dimensin para poder diagonalizar.
a

Esta observacin se puede generalizar: una matriz es diagonalizable si y slo si la multiplicidad algebraica de cada autovalor
F

coincide con la dimensin del autoespacio asociado.

Demostrar esta ltima afirmacin no es inmediato y lo haremos en varios pasos. Aunque algunas demostraciones son un
poco exigentes, creemos que sern un buen repaso de los conceptos sobre autovectores y autovalores. Comenzamos con
una definicin.

Definicin 4.7

Dada una matriz A Knn , para cada autovalor definimos su multiplicidad geomtrica como la dimensin del
autoespacio asociado.

Notacin: si es autovalor de A, denotamos a su multiplicidad geomtrica como .


116 Autovalores y autovectores

Teorema 4.4

Dado un autovalor de una matriz A Knn , su multiplicidad geomtrica es menor o igual que su multiplicidad
algebraica:
m

Demostracin:
Como es usual, denotamos mediante S al autoespacio asociado al autovalor . Abreviamos como su multiplicidad geo-
mtrica: = dim (S ). Consideramos una base B = v 1 , v 2 , ..., v del autoespacio S y la completamos para obtener una

base de todo el espacio Kn1 :



B = v 1 , v 2 , ..., v , ..., v n
La idea de la demostracin es pensar que la matriz A representa una transformacin lineal T : Kn Kn con respecto a la
base cannica, es decir T (x) = Ax. Estudiaremos la representacin matricial M de la misma transformacin con respecto a

A
la base B , o sea

B
M = [T ]B

U
por lo que A y M son matrices semejantes. La matriz M , de acuerdo con la proposicin 2.5, tiene por columnas las coorde-

-
nadas con respecto a la base B de los transformados de los vectores de esa base. En el caso de los autovectores tenemos, para

a
i = 1, ..., : r
T (v i ) = v i [T (v i )]B = [v i ]B
ie

donde [v i ]B es una columna de ceros, salvo en la i -sima posicin, donde hay un uno. De esta forma, las primeras columnas
en

de M son
0 0

g

0 0
In


. . . ..
. . .
. . . .

e

0 0

d


0 0 0

d

.. .. . . .

. . . ..
a

0 0 0
lt
cu

y la matriz M resulta " #


I C
a

M=
0 D
F

donde el primer bloque I K es una matriz diagonal con valor en la diagonal. El resto de los bloques son matrices con
los tamaos adecuados 1 . Por ser A y M semejantes, tienen igual polinomio caracterstico (teorema 4.2) y por ende

p A (t ) = p M (t ) = det (M t I )
" #
( t )I C
= det
0 D tI

(El smbolo I debe interpretarse como una matriz identidad del tamao adecuado). Se puede deducir de la definicin de
determinante (cualquiera que se haya estudiado), que en este caso equivale al producto de los determinantes de los bloques
diagonales:

p A (t ) = det [( t )I ] det [D t I ]
= ( t ) det [D t I ]
1 C K(n) , D K(n)(n) y 0 K(n)
Autovalores y autovectores 117

La ltima expresin muestra al polinomio caracterstico de A como un producto de polinomios: el segundo de ellos se des-
conoce, por lo tanto la multiplicidad de como raz de p A (t ) es al menos igual a , como queramos probar.

Teorema 4.5

Sea A Knn y sean v 1 , v 2 , ..., v r autovectores correspondientes a autovalores distintos. Entonces v 1 , v 2 , ..., v r son li-
nealmente independientes.

Demostracin:
Llamamos 1 , 2 , ..., r a los autovalores (todos distintos) de modo tal que

Av i = i v i i = 1, ..., r

A
B
En primer lugar, el conjunto {v 1 } es linealmente independiente, porque v 1 no es nulo. Probaremos que se pueden agregar

U
sucesivamente todos los autovectores v 2 , ..., v r obteniendo en cada paso un conjunto linealmente independiente. Para ello,
y razonando inductivamente, probaremos que agregar uno de estos vectores siempre produce un nuevo conjunto lineal-

-
mente independiente. Consideramos entonces que el conjunto {v 1 , ..., v h } es linealmente independiente (donde h podra ser

a
1, 2, ..., r 1); mostraremos que al agregarle un autovector se mantiene independiente. Planteamos una combinacin lineal
r
del conjunto {v 1 , ..., v h , v h+1 } que da cero
ie

1 v 1 + ... + h v h + h+1 v h+1 = 0 (4.6)


en

Multiplicando por h+1 queda


g

1 h+1 v 1 + ... + h h+1 v h + h+1 h+1 v h+1 = 0


In

Por otra parte, multiplicando (4.6) por la matriz A resulta


e
d

1 1 v 1 + ... + h h v h + h+1 h+1 v h+1 = 0


d

y restando miembro a miembro las dos ltimas ecuaciones obtenemos


a
lt

1 (h+1 1 ) v 1 + ... + h (h+1 h ) v h = 0


cu
a

Como supusimos que {v 1 , ..., v h } es independiente, debe ser


F

i (h+1 i ) = 0 i = 1, ..., h

y por tratarse de autovalores distintos, deducimos que

i = 0 i = 1, ..., h

lo cual reemplazado en (4.6) arroja


h+1 v h+1 = 0

de donde, al ser los autovectores no nulos,


h+1 = 0

con lo cual hemos probado que la nica solucin de la ecuacin (4.6) es la trivial 1 = ... = h = h+1 = 0, de modo que
{v 1 , ..., v h , v h+1 } es independiente.
118 Autovalores y autovectores

Ejercicio. Demuestre que una matriz A Cnn con todos sus autovalores de multiplicidad algebraica uno es diagona-
lizable.

Si reunimos los resultados de los ltimos teoremas 4.3, 4.4 y 4.5 resulta que para poder diagonalizar una matriz A Knn es
condicin necesaria y suficiente encontrar una base de autovectores. Ahora bien, si la matriz tiene r autovalores distintos i ,
sus multiplicidades algebraicas m i verifican
m 1 + m 2 + ... + m r = n

Sabemos que a cada autovalor i correspondern i autovectores independientes (que tambin sern independientes del
resto de los autovectores). Como i m i resulta

1 + 2 + ... + r n

y la igualdad se dar si i = m i para todo i = 1, ..., r . Esta es la nica forma de que exista una base de n autovectores.

A
Resumimos este argumento en el teorema siguiente.

B
Teorema 4.6

U
Una matriz A Cnn es diagonalizable si y slo para cada autovalor coinciden sus multiplicidades algebraica y geo-

-
mtrica.

a
r
ie

Ejercicio.
en

4.5 Considere la matriz


g


2 5 3
In

A= 5 2 c

0 0 3
e
d

Decida para qu valores de c R es diagonalizable. Encuentre, en tales casos, una matriz inversible P y una matriz
diagonal D tales que A = P DP 1 .
d
a
lt
cu

4.3 Potencias de matrices y polinomios matriciales


a
F

Comenzamos esta seccin retomando el ejemplo 4.2 de la rotacin en R2 . Vamos a indagar qu ocurre al componer rotacio-
nes y cmo resulta la representacin matricial.

Ejemplo 4.6

Consideremos la rotacin de ngulo 3 con centro en (0, 0). Si denotamos por f : R2 R2 a esta transformacin lineal,
la matriz asociada con respecto a la base cannica es, como ya habamos visto,
p
cos 3 sen 3
" # " #
1/2 3/2
A= f E = = p
sen 3 cos 3 3/2 1/2

La composicin de esta rotacin consigo misma es



f f (x) = f f (x)
Autovalores y autovectores 119

y si usamos la representacin matricial resulta



f f (x) = A (Ax) = (A A)x

Como ya habamos sealado en el captulo 2, el producto de las matrices se corresponde con la composicin de las
transformaciones que representan. Por lo tanto, hemos de esperar que A.A sea la matriz que representa una rotacin
de ngulo 3 + 3 = 2 3 :
p p p
cos 2 3 sen 2 3
" #" # " # " #
1/2 3/2 1/2 3/2 1/2 3/2
A.A = p p = p =
sen 2 3 cos 2 3

3/2 1/2 3/2 1/2 3/2 1/2

Para representar con generalidad esta clase de producto, adoptamos la notacin ms obvia.

A
Definicin 4.8

B
Dada una matriz A Knn definimos para cualquier n N su potencia n-sima mediante

U
A0 = I A n = |A A{z A}

-
n veces

a
r
ie
en

Ejercicio.
g
In

4.6 Considere la matriz que representa una rotacin de ngulo


" #
cos sen
e

A=
d

sen cos
d

y encuentre la forma general de A n . Interprete geomtricamente.


a
lt
cu

El clculo de las potencias se simplifica mucho para el caso de las matrices diagonalizables. En efecto, dada una matriz
diagonalizable A Knn , sabemos que existen P inversible y D diagonal tales que A = P DP 1 , con lo cual
a
F

n
A n = P DP 1 = P DP 1 P DP 1 P DP 1 = P D n P 1

(4.7)
| {z }
n veces

y en la ltima expresin la matriz D n es una matriz diagonal con las potencias n-simas de los autovalores de A.

Ya mencionamos que las potencias de una matriz se asocian con la composicin de transformaciones lineales. En el ejemplo
siguiente veremos cmo estas potencias pueden usarse en las aplicaciones para representar la repeticin de cierto proceso.
Los lectores interesados encontrarn ms ejemplos de aplicaciones en [6] y [5].

Ejemplo 4.7

Consideremos que dos empresas lcteas abastecen de leche a cierta poblacin. Con el tiempo, parte de los clientes
cambian su preferencia por distintas razones (publicidad o costo entre otras). Buscamos modelar y analizar el mo-
vimiento de clientes entre los proveedores asumiendo, por simplicidad, que el nmero total de clientes permanece
constante. Supongamos que al comenzar nuestro modelo las dos empresas, E 1 y E 2 , controlan a 0 = 32 y b 0 = 13 (res-
120 Autovalores y autovectores

pectivamente) del mercado. Definimos entonces un vector de estado inicial


" # " #
a0 2/3
x0 = =
b0 1/3

Estamos suponiendo que ninguna otra productora de leche interviene en el mercado, por eso se cumple que a 0 +b 0 =
1. Supongamos que despus de un mes la empresa E 1 ha logrado mantener el 80 % de sus propios clientes y ha atrado
al 30 % de los clientes de E 2 . Por otra parte, la empresa E 2 ha logrado atraer al 20 % de los clientes de E 1 y conserva el
70 % de su propia clientela. Teniendo en cuenta las consideraciones anteriores, pueden obtenerse las fracciones a 1 y
b 1 de clientes que tiene cada una de las empresas al cabo de un mes:

a 1 = 0, 8a 0 + 0, 3b 0
b 1 = 0, 2a 0 + 0, 7b 0

En forma matricial

A
" # " #" #
a1 0, 8 0, 3 a0
=

B
b1 0, 2 0, 7 b0

U
| {z } | {z } | {z }
x1 A x0

La matriz A contiene la informacin sobre el intercambio de clientes entre ambas empresas. Si asumimos que esta

-
forma de intercambiar clientes se mantiene estable, podemos obtener una sucesin de vectores en R2

a
r
x 1 = Ax 0
ie

x 2 = Ax 1
en

..
.
g
In

x k = Ax k1

donde cada x k es el vector de estado al cabo de k meses. Esta sucesin puede expresarse en trminos de las potencias
e

de A y el vector de estado inicial x 0 :


d
d

x 1 = Ax 0
a

x 2 = Ax 1 = A Ax 0 = A 2 x 0
lt

..
cu

.
x k = Ax k1 = A Ax k2 = = A k x 0
a
F

Calculemos las potencias de A aplicando diagonalizacin. Dejamos a cargo del lector verificar que
" # " #
1 3 1 1 0
A = P DP con P = y D=
2 1 0 0, 5

Usando la frmula (4.7) podemos calcular sus potencias como


" #" #" #
k k 1 3 1 1 0 0, 2 0, 2
A = PD P =
2 1 0 (0, 5)k 0, 4 0, 6

El aspecto ms interesante es la posibilidad de predecir el comportamiento de un sistema (en este caso el compor-
tamiento del mercado lcteo) a largo plazo. Esto significa preguntarnos qu ocurre con x k cuando consideramos un
nmero grande de perodos de tiempo (meses en este caso). Cuando k tiende a infinito, la matriz D k tiende a a
" #
1 0
D =
0 0
Autovalores y autovectores 121

y por lo tanto podemos anticipar el comportamiento de la sucesin de matrices A k :


" # " #
k 1 0 1 0, 6 0, 6
lm A = P P =
k 0 0 0, 4 0, 4

Por lo tanto resulta " #" # " #


k 0, 6 0, 6 2/3 0, 60
x = lm x k = lm A x 0 = =
k k 0, 4 0, 4 1/3 0, 40

El vector lmite x indica que, si se cumplen las suposiciones que hicimos, las empresas E 1 y E 2 tendern a controlar
el 60 % y el 40 % del mercado respectivamente.
a Entendemos que este lmite es intuitivamente claro y omitimos su definicin formal. Tan slo mencionamos que se puede usar la norma de

matrices que induce el producto interno del ejemplo 3.2, con la cual el lmite D k D significa que D k D 0 conforme k .

A
B
Ejercicio. Compruebe que en el ejemplo anterior el vector lmk x k es independiente de cul sea el vector de estado

U
inicial. " #
a
Sugerencia: considere x 0 = donde 0 a 1

-
a 1

a
r
A continuacin indagamos si es siempre posible encontrar un lmite para una sucesin de matrices o de vectores.
ie
en

Ejemplo 4.8
g

Consideramos " #
In

2 3
A=
0 1/2
e

Se trata de una matriz diagonalizable:


d

" # " #
d

1 1 2 2 0
A = P DP con P = y D=
a

0 1 0 1/2
lt

Luego
cu

" #
k 2k 0
D =
a

0 (1/2)k
F

Como no existe el lmite de 2k cuando k , no podemos hallar un lmite para la sucesin de matrices A k .
Observamos cmo la convergencia de una sucesin de matrices depende de los autovalores de A.

Dado un vector v R2 , qu ocurre con la sucesin de vectores A k v? Consideremos en primer lugar el caso de los
autovectores de la matriz:

Si v es un autovector asociado al autovalor 2, no existe el lmite de la sucesin de vectores. En efecto, para este
caso es A k v = 2k v.

Si en cambio v es un autovector asociado al autovalor 1/2 resulta lmk A k v = lmk (1/2)k v = 0.

En el caso general, los vectores v R2 pueden escribirse en la forma


" # " #
1 2
v = +
0 1
122 Autovalores y autovectores

para y adecuados. Por lo tanto


" # " # " # k " #
k k 1 k 2 k 1 1 2
A v = A + A = 2 +
0 1 0 2 1

Entonces, la sucesin de vectores A k v ser convergente si y slo = 0, es decir si v pertenece al autoespacio asociado
al 1/2.

Ejercicio.
" #
2/3 1

A
k 2
4.7 Encuentre, si es posible, lmk A v para v R y A = .
0 1

B
U
La definicin que sigue contiene a las potencias de matrices como un caso particular.

-
a
r
Definicin 4.9
ie
en

Dados un polinomio p(t ) = a k t k + a k1 t k1 + ... + a 1 t + a 0 con a i R (i = 0, 1, ..., k), a k 6= 0 y una matriz A Knn , el
polinomio matricial p(A) es
g

p(A) = a k A k + a k1 A k1 + ... + a 1 A + a 0 I
In
e
d
d
a

Ejemplo 4.9
lt
cu

Consideramos en R3 la reflexin con respecto a un plano S, como en la figura 3.13. Su complemento ortogonal es
S = gen {u}, donde u es un vector que por sencillez elegimos de norma 1. De acuerdo con la definicin 3.18, H =
a

I 2 uu t es la matriz (de Householder) asociada a la reflexin con respecto a S. A su vez uu t es la matriz asociada
F

a la proyeccin sobre S (por qu?). Si definimos el polinomio

p(t ) = 2t + 1

de acuerdo con la definicin de polinomio matricial es H = p uu t .



t
Por ser uu la matriz asociada a una proyeccin, sus autovalores son 0 y 1. Notablemente, al evaluar p(t ) en ellos

p(0) = 2 0 + 1 = 1 p(1) = 2 1 + 1 = 1

obtenemos los autovalores de la reflexin. Ms an, para uu t el autoespacio asociado al 1 es S y pasa a ser el

autoespacio asociado a p(1) = 1 en la matriz H . Lo mismo ocurre para el autoespacio asociado al 0.

Demostraremos que la relacin sealada en el ejemplo no es casual.


Autovalores y autovectores 123

Teorema 4.7

Dados un polinomio p(t ) = a k t k + a k1 t k1 + ... + a 1 t + a 0 con a i R (i = 0, 1, ..., k), a k 6= 0 y una matriz A Knn

1 Si es autovalor de A, entonces p() es autovalor de p(A).


Adems, si v es autovector de A asociado a , tambin ser autovector de p(A) asociado a p().

2 Para cada autovalor de p(A) existe un autovalor de A tal que p() = .

Demostracin:
El caso en que k = 0, es decir con p(t ) = a 0 es inmediato y se deja como ejercicio. En lo que sigue suponemos k 1.
Para probar 1 , consideramos que v es un autovector de A asociado al autovalor . Vale decir que Av = v. Razonando
inductivamente, llegamos a que para cualquier k N: A k v = k v. Demostraremos entonces que p() es autovalor de p(A) y

A
que el mismo v es un autovector asociado:

B

p(A) v = a k A k + a k1 A k1 + ... + a 1 A + a 0 I v

U
= a k A k v + a k1 A k1 v + ... + a 1 Av + a 0 I v

-
= a k k v + a k1 k1 v + ... + a 1 v + a 0 v
a

r
= a k k + a k1 k1 + ... + a 1 + a 0 v = p() v
ie
en

En cuanto a 2 , definimos un polinomio q(t ) = p(t ) . Probaremos en primer lugar que la matriz q(A) = p(A) I es
singular. En efecto, sea v un autovector asociado al autovalor , entonces se tiene
g
In

q(A) v = p(A) I v = p(A)v I v = I v I v = 0



e

Por otra parte, q(t ) admite una factorizacin de la forma


d
d

q(t ) = a k (t t 1 ) (t t 2 ) (t t k )
a
lt

con t i C (i = 1, 2, ..., k). Una consecuencia inmediata de la definicin de polinomio matricial es que si un polinomio se
cu

factoriza como r (t ) = r 1 (t ) r 2 (t ) entonces para cualquier matriz cuadrada A es r (A) = r 1 (A) r 2 (A). Con esto llegamos a
a

q(A) = a k (A t 1 I ) (A t 2 I ) (A t k I )
F

y aplicando determinante a esta matriz que ya sabemos singular resulta

0 = det q(A) = (a k )n det (A t 1 I ) det (A t 2 I ) det (A t k I )

Entonces, al menos uno de estos factores debe anularse. Llamemos t al valor para el cual

det A t I = 0

Esto significa que t es un autovalor de A y que

q t = 0 = p(t )

con lo cual p(t ) = y t es entonces un autovalor de A que se transforma en .


124 Autovalores y autovectores

N Al usar las propiedades 1 y 2 juntas, podemos concluir que calculando = p() para cada autovalor de A,
se agotan todos los autovalores de p(A). Sin embargo, esto no implica una preservacin de las multiplicidades
geomtricas ni algebraicas.

Ejemplo 4.10

La matriz
1 1 0 0
0 1 0 0
A=


0 0 1 1
0 0 0 1
tiene dos autovalores 1 = 1 y 2 = 1, ambos de multiplicidad algebraica dos:

A
B
det(A t I ) = (1 t )2 (1 t )2

U
Sin embargo, las multiplicidades geomtricas son ambas uno:

-
a
S 1 = gen [1 0 0 0]t S 2 = gen [0 0 1 0]t

r
Al considerar el polinomio p(t ) = t 4 2t 2 resulta
ie
en


1 0 0 0
g

0 1 0 0
p(A) = A 4 2A 2 =

In


0 0 1 0
0 0 0 1
e
d

que tiene un autovalor = p(1 ) = p(2 ) = 1 de multiplicidad algebraica y geomtrica cuatro:


d

det(A t I ) = (1 t )4 S = R4
a
lt

Por lo tanto, en este caso la matriz no diagonalizable A se transform en la matriz diagonalizable p(A).
cu
a
F

" #
0 1
Ejercicio. Demuestre que la matriz A = no es diagonalizable y que sin embargo A 2 lo es.
0 0

Ejercicio.

4.8 Sea A R33 que verifica

A es inversible.

A 2 + 2A es singular.

dim [Nul(A 3I )] = 2

Encuentre los autovalores de A y decida si es diagonalizable.


Autovalores y autovectores 125

Ejercicio.

4.9 Existen una matriz A Knn y un polinomio p P tales que A es diagonalizable pero p(A) no lo es?

A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
A
B
U
-
a
r
ie
en
g
In

Esta pgina fue dejada intencionalmente en blanco


e
d
d
a
lt
cu
a
F
5 Matrices simtricas y hermticas

A
B
U
5.1 Matrices ortogonales y unitarias

-
a
r
Comenzamos este captulo sealando algunos aspectos de la reflexin con respecto a un subespacio. En el ejemplo 3.20
ie
habamos obtenido, para la reflexin con respecto a un plano de R3 , la siguiente matriz asociada con respecto a la base
en

cannica:
9 6 2
1
g

A= 6 7 6 (5.1)

In

11
2 6 9
e

Queremos sealar dos propiedades de esta matriz:


d

1. Es simtrica: A = A t .
d
a

2. Es involutiva: A 2 = I , lo cual puede anticiparse por las caractersticas de la reflexin y comprobarse por un clculo
lt

directo.
cu

Usando estas dos propiedades podemos afirmar que


a
F

At A = I

Ya habamos mencionado (al estudiar la descomposicin QR en el teorema 3.14) que si esto ocurre es porque las columnas
de A son una base ortonormal de Col A. Dado que las columnas de A son los transformados de los vectores de la base can-
nica, destacamos que en esta reflexin la base cannica se transforma en otra base ortonormal.

Convencin

En todo este captulo, siempre que se mencionen Rn y Cn como espacios con producto interno, se entender que es
el producto interno cannico como se lo defini en 3.1 y 3.5 respectivamente.

La definicin que sigue ampla la idea anterior a los C espacios.


128 Matrices simtricas y hermticas

Definicin 5.1

Una matriz P Cnn se dice unitaria si verifica

PHP = PPH = I

o, de manera equivalente, si P H = P 1 .
En el caso particular de una matriz unitaria P Rnn resulta

PtP = PPt = I

y se dice que P es una matriz ortogonal.

A
Ejercicio.

B
Demuestre que si una matriz P Knn es unitaria entonces P H tambin lo es.

U
Demuestre que el producto de matrices unitarias es una matriz unitaria.

-
a
r
El teorema que sigue establece formalmente lo que ya habamos sealado acerca de las columnas ortonormales. Se enuncia
para matrices en Cnn y entre parntesis puede leerse la versin para matrices en Rnn .
ie
en

Teorema 5.1
g

Sea P Cnn (P Rnn ). Son equivalentes:


In

1 P es unitaria (ortogonal).
e
d

2 Las columnas de P forman una base ortonormal de Cn (Rn ).


d

3 Las filas de P forman una base ortonormal de Cn (Rn ).


a
lt
cu

Demostracin:
a

Slo demostraremos el caso en que P es unitaria, ya que el caso en que la matriz es ortogonal se deduce empleando los
F

mismos argumentos.

En primer lugar, para probar que 1 2 , el argumento es el mismo que se us en el teorema 3.14 al estudiar la descompo-
sicin QR.
Recprocamente, si las columnas de P forman una base ortonormal de Cn , entonces P H P = I . Ahora bien, esto significa que
la matriz P H es la inversa de P . 1 Luego P H = P 1 y por lo tanto 2 1 .

Para probar las restantes equivalencias, alcanza con demostrar que 1 3 . Suponiendo en primer lugar que vale 1 , es decir
que P es unitaria, entonces P t tambin es unitaria (prubelo!) con lo cual, apelando a 2 resulta que sus columnas son una
base ortonormal. Pero las columnas de P t son las filas de P y por ende 1 3 .
Recprocamente, si las filas de P forman una base ortonormal de Cn , entonces las columnas de P t forman una base ortonor-
mal. Apelando a 2 deducimos que P t es unitaria y luego P es tambin unitaria. Esto prueba que 3 1 .

1 Una propiedad de las matrices cuadradas es que B A = I B = A 1 , es decir que alcanza con ser inversa por izquierda para ser la inversa (ver [4]).
Matrices simtricas y hermticas 129

Al comienzo de esta seccin estudiamos un ejemplo de la reflexin y su representacin matricial. Por tratarse de un movi-
miento debe preservar la norma de los vectores y los ngulos: veremos a continuacin que cualquier transformacin deter-
minada por una matriz unitaria verifica estas propiedades.

Teorema 5.2

Sea P Cnn una matriz unitaria. Entonces vale lo siguiente:

1 (Pu, P v) = (u, v) para todos u, v Cn .

2 kPuk = kuk para todo u Cn .

3 Si C es un autovalor de P , entonces || = 1.

4 |det P | = 1

A
B
Demostracin:

U
Para demostrar 1 usamos la definicin del producto interno cannico:

-
(Pu, P v) = (Pu)H P v = u H P H P v = u H v = (u, v)

a
r
La propiedad 2 es una consecuencia de 1 y la dejamos como ejercicio.
ie

Sea C un autovalor de P . Vale decir que existe un vector no nulo v Cn tal que P v = v. Luego, usando 2 y teniendo en
en

cuenta que kvk 6= 0 tenemos que


kvk = kP vk = || kvk || = 1
g
In

De acuerdo con la proposicin 4.4, el determinante de una matriz es el producto de sus autovalores contando multiplicida-
des. Como en este caso se trata de autovalores de mdulo uno, resulta la propiedad 4 .
e
d

del teorema 5.2 teniendo en cuenta que det P P H = det I .



Ejercicio. Demuestre la propiedad
d

4
a
lt
cu
a
F
130 Matrices simtricas y hermticas

5.2 Diagonalizacin de matrices simtricas y hermticas

En esta seccin estudiaremos una clase de matrices diagonalizables de especial inters: las matrices simtricas y su genera-
lizacin a C espacios.

Definicin 5.2

Una matriz A Cnn se dice hermtica si verifica


AH = A

En el caso particular de una matriz hermtica A Rnn resulta

At = A

A
B
y se dice que A es una matriz simtrica.

U
-
Ejercicio. Demuestre que los elementos de la diagonal principal de una matriz hermtica son siempre nmeros reales.
a
r
ie

Ejemplo 5.1
en

Consideremos la siguiente matriz simtrica


g

" #
1 3
In

A=
3 1
e

Su polinomio caracterstico es
d

p A (t ) = t 2 2t 8 = (t 4)(t + 2)
d

con lo cual sus autovalores son 1 = 4 y 2 = 2. En cuanto a los autoespacios, estos son
a
lt

S 1 = gen [1 1]t S 2 = gen [1 1]t



cu

Entonces definiendo v 1 = [1 1]t y v 2 = [1 1]t resulta B = {v 1 , v 2 } una base ortogonal de R2 . Si adems normalizamos
a

estos vectores obtenemos una base ortonormal de R2 compuesta por autovectores de A:


F

v1 v2 1 t 1 t

1 1
B= , = p p , p p
kv 1 k kv 2 k 2 2 2 2

Si ahora consideramos las matrices


" p p # " #
1/ 2 1/ 2 4 0
P= p p y D=
1/ 2 1/ 2 0 2

resulta que P es ortogonal y


A = P DP 1 = P DP t (5.2)

Observamos que A no slo es diagonalizable, sino que adems hemos podido elegir la matriz de autovectores que
aparece en su diagonalizacin de forma que sea ortogonal.
Matrices simtricas y hermticas 131

Ejercicio.

5.1 Considere la matriz asociada a la reflexin (5.1) presentada al comienzo de este captulo y encuentre una diagona-
lizacin como en (5.2), es decir, con la matriz P ortogonal.
Sugerencia: en lugar de hacer los clculos del polinomio caracterstico y autoespacios, se pueden conocer sus autovalo-
res y autovectores asociados considerando la interpretacin geomtrica del ejemplo 3.20.

Ejemplo 5.2

Consideremos ahora la matriz hermtica " #


1 i
A=
i 1

cuyo polinomio caracterstico es

A
p A (t ) = t 2 2t = t (t 2)

B
y sus autovalores son 1 = 2 y 2 = 0, ambos reales. En cuanto a los autoespacios, estos son

U
S 1 = gen [i 1]t S 2 = gen [i 1]t

a
con lo cual, llamando v 1 = [i 1]t y v 2 = [i 1]t resulta B = {v 1 , v 2 } una base ortogonal de C2 . Si adems normalizamos
r
a estos vectores obtenemos una base ortonormal de C2 compuesta por autovectores de A:
ie
en

v1 v2 i 1 t i 1 t

B= , = p p , p p
kv 1 k kv 2 k 2 2 2 2
g
In

Considerando entonces las matrices


" p p # " #
e

i/ 2 i / 2 2 0
P= p p y D=
d

1/ 2 1/ 2 0 0
d

resulta que P es unitaria y


a

A = P DP 1 = P DP H (5.3)
lt
cu

En este caso hemos podido elegir la matriz de autovectores de forma que sea unitaria.
a
F

Las diagonalizaciones (5.2) y (5.3) sern de especial inters y llevan nombre propio.

Definicin 5.3

Una matriz A Rnn se dice diagonalizable ortogonalmente si existen P Rnn ortogonal y D Rnn diagonal
tales que
A = P DP t (5.4)

Una matriz A Cnn se dice diagonalizable unitariamente si existen P Cnn unitaria y D Cnn diagonal tales
que
A = P DP H (5.5)

Es obvio que toda matriz diagonalizable unitariamente es, en particular, diagonalizable. Adems, por lo que ya sabemos so-
bre diagonalizacin de matrices, las columnas de la matriz P son autovectores de A. Queda claro que si A es diagonalizable
132 Matrices simtricas y hermticas

unitariamente, entonces existe una base ortonormal de Cn compuesta por autovectores de A.


Por otra parte, si es posible hallar una base ortonormal de Cn compuesta por autovectores de A, es inmediato que podemos
factorizar A en la forma (5.5): formamos P poniendo como columnas los autovectores de A que componen la base ortonor-
mal y D poniendo los autovalores de A en la diagonal y cero en el resto.
Estos mismos argumentos pueden adaptarse para el caso de matrices reales. En conclusin

Teorema 5.3

Una matriz A Cnn (A Rnn ) es diagonalizable unitariamente (ortogonalmente) si y slo si existe una base orto-
normal de Cn (Rn ) compuesta por autovectores de A.

El teorema siguiente ratifica la generalidad de los comentarios hechos en los ejemplos 5.1 y 5.2.

A
Teorema 5.4 (Espectral)

B
Sea A Cnn una matriz hermtica. Entonces vale lo siguiente:

U
1 Todos sus autovalores son nmeros reales.

-
a
2 Autoespacios asociados a diferentes autovalores son mutuamente ortogonales.
r
ie
3 Es diagonalizable unitariamente.
en

4 Si adems A Rnn , y es por lo tanto simtrica, A es diagonalizable ortogonalmente.


g
In

Demostracin:
En lo que sigue, usaremos la siguiente propiedad de las matrices hermticas, vlida para u, v Cn :
e
d

(Au, v) = (u, Av)


d
a

que se explica como sigue:


lt

(Au, v) = (Au)H v = u H A H v = u H Av = (u, Av)


cu

Para demostrar 1 , consideremos un autovalor de A. Sea v un autovector asociado a . Entonces, por una parte es
a
F

(Av, v) = (v, v) = (v, v)

mientras que tambin tenemos


(Av, v) = (v, Av) = (v, v) = (v, v)

Luego (v, v) = (v, v) y por ser (v, v) 6= 0 resulta = . Entonces es necesariamente real.

Para demostrar 2 , consideremos y dos autovalores distintos de A. Para probar que S S bastar con ver que si u S
y v S entonces (u, v) = 0. Teniendo en cuenta que , R:

(u, v) = (u, v) = (Au, v) = (u, Av) = (u, v) = (u, v)

Con lo cual ( )(u, v) = 0 y al ser ( ) 6= 0 sigue el resultado.

Omitimos la demostracin de 3 y 4 . El lector interesado podr encontrar los detalles en [4].


Matrices simtricas y hermticas 133

5.3 Formas cuadrticas

Seguramente nuestros lectores han estudiado la funcin homogrfica

1
f (x) =
x

Su grfico, que se aprecia en la figura 5.1, es usualmente conocido como hiprbola equiltera2 y queda caracterizado por la
ecuacin
xy =1

que, a primera vista, no parece tener mucha relacin con la ecuacin cannica de las hiprbolas

A
x2 y 2

B
=1
a2 b2

U
Se trata realmente de una hiprbola? Veremos que s, que la curva grfico de la funcin f es efectivamente una hiprbola: lo

-
que sucede es que sus ejes principales estn rotados con respecto a los ejes x e y.

a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F

Figura 5.1: Hiprbola equiltera

Comenzamos por adoptar la notacin a la usual de Rn : es decir que estudiaremos la ecuacin

x1 x2 = 1

a la que podemos escribir como un producto de matrices adecuadas (comprobarlo!):


" #" #
0 1/2 x1
[x 1 x 2 ] =1
1/2 0 x2
| {z }
A

2 Se suele denominar equilteras a las hiprbolas cuyas asntotas son perpendiculares.


134 Matrices simtricas y hermticas

y destacamos que la matriz A es simtrica. Por lo tanto, y de acuerdo con el teorema espectral 5.4, es diagonalizable ortogo-
nalmente. Es decir, existe una base ortonormal B = {b 1 , b 2 } cuyos vectores podemos expresar como columnas de una matriz
P de modo tal que A = P DP t , siendo D una matriz diagonal:
" p p #" #" p p #
1/ 2 1/ 2 1/2 0 1/ 2 1/ 2
A= p p p p
1/ 2 1/ 2 0 1/2 1/ 2 1/ 2

Con esto, la ecuacin anterior adopta la forma


t
x t Ax = 1 x t P DP t x = 1 P t x D P t x = 1

La matriz P expresa el cambio de coordenadas de base B a base cannica, es decir P = C B E . Por ende C E B = P 1 = P t . De
esta forma, la expresin P t x indica las coordenadas del vector x con respecto a la nueva base de autovectores. Adoptamos la
notacin " #
y1

A
t
P x=y=
y2

B
con lo que la ecuacin original en coordenadas cannicas equivale, en coordenadas con respecto a la base B , a la ecuacin

U
" #
1/2 0 1 1

-
t t
y Dy =1 y y = 1 y 12 y 22 = 1
0 1/2 2 2

a
r
que reconocemos como la ecuacin cannica de una hiprbola.
ie
en

La exposicin anterior pretende poner de manifiesto la importancia que tienen las expresiones de la forma x t Ax y los cam-
bios de coordenadas que admiten. La definicin que sigue permitir generalizar estas ideas.
g
In

Definicin 5.4
e

Una forma cuadrtica en Rn es una funcin Q : Rn R que se puede expresar en la forma


d

Q(x) = x t Ax
d
a

siendo A Rnn una matriz simtrica.


lt
cu

Veamos algunos ejemplos de formas cuadrticas.


a
F

Ejemplo 5.3

La funcin que a cada vector de Rn le asigna el cuadrado de su norma, esto es,

Q : Rn R, Q(x) = kxk2

es una forma cuadrtica pues Q(x) = x t I x.

Ejemplo 5.4

Sea Q : R2 R, Q(x) = x t Ax con " #


4 0
A=
0 3
Matrices simtricas y hermticas 135

Un sencillo clculo muestra que Q(x) = 4x 12 + 3x 22 . En general, si A = a i j Rnn es una matriz diagonal se tiene que

Q(x) = a 11 x 12 + ... + a nn x n2 = a i i x i2
X
1i n

A este tipo de forma cuadrtica se la denomina forma diagonal o sin productos cruzados.

Ejercicio.

5.2 Decida si una forma cuadrtica Q(x) = x t Ax define una transformacin lineal de Rn R.

A
Ejemplo 5.5

B
Sea Q : R3 R, Q(x) = x t Ax con

U

5 1 2
A= 1 2 3

-
2 3 1

a
r
Efectuando el producto x t Ax obtenemos (verificarlo!)
ie

Q(x) = 5x 12 + 1x 1 x 2 2x 1 x 3 + 1x 2 x 1 2x 22 + 3x 2 x 3 2x 3 x 1 + 3x 3 x 2 1x 32
en

que es la sumatoria de todos los posibles productos x i x j multiplicados por el correspondiente coeficiente a i j de la
g
In

matriz A, es decir
X
Q(x) = ai j xi x j
1i , j 3
e
d

Como la matriz A es simtrica y x i x j = x j x i , podemos reducir la expresin de Q(x) a


d

Q(x) = 5x 12 + 2 1x 1 x 2 2 2x 1 x 3 2x 22 + 2 3x 2 x 3 1x 32
a
lt

con lo cual slo aparecen trminos de la forma x i x j con i j multiplicados por a i i si i = j y por 2a i j si i < j . En otras
cu

palabras
a i i x i2 + 2
X X
a

Q(x) = ai j xi x j
F

1i 3 1i < j 3

El argumento del ejemplo anterior se generaliza sin dificultad para dar la expresin general de una forma cuadrtica.

Proposicin 5.1

Dada una forma cuadrtica Q : Rn R, Q(x) = x t Ax con A = a i j Rnn simtrica, su expresin es


a i i x i2 + 2
X X
Q(x) = ai j xi x j
1i n 1i < j n
136 Matrices simtricas y hermticas

Ejercicio.

5.3

Obtenga la expresin de la forma cuadrtica Q : R3 R, Q(x) = x t Ax siendo



2 1/2 1
A = 1/2 3 0

1 0 3

Dada la forma cuadrtica Q : R3 R, Q(x) = 2x 12 + 3x 1 x 2 x 1 x 3 + 4x 22 2x 2 x 3 x 32 encuentre una matriz simtrica


A R33 de forma tal que sea Q(x) = x t Ax.

A
B
Ejemplo 5.6

U
Sea una funcin Q : R2 R definida mediante Q(x) = x t B x con

-
" #
5 1

a
B= r
4 2
ie

Aparentemente Q(x) no es una forma cuadrtica, pues B no es simtrica. Sin embargo s lo es, ya que
en

Q(x) = 5x 12 + x 1 x 2 4x 2 x 1 2x 22 = 5x 12 3x 1 x 2 2x 22 = x t Ax
g
In

donde " #
5 3/2
A=
e

3/2 2
d
d
a
lt

El ltimo ejemplo sugiere que cualquier expresin de la forma x t B x define una forma cuadrtica. Veamos que es efectiva-
cu

mente as: dada una matriz arbitraria B Rnn definimos


a

Q : Rn R, Q(x) = x t B x
F

Entonces
t
x t B x = x t B x = x t B t x 2Q(x) = x t B x + x t B t x = x t B + B t x

y por lo tanto
B +Bt

Q(x) = x t x
2

B +B t
de modo que Q(x) es una forma cuadrtica, porque 2 es una matriz simtrica.

Ahora que ya hemos establecido las definiciones bsicas, mostraremos con un nuevo ejemplo que mediante un cambio de
variable adecuado es posible transformar una forma cuadrtica con productos cruzados en una forma diagonal.
Matrices simtricas y hermticas 137

Ejemplo 5.7

Consideramos la forma cuadrtica Q : R2 R, Q(x) = 2x 12 2x 1 x 2 + 2x 22 . Es decir,


" #
t 2 1
Q (x) = x x
1 2
| {z }
A

Podemos realizar un cambio de variable adecuado para que, en coordenadas con respecto al nuevo sistema de re-
ferencia, no tenga trminos de producto cruzado. Para ello, realizamos una diagonalizacin ortogonal de la matriz
A: " # " # " #
1 1 1 1 0 1 1 1
A= p p (5.6)
2 1 1 0 3 2 1 1
| {z } | {z } | {z }
P D Pt

A
Luego la expresin de Q(x) puede escribirse como

B
t
Q(x) = x t P DP t x = P t x D P t x

-
y con el cambio de variables y = P t x equivale a


a
= y t D y = y 12 + 3y 22
Q(y)
r
ie
en

Como la diagonalizacin ortogonal puede aplicarse a cualquier matriz simtrica, el mtodo aplicado en el ejemplo anterior
g

tiene generalidad.
In

Teorema 5.5 (de los ejes principales)


e

Sea A Rnn una matriz simtrica. Entonces existe un cambio ortogonal de variable x = P y (con P Rnn ortogonal)
d

que cambia la forma cuadrtica Q(x) = x t Ax en una sin productos cruzados, es decir,
d
a


Q(x) = Q(y) = ytD y
lt
cu

con D Rnn diagonal. Adems, los elementos de la diagonal de D son los autovalores de A y las columnas de la matriz
P son autovectores de A y forman una base ortonormal de Rn .
a
F

Demostracin:
Con el objeto de simplificar la expresin de Q(x), es decir, de eliminar los trminos de la forma x i x j con i 6= j , consideramos
el cambio de variable x = P y con P inversible:

Q(x) = x t Ax = (P y)t A(P y) = y t (P t AP )y = Q(y)


Como queremos que Q(y) est libre de productos cruzados, debemos elegir P de modo tal que la matriz D = P t AP sea
diagonal. Esto siempre es posible dado que A, por ser simtrica y de acuerdo con el teorema espectral 5.4, es diagonalizable
ortogonalmente. Es decir, existen P ortogonal y D diagonal tales que A = P DP t . Entonces, tomando tal P (cuyas columnas
son autovectores de A y forman una base ortonormal de Rn ) y efectuando el cambio de variable x = P y, tenemos que

Q(x) = x t P DP t x = (P t x)t D(P t x) = y t D y = 1 y 12 + ... + n y n2 = Q(y)



siendo 1 , ..., n los autovalores (todos reales) de A.


138 Matrices simtricas y hermticas

Al realizar el cambio de variables x = P y para eliminar los productos cruzados, hemos adoptado una base ortonormal B =
{b 1 , b 2 , ..., b n } (y por ende un sistema de ejes) donde la variable y representa las coordenadas de x (y = [x]B ) de modo tal que
la expresin de Q(x) en trminos de esas coordenadas carece de productos cruzados. Por esta razn a las rectas que generan
los vectores de la base B se las denomina ejes principales de la forma cuadrtica.

N Para construir la matriz de cambio de base P , lo usual es ordenar la base B de modo que resulte det P = 1, pues de
esa manera el sistema de ejes ortogonales definidos por las columnas de P se obtiene rotando el sistema de ejes
cartesiano original.

A
B
U
5.4 Conjuntos de nivel

-
a
r
Comenzamos esta seccin retomando el ltimo ejemplo, para ilustrar una aplicacin del teorema de los ejes principales 5.5.
ie
en
g
In

Ejemplo 5.8
e

Consideramos nuevamente la forma cuadrtica Q : R2 R, Q(x) = 2x 12 2x 1 x 2 + 2x 22 del ejemplo 5.7. Por ser una
d

funcin de R2 R, su grfico es una superficie en R3 , como se aprecia en la figura 5.2a. En este contexto, la ecuacin
d
a

2x 12 2x 1 x 2 + 2x 22 = 4 Q(x) = 4 (5.7)
lt
cu

puede leerse como la pregunta Cules son los elementos [x 1 x 2 ]t del dominio de Q cuya imagen es 4?. De acuerdo
con el teorema de los ejes principales 5.5, y como ya vimos en el ejemplo 5.7, podemos realizar un cambio de variable
a
F

adecuado para que la ecuacin (5.7), en coordenadas con respecto al nuevo sistema de referencia, no tenga trminos
de producto cruzado. Elegimos entonces una base B = {b 1 , b 2 } formada por las columnas de la matriz P con que
diagonalizamos A en (5.6): (" p # " p #)
1/ 2 1/ 2
B= p , p
1/ 2 1/ 2
t
Es decir que, considerando coordenadas y 1 y 2 con respecto a la base B , los puntos que buscamos deben verificar
la ecuacin
y2 y2

Q(x) = 4 Q(y) = 4 y 12 + 3y 22 = 4 12 + 22 = 1
2 p2
3
2
En el nuevo sistema de referencia, resulta claro que los puntos de R que verifican la restriccin constituyen una
elipse, como puede verse en la figura 5.2b.

Destacamos que la nueva base se obtiene mediante una rotacin de la base cannica, porque det P = 1.
Matrices simtricas y hermticas 139

A
B
U
-
(a) Grfico de la funcin Q (b) Conjunto de nivel Q(x) = 4

a
r
Figura 5.2: Forma cuadrtica Q : R2 R
ie
en

Ejercicio.
g
In

5.4 Considere la ecuacin 2x 12 2x 1 x 2 + 2x 22 = k y describa los conjuntos solucin para distintos valores de k R.
e

En el ejemplo anterior hemos indagado el conjunto de puntos del dominio para los que una forma cuadrtica alcanza cierto
d

valor dado: este conjunto tiene nombre propio.


d
a

Definicin 5.5
lt
cu

Dada una forma cuadrtica Q : Rn R y dado un nmero k R, el conjunto de nivel k es el conjunto de puntos de Rn
para los cuales Q toma el valor k. Adoptando la notacin Nk (Q), resulta
a
F

Nk (Q) = x Rn : Q(x) = k

N Aunque nuestra atencin se centra en las formas cuadrticas, el concepto de conjunto de nivel puede extenderse
sin modificaciones a cualquier funcin de Rn R.

Ejercicio.

5.5 Dada la forma cuadrtica Q : R2 R, Q(x) = x 12 8x 1 x 2 5x 22 , estudie y describa N1 (Q), N1 (Q) y N0 (Q).
140 Matrices simtricas y hermticas

5.5 Signo de una forma cuadrtica

La forma cuadrtica definida en el ejemplo 5.8 tiene un grfico que se aprecia en la figura 5.2a: queremos destacar que para
cualquier elemento del dominio R2 , excepto el vector nulo, el valor de la funcin es positivo. Si en cambio consideramos la
forma cuadrtica
Q 1 (x) = x 12 x 22 (5.8)

cuyo grfico se ilustra en la figura 5.3a, en cualquier entorno del (0, 0) existen puntos para los que es positiva (por ejemplo
los (x 1 , 0) con x 1 6= 0); pero tambin existen puntos para los que es negativa (por ejemplo los (0, x 2 ) con x 2 6= 0). Si ahora
definimos la forma cuadrtica
Q 2 (x) = x 12 (5.9)

A
podemos apreciar en su grfico de la figura 5.3b que para cualquier punto es Q 2 (x) 0. Adems, la funcin vale 0 en todos
los puntos del eje x 2 .

B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu

(a) Grfico de Q 1 (b) Grfico de Q 2


a

Figura 5.3: Formas cuadrticas y su signo


F

A continuacin, clasificamos las formas cuadrticas segn el signo que adoptan.

Definicin 5.6

Dada una forma cuadrtica Q : Rn R, decimos que es

1 definida positiva si para todo x Rn {0} : Q(x) > 0

2 semidefinida positiva si para todo x Rn : Q(x) 0

3 definida negativa si para todo x Rn {0} : Q(x) < 0

4 semidefinida negativa si para todo x Rn : Q(x) 0

5 indefinida si no es ninguna de las anteriores. Es decir, si existen vectores u, v Rn tales que Q(u) > 0 y Q(v) < 0
Matrices simtricas y hermticas 141

De acuerdo con esta clasificacin, la forma cuadrtica graficada en 5.2a es definida positiva, mientras que la graficada en
5.3a es indefinida. En cuanto a la graficada en 5.3b, resulta semidefinida positiva.

Ejercicio.

5.6 Clasifique las siguientes formas cuadrticas.

Q : R3 R, Q(x) = x 12 + 2x 22 + 3x 32

Q : R3 R, Q(x) = x 12 + 2x 22

Q : R4 R, Q(x) = x 12 + 2x 22 3x 32

Q : R3 R, Q(x) = x 12 2x 22 3x 32

Q : R3 R, Q(x) = x 12 2x 22

A
B
U
Definicin 5.7

-
Dada una matriz simtrica A Rnn , decimos que es definida positiva si la forma cuadrtica asociada Q(x) = x t Ax es

a
definida positiva. Anlogamente se define matriz definida negativa, indefinida, etc.
r
ie

Cuando una forma cuadrtica Q : Rn R carece de productos cruzados, es decir, cuando Q(x) = x t D x con
en
g

1

0 0
In


0 2 0

D = .. .. .. ..
.

. . .
e


n
d

0 0
d

ya vimos en el ejemplo 5.4 que


a

Q(x) = 1 x 12 + ... + n x n2 = i x i2
X
lt

1i n
cu

En estos casos, la clasificacin es sencilla:


a

1. definida positiva si i > 0 para todo i = 1, ..., n.


F

2. semidefinida positiva si i 0 para todo i = 1, ..., n.

3. definida negativa si i < 0 para todo i = 1, ..., n.

4. semidefinida negativa si i 0 para todo i = 1, ..., n.

5. indefinida si existen ndices i , j tales que i > 0 mientras que j < 0.

Si Q(x) = x t Ax tiene productos cruzados, es decir, si A no es una matriz diagonal, empleando un cambio de variables orto-
gonal x = P y que elimine productos cruzados, tenemos que

Q(x) = y t D y = Q(y)

con D diagonal. Como Q y Q tienen el mismo signo, y el signo de esta ltima est determinado por los elementos en la
diagonal de D, que son los autovalores de A, tenemos el siguiente resultado.
142 Matrices simtricas y hermticas

Teorema 5.6

Sea A Rnn una matriz simtrica y sean 1 , 2 , ..., n sus autovalores (son todos nmeros reales). Entonces la forma
cuadrtica Q(x) = x t Ax es

1 definida positiva si y slo si i > 0 para todo i = 1, ..., n.

2 semidefinida positiva si y slo si i 0 para todo i = 1, ..., n.

3 definida negativa si y slo si i < 0 para todo i = 1, ..., n.

4 semidefinida negativa si y slo si i 0 para todo i = 1, ..., n.

5 indefinida si existe un par de ndices i , j tales que i > 0 y j < 0.

A
B
Ejercicio.

U

2 3 0
5.7 Clasifique la forma cuadrtica Q(x) = x t Ax con A = 3 2 4

-
0 4 2

a
r
ie

Ejercicio.
en

5.8 Determine para qu valores de c la forma cuadrtica Q : R2 R,Q(x) = x 12 + 2c x 1 x 2 + x 22 es definida positiva.


g
In
e

5.6
d

Optimizacin de formas cuadrticas con restricciones


d
a

En la seccin anterior presentamos a las formas cuadrticas como funciones definidas en todo Rn . Dedicaremos esta seccin
lt

a estudiar las formas cuadrticas y sus extremos cuando estn restringidas a tomar valores en un subconjunto de Rn .
cu
a

Ejemplo 5.9
F

Retomamos la forma cuadrtica Q 1 (x) definida en (5.8) cuyo grfico, como funcin con dominio R2 , est en la figura
5.3a. Evidentemente, la funcin no alcanza extremos absolutos, puesto que

Para puntos de la forma (x 1 , 0) la imagen es x 12 y puede hacerse arbitrariamente positivo. Luego no hay mximo
absoluto.

Para puntos de la forma (0, x 2 ) la imagen es x 22 y puede hacerse arbitrariamente negativo. Luego no hay mnimo
absoluto.

Si en cambio consideramos que la forma cuadrtica slo se evala en los puntos de la circunferencia de centro (0, 0) y
radio uno, es decir si restringimos el dominio al conjunto

D = x R2 : kxk2 = 1

el grfico correspondiente es el de la figura 5.4. Podemos ver que la funcin alcanzar extremos sobre puntos de la
Matrices simtricas y hermticas 143

circunferencia.a En efecto, para cualquier x = (x 1 , x 2 ) se verifica que

kxk2 x 12 x 22 x 12 x 22 x 12 + x 22 kxk2
| {z }
Q 1 (x)

resulta
y teniendo en cuenta la restriccin x D,

1 Q 1 (x) 1

est acotada. Veremos que adems existen


Esto nos permite afirmar que la forma cuadrtica, restringida al dominio D,

vectores de D sobre los cuales se realizan efectivamente los valores extremos 1 y 1. Para probarlo, planteamos

Q 1 (x) = 1 kxk2 = 1 x 12 x 22 = 1 x 12 + x 22 = 1
x 12 x 22 = x 12 + x 22 x 12 + x 22 = 1

A
x 22 = 0 x 12 + x 22 = 1

B
x 2 = 0 |x 1 | = 1

U
En este caso, los vectores de la restriccin D sobre los que la forma realiza un valor mximo son x = (1, 0). Dejamos

-
como ejercicio probar que el mnimo sujeto a la restriccin se realiza sobre los vectores x = (0, 1).

a
r
Destacamos que la forma cuadrtica es Q 1 (x) = x t Ax con
ie
en

" #
1 0
A=
0 1
g
In

y que los valores mximo y mnimo que alcanza sujeta a la restriccin kxk = 1 coinciden con los autovalores de A. Ms
aun, dichos extremos se alcanzan sobre los autovectores de norma uno.
e
d

a Un argumento propio del anlisis matemtico es que una funcin continua realiza extremos absolutos cuando su dominio es un subconjunto

cerrado y acotado de Rn . De todos modos, para el caso de las formas cuadrticas lo demostraremos por medios algebraicos.
d
a
lt
cu
a
F

Figura 5.4: Forma cuadrtica con dominio restringido a una circunferencia


144 Matrices simtricas y hermticas

Los argumentos del ltimo ejemplo pueden generalizarse a formas cuadrticas sujetas a una restriccin de la clase kxk2 = k
(donde k > 0).

Teorema 5.7 (desigualdad de Rayleigh)

Sean A Rnn una matriz simtrica y Q(x) = x t Ax la forma cuadrtica que define. Sean M y m los autovalores
mximo y mnimo de A respectivamente, con S M y S m los autoespacios asociados. Entonces para todo x Rn se
verifica que
m kxk2 Q(x) M kxk2

Adems, Q(x) = m kxk2 si y slo si x S m , mientras que Q(x) = M kxk2 si y slo si x S M .

Demostracin:

A
Probaremos la segunda desigualdad y que la forma cuadrtica realiza su mximo en los autovectores asociados al autovalor
mximo. La otra desigualdad es completamente anloga y se deja como ejercicio.

B
U
Por ser A una matriz simtrica, sabemos que existen una matriz ortogonal P y una matriz diagonal D tales que A = P DP t .

-
Adems, las columnas de P forman una base ortonormal de autovectores de A y los elementos de la diagonal de D son los
autovalores respectivos. Elegimos presentar los n autovalores de A en forma decreciente, denotando por a la multiplicidad
a
r
(algebraica y geomtrica) de M :
M = 1 = ... = > +1 ... n
ie
en

h i
De esta forma, denotando P = v 1 v n resulta el autoespacio
g


S M = gen v 1 , ..., v
In

Con el cambio de variable x = P y, la forma cuadrtica adquiere la expresin


e
d


Q(x) = Q(y) = y t D y = 1 y 12 + ... + n y n2
d

y siendo i M para todo i = 1, ..., n, se deduce la desigualdad


a
lt

2
Q(x) M y 12 + ... + M y n2 = M y 12 + ... + y n2 = M y

cu

vlida para todo x Rn . Como P es una matriz ortogonal, de acuerdo con el teorema 5.2, es kP xk = kxk, luego y = kxk y

a
F

obtenemos la desigualdad del enunciado:


Q(x) M kxk2

Ahora buscamos los x Rn que realizan la igualdad:

Q(x) = M kxk2

Teniendo en cuenta el cambio de variable x = P y, esto equivale a encontrar los y Rn que verifican
2
1 y 12 + ... + n y n2 = M y = M y 12 + ... + y n2

de donde
2
M y 12 + ... + M y 2 ++1 y +1 + ... + n y n2 = M y 12 + ... + M y n2
| {z }
trminos

y cancelando se obtiene que debe ser


2
M +1 y +1 + ... + (M n ) y n2 = 0

Matrices simtricas y hermticas 145

Los factores (M i ) de la ltima expresin son todos positivos (por qu?) luego se deduce que debe ser

y +1 = ... = y n = 0

y los vectores que realizan el mximo tienen coordenadas de la forma


t
y = y1 y 0 0

con lo cual los x que verifican Q(x) = M kxk2 surgen de


t
x = P y = P y 1 y 0 0 = y 1 v 1 + ... + y v

Como v 1 , ..., v es una base de S M , hemos demostrado que Q(x) = M kxk2 si y slo si x S M .

Ejemplo 5.10

A
Consideremos la forma cuadrtica Q(x) = x t Ax con

B
U

3 1 2
A = 1 3 2

-
2 2 0

a
Su polinomio caracterstico es p(t ) = (t +2)(t 4)2 con lo cual los autovalores mximo y mnimo son respectivamente
r
M = 4 y m = 2. Por lo tanto y de acuerdo con el teorema anterior, los valores extremos que alcanza Q sujeta a la
ie

restriccin kxk = 1 son


en

max Q(x) = 4 y mn Q(x) = 2


kxk=1 kxk=1
g

Para hallar los maximizantes y minimizantes, es decir los vectores sobre los que se realizan los extremos, debemos
In

considerar los autoespacios asociados a los autovalores


S M = gen [1 1 1]t , [1 1 0]t S m = gen [1 1 2]t
e


y
d

Entonces Q(x) sujeto a la restriccin kxk = 1 alcanza el mnimo en los vectores unitarios de S m , que en este caso son
d

slo dos
a

2 t 1 2 t

1 1 1
v1 = p p p y v 2 = v 1 = p p p
lt

6 6 6 6 6 6
cu

Con respecto a los maximizantes, son los vectores unitarios de S M , es decir los de la forma
x = [1 1 1]t + [1 1 0]t con kxk = 1
a
F

Para obtener una expresin algo ms explcita de los maximizantes, es conveniente trabajar con una base ortonormal
{v 1 , v 2 } del autoespacio, ya que entonces k1 v 1 + 2 v 2 k2 = 21 +22 . Con esto resulta que los x que maximizan Q sujeta
a la restriccin son aquellos de la forma
x = 1 v 1 + 2 v 2 con 21 + 22 = 1
Como en nuestro caso una base ortonormal de S M es
1 1 1 t
t
1 1
p p p , p p 0
3 3 3 2 2
los maximizantes son los x R3 de la forma:
1 1 1 t
t
1 1
x = 1 p p p + 2 p p 0 con 21 + 22 = 1
3 3 3 2 2
Notamos que en este caso hay un nmero infinito de maximizantes y que constituyen la circunferencia de radio uno
centrada en el origen y contenida en el plano S M .
146 Matrices simtricas y hermticas

Presentamos ahora un ejemplo en que la restriccin no es de la forma kxk2 = k.

A
B
U
Figura 5.5: Forma cuadrtica con dominio restringido a una elipse

-
Ejemplo 5.11

a
r
Buscamos los extremos de la forma cuadrtica Q : R2 R, Q(x) = 4x 1 x 2 sujeta a la restriccin
ie

x 12 + 2x 22 = 2
en
g

Vale decir que debemos encontrar los extremos que realiza la funcin Q cuando su dominio se restringe a la elipse de
In

ecuacin
x1 2

p + x 22 = 1 (5.10)
e

2
d

como se aprecia en la figura 5.5.


d
a

Para poder aplicar el teorema de Rayleigh 5.7, sealamos que el cambio de variable
lt

x1
cu

y1 = p y 2 = x2
2
a
F

permite reescribir la restriccin (5.10) como


y 12 + y 22 = 1 (5.11)

y la forma cuadrtica como


p

Q(x) = Q(y) = 4 2y 1 y 2 (5.12)

Entonces Q(y) es una forma cuadrtica sujeta a una restriccin (5.11) que s verifica las condiciones del teorema de
Rayleigh 5.7. Para aplicarlo, reescribimos la forma cuadrtica (5.12)
" p #
t 0 2 2
Q(y) =y p y
2 2 0
| {z }
A
p p
Es un clculo de rutina ver que los autovalores de A son M = 2 2 y m = 2 2 con autoespacios asociados

S M = gen [1 1]t S m = gen [1 1]t



Matrices simtricas y hermticas 147

2 p

Luego el valor mximo de Q(y) sujeto a la restriccin y = 1 es 2 2 y se realiza en los vectores de coordenadas
p p t
y = 1/ 2 1/ 2 . Para conocer los vectores originales, debemos deshacer el cambio de coordenadas: entonces el
p p t
valor mximo de Q(x) sujeta a la restriccin (5.10) es 2 2 y se realiza en los vectores x = 1 1/ 2 (vase el grfico).
Se puede comprobar que estos vectores verifican la ecuacin de la elipse y al evaluar Q(x) en ellos se obtiene el valor
predicho.

p p t
Dejamos como ejercicio probar que el valor mnimo es 2 2 y se realiza en los vectores x = 1 1/ 2 .

Ejercicio.

5.9 Encuentre el valor mnimo que realiza la forma cuadrtica Q(x) = 49 x 12 80 125 2 2
9 x 1 x 2 9 x 2 sujeta a la restriccin 4x 1 +
25x 22 = 9. Indique sobre qu vectores se alcanza dicho mnimo.

A
B
Otra dificultad con que podramos encontrarnos es el caso en que la restriccin tiene trminos de producto cruzado. En el

U
ejemplo que sigue presentamos dos estrategias de resolucin, la segunda de gran generalidad.

-
Ejemplo 5.12

a
Buscamos los extremos de la forma cuadrtica Q : R2 R, Q(x) = x 12 + x 22 sujeta a la restriccin
r
ie

2x 12 2x 1 x 2 + 2x 22 = 4
en

La forma cuadrtica es el cuadrado de la norma, mientras que la restriccin ya fue estudiada en el ejemplo 5.8 y
g

graficada en la figura 5.2b. Por lo tanto, el problema tiene una interpretacin geomtrica inmediata: se trata de
In

encontrar los puntos de la elipse ms prximos y ms alejados del origen.


e
d

En primer lugar, y para no confundir con la forma Q(x) = kxk2 , caracterizamos a la restriccin mediante
d

" #
2 2 t 2 1
a

R(x) = 2x 1 2x 1 x 2 + 2x 2 = x x
1 2
lt

| {z }
cu

Como en el ejemplo 5.8, realizamos una diagonalizacin ortogonal de la matriz B :


a
F

" # " # " #


1 1 1 1 0 1 1 1
B=p p
2 1 1 0 3 2 1 1
| {z } | {z } | {z }
P D Pt

Luego la restriccin con el cambio de variables y = P t x equivale a

y 12 y 22
y 12 + 3y 22 = 4 + 2 = 1 (5.13)
22 p2
3

Los puntos de la elipse cuya distancia al origen es mxima tienen, en el nuevo sistema de referencia, coordenadas
[2 0]t . De acuerdo con el cambio de coordenadas x = P y, la mxima distancia al origen se realiza en los puntos
" #" # " # " p #
1 1 1 2 1 2 2
x=p = p = p
2 1 1 0 2 2 2
148 Matrices simtricas y hermticas

El valor que alcanza la forma cuadrtica sobre estos puntos es Q(x) = 4 (verifquelo) porque Q es el cuadrado de la
h q q it
norma. De manera anloga se puede comprobar que en los puntos x = 23 23 se realiza el valor mnimo sobre
la elipse y es Q(x) = 34 .

Presentamos a continuacin una alternativa que tiene mayor generalidad, puesto que se puede aplicar a problemas
sin una interpretacin geomtrica tan inmediata (por ejemplo, aquellos en que Q(x) no es el cuadrado de la norma).
En este problema la dificultad radica en que la restriccin no es de la forma x 12 + x 22 = 1 que ya sabemos manejar. Lo
que buscamos entonces es un cambio de variable que transforme nuestra restriccin en una de la forma estndar.
Se propone entonces un segundo cambio de variable a partir de (5.13) que permita escribir la restriccin en la forma
kuk2 = 1. Dado que
2
y 2 y
1 2
+ = 1

A
2 p2
3

B
y1 y2
la propuesta es u 1 = 2 , u2 = , con la cual la restriccin se reduce a

U

p2
3

-
u 12 + u 22 = 1

a
r
Despejando y 1 = 2u 1 , y 2 = p2 u 2 , el cambio de variable es, matricialmente,
ie
3
en

" #
2 0
y= u
0 p2
g

3
In

| {z }
M

de modo que x = P y = P Mu y la forma cuadrtica se puede reescribir como


e
d

!
t 1 0
Q(x) = x x = (P Mu)t A (P Mu) = u t |M t P{z
t
AP M} u
d

0 1
a

| {z } S
lt

A
cu

Entonces se deben hallar los extremos de u t Su sujeta a la restriccin kuk2 = 1. Dado que
a

!
F

4 0
S=
0 4/3

En este caso, y por haber resultado una matriz diagonal, podemos leer inmediatamente sus autovalores y autovectores.
La desigualdad de Rayleigh 5.7 nos permite afirmar, una vez ms, que
p p t
El mximo es 4 y se alcanza para u = [1 0]t , es decir para x = P Mu = 2 2
h q q it
4
El mnimo es 3 y se alcanza para u = [0 1]t , es decir para x = P Mu = 23 23

Ejercicio.

5.10 Hallar los puntos de la curva de ecuacin 6x 12 +4x 1 x 2 +6x 22 = 1 cuya distancia al origen es mnima y aquellos cuya
distancia es mxima.
Matrices simtricas y hermticas 149

N Los recursos utilizados en el ejemplo anterior pueden generalizarse para demostrar que dada una forma cuadr-
tica Q(x) = x t Ax, sujeta a la restriccin x t B x = k, siempre es posible hallar los extremos cuando B es definida
positiva.

El ejemplo que sigue ilustra las dificultades que pueden ocurrir en otros casos.

Ejemplo 5.13

Buscamos el mximo de la forma cuadrtica Q : R2 R, Q(x) = x 12 + x 22 sujeta a la restriccin x 1 x 2 = 1. La forma


cuadrtica es el cuadrado de la norma, mientras que la restriccin ya fue estudiada al comienzo de la seccin 5.3 y
graficada en la figura 5.1. Se trata de encontrar los puntos de una hiprbola ms alejados del origen. Sin embargo, ya
se vio cmo un cambio ortogonal de variables x = P y transforma a la restriccin en

A
1 2 1 2

B
y y =1
2 1 2 2

U
t
y es claro que pueden elegirse vectores de coordenadas y = y 1 y 2 de modo tal que y = kxk sea arbitrariamen-

-
te grande. De esta forma, no existe un mximo para la norma restringida a la hiprbola, como el grfico permita

a
anticipar. r
ie
en

Ejercicio.
g

5.11 Encuentre los extremos que realiza la forma cuadrtica Q(x) = x 1 x 2 sujeta a la restriccin 2x 12 2x 1 x 2 + 2x 22 = 4.
In

Indique sobre qu vectores se alcanzan dichos extremos.


e
d

Ejercicio.
d

5.12 Considere la forma cuadrtica Q : R2 R,Q(x) = 9x 12 6x 1 x 2 + x 22 .


a
lt

Describa los conjuntos de nivel.


cu

Clasifique el signo (definida positiva, semidefinida,...).


a
F

Encuentre los valores mximo y mnimo que alcanza sujeta a la restriccin kxk2 = 1. Indique en qu vectores
alcanza dichos extremos.
A
B
U
-
a
r
ie
en
g
In

Esta pgina fue dejada intencionalmente en blanco


e
d
d
a
lt
cu
a
F
6 Descomposicin en valores singulares

A
B
U
6.1 Introduccin

-
a
r
Como en la ltima seccin del captulo anterior, consideramos el problema de conocer los valores extremos que alcanza una
ie

forma cuadrtica sujeta a una restriccin. En este caso, comenzamos por definir una trasformacin lineal mediante
en

T : R2 R3 , T (x) = Ax
g
In

donde
e


1 0
d

A= 1 1 (6.1)

d

0 1
a
lt

Consideraremos la forma cuadrtica que calcula, para cada vector x R2 , el cuadrado de la norma de su transformado:
cu

Q : R2 R, Q(x) = kAxk2
a

(6.2)
F

donde el producto interno es el cannico. Veamos que la frmula de Q se puede escribir de la manera usual (definida en 5.4)
con una matriz simtrica:

Q(x) = kAxk2 = (Ax)t (Ax) = x t A t A x


siendo en este caso


" #
t 2 1
A A= (6.3)
1 2

En la figura 6.1 se ilustra cmo T transforma el espacio R2 en un plano de R3 (recordemos que para una transformacin
definida como T (x) = Ax es Im T = Col A). En particular, los vectores de R2 que verifican la restriccin kxk = 1 se transforman
en una elipse. 1

1 Aunque es intuitivamente aceptable, esta afirmacin no es obvia. Ms adelante en este mismo captulo tendremos elementos para demostrarla.
152 Descomposicin en valores singulares

A
B
U
-
a
r
ie
en

Figura 6.1: Transformacin de R2 y de la circunferencia


g
In

Buscamos ahora los vectores de R2 sujetos a la restriccin kxk = 1 en los que Q alcanza sus extremos. De acuerdo con el
teorema de Rayleigh 5.7, esto ocurrir en los autovectores de norma uno de la matriz A t A que define a la forma cuadrtica.
e

En el caso de la matriz en (6.3) los autovalores son 3 y 1 y sus correspondientes autoespacios son
d


1 1
S 3 = gen p [1 1]t S 1 = gen p [1 1]t
d

2 2
a
lt

Por lo tanto, el mximo de kAxk2 sujeta a la restriccin kxk = 1 es 3 y se alcanza en los vectores v 1 = p1 [1 1]t . El mnimo es
2
cu

1 y se alcanza en los vectores v 2 = p1 [1 1]t . De acuerdo con nuestra interpretacin geomtrica, los semiejes de la elipse
p 2
a

en la figura 6.1 miden 3 y 1: estos valores surgen de kAv 1 k y kAv 2 k. Por cierto, Av 1 y Av 2 generan los ejes de simetra de la
F

elipse.

Las definiciones que siguen apuntan a generalizar, para cualquier matriz A Rmn , las observaciones e interpretaciones he-
chas en este ejemplo.

Sealamos, en primer lugar, algunas propiedades que sern de gran utilidad a lo largo del captulo.

Proposicin 6.1

Dada una matriz A Rmn , la matriz A t A Rnn resulta simtrica y semidefinida positiva.

Demostracin:
Verificamos que A t A es simtrica trasponindola:
t t
At A = At At = At A

Descomposicin en valores singulares 153

Por lo tanto, de acuerdo con el teorema espectral 5.4, sus autovalores son nmeros reales. Adems, para cualquier vector
x Rn resulta
x t A t Ax = (Ax)t (Ax) = kAxk2 0
con lo cual es semidefinida positiva y sus autovalores son, como ya vimos en el teorema 5.6, nmeros mayores o iguales que
cero.

Ejercicio.

6.1 Probar que para toda A Rmn , la matriz A t A Rnn resulta definida positiva si y slo si Nul A = {0}.

Estas propiedades garantizan que tiene sentido la siguiente definicin.

Definicin 6.1

A
Sea A Rmn . Sean 1 , 2 , ..., n los autovalores de A t A Rnn ordenados en forma decreciente, es decir

B
U
1 2 ... n 0

-
Entonces i = i con i = 1, 2, ..., n es el i -simo valor singular de A. O sea, los valores singulares de una matriz A
p

son las races cuadradas de los autovalores de A t A.


a
r
ie

En particular denotaremos como max al mayor valor singular y mn al menor:


en

p p
max = 1 mn = n
g
In

Ya habamos observado que los autovalores de A t A dan cuenta del mximo y mnimo alcanzados por kAxk2 sujeta a la
e

restriccin kxk = 1. A continuacin, generalizamos los argumentos usados y los explicamos en trminos de valores singulares.
d
d

Teorema 6.1
a
lt

Para toda A Rmn resulta


max kAxk = max mn kAxk = mn
cu

y
kxk=1 kxk=1
a
F

Demostracin:
Sea max = 1 el mximo autovalor de A t A. Entonces, usando el teorema de Rayleigh 5.7

max kAxk2 = max x t A t A x = max



kxk=1 kxk=1

y entonces q
p r r
max = max = max x t A t A x = max kAxk2 = max kAxk2 = max kAxk

kxk=1 kxk=1 kxk=1 kxk=1

de donde sigue el resultado.2 De manera anloga se demuestra el caso del mnimo.

Como corolario del teorema obtenemos una desigualdad que expresa, en trminos de los valores singulares, cmo afecta a
la norma la multiplicacin por una matriz A.

2 Para intercambiar la raz con el mximo hemos tenido en cuenta que la funcin raz cuadrada es creciente, por lo tanto alcanzar su mximo cuando el

argumento sea mximo.


154 Descomposicin en valores singulares

Proposicin 6.2

Sea A Rmn . Entonces se tiene para todo x Rn

mn kxk kAxk max kxk

Demostracin:
x
Si x = 0 las desigualdades son inmediatamente ciertas. En el caso de x 6= 0 podemos definir el vector unitario v = kxk y
kAxk
aplicarle el teorema anterior, con lo cual mn kAvk max . Como kAvk = kxk obtenemos

kAxk
mn max
kxk

de donde sigue el resultado.

A
B
Al ser A t A una matriz simtrica, siempre podemos hallar una base ortonormal de autovectores. El teorema que sigue esta-

U
blece importantes propiedades acerca de estas bases.

-
Teorema 6.2

a
r
Sea A Rmn . Supongamos que 1 , ..., n son los autovalores de A t A, estn ordenados en forma decreciente y la
ie

cantidad de autovalores no nulos es r :


en

1 ... r > 0 y r +1 = ... = n = 0


g
In

Sea {v 1 , v 2 , ..., v n } una base ortonormal de Rn formada por autovectores de A t A asociados a 1 , 2 , ..., n respectiva-
mente. Entonces se cumple que
e
d

i = i .
p
1 {Av 1 , Av 2 , ..., Av n } es un conjunto ortogonal y para todo i = 1, ..., n es kAv i k =
d

n o
Av 1 Av 2 Av r
2
1 , 2 , ..., r es una base ortonormal de Col A.
a
lt

3 rango A = r es la cantidad de valores singulares no nulos de A.


cu

4 {v r +1 , v r +2 , ..., v n } es una base ortonormal de Nul A.


a
F

Demostracin:
Para demostrar 1 tenemos en cuenta que {v 1 , v 2 , ..., v n } es una base ortonormal:

Av i , Av j = (Av i )t Av j = v it A t Av j = v it j v j = j v it v j = j v i , v j

Entonces si i 6= j resulta Av i , Av j = 0. Para el caso i = j tenemos (Av i , Av i ) = kAv i k2 = i , de donde sigue la tesis.

n o
Av r
En cuanto al punto 2 , ya sabemos que el conjunto Av 1
1 Av 2
, 2 , ..., r es ortonormal y por lo tanto linealmente independiente:
falta probar que genera Col A. Para ello, consideramos la transformacin lineal T : Rn Rm , T (x) = Ax. Entonces, teniendo
en cuenta que Im T est generada por los transformados de los vectores de cualquier base de Rn :

Col A = Im T = gen {Av 1 , Av 2 , ..., Av n } = gen {Av 1 , Av 2 , ..., Av r }

donde la ltima igualdad se debe a que, como ya demostramos en 1 , Av i = 0 si i > r . De esto se deduce inmediatamente 3 .
Finalmente, para probar la propiedad 4 comenzamos por sealar que dim (Nul A) = n r . Dado que {v r +1 , v r +2 , ..., v n } es un
Descomposicin en valores singulares 155

conjunto ortonormal de n r vectores que pertenecen a Nul A (por qu?) tenemos la base buscada.

En la figura 6.2 se ilustran las relaciones establecidas por el teorema 6.2. Los vectores {v r +1 , v r +2 , ..., v n } constituyen una
base ortonormal de Nul A. Por lo tanto {v 1 , v 2 , ..., v r } es una base del complemento ortogonal de Nul A, es decir, Fil A. Si
consideramos la transformacin lineal T : Rn Rm , T (x) = Ax, el espacio de partida Rn puede descomponerse como la suma
directa de Nul A y Nul A . Evidentemente, los vectores de Nul A se transforman en cero. Por su parte,
n la base {v 1 ,ov 2 , ..., v r } de
Nul A se transforma en una base ortogonal de la imagen Col A, que puede normalizarse como 1 , 2 , ..., Av
Av 1 Av 2 r
r .

A
B
U
-
a
r
ie
en
g
In

Figura 6.2: Los espacios fundamentales de A


e
d
d

Ejemplo 6.1
a
lt

En el caso de la matriz
cu

1 0
A= 1 1

a

0 1
F

estudiada al comienzo del captulo, la base de autovectores de A t A descrita en el teorema anterior es



1 t 1 t
{v 1 , v 2 } = p [1 1] , p [1 1] (6.4)
2 2

y al multiplicarlos por A obtenemos un conjunto ortogonal en R3



1 t 1 t
{Av 1 , Av 2 } = p [1 2 1] , p [1 0 1]
2 2

que al normalizarlo resulta una base ortonormal de Col A

Av 1 Av 2 Av 1 Av 2

1 1
B= , = , = p [1 2 1]t , p [1 0 1]t (6.5)
kAv 1 k kAv 2 k 1 2 6 2
156 Descomposicin en valores singulares

Ejercicio.

6.2 Dada la matriz " #


4 11 14
A=
8 7 2

Calcule los valores singulares de A.


3
Encuentre
n o base ortonormal B = {v 1 , v 2 , v 3 } de R de modo tal que {v 3 } sea una base ortonormal de Nul A y
una
Av 1 Av 2
kAv 1 k , kAv 2 k de Col A.

En el prximo ejemplo demostramos formalmente la afirmacin que habamos hecho al comienzo del captulo acerca de la
circunferencia unitaria y su transformacin en elipse. Aunque su lectura no es indispensable para lo que sigue, pensamos
que puede resultar de inters.

A
B
Ejemplo 6.2

U
Consideremos una transformacin lineal T : R2 R3 , T (x) = Ax con rango A = 2. Probaremos que, como ya se

-
mencion al comienzo del captulo e ilustr en la figura 6.1, la imagen de la circunferencia unitaria es una elipse

a
(eventualmente una circunferencia).
r
ie

Para demostrarlo, usaremos el teorema 6.2. Consideramos entonces {v 1 , v 2 } una base ortonormal de R2 formada por
en

autovectores de A t A. Los vectores de R2 son de la forma v 1 + v 2 , y los que pertenecen a la circunferencia quedan
g

caracterizados por tener norma uno. Usando el hecho de que {v 1 , v 2 } es una base ortonormal de R2 resulta
In

v 1 + v 2 2 = 1 2 + 2 = 1

e
d

por lo tanto los elementos de la circunferencia son de la forma


d

x = v 1 + v 2 con 2 + 2 = 1
a
lt

y se transforman en vectores de R3 de la forma


cu

Ax = Av 1 + Av 2 con 2 + 2 = 1
a
F

A continuacin, expresaremos Ax a partir de la base ortonormal de Col A descrita en el tem 2 del teorema anterior:

Av 1 Av 2

Ax = 1 + 2 con 2 + 2 = 1
1 2
n o
De esta forma, las coordenadas de Ax con respecto a la base ortonormal B = Av 1 Av 2
1 , 2 son

t t
[Ax]B = 1 2 = y 1 y 2

y verifican la ecuacin de una elipse cuyos semiejes miden 1 y 2 :


2 2
y1 y2

+ = 2 + 2 = 1
1 2
Descomposicin en valores singulares 157

Ejercicio.

6.3 Considere la transformacin lineal T : R2 R3 , T (x) = Ax definida al comienzo del captulo mediante la matriz
(6.1). Pruebe que la circunferencia unitaria se transforma, eligiendo un sistema de coordenadas adecuado en Col A, en
2
y 2
la elipse de ecuacin p1 + y 2 = 1.
3

Ejercicio.

6.4 Considere la transformacin lineal T : R2 R3 , T (x) = Ax definida mediante la matriz



1 1
A= 1 1

1 1

A
y describa el conjunto de R3 en que transforma a la circunferencia unitaria.

B
U
Ejemplo 6.3

-
Consideramos ahora una transformacin lineal T : R3 R2 , T (x) = Ax con rango A = 2 definida por la matriz
a
r
" #
1 2 2
ie

A=
2 4 1
en

Probaremos que, como se ilustra en la figura 6.3, la imagen de la esfera unitaria es una regin de borde elptico. Los
g

recursos que emplearemos son totalmente anlogos a los del ejemplo 6.2.
In

Usaremos una vez ms el teorema 6.2, para lo cual calculamos


e
d


5 10 0
d

A t A = 10 20 0

a

0 0 5
lt
cu

Sea entonces {v 1 , v 2 , v 3 } una base ortonormal de R3 formada por autovectores de A t A. Dado que los autoespacios son
a

S 25 = gen [1 2 0]t S 5 = gen [0 0 1]t gen S 0 = gen [2 1 0]t



F

definimos
1 0 2
1 1
v1 = p 2 v2 = 0 v3 = p 1

5 5
0 1 0
Luego los vectores de R3 que pertenecen a la esfera unitaria son de la forma

x = v 1 + v 2 + v 3 con 2 + 2 + 2 = 1

y se transforman en vectores de R2 de la forma

Ax = Av 1 + Av 2 + Av 3 con 2 + 2 + 2 = 1

Teniendo en cuenta que Av 3 = 0, resulta que los vectores de la esfera unitaria se transforman en vectores de la forma

Ax = Av 1 + Av 2 con 2 + 2 1
158 Descomposicin en valores singulares

Falta expresar Ax en trminos de una base ortonormal de Col A. Para ello apelamos al tem 2 del teorema 6.2:

Av 1 Av 2

Ax = 1 + 2 con 2 + 2 1
1 2
p p
En este caso es 1 = 25 = 5 y 2 = 5, luego
" p # " #
Av 1 1 5 Av 2 1 2
= p =p
1 5 2 5 2 5 1
n o
Av 1 Av 2
Con lo cual las coordenadas de Ax con respecto a la base ortonormal B = 1 , 2 son

h p it t
[Ax]B = 5 5 = y 1 y 2

A
p
y determinan una regin de borde elptico cuyos semiejes miden 5 y 5:

B
y 2 y2 2

U
1
+ p = 2 + 2 1
5 5

-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F

Figura 6.3: Imagen de la esfera unitaria


Descomposicin en valores singulares 159

Ejercicio.

6.5 Considere una transformacin lineal T : R3 R3 , T (x) = Ax y estudie la imagen de la esfera unitaria para los dos
casos siguientes
1 0 1 1 1 1
A= 1 1 1 A= 1 1 1

1 1 0 1 1 0

6.2 Descomposicin en valores singulares

A
En el captulo 4 presentamos la diagonalizacin de matrices cuadradas buscando una factorizacin de la forma A = P DP 1 ,

B
siendo D una matriz diagonal. Una de las ideas que motivan esta factorizacin es que al elegir bases de autovectores po-
demos comprender mejor la transformacin lineal asociada con la matriz A. Evidentemente, tal factorizacin slo puede

U
lograrse (y no en cualquier caso) para matrices cuadradas, puesto que la ecuacin Av = v no tiene sentido si A Rmn con

-
m 6= n. En esta seccin presentaremos una factorizacin que puede obtenerse para cualquier matriz rectangular y brinda

a
informacin acerca de los subespacios fundamentales. r
ie

Cada matriz A Rmn determina una transformacin lineal T : Rn Rm , T (x) = Ax. Como ya mencionamos en la seccin
previa y de acuerdo con el teorema 6.2, podemos elegir una base ortonormal del espacio Rn tal que sus transformados permi-
en

ten obtener una base ortonormal de Col A, conociendo adems cules son los vectores de norma uno que realizan la mxima
g

y mnima dilatacin al transformarse. La factorizacin que sigue pone en evidencia toda esta informacin.
In

Definicin 6.2
e
d

Sea A Rmn . Una descomposicin en valores singulares (DVS) de A es una factorizacin de la forma
d

A = U V t
a

(6.6)
lt

con U Rmm y V Rnn matrices ortogonales y Rmn de la forma


cu

1
a


0 0
F

2
" #
D 0
0 0
=

donde D = .. .. .. .. (6.7)
0 0
. . . .


0 0 r

y 1 2 ... r > 0. Vale decir que es una matriz con un primer bloque diagonal y el resto de los bloques son
matrices de ceros con el tamao adecuado.

N La descomposicin en valores singulares es de gran utilidad y tiene muchas aplicaciones en la ingeniera. Aunque
no las expondremos en este curso, los lectores interesados pueden consultar la bibliografa, por ejemplo [5].
160 Descomposicin en valores singulares

Definicin 6.3

Dada una matriz A Rmn con descomposicin en valores singulares A = U V t como la definida en 6.2, a los vectores
que aparecen como columnas de la matriz V se los denomina vectores singulares derechos de A mientras que a los que
aparecen como columnas de U se los denomina vectores singulares izquierdos de A.

Hasta ahora hemos definido la descomposicin en valores singulares, pero no hemos garantizado su existencia ni exhibido
un mtodo para construirla. El teorema que sigue resuelve ambas cuestiones: garantiza la existencia de la descomposicin
para cualquier matriz y en la demostracin se explica cmo construirla.

Teorema 6.3

A
Sea A Rmn . Entonces existe una descomposicin en valores singulares de A.

B
U
Demostracin:

-
Siguiendo la exposicin del teorema 6.2, llamamos 1 , ..., n a los autovalores de A t A, de manera que estn ordenados en
forma decreciente y la cantidad de elementos no nulos sea r :
a
r
ie

1 ... r > 0 y r +1 = ... = n = 0


en

Sea {v 1 , v 2 , ..., v n } una base ortonormal de Rn formada por autovectores de A t A de modo tal que para todo i = 1, ..., n resulta
g

A t Av i = i v i . La matriz V se define con estos vectores como columnas:


In

h i
V= v1 v2 vn
e
d

La matriz Rmn se define como


d
a

1

0 0
lt

2
" #
D 0
0 0
cu

=

donde D = .. .. .. ..
0 0
. . . .


a

0 0 r
F

n o
Av 1 Av 2 Av r
y i = i con i = 1, ..., r . Para definir U , tenemos en cuenta que el conjunto
p
1 , 2 , ..., r es ortonormal, luego defini-
mos
Av 1 Av 2 Av r
u1 = u2 = ... ur =
1 2 r

Si r < m, es decir si los u i no completan una base de Rm , buscamos vectores u r +1 , ..., u m de modo tal que {u 1 , u 2 , ..., u m } sea
una base ortonormal de Rm . Con esto definimos la matriz ortogonal
h i
U= u1 u2 um

A continuacin, comprobamos que efectivamente es A = U V t para las matrices definidas. En primer lugar, teniendo en
cuenta la definicin de los u i y que Av i = 0 si i > r :
h i h i
AV = Av 1 Av 2 Av n = 1 u 1 2 u 2 r v r 0 0
Descomposicin en valores singulares 161

Por otra parte,


1 0 0 0 0



0 2 0 0 0

.. .. .. .. .. .. ..
. . . . . . .

h i h i
U = r = 1 u 1 2 u 2 r u r

u1 u2 um
0 0 0 0 0 0
0 0 0 0 0


.. .. .. .. .. .. ..

. .

. . . . .
0 0 0 0 0

Por lo tanto AV = U . Teniendo en cuenta que V 1 = V t , multiplicamos a derecha por V t y obtenemos AV V t = A = U V t

Ejemplo 6.4

A
Una vez ms, consideramos la matriz (6.1) definida al comienzo del captulo y estudiada en el ejemplo 6.1. Siguiendo

B
los pasos de la demostracin del teorema 6.3, sealamos en primer lugar los autovalores de A t A:

U
1 = 3 2 = 1

-
de donde obtenemos los valores singulares
a
p r
1 = 3 2 = 1
ie

que nos permiten definir p


en


3 0
= 0 1

g

0 0
In

La base de R2 formada por autovectores de A t A es la que ya se present en (6.4):


e


1 1
d

{v 1 , v 2 } = p [1 1]t , p [1 1]t
2 2
d

y ya podemos definir
a

" #
1 1 1
lt

V=p
1 1
cu

2
A continuacin definimos la base ortonormal de Col A como en (6.5):
a
F

Av 1 Av 2

1 1
{u 1 , u 2 } = , = p [1 2 1]t , p [1 0 1]t
1 2 6 2
Falta un vector u 3 que complete una base ortonormal de R 3 : de las dos posibilidades que existen elegimos u 3 =
p1 [1 1 1]t y definimos
3
p1 p1 p1

6 2 3
p2 0 p1

U = 6 3
p1 p1 p1
6 2 3
Con lo cual la descomposicin en valores singulares resulta
p
p1 p1 p1

1 0 6 2 3 3 0 " #
2 1 1 1
0 p1

A= 1 1 = p 0 1 p

6 3 1
2 1

0 1 p1 p1 p1 0 0 |
6 2 3
{z }
}| Vt
| {z {z }
U
162 Descomposicin en valores singulares

N Debe notarse que para una matriz dada A Rmn hay ms de una descomposicin en valores singulares.
Al releer la demostracin del teorema 6.3 se aprecia que puede haber diversas maneras de completar la base
{u 1 , u 2 , ..., u m }. Tambin es posible elegir otros autovectores v i de A t A. El ejemplo ms obvio son las descomposi-
ciones A = U V t = (U ) (V )t .

Ejercicio.

6.6 Encuentre una descomposicin en valores singulares de la matriz estudiada en el ejercicio 6.2.

Ya hemos mencionado que para una misma matriz pueden encontrarse distintas descomposiciones en valores singulares.
De todos modos, existen algunas caractersticas que toda DVS necesariamente tiene, independientemente de la forma en
que haya sido obtenida. Aunque no sern indispensables para los temas que siguen, ofrecemos al lector interesado ciertas

A
cualidades que debe tener cualquier DVS.

B
U
Teorema 6.4

Sea A = U V t una descomposicin en valores singulares de A Rmn , con U , y V como en la definicin 6.2. Enton-

-
a
ces r
1 1 , 2 , ..., r son los valores singulares no nulos de A.
ie
en

2 Si V Rnn es una matriz de la forma h i


V= v1 v2 vn
g
In

entonces los vectores columna constituyen una base ortonormal {v 1 , v 2 , ..., v n } de Rn y verifican que A t Av i =
2i v i para todo i = 1, ..., r y A t Av i = 0 para i = r + 1, ..., n.
e
d

3 Si U Rmm es una matriz de la forma


d

h i
U= u1 u2 um
a
lt

entonces Av i = i u i para todo i = 1, ..., r .


cu
a
F

Demostracin:
Como A = U V t , tenemos que A t A = V t U t U V t = V t V t donde

21 0 0 0 0



0 22 0 0 0

.. .. .. .. .. .. ..
. . . . . . .


t
= 2r

0 0 0 0

0 0 0 0 0


.. .. .. .. .. .. ..

. .

. . . . .
0 0 0 0 0

de modo tal que V t V t es una diagonalizacin ortogonal de la matriz simtrica A t A. En consecuencia, 21 , 22 , ..., 2r , son

los autovalores no nulos de A t A ordenados en forma decreciente. 3 Por lo tanto sus races cuadradas 1 , 2 , ..., r son los
3 Estamos usando el teorema 4.3 que garantiza que en cualquier diagonalizacin A = P DP 1 de una matriz los elementos de la diagonal son necesaria-

mente autovalores de A y las columnas de P sus autovectores.


Descomposicin en valores singulares 163

valores singulares no nulos de A y queda probada 1 .


Las columnas de V , a su vez, conforman una base ortogonal de Rn y son autovectores de A t A. Ms precisamente: A t Av i =
2i v i para i = 1, ..., r y A t Av i = 0 para i = r + 1, ..., n, ya que v r +1 , ..., v n son autovectores asociados al autovalor nulo. Con esto
hemos demostrado 2 .
Finalmente el punto 3 resulta inmediato a partir de la igualdad AV = U .

Ejercicio. Sea A = U V t una descomposicin en valores singulares de A Rmn .

Demuestre que A t = V t U t es una DVS de A t .

Demuestre que A y A t tienen los mismos valores singulares no nulos.

A
6.3

B
La DVS y los subespacios fundamentales de una matriz

U
En esta seccin veremos que en una descomposicin en valores singulares A = U V t , las matrices U y V estn compuestas

-
a
por bases ortonormales de los cuatro subespacios fundamentales de A. r
ie
Teorema 6.5
en

Sea A Rmn una matriz de rango r con una DVS A = U V t donde


g

h i h i
In

U = u1 u2 um y V = v1 v2 vn

Definiendo las matrices


e

h i h i
d

Ur = u1 ur Umr = u r +1 um (6.8)
d

junto con h i h i
a

Vr = v1 vr Vnr = v r +1 vn (6.9)
lt

resulta
cu

1 {v 1 , ..., v r } es una base ortonormal de (Nul A) = Fil A.


a
F

2 Vrt Vr = I y Vr Vrt = [P Fil A ]E

3 {v r +1 , ..., v n } es una base ortonormal de Nul A.

4 {u 1 , ..., u r } es una base ortonormal de Col A.

5 Urt Ur = I y Ur Urt = [P Col A ]E

6 {u r +1 , ..., u m } es una base ortonormal de (Col A) = Nul A t .

Demostracin:
Como el rango de A es r , de acuerdo con la propiedad 3 del teorema 6.2, A es una matriz con r valores singulares no nulos.
Por lo tanto A t A tiene r autovalores no nulos. Por el teorema 6.4, los vectores {v 1 , v 2 , ..., v n } son autovectores de A t A, estando
los primeros r de ellos asociados a los autovalores no nulos de A t A y los restantes al autovalor nulo de A t A. Por lo tanto, por
la propiedad 4 del teorema 6.2, {v r +1 , ..., v n } es una base ortonormal de Nul A. Como adems {v 1 , ..., v n } es base ortonormal
164 Descomposicin en valores singulares

de Rn , necesariamente {v 1 , ..., v r } es una base ortonormal de (Nul A) = Fil A. Con esto, y la forma en que se construyen las
matrices asociadas a una proyeccin ortogonal (explicada en el teorema 3.19), quedan demostrados 1 , 2 y 3 .
La demostracin de 4 , 5 y 6 es anloga y se deja como ejercicio.

Ejercicio. Sea A Rmn una matriz de rango r . Manteniendo la notacin del teorema 6.5, demuestre que
t t
Vnr Vnr = I y Vnr Vnr = [P Nul A ]E
t t

Umr Umr = I y Umr Umr = P Nul A t E

Ejemplo 6.5

Dada p p p p
1 1 0 2 0 0 1/ 2 0 1/ 2 1 3 2 1

A
p p
A= 1 1 0 0 18 0 0 1 0 = 1 3 2 1

B
p p
0 0 1 0 0 0 1/ 2 0 1/ 2 0 0 0

U
Buscamos los valores singulares de A, bases de sus cuatro subespacios fundamentales y calculamos las matrices
asociadas a la proyeccin sobre dichos subespacios.

-
a
r
La descomposicin que tenemos de A es similar a una DVS, salvo por el hecho de que la matriz que aparece a la
izquierda, aunque tiene columnas mutuamente ortogonales, no son de norma uno. Procedemos entonces a norma-
ie

lizar sus columnas, dividiendo cada una de ellas por su norma. Para que el producto siga siendo A, multiplicamos
en

adecuadamente las filas de la matriz central. Queda entonces la factorizacin


g

p p p p p p
1/ 2 1/ 2 0 2 2 0 0 1/ 2 0 1/ 2
In

p p p p
A = 1/ 2 1/ 2 0 0 2 18 0 0 1 0

p p
0 0 1 0 0 0 1/ 2 0 1/ 2
e
d

Esta factorizacin no es an una DVS, porque los elementos de la diagonal de la matriz central no estn ordenados de
d

mayor a menor. Para ello lo que hacemos es permutar las dos primeras columnas de la matriz de la izquierda y las dos
a

primeras filas de la matriz de la derecha. Entonces obtenemos


lt

p p
1/ 2 1/ 2 0 6 0 0 0 1 0
cu

p p p p
A = 1/ 2 1/ 2 0 0 2 0 1/ 2 0 1/ 2 (6.10)

p p
a

0 0 1 0 0 0 1/ 2 0 1/ 2
F

que ahora s es una DVS de A, ya que A = U V t con


p p p p
1/ 2 1/ 2 0 6 0 0 0 1/ 2 1/ 2
p p
U = 1/ 2 1/ 2 0 = 0 2 0 V = 1 0 0

p p
0 0 1 0 0 0 0 1/ 2 1/ 2

Los valores singulares de A son 1 = 6, 2 = 2 y 3 = 0. Como A tiene dos valores singulares distintos de cero, deduci-
mos que su rango es dos. Las primeras dos columnas de V son una base ortonormal de Fil A, mientras que la ltima
columna de V es una base ortonormal de Nul A. Con respecto a Col A, las dos primeras columnas de U son una ba-
se ortonormal de ese subespacio, mientras que la ltima columna de U es base ortonormal de Nul A t . Las matrices
asociadas a las proyecciones son
p
0 1/ 2 " # 1/2 0 1/2
0 1 0
[P Fil A ]E = 1

0
p p =

0 1 0

p 1/ 2 0 1/ 2
0 1/ 2 1/2 0 1/2
Descomposicin en valores singulares 165


1/2 0 1/2
[P Nul A ]E = I [P Fil A ]E = 0 0 0

1/2 0 1/2


0 h i 0 0 0

P Nul A t E = 0 0 0 1 = 0 0 0

1 0 0 1


1 0 0

[P Col A ]E = I P Nul A t E = 0 1 0

0 0 0

A
B
U
-
a
Ejercicio. r
ie
6.7 Considere la matriz definida en el ejercicio 6.2, cuya DVS se obtuvo en el ejercicio 6.6.
en

Encuentre bases ortonormales para los subespacios fundamentales.


g

Calcule P Col A (v) siendo v = [1 1]t .


In

Calcule P Fil A (w) siendo w = [1 1 1]t .


e
d
d

Si releemos la ecuacin (6.10) del ejemplo anterior, se aprecia que la ltima fila de V t no aportar nada al producto, en el
a

sentido de que todos sus elementos estarn multiplicados por los ceros de la ltima columna de . Algo anlogo ocurrir
lt

con la ltima columna de U . Por lo tanto, en la DVS de A podemos prescindir de estos elementos y reducir el producto a la
cu

expresin
a

p p
1/ 2 1/ 2 "
F

#" #
p p 6 0 0 1 0
A = 1/ 2

1/ 2 p p (6.11)
0 2 1/ 2 0 1/ 2
0 0

Esta factorizacin de A permite leer sus valores singulares no nulos, una base ortonormal de Col A y una base ortonormal de
Fil A.

Veamos que para cualquier matriz A Rmn puede obtenerse una factorizacin como en (6.11). En efecto, si mantenemos la
notacin usada en el teorema 6.5 y la matriz como se defini en (6.7), entonces una DVS de A puede escribirse como

" #" #
t
h i D 0 Vrt
A = U V = Ur Umr t = Ur DVrt
0 0 Vnr

Esto justifica la siguiente definicin.


166 Descomposicin en valores singulares

Definicin 6.4

Sea A Rmn . Una descomposicin en valores singulares (DVS) reducida de A es una factorizacin de la forma

A = Ur DVrt (6.12)

obtenida a partir de una DVS como se defini en 6.2, siendo Ur Rmr y Vr Rnr las matrices definidas en (6.8) y
(6.9) respectivamente.

Ejercicio.

6.8 Encuentre una DVS reducida de la matriz estudiada en el ejercicio 6.2.

A
B
U
6.4 Matriz seudoinversa. Cuadrados mnimos.

-
a
Consideramos, una vez ms, la matriz estudiada en el ejemplo 6.5. All habamos obtenido la DVS
r
p p p
ie

1 3 2 1 1/ 2 1/ 2 0 6 0 0 0 1 0
p p p p p
en

A = 1 3 2 1 = 1/ 2 1/ 2 0 0 2 0 1/ 2 0 1/ 2

p p

0 0 0 0 0 1 0 0 0 1/ 2 0 1/ 2
g

| {z }| {z }| {z }
In

U Vt

Observamos que
e

1. Las filas de V t , esto es las columnas de V , constituyen una base ortonormal de B = {v 1 , v 2 , v 3 } de R3 , donde
d

p p
d


0 1/ 2 1/ 2
a

v1 = 1 v2 = 0 v3 = 0

p p
lt

0 1/ 2 1/ 2
cu

de modo tal que {v 1 , v 2 } es una base ortonormal de Fil A y {v 3 } es una base ortonormal de Nul A. Adems, la matriz V
a

realiza el cambio de base: V = C B E .


F

2. Las columnas de U constituyen una base ortonormal C = {u 1 , u 2 , u 3 } de R3 donde


p p
1/ 2 1/ 2 0
p p
u 1 = 1/ 2 u 2 = 1/ 2 u3 = 0

0 0 1

de modo tal que {u 1 , u 2 } es una base ortonormal de Col A y {u 3 } es una base ortonormal de (Col A) . En este caso,
U = CC E .

De esta forma, A resulta la matriz asociada a la transformacin

T : R3 R3 , T (x) = Ax

con respecto a la base cannica, mientras que es la matriz con respecto a las bases B y C :

[T ]E = A = CC E [T ]BC C E B
|{z} | {z } |{z}
U Vt
Descomposicin en valores singulares 167

Evidentemente, la transformacin T no es inversible. Sin embargo, y como sugiere la figura 6.2, si restringimos el dominio a
Fil A obtenemos una transformacin biyectiva de Fil A Col A. Nos proponemos entonces invertir T en esta restriccin en
que es posible. La transformacin est caracterizada por cmo transforma a la base B :

Av 1 = 6u 1 Av 2 = 2u 2 Av 3 = 0

De esta manera, si pretendemos definir una transformacin seudoinversa y representarla con una matriz A , deber verificar

1
A (6u 1 ) = v 1 A u 1 = v 1
6
1
A (2u 2 ) = v 2 A u 2 = v 2
2

A
Para que la pseudoinversa quede bien definida sobre la base C = {u 1 , u 2 , u 3 }, imponemos

B
A u3 = 0

U
-
Todo este proceso se resume matricialmente:

a
r
1

6 0 0 1/4 1/4 0
t p p
ie

A = |{z}
V 0 12 U = 2/12
0 |{z} 2/12 0

en

CB E 0 0 0 C EC 1/4 1/4 0
| {z }
g


In

Donde la matriz representa la transformacin seudoinversa con respecto a las bases C y B , mientras que U t y V realizan
e

los cambios de coordenadas a la base cannica.


d
d

Esta misma matriz puede obtenerse a partir de la DVS reducida de A, calculada en 6.11 como A = Ur DVrt . All se encuentra
a

efectivamente toda la informacin necesaria para invertir la transformacin de Fil A Col A:


lt
cu

p
0 1/ 2 " #" p p # 1/4 1/4 0
1/6 0 1/ 2 1/ 2 0 p p
A = Vr D 1Urt = 1
a


0 p p = 2/12 2/12 0

p
F

0 1/2 1/ 2 1/ 2 0
0 1/ 2 1/4 1/4 0

A continuacin mostraremos cmo es posible aplicar la matriz A a la resolucin de un problema de cuadrados mnimos.
Consideremos el sistema incompatible

p
1 3 2 1 x1 1
p
Ax = 1 3 2 1 x2 = 1 = b

0 0 0 x3 1

Dado que la matriz A tiene sus columnas linealmente dependientes, podemos anticipar que habr infinitas soluciones por
cuadrados mnimos x = [x1 x2 x3 ]t . Ahora bien, dado que b Col A, resolver el problema de cuadrados mnimos equivale
(como ya se vio en la seccin 3.5 del captulo 3) a encontrar los x tales que

A x = P Col A (b) (6.13)


168 Descomposicin en valores singulares

A
B
U
-
Figura 6.4: A y su relacin con los subespacios fundamentales

a
r
Como sugiere la figura 6.4, aqu es donde podemos usar la seudoinversa A : con ella obtenemos el nico elemento x en Fil A
ie

que verifica (6.13). En efecto, si descomponemos a b como la suma de sus proyecciones sobre Col A y (Col A) , y teniendo en
en

cuenta que por su propia definicin A se anula sobre los elementos de (Col A) , resulta
g


A b = A P Col A (b) + P (Col A) (b) = A P Col A (b) = x
In

En nuestro ejemplo tenemos


e


1/4 1/4 0 1 1/2
d

p p
x = A b = 2/12 2/12 0 1 = 0

d

1/4 1/4 0 1 1/2


a

La solucin x tendr una caracterstica notable dentro del conjunto de soluciones x por cuadrados mnimos: dado que los
lt

x surgen de resolver la ecuacin normal


cu

A t A x = A t b
a

cualquier solucin se obtiene como una solucin particular sumada con una solucin del sistema homogneo asociado, es
F

decir un elemento de Nul A t A = Nul A. Por ende, podemos escribir la solucin general por cuadrados mnimos en la forma
n o
x + Nul A = x + x 0 : x 0 Nul A

En nuestro ejemplo, este conjunto solucin es una recta paralela a Nul A cuyo punto ms cercano al origen es justamente x .
En otras palabras: x es la solucin por cuadrados mnimos de norma mnima.

Dedicaremos el resto de esta seccin a formalizar y generalizar las observaciones hechas hasta aqu.

Definicin 6.5

Sea A Rmn con una DVS reducida Ur D Vrt . La matriz

A = Vr D 1Urt (6.14)

es la matriz seudoinversa de A. Tambin se la conoce como seudoinversa de Moore-Penrose.


Descomposicin en valores singulares 169

N Ya sabemos que la DVS reducida de una matriz A no es nica. Sin embargo, para cualquier DVS reducida que se
elija se obtiene la misma matriz seudoinversa. Esto se puede justificar pensando que A representa una transfor-
macin lineal que est totalmente determinada por cmo transforma a las bases de Col A y de (Col A) . El lector
interesado podr encontrar detalles en la bibliografa.

Ejercicio.

6.9 Encuentre la matriz seudoinversa de la matriz estudiada en el ejercicio 6.2.

A
Teorema 6.6

B
Sean A Rmn y A Rnm su seudoinversa. Entonces

U
1 A A = [P Fil A ]E

-
a
2 A A = [P Col A ]E r
ie
en

Demostracin:
g

Consideramos una DVS reducida de A:


In

A = Ur D Vrt
e
d

a partir de la cual obtenemos la seudoinversa


d

A = Vr D 1Urt
a
lt

Las propiedades 1 y 2 surgen como consecuencia del teorema 6.5 al realizar los productos indicados
cu

A A = Vr D 1Urt Ur DVrt = Vr Vrt


a
F

A A = Ur DVrt Vr D 1Urt = Ur Urt

Ejercicio.

Demuestre que si A Rnn es inversible entonces A = A 1 .

Demuestre que para cualquier A Rmn es

A A A = A A A A = A

Demuestre que para cualquier b Rm el vector A b es un elemento de Fil A.


Sugerencia: probar que P Fil A A b = A b usando el teorema 6.6.

170 Descomposicin en valores singulares

Teorema 6.7

Sea A Rmn y sea A Rnm su seudoinversa. Sea b Rm . Entonces en el sistema de ecuaciones

Ax = b
el vector
x = Ab

es la solucin por cuadrados mnimos de norma mnima.

Demostracin:
Para ver que x es solucin por cuadrados mnimos, debemos probar que Ax = P Col A (b). Ahora bien, usando la propiedad

A
2 del teorema 6.6 tenemos

Ax = A A b = [P Col A ]E b

B
U
Para probar que x es la solucin de norma mnima, tendremos en cuenta que las soluciones por cuadrados mnimos son de
la forma x + x 0 con x 0 Nul A, como ya justificamos al comienzo de esta seccin. Para calcular el cuadrado de la norma de

-
una solucin genrica x + x 0 aprovechamos que x Fil A = (Nul A) y por ende podemos aplicar el teorema de Pitgoras

a
2 2 r 2

x + x 0 = x + kx 0 k2 x

ie
en

con lo cual obtenemos el resultado buscado.


g
In

Ejercicio.

6.10 Considerando la matriz definida en el ejercicio 6.2:


e
d

Resuelva el sistema de ecuaciones Ax = b con b = [1 1]t . Utilice la matriz seudoinversa calculada en el ejercicio
d

6.9.
a
lt

Compruebe que las matrices A y A verifican las propiedades del teorema 6.6.
cu
a
F
7 Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales

A
B
U
-
7.1
a
Introduccin r
ie
en

Este captulo tiene por objetivo mostrar cmo pueden aplicarse los recursos del lgebra lineal para estudiar algunas ecua-
ciones diferenciales. Por eso es que la exposicin quedar limitada a ciertas ecuaciones especficas, pudiendo los lectores
g

interesados en profundizar estos temas consultar la abundante bibliografa que existe sobre el tema. De ningn modo pre-
In

tende ser un curso de ecuaciones diferenciales, como s lo son los textos [10] y [2], que hemos consultado para elaborar estas
notas y recomendamos.
e
d

Comencemos considerando un tema clsico y familiar: el movimiento rectilneo de una partcula. En la figura 7.1 se aprecia
d
a

un sistema de referencia vertical en el que hemos elegido el sentido positivo hacia abajo, puesto que pretendemos repre-
lt

sentar el movimiento de cada de los cuerpos.


cu
a
F

Figura 7.1: Sistema de referencia para la cada de un cuerpo


Ecuaciones diferenciales y
172 sistemas de ecuaciones diferenciales

Dada una partcula de masa m, su altura ser una funcin y(t ). Es decir, una cantidad y que depende del tiempo t . Para
poder aplicar la segunda ley de Newton
F = ma (7.1)

a las fuerzas que concurren en la partcula, recordemos que la primera derivada de la posicin es la velocidad instantnea

y 0 (t ) = v(t )

mientras que la segunda derivada es la aceleracin instantnea

y 00 (t ) = v 0 (t ) = a(t )

Suponemos, en una primera aproximacin, que no existe fuerza de rozamiento. Entonces la nica fuerza que acta sobre la
partcula es el peso P = mg , donde g es la aceleracin gravitatoria debida a la atraccin terrestre (razonablemente podemos

A
suponerla constante para alturas bajas). De esta forma, la segunda ley de Newton (7.1) resulta

B
mg = m y 00 (t ) y 00 (t ) = g (7.2)

U
Vale decir que la posicin y(t ) es una funcin con derivada segunda constante. O sea que se trata de una funcin polinmica

-
de grado dos:

a
1
y(t ) = g t 2 + At + B con A, B R
r (7.3)
2
ie

Es usual en esta clase de problemas conocer datos iniciales como la posicin y 0 y la velocidad v 0 al comienzo del movimiento.
en

En tal caso, al evaluar la frmula (7.3) en t = 0 deducimos que y(0) = B = y 0 . De manera similar, derivando la frmula (7.3) y
evaluando en t = 0 deducimos que y 0 (0) = A = v 0 . Con esto llegamos a la clsica expresin
g
In

1
y(t ) = g t 2 + v 0 t + y 0 (7.4)
2
e
d

Debemos tener en cuenta que la ecuacin (7.4) es tan slo una aproximacin a la posicin verdadera de la partcula. Esto se
debe a las simplificaciones que hemos hecho, como suponer que no existe el rozamiento. As, la frmula (7.4) puede ser de
d

utilidad para intervalos relativamente breves de tiempo, aunque no puede tomarse seriamente cuando t .
a
lt
cu

Para dar cuenta de estas dificultades, incorporamos ahora la fuerza de rozamiento: como se ve en la figura 7.1, se trata de
una fuerza de sentido opuesto al peso. El rozamiento es proporcional a la velocidad: 1
a
F

F r = kv

donde k es una constante positiva que depende del aire y de las caractersticas aerodinmicas del cuerpo que cae. El signo
menos da cuenta de que el sentido de F r es siempre opuesto al del movimiento. En este caso, al aplicar la ley de Newton (7.1)
queda
mg k y 0 (t ) = m y 00 (t ) (7.5)

Encontrar las funciones y(t ) que verifican la relacin (7.5) no es tan sencillo como en el caso anterior. Sin embargo, podemos
anticipar algo aun cuando no conozcamos una frmula explcita de y(t ). Dado que la velocidad y 0 (t ) tiende a crecer durante
la cada, la fuerza peso y la fuerza de rozamiento tienden a compensarse. Por eso esperamos que a largo plazo la aceleracin
y 00 (t ) tienda a cero: este movimiento tiende a un movimiento de velocidad constante (es fcil de imaginar pensando, por
ejemplo, en un paracadas).

1 En rigor, el fenmeno del rozamiento es un amplio tema de la fsica. Existen, por ejemplo, modelos alternativos en los que el rozamiento es proporcional

a otra potencia v n de la velocidad.


Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 173

La relacin (7.5) involucra derivadas de primer y segundo orden. Podemos simplificarla si la escribimos en trminos de la
velocidad v(t ) = y 0 (t ), con lo cual obtenemos

k
mg kv(t ) = mv 0 (t ) v 0 (t ) + v(t ) = g (7.6)
m
Un recurso habitual para encontrar las funciones v(t ) que verifican esta relacin es usar lo que se denomina un factor inte-
k
grante . En este caso, el factor integrante es la funcin e m t : como nunca se anula, si multiplicamos ambos miembros por este
factor obtenemos un problema equivalente al original

k k k k
v 0 (t )e m t + v(t )e m t = g e m t
| {zm }

d k
dt
v(t )e m t

A
con la ventaja de que el primer miembro es la derivada de un producto 2 , por lo que integramos para obtener

B
k m k
v(t )e m t = g e m t +C con C R

U
k

-
y por lo tanto
m k
g +C e m t con C R
a
v(t ) =
k
r
Si adems conocemos la velocidad inicial v 0 , evaluando la solucin en t = 0 llegamos a
ie

m m k
en


v(t ) = g + v 0 g e m t (7.7)
k k
g

Como habamos anticipado, la velocidad tiende a estabilizarse:


In

m
lm v(t ) = g
e

t k
d
d

Las ecuaciones (7.2), (7.5) y (7.6) son ejemplos de lo que denominamos ecuaciones diferenciales , es decir, problemas en los
a

que se trata de encontrar aquellas funciones que verifican cierta ecuacin que involucra a sus derivadas. En particular (7.2) y
lt

(7.5) son ecuaciones diferenciales de segundo orden porque contienen derivadas segundas de la funcin incgnita, mientras
cu

que (7.6) es una ecuacin diferencial de primer orden. En las secciones que siguen estudiaremos algunas de las ecuaciones
llamadas ecuaciones diferenciales lineales, que abarcan a estos ejemplos como casos particulares.
a
F

7.2 Ecuacin diferencial lineal de primer orden

En esta seccin generalizamos el estudio de ecuaciones como (7.6). Ya vimos en la ecuacin (7.6) cmo una ecuacin de la
forma
a 1 (t )y 0 (t ) + a 0 (t )y(t ) = b(t )

puede reescribirse como


a 0 (t ) b(t )
y 0 (t ) + y(t ) =
a 1 (t ) a 1 (t )
en la medida en que la funcin a 1 (t ) no se anule. Eso eso lo que asumiremos de aqu en adelante, as como la continuidad
de la funciones a 1 (t ), a 0 (t ) y b(t ).

2 Ms adelante explicaremos un mtodo general para obtener el factor integrante.


Ecuaciones diferenciales y
174 sistemas de ecuaciones diferenciales

Definicin 7.1

Una ecuacin diferencial de la forma


y 0 (t ) + p(t )y(t ) = f (t ) (7.8)

(donde p(t ) y f (t ) son funciones continuas en cierto intervalo abierto I ) se denomina ecuacin diferencial lineal de
primer orden.

En el caso de que sea f (t ) = 0 para todo t I se dice que es una ecuacin homognea.

Si adems se buscan soluciones que verifiquen una condicin de la forma y(t 0 ) = y 0 para cierto t 0 I se tiene un
problema de valor inicial.

A
Ejercicio. Considere la ecuacin diferencial homognea

B
1
y0 + y = 0

U
t

-
1
Verifique que la funcin : (0, +) R, (t ) = t es una solucin.

a
Encuentre dos soluciones ms en el mismo intervalo (0, +).
r
ie

Encuentre una solucin que verifique la condicin inicial y(2) = 4.


en
g

Convencin
In

A menudo abreviaremos la notacin omitiendo la variable independiente de las funciones. As, por ejemplo, en lugar
e

de y(t ) escribiremos meramente y. El contexto debera permitir en cada caso discernir qu clase de funciones se est
d

manejando.
d
a
lt

Ya hemos visto en la seccin anterior cmo una ecuacin diferencial puede tener infinitas soluciones. Tambin vimos que al
cu

imponer ciertas condiciones iniciales quedaba determinada una nica solucin. Esto permite suponer que, bajo hiptesis
adecuadas, un problema de valor inicial tiene solucin y adems es nica. El teorema que sigue establece esta afirmacin
a

para el caso de la ecuacin diferencial lineal de primer orden. La demostracin es especialmente instructiva porque adems
F

brinda un mtodo de resolucin de la ecuacin.

Teorema 7.1

Dado un problema de valor inicial (


y0 + py = f
y(t 0 ) = y 0

como se defini en 7.1, existe una nica solucin : I R que verifica (t 0 ) = y 0 .

Demostracin:
Como en la seccin anterior, multiplicamos por un factor integrante para transformar la ecuacin. Consideramos entonces
una primitiva de p(t ): esto es, una funcin P (t ) tal que P 0 = p. Si multiplicamos ambos miembros de la ecuacin por el factor
integrante e P (t ) (que no se anula para ningn valor de t ) obtenemos la ecuacin equivalente

e P (t ) y 0 + e P (t ) P 0 (t )y = e P (t ) f
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 175

de manera tal que una funcin y es solucin si y slo si verifica que

d P (t )
e y = e P (t ) f (t )
dt

Por lo tanto e P (t ) y(t ) es una primitiva de e P (t ) f (t ):


Z Z
e P (t ) y = e P (t ) f (t )d t y = e P (t ) e P (t ) f (t )d t

Si F (t ) es una primitiva de e P (t ) f (t ), cualquier otra primitiva difiere en una constante. Luego

y = e P (t ) [F (t ) +C ] = F (t )e P (t ) +C e P (t ) con C R (7.9)

Esta ltima expresin es la solucin general de la ecuacin diferencial definida en 7.1, pues contiene todas las posibles solu-

A
ciones.

B
U
Finalmente, si en la solucin general (7.9) imponemos la condicin inicial resulta

-
y(t 0 ) = F (t 0 )e P (t0 ) +C e P (t0 ) = y 0

a
r
de donde se deduce que hay una sola eleccin posible de la constante de integracin.
ie
en

Ejemplo 7.1
g
In

Hallaremos la solucin del problema de valor inicial


(
y0 t y = 0
e
d

y(1) = 1
d

Siguiendo los pasos de la demostracin del teorema 7.1, calculamos un factor integrante hallando una primitiva de
a

2
la funcin p(t ) = t . En este caso proponemos P (t ) = t2 (aunque podramos haber elegido cualquiera de la forma
lt

2 t2
P (t ) = t2 + k). Luego el factor integrante es e 2 y la ecuacin diferencial original es equivalente a
cu

d
2
t2 t2
a

t
e 2 y0 t e 2 y = 0 e 2 y = 0
F

dt

con lo cual deducimos que


t2 t2
e 2 y = C y = C e 2 con C R

Al imponer la condicin inicial deducimos el nico valor adecuado de C R:


1 1
y(1) = C e 2 = 1 C = e 2

luego la solucin al problema de valor incial es

1 t2 t 2 1
(t ) = e 2 e 2 = e 2

En la figura 7.2 se aprecian varios elementos de la solucin general, incluyendo la solucin del problema de valor
inicial. Este grfico permite una interpretacin sencilla del teorema 7.1 de existencia y unicidad de soluciones: de las
infinitas curvas solucin de la ecuacin diferencial, estamos eligiendo la nica que pasa por el punto (1, 1).
Ecuaciones diferenciales y
176 sistemas de ecuaciones diferenciales

A
B
U
Figura 7.2: Diversas curvas solucin

-
a
r
ie

Ejemplo 7.2
en

Consideramos el problema de valor inicial (


y 0 tan t y = sen t
g
In

y(0) = 0

Como tan t est definida y es continua en los intervalos abiertos de la forma 2 , 2 , 2 , 3



2 ... y el punto en el cual
e

tenemos dada la condicin inicial es t = 0, trabajamos en el intervalo 2 , 2 . Para calcular el factor integrante
d

sen t
Z Z
tan t d t = d t = ln |cos t | +C
a

cos t
lt

En el intervalo considerado es |cos t | = cos t , por lo que elegimos factor integrante e ln cos t = cos t . La ecuacin original
cu

es entonces equivalente a
a
F

sen t d
cos t y 0 cos t

y = sen t cos t cos t y = sen t cos t
cos t dt
con lo cual
cos2 t
cos t y = +C con C R
2
y la solucin general resulta
cos t C
y(t ) = + con C R
2 cos t
Imponiendo la condicin inicial resulta
1 1
y(0) = +C = 0 C =
2 2
con lo cual la solucin buscada es
cos t 1
(t ) = +
2 2 cos t
En la figura 7.3 se aprecian diversas curvas solucin y los intervalos en los que estn definidas las funciones y(t ).
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 177

A
B
U
Figura 7.3: Diversas curvas solucin

-
a
r
Ejercicio.
ie

7.1 Encuentre la solucin del problema de valor inicial


en

(
cosh t t
y 0 + senh
g

ty= senh t
In

1
y(1) = 2 senh 1

e indique en qu intervalo es vlida.


e
d
d
a

7.3
lt

Estructura de las soluciones en la ecuacin de primer orden


cu
a

En esta seccin aplicaremos los conceptos del lgebra lineal para caracterizar las soluciones de la ecuacin diferencial lineal
F

de primer orden. Para ello, comenzamos por sealar que la ecuacin diferencial lineal definida en 7.1 puede pensarse en
trminos de una transformacin lineal. En efecto, si definimos la funcin

L : C 1 (I ) C (I ), L(y) = y 0 + p y (7.10)

es inmediato que L es una transformacin lineal (es usual en este contexto denominarlo operador lineal). Por lo tanto, resol-
ver la ecuacin diferencial lineal de primer orden
y0 + py = f
equivale a encontrar las funciones y C 1 (I ) tales que L(y) = f . En otras palabras, la solucin general es la preimagen de f
por L:
L 1 f = y C 1 (I ) : L(y) = f = y C 1 (I ) : y 0 + p y = f

(Insistimos con la advertencia, ya hecha en el captulo de transformaciones lineales, de no confundir preimagen con funcin
inversa). En el caso particular de la ecuacin homgenea, la solucin general es la preimagen de la funcin nula, o sea el
ncleo del operador: L 1 (0) = Nu L.
Ecuaciones diferenciales y
178 sistemas de ecuaciones diferenciales

En lo que sigue veremos cmo la estructura de la solucin general es totalmente anloga a la que ya hemos estudiado para
los sistemas de ecuaciones lineales. Esto se debe a que resolver un sistema de ecuaciones lineales, tanto como resolver una
ecuacin diferencial lineal, consiste en estudiar preimgenes de una transformacin lineal.

Teorema 7.2

Dada una transformacin lineal T : V W entre dos espacios vectoriales V y W , dados w Im T y v p V tal que
T (v p ) = w, el conjunto de soluciones de la ecuacin

T (v) = w

es

A
T 1 (w) = v p + Nu T = v p + v h : v h Nu T

B
U
-
Demostracin:

a
Debemos probar una doble inclusin. Probaremos en primer lugar que todos los elementos de la forma v p + v h pertenecen
r
a T 1 (w). Para ello, alcanza con ver que T (v p + v h ) = T (v p ) + T (v h ) = w + 0 = w.
ie

Consideramos ahora un elemento v T 1 (w). Probaremos que es de la forma v p + v h para algn v h Nu T . En efecto, dado
en

que v T 1 (w) y que T es lineal, resulta T (v v p ) = T (v) T (v p ) = w w = 0. Por lo tanto v v p es un elemento de Nu T :


v v p = v h para algn v h Nu T , como queramos.
g
In

El resultado anterior es conocido para el caso de los sistemas de ecuaciones lineales: cualquier solucin es una solucin
e

particular v p sumada con algn elemento del ncleo, esto es, con una solucin del problema homogneo. Veamos cmo se
d

expresa en el caso de la ecuacin diferencial lineal.


d
a
lt

Teorema 7.3
cu

Sea y p una solucin particular de la ecuacin diferencial lineal (7.8). Entonces la funcin y C 1 (I ) es solucin de
a

dicha ecuacin si y slo si es de la forma y = y p + y h siendo y h una solucin de la ecuacin homognea asociada.
F

Este resultado nos dice que para hallar todas las soluciones de la ecuacin diferencial lineal alcanza con resolver la ecuacin
homognea asociada y hallar una solucin particular de la ecuacin no homognea.

En cuanto a la la ecuacin homognea, ya hemos mencionado que su conjunto solucin es el ncleo de L, por lo que se
trata de un subespacio de C 1 (I ). Dejamos como ejercicio para el lector adaptar la demostracin del teorema 7.1 al caso
homogneo y 0 + p y = 0, para ver que la solucin general es

y = C e P (t ) con C R

donde P (t ) es una primitiva de p(t ). Por lo tanto el ncleo del operador L est generado por e P (t ) y es un subespacio de
dimensin uno. Resumimos estas observaciones en un teorema.
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 179

Teorema 7.4

Consideramos la ecuacin diferencial homognea

y0 + py = 0

con p continua en un intervalo abierto I . Entonces

1 Si P (t ) es una primitiva de p(t ), entonces h (t ) = e P (t ) es una solucin no trivial de la ecuacin diferencial.

Dada cualquier solucin no trivial h de la ecuacin diferencial, h es una base de soluciones. Esto es, cual-

2

quier otra solucin es de la forma


y h = C h con C R

A
B
Ejercicio.

U
7.2 Considere el operador lineal

-
1
L : C 1 (0, +) C (0, +), L(y) = y 0 y
a
r t
Resuelva la ecuacin diferencial L(y) = 3t
ie
en

Encuentre Nu L.
g
In

Ejercicio. Considere una vez ms el problema de valor inicial del ejercicio 7.1.

Defina un operador lineal L : C 1 (I ) C (I ) que permita representar a la ecuacin diferencial.


e
d

Calcule el ncleo de dicho operador.


d

t
Calcule L 1 senh
a

t
lt

t
Elija el elemento de L 1 senh t que verifica la condicin inicial dada.
cu
a
F

7.4 Ecuacin diferencial lineal de segundo orden

En la introduccin de este captulo hemos visto ejemplos de ecuaciones diferenciales con derivadas segundas, como (7.2) y
(7.5). La forma general de la ecuacin diferencial lineal de segundo orden es

a 2 (t )y 00 + a 1 (t )y 0 + a 0 (t )y = b(t )

con a 2 (t ), a 1 (t ), a 0 (t ) y b(t ) funciones continuas en cierto intervalo abierto. Asumiendo que a 2 (t ) no se anula en dicho
intervalo, podemos reescribir la ecuacin como
a 1 (t ) 0 a 0 (t ) b(t )
y 00 + y + y=
a 2 (t ) a 2 (t ) a 2 (t )
Para la ecuacin de primer orden habamos exhibido un mtodo general de resolucin en 7.1. Como es de imaginar, el caso
de segundo orden presenta mayores dificultades. Por ello es que limitaremos nuestra atencin al caso en que las funciones
a 2 (t ), a 1 (t ) y a 0 (t ) son constantes.
Ecuaciones diferenciales y
180 sistemas de ecuaciones diferenciales

Definicin 7.2

Una ecuacin diferencial de la forma


y 00 + a 1 y 0 + a 0 y = f (t ) (7.11)

donde a 1 , a 0 R y f (t ) es una funcin continua en cierto intervalo abierto I , se denomina ecuacin diferencial lineal
de segundo orden con coeficientes constantes.

En el caso de que sea f (t ) = 0 para todo t I se dice que es una ecuacin homognea.

Si adems se buscan soluciones que verifiquen una condicin de la forma


(
y(t 0 ) = a
y 0 (t 0 ) = b

A
para cierto t 0 I y a, b dos valores dados, se tiene un problema de valores iniciales.

B
U
Muchos de los recursos y resultados acerca de la ecuacin de primer orden pueden adaptarse sin dificultad para la de segun-

-
do orden. Como en (7.10), si definimos un operador lineal

a
r
L : C 2 (I ) C (I ), L(y) = y 00 + a 1 y 0 + a 0 y (7.12)
ie

resolver la ecuacin de segundo orden definida en 7.2 equivale a encontrar la preimagen de f por L:
en

L 1 f = y C 2 (I ) : L(y) = f = y C 2 (I ) : y 00 + a 1 y 0 + a 0 y = f
g


In

En particular, la solucin de la ecuacin homognea es L 1 (0), es decir el subespacio Nu L.


e
d

Aplicando el teorema 7.2 como en el caso de primer orden, podemos concluir nuevamente que las soluciones de la ecuacin
se obtienen con una solucin particular sumada a una solucin de la ecuacin homognea.
d
a

Teorema 7.5
lt
cu

Sea y p una solucin particular de la ecuacin diferencial lineal (7.11). Entonces la funcin y C 2 (I ) es solucin de
a

dicha ecuacin si y slo si es de la forma y = y p + y h con y h una solucin de la ecuacin homognea asociada.
F

Volvamos a pensar la ecuacin diferencial (7.2) con que describimos la cada libre de los cuerpos

y 00 = g

aplicando ahora los conceptos que hemos estudiado. Ya sabemos que la solucin general es la descrita en (7.3)
1
y(t ) = g t 2 + At + B con A, B R
2

y ahora podemos sealar que y p = 12 g t 2 es una solucin particular, mientras que las funciones de la forma At +B con A, B R
son soluciones de la ecuacin homognea asociada
y 00 = 0

o, si se prefiere, constituyen el ncleo del operador lineal

L : C 2 (I ) C (I ), L(y) = y 00
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 181

Queremos destacar que


Nu L = gen {t , 1}
es decir, que el ncleo del operador L es de dimensin dos.

Parece razonable conjeturar que el ncleo de cualquier operador de la forma (7.12) ser de dimensin dos. Ms adelante
probaremos que esto es efectivamente cierto, lo cual resulta de gran importancia. En efecto, si el ncleo del operador es de
dimensin dos, est generado por dos funciones y 1 , y 2 linealmente independientes. Luego para resolver una ecuacin como
la definida en 7.2 alcanzar con

1. Encontrar dos soluciones y 1 , y 2 de la ecuacin homognea que sean linealmente independientes.

2. Encontrar una solucin particular y p de la ecuacin.

y la solucin general ser de la forma

A
y p + Ay 1 + B y 2 con A, B R (7.13)

B
El ejemplo que sigue ilustra este mtodo.

U
Ejemplo 7.3

-
Consideramos el problema de valores iniciales

a

00 2
r
y 9y = t + 2

ie

y(0) = 0
0
en


y (0) = 1

En primer lugar buscamos las soluciones de la ecuacin homognea, sabiendo que alcanza con encontrar dos solu-
g
In

ciones independientes:
y 00 9y = 0 y 00 = 9y
e

Como se trata de una funcin cuya derivada segunda es un mltiplo de la misma funcin, proponemos soluciones de
d

la forma y(t ) = e r t para algn factor r a determinar. Reemplazando en la ecuacin obtenemos


d

r 2 e r t 9e r t = 0 e r t r 2 9 = 0

a
lt

y como e r t > 0 para cualquier valor de t R, debe ser


cu

2
r 9 = 0
a
F

con lo cual es r = 3 r = 3 y obtenemos las soluciones

y 1 (t ) = e 3t y 2 (t ) = e 3t

Dejamos como ejercicio comprobar que son efectivamente linealmente independientes. Luego, las soluciones de la
ecuacin homognea son de la forma
Ae 3t + B e 3t con A, B R
Buscamos ahora una solucin particular. Dado que la ecuacin contiene derivadas que deben dar por resultado un
polinomio, podemos suponer que existe una solucin polinmica. Proponemos entonces una funcin de la forma
y p (t ) = C t 2 + D t + E . Al reemplazar en la ecuacin queda

2C 9(C t 2 + D t + E ) = t 2 + 2 9C t 2 9D t + 2C 9E = t 2 + 2

e igualando los coeficientes de los polinomios deducimos que


1 20
C = D =0 E =
9 81
Ecuaciones diferenciales y
182 sistemas de ecuaciones diferenciales

de modo tal que la solucin particular es


1 20
y p (t ) = t 2
9 81
y la solucin general resulta
1 20
t2 + Ae 3t + B e 3t con A, B R
9 81
De toda esta familia de funciones debemos elegir aquella funcin y(t ) que verifique las condiciones iniciales:

20
y(0) = + A +B = 0
81
y 0 (0) = 3A 3B = 1

47 7
de donde deducimos que A = 162 y B = 162 . La solucin al problema de valores iniciales resulta

A
1 20 47 3t 7 3t
y(t ) = t 2 + e e

B
9 81 162 162

U
-
Ejercicio.

7.3 Resuelva el siguiente problema de valores iniciales


a
r
ie

00 2
y 4y = t + t

en

y(0) = 1
0

y (0) = 0
g
In
e
d

7.5 La ecuacin homognea de segundo orden


d
a
lt

Como ya habamos anticipado en la seccin anterior, probaremos que el conjunto solucin de la ecuacin homognea
cu

y 00 + a 1 y 0 + a 0 = 0 (7.14)
a

definida en 7.2 es un subespacio de C 2 (I ) de dimensin dos. Ms aun, indicaremos un mtodo para calcular las soluciones.
F

La demostracin es un poco extensa y los lectores que tan slo busquen un resumen del mtodo podrn encontrarlo en los
teoremas de esta seccin. Para los lectores ms curiosos ofrecemos los lineamientos de la demostracin, aunque omitimos
algunos detalles. Consideramos que leer cuidadosamente los argumentos puede ser un buen repaso de los temas estudiados
hasta ahora y abrir un interesante panorama acerca de cmo se aplican las ideas del lgebra lineal.

Comenzamos con una definicin que nos permitir caracterizar al operador definido en (7.12).

Definicin 7.3

Adoptando la notacin
D y = y0 D 2 y = D(D y) = y 00 ... D n y = y (n) ...

y dado un polinomio p(r ) = a n r n + a n1 r n1 + ... + a 1 r + a 0 definimos el operador lineal

p(D) : C n (I ) C (I ), p(D)y = a n D n y + a n1 D n1 y + ... + a 1 D y + a 0 y


Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 183

N Destacamos la completa analoga que existe entre el operador p(D) y el polinomio matricial p(A) estudiado en el
captulo 4: en el caso de p(A) la matriz A tambin representa un operador, aunque entre espacios de dimensin
finita.

Con la definicin 7.3 podemos reescribir la ecuacin homognea (7.14) como

p(D)y = 0 con p(r ) = r 2 + a 1 r + a 0 (7.15)

En lo que sigue, aprovecharemos la factorizacin de este polinomio para resolver la ecuacin.

Ejemplo 7.4

Consideramos la ecuacin homognea

A
y 00 + y 0 2y = 0 D 2 y + D y 2y = 0 (D 2 + D 2)y = 0

B
En este caso, el polinomio definido en (7.15) es p(r ) = r 2 + r 2 = (r 1)(r + 2). Veamos que el operador (D 2 + D

U
2) puede factorizarse como (D 1)(D + 2). Para ello, probamos que (D 1)(D + 2) aplicado a cualquier funcin da
exactamente lo mismo que la aplicacin de (D 2 + D 2). Usamos las definiciones y la propiedad asociativa de los

-
operadores:

a

r
(D 1)(D + 2)y = (D 1) (D + 2)y
ie

= (D 1)(D y + 2y)
en

= D(D y + 2y) (D y + 2y)


g

= (D 2 + D 2)y
In

La ecuacin original puede escribirse entonces como


e


(D 1)(D + 2)y = 0 (D 1) (D + 2)y = 0
d

vale decir que la funcin (D + 2)y debe ser un elemento del ncleo del operador (D 1). Este ncleo no es difcil de
d
a

calcular:
lt

(D 1)v = 0 D v = v v = ke t con k R
cu

Hemos reducido la ecuacin original a la ecuacin de primer orden


a

(D + 2)y = ke t y 0 + 2y = ke t (7.16)
F

que podemos resolver multiplicando por el factor integrante e 2t :

e 2t y 0 + e 2t 2y = ke 3t
2t 0
e y = ke 3t
k 3t
e 2t y = e +C 2 con C 2 R
3

Entonces la solucin general de (7.16), que coincide con la de la ecuacin homognea, es el conjunto de funciones de
la forma
k
y(t ) = e t +C 2 e 2t
3
y renombrando las constantes queda

y(t ) = C 1 e t +C 2 e 2t con C 1 ,C 2 R
Ecuaciones diferenciales y
184 sistemas de ecuaciones diferenciales

Los argumentos usados en el ejemplo anterior se pueden adaptar a cualquier caso en que las races del polinomio p(r ) =
r 2 + a 1 r + a 0 sean dos nmeros reales distintos. De all el inters en la siguiente definicin.

Definicin 7.4

Dada una ecuacin diferencial como la definida en 7.2, la ecuacin

r 2 + a1 r + a0 = 0

se conoce como su ecuacin caracterstica.

Dejamos como ejercicio para el lector generalizar el trabajo hecho en el ejemplo para demostrar el teorema siguiente.

Teorema 7.6 (Races reales distintas)

A
B
Si la ecuacin caracterstica de la ecuacin homognea (7.14) tiene dos races reales distintas r 1 y r 2 , entonces
r t r t

U
e 1 , e 2 es una base del conjunto de soluciones y la solucin general est formada por las funciones de la forma

y = C 1 e r 1 t +C 2 e r 2 t con C 1 ,C 2 R

-
a
r
ie

Ejercicio.
en

7.4 Resuelva el siguiente problema de valores iniciales


g


In

00 0
y + y 12y = 0

y(0) = 1
e

0

y (0) = 2
d
d

Si la ecuacin caracterstica tiene una raz real doble, no podremos encontrar dos soluciones independientes de la forma
a

e r 1 t , e r 2 t . El teorema que sigue caracteriza al conjunto solucin de tal caso.


lt
cu

Teorema 7.7 (Raz real doble)


a

Si la ecuacin caracterstica de la ecuacin homognea (7.14) tiene una raz real doble r 1 , entonces t e r 1 t , e r 1 t es una

F

base del conjunto de soluciones y la solucin general est formada por las funciones de la forma

y = C 1 t e r 1 t +C 2 e r 1 t con C 1 ,C 2 R

Demostracin:
Como en este caso es (r r 1 )2 = 0, la ecuacin (7.14) se escribe como

(D r 1 )(D r 1 )y = 0 (D r 1 ) (D r 1 )y = 0

Luego la funcin (D r 1 )y debe ser un elemento del ncleo del operador (D r 1 ). Vale decir que (D r 1 )y debe ser de la
forma
(D r 1 )y = C 1 e r 1 t con C 1 R
De esta forma, la ecuacin original es equivalente a la ecuacin de primer orden

y 0 r 1 y = C 1 e r1 t (7.17)
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 185

Al multiplicar por el factor integrante e r 1 t obtenemos

e r 1 t y 0 r 1 e r 1 t y = C 1
r t 0
e 1 y = C1
e r 1 t y = C 1 t +C 2 con C 2 R

Luego la solucin general de la ecuacin (7.17) y por ende de la ecuacin homognea, es

y(t ) = C 1 t e r 1 t +C 2 e r 1 t

Queda como ejercicio verificar que las funciones t e r 1 t y e r 1 t son independientes.

Ejercicio.

A
B
7.5 Resuelva el siguiente problema de valores iniciales

U

00 0
y + 4y + 4y = 0

-
y(0) = 1
0

y (0) = 0
a
r
ie

Siendo el polinomio definido en (7.15) con coeficientes reales, slo nos queda por considerar el caso en que tiene dos races
en

complejas conjugadas. Para poder pensar esta situacin, consideraremos funciones de I C donde I es un intervalo abierto
en R. Podemos representarlas con la forma general
g
In

f (t ) = u(t ) + i v(t )
e

donde u(t ) y v(t ) son funciones de I R. En caso de que u(t ) y v(t ) sean derivables, la derivacin se define mediante3
d

f 0 (t ) = u 0 (t ) + i v 0 (t )
d
a
lt

La resolucin de las ecuaciones diferenciales que hemos estudiado puede extenderse sin dificultades a esta clase de funcio-
cu

nes. En particular, prestaremos atencin a la funcin exponencial e i t . De acuerdo con la frmula de Euler, es
a

e i t = cos t + i sen t
F

Luego, definiendo para b R la funcin

f : R C, f (t ) = e i bt = cos(bt ) +i sen(bt )
| {z } | {z }
u(t ) v(t )

resulta
0
e i bt = b sen(bt ) + i b cos(bt )

= i b [cos(bt ) + i sen(bt )]
= i be i bt

como poda esperarse.


3 Esta escueta presentacin de las funciones con valores complejos no pretende ser rigurosa. Remitimos a los lectores interesados en el tema a cualquier

texto de anlisis matemtico.


Ecuaciones diferenciales y
186 sistemas de ecuaciones diferenciales

Ejercicio. Demuestre que para cualquier nmero complejo z = a + bi resulta


zt 0
e = ze zt

Usando estas funciones y sus propiedades, se puede probar un teorema totalmente anlogo al 7.6 demostrado para races
reales distintas, con lo cual la solucin general est formada por las funciones de la forma

y = z1 e r1 t + z2 e r2 t

donde r 1 = a +bi y r 2 = a bi son las races conjugadas y z 1 , z 2 C. Usualmente, de toda esta familia ampliada de soluciones
interesan las funciones a valores reales, como las que habamos obtenido en los problemas anteriores. Para hallar estas
funciones a valores reales, debemos desarrollar la expresin de la solucin general:

z 1 e r 1 t + z 2 e r 2 t = z 1 e (a+bi )t + z 2 e (abi )t

A
= z 1 e at e bi t + z 2 e at e bi t

B
U
= z 1 e at [cos(bt ) + i sen(bt )] + z 2 e at [cos(bt ) i sen(bt )]
= e at [(z 1 + z 2 ) cos(bt ) + (i z 1 i z 2 ) sen(bt )]

-
a
Dado que z 1 , z 2 C son arbitrarias pueden elegirse de manera que verifiquen el sistema (siempre compatible)
r
ie

z1 + z2 = C 1
en

i z1 i z2 = C 2
g

donde C 1 ,C 2 son arbitrarios. En resumen, las soluciones son de la forma


In

e at [C 1 cos(bt ) +C 2 sen(bt )]
e
d

y llegamos a la solucin general de la ecuacin homognea con funciones reales.


d

Teorema 7.8 (Races complejas conjugadas)


a
lt

Si la ecuacin caracterstica de la ecuacin homognea (7.14) tiene dos races complejas conjugadas r 1 = a + bi y
cu

r 2 = a bi (con b 6= 0), entonces e at cos(bt ), e at sen(bt ) es una base del conjunto de soluciones y la solucin general

est formada por las funciones de la forma


a
F

y = C 1 e at cos(bt ) +C 2 e at sen(bt ) con C 1 ,C 2 R a


a Eventualmente, estas constantes podran ser nmeros complejos, aunque en esta exposicin nos restringimos a las funciones con valores

reales.

Ejemplo 7.5 (Problema de valores en la frontera)

Consideramos la ecuacin diferencial


y 00 + 16y = 0

cuya ecuacin caracterstica es r 2 + 16 = 0. Sus races son los nmeros complejos conjugados r 1 = 4i y r 2 = 4i . De
acuerdo con el teorema 7.8, una base del conjunto de soluciones ser e 0t cos(4t ), e 0t sen(4t ) = {cos(4t ), sen(4t )}. La

solucin general es
y = C 1 cos(4t ) +C 2 sen(4t ) con C 1 ,C 2 R
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 187

En las aplicaciones, es muy comn encontrar problemas en que la solucin debe verificar ciertas condiciones en
los extremos de un intervalo. Es lo que se conoce como un problema con valores en la frontera. Consideremos, por
ejemplo, el problema
00
y + 16y = 0

y(0) = 0


y 8 =1

Al evaluar la solucin general en t = 0 deducimos que debe ser C 1 = 0, mientras que al evaluar en t = 8 deducimos
que C 2 = 1. Por lo tanto, la nica solucin al problema de valor en la frontera es

y(t ) = sen(4t )

Ejercicio.

A
B
7.6 Resuelva, cuando sea posible, los siguientes problema de valores en la frontera

U

00 00
y + 16y = 0
y + 16y = 0

-
y(0) = 0 y(0) = 0

a

y 4 =0 r y 4 =1
ie

Ejercicio.
en

7.7 Resuelva el siguiente problema de valores iniciales


g
In


00 0
y 2y + 5y = 0

y(0) = 2
e

0

y (0) = 1
d
d
a
lt

7.6 Mtodo de los coeficientes indeterminados


cu
a
F

Como ya sealamos en el teorema 7.5, para resolver la ecuacin de segundo orden definida en 7.2 necesitamos la solucin ge-
neral de la ecuacin homognea y una solucin particular. En la seccin anterior hemos indicado cmo resolver la ecuacin
homognea. En cuanto a encontrar una solucin particular, en el ejemplo 7.3 lo hicimos basndonos en una conjetura: dado
que el trmino independiente de la ecuacin era un polinomio, propusimos como solucin un polinomio con coeficientes a
determinar. Veamos algunos ejemplos ms en que se usan recursos similares.

Ejemplo 7.6

Consideramos la ecuacin diferencial


y 00 2y 0 + y = 3e 2t
cuya ecuacin caracterstica es r 2 2r +1 = (r 1)2 = 0. De acuerdo con el teorema 7.7, la solucin general del problema
homogneo tiene a todas las funciones de la forma

y = C 1 t e t +C 2 e t con C 1 ,C 2 R

Para encontrar una solucin particular, observamos que las derivadas de cualquier orden de la funcin e 2t son ml-
Ecuaciones diferenciales y
188 sistemas de ecuaciones diferenciales

tiplos de la misma funcin. Luego, si la reemplazamos en la expresin y 00 2y 0 + y obtendremos un mltiplo de e 2t .


Para que ese mltiplo sea el adecuado, consideraremos la funcin y p (t ) = Ae 2t :

y p00 2y p0 + y p = 4Ae 2t 4Ae 2t + Ae 2t = Ae 2t = 3e 2t

de donde deducimos que A = 3; la solucin particular buscada es y p (t ) = 3e 2t y la solucin general resulta

y = 3e 2t +C 1 t e t +C 2 e t con C 1 ,C 2 R

Ejemplo 7.7

Consideramos ahora el caso

A
y 00 3y 0 + 2y = 3e t

B
En este caso, la ecuacin caracterstica es r 2 3r + 2 = (r 1)(r 2) = 0. De acuerdo con el teorema 7.6, la solucin

U
general de la ecuacin homognea tiene a todas las funciones de la forma

-
y = C 1 e t +C 2 e 2t con C 1 ,C 2 R

a
r
La novedad en este problema es que no podemos proponer soluciones de la forma y p (t ) = Ae t , puesto que son so-
ie

luciones del problema homogneo y se anulan al reemplazarlas en la expresin y 00 3y 0 + 2y. Proponemos entonces
y p (t ) = At e t . Antes de reemplazar en la ecuacin, calculamos las derivadas necesarias:
en
g

y p0 = Ae t + At e t
In

y p00 = Ae t + Ae t + At e t = 2Ae t + At e t
e

y entonces
d

3e t = y p00 3y p0 + 2y p
d
a

= 2Ae t + At e t 3 Ae t + At e t + 2At e t

lt

= Ae t
cu

de donde deducimos que A = 3; la solucin particular buscada es y p (t ) = 3t e t y la solucin general resulta


a
F

y = 3t e t +C 1 e t +C 2 e 2t con C 1 ,C 2 R

Ejemplo 7.8

La ecuacin
y 00 3y 0 + 2y = 2 cos t

tiene asociada la misma ecuacin homognea que el ejemplo anterior. Slo nos falta entones encontrar una solu-
cin particular. En este caso, debemos tener en cuenta que las derivadas de la funcin coseno son, alternativamente,
mltiplos del seno y del coseno. Proponemos entonces y p (t ) = A cos t + B sen t y calculamos las derivadas necesarias:

y p0 = A sen t + B cos t
y p00 = A cos t B sen t
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 189

y entonces

2 cos t = y p00 3y p0 + 2y p
= A cos t B sen t 3 (A sen t + B cos t ) + 2 (A cos t + B sen t )
= (A 3B ) cos t + (3A + B ) sen t

Dado que cos t y sen t son funciones linealmente independientes, existe una nica combinacin lineal de ellas que da
la funcin 2 cos t . Esto justifica que podamos igualar los coeficientes respectivos y plantear el sistema de ecuaciones

A 3B = 2
3A + B = 0

1
de donde deducimos que A = 5 y B = 35 ; la solucin particular buscada es y p (t ) = 51 cos t 35 sen t y la solucin general

A
resulta
1 3

B
y= cos t sen t +C 1 e t +C 2 e 2t con C 1 ,C 2 R
5 5

U
-
Los ejemplos anteriores ilustran los recursos que usualmente se usan cuando el trmino independiente de la ecuacin dife-

a
r
rencial es un polinomio, una exponencial, un seno o un coseno. Creemos que deberan ser claros e indicar cmo proceder en
cada situacin. De todos modos, dejamos asentada una expresin general del mtodo, cuya comprobacin puede buscarse
ie

en la bibliografa.
en
g

Proposicin 7.1 (Mtodo de los coeficientes indeterminados)


In

Si en la ecuacin diferencial
y 00 + a 1 y 0 + a 0 y = f (t )
e
d

definida en 7.2 la funcin f (t ) es de la forma


d

f (t ) = q(t )e t cos(t ) f (t ) = q(t )e t sen(t )


a


lt

donde q es un polinomio a coeficientes reales y , R, entonces existe una solucin particular de la forma
cu

y p (t ) = t s e t q 1 (t ) cos(t ) + q 2 (t ) sen(t )
a

donde q 1 y q 2 son polinomios a coeficientes reales de grado menor o igual que el de q y s es la multiplicidad de + i
como raz de la ecuacin caracterstica (en particular, s = 0 si + i no es raz).

Dejamos como ejercicio para el lector comprobar que todos los ejemplos anteriores se pueden interpretar como casos par-
ticulares de esta proposicin.

N Una pregunta que naturalmente surge en este contexto es cmo encontrar una solucin particular cuando no se
cumplen las condiciones del mtodo de los coeficientes indeterminados, vlido tan slo para una clase reducida
de funciones. Aunque no lo expondremos en este curso, mencionamos que existe un mtodo general conocido
como variacin de parmetros. Remitimos a los lectores interesados a la bibliografa de ecuaciones diferenciales.
Ecuaciones diferenciales y
190 sistemas de ecuaciones diferenciales

Ejercicio.

7.8 Resuelva los siguientes problemas de valores iniciales



00 0 3t 00 2 t
y 6y + 9y = e
y 9y = t e

y(0) = 1 y(0) = 1
0
0

y (0) = 1 y (0) = 0

7.7 Sistemas de ecuaciones diferenciales

A
Para presentar este tema, comenzaremos planteando un modelo de crecimiento de una poblacin (entendida en sentido

B
amplio: podra ser de humanos, animales, plantas...). Una primera aproximacin al problema sera considerar que el creci-
miento es proporcional a la cantidad de individuos que dicha poblacin tiene. Adoptando la notacin x(t ) para representar

U
la cantidad de individuos en funcin del tiempo, la ecuacin diferencial

-
x 0 (t ) = kx(t )
a
r
representa nuestro modelo: x 0 da cuenta de la variacin de individuos por unidad de tiempo, que resulta proporcional a la
ie

cantidad de individuos que la poblacin efectivamente tiene.4 La constante de proporcionalidad k es un dato emprico de
en

cada poblacin. La solucin general de esta ecuacin es


g

x(t ) = C e kt con C R
In

y la primera objecin que puede hacerse a este modelo es que la poblacin tiende a infinito conforme avanza el tiempo (si
e
d

k > 0). Evidentemente, se trata de un modelo poco realista, que no tiene en cuenta las limitaciones con que se encuentra una
poblacin creciente. Un modelo un poco ms sofisticado es el que admite las poblaciones x 1 (t ) y x 2 (t ) de dos especies que
d

interactan. Las ecuaciones


a
lt

x 10 (t ) = a 11 x 1 (t ) + a 12 x 2 (t )
cu

x 20 (t ) = a 21 x 1 (t ) + a 22 x 2 (t )
a
F

(donde a 11 , a 12 , a 21 , a 22 R) reflejan esta interaccin, puesto que el cambio de cada poblacin depende de las dos especies.
Consideremos el caso en que x 1 (t ) es una poblacin de ratones y x 2 (t ) de lechuzas: estamos frente a un modelo de predador-
presa. La cantidad de ratones tender a aumentar proporcionalmente a si misma, pero disminuir proporcionalmente a la
cantidad de lechuzas que los cazan. Vale decir que deber ser a 11 > 0 y a 12 < 0. A su vez, la poblacin de lechuzas deber cre-
cer proporcionalmente a la cantidad de ratones disponibles para alimentarse. Por otra parte, cuanto mayor sea la poblacin
de lechuzas menor disponibilidad de alimento tendr para cada individuo. Esto permite suponer que ser a 21 > 0 y a 22 < 0.
Para ilustrar este modelo, consideramos el sistema de ecuaciones diferenciales5

x 10 (t ) = 1x 1 (t ) 2x 2 (t )
x 20 (t ) = 2x 1 (t ) 4x 2 (t )
4 Cualquier poblacin tiene una cantidad entera de individuos. Al pensarla como una funcin derivable x(t ) que puede asumir valores fraccionarios

estamos haciendo una simplificacin que nos permite aplicar los recursos del clculo.
5 El lector debe estar al tanto de todas las simplificaciones que se han hecho en este modelo y, por ende, reconocer sus limitaciones. Los modelos biol-

gicos ms sofisticados exceden los propsitos de este ejemplo.


Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 191

Para resolver este sistema lo representamos matricialmente


" # " #" #
x 10 (t ) 1 2 x 1 (t )
=
x 20 (t ) 2 4 x 2 (t )
| {z } | {z } | {z }
X 0 (t ) A X (t )

y realizamos una diagonalizacin de la matriz A:


" #" #" #
1 2 3 0 1/3 2/3
A=
2 1 0 0 2/3 1/3
| {z } | {z }| {z }
P D P 1

Entonces el sistema original puede escribirse como

X 0 = AX = P DP 1 X

A
Multiplicando a izquierda por P 1 queda

B
P 1 X 0 = DP 1 X

U
Dado que P 1 es una matriz que contiene constantes, las reglas usuales de derivacin nos permiten escribir

-
1 0
P X = D P 1 X

a
De esta forma, el cambio de variable Y (t ) = P 1 X (t ) transforma al sistema original en un sistema desacoplado
r
ie
" # " #" # " # (
0 y 10 (t ) 3 0 y 1 (t ) 3y 1 (t ) y 10 (t ) = 3y 1 (t )
Y = DY = =
en

0
y 2 (t ) 0 0 y 2 (t ) 0 y 20 (t ) = 0
g

donde cada funcin incgnita se encuentra en una ecuacin diferencial lineal sin vnculo con la otra. La resolucin en este
In

caso es
" # " #
y 1 (t ) C 1 e 3t
e

= con C 1 ,C 2 R
y 2 (t ) C2
d

y para conocer la solucin del problema original deshacemos el cambio de variables:


d
a

" #" # " #


1 2 C 1 e 3t C 1 e 3t + 2C 2
lt

X (t ) = P Y (t ) = = con C 1 ,C 2 R
2 1 C2 2C 1 e 3t +C 2
cu

o sea que
a

x 1 (t ) = C 1 e 3t + 2C 2
F

x 2 (t ) = 2C 1 e 3t +C 2

Las constantes C 1 ,C 2 R quedan determinadas por las condiciones iniciales. Si, por ejemplo, la poblacin inicial de ratones
cuenta con 500 individuos y la de lechuzas con 400, al evaluar la solucin general en t = 0 queda el sistema de ecuaciones

C 1 + 2C 2 = 500
2C 1 +C 2 = 400

de donde se deduce que C 1 = 100 y C 2 = 200 y por ende

x 1 (t ) = 100e 3t + 400
x 2 (t ) = 200e 3t + 200

El modelo predice que a medida que pasa el tiempo, las poblaciones de ratones y lechuzas tendern a estabilizarse en 400 y
200 individuos respectivamente. Ms an, en la solucin general general se aprecia que, para cualquier condicin inicial, la
poblacin de ratones tender a duplicar a la de lechuzas.
Ecuaciones diferenciales y
192 sistemas de ecuaciones diferenciales

Ejercicio.

7.9 Considere el siguiente sistema de ecuaciones diferenciales

x 10 (t ) = 3x 1 (t ) x 2 (t )
x 20 (t ) = 2x 1 (t ) + 2x 2 (t )

Encuentre la solucin que verifica las condiciones iniciales x 1 (0) = 50 x 2 (0) = 250.

Qu tipo de relacin podra estar representando este sistema? D un ejemplo.

La definicin que sigue generaliza el problema que hemos estudiado en el ejemplo.

A
Definicin 7.5

B
Un sistema de ecuaciones diferenciales de la forma

U

x 0 (t ) = a 11 x 1 (t ) + ... + a 1n x n (t ) + f 1 (t )
1

-


..
.
a

0
r
x n (t ) = a n1 x 1 (t ) + ... + a nn x n (t ) + f n (t )
ie

donde las funciones derivables x i (t ) son las incgnitas, los coeficientes a i j R son constantes y las f i (t ) son funciones
en

continuas en cierto intervalo abierto I , se denomina sistema de ecuaciones diferenciales lineales con coeficientes
constantes.
g
In

Adoptando la notacin
e

x 10 (t )

d

x 1 (t ) a 11 a 1n f 1 (t )
.. .. . .. .. ..
X 0 (t ) =

X (t ) = A = .. F (t ) =
d

. . . . .


a

x n (t ) x n0 (t ) a n1 a nn f n (t )
lt
cu

el sistema puede escribirse como


X 0 = AX + F
a
F

En el caso de que sea F (t ) = 0 para todo t I se dice que es un sistema homogneo.

Si adems se buscan soluciones que verifiquen una condicin de la forma X (t 0 ) = X 0 para ciertos t 0 I y X 0 Rn , se
tiene un problema de valores iniciales.

Como ya hicimos en el caso de la ecuacin de segundo orden, comenzaremos estudiando el caso homogneo para luego
pasar al general.

7.8 Sistemas homogneos

En los textos de ecuaciones diferenciales se demuestra que cualquier sistema homogneo en las condiciones que estamos
estudiando tiene una solucin general, que dicha solucin es un subespacio del espacio de funciones C 1 (I , Rn ) y que la
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 193

dimensin de ese subespacio es n. Nuestro estudio se limitar al caso en que la matriz es diagonalizable, para el que aplica-
remos los mismos recursos que en el ejemplo de la seccin anterior.

Teorema 7.9

Dado un sistema de ecuaciones lineales homogneo

X 0 = AX

con las condiciones definidas en 7.5, si existe una base {v 1 , ..., v n } de Rn compuesta por autovectores de A de modo tal
que Av i = i v i con i = 1, ..., n y i R, entonces
n o
e 1 t v 1 , ..., e n t v n

A
es una base del espacio de soluciones del sistema.

B
U
Demostracin:
Planteamos en primer lugar la diagonalizacin de la matriz de coeficientes del sistema: A = P DP 1 donde

-
a 1

0 0
r
0 2 0
ie
h i
P= v1 v2 vn D = .. .. .. ..
.

en

. . .
0 0 n
g
In

Al reemplazar en el sistema obtenemos


0
X 0 = P DP 1 X P 1 X = D P 1 X

e
d

con lo cual el cambio de variable Y = P 1 X conduce al sistema


d
a


0
y 1 (t )
= 1 y 1 (t )
lt

.. ..

Y 0 = DY . .
cu


= n y n (t )
0

y n (t )
a
F

Dado que las ecuaciones estn desacopladas, la solucin se calcula inmediatamente como

C 1 e 1 t

..
con C 1 , ...,C n R

Y (t ) =
.


C n e n t

Para conocer la solucin del sistema deshacemos el cambio de variables:

C 1 e 1 t

.. = C 1 e 1 t v 1 + ... +C n e n t v n con C 1 , ...,C n R



X (t ) = P Y (t ) = P
.
C n e n t

Esto prueba que el conjunto e 1 t v 1 , ..., e n t v n genera todas las soluciones. Para probar su independencia lineal, planteamos

la combinacin lineal que da la funcin nula:

C 1 e 1 t v 1 + ... +C n e n t v n = 0 t I
Ecuaciones diferenciales y
194 sistemas de ecuaciones diferenciales

Ahora bien, como los vectores v 1 , ..., v n son independientes, los coeficientes deben ser nulos:

C 1 e 1 t = 0
..
.
C n e n t = 0

y dado que las funciones exponenciales no se anulan, se deduce que C 1 = ... = C n = 0, como queramos.

Ejemplo 7.9

Resolveremos el siguiente sistema de ecuaciones diferenciales

x 10 (t ) = x 1 (t ) + x 2 (t )

A
x 20 (t ) = x 1 (t ) + 2x 2 (t ) 3x 3 (t )

B
x 30 (t ) = x 1 (t ) + x 2 (t ) 2x 3 (t )

U
-
a
cuya matriz de coeficientes r
1 1 0
ie
A= 1 2 3

1 1 2
en

es diagonalizable y sus autoespacios son


g
In

S 2 = gen [1 1 1]t S 1 = gen [1 2 1]t S 0 = gen [1 1 1]t



e

Por lo tanto, la solucin general es


d

C 1 e 2t +C 2 e t +C 3

1 1 1
d

X (t ) = C 1 e 2t 1 +C 2 e t 2 +C 3 1 = C 1 e 2t + 2C 2 e t +C 3
a


lt

1 1 1 C 1 e 2t +C 2 e t +C 3
cu

donde C 1 ,C 2 ,C 3 R.
a
F

Ejercicio.

7.10 Considere el siguiente sistema de ecuaciones diferenciales

x 10 (t ) = x 2 (t ) x 3 (t )
x 20 (t ) = 2x 2 (t ) 2x 3 (t )
x 30 (t ) = x 2 (t ) x 3 (t )

y encuentre la solucin general.

De manera similar a lo que haba ocurrido en el caso de las ecuaciones diferenciales de segundo orden, es posible que la ma-
triz de coeficientes del sistema tenga autovalores complejos. En tal caso, vale un teorema como 7.9 admitiendo autovalores
complejos y autovectores en Cn . La demostracin es idntica a la que hemos hecho para el caso real. Como en las ecuaciones
de segundo orden, ser de inters encontrar una base de soluciones en R.
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 195

Ejemplo 7.10

Resolvamos el sistema X 0 = AX con " #


4 3
A=
3 4

Los autovalores son dos nmeros complejos conjugados: 1 = 4 3i y 2 = 4 + 3i . Los autoespacios asociados son

S 1 = gen [1 i ]t S 2 = gen [1 i ]t

y por lo tanto la solucin general del sistema es


" # " #
(43i )t 1 (4+3i )t 1
X (t ) = C 1 e +C 2 e
i i

A
donde C 1 ,C 2 C. Para encontrar funciones de I R que generen la solucin general, desarrollamos la expresin
obtenida:

B
U
" # " #
4t 1 4t 1
X (t ) = C 1 e [cos(3t ) i sen(3t )] +C 2 e [cos(3t ) + i sen(3t )]
i i

-
" # " #

a
4t C 1 cos(3t ) +C 2 cos(3t ) 4t C 1 sen(3t ) +C 2 sen(3t )
=e +ie
r
C 1 sen(3t ) +C 2 sen(3t ) C 1 cos(3t ) C 2 cos(3t )
ie
" # " #
4t cos(3t ) 4t sen(3t )
= (C 1 +C 2 )e + i (C 1 C 2 )e
en

sen(3t ) cos(3t )
g

y podemos entonces decir que todas las soluciones de I R son de la forma


In

" # " #
4t cos(3t ) 4t sen(3t )
X (t ) = D 1 e + D2e
e

sen(3t ) cos(3t )
d

con D 1 , D 2 R.
d
a
lt

Queremos destacar que las dos soluciones independientes


cu

" # " #
4t cos(3t ) 4t sen(3t )
1 (t ) = e 2 (t ) = e
a

sen(3t ) cos(3t )
F

son las partes real e imaginaria, respectivamente, de la solucin


" #
4t 1
e [cos(3t ) i sen(3t )]
i

obtenida a partir de 1 .

Al final del ejemplo anterior sealamos que las partes real e imaginaria de una solucin eran a su vez dos soluciones reales.
Este hecho no es una casualidad sino que puede generalizarse adaptando el desarrollo hecho en el ejemplo.
Ecuaciones diferenciales y
196 sistemas de ecuaciones diferenciales

Teorema 7.10

Dado un sistema de ecuaciones lineales homogneo

X 0 = AX

con las condiciones definidas en 7.5, si la matriz A tiene un autovalor complejo = a+bi (con b 6= 0) con un autovector
asociado v entonces

1 Las funciones a valores complejos

1 (t ) = e t v y 2 (t ) = e t v

son dos soluciones independientes del sistema.

A
2 2 (t ) = 1 (t )

B
3 Las partes real e imaginaria de 1 (t ) son soluciones a valores reales del sistema y resultan linealmente indepen-

U
dientes.

-
a
Demostracin: r
Veamos que 1 (t ) es solucin:
ie

01 (t ) = e t v = e t Av = A e t v = A1 (t )
en

El caso de 2 (t ) se basa en el hecho (estudiado en el captulo 4) de que para matrices reales el conjugado de un autovalor
g

tambin es autovalor, con autovector conjugado:


In

Av = Av = v = v
e
d

y se demuestra de manera anloga. La independencia lineal surge de plantear la combinacin que da la funcin nula
d

C 1 1 (t ) +C 2 2 (t ) = 0 C 1 e t v +C 2 e t v = 0
a
lt

y recordar que a autovalores distintos corresponden autovectores independientes, con lo cual deben ser
cu

C 1 e t = C 2 e t = 0
a
F

y necesariamente C 1 = C 2 = 0.

La propiedad 2 es una consecuencia inmediata de las propiedades de la conjugacin y se deja como ejercicio.

Para demostrar 3 , sealamos que por ser el conjunto solucin del sistema homogneo un subespacio, cualquier combina-
cin lineal
C 1 1 (t ) +C 2 2 (t ) = C 1 1 (t ) +C 2 1 (t ) (7.18)

ser solucin. Recordando entonces que las parte real e imaginaria de un nmero complejo z surgen de

z +z z z
Re z = Im z =
2 2i

podemos elegir en la expresin (7.18) las combinaciones lineales con C 1 = C 2 = 12 :

1 (t ) + 1 (t )
= Re 1 (t )
2
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 197

1 1
y con C 1 = 2i , C 2 = 2i :
1 (t ) 1 (t )
= Im 1 (t )
2i
La independencia lineal de Re 1 (t ) e Im 1 (t ) se deduce de la independencia de 1 y 2 y se dejan los detalles como ejerci-
cio.

Ejercicio.

7.11 Encuentre una base del espacio de soluciones del siguiente sistema de ecuaciones diferenciales

x 10 (t ) = 2x 1 (t ) x 2 (t )
x 20 (t ) = x 1 (t ) + 2x 2 (t )

A
B
U
7.9 Sistemas no homogneos

-
a
Al comenzar a estudiar sistemas de ecuaciones diferenciales vimos que si la matriz de coeficientes es diagonalizable, enton-
r
ces un cambio de variable permite resolver el caso homogneo. Veremos ahora que ese mismo cambio resuelve el caso no
ie

homogneo
en

X 0 = AX + F
g

como fue definido en 7.5. Para ello, consideramos nuevamente la factorizacin A = P DP 1 y reemplazamos en el sistema
In

X 0 = P DP 1 X + F
e

Al multiplicar a izquierda por P 1 resulta el sistema equivalente


d

1 0
d

P X = D P 1 X + P 1 F

a

Con el cambio de variable Y = P 1 X resulta


lt

Y 0 = DY + P 1 F
cu

Como P 1 F es un vector de funciones conocidas, lo que queda por resolver son n ecuaciones desacopladas en las incgnitas
a
F

y 1 (t ), ..., y n (t ), para luego deshacer el cambio de variable.

Ejemplo 7.11

Resolver el sistema de ecuaciones " # " #


0 2 1 et
X = X (t ) +
1 2 0
| {z } | {z }
A F (t )
Los autovalores de la matriz A son 1 = 1 y 2 = 3. Sus correspondientes autoespacios son

S 1 = gen [1 1]t S 3 = gen [1 1]t


Por lo tanto " #" #" #


1 1 1 0 1/2 1/2
A=
1 1 0 3 1/2 1/2
| {z } | {z } | {z }
P D P 1
Ecuaciones diferenciales y
198 sistemas de ecuaciones diferenciales

Entonces y como ya habamos anticipado, el sistema original puede escribirse en la forma


" # " #" # " #" #
0 1 y 10 (t ) 1 0 y 1 (t ) 1/2 1/2 et
Y = DY + P F = +
y 20 (t ) 0 3 y 2 (t ) 1/2 1/2 0

y llegamos a las dos ecuaciones desacopladas

1
y 10 (t ) = y 1 (t ) + e t
2
1
y 20 (t ) = 3y 2 (t ) + e t
2
Se trata de ecuaciones diferenciales lineales, cuyas soluciones son

tet
y 1 (t ) = C 1 e t +

A
2

B
3t et
y 2 (t ) = C 2 e

U
4
con C 1 ,C 2 R. Para conocer la solucin del problema original deshacemos el cambio de variables:

-
a
" #" t
# " t #
1 1 C 1 e t + t 2e r C 1 e t +C 2 e 3t + (2t 1)e
X (t ) = P Y (t ) = t = 4
t con C 1 ,C 2 R
1 1 C 2 e 3t e4 C 1 e t C 2 e 3t + (2t +1)e
ie
4
en

Podemos reescribir la solucin como


(2t 1)e t
" # " # " #
g

t 1 3t 1
X (t ) = C 1 e +C 2 e + 4 con C 1 ,C 2 R
In

1 1 (2t +1)e t
4
e

para apreciar que la solucin consta, como era de esperarse, de la solucin general del problema homogneo X 0 = AX
d

sumada con una solucin particular.a


d

a Los lectores interesados en conocer la generalizacin de este comentario podrn consultar la bibliografa.
a
lt
cu

Ejercicio.
a
F

7.12 Encuentre la solucin general del siguiente sistema de ecuaciones diferenciales

x 10 = x 1 3x 2
x 20 = 3x 1 + x 2 e t
Soluciones

Soluciones del Captulo 1

A
B
1.1 Lo primero que observamos es que las operaciones que se han definido son cerradas, porque tanto el producto de n-

U
meros positivos como las potencias de un nmero positivo son nmeros positivos. Con respecto a las propiedades de la
suma y el producto, es sencillo comprobarlas usando los resultados conocidos sobre nmeros reales. As, por ejemplo, para

-
comprobar la propiedad 5 consideramos

a
r


= x 1 x 1 , x 2 x 2 = x 1 , x 2 + x 1 , x 2 = (x 1 , x 2 ) + (x 1 , x 2 )
(+) (+)
( + )(x 1 , x 2 ) = x 1 , x2
ie
en

Por ltimo, el elemento neutro para la suma es 0V = (1, 1) y el opuesto del vector u = (x 1 , x 2 ) es u = (x 11 , x 21 ).
g

1.2 Planteando la combinacin lineal w = 1 v 1 + 2 v 2 resulta (1 + i , 2) = 1 (1, 0) + 2 (0, 1) = (1 , 2 ). Esto implica que nece-
In

sariamente 1 = 1 + i 2 = 2.
e
d

1.3 Considerando la equivalencia trigonomtrica sen(a + b) = sen a cos b + cos a sen a resulta para todo x R:
p p
d

2 2
a

sen x + = sen + x = sen cos x + cos sen x = cos x + sen x


4 4 4 4 2 2
lt

p p
cu

2 2
Por lo tanto f = 2 f 1 + 2 f2.
a
F

1.4 Como se trata de una doble implicacin, supondremos en primer lugar que los vectores {v 1 , v 2 , ..., v r } constituyen un
conjunto linealmente dependiente. Esto significa que existen escalares 1 , 2 = ... = r no todos nulos tales que 1 v 1 +
2 v 2 + ... + r v r = 0V . Podemos suponer, sin perder generalidad, que 1 6= 0. Entonces

2 r
1 v 1 = 2 v 2 ... r v r v 1 = v 2 ... vr
1 1

y esto exhibe un vector que es combinacin lineal de los dems.


Recprocamente, si un vector es combinacin lineal de los dems, podemos suponer una vez ms que es v 1 = 2 v 2 +...+r v r .
Pero entonces se tiene una combinacin lineal no trivial que da cero:

0V = (1)v 1 + 2 v 2 + ... + r v r

y se trata de un conjunto linealmente dependiente.

1.5 Una alternativa es demostrar que es un conjunto generador y aplicar el teorema 1.7. Para ello alcanza con mostrar que
los polinomios de la base cannica pueden obtenerse como combinacin lineal de 1 t , 1 + t y t 2 .
Ecuaciones diferenciales y
200 sistemas de ecuaciones diferenciales

1.6 Por ser rectas distintas, existen dos vectores linealmente independientes u, v tales que S 1 = gen {u} y S 2 = gen {v}. Por lo
tanto S 1 + S 2 contiene a todas las combinaciones lineales de u y v. Luego si las rectas estn en R2 es S 1 + S 2 = R2 , mientras
que si las rectas estn en R3 , S 1 + S 2 es el plano que las contiene.

1.7 El plano S 1 admite una base {u, v}, mientras que la recta S 2 admite una base {w}. El vector w no es combinacin lineal
de u y v (por qu?). Luego el conjunto {u, v, w} es un base de R3 . De esta forma, para cada vector v R3 existen y son nicos
los escalares , , tales que
v = u + v + w = u + v + w

| {z } |{z}
S 1 S 2

1.8 B 1 = t 2 1, t 3 t , B 2 = t 3 + 8 y B 3 = 2t 3 + t 2 + 15 son respectivamente bases de S 1 , S 2 y S 3 . No se verifica la ecuacin


(1.17), puesto que dim (S 1 + S 2 + S 3 ) = 3 mientras que dim (S 1 ) + dim (S 2 ) + dim (S 3 ) = 4 (probarlo).

A
Soluciones del Captulo 2

B
U
-
2.1 Es posible que para algunos lectores no sea clara la definicin de la funcin f . Cuando eso ocurre, antes de lanzarse a la

a
resolucin del planteo propiamente dicho, es recomendable hacer un ejemplo sencillo de uso de la definicin. En este caso,
r
consideramos el polinomio p(t ) = 3t 2 5. Entonces la transformacin consiste en evaluar al polinomio en cero: f (p) = p(0) =
ie

5.
en

Ahora s, para demostrar que es una transformacin verificamos que se cumplen las dos condiciones.
1 dados p, q P 2 : f (p + q) = (p + q)(0) = p(0) + q(0) = f (p) + f (q) (donde hemos usado la definicin de suma en P 2 ).
g

2 dados p P 2 , R : f (p) = (p)(0) = p(0) = f (p) (donde hemos usado la definicin de producto por escalar en

In

P 2 ).
e
d

2.2 Alcanza con aplicar el teorema 2.2 a f (V ) y f 1 (0W ).


d

2.3
a
lt

Una posibilidad es f [(x 1 , x 2 )] = (x 1 + x 2 , x 2 ). Hay otra posibilidad?


cu

Una posibilidad es f [(x 1 , x 2 )] = (x 1 , 0). Hay otra posibilidad?


a
F

2.4

Para que f sea un isomorfismo, debe cumplirse que dim(Nu f ) = 0 y a la vez que Im f = W , con lo cual el teorema de la
dimensin queda para este caso dim(V ) = 0 + dim(W ).

Im f W y por ende dim(Im f ) dim(W ). En el teorema de la dimensin queda

dim(V ) = dim(Nu f ) + dim(Im f ) dim(Nu f ) + dim(W )

con lo cual, teniendo en cuenta que dim(V ) > dim(W ) dim(V ) dim(W ) > 0

0 < dim(V ) dim(W ) dim(Nu f )

y el ncleo no es trivial, por lo que f no puede ser un monomorfismo.


Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 201

Soluciones del Captulo 3

3.1 Dadas matrices arbitrarias A, B,C Rmn y k R, comprobamos que se verifican las condiciones de la definicin.
1 (A, B +C ) = tr A t (B +C ) = tr A t B + A t C = tr A t B + tr A t C = (A, B ) + (A,C )

2 (k A, B ) = tr (k A)t B = tr k A t B = k tr A t B = k (A, B )

Para las dos ltimas condiciones apelamos al hecho de que tr A t B = a i j b i j donde 1 i m 1 j n.


P

3 (A, B ) = tr A t B = tr B t A = (B, A)

t
4 (A, A) = tr A A 0 (A, A) = 0 A = 0

p p
1 3 6
3.2 En el espacio C ([0, 1]) es ( f , g ) = 3 . En el espacio C

2 y g = ([1, 1]) es ( f , g ) = 0 y g = 3 .
p p
3.3 (u, v) = 4 + 4i , kuk = 6, kvk = 14.

A
3.4 La igualdad surge de aplicar la definicin de norma junto con las propiedades del teorema 3.1:

B
U
ku + vk2 + ku vk2 = (u + v, u + v) + (u v, u v)

-
= (u, u) + (v, u) + (u, v) + (v, v) + (u, u) (u, v) (v, u) + (v, v)

a
= 2 kuk2 + 2 kvk2 r
ie
Si u y v son vectores de R2 , determinan un paralelogramo cuyas diagonales se corresponden con u + v y u v, por lo que se
en

puede decir que la suma de los cuadrados de las diagonales de un paralelogramo es igual a la suma de los cuadrados de los
lados. (Notar que en el caso de los rectngulos se deduce inmediatamente del teorema de Pitgoras).
g
In

3.5 Las dos primeras son inmediatas a partir de la definicin y las propiedades de la norma. En cuanto a la tercera, es una
consecuencia de la desigualdad triangular 3.4:
e
d

d(u, v) = ku vk = k(u w) + (w v)k ku wk + kw vk = d(u, w) + d(w, v)


d

3.6 Desarrollando ku + vk2 como en la demostracin de la desigualdad triangular 3.4:


a
lt

ku + vk2 = kuk2 + kvk2 + 2 Re (u, v)


cu
a

Como se supone que ku + vk2 = kuk2 + kvk2 , la cancelacin arroja


F

Re (u, v) = 0

En el caso de un R espacio (y slo en ese caso), concluimos que (u, v) = 0.

3.7 Como ya se prob en un ejercicio anterior, las funciones son ortogonales para el producto interno definido. Como ade-
ms no son nulas, constituyen un conjunto linealmente independiente de tres elementos en P 2 y por lo tanto son una base
ortogonal. Como las normas no son uno (comprobarlo), la base no es ortonormal.
2 1 1 p1 .

3.8 P S (v) = 3,3,3 , d(v, S) =
3

3.9 (Fil A) = Nul A, (Col A) = Nul A H


p p p p p p
1/ 2 1/ 3 1/ 6 2 2 2
p p p p p
3.10 A = 1/ 2 1/ 3 1/ 6 0 3 1/ 3

p p p
0 1/ 3 6/3 0 0 6/3
Ecuaciones diferenciales y
202 sistemas de ecuaciones diferenciales

n o
3.11 Un paso previo a la construccin de la matriz es obtener una base ortonormal: B = p1 [1 0 1 0]t , p1 [1 2 1 0]t . Luego
2 6


2 1 1 0
1 1 2 1 0
[P S ]E =


3 1 1 2 0
0 0 0 0

1 2 37 53
3.12 y = 60 x + 300 x + 50

3.13

v R(v) = P S (v) + P S (v) P S (v) P S (v) = 2P S (v) S .


1 1

(v + R(v)) = P S (v) + P S (v) + P S (v) P S (v) = P S (v).

A
2 2

B

d(v, S) = P S (v) = P S (v) = d (R(v), S).

U
Soluciones del Captulo 4

-
a
r
4.1
ie
en

([R]B )n = [R]B si n es impar, mientras que ([R]B )n = I si n es par. Geomtricamente: al aplicar dos veces la misma
reflexin a un vector, se obtiene el vector original.
g
In

det [R]E = det (C B E [R]B C E B ) = detC B E det [R]B det (C B E )1 = det [R]B
e

4.2 S 3 = gen [1 1]t ; S 1 = gen [1 1]t ; m 3 = m 1 = 1. Geomtricamente, la transformacin produce una dilatacin de factor

d

3 en la direccin del autovector [1 1]t , mientras que en la direccin perpendicular los vectores quedan fijos. Se puede ilustrar
d

considerando que el cuadrado de vrtices [0 0]t , [1 1]t , [0 2]t , [1 1]t se transforma en un rectngulo (cul?).
a
lt

4.3 La verificacin de las propiedades es inmediata. En cuanto a la semejanza, si A fuera semejante a I , existira una matriz
cu

inversible P tal que A = P I P 1 = I lo cual es absurdo. Por lo tanto, las propiedades enunciadas en el teorema 4.2 no son
suficientes para que exista semejanza entre matrices.
a
F

4.4
" # " p # " #
1+i 3
i i 2 0 1 1 i 1
P= D= p
1i 3
P =
1 1 0 2 i 1
2

Esta no es la nica posibilidad. Se puede alterar, por ejemplo, el orden de los autovalores y usar mltiplos (no nulos) de los
autovectores.

4.5 p A (t ) = t 3 +t 2 +33t +63 = (t 7)(t +3)2 . Llamando 1 = 7, el autoespacio asociado es S 1 = gen [1 1 0]t . Para 2 = 3,

tenemos que m 2 = 2 y

5 5 3 5 5 3
Nul(A (3)I ) = Nul 5 5 c = Nul 0 0 c 3

0 0 0 0 0 0

Por ende, si c = 3 el autoespacio asociado es S 2 = gen [3 0 5]t , [1 1 0]t y ser 2 = m 2 = 2, con lo cual A ser diagonali-

zable. Si c 6= 3 el autoespacio asociado a 2 ser de dimensin 1, es decir que 2 < m 2 y la matriz no ser diagonalizable.
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 203

4.6 La interpretacin geomtrica como composicin de rotaciones permite anticipar que


" #
n cos (n) sen (n)
A =
sen (n) cos (n)

Para demostrarlo formalmente, conviene estudiar primero el caso n = 2, que se demuestra usando las equivalencias trigono-
mtricas sen( + ) = sen cos + cos sen y cos( + ) = cos cos sen sen .
4.7
" # " #
1 3 1 1 0
A = P DP con P = y D=
1 0 0 2/3

Luego los vectores v R2 pueden escribirse en la forma

A
" # " #
3 1
v = +

B
1 0

U
para y adecuados. Por lo tanto, para cualquier v R2

-
" # " # " # k " # " #
3 1 3 2 1 3

a
k k k
A v = A + A = +
1 0 1 3 0 1
r
ie

a medida que k .
en

4.8 De dim [Nul(A 3I )] = 2 se deduce que 3 es un autovalor de multiplicidad geomtrica 2. Se sabe que para el polinomio
g

p(t ) = t 2 +2t resulta p(A) singular, es decir que un autovalor de p(A) es cero (por qu?). Entonces, de acuerdo con el teorema
In

4.7, existe un autovalor de A tal que p() = 0. Esto es, p() = 2 +2 = (+2) = 0. Ahora bien, no puede ser cero porque A
es inversible, luego = 2. En resumen, los autovalores de A son 2 y 3, este ltimo de multiplicidad algebraica y geomtrica
e

doble. Luego es una matriz diagonalizable.


d
d

4.9 Si A es diagonalizable existe una base {v 1 , v 2 , ...v n } de autovectores. De acuerdo con 1 estos mismos autovectores sern
a

autovectores de p(A) y por ende p(A) ser diagonalizable.


lt
cu

Soluciones del Captulo 5


a
F

5.1 Por tratarse de la matriz asociada a una reflexin con respecto a un plano, resulta S 1 = gen [1 1 2]t , [1 0 1]t y S 1 =

gen [1 3 1]t . Una base ortonormal de autovectores es



1 1 1
B = p [1 1 2]t , p [7 1 4]t , p [1 3 1]t
6 66 11
y una diagonalizacin posible es
p p p p p p
1/ 6 7/ 66 1/ 11 1 0 0 1/ 6 1/ 6 2/ 6
p p p p p p
A = 1/ 6 1/ 66 3/ 11 0 1 0 7/ 66 1/ 66 4/ 66

p p p p p p
2/ 6 4/ 66 1/ 11 0 0 1 1/ 11 3/ 11 1/ 11

5.2 En general, no se cumple la relacin Q(x + y) = Q(x)+Q(y) ni Q(kx) = kQ(x). (Sin embargo, hay una matriz A para la cual
Q(x) = x t Ax define una transformacin lineal: cul es?).

5.3
Ecuaciones diferenciales y
204 sistemas de ecuaciones diferenciales

Q(x) = 2x 12 + x 1 x 2 2x 1 x 3 + 3x 22 + 3x 32

2 3/2 1/2
A = 3/2 4 1

1/2 1 1

5.4 Con el cambio de variables como en el ejemplo 5.8 queda la ecuacin y 12 +3y 22 = k. Es decir que se trata de elipses si k > 0,
un punto si k = 0 y un conjunto vaco si k < 0.
5.5
" # " # " # " #
1 4 1 2 1 3 0 1 2 1
A= =p p
4 5 5 1 2 0 7 5 1 2

Con el cambio de variable x = P y la forma es Q(y) = 3y 12 7y 22 . Por lo tanto, los conjuntos de nivel N1 (Q), N1 (Q) son

A
hiprbolas (con distintos ejes) y N0 (Q) es un par de rectas.

B
5.6 Definida positiva, semidefinida positiva, indefinida, definida negativa, semidefinida negativa.

U
5.7 Como A es simtrica y sus autovalores son 7, 2 y 3, tenemos que Q(x) es indefinida.

-
" #

a
t 1 c
5.8 Como Q(x) = x Ax con A = , basta con determinar para qu valores de c los autovalores de A son positivos.
r
c 1
ie
Estudiando la ecuacin det(A t I ) = 0 se deduce que debe ser |c| < 1.
en

h it
3 6
5.9 El valor mnimo es 7 y se realiza en x = p p .
2 5 5 5
g
In

5.10 (Para resolver el problema se usa el cuadrado de la distancia, es decir la norma). La distancia mnima al origen es p1 y
8
t
se realiza en los vectores x = 14 14 . La distancia mxima al origen es 12 y se realiza en los vectores x = p1 [1 1]t .

8
e
d

p t
qel ejemplo 5.12). El mximo es 2 y se realiza en los vectores x = 2 [1 1] . El mnimo
5.11 (La restriccin ya fue estudiada en
d

es 23 y se realiza en los vectores x = 2


3 [1 1]t .
a
lt

5.12 La forma cuadrtica se puede escribir como Q(x) = (3x 1 x 2 )2 . Luego los conjuntos de nivel Nk = x R2 /Q(x) = k

cu

estn vacos si k < 0, son un par de rectas si k > 0, una recta si k = 0. Se trata de una forma semidefinida positiva. El valor
mnimo sujeto a la restriccin kxk2 = 1 es cero y se alcanza en los vectores p1 [1 3]t ; el mximo es 10 y se alcanza en los
a

10
vectores p1 [3 1]t .
F

10

Soluciones del Captulo 6

6.1 Es una consecuencia de que Nul A = Nul A t A como probamos en el teorema 3.17.

p p
6.2 Los autovalores de A t A son 1 = 360, 2 = 90 y 3 = 0. Luego los valores singulares de A son 1 = 360 = 6 10, 2 =
p p
90 = 3 10 y 3 = 0. Los autoespacios de A t A son

S 1 = gen [1 2 2]t S 2 = gen [2 1 2]t S 3 = gen [2 2 1]t

Luego B = {v 1 , v 2 , v 3 } = 31 [1 2 2]t , 31 [2 1 2]t , 13 [2 2 1]t es la base ortonormal buscada. Dado que Av 3 = 0 una base de

Nul A es {v 3 }. Una base ortonormal para Col A = R2 es

Av 1 Av 2

1 1
, = p [3 1]t , p [1 3]t
1 2 10 10
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 205

6.3 De acuerdo con las observaciones hechas en los ejemplos 6.1 y 6.2, los vectores definidos en (6.4) constituyen una base
ortonormal de R2 formada por autovectores de A t A, mientras que una base ortonormal de Col A es la que ya se describi en
t
la ecuacin (6.5). En coordenadas y 1 y 2 con respecto a esta base, los transformados de la circunferencia unitaria verifican
la ecuacin pedida.
" #
t 3 3
con los autoespacios S 6 = gen [1 1]t y S 0 = gen [1 1]t . Razonando como en el ejemplo 6.2, se

6.4 A A =
3 3
deduce que los vectores de R2 con norma uno se transformarn en vectores del subespacio generado por A [1 1]t . Ms an,
p
describirn un segmento de longitud 2 6.

6.5 Pueden adaptarse los argumentos del ejemplo 6.3 para concluir que en el primer caso es una matriz de rango 3 y T
transforma a la esfera unitaria en un elipsoide, mientras que en el segundo caso es una matriz de rango 2 y T transforma a la
esfera unitaria en una regin plana de borde elptico.

A
6.6

B

p 1 2 2

U
p3 p1
" # " #" #
4 11 14 10 10 6 10 0 0 1
A= = p 2 1 2

8 7 2 p1 p3 0 3 10 0 3

-
10 10 2 2 1

6.7 La base ortonormal de R2


a

r
1 1
p [3 1]t , p [1 3]t
ie

10 10
en

es tambin una base de Col A. Es inmediato que P Col A (v) = v.


Usando la base ortonormal de R3 31 [1 2 2]t , 13 [2 1 2]t , 13 [2 2 1]t se obtienen las bases

g
In


1 1 1
[1 2 2]t , [2 1 2]t y [2 2 1]t
3 3 3
e
d

de Fil A y Nul A respectivamente. P Fil A (w) = 91 [1 1 4]t .


d
a

6.8
lt

p
p3 p1
" # " #" # " #
4 11 14 6 10 0 1 1 2 2
cu

A= = 10 10 p
8 7 2 p1 p3 0 3 10 3 2 1 2
10 10
a
F

6.9

1/180 13/180
A = 1/45 2/45

1/18 1/18

1 1
t
6.10 El sistema es compatible determinado y x = A b =

15 15 0 es la nica solucin.

Soluciones del Captulo 7

1
7.1 : (0, +) R, (t ) = 1 12 t 2

senh t

7.2

y(t ) = 3t 2 +C t con C R
Ecuaciones diferenciales y
206 sistemas de ecuaciones diferenciales

Nu L = gen {t }.

7.3 y(t ) = 18 1 + 2t + 2t 2 + 85 e 2t + 12 e 2t

7.4 y(t ) = 17 e 4t + 67 e 3t

7.5 y(t ) = 2t e 2t + e 2t

7.6 El primer problema admite como solucin cualquier funcin de la forma y = C 2 sen(4t ), mientras que el segundo no
tiene solucin.

7.7 y(t ) = e t 2 cos(2t ) 32 sin(2t )


7.8 y(t ) = e 3t 4t e 3t + 21 t 2 e 3t ; y(t ) = 97 3t


192 e + 13 3t 3 t 1 t 1 2 t
24 e 64 e 16 t e 8 t e

A
7.9 x 1 (t ) = 50e 4t + 100e t , x 2 (t ) = 50e 4t + 200e t

B
U
C 1 e t +C 3

1 0 1
7.10 X (t ) = C 1 e t 2 + C 2 1 + C 3 0 = 2C 1 e t +C 2 donde C 1 ,C 2 ,C 3 R (destacamos que el autoespacio aso-

-
1 1 0 C 1 e t +C 2

a
ciado al cero es de dimensin dos, por lo que existen muchas alternativas para escribir la solucin general).
r
" # " #
ie

2t sen t 2t cos t
7.11 Una base posible es {1 , 2 }, donde 1 (t ) = e y 2 (t ) = e .
en

cos t sen t
g

t
" #
C 1 e 4t +C 2 e 2t e3
con C 1 ,C 2 R
In

7.12 X (t ) =
C 1 e 4t +C 2 e 2t
e
d
d
a
lt
cu
a
F
ndice alfabtico

A n , 119 p(A), 122


C BC , 28 p(D), 182
D, 166 p A (t ), 106
P S (v), 76 ngulo entre vectores, 71
QR, 89
ajuste de datos, 97
S , 84
autoespacio, 104
S , 104
autovalor, 104
Ur , 163
multiplicidad algebraica, 108
Umr , 163
multiplicidad geomtrica, 115
Vr , 163
autovector, 104
Vnr , 163
Cn , 4 base, 16
producto interno cannico, 69 cannica de Cmn , 19
Col, 21 cannica de Cn , 18
Fil, 21 cannica de P n , 19
K, 3 cannica de Rmn , 19
Kmn , 5 cannica de Rn , 18
Rn , 4 ordenada, 24
producto interno cannico, 65 base ortogonal, 75
RI , 5 base ortonormal, 75
, 159 biyectiva, 49
dim(S), 18
ceros, 42
(, ), 65, 68
combinacin lineal, 10
f 0 , 55
B B complemento ortogonal, 84
f B , 55
composicin
C (I ), 6
de funciones, 52
C 1 (I ), 10
de transformaciones lineales, 58
C k (I ), 10
conjunto
P,6
generador, 11
P n , 10
conjunto de nivel, 139
, 115
conjunto ortogonal, 74
, 34
conjunto ortonormal, 75
, 73
coordenadas, 24
i , 153
H
, 69 desacoplado, 191
it
e , 185 Descomposicin QR
e n , 12 y cuadrados mnimos, 94
m , 108 descomposicin QR, 89
208 NDICE ALFABTICO

descomposicin en valores singulares, 159 gen, 11


reducida, 166 generadores, 11
dimensin, 18 Gram-Schmidt
teorema de la, 44 mtodo, 80
distancia, 72
de un vector a un subespacio, 82 hiprbola, 133
DVS, 159 Householder
reducida, 166, 168 matriz de, 101
transformacin de, 101
ecuacin caracterstica
de una ecuacin diferencial, 184 identidad del paralelogramo, 70
ecuacin diferencial imagen, 43
homognea, 174, 180 de un subconjunto, 42
lineal de primer orden, 174 inyectiva, 49
lineal de segundo orden, 179, 180 isomorfismo, 50
ecuacin normal, 94 de coordenadas, 52
ecuaciones diferenciales, 173
linealmente dependiente, 14
ejes principales, 138
linealmente independiente, 14
epimorfismo, 49
error por cuadrados mnimos, 94
matriz
escalares, 3
asociada a una transformacin lineal, 55
espacio
de cambio de coordenadas, 28
columna, 21
de la transformacin lineal, 54
fila, 21
definida positiva, 141
nulo, 23
diagonalizable, 113
espacio vectorial, 3
diagonalizable ortogonalmente, 131
complejo, 3
diagonalizable unitariamente, 131
real, 3
hermtica, 130
Euler
involutiva, 101, 127
frmula de, 185
ortogonal, 128
semejante, 112
factor integrante, 173
seudoinversa, 96, 168
finitamente generado, 11
simtrica, 130
forma cuadrtica, 134
unitaria, 128
definida negativa, 140
monomorfismo, 49
definida positiva, 140
multiplicidad
diagonal, 135
algebraica, 108
indefinida, 140, 142
geomtrica, 115
semidefinida negativa, 140
semidefinida positiva, 140
ncleo, 42
sin productos cruzados, 135
norma, 66
funcin
inducida por el producto interno, 66, 68
biyectiva, 49
Nul, 23
compleja, 185
inversa, 53 operador lineal, 177
inyectiva, 49 ortogonalidad, 73
sobreyectiva, 49
suryectiva, 49 polinomio
NDICE ALFABTICO 209

caracterstico, 106 variacin de parmetros, 189


matricial, 122 vector
predador-presa, 190 columna, 20
preimagen de coordenadas, 24
de un subconjunto, 42 singular derecho, 160
preservar singular izquierdo, 160
combinaciones lineales, 41 vectores, 3
problema de valor inicial, 174 vectores ortogonales, 73
Problema de valores en la frontera, 186 velocidad instantnea, 172
problema de valores iniciales, 180, 192
producto
por escalares, 3
producto interno, 65, 68
producto interno cannico, 65, 69
proyeccin ortogonal, 76

races, 42
rango, 22
recta
de ajuste por cuadrados mnimos, 98
reflexin, 99

semejanza
de matrices, 112
propiedades invariantes, 112
seudoinversa de Moore-Penrose, 168
simetra, 99
sistema
de ecuaciones, 22
de ecuaciones diferenciales, 192
homogneo, 23, 192
sobreyectiva, 49
solucin por cuadrados mnimos, 92
subespacio, 8
generado, 11
invariante, 109
trivial, 8
subespacios fundamentales, 24
suma
de subespacios, 31
de vectores, 3
directa, 34
suryectiva, 49

transformacin lineal, 39

valor singular, 153


variables libres, 45
Esta pgina fue dejada intencionalmente en blanco
Bibliografa

[1] Juan de Burgos, lgebra Lineal, McGraw-Hill, 1996.

[2] C. Henry Edwards, Ecuaciones Diferenciales y problemas con valores en la frontera, Pearson Educacin, cuarta
edicin, 2009.

[3] Stanley Grossman, lgebra Lineal con Aplicaciones, McGraw-Hill, tercera edicin, 1990.

[4] Kenneth Hoffman y Ray Kunze, lgebra Lineal, Prentice Hall, 1984.

[5] David Lay, lgebra Lineal y sus Aplicaciones, Addison Wesley Longman, 1999.

[6] Ben Noble y James Daniel, lgebra Lineal Aplicada, Prentice Hall, tercera edicin, 1989.

[7] David Poole, lgebra Lineal: una introduccin moderna, Thomson, 2004.

[8] Jess Rojo, lgebra Lineal, McGraw-Hill, 2001.

[9] Gilbert Strang, lgebra Lineal y sus Aplicaciones, Addison Wesley Iberoamericana, 1989.

[10] Dennis G. Zill, Ecuaciones Diferenciales con aplicaciones de modelado, Cengage Learning, novena edicin, 2009.

You might also like