You are on page 1of 159

ALGEBRA LINEAL Y GEOMETRIA

LAUREANO GONZALEZ VEGA Y CECILIA VALERO REVENGA


Departamento de Matem aticas, Estadstica y Computaci on
Universidad de Cantabria
2

Indice
1 Espacios Vectoriales 5
1.1 Denici on de Espacio Vectorial. Primeros ejemplos. . . . . . . . . . . . . . . . . 5
1.2 Subespacios Vectoriales. Combinaciones lineales. . . . . . . . . . . . . . . . . . . 7
1.3 Independencia lineal. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Suma e intersecci on de subespacios. Suma directa . . . . . . . . . . . . . . . . . 15
1.5 Ejercicios Captulo 1
Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Aplicaciones Lineales y Matrices 27
2.1 Denici on de Aplicaci on Lineal. Ejemplos . . . . . . . . . . . . . . . . . . . . . 27
2.2 N ucleo e imagen. F ormula de las dimensiones . . . . . . . . . . . . . . . . . . . 29
2.3 Tipos de Aplicaciones Lineales. Isomorsmos. . . . . . . . . . . . . . . . . . . . 32
2.4 Matriz asociada a una aplicaci on lineal . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Cambios de base y matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . 39
2.5.1 Cambios de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5.2 M

= QMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.6 Ejercicios Captulo 2
Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3 La Teora del Endomorsmo. 61
3.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 El polinomio mnimo de un endomorsmo . . . . . . . . . . . . . . . . . . . . . 68
3.3 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4 Endomorsmos nilpotentes. Forma can onica de Jordan . . . . . . . . . . . . . . 79
3.5 C alculo aproximado de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.6 Ejercicios Captulo 3
Teora del Endomorsmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4 Geometra Eucldea 103
4.1 Producto escalar y ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.2 Proyecci on ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.3.1 Aproximaci on por mnimos cuadrados . . . . . . . . . . . . . . . . . . . . 113
4.3.2 Resoluci on de sistemas de ecuaciones lineales sobredimensionados . . . . 115
4.4 Isometras en espacios vectoriales eucldeos . . . . . . . . . . . . . . . . . . . . . 115
4.4.1 Denici on y primeras propiedades . . . . . . . . . . . . . . . . . . . . . . 115
4.4.2 Transformaciones ortogonales en un espacio de dimensi on 2 . . . . . . . . 117
3
4

INDICE
4.4.3 Transformaciones ortogonales en un espacio de dimensi on n . . . . . . . 119
4.5 Espacio Afn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.5.1 Sistemas de referencia y cambio de sistema de referencia . . . . . . . . . 127
4.5.2 Aplicaciones Anes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.6 Estudio de algunas aplicaciones anes particulares . . . . . . . . . . . . . . . . . 132
4.6.1 Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.6.2 Simetras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.6.3 Traslaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.6.4 Homotecias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.6.5 Giros en X = R
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.7 C onicas y Cu adricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.7.1 C onicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.7.2 Cu adricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.8 Ejercicios Captulo 4
Tema Geometra Eucldea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
Captulo 1
Espacios Vectoriales
1.1 Denici on de Espacio Vectorial. Primeros ejemplos.
En todo lo que sigue K denotar a uno de los cuerpos Q, R o C.
Denici on 1.1.1
Sea K un cuerpo y V un conjunto no vaco. Se dice que V es un Kespacio vectorial si existen
dos operaciones
+ : V V V : KV V
vericando las siguientes propiedades (siendo u, v, w elementos cualesquiera de V y a, b ele-
mentos cualesquiera de K; 1 denota el elemento neutro del producto en K):
(u +v) +w = u + (v +w); u +v = v +u;
Existe un elemento 0 en V tal que u +0 = u
Para cada u en V existe w en V tal que u +w = 0;
a (u +v) = a u +a v; (a +b) u = a u +b u;
a (b u) = (ab) u; 1 u = u.
A los elementos de V les denominaremos vectores y a los elementos de K escalares.
Proposici on 1.1.1
Si V es un Kespacio vectorial entonces se verican las siguientes propiedades (siendo v un
elemento cualquiera de V y a un elemento cualquiera de K):
0 v = 0; a 0 = 0; (a) v = a (v) = (a v);
Si a v = 0 entonces a = 0 o v = 0.
Ejemplo 1.1.1
En las lineas siguientes aparecen ejemplos de espacios vectoriales que ser an utilizados con
frecuencia. Se incluyen asimismo algunos ejemplos de manipulaci on de los elementos (vectores)
de algunos de estos espacios en Maple.
5
6 CAP

ITULO 1. ESPACIOS VECTORIALES


El conjunto R
2
de las parejas de n umeros reales con las operaciones:
(x
1
, x
2
) + (y
1
, y
2
) = (x
1
+y
1
, x
2
+y
2
) a (x
1
, x
2
) = (ax
1
, ax
2
)
es un Respacio vectorial.
Si K es un cuerpo cualquiera entonces el conjunto K
n
(las n-uplas con coordenadas en K)
con las operaciones:
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
) a (x
1
, . . . , x
n
) = (ax
1
, . . . , ax
n
)
es un Kespacio vectorial.
>
v_1:=vector(5,[2,-1/2,1,2/3,0]);v_2:=vector(5,[2/5,-1,0,1,1]);
v 1 :=
_
2,
1
2
, 1,
2
3
, 0
_
v 2 :=
_
2
5
, 1, 0, 1, 1
_
>
v_3:=evalm(v_1+v_2);v_4:=evalm((1/3)*v_1+(2/5)*v_2);
v 3 :=
_
12
5
,
3
2
, 1,
5
3
, 1
_
v 4 :=
_
62
75
,
17
30
,
1
3
,
28
45
,
2
5
_
>
v_5:=vector(5,[v_1[2],v_2[5],v_3[4],v_4[1],v_4[3]]);
v 5 :=
_
1
2
, 1,
5
3
,
62
75
,
1
3
_
Si K es un cuerpo cualquiera entonces el conjunto M
n,m
(K) de las matrices con n las y
m columnas y entradas en K es un Kespacio vectorial.
>
A_1:=matrix(2,3,[1,2,3,4,5,6]);A_2:=matrix(2,3,[6,5,4,3,2,1]);
A 1 :=
_
_
1 2 3
4 5 6
_
_
A 2 :=
_
_
6 5 4
3 2 1
_
_
>
A_3:=evalm(A_1+A_2);A_4:=evalm((1/2)*A_1+(2/3)*A_2);
A 3 :=
_
_
7 7 7
7 7 7
_
_
A 4 :=
_

_
9
2
13
3
25
6
4
23
6
11
3
_

_
Si K es un cuerpo cualquiera entonces el conjunto K[X] de los polinomios en la variable
X y coecientes en K es un Kespacio vectorial. Tambien es un Kespacio vectorial el
1.2. SUBESPACIOS VECTORIALES. COMBINACIONES LINEALES. 7
conjunto K
n
[x] cuyos elementos son los polinomios en K[x] cuyo grado es menor o igual
que n.
>
P_1:=2*x**3-5*x**2+x-1/2;P_2:=4*x**5-5/3*x**3 +x**2-3;
P 1 := 2 x
3
5 x
2
+x
1
2
P 2 := 4 x
5

5
3
x
3
+x
2
3
>
P_3:=P_1+P_2;P_4:=5*P_1-(2/3)*P_2;
P 3 :=
1
3
x
3
4 x
2
+x
7
2
+ 4 x
5
P 4 :=
100
9
x
3

77
3
x
2
+ 5 x
1
2

8
3
x
5
Sea V el conjunto de todas las aplicaciones de R en R. Si f y g son dos elementos
cualesquiera de V y un n umero real cualquiera, se denen f +g y f de la siguiente
forma:
(f +g)(x) = f(x) +g(x) y ( f)(x) = f(x)
donde x denota un n umero real arbitrario.
El conjunto V con las operaciones suma y producto por escalares as denidas es un
R-espacio vectorial, llamado R-espacio vectorial de las funciones reales de variable real.
1.2 Subespacios Vectoriales. Combinaciones lineales.
Denici on 1.2.1
Se dice que un subconjunto no vaco U de un Kespacio vectorial V es un subespacio vectorial
si U con las operaciones de V es tambien un Kespacio vectorial.
Los subespacios vectoriales admiten la siguiente caracterizaci on.
Proposici on 1.2.1
Un subconjunto no vaco U de un Kespacio vectorial V es un subespacio vectorial si y s olo si
para todo a
1
y a
2
en K y para todo u
1
y u
2
en U se tiene:
a
1
u
1
+a
2
u
2
U.
Ejemplo 1.2.1
Se muestran a continuaci on algunos ejemplos de subconjuntos de un espacio vectorial que son
(o no) subespacios vectoriales.
El conjunto de las matrices diagonales con 5 las y 5 columnas es un subespacio vectorial
de M
5,5
(R) como Respacio vectorial.
El conjunto de los vectores (x, y, z) en R
3
vericando que x+y+z = 1 no es un subespacio
vectorial de R
3
como Respacio vectorial.
El conjunto de los vectores (x, y, z) en R
3
vericando que x +y +z = 0 es un subespacio
vectorial de R
3
como Respacio vectorial.
8 CAP

ITULO 1. ESPACIOS VECTORIALES


El conjunto de los polinomios en K[x] de grado menor o igual que 3 es un subespacio
vectorial de K[x] como Kespacio vectorial.
El conjunto de los polinomios en K[x] de grado igual a 3 no es un subespacio vectorial de
K[x] como Kespacio vectorial.
El conjunto U = (x, y, z) Q
3
: x < 0 no es un subespacio vectorial del Q-espacio
vectorial Q
3
.
En el R-espacio vectorial V = f: R R : f es aplicaci on, el conjunto W formado por
aquellas aplicaciones de V que verican 2f(0) = f(1) es un subespacio vectorial de V .
Con el n de construir de forma sencilla subespacios vectoriales se introduce a continuaci on la
denicion de combinaci on lineal. Esto permitir a establecer la denici on de subespacio generado
por una familia de vectores.
Denici on 1.2.2
Sea V un Kespacio vectorial y u, u
1
, . . . , u
m
vectores de V . Se dice que u es una combinaci on
lineal de los vectores u
1
, . . . , u
m
si existen a
1
, . . . , a
m
en K tal que
u = a
1
u
1
+a
1
u
2
+. . . +a
m
u
m
Es una propiedad inmediata que si u es combinaci on lineal de los vectores u
1
, . . . , u
m
, y cada
uno de estos es combinaci on lineal de los vectores w
1
, . . . , w
l
, entonces u es combinaci on linel
de los vectores w
1
, . . . , w
l
.
Denici on 1.2.3
Sea V un Kespacio vectorial y S = u
1
, . . . , u
m
una familia de vectores de V . Se dene S)
como el subconjunto de V formado por todos aquellos vectores de V que son combinacion lineal
de los vectores u
1
, . . . , u
m
.
Puesto que la combinaci on lineal de dos elementos en S) es tambien una combinaci on lineal
de los vectores de S), de acuerdo con la proposici on 1.2.1, se tiene que S) es un subespacio
vectorial de V . Se tiene asimismo que S) coincide con la intersecci on de todos los subespacios
de V que contienen a S y que S) es el subespacio vectorial de V mas peque no de todos aquellos
que contienen a S: si U es un subespacio de V tal que S U entonces S) U.
Se muestra a continuacion como usar Maple para comprobar si un vector pertenece o no al
subespacio generado por una familia de vectores.
1.2. SUBESPACIOS VECTORIALES. COMBINACIONES LINEALES. 9
Consideremos el subespacio generado por los vectores v 1, v 2, v 3 y v 4.
>
v_1:=vector([1,0,-1,1,0]):v_2:=vector([1,1,0,1,0]):
>
v_3:=vector([1,1,1,1,1]):v_4:=vector([0,-1,-1,0,0]):
A continuacion se muestra que el vector w pertenece al subespacio generado por los
vectores v 1, v 2, v 3 y v 4.
>
w:=vector([3,2,0,3,1]):
>
eqn:=evalm(w-alpha*v_1-beta*v_2-delta*v_3-tau *v_4);
eqn := [3 , 2 +, +, 3 , 1 ]
>
solve(eqn[1],eqn[2],eqn[3],eqn[4],eqn[5], alpha,beta,delta,tau);
= 1 +, = 1 , = , = 1
A continuacion se muestra que el vector u no pertenece al subespacio generado por los
vectores v 1, v 2, v 3 y v 4.
>
u:=vector([1,0,0,0,1]):
>
eqn:=evalm(u-alpha*v_1-beta*v_2-delta*v_3-tau *v_4);
eqn := [1 , +, +, , 1 ]
>
solve(eqn[1],eqn[2],eqn[3],eqn[4],eqn[5], alpha,beta,delta,tau);
Notar que al no haber ningun resultado el sistema considerado no posee solucion.
Todos los espacios vectoriales que vamos a considerar a continuaci on van a tener en com un la
propiedad de estar generados por un n umero nito de vectores: diremos que S = u
1
, . . . , u
m

es un sistema de generadores de un Kespacio vectorial V si V = S). A los espacios


vectoriales que veriquen esta propiedad se les denominar a espacios vectoriales de tipo
nito.
Los K-espacios vectoriales K
n
, M
n,m
(K) y K
n
[x] son de tipo nito.
K[x] como Kespacio vectorial no es de tipo nito.
No es de tipo nito el R-espacio vectorial V = f: R R : f es aplicaci on.
Salvo que se indique explcitamente lo contrario, en todo lo que sigue, espacio vectorial
denotar a espacio vectorial de tipo nito.
La noci on de sistema generador sirve para motivar la introducci on del concepto de vectores
linealmente independientes, objeto de la siguiente secci on. Es facil comprobar si consideramos
V = R
2
como Respacio vectorial, la familia S = (1, 0), (1, 1), (1, 1) es un sistema de gene-
radores de V . As se tiene, por ejemplo, que el vector (0, 1) puede expresarse como combinaci on
lineal de los vectores en S en la siguiente forma:
(0, 1) = 1 (1, 0) + (1) (1, 1) + 0 (1, 1)
Pero tambien
(0, 1) = 0 (1, 0) +
_

1
2
_
(1, 1) +
1
2
(1, 1)
La b usqueda de la unicidad, i.e. una unica forma de representaci on, en la escritura de un vector
como combinaci on lineal de aquellos que forman un sistema de generadores es lo que conduce,
primero a la noci on de vectores linealmente independientes y, segundo, al concepto de base.
10 CAP

ITULO 1. ESPACIOS VECTORIALES


1.3 Independencia lineal. Bases.
Denici on 1.3.1
Sea V un Kespacio vectorial y u
1
, . . . , u
m
vectores de V . Se dice que los vectores u
1
, . . . , u
m
son linealmente independientes (o que la familia u
1
, . . . , u
m
es libre) si se verica la siguiente
condicion:

1
u
1
+
2
u
2
+. . . +
m
u
m
= 0 =
1
= 0,
2
= 0, . . . ,
m
= 0
En otras palabras, los vectores u
1
, . . . , u
m
son linealmente independientes si y solo si la unica
forma de escribir el vector 0 como combinaci on lineal de los vectores u
1
, . . . , u
m
es aquella en
la que todos los escalares involucrados son iguales a 0.
Ejemplo 1.3.1
As, los vectores (1, 1) y (1, 1) de R
2
como Respacio vectorial son linealmente indepen-
dientes puesto que:

1
(1, 1) +
2
(1, 1) = (0, 0) =

1
+
2
= 0

2
= 0
=
1
= 0,
2
= 0
En cambio, y dentro del mismo espacio vectorial, los vectores (1, 1), (1, 1) y (1, 0) no
son linealmente independientes puesto que:
(0, 0) = 0(1, 1) + 0(1, 1) + 0(1, 0) =
1
2
(1, 1) +
1
2
(1, 1) + (1)(1, 0)
En el R-espacio vectorial R
3
[X] de los polinomios de coecientes reales de grado menor o
igual que 3, los vectores 1, X, X
3
son linealmente independientes. Tambien son linealmente
independientes los vectores 1 X y X
2
, y son linealmente dependientes los vectores
1 X, X + X
2
, 2, 3X
2
. Esta ultima armaci on queda justicada mediante la siguiente
igualdad.
3X
2
3(X
2
+X) 3(1 X)
3
2
2 = 0
En el R-espacio vectorial V = f: R R : f es aplicaci on las funciones f(x) =
cos(x), g(x) = sen(x), h(x) = x son linealmente independientes.
Supongamos que f +g +h es la aplicaci on nula. Por tanto,
cos(x) +sen(x) +x = 0 para todo n umero real x.
En particular, si x = 0, se deduce que = 0 y se tiene
sen(x) +x = 0 para todo n umero real x.
Si se hace x = , se obtiene = 0, y en consecuencia
sen(x) = 0 para todo n umero real x.
Para x =

2
, es obligado que sea 0.
1.3. INDEPENDENCIA LINEAL. BASES. 11
En el Q-espacio vectorial R la familia 1,

2 es libre. Si en la combinaci on 1+

2 = 0
con , Q se tuviese ,= 0,

2 podra escribirse como cociente de dos n umeros


racionales, y por tanto sera racional. Al ser falsa esta conclusi on, debe ser = 0, y
entonces = 0.
Si R se considera como Respacio vectorial, es inmediato que la familia 1,

2 es ligada
puesto que se puede escribir (

2) 1 + 1

2 = 0.
Una situaci on an aloga se tiene para la familia 1,

2,

3.
Si los vectores u
1
, . . . , u
m
no son linealmente independientes diremos que son linealmente
dependientes o que u
1
, . . . , u
m
es una familia ligada.
La siguiente proposici on recoge un conjunto de propiedades de la independencia lineal que
seran muy utiles en todo lo que sigue.
Proposici on 1.3.1
Sea V un Kespacio vectorial y o = u
1
, . . . , u
m
una familia de vectores en V .
1. Si 0 o entonces o es una familia ligada.
2. Si en o hay dos vectores repetidos entonces o es una familia ligada.
3. Si o es una familia libre entonces, para todo i, o u
i
es una familia libre.
4. Si o es una familia ligada y w es un vector cualquiera de V entonces o w es una
familia ligada.
5. o es una familia ligada si y s olo si existe un vector u
i
en o que es combinacion lineal de
los vectores en o u
i
.
6. Si o es una familia libre y w , S) entonces o w es una familia libre.
7. u
1
y u
2
son linealmente dependientes si y s olo si existe K tal que u
1
= u
2
El siguiente teorema muestra como, en los espacios vectoriales de tipo nito, las familias
libres tienen a lo sumo tantos elementos como el n umero de vectores en cualquier sistema de
generadores del espacio vectorial considerado.
Teorema 1.3.1
Sea V un Kespacio vectorial y o = u
1
, . . . , u
n
una familia de vectores en V tal que V = S).
Si T = w
1
, . . . , w
m
es una familia libre de vectores en V entonces m n.
Aplicando este teorema es inmediato deducir que:
En K
n
, como K-espacio vectorial, las familias libres de vectores tienen a lo sumo n ele-
mentos.
En M
n,m
(K), como K-espacio vectorial, las familias libres de vectores tienen a lo sumo
nm elementos.
En K
n
[x], como K-espacio vectorial, las familias libres de vectores tienen a lo sumo n +1
elementos.
12 CAP

ITULO 1. ESPACIOS VECTORIALES


En (x, y, z) R
3
: x+y+z = 0, como R-espacio vectorial, las familias libres de vectores
tienen a lo sumo 3 elementos.
En A M
n,n
(K) : A es simetrica, como K-espacio vectorial, las familias libres de
vectores tienen a lo sumo n(n + 1)/2 elementos.
La noci on fundamental de esta secci on es el concepto de base. De acuerdo con lo ya rese nado
al nal de la secci on anterior, el principal defecto de los sistemas generadores se encuentra en
la falta de unicidad a la hora de representar un vector como combinaci on lineal de aquellos en
el sistema generador. Este problema se resuelve exigiendo la independencia lineal a los vectores
en el sistema generador.
Denici on 1.3.2
Sea V un Kespacio vectorial y o = u
1
, . . . , u
n
una familia de vectores en V . Se dice que o
es una base de V si o es una familia libre y o es un sistema de generadores de V .
Proposici on 1.3.2
Sea V un Kespacio vectorial y o = u
1
, . . . , u
n
una familia de vectores en V . La familia o
es una base de V si y s olo si todo vector de V se escribe, de forma unica, como combinaci on
lineal de los vectores de o.
As, para los ejemplos usuales de espacios vectoriales que hemos estado manejando hasta
ahora, tenemos las siguientes bases can onicas:
En K
n
, como K-espacio vectorial:
B = e
1
, . . . , e
n
= (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1)
En M
n,m
(K), como K-espacio vectorial:
B = A
11
, . . . , A
nm
donde A
ij
=
_
_
_
_
_
_
0 0 0
.
.
.
.
.
.
.
.
.
0 1 0
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
En K
n
[x], como K-espacio vectorial:
B = 1, x, x
2
, . . . , x
n1
, x
n

A continuaci on se muestran, entre otras propiedades, que todo espacio vectorial de tipo
nito tiene, al menos, una base, que dos bases distintas de un mismo espacio vectorial tienen
siempre el mismo n umero de elementos (lo cual conduce al concepto de dimensi on) y que toda
familia libre de vectores puede extenderse a una base.
Teorema 1.3.2
Sea V un Kespacio vectorial de tipo nito y o = u
1
, . . . , u
m
un sistema de generadores de
V . Entonces existe un subconjunto T de o tal que T es una base de V .
1.3. INDEPENDENCIA LINEAL. BASES. 13
La siguiente sesion Maple muestra c omo calcular una base a partir de un sistema de generadores
para distintos subespacios de R
5
.
Consideremos los vectores v 1, v 2, v 3, v 4, v 5, v 6 y v 7.
>
v_1:=vector([1,0,-1,1,0]):v_2:=vector([1,1,-1,1,0]):
>
v_3:=vector([1,1,1,1,1]):v_4:=vector([1,0,1,0,1]):
>
v_5:=vector([1,0,0,1,0]):v_6:=vector([1,-1,-1,-1,-1]):
>
v_7:=vector([0,0,1,0,1]):
Calculo de una base del subespacio generado por v 1, v 2, v 3, v 4, v 5, v 6 y v 7.
>
linalg[basis](v_1,v_2,v_3,v_4,v_5,v_6,v_7 );
v 1, v 2, v 3, v 5, v 4
Calculo de una base del subespacio generado por v 1, v 2, v 3, v 5, v 6 y v 7.
>
linalg[basis](v_1,v_2,v_3,v_5,v_6,v_7);
v 1, v 2, v 3, v 5, v 6
Calculo de una base del subespacio generado por v 3, v 4, v 5, v 6 y v 7.
>
linalg[basis](v_3,v_4,v_5,v_6,v_7);
v 3, v 5, v 4, v 6
Calculo de una base del subespacio generado por v 3, v 4, v 6 y v 7.
>
linalg[basis](v_3,v_4,v_6,v_7);
v 3, v 4, v 6
Corolario 1.3.1
Todo espacio vectorial de tipo nito tiene una base.
A continuacion se muestra una sesion Maple donde se determina una base del espacio vectorial
V = p(x) R
3
[x] : p(1) = 0
>
P_1:=x-1:P_2:=(x-1)**2:P_3:=(x-1)**3:
Los vectores P 1, P 2 y P 3 son linealmente independientes.
>
Ecuacion:= sort(collect(alpha*P_1+beta*P_2+delta*P_3,x),x)=0;
Ecuacion := x
3
+ ( 3 ) x
2
+ (2 + + 3 ) x + = 0
>
Ecuaciones:= coeffs(expand(alpha*P_1+beta*P_2+delta*P_3),x);
Ecuaciones := + , 2 + 3 , 3 ,
>
solve(Ecuaciones,alpha,beta,delta);
= 0, = 0, = 0
Los vectores P 1, P 2 y P 3 son un sistema de generadores.
>
P:=a*x**3+b*x**2+c*x+d;
P := a x
3
+b x
2
+c x +d
14 CAP

ITULO 1. ESPACIOS VECTORIALES


Notar que a +b +c +d = 0.
>
Ecuaciones:= subs(d=-a-b-c,coeffs(expand(alpha*P_1
>
+beta*P_2+delta*P_3-P),x));
Ecuaciones := a, 2 + 3 c, 3 b, + +a +b +c
>
Solucion:=solve(Ecuaciones,alpha,beta,delta);
Solucion := = 3 a + 2 b +c, = 3 a +b, = a
>
subs(op(SOL),[op(Ecuaciones)]);
[0, 0, 0, 0]
Sea V un Kespacio vectorial y o
1
= u
1
, . . . , u
m
y o
2
= w
1
, . . . , w
n
bases de V . Apli-
cando el teorema 1.3.1 a o
1
como sistema generador de V y a o
2
como familia libre se obtiene
que n m. Recprocamente, intercambiando los papeles de o
1
y o
2
, obtenemos m n. Hemos
demostrado el siguiente teorema que motiva la denici on de dimension de un espacio vectorial
de tipo nito.
Teorema 1.3.3
En un K-espacio vectorial de tipo nito V todas las bases poseen el mismo n umero de elementos.
Se dene, por ello, la dimensi on de V , dim(V ), como el n umero de elementos en una base
cualquiera de V .
As, como Kespacios vectoriales, se tiene que dim(K
n
) = n, dim(M
n,m
(K)) = nm y
dim(K
n
[x]) = n + 1.
La siguiente proposici on, de nuevo consecuencia del teorema 1.3.1, muestra c omo el conocimiento
de la dimensi on de un espacio vectorial simplica la caracterizaci on de sus bases.
Proposici on 1.3.3
Sea V un K-espacio vectorial de tipo nito y dim(V ) = n.
1. Si V = u
1
, . . . , u
m
) entonces n m.
2. Si u
1
, . . . , u
m
son linealmente independientes entonces m n.
3. Si V = u
1
, . . . , u
n
) entonces u
1
, . . . , u
n
es una base de V .
4. Si u
1
, . . . , u
n
son linealmente independientes entonces u
1
, . . . , u
n
es una base de V .
De acuerdo con los apartados 2 y 3 de la proposici on anterior si un conjunto de m vectores
de V linealmente independientes no es una base de V entonces m < dim(V ). El Teorema de la
Base Incompleta muestra c omo esta familia de vectores puede extenderse a una base de V .
Teorema 1.3.4 (Teorema de la Base Incompleta)
Sea V un K-espacio vectorial y B = v
1
, . . . , v
n
una base de V . Si w
1
, . . . , w
m
son vectores
de V linealmente independientes entonces existen n m vectores, v
i
1
. . . , v
i
nm
, en B tal que la
familia w
1
, . . . , w
m
, v
i
1
. . . , v
i
nm
es una base de V .
Se muestra a continuaci on una sesi on Maple donde a partir de dos vectores linealmente
independientes y de una base en R
5
se construye una base que tiene a estos dos vectores como
sus dos primeros elementos.
1.4. SUMA E INTERSECCI

ON DE SUBESPACIOS. SUMA DIRECTA 15


Los vectores v 1 y v 2 son linealmente independientes.
>
v_1:=vector([1,0,-1,1,0]):v_2:=vector([1,1,-1 ,1,0]):
>
linalg[basis](v_1,v_2);
v 1, v 2
Los vectores w 1, w 2, w 3, w 4, y w 5 forman base de R
5
.
>
w_1:=vector([0,0,1,0,1]):w_2:=vector([1,1,1,0,1]):
>
w_3:=vector([1,0,1,0,1]):w_4:=vector([1,-1,2,1,0]):
>
w_5:=vector([1,-1,-1,-1,-1]):
>
linalg[basis](w_1,w_2,w_3,w_4,w_5);
w 3, w 5, w 1, w 2, w 4
Los vectores v 1, v 2 y w 1 son linealmente independientes.
>
linalg[basis](v_1,v_2,w_1);
w 1, v 1, v 2
Los vectores v 1, v 2, w 1 y w 2 son linealmente independientes.
>
linalg[basis](v_1,v_2,w_1,w_2);
w 1, v 1, v 2, w 2
Los vectores v 1, v 2, w 1, w 2 y w 3 son linealmente dependientes.
>
linalg[basis](v_1,v_2,w_1,w_2,w_3);
w 3, w 1, v 1, v 2
Los vectores v 1, v 2, w 1, w 2 y w 4 son linealmente independientes.
>
linalg[basis](v_1,v_2,w_1,w_2,w_4);
w 1, v 1, v 2, w 2, w 4
Los vectores v 1, v 2, w 1, w 2 y w 4 son base de R
5
.
Es una consecuencia obvia que los subespacio de un espacio vectorial de tipo nito tambien
son de tipo nito. Adem as, como consecuencia inmediata del Teorema de la Base Incompleta
(teorema 1.3.4) se tiene que la dimensi on de un subespacio siempre es menor o igual que la
dimension del espacio vectorial en el que se encuentra. Todo esto se recoge en la siguiente
proposici on.
Proposici on 1.3.4
Sea V un K-espacio vectorial y U un subespacio vectorial de V . Entonces U es un Kespacio
vectorial de tipo nito y, adem as, dim(U) dim(V ). Si dim(U) = dim(V ), entonces U = V .
1.4 Suma e intersecci on de subespacios. Suma directa
Si V es un Kespacio vectorial y U
1
y U
2
son subespacios vectoriales de V es muy facil demostrar,
usando la proposici on 1.2.1, que la intersecci on de U
1
y U
2
, U
1
U
2
es un subespacio vectorial de
V . Analogamente se obtiene el mismo resultado para la intersecci on de una familia cualquiera
de subespacios de V .
La siguiente sesi on Maple muestra c omo calcular la interseccion de dos subespacios de R
5
presentados por sus respectivos sistemas de generadores.
16 CAP

ITULO 1. ESPACIOS VECTORIALES


Consideremos el subespacio U 1 generado por los vectores v 1, v 2, v 3 y v 4.
>
v_1:=vector([1,0,-1,1,0]):v_2:=vector([1,1,-1 ,1,0]):
>
v_3:=vector([1,1,1,1,1]):v_4:=vector([1,0,1,0,1]):
Consideremos el subespacio U 2 generado por los vectores w 1, w 2 y w 3.
>
w_1:=vector([1,0,0,1,0]):w_2:=vector([1,-1,-1 ,-1,-1]):
>
w_3:=vector([0,0,1,0,1]):
Todo vector en U 1 es una combinacion lineal de v 1, v 2, v 3 y v 4.
>
Vector_en_U_1:=evalm(alpha*v_1+beta*v_2+delta*v_3+tau*v_4);
Vector en U 1 := [ + + +, +, + +, + +, +]
Todo vector en U 2 es una combinacion lineal de w 1, w 2 y w 3.
>
Vector_en_U_2:=evalm(a*w_1+b*w_2+c*w_3);
Vector en U 2 := [a +b, b, b +c, a b, b +c]
Las ecuaciones siguientes dan las condiciones de pertenencia a la interseccion de U 1 y
U 2.
>
eqn:=evalm(Vector_en_U_1-Vector_en_U_2);
eqn := [+ + + ab, + +b, + + +bc, + + a+b, + +bc]
>
Solc:=solve(eqn[1],eqn[2],eqn[3],eqn[4],eqn[5],alpha,
>
beta,delta,tau,a,b,c);
Solc := = b, = 2 b, a = +b, b = b, = , c = + 3 b, = +b
La sustitucion de las soluciones obtenidas en las ecuaciones parametricas de U 1 o U 2,
proporciona las ecuaciones parametricas del subespacio interseccion de U 1 y U 2.
>
Vector_en_U_1_y_U_2:=evalm(subs(Solc,
>
alpha*v_1+beta*v_2+delta*v_3+tau*v_4));
Vector en U 1 y U 2 := [ + 2 b, b, + 2 b, , + 2 b]
>
Vector_en_U_2_y_U_1:=evalm(subs(Solc,a*w_1 +b*w_2+c*w_3));
Vector en U 2 y U 1 := [ + 2 b, b, + 2 b, , + 2 b]
La interseccion de los subespacios U 1 y U 2 esta generada por los vectores q 1 y q 2
determinados a partir de las ecuaciones parametricas del subespacio interseccion de U 1
y U 2.
>
q_1:=map(coeff,Vector_en_U_2_y_U_1,delta,1);
q 1 := [1, 0, 1, 1, 1]
>
q_2:=map(coeff,Vector_en_U_2_y_U_1,b,1);
q 2 := [2, 1, 2, 0, 2]
Sin embargo, el mismo resultado, para la union de subespacios es claramente falso como
muestra el siguiente ejemplo en R
2
como Respacio vectorial:
U
1
= (1, 1)), U
2
= (1, 1))
(1, 1) U
1
U
2
, (1, 1) U
1
U
2
, (2, 0) , U
1
U
2
Este comportamiento de la uni on de subespacios es lo que motiva la denici on del subespacio
suma de U
1
y U
2
como
U
1
+U
2
= U
1
U
2
)
esto es, como el m as peque no de los subespacios de V que contienen a U
1
U
2
. Si U
1
y U
2
son
de tipo nito se tiene, de acuerdo con la denici on de subespacio suma, que:
U
1
= w
1
, . . . , w
s
) , U
2
= v
1
, . . . , v
t
) = U
1
+U
2
= w
1
, . . . , w
m
, v
1
, . . . , v
t
)
1.4. SUMA E INTERSECCI

ON DE SUBESPACIOS. SUMA DIRECTA 17


A continuaci on se muestra la raz on por la que a este nuevo subespacio se le denomina subespacio
suma: todo vector en U
1
+U
2
es suma de un vector en U
1
y de otro vector en U
2
.
Proposici on 1.4.1
Sea V un K-espacio vectorial y U
1
y U
2
subespacios vectoriales de V . Entonces:
U
1
+U
2
= v
1
+v
2
: v
1
U
1
, v
2
U
2

An alogamente para s subespacios de V se tiene:


U
1
+U
2
+. . . +U
s
= U
1
U
2
. . . U
s
)
y es muy sencillo demostrar:
U
1
+U
2
+. . . +U
s
= v
1
+v
2
+. . . +v
s
: v
1
U
1
, v
2
U
2
. . . , v
s
U
s

De la denici on de U
1
+ U
2
se deduce claramente que siempre se verica la siguiente de-
sigualdad
dim(U
1
+U
2
) dim(U
1
) + dim(U
2
)
ya que la uni on de dos bases B
1
y B
2
de U
1
y U
2
nos proporciona, a lo sumo, un sistema de
generadores de U
1
+U
2
. Puesto que se verica la equivalencia
B
1
B
2
base de U
1
+U
2
U
1
U
2
= 0
Hemos demostrado:
dim(U
1
+U
2
) = dim(U
1
) + dim(U
2
) U
1
U
2
= 0
equivalencia que motiva la denici on de suma directa de dos subespacios y la introducci on
de la f ormula de Grasmann que proporciona la relaci on existente entre las dimensiones de los
subespacios U
1
, U
2
, U
1
+U
2
y U
1
U
2
.
Denici on 1.4.1
Sea V un K-espacio vectorial y U
1
y U
2
subespacios vectoriales de V . Se dice que la suma de
U
1
y U
2
, U
1
+U
2
, es directa si U
1
U
2
= 0. En tal caso escribiremos U
1
+U
2
= U
1
U
2
Teorema 1.4.1 (Formula de Grasmann)
Sea V un K-espacio vectorial y U
1
y U
2
subespacios vectoriales de V . Entonces:
dim(U
1
+U
2
) = dim(U
1
) + dim(U
2
) dim(U
1
U
2
)
Ya hemos mostrado que la suma de dos subespacios es directa si y s olo si la uni on de las
bases de los subespacios es una base del subespacio. La siguiente proposici on muestra como
renar el resultado de la proposici on 1.4.1 que describa de forma precisa los elementos del
subespacio U
1
+U
2
.
Proposici on 1.4.2
Sea V un K-espacio vectorial y U
1
y U
2
subespacios vectoriales de V . Las siguientes arma-
ciones son equivalentes:
18 CAP

ITULO 1. ESPACIOS VECTORIALES


1. La suma de U
1
y U
2
es directa.
2. La union de dos bases cualesquiera de U
1
y U
2
es una base de U
1
+U
2
.
3. Todo vector de U
1
+U
2
se escribe, de forma unica, como suma de un vector en U
1
y de
un vector en U
2
.
Se naliza el captulo generalizando todo lo anterior al caso de la suma de m as de dos
subespacios. Para ello se nota en primer lugar que si se quieren mantener las propiedades 2
y 3 de la proposici on anterior no se puede denir la suma directa de s subespacios mediante
condiciones sobre sus intersecciones. Si en R
3
, como Respacio vectorial, se consideran los
subespacios
U
1
= (1, 0, 0), (0, 0, 1)), U
2
= (0, 1, 0)), U
3
= (1, 1, 0)),
se tiene
U
1
U
2
U
3
= U
1
U
2
= U
2
U
3
= U
1
U
3
= 0
pero ni la uni on de sus bases no es una base de U
1
+ U
2
+ U
3
, ni todo vector de U
1
+ U
2
+ U
3
se escribe de forma unica como suma de un vector en U
1
, de un vector en U
2
y de un vector en
U
3
:
(0, 0, 0) = (0, 0, 0) + (0, 0, 0) + (0, 0, 0) = (1, 0, 0) + (0, 1, 0) + (1, 1, 0)
Denici on 1.4.2
Sea V un K-espacio vectorial y U
1
, . . . , U
s
subespacios vectoriales de V . Se dice que la suma de
U
1
, . . . , U
s
es directa, y escribiremos U
1
. . . U
s
, si todo vector de U
1
+. . . +U
s
se escribe, de
forma unica, como suma de un vector en U
1
, de un vector en U
2
, . . . , y de un vector en U
s
.
Proposici on 1.4.3
Sea V un K-espacio vectorial y U
1
, . . . , U
s
subespacios vectoriales de V . Las siguientes arma-
ciones son equivalentes:
1. La suma de U
1
, . . . , U
s
es directa.
2. La union de s bases cualesquiera de U
1
, . . . , U
s
es una base de U
1
+. . . +U
s
.
Notar nalmente que si la suma U
1
+. . . +U
s
es directa entonces la intersecci on de cualquier
n umero de subespacios en U
1
, . . . , U
s
es igual a 0.
Ejemplo 1.4.1
Sea / el conjunto de matrices 2 3 con coecientes reales, y U y W los subespacios
siguientes.
U = M =
_
a
11
a
12
a
13
a
21
a
22
a
23
_
/ : 2a
11
+a
22
= a
23

W = M / : M
_
_
1 2
1 1
0 0
_
_
=
_
0 0
0 0
_

1.4. SUMA E INTERSECCI

ON DE SUBESPACIOS. SUMA DIRECTA 19


Es facil deducir que una base de U es
B
U
=
_
1 0 0
0 0 2
_
,
_
0 1 0
0 0 0
_
,
_
0 0 1
0 0 0
_
,
_
0 0 0
1 0 0
_
,
_
0 0 0
0 1 1
_

y una base de W es
B
W
=
_
0 0 1
0 0 0
_
,
_
0 0 0
0 0 1
_

Utilizando las bases obtenidas uno puede comprobar que U W =<


_
0 0 1
0 0 0
_
>. De
la f ormula de las dimensiones, se deduce que U +W = /.
Se considera el Respacio vectorial V = R
6
, y los siguientes subespacios de V :
U = (x, y, z, r, s, t) R
6
: x +y +z = 0, r +s +t = 0
W = (x, y, z, r, s, t) R
6
: x y = 0, x z = 0, r s = 0, r t = 0
Puesto que un vector v = (x, y, z, r, s, t) U W si y solo si
x +y +z = 0, r +s +t = 0, x y = 0, x z = 0, r s = 0, r t = 0
podemos deducir que el unico vetor que est a en U W es el vector nulo.
Una base de U es
B
U
= (1, 1, 0, 0, 0, 0), (1, 0, 1, 0, 0, 0), (0, 0, 0, 1, 1, 0), (0, 0, 0, 1, 0, 1)
Una base de W es
B
W
= (1, 1, 1, 0, 0, 0), (0, 0, 0, 1, 1, 1)
La f ormula de Grasmann nos asegura que la dimensi on de U + W es 6, y que dicho
subespacio es por tanto todo R
6
. Como U W = 0, R
6
= U W.
En el R-espacio vectorial R
4
se consideran los subespacios
W = (x, y, z, t) R
4
: x +y +z = 0, t = 0 y U = (2a, a +b, a + 3b, 0) : a, b R
Un vector v que este tanto en U como en W, vericar a 2a + (a +b) + (a + 3b) = 0, y
se tendra que
v U W v = a(2, 1, 1, 0)
esto es, U W =< (2, 1, 1) >. Para hallar una base de U +W consideramos una de
U W y la ampliamos sucesivamente a una de U y a una de W. As una base de U +W
es B = ((2, 1, 1), (0, 1, 1, 0), (0, 1, 3).
20 CAP

ITULO 1. ESPACIOS VECTORIALES


1.5 Ejercicios Captulo 1
Espacios Vectoriales
Ejercicio 1
Sea Q el cuerpo de los n umeros racionales. C uales de los siguientes subconjuntos del Qespacio
vectorial Q
3
son subespacios vectoriales?
a) R = (x, y, z) Q
3
: 3x 8y = 0.
b) S = (x, y, z) Q
3
: 3x 8y = 4.
c) T = (x, y, z) Q
3
: x Z
+
o x Q

.
Ejercicio 2
Sea V un K-espacio vectorial no nulo, donde K = Q, R o C.
a) Demuestra que V posee un n
o

innito de vectores.
b) Sea u, v una familia libre de vectores de V y a, b K con b ,= 0. Prueba que la familia
bu, au +v es tambien libre.
c) Sean u, v, w vectores de V linealmente independientes Prueba que tambien u + v, u v,
u 2v +w son linealmente independientes.
d) Para V = R
3
y K = R, estudia si cada uno de los conjuntos de vectores siguientes es un
sistema libre o un sistema dependiente:
S = (3, 1, 1), (1, 3, 1), (1, 1, 3)
T = (3, 2, 1), (1, 3, 2), (1, 2, 3)
e) Para V = C
3
y K = C, estudia si cada uno de los conjuntos de vectores siguientes es
linealmente dependiente o independiente:
S = (1, 0, i), (0, i, 1), (i, 1, 1 +i)
T = (1, i, i), (0, 1, 1 + 2i), (1, 1 +i, 1)
Ejercicio 3
Prueba que la familia 1 +X, X +X
2
, 1 +X
2
es un sistema generador libre de
Q
2
[X] = p(X) Q[X] : grado(p(X)) 2
Escribe 3 + 2X + 5X
2
como combinaci on lineal de la familia anterior.
Ejercicio 4
Decir, razonadamente, si es verdadera o falsa cada una de las armaciones siguientes.
1.5. EJERCICIOS CAP

ITULO 1 ESPACIOS VECTORIALES 21


1. Se considera el siguiente conjunto de vectores de R
3
S = (1, 1, 1), (1, a
2
+ 1, a + 1), (1, a
2
+ 1, 2a) con a R .
Entonces para todo a R se verica que la dimensi on del subespacio generado por S es
mayor que 1.
2. En el C-espacio vectorial C
2
el conjunto de vectores (1, i), (i, 1) es base.
3. En el R-espacio vectorial R
3
existen vectores v
1
, v
2
, v
3
linealmente dependientes tal que
v
1
, v
2
son linealmente independientes, v
1
, v
3
son linealmente independientes, as como
tambien lo son v
2
, v
3
.
Ejercicio 5
D razonadamente si es verdadera o falsa cada una de las armaciones siguientes:
En un espacio vectorial
a) Todo vector es combinaci on lineal, de forma unica, de un sistema generador.
b) Todo vector es combinaci on lineal, de forma unica, de una familia libre.
c) Si un vector es combinaci on lineal de una familia libre, los coecientes son unicos.
Ejercicio 6
Demuestra que en el R - espacio vectorial R
3
ninguno de los vectores v
1
= (1, 1, 1), v
2
(0, 0, 1)
depende linealmente de S = w = (1, 1, 0). Es w combinaci on lineal de los vectores v
1
y v
2
?
D si es verdadera o falsa la armaci on siguiente:
Aunque ninguno de los vectores v
1
, v
2
, . . . , v
p
dependa linealmente de un sistema
S = w
1
, w
2
, . . . , w
q
, puede ocurrir que alguna combinaci on lineal de aquellos de-
penda linealmente de S.
Ejercicio 7
Sean u y v dos vectores distintos de un K - espacio vectorial V . Analiza si algunos de los vectores
(2 +)u + (3 )v con K pueden ser iguales. Es S = (2 +)u + (3 )v : K un
subespacio vectorial de V ?.
Ejercicio 8
En el R - espacio vectorial R
4
[X] se consideran los conjuntos de vectores siguientes: S =
2 X, 1 +X
2
, X +X
3
y T = 1, X
2
.
Prueba que S y T son libres y que todo vector de T es linealmente independiente de S.
Establece una combinaci on lineal nula de los vectores 2 X, 1 +X
2
, X +X
3
, 1, X
2
en
la que no todos los escalares de la misma sean cero.
D si es verdadera o falsa la armaci on siguiente:
22 CAP

ITULO 1. ESPACIOS VECTORIALES


Si en un K - espacio vectorial V , S = v
1
, v
2
, . . . , v
p
y T = w
1
, w
2
, . . . , w
q

son sistemas libres y todo vector de T es linealmente independiente de S en-


tonces el conjunto S T es un sistema libre.
Ejercicio 9
Considera los siguientes subconjuntos de R
4
S = (5, 2, 3, 4), (1, 0, 1, 0), (7, 3, 5, 6)
T
1
= (1, 0, 0, 0), (1, 1, 1, 1), (1, 1, 1, 1), (1, 2, 3, 4)
T
2
= (6,
5
2
, 4, 5), (11, 3, 1, 6), (
13
2
,
5
2
,
7
2
, 5), (3, 1, 1, 2)
1. Determina una base B del subespacio generado por S.
2. Extiende el conjunto B hallado anteriormente a una base de R
4
a nadiendo, si es posible,
vectores de T
1
.
3. Realiza el mismo ejercicio que en el apartado anterior pero teniendo en cuenta T
2
.
Ejercicio 10
Sea V el Respacio vectorial de los polinomios con coecientes reales de grado menor o igual
que 3. En V se consideran los siguientes subconjuntos:
W = p(X) V : p

(0) = 0 y T = p(X) V : p

(1) = 0
donde p

(X) y p

(X) representan, respectivamente, la derivada primera y la derivada segunda


del polinomio p(X).
a) Demuestra que W y T son subespacios vectoriales de V .
b) Determina bases de W y T, as como del subespacio W T.
c) Determina, si existe, una base de un subespacio U tal que U (W T) = V .
Ejercicio 11
Se considera el Respacio vectorial V = R
5
.
a) Da un subespacio vectorial U de V de dimension 2.
b) Da dos subespacios distintos W y W

de V tales que V = W U y V = W

U.
c) Para los subespacios que hayas dado en b), determina W W

.
d) En alg un caso hubieras podido encontrar subespacios W y W

con las condiciones de b)


y W W

= 0?.
1.5. EJERCICIOS CAP

ITULO 1 ESPACIOS VECTORIALES 23


Ejercicio 12
En R
3
se considera la base can onica e
1
, e
2
, e
3
, y los subespacios W = e
1
, e
2
), W

= e
3
)
y W

= e
2
+e
3
).
a) Prueba que R
3
= W +W

+W

y W W

= W W

= W

= 0.
b) Es R
3
= W W

?.
Ejercicio 13
En el R-espacio vectorial R
4
se consideran dos subespacios U y W tales que dimU = r 1 y
dimW = s 1. Determinar todos los posibles valores de r y de s para que la suma U + W
pueda ser directa.
Ejercicio 14
Considera los subespacios de R
3
siguientes.
S = (1, 1, 2), (1, 1, 3)) y T = (a, 3a 2b, a +b) : a, b R
Determina bases de S, T, S T y S +T. Es R
3
= S T?.
Ejercicio 15
18 Sea V un espacio vectorial n-dimensional y W y W

dos subespacios de V .
Supuesto que W W

= 0
1. Demuestra que existe un subespacio U tal que V = U + W. Dicho subespacio U,
es unico?.
2. Existe un subespacio U tal que V = W U y W

U?.
3. Existe un subespacio W

tal que V = W W

?.
Si V = W +W

. Prueba que V = W W

si y solo si dimV = dimW + dimW

.
Ejercicio 16
Sea M
n
(R) el Respacio vectorial de matrices n n con coecientes reales.
a) Demuestra que el conjunto W formado por todas las matrices (a
ij
) tales que a
ij
= 0 para
i > j es un subespacio de M
n
(R).
b) Admitiendo que W

= (a
ij
) M
n
(R) : aij = 0 si i < j es un subespacio,
describe el subespacio W W

, y determina bases y dimensi on de W, W

y W W

.
Ejercicio 17
En el Respacio vectorial R
n
[X] (conjunto de polinomios de coecientes reales de grado menor
o igual a n) se considera el subconjunto B = p
0
(X), p
1
(X), p
2
(X), . . . , p
n
(X) donde el grado
de p
i
(X) es i para i = 0, 1, 2, . . . , n. Demuestra que B es una base de R
n
[X].
24 CAP

ITULO 1. ESPACIOS VECTORIALES


Ejercicio 18
En R
4
se consideran los siguientes subespacios
U = (x, y, z, t) R
4
: x 2y +z = 0, z + 3t = 0
W = (2a, a + 4b, 0, c +b) R
4
: a, b, c R
Determina bases y dimensi on de los mismos. Es R
4
= U +W?
Ejercicio 19
Sea V un Kespacio vectorial. D si es verdadera o falsa cada de las armaciones siguientes.
a) Si V = U W T, v , U W, entonces v T.
b) Si dimV = 2n, entonces es posible encontrar subespacios U y W de V , ambos de di-
mension n y tales que V = U W.
c) Si dimV = 6, y U y W son ambos de dimensi on 3, entonces V = U W.
d) Si U y W son subespacios de V tales que dimU +dimW > dimV , entonces U W ,= 0.
Ejercicio 20
Sean los subespacios de R
3
y R
4
, respectivamente, dados por las condiciones:
(A)
_
_
_
x +y = 0
y +z = 0
2x + 3y +z = 0
(B)
_
_
_
x y +z +t = 0
x y + 4z = 0
5x + 6y z +t = 0
Determina las bases de dichos subespacios.
Ejercicio 21
Se consideran los vectores de R
3
siguientes v
1
= (2, 4, 6), v
2
= (1, 2, 1), v
3
= (8, 8, 16) y
v
4
= (6, 4, 10).
a) Es la familia de vectores anterior libre? Es base de R
3
?
b) Se puede obtener una base de R
3
eliminando alguno de los vectores v
i
? Es el vector
(1, 0, 0) combinaci on lineal de la familia (v
1
, v
2
, v
3
, v
4
)?.
c) Sea S = v
1
, v
2
, v
3
, v
4
). Determina un subespacio T de R
3
tal que R
3
= S T.
Ejercicio 22
Una matriz 3 3 con coecientes reales
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
se dice que es un cuadrado m agico si la suma de todos los terminos de cada una de las las y
de cada una de las columnas es un mismo n umero s.
1.5. EJERCICIOS CAP

ITULO 1 ESPACIOS VECTORIALES 25


1. Reescribe las condiciones para un cuadrado m agico como un sistema de ocho ecuaciones
en funcion de s, a
i
, b
i
, c
i
con 1 i 3, y aplica el algoritmo de Gauss a dicho sistema.
2. Prueba que 3b
2
= s.
3. Reemplaza las estrellas por n umeros para convertir la siguiente matriz en un cuadrado
m agico.
_
_
1

2 4
_
_
4. Demuestra que los cuadrados m agicos forman un subespacio del Respacio vectorial de
las matrices reales 3 3. Prueba que una base de dicho subespacio est a dada por las
matrices siguientes.
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
1 1 0
1 0 1
0 1 1
_
_
_
_
0 1 1
1 0 1
1 1 0
_
_
5. Probar que toda matriz
_
_
a
1
a
2
a
3


_
_
puede convertirse en un cuadrado m agico. Hay una unica forma de hacer esto?.
26 CAP

ITULO 1. ESPACIOS VECTORIALES


Captulo 2
Aplicaciones Lineales y Matrices
En el captulo anterior se han introducido los terminos y propiedades relativas al concepto de
espacio vectorial. En este captulo se estudian las aplicaciones ligadas a estos espacios: las
aplicaciones lineales o los homomorsmos de espacios vectoriales. El signicado del termino
homomorsmo proporciona una primera idea de lo que se pretende con este estudio: que se
puede decir de aquellas aplicaciones en las que la suma de dos vectores se transforma en la
suma de sus transformados, y el doble, la mitad, . . . de un vector se transforma en el doble,
la mitad, . . . de su transformado?; que fenomenos, en principio al menos, se maniestan de
forma lineal?.
2.1 Denici on de Aplicaci on Lineal. Ejemplos
Denici on 2.1.1
Sean V y W dos Kespacios vectoriales, y f : V W una aplicaci on. Se dice que f es un
homomorsmo de espacios vectoriales o una aplicaci on lineal si se verica la siguiente condici on
cualesquiera que sean los elementos a
1
, a
2
de K y v
1
, v
2
de V :
f(a
1
v
1
+a
2
v
2
) = a
1
f(v
1
) +a
2
f(v
2
).
Es facil probar que la condici on de la denici on anterior es equivalente a que se veriquen:
f(v
1
+v
2
) = f(v
1
) +f(v
2
) y f(av) = af(v)
cualesquiera que sean v
1
, v
2
, y v en V y a en K.
Cuando V = W, la aplicaci on lineal recibe el nombre de endomorsmo de V .
Ejemplo 2.1.1
A continuaci on se muestran una serie de aplicaciones entre espacios vectoriales, de las cu ales
unas son lineales y otras no.
La aplicaci on f : R
3
R
2
denida por f(x, y, z) = (2x, 3x z) es una aplicaci on lineal.
La aplicaci on f : R
3
R
4
denida por f(x, y, z) = (2x, 3x z, 2y + z, x + y + z) es una
aplicaci on lineal.
27
28 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


La aplicaci on f : R
n
R
m
denida por f(x
1
, . . . , x
n
) = (y
1
, . . . , y
m
) donde
y
i
=
n

k=1
a
ik
x
k
para i = 1, . . . , m es una aplicaci on lineal.
La aplicaci on f : R
3
[X] R
3
[X] que a cada polinomio le asocia su derivada es una
aplicaci on lineal.
La aplicaci on f : R
3
[X] R
6
[X] que a cada polinomio le asocia su cuadrado no es una
aplicaci on lineal.
Si U y W son subespacios de V tales que V = U W entonces la aplicaci on de V en U
que a cada vector v = u + w con u U y w W, le asocia el vector u es una aplicaci on
lineal, llamada proyecci on de V sobre U (en la direcci on de W).
Si M es el espacio vectorial de las matrices cuadradas 3 3 con coecientes reales, la
aplicaci on de M en R que a cada matriz le asocia el producto de los elementos de su
diagonal principal no es lineal.
Si M es el espacio vectorial de las matrices cuadradas n n con coecientes reales, la
aplicaci on de M en R que a cada matriz le asocia la suma de los elementos de su diagonal
principal (su traza) es lineal.
La siguiente sesi on Maple muestra c omo comprobar si una aplicaci on de R
3
en R
2
es lineal
o no.
>
with(linalg):
La aplicaci on que vamos a considerar es la siguiente
>
T:=(x,y,z)->(x-y,y-z);
T := (x, y, z) (x y, y z)
A continuaci on consideramos dos vectores cualesquiera y una combinaci on lineal de
los mismos. Posteriormente veremos si la imagen de dicha combinaci on lineal es la com-
binaci on lineal de las im agenes.
>
v:=vector([a1,b1,c1]);u:=vector([a2,b2,c2]);
v := [a1, b1, c1]
u := [a2, b2, c2]
2.2. N

UCLEO E IMAGEN. F

ORMULA DE LAS DIMENSIONES 29


>
av:=evalm(a*v);
av := [a a1, a b1, a c1]
>
bu:=evalm(b*u);
bu := [b a2, b b2, b c2]
>
w1:= evalm(av+bu);
w1 := [a a1 +b a2, a b1 +b b2, a c1 +b c2]
>
T(w1):=[T(a*a1+b*a2, a*b1+b*b2, a*c1+b*c2)];
T(w1) := [a a1 +b a2 a b1 b b2, a b1 +b b2 a c1 b c2]
>
w2:=evalm(a*[T(a1,b1,c1)]+b*[T(a2,b2,c2)]);
w2 := [a (a1 b1) +b (a2 b2), a (b1 c1) +b (b2 c2)]
>
c:=map(expand,evalm (T(w1)-w2));
c := [0, 0]
Si c=(0,0), T(w1)=w2 y T es lineal.
Proposici on 2.1.1
Sea f : V W una aplicacion lineal. Se tiene entonces:
1. f(v) = f(v) cualquiera que sea v V y f(0) = 0.
2. f
_
r

k=1
a
k
v
k
_
=
r

k=1
a
k
f(v
k
).
3. Toda familia de vectores de V linealmente dependiente se transforma en una familia de
vectores de W linealmente dependiente.
4. Si g : W U es una aplicaci on lineal entonces la aplicaci on g f : V U tambien es
una aplicacion lineal.
2.2 N ucleo e imagen. F ormula de las dimensiones
Del concepto de aplicaci on lineal surgen dos subespacios de especial relevancia, cuyo estudio es
el objeto de esta seccion.
Proposici on 2.2.1
Sea f : V W una aplicacion lineal. Los conjuntos
1. N ucleo de f:
ker(f) = v V : f(v) = 0
2. Imagen de f:
im(f) = f(v) : v V
son subespacios vectoriales de V y de W respectivamente.
La demostraci on de cada uno de los apartados de la proposici on anterior no entra na ninguna
dicultad por lo que se deja como ejercicio para el lector.
Los siguientes ejemplos ilustran los conceptos anteriores.
30 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Ejemplo 2.2.1
Si f : R
3
R
2
es la aplicaci on lineal denida por f(x, y, z) = (2x, 3x z) entonces
ker(f) = (0, 1, 0)) y im(f) = R
2
.
Si f : R
3
R
4
es la aplicaci on denida por f(x, y, z) = (2x, 3x z, 2y + z, x + y + z)
entonces ker(f) =

0 y im(f) = (2, 3, 0, 1), (0, 0, 1, 1), (0, 1, 1, 1)).


Si f : R
3
[X] R
3
[X] es la aplicaci on lineal que a cada polinomio le asocia su derivada
entonces ker(f) = 1) y im(f) = R
2
[X].
Si U y W son subespacios de V tales que V = U W, y f es la aplicaci on lineal de V
en U que a cada vector v = u + w con u U y w W, le asocia el vector u entonces
ker(f) = W y im(f) = U.
Si M es el espacio vectorial de las matrices cuadradas n n con coecientes reales, y f
la aplicaci on de M en R que a cada matriz le asocia su traza entonces im(f) = R. Si
A
ij
denota la matriz de M que tiene un 1 en el lugar ij, y 0 en todos los dem as lugares
entonces ker(f) = A
ij
: i, j = 1, . . . , n; i ,= j A
11
A
ii
: i = 2, . . . , n). Que
dimension tiene ker(f)?.
Las funciones que proporciona Maple para la resoluci on de sistemas de ecuaciones lineales
sirven para determinar el n ucleo y la imagen de una aplicaci on lineal de R
3
en R
2
. Se muestran
dos ejemplos en los que se manipulan dichos subespacios. En el primero se obtiene el n ucleo
de una aplicaci on lineal sin hacer uso ni de la funci on kernel ni de la funci on nullspace, que
son primitivas del paquete with(linalg) de Maple, especcas para calcular el n ucleo de una
aplicaci on lineal ( o equivalentemente, como se ver a m as adelante, de una matriz).
>
with(linalg):
>
A:=matrix([[1,-1,0],[0,1,-1]]);
A :=
_
_
1 1 0
0 1 1
_
_
>
v:=vector([x1,x2,x3]);
v := [x1, x2, x3]
Vamos a denir la aplicaci on lineal a traves de la multiplicaci on de matrices.
>
multiply(A,v);
[x1 x2, x2 x3]
>
T:= v->multiply(A,v);
T := v multiply(A, v)
Tratamos de encontrar todos los vectores v para los cu ales T(v)=0
>
T(v)=evalm(vector([0,0]));
[x1 x2, x2 x3] = [0, 0]
2.2. N

UCLEO E IMAGEN. F

ORMULA DE LAS DIMENSIONES 31


>
AUG:=matrix([[1,-1,0,0],[0,1,-1,0]]);
AUG :=
_
_
1 1 0 0
0 1 1 0
_
_
>
solucion:=backsub(gausselim(AUG));
solucion := [ t
1
, t
1
, t
1
]
La soluci on en este caso tambien podra haberse encontrado sin aplicar gausselim pues
AUG ya tena ceros por debajo de los elementos aii.
>
solucion:=backsub(AUG);
solucion := [ t
1
, t
1
, t
1
]
Observese que el conjunto de soluciones es el subespacio generado por el vector (1,1,1).
En este nuevo ejemplo se efect ua el c alculo de la imagen de una aplicaci on lineal.
>
with(linalg):
>
A:=matrix([[1,3,-1],[0,1,1],[1,4,0]]);
A :=
_

_
1 3 1
0 1 1
1 4 0
_

_
>
v:=vector([x1,x2,x3]);
v := [x1, x2, x3]
>
T:= v->multiply(A,v);
T := v multiply(A, v)
>
w:=vector([a,b,c]);
w := [a, b, c]
>
T(v)=evalm(w);
[x1 + 3 x2 x3, x2 + x3, x1 + 4 x2] = [a, b, c]
>
AUG:=matrix([[1,3,-1,a],[0,1,1,b],[1,4,0,c]]) ;
AUG :=
_

_
1 3 1 a
0 1 1 b
1 4 0 c
_

_
>
AUG1:=gausselim(AUG);
AUG1 :=
_

_
1 3 1 a
0 1 1 b
0 0 0 c a b
_

_
El sistema T(v)=w tiene soluci on si y s olo si c-a-b=0, de donde se obtiene que
ImT=(a,b,a+b) /a , b n
o

s. reales=<(1,0,1),(01,1)>
Denici on 2.2.1
Sea f: V W una aplicacion lineal. La dimension de im(f) se denomina rango de la
aplicaci on lineal f
32 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Cual es el rango de cada una de las aplicaciones lineales en los ejemplos anteriores?.
La siguiente proposici on arma que para calcular la imagen y el rango de una aplicaci on
lineal f : V W es suciente determinar las im agenes de los vectores de un sistema generador
de V .
Proposici on 2.2.2
Sea f : V W una aplicacion lineal. Si v
1
, v
2
, . . . , v
r
es un sistema generador de V entonces
el conjunto f(v
1
), f(v
2
), . . . , f(v
r
) es un sistema generador de im(f).
La demostraci on de lo anterior se apoya en el hecho de que cualquier vector f(v) de im(f) se
puede expresar, por ser f lineal, como
f(v) = f(
1
v
1
+
2
v
2
+. . . +
r
v
r
) =
1
f(v
1
) +
2
f(v
2
) +. . . +
r
f(v
r
).
Utilizando los ejemplos anteriores se puede comprobar que se verica que la suma de las di-
mensiones de los espacio n ucleo e imagen coincide con la dimensi on del espacio inicial. Este
hecho no es una mera coincidencia, corresponde a un resultado que se conoce como Formula
de las dimensiones y que se recoge en el siguiente enunciado.
Teorema 2.2.1
Sea f : V W una aplicacion lineal. Entonces
dimker(f) + dimim(f) = dimV
El resultado anterior puede probarse viendo que
Si ker(f) = 0, entonces f(v
1
), f(v
2
), . . . , f(v
n
) es base de im(f) cuando v
1
, v
2
, . . .,
v
n
es una base de V .
Teniendo en cuenta 2.2.2 s olo falta probar que los vectores se nalados son linealmente
independientes.

1
f(v
1
) +
2
f(v
2
) +. . . +
r
f(v
r
) = f(
1
v
1
+
2
v
2
+. . . +
r
v
r
) = 0 =
=
1
v
1
+
2
v
2
+. . . +
r
v
r
ker(f) = 0 =
=
1
v
1
+
2
v
2
+. . . +
r
v
r
= 0 =
1
= . . . =
r
= 0
Si ker(f) ,= 0, y v
1
, v
2
, . . . , v
r
, v
r+1
, . . . , v
n
es una base de V donde v
1
, v
2
, . . . , v
r
es
una base de ker(f), entonces f(v
r+1
), . . . , f(v
n
) es una base de im(f).
Por razones an alogas a las anteriores no es necesario probar que el conjunto referido
es sistema generador de im(f), y para probar la independencia se tiene en cuenta que
ker(f) v
r+1
, . . . , v
n
) = 0.
2.3 Tipos de Aplicaciones Lineales. Isomorsmos.
Entre las aplicaciones lineales que se pueden establecer de un espacio vectorial en otro, de-
sempe nan un papel destacado aquellas que son inyectivas, por ser las que transportan la
forma del espacio inicial al espacio imagen. Si adem as el espacio imagen coincide con el es-
pacio nal, el espacio inicial y el nal son identicos desde el punto de vista de los espacios
vectoriales.
2.3. TIPOS DE APLICACIONES LINEALES. ISOMORFISMOS. 33
Denici on 2.3.1
Sea f : V W una aplicacion lineal.
1. Se dice que f es inyectiva si ker(f) = 0.
2. Se dice que f es sobreyectiva si im(f) = W.
3. Se dice que f es un isomorsmo si es biyectiva, es decir, si es simultaneamente inyectiva
y sobreyectiva.
De acuerdo con la F ormula de las Dimensiones y las pautas dadas para su demostraci on, se
pueden establecer las siguientes equivalencias.
f es inyectiva dimV = dimim(f) = rango(f)
f transforma una base de V en una base de im(f)
La serie anterior de equivalencias permite abordar el estudio de la inyectividad o no inyectividad
de una aplicaci on lineal por distintas vias como se muestra en los siguientes ejemplos.
Ejemplo 2.3.1
Sea f : R
3
R
4
la aplicaci on lineal denida por f(x, y, z) = (x+y, y, y z, x+z). Dicha
aplicaci on es inyectiva puesto que las im agenes de los vectores de la base can onica de R
3
son
f(1, 0, 0) = (1, 0, 0, 1), f(0, 1, 0) = (1, 1, 1, 0), f(0, 0, 1) = (0, 0, 1, 1)
vectores linealmente independientes de R
4
.
Tambien se puede mostrar que la aplicaci on anterior es inyectiva resolviendo el sistema
lineal homogeneo
x +y = 0, y = 0
y z = 0, x +z = 0
que es el que determina ker(f).
Sea f : R
2
[X] R
2
[X] la aplicaci on lineal denida por f(p(X)) = p(0)+p(1)X+p(2)X
2
.
ker(f) = p(X) R
2
[X] : p(0) = 0, p(1) = 0, p(2) = 0
As pues, ker(f) est a formado por aquellos polinomios de grado menor o igual a 2 que
tienen por raices a los n umeros 0, 1, 2. El unico polinomio de R
2
[X] con tres raices es el
polinomio nulo. Por tanto ker(f) = 0 y f es inyectiva. La f ormula de las dimensiones
nos permite deducir que f es sobreyectiva, y por tanto un isomorsmo.
Sea / el Respacio vectorial de las matrices reales n n con todos los elementos de la
diagonal principal nulos. Se considera la aplicaci on lineal f : / R
2
con f(M) = (a, b)
donde a es la suma de los elementos de M que estan por debajo de la diagonal principal
y b la suma de los elementos de M que estan por encima de la diagonal principal. Esta
aplicaci on lineal es sobreyectiva, y es inyectiva si y s olo si n = 2.
34 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


En uno de los ejemplos anteriores se establece una aplicaci on inyectiva entre espacios vecto-
riales de igual dimensi on, y esto ha permitido concluir que dicha aplicaci on es tambien sobreyec-
tiva. Este hecho es general y se recoge en una de las armaciones de la siguiente proposici on.
Proposici on 2.3.1
Sean V y W dos Kespacios vectoriales.
1. La composicion de dos aplicaciones inyectivas es inyectiva. La composicion de dos aplica-
ciones sobreyectivas es sobreyectiva. La composici on de dos isomorsmos es isomorsmo.
2. Si f : V W es una aplicacion lineal inyectiva o sobreyectiva y dimV = dimW, f es
un isomorsmo.
3. Si f : V W es un isomorsmo entonces dimV = dimW.
4. Si f : V W es isomorsmo entonces f
1
: W V es un isomorsmo.
5. Sea B = v
1
, v
2
, . . . , v
n
una base del Kespacio vectorial V . Cada vector v V se
expresa de forma unica en funci on de B: v = a
1
v
1
+ a
2
v
2
+ . . . + a
n
v
n
, y el elemento
(a
1
, a
2
, . . . , a
n
) de K
n
recibe el nombre de coordenadas de v respecto B. Si f : V K
n
es
la aplicaci on que a cada vector de V le asigna sus coordenadas respecto B entonces f es
un isomorsmo, llamado isomorsmo coordenado respecto de B.
6. Si V y W tienen la misma dimension entonces se puede establecer entre ellos un isomor-
smo, esto es, son isomorfos.
En los tres ejemplos que siguen se muestran algunos de los aspectos se nalados en la propo-
sicion anterior.
Ejemplo 2.3.2
En el Respacio vectorial R
2
[X] el polinonio 3 + 2X tiene coordenadas (3, 2, 0) respecto
de la base can onica B
C
= 1, X, X
2
, tiene coordenadas (2, 0, 3) respecto de la base
B = X, X
2
, 1, y (6, 4, 4) son las coordenadas del polinomio respecto de la base B

1
2
+X, X +X
2
, X
2

Ninguna aplicaci on lineal de R


n
en R
n
[X] es biyectiva puesto que las dimensiones de tales
espacios son n y n + 1 respectivamente.
Sea / el Respacio vectorial de las matrices de la forma
_
a 0
b c
_
con a, b, c R. Los
Respacios vectoriales R
2
[X] y / son isomorfos pues ambos son de dimensi on 3. La
aplicaci on lineal
f: R
2
[X] /
a +bX +cX
2

_
a 0
b c
_
es un isomorsmo.
Se puede comprobar que f = (
1
1
(, donde ( es la aplicaci on coordenada de R
2
[X]
cuando se considera la base 1, X, X
2
y (
1
1
es la inversa de la aplicaci on coordenada de
/ cuando se considera la base

_
1 0
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
_
.
2.4. MATRIZ ASOCIADA A UNA APLICACI

ON LINEAL 35
2.4 Matriz asociada a una aplicaci on lineal
En esta seccion, se estudian esencialmente las relaciones existentes entre las coordenadas de
un vector y las coordenadas de su imagen por una aplicaci on lineal, una vez que se han jado
sendas bases en los espacios inicial y nal de la aplicaci on considerada. Esto permitir a asociar,
de forma natural, una matriz a la aplicaci on lineal.
Antes de establecer las relaciones antes indicadas, se muestra bajo que condiciones queda
determinada (de forma unica) una aplicaci on lineal. Se ha visto anteriormente que si f : V W
es una aplicaci on lineal y v
1
, v
2
, . . . , v
r
es un sistema generador de V , en cuanto se conocen
los vectores f(v
i
) con i = 1, . . . , r, se puede conocer la imagen de cualquier vector de V . En
la siguiente proposici on se muestra bajo que condiciones el recproco tambien es cierto: en el
caso de asociar elementos de W a una base de V , queda determinada unvocamente una
aplicaci on lineal f : V W que verica las condiciones impuestas.
Proposici on 2.4.1
Sean V y W dos Kespacios vectoriales, B = v
1
, v
2
, . . . , v
n
una base de V y w
1
, w
2
, . . . , w
n

una familia cualquiera de vectores de W (donde eventualmente algunos vectores pueden coin-
cidir). Entonces existe una y s olo una aplicaci on lineal f : V W tal que
f(v
1
) = w
1
, f(v
2
) = w
2
, . . . , f(v
n
) = w
n
Si se desea que la aplicaci on a construir sea lineal y f(v
i
) = w
i
para i = 1, 2, . . . , n, es
obligado que f(v) sea a
1
w
1
+a
2
w
2
+. . . +a
n
w
n
si v = a
1
v
1
+a
2
v
2
+. . . +a
n
v
n
(de ah tambien
la unicidad). Es inmediato ver que la aplicaci on f as denida es lineal.
Ejemplo 2.4.1
Cual es la imagen de un vector cualquiera de R
3
[X] por la aplicaci on lineal f : R
3
[X] R
2
tal que f(1) = (0, 0), f(X) = (1, 0), f(X
2
) = (2, 2) y f(X
3
) = (3, 6)?.
Si g : R
3
[X] R
2
es la aplicaci on lineal denida por g(p(X)) = (p

(1), p

(1)), podemos
armar que f y g son iguales?.
Sean V y W dos Kespacios vectoriales, B
V
= v
1
, v
2
, . . . , v
n
y B
W
= w
1
, w
2
, . . . , w
m

bases de V y W respectivamente, y f : V W una aplicaci on lineal. Sean (x


1
, x
2
, . . . , x
n
) las
coordenadas de v V respecto de la base B
V
, y (y
1
, y
2
, . . . , y
m
) las coordenadas de f(v) W
respecto de la base B
W
. La relaci on existente entre (x
1
, x
2
, . . . , x
n
) y (y
1
, y
2
, . . . , y
m
) se obtiene
mediante los siguientes argumentos:
Por un lado se tiene f(v) = y
1
w
1
+y
2
w
2
+. . . +y
m
w
m
.
Por otro lado f(v) = f(x
1
v
1
+x
2
v
2
+. . . +x
n
v
n
) = x
1
f(v
1
) +x
2
f(v
2
) +. . . +x
n
f(v
n
). Si
f(v
i
), para i = 1, . . . , n, se escribe en funcion de B
W
se tendra
f(v
i
) = a
1i
w
1
+a
2i
w
2
+. . . +a
mi
w
m
=
m

j=1
a
ji
w
j
Tras llevar esto a la igualdad anterior, agrupar terminos en los que aparece el mismo
vector w
j
y utilizar la unicidad de expresi on de un vector en funci on de una base, se llega
36 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


a las siguientes ecuaciones:
y
1
= a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
y
2
= a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
.
.
.
.
.
.
y
m
= a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
conocidas como ecuaciones de f respecto de las bases B
V
y B
W
.
El sistema de ecuaciones anterior puede escribirse en forma matricial:
_
_
_
_
_
_
y
1
y
2
.
.
.
.
.
.
y
m
_
_
_
_
_
_
=
_
_
_
_
_
_
a
11
a
12
. . . . . . a
1n
a
21
a
22
. . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . . . . a
mn
_
_
_
_
_
_

_
_
_
_
_
_
x
1
x
2
.
.
.
.
.
.
x
n
_
_
_
_
_
_
Esta ecuaci on recibe el nombre de ecuaci on matricial de f respecto de las bases B
V
y
B
W
y la matriz (a
ij
) de dicha ecuaci on se denomina matriz de la aplicaci on lineal respecto
de las bases B
V
y B
W
y la denotaremos por /
B
V
,B
W
(f).
Los siguientes ejemplos muestran el c alculo explcito de la matriz asociada a una aplicaci on
lineal respecto un par de bases.
Ejemplo 2.4.2
Sea f : R
4
R
3
la aplicaci on lineal denida por
f(1, 1, 1, 1) = (1, 1, 1) f(1, 1, 1, 1) = (1, 1, 1)
f(1, 1, 1, 1) = (1, 1, 1) f(1, 1, 1, 1) = (1, 1, 1)
Si en R
4
consideramos la base
B = v
1
= (1, 1, 1, 1), v
2
= (1, 1, 1, 1), v
3
= (1, 1, 1, 1), v
4
= (1, 1, 1, 1)
y en R
3
la base can onica B
C
entonces:
/
B,B
C
(f) =
_
_
1 1 1 1
1 1 1 1
1 1 1 1
_
_
Si en R
4
y en R
3
consideramos las bases can onicas, teniendo en cuenta que
la base can onica de R
4
en funcion de B se expresa
e
1
=
1
2
(v
1
+v
4
), e
2
=
1
2
(v
3
v
4
), e
3
=
1
2
(v
2
v
3
), e
4
=
1
2
(v
1
v
2
)
cada f(v
i
) est a expresado en la base can onica de R
3
f es lineal
2.4. MATRIZ ASOCIADA A UNA APLICACI

ON LINEAL 37
entonces la matriz asociada a f respecto dichas bases es
_
_
0 1 0 0
0 0 1 0
0 0 0 1
_
_
.
Si g : R
3
[X] R
2
es la aplicaci on lineal denida por g(p(X)) = (p

(1), p

(1)), la matriz
asociada a g respecto de las bases can onicas de ambos espacios es
_
0 1 2 3
0 0 2 6
_
Sea / el Respacio vectorial de las matrices de la forma
_
a 0
b c
_
con a, b, c R y
f : R
2
[X] / la aplicaci on lineal denida por f(a + bX + cX
2
) =
_
a 0
b c
_
. Cual
es la matriz asociada a esta aplicaci on cuando en ambos subespacios se considera la base
can onica?.
Todo este proceso nos permite, una vez jadas bases de los espacios inicial y nal, asociar
a cada aplicaci on lineal una matriz, que por otra parte, como muestra la siguiente proposici on,
la determina puesto que el proceso es reversible.
Proposici on 2.4.2
Dados Kespacios vectoriales V y W en los que se consideran bases B
V
= v
1
, v
2
, . . . , v
n
y
B
W
= w
1
, w
2
, . . . , w
m
respectivamente, y una matriz M = (a
ij
) de tama no mn, existe una
aplicacion lineal (y s olo una) f : V W tal que /
B
V
,B
W
(f) = M.
Para denir la aplicaci on lineal cuya existencia asegura la proposici on anterior s olo hay que
considerar como aplicaci on f la denida por:
f(v
i
) = a
1i
w
1
+a
2i
w
2
+. . . +a
mi
w
m
=
m

j=1
a
ji
w
j
De este hecho resulta que habitualmente se identique aplicaci on lineal y matriz, y que enun-
ciados como el siguiente sean habituales.
Sea A la aplicaci on lineal de R
3
en R
3
[X] denida por
A =
_
_
_
_
0 0 0
1 0 0
2 1 0
3 2 1
_
_
_
_
Cuales son las im agenes de los vectores (0, 1, 0) y (1, 2, 3) por esta aplicaci on?.
Ese mismo enunciado se podra haber expresado as:
38 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Sea f : R
3
R
3
[X] la aplicaci on lineal que respecto de las bases can onicas est a
denida por la matriz
A =
_
_
_
_
0 0 0
1 0 0
2 1 0
3 2 1
_
_
_
_
Quien es f(0, 1, 0)?. Y f(1, 2, 3)?.
El proceso realizado hasta aqu nos permite identicar el conjunto de las aplicaciones lineales
entre dos espacios vectoriales con el espacio vectorial de las matrices (con las dimensiones
apropiadas) como muestra el siguiente teorema.
Teorema 2.4.1
Sean V y W Kespacios vectoriales y B
V
y B
W
bases de V y W respectivamente. Denotemos
por L el conjunto de las alplicaciones lineales de V en W, y por / el Kespacio vectorial de
las matrices m n con coecientes en K, donde m = dimW y n = dimV . Se tiene entonces
que:
1. L tiene estructura de Kespacio vectorial con las operaciones siguientes
(f +g)(v) = f(v) +g(v) y (af)(v) = af(v)
donde f y g son elementos cualesquiera de L, y a K
2. Si : L / es la aplicacion que asocia a cada aplicacion lineal f la matriz /
B
V
,B
W
(f)
entonces es un isomorsmo de Kespacios vectoriales.
Al comienzo de este captulo se ha denido rango de una aplicaci on lineal, y ahora se ha
visto la identicaci on de aplicaci on lineal y matriz, por tanto la pregunta siguiente es obvia:
que relaci on existe entre el rango de una aplicaci on lineal y el rango de cualquiera de sus
matrices asociadas?.
Si V y W son Kespacios vectoriales, B
V
= v
1
, v
2
, . . . , v
n
y B
W
= w
1
, w
2
, . . . , w
m
bases
de V y W respectivamente, y f : V W una aplicaci on lineal tal que A = /
B
V
,B
W
(f), se
tiene que el vector f(v
i
) esta identicado, va el isomorsmo coordenado de W respecto B
W
,
con la columna i-esima de la matriz A, por tanto
rango(f) = dim(im(f)) = rangof(v
1
), f(v
2
), . . . , f(v
n
) =
= rango(a
11
, . . . , a
m1
), (a
12
, . . . , a
m2
), . . . , (a
1n
, . . . , a
mn
) = rango por columnas de A
Consideremos ahora el subespacio S de K
n
generado por las las de la matriz A. La
dimension de dicho subespacio es el rango por las de tal matriz, aunque en lo sucesivo no
distinguiremos el rango por las del rango por columnas puesto que ambos coinciden como
muestra la siguiente proposici on.
Proposici on 2.4.3
En la matriz A el rango por las y el rango por columnas es el mismo, lo que permite denir
rango de una matriz como cualquiera de ellos.
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 39
La demostraci on de la armaci on anterior pasa por probar que r r

y r

r, donde r es
el rango por las de A y r

su rango por columnas. Es suciente ver que r

r pues a la otra
desigualdad se llega de forma an aloga (o bien considerando la matriz traspuesta de A).
No se pierde generalidad si se supone que son las r primeras las de A las linealmente
independientes, y las restantes por tanto combinaci on lineal de ellas:
(a
i1
, a
i2
, . . . , a
in
) =
r

k=1

ik
(a
k1
, a
k2
, . . . , a
kn
)
con i = r + 1, r + 2, . . . , m. De esta ultima igualdad se deduce:
a
ij
=
i1
a
1j
+
i2
a
2j
+. . .
ir
a
rj
=
r

k=1

ik
a
kj
con r + 1 i m, 1 j n. Para j = 1, 2, . . . , n, sea c
j
la columna jesima de A:
c
j
= (a
1j
, a
2j
, . . . , a
rj
, a
r+1j
, . . . , a
mj
) = (a
1j
, a
2j
, . . . , a
rj
,
r

k=1

r+1k
a
kj
, . . . ,
r

k=1

mk
a
kj
) =
= a
1j
(1, 0, . . . , 0,
r+11
, . . . ,
m1
) +a
2j
(0, 1, 0, . . . , 0,
r+12
, . . . ,
m2
) +. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . +a
rj
(0, . . . , 0, 1,
r+1r
, . . . ,
mr
)
de donde se deduce que cada vector columna de A depende linealmente de los r vectores
que aparecen en la combinaci on lineal anterior. Por tanto el n umero de vectores columna
linealmente independientes no puede ser mayor que el n umero de los vectores que los generan,
es decir, r

r.
La proposici on que se acaba de probar permite realizar el c alculo del rango de una aplicaci on
lineal por las las o por las columnas, indistintamente, de la matriz asociada.
2.5 Cambios de base y matrices equivalentes
En la seccion precedente se ha mostrado c omo, jadas bases en los espacios inicial y nal, cada
aplicaci on lineal queda caracterizada por una matriz (que depende de esas bases). En lo que
sigue, se estudia la relaci on que existe entre dos matrices asociadas a una misma aplicaci on
lineal pero referidas a distintas bases. Para ello, y previamente, se estudia la matriz asociada
a la composici on de aplicaciones lineales (que tambien es una aplicaci on lineal).
Proposici on 2.5.1
Sean V , W y U Kespacios vectoriales, y B
V
, B
W
y B
U
bases de V , W, y U respectivamente. Si
f : V W y g : W U son aplicaciones lineales tales que /
B
V
,B
W
(f) = A y /
B
W
,B
U
(g) = B,
entonces /
B
V
,B
U
(g f) = BA
Una primera aplicaci on de la proposici on anterior aparece en la siguiente armaci on:
Sea A una matriz m n, B una matriz p m y BA la matriz producto. Se tiene
entonces que rango(BA) rango(A). Puedes demostrarlo?.
El siguiente ejemplo motiva la consideraci on de los cambios de base: el estudio de la relaci on
entre las coordenadas de un mismo vector respecto de distintas bases.
40 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Ejemplo 2.5.1
Sea f : R
3
R
4
la aplicaci on lineal denida por f(x, y, z) = (x2y3z, xy2z, x+2y, x+z).
La matriz asociada a f respecto de las bases can onicas en ambos espacios es
A =
_
_
_
_
1 2 3
1 1 2
1 2 0
1 0 1
_
_
_
_
Si en R
3
consideramos la base
B = (1, 2, 1), (2, 1, 0), (1, 0, 0)
y en R
4
la base
B

= (1, 1, 0, 0), (1, 1, 0, 0), (0, 0, 0, 1), (0, 0, 1, 0),


la matriz asociada a f respecto dichas bases es
A

=
_
_
_
_
_
_
_
_

9
2
1
2
1

21
2

1
2
0
2 2 1
5 4 1
_
_
_
_
_
_
_
_
El estudio de la relaci on que existe entre estas dos matrices que representan la misma apli-
caci on lineal pero respecto de distintas bases es el objeto del resto de esta secci on. La clave
se encontrar a en la relaci on que existe entre las coordenadas de un mismo vector respecto de
distintas bases.
2.5.1 Cambios de Base
Sean B = v
1
, v
2
, . . . , v
n
y B

= v

1
, v

2
, . . . , v

n
bases de un Kespacio vectorial V . Si
(x
1
, x
2
, . . . , x
n
) y (x

1
, x

2
, . . . , x

n
) son las coordenadas de un vector v V respecto de B y
B

respectivamente, que relaci on hay entre dichas coordenadas?. Si I


V
: V V es la apli-
caci on identidad y P = /
B

,B
(I
V
), teniendo en cuenta la ecuaci on matricial de una aplicaci on
lineal, se verica que
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
= P
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
La matriz P recibe el nombre de matriz del cambio de base de B

a B (sus columnas son las


coordenadas de los vectores de B

expresados en funci on de B). Adem as se tiene que la matriz


P es inversible:
Sea P

= /
B,B
(I
V
) e I
n
la matriz identidad de orden n. Es claro que I
n
=
/
B,B
(I
V
) = /
B

,B
(I
V
), pero tambien se tiene /
B,B
(I
V
) = PP

y /
B

,B
(I
V
) =
P

P (la composici on de aplicaciones tiene como matriz asociada la matriz producto


e I
V
I
V
= I
V
). Por tanto I
n
= P

P = PP

y P

= P
1
.
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 41
Se ha visto entonces que todo cambio de base tiene asociada una matriz regular. El proceso
es recproco: si P = (p
ij
) es una matriz regular n n y V es un Kespacio vectorial donde
B = v
1
, v
2
, . . . , v
n
es una de sus bases, existe una base B

de V tal que P = /
B

,B
(I
V
). Basta
considerar B

= v

1
, v

2
, . . . , v

n
donde
v

i
=
n

j=1
p
ji
v
j
.
Ejemplo 2.5.2
En R
3
se considera la base B = (1, 1, 1), (0, 1, 1), (0, 1, 0). Si uno desea saber cu ales son
las coordenadas del vector v = (3, 2, 1) respecto de la base B, puede actuar
bien resolviendo el sistema que resulta de la igualdad
(3, 2, 1) = a(1, 1, 1) +b(0, 1, 1) +c(0, 1, 0)
o bien determinando la matriz del cambio de base P que da las coordenadas de los vectores
de la base can onica en funci on de B
P =
_
_
1 0 0
1 0 1
0 1 1
_
_
=
_
_
1 0 0
1 1 1
1 1 0
_
_
1
y obtener las coordenadas (a, b, c) de v = (3, 2, 1) respecto de la base B como
_
_
a
b
c
_
_
= P
_
_
3
2
1
_
_
Dado un vector v = (x, y, z), las coordenadas (x

, y

, z

) de v respecto B son las que se obtienen


como
_
_
x

_
_
= P
_
_
x
y
z
_
_
Ejemplo 2.5.3
En R
3
se consideran las bases
B = (1, 1, 1), (0, 1, 1), (0, 1, 0) y B

= (1, 1, 1), (1, 1, 0), (0, 0, 1).


Si un vector v tiene coordenadas (x, y, z) respecto de B y (x

, y

, z

) respecto de B

, se tiene
_
_
x
y
z
_
_
= P
_
_
x

_
_
, con P =
_
_
1 1 0
0 1 1
2 1 1
_
_
donde P es la matriz del cambio de base cuyas columnas dan las coordenadas de los vectores
de B

respecto de B.
Puedes escribir P como producto de dos matrices de cambios de base donde intervenga la base
can onica de R
3
?.
42 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


2.5.2 M
/
= QMP
Todo lo visto anteriormente nos conduce de forma inmediata a la relaci on existente entre dos
matrices asociadas a una misma aplicaci on lineal pero referidas a bases distintas.
Teorema 2.5.1
Sea f : V W una aplicacion lineal, B
V
y B

V
bases de V y B
W
y B

W
bases de W. Si M =
/
B
V
,B
W
(f) y M

= /
B

V
,B

W
(f) entonces M

= QMP donde P y Q son matrices regulares de


dimensiones n n y mm respectivamente (P = /
B

V
,B
V
(I
V
) y Q = /
B
W
,B

W
(I
W
)).
La relaci on anterior da pie a establecer la denici on de matrices equivalentes.
Denici on 2.5.1
Dos matrices M y M

se dice que son equivalentes si est an asociadas a la misma aplicaci on


lineal, o lo que es lo mismo, si ambas tienen el mismo tama no, m n, y existen matrices
regulares P y Q, de dimensiones n n y mm respectivamente, vericando M

= QMP.
Desde un punto de vista pr actico la denici on anterior de matrices equivalentes es poco
manejable. El siguiente resultado (y su contrapartida vectorial) permitira caracterizar las
matrices equivalentes en funci on de su rango (y de su tama no).
Teorema 2.5.2
Si M es una matriz mn y de rango r, entonces es equivalente a una matriz de la forma
_
I
r
0
1
0
2
0
3
_
donde por I
r
se denota la matriz identidad r r, por 0
1
la matriz nula de tama no r (n r),
por 0
2
la matriz nula (mr) r y por 0
3
la matriz nula (n r) (n r).
Teorema 2.5.3
Sea f : V W una aplicaci on lineal de rango r con n = dimV y m = dimW . Entonces
existe B
V
base de V y B
W
base de W tal que
/
B
V
,B
W
(f) =
_
I
r
0
1
0
2
0
3
_
donde por I
r
se denota la matriz identidad r r, por 0
1
la matriz nula de tama no r (n r),
por 0
2
la matriz nula (mr) r y por 0
3
la matriz nula (n r) (n r).
Para demostrar el primer teorema (y el segundo) basta interpretar M como la matriz aso-
ciada a una aplicaci on lineal f : V W (respecto algunas bases) donde V y W son K
espacios vectoriales de dimensiones n y m respectivamente, y realizar ciertos cambios de base.
Si B
V
= v
1
, . . . , v
r
, v
r+1
, . . . , v
n
es una base de V , donde v
r+1
, . . . , v
n
es una base de ker(f),
y B
W
= w
1
, . . . , w
r
, w
r+1
, . . . , w
m
es una base de W donde w
i
= f(v
i
) con i = 1, 2, . . . , r (com-
prueba que bajo estas condiciones los vectores f(v
1
), . . . , f(v
r
) son linealmente independientes),
entonces /
B
V
,B
W
(f) es de la forma descrita en el/los enunciado/s.
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 43
Ejemplo 2.5.4
Sea
M =
_
_
1 1 2 0
1 1 0 2
1 1 2 0
_
_
,
y sea f : R
4
R
3
la aplicaci on lineal que respecto de las bases can onicas tiene como matriz
asociada M. Como el rango de M es 2, existen bases en R
4
y en R
3
respecto de las cu ales la
matriz asociada a f es de la forma
M

=
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
Puesto que ker(f) = (1, 1, 1, 0), (1, 1, 0, 1)), podemos considerar
B
V
= (1, 0, 0, 0), (0, 1, 0, 0), (1, 1, 1, 0), (1, 1, 0, 1) como base de R
4
y
B
W
= (1, 1, 1), (1, 1, 1), (1, 0, 0) como base de R
3
(f(1, 0, 0, 0) = (1, 1, 1) y f(0, 1, 0, 0) = (1, 1, 1)). As /
B
V
,B
W
(f) = M

.
Proposici on 2.5.2
Sean M y M

dos matrices. Entonces M y M

son equivalentes si y solo si tienen el mismo


tama no y el mismo rango.
De la denici on de matrices equivalentes se deduce, de forma inmediata, que dos matrices
que sean equivalentes tienen igual tama no e igual rango. Si M y M

tienen igual tama no (mn)


e igual rango (r), ambas son equivalentes a una matriz de la forma
C =
_
I
r
0
1
0
2
0
3
_
es decir, C = QMP = Q

donde Q, P, Q

y P

son matrices regulares. Esto permite


escribir M

= Q

MP

siendo Q

= Q
1
Q y P

= PP
1
(ambas regulares).
Si por / denotamos el conjunto de matrices m n con coecientes en K, la relaci on de
equivalencia ser matrices equivalentes denida en / particiona el conjunto / en t + 1
clases de equivalencia donde t = mnimom, n. Cada clase de equivalencia est a representada
can onicamente por una matriz del tipo C =
_
I
r
0
1
0
2
0
3
_
con r = 0, 1, 2, . . . , t.
Ejemplo 2.5.5
Las matrices
_
_
1 1
1 1
1 0
_
_
y
_
_
2 a
2 a
b b
_
_
son equivalentes si y s olo si b ,= 0 y a ,= 2. Cu al es el
representante can onico de la clase de equivalencia a la que pertenecen?.
Finalmente, en un primer ejemplo se muestra c omo realizar un cambio de base usando Maple
como herramienta de trabajo. Tamben utilizando Maple, en el segundo ejemplo se obtienen
matrices (regulares) de paso entre matrices equivalentes.
44 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Consideramos dos bases del espacio vectorial en el que estamos trabajando:
Bc=(1,0),(0,1) y B=(3,2),(1,1)
>
with(linalg):
>
e1:=vector([1,0]);e2:=vector([0,1]);
>
u1:=vector([3,2]);u2:=vector([1,1]);
e1 := [1, 0]
e2 := [0, 1]
u1 := [3, 2]
u2 := [1, 1]
Con respecto a la base can onica es muy f acil representar el vector v=(5,4):
>
[5,4]=5*evalm(e1)+4*evalm(e2);
[5, 4] = 5 [1, 0] + 4 [0, 1]
Pero si queremos conocer sus coordenadas respecto de la base B:
>
[5,4]=c1*evalm(u1)+c2*evalm(u2);
[5, 4] = c1 [3, 2] + c2 [1, 1]
Para determinar c1 y c2, escribimos el sistema de ecuaciones resultante de expresar v
en terminos de la base B y resolvemos.
>
eq1:=3*c1+c2=5;eq2:=2*c1+c2=4;
eq1 := 3 c1 + c2 = 5
eq2 := 2 c1 + c2 = 4
>
solve(eq1,eq2,c1,c2);
c2 = 2, c1 = 1
Para encontrar las coordenadas de un vector cualquiera, construimos la matriz cuyas
columnas son los vectores de B (matriz de la aplicaci on identidad respecto de B en el
espacio inicial y Bc en el nal) y obtenemos su inversa (matriz de la aplicaci on identidad
respecto de Bc en el espacio inicial y B en el nal)
>
P:=inverse(concat([3,2],[1,1]));
P :=
_
_
1 1
2 3
_
_
Si un vector v tiene coordenadas (x1,x2) y (y1,y2) respecto Bc y B respectivamente,
la relaci on entre ellas es la siguiente.
>
i(v):=vector([y1,y2]): v:=vector([x1,x2]):
>
evalm(i(v))=evalm(P)*evalm(v);
_
_
y1
y2
_
_
=
_
_
1 1
2 3
_
_
_
_
x1
x2
_
_
Para el ejemplo del principio
>
c:=vector([c1,c2]): vt:=vector([5,4]): c:= multiply(P,vt);
c := [1, 2]
Tambien se podra abordar de la forma siguiente:
>
T:=v-> multiply(P,v);
T := v multiply(P, v)
>
cT(vt)=(T(vt));
cT(vt) = [1, 2]
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 45
>
with(linalg):
Se consideran las matrices M y N que se detallan a continuaci on, donde a es el n
o

real
para el que M y N son equivalentes. En este ejercicio se halla el valor de a y dos matrices
regulares P y Q tales que N = QMP.
>
with(linalg):
>
M:=matrix([[1,5,-1,2],[2,1,4,1],[1,2,1,a]]);
M :=
_

_
1 5 1 2
2 1 4 1
1 2 1 a
_

_
>
N:=matrix([[2,0,1,2],[1,1,2,3],[0,2,-3,-4]]);
N :=
_

_
2 0 1 2
1 1 2 3
0 2 3 4
_

_
>
rank(N);
3
>
M_1:=matrix([[5,-1,2],[1,4,1],[2,1,a]]);
M 1 :=
_

_
5 1 2
1 4 1
2 1 a
_

_
>
solve(det(M_1)=0,a);
1
>
subs(a=1,det(M_1));
0
Si a no es 1, entonces M y N son matrices equivalentes.
>
T:=subs(a=1,evalm(M));
T :=
_

_
1 5 1 2
2 1 4 1
1 2 1 1
_

_
>
rank(T);
2
Si calculamos directamente el rango de M, el valor obtenido ser a el que posea M de
interpretar que a no toma el valor 1.
46 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


>
rank(M);
3
>
kernel(M);

_
7
2
, 1,
3
2
, 0
_

>
P_1:=matrix(concat([1,0,0,0],[0,1,0,0],[0,0,0,1],[-7/2,1,3/2,0]));
P 1 :=
_

_
1 0 0
7
2
0 1 0 1
0 0 0
3
2
0 0 1 0
_

_
>
Q_1:=inverse(matrix(concat([1,2,1],[5,1,2],[2,1,a])));
Q 1 :=
_

1
9
a 2
a 1
1
9
5 a 4
a 1

1
3
1
a 1
1
9
2 a 1
a 1

1
9
a 2
a 1

1
3
1
a 1

1
3
1
a 1

1
3
1
a 1
1
a 1
_

_
>
simplify(multiply(Q_1,M,P_1));
_

_
1 0 0 0
0 1 0 0
0 0 1 0
_

_
>
kernel(N);
[1, 0, 4, 3]
>
P_2:=matrix(concat([1,0,0,0],[0,1,0,0],[0,0,1,0],[1, 0, 4, -3]));
P 2 :=
_

_
1 0 0 1
0 1 0 0
0 0 1 4
0 0 0 3
_

_
>
Q_2:=inverse(submatrix(N,1..3,1..3));
Q 2 :=
_

_
7
12
1
6
1
12
1
4
1
2
1
4
1
6
1
3
1
6
_

_
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 47
>
simplify(multiply(Q_2,N,P_2));
_

_
1 0 0 0
0 1 0 0
0 0 1 0
_

_
De las operaciones anteriores se observa que Q 1.M.P 1=Q 2.N.P 2, y por tanto
N=Q 2-1.Q 1.M.P 1.P 2-1. Las matrices P y Q buscadas son las siguientes.
>
Q:=simplify(multiply(inverse(Q_2),Q_1));
Q :=
_

1
9
2 a 1
a 1
1
9
10 a 11
a 1
1
3
1
a 1
1
9
a 5
a 1
4
9
a 2
a 1
4
3
1
a 1
1
9
4 a + 7
a 1

1
9
2 a 13
a 1

11
3
1
a 1
_

_
>
P:=simplify(multiply(P_1,inverse(P_2)));
P :=
_

_
1 0 0
3
2
0 1 0
1
3
0 0 0
1
2
0 0 1
4
3
_

_
48 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


2.6 Ejercicios Captulo 2
Aplicaciones Lineales
Ejercicio 23
Se considera el Respacio vectorial R
4
, y se denen las siguientes aplicaciones f
i
de R
4
en R
3
.
Cuales de ellas son lineales?.
a) f
1
(x, y, z, t) = (x, y, z) + (1, 2, 3)
b) f
2
(x, y, z, t) = (1, 2, 3)
c) f
3
(x, y, z, t) = (x, 2y, 3z) + (1, 2, 3)
d) f
4
(x, y, z, t) = (sen x, cos y, z +t)
e) f
5
(x, y, z, t) = (2x y, 2y z, 0)
f) f
6
(x, y, z, t) = (x +y, y +z, z +t)
Determinar el n ucleo y la imagen de aquellas aplicaciones que hayan resultado ser lineales.
Ejercicio 24
Consideremos el conjunto C de los n umeros complejos, y la aplicaci on f: C C que a cada
n umero complejo le asigna su conjugado. Se pide, averiguar si f es lineal considerando:
a) C como Respacio vectorial
b) C como Cespacio vectorial
En los casos en que f sea lineal, hallar su n ucleo y su imagen.
Ejercicio 25
Determinar bases de los n ucleos y las im agenes de las siguientes aplicaciones lineales denidas
de R
3
en R
4
:
a) f
1
(x, y, z) = (y +z, x +z, x +y, x +y +z)
b) f
2
(x, y, z) = (x y, x +y, z, 0)
c) f
3
(x, y, z) = (2x, 3y, x y, x +y +z)
d) f
4
(x, y, z) = (0, x y z, y x z, z x y)
Ejercicio 26
Sea V el R-espacio vectorial de los polinomios de grado menor o igual que 3 con coecientes
reales. Se considera la aplicaci on lineal f: R
3
V tal que (para ciertos a, b R):
f(1, 1, 1) = 2b +aX f(0, 1, 1) = aX +bX
3
f(0, 0, 1) = b + (a 1)X
2.6. EJERCICIOS CAP

ITULO 2 APLICACIONES LINEALES 49


a) Halla a y b para que f no sea inyectiva
b) Halla bases de ker(f) y de Im(f), en funcion de a y b.
c) Determina el subespacio f(U), seg un a y b, siendo U = (x, y, z) R
3
: x+z = y+z = 0.
Ejercicio 27
D, razonadamente, si las siguientes armaciones son verdaderas o no.
a) Sea f: R
n
R
n
una aplicaci on lineal. Si f no es inyectiva, Im(f) no es R
n
.
b) Existe alguna aplicaci on lineal f de R
3
en R
2
que no siendo inyectiva tiene como imagen
todo R
2
.
c) Existe una aplicaci on lineal f de R
2
en R
3
que tiene como imagen todo R
3
.
d) Si f: R
2
R
3
es aplicaci on lineal, entonces ker(f) = 0 o dim(Im(f)) = 1.
e) Si f es una aplicaci on lineal de R
n
en R, dim(Ker(f)) = n 1 o f es la aplicaci on nula.
f) Si f es un endomorsmo de V tal que Ker(f) = Im(f), dim(V ) es un n umero par.
Ejercicio 28
Sea V un Kespacio vectorial no nulo de dimensi on n y f un endomorsmo de V vericando:
f
2
= 0 y dim(Im(f)) dim(ker(f))
C uales de las siguientes armaciones son ciertas?:
a) dim(Im(f)) > dim(ker(f))
b) dim(Im(f)) = n
c) Im(f) ker(f) = 0
d) n es un n
o

par
Ejercicio 29
Sea V un espacio vectorial de dimensi on 3, v, w, u una base de V y f un endomorsmo de V
tal que
f(v) = v +w, f(u) = u, ker(f) =< v +w > .
Se pide calcular Im(f), ker(f
2
) y ker(f
3
).
Ejercicio 30
Construye, si es posible, una aplicaci on lineal con las condiciones pedidas en cada uno de los
casos siguientes:
a) una aplicaci on lineal inyectiva de R
4
en R
3
.
50 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


b) una aplicaci on lineal sobreyectiva de R
4
en R
3
.
c) una aplicaci on lineal de R
4
en R
5
tal que su rango sea 5.
d) una aplicaci on lineal f de R
5
en R
4
tal que dimker(f) = 3.
Ejercicio 31
Da un ejemplo, en cada uno de los casos siguientes, de una aplicaci on lineal f : R
3
R
3
vericando:
a) Ker(f) Im(f) ,=

0
b) Ker(f) Im(f)
c) Im(f) Ker(f)
Ejercicio 32
Sean U y W dos subespacios no nulos de R
5
tales que U W = R
5
.
a) Determina todos los posibles valores de dimU para que pueda existir una aplicaci on lineal
f : R
5
R
2
tal que Ker(f) = U.
b) Determina todos los posibles valores de dimU para que pueda existir una aplicaci on lineal
f : R
2
R
5
tal que Im(f) = U.
Ejercicio 33
Sean f : R
3
R
4
y g : R
4
R
3
dos aplicaciones lineales.
a) Demuestra que Ker(f) Ker(g f).
b) Demuestra que si g es sobreyectiva, entonces Im(f) Im(f g).
c) Supongamos que f y g verican las siguientes condiciones:
i) dimKer(g f) = 1
ii) dimIm(f g) = 2
iii) g es sobreyectiva.
Deduce que en ese caso
f no es inyectiva y Ker(f) = Ker(g f).
Im(f) = Im(f g).
Ejercicio 34
Sea f: R
4
R
3
la aplicaci on lineal denida por f(x, y, z, t) = (x +y + 2z, 2x t, 0).
a) Escribe la matriz asociada a f respecto de las bases can onicas.
2.6. EJERCICIOS CAP

ITULO 2 APLICACIONES LINEALES 51


b) Determina bases de ker(f), Im(f). Es f inyectiva?. Es f sobre?
Ejercicio 35
Se consideran de R
2
en R
2
las siguientes aplicaciones lineales:
i) f(x, y) = ((1/2)x, (1/2)y)
ii) g(x, y) = (x

, y

) siendo
_
x

_
=
_
cos /4 sen /4
sen /4 cos /4
__
x
y
_
iii) h(x, y) = (y, x)
iv) j(x, y) = (3x, 3y)
v) k(x, y) = (2x, 5y)
vi) l(x, y) = (x + 3y, 2x +y)
a) Da la matriz asociada a cada una de las aplicaciones anteriores respecto las bases can onicas.
Son todas automorsmos de R
2
?.
b) Sea T = (x, y) R
2
: 0 y 1, 0 x 1. Representa gr acamente dicho conjunto y
su imagen por cada una de las aplicaciones denidas en este ejercicio.
c) Daras un nombre especial a alguna de las aplicaciones anteriores?.
Ejercicio 36
Se considera la aplicaci on lineal f: R
3
R
2
que respecto las bases can onicas tiene por matriz
A =
_
1 1 0
2 3 1
_
a) Halla bases de ker(f), Im(f) y obten las coordenadas del vector (1, 0, 2) respecto a una
base de R
3
que contenga a la base del Kerf obtenida.
b) Sean B = (1, 0, 0), (1, 0, 2), (1, 2, 0), y B

= (1, 1), (1, 2) bases de R


3
y R
2
respectivamente. Determina la matriz asociada a f respecto de estas nuevas bases.
c) Halla la matriz de f respecto a las bases C = (1, 1, 1), (0, 1, 0), (0, 0, 1) y C

= f(1, 1, 1),
f(0, 1, 0).
d) Halla matrices inversibles P y Q con P M
2
(R) y Q M
3
(R) tales que
PAQ =
_
I
r
0
0 0
_
M
23
(R)
donde r = dim(Imf).
52 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Ejercicio 37
Sea B

la base de R
3
dada por los vectores (1, 0, 1), (2, 1, 1), (0, 1, 2). Se considera la aplicaci on
f: V = R
3
W = R
3
(1, 0, 1) (4, 2, 1)
(2, 1, 1) (11, 2, 1)
(0, 1, 2) (1, 2, 1)
donde todos los vectores est an expresados en las bases can onicas.
a) Halla la matriz M de la aplicaci on f respecto de la base B

en V y de la base can onica


B en W.
b) Halla la matriz N de la aplicaci on f respecto de las bases can onicas en V y W, as como
las matrices que relacionan N y M.
c) Halla las dimensiones del n ucleo y de la imagen de f, y utiliza lo obtenido para justicar
que f no es isomorsmo.
Ejercicio 38
Considerar la aplicaci on lineal A : R
2
R
2
dada por la matriz
A =
1
3
_
1 2
4 1
_
respecto de la base can onica de R
2
. Encontrar la matriz que representa dicha aplicaci on respecto
de la base B = (1, 2), (1, 1). Cual es el signicado geometrico de dicha aplicaci on?.
Ejercicio 39
Sea V el Respacio vectorial de las matrices reales de tama no 3 3, y sea : V V la
aplicaci on que a cada matriz le asocia su traspuesta.
a) Halla la matriz A que representa a respecto las base can onica de V , esto es respecto de
la base B
c
= E
11
, E
12
, E
13
, E
21
, E
22
, E
23
, E
31
, E
32
, E
33
donde E
ij
es la matriz de V que
en el lugar (i, j) tiene un 1, y el resto de los terminos son 0.
b) Halla la matriz A

que representa a respecto la base B de V siendo


B = E

11
, E

12
, E

13
, E

21
, E

22
, E

23
, E

31
, E

32
, E

33

donde E

ij
es la matriz traspuesta de E
ij
.
c) Halla una matriz inversible P tal que A

= P
1
AP.
Ejercicio 40
Se considera un endomorsmo f de R
3
cuya matriz asociada respecto de la base can onica es
A =
1
9
_
_
9 0 0
2 5 8
1 2 13
_
_
2.6. EJERCICIOS CAP

ITULO 2 APLICACIONES LINEALES 53


a) Halla la matriz M que representa a f respecto la base B = v
1
= (0, 2, 1), v
2
= (2, 1, 0), v
3
=
(1, 0, 2).
b) Halla las potencias A
n
para n N.
c) Existe un subespacio U de R
3
de dimension 2 tal que f(u) = u u U?.
Ejercicio 41
Sea ' el conjunto formado por las matrices reales de tama no 5 5 que son de la forma
A(a
1
, a
2
, a
3
, a
4
, a
5
) =
_
_
_
_
_
_
a
1
0 0 0 0
a
2
a
1
0 0 0
a
3
a
2
a
1
0 0
a
4
a
3
a
2
a
1
0
a
5
a
4
a
3
a
2
a
1
_
_
_
_
_
_
(', +,
R
) es un R-espacio vectorial.
a) Sean I = A(1, 0, 0, 0, 0) y M = A(0, 1, 0, 0, 0). Demuestra que B = I, M, M
2
, M
3
, M
4

es una base de ' y que M


k
es la matriz nula 5 5 si k 5.
b) Sea N = A(1, 2, 3, 4, 5). Escribe N en funcion de la base B, y calcula N
1
sabiendo que
N
1
esta en '.
c) Sea t : ' R la aplicaci on lineal que a cada matriz le asocia la suma de los elementos
de su diagonal principal.
Determina la matriz asociada a t cuando en el espacio inicial se considera la base B y en
el espacio nal se considera la base B
1
= 1/5.
Determina Im(t) y Ker(t).
Ejercicio 42
Halla los valores de a R para los que el sistema de ecuaciones (A) es indeterminado. Discute
y halla la soluci on general seg un el par ametro a R del sistema (B)
(A)
_

_
x
1
+x
2
+x
3
+. . . +x
n+1
= 0
x
1
+ax
2
+x
3
+. . . +x
n+1
= x
2
x
1
+x
2
+ax
3
+. . . +x
n+1
= 2x
3
.
.
.
.
.
.
x
1
+x
2
+x
3
+. . . +ax
n+1
= nx
n+1
(B)
_

_
2x + 3y +z + 2t = 3
4x + 6y + 3z + 4t = 5
6x + 9y + 5z + 6t = 7
8x + 12y + 7z +at = 9
Ejercicio 43
Sea f : R
4
R
3
la aplicaci on denida por
f(x, y, z, t) = (3x +z, z, x +y z +t)
1. Determina un subespacio U de R
4
tal que R
4
= U Ker(f).
54 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


2. Es posible hallar un subespacio no nulo W de R
3
tal que R
3
= W Im(f)?.
3. Sea (a, b, c) un vector cualquiera de R
3
. Sin intentar resolver el sistema responde justi-
cadamente la siguiente cuesti on. Es verdadero o falso que el sistema
_
_
_
3x +z = a
z = b
x +y z +t = c
siempre tiene solucion?.
Ejercicio 44
Construye, si existe, una aplicaci on lineal suprayectiva f: R
3
R
2
. En caso de haberla con-
struido, es alguna de las siguientes matrices una matriz asociada a f?. Por que?.
_
1 0 0
0 0 0
_ _
1 0 0
0 1 0
_ _
1 0 1
0 1 0
_
Ejercicio 45
Sea f: R
5
R
3
una aplicaci on lineal que respecto de las bases can onicas tiene por matriz, la
matriz A siguiente. Existen matrices inversibles P(5 5) y Q(3 3) tal que QAP sea la que
a continuaci on se indica?. En caso armativo calc ulalas.
A =
_
_
1 0 0 1 0
1 1 2 2 3
1 1 2 0 3
_
_
QAP =
_
_
1 0 0 0 0
0 1 0 0 0
0 0 0 0 0
_
_
Ejercicio 46
Sea A una matriz 55 44 y B una matriz 44 55. Demuestra que el determinante de AB es
igual a 0.
Ejercicio 47
Sea f: R
3
R
4
la aplicaci on lineal dada por
f(1, 0, 0) = (1, 1, 0, 1) f(0, 1, 0) = (1, 2, 0, 0) f(0, 0, 1) = (0, 3, 0, 1).
Halla la matriz asociada a f respecto al par de bases B = (1, 2, 1), (0, 1, 2), (0, 0, 1) y B

=
(2, 1, 0, 1), (0, 2, 0, 0), (0, 0, 1, 0), (0, 0, 0, 3).
Ejercicio 48
En R
4
se consideran los subespacios siguientes:
U = (x, y, z, t)/x +y +z +t = 0, W = (x, y, z, t)/x y = 0, z t = 0
y sea f : U W la aplicaci on lineal denida por
f(x, y, z, t) = (x 3y +z, x 3y +z, y + 2z t, y + 2z t).
2.6. EJERCICIOS CAP

ITULO 2 APLICACIONES LINEALES 55


a) Determina bases de U y de W.
b) Determina la matriz M asociada a f respecto de las bases halladas en el apartado anterior.
De que tama no es dicha matriz?.
c) Halla bases de Ker(f) y de Im(f).
d) Determina matrices P y Q regulares tales que
QMP =
_
I
r
0
0 0
_
donde I
r
es la matriz identidad r r y r es el rango de f.
Ejercicio 49
Sea I : R
3
R
3
la aplicaci on identidad en R
3
y sea A =
_
_
0 0 1
0 1 0
1 0 0
_
_
. Se pide
a) Hallar una base B
1
de R
3
tal que la matriz asociada a I sea A cuando en el espacio inicial
se considera la base B
1
y en el nal la base can onica.
b) Hallar una base B
2
de R
3
tal que la matriz asociada a I sea A cuando en el espacio inicial
se considera la base can onica y en el nal la base B
2
.
Ejercicio 50
Sea V el R-espacio vectorial de los polinomios de grado menor o igual que 2 con coecientes
reales. Sean A(X) = 1+X+X
2
, B(X) = 1+2X
2
, C(X) = X+X
2
, v = (2, 0, 1), w = (3, 1, 0),
u = (1, 2, 3). Se considera la aplicaci on f: V R
3
denida por
f(A(X)) = v f(B(X)) = w f(C(X)) = u
a) Halla la matriz de f respecto de las bases A(X), B(X), C(X) de V y v, w, u de R
3
.
Que rango tiene la aplicaci on f?. Cualquier matriz asociada a f es equivalente a la
matriz identidad 3 3?.
b) Halla la matriz de f respecto de las bases 1, X, X
2
de V y la can onica de R
3
.
Ejercicio 51
Sea f: R
444
R
4
una aplicaci on lineal y M la matriz asociada a f cuando en R
444
y R
4
se
consideran las bases can onicas.
M =
_
_
_
_
1 2 3 . . . 44 0 0 . . . 0
1 2 3 . . . 44 0 0 . . . 0
1 2 3 . . . 44 0 0 . . . 0
1 2 3 . . . 44 0 0 . . . 0
_
_
_
_
a) Demuestra que Im(f) = (1, 1, 1, 1)) y que ker(f) = 2e
1
e
2
, 3e
1
e
3
, . . . , 44e
1

e
44
, e
45
, e
46
, . . . , e
444
).
56 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


b) Respecto de que bases de R
444
y R
4
la matriz asociada a f es la matriz N 4 444
siguiente?
N =
_
_
_
_
1 0 0 . . . . . . . . . 0
0 0 0 . . . . . . . . . 0
0 0 0 . . . . . . . . . 0
0 0 0 . . . . . . . . . 0
_
_
_
_
Ejercicio 52
Sea f: R
1000
R
999
una aplicaci on lineal y A la matriz asociada a f cuando en R
1000
y R
999
se
consideran las bases can onicas. Se sabe que:
1. La primera y la quinta columnas de A son iguales.
2. El determinante de la matriz B es distinto de cero, siendo B la matriz que se obtiene de
suprimir en A la primera columna.
Demuestra que ker(f) = e
1
e
5
).
Ejercicio 53
Sea f: R
16
R
4
una aplicaci on lineal y M la matriz asociada a f cuando en R
16
y R
4
se
consideran las bases can onicas. La matriz M 4 16 es de la forma M = (AAAA) siendo A la
matriz siguiente
A =
_
_
_
_
1 0 0 0
1 2 0 0
1 2 3 0
1 2 3 4
_
_
_
_
Determina dimensiones y bases de ker(f) y Im(f).
Ejercicio 54
Sean f, g, h, j: R
3
R
2
las aplicaciones lineales denidas por (considerando R
3
y R
2
como
Respacios vectoriales):
f(x, y, z) = (2x, z y), g(x, y, z) = (x +y +z, x +y),
h(x, y, z) = (y, x +z), j(x, y, z) = (3x + 2y +z, 2x + 2z).
Se pide, si V denota el R-espacio vectorial de las aplicaciones lineales de R
3
en R
2
:
Demostrar que f, g y h son vectores linealmente independientes en V . Pertenece el
vector j al subespacio de V engendrado por f, g y h?.
Resuelve matricialmente el apartado anterior (para ello tendr as que jar una base en R
2
y otra en R
3
).
Que dimension tiene V ?. Construye una base de V que sea ampliaci on de la familia libre
f, g, h.
Que base de V se puede considerar como base can onica?
2.6. EJERCICIOS CAP

ITULO 2 APLICACIONES LINEALES 57


Ejercicio 55
Sea f: R
3
R
3
la aplicaci on lineal denida por (considerando R
3
como Respacio vectorial):
f(x, y, z) = (y, z, 0).
Si V denota el Respacio vectorial de las aplicaciones lineales de R
3
en R
3
determina el mayor
n posible para que los vectores de V
I
R
3, f, f
2
= f f, f
3
= f f f, . . . , f
n
= f . . . f
sean linealmente independientes, donde I
R
3 denota la aplicaci on identidad de R
3
.
Ejercicio 56
Sea V el R-espacio vectorial de las aplicaciones lineales de R
3
en R y W el R-espacio vectorial
de las aplicaciones lineales de R
2
en R. Se pide:
Calcular bases y dimensi on de V y W.
Si f: R
3
R
2
es la aplicaci on lineal denida por (considerando R
2
y R
3
como Respacios
vectoriales):
f(x, y, z) = (2x +y z, x 2z y)
y se dene la aplicaci on:
F: W V
g g f
entonces demostrar que F es una aplicaci on lineal. Respecto las bases de V y W calculadas
en el apartado inicial, calcula la matriz asociada a F. Que nombre le daras a la aplicaci on
lineal F?
Determina bases de V y W tal que la matriz asociada a F respecto dichas bases sea lo
m as sencilla posible.
Ejercicio 57
Sea V el Respacio vectorial de los polinomios de grado menor o igual que tres y W el Respacio
vectorial de los polinomios de grado menor o igual que dos. Se consideran las aplicaciones
lineales:
g: V W
p(x) p(0)x
2
+p(1)x +p(1)
h: W W
q(x) q

(x) + (
_
1
0
q(x)dx)x
2
Se pide:
Determinar las matrices de g, h y h g respecto de las bases can onicas de V y W.
Determinar bases de V y W de forma que las matrices asociadas a las aplicaciones lineales
g, h y h g respecto dichas bases sean lo m as sencillas posibles.
58 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Ejercicio 58
En el Respacio vectorial R
4
se considera el subespacio
U = (x, y, z, t) : x +y z t = 0, x +y +z +t = 0
y sea W un subespacio de R
4
tal que R
4
= U W. Si : R
4
U es la aplicaci on lineal que a
cada v en R
4
le asocia el unico elemento u U tal que v = u +w con w W. Se pide:
Determinar una base de U y la matriz de respecto la base can onica de R
4
y la base de
U que has calculado.
Si f: U R
3
es la aplicaci on lineal denida por (considerando R
3
como Respacio vec-
torial):
f(x, y, z, t) = (x +y, y, z t),
determinar bases de R
4
y R
3
de forma que la matriz asociada a la aplicaci on lineal f
respecto dichas bases sea lo m as sencilla posible.
Determinar una base y la dimensi on del Respacio vectorial V de las aplicaciones lineales
de R
4
en U. Cuales son las coordenadas de respecto la base que has calculado?
Si H es el subespacio de V engendrado por la familia , determina un subespacio Q
de V tal que V = H Q.
Determinar una base y la dimensi on del Respacio vectorial M de las aplicaciones lineales
de W en U.
Ejercicio 59
Sea V el Respacio vectorial de las matrices 3 3 con coecientes en R y W el Respacio
vectorial de las aplicaciones lineales de V en R. Se pide:
Determinar una base y la dimensi on de W.
Si denota la aplicacion lineal traza de una matriz
: V R
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
a
11
+a
22
+a
33
calcular las coordenadas de respecto de la base de W que has calculado en el apartado
anterior.
Ejercicio 60
La matriz
_
_
_
_
_
_
2 1 1 0 0
8 5 2 0 0
11 7 3 0 0
0 0 0 1 1
0 0 0 3 4
_
_
_
_
_
_
2.6. EJERCICIOS CAP

ITULO 2 APLICACIONES LINEALES 59


es usada para codicar mensajes como sigue. Por identicaci on de las letras A, B, C, , Y, Z
con los n umeros 1, 2, 3, , 25, 26, un mensaje con k letras es considerado una k-upla de
n umeros. Esta kupla es dividida en 5uplas; si k no es divisible por 5 uno a nade ceros al
nal. Despues cada una de esas 5uplas es multiplicada por la matriz dada. Teniendo en
cuenta todo lo anterior, decodica el siguiente mensaje (escrito en ingles).
3, 38, 52, 7, 23; 38, 145, 200, 15, 59; 5, 3, 5, 35, 119.
Ejercicio 61
Supongamos que
Ax =
_
_
_
_
_
_
_
_
1 0 0
0 1 0
0 0 1
1 2 3
3 1 0
2 1 1
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
_
_
_
_
_
_
126
30
7
251
540
377
_
_
_
_
_
_
_
_
= b
donde uno de los coecientes del lado derecho puede ser err oneo. Esto signica que Ax = b+e
i
donde R y el vector columna e
i
son desconocidos.
Este problema consiste en determinar x
1
, x
2
y x
3
, y da idea de c omo corregir errores en proble-
mas de codicaci on. La versi on codicada de un mensaje contiene informaci on redundante que
puede ser usada si se producen errores durante la transmisi on. En nuestro problema el mensaje
esta constituido por tres n umeros ( x
1
, x
2
y x
3
), mientras que la versi on codicada del mensaje
consta de seis n umeros.
Para resolver el problema sigue los siguientes pasos.
1. Halla una matriz real B de tama no 3 6 tal que BA sea la matriz nula, y que ninguna
columna de B sea m ultiplo de alguna otra columna de B.
2. Determina y e
i
resolviendo la ecuaci on matricial (O) = BAx = Bb +Be
i
.
3. Halla x
1
, x
2
y x
3
resolviendo la ecuaci on matricial de partida, habiendo corregido previa-
mente el miembro de la derecha tras resolver el apartado anterior.
60 CAP

ITULO 2. APLICACIONES LINEALES Y MATRICES


Captulo 3
La Teora del Endomorsmo.
La noci on de autovalor y autovector de una matriz cuadrada es una de las herramientas m as
potentes que el Algebra Lineal proporciona para la resoluci on de gran cantidad de problemas
que aparecen en Cienca y Tecnologa (recordar algunos de los vistos en la asignatura Laborato-
rio de Matem aticas; ver tambien algunos de los ejercicios que se presentan al nal del captulo).
Antes de comenzar con los aspectos propios del tema vamos a realizar una serie de puntualiza-
ciones.
Como el nombre del captulo indica, nos vamos a centrar en el estudio de determinadas cues-
tiones relativas a aplicaciones lineales en las que el espacio inicial y el espacio nal coinciden,
pudiendo, obviamente, jar igual base en ambos puntos (el de partida y el de llegada). As
pues, a lo largo del tema si f: V V es una aplicaci on lineal, y en V consideramos jada la
base B, se hablar a de la matriz asociada a f respecto de la base B, que denotaremos por M
B
(f).
Observemos adem as que si M y N son dos matrices asociadas a f (en las condiciones se naladas),
entonces N = P
1
MP, donde P es una matriz de cambio de base. Este hecho motiva la
denicion siguiente : Dos matrices M y N se dice que son semejantes si se puede establecer
entre ellas una relaci on del tipo N = P
1
MP. Es trivial que matrices semejantes es un caso
particular de matrices equivalentes.
3.1 Autovalores y autovectores
Sea V un Kespacio vectorial y f: V V una aplicaci on lineal, esto es, un endomorsmo. Las
nociones de autovalor y autovector juegan un papel fundamental en la busqueda de la forma
can onica de un endormorsmo de V .
Denici on 3.1.1 Un elemento en K es un autovalor de f si existe un vector v distinto de
cero vericando
f(v) = v
El vector v se denomina autovector de f asociado al autovalor .
La raz on por la que estas dos nociones son fundamentales en el estudio de los endomorsmos
se encuentra en que si se dispone de una base de V cuyos elementos son autovectores de f
entonces la representacion matricial de f respecto de esta base sera una matriz diagonal,
en cuya diagonal se encontraran los autovalores de f. En el caso de que sea posible tal
representaci on diagonal para f se dice que f es diagonalizable.
61
62 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Para justicar la validez de la estrategia anterior se demuestra en primer lugar la indepen-
dencia lineal de los autovectores asociados a autovalores distintos.
Proposici on 3.1.1 Sea f: V V un endomorsmo,
1
y
2
autovalores distintos de f y u
1
y u
2
autovectores de f asociados a
1
y
2
respectivamente. Entonces u
1
y u
2
son linealmente
independientes.
Demostraci on.
Si u
1
y u
2
son linealmente dependientes entonces u
1
= u
2
con ,= 0 puesto que u
1
y u
2
son
autovectores. Se tiene asi

1
u
1
= f(u
1
) = f(u
2
) = f(u
2
) =
2
u
2
=
2
u
1
y por ello
1
=
2
, lo cual constituye una clara contradicci on.
El resultado anterior se generaliza de forma sencilla al caso de s autovectores procedentes
de s autovalores distintos. A continuaci on se muestra c omo calcular los autovalores (y los
autovectores) asociados a un endomorsmo, lo que conducir a de forma natural a la denici on
de polinomio caracterstico de un endomorsmo y de una matriz.
Proposici on 3.1.2 Sea f: V V un endomorsmo, B una base de V y A = M
B
(f). Un
elemento en K es un autovalor de f si y solo si
det(I
n
A) = 0
donde I
n
denota la matriz identidad de dimensi on n y n = dim(V ).
Denici on 3.1.2 Sea A una matriz cuadrada de dimensi on n y coecientes en K. Se dene
el polinomio caracterstico de A como:
P
A
(X) = det(XI
n
A)
donde I
n
denota la matriz identidad de dimensi on n.
La manipulaci on de algunas matrices concretas (que pueden ser elegidas por el propio
lector) permite observar el siguiente resultado cuya prueba se deja como ejercicio.
Si p
A
(X) = a
n
X
n
+a
n1
X
n1
+ +a
1
X+a
0
es el polinomio caracterstico de una matriz
A, entonces a
n
= 1, a
n1
= traza(A), a
0
= (1)
n
det(A).
Denici on 3.1.3 Sea f: V V un endomorsmo, B una base de V y A = M
B
(f). Se dene
el polinomio caracterstico de f como:
P
f
(X) = P
A
(X)
La denici on de polinomio caracterstico de un endomorsmo f: V V , tal y como se
ha introducido, depende de la base escogida en V . Sin embargo esta ambig uedad desaparece
notando que si dos matrices son semejantes entonces sus polinomios caractersticos coinciden.
3.1. AUTOVALORES Y AUTOVECTORES 63
En particular, dos matrices semejantes tienen igual determinante, igual traza y los mismos
autovalores:
B = P
1
AP =
_

_
P
B
(X) = det(XI
n
B) = det(XP
1
P P
1
AP) =
= det(P
1
(XI
n
A)P) = det(P
1
) det(XI
n
A) det(P) =
= det(P
1
) det(P) det(XI
n
A) = P
A
(X)
La siguiente proposici on muestra un primer criterio de diagonalizaci on, esto es, una con-
dicion cuya vericaci on implica la existencia de una base respecto la cual la representaci on
matricial del endomorsmo considerado es diagonal.
Proposici on 3.1.3
Sea f: V V un endomorsmo. Si f posee n autovalores distintos en K (o lo que es lo mismo
P
f
(X) posee n races distintas en K) entonces f es diagonalizable.
Ejemplo 3.1.1
Es facil comprobar que el endomorsmo f : R
2
R
2
representado por la matriz A =
_
0 1
1 0
_
(respecto de la base can onica) es diagonizable puesto que su polinomio carac-
terstico es X
2
1 y una base de vectores propios es B = (1, 1), (1, 1).
Sin embargo existen endomorsmos diagonalizables para los que no se verica la condici on
que muestra la proposicion anterior. El endomorsmo identidad es uno, y el que aparece en el
siguiente ejemplo es otro.
Ejemplo 3.1.2
El endomorsmo f : R
5
R
5
que tiene asociada respecto la base can onica la matriz
B es diagonalizable. Su polinomio caracterstico es (X 1)
3
(X + 1)
2
. Calculando di-
rectamente vectores propios asociados a 1 y 1, o bien reordenando la base can onica
(e
1
, e
5
, e
3
, e
2
, e
4
) para reducir este problema, por cajas, a matrices iguales a la matriz
A del ejemplo anterior, se puede ver que e
1
+e
5
, e
1
e
5
, e
3
, e
2
+e
4
, e
2
e
4
es una base
de vectores propios.
B =
_
_
_
_
_
_
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
0 1 0 0 0
1 0 0 0 0
_
_
_
_
_
_
El siguiente criterio permite caracterizar los endomorsmos diagonalizables en terminos de
los subespacios propios que se denen a continuaci on.
Denici on 3.1.4 Sea f: V V un endomorsmo y K. Se dene:
V
f
() = u V : f(u) = u
y se tiene que V
f
() es un subespacio vectorial de V y que V
f
() es no trivial si y s olo si es
un autovalor de f. Se dice que V
f
() es un subespacio propio de f.
64 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Proposici on 3.1.4 Sea f: V V un endomorsmo y
1
, . . . ,
s
los distintos autovalores de
f (esto es, las distintas races en K de P
f
(X)). Se tiene entonces que f es diagonalizable si y
s olo si se verica
dim(V ) =
s

i=1
dim(V
f
(
i
))
Puesto que existen endomorsmos que no se pueden diagonalizar, incluso aunque se au-
mente el cuerpo de escalares, el siguiente teorema muestra cuando un endomorsmo se puede
triangularizar, esto es, cuando existe una base tal que la matriz del endomorsmo considerado
respecto dicha base es triangular superior.
Teorema 3.1.1 Sea f: V V un endomorsmo vericando que P
f
(X) posee todas sus races
en K. Entonces existe una base B de V tal que
M
B
(f) =
_
_
_
_
_
_

1
. . . . . .
0
2
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0
n
_
_
_
_
_
_
donde los
i
son los autovalores de f (que no tienen por que ser todos distintos).
Una forma de demostrar el teorema anterior es aplicando inducci on sobre la dimensi on del
espacio, o lo que es equivalente, sobre el orden de la matriz, como muestra el siguiente ejemplo.
Ejemplo 3.1.3
Consideremos el endomorsmo f de R
4
que respecto de la base can onica tiene como matriz
asociada la siguiente
A =
_
_
_
_
0 0 1 2
2 1 5 2
3 0 5 3
4 0 5 2
_
_
_
_
La matriz A es triangulable puesto que su polinomio caracterstico tiene todas sus races en R:
P
A
(X) = (X + 1)
2
(X 2)
2
.
Si lo que se trata es de buscar una base B de R
4
respecto de la cu al la matriz asociada a f
es triangular, el primero de los vectores de B ha de ser un vector propio de f. Como
V
f
(1) = e
2
= (0, 1, 0, 0))
es el subespacio propio, respecto de f, asociado al valor propio 1, consideramos un subespacio
U de R
4
tal que R
4
= V
f
(1) U. Sea
U = e
1
= (1, 0, 0, 0), e
3
= (0, 0, 1, 0), e
4
= (0, 0, 0, 1))
y B

= e
2
, e
1
, e
3
, e
4
. La matriz asociada a f respecto de B

es
A

=
_
_
_
_
1 2 5 2
0 0 1 2
0 3 5 3
0 4 5 2
_
_
_
_
3.1. AUTOVALORES Y AUTOVECTORES 65
Sea g = p
U
f
U
el endormorsmo de U donde f
U
: U R
4
es la restricci on de f a U, y
p
U
: R
4
U es la proyecci on de R
4
sobre U. Si extraemos de A

la caja
C =
_
_
0 1 2
3 5 3
4 5 2
_
_
entonces se verica que C es la matriz asociada al endomorsmo g de U respecto de la base
B
U
= e
1
, e
3
, e
4
de U.
El polinomio caracterstico de g es
P
g
(X) = P
C
(X) = (X + 1)(X 2)
2
,
y el subespacio
V
g
(1) = e
1
+e
3
+e
4
).
Si en U = V
g
(1) W, con W = e
1
, e
3
), consideramos la base B

U
= e
1
+e
3
+e
4
, e
1
, e
3
,
se tiene:
M
B

U
(g) =
_
_
1 4 5
0 4 4
0 1 0
_
_
Reiterando el proceso, si de M
B

U
(g) extraemos la caja
D =
_
4 4
1 0
_
,
D es la matriz asociada a un endomorsmo h de W respecto de la base B
W
= e
1
, e
3
: h =
p
W
g
W
donde g
W
: W U es la restricci on de g a W, y p
W
: U W es la proyecci on de U
sobre W.
El polinomio caracterstico de h es
P
h
(X) = P
D
(X) = (X 2)
2
,
y el subespacio
V
h
(2) = 2e
1
+e
3
).
Si en W jamos la base B

W
= 2e
1
+e
3
, e
1
, se tiene que
M
B

W
(h) =
_
2 1
0 2
_
.
Sea, nalmente, B

= e
2
, e
1
+e
3
+e
4
, 2e
1
+e
3
, e
1
la base de R
4
que hemos obtenido a lo
largo de todo el proceso anterior. Respecto de dicha base la matriz asociada a f es triangular:
M
B
(f) =
_
_
_
_
1 1 1 2
0 1 3 4
0 0 2 1
0 0 0 2
_
_
_
_
= P
1
A P
donde P es la matriz que tiene por columnas las respectivas coordenadas de los vectores de la
base B

expresados en funci on de la base can onica.


66 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
En las lineas siguientes vamos a realizar una serie de puntualizaciones que nos ser an de
utilidad, no s olo para introducir algunas aplicaciones del resultado anterior sobre triangulari-
zaci on, sino tambien, para abordar distintos aspectos contenidos en la secci on inmediatamente
posterior.
Sea f un endomorsmo del K-espacio vectorial n-dimensional V , y sea
p(X) = a
r
X
r
+a
r1
X
r1
+. . . +a
1
X +a
0
un polinomio cualquiera con coecientes en K. Por p(f) se denota el endomorsmo de V
siguiente:
p(f) = a
r
f
r
+a
r1
f
r1
+. . . +a
1
f +a
0
I
V
donde
f
k
=
k veces
..
f f . . . f .
An alogamente, si A es una matriz n n con coecientes en K, p(A) es la matriz
p(A) = a
r
A
r
+a
r1
A
r1
+. . . +a
1
A +a
0
I
n
.
Distintos resultados vistos en el captulo precedente nos permiten armar que si B es una
base de V y M = M
B
(f) entonces
M
B
(p(f)) = a
r
M
r
+a
r1
M
r1
+. . . +a
1
M +a
0
I
n
= p(M).
Tambien es inmediato comprobar que si q(X) es otro polinomio con coecientes en K entonces:
(p +q)(f) = p(f) +q(f) (p q)(f) = (q p)(f)
(p +q)(A) = p(A) +q(A) (p q)(A) = (q p)(A) = p(A) q(A) = q(A) p(A)
Una vez establecida la notaci on y algunos resultados elementales relativos a expresiones
polin omicas de matrices vamos a ver algunos resultados sencillos, a modo de ejemplo, en los
que la triangulaci on de una matriz juega un papel importante.
Ejemplo 3.1.4
Si A es una matriz cuadrada nn cuyos valores propios son
1
, ,
n
(no necesariamente
distintos), entonces traza(A) =
1
+ +
n
y det(A) =
1

n
.
Si p(X) es un polinomio cualquiera y A es una matriz n n, entonces los valores propios
de la matriz B = p(A) son exactamente los n umeros p(
1
), , p(
n
) donde
1
, ,
n
son los valores propios de A.
Para probar ambos resultados basta considerar una matriz triangular T seme-
jante a A y aplicar las propiedades relativas a polinomios caractersticos de matrices
semejantes. En el caso de B, debemos observar adem as que si A = P
1
TP entonces
B = p(A) = p(P
1
TP) = P
1
p(T)P donde p(T) es una matriz triangular en cuya
diagonal principal aparecen p(
1
), , p(
n
).
Aplicaciones interesantes de la ultima de las consecuencias son las siguientes.
3.1. AUTOVALORES Y AUTOVECTORES 67
Si A
1
es una matriz 5 5 con valores propios distintos 1, 1, 0 y A
2
es una matriz 8 8
de valores propios distintos 0, 1, 3, 6, 4, entonces la matriz B
1
= A
3
1
A
2
1
4A
1
+ 4I
no es inversible, pero s lo es la matriz B
2
= A
3
2
A
2
2
4A
2
+ 4I. La explicaci on puede
darse de la siguiente manera. Las matrices B
1
y B
2
son p(A
1
) y p(A
2
) respectivamente,
con p(X) = X
3
X
2
4X +4. Teniendo en cuenta que p(X) = (X 1)(X +2)(X 2),
el 0 = p(1) es valor propio de B
1
, lo que signica que dicha matriz no es inversible. No
sucede lo mismo con B
2
, cuyos valores propios son todos no nulos, pues ning un valor
propio de A
2
es raiz de p(X).
Si f es un endomorsmo de R
3
tal que 1/2, 2, 2 son sus valores propios, entonces el
hecho de someter a los vectores de R
3
una, dos, tres, cuatro, ... veces sucesivamente a
la transformaci on f, conduce al mismo efecto que el haber proyectado los vectores de R
3
sobre un subespacio de dimensi on 2. Puedes justicarlo?.
Que hubiera sucedido en una situaci on an aloga a la anterior pero supuesto
que f tuviese por valores propios 1/2, 1/2, 1/3?.
El ejemplo con el que vamos a nalizar esta secci on muestra que en casos muy particulares
es posible triangular una matriz sin tener que realizar un desarrollo similar al efectuado
en el ejemplo 3.1.3, y que nos daba las pautas generales de triangularizaci on.
Se consideran los endomorsmos f y g de R
3
que respecto de la base can onica tienen por
matrices A y B respectivamente:
A =
_
_
3 1 1
7 5 1
6 6 2
_
_
B =
_
_
1 3 3
3 5 3
6 6 4
_
_
Ambas matrices tienen polinomio caracterstico p(X) = (X + 2)
2
(X 4), y por ello los
endomorsmos que representan son triangularizables. Si en ambos casos consideramos
una base formada por dos vectores propios (correspondientes a autovalores distintos) y un
tercer vector independiente con los anteriores, tenemos garantizada la triangularizaci on.
En el caso de f, un autovector asociado al autovalor 2 es v
1
= (1, 1, 0) y un autovector
asociado al autovalor 4 es v
2
= (0, 1, 1). Sea v
3
= (1, 0, 0) y consideremos en R
3
la base
B = v
1
, v
2
, v
3
. Respecto de esta base la matriz asociada a f es
A

=
_
_
2 0 1
0 4 6
0 0 2
_
_
.
Cuando se trabaja con g, el tercer vector de la base a hallar puede ser vector propio
asociado al autovalor 2, puesto que el subespacio propio asociado a dicho autovalor es
de dimension 2. De esto resulta que g es ademas diagonalizable. La base de vectores
propios es B = v
1
= (1, 1, 0), v
2
= (1, 1, 2), v
3
= (0, 1, 1).
Este es un caso en el que de nuevo aparecen matrices con igual polinomo caracterstico y
que no son semejantes.
68 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
En la seccion que ahora concluimos se ha establecido una caracterizaci on de los endomors-
mos que son diagonalizables, en la que interviene el concepto de polinomio caracterstico pero
no exclusivamente. Tambien se ha podido observar que existen endomorsmos con el mismo
polinomio caracterstico pero de diferente comportamiento, lo que signica que el polinomio
caracterstico de un endomorsmo, a pesar de su nombre, no lo caracteriza plenamente.
En lo sucesivo iremos introduciendo nuevos conceptos que nos permitan, por un lado, un
manejo m as comodo de un endomorsmo cuando no sea diagonalizable, y por otro, dar una
caracterizaci on del mismo.
3.2 El polinomio mnimo de un endomorsmo
Uno de los conceptos a los que nos referamos m as arriba es el de polinomio mnimo de un
endomorsmo.
Denici on 3.2.1
Sea A una matriz nn con coecientes en K. Se llama polinomio mnimo de A a un polinomio
m(X) K[X] vericando las siguientes condiciones:
1. m(X) es monico.
2. m(A) es la matriz nula.
3. m(X) es el polinomio de menor grado vericando las dos condiciones anteriores.
Antes de seguir debemos garantizar que la denici on que hemos establecido anteriormente tiene
sentido. Para ello vamos a demostrar el resultado que se conoce como Teorema de Cayley-
Hamilton, y que nos asegura la existencia de un polinomio vericando las dos primeras condi-
ciones exigidas en dicha denici on. Una vez probado tal teorema, sabemos que el conjunto
N = r N : existe q(X) K[X] m onico, grado(q(X)) = r y q(A) = 0
es no vacio y que por tanto posee mnimo. Si ese mnimo es r
m
, un polinomio que tenga dicho
grado (y verique lo pedido en la denici on de N) ser a un polinomio mnimo de A. Mas tarde
se garantizar a la unicidad del mismo.
Teorema 3.2.1 (Teorema de CayleyHamilton)
Sea A una matrix n n con coecientes en K y P
A
(X) su polinomio caracterstico. Se verica
entonces que la matriz P
A
(A) es la matriz nula.
Sea f: V V un endomorsmo y P
f
(X) su polinomio caracterstico. Se verica entonces que
el endomorsmo P
f
(f) es el endomorsmo nulo.
Demostraci on.
Sea
P
A
(X) = det(XI
n
A) = X
n
+b
n1
X
n1
+. . . +b
1
X +b
0
.
Denotemos por / la matriz XI
n
A, y por /

la matriz adjunta de la traspuesta de /, de


donde tendremos que
/ /

= det(XI
n
A)I
n
= P
A
(X)I
n
(3.1)
3.2. EL POLINOMIO M

INIMO DE UN ENDOMORFISMO 69
La matriz /

es una matriz con coecientes en K[X], pero tambien puede ser vista como un
polinomio con coecientes en un conjunto de matrices.
Si /

= (
ij
) entonces
ij
= (1)
i+j
M
ij
, siendo M
ij
el determinante de un menor de
tama no (n1) (n1) de la matriz traspuesta de /. Por tanto cada
ij
es un polinomio de
grado menor o igual que n 1 en la indeterminada X:
/

=
_
_
a
11
n1
X
n1
+. . . +a
11
1
X +a
11
0
. . . a
1n
n1
X
n1
+. . . +a
1n
1
X +a
1n
0
.
.
.
.
.
.
a
n1
n1
X
n1
+. . . +a
n1
1
X +a
n1
0
. . . a
nn
n1
X
n1
+. . . +a
nn
1
X +a
nn
0
_
_
=
=
_
_
a
11
n1
. . . a
1n
n1
. . . . . . . . .
a
n1
n1
. . . a
nn
n1
_
_
X
n1
+. . . +
_
_
a
11
1
. . . a
1n
1
.
.
.
.
.
.
a
n1
1
. . . a
nn
1
_
_
X +
_
_
a
11
0
. . . a
1n
0
.
.
.
.
.
.
a
n1
0
. . . a
nn
0
_
_
=
= M
n1
X
n1
+. . . +M
1
X +M
0
= M(X)
(3.2)
Teniendo en cuenta las igualdades 3.1 y 3.2 obtenemos
(M
n1
X
n1
. . . . . . +M
1
X +M
0
) (XI
n
A) = (X
n
+b
n1
X
n1
+. . . +b
1
X +b
0
) I
n
(3.3)
Haciendo operaciones en el miembro de la izquierda obtenemos:
(M
n1
X
n
+. . . . . . +M
1
X
2
+M
0
X) (M
n1
AX
n1
+. . . . . . +M
1
AX +M
0
A) =
= M
n1
X
n
+ (M
n2
M
n1
A)X
n1
+. . . . . . + (M
1
M
2
A)X
2
+ (M
0
M
1
A)X M
0
A
El miembro de la derecha puede escribirse como:
I
n
X
n
+b
n1
I
n
X
n1
+. . . +b
1
I
n
X +b
0
I
n
De 3.3, y del hecho de que dos polinomios son iguales si lo son los coecientes de los terminos
de igual grado, resultan las siguientes igualdades:
M
n1
= I
n
M
n2
M
n1
A = b
n1
I
n
M
n3
M
n2
A = b
n2
I
n
.
.
.
M
1
M
2
A = b
2
I
n
M
0
M
1
A = b
1
I
n
M
0
A = b
0
I
n
A la primera de las igualdades anteriores la multiplicamos por A
n
, a la segunda por A
n1
,
a la tercera por A
n2
, ..., a la pen ultima por A, y a la ultima por I
n
, obteniendo:
M
n1
A
n
= A
n
M
n2
A
n1
M
n1
A
n
= b
n1
A
n1
M
n3
A
n2
M
n2
A
n1
= b
n2
A
n2
.
.
.
M
1
A
2
M
2
A
3
= b
2
A
2
M
0
A M
1
A
2
= b
1
A
M
0
A = b
0
I
n
70 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Sumando miembro a miembro estas igualdades, obtenemos [0] = P
A
(A) donde [0] denota la
matriz nula de tama no n n.
Proposici on 3.2.1
Sea A una matrix n n con coecientes en K, y sea m(X) un polinomio mnimo de A. Se
verica entonces:
1. Si p(X) es un polinomio de K[X], p(A) es la matriz nula si y s olo si p(X) es m ultiplo de
m(X).
2. El polinomio mnimo de A es unico, y lo vamos a denotar por m
A
(X).
3. El polinomio caracterstico de una matriz es m ultiplo de su polinomio mnimo.
4. Si B es una matriz semejante a A, m
A
(X) = m
B
(X).
La demostraci on del punto 1 de la proposici on se basa en el concepto de divisi on euclidea de
polinomios. El segundo de los puntos se deduce del primero junto con el hecho de que los
polinomios son m onicos. El tercero es consecuencia del punto 1 y del teorema de Cayley-
Hamilton, y el cuarto:
Si A y B son semejantes, A = P
1
B P, entonces
m
B
(A) = m
B
(P
1
B P) = P
1
m
B
(B) P = P
1
[0]P = [0]
y, como consecuencia, m
A
(X) es un divisor de m
B
(X). Como un razonamiento an alogo prueba
que m
B
(X) es un divisor de m
A
(X), y ambos son m onicos, han de coincidir.
Este ultimo hecho nos permite denir, sin problemas, polinomio mnimo de un endomor-
smo.
Denici on 3.2.2
Para cualquier endomorsmo f de un espacio vectorial V , se dene polinomio mnimo de f
como el polinomio mnimo de cualquiera de sus matrices asociadas. A dicho polinomio lo
denotamos por m
f
(X)
Ejemplo 3.2.1
A continuaci on se muestran algunos ejemplos de endomorsmos y matrices, junto con sus
polinomios mnimos:
El polinomio caracterstico de la matriz identidad de tama no n n es (X 1)
n
y su
polinomio mnimo es (X 1).
La matriz
A =
_
1 1
1 1
_
tiene por polinomio caracterstico y polinomio mnimo X
2
.
El polinomio caracterstico de la matriz
A =
_
_
1 0 0
0 2 0
0 0 1
_
_
es (X 1)
2
(X 2) y su polinomio mnimo es (X 1)(X 2).
3.2. EL POLINOMIO M

INIMO DE UN ENDOMORFISMO 71
Si
A =
_
_
_
_
1 1 2 3
1 1 0 0
0 0 1 1
0 0 0 0
_
_
_
_
entonces P
A
(X) = X
3
(X 1) y su polinomio mnimo ser a alguno de los siguientes:
X, X
2
, X
3
, X(X 1), X
2
(X 1), X
3
(X 1). Cu antos intentos ser an necesarios para
poder concluir que m
A
(X) = X
2
(X 1)?.
El siguiente enunciado establece una cierta relaci on entre los factores irreducibles del poli-
nomio caracterstico y los del polinomio mnimo de una matriz, y con el se reduce el n umero
de intentos entre los divisores del polinomio caracterstico para obtener el polinomio mnimo.
Sobra a nadir su equivalente en terminos de endomorsmos.
Teorema 3.2.2
Sea A una matrix n n con coecientes en K, P
A
(X) su polinomio caracterstico y m
A
(X)
su polinomio mnimo. Se verica entonces que todo factor irreducible de P
A
(X) es factor
irreducible de m
A
(X).
Demostraci on.
Para probar este resultado vamos a probar que P
A
(X) es un divisor de (m
A
(X))
n
, lo que
garantiza que todo factor irreducible de P
A
(X) lo es de (m
A
(X))
n
, y como consecuencia de
m
A
(X). Sea m
A
(X) = X
r
+c
r1
X
r1
+. . . +c
1
X +c
0
con r n y c
i
K.
Consideramos las siguientes matrices:
B
0
= I
n
B
1
= A +c
r1
I
n
B
2
= A
2
+c
r1
A +c
r2
I
n
.
.
.
B
r2
= A
r2
+c
r1
A
r3
+. . . +c
3
A +c
2
I
n
B
r1
= A
r1
+c
r1
A
r2
+. . . +c
3
A
2
+c
2
A +c
1
I
n
(3.4)
A todas ellas las multiplicamos por A obteniendo:
AB
0
= A
AB
1
= A
2
+c
r1
A
AB
2
= A
3
+c
r1
A
2
+c
r2
A
.
.
.
AB
r2
= A
r1
+c
r1
A
r2
+. . . +c
3
A
2
+c
2
A
AB
r1
= A
r
+c
r1
A
r1
+. . . +c
3
A
3
+c
2
A
2
+c
1
A
(3.5)
Teniendo en cuenta 3.4 y 3.5, podemos establecer las siguientes relaciones:
B
0
= I
n
B
1
= AB
0
+c
r1
I
n
B
2
= AB
1
+c
r2
I
n
.
.
.
B
r2
= AB
r3
+c
2
I
n
B
r1
= AB
r2
+c
1
I
n
(3.6)
72 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Ademas de la ultima igualdad en 3.5 tenemos:
AB
r1
+c
0
I
n
= A
r
+c
r1
A
r1
+. . . +c
3
A
3
+c
2
A
2
+c
1
A +c
0
I
n
= m
A
(A) = [0] (3.7)
y por tanto:
AB
r1
= c
0
I
n
.
Consideremos el (resp. la) siguiente polinomio (resp. matriz) con coecientes en M
n
(K)
(resp. K[X]):
B(X) = B
0
X
r1
+B
1
X
r2
+. . . +B
r2
X +B
r1
que, a continuaci on, multiplicamos por (XI
n
A):
(XI
n
A)B(X) = B(X)X AB(X) =
= (B
0
X
r
+. . . +B
r1
X) (AB
0
X
r1
+. . . +AB
r2
X +AB
r1
) =
= B
0
X
r
+ (B
1
AB
0
)X
r1
+. . . + (B
r1
AB
r2
)X AB
r1
=
= I
n
X
r
+c
r1
I
n
X
r1
+. . . +c
2
I
n
X
2
+c
1
I
n
X +c
0
I
n
=
= (X
r
+c
r1
X
r1
+. . . +c
1
X +c
0
)I
n
=
= m
A
(X)I
n
Tomando determinantes en la igualdad anterior se obtiene:
det(XI
n
A) det(B(X)) = det(m
A
(X)I
n
) = (m
A
(X))
n
Como det(B(X)) es un polinomio de K[X] y det(XI
n
A) = P
A
(X), queda probado que P
A
(X)
es un divisor de (m
A
(X))
n
.
3.3 Subespacios invariantes
En esta seccion se va a tratar el concepto de subespacio invariante por un endomorsmo de
un espacio vectorial. Veremos c omo hallar subespacios invariantes, que permitir an asociar a
un endomorsmo una matriz diagonal por cajas. La noci on de endomorsmo nilpotente que se
tratar a en la siguiente secci on, nos ayudar a a transformar esas cajas a su forma can onica.
Denici on 3.3.1
Sea f un endomorsmo de V , y U un subespacio vectorial de V . Se dice que U es f-invariante
o invariante por f si se verica cualquiera de las condiciones equivalentes siguientes:
1. f(u) U, cualquiera que sea u U.
2. f(u
1
), f(u
2
), . . . , f(u
r
) estan en U siendo u
1
, u
2
, . . . , u
r
un sistema generador de U.
Ejemplo 3.3.1
A continuaci on se muestran algunos ejemplos de subespacios invariantes:
Si f es el endomorsmo de R
4
tal que
M
B
C
(f) =
_
_
_
_
1 1 2 3
1 1 0 0
0 0 1 1
0 0 0 0
_
_
_
_
entonces es inmediato observar que e
1
, e
2
) es un subespacio f-invariante y que e
3
, e
4
)
no lo es. Tambien es invariante el subespacio (4, 2, 1, 0)) puesto que es el subespacio
de vectores propios de f asociados al valor propio 1.
3.3. SUBESPACIOS INVARIANTES 73
Sea f el endomorsmo de R
5
tal que
M
B
C
(f) =
_
_
_
_
_
_
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
0 1 0 0 0
1 0 0 0 0
_
_
_
_
_
_
.
Los subespacios U
1
= e
1
, e
5
), U
2
= e
2
, e
4
), U
3
= e
3
) y U
4
= e
1
, e
5
, e
3
) son
finvariantes.
Antes de enunciar y demostrar el resultado general relativo a los subespacios invariantes de
mayor interes, vamos a trabajar cada uno de los aspectos que recoge dicho resultado mediante
un ejemplo.
Ejemplo 3.3.2
Se considera el endomorsmo f de R
6
que tiene asociada respecto de la base can onica la matriz
siguiente:
A =
_
_
_
_
_
_
_
_
1 2 1 2 2 0
5 8 0 5 10 0
3 8 1 3 7 0
0 6 1 3 6 0
4 9 1 4 11 0
0 5 6 0 11 3
_
_
_
_
_
_
_
_
El polinomio caracterstico de f es P
f
(X) = (X 2)
3
(X + 3)
3
y su polinomio mnimo es
m
f
(X) = (X 2)
3
(X + 3)
2
.
Si consideramos los subespacios V
1
= ker(f 2I
R
6)
3
y V
2
= ker(f + 3I
R
6)
2
, se tiene que
V
1
= v
1
= (0, 1, 1, 0, 1, 0), v
2
= (1, 1, 1, 1, 0, 0), v
3
= (0, 0, 1, 0, 0, 1))
V
2
= w
1
= (1, 0, 0, 1, 0, 0), w
2
= (0, 0, 0, 0, 0, 1), w
3
= (0, 1, 1, 1, 1, 0))
de lo que se pueden deducir los siguientes resultados:
1. La familia de vectores B = v
1
, v
2
, v
3
, w
1
, w
2
, w
3
es libre, y por tanto es una base de R
6
,
lo que permite asegurar que R
6
= V
1
+V
2
.
2. Puesto que V
1
V
2
= 0, R
6
= V
1
V
2
.
3. Si calculamos las im agenes por f de los vectores de B, obtenemos:
f(v
1
) = v
1
v
2
f(v
2
) = 2v
2
v
3
f(v
3
) = v
1
+v
2
+ 3v
3
f(w
1
) = 3w
1
f(w
2
) = 3w
2
f(w
3
) = w
1
3w
3
.
Esto muestra que los subespacios V
1
y V
2
son f-invariantes, y que la matriz M
B
(f) es de
la forma
_
M
1
0
0 M
2
_
donde M
1
=
_
_
1 0 1
1 2 1
0 1 3
_
_
y M
2
=
_
_
3 0 1
0 3 0
0 0 3
_
_
.
74 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
En la proposici on siguiente se muestra c omo describir un espacio vectorial V como suma
directa de subespacios f-invariantes de acuerdo con la factorizaci on de su polinomio mnimo,
siendo f un endomorsmo de V .
Proposici on 3.3.1 Sea V un K-espacio vectorial n-dimensional y f : V V un endomor-
smo de polinomio caracterstico
P
f
(X) = (X
1
)
r
1
(X
2
)
r
2
. . . (X
l
)
r
l
y de polinomio mnimo
m
f
(X) = (X
1
)
s
1
(X
2
)
s
2
. . . (X
l
)
s
l
siendo 1 s
i
r
i
y
i
,=
j
si i ,= j. Si denotamos V
1
= ker((f
1
I)
s
1
) y V
2
= ker(b(f))
siendo
b(X) = (X
2
)
s
2
. . . (X
l
)
s
l
,
entocnes se tiene:
1. V es suma de los subespacios V
1
y V
2
.
2. V
1
V
2
= 0, y por tanto V = V
1
V
2
.
3. V
1
y V
2
son f-invariantes.
4. Si f
i
, con i = 1, 2, denota la restricci on de f a V
i
, entonces m
f
1
(X) = (X
1
)
s
1
y
m
f
2
(X) = b(X).
5. La dimension de V
1
es r
1
.
Demostraci on.
Por ser n ucleos de aplicaciones lineales, V
1
y V
2
son subespacios de V . Los polinomios que
denen esos subespacios son primos entre si, por lo que aplicando la identidad de Bezout
existen polinomios p(X) y q(X) en K[X] vericando
(f
1
I)
s
1
p(f) +b(f) q(f) = I
V
. (3.8)
Si v es cualquier elemento de V entonces
(f
1
I)
s
1
(p(f)(v)) +b(f)(q(f)(v)) = v.
Como v
2
= (f
1
I)
s
1
(p(f)(v)) V
2
y v
1
= b(f)(q(f)(v)) V
1
, se deduce la primera armaci on
de la proposici on.
Si v V
1
V
2
entonces (f
1
I)
s
1
(v) = 0 y b(f)(v) = 0. Teniendo en cuenta 3.8, se obtiene
v = p(f)((f
1
I)
s
1
(v)) +q(f)(b(f)(v)) = 0
y V
1
V
2
= 0.
Si v V
1
entonces
f((f
1
I)
s
1
(v)) = 0 = (f
1
I)
s
1
(f(v)),
3.3. SUBESPACIOS INVARIANTES 75
y, por tanto, f(v) V
1
. La f-invarianza de V
2
se prueba de forma an aloga.
Sean m
f
1
(X) y m
f
2
(X) los polinomios mnimos de f
1
y f
2
respectivamente. Si v V
1
entonces
(f
1
I)
s
1
(v) = (f
1

1
I)
s
1
(v) = 0.
Es decir, el endomorsmo (f
1

1
I)
s
1
denido en V
1
es el endomorsmo nulo y, como conse-
cuencia, m
f
1
(X) es un divisor de (X
1
)
s
1
. De forma similar se deduce que m
f
2
(X) es un
divisor de b(X) y, por tanto, m
f
1
(X) m
f
2
(X) divide a m
f
(X).
Sea v = v
1
+v
2
un elemento cualquiera de V con v
1
V
1
y v
2
V
2
. Entonces:
(m
f
1
(f) m
f
2
(f))(v) = (m
f
2
(f) m
f
1
(f))(v
1
) + (m
f
1
(f) m
f
2
(f))(v
2
) =
= m
f
2
(f)(m
f
1
(f)(v
1
)) +m
f
1
(f)(m
f
2
(f)(v
2
)) = m
f
2
(f)(m
f
1
(f
1
)(v
1
)) +m
f
1
(f)(m
f
2
(f
2
)(v
2
)) =
= m
f
2
(f)(0) +m
f
1
(f)(0) = 0
Lo anterior muestra que m
f
1
(f) m
f
2
(f) es el endomorsmo nulo sobre V y que el polinomio
mnimo de f es un divisor de m
f
1
(X) m
f
2
(X).
Se tiene entonces
(X
1
)
s
1
b(X) = m
f
1
(X) m
f
2
(X)
por dividirse mutuamente y ser ambos m onicos. Como ya se haba probado antes que (X
1
)
s
1
es un m ultiplo de m
f
1
(X) y que b(X) lo es de m
f
2
(X), quedan demostradas las igualdades
establecidas en el cuarto punto.
Si en V se considera una base B donde los d primeros vectores constituyen una base de V
1
y los ultimos n d constituyen una base de V
2
entonces la matriz asociada a f es una matriz
A =
_
A
1
0
0 A
2
_
donde:
A
1
es una matriz d d correspondiente al endomorsmo f
1
de V
1
con polinomio carac-
terstico P
A
1
(X) = (X
1
)
d
(s
1
d).
A
2
es una matriz (nd)(nd) correspondiente al endomorsmo f
2
de V
2
con polinomio
caracterstico un m ultiplo de b(X).
El polinomio caracterstico de A,
P
A
(X) = (X
1
)
r
1
(X
2
)
r
2
. . . (X
l
)
r
l
,
es el producto de P
A
1
(X) y de P
A
2
(X), polinomios primos entre si. Esto implica que:
P
A
1
(X) = (X
1
)
r
1
y P
A
2
(X) = (X
2
)
r
2
. . . (X
l
)
r
l
.
Se concluye nalmente que dim(V
1
) = d = r
1
.
76 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Corolario 3.3.1
Sea f un endomorsmo de V con polinomio caracterstico
P
f
(X) = (X
1
)
r
1
(X
2
)
r
2
. . . (X
l
)
r
l
y con polinomio mnimo
m
f
(X) = (X
1
)
s
1
(X
2
)
s
2
. . . (X
l
)
s
l
siendo 1 s
i
r
i
y
i
,=
j
si i ,= j.
1. V = V
1
V
2
. . .V
l
siendo V
i
= ker(f
i
)
s
i
un subespacio f-invariante cuya dimensi on
es r
i
(i = 1, 2, . . . , l).
2. f es diagonalizable si y solo si s
i
= 1 para todo i, esto es, si y solo si el polinomio mnimo
es
m
f
(X) = (X
1
) (X
2
) . . . (X
l
).
Para mostrar que el resultado de la proposici on anterior es en parte generalizable al caso
de tener un endomorsmo f cuyo polinomio mnimo sea de la forma m
f
(X) = a(X) b(X)
donde a(X) y b(X) son polinomios primos entre si (con todas sus races o no en el cuerpo K),
se presenta siguiente ejemplo:
Ejemplo 3.3.3
Sea f : R
3
R
3
un endomorsmo tal que
M
B
c
(f) =
_
_
1 1 2
1 1 1
3 1 4
_
_
.
El polinomio caracterstico y el polinomio mnimo de f coinciden y son (X 2)(X
2
+1). Si se
denota a(X) = (X 2) y b(X) = (X
2
+ 1), V
1
= ker(a(f)) y V
2
= ker(b(f)), puede probarse
que R
3
= V
1
V
2
y que V
1
y V
2
son f-invariantes. Esto ultimo asegura que la matriz asociada
a f respecto de la base de R
3
determinada por las bases de V
1
y V
2
es diagonal por cajas.
La siguiente sesi on Maple muestra como calcular de forma efectiva la representaci on ma-
tricial por cajas de un endomorsmo cuando se dispone de una factorizaci on del polinomio
mnimo (tambien calculado por Maple).
3.3. SUBESPACIOS INVARIANTES 77
Sea F un endomorsmo de R
7
cuya matriz respecto de la base can onica es M.
>
M:=matrix([[-1, -1, 1, -2, 1, 3, -2], [-2, -2, -1, 1, 2, -1, 1], [-3, -2,
0, 0, 2, -2, 2], [-2, -2, 0, 1, 1, -1, 1], [-3, -3, -1, 1, 3, -2, 2], [0, 0,
-1, 2, 0, -1, 1], [-1, -1, 0, 1, 0, 2, -1]]);
M :=
_

_
1 1 1 2 1 3 2
2 2 1 1 2 1 1
3 2 0 0 2 2 2
2 2 0 1 1 1 1
3 3 1 1 3 2 2
0 0 1 2 0 1 1
1 1 0 1 0 2 1
_

_
>
factor(charpoly(M,x));
(x
3
+ 3 x
2
2 x + 1) (x
2
x + 1)
2
>
factor(minpoly(M,x));
(x
3
+ 3 x
2
2 x + 1) (x
2
x + 1)
2
De acuerdo con la factorizaci on del polinomio mnimo de F, R
7
se escribe como suma directa
de dos subespcios cuyas bases se obtienen a continuaci on.
>
Base_1:=convert(kernel(evalm(subs(x=M,x^3+3*x ^2-2*x+1)) ),list);
Base 1 := [[1, 0, 0, 0, 0, 1, 0], [0, 1, 1, 1, 1, 0, 0], [1, 0, 0, 0, 0, 0, 1]]
>
Base_2:=convert(kernel(evalm(subs(x=M,(x^2-x+ 1)^2))),list);
Base 2 := [
_
1, 0, 0, 0,
1
2
, 1, 1
_
, [1, 0, 0, 1, 0, 0, 0],
_
1, 1, 0, 0,
1
2
, 0, 0
_
,
_
1, 0, 1, 0,
1
2
, 0, 0
_
]
En las lineas siguientes se calcula la matriz diagonal por bloques que representa a F respecto
de la base de R
7
ya determinada (ie la uni on de las bases de los dos subespscios F-invariantes).
>
for j from 1 to 3 do V[j]:=multiply(M,Base_1[j]) od;
V
1
:= [4, 1, 1, 1, 1, 1, 3]
V
2
:= [1, 0, 0, 0, 0, 1, 0]
V
3
:= [3, 1, 1, 1, 1, 1, 2]
>
for j from 1 to 3 do eqn[j]:=convert(evalm(V[j]-alpha*Base_1[1]
>
-beta*Base_1[2]-tau*Base_1[3]),set); od;
eqn
1
:= 1 , 4 + , 3 , 1
eqn
2
:= , 1 , , 1 +
eqn
3
:= 2 , 1 , 3 + , 1
>
Sol_1:=map(solve,eqn,alpha,beta,tau);
Sol 1 := table([
1 = = 3, = 1, = 1
2 = = 1, = 0, = 0
3 = = 1, = 1, = 2])
78 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
>
for j from 1 to 4 do W[j]:=multiply(M,Base_2[j]) od;
W
1
:=
_
1
2
, 1, 2,
3
2
,
3
2
, 0, 0
_
W
2
:= [1, 3, 3, 3, 4, 2, 2]
W
3
:=
_
1
2
, 1, 2,
1
2
,
3
2
, 0, 0
_
W
4
:=
_
1
2
, 2, 2,
3
2
,
5
2
, 1, 1
_
>
for j from 1 to 4 do Eqn[j]:=convert(evalm(W[j]-alpha*Base_2[1]
>
-beta*Base_2[2]-tau*Base_2[3]-delta*Base_2[4] ),set); od ;
Eqn
1
:= , 1 , 2 ,
3
2

1
2

1
2

1
2
,
3
2
,
1
2
+ +
Eqn
2
:= 4
1
2

1
2

1
2
, 1 + + , 2 , 3 , 3 , 3
Eqn
3
:= ,
3
2

1
2

1
2

1
2
, 1 , 2 ,
1
2
,
1
2
+ +
Eqn
4
:= 2 ,
5
2

1
2

1
2

1
2
, 2 ,
3
2
, 1 ,
1
2
+ +
>
Sol_2:=map(solve,Eqn,alpha,beta,tau,delta);
Sol 2 := table([
1 = = 0, = 1, = 2, =
3
2

2 = = 3, = 2, = 3, = 3
3 = = 0, = 1, = 2, =
1
2

4 = = 2, =
3
2
, = 2, = 1])
Finalmente obtenemos la representaci on de F por la matriz diagonal por bloques que pre-
tendamos.
>
M_1:=matrix(3,3):M_2:=matrix(4,4):
>
for j from 1 to 3 do assign(Sol_1[j]); M_1[j,1]:=alpha;M_1[j,2]:=beta;
>
M_1[j,3]:=tau;unassign(alpha,beta,tau);od:
>
for j from 1 to 4 do assign(Sol_2[j]); M_2[j,1]:=alpha;M_2[j,2]:=beta;
>
M_2[j,3]:=tau;M_2[j,4]:=delta;unassign(alpha,beta,tau,delta);od:
>
BlockDiagonal(M_1,M_2);
_

_
1 1 3 0 0 0 0
1 0 0 0 0 0 0
1 1 2 0 0 0 0
0 0 0 0
3
2
1 2
0 0 0 2 3 3 3
0 0 0 0
1
2
1 2
0 0 0 1
3
2
2 2
_

_
3.4. ENDOMORFISMOS NILPOTENTES. FORMA CAN

ONICA DE JORDAN 79
3.4 Endomorsmos nilpotentes. Forma can onica de Jor-
dan
En la determinaci on de una base de un espacio vectorial respecto de la cu al un endomorsmo
dado venga expresado por una matriz casidiagonal, se hace uso de ciertos endomorsmos
denominados nilpotentes, concepto que introduciremos despues de las siguientes observaciones:
Si f es un endomorsmo de V , ker(f
r
) ker(f
r+s
) si 0 s.
Existen endomorsmos cuyo polinomio caracterstico es de la forma X
n
, lo que conlleva
que una potencia de dicho endomorsmo sea la aplicaci on nula: El endomorsmo f de
R
4
denido por f(e
1
) = 0, f(e
2
) = e
1
, f(e
3
) = e
2
, f(e
4
) = 0 es un endomorsmo cuyo
polinomio mnimo es X
3
.
Si un endomorsmo f tiene polinomio mnimo (X )
s
, el endomorsmo g = f I
tiene por polinomio mnimo X
s
.
Denici on 3.4.1
Un endomorsmo f : V V se dice nilpotente de ndice l si su polinomio mnimo es X
l
.
En los siguientes ejemplos se aborda este concepto.
Ejemplo 3.4.1
El endomorsmo f de R
4
denido por f(e
1
) = 0, f(e
2
) = e
1
, f(e
3
) = e
2
, f(e
4
) = 0 es
nilpotente de ndice 3.
La matriz
A =
_
_
1 1 0
0 0 1
1 1 1
_
_
dene en R
3
un endomorsmo nilpotente de ndice 3.
Si f es un endomorsmo nilpotente de ndice l entonces existe un vector v V tal que
v , ker(f
l1
). Tambien en este caso se verica que Im(f
l1
) ker(f)
A continuaci on vamos a tratar de describir los metodos que permiten hallar las formas
can onicas de Jordan para matrices 2 2 y 3 3, o lo que es equivalente, para endomorsmos
denidos sobre espacios de dimensi on 2 o 3. En todos los casos se supondr a que el polinomio
caracterstico tiene todas sus races sobre el cuerpo base.
En una primera aproximaci on, se nalemos que una matriz (a
ij
) se dice que tiene forma de
Jordan si verica: a
ij
= 0 si j ,= i, i + 1, y a
ii+1
= 0 o 1 (los elementos de la diagonal principal
seran, como es obvio, los autovalores correspondientes). Es claro que la forma de Jordan de un
endomorsmo diagonalizable es precisamente su forma diagonal.
Caso 1. f : V V con dim(V ) = 2
1. Si P
f
(X) = (X )(X ) = m
f
(X) = (X )(X ), f es diagonalizable y sabemos
que la base buena es la de vectores propios.
80 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
2. Si P
f
(X) = (X )
2
, puede suceder que
(a) m
f
(X) = (X ) en cuyo caso f = I y no hay nada que hacer, o bien
(b) m
f
(X) = (X )
2
. En esta situaci on V = ker(f I)
2
, y g = f I es nilpotente
de ndice 2. Se puede elegir entonces un vector v V tal que v , ker(g). El conjunto
B = g(v), v
es una base de V (su independencia basta por ser dim(V ) = 2):
ag(v) +bv = 0 ag
2
(v) +bg(v) = 0
b = 0 (puesto que g
2
(v) = 0 y g(v) ,= 0) a = 0.
Entonces:
M
B
(f) = M
B
(g) + M
B
(I) =
_
0 1
0 0
_
+
_
0
0
_
=
_
1
0
_
es la forma de Jordan de f.
Caso 2. f : V V con dim(V ) = 3
1. Si P
f
(X) = (X)(X)(X) = m
f
(X) = (X)(X)(X), f es diagonalizable.
2. Si P
f
(X) = (X )
2
(X ), puede suceder que
(a) m
f
(X) = (X )(X ), y siendo as f es diagonalizable.
(b) m
f
(X) = (X )
2
(X ). En esta situaci on consideramos los subespacios f-
invariantes, y suplementarios, V
1
= ker(f I)
2
, y V
2
= ker(f I). La dimensi on
de V
1
es 2, y se puede actuar en el, teniendo en cuenta el endomorsmo f
1
restriccion
de f, como se haca en el punto 2b del caso 1. Si
B = g(v), v, w
(v V
1
pero v , ker(f
1
I), y w V
2
) entonces
M
B
(f) =
_
_
1 0
0 0
0 0
_
_
es la forma de Jordan de f.
3. Si P
f
(X) = (X )
3
, pueden aparecer las siguientes situaciones:
(a) m
f
(X) = (X ), caso trivial por cuanto f = I.
(b) m
f
(X) = (X)
2
. El endomorsmo g = f I, es nilpotente de ndice 2. Se puede
elegir entonces un vector v V tal que v , ker(g), y un vector w ker(g) Im(g)
(puesto que Im(g) ker(g) pero no coinciden por ser 3 = dim(V ), un n umero
impar). Un razonamiento en la linea del realizado en el punto 2b del caso 1 prueba
que el conjunto
B = w, g(v), v
3.4. ENDOMORFISMOS NILPOTENTES. FORMA CAN

ONICA DE JORDAN 81
es base de V y que
M
B
(f) = M
B
(g) + M
B
(I) =
_
_
0 0 0
0 0 1
0 0 0
_
_
+
_
_
0 0
0 0
0 0 0
_
_
=
_
_
0 0
0 1
0 0
_
_
es la forma de Jordan de f.
(c) m
f
(X) = (X )
3
. Ahora g = f I, es nilpotente de ndice 3, lo que nos permite
hallar un vector v V tal que v , ker(g
2
). La demostraci on de que
B = g
2
(v), g(v), v
es base de V , sigue un esquema similar al ya usado en 2b (dentro del caso 1) y, en
este caso,
M
B
(f) = M
B
(g) + M
B
(I) =
_
_
0 1 0
0 0 1
0 0 0
_
_
+
_
_
0 0
0 0
0 0 0
_
_
=
_
_
1 0
0 1
0 0
_
_
es la forma de Jordan de f.
El estudio anterior cubre, como es obvio, todos aquellos casos de endomorsmos, sobre
espacios de dimension 3, en los que las races del polinomio caracterstico tienen a lo sumo
multiplicidad 3. Con el siguiente ejemplo se da una idea del metodo que se emplea de forma
general para obtener la forma de Jordan de una matriz.
Ejemplo 3.4.2
Consideremos V = R
7
y f el endomorsmo denido, respecto de la base can onica, por la matriz
siguiente:
A =
_
_
_
_
_
_
_
_
_
_
4 3 1 2 3 7 7
0 2 0 0 0 0 0
2 2 1 2 3 2 2
0 1 1 2 1 0 0
1 1 1 1 1 1 1
5 5 6 5 1 1 4
5 5 6 5 1 4 7
_
_
_
_
_
_
_
_
_
_
Su polinomio caracterstico y su polinomio mnimo son
P
f
(X) = (X + 3)
2
(X 2)
5
y m
f
(X) = (X + 3)
2
(X 2)
3
.
Sean
V
1
= ker((f + 3I)
2
) y V
2
= ker((f 3I)
3
)
los subespacios f-invariantes cuyas bases respectivas son:
B
1
= (1, 0, 0, 0, 0, 1, 0), (0, 0, 0, 0, 0, 1, 1)
B
2
= (1, 0, 1, 0, 0, 0, 0), (0, 0, 0, 0, 1, 0, 0),
(1, 1, 0, 0, 0, 0, 0), (1, 0, 0, 1, 0, 0, 0), (1, 0, 0, 0, 0, 1, 1)
82 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
La aplicaci on f
1
restriccion de f a V
1
tiene el tratamiento visto en 2b del caso 1. Respecto de
la base
B

1
= (1, 0, 0, 0, 0, 0, 1), (1, 0, 0, 0, 0, 1, 0)
de V
1
la forma de Jordan de f
1
es
M
B

1
(f
1
) =
_
3 1
0 3
_
.
Si f
2
es la restriccion de f a V
2
y g = f
2
2I (nilpotente de ndice 3) entonces se procede
de la siguiente manera:
Se elige un vector v V
2
, y se van calculando g(v), g
2
(v), . . . hasta obtener el vector nulo.
Si v = (1, 1, 0, 0, 0, 0, 0) entonces g(v) = (1, 0, 0, 1, 0, 0, 0) y g
2
(v) = 0 y los vectores v
y g(v) son linealmente independientes.
A continuaci on se escoge un vector w V
2
, linealmente independiente con v y g(v); por
ejemplo w = (0, 0, 0, 0, 1, 0, 0) y se van obteniendo g(w), g
2
(w), . . . hasta obtener el vector
nulo. En este caso, g(w) = (3, 0, 3, 1, 1, 1, 1), g
2
(w) = (2, 0, 2, 2, 2, 2, 2) y g
3
(w) = 0
y los vectores v, g(v), w, g(w) y g
2
(w) son linealmente independientes
Los vectores g(v), v, g
2
(w), g(w), w forman una base, B

2
, de V
2
tal que:
M
B

2
(f
2
) = M
B

2
(g) + M
B

2
(2I) =
_
_
_
_
_
_
0 1 0 0 0
0 0 0 0 0
0 0 0 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
+
_
_
_
_
_
_
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
=
=
_
_
_
_
_
_
2 1 0 0 0
0 2 0 0 0
0 0 2 1 0
0 0 0 2 1
0 0 0 0 2
_
_
_
_
_
_
es la forma de Jordan de f
2
.
Se obtiene as la base de R
7
B = (1, 0, 0, 0, 0, 0, 1), (1, 0, 0, 0, 0, 1, 0), (1, 0, 0, 1, 0, 0, 0), (1, 1, 0, 0, 0, 0, 0),
(2, 0, 2, 2, 2, 2, 2), (3, 0, 3, 1, 1, 1, 1), (0, 0, 0, 0, 1, 0, 0)
tal que
M
B
(f) =
_
_
_
_
_
_
_
_
_
_
3 1 0 0 0 0 0
0 3 0 0 0 0 0
0 0 2 1 0 0 0
0 0 0 2 0 0 0
0 0 0 0 2 1 0
0 0 0 0 0 2 1
0 0 0 0 0 0 2
_
_
_
_
_
_
_
_
_
_
es la forma de Jordan de f.
3.5. C

ALCULO APROXIMADO DE AUTOVALORES 83


El resultado general no va a ser m as que enunciado y se hace en los terminos siguientes:
Proposici on 3.4.1
Sea f un endomorsmo de V de polinomio caracterstico
P
f
(X) = (X
1
)
r
1
(X
2
)
r
2
. . . (X
l
)
r
l
y de polinomio mnimo
m
f
(X) = (X
1
)
s
1
(X
2
)
s
2
. . . (X
l
)
s
l
siendo 1 s
i
r
i
y
i
,=
j
si i ,= j. Entonces:
1. Para cada subespacio f-invariante V
i
= ker(f
i
)
s
i
(i = 1, 2, . . . , l), existe una base
B
i
(con r
i
vectores) respecto de la cu al el endomorsmo restricci on de f a V
i
tiene por
matriz J

i
, donde los elementos de la diagonal principal son todos iguales a
i
, los de los
lugares (j, j + 1) son cero o uno y el resto todos iguales a cero.
2. La matriz asociada a f respecto de la base
B = B
1
B
2
. . . B
l
de V es una matriz diagonal por cajas. Las cajas son respectivamente J

1
, J

2
, . . . , J

l
.
3. La matriz por cajas obtenida en 2. recibe el nombre de matriz de Jordan de f, y es unica
salvo reordenaci on de los elementos (j, j) y (j, j + 1).
Es inmediato que en terminos de matrices el enunciado precedente se expresa diciendo que
toda matriz A (de tama no n n con P
A
(X) y m
A
(X) como los de la proposici on anterior) es
semejante a una matriz por cajas como la detallada en el punto 2. ultimo.
3.5 Calculo aproximado de autovalores
Consideremos la matriz
A =
_
_
_
_
1 1 1 1
2 1 1 1
1 1 1 1
1 1 0 1
_
_
_
_
cuyo polinomio caracterstico es
P
A
(X) = X
4
+X
2
+X + 2
Las soluciones de la ecuaci on P
A
(X) = 0 son dicilmente expresables de forma exacta y por
lo tanto la unica posibilidad en este momento es aproximarlas. Para este caso particular se
obtiene que hay cuatro autovalores (complejos) cuyas aproximaciones son

1
= 0.574 0.678i
2
= 0.574 + 0.678i

3
= 0.574 1.483i
4
= 0.574 + 1.483i
En general, la aproximaci on de los autovalores mediante el c alculo de las soluciones del poli-
nomio caracterstico a traves de un metodo numerico es altamente arriesgado ya que en muchas
84 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
aplicaciones pr acticas los coecientes de la matriz A se conocen de forma aproximada y esta-
mos acumulando dos tipos de errores: los que aparecen al calcular P
A
(X) y los que origina la
aproximaci on de las soluciones de la ecuaci on P
A
(X) = 0.
Uno de los metodos m as usados en la pr actica para el c alculo aproximado de autovalores es
el metodo de la potencia. Sea A una matriz de orden n y supongamos que todos sus autovalores,

1
, . . . ,
n
, son reales, distintos y sea
1
el autovalor vericando
[
i
[ [
1
[, 2 i n
Sea u
i
el autovector asociado al autovalor
i
y consideremos x
1
, . . . , x
n
n umeros reales arbitra-
rios. Entonces:
A
_
n

j=1
x
j
u
j
_
=
n

j=1

j
x
j
u
j
A
2

_
n

j=1
x
j
u
j
_
=
n

j=1

2
j
x
j
u
j
.
.
.
A
k

_
n

j=1
x
j
u
j
_
=
n

j=1

k
j
x
j
u
j
Si ponemos
X
0
=
n

j=1
x
i
u
i
, X
k
= A
k
X
0
entonces (si
1
,= 0)
lim
k
X
k

k
1
= x
1
u
1
Consideremos el siguiente esquema para k 0, 1, 2, . . .
Y
k+1
= A X
k
,

k+1
=mayor coordenada de Y
k+1
en valor absoluto, y
X
k+1
=
Y
k+1

k+1
.
La sucesion X
k
sigue teniendo como lmite un m ultiplo de u
1
, u
1
, y por ello la sucesi on Y
k
tiene como lmite
1
(u
1
). Como
Y
k
=
k
X
k
=
1
(u
1
) = ( lim
k

k
)(u
1
)
se concluye que
k
tiende a
1
y que X
k
tiene como lmite u
1
. Hemos obtenido entonces una
aproximaci on al primer autovalor y al primer autovector. (Como se calculara
2
?).
La siguiente sesi on Maple muestra, con el ejemplo de la sesi on anterior, la sensibilidad de
la forma de Jordan de una matriz ante ligeros cambios en alguna de sus entradas.
3.5. C

ALCULO APROXIMADO DE AUTOVALORES 85


En el caso de valores exactos, la Forma Can onica de Jordan de M 2 se puede hallar f acilmente,
(lo mismo que sus autovalores y autovectores).
>
jordan(M_2);
_

_
1
2
+
1
2
I

3 1 0 0
0
1
2
+
1
2
I

3 0 0
0 0
1
2

1
2
I

3 1
0 0 0
1
2

1
2
I

3
_

_
>
eigenvalues(M_2);eigenvectors(M_2);
1
2

1
2
I

3,
1
2
+
1
2
I

3,
1
2

1
2
I

3,
1
2
+
1
2
I

3
[
1
2

1
2
I

3, 2,
_
1, 1 I

3, I

3, 1
_
], [
1
2
+
1
2
I

3, 2,
_
1, 1 +I

3, I

3, 1
_
]
En el siguiente caso el segundo elemento de M 2 se ha modicado ligeramente, y la Forma
Can onica de Jordan de M 2 es diagonal.
>
M_2[1,1]:=.000001:evalm(M_2);
_

_
.1 10
5
3
2
1 2
2 3 3 3
0
1
2
1 2
1
3
2
2 2
_

_
>
jordan(M_2);
_

_
.4995920018 .8660256443 I , 0 , 0 , 0
0 , .4995920018 +.8660256443 I , 0 , 0
0 , 0 , .5004084982 .8660256444 I , 0
0 , 0 , 0 , .5004084982 +.8660256444 I
_

_
El computo numerico de los autovalores de M 2 muestra si est an tan pr oximos c omo es de
esperar. Notar la discrepancia entre los autovalores devueltos por la funci on autovalor y los
devueltos por la funci on autovector. (Por que?.).
>
eigenvals(M_2);
.5004084982 +.8660256444 I, .5004084982 .8660256444 I,
.4995920018 +.8660256443 I, .4995920018 .8660256443 I
86 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
>
eigenvectors(M_2);
[.5004080299 +.8660255231 I, 1, [.08282331289 .7722429439 I,
1.421205580 .6261544032 I, 1.335759273 .1448504474 I,
.08435618631 +.7711224777 I]], [.5004080299 .8660255231 I, 1,
[.08282331289 +.7722429439 I, 1.421205580 +.6261544032 I,
1.335759273 +.1448504474 I, .08435618631 .7711224777 I]],
[.4995924704 +.8660257625 I, 1, [404.6558467 + 644.5434352 I,
1521.447677 53.66432636 I, 1118.574574 + 700.4267727 I,
403.7841688 646.1905366 I]], [.4995924704 .8660257625 I, 1,
[404.6558467 644.5434352 I, 1521.447677 + 53.66432636 I,
1118.574574 700.4267727 I, 403.7841688 + 646.1905366 I]]
De nuevo en este caso el segundo elemento de M 2 ha sido modicado de forma inapreciable, y
la Forma Can onica de Jordan de M 2 es diagonal.
>
M_2[1,1]:=.0000001:evalm(M_2);
_

_
.1 10
6
3
2
1 2
2 3 3 3
0
1
2
1 2
1
3
2
2 2
_

_
El calculo de los autovalores de M 2 muestra si pueden llegar a ser iguales. Observar de nuevo
la discrepancia entre los autovalores retornados por la funci on autovalor y los retornados por
la funci on autovector. (Por que?).
>
eigenvals(M_2);
.5001291244 +.8660254278 I, .5001291244 .8660254278 I,
.4998709256 +.8660254278 I, .4998709256 .8660254278 I
>
eigenvectors(M_2);
[.5001292115 +.8660252245 I, 1, [.4426588580 +.6442043907 I,
1.558283016 .1233665436 I, 1.115076403 +.7668253033 I,
.4429187174 .6436572983 I]], [.5001292115 .8660252245 I, 1, [
.4426588580 .6442043907 I, 1.558283016 +.1233665436 I,
1.115076403 .7668253033 I, .4429187174 +.6436572983 I]], [
.4998708485 +.8660256350 I, 1, [828.8422432 3576.914033 I,
5364.101646 5015.841281 I, 6197.267118 + 1438.461776 I,
831.5639723 + 3577.748079 I]], [.4998708485 .8660256350 I, 1, [
828.8422432 + 3576.914033 I, 5364.101646 + 5015.841281 I,
6197.267118 1438.461776 I, 831.5639723 3577.748079 I]]
3.5. C

ALCULO APROXIMADO DE AUTOVALORES 87


Despues de muchos minutos de calculo la Forma Can onica de Jordan de M 2 produce el siguiente
resultado. Que funci on, si hay alguna, no trabaja adecuadamente en este caso?
>
jordan(M_2);
_

_
.5000000250 .8660253790 I , 1 , 0 , 0
0 , .5000000250 .8660253790 I , 0 , 0
0 , 0 , .5000000250 +.8660253790 I , 1
0 , 0 , 0 , .5000000250 +.8660253790 I
_

_
88 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
3.6 Ejercicios Captulo 3
Teora del Endomorsmo
Ejercicio 62
Sea f : V V un endomorsmo cuyos autovalores son 1, 0 y 1, con autovectores asociados
v
1
, v
2
, v
3
respectivamente. Encontrar un vector v tal que f(v) = v
1
+ v
3
. Existira un vector v
tal que f(v) = v
1
?.
Ejercicio 63
Utilizando matrices cuadradas de tama nos 2 2, 3 3, 4 4. Descubre la relaci on entre el
determinante de la matriz, la suma de los valores propios, ... y los coecientes de su polinomio
caracterstico.
Ejercicio 64
Sea f un endomorsmo de un Kespacio vectorial V . Un subespacio W de V se dice invariante
por f o finvariante si f(W) est a contenido en W.
a) Demuestra que 0 y V son subespacios invariantes por f.
b) Sea W un subespacio de V de dimension 1. Demuestra que W es finvariante si y s olo
si W esta generado por un vector propio.
c) Demuestra que los unicos subespacios de R
2
invariantes por el endomorsmo de matriz
_
2 5
1 2
_
son 0 y R
2
.
Ejercicio 65
Sea V un Respacio vectorial.
a) Demuestra que si V es de dimension impar, para todo endomorsmo de V existe un vector
propio.
b) Si V es de dimension par, y f es un endomorsmo de V con determinante negativo,
demuestra que f tiene al menos dos valores propios reales.
Ejercicio 66
Sea f un endomorsmo de R
n
.
a) Si v y w son autovectores de f asociados a autovalores distintos, demuestra que av +bw
(a, b ,= 0) no es vector propio de f.
b) Si cualquier vector de R
n
es vector propio de f, demuestra que f = I (con un cierto
n umero real e I la aplicaci on identidad en R
n
).
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 89
Ejercicio 67
Respecto a la base can onica de R
4
, calcula la matriz del endomorsmo f : R
4
R
4
caracteri-
zado por vericar:
a) (1, 1, 1, 1) es un vector propio de valor propio 4.
b) ker(f) = (1, 2, 3, 4), (1, 4, 0, 1))
c) f(3, 2, 1, 2) = (8, 4, 2, 1).
Ejercicio 68
Halla los autovalores y los subespacios propios del endomorsmo f de R
3
que, respecto la base
can onica, tiene asociada la siguiente matriz
A =
_
_
1 1 0
3 1 6
1 1 3
_
_
Analiza si f es diagonalizable.
Ejercicio 69
Halla los autovalores y los subespacios propios del endomorsmo f de R
3
que, respecto la base
can onica, tiene asociada la siguiente matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
Analiza si f es diagonalizable.
Ejercicio 70
Sea V un Respacio vectorial de dimensi on 4, y sea f un endomorsmo de V que en cierta base
dada tiene por matriz a
A =
_
_
_
_
3 3 0 1
1 1 0 1
1 2 1 1
2 4 0 3
_
_
_
_
Halla los autovalores y los subespacios propios de f y comprueba si es diagonalizable.
Ejercicio 71
Sea V un espacio vectorial real de dimensi on 3, en el que se considera una base B = v, w, u.
De un endomorsmo f de V se sabe que:
f(6v + 2w + 5u) = 6v + 2w + 5u y la traza de la matriz A de f en la base B es igual a 5.
U = (x, y, z): 2x + 11y 7z = 0 es un subespacio propio de f.
90 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Halla la matriz de f en la base B y los autovalores de f.
Ejercicio 72
Sea f: R
3
R
3
un endomorsmo que respecto de la base can onica tiene por matriz A =
_
_
1 a 1
0 1 b
0 0 c
_
_
Bajo que condiciones es f diagonalizable?.
Ejercicio 73
Sea f: R
3
R
3
un endomorsmo tal que f
2
= f. Demuestra que f es diagonalizable y halla
sus vectores propios.
Ejercicio 74
Sea A una matriz n n con coecientes reales. Dicha matriz A puede considerarse como
asociada a un endomorsmo de R
n
(como Respacio vectorial) o a un endomorsmo de C
n
(como C-espacio vectorial).
a) Da un ejemplo de matriz real 4 4 que sea diagonalizable sobre C y no sobre R.
b) Da un ejemplo de matriz real 4 4 que no sea diagonalizable sobre C. Lo ser a sobre R?.
c) Demuestra que toda matriz real 3 3 cuyo polinomio caracterstico tenga una sola raiz
real es diagonalizable sobre C.
Ejercicio 75
Sea f un endomorsmo de R
3
del que se sabe lo siguiente:
a) f es diagonalizable y s olo tiene dos autovalores distintos.
b) f(U) = V siendo U = (x, y, z) R
3
: x 2y z = 0 y V = (1, 0, 1), (1, 1, 1)).
c) Un valor propio de f es 1 y uno de sus vectores propios pertenece a U.
d) (1, 0, 1) es un vector propio de f, y esta asociado a un autovalor simple.
Halla la matriz A asociada a f respecto de la base can onica, en funci on de cu antos par ametros
sea preciso.
Ejercicio 76
Sea V un Respacio vectorial de dimensi on 125 y f un endomorsmo de V no inyectivo tal
que f
3
= 196f. Sean M
f
(X) y P
f
(X) el polinomio mnimo y el polinomio caracterstico de f
respectivamente. Justica cada una de las siguientes implicaciones:
f
3
= 196f M
f
(X) es un divisor de X(X 14)(X + 14)
P
f
(X) = X
r
(X 14)
s
(X + 14)
t
con 1 r, 0 s, 0 t y r +s +t = 125
V
1
= ker(f), V
2
= ker(f 14I
V
), V
3
= ker(f + 14I
V
) tienen resp. dim. r, s, t
Existe B base de V tal que M
B
(f) es diagonal con 0s, 14s y (-14)s en la diagonal
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 91
Ejercicio 77
D, razonadamente, si son verdaderas o falsas las armaciones siguientes:
a) Si A M
4
(R) y P
A
(X) = X(X 1)(X 2)
2
entonces A tiene rango 2.
b) Sea f un endomorsmo de R
4
. Se sabe que dimker(f 3I) > 1 y que mcdM
f
(X), (X
5)(X 4)
2
tiene dos raices distintas. En esas condiciones f es diagonalizable.
c) Si A M
n
(R) y A
2
= I
n
entonces A es diagonalizable.
d) Si f : R
3
R
3
es un endomorsmo cuyo polinomio mnimo es X(X + 1), entonces f es
diagonalizable.
e) Si f : R
3
R
3
es un endomorsmo cuyo polinomio mnimo es X(X1), entonces f es la
aplicaci on nula, es la aplicaci on identidad o bien existen subespacios U y W de R
3
tales
que f coincide con la proyecci on sobre U en la direcci on de W.
Ejercicio 78
Sea f : R
4
R
4
un endomorsmo cuya matriz asociada respecto de las bases can onicas es
A =
_
_
_
_
1 0 0 0
8 1 4 0
4 0 1 0
4 4 8 1
_
_
_
_
a) Obten el polinomio caracterstico y los valores propios de A.
b) Da bases de los subespacios de vectores propios relativos a A. Es f diagonalizable?.
Quien es el polinomio mnimo de f?.
Ejercicio 79
Sea B = e
1
, e
2
, e
3
, e
4
la base can onica de R
4
, y f : R
4
R
4
un endomorsmo del que se sabe:
El polinomio caracterstico tiene todas sus raices reales pero s olo dos son distintas.
ker(f) = e
1
+e
2
, e
4
), f(e
3
) = 2e
3
y e
1
e
2
es vector propio.
Responde a las siguientes cuestiones.
a) Es f diagonalizable?. Cu al es el polinomio caracterstico de f?
b) Determina la matriz asociada a f respecto de la base can onica.
Ejercicio 80
Sea B = e
1
, e
2
, e
3
, e
4
la base can onica de R
4
, y f : R
4
R
4
un endomorsmo del que se sabe
ker(f) = e
2
+e
4
), f(e
1
) = e
2
y f(e
2
) = e
1
a) Demuestra que e
1
e
2
y e
1
+e
2
son vectores propios.
92 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
b) Si 2 fuese raiz del polinomio caracterstico de f, podramos armar que f es diagonaliz-
able?.
c) Supongamos que f(0, 0, 1, 1) = (1, 1, 0, 1). Escribe la matriz asociada a f respecto de
la base can onica. Es f diagonalizable en este caso?.
Ejercicio 81
Sea f : R
3
R
3
una aplicaci on lineal tal que
i)f
2
es la aplicaci on nula ii)f(1, 1, 1) = (0, 1, 1) iii)(0, 0, 1) Ker(f)
1. Halla bases de Ker(f) y de Im(f) probando previamente que Im(f) Ker(f).
2. Existen bases B y B

de R
3
tales que M
B,B
(f) =
_
_
1 0 0
0 0 0
0 0 0
_
_
?. En caso armativo,
calcula dichas bases.
3. Determina el polinomio caracterstico de f. Es f diagonalizable?.
Ejercicio 82
Sea V un R-espacio vectorial de dimensi on 7, y U y W dos subespacios de V tales que V = UW
con dim(U) = 4. Si p : V V es la aplicacion proyecci on sobre U en la direccion de W, cuales
de las siguientes armaciones son verdaderas?.
1. Existe una base B de V respecto de la cu al la matriz asociada a p es
M
B
=
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0 0 0
0 1 0 0 0 0 0
0 0 1 0 0 0 0
0 0 0 1 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
2. rango(f) = dim(U)
3. El polinomio caracterstico de p es (X 1)
4
X
3
, y el polinomio mnimo es (X 1)X.
Ejercicio 83
Sea f : R
4
R
3
el endomorsmo denido por
f(x, y, z, t) = (x y, z t, x y +z t)
1. Determina bases de Ker(f) y de Im(f).
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 93
2. Halla bases B de R
4
y B

de R
3
para las que
M
B,B
(f) =
_
I
r
0
0 0
_
siendo I
r
la matriz identidad de tama no r r y los 0

s matrices nulas de tama nos ade-


cuados.
3. Es verdadera o falsa la siguiente armaci on?: Existen bases B
1
de R
4
y B

1
de R
3
tal que
M
B
1
,B

1
(f) =
_
_
0 0 1 0
1 0 0 0
0 0 0 0
_
_
.
4. Sea g : R
3
R
4
la aplicaci on lineal tal que
M
B

,B
(g) =
_
_
_
_
1 1 0
1 1 0
1 0 1
0 0 1
_
_
_
_
donde B y B

son las bases del segundo apartado. Es la aplicaci on f g : R


3
R
3
diagonalizable?.
Ejercicio 84
Blancanieves distribuy o 3 litros de leche a los siete enanitos. A continuaci on el primero de
ellos distribuy o el contenido de su taza de modo uniforme a las otras seis tazas, despues el
segundo hizo lo mismo, y as sucesivamente. Cuando el septimo enanito hubo realizado la
misma operaci on, se pudo comprobar que cada uno de los enanos tena exactamente la misma
cantidad de leche en su taza que al comienzo. Cu al fue la distribuc on inicial de leche?. Esta es
la pregunta a la que se debe responder y para lo que se va a seguir el siguiente procedimiento.
1. Identiquemos cada distribuci on inicial de leche con un vector v = (x
1
, , x
7
) R
7
,
donde cada x
k
denota la cantidad de leche en la taza k. La distribuci on realizada por cada
uno de los enanitos puede ser interpretada como una aplicaci on lineal t
k
, (k = 1, , 7) de
R
7
en s mismo. Describe cada t
k
por la matriz T
k
asociada respecto de la base can onica.
2. Explica por que el problema queda resuelto hallando un vector u = (a
1
, , a
7
) R
7
tal
que t(u) = u con t = t
7
t
1
y

7
k=1
a
k
= 3.
3. Mediante las instrucciones que aparecen en el primero de los cuadros siguientes puedes
realizar el c alculo efectivo del vector u del apartado anterior utilizando Maple.
4. En este apartado se da un metodo alternativo para el c alculo del vector u.
Sea p : R
7
R
7
la aplicaci on lineal denida por la matriz (respecto de la base
can onica) P = (p
ij
) donde p
71
= 1, p
i,i+1
= 1 y p
ij
= 0 en el resto de los casos. Que
efecto produce sobre las tazas la matriz P?. Determina A = P T
1
y describe el
efecto producido al aplicar siete veces consecutivas el endomorsmo s de R
7
denido
por A (es decir, el efecto producido por s
7
). El procedimiento s
7
y el procedimiento
original, t, tienen el mismo efecto?. Calcular el vector u del segundo apartado
es equivalente a calcular un vector u ker(s
7
I) con

7
k=1
a
k
= 3?. Para dar
respuesta a esto, ay udate de Maple (segundo cuadro)
94 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
En un ejercicio propuesto en hojas de ejercicios b asicos se prob o que :
(a) El polinomio caracterstico de A es p
A
(X) =
1
6
X(7X
6
r(X)) siendo r(X) =
X
6
+X
5
+ +X
2
+X +1, y r() ,= 0 donde es cualquier valor propio de A
(b) La matriz A
6
+A
5
+ +A
2
+A +I es inversible.
(c) ker(s
7
I) = ker(s I) = (6, 5, 4, 3, 2, 1, 0)),
lo que reuelve tambien el problema.
>
with(linalg):
>
T:=proc(k) local R, i, j;R:=linalg[matrix](7,7, R[i,j]): for i from 1
to 7 do for j from 1 to 7 do if i=k then R[i,j]:=0 else if j=k then
>
R[i,j]:=1/6 else if i=j then R[i,j]:=1 else R[i,j]:=0 fi;fi;fi;od;od;
evalm(R);end;
>
t:=multiply(T(7),T(6),T(5),T(4),T(3),T(2),T(1));
Tambien el producto anterior se hubiese podido hallar mediante el procedimiento siguiente.
>
M:=proc(k) ; if k=1 then T(1) else multiply(T(k),M(k-1))fi;end;M(7);
>
nullspace(t-1);
>
alfa:=solve(6*x+5*x+4*x+3*x+2*x+x-3=0,x);
>
u:=evalm(alfa*vector ([6,5, 4, 3, 2, 1, 0]));
>
with(linalg):
>
P:=matrix(7,7):
>
for i from 1 to 7 do for j from 1 to 7 do if j=i+1 then P[i,j]:=1
>
else if i=7 and j=1 then P[i,j]:=1 else P[i,j]:=0 fi;fi;od;od;
R:=evalm(P);
>
T1:=matrix(7,7):
>
for i from 1 to 7 do for j from 1 to 7 do if i=1 then T1[i,j]:=0
>
else if j=1 then T1[i,j]:=1/6 else if i=j then T1[i,j]:=1
else T1[i,j]:=0 fi;fi;fi;od;od; print(T1=,T1);
>
A:=multiply(R,T(1));
>
B:=evalm(A^7);
>
charpoly(A,x);
>
factor(charpoly(A,x));
>
nullspace(B-1);
>
nullspace(A-1);
>
alfa:=solve(6*x+5*x+4*x+3*x+2*x+x-3=0,x);
>
u:=evalm(alfa*vector([6, 5, 4, 3, 2, 1, 0]));
Este ejercicio aparece, sin las aplicaciones de Maple, en el libro Abstract Algebra with
Applications de Karlheinz Spindler.
Ejercicio 85
Un inversor desea abrir tres cuentas A
1
, A
2
y A
3
con cantidades iguales. Dichas cuentas tienen
una ganancia anual del 6%, 8% y 10% respectivamente. Al nal de cada a no la p oliza del
inversor invierte 1/3 del dinero ganado en A
2
y 2/3 del dinero ganado en A
3
en A
1
, y 1/3 del
dinero ganado en A
3
en A
2
.
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 95
1. Escribe el sistema de ecuaciones que representa la cantidad invertida en cada cuenta
despues de n a nos.
2. Expresa la cantidad de dinero de cada cuenta en el a no n en terminos de la cantidad
invertida inicialmente en cada cuenta.
3. Estimar el n umero de a nos para conseguir en A
1
una cantidad doble a la inicial.
Este ejercicio aparece en el libro Interactive Linear Algebra with MAPLE V de Deeba/Guna-
wardena.
Ejercicio 86
Se considera la matriz
A =
_
_
1 0 2
0 1 0
0 0 1
_
_
Halla una base de R
3
en la que la misma se represente mediante la forma can onica de Jordan.
Ejercicio 87
Sea V = C
3
y f : V V una aplicaci on lineal cuya matriz respecto de la base can onica de V
es
A =
_
_
1 1 2
1 3 3
0 0 1
_
_
Se pide:
a) Calcular polinomios caracterstico y mnimo de f. Es f diagonalizable?.
b) Determina la descomposici on de V como suma directa de subespacios f-invariantes de
acuerdo con la descomposici on del polinomio mnimo obtenida en a).
c) A partir de la descomposici on de V obtenida en la parte b), determina una base B de V
tal que la matriz de f respecto de B este en la forma de Jordan.
Ejercicio 88
Halla las formas can onicas de Jordan de las matrices
_
_
3 0 0
a 3 0
b c 2
_
_
para los distintos valores de los par ametros a, b y c.
96 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Ejercicio 89
Sea f: R
4
R
4
un endomorsmo y
A =
_
_
_
_
1 0 1 0
1 1 4 0
1 0 3 0
1 0 4 1
_
_
_
_
la matriz asociada a f cuando en R
4
se considera la base can onica y (X 2)
2
(X + 1)
2
el
polinomio caracterstico de f.
a) Determina el polinomio mnimo de f.
b) Calcula base y dimensi on de los subespacios V
1
= ker((f 2I)
2
) y V
2
= ker(f +I) de R
4
.
c) Comprueba que f(V
1
) V
1
y determina la forma de Jordan del endomorsmo b : V
1
V
1
siendo b(w) = f(w).
Ejercicio 90
Obten las formas de Jordan de las matrices siguientes:
A =
_
_
_
_
0 0 0 1
1 0 0 1
0 1 0 1
0 0 1 1
_
_
_
_
B =
_
_
_
_
6 6 6 6
3 3 3 3
2 2 2 2
1 1 1 1
_
_
_
_
C =
_
_
1 1 2
1 3 1
2 1 5
_
_
Ejercicio 91
Sea f un endomorsmo de R
4
donde la matriz asociada a f respecto de la base can onica es
A =
_
_
_
_
1 0 0 0
0 2 1 0
0 1 4 0
0 0 0 2
_
_
_
_
a) Son f-invariantes los subespacios U = e
1
), W = e
2
, e
3
) y T = e
4
) ?.
b) Da una base de R
4
respecto de la cu al la matriz asociada a f sea la forma can onica de
Jordan. C omo es dicha matriz?.
Ejercicio 92
Si la forma de Jordan de una matriz A es
J =
_
_
_
_
_
_
2 1 0 0 0
0 2 0 0 0
0 0 4 0 0
0 0 0 4 1
0 0 0 0 4
_
_
_
_
_
_
quien es dimker(A 4I
5
)?
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 97
Ejercicio 93
Sea f : R
5
R
5
un endomorsmo cuya matriz asociada respecto de la base can onica es
A =
_
_
_
_
_
_
2 1 0 0 0
1 0 0 0 0
0 0 2 1 0
0 0 1 0 0
0 0 0 0 1
_
_
_
_
_
_
a) Demuestra que los subespacios U = e
1
, e
2
), W = e
3
, e
4
), T = e
5
) son subespacios
finvariantes.
b) Sea f
U
la restricci on de f al subespacio U. Cual es la matriz asociada a f
U
respecto
e
1
, e
2
?. Calcula una base de U respecto de la cual la matriz asociada a f
U
tenga la
forma canonica de Jordan.
c) Sin hacer m as c alculos que los ya realizados, da una base de R
5
respecto de la cu al la
matriz asociada a f sea la forma can onica de Jordan.
d) Cual es el polinomio mnimo de f?. Cual es la dimensi on del espacio fundamental
asociado al valor propio 1?.
Ejercicio 94
Sea f : R
3
R
3
un endomorsmo cuya matriz asociada respecto de la base can onica es
A =
_
_
0 2 0
2 4 0
0 0 2
_
_
Se pide:
a) Determinar una base de R
3
respecto de la cu al la matriz asociada a f sea la forma can onica
de Jordan. Da la matriz de Jordan asociada a f.
b) Sea h : R
6
R
6
un endomorsmo cuya matriz asociada respecto de la base can onica es
B =
_
A 0
0 A
_
siendo A la matriz de arriba y 0 la matriz nula 3 3. Con ayuda de los apartados
anteriores, determinar
- una base de R
6
respecto de la cu al la matriz asociada a h sea la forma can onica de
Jordan,
- la matriz de Jordan asociada a h, y
- el polinomio caracterstico, el polinomio mnimo de h y dimker(h 2I).
98 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Ejercicio 95
Sea f : R
6
R
6
un endomorsmo y B = e
1
, e
2
, e
3
, e
4
, e
5
, e
6
la base can onica de R
6
. La
matriz asociada a f respecto de B es
A =
_
_
_
_
_
_
_
_
1 0 0 1 0 1
0 1 0 0 1 0
0 0 2 0 0 0
0 0 0 0 0 1
0 1 0 0 1 0
0 0 0 1 0 2
_
_
_
_
_
_
_
_
a) Demuestra que los subespacios U = e
1
, e
4
, e
6
), W = e
2
, e
5
), y T = e
3
) son f -
invariantes.
b) Determina la matriz asociada a f respecto de la base B
1
= e
1
, e
4
, e
6
, e
2
, e
5
, e
3
.
c) Determina una base B
2
de R
6
respecto de la cu al la matriz asociada a f sea de Jordan.
Da dicha matriz.
d) Calcula el polinomio caracterstico y el polinomio mnimo de f.
Ejercicio 96
Sea A una matriz real 18 18 tal que 3A
2
+ 2A + I = (0), donde I es la matriz identidad
18 18 y (0) es la matriz nula 18 18.
a) Comprueba que A es regular hallando su inversa.
b) Quien es el polinomio mnimo de A?. Determina el polinomio caracterstico de A.
Ejercicio 97
Sea f : R
4
R
4
un endomorsmo tal que
f(1, 1, 0, 0) = (0, 1, 0, 1)
f(1, 0, 1, 0) = (1, 1, 1, 0)
ker(f) = Im(f)
Se pide:
1. Hallar la matriz asociada a f respecto de la base can onica.
2. Obtener los subespacios de vectores propios asociados a f y decidir si f es o no diagonal-
izable.
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 99
Ejercicio 98
Sea f : R
5
R
5
un endomorsmo y M su matriz asociada respecto de la base can onica
M =
_
_
_
_
_
_
0 0 0 0 0
0 0 0 0 0
1 1 0 0 0
0 0 0 1 1
0 0 0 4 3
_
_
_
_
_
_
Se pide:
1. Teniendo en cuenta la matriz M, mostrar dos subespacios U y W de R
5
f-invariantes y
tales que dimU = 3 y dimW = 2.
2. Determinas una base de R
5
respecto de la cu al la matriz asociada a f tenga la forma
can onica de Jordan. Da dicha matriz.
3. La matriz M
1000
M
999
, es la matriz nula 5 5?.
Ejercicio 99
Sea f : R
4
R
4
un endomorsmo tal que
f(1, 1, 0, 0) = (0, 1, 0, 1)
f(1, 0, 1, 0) = (1, 1, 1, 0)
f
2
= I
R
4 (la aplicaci on identidad en R
4
)
Se pide:
1. Hallar la matriz asociada a f respecto de la base B = v
1
= (1, 1, 0, 0), v
2
= (1, 0, 1, 0), v
3
=
(0, 1, 0, 1), v
4
= (1, 1, 1, 0) .
2. Obtener los subespacios de vectores propios asociados a f y d si f es o no diagonalizable.
3. Que condicion de las dadas en el enunciado te permitira decir, sin realizar ning un otro
calculo, si f es o no diagonalizable ?. Por que?.
Ejercicio 100
Dene de R
3
en R
3
tres endomorsmos: f
1
, f
2
y f
3
, tales que el polinomio caracterstico de
todos ellos sea (x 2)
3
, y cuyas formas de Jordan sean todas distintas.
Si p(X) es el polinomio m onico de menor grado tal que p(f
1
), p(f
2
) y p(f
3
) son la aplicaci on
nula en R
3
, quien es p(X)?.
Ejercicio 101
En R
4
se considera un endomorsmo f del que se sabe:
f(e
1
) = e
1
+e
2
100 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
ker(f) = e
1
+e
2
, e
3
+e
4
)
e
3
, e
4
) es f-invariante
X 1 es un factor del polinomio caracterstico
f(e
1
+e
3
) est a en el subespacio e
1
, e
2
, e
3
)
Se pide:
1. Determinar la matriz asociada a f respecto de la base can onica.
2. Es f diagonalizable?. Cu al es su polinomio mnimo?.
3. Determinar su forma can onica de Jordan.
Ejercicio 102
Se considera la matriz n n siguiente:
M =
_
_
_
_
_
_
_
_
_
_
_
_
0 1 0 0 . . . . . . . . . 0 0
0 0 1 0 . . . . . . . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 . . . . . . . . . 0 1
a
0
a
1
a
2
a
3
. . . . . . . . . a
n2
a
n1
_
_
_
_
_
_
_
_
_
_
_
_
1. Prueba que el polinomio caracterstico de M es X
n
+a
n1
X
n1
+. . . +a
1
X +a
0
.
2. Demuestra que si es una raiz del polinomio caracterstico de M, entonces el vector
(1, ,
2
, . . . ,
n1
) es un vector propio asociado al valor propio .
Ejercicio 103
Sea A una matriz no nula 1001 1001 tal que A
3
= 4A.
1. Estudia para que valores de el sistema de ecuaciones siguiente puede tener solucion no
trivial, es decir distinta de la nula.
A
_
_
_
_
x
1
x
2
.
.
.
x
1001
_
_
_
_
=
_
_
_
_
x
1
x
2
.
.
.
x
1001
_
_
_
_
2. Describe las posibles formas de Jordan de la matriz A
3.6. EJERCICIOS CAP

ITULO 3 TEOR

IA DEL ENDOMORFISMO 101


Ejercicio 104
Se considera la siguiente matriz de tama no nn: M = (a
ij
) donde a
ij
= 0 si i ,= j y a
ii
= i para
1 i n. Sea f : R
n
R
n
el endomorsmo que respecto de la base B = e
n
, e
n1
, . . . , e
1

tiene por matriz asociada a M.


1. Cual es la matriz M

asociada a f respecto de la base can onica B


c
= e
1
, e
2
, . . . , e
n
?.
2. Determina las matrices P y P
1
tales que M

= P
1
MP,
3. Halla los polinomios mnimos de M y P. Es P diagonalizable?.
Ejercicio 105
Se considera la siguiente matriz de tama no n n: M = (a
ij
) donde a
ij
= 0 si i ,= j y a
ii
= i
4
para 1 i n. Halla una matriz A tal que A
2
= M
Ejercicio 106
Se considera el endomorsmo f de R
7
que respecto de la base can onica tiene por matriz asociada
la siguiente:
_
_
_
_
_
_
_
_
_
_
1 1 0 0 0 0 0
0 0 1 0 0 0 0
1 1 1 0 0 0 0
0 0 0 2 0 0 0
0 0 0 0 1 0 0
0 0 0 0 1 2 1
0 0 0 0 1 1 0
_
_
_
_
_
_
_
_
_
_
1. Determina una base de R
7
respecto de la cu al la matriz asociada a f sea de Jordan.
2. Halla el polinomo caracterstico y el polinomio mnimo de f.
Ejercicio 107
Sea f : R
5
R
5
un endomorsmo tal que la matriz asociada a f respecto de la base can onica
es
M =
_
_
_
_
_
_
0 0 0 0 0
1 1 1 0 0
1 1 1 0 0
0 0 0 1 1
0 0 0 1 1
_
_
_
_
_
_
1. Determina Ker(f).
2. En una base de Ker(f) intercala vectores de la base can onica de R
5
para obtener una
base B de R
5
tal que la matriz asociada a f respecto B tenga forma de Jordan. Da esa
matriz de Jordan.
3. Describe y utiliza otro metodo diferente al anterior para obtener una base respecto de la
cual la matriz asociada a f tenga forma de Jordan. Da la matriz de Jordan respecto de
esa base.
102 CAP

ITULO 3. LA TEOR

IA DEL ENDOMORFISMO.
Ejercicio 108
Sean U
1
y U
2
los subespacios de R
5
siguientes:
U
1
=< e
1
, e
2
, e
3
> U
2
=< e
4
, e
5
>
Sea f
1
un endomorsmo de U
1
y f
2
un endomorsmo de U
2
, tales que las formas de Jordan
respectivas son
J
1
=
_
_
0 0 0
0 0 1
0 0 0
_
_
J
2
=
_
0 1
0 0
_
Determina la forma de Jordan, el polinomio mnimo y el polinomio caracterstico de la aplicaci on
h : R
5
R
5
para la que U
1
y U
2
son subespacios h-invariantes y tal que la restricci on de h a
U
1
es f
1
+I
U
1
y h a U
2
es f
2
2I
U
2
.
Ejercicio 109
Sea f : R
8
R
8
un endomorsmo y B
c
= e
1
, , e
8
la base can onica de R
8
. Se sabe que
U =< e
1
, e
3
, e
5
>, W =< e
2
, e
4
, e
6
> y T =< e
7
, e
8
> son subespacios f-invariantes.
Sean f
U
, f
W
y f
T
las restricciones de f a U, W y T respectivamente.
1. Sabiendo que
M
B
U
(f
U
) =
_
_
1 1 0
1 1 0
0 1 0
_
_
siendo B
U
= e
1
, e
3
, e
5
>, determina una base de U respecto de la cu al la matriz asociada
a f
U
sea de Jordan. Da dicha matriz.
2. Teniendo en cuenta el apartado anterior y sabiendo que el polinomio mnimo de f
W
es
(X 1)
2
y el polinomio mnimo de f
T
es X, determina la forma de Jordan de f, su
polinomio caracterstico y su polinomio mnimo.
Ejercicio 110
La posici on en el plano de una masa puntual en el instante t viene dada por (x(t), y(t)). Si
(x

(t), y

(t)) es su vector velocidad, halla la funci on x(t) en cada uno de los casos siguientes, en
los que se establecen las condiciones que satisface cada una de dichas funciones.
1. x

= y, y

= x, x(0) = 1, y(0) = 0
2. x

= y, y

= x, x(0) = 0, y(0) = 1
3. x

= ax +y, y

= y, x(0) = 0, y(0) = 1
Ejercicio 111
Halla el termino general de la sucesi on x
n

n=1
de Fibonacci sabiendo que x
n
= x
n1
+ x
n2
,
x
0
= 1, x
1
= 1.
Ejercicio 112
Sea
A =
_
7 6
5 4
_
.
Determinar, si existe, una matriz B (con las mismas dimensiones que A) tal que B
2
= A.
Captulo 4
Geometra Eucldea
4.1 Producto escalar y ortogonalidad
En esta primera secci on vamos a tratar de generalizar a un espacio vectorial real de dimensi on
nita conceptos conocidos por el estudiante en los casos de R
2
y R
3
: producto escalar, vectores
ortogonales, subespacios ortogonales, .
Denici on 4.1.1
Sea V un R-espacio vectorial n-dimensional, y : V V R una aplicaci on por la cu al la
imagen de un par (v, w) va a denotarse por v w. Se dice que es un producto escalar o un
producto interno si verica cada una de las condiciones siguientes, donde v, w, u son vectores
cualesquiera de V y , elementos cualesquiera de R:
i) v w = w v
ii) (v +u) w = v w +u w, v (w +u) = v w +v u
iii) v v 0, y v v = 0 si y solo si v = 0.
Un espacio vectorial real sobre el que se considera un producto escalar recibe el nombre de
espacio vectorial euclideo.
Tambien es habitual denotar un producto escalar denido en V por <, > y el producto
escalar de los vectores v, w por < v, w >.
Ejemplo 4.1.1
Si v = (x
1
, , x
n
) y w = (y
1
, , y
n
) son vectores cualesquiera de R
n
, podemos denir
v w = x
1
y
1
+ + x
n
y
n
. La aplicaci on : R
n
R
n
R as denida es un producto
escalar en R
n
, denominado producto escalar habitual o producto escalar estandar.
Sea V = R
3
[x] y la aplicaci on denida de V V en R por p(x)q(x) =
_
1
0
p(x)q(x)dx. Tal
aplicaci on es un producto interno. La comprobaci on de las propiedades i) y ii) exigidas
a un producto interno es inmediata para este caso. Para la prueba de la condici on iii)
observese lo siguiente.
p(x) p(x) =
_
1
0
p(x)
2
dx
donde p(x)
2
0, x [0, 1]. Si p(x) no es la funci on nula, p(x
0
)
2
> 0 para alg un
x
0
[0, 1]. La funci on p(x)
2
es continua por tanto p(x)
2
> 0 para todo n umero x de un
103
104 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
entorno de x
0
contenido en el intervalo [0, 1]. En ese entorno la funci on p(x)
2
encierra
una area positiva. Por tanto si p(x) , 0,
p(x) p(x) =
_
1
0
p(x)
2
dx
_
x
0
+
x
0

p(x)
2
dx > 0
>
with(linalg):
Trabajamos en el espacio vectorial de las funciones polin omicas de grado menor o igual a 3, y
consideramos la base can onica de tal espacio.
>
f:=(i)->x^(i-1);
>
M:=matrix(4,4):
>
for i from 1 to 4 do for j from 1 to 4 do M[i,j]:=int(f(i)*f(j),
x=0..1);od;od;print(M=,M);
>
r:=x->2+3*x-x^2;
>
t:=x->4+x^2-2*x^3;
>
int(r(x)*t(x),x=0..1);
>
inner(vector([2,3,-1,0]),M,vector([4,0,1,-2]));
>
s:=x->a+b*x+c*x^2+d*x^3;
>
s_1:=x->a_1+b_1*x+c_1*x^2+d_1*x^3;
>
int(s(x)*s_1(x),x=0..1);
>
inner(vector([a,b,c,d]),M,vector([a_1,b_1,c_1,d_1]));
>
expand(int(s(x)*s_1(x),x=0..1)-inner(vector([a,b,c,d]),M,
vector([a_1,b_1,c_1,d_1])));
Lo anterior pone de maniesto que el c alculo del producto escalar de dos funciones puede ser
obtenido, no s olo de forma directa, sino tambien como un producto de la forma
(a, b, c, d)M(a
1
, b
1
, c
1
, d
1
)
t
donde (a, b, c, d) y (a
1
, b
1
, c
1
, d
1
) son las coordenadas de las
funciones respecto una base (en este caso 1, x, x
2
, x
3
) y M es la matriz que tiene por
coecientes los productos escalares de las parejas de vectores de esa base.
Sea V un espacio vectorial real con un producto escalar . Para todo vector v V
se verica que |v|
2
= v v > 0 si v ,= 0, por lo que tiene sentido hablar de una aplicaci on
| | : V R denida por |v| = +
_
|v|
2
=

v v, y que recibe el nombre de aplicaci on
norma.
Denici on 4.1.2
En las condiciones anteriores, se llama norma de un vector v al n umero |v|. Si |v| = 1, el
vector v se llama vector unitario.
Algunas propiedades relativas a la norma est an recogidas en la siguiente proposici on.
Proposici on 4.1.1
1. |v| 0 v V y |v| = 0 v = 0
2. |v| = [[|v|, v V, R. As, para todo vector v no nulo, se tiene que el vector
v/|v| es unitario.
4.1. PRODUCTO ESCALAR Y ORTOGONALIDAD 105
3. [vw[ |v||w|, v, w V . Esta desigualdad es conocida como desigualdad de Schwarz.
4. |v +w| |v| +|w|, v, w V . Este resultado se conoce por desigualdad triangular.
Demostraci on
Los dos primeros puntos se extraen de la propia denici on. Para probar el tercero de los
puntos consideramos el vector v w:
|v w|
2
= (v w) (v w) = [[
2
|v|
2
+[[
2
|w|
2
2v w
=w
2
,=vw
=
= |w|
2
(|w|
2
|v|
2
(v w)
2
)

2
0
0
Por tanto |w|
2
|v|
2
(v w)
2
0, de donde se deduce 3.
La demostraci on de 4:
|v +w|
2
= (v +w) (v +w) = |v|
2
+|w|
2
+ 2v w
|v|
2
+|w|
2
+ 2[v w[ |v|
2
+|w|
2
+ 2|v| |w| = (|v| +|w|)
2
Denici on 4.1.3
Sea V un espacio vectorial eucldeo de dimensi on n.
1. Si u y v son dos vectores no nulos de V tales que u v = 0, se dice que u y v son
ortogonales.
2. Si U es un subespacio vectorial de V , se llama conjunto ortogonal a U al conjunto U

=
v V/u v = 0, u U
La proposici on siguiente recoge algunas propiedades relativas a estos conceptos.
Proposici on 4.1.2
Sea V un espacio eucldeo.
1. Si v
1
, v
2
, , v
r
es una familia de vectores no nulos de V y ortogonales dos a dos,
entonces v
1
, v
2
, , v
r
son linealmente independientes.
2. Si U es un subespacio de V , U

es subespacio de V (subespacio ortogonal a U).


Demostraci on
Si partimos de una combinaci on lineal nula de dicha familia:
1
v
1
+ +
r
v
r
= 0, al
multiplicar escalarmente esa combinaci on lineal por cada v
i
, obtenemos que
i
= 0.
Para probar la segunda armaci on: Si v, w son vectores de U

, (v + w) u = (v u) +
(w u) = 0 donde u es cualquier vector de U. De donde se deduce que v +w U

.
El procedimiento de ortonormalizaci on de Gram-Schmidt, que a continuaci on se presenta,
permite determinar una base constituida por vectores ortogonales dos a dos partiendo de
cualquier base de V . Una vez obtenida esa base, sin m as que dividir a cada vector por su
norma, contaremos con una base formada por vectores ortogonales dos a dos y todos ellos de
norma 1. Este procedimiento garantiza que la siguiente denici on no carece de sentido.
106 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Denici on 4.1.4
Sea V un espacio vectorial euclideo, y B una base de V . Se dice que B es ortogonal si est a
formada por vectores ortogonales dos a dos. Si adem as todos los vectores de una base ortogonal
son de norma 1, la base recibe el nombre de ortonormal.
Ejemplo 4.1.2
La base can onica de R
3
es ortonormal, y no lo es la base can onica de R
3
[x]
En el ejemplo que aparece seguidamente se detalla el procedimiento de Gram-Schmidt para
un caso concreto. En la proposici on que sigue a tal ejemplo se muestra ese mismo procedimiento
en el caso general.
Ejemplo 4.1.3
Consideremos el espacio vectorial real V = R
2
[x] con el producto escalar < p(x), q(x) >=
_
1
0
p(x)q(x)dx. Sea B = v
1
= 1, v
2
= x, v
3
= x
2
la base can onica de V , que no es ortonormal
para dicho producto. Se quiere construir una base ortonormal B

= u
1
, u
2
, u
3
tal que
u
1
) = v
1
), u
1
, u
2
) = v
1
, v
2
), u
1
, u
2
, u
3
) = v
1
, v
2
, v
3
) (4.1)
En un principio vamos a tratar de construir una base ortogonal B

= w
1
, w
2
, w
3
vericando
la propiedad 4.1. El que los vectores tengan norma 1 tiene f acil arreglo posterior. Si w
1
= v
1
,
se verica la primera condici on de 4.1.
Siendo w
1
= v
1
,
w
1
, w
2
) = v
1
, v
2
) w
2
= w
1
+v
2
con ,= 0
Se puede tomar = 1. Si w
2
= w
1
+v
2
e imponemos que w
1
y w
2
sean ortogonales, se deduce
que =
w
1
v
2
|w
1
|
2
. Sea entonces w
2
= v
2
+w
1
con =
w
1
v
2
|w
1
|
2
=
< 1, x >
|w
1
|
2
.
Teniendo en cuenta la forma de estar denidos w
1
y w
2
,
w
1
, w
2
, w
3
) = v
1
, v
2
, v
3
) w
3
= w
1
+w
2
+v
3
con ,= 0.
Podemos hacer = 1.
Si w
3
= w
1
+w
2
+v
3
, imponiendo ortogonalidad entre w
1
y w
3
, y w
2
y w
3
, se deduce que
=
w
1
v
3
|w
1
|
2
y =
w
2
v
3
|w
2
|
2
Por tanto:
w
1
= 1 y |w
1
|
2
= 1
w
2
= x
< 1, x >
|w
1
|
2
1 = x
1
2
, |w
2
|
2
=
1
12
w
3
= x
2

< 1, x
2
>
|w
1
|
2
1
< x
1
2
, x
2
>
|w
2
|
2
(x
1
2
) = x
2
+
1
6
x, |w
3
|
2
=
1
180
Si hacemos u
i
=
w
i
|w
i
|
, B

= u
1
, u
2
, u
3
es una base ortonormal de V que verica la
condici on 4.1 (por vericarla B

= w
1
, w
2
, w
3
).
u
1
= 1, u
2
= 2

3(
1
2
+x), u
3
= 6

5(
1
6
x +x
2
)
4.1. PRODUCTO ESCALAR Y ORTOGONALIDAD 107
El ejemplo anterior explica en gran medida la forma de actuar en el caso general.
Proposici on 4.1.3 Procedimiento de ortonormalizaci on de Gram-Schmidt
Si B = v
1
, , v
n
es una base del espacio vectorial eucldeo V , se puede construir una base
ortonormal B

= u
1
, , u
n
tal que v
1
, , v
i
) = u
1
, , u
i
), i = 1, , n
Demostraci on
Basta probar la existencia de una base ortogonal B

= w
1
, , w
n
vericando la condici on
v
1
, , v
i
) = w
1
, , w
i
), i = 1, , n. Para conseguir la base del enunciado basta hacer
u
i
=
w
i
|w
i
|
.
Si n = 1, el resultado es inmediato.
Supongamos que n 2. Sea w
1
= v
1
y w
i
= v
i
+
1
w
1
+ +
i1
w
i1
para i = 2, , n
siendo
k
=
v
i
w
k
|w
k
|
2
.
Probemos por recurrencia que los vectores w

i
s satisfacen las condiciones pedidas.
Es facil comprobar que w
1
w
2
= 0 y v
1
, v
2
) = w
1
, w
2
). Supuesto que las propiedades
son ciertas para w
1
, , w
i1
, vamos a verlo para w
1
, , w
i1
, w
i
.
Multiplicamos escalarmente w
i
por w
k
para k = 1, , i 1.
w
i
w
k
= v
i
w
k
+(
1
w
1
+ +
i1
w
i1
) w
k
= v
i
w
k
+
k
w
k
w
k
= v
i
w
k

v
i
w
k
|w
k
|
2
|w
k
|
2
= 0
De v
1
, , v
i1
) = w
1
, , w
i1
), w
i
v
1
, , v
i
) y v
i
w
1
, , w
i
), se deduce que
v
1
, , v
i
) = w
1
, , w
i
).
>
with(linalg):
Damos una familia de vectores linealmente independientes de R5, y se obtiene una nueva
familia de vectores ortogonles con las caracteristicas que impone el procedimiento de
GramSchmidt. La funci on de Maple GramSchmidt siempre trabaja con el producto escalar
estandar.
>
v1:=vector([2,2,2,0,1]);
>
v2:=vector([0,2,2,0,0]);
>
v3:=vector([0,0,2,1,0]);
>
GramSchmidt([v1,v2,v3]);
>
GramSchmidt([v1,v2,v3], normalized);
108 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Podemos observar que v1 coincide con el primer vector dado por GramSchmidt([v1,v2,v3]).
Consideremos el subespacio U generado por v1 y v2 y el subespacio W generado por los dos
primeros vectores arrojados por la funci on GramSchmidt. El procedimiento GramSchmidt
garantiza que ambos subespacios coinciden. Vamos a comprobarlo. Para ello basta ver que v2
pertenece a W (que v1 est a en W es inmediato).
>
vectorenW:=evalm(delta*[2, 2, 2, 0, 1]+tau*[-16/13, 10/13, 10/13, 0,
-8/13]);
>
solve(2*delta-16/13*tau, 2*delta+10/13*tau-2, 2*delta+10/13*tau-2,
0, delta-8/13*tau,delta,tau);
Se deja como ejercicio la comprobaci on de que el subespacio generado por los vectores v1, v2
y v3 es el mismo que el generado los vectores dados por la funci on GramSchmidt.
>
with(linalg):
A continuaci on se dise na un programa, basado en el procedimiento de GramSchmidt, para la
obtenci on de una base ortonormal del espacio vectorial de las funciones polin omicas reales de
grado menor o igual a n, partiendo de la base can onica 1, x, x2, ...,xn y con producto
escalar <f,g>=integral 01(f*g).
>
w:=proc(n) local k, i, ortog,normac,ortonormal ;
>
ortog:=array(1..n): for i to n do if i=1 then ortog[1]:=1 else
ortog[i] :=x^(i-1)-sum((int(x^(i-1)*ortog[k],x=0..1))/
(int(ortog[k]^2, x=0..1))*ortog[k],k=1..(i-1)) fi; od;
normac:=array(1..n):
for i to n do normac[i]:= int(ortog[i]^2,x=0..1) od; ortonormal:=
zip((x,y)->x/y^(1/2),ortog,normac);
print(ortog); print(normac);print(ortonormal);end;
En el caso de trabajar con R 4[x]:
>
w(4);
Proposici on 4.1.4
Sea V un espacio vectorial eucldeo.
1. Si U es un subespacio de V , y U

es su ortogonal, entonces V = U U

. Adem as
(U

= U.
2. Si B = u
1
, , u
n
es una base ortonormal de V , las coordenadas (
1
, ,
n
) de un
vector v V respecto de B vienen dadas por
i
= v u
i
, i.
3. Si B = u
1
, , u
n
es una base ortonormal de V , y v, w V tienen coordenadas
(
1
, ,
n
) y (
1
, ,
n
) respecto de B, v w =
1

1
+ +
n

n
y |v|
2
=
2
1
+ +
2
n
Demostraci on
Para probar el primero de los apartados:
i) Si u U U

, u u = 0. Por tanto u = 0 y U U

= 0.
4.2. PROYECCI

ON ORTOGONAL 109
ii) Sea B
U
= v
1
, , v
l
una base de U, que ampliamos a una de V : B
V
= v
1
, , v
l
, , v
n
.
Si aplicamos Gram-Schmidt a B
V
, obtenemos una base ortonormal
B

V
= u
1
, , u
l
, u
l+1
, , u
n

donde B

U
= u
1
, , u
l
es base de U.
Es inmediato que < u
l+1
, , u
n
> U

, lo que implica que dimU

n l. Como:
n = l + (n l) dimU + dimU

UU

=0
= dim(U +U

) n
dimU

= n l y < u
l+1
, , u
n
>= U

. En consecuencia, V = U +U

.
iii) Es obvio que U (U

, y teniendo en cuenta que V = U U

= (U

es
obligado que (U

= U.
Para probar el punto 2, escribimos v =
1
u
1
+ +
n
u
n
y multiplicamos escalarmente por
cada u
i
.
Para la ultima de las armaciones basta realizar dicho producto escribiendo v y w en funcion
de la base ortonormal.
Este resultado nos permite denir en V la aplicaci on proyecci on sobre U en la direcci on de
U

. El estudio detallado de dicha proyecci on, como el de algunas de sus aplicaciones es tratado
en la siguiente seccion.
4.2 Proyecci on ortogonal
Sea V un espacio vectorial eucldeo, U un subespacio de V y U

su ortogonal. Puesto que


V = U U

, es posible denir la aplicaci on siguiente:


p
U
: V V denida por p
U
(v) = u siendo v = u +u

, u U, u

conocida como proyecci on ortogonal sobre U.


Observese que la aplicaci on
p
U
: V V denida por p
U
(v) = u

siendo v = u +u

, u U, u

es la proyecci on ortogonal sobre U

puesto que (U

= U
En la proposici on que se enuncia a continuaci on se establecen algunas propiedades de las
aplicaciones anteriores. Su demostraci on es sencilla y se deja como ejercicio.
Proposici on 4.2.1
En las condiciones anteriores se tiene:
1. Im(p
U
) = U, ker(p
U
) = U

, p
2
U
= p
U
, p
U
p
U
= 0
V
.
2. v p
U
(w) = p
U
(v) w, v, w V
3. I
V
= p
U
+p
U
. Resultado conocido como teorema de la proyecci on.
110 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Ejemplo 4.2.1
Se considera el espacio vectorial eucldeo R
3
con el producto escalar estandar. Sea U =
(x, y, z) R
3
/x y + 2z = 0, y v = (1, 2, 3). Vamos a determinar la proyecci on ortogo-
nal de v sobre el plano vectorial U.
Una base de U es B
U
= (1, 1, 0), (2, 0, 1), y una base de U

es, como se deduce de la


ecuacion que dene U, B
U
= (1, 1, 2).
El vector v en la base B = (1, 1, 0), (2, 0, 1), (1, 1, 2) tiene coordenadas (
17
6
,
4
3
,
5
6
),
por tanto p
U
(v) =
17
6
(1, 1, 0) + (
4
3
)(2, 0, 1) = (
1
6
,
17
6
,
4
3
).
Simult aneamente podemos determinar p
U
(v) =
5
6
(1, 1, 2) = v p
U
(v).
En el ejemplo precedente la determinaci on de p
U
(v) ha necesitado del c alculo de las bases de
U y de U

, y de expresar v como combinaci on lineal de la base uni on de ambas. Se reducira


el esfuerzo de conocer una base ortonormal de U?.
Ejemplo 4.2.2
Si U es el subespacio del ejemplo anterior, una base ortonormal de el es B

U
= u
1
=
1

2
(1, 1, 0), u
2
=
1

3
(1, 1, 1), que se ha obtenido aplicando el procedimiento de Gram-Schmidt a la base B
U
.
Si u
3
es un vector unitario que genera U

, u
1
, u
2
, u
3
es una base ortonormal de R
3
respecto
de la cual las coordenadas de v son (v u
1
, v u
2
, v u
3
).
Por tanto p
U
(v) = (v u
1
)u
1
+ (v u
2
)u
2
=
3

2
(1, 1, 0)

2
+ (
4

3
)
(1, 1, 1)

3
= (
1
6
,
17
6
,
4
3
).
Trabajando as, la forma de obtener p
U
(v) es calculando v p
U
(v), puesto que no hemos
determinado explcitamente una base de U

.
En este caso, en el que dim(U

) = 1, el c alculo de p
U
(v) =
5
6
(1, 1, 2), que es un vector
no nulo, nos permite establecer una base de U

. Ello no es posible si dim(U

) > 1.
Por tanto, si dado un subespacio U de V , lo que interesa es exclusivamente conocer p
U
(v)
con v V , uno puede optar por determinar una base ortonormal B
U
= u
1
, , u
l
de U (a la
que siempre se puede llegar aplicando Gram-Schmidt a cualquier base de U) y tener en cuenta
la siguiente
Proposici on 4.2.2
Si B
U
= u
1
, , u
l
es una base ortonormal de U, p
U
(v) =
1
u
1
+ +
l
u
l
con
i
= v u
i
.
Demostracion
Sea B
V
= u
1
, , u
l
, u
l+1
, , u
n
una base ortonormal de V , donde los l primeros vectores
constituyen la base dada de U, y los restantes una de U

.
Si escribimos v como combinaci on lineal de B
V
: v =
1
u
1
+ +
l
u
l
+
l+1
u
l+1
+ +
n
u
n
con
i
= v u
i
, y por tanto p
U
(v) =
1
u
1
+ +
l
u
l
.
Siempre la obtenci on de p
U
(v) nos permite obtener p
U
(v) = v p
U
(v), aunque no U

. El
resultado anterior hace innecesario el c alculo de ninguna base de U

.
Se trata ahora de determinar la proyecci on ortogonal de un vector de R
n
sobre un subespacio
U sin necesidad de obtener, como se ha hecho en situaciones precedentes, una base de U

o
una base ortonormal de U.
4.2. PROYECCI

ON ORTOGONAL 111
Sea V = R
n
con el producto escalar estandar, y sea U un subespacio de V . Consideremos
en V la base can onica y en U la base B
U
= u
1
, , u
l
(no necesariamente ortonormal). El
vector u = p
U
(v) U tendr a unas coordenadas (
1
, ,
n
) respecto de la base can onica
y unas coordenadas (
1
, ,
l
) respecto de la base B
U
. En lo que sigue se establece una
relaci on matricial entre las coordenadas (x
1
, , x
n
) de v en la base can onica, (
1
, ,
n
) y
(
1
, ,
l
), que nos permite determinar autom aticamente (
1
, ,
n
) y (
1
, ,
l
), partiendo
de (x
1
, , x
n
).
Lo primero a tener en cuenta es que si A es la matriz n l que tiene por columnas las
coordenadas de los vectores de B
U
respecto de la can onica, entonces:
_
_
_
_
_
_

1
.
.
.

n
_
_
_
_
_
_
= A
_
_
_
_

1
.
.

l
_
_
_
_
A es la matriz del homomorsmo inclusi on de U en V respecto de las bases B
U
en U y la
can onica en V , y su rango es obviamente l.
Puesto que v u U

(v = p
U
(v) + p
U
(v): teorema de la proyecci on), se tiene que el
producto escalar de v u y cualquier vector u
i
B
U
es cero:
(0, .., 0, 1, 0, .., 0)
. .
i)
A
t
[
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
A
_
_
_
_

1
.
.

l
_
_
_
_
] = 0
para i = 1, , l.
De donde se deduce
A
t
[
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
A
_
_
_
_

1
.
.

l
_
_
_
_
] =
_
_
_
_
_
_
0
.
.
.
0
_
_
_
_
_
_
y A
t
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
= A
t
A
_
_
_
_

1
.
.

l
_
_
_
_
Si la matriz A
t
A es inversible, se tiene:
_
_
_
_

1
.
.

l
_
_
_
_
= (A
t
A)
1
A
t
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
y
_
_
_
_
_
_

1
.
.
.

n
_
_
_
_
_
_
= A(A
t
A)
1
A
t
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
Veamos nalmente que la matriz A
t
A es inversible, aunque la prueba est a basada en resultados
en aspectos no completamente vistos en este curso.
A
t
A es simetrica pues cada termino c
ij
de la matriz es u
i
u
j
. A
t
A representa pues el
producto escalar en U respecto de la base B
U
El producto escalar en U es no degenerado: Si w U es tal que w w

= 0, w

U,
w v

= 0, v

V puesto que v

es suma de un vector de U y uno de U

. Por tanto w = 0. La
matriz A
t
A es pues de rango l, y en consecuencia inversible.
112 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Ejemplo 4.2.3
En este ejemplo se trabaja el mismo caso que en ejemplos anteriores pero desde esta nueva
perspectiva.
Se considera el espacio vectorial eucldeo R
3
con el producto escalar estandar. Sea U =
(x, y, z) R
3
/x y + 2z = 0, y v = (1, 2, 3). Vamos a determinar la proyecci on
ortogonal de v sobre el plano vectorial U.
Una base de U es B
U
= (1, 1, 0), (2, 0, 1), por tanto, siguiendo la notaci on anterior, la
matriz A es:
A =
_
_
1 2
1 0
0 1
_
_
Si (
1
,
2
) son las coordenadas de p
U
(v) en B
U
, aplicando la f ormula matricial obtenida
anteriormente:
_

2
_
= (A
t
A)
1
A
t
_
_
1
2
3
_
_
=
1
6
_
5 2
2 2
__
1 1 0
2 0 1
_
_
_
1
2
3
_
_
=
_
17
6
4
3
_
De donde p
U
(v) =
17
6
(1, 1, 0) + (
4
3
)(2, 0, 1) = (
1
6
,
17
6
,
4
3
) = (
1
,
2
,
3
), coordenadas de
p
U
(v) en la base can onica, y que podran haberse obtenido como A
_

2
_
.
Observar que se podra haber optado por resolver el sistema
(A
t
A)
_

2
_
= A
t
_
_
1
2
3
_
_
en vez de calcular (A
t
A)
1
.
A que se reduce el calculo de (A
t
A)
1
cuando el espacio sobre el que se proyecta es una
recta vectorial?.
Sea U un subespacio de R
n
y U

su ortogonal. Utiliza las igualdades matriciales anteriores


para p
U
(v) y p
U
(v) con el fn de probar que p
2
U
= p
U
y que p
U
p
U
es la aplicaci on nula.
Para concluir esta secci on vamos a probar que dado un vector v R
n
y un subespacio U de
R
n
, el vector de U que menos diere de v es p
U
(v).
Teorema 4.2.1 De aproximacion de la norma
En las condiciones anteriores se verica:
|v p
U
(v)| < |v w| w U con w ,= p
U
(v)
Demostraci on
Si u = p
U
(v), v w = (v u) + (u w) con v u U

y u w U, de donde
(v u) (u w) = 0. En consecuencia, |v w|
2
= |v u|
2
+ |u w|
2
. Deduciendo as la
tesis del teorema puesto que |u w|
2
,= 0 si y s olo si u = w.
En ese sentido se dice que p
U
(v) es la mejor aproximaci on de v en U.
Este ultimo resultado tiene interesantes aplicaciones, algunas de las cu ales se recogen en la
seccion pr oxima.
4.3. APLICACIONES 113
4.3 Aplicaciones
Vamos a estudiar dos problemas concretos en las que est an involucrados el teorema de aproxi-
maci on de la norma y, en consecuencia, la proyecci on ortogonal de un vector. Esos problemas
son el de aproximaci on por mnimos cuadrados y la resoluci on de sistemas sobredimensionados.
4.3.1 Aproximaci on por mnimos cuadrados
Es conocido que en algunos fen omenos fsicos las variables que intervienen en su descripci on
guardan tal relaci on entre ellas que dicha relaci on puede ser expresada mediante una f ormula:
e = v t, s = s
0
v
0
t
1
2
gt
2
,
En muchos otros fen omenos no es f acil, o no es posible, encontrar f ormulas como las anteriores.
En esos casos se obtienen grandes cantidades de datos, con el objetivo de ajustar una curva
a los mismos, mediante la cu al se establece una relaci on apro-ximada entre las variables
del problema. Inicialmente habra que diferenciar dos partes en la resoluci on del problema
en cuestion: una, la decisi on de que tipo de curva ajustar; otra, encontrar la curva del tipo
especco que mejor se ajuste a los datos dados. A continuaci on se trata un caso particular
de la segunda cuesti on: se muestra c omo lograr esa mejor aproximaci on cuando se tienen dos
variables en el problema.
Supongamos que existen n datos: (x
1
, y
1
), (x
2
, y
2
), , (x
n
, y
n
) y que el tipo de curva por
la que vamos a aproximar viene dado por y = f(x) donde x, y representan las variables que
deseamos relacionar y f(x) = mx + b, ax
2
+ bx + c, , seg un el ajuste a realizar sea lineal,
cuadr atico, . Lo que se hace en esta situaci on es buscar, por ejemplo, la recta y = mx + b
que mejor se ajuste a los datos del problema: esto es, debemos determinar m y b tal que
n

i=1
(y
i
(b +mx
i
))
2
sea lo m as peque no posible. A esta b usqueda se denomina ajuste por mnimos cuadrados.
Teorema 4.3.1
Sean (x
1
, y
1
), (x
2
, y
2
), , (x
n
, y
n
) un conjunto de n puntos de R
2
tal que no todos los x
i
coin-
ciden. Si
A =
_
_
1 x
1
.
.
.
.
.
.
1 x
n
_
_
y
_
b
m
_
= (A
t
A)
1
A
t
_
_
y
1
.
.
.
y
n
_
_
entonces y = mx +b es la recta que da el mejor ajuste por mnimos cuadrados para los puntos
considerados.
Para este caso particular se puede probar la existencia de la inversa de A
t
A viendo que su
determinante es no nulo utilizando la desigualdad de Cauchy-Schwarz.
114 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Teorema 4.3.2
Sean (x
1
, y
1
), (x
2
, y
2
), , (x
n
, y
n
) un conjunto de n puntos de R
2
tal que no todos los x
i
coin-
ciden. Si
A =
_
_
1 x
1
x
2
1
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
_
_
y
_
_
a
b
c
_
_
= (A
t
A)
1
A
t
_
_
y
1
.
.
.
y
n
_
_
entonces y = ax
2
+ bx + c es la par abola que da el mejor ajuste por mnimos cuadrados para
los puntos considerados.
La clave de la demostraci on de estos teoremas se halla en observar que el vector de los
coecioentes de la recta o de la par abola vericando la condici on exigida es justamente la
proyecci on dl vector de los y
i
s sobre el subespaico de R
n
denido por las columnas de A.
>
with(linalg):
Partimos de los puntos (1,-3), (4,6), (-2,5), (3,-1) y se desea encontrar una recta de ecuaci on
y=mx+b tal que [-3-(m.1+b)]2 +[6-(m.4+b)]2+[5-(m.(-2)+b)] 2+[-1-(m.3+b)]2 sea lo
menor posible.
>
A:=matrix([[1,1],[1,4],[1,-2],[1,3]]);
>
v:=vector([-3,6,5,-1]);
>
trAA:=multiply(transpose(A),A);
>
trAv:=multiply(transpose(A),v);
Si beta:=vector([b,m]), consideramos la matriz aumentada del sistema AtAbeta=Atv
>
AUM:=concat(trAA,trAv);
>
beta:=backsub(gausselim(%));
El proceso seguido anteriormente se ha realizado siguiendo las pautas estudiadas en teora, sin
embargo la funci on leastsqrs de Maple da la soluci on de manera directa.
>
leastsqrs(trAA,trAv);
>
restart:with(linalg):
Se busca el mejor ajuste cuadr atico para los puntos (1,-1), (3,-6), (5,2), (-3,1), (7,4).
>
A:= matrix([[1,1,1^2],[1,3,3^2],[1,5,5^2],[1,-3,(-3)^2],[1,7,7^2]]);
>
v:=vector([-1,-6,2,1,4]);
>
trAA:=multiply(transpose(A),A);
>
trAv:=multiply(transpose(A),v);
Si beta:=vector([a,b,c]), consideramos la matriz aumentada del sistema AtAbeta=Atv
>
AUM:=concat(trAA,trAv);
>
beta:=backsub(gausselim(%));
>
leastsqrs(trAA,trAv);
4.4. ISOMETR

IAS EN ESPACIOS VECTORIALES EUCL

IDEOS 115
4.3.2 Resoluci on de sistemas de ecuaciones lineales sobredimension-
ados
Genericamente los sistemas de ecuaciones lineales con m as ecuaciones que inc ognitas no tienen
ninguna soluci on salvo que se veriquen las hip otesis del Teorema de Rouche-Frobenius. Las
tecnicas desarrolladas en este captulo mos van a permitir calcular, como en la secci on anterior,
la mejor pseudosoluci on, esto es el punto de R
n
que esta m as proximo de ser una soluci on del
sistema lineal considerado.
Teorema 4.3.3
Sean A una matriz con m las y n columnas, m n y b un vector columna en R
m
. Si
x = (A
t
A)
1
A
t
b
entonces
|Ax b| < |Ay b|
para todo y R
n
tal que y ,= x.
La clave de la demostraci on de este teorema se encuentra en observar que el vector x vericando
la condici on exigida es justamente la proyecci on de b sobre el subespacio de R
m
denido por
las columnas de A.
>
with(linalg):
Se trata de resolver el sistema sobredimensionado del que la matriz [A,b] siguiente es la
matriz aumentada.
>
A:=matrix([[1,1,0,0],[1,1,0,0],[1,0,1,0],[1,0,1,0],
[1,0,0,1],[1,0,0,1 ]]);
>
b:=vector([-1,2,3,2,4,5]);
>
trAA:=multiply(transpose(A),A);
>
trAb:=multiply(transpose(A),b);
>
leastsqrs(trAA,trAb);
Puede apreciarse que la soluci on aproximada a diho sistema no es unica. Puedes interpretar
lo que sucede?.
4.4 Isometras en espacios vectoriales eucldeos
En la seccion anterior se ha denido por espacio vectorial eucldeo cualquier espacio vecto-
rial real dotado de un producto escalar. Esta nueva secci on comienza con el estudio de las
aplicaciones lineales sobre un espacio vectorial eucldeo que conservan las normas.
4.4.1 Denici on y primeras propiedades
En lo que sigue V denotar a un espacio eucldeo de dimension n.
116 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Denici on 4.4.1
Sea : V V un endomorsmo. Se dice que es una transformaci on ortogonal o isometra
si conserva la norma, es decir, si |(v)| = |v| para todo v de V .
Observar que de la denici on anterior se desprende que toda transformaci on ortogonal es
biyectiva:
Si v Ker(), |(v)| = |0
V
|= 0. Puesto que conserva la norma, |v| = 0 y v = 0
V
. Se
deduce entonces que es inyectiva, y por ser endomorsmo, biyectiva.
Sea V = R
3
con el producto escalar habitual. El endomorsmo : V V denido
por (x, y, z) = (x, y, z) es una transformaci on ortogonal, como puede comprobarse
facilmente.
Si V el espacio de las funciones polin omicas de grado menor o igual que 2 con el pro-
ducto escalar < p(x), q(x) >=
_
1
0
p(x) q(x)dx, el endomorsmo I
V
es, obviamente, una
transformaci on ortogonal.
Sea V = R
n
, U un subespacio no nulo de V y U

su ortogonal. El endomorsmo
= p
U
p
U
de V es una transformaci on ortogonal:
Si v es un vector cualquiera de V , y u = p
U
(v) y u

= p
U
(v), se tiene que (v) = u u

.
Recordemos que p
U
+p
U
= I
V
, y que por tanto v = u +u

.
As |v|
2
= |u+u

|
2
= |u|
2
+|u

|
2
+2(uu

) = |u|
2
+|u

|
2
porque u y u

son ortogonales.
Usando precisamente que u y u

son ortogonales, se llega a que |(v)|


2
= |u|
2
+|u

|
2
.
Proposici on 4.4.1
Sea un endomorsmo de V . Las siguientes condiciones son equivalentes:
i) |(v)| = |v| para todo v de V
ii) (u) (v) = u v para cualesquiera u, v de V
La implicaci on ii) = i) es inmediata. Para probar que i) = ii), desarrollar |(u + v)|
2
y
|u +v|
2
.
Proposici on 4.4.2
Sea un endomorsmo de V , y B = u
1
, , u
n
una base ortonormal de V . Se tiene:
1. es una transformaci on ortogonal si y s olo si B

= (u
1
), , (u
n
) es una base
ortonormal de V .
2. es una transformaci on ortogonal si y s olo si la matriz M
B
() es una matriz ortogonal.
Demostraci on
1. Supongamos que es una transformaci on ortogonal.
En este caso es biyectiva y por tanto (u
1
), , (u
n
) es base. Como conserva el
producto escalar: (u
i
) (u
j
) = u
i
u
j
=
ij
,(0 si i ,= j, 1 si i = j). Lo que prueba que
B

es ortonormal.
Supongamos que B

= (u
1
), , (u
n
) es una base ortonormal de V , y probemos que
conserva la norma.
4.4. ISOMETR

IAS EN ESPACIOS VECTORIALES EUCL

IDEOS 117
Sea v un vector cualquiera de V , que se expresar a en funci on de B como v =
1
u
1
+
+
n
u
n
(con
i
= v u
i
). Por ser lineal, (v) =
1
(u
1
) + +
n
(u
n
) (con

i
= v u
i
= (v) (u
i
) por ser B

ortonormal).
Por ser B y B

ortonormales, |v|
2
=

n
1

2
i
= |(v)|.
2. Se deduce facilmente del apartado anterior.
Proposici on 4.4.3
Si es una transformaci on ortogonal de V , se verica que
Los unicos autovalores reales de son 1 y 1.

1
es una transformaci on ortogonal.
La composicion de con cualquier transformaci on ortogonal es una transformaci on or-
togonal.
Supongamos que es un autovalor de , y sea v un vector propio asociado a . Se tiene
entonces que |(v)| = [[|v| = |v| ,= 0, de donde se obtiene que [[ = 1, y = 1. Queda
as probado el primero de los apartados. La prueba de los dos ultimos apartados no entra na
ninguna dicultad.
4.4.2 Transformaciones ortogonales en un espacio de dimensi on 2
En esta parte del captulo vamos a determinar la forma m as sencilla de expresar matricialmente
una transformaci on ortogonal. Comenzaremos con el caso de dimensi on 2, que utilizaremos
posteriormente para espacios de dimensi on nita cualquiera.
Proposici on 4.4.4
Sea V un espacio vectorial eucldeo de dimension 2, y una transformaci on ortogonal denida
en V . Existe una base ortonormal de V respecto de la cu al la matriz asociada a es de una
de las formas siguientes:
1.
_
cos sen
sen cos
_
con 0 < 2
2.
_
1 0
0 1
_
Demostraci on
Observemos primero que un mismo endomorsmo no puede ser representado por las dos
matrices descritas anteriormente. Ello supondra que dichas matrices fuesen semejantes y en
consecuencia que tuviesen el mismo determinante, cosa que no es cierta.
Sea B = v
1
, v
2
una base ortonormal cualquiera de V (siempre podemos hallar una, y en
el caso que V = R
2
con el producto escalar habitual podemos considerar la base can onica).
Si A = M
B
() =
_
a b
c d
_
, A es ortogonal y por tanto, A
t
A = AA
t
= I
n
y det(A) = 1.
Despues de realizar las operaciones correspondientes, se obtienen las siguientes igualdades (*):
a
2
+b
2
= a
2
+c
2
= c
2
+d
2
= b
2
+d
2
= 1
118 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
ac +bd = ab +cd = 0
Estas condiciones en el caso de que det(A) = ad bc = 1, conducen a que a = d y b = c, y
en consecuencia A =
_
a b
b a
_
con a
2
+b
2
= 1.
Existe entonces un unico valor [0, 2) tal que a = cos y b = sen. Se tiene pues que
la matriz asociada a respecto cualquier base ortonormal es de la forma del apartado 1
Las igualdades (*) junto con det(A) = ad bc = 1, permiten deducir que a = d y b = c.
En este caso A =
_
a b
b a
_
con a
2
+b
2
= 1, y su polinomio caracterstico es (X + 1)(X 1).
Si b = 0 entonces a = 1, y la base buscada es la de partida o la que se obtiene de permutar
en ella los vectores.
Si b ,= 0, el vector w
1
de coordenadas (b, 1 a) es un vector propio asociado al valor
propio 1 y w
2
de coordenadas (b, 1 + a) es un vector propio asociado al valor propio 1. El
producto escalar de w
1
y w
2
es cero. Esto nos asegura que la base B

=
w
1
w
1

,
w
2
w
2

es una base
ortonormal.
Denici on 4.4.2
Sea V un espacio vectorial eucldeo de dimension 2, una transformaci on ortogonal denida
en V , y A la matriz asociada a con la forma de la proposici on anterior. Se dice que es
1. Una rotaci on vectorial de amplitud , si A =
_
cos sen
sen cos
_
con 0 < 2.
2. Una simetra vectorial ortogonal (de eje el conjunto de vectores jos V

(1) = v
V/(v) = v), si A =
_
1 0
0 1
_
.
Ejemplo 4.4.1
Si es la transformaci on ortogonal de R
2
que respecto de la base can onica tiene por
matriz
_
3
5
4
5
4
5

3
5
_
, p

(X) = (X 1)(X + 1) y es una simetra vectorial ortogonal


de eje V
(1)
=< w
1
= (2, 1) >. Como V
(1)
=< w
2
= (1, 2) >= V

(1)
, respecto de la
base ortogonal w
1
, w
2
o de la base ortonormal
w
1
w
1

,
w
2
w
2

, la matriz asociada a es
_
1 0
0 1
_
.
Si es la transformaci on ortogonal de R
2
que respecto de la base can onica tiene por
matriz A =
_
1
2

3
2

3
2
1
2
_
, det(A) = 1 y p

(X) = X
2
X +1 es irreducible. La isometra
es una rotaci on de amplitud

3
, respecto de la base can onica.
Si es una isometra del espacio vectorial eucldeo V de dimension 2, y su polinomio
caracterstico p

(X) = X
2
+X + es irreducible sobre R, es una rotaci on (de matriz
no diagonal).
Ademas, puesto que respecto de una base ortonormal la matriz asociada a es ortogonal,
su determinante es 1, y como coincide con el termino independiente de su polinomio
caracterstico, deducimos que = 1.
4.4. ISOMETR

IAS EN ESPACIOS VECTORIALES EUCL

IDEOS 119
En este caso el polinomio caracterstico p

(X) = X
2
+X+1 se puede escribir de la forma
p

(X) = (X a)
2
+b
2
siendo a =

2
y b
2
=
4
2
4
. Como a
2
+b
2
= 1, a = cos, b = sen
con [0, 2).
Sea una isometra del espacio vectorial eucldeo V de dimension 2, cuyo polinomio
caracterstico p

(X) = X
2
+ X + es reducible sobre R. Si = 1 entonces es una
simetra. Si = 1, es una rotaci on, de matriz I
2
si = 2 y de matriz I
2
si = 2.
En general, si V

(1) = v V/(v) = v, podemos deducir de lo anterior que:


es simetra dimV
(1)
= 1 p

(X) = (X 1)(X + 1)
es rotaci on dimV
(1)
=
_
0
2

_
1 no es raiz
1 es raiz doble
de p

(X)
p

(X) =
_
_
_
_
X
2
+X + irreducible sobre R
(X + 1)
2
(X 1)
2
La composici on de dos rotaciones es otra rotaci on de amplitud la suma de las amplitudes,
m odulo 2.
La composici on de dos simetras es una rotaci on, que es la identidad si las simetras
coinciden.
La composici on de una rotaci on y una simetra es una simetra.
Da un argumento que pruebe lo anterior.
Sean y las isometras de R
2
denidas por:
(x, y) = (y, x) (x, y) = (x, y)
Ambas son simetras. El eje de es la recta vectorial cuyos elementos son de la forma
(a, a) (bisectriz del primer y tercer cuadrante). El eje de es el eje de abscisas como
recta vectorial. Que rotaciones son y ?. Que relaci on hay entre ambas?.
Se ha visto que la composici on de dos simetras es una rotaci on. El recproco tambien es
cierto: toda rotaci on es composici on de dos simetras.
Si r es una rotaci on, r = r I
V
= r s s, donde s es cualquier simetra. La aplicaci on
r s = s

es otra simetra.
4.4.3 Transformaciones ortogonales en un espacio de dimensi on n
El estudio del caso general es algo m as complejo. Vamos a ir estableciendo peque nos resultados
que nos permitir an nalmente enunciar el teorema por el que queda determinada la forma
matricial m as sencilla que puede asociarse a una transformaci on ortogonal.
En lo que sigue V es un espacio eucldeo de dimension n y una transformaci on ortogonal
denida en V .
Lema 4.4.1
Si U es un subespacio vectorial de V -invariante, se tiene
120 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
1. (U) = U
2. U

es -invariante, y (U

) = U

Demostraci on
Si u
1
, , u
l
es una base de U, la familia de vectores (u
1
), , (u
l
) es una base de U:
- Los vectores (u
1
), , (u
l
) son linealmente independientes por ser inyectiva.
- (u
i
) U para i = 1, , l por ser -invariante.
- Como U tiene dimension l, < (u
1
), , (u
l
) >= U
Se deduce entonces que (U) = U.
Para probar el punto 2 basta ver que (U

) U

.
Sea u (U

), w U

tal que (w) = u y v un vector cualquiera de U. Veamos que el


producto escalar de u y v es 0.
El vector v = (v

) con v

U por el apartado 1. Entonces u v = (w) (v

) = w v

= 0.
En el caso de que el 1 sea valor propio de , el subespacio V

(1) = Ker( I
V
) es -
invariante, y como consecuencia del lema anterior (V

(1)

) = V

(1)

. Puede considerarse
entonces restringido a W = V

(1)

:
W
: W W. Una situaci on an aloga se tiene cuando el
1 es valor propio de . Una vez hechas estas consideraciones podemos demostrar los siguientes
resultados.
Lema 4.4.2
1. Si 1 es valor propio de y W = V

(1)

, la transformaci on ortogonal [
W
: W W no
tiene como valor propio el 1, y dimV

(1) coincide con la multiplicidad del 1 como raiz del


polinomio caracterstico de .
2. Si 1 es valor propio de y W = V

(1)

, la transformaci on ortogonal [
W
: W W
no tiene como valor propio el 1, y dimV

(1) coincide con la multiplicidad del 1 como


raiz del polinomio caracterstico de .
Demostraci on
Solo vamos a probar el primero de los apartados. En el segundo el razonamiento es com-
pletamente an alogo.
Supongamos que 1 es raiz de p
|
W
(X). En este caso existe un vector no nulo v W tal que
[
W
(v) = (v) = v. Por tanto v V

(1) V

(1)

= 0, lo que es contradictorio con el hecho


de que v es no nulo.
Se tiene que p

(X) = (X 1)
s
p
|
W
(X) siendo s = dimV

(1) (considerar en V una base


formada por una base de V

(1) y una de W). Puesto que el 1 no es raiz de p


|
W
(X), s coincide
con la multiplicidad del 1 en p

(X).
Nos queda por analizar que sucede cuando el polinomio caracterstico de no tenga raices
reales. Observemos que en este caso todos los factores irreducibles de p

(X) son de grado 2.


Ademas si X
2
+X+ es uno de esos factores (cuyo discriminante es menor que cero) podemos
expresarlo como (X a)
2
+b
2
con b ,= 0 (hacer a = /2 y b =
_
4
2
/2).
4.4. ISOMETR

IAS EN ESPACIOS VECTORIALES EUCL

IDEOS 121
Lema 4.4.3
Si p

(X) no tiene raices reales y (X a)


2
+ b
2
con b ,= 0 es uno de sus factores irreducibles,
existe una base ortonormal de V respecto de la cual la matriz asociada a es de la forma
_
_
_
_
_
_
a b 0 . . . 0
b a 0 . . . 0
0 0 ? . . . ?
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ? . . . ?
_
_
_
_
_
_
con a
2
+b
2
= 1.
Demostraci on
La prueba de este enunciado necesita denir algunas aplicaciones auxiliares y obtener des-
tintos resultados acerca de las mismas. Esas aplicaciones son los endomorsmos de V siguientes:
= ( aI
V
)
2
+b
2
I
V
y =
aI
V
b
.
1. Al ser (Xa)
2
+b
2
un factor del polinomio caracterstico, el subespacio W = Ker() de
V es no nulo.
Las aplicaciones y conmutan, lo que garantiza que W es -invariante.
Sea
W
la restricci on de a W. Es facil comprobar que
2
W
= I
W
, lo que garantiza
que existe un vector u W unitario tal que (u) ,= 0.
Los vectores u y (u) son linealmente independientes, puesto que en caso contrario exi-
stira un n umero ,= 0 tal que (u) = u, pudiendo deducir que (u) = (a + b)u. El
valor a +b es por tanto un autovalor real de , lo que contradice la hip otesis.
2. Se considera el subespacio U =< u, (u) > de W, de dimension 2 por lo visto en el p unto
anterior. Veamos que U es -invariante.
El vector (u) puede escribirse como (u) = au +b
(u)au
b
= au +b(u) U
Como u W, (u) = 0, lo que conlleva que
2
(u) a(u) = a(u) (a
2
+b
2
)u. Usando
esta igualdad y teniendo en cuenta que =
aI
V
b
, se puede deducir que ((u)) =
a(u) bu U.
El hecho de que la imagen por de una base de U este contenida en U, es suciente para
asegurar que U es -invariante.
3. La aplicaci on
U
(restricci on de a U) es una transformaci on ortogonal en U, por serlo
en V . En tal caso el determinante de cualquiera de sus matrices asociadas es 1 o 1.
La matriz de
U
respecto de la base B
U
= u, (u) es, teniendo en cuenta el apartado 2,
_
a b
b a
_
cuyo determinante a
2
+b
2
es positivo, por tanto a
2
+b
2
= 1.
122 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
4. La base B
U
es ortonormal como vemos a continuaci on.
- El vector u es unitario porque as se haba elegido.
- El producto escalar de u y (u) es 0:
u W (
2
2a + (a
2
+b
2
)I
V
)(u) = 0
2
(u) 2a(u) +u = 0
Al multiplicar escalarmente la ultima expresi on por (u) y aplicando que conserva los
productos escalares, obtenemos que u (u) = a. Esto llevado al producto de u y (u),
prueba que u (u) = 0.
- El que conserve las normas, u (u) = a y a
2
+b
2
= 1 lleva a probar que (u) (u) =
|(u)|
2
= 1.
Todas las consideracioones anteriores sirven para garantizar que V = U U

con U y U

subespacios -invariantes. Si B = u, (u), u


1
, , u
n2
es una base ortonormal de V , la
matriz asociada a respecto dicha base es como la descrita en el enunciado.
Los lemas precedentes conducen al siguiente teorema.
Teorema 4.4.1
Sea V un espacio vectorial eucldeo de dimension n, y una transformaci on ortogonal denida
en V . Existe una base ortonormal B de V respecto de la cual la matriz asociada a es
_
_
_
_
_
_
I
s
0 . . . . . . 0
0 I
t
. . . . . . 0
0 0 N(
1
) . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . N(
q
)
_
_
_
_
_
_
donde I
s
, I
t
son las matrices identidad de orden s y t respectivamente (s es la multiplicidad del
1 y t es la multiplicidad del 1 en el polinomio caracterstico de ).
Las raices complejas cos
j
sen
j
de p

(X) producen las cajas N(


j
) =
_
cos
j
sen
j
sen
j
cos
j
_
con
j
[0, 2),
j
,= 0,
Demostraci on
Basta escribir V = V

(1)

(1)

W, donde cada subespacio es -invariante. Despues


basta aplicar en cada uno de ellos, para el endomorsmo restringido, el lema correspondiente.
En el caso de W, el lema 3 habr a de aplicarse reiteradamente.
Ejemplo 4.4.2
Una matriz ortogonal real es diagonalizable sobre C.
Si : R
3
R
3
es una transformaci on ortogonal, existe un subespacio U de R
3
de
dimension 1 tal que (U) = U.
El polinomio p

(X) es de grado 3, por tanto una de sus raices es real ( = 1 o 1).


Basta considerar U =< u > siendo (u) = u.
4.4. ISOMETR

IAS EN ESPACIOS VECTORIALES EUCL

IDEOS 123
Sea la transformaci on ortogonal de R
3
denida respecto de la base can onica por la
matriz
_
_
1/2 1/2

2/2
1/2 1/2

2/2

2/2

2/2 0
_
_
El polinomio caracterstico de la isometra es p

(X) = (X 1)(X
2
+ 1) = (X 1)((X
0)
2
+ 1
2
), con lo que podemos deducir que respecto de alguna base ortonormal la matriz
asociada es
_
_
1 0 0
0 0 1
0 1 0
_
_
Para obtener esa base ortonormal, calculamos
V
(1)
=< (1/

2, 1/

2, 0) > y V

(1)
=< (1/

2, 1/

2, 0), (0, 0, 1) >


Si es la rectriccion de a V

(1)
, la matriz de respecto (1/

2, 1/

2, 0), (0, 0, 1) es
_
0 1
1 0
_
Lo anterior garantiza que la matriz de respecto de la base ortonormal de R
3
B = (1/

2, 1/

2, 0), (1/

2, 1/

2, 0), (0, 0, 1) es la descrita al comienzo.


La isometra es la rotaci on de amplitud

2
y de eje la recta
_
x y = 0
z = 0
.
Muestra gracamente cu al es el efecto que produce sobre un vector de R
3
la isometra de
matriz, respecto base can onica,
_
_
cos sen 0
sen cos 0
0 0 1
_
_
Sea V = R
n
, U un subespacio no nulo de V y U

su ortogonal. El endomorsmo
= p
U
p
U
de V es una transformaci on ortogonal. La matriz asociada a dicha isometra
respecto de una base de R
n
con los primeros vectores en U (ortogonales entre si o no) y
los dem as en U

es
_
I
r
0
0 I
nr
_
donde I
r
representa la matriz identidad de orden r = dimU, I
nr
la matriz opuesta a
la identidad de orden n r = dimU

y los 0

s las matrices nulas de tama nos adecuados.


En este caso recibe el nombre de simetra ortogonal respecto el subespacio U.
Finalmente, y a ttulo de ejemplo, vamos a clasicar los tipos de transformaciones ortogonales
en espacios V de dimension 3.
Ejemplo 4.4.3
Sea : V V una isometra cualquiera. Como es habitual, denotamos por V
(1)
el subespacio
de V formado por el conjunto de vectores jos por .
124 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Si dimV
(1)
= 3, es inmediato que = I
V
y p

(X) = (X 1)
3
.
Si V
(1)
es un plano vectorial (dimV
(1)
= 2), se tiene que p

(X) = (X 1)
2
(X + 1) y
V

(1)
= V
(1)
(de dimension 1). Si B es una base de V , donde los dos primeros vectores son
base de V
(1)
y el tercero es base de V

(1)
, la matriz asociada a respecto de esa base es
_
_
1 0 0
0 1 0
0 0 1
_
_
Observar que B es ortogonal, pero sus vectores no son necesariamente unitarios. Si se
desea que la bases sea ortonormal no tendremos m as que dividir por su norma a los
vectores de B.
En este caso se dice que es una simetra ortogonal respecto del plano de vectores invari-
antes.
Si dimV
(1)
= 1, V
(1)
es una recta vectorial, y V

(1)
es un plano. La restricci on de a V
(1)
es obviamente la identidad. Puesto que V
(1)
V

(1)
= 0, la restricci on de a V

(1)
solo
deja jo el vector nulo, y en consecuencia tal restricci on es una rotaci on distinta de la
identidad.
Existe entonces una base ortonormal B = u
1
, u
2
, u
3
de V (u
1
base de V
(1)
, u
2
, u
3
base
de V

(1)
) respecto de la cual la matriz asociada a es
_
_
1 0 0
0 cos sen
0 sen cos
_
_
con ,= 0.
Una aplicaci on del tipo anterior o la identidad en V recibe el nombre de rotaci on
vectorial
Consideremos el caso en el que dimV
(1)
= 0. Puesto que el 1 no es raiz del polinomio
caracterstico de , se tendra que
p

(X) = (X + 1)
3
o p

(X) = (X + 1)((X cos)


2
+sen
2
) con ,= 0,
De darse la primera circunstancia, = I
V
(la b usqueda de la base ortonormal es por
tanto innecesaria).
En la segunda, la aplicaci on restringida a V

(1)
es una rotaci on , y podr a escribirse como
producto de dos simetras s
1
, s
2
(ver isometras en espacios de dimension 2).
Si B = u
1
, u
2
, u
3
es una base ortonormal de V con u
1
V
(1)
y u
2
, u
3
V

(1)
, la matriz
de la aplicaci on es
M =
_
_
1 0 0
0 cos sen
0 sen cos
_
_
con ,= 0, .
4.4. ISOMETR

IAS EN ESPACIOS VECTORIALES EUCL

IDEOS 125
Observese que
M =
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
1 0 0
0 a
1
b
1
0 c
1
d
1
_
_
_
_
1 0 0
0 a
2
b
2
0 c
2
d
2
_
_
[1]
donde
_
a
i
b
i
c
i
d
i
_
es la matriz de la simetra s
i
, i = 1, 2 respeto de la base u
2
, u
3
de
V

(1)
. Por tanto las matrices
_
_
1 0 0
0 a
i
b
i
0 c
i
d
i
_
_
i = 1, 2
representan simetras en V (los espacios propios asociados al autovalor 1 son de dimensi on
2).
La primera de las matrices de la descomposici on de M en [1] tambien representa una
simetra. De todo ello se deduce que es este caso es producto de tres simetras.
Sucede eso mismo con la aplicaci on I
V
?.
Quedan pues estudiadas todas las isometras en un espacio de dimensi on 3.
>
with(linalg):
Se considera el endomorsmo f de R3 que respecto de la base can onica tiene por matriz
asociada la matriz A.
>
A:=matrix([[0,-1/3**(1/2),2/6**(1/2)],[1/2**(1/2),1/3**(1/2),
1/6**(1/2)],[1/2**(1/2),-1/3**(1/2),-1/6**(1/2)]]);
Comprobaci on de que f es una isometra
>
C:=colspace(A):
>
innerprod(C[1],C[1]);
>
innerprod(C[1],C[2]);
>
innerprod(C[1],C[3]);
Realizando el producto escalar de las columnas que faltan , probamos que forman una base
ortonormal de R3. Por tanto f es una isometra, pues transforma una base ortonormal (la
can onica), en otra (la denida por las columnas).
La funci on orthog nos permite conocer directamente si la matriz A es ortogonal
126 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
>
orthog(A);
Obtenci on de los vectores invariantes por f.
>
kernel(A-1);
El resultado anterior signica que el unico vector invariante por f es el nulo. Se trata pues de
un producto de tres simetras.
Demostraci on de que la isometra r=f2 es una rotaci on, de eje ...
>
R:=evalm(A**2);
>
kernel(R-1);
Como se ve el conjunto de vectores invariantes por r=f2 es de dimensi on 1, por tanto r es
rotaci on vectorial y su eje est a generado por el vector anterior.
Calculo del plano P ortogonal al eje e que estara generado por vectores v 1 y v 2.
>
e:=vector([1,sqrt(3)*sqrt(2)-sqrt(3)+2-2*sqrt(2),
-sqrt(3)*sqrt(2)+sqrt(3)-2+sqrt(2)]):
>
w:=vector([x,y,z]):
>
eq:=innerprod(e,w)=0:
>
solc:=solve(eq,x,y,z);
>
vector_en_p:=evalm(subs(solc,vector([x,y,z])));
>
v_1:=map(coeff,vector_en_p,y,1);
>
v_2:=map(coeff,vector_en_p,z,1);
Matriz que representa la simetra ortogonal de plano P.
La simetra ortogonal s respecto de P deja invariantes los vectores v 1 y v 2, y un generador
del eje ortogonal a P se transforma en su opuesto. Si en R3 se considera la base v 1, v 2, e
la matriz asociada a s es:
>
S:=matrix([[1,0,0],[0,1,0],[0,0,-1]]);
La matriz de s respecto de la base can onica es T:
>
C:=concat(v_1,v_2,e);
>
T:= multiply(C,S,inverse(C)):
>
simplify(T);
4.5 Espacio Afn
El conjunto R
n
ha aparecido con anterioridad en m ultiples ocasiones, y siempre bajo su estruc-
tura de R-espacio vectorial. En esta secci on y otras posteriores, vamos a trabajar con R
n
desde
dos perspectivas distintas, y de forma conjunta.
Por un lado la ya tratada, V = R
n
como R-espacio vectorial donde sus elementos reciben
el nombre de vectores y son denotados por v, w, u, . Por otro, X = R
n
como conjunto de
puntos, a los que denotaremos por P, Q, R, .
En cursos anteriores, y para los casos n = 2, 3, el alumno se ha familiarizado con conceptos
4.5. ESPACIO AF

IN 127
tales como recta determinada por dos puntos, plano que pasa por un punto y tiene direcci on
dada, Ahora se trata de establecer ciertas relaciones entre puntos, y puntos y vectores, que
nos permiten abordar tales conceptos y deducir las propiedades geometricas m as elementales
de una forma algo m as rigurosa. Se trata de mirar y ver la geometra de puntos a traves del
algebra de vectores.
El espacio afn n-dimensional est a constituido por los elementos siguientes. El conjunto de
puntos X = R
n
y una aplicaci on de X X V que a cada par de puntos (P, Q) le asocia un
vector v =

PQ (tambien v = QP o Q = P +v) vericando las dos propiedades siguientes:
i) P, Q, R X,

PR =

PQ+

QR
ii) P X, v V , existe un unico Q X tal que v =

PQ.
Denici on 4.5.1
El conjunto de puntos X = R
n
junto una aplicaci on como la descrita anteriormente, recibe el
nombre de espacio afn (estandar) asociado a V . Se dene dimension del espacio afn como la
dimension de V .
Considerando el espacio afn X = R
2
, y realizando una gr aca sencilla, uno puede observar
que sobre cada punto de X, se tiene una copia de V = R
2
.
Proposici on 4.5.1
Son propiedades inmediatas las siguientes:
1. Para cualquier punto P, el vector

PP es el vector nulo.
2. Los vectores

PQ y

QP son opuestos entre si.
3. Si

PQ =

P

, entonces

PP

=

QQ

4.5.1 Sistemas de referencia y cambio de sistema de referencia


Denici on 4.5.2
1. Se dice que los n + 1 puntos P
0
, P
1
, , P
n
de X son un sistema de referencia de X con
origen el punto P
0
si el conjunto de vectores

P
0
P
1
, ,

P
0
P
n
es una base de V .
2. Dado un punto P X y un sistema de referencia 1 = P
0
, P
1
, , P
n
, se llaman coorde-
nadas de P en 1 a las coordenadas del vector

P
0
P en la base B =

P
0
P
1
, ,

P
0
P
n
.
3. El sistema de referencia 1
c
= P
0
; e
1
, , e
n
recibe el nombre de sistema de referencia
can onico.
Es inmediato observar que en todo sistema de referencia el origen tiene coordenadas (0, , 0).
Ademas es conveniente ver que no s olo un sistema de referencia, determina una base, sino
que tambien dada una base de V v
1
, , v
n
, y un punto P
0
de X, queda determinado
un sistema de referencia. El sistema en cuestion es P
0
, P
1
, , P
n
donde cada P
i
es el
punto tal que

P
0
P
i
= v
i
. Es por ello que tambien se llame sistema de referencia al conjunto
P
0
;

P
0
P
1
, ,

P
0
P
n
. En algunos textos el primero es llamado sistema de referencia afn, y el
segundo sistema de referencia vectorial, pero aqu no haremos tal distinci on, y nos referiremos
a uno u otro seg un convenga.
A continuaci on vamos a ver la relaci on que existe entre las coordenadas de un punto respecto
sistema de referencia distintos, obteniendo lo que se conoce como ecuaci on matricial de un
cambio de sistema de referencia.
128 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Si 1 = P
0
, P
1
, , P
n
y 1

= Q
0
, Q
1
, , Q
n
son dos sistemas de referencia de X, y
P X tiene coordenadas (x
1
, , x
n
) respecto 1 y coordenadas (y
1
, , y
n
) respecto 1

, que
relaci on hay entre ambas?.
Se tiene que

P
0
P =

n
i=1
x
i

P
0
P
i
y

Q
0
P =

n
i=1
y
i

Q
0
Q
i
.
Supuesto que las coordenadas de P
0
en 1

son (a
1
, , a
n
), y que las coordenadas del vector

P
0
P
i
i = 1, , n respecto de la base

Q
0
Q
1
, ,

Q
0
Q
n
son (a
1i
, , a
ni
), se tiene

Q
0
P =

Q
0
P
0
+

P
0
P =
n

i=1
a
i

Q
0
Q
i
+
n

i=1
x
i

P
0
P
i
=
n

i=1
a
i

Q
0
Q
i
+
n

i=1
x
i
(
n

j=1
a
ji

Q
0
Q
j
) =
=
n

i=1
a
i

Q
0
Q
i
+
n

i=1
(
n

j=1
x
i
a
ji
)

Q
0
Q
j
=
n

i=1
(a
i
+
n

j=1
x
i
a
ji
)

Q
0
Q
j
Puesto que las coordenadas de un vector respecto de una base son unicas, tenemos que
y
i
= a
i
+
n

j=1
x
i
a
ji
para i = 1, , n. Ese conjunto de relaciones puede expresarse matricialmente de la forma:
_
_
y
1
.
.
.
y
n
_
_
=
_
_
a
1
.
.
.
a
n
_
_
+
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_
_
x
1
.
.
.
x
n
_
_
,
expresion que recibe el nombre de ecuaci on matricial del cambio de sistema de referencia.
Si denotamos por B y B

las bases determinadas por 1 y 1

respectivamente, la igualdad
anterior puede leerse como
coord(P) en 1

= coord(P
0
) en 1

+ matriz que expresa B respecto B

coord(P) en 1
Ejemplo 4.5.1
La relaci on descrita por la expresi on anterior es tratada tambien en los siguientes ejemplos.
En X = R
2
se considera el sistema de referencia 1 = P
0
(1, 2), P
1
(2, 3), P
2
(1, 4).
Las coordenadas del punto P
1
en el sistema de refencia 1 son (1, 0). El origen del sistema
de refencia can onico tiene coordenadas (1, 2) en 1.
Si P es un punto de coordenadas (x, y) seg un el sistema can onico, sus coordenadas (x

, y

)
en el sistema 1 vienen dadas por
_
x

_
=
_
1
2
_
+
_
1 0
1 2
__
x
y
_
ya que

P
0
P
1
= (1, 1) y

P
0
P
2
= (0, 2)
En X = R
2
se consideran los sistemas de referencia 1 = P
0
(1, 2), P
1
(2, 3), P
2
(1, 4)
y 1

= Q
0
(1, 1), Q
1
(1, 1), Q
2
(2, 0). El sistema 1 tiene asociada la base B =


P
0
P
1
= (1, 1),

P
0
P
2
= (0, 2) y el sistema 1

tiene asociada la base B

=

Q
0
Q
1
=
4.5. ESPACIO AF

IN 129
(2, 2),

Q
0
Q
2
= (1, 1). Por tanto la matriz asociada al cambio de base que expresa
B en funcion de B

es
_
2
1
2
0 1
_
.
Como

Q
0
P
0
= (0, 1) =
1
4
(

Q
0
Q
1
+ 2

Q
0
Q
2
), las coordenadas de P
0
en 1

son (
1
4
,
1
2
).
Se tiene entonces que si un punto P tiene coordenadas (x, y) en funcion del sistema de
referencia 1, las coordenadas (x

, y

) de ese punto en el sistema 1

vendr an dadas por


_
x

_
=
_

1
4

1
2
_
+
_
2
1
2
0 1
__
x
y
_
Cuales son las coordenadas en 1 y 1

del punto P de coordenadas (2, 3) en el sistema


de referencia can onico?.
4.5.2 Aplicaciones Anes
Este apartado vamos a dedicarlo al estudio de las aplicaciones propias de la estructura afn, las
aplicaciones anes.
1. Denici on y ejemplos
Sea f : X = R
n
X = R
n
una aplicaci on y sea P un punto cualquiera , pero jo, de X.
Esos dos objetos nos permiten denir la siguiente aplicaci on en el espacio vectorial V = R
n
.

P
: V = R
n
V = R
n
v =

PQ
P
(v) =

f(P)f(Q)
No siempre la aplicaci on
P
es lineal, pero nuestro interes estara centrado en el caso en que
esa aplicaci on sea lineal. Por un lado las aplicaciones lineales son las especcas de los espacios
vectoriales, pero adem as se tiene la siguiente
Proposici on 4.5.2
En las condiciones anteriores, si
P
es lineal, entonces
R
es lineal cualquiera que sea el punto
R de X. Adem as
P
=
R
.
Demostraci on
Basta ver que
P
(v) =
R
(v) cualquiera que sea el vector v de V . Sea v =

PQ =

RS.

P
(v) =
P
(

PQ) =
P
(

RS) =
P
(

PS

PR) =
P
(

PS) (

PR) =
=

f(P)f(S)

f(P)f(R) =

f(R)f(S) =
R
(

RS) =
R
(v)
Denici on 4.5.3
Sea f : X = R
n
X = R
n
una aplicacion.
1. Si para la aplicaci on anterior existe un punto P para el cu al la aplicaci on
P
: V = R
n

V = R
n
denida como antes es lineal, se dice que f es afn. La aplicacion
P
= se
denomina aplicacion lineal asociada a f.
2. Una aplicaci on afn se dice que es una transformaci on afn si es biyectiva, o equivalente-
mente, si la aplicaci on lineal asociada es un isomorsmo.
130 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
La proposici on anterior nos permite, para conocer si una aplicaci on es afn o no, considerar
como origen de cualquier vector el punto P
0
= (0, 0, , 0) y estudiar la linealidad o no de la
aplicaci on
P
0
=
Ejemplo 4.5.2
Los siguientes ejemplos muestran algunas aplicaciones anes, y otras que no lo son.
La aplicaci on f : X = R
2
X = R
2
denida por f(x, y) = (5x + 2, x y + 2) es afn.
La aplicaci on g : X = R
2
X = R
2
denida por g(x, y) = (5x
2
, x y + 2) no es afn.
La aplicaci on h : X = R
2
X = R
2
denida por h(x, y) = (5x + 2, 5y 3) es afn.
La aplicaci on k : X = R
2
X = R
2
denida por k(x, y) = (

2
2
x

2
2
y2, 1+

2
2
x+

2
2
y)
es afn.
La aplicaci on l : X = R
2
X = R
2
denida por l(x, y) = (x 3, y + 6) es afn.
Observese que en todos los casos, si P

= (x

, y

) es la imagen del punto P = (x, y)


entonces se puede establecer una igualdad del tipo
_
x

_
=
_
a
b
_
+
_
a
11
a
12
a
21
a
22
__
x
y
_
En la igualdad anterior la matriz (a
ij
) puede considerarse, en cada caso, la de la aplicaci on
lineal asociada respecto de la base can onica.
Sea r la recta afn de ecuacion 2x y = 3, y sea m la aplicaci on de X = R
2
en X = R
2
denida por m(P) = P

donde P

es el punto de interseccion de la recta r con la recta


que pasa por P y tiene por vector director v = (1, 1). Tal aplicaci on es afn.
Basta ver que si P = (x, y) y P

= (x

, y

) entonces se tiene una relaci on matricial como la


descrita anteriormente, donde la aplicaci on lineal asociada est a determinada por la matriz
(a
ij
)
Sea r la recta afn de ecuacion 2x y = 3, y sea n la aplicaci on de X = R
2
en X = R
2
denida por n(P) = P donde P est a determinado por la condici on

PP = 2

PP

, donde
P

es la imagen de P por la aplicaci on m anterior. Un metodo an alogo al se nalado para


m prueba que n es afn.
Es un buen ejercicio:
- Representar gr acamente el efecto que produce sobre distintos puntos cada una de las
aplicaciones anteriores. As como el producido, en cada caso, por la aplicaci on lineal asociada.
- Determinar el conjunto de puntos jos (aquellos que coinciden con su imagen) por cada
una de las aplicaciones.
- Establecer la relaci on, cuando sea posible, entre el conjunto de puntos jos por una apli-
caci on afn y el conjunto de vectores jos por su aplicaci on lineal asociada.
- Determinar en que casos la aplicaci on afn es una transformaci on.
- Elegir entre terminos tales como traslaci on, homotecia, giro, ... aquel que parezca apropi-
ado asignar a cada una de las aplicaciones anes anteriores.
2. Determinaci on de una aplicaci on afn
4.5. ESPACIO AF

IN 131
Supongamos que en el espacio afn X = R
n
hay jado un sistema de refencia 1 =
P
0
, P
1
, , P
n
, y que f : X X es una aplicaci on afn de la que conocemos las im agenes
por f de los puntos del sistema de referencia 1.
Observese que esto ultimo es equivalente a conocer la imagen por f del punto P
0
y las
imagenes por de los vectores de la base B determinada por 1: v
i
=

P
0
P
i
para i = 1, 2, , n,
donde es la aplicaci on lineal asociada a f.
A continuaci on lo que vamos a ver es que basta tener cualquiera de esas dos condiciones
(equivalentes) para poder determinar la imagen de cualquier punto de X.
Sea P un punto cualquiera de X. Por la denici on de aplicaci on lineal asociada a una
aplicaci on afn se tiene que

f(P
0
)f(P) = (

P
0
P). Por ello, si (x
1
, , x
n
) son las coordenadas
de P, (x

1
, , x

n
) son las coordenadas de f(P), y (a
1
, , a
n
) son las de f(P
0
) (todas ellas
referidas al sistema de referencia 1) podemos establecer la siguiente igualdad:
_
_
x

1
.
.
.
x

n
_
_
=
_
_
a
1
.
.
.
a
n
_
_
+M
B
()
_
_
x
1
.
.
.
x
n
_
_
denominada ecuaci on matricial de la aplicaci on afn f respecto del sistema de refencia 1.
Es facil comprobar el recproco de lo aqu visto. Una expresi on matricial como la anterior
permite denir una aplicaci on afn, y solo una, en X.
3. Distancia entre puntos. Movimientos
Hasta aqu hemos considerado X = R
n
como conjunto de puntos y V = R
n
como conjunto
de vectores. Hemos establecido una aplicaci on de X X en V que dene a X como espacio
afn con V como espacio vectorial asociado. Tambien se ha viso que el concepto de aplicaci on
afn en X esta ligado al de endomorsmo en V .
Ademas en V tenemos un producto escalar que nos permite denir norma de un vector,
concepto que vamos a emplear para denir distancia entre dos puntos de X.
Denici on 4.5.4
Dados dos puntos P, Q X, se dene distancia de P a Q como el n umero d(P, Q) = |

PQ|.
Observar que la distancia es una aplicaci on d : X X R
Proposici on 4.5.3
Algunas de las propiedades de la distancia son las siguientes. Sean P, Q, R X puntos cua-
lesquiera, se verica
1. d(P, Q) 0, d(P, Q) = d(Q, P)
2. d(P, Q) = 0 P = Q
3. d(P, R) d(P, Q) +d(Q, R)
La prueba de las propiedades anteriores se deduce de forma inmediata de las relativas a la
norma.
Denici on 4.5.5
El espacio afn X = R
n
junto con la distancia denida anteriormente recibe el nombre de
espacio afn eucldeo (estandar).
132 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
En el espacio afn eucldeo X = R
n
se consideran aquellas aplicaciones anes que son biyectivas
(transformaciones anes). Entre dichas aplicaciones vamos a seleccionar aquellas que conservan
las distancias, para despues realizar un estudio algo m as detallado de las mismas.
Denici on 4.5.6
1. Una transformaci on afn f se dice que conserva las distancias si P, Q, X se verica
que d(f(P), f(Q)) = d(P, Q).
2. Una transformaci on afn que conserva las distancias se dice que es un movimiento.
Recordemos que decir que una aplicaci on afn es transformaci on afn es equivalente a decir que
la aplicaci on lineal asociada es un isomorsmo. En la siguiente proposici on se ve la relaci on
entre conservar distancias y conservar normas.
Proposici on 4.5.4
Sea f : X = R
n
X = R
n
una transformaci on afn, y sea F : V = R
n
V = R
n
el
isomorsmo asociado a f. Se verica:
f es movimiento si y s olo si F es isometra
Demostraci on
Supongamos que f es un movimiento, y sea v =

PQ un vector cualquiera de V con P, Q X.
La siguiente cadena de igualdades prueba que es una isometra.
|v| = |

PQ| = d(P, Q) = d(f(P), f(Q)) = |

f(P)f(Q)| = |(

PQ)| = |(v)|
Supongamos que es isometra, y que P, Q son puntos cualesquiera de X. Veamos que f
conserva las distancias.
d(f(P), f(Q)) = |

f(P)f(Q)| = |(

PQ)| = |

PQ| = d(P, Q)
Una ultima observaci on antes de pasar a estudiar algunas aplicaciones anes particulares.
En la denici on de movimiento se exige que la aplicaci on sea biyectiva, condici on innecesaria
puesto que el hecho de conservar distancias conduce a la biyectividad, como se se nala en uno
de los ejercicios de este captulo. S olo un planteamiento m as comodo desde el principio nos ha
llevado a establecer la denici on en esos terminos.
Es un ejercicio sencillo el probar que por un movimiento m rectas se transforman en rectas,
una circunferencia de centro C se trasnforma en una circunferencia de centro m(C),
4.6 Estudio de algunas aplicaciones anes particulares
4.6.1 Proyecciones
Sea Y un subespacio afn de X = R
n
de direccion W(Y ). Denotemos por S un subespacio de
V = R
n
tal que V = S W(Y ).
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 133
Si M es un punto cualquiera de X, y M + S es el subespacio afn que pasa por M y tiene
direccion S, se verica que la intersecci on de los subespacios Y y M +S es no vacia y se reduce
a un punto:
Si Q es un punto cualquiera de Y , el vector

QM se escribe de forma unica como

QM =
s + w con s S, w W(Y ). Por tanto existe un unico punto M

Y tal que w =

QM

,
deduciendose que s =

M

M S y M

M + S. Como M

es unico en Y con esa condici on,


M

= Y (M +S).
Respetando la notaci on anterior, y teniendo en cuenta las consideraciones previas, denimos
la aplicaci on
p
Y,S
: X X
M M

Proposici on 4.6.1
La aplicacion
M
: V V que a cada vector v =

MN le asocia el vector v

=

M

(M

= p
Y,S
(M), N

= p
Y,S
(N)) coincide con la proyecci on vectorial de base W(Y ) y direcci on
S. La aplicacion p
Y,S
: X X es por tanto afn, cuya aplicacion lineal asociada es p
W(Y ),S
Demostraci on
Sea Q un punto cualquiera (jo) de Y . Los vectores

QM

y

QN

estan en W(Y ) puesto


que M

, N

Y , y los vectores

M

M y

N

N pertenecen a S. Como

QM =

QM

+

M

M y

QN =

QN

+

N

N, se tiene que

QM

= p
W(Y ),S
(

QM) y

QN

= p
W(Y ),S
(

QN).
(

MN) =

M

=

QN


QM

= p
W(Y ),S
(

QN) p
W(Y ),S
(

QM) =
= p
W(Y ),S
(

QN

QM) = p
W(Y ),S
(

MN)
Denici on 4.6.1
La aplicacion afn p
Y,S
recibe el nombre de proyecci on (afn) de base Y en la direcci on S.
Observar que la proyecci on anterior deja jos los puntos de la base, esto es si M Y entonces
p
Y,S
(M) = M. Como hay puntos fuera de Y que tambien tienen por imagen M, se puede
armar que p
Y,S
no es una transformaci on, y tampoco movimiento, puesto que no es inyectiva.
Ademas p
2
Y,S
= p
Y,S
.
Ejemplo 4.6.1
En X = R
2
se considera el subespacio afn Y = (x, y) X/x+2y = 1. Se tiene entonces que
W(Y ) =< (2, 1) >, y consideramos como subespacio S =< (1, 1) >. Cual es la imagen del
punto M(7, 0) por p
Y,S
?.
La recta que pasa por M y tiene la direcci on de S es la de ecuacion xy = 7. La intersecci on
de dicha recta con Y es el punto M

(5, 2). Tal punto es la imagen de M.


134 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
4.6.2 Simetras
Como en el caso de las proyecciones, Y es un subespacio afn de X, S un subespacio suplemen-
tario a W(Y ), . Denimos la siguiente aplicaci on
s
Y,S
: X X
M M
donde M es el punto de X tal que

MM = 2

MM

siendo M

= p
Y,S
(M)
Proposici on 4.6.2
La aplicacion
M
: V V que a cada vector v =

MN le asocia el vector v =

MN
(M = s
Y,S
(M), N = s
Y,S
(N)) coincide con el endomorsmo de V p
W(Y ),S
p
S,W(Y )
. La
aplicacion s
Y,S
: X X es por tanto afn, cuya aplicaci on lineal asociada es el endomorsmo
se nalado anteriormente.
La prueba de esta proposici on est a basada en la siguiente cadena de igualdades. La justi-
caci on de los pasos intermedios se deja como ejercicio.
(

MN) =

MN =

MM+

MN+

NN =

MN+2(

NN


MM

) =

MN+2(

NM

N

) =
=

NM+2

M

=

MN+2p
W(Y ),S
(

MN) = (2p
W(Y ),S
I
R
n)(

MN) = (p
W(Y ),S
p
S,W(Y )
)(

MN)
Denici on 4.6.2
La aplicacion afn s
Y,S
recibe el nombre de simetra (afn) de base Y en la direcci on S.
Observar que:
- La simetra anterior deja jos los puntos de la base, esto es si M Y entonces s
Y,S
(M) =
M. Pero si M , Y , s
Y,S
(M) , Y .
- s
2
Y,S
= I
X
, como puede probarse f acilmente.
- La igualdad anterior ya es suciente para garantizar que la simetra es biyectiva. Otra
forma de justicarlo es viendo que la aplicaci on lineal asociada a la simetra es un isomorsmo,
por tanto la simetra (afn) es una transformaci on, que en general no es movimiento.
- En el caso en que una simetra afn tenga como base una variedad afn cuya direcci on sea
perpendicular a la direcci on de la simetra, es un movimiento.
Recuerdese que en la primera secci on de este captulo se ha probado que si U es un subespacio
de V , la aplicaci on p
U
p
U
es una isometra (p
U
proyecci on vectorial de base U y direccion
U

, y an alogo para p
U
).
En el caso que nos ocupa, haciendo U = W(Y ) y S = U

= W(Y )

, obtenemos que la
aplicaci on vectorial asociada a la simetra afn s
Y,W(Y )
es una isometra, lo que equivale a que
s
Y,W(Y )
conserve las distancias. En esta situaci on:
Denici on 4.6.3
La simetra afn s
Y,W(Y )
recibe el nombre de simetra ortogonal del espacio afn X. Como la
variedad afn Y determina W(Y ) y W(Y )

, dicho movimiento se denota por s


Y
.
Ejemplo 4.6.2
En X = R
2
se considera el subespacio afn Y = (x, y) X/x+2y = 1. Se tiene entonces que
W(Y ) =< (2, 1) >, y consideramos como subespacio S =< (1, 1) >. La imagen del punto
M(7, 0) por p
Y,S
es M

(5, 2), por tanto la imagen de M por s


Y,S
es M(3, 4). Cu al es la
imagen de M por la simetra ortogonal s
Y
?.
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 135
4.6.3 Traslaciones
En este apartado vamos a mostrar c omo cada vector (jo) v de V = R
n
determina una aplicaci on
en el espacio afn X = R
n
que mueve cada punto de X, en la direcci on y sentido que indica
v, la longitud dada por su m odulo.
Dado pues un vector v V , se dene t
v
: X X como la aplicaci on que a cada punto P
le asigna el punto P

tal que

PP

= v.
Denici on 4.6.4
La aplicacion t
v
anterior recibe el nombre de traslaci on de vector v.
Proposici on 4.6.3
En relaci on a las traslaciones se tienen las siguientes propiedades.
1. Toda traslaci on es un movimiento.
2. La traslaci on t

0
es la aplicacion identidad, y cualquier otra traslaci on t
v
con v ,=

0 no
deja puntos jos.
3. El vector de una traslaci on queda determinado por un punto y su imagen.
4. Una aplicaci on afn denida en X es una traslaci on si y s olo si la aplicaci on lineal asociada
es la identidad en V .
Demostraci on
Si Q X es un punto cualquiera, denotaremos Q

= t
v
(Q).
Sea P un punto jo de X, y denimos la aplicaci on
P
: V = R
n
V = R
n
que a cada
vector w =

PQ le asocia el vector w

=

P

. Puesto que v =

PP

=

QQ

, se tiene que
w =

PQ =

P

= w

y por tanto que


P
= I
V
. Si tenemos en cuenta toda la informaci on que
este hecho nos proporciona, podemos concluir que t
v
es afn, es biyectiva y conserva distancias,
es decir, es movimiento.
Los puntos segundo y tercero son inmediatos, y una de las implicaciones del ultimo de los
apartados est a probado al probar el punto 1. Ve amos por ultimo que una aplicaci on afn f
cuya aplicaci on lineal asociada sea la identidad es una traslaci on.
Si la ecuaci on matricial de f respecto el sistema de referencia can onico es
_
_
x

1
.
.
.
x

n
_
_
=
_
_
a
1
.
.
.
a
n
_
_
+I
n
_
_
x
1
.
.
.
x
n
_
_
el vector denido por un punto cualquiera P y su imagen P

= f(P) tiene coordenadas (respecto


base can onica) (x

1
x
1
, , x

n
x
n
) = (a
1
, , a
n
). Si consideramos entonces la traslaci on t
v
,
donde v es el vector de coordenadas (a
1
, , a
n
), dicha traslaci on act ua sobre P en la misma
forma que lo hace f, es decir f = t
v
.
136 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Ejemplo 4.6.3
Si r es una recta afn cuya direcci on viene determinada por el vector v, se tiene que
t
v
(r) = r. Si r es una recta cuya direcci on es independiente de v, t
v
(r) es una recta
distinta de r pero de su misma direcci on.
Por una traslaci on una recta se transforma entonces en una recta paralela a ella.
Si en X = R
2
consideramos la traslaci on de vector v(2, 1), la recta r de ecuacion
x 2y = 1 se trasforma en la recta r

de ecuacion x 2y = 5.
Observese que la composici on de dos traslaciones es otra traslaci on de vector la suma de
los vectores, lo que garantiza a su vez que la composici on de traslaciones es conmutativa:
t
v
t
w
= t
w+v
= t
v+w
= t
w
t
v
.
Tambien es consecuencia de lo anterior que t
1
v
= t
v
.
Puedes realizar una gr aca que ilustre lo que sucede cuando se realiza la composici on de
dos traslaciones?.
>
with(geometry):
>
point(A,1,0),point(B,0,2),point(C,3,3),point(D,0,0),point(F,2,-1):
>
Equation(line(l,[A,B]),[x,y]);
>
Equation(line(l1,[D,F]),[x,y]);
>
dsegment(vector,D,F):translation(ltras,l,vector):detail(%);
>
translation(l1tras,l1,vector):detail(%);
Establecer la posici on realtiva que hay entre una recta y su trasladada, en funci on de la
relaci on entre su vector director y el vector de la traslaci on.
>
triangle(T,[A,B,C]):
>
dsegment(vector,D,F):translation(Ttras,T,vector):detail(%);
>
draw( T(style=line,color=red,numpoints=300),Ttras,vector(style=line,
color=green),axes=BOX,style=line,color=blue,title=traslaci on de un
tri angulo);
Realiza un ejercicio similar al efectuado anteriormente para obtener la imagen del crculo de
centro (1,-1) y radio 2 por la traslaci on de vector de origen (0,0) y extremo (1,4)
4.6.4 Homotecias
En este punto se trata el estudio de un tipo de anidades biyectivas que no conservando las dis-
tancias conservan la forma. Las homotecias son transformaciones que conservan los angulos
y la raz on entre longitudes.
Denici on 4.6.5
Sea C un punto jo de X = R
n
y ,= 0 un n umero real cualquiera. Se llama homotecia de
centro C y raz on , que representamos por h
C,
, a la aplicaci on
h
C,
: X X
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 137
C C
P ,= C P

siendo P

el punto tal que



CP

=

CP.
Si consideramos la aplicaci on
C
: V = R
n
V = R
n
que a cada vector v =

CP le asocia
el vector v

=

CP

donde P

= h
C,
(P) (C = h
C,
(C)), se tiene que
C
(v) = v

= v. Por
tanto
C
= I
R
n, que es lineal. Como consecuencia se tiene la siguiente proposici on
Proposici on 4.6.4
La homotecia h
C,
es una aplicacion afn.
Proposici on 4.6.5
En las condiciones de la denicion anterior, se verica
1. h
C,
es biyectiva.
2. h
C,
conserva las distancias si y s olo si = 1. Si la raz on es 1, la homotecia es la
aplicacion identidad (y recprocamente).
3. Por una homotecia distinta de la identidad, el unico punto jo que resulta es el centro de
la homotecia.
4. Si f es una aplicacion afn denida en X = R
n
cuya aplicaci on lineal asociada es I
V =R
n
con ,= 0, 1, f es entonces una homotecia de raz on y de centro el punto C de coorde-
nadas (
a
1
1
, ,
a
n
1
), siendo (a
1
, , a
n
) las coordenadas del punto imagen del origen del
sistema de referencia.
5. La composicion de dos homotecias es una homotecia o una traslaci on, y la composici on
de una traslaci on con una homotecia (no identidad) es una homotecia.
La demostraci on de la mayor parte de estas propiedades se deja como ejercicio. El cuarto de
los puntos puede abordarse a traves de la ecuacion matricial de f, viendo que C es un punto
jo por f y que si P

es la imagen de P por f entonces



CP

=

CP. Por ultimo mencionar que
la prueba del ultimo de los puntos es inmediato si se acude a las matrices de las aplicaciones
lineales que las caracterizan.
Ejemplo 4.6.4
En el plano afn X = R
2
se consideran las homotecias h
C,

2
y h
C,
3
2
con C(1, 2). Es f acil
comprobar que si P(3, 2), la imagen de P por la primera de las homotecias es un punto cuyas
coordenadas no son enteras. Podras realizar una representaci on gr aca de lo que sucede?. El
punto P

= h
C,
3
2
(P) tiene coordenadas enteras y son (4, 4).
Podras decir para que valores de el transformado de P(3, 2) por h
C,
tiene coordenadas
enteras?.
138 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
>
with(geometry):
>
point(A,0,1),point(B,2,0):point(C,3,3):
>
Equation(line(l,[A,B]),[x,y]);
>
dilatation(A1,A,-1/2,point(OO,0,0)): detail(A1);
>
homothety(B1,B,-1/2,point(OO,0,0)): detail(B1);
>
dilatation(l1,l,-1/2,point(OO,0,0)): detail(l1);
Observar que la recta l y su transformada por la homotecia, l1, son paralelas
>
triangle(T,[A,B,C]);
>
homothety(T1,T,-1/2,point(OO,0,0)):detail(T1);
>
p:=PLOT(CURVES([[0,1],[2,0],[3,3],[0,1]]),COLOR(ZHUE)):
>
q:=plottools[homothety](p,-1/2,[0,0]):
>
plots[display]([p,q],scaling=constrained,style=patch, title=homotecia
de un tri angulo);
Obten la imagen del tri angulo T1 por la homotecia de centro (1,-1) y raz on 5
>
with(geom3d):
>
point(A,0,0,0),point(B,1,1,1),point(C,1,0,2):triangle(T,[A,B,C]);
>
homothety(T1,T,-1/2,point(o,0,0,0));
>
detail(%);
>
draw([T,T1],scaling=constrained,style=patch,lightmodel=light3,
orientation=[0,32],title=homotecia de un tri angulo);
>
with(plottools): p:=tetrahedron([-1,-1,-2]):
q := plottools[homothety](p,-6,[0,0,0]): plots[display]([p,q],scaling=
constrained, style=patch,lightmodel=light4 , orientation=[0,32],title=
homotecia de un tetredro);
>
r:=icosahedron([1,1,2]): s := plottools[homothety](r,5,[1,-1,0]):
plots[display]([r,s],scaling=constrained,style=patch,lightmodel=light4 ,
orientation=[0,32],title= homotecia de un icosaedro);
4.6.5 Giros en X = R
2
La mayor complejidad del estudio de los giros desaconseja, en parte, su tratamiento en el caso
general. Debido a esto se ha optado por el estudio de los mismos en el espacio afn de dimension
2.
Sea f : X = R
2
X = R
2
la aplicaci on afn que viene dada por la ecuaci on matricial
siguiente (respecto del sistema de referencia can onico).
_
x

_
=
_
a
b
_
+
_
cos sen
sen cos
__
x
y
_
con 0 < < 2.
Respecto de f podemos decir que
1. Es movimiento, puesto que la aplicaci on lineal asociada a f tiene como matriz, respecto
de una base ortonormal, una matriz ortogonal, lo que garantiza que tal aplicaci on lineal
sea isometra.
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 139
2. El conjunto de puntos jos por f se determina resolviendo el sistema
_
1 cos sen
sen 1 cos
__
x
y
_
=
_
a
b
_
Dicho sistema tiene soluci on unica si (y s olo si) la matriz que lo dene es de rango 2.
rango
_
1 cos sen
sen 1 cos
_
= 2 (1 cos)
2
+sen
2
,= 0
2 2cos ,= 0 cos ,= 1 ,= 2k
Como inicialmente 0 < < 2, f deja un unico punto jo que vamos a denotar por C.
Denici on 4.6.6
La aplicacion f denida por la ecuaci on matricial anterior recibe el nombre de giro de centro
C y amplitud , y es denotada por g
C,
.
Ejemplo 4.6.5
Supuesto jado el sistema de referencia can onico, si en X = R
2
se considera el giro de cen-
tro C(1, 2) y amplitud

6
, la imagen P

(x

, y

) de un punto P(x, y) vendr a determinada


por una ecuaci on del tipo
_
x

_
=
_
a
b
_
+
_
1
2

3
2

3
2
1
2
__
x
y
_
,
donde (a, b), recordemos, son las coordenadas del punto imagen de O(0, 0) por el giro. El
hecho de conocer que el punto (1, 2) es un punto jo nos permite hallar dichos valores
a y b.
_
a
b
_
=
_
1
1
2

3
2

3
2
1
1
2
__
1
2
_
=
_
12

3
2
2

3
2
_
Si g
C,
y g
D,
son dos giros, la composic on g
C,
g
D,
es otro giro o una traslaci on, puesto
que la aplicaci on lineal asociada a tal composici on es
_
cos( +) sen( +)
sen( +) cos( +)
_
=
_
cos sen
sen cos
_
vericando + = + 2 con 0 < 2.
Si la matriz anterior no es la identidad (caso ,= 0) la composici on es un giro, en el otro
caso la composici on es una traslaci on.
Si t y g son respectivamente una traslaci on y un giro en R
2
, la composici on t g es un
giro puesto que la matriz de la aplicaci on lineal asociada coincide con la de g, por ser la
de t la identidad.
Teniendo esto en cuenta se deja como ejercicio determinar el centro y la amplitud del giro
t g donde:
t es la traslaci on en que el punto (6, 0) es la imagen del punto (0, 0) y
g es el giro de centro (0, 0) en que (0, 2) es la imagen de (2, 0).
El giro anterior coincide con g t?.
140 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Resumiendo, las anidades que hemos estudiado en X = R
n
son
_

_
No biyectivas: Proyecciones (Ortogonales / No ortogonales)
Transformaciones
_

_
No conservan distancias
_
Simetras no ortogonales
Homotecias
Movimientos
_
_
_
Simetras ortogonales
Traslaciones
Giros ( estudiados para n=2)
>
with(geometry):
>
point(P, 1/3 , 2/3), point(Q, 2/3,1/3),point(C, 0,0);
>
triangle(T, [P,Q,C] );
>
rotation(Trot1,T,Pi/4,counterclockwise,C);
rotation(Trot2,T,Pi/2,co unterclockwise,C);
rotation(Trot3,T,3*Pi/4,counterclockwise,C);
>
detail(Trot1);detail(Trot2);detail(Trot3);
>
draw([T(style=LINE,color=red),Trot1,Trot2,Trot3],
title=rotaciones del tri angulo T);
>
with(plottools):with(plots):r:=array(0..7);
r[0] := draw(triangle(T, [P,Q,C] ));
>
a := Pi/4: c := 1: while evalf(a-2*Pi) < 0 do
rotation(aux,T,a,counterclockwise); r[c]:=draw(aux); a := a+Pi/4;
c := c+1; end do:
>
display([seq(r[i],i=0..7)]);
4.7 C onicas y Cuadricas
4.7.1 C onicas
En el plano afn se llama conica al lugar geometrico de los puntos cuyas coordenadas (respecto
sistema de referencia can onico) (x
1
, x
2
) verican una ecuaci on del tipo
a
11
x
2
1
+ 2a
12
x
1
x
2
+a
22
x
2
2
+ 2b
1
x
1
+ 2b
2
x
2
+c = 0 [1]
para ciertos n umeros reales a
ij
, b
k
, c tales que a
11
, a
12
, a
22
no son simult aneamente los tres nulos.
La ecuaci on anterior se expresa matricialmente:
( 1 x
1
x
2
)
_
_
c b
1
b
2
b
1
a
11
a
12
b
2
a
12
a
22
_
_
_
_
1
x
1
x
2
_
_
= 0
El conjunto de puntos de coordenadas (x
1
, x
2
) que verica la ecuaci on [1] es el mismo que el
que verica la ecuaci on
(a
11
x
2
1
+ 2a
12
x
1
x
2
+a
22
x
2
2
+ 2b
1
x
1
+ 2b
2
x
2
+c) = 0 [2]
cuando ,= 0, que escrita de forma matricial:
( 1 x
1
x
2
)
_
_
c b
1
b
2
b
1
a
11
a
12
b
2
a
12
a
22
_
_
_
_
1
x
1
x
2
_
_
= 0
4.7. C

ONICAS Y CU

ADRICAS 141
Esto es, las ecuaciones [1], [2] denen una misma c onica, lo que justica la siguiente denici on.
Denici on 4.7.1
Se llama matriz de la c onica denida por la ecuaci on [1] a la matriz M =
_
_
c b
1
b
2
b
1
a
11
a
12
b
2
a
12
a
22
_
_
o
a cualquiera de sus proporcionales: M con ,= 0. La matriz no nula A =
_
a
11
a
12
a
12
a
22
_
se
llamar a matriz de los terminos cuadr aticos.
La c onica de ecuaci on 5x
2
+9y
2
45 = 0, coincide con la de ecuaci on
x
2
3
2
+
y
2
(

5)
2
= 1, que
es la ecuaci on reducida de la elipse centrada en el punto (0, 0) y de semiejes 3 y

5.
El lugar geometrico de los puntos de coordenadas (x, y) ( en el can onico) que verican la
ecuacion 5x
2
9y
2
45 = 0 es una hiperbola. La ecuaci on y
2
= 5x dene una par abola.
Pero no son unicamente c onicas las elipses, hiperb olas y par abolas. Tambien lo son las
siguientes, donde las ecuaciones las suponemos siempre referidas al sistema can onico:
La ecuaci on x
2
y
2
= 0 tiene como soluci on la pareja de rectas y = x, y = x (par de
rectas concurrentes).
La c onica de ecuaci on x
2
4 = 0 est a constituida por los puntos de las rectas x = 2 y
x = 2 (par de rectas paralelas).
La ecuaci on x
2
= 0 tiene como soluci on al conjunto de puntos de la recta x = 0 contados
dos veces (recta doble o par de rectas coincidentes).
La ecuaci on x
2
+ 4 = 0 no tiene soluci on real. Se dice que la c onica denida por dicha
ecuacion es el conjunto vacio o el par de rectas imaginarias (y paralelas) x = 2i
Cuando se considera la ecuaci on x
2
+y
2
= 0, el conjunto soluci on real es el punto (0, 0)
pero tambien se dice que la conica resultante es formado por las rectas imaginarias (y
secantes en el (0, 0)) de ecuaciones y = ix
Consideremos la c onica de ecuaci on x
2
+y
2
+1 = 0 (en el sistema de referencia can onico).
Por tratarse del conjunto vacio, lo m as com un sera decir que coincide con la de ecuaci on
x
2
+ 4 = 0. Ahora bien, si esta ultima c onica la interpretamos como el par de rectas
imaginarias x = 2i, podemos observar que algunos puntos imaginarios que est an en
esas rectas no satisfacen la ecuaci on de la primera c onica. El punto (2i, 1) satisface
la ecuaci on x
2
+ 4 = 0, pero no x
2
+ y
2
+ 1 = 0. El punto (2i,

3) satisface ambas
ecuaciones. Despues de ver que el conjunto soluci on de puntos imaginarios para ambas
ecuaciones no es el mismo, costara m as armar que ambas c onicas son iguales.
Podemos observar tambien que las matrices que denen dichas c onicas
_
_
4 0 0
0 1 0
0 0 0
_
_
y
_
_
1 0 0
0 1 0
0 0 1
_
_
no son proporcionales. Tampoco tienen el mismo rango, ni la misma signatura (conceptos
ligados a cierta clasicaci on de las matrices simetricas).
142 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
De todo lo anterior uno puede admitir que en el plano afn, y respecto del sistema de
referencia can onico, una c onica queda caracterizada por cualquiera de las matrices simetricas
M, siendo ,= 0 y M =
_
c B
B
t
A
_
, de tama no 33, donde A =
_
a
11
a
12
a
12
a
22
_
y B = ( b
1
b
2
).
Por tanto
Denici on 4.7.2
Se dice que dos c onicas son iguales si y solo si sus matrices (en el mismo sistema de referencia)
son proporcionales.
Supongamos que se tiene una c onica de ecuaci on [1] respecto del sistema de referencia can onico,
que matricialmente la expresamos por
( 1 X ) M
_
1
X
t
_
= 0 [1] , donde X = ( x
1
x
2
) y M =
_
c B
B
t
A
_
con c, B, A las matrices descritas anteriormente. Si se adopta un nuevo sistema de referencia
R

donde las coordenadas de un punto las denotamos por (x

1
, x

2
) se tiene la relaci on
_
x
1
x
2
_
=
_
c
1
c
2
_
+Q
_
x

1
x

2
_
[3]
donde C = (c
1
, c
2
) son las coordenadas del nuevo origen, y Q la matriz del cambio de base (sus
columnas expresan la base nueva en funci on de la can onica). La ecuaci on [3] puede escribirse:
( 1 X
t
) = Q

_
1
X
t
_
[3] con Q

=
_
1 0
C
t
Q
_
Observese que el hecho de que Q sea regular garantiza que lo sea Q

Entonces, en la nueva
referencia, la c onica tiene por matriz M

= Q
t
MQ

=
_
d B

B
t
A

_
siendo A

= Q
t
AQ como
puede comprobarse sustituyendo [3

] en [1

]. De donde se deduce que M y M

son congruentes.
Por tanto poseen el mismo rango y, al ser simetricas, la misma signatura. Tambien los determi-
nantes tienen el mismo signo: det(M

) = (det(Q

))
2
det(M) y (det(Q

))
2
> 0 Lo mismo sucede
para A y A

.
Todo lo visto hasta aqu justica en parte, que una matriz cualquiera asociada a una c onica
(respecto del sistema de referencia que sea) determine completamente dicha c onica.
En el siguiente cuadro se plasma la clasicaci on general de las c onicas. En el, M es la matriz
de la c onica y A es su matriz de terminos cuadr aticos (en un sistema de referencia dado).
Caso 1.- det(A) > 0, CONICA DE TIPO ELIPTICO
det(M) ,= 0 y sig(M) = 3 o sig(M) = 0: elipse imaginaria
det(M) ,= 0 y sig(M) = 2 o sig(M) = 1: elipse real
det(M) = 0: un punto (dos rectas imaginarias que se cortan en el punto)
Caso 2.- det(A) < 0, CONICA DE TIPO HIPERBOLICO
det(M) ,= 0: hiperbola
4.7. C

ONICAS Y CU

ADRICAS 143
det(M) = 0: dos rectas (reales) concurrentes
Caso 3.- det(A) = 0, CONICA DE TIPO PARABOLICO
det(M) ,= 0: par abola
det(M) = 0: dos rectas paralelas (coincidentes si rg(M) = 1, distintas si rg(M) = 2 y
sig(M) = 1, imaginarias si rg(M) = 2 y sig(M) = 2, 0)
Para justicar la tabla anterior procedemos como sigue:
Vamos a considerar el sistema de ecuaciones (S):
_
a
11
a
12
a
12
a
22
__
h
1
h
2
_
=
_
b
1
b
2
_
,
y partiendo del conjunto de soluciones que tenga dicho sistema vamos a realizar el estudio
completo de las c onicas.
1. El sistema (S) tiene soluci on unica si y s olo si det(A) ,= 0
Supongamos que se tiene esta situaci on, y que (h
1
, h
2
) es la soluci on de dicho sistema.
En este caso el punto de coordenadas (h
1
, h
2
) recibe el nombre de centro de la c onica.
Consideramos el sistema de referencia R

constituido por el punto P


0
de coordenadas
(h
1
, h
2
) en el sistema de referencia de partida, y la base del mismo sistema de referencia.
Con esto la matriz del cambio del sistema de referencia es
Q

=
_
_
1 0 0
h
1
1 0
h
2
0 1
_
_
,
y la matriz M

asociada a la c onica es
M

= Q
t
MQ

=
_
_
d 0 0
0 a
11
a
12
0 a
12
a
22
_
_
siendo d = c+b
1
h
1
+b
2
h
2
. Sea T una matrix 22 regular tal que A

= T
t
AT =
_
0
0
_
(diagonal). Denotemos por R el sistema de referencia con origen el punto P
0
y base
v
1
, v
2
, donde v
i
tiene por coordenadas en la base de R

las de la columna i-esima de Q.


La matriz de la c onica en el sistema R es
M = T
t
M

=
_
_
d 0 0
0 0
0 0
_
_
donde T

es la matriz 33 del cambio del sistema de referencia de R

a R: T

=
_
1 0
0 T
_
.
Teniendo en cuenta lo anterior:
1.1. det(A) > 0 si y s olo si y son simult aneamente positivos, o simult aneamente
negativos, y en esta situaci on:
144 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Si d = 0, lo que equivale a que det(M) = 0, la ecuaci on de la c onica en el ultimo
sistema de referencia es x
2
+y
2
= 0 que s olo tiene una soluci on. Por tanto en este
caso la c onica se reduce a un punto (dos rectas imaginarias secantes en ese punto).
Si d > 0, entonces det(M) ,= 0, y sig(M) = 3 si , > 0 o bien sig(M) = 1 si
, < 0.
Si sig(M) = 3, la ecuaci on de la c onica en el ultimo sistema de referencia es
x
2
+y
2
+d = 0 con todos los coecientes estrictamentes positivos, por tanto dicha
ecuacion no tiene soluci on: elipse imaginaria.
Si sig(M) = 1, la ecuaci on de la c onica en el ultimo sistema de referencia puede
expresarse como ()x
2
+ ()y
2
= d, correspondiente a una elipse (real).
Si d < 0, entonces det(M) ,= 0, y sig(M) = 2 si , > 0 o bien sig(M) = 0 si
, < 0.
Si sig(M) = 2, la ecuaci on es equivalente a la del caso d > 0, sig(M) = 1: elipse.
Si sig(M) = 0, la situaci on es an aloga a la de sig(M) = 3: elipse imaginaria.
1.2. det(A) < 0 si y s olo si y son de signos opuestos. Supongamos que > 0 y < 0.
Si d = 0, lo que equivale a que det(M) = 0, la ecuaci on de la c onica en el ultimo
sistema de referencia es x
2
+ y
2
= 0 que tiene como soluci on al par de rectas
y =
_

x, reales y concurrentes.
Si d ,= 0, lo que equivale a que det(M) ,= 0, la ecuaci on de la c onica es la de una
hiperbola.
Los otros dos casos que aparecen, en los que el sistema (S) o tiene innitas soluciones, o
no tiene soluci on, aportan las c onicas que no tienen centro.
2. El sistema (S) tiene innitas soluciones si y s olo si rango(A) = rango(A[b
i
) = 1. En este
caso por tanto det(A) = 0.
3. El sistema (S) no tiene soluci on si y s olo si rango(A) = 1 y rango(A[b
i
) = 2. Tambien
aqu det(A) = 0.
Se considera la c onica que, respecto del sistema de referencia can onico, tiene por ecuaci on
11x
2
+ 4xy + 14y
2
+ 4x 8y 20 = 0
Vamos a ver si es una c onica con centro o sin centro, cu al es su ecuacion reducida, las
ecuaciones de sus ejes en el caso de tenerlos, .
La ecuaci on de la c onica escrita matricialmente es
( 1 x y )
_
_
20 2 4
2 11 2
4 2 14
_
_
_
_
1
x
y
_
_
= 0
Utilizando la notaci on manejada anteriormente, se tiene que
c = 20, B = ( 2 4 ) , A =
_
11 2
2 14
_
, M =
_
_
20 2 4
2 11 2
4 2 14
_
_
4.7. C

ONICAS Y CU

ADRICAS 145
Como rango de A es 2, la c onica es una c onica con centro, pues el sistema que
planteamos a continuaci on tiene soluci on y es unica.
_
11 2
2 14
__
h
1
h
2
_
=
_
2
4
_
La soluci on de ese sistema es el centro de la c onica: P
0
= (
6
25
,
8
25
).
Una base respecto de la cual la matriz de terminos cuadr aticos de la c onica es
diagonal es e
1
, 2e
1
11e
2
:
A

= T
t
AT =
_
1 0
2 11
__
11 2
2 14
__
1 2
0 11
_
=
_
11 0
0 11 150
_
Si en el plano afn se considera el sistema de referencia 1 = P
0
= (
6
25
,
8
25
); v
1
=
(1, 0), v
2
= (2, 11), la matriz de la c onica respecto de este nuevo sistema de refer-
encia es (manteniendo la notaci on de la parte te orica):
M = T
t
M

= T
t
Q
t
MQ

=
_
_

544
25
0 0
0 11 0
0 0 1650
_
_
donde Q

es la matriz del cambio de sistema de referencia (Q

cambia el centro
del sistema, T

cambia la base).
Q

=
_
_
1 0 0

6
25
1 0
8
25
0 1
_
_
_
_
1 0 0
0 1 2
0 0 11
_
_
=
_
_
1 0 0

6
25
1 2
8
25
0 11
_
_
La ecuaci on de la c onica en el nuevo sistema es por tanto 11x
2
+ 1650y
2

544
25
= 0,
que tambien se escribe
x
2
(
_
544
275
)
2
+
y
2
(
_
544
31.250
)
2
= 1
Si un punto P de la c onica tiene coordenadas (x, y) respecto el sistema de referencia
can onico y coordenadas (x

, y

) respecto 1, se tiene la siguiente relaci on (como se ha


visto m as arriba)
_
x
y
_
=
_

6
25
8
25
_
+
_
1 2
0 11
__
x

_
Esto es,
x

= (x +
6
25
) +
2
11
(y
8
25
), y

=
1
11
(y
8
25
)
Si la diagonalizaci on de A se hubiese realizado a partir de la base ortonormal B =
v
1
=
1

5
(2, 1), v
2
=
1

5
(1, 2) tendramos
A

1
= T
t
1
AT
1
=
_
10 0
0 15
_
siendo T
1
la matriz cuyas columnas son los vectores de B. Los elementos 15 y 10 de
la diagonal principal de A

1
son los autovalores de A.
146 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Cuando en el plano se considera el sistema de refencia ortonormal 1
1
= P
0
; v
1
, v
2
,
la matriz de la c onica es
M =
_
_

544
25
0 0
0 10 0
0 0 15
_
_
y su ecuaci on por tanto
10x
2
1
+ 15y
2
1

544
25
= 0,
que tambien se escribe
x
2
1
(

544
250
)
2
+
y
2
1
(

544
375
)
2
= 1 Esta ecuaci on recibe el nombre de
ecuacion reducida de la c onica. Se llaman ejes de la c onica a las rectas perpendicu-
lares que pasan por el centro de la c onica y tienen las direcciones de los vectores de
la base ortonormal de autovectores de la matriz A. En este caso concreto son ejes
de la elipse las rectas de ecuaciones parametricas siguientes:
r :
_
x =
6
25
+
1

y =
8
25
+
2

:
_
x =
6
25
+
2

y =
8
25

1

Los ejes de la elipse (o en general de una c onica con centro) son ejes de simetra de
la misma.
Los valores a =
_
544
250
y b =
_
544
375
reciben el nombre de longitudinales de los semiejes.
El valor c > 0 que verica a
2
= b
2
+ c
2
se llama semidistancia focal y el cociente
c
a
recibe el nombre de excentricidad de la elipse. Los puntos que en el sistema de
referencia 1
1
tienen coordenadas (c, 0) reciben el nombre de focos de la elipse.
4.7.2 Cuadricas
En el espacio afn tridimensional se llama cuadrica al lugar geometrico de los puntos cuyas
coordenadas (respecto sistema de referencia can onico) (x
1
, x
2
, x
3
) verican una ecuaci on del
tipo
a
11
x
2
1
+a
22
x
2
2
+a
33
x
2
3
+ 2a
12
x
1
x
2
+ 2a
13
x
1
x
3
+ 2a
23
x
2
x
3
+ 2b
1
x
1
+ 2b
2
x
2
+ 2b
3
x
3
+c = 0 [1]
para ciertos n umeros reales a
ij
, b
k
, c tales que los a
ij
no son simult aneamente todos nulos.
La ecuaci on anterior se expresa matricialmente:
( 1 x
1
x
2
x
3
)
_
_
_
_
c b
1
b
2
b
3
b
1
a
11
a
12
a
13
b
2
a
12
a
22
a
23
b
3
a
13
a
23
a
33
_
_
_
_
_
_
_
_
1
x
1
x
2
x
3
_
_
_
_
= 0
El conjunto de puntos de coordenadas (x
1
, x
2
, x
3
) que verica la ecuaci on [1] es el mismo que
el que verica la ecuaci on
(a
11
x
2
1
+a
22
x
2
2
+a
33
x
2
3
+2a
12
x
1
x
2
+2a
13
x
1
x
3
+2a
23
x
2
x
3
+2b
1
x
1
+2b
2
x
2
+2b
3
x
3
+c) = 0 [2]
4.7. C

ONICAS Y CU

ADRICAS 147
cuando ,= 0, que escrita de forma matricial:
( 1 x
1
x
2
x
3
)
_
_
_
_
c b
1
b
2
b
3
b
1
a
11
a
12
a
13
b
2
a
12
a
22
a
23
b
3
a
13
a
23
a
33
_
_
_
_
_
_
_
_
1
x
1
x
2
x
3
_
_
_
_
= 0
Denici on 4.7.3
Se llama matriz de la cu adrica denida por la ecuaci on [1] a la matriz M =
_
_
_
_
c b
1
b
2
b
3
b
1
a
11
a
12
a
13
b
2
a
12
a
22
a
23
b
3
a
13
a
23
a
33
_
_
_
_
o a cualquiera de sus proporcionales: M con ,= 0. La matriz no nula A =
_
_
a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33
_
_
recibe el nombre de matriz de los terminos cuadr aticos de la cu adrica.
Un tratamiento similar al realizado para las c onicas nos permitira decir que cuando se
realiza un cambio de sistema de referencia en el espacio afn:
1. La matriz M

asociada a la cu adrica respecto de ese nuevo sistema de referencia es equiv-


alente a la matriz M. El mismo resultado se obtiene respecto de las matrices de los
terminos cuadr aticos.
2. Es consecuencia de lo anterior que los rangos de M y M

son iguales as como sus signa-


turas. Lo mismo sucede cuando se consideran las matrices de terminos cuadr aticos.
3. Los determinantes de M y M

tienen el mismo signo. Tambien este resultado es cierto


para las matrices A y A

.
En el siguiente cuadro se resume la clasicaci on de las cu adricas. En el, M es la matriz
de la cu adrica y A es su submatriz de los terminos cuadr aticos (en un sistema de referencia
cualquiera). En el cuadro no aparecen los casos en los que la cu adrica es un par de planos
(paralelos, secantes, ...) porque complican en exceso la clasicaci on y adem as pueden resultar
de menor interes. Solo al nal aparece un ejemplo que muestra uno de esos casos.
Caso 1.- rango(M) = 4, CUADRICAS ORDINARIAS
rango(A) = 3, Cu adricas con centro
1. sig(M) = 4, 0 y sig(A) = 3, 0, ELIPSOIDE IMAGINARIO
2. sig(M) = 3, 1 y sig(A) = 3, 0, ELIPSOIDE REAL
3. sig(M) = 3, 1 y sig(A) = 2, 1, HIPERBOLOIDE NO REGLADO
4. sig(M) = 2, 2 y sig(A) = 2, 1, HIPERBOLOIDE REGLADO
rango(A) = 2, Cu adricas sin centro
1. sig(M) = 3, 1 y sig(A) = 2, O, PARABOLOIDE NO REGLADO
2. sig(M) = 2, 2 y sig(A) = 1, PARABOLOIDE REGLADO
148 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Caso 2.- rango(M) = 3, CUADRICAS CON UN PUNTO SINGULAR
rango(A) = 3, Conos
1. sig(M) = 3, 0 y sig(A) = 3, 0, CONO IMAGINARIO (con vertice real)
2. sig(M) = 2, 1 y sig(A) = 2, 1, CONO REAL
rango(A) = 2, Cilindros
1. sig(M) = 3, 0 y sig(A) = 2, 0, CILINDRO IMAGINARIO
2. sig(M) = 2, 1 y sig(A) = 2, 0, CILINDRO ELIPTICO (real)
3. sig(M) = 2, 1 y sig(A) = 1, 1, CILINDRO HIPERBOLICO
4. sig(M) = 2, 1 y sig(A) = 1, 0, CILINDRO PARABOLICO
La cu adrica de ecuaci on: x
2
+y
2
z
2
+ 2xy x y +z = 0, tiene por matriz asociada a
M =
_
_
_
_
0
1
2

1
2
1
2

1
2
1 1 0

1
2
1 1 0
1
2
0 0 1
_
_
_
_
En este caso det(M) = 0, rango(M) = 3, y el rango(A) = 2. Como ejercicio se deja el
determinar las signaturas de M y A, y comprobar que no encaja en ninguno de los casos del
cuadro anterior. Finalmente observar que x
2
+y
2
z
2
+2xyxy+z = (x+y+z1)(x+yz) =
0, y que el conjunto soluci on est a formado por los planos de ecuaciones:
x +y +z 1 = 0
x +y z = 0
4.8. EJERCICIOS CAP

ITULO 4 TEMA GEOMETR

IA EUCL

IDEA 149
4.8 Ejercicios Captulo 4
Tema Geometra Eucldea
Ejercicio 113
En R
5
se tiene denido el producto interior habitual y se considera el subespacio
W = (1, 2, 3, 1, 2), (2, 4, 7, 2, 1))
i) Determina el conjunto W

de vectores de R
5
ortogonales a todos los de W, y demuestra
que es un subespacio de R
5
. Quienes son W W

y W +W

?.
ii) Calcula bases ortonormales para W y para su complemento ortogonal W

.
Ejercicio 114
En R
3
con el producto interior habitual se consideran los vectores v = (1, 0, 1), w = (1, 2, 0) y
u = (0, 2, 3).
i) Halla, a partir de los vectores anteriores, una base ortonormal de R
3
aplicando el proce-
dimiento de Gram-Schmidt.
ii) Halla una base del complemento ortogonal al subespacio generado por v y u.
iii) Halla la intersecci on de los subespacios S y T, donde S es el subespacio ortogonal a los
vectores v y u, y T es el subespacio ortogonal a los vectores v y w.
Ejercicio 115
Halla una base ortonormal u, v, w de R
3
tal que el subespacio generado por u y v este contenido
en el plano x +y +z = 0, y el generado por u y w lo este en el plano 2x y z = 0.
Ejercicio 116
Demuestra que los vectores de R
4
: u = (1/

2, 0, 1/

2, 0) y v = (1/2, 1/2, 1/2, 1/2) son


ortonormales y halla una base ortonormal de R
4
que incluya los vectores anteriores.
Ejercicio 117
Son verdaderas o falsas las siguientes armaciones?.
i) Si P y Q son matrices ortogonales de orden n n, entonces PQ es ortogonal.
ii) Si P es una matriz ortogonal simetrica, entonces P
2
= I.
iii) Si P es ortogonal, entonces detP = +1.
Ejercicio 118
Sean u y v dos vectores ortonormales de R
n
. Prueba que la norma de u v es

2.
150 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Ejercicio 119
Sea A una matriz cuyas columnas forman una base de R
3
. Sea B la matriz que tiene por
columnas los vectores de R
3
que se obtienen de aplicar Gram-Schmidt a las columnas de A.
Cuales de las siguientes armaciones son verdaderas?.
Las dos primeras columnas de A y las dos primeras columnas de B generan el mismo
subespacio de R
3
.
B es una matriz ortogonal.
Ejercicio 120
Demuestra que en R
n
:
a) Para cualquier subespacio S, (S

=S.
b) Si S y T son subespacios tales que S

= T

, entonces S = T.
c) Si S y T son subespacios tales que S T , entonces T

.
Ejercicio 121
Demuestra el teorema generalizado de Pit agoras: Sean u y v dos vectores de R
n
ortogonales.
Entonces [[u +v[[
2
= [[u[[
2
+[[v[[
2
.
Ejercicio 122
En cada uno de los siguientes apartados se da un subespacio U y un vector v de R
2
, R
3
o R
4
,
y se pide para cada caso:
i) Calcular p
U
v .
ii) Hallar una base ortonormal para U.
iii) Escribir v = u +u

con u U y u

U.
a) U = (x, y) R
2
: x +y = 0; v = (1, 2)
b) U = (x, y) R
2
: x +y = 0; v = (1, 1)
c) U = (x, y) R
2
: ax +by = 0; v = (a, b) con a o b no nulos
d) U = (x, y, z) R
3
: ax +by +cz = 0; v = (a, b, c) con a, b o c no nulos.
e) U = (x, y, z) R
3
: 3x 2y + 6z = 0; v = (3, 1, 4)
f) U = (x, y, z) R
3
: x/2 = y/3 = z/4; v = (1, 1, 1)
g) U = (x, y, z, t) R
4
: 2x y + 3z t = 0; v = (1, 1, 2, 3)
h) U = (x, y, z, t) R
4
: x = y, t = 3y; v = (1, 2, 3, 1)
Ejercicio 123
En cada uno de los siguientes casos encuentra la recta que se ajusta mejor a los puntos dados.
4.8. EJERCICIOS CAP

ITULO 4 TEMA GEOMETR

IA EUCL

IDEA 151
a) (1, 3), (2, 4), (7, 0)
b) (3, 7), (4, 9)
b) (3, 7), (4, 9), (1, 3), (2, 4)
Ejercicio 124
En cada uno de los siguientes casos encuentra el mejor ajuste cuadr atico para los puntos dados.
a) (2, 5), (3, 0), (1, 1), (4, 2)
b) (7, 3), (2, 8), (1, 5)
Ejercicio 125
Sean u y w dos vectores unitarios de R
2
linealmente independientes. Sea s la simetra ortogonal
de eje la recta (vectorial) engendrada por u +w. Demuestra que s(u) = w.
Ejercicio 126
Se considera el endomorsmo f de R
2
que respecto de la base can onica tiene como matriz la
siguiente:
_
2/2

2/2

2/2

2/2
_
i) Demuestra que f es una isometra. Es rotaci on o simetra?.
ii) Sea u = (1, 1) y s la simetra ortogonal de eje la recta engendradra por u. Determina
una simetra s

tal que f = s

os.
Ejercicio 127
En R
2
se considera la base can onica y los vectores u = (1, 1) y u

= (1, 2). Sean s y s

las
simetras ortogonales de ejes las rectas engendradas por u y u

respectivamente. Cuales son


las matrices de las rotaciones sos

y s

os?.Que relaci on existe entre ambas?.


Ejercicio 128
16.-
En R
2
se considera la rotaci on vectorial r que respecto de la base can onica tiene por matriz
_
1/2

3/2

3/2 1/2
_
Halla respecto de esa base las matrices de las rotaciones t tales que t
2
= r.
Ejercicio 129
Se considera el plano eucldeo R
2
.
152 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
i) Halla la matriz (respecto de la base can onica) de la simetra ortogonal s de eje la recta
(vectorial) engendrada por el vector u = (1, 2).
ii) Determina la simetra ortogonal s

tal que r = s

os, donde r es la rotaci on vectorial, que


respecto de una base ortonormal, tiene por matriz A.
A =
_
1/3 2

2/3
2

2/3 1/3
_
Ejercicio 130
En R
2
se consideran los vectores u = (1, 2) y v = (1, 1) y las semirrectas vectoriales D
u
=
(1, 2)/ R
+
y D
v
= (1, 1)/ R
+
. Halla respecto de la base can onica las matrices
de las isometras f de R
2
tales que f(D
u
) = D
v
.
Ejercicio 131
Sean u, v, w tres vectores de R
2
tales que u y v son linealmente independientes y u+v +w = 0.
Sea f un endomorsmo de R
2
tal que f conserva la norma de u, v y w.
i) Demuestra que conserva el producto escalar de u y v.
ii) Demuestra que f es una isometra de R
2
.
Ejercicio 132
En R
3
se considera la base B = u = (1, 1, 1), v = (1/

2, 0, 1/

2), w = (0, 1/

2, 1/

2).
a) Demuestra que el subespacio ortogonal a u) esta generado por v y w.
b) Sea f la isometra de R
3
que tiene asociada respecto de B la matriz A siguiente
A =
_
_
1 0 0
0

2/2

2/2
0

2/2

2/2
_
_
Es una isometra positiva o negativa?. Cu al es su polinomio caracterstico?. De que
tipo de transformaci on se trata?. Describe los elementos que la caracterizan.
c) Halla la imagen por f de los vectores (1, 1, 2), (1, 0, 0), (2, 2, 2).
Ejercicio 133
En R
3
se considera el plano vectorial P engendrado por los vectores u = (1, 2, 0) y v = (1, 1, 1)
y la simetra ortogonal s respecto del plano P .
a) Cu al es el polinomio caracterstico de s?. Determina una base de R
3
respecto de la cual
s este representada, como isometra, por una matriz can onica.
b) Determina la matriz asociada a s respecto de la base can onica de R
3
.
4.8. EJERCICIOS CAP

ITULO 4 TEMA GEOMETR

IA EUCL

IDEA 153
c) Halla la imagen por s de los vectores (0, 3, 1), (2, 1, 3), (1, 0, 0).
Ejercicio 134
Sean
1
,
2
y
3
los endomorsmos de V = R
3
denidos, respecto de la base can onica, por las
matrices siguientes.
M(
1
) =
_
_
1 0 0
0 1 0
0 0 1
_
_
M(
2
) =
_
_
1 0 0
0

2
2

2
2
0

2
2

2
2
_
_
M(
3
) =
_
_
1 0 0
0 1 0
0 0 1
_
_
1. Demuestra que los endomorsmos
1
,
2
y
3
son todos ellos isometras (o transforma-
ciones ortogonales).
2. Las transformaciones
1
,
2
y
3
son simetras (vectoriales). Se nala para cada una de
ellas, el plano de vectores jos (o base de la simetra), as como un vector que se transforme
en su opuesto. Que relaci on hay entre el plano y el vector?.
3. Que tipo de isometra es
1

3
?. Se nala los elementos que la caracterizan.
4. Sea U =< e
2
, e
3
> y la restricci on de
2

3
a U. Que tipo de isometra es ?.
5. Tiene alg un vector jo
1

2

3
?.
Ejercicio 135
Se consideran las siguientes bases de V = R
3
:
B = v
1
= (1, 1, 1), v
2
= (1, 0, 0), v
3
= (1, 1, 0)
B
c
= e
1
= (1, 0, 0), e
2
= (0, 1, 1), e
3
= (0, 0, 1)
y la matriz
M =
_
_

2
2
0

2
2
0 1 0

2
2
0

2
2
_
_
Sea el endomorsmo de V = R
3
denido, respecto de la base B, por la matriz M ( M
B
() =
M), y sea el endomorsmo de V = R
3
denido, respecto de la base B
c
, por la matriz M
(M
B
c
() = M).
1. Demuestra que:
M es una matriz ortogonal.
no es una isometra en V = R
3
.
es una isometra en V = R
3
.
2. Suponiendo que es endomorsmo de un espacio vectorial eucldeo V , son verdaderas o
falsas las siguientes armaciones?
Si M es una de las matrices asociadas a , es una isometra si y s olo si M
t
M es la
matriz identidad
Si M una matriz asociada a respecto de una base ortonormal de V , es una isometra
si y solo si M
t
M es la matriz identidad
154 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
3. Demuestra que es una simetra (vectorial), y determina el plano de vectores jos (base
de la simetra).
4. Halla una isometra de V = R
3
tal que = sea la simetra que tiene como plano
de vectores jos el generado por e
1
y e
2
. D que tipo de transformaci on es y establece
los elementos que la caracterizan.
Ejercicio 136
Prueba que cada uno de los conjuntos de puntos siguientes es un sistema de referencia en el
espacio afn (estandar) R
3
.
a) P
0
= (1, 0, 1), P
1
= (1, 1, 0), P
2
= (0, 1, 1), P
3
= (0, 0, 1)
b) Q
0
= (1, 0, 2), Q
1
= (0, 1, 2), Q
2
= (0, 0, 1), Q
3
= (1, 0, 3)
Ejercicio 137
Se considera el espacio afn R
3
.
a) Establece la relaci on existente entre el sistema de referencia can onico de R
3
y cada uno
de los sistemas de referencia del ejercicio anterior.
b) Establece la relaci on existente entre el sistema de referencia R = P
0
, P
1
, P
2
, P
3
y R

=
Q
0
, Q
1
, Q
2
, Q
3

c) Sea el punto P = (1, 2, 3) de R


3
. Halla las coordenadas de P en los sistemas de refencia
R y R

.
Ejercicio 138
onsideremos en el espacio afn estandar R
n
un subconjunto Y de puntos. Se dice que Y es un
subespacio afn de R
n
si para alg un punto P de Y , el conjunto de vectores W
P
(Y ) =

PQ/Q
Y es un subespacio del espacio vectorial R
n
.
i) Demuestra que si para alg un P Y , W
P
(Y ) es un subespacio, entonces para todo punto
P

de Y , el conjunto W
P
(Y ) es un subespacio y coincide con W
P
(Y ) .
El resultado anterior nos permite establecer las siguientes deniciones. Si Y es un sube-
spacio afn, el subespacio vectorial W(Y ) = W
P
(Y ) (pues no depende de P) es llamado
espacio vectorial asociado con Y . Se dene como dimension de Y la dimensi on de W(Y ).
Observar que si Y = R
n
, W(Y ) = R
n
y que la dimensi on de R
n
como espacio afn es la
misma que tiene como espacio vectorial.
ii) Sea P un punto del espacio afn R
n
, y W un subespacio de R
n
(como espacio vectorial).
Es Y = Q/

PQ W un espacio afn?.
iii) En que consiste un subespacio afn de dimension 0?. Un subespacio afn de R
n
es llamado
recta, plano o hiperplano cuando dimY es respectivamente 1, 2 o n 1.
4.8. EJERCICIOS CAP

ITULO 4 TEMA GEOMETR

IA EUCL

IDEA 155
Ejercicio 139
En R
3
consideramos el punto P = (1, 2, 3) y sea W el subespacio generado por los vectores
v = (1, 0, 1) y w = (1, 1, 1).
i) Da las ecuaciones parametricas del subespacio afn Y que pasa por P y tiene como sube-
spacio vectorial asociado a W.
ii) Da una recta afn que verique en cada caso una de las condiciones siguientes:
- Pasa por P y est a contenida en Y
- Esta contenida en Y pero no pasa por P
- Pasa por P y no est a contenida en Y
- Tiene un solo punto en com un con Y y es distinto de P
- No tiene ning un punto en com un con Y
Ejercicio 140
En R
3
consideramos dos rectas anes r y r

.
i) Si existe un plano que contiene a ambas, que puede decirse de la posicion relativa de
dichas rectas?. Justica tu respuesta.
ii) Da una recta afn r que pase por el punto (1, 1, 1) y una recta r que pase por el (1, 0, 1)
para las cu ales no exista un plano que contenga a ambas rectas a la vez.
Ejercicio 141
Sea f : R
3
R
3
la aplicaci on que a cada punto P(x, y, z) le asocia el punto f(P) = (x

, y

, z

)
tal que
x

= 1 +x + 2y +z
y

= 2 +y z
z

= 1 +x + 3z
a) Demuestra que f es una aplicaci on afn. Es f una transformaci on afn?
b) Si F es la aplicaci on lineal asociada a f, determina KerF y Im(f)
c) Se considera la recta de puntos r de R
3
dada por las ecuaciones parametricas siguientes:
x = 1 +
y = 2
z = 1 +
Determina f(r).
156 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
d) Se consideran los siguientes planos de puntos:
de ecuacion 2x +y z + 1 = 0

de ecuacion x +y + 2z 1 = 0
Obten la imagen de cada plano por f y explica los resultados.
Ejercicio 142
Consideremos R
n
como espacio afn euclideo, y sea f : R
n
R
n
una aplicaci on que conserva la
distancia. La condici on anterior es suciente para garantizar que f es un movimiento, es decir,
que es afn y biyectiva. En este ejercicio se pretende que pruebes lo anterior resolviendo cada
uno de los siguientes apartados:
a) Sea g : V = R
n
V = R
n
una aplicaci on que conserva el producto escalar, y sea
B = v
1
, ..., v
n
una base ortonormal de R
n
. Observese que no se dice que g sea lineal,
eso es lo que se trata de probar.
i) Demuestra que g(B) = g(v
1
), ..., g(v
n
) es una familia de vectores ortonormal. De-
duce que g(B) es una base de R
n
.
ii) Recuerda que por ser B una base ortonormal, si v R
n
es tal que v = a
1
v
1
+...+a
n
v
n
,
entonces a
i
= v.v
i
, i. Tambien para g(v) = b
1
g(v
1
) + ... + b
n
g(v
n
), se tiene b
i
=
g(v).g(v
i
),i. Usa lo anterior para probar que g es lineal.
iii) Deduce que g es un isomorsmo.
b) Sea P X = R
n
un punto cualquiera pero jo, y sea F
P
: V = R
n
V = R
n
la
aplicaci on denida por F
P
(

PQ) =

f(P)f(Q), donde f es la aplicac on de R
n
en R
n
que
conserva las distancias
i) Prueba que F
P
conserva el producto escalar. (Indicaci on: Desarrolla (v w).(v w)
y (F
P
(v) F
P
(w)).(F
P
(v) F
P
(w)) para v =

PQ y w =

PR)
ii) Deduce que F
P
es lineal. Es F
P
biyectiva?.
iii) Puedes concluir ya que f es afn y biyectiva?.
Ejercicio 143
Sean t
v
y t
u
dos traslaciones del espacio afn euclideo R
2
. Determina que aplicaciones son t
v
ot
u
y t
u
ot
v
. Que sucede en el caso en que u = v?.
Ejercicio 144
Sean h
P,
y h
P,
dos homotecias de centro P del espacio afn R
2
. Determina que aplicaciones
son h
P,
oh
P,
, y h
P,
oh
P,
. En que caso las composiciones anteriores resultan ser la aplicaci on
identidad?.
Ejercicio 145
En el espacio afn R
2
se considera la homotecia h
P,1
.
4.8. EJERCICIOS CAP

ITULO 4 TEMA GEOMETR

IA EUCL

IDEA 157
a) Realiza un dibujo que muestre el comportamiento de dicha homotecia. Daras un nombre
especial a la aplicaci on anterior?. Que aplicaci on es (h
P,1
)
2
?.
b) Se considera el cuadrado de vertices (0, 0), (1, 0), (0, 1), (1, 1). Cu al es la imagen de
dicho cuadrado por la homotecia h
P,1
con P = (1/2, 1/2)?. Que nombre daras a P en
referencia al cuadrado?.
Ejercicio 146
Sean f y g dos anidades en el espacio afn R
n
, y sean F y G lasaplicaciones lineales respectivas.
Demuestra que fog es una anidad de aplicaci on lineal asociada FoG.
Ejercicio 147
Sea p : R
3
R
3
la proyecci on afn de base el plano : x+y+z = 1 y direcci on W = (1, 1, 2)).
Determina la imagen por dicha proyecci on
i) del punto (1, 1, 1)
ii) de la recta
x = 1 +
y = 1
z = 1 + 2
iii) de la recta
x = 1 +
y = 1 +
z = 1 +
Ejercicio 148
Demuestra que la aplicaci on de R
3
en R
3
, que al punto M(x, y, z) asocia el punto M

(x

, y

, z

)
tal que
x

= y +z 1
y

= x +z 1
z

= x y + 2z 1
es una proyecci on. Determina sus elementos base y direcci on.
Ejercicio 149
Demuestra que la aplicaci on de R
3
en R
3
, que al punto M(x, y, z) asocia el punto M

(x

, y

, z

)
tal que
x

= 2x 2z 3
y

= x z 2
z

= x z 3
es una proyecci on. Determina sus elementos base y direcci on.
158 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Ejercicio 150
Sean Y y Z dos subespacios anes de R
n
con la misma dimensi on, y W(Y ) y W(Z) los sube-
spacios vectoriales asociados (llamados direccionesde Y y Z respectivamente). Se dice que Y y
Z son paralelos si W(Y ) = W(Z).
i) Da ejemplos de rectas en R
3
que sean paralelas.
ii) Son paralelos los planos de R
3
siguientes?
Y : x y + 2z = 1
Z : x = 1 a + 3b
y = 1 +a +b
z = 1 +a b
iii) Son paralelos los planos de R
3
siguientes?
Y : x y + 2z = 1
Z : x = 1 a + 3b
y = a +b
z = a b
iv) Como son Y y Z si siendo paralelos tienen un punto en com un?.
v) Demuestra que si Y y Z son rectas paralelas sin puntos en com un, entonces existe un
plano que contiene a ambas rectas.
vi) Demuestra que la imagen por una homotecia o traslaci on de una recta afn es otra recta
paralela a la primera. Deduce que rectas paralelas se transforman por una homotecia o
una traslaci on en rectas paralelas.
Ejercicio 151
Da la ecuaci on matricial de la simetra afn de R
2
respecto a la recta de ecuaci on x + y = 1
paralelamente al subespacio vectorial engendrado por el vector u = (1, 2).
Ejercicio 152
Se considera el espacio afn estandar R
3
con el sistema de referencia can onico. Sea f : R
3
R
3
la aplicaci on que a cada punto M(x, y, z) le asocia el punto f(M) : (x

, y

, z

) siendo x

=
3x 4z 6, y

= 2x y 2z 4, z

= 2x 3z 6. Demuestra que f es una aplicaci on afn.


Prueba que f es una simetra determinando sus elementos (base y direcci on).
Ejercicio 153
De las rectas que hayas dado en el apartado i) del ejercicio 150, obten sus imagenes por
i) la proyecci on del ejercicio 148.
4.8. EJERCICIOS CAP

ITULO 4 TEMA GEOMETR

IA EUCL

IDEA 159
ii) la simetra del ejercicio 152.
Los subespacios anes obtenidos en i) son paralelos? Los subespacios anes obtenidos en ii)
son paralelos?
Ejercicio 154
En el espacio afn euclideo X = R
2
se considera la siguiente aplicaci on afn:
f : X = R
2
X = R
2
(x, y) (x + 1, y 2)
Demuestra que es un movimiento y d de que movimiento se trata dando los elementos que lo
denen.
Ejercicio 155
En el espacio afn X = R
2
se consideran los puntos P = (1, 2) y Q = (2, 3). Si r es la recta
que pasa por P y Q, cual es la ecuaci on de la recta imagen de r por una traslaci on de vector
v = (1, 1)?.
Ejercicio 156
En el espacio afn X = R
3
se considera el plano de puntos = (x, y, z) X : x y = z + 1.
Determina la imagen del punto P = (0, 0, 0) por la simetria ortogonal de base el plano .
Ejercicio 157
En el espacio afn X = R
3
se considera el punto P(1, 2, 3). Determina la imagen del punto P
por cada una de las aplicaciones anes siguientes.
1. Traslaci on de vector v : (1, 2, 3).
2. Proyecci on ortogonal de base el plano de puntos x + 2y + 3z = 0.
3. Simetra ortogonal de base el plano de puntos x + 2y + 3z = 7.
4. Homotecia de centro C(2, 4, 6) y raz on = 2.
Realiza dos dibujos que ilustren que las aplicaciones de los apartados 2. y 4. no son movimien-
tos.

You might also like