You are on page 1of 38

F

sica, Matem

aticas y Estad

stica
Primer Curso

ALGEBRA LINEAL I
Juan A. Navarro Gonzalez
14 de julio de 2013
2

Indice General
1 Preliminares 1
1.1 Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 N umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Espacios Vectoriales 7
2.1 Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 7
2.2 Teora de la Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Aplicaciones Lineales 15
3.1 Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Teorema de Isomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4 El Espacio Vectorial Hom
K
(E, E

) . . . . . . . . . . . . . . . . . . . . . . . . 20
4 Geometra Eucldea 21
4.1 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5 Endomorsmos 27
5.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.3 Diagonalizacion de Endomorsmos . . . . . . . . . . . . . . . . . . . . . . . . 29
3
4

INDICE GENERAL
Captulo 1
Preliminares
1.1 Relaciones de Equivalencia
Denicion: Dar una relacion en un conjunto X es dar una familia de parejas ordenadas
de X, y pondremos x y cuando la pareja (x, y) este en tal familia. Diremos que es una
relacion de equivalencia si tiene las siguientes propiedades:
1. Reexiva: x x, x X.
2. Simetrica: x, y X, x y y x.
3. Transitiva: x, y, z X, x y, y z x z.
Denicion: Dada una relacion de equivalencia en un conjunto X, llamaremos clase de
equivalencia de un elemento x X al subconjunto de X formado por todos los elementos
relacionados con x. Se denota x = [x] = y X: x y y diremos que es la clase de x
respecto de la relacion de equivalencia .
Diremos que un subconjunto C X es una clase de equivalencia de la relacion si es
la clase de equivalencia de alg un elemento x X; es decir, C = x para alg un x X.
El conjunto cociente de X por es el conjunto formado por las clases de equivalencia
de , y se denota X/.
Teorema 1.1.1 Si es una relacion de equivalencia en un conjunto X, en el conjunto
cociente X/ solo se identican los elementos equivalentes:
[x] = [y] x y ; x, y X .
Demostracion: Si [x] = [y], entonces y [y] = [x]; luego x y.
Recprocamente, si x y, veamos que [y] [x]. En efecto, si z [y], entonces y z, y
por la propiedad transitiva x z; luego z [x].
Ahora bien, si x y, entonces y x; luego tambien [x] [y], y [x] = [y].
Corolario 1.1.2 Cada elemento x X esta en una unica clase de equivalencia de .
Demostracion: x esta en [x], porque x x, y si x [y], entonces y x; luego [y] = [x].
Ejemplo: Sea n un n umero natural, n 2. Diremos que dos n umeros enteros a, b Z son
congruentes modulo n cuando b a es m ultiplo de n:
a b (mod. n) cuando b a = cn para alg un c Z .
La relacion de congruencia modulo n es una relacion de equivalencia en el conjunto Z:
1
2 CAP

ITULO 1. PRELIMINARES
Reexiva: Si a Z, entonces a a (mod. n) porque a a = 0 n.
Simetrica: Si a b (mod. n), entonces b a = cn, donde c Z; luego a b = (c)n, y
por tanto b a (mod. n).
Transitiva: Si a b y b c (mod. n), entonces b a = xn y c b = yn, donde x, y Z;
luego c a = (c b) + (b a) = yn +xn = (y +x)n, y por tanto a c (mod. n).
Esta relacion de equivalencia tiene ademas la siguiente propiedad:
a b (mod. n) a +c b +c y ac bc (mod. n) c Z
pues si b = a +xn, donde x Z, entonces b +c = a +c +xn y bc = (a +xn)c = ac +xcn.
Respecto de esta relacion de equivalencia, la clase de equivalencia de a Z es
[a] = a +nZ = a +cn: c Z ,
as que coincide con la clase [r] del resto de la division de a por n, pues a = cn + r. Por
tanto, el conjunto cociente, que se denota Z/nZ, tiene exactamente n elementos:
Z/nZ = [1], [2], . . . , [n] = [0] .
1.2 N umeros Complejos
Denicion: Los n umeros complejos son las parejas de n umeros reales z = x + yi (donde
x R se llama parte real de z e y R se llama parte imaginaria) que se suman y
multiplican con las siguientes reglas (i
2
= 1):
(x
1
+y
1
i)+(x
2
+y
2
i) = (x
1
+x
2
) + (y
1
+y
2
)i
(x
1
+y
1
i)(x
2
+y
2
i) = (x
1
x
2
y
1
y
2
) + (x
1
y
2
+x
2
y
1
)i
El conjunto de todos los n umeros complejos se denota C. El conjugado de un n umero
complejo z = x +yi es el n umero complejo z = x yi, y el modulo de z es el n umero real
[z[ =

z z =
_
x
2
+y
2
0. Las siguientes propiedades son de comprobacion sencilla:
z +u = z + u zu = z u

z = z [z[ = [ z[
[z[ = 0 z = 0 [zu[ = [z[ [u[ z + z 2[z[ [z +u[ [z[ +[u[
excepto la ultima. Para demostrarla bastara ver que [z +u[
2
([z[ +[u[)
2
:
[z +u[
2
= (z +u)(z +u) = (z +u)( z + u) = [z[
2
+[u[
2
+z u + zu
= [z[
2
+[u[
2
+z u +z u [z[
2
+[u[
2
+ 2[z u[
= [z[
2
+[u[
2
+ 2[z[ [ u[ = [z[
2
+[u[
2
+ 2[z[ [u[ = ([z[ +[u[)
2
.
Si un n umero complejo z = x +yi no es nulo, tenemos que z z = [z[
2
= x
2
+y
2
> 0, as
que el inverso de z existe y es el n umero complejo
z
1
=
z
[z[
2
=
x
x
2
+y
2

y
x
2
+y
2
i .
Exponencial Compleja
Denicion: Para cada n umero real t pondremos e
it
= cos t +i sent, donde el seno y coseno
se consideran en radianes, as que tenemos la formula de Euler (1707-1783)
e
2i
= 1
1.3. PERMUTACIONES 3
y en general e
2ni
= 1 para todo n umero entero n. Ademas estos n umeros complejos son
de modulo [e
it
[
2
= cos
2
t + sen
2
t = 1, y todo n umero complejo de modulo 1 es e
i
para
alg un n umero real . Si z es un n umero complejo de modulo ,= 0, el modulo de z/ es 1,
as que z/ = e
i
y
z = e
i
= (cos +i sen)
para alg un n umero real (bien denido salvo la adicion de un m ultiplo entero de 2) que
llamaremos argumento de z. Cuando z = x +yi; x, y R, tenemos que
cos = x/ , sen = y/ , tan = y/x .
Ejemplos: Si es un n umero real positivo, el argumento de es 0, el de i es /2, el de
es y el de i es 3/2 porque
= e
i0
, i = e
i/2
, = e
i
, i = e
3i/2
.
Por otra parte, las formulas del seno y coseno de una suma expresan que e
it
e
it

= e
i(t+t

)
:
e
it
e
it

= (cos t +i sent)(cos t

+i sent

) =
=
_
(cos t)(cos t

) (sent)(sent

)
_
+i
_
(cos t)(sent

) + (sent)(cos t

)
_
= cos(t +t

) +i sen(t +t

) = e
i(t+t

)
;
y la igualdad (e
i
)(

e
i

) =

e
i(+

)
muestra que el argumento de un producto es la
suma de los argumentos:
arg (z
1
z
2
) = (arg z
1
) + (arg z
2
) .
As, las races n-esimas complejas de un n umero complejo z = e
i
de modulo y argumento
son
n

z =
n

e
i
+2k
n
, k Z.
Por ultimo, si z = x + yi pondremos e
z
= e
x
e
yi
= e
x
(cos y + i seny), de modo que
e
z

+z
= e
z

e
z
para cualesquiera n umeros complejos z

, z.
1.3 Permutaciones
Denicion: Sean X e Y dos conjuntos. Dar una aplicacion f : X Y es asignar a cada
elemento x X un unico elemento f(x) Y , llamado imagen de x por la aplicacion f.
Si g : Y Z es otra aplicacion, la aplicacion g f : X Z, (g f)(x) = g
_
f(x)
_
, es la
composicion de g y f.
La identidad de un conjunto X es la aplicacion Id
X
: X X, Id
X
(x) = x.
Sea f : X Y una aplicacion.
Si A X, pondremos f(A) = f(x): x A y es un subconjunto de Y .
Si B Y , pondremos f
1
(B) = x X: f(x) B y es un subconjunto de X.
Si y Y , puede ocurrir que f
1
(y) no tenga ning un elemento o tenga mas de uno, de
modo que, en general, f
1
no es una aplicacion de Y en X.
Diremos que una aplicacion f : X Y es inyectiva si elementos distintos tienen
imagenes distintas:
x, y X, f(x) = f(y) x = y
(i.e., cuando, para cada y Y se tiene que f
1
(y) tiene un elemento o ninguno) y diremos
que f es epiyectiva si todo elemento de Y es imagen de alg un elemento de X:
y Y y = f(x) para alg un x X ,
es decir, cuando f(X) = Y o, lo que es igual, cuando, para cada y Y se tiene que f
1
(y)
tiene al menos un elemento.
4 CAP

ITULO 1. PRELIMINARES
Ejemplo 1.3.1 Sea una relacion de equivalencia en X. La aplicacion : X X/ ,
(x) = x, que asigna a cada elemento x X su clase de equivalencia [x] respecto de ,
se llama proyeccion canonica, y siempre es epiyectiva porque todo elemento del conjunto
cociente X/ es la clase de equivalencia [x] = (x) de alg un elemento x X.
Denicion: Diremos que una aplicacion f : X Y es biyectiva cuando es inyectiva y
epiyectiva; es decir, cuando cada elemento y Y es imagen de un unico elemento de X, de
modo que f
1
(y) tiene un unico elemento, y en tal caso f
1
: Y X s es una aplicacion,
llamada aplicacion inversa de f porque f
1
f = Id
X
y f f
1
= Id
Y
.
Llamaremos permutaciones de n elementos a las aplicaciones biyectivas
: 1, . . . , n 1, . . . , n .
El conjunto de todas las permutaciones de n elementos se denota S
n
, y esta claro que su
cardinal es n! = n (n 1) . . . 2 1. El producto de permutaciones es la composicion de
aplicaciones, y como son aplicaciones biyectivas, toda permutacion tienen una permutacion
inversa
1
, de modo que
1
(j ) = i cuando (i) = j. Ademas, ()
1
=
1

1
.
Denicion: Si d 2, dados a
1
, . . . , a
d
1, . . . , n distintos, denotaremos (a
1
. . . a
d
) la
permutacion S
n
tal que (a
i
) = a
i+1
, entendiendo que (a
d
) = a
1
, y deja jos los
restantes elementos. Diremos que tal permutacion (a
1
. . . a
d
) es un ciclo de longitud d. Los
ciclos (a
1
a
2
) de longitud 2 se llaman trasposiciones.
Diremos que dos ciclos (a
1
. . . a
d
) y (b
1
. . . b
k
) son disjuntos cuando a
i
,= b
j
para todo
par de ndices i, j; en cuyo caso conmutan: (a
1
. . . a
d
)(b
1
. . . b
k
) = (b
1
. . . b
k
)(a
1
. . . a
d
).
El inverso de un ciclo = (a
1
. . . a
d
) es
1
= (a
d
. . . a
1
).
Toda permutacion descompone claramente en producto de ciclos disjuntos, y tambien
en producto de trasposiciones, porque todo ciclo es producto de trasposiciones:
(a
1
a
2
a
3
. . . a
d
) = (a
1
a
2
)(a
2
a
3
) (a
d1
a
d
) . (1.1)
Signo de una permutacion
Denicion: Consideremos el siguiente polinomio con coecientes enteros:
(x
1
, . . . , x
n
) =

1i<jn
(x
j
x
i
)
Dada una permutacion S
n
, los factores de (x
(1)
, . . . , x
(n)
) =

i<j
(x
(j)
x
(i)
)
coinciden, eventualmente salvo el signo, con los de (x
1
, . . . , x
n
). Luego ambos polinomios
coinciden o dieren en un signo, (x
(1)
, . . . , x
(n)
) = (x
1
, . . . , x
n
), y llamaremos signo
de al n umero entero sgn() = 1 tal que
(x
(1)
, . . . , x
(n)
) = sgn() (x
1
, . . . , x
n
) . (1.2)
Llamaremos pares a las permutaciones de signo 1, e impares a las de signo 1.
Teorema 1.3.2 El signo de cualquier producto de permutaciones es el producto de los signos
de los factores: sgn() = (sgn )(sgn) .
El signo de las trasposiciones es 1, y el signo de los ciclos de longitud d es (1)
d1
.
Demostracion: Sean , S
n
. Aplicando a los ndices de las indeterminadas x
1
, . . . , x
n
en la igualdad 1.2, obtenemos que
(x
()(1)
, . . . , x
()(n)
) = (sgn) (x
(1)
, . . . , x
(n)
)
= (sgn)(sgn) (x
1
, . . . , x
n
) .
Luego sgn() = (sgn )(sgn) = (sgn)(sgn).
Como el signo de la identidad es 1, se sigue que sgn(
1
) = (sgn )
1
.
1.4. MATRICES 5
Por otra parte, un calculo directo demuestra que el signo de la trasposicion (12) es 1.
Si (ij) es otra trasposicion, consideramos una permutacion tal que (1) = i, (2) = j, de
modo que (ij) = (12)
1
, y concluimos que
sgn(ij) = sgn() sgn(12) sgn()
1
= sgn(12) = 1 .
Por ultimo, cuando = (a
1
. . . a
d
) es un ciclo de longitud d, se sigue directamente de 1.1
que sgn() = (1)
d1
, porque todas las trasposiciones tienen signo 1.
1.4 Matrices
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Dada una matriz A = (a
ij
) de m las y n columnas (donde el subndice i indica la la
y el subndice j la columna), su matriz traspuesta es A
t
= (a
ji
), que tiene n las y m
columnas. Si B = (b
jk
) es otra matriz de n las y r columnas, su producto AB es una
matriz mr cuyo coeciente c
ik
de la la i y columna k es
c
ik
=

n
j=1
a
ij
b
jk
= a
i1
b
1k
+a
i2
b
2k
+. . . +a
in
b
nk
.
El, producto de matrices es asociativo, aunque no conmutativo, y (AB)
t
= B
t
A
t
.
La matriz unidad I
n
es la matriz n n con todos sus coecientes nulos, salvo los de la
diagonal, que son la unidad. Si A es una matriz mn, entonces I
m
A = A y AI
n
= A.
Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz
cuadrada B de n columnas tal que AB = I
n
= BA, en cuyo caso tal matriz B es unica y se
pone B = A
1
. Si A y B son matrices invertibles n n, entonces (AB)
1
= B
1
A
1
.
Determinantes
Denicion: El determinante de una matriz cuadrada A = (a
ij
) de n las y columnas es
[A[ =

S
n
(sgn)a
1(1)
. . . a
n(n)
y tiene las siguientes propiedades (que se probaran en el curso de

Algebra Lineal II):
1. [A[ = [A
t
[.
2. Es lineal en cada columna (y por tanto en cada la):
[A
1
, . . . , A
i
+B
i
, . . . , A
n
[ = [A
1
, . . . , A
i
, . . . , A
n
[ +[A
1
, . . . , B
i
, . . . , A
n
[ ,
[A
1
, . . . , A
i
, . . . , A
n
[ = [A
1
, . . . , A
i
, . . . , A
n
[ .
3. [A
(1)
, . . . , A
(n)
[ = (sgn )[A
1
, . . . , A
n
[.
4.

a
1
0 . . . 0
0 a
2
. . . 0
. . . . . . . . . . . .
0 0 . . . a
n

= a
1
. . . a
n
, [I[ = 1.
5. [AB[ = [A[ [B[ , [A
1
[ = [A[
1
.
Luego el determinante es 0 cuando dos columnas (o dos las) son iguales y
[A
1
, . . . , A
i
, . . . , A
n
[ = [A
1
, . . . , A
i
+A
j
, . . . , A
n
[ , i ,= j .
Denicion: El adjunto A
ij
de una matriz A es (1)
i+j
por el determinante de la matriz
que se obtiene eliminando la la i y la columna j de la matriz A.
6 CAP

ITULO 1. PRELIMINARES
El determinante de A puede calcularse desarrollando por cualquier la:
[A[ = a
i1
A
i1
+. . . +a
in
A
in
,
o por cualquier columna:
[A[ = a
1j
A
1j
+. . . +a
nj
A
nj
.
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es
A
1
=
1
[A[
_
_
A
11
. . . A
n1
. . . . . . . . .
A
1n
. . . A
nn
_
_
(Notese que el coeciente de la la i y columna j es el adjunto A
ji
, no A
ij
). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.
Denicion: El rango (por columnas) de una matriz A es el maximo n umero de columnas
de A linealmente independientes, y se denota rg A.
El rango por las de una matriz A es el rango (por columnas) de su traspuesta A
t
.
Los menores de orden r de una matriz A son los determinantes de las matrices formadas
con los coecientes de r las y r columnas de A (obviamente r no ha de superar el n umero
de columnas ni de las de A).
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
Como los menores de A y A
t
son los mismos, el rango por las de cualquier matriz A
coincide con su rango por columnas.
Sistemas de Ecuaciones Lineales
Regla de Cramer (1704-1752): Si A es una matriz cuadrada invertible, el sistema de
ecuaciones lineales AX = B tiene una unica solucion, que es
x
i
=
[A
1
, . . . , B, . . . , A
n
[
[A
1
, . . . , A
i
, . . . , A
n
[
donde A
1
, . . . , A
n
denotan las columnas de la matriz A.
Demostracion: Si A es invertible, la unica solucion de AX = B es X = A
1
B. Ademas, si
x
1
, . . . , x
n
es la solucion del sistema, entonces x
1
A
1
+. . . +x
n
A
n
= B y por tanto:
[A
1
, . . . , B, . . . , A
n
[ =

j
x
j
[A
1
, . . . , A
j
, . . . , A
n
[ = x
i
[A
1
, . . . , A
i
, . . . , A
n
[
porque la matriz (A
1
, . . . , A
j
, . . . , A
n
) tiene dos columnas iguales (las columnas i y j) cuando
i ,= j. Luego x
i
= [A
1
, . . . , B, . . . , A
n
[/[A
1
, . . . , A
i
, . . . , A
n
[ es la unica solucion del sistema.
Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones li-
neales AX = B es compatible si y solo si rgA = rg(A[B) .
Si un sistema de ecuaciones lineales AX = B es compatible y X
0
es una solucion par-
ticular, AX
0
= B, entonces todas las soluciones se obtienen sumandole las soluciones del
sistema homogeneo AY = 0; es decir, las soluciones son X = X
0
+Y , donde AY = 0.
Captulo 2
Espacios Vectoriales
2.1 Espacios Vectoriales y Subespacios Vectoriales
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Denicion: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos
llamaremos vectores) es asignar a cada par de vectores e
1
, e
2
E otro vector e
1
+e
2
E,
y a cada escalar K y cada vector e E, otro vector e E, de modo que:
Axioma 1: e
1
+ (e
2
+e
3
) = (e
1
+e
2
) +e
3
para cualesquiera vectores e
1
, e
2
, e
3
E.
Axioma 2: e
1
+e
2
= e
2
+e
1
para cualesquiera vectores e
1
, e
2
E.
Axioma 3: Existe un vector 0 E tal que e + 0 = e para todo vector e E.
Axioma 4: Para cada vector e E existe un vector e tal que e + (e) = 0.
Axioma 5: (e
1
+e
2
) = e
1
+e
2
para todo K, e
1
, e
2
E.
Axioma 6: (
1
+
2
)e =
1
e +
2
e para todo
1
,
2
K, e E.
Axioma 7: ()e = (e) para todo , K, e E.
Axioma 8: 1 e = e para todo vector e E.
Dados vectores e, v E, pondremos v e = v + (e), y diremos que e es el opuesto
del vector e.
En los espacios vectoriales son validas las reglas usuales del calculo vectorial:
e +v = e +v

v = v

e +v = v e = 0
e +v = 0 v = e
0 e = 0 , 0 = 0
(e) = ()e = (e)
(e v) = e v
e = 0 = 0 o e = 0
Denicion: Un subconjunto V de un espacio vectorial E es un subespacio vectorial de
E cuando la suma de vectores y el producto por escalares de E denan tambien en V una
estructura de K-espacio vectorial; es decir, cuando
1. v
1
+v
2
V , para todo v
1
, v
2
V .
2. v V , para todo K y v V .
3. 0 V .
7
8 CAP

ITULO 2. ESPACIOS VECTORIALES


Ejemplos:
1. En la Geometra eucldea, los segmentos orientados con origen en un punto prejado O
forman un espacio vectorial real.

Este es el ejemplo paradigmatico de espacio vectorial,
que motiva los nombres de los conceptos que iremos introduciendo.
2. K
n
= K
n
. . . K = (
1
, . . . ,
n
):
1
, . . . ,
n
K es un K-espacio vectorial.
Si A es una matriz mn con coecientes en K, las soluciones del sistema de ecuaciones
lineales homogeneo AX = 0 forman un subespacio vectorial de K
n
.
3. Fijados dos n umeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares denen una estructura de K-espacio vectorial en el conjunto
M
mn
(K) de todas las matrices de m las y n columnas con coecientes en K.
4. C es un C-espacio vectorial, y tambien es un R-espacio vectorial y un Q-espacio vec-
torial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque
en cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impone
la existencia del vector nulo. El espacio vectorial que tiene un unico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Si e
1
, . . . , e
n
son vectores de un espacio vectorial E, entonces
Ke
1
+. . . +Ke
n
=
1
e
1
+. . . +
n
e
n
:
1
, . . . ,
n
K
es un subespacio vectorial de E que contiene a los vectores e
1
, . . . , e
n
, y diremos
que es el subespacio vectorial de E generado por e
1
, . . . , e
n
. Tambien se denota
< e
1
, . . . , e
n
>, y si un subespacio vectorial V de E contiene a los vectores e
1
, . . . , e
n
,
entonces Ke
1
+. . . +Ke
n
V .
8. Si V y W son dos subespacios vectoriales de un espacio vectorial E, entonces su
interseccion V W y su suma V + W = v + w: v V y w W tambien son
subespacios vectoriales de E.
9. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal
si existe un subespacio vectorial V de E y alg un punto p E tales que
X = p +V = p +v : v V .
En tal caso diremos que V es la direccion de X, y que X es la subvariedad lineal que
pasa por p con direccion V . Diremos que dos subvariedades lineales p + V y q + W
son paralelas si sus direcciones V y W son incidentes (i.e., V W o W V ).
10. Si E y F son dos K-espacios vectoriales, su producto directo E F es un K-espacio
vectorial cuando la suma y el producto por escalares se denen del siguiente modo:
(e, f) + (e

, f

) = (e +e

, f +f

) , (e, f) = e, f) .
11. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vectorial
E dene una relacion de equivalencia en E (llamada congruencia modulo V ):
e e

(modulo V ) cuando e

e V ; es decir e

e +V .
i) e e para todo vector e E, porque e e = 0 V .
2.2. TEOR

IA DE LA DIMENSI

ON 9
ii) Si e e

, entonces e

e V ; luego e e

= (e

e) V y e

e.
iii) e e

, e

e, e

V ; e

e = (e

) + (e

e) V y e e

.
La clase de equivalencia [p] = p + V de p E es la subvariedad lineal de direccion V
que pasa por p. Por tanto, si una subvariedad lineal X = p + V de direccion V pasa
por un punto q, entonces p q (mod. V ) y por tanto tambien X = q +V .
El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades
lineales de E de direccion V , y las siguientes operaciones denen en el conjunto E/V
una estructura de K-espacio vectorial (compruebense los 8 axiomas) y diremos que es
el espacio vectorial cociente de E por V :
[e
1
] + [e
2
] = [e
1
+e
2
]
[e ] = [e ]
Veamos que estas deniciones no dependen de los vectores elegidos en las clases:
Si [e
1
] = [e

1
] y [e
2
] = [e

2
], entonces e

1
e
1
, e

2
e
2
V ; luego e

1
+e

2
(e
1
+e
2
) V
y por tanto [e
1
+e
2
] = [e

1
+e

2
].
Si [e] = [e

], entonces e

e V ; luego e

e = (e

e) V y por tanto [e] = [e

].
Con esta estructura de espacio vectorial que hemos de denido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):
[e] = 0 e V (2.1)
Nota 2.1.1 Si e Ke
1
+. . . +Ke
n
, entonces e K e
1
+. . . +K e
n
.
En efecto, si e =
1
e
1
+. . . +
n
e
n
, entonces e = [
1
e
1
+. . . +
n
e
n
] =
1
e
1
+. . . +
n
e
n
.
2.2 Teora de la Dimension
Denicion: Diremos que unos vectores e
1
, . . . , e
n
de un espacio vectorial E lo generan, o
que forman un sistema de generadores de E cuando todo vector de E es una combinacion
lineal de e
1
, . . . , e
n
con coecientes en K:
Ke
1
+. . . +Ke
n
= E .
Diremos que e
1
, . . . , e
n
son linealmente dependientes si existen escalares
1
, . . . ,
n
tales que
1
e
1
+. . . +
n
e
n
= 0 y alg un
i
,= 0, de modo que e
i
es combinacion lineal de los
restantes vectores. En caso contrario diremos que son linealmente independientes. Es
decir, e
1
, . . . , e
n
son linealmente independientes cuando la unica combinacion lineal nula es
la que tiene todos los coecientes nulos:

1
, . . . ,
n
K y
1
e
1
+. . . +
n
e
n
= 0
1
= . . . =
n
= 0 .
Diremos que una sucesion de vectores e
1
, . . . , e
n
de un espacio vectorial E es una base
de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada
vector e E se escribe de modo unico como combinacion lineal con coecientes en K
e = x
1
e
1
+. . . +x
n
e
n
,
y diremos que (x
1
, . . . , x
n
) K
n
son las coordenadas del vector e en la base e
1
, . . . , e
n
.
10 CAP

ITULO 2. ESPACIOS VECTORIALES


En efecto, si e = x
1
e
1
+. . . +x
n
e
n
= y
1
e
1
+. . . +y
n
e
n
, entonces
(x
1
y
1
)e
1
+. . . + (x
n
y
n
)e
n
= x
1
e
1
+. . . +x
n
e
n
(y
1
e
1
+. . . +y
n
e
n
) = e e = 0 ;
luego y
i
x
i
= 0 para todo ndice i, porque e
1
, . . . , e
n
son linealmente independientes.
Ejemplos 2.2.1
1. Sea e un vector no nulo. Como e = 0 = 0; tenemos que e es linealmente
independiente, y por tanto dene una base del subespacio vectorial Ke =< e >.
Ademas, si otro vector v no esta en Ke, entonces e, v son linealmente independientes,
de modo que forman una base del subespacio vectorial Ke +Kv =< e, v >.
2. Los vectores e
1
= (1, 0, . . . , 0), e
2
= (0, 1, . . . , 0), . . . , e
n
= (0, . . . , 0, 1) forman una
base de K
n
, llamada base usual de K
n
. Las coordenadas de un vector e = (a
1
, . . . , a
n
)
de K
n
en esta base son precisamente (a
1
, . . . , a
n
), porque e = a
1
e
1
+. . . +a
n
e
n
.
3. Las matrices m n que tienen todos sus coecientes nulos, excepto uno que es la
unidad, denen una base de M
mn
(K), base que esta formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coecientes de la matriz.
Lema Fundamental: Sean e
1
, . . . , e
n
vectores de un K-espacio vectorial E. Si tenemos
que v
1
, . . . , v
r
Ke
1
+ . . . + Ke
n
y r > n, entonces los vectores v
1
, . . . , v
r
son linealmente
dependientes.
Demostracion: Si v
r
= 0 es obvio: 0 v
1
+ 0 v
2
+. . . + 0 v
r1
+ 1 v
r
= 0.
Si v
r
,= 0, procedemos por induccion sobre n. Si n = 1, entonces v
1
, v
r
Ke
1
, as que
v
1
=
1
e
1
, v
r
=
r
e
1
y
r
,= 0 porque v
r
,= 0. Luego v
1
, . . . , v
r
son linealmente dependientes:
0v
1
+. . . +
r
v
1

1
v
r
=
r

1
e
1

r
e
1
= 0 .
Si n > 1, reordenando los vectores e
1
, . . . e
n
si es preciso, tendremos v
r
=

n
i=1

i
e
i
con

n
,= 0. Despejando, obtenemos que e
n
Ke
1
+. . . +Ke
n1
+Kv
r
, y por tanto
v
1
, . . . , v
r1
Ke
1
+. . . +Ke
n
Ke
1
+. . . +Ke
n1
+Kv
r
.
De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kv
r
) tendremos que
v
1
, . . . , v
r1
K e
1
+. . . +K e
n1
+K v
r
= K e
1
+. . . +K e
n1
,
donde r 1 > n 1, y por hipotesis de induccion existen escalares
1
, . . . ,
r1
, alguno no
nulo, tales que
0 =
1
v
1
+. . . +
r1
v
r1
= [
1
v
1
+. . . +
r1
v
r1
] .
Luego

r1
i=1

i
v
i
Kv
r
seg un 2.1, y concluimos que

r1
i=1

i
v
i
=
r
v
r
para alg un
escalar
r
; es decir, los vectores v
1
, . . . , v
r
son linealmente dependientes.
Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual n umero de vectores.
Demostracion: Si e
1
, . . . , e
n
y v
1
, . . . , v
r
son dos bases de un espacio vectorial E, como
los vectores e
1
, . . . , e
n
E = Kv
1
+ . . . + Kv
r
son linealmente independientes, por el lema
fundamental tenemos que n r. Como los vectores v
1
, . . . , v
r
E = Ke
1
+ . . . + Ke
n
son
linealmente independientes, tambien tenemos que r n; luego n = r.
Denicion: Si un espacio vectorial E ,= 0 admite una base, llamaremos dimension de E
al n umero de vectores de cualquier base de E, y lo denotaremos dim
K
E; o sencillamente
2.2. TEOR

IA DE LA DIMENSI

ON 11
dimE cuando no induzca a confusion. Tambien diremos que el espacio vectorial E = 0 tiene
dimension 0 y que su base es el vaco. Diremos que un espacio vectorial E tiene dimension
innita cuando ninguna familia nita de vectores de E sea una base de E.
La dimension de una subvariedad lineal X = p +V es la de su direccion V . Las subvar-
iedades lineales de dimension 1 y 2 se llaman rectas y planos respectivamente.
Ejemplos 2.2.3
1. Seg un los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim
K
(Ke) = 1; y si
ademas v / Ke, entonces dim
K
(Ke +Kv) = 2.
Tambien, dim
K
K
n
= n y dim
K
M
mn
(K) = mn.
2. En particular dim
C
C = 1; aunque dim
R
C = 2, porque 1, i forman una base de
C = R +Ri como R-espacio vectorial.
3. El K-espacio vectorial K[x] = a
0
+ a
1
x + a
2
x
2
+ . . . : a
0
, a
1
. . . K, formado por
todos los polinomios con coecientes en K en una indeterminada x, con la suma y el
producto por escalares usuales, tiene dimension innita. En efecto, en el subespacio
vectorial Kp
1
+ . . . + Kp
r
que generan unos polinomios p
1
, . . . , p
r
no esta x
d
cuando
el exponente d es mayor que el grado de todos los polinomios p
1
, . . . , p
r
.
4. Por dos puntos distintos p y q = p + e pasa una unica recta p + Ke, formada por los
puntos p + te = tq + (1 t)p, donde t K. El punto p +
1
2
e =
p+q
2
recibe el nombre
de punto medio entre p y q.
5. En un triangulo (la gura formada por tres puntos no alineados abc) las igualdades
a +b +c
3
=
a
3
+
2
3
b +c
2
=
b
3
+
2
3
a +c
2
=
c
3
+
2
3
a +b
2
muestran que las tres medianas (rectas que unen un vertice con el punto medio del
lado opuesto) se cortan en el punto g =
a+b+c
3
, llamado baricentro o centro de
gravedad, que divide a cada mediana en la proporcion 2:1.
6. En un cuadrilatero (la gura formada por cuatro puntos ordenados abcd en los que
no hay 3 alineados) las igualdades
a +b +c +d
4
=
a+b
2
+
c+d
2
2
=
a+c
2
+
b+d
2
2
=
b+c
2
+
a+d
2
2
prueban que las bimedianas del cuadrilatero (rectas que unen puntos medios de lados
opuestos) se bisecan mutuamente, y se bisecan con la recta que une los puntos medios
de las diagonales ac y bd.
d
c
b a
7. Consideremos un cuadrilatero abcd y pongamos e = b a, v = c a. La condicion
de que sea un paralelogramo (los lados opuestos son paralelos) es que d c = e y
d b = v para ciertos escalares , ; luego d a = e +v = e +v.
d
c
b a
e
v
e
v
12 CAP

ITULO 2. ESPACIOS VECTORIALES


Como los vectores e, v son linealmente independientes, porque los puntos cab no estan
alineados, se sigue que = = 1, de modo que los lados opuestos son iguales,
d c = b a y d b = c a, y las dos diagonales se bisecan mutuamente:
a +d
2
=
b +c
2
=
a +b +c +d
4
.
Corolario 2.2.4 Todo sistema nito de generadores e
1
, . . . , e
n
de un espacio vectorial
E ,= 0 contiene una base de E, y por tanto n dimE. Si ademas n = dimE, entonces los
vectores e
1
, . . . , e
n
ya forman una base de E.
Demostracion: Para ver que e
1
, . . . , e
n
contiene una base de E procedemos por induccion
sobre n.
Si n = 1, e
1
,= 0 porque Ke
1
= E ,= 0; luego e
1
es ya una base de E = Ke
1
.
Si n > 1, y los vectores e
1
, . . . , e
n
son linealmente independientes, forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relacion

n
i=1

i
e
i
= 0 con alg un
coeciente
i
no nulo. Reordenando los vectores e
1
, . . . , e
n
podemos suponer que
n
,= 0.
Despejando e
n
tenemos que e
n
Ke
1
+. . . +Ke
n1
. Luego E = Ke
1
+. . . +Ke
n1
, y por
hipotesis de induccion e
1
, . . . , e
n1
contiene una base de E.
Por ultimo, si n = dimE, entonces los vectores e
1
, . . . , e
n
ya forman una base de E;
porque una base de E no puede tener menos de n vectores seg un 2.2.2.
Corolario 2.2.5 Sea E un espacio vectorial de dimension nita. Toda familia e
1
, . . . , e
r

de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E,


y por tanto r dimE. Si ademas r = dimE, entonces los vectores e
1
, . . . , e
r
ya forman
una base de E.
Demostracion: A nadimos vectores hasta obtener una familia linealmente independiente
e
1
, . . . , e
r
, v
1
, . . . , v
s
que ya no pueda ampliarse (el proceso termina porque, si n = dimE,
en virtud el lema fundamental en E no puede haber mas de n vectores linealmente independi-
entes). Veamos que e
1
, . . . , e
r
, v
1
, . . . , v
s
generan E. Si e E, entonces e
1
, . . . , e
r
, v
1
, . . . , v
s
, e
son linealmente dependientes:

1
e
1
+. . . +
r
e
r
+
1
v
1
+. . . +
s
v
s
+e = 0
y alg un coeciente no es nulo. Si = 0, entonces e
1
, . . . , e
r
, v
1
, . . . , v
s
son linealmente de-
pendientes, en contra de la construccion de tal familia. Luego ,= 0 y despejando concluimos
que e Ke
1
+. . . +Ke
r
+Kv
1
+. . . +Kv
s
.
Como los vectores e
1
, . . . , e
r
, v
1
, . . . , v
s
generan E, y son linealmente independientes por
construccion, forman una base de E.
Por ultimo, si r = dimE, entonces los vectores e
1
, . . . , e
r
ya forman una base de E;
porque una base de E no puede tener mas de r vectores seg un 2.2.2.
Teorema 2.2.6 Sea V subespacio vectorial de un espacio vectorial de dimension nita E.
1. dimV dimE y solo se da la igualdad cuando V = E.
2. dim(E/V ) = dimE dimV .
2.2. TEOR

IA DE LA DIMENSI

ON 13
Demostracion: Tomemos en V una familia v
1
, . . . , v
r
linealmente independiente que ya no
pueda ampliarse con un vector de V de modo que lo siga siendo (tal familia existe porque,
si n = dimE, en virtud el lema fundamental en E no puede haber mas de n vectores
linealmente independientes). El argumento del corolario 2.2.5 prueba que v
1
, . . . , v
r
forman
una base de V , de modo que r = dimV .
Ahora 2.2.5 permite ampliarla hasta obtener una base v
1
, . . . , v
r
, e
1
, . . . , e
s
de E. Luego
dimV = r r + s = dimE; y si se da la igualdad, entonces s = 0 y v
1
, . . . , v
r
ya es base
de E, de modo que E = Kv
1
+. . . +Kv
r
= V .
En cuanto a la segunda armacion, basta probar que e
1
, . . . , e
s
es una base de E/V .
Como v
1
, . . . , v
r
, e
1
, . . . , e
s
generan E, y en E/V tenemos que v
1
= . . . = v
r
= 0, se sigue que
E/V = K e
1
+. . . +K e
s
. Veamos por ultimo que e
1
, . . . , e
s
son linealmente independientes:
Si 0 =

s
i=1

i
e
i
= [

s
i=1

i
e
i
], entonces

s
i=1

i
e
i
V de acuerdo con 2.1, as que

1
e
1
+. . . +
s
e
e
=
1
v
1
+. . . +
r
v
r
para ciertos escalares
1
, . . . ,
r
. Luego

s
i=1

i
e
i

r
j=1

j
v
j
= 0, y como los vectores
v
1
, . . . , v
r
, e
1
, . . . , e
s
son linealmente independientes, concluimos que
1
= . . . =
s
= 0.
Corolario 2.2.7 Sea e
1
, . . . , e
n
una base de un espacio vectorial E. Si A es la matriz que
tiene por columnas las coordenadas de v
1
, . . . , v
m
E en tal base de E, entonces
dim(Kv
1
+ . . . +Kv
m
) = rg A .
Demostracion: Pongamos r = rg A y d = dim(Kv
1
+ . . . +Kv
m
).
Como v
1
, . . . , v
m
genera Kv
1
+ . . . + Kv
m
, de acuerdo con 2.2.2 contiene una base
v
i1
, . . . , v
i
d
de Kv
1
+ . . . + Kv
m
, as que las columnas i
1
, . . . , i
d
de la matriz A son lineal-
mente independientes y por tanto d r (pues unos vectores son linealmente independientes
precisamente cuando sus coordenadas son linealmente independientes en K
n
).
Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r
vectores v
j
1
, . . . , v
j
r
linealmente independientes en Kv
1
+ . . . + Kv
m
, y de acuerdo con
2.2.5 concluimos que r d .
Nota: Unos vectores v
1
, . . . , v
m
E son linealmente independientes precisamente cuando
sus coordenadas son linealmente independientes en K
n
, as que
v
1
, . . . , v
m
son linealmente independientes rg A = m .
Por otra parte, de acuerdo con 2.2.6.1 tenemos que Kv
1
+ . . . + Kv
m
= E si y solo si
dim(Kv
1
+. . . +Kv
m
) = dimE, as que de 2.2.7 se sigue que
v
1
, . . . , v
m
generan E rg A = dimE .
Ejemplos:
1. Dados n vectores v
1
= (a
11
, . . . , a
n1
), . . . , v
n
= (a
1n
, . . . , a
nn
) en K
n
, la condicion
necesaria y suciente para que formen una base de K
n
es que el determinante de la
matriz A = (a
ij
) no sea nulo.
2. Sean X = p +V , Y = q +W dos subvariedades lineales paralelas de igual dimension.
Como dimV = dimW, y ademas V W o W V , 2.2.6.1 arma que V = W: dos
subvariedades lineales paralelas de igual dimension tienen la misma direccion.
Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones li-
neales AX = B es compatible si y solo si rgA = rg(A[B) .
14 CAP

ITULO 2. ESPACIOS VECTORIALES


Demostracion: Sean A
1
, . . . , A
n
las columnas de A, de modo que el sistema AX = B puede
escribirse x
1
A
1
+ . . . + x
n
A
n
= B, y la condicion de que sea compatible signica que en
K
m
tenemos que B < A
1
, . . . , A
n
>; es decir, que < A
1
, . . . , A
n
>=< A
1
, . . . , A
n
, B >.
Ahora bien, el teorema 2.2.6.1 arma que
< A
1
, . . . , A
n
>=< A
1
, . . . , A
n
, B > dim < A
1
, . . . , A
n
>= dim < A
1
, . . . , A
n
, B >
y, de acuerdo con 2.2.7, esta ultima condicion signica que rg A = rg (A[B) .
2.3 Suma Directa
Denicion: Diremos que la suma V
1
+ . . . + V
r
de unos subespacios vectoriales V
1
, . . . , V
r
de un espacio vectorial E es directa si cada vector e V
1
+. . . +V
r
descompone de modo
unico en la forma e = v
1
+. . . +v
r
, donde v
i
V
i
; es decir, si la aplicacion
s: V
1
. . . V
r
V
1
+. . . +V
r
, s(v
1
, . . . , v
r
) = v
1
+. . . +v
r
,
(que siempre es epiyectiva, por denicion de suma de subespacios vectoriales) tambien es
inyectiva. En tal caso, el subespacio vectorial V
1
+. . . +V
r
se denota V
1
. . . V
r
.
Teorema 2.3.1 La condicion necesaria y suciente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.
Demostracion: Si la suma de V y W es directa y e V W, entonces
0 = 0 + 0 = e + (e) ,
donde 0, e V y 0, e W. La unicidad de la descomposicion del vector 0 en suma de un
vector de V y otro de W implica que e = 0. Luego V W = 0.
Recprocamente, si V W = 0 y un vector e V +W admite dos descomposiciones
e = v +w = v

+w

; v, v

V, w, w

W
entonces v

v = w w

W. Como v

v V , se sigue que v

v V W = 0. Luego
0 = v

v = w w

, y concluimos que v = v

y w = w

. Es decir, tal descomposicion es


unica, as que la suma de V y W es directa.
Denicion: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son
suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de
W en E) cuando E = V W; i.e., cuando cada vector de E descompone, y de modo unico,
en suma de un vector de V y otro de W; es decir, cuando V +W = E y V W = 0.
Ejemplo: Si e
1
, . . . , e
n
es una base de un espacio vectorial E, entonces cada vector e E
descompone de modo unico como combinacion lineal e =
1
e
1
+. . . +
n
e
n
; luego
E = Ke
1
. . . Ke
n
y vemos as que un suplementario de V = Ke
1
. . . Ke
r
en E es el subespacio vectorial
W = Ke
r+1
. . . +Ke
n
.
Por tanto, para hallar un suplementario de un subespacio vectorial V de E basta ampliar
una base v
1
, . . . , v
r
de V hasta obtener una base v
1
, . . . , v
r
, w
1
, . . . , w
s
de E, porque en tal
caso W = Kw
1
+. . . +Kw
s
es un suplementario de V en E.
Captulo 3
Aplicaciones Lineales
3.1 Aplicaciones Lineales
Denicion: Diremos que una aplicacion f : E E

entre dos K-espacios vectoriales es


K-lineal, (o simplemente lineal, si K se sobrentiende) cuando
f(e +v) = f(e) +f(v) para todo e, v E
f( e) = f(e) para todo K, e E
Toda aplicacion lineal f : E E

verica que f(0) = 0, que f(e) = f(e), y tambien


que f(
1
e
1
+. . . +
n
e
n
) =
1
f(e
1
) +. . . +
n
f(e
n
).
En efecto, f(0) = f(0 0) = 0 f(0) = 0, f(e) = f
_
(1)e
_
= (1)f(e) = f(e) y
f(
1
e
1
+. . . +
n
e
n
) = f(
1
e
1
) +. . . +f(
n
e
n
) =
1
f(e
1
) +. . . +
n
f(e
n
).
Proposicion 3.1.1 Si dos aplicaciones f : E E

y h: E

son K-lineales, entonces


su composicion hf : E E

, (hf)(e) = h
_
f(e)
_
, tambien es K-lineal.
Demostracion: Para todo K y todo e, v E tenemos que
(hf)(e +v) = h
_
f(e +v)
_
= h
_
f(e) +f(v)
_
= h(f(e)) +h(f(v)) = (hf)(e) + (hf)(v)
(hf)(e) = h
_
f(e)
_
= h
_
f(e)
_
= h(f(e)) = (hf)(e)
Proposicion 3.1.2 Si f : E E

es una aplicacion lineal, entonces su n ucleo Ker f =


f
1
(0) = e E: f(e) = 0 es un subespacio vectorial de E, y su imagen Imf = f(E) =
f(e): e E es un subespacio vectorial de E

.
Demostracion: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 Ker f
porque f(0) = 0. Ahora, si e
1
, e
2
Ker f, por denicion f(e
1
) = f(e
2
) = 0, as que
f(e
1
+e
2
) = f(e
1
) +f(e
2
) = 0
f(e
1
) = f(e
1
) = 0
Luego e
1
+e
2
Ker f y e
1
Ker f, as que Ker f es un subespacio vectorial de E.
Veamos que Imf es un subespacio vectorial de E

:
Tenemos que 0 Imf porque 0 = f(0). Ahora, si e

1
, e

2
Imf, por denicion existen
vectores e
1
, e
2
E tales que e

1
= f(e
1
) y e

2
= f(e
2
), as que
e

1
+e

2
= f(e
1
) +f(e
2
) = f(e
1
+e
2
) Imf
e

1
= f(e
1
) = f(e
1
) Imf
y concluimos que Imf es un subespacio vectorial de E

.
15
16 CAP

ITULO 3. APLICACIONES LINEALES


Proposicion 3.1.3 Una aplicaci on lineal f : E E

es inyectiva si y solo si Ker f = 0.


Demostracion: Si f es inyectiva y e Ker f, entonces f(e) = 0 = f(0); luego e = 0.
Recprocamente, supongamos que Ker f = 0. Si f(e) = f(v), donde e, v E, entonces
f(v e) = f(v) f(e) = 0; luego v e Ker f = 0 y por tanto e = v; i.e., f es inyectiva.
Ejemplos:
1. Sea V un subespacio vectorial de un espacio vectorial E. La inclusion i : V E,
i(v) = v, es una aplicacion lineal inyectiva y su imagen es Imi = V .
La proyeccion canonica : E E/V , (e) = [e], es una aplicacion lineal epiyectiva y
su n ucleo es Ker = V de acuerdo con 2.1 (v. pagina 9).
2. Cada matriz A M
mn
(K) dene una aplicacion lineal f : K
n
K
m
, f(X) = AX,
cuyo n ucleo Ker f esta formado por todas las soluciones de la ecuacion homogenea
AX = 0. Por otra parte, la condicion B Imf signica que el sistema de m ecuaciones
lineales con n incognitas AX = B es compatible.
3. Cada familia e
1
, . . . , e
n
de vectores de un K-espacio vectorial E dene una aplicacion
f : K
n
E , f(
1
, . . . ,
n
) =
1
e
1
+. . . +
n
e
n
,
que siempre es K-lineal. La imagen de esta aplicacion lineal es Imf = Ke
1
+. . .+Ke
n
,
as que f es epiyectiva cuando e
1
, . . . , e
n
generan E.
Ademas la condicion de que e
1
, . . . , e
n
sean linealmente independientes signica que
Ker f = 0, de modo que en tal caso la aplicacion lineal f es inyectiva. Por tanto,
cuando e
1
, . . . , e
n
forman una base de E, esta aplicacion lineal f es biyectiva.
Matriz de una Aplicacion Lineal
Denicion: Sea f : E E

una aplicacion lineal entre dos espacios vectoriales de dimension


nita. Si jamos una base e
1
, . . . , e
n
de E y una base e

1
, . . . , e

m
de E

, tendremos que
f(e
j
) = a
1j
e

1
+. . . +a
mj
e

m
, 1 j n (3.1)
para ciertos escalares a
ij
K, y diremos que A = (a
ij
) es la matriz de la aplicacion
lineal f en las bases e
1
, . . . , e
n
de E y e

1
, . . . , e

m
de E

. Por denicion, la columna j-esima


de la matriz A esta formada por las coordenadas del vector f(e
j
) en la base e

1
, . . . , e

m
de
E

.
Ahora, para cada vector e = x
1
e
1
+. . . +x
n
e
n
E tendremos que su imagen f(e) es
f(e) =
n

j=1
x
j
f(e
j
) =
n

j=1
m

i=1
x
j
a
ij
e

i
=
m

i=1
_
n

j=1
a
ij
x
j
_
e

i
.
Es decir, si X denota las coordenadas del vector e en la base e
1
, . . . , e
n
, puestas en colum-
na, entonces las coordenadas X

de f(e) en la base e

1
, . . . , e

m
se obtienen multiplicando X
por la matriz A de f en las bases consideradas:
X

= AX (3.2)
Proposicion 3.1.4 Si A es la matriz de una aplicacion lineal f : E E

, entonces
dim(Imf) = rg A
Demostracion: Sea e
1
, . . . , e
n
una base de E. Como f(

i
e
i
) =

i
f(e
i
), la imagen de
f esta generada por los vectores f(e
1
), . . . , f(e
n
):
Imf =< f(e
1
), . . . , f(e
n
) > ,
y tenemos que dim < f(e
1
), . . . , f(e
n
) >= rg A de acuerdo con 2.2.7 y 3.1.
3.2. TEOREMA DE ISOMORF

IA 17
3.2 Teorema de Isomorfa
Denicion: Diremos que una aplicacion K-lineal f : E E

es un isomorsmo cuando
es biyectiva, y en tal caso la aplicacion inversa f
1
: E

E tambien es K-lineal (y por


supuesto biyectiva, as que f
1
tambien es un isomorsmo).
En efecto, si e

, v

, entonces e

= f(e) y v

= f(v), donde e, v E, de modo que


f
1
(e

+v

) = f
1
_
f(e) +f(v)
_
= f
1
_
f(e +v)
_
= e +v = f
1
(e

) +f
1
(v

)
f
1
(e

) = f
1
_
f(e)
_
= f
1
_
f(e)
_
= e = f
1
(e

) .
Diremos que dos K-espacios vectoriales E y E

son isomorfos si existe alg un isomorsmo


K-lineal f : E E

, en cuyo caso pondremos E E

.
Ejemplos:
1. Si una matriz A M
nn
(K) es invertible, la aplicacion que induce f : K
n
K
n
,
f(X) = AX, es un isomorsmo, y el isomorsmo inverso f
1
: K
n
K
n
es precisa-
mente el que dene la matriz inversa A
1
; es decir, f
1
(X) = A
1
X.
2. Si V
1
, . . . , V
n
son subespacios vectoriales de un espacio vectorial E, la aplicacion
s: V
1
. . . V
n
V
1
+. . . +V
n
, s(v
1
, . . . , v
n
) = v
1
+. . . +v
n
,
es lineal y epiyectiva. Ademas esta aplicacion lineal s es inyectiva precisamente cuando
la suma es directa, de modo que en tal caso V
1
. . . V
n
V
1
. . . V
n
.
3. Los isomorsmos transforman vectores linealmente independientes en vectores lineal-
mente independientes, y sistemas de generadores en sistemas de generadores (com-
pruebese); luego bases en bases. Por tanto, si E E

, entonces dimE = dimE

.
4. Si e
1
, . . . , e
n
es una base de un K-espacio vectorial E, entonces la aplicacion lineal
f : K
n
E , f(x
1
, . . . , x
n
) = x
1
e
1
+. . . +x
n
e
n
,
es un isomorsmo. El isomorsmo inverso f
1
: E K
n
asigna a cada vector e E
sus coordenadas (x
1
, . . . , x
n
) en la base e
1
, . . . , e
n
. Por tanto, el teorema 2.2.2 muestra
que todo espacio vectorial de dimension n es isomorfo a K
n
.
Teorema de Isomorfa: Si f : E E

es una aplicacion lineal, entonces la aplicacion


lineal : E/Ker f Imf, ( e) = f(e), es un isomorsmo:
E/Ker f Imf
Demostracion: Veamos primero que es una aplicacion bien denida, que ( e) no depende
del representante elegido, que si e = v, entonces f(e) = f(v). Ahora bien, si e = v, entonces
e v (modulo Ker f); luego v e Ker f, 0 = f(v e) = f(v) f(e) y f(e) = f(v).
Veamos ahora que tal aplicacion es lineal:
( e + v) = ([e +v]) = f(e +v) = f(e) +f(v) = ( e) +( v)
( e) = ([e]) = f(e) = f(e) = ( e) .
es inyectiva: Si 0 = ( e) = f(e), entonces e Ker f, luego e = 0 por 2.1.
es epiyectiva: Si e

Imf, entonces existe e E tal que e

= f(e) = ( e).
18 CAP

ITULO 3. APLICACIONES LINEALES


Corolario 3.2.1 Para toda aplicaci on lineal f : E E

tenemos que
dim(Ker f) + dim(Imf) = dimE
Demostracion: dim(Imf) = dim(E/Ker f)
2.2.6.2
= dimE dim(Ker f) .
Corolario 3.2.2 Si A es la matriz de una aplicacion lineal f : E E

, entonces
dim(Ker f) = (n
o
de columnas) rg A
Demostracion: dim(Ker f)
3.2.1
= dimE dim(Imf)
3.1.4
= dimE rg A.
Corolario 3.2.3 Las soluciones de un sistema homogeneo AX = 0 de m ecuaciones lineales
con n incognitas y coecientes en K forman un subespacio vectorial de K
n
de dimension
n rg A; y las soluciones de un sistema no homogeneo compatible AX = B forman una
subvariedad lineal de K
n
de direccion AX = 0 y dimension n rg A.
Demostracion: Sea V = X K
n
: AX = 0 el conjunto de soluciones del sistema ho-
mogeneo AX = 0. La matriz A M
mn
(K) dene una aplicacion lineal f : K
n
K
m
,
f(X) = AX, y V es precisamente el n ucleo de f. La matriz de f en las bases usuales de
K
n
y K
m
(ver 2.2.1) es A, as que 3.2.2 arma que la dimension de V es n rg A.
Por ultimo, si un sistema AX = B es compatible, las soluciones se obtienen sumando a
una solucion particular X
0
las soluciones de la ecuacion homogenea AX = 0; luego forman
la subvariedad lineal X
0
+V y, por tanto, su dimension tambien es n rg A.
Denicion: Fijada una base de un espacio vectorial de dimension nita E, dar ecuaciones
parametricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores (o mejor una base) de V , y dar ecuaciones implcitas de V es dar un sistema
homogeneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones sean las
coordenadas de los vectores de V .
Dar ecuaciones parametricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores (o mejor una base) de la direccion de
X, y dar ecuaciones implcitas de X es dar un sistema de ecuaciones lineales (mejor si son
independientes) cuyas soluciones sean las coordenadas de los puntos de X.
Ejemplo: Fijada una base (e
1
, e
2
, e
3
, e
4
) de un espacio vectorial E de dimension 4, consi-
deremos la subvariedad lineal X de ecuaciones parametricas
x
1
=
1
+ 4
2
+ 2
x
2
= 2
1
+ 3
2
+ 1
x
3
= 3
1
+ 2
2
+ 1
x
4
= 4
1
+
2
+ 3
_

_
,
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2
1
1
3
_
_
_
_
+
1
_
_
_
_
1
2
3
4
_
_
_
_
+
2
_
_
_
_
4
3
2
1
_
_
_
_
cuya direccion V esta generada por los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dimV = 2. Hallemos primero ecuaciones implcitas de la direccion V .
Las coordenadas de los vectores de V son soluciones de una ecuacion lineal homogenea
u
1
x
1
+u
2
x
2
+u
3
x
3
+u
4
x
4
= 0 cuando
u
1
+ 2u
2
+ 3u
3
+ 4u
4
= 0
4u
1
+ 3u
2
+ 2u
3
+u
4
= 0
_
,
_

_
u
1
= (2/3) (1/3)
u
2
=
u
3
=
u
4
= (1/3) (2/3)
3.3. CAMBIO DE BASE 19
y dando los valores = 3, = 0 y = 0, = 3 obtenemos un sistema de ecuaciones
2x
1
3x
2
+x
4
= 0
x
1
3x
3
+ 2x
4
= 0
_
(3.3)
cuyas soluciones forman un subespacio vectorial de K
4
que contiene a las coordenadas de los
vectores de V . Como ambos subespacios vectoriales tienen dimension 2, coinciden, de modo
que unas ecuaciones implcitas de V vienen dadas por 3.3. Ahora, como la subvariedad lineal
X pasa por el punto de coordenadas (2, 1, 1, 3), unas ecuaciones implcitas de X son
2x
1
3x
2
+x
4
= 4
x
1
3x
3
+ 2x
4
= 5
_
Teorema 3.2.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-
mension nita E, entonces
dim(V +W) = dimV + dimW dim(V W)
Demostracion: Consideremos la aplicacion lineal f : V (V + W)/W, f(v) = [v], que es
epiyectiva, pues para toda clase [v +w] (V +W)/W tenemos que
[v +w] = [v] + [w] = [v] + 0 = f(v) ,
y su n ucleo es Ker f = v V : [v] = 0 = V W. Terminamos por 2.2.6 y 3.2.1:
dimV = dim(V W) + dim(V +W)/W = dim(V W) + dim(V +W) dimW .
Corolario 3.2.5 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-
mension nita E, entonces dim(V W) dimV + dimW dimE .
Demostracion: dim(V +W) dimE .
Corolario 3.2.6 Sean V y W dos subespacios vectoriales de un espacio vectorial de dimen-
sion nita E. Si la suma de V y W es directa, entonces
dim(V W) = dimV + dimW
Demostracion: De acuerdo con 2.3.1 tenemos que V W = 0, as que
dim(V +W) = dimV + dimW dim(V W) = dimV + dimW .
3.3 Cambio de Base
Denicion: Sea e
1
, . . . , e
n
una base de un espacio vectorial E. Si consideramos una nueva
base v
1
, . . . , v
n
de E, tendremos escalares b
ij
K tales que
v
j
= b
1j
e
1
+. . . +b
nj
e
n
, 1 j n (3.4)
y diremos que B = (b
ij
) M
nn
(K) es la matriz de cambio de base.
Las columnas de la matriz de cambio de base B estan formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id: E E cuando en el espacio de salida se considera la nueva base v
1
, . . . , v
n
y en el de
llegada la base antigua e
1
, . . . , e
n
.
Por tanto, de acuerdo con 3.2, si

X son las coordenadas de un vector e E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = B

X.
20 CAP

ITULO 3. APLICACIONES LINEALES


Por otra parte, tambien tenemos una matriz de cambio de base C M
nn
(K) cuando
se considera que v
1
, . . . , v
n
es la base inicial de E y que e
1
, . . . , e
n
es la nueva base, de
modo que

X = CX. Luego X = BCX y

X = CB

X, y como estas igualdades son validas
para cualesquiera columnas X,

X, se concluye que BC = CB = I. Es decir, la matriz B es
invertible, y su inversa es la matriz C. En resumen, la relacion entre las coordenadas X y

X de un mismo vector e E en las bases e


1
, . . . , e
n
y v
1
, . . . , v
n
respectivamente es
X = B

X ,

X = B
1
X (3.5)
Aplicaciones Lineales
Sea f : E E

una aplicacion lineal y sea A M


mn
(K) la matriz de f en ciertas bases
e
1
, . . . , e
n
y e

1
, . . . , e

m
de E y E

respectivamente.
Consideremos nuevas bases v
1
, . . . , v
n
y v

1
, . . . , v

m
de E y E

respectivamente, las
correspondientes matrices de cambio de base B M
nn
(K) y C M
mm
(K), y sea

A M
mn
(K) la matriz de f en estas nuevas bases de E y E

. Vamos a determinar la
nueva matriz

A de f en terminos de la matriz A y las matrices de cambio de base B y C
Sean X y

X las coordenadas de un vector e E en las bases e
1
, . . . , e
n
y v
1
, . . . , v
n
respectivamente, y sean X

e

X

las coordenadas de f(e) E

en las bases e

1
, . . . , e

m
y
v

1
, . . . , v

m
respectivamente. De acuerdo con 3.2 tendremos que
X

= AX ,

X

=

A

X
y de acuerdo con 3.5 tendremos que

X = B
1
X , X

= C

X

; luego
AX = X

= C

X

= C

A

X = C

AB
1
X .
Como esta igualdad es valida para cualquier columna X, concluimos que
A = C

AB
1
,

A = C
1
AB (3.6)
3.4 El Espacio Vectorial Hom
K
(E, E
/
)
Sean E y E

dos K-espacios vectoriales. Si f, h: E E

son dos aplicaciones lineales y


K, entonces tambien son lineales las aplicaciones
f +h: E E

, (f +h)(e) = f(e) +h(e)


f : E E

, (f)(e) = f(e)
Esta suma de aplicaciones lineales y este producto por escalares denen una estructura
de K-espacio vectorial en el conjunto Hom
K
(E, E

) de todas las aplicaciones lineales


1
de E
en E

. (Compruebense los 8 axiomas de espacio vectorial).


El vector nulo de este espacio vectorial es la aplicacion lineal 0: E E

, que transforma
todo vector e E en el vector nulo de E

; y el opuesto de una aplicacion lineal f : E E

es la aplicacion lineal f : E E

, (f)(e) = f(e).
1
Tambien llamadas en algunos libros homomorsmos o morsmos de E en E

.
Captulo 4
Geometra Eucldea
4.1 Producto Escalar
Denicion: Dar un producto escalar en un espacio vectorial real E es asignar a cada par
de vectores e, v E un n umero real, que denotaremos e v (o < e [ v >), de modo que se
veriquen las siguientes condiciones:
1. Bilineal : (e +e

) v = e v +e

v , (e) v = (e v),
e (v +v

) = e v +e v

, e (v) = (e v).
2. Simetrico: e v = v e.
3. Denido-positivo: e e 0 , y solo se da la igualdad cuando e = 0.
Fijado un producto escalar en un espacio vectorial real E, se llama modulo de un vector
e E al n umero real +

e e (que es positivo cuando e ,= 0) y se denota [e[, o |e|.


Notese que |e| =

2
e e = [[ |e|.
La distancia entre dos puntos p, q E es el modulo de su diferencia: d(p, q) = |q p|.
Ejemplos:
1. En la geometra eucldea, los vectores con origen en un punto prejado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus modulos por el coseno del angulo que forman.

Este es el ejemplo
paradigmatico de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en R
n
es
(x
1
, . . . , x
n
) (y
1
, . . . , y
n
) =
n

i=1
x
i
y
i
= x
1
y
1
+. . . +x
n
y
n
.
3. En el espacio vectorial de todas las funciones reales continuas sobre un intervalo dado
[a, b], un producto escalar es
< f [ g > =
_
b
a
f(t)g(t) dt
Lema 4.1.1 Para todo par de vectores e, v E se tiene la desigualdad de Cauchy-Schwarz
[e v[ |e| |v| ; y por tanto la desigualdad triangular: |e +v| |e| +|v| .
21
22 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Demostracion: El polinomio p(t) = (te +v) (te +v) = (e e)t
2
+2(e v)t +v v es de grado
2 (salvo cuando e = 0, caso en que la desigualdad es obvia) y no toma valores negativos,
porque el producto escalar es denido-positivo, as que no puede tener dos races reales
distintas (es decir, su discriminante no puede ser positivo):
4(e v)
2
4(e e)(v v) 0 ;
luego (e v)
2
(e e)(v v), y tomando raz cuadrada vemos que [e v[ |e| |v|.
En cuanto a la desigualdad triangular, como [e v[ |e| |v|, tenemos que
|e +v|
2
= (e +v) (e +v) = e e +v v + 2(e v) e e +v v + 2[e v[
|e|
2
+|v|
2
+ 2|e| |v| = (|e| +|v|)
2
y tomando raz cuadrada se concluye que |e +v| |e| +|v|.
Denicion: Si e, v ,= 0, de acuerdo con el lema anterior, tenemos que 1
ev
ev
1, y
diremos que el coseno del angulo que forman dos vectores no nulos e y v es
cos =
e v
|e| |v|
(de modo que el angulo que forman e y v esta bien denido salvo un signo). El angulo que
forman 3 puntos distintos abc es el angulo que forman los vectores a b y c b. Diremos
que dos vectores e, v E son ortogonales cuando e v = 0; es decir, cuando cos = 0.
Ejemplos:
1. Si en un triangulo abc consideramos los vectores e = b a y v = c a, de modo que
c b = v e, de la igualdad
|v e|
2
= (v e) (v e) = |v|
2
+|e|
2
2(e v)
se sigue tanto el Teorema de Pitagoras (s. VI a. de C.) como su recproco:
a b
c
e
v
v e

e v = 0 |v e|
2
= |e|
2
+|v|
2
= /2 |c a|
2
= |b a|
2
+|c b|
2
2. Si h es el punto de corte de las alturas (rectas que pasan por un vertice y son per-
pendiculares al lado opuesto) trazadas por los vertices c y a, tendremos que
(b a) (h c) = 0 (4.1)
(c b) (h a) = 0 (4.2)
y sumando obtenemos que (c a) (h b) = 0, de modo que la altura trazada por el
tercer vertice b pasa tambien por h: Las tres alturas de un triangulo se cortan en un
punto h, llamado ortocentro.
3. Si f es el punto de corte de las mediatrices (rectas perpendiculares a los lados por
el punto medio) de los lados ab y bc, tendremos que
0 = 2(b a) (f
a+b
2
) = (b a) 2f +a a b b (4.3)
0 = 2(c b) (f
b+c
2
) = (c b) 2f +b b c c (4.4)
y sumando obtenemos que 0 = (c a) 2f +a a c c = 2(c a) (f
a+c
2
), de modo
que la mediatriz del lado ab tambien pasa por f: las tres mediatrices se cortan en un
punto f, llamado circuncentro.
4.2. ESPACIOS VECTORIALES EUCL

IDEOS 23
4. Sumando ahora 4.1 con 4.3, y 4.2 con 4.4, y recordando que el baricentro es g =
a+b+c
3
,
obtenemos tambien que
(b a) (h + 2f 3g) = 0
(c b) (h + 2f 3g) = 0
Como los vectores b a, c b son linealmente independientes, porque los puntos a, b, c
no estan alineados, se sigue que h + 2f 3g = 0; es decir,
g =
h
3
+
2f
3
= h +
2
3
(f h)
de modo que el baricentro esta en el segmento que determinan el ortocentro y el
circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por
estos tres puntos recibe el nombre de recta de Euler (1707-1783).
4.2 Espacios Vectoriales Eucldeos
Denicion: Llamaremos espacio vectorial eucldeo, en honor de Euclides (325?-265? a.
de C.), a todo espacio vectorial real E de dimension nita dotado de un producto escalar, y
diremos que el ortogonal de un subespacio vectorial V de E es:
V

= e E: e v = 0 para todo vector v V .


Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, su
ortogonal es un subespacio vectorial de E de dimension:
dimV

= dimE dimV
Demostracion: Sea v
1
, . . . , v
d
una base de V . El n ucleo de la aplicacion lineal
f : E R
d
, f(e) = (e v
1
, . . . , e v
d
) ,
es Ker f = e E: e v
1
= 0, . . . , e v
d
= 0 = (Rv
1
+ . . . + Rv
d
)

= V

, porque si un
vector e E es ortogonal a ciertos vectores, e v
1
= . . . = e v
d
= 0, entonces tambien es
ortogonal a todas sus combinaciones lineales,
e (
1
v
1
+. . . +
d
v
d
) =
1
(e v
1
) +. . . +
r
(e v
d
) = 0 ,
de modo que e (Rv
1
+. . . +Rv
d
)

. Luego V

es un subespacio vectorial y
dimE
3.2.1
= dim(Ker f) + dim(Imf) = dimV

+ dim(Imf) .
Ademas, la imagen de f es un subespacio vectorial de R
d
, as que
dimE dimV

+ dim(R
d
) = dimV

+d = dimV

+ dimV . (4.5)
Por otra parte, si v V

V , entonces v v = 0; luego v = 0, porque el producto escalar


es denido-positivo, y V

V = 0 . Por tanto
dimV

+ dimV
3.2.4
= dim(V

+V ) dimE (4.6)
y comparando con 4.5 concluimos que dimV

+ dimV = dimE.
Corolario 4.2.2 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, tenemos
que E = V

V y que (V

= V .
24 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Demostracion: Como V

V = 0, la suma de V y V

es directa por 2.3.1 y, de acuerdo con


3.2.6, su dimension es dim(V

V ) = dimV

+ dimV = dimE, as que 2.2.6.1 permite


concluir que V

V = E.
Por otra parte, V (V

por denicion de V

, y de acuerdo con 4.2.2


dim(V

= dimE dim(V

) = dimE (dimE dimV ) = dimV ,


as que de nuevo 2.2.6.1 permite concluir que (V

= V .
Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial eucldeo E:
1. V W W

2. V = W V

= W

3. (V +W)

= V

4. (V W)

= V

+W

Demostracion: Si V W , es claro que W

. Recprocamente, si W

,
entonces (V

(W

; luego V W de acuerdo con 4.2.2.


2. Si V

= W

, entonces (V

= (W

; luego V = W de acuerdo con 4.2.2.


3. Como V V +W y W V +W, tenemos que (V +W)

y (V +W)

;
luego (V +W)

.
Ademas, si e V

, para todo vector v +w V +W tendremos que


e (v +w) = e v +e w = 0 .
Luego V

(V +W)

y concluimos que (V +W)

= V

.
4. De acuerdo con el segundo apartado, para demostrar que (V W)

= V

+ W

basta ver que sus ortogonales coinciden:


_
V

+W

_
3
= (V

(W

4.2.2
= V W
4.2.2
=
_
(V W)

.
Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al nmo de las distancias
de p a los puntos de X:
d(p, X) = inf
xX
d(p, x) .
Existe un unico punto q X tal que p q es ortogonal a la direccion de X. Ademas,
la distancia de p a X se alcanza en tal punto: d(p, q) = d(p, X).
En efecto, si X = x+V , seg un 4.2.2 tendremos p x = v +w donde v V y w V

,
y esta descomposicion es unica. Es decir, q = x + v es el unico punto de X tal que
p q V

. Ademas, para cualquier otro punto x

X, por el teorema de Pitagoras


tendremos d(p, x

)
2
= d(p, q)
2
+ d(q, x

)
2
, as que d(p, q) < d(p, x

) cuando x

,= q.
2. Si V es un subespacio vectorial de un espacio vectorial eucldeo E, de acuerdo con
4.2.2 tenemos que E = V

V . La aplicacion lineal s
V
: E E que es la identidad
en V y transforma cada vector de V

en su opuesto se llama simetra respecto de


V , y la aplicacion lineal p
V
: E V que es la identidad en V y se anula en todos los
vectores de V

se llama proyeccion ortogonal sobre V .


Es decir, cada vector e E descompone de modo unico en suma, e = v + w, de un
vector v V y otro w V

, y por denicion s
V
(e) = v w , p
V
(v +w) = v .
3. Se dice que dos subvariedades lineales X = p +V , Y = q +W de un espacio vectorial
eucldeo E son perpendiculares cuando V y W

son incidentes (i.e., cuando V W

o W

V ), lo que, en virtud de 4.2.3, equivale a que W y V

sean incidentes.
Cuando V W

, tenemos que V W W

W = 0; luego V W = 0.
Cuando W

V , tenemos que E = W

+W V +W; luego V +W = E.
4.3. BASES ORTONORMALES 25
4.3 Bases Ortonormales
Denicion: Diremos que una base e
1
, . . . , e
n
de un espacio vectorial eucldeo E es orto-
normal cuando todos los vectores de la base son de modulo 1 y mutuamente ortogonales:
e
i
e
j
=
_
1 cuando i = j
0 cuando i ,= j
Por denicion, en una base ortonormal el producto escalar de dos vectores e, v E es
e v = (x
1
e
1
+. . . +x
n
e
n
) (y
1
e
1
+. . . +y
n
e
n
) = x
1
y
1
+. . . +x
n
y
n
.
Teorema 4.3.1 Todo espacio vectorial eucldeo E ,= 0 admite bases ortonormales.
Demostracion: Procedemos por induccion sobre n = dimE. Cuando n = 1, tenemos que
E = Rv. Si tomamos e = v/|v|, entonces e e = 1 y e ya es una base ortonormal de E.
Si n > 1, tomamos un vector no nulo v E y ponemos e
n
= v/|v|, de modo que
e
n
e
n
= 1. De acuerdo con 4.2.1, dim(Re
n
)

= n 1, as que por hipotesis de induccion


existe alguna base ortonormal e
1
, . . . , e
n1
de (Re
n
)

. Ahora los vectores e


1
, . . . , e
n
son
de modulo 1 y mutuamente ortogonales, as que basta ver que e
1
, . . . , e
n
forman una base
de E. Como el n umero de vectores coincide con la dimension de E, de acuerdo con 2.2.2 es
suciente probar que e
1
, . . . , e
n
generan E. Ahora bien,
Re
1
+. . . +Re
n1
+Re
n
= (Re
n
)

+Re
n
4.2.2
= E .
26 CAP

ITULO 4. GEOMETR

IA EUCL

IDEA
Captulo 5
Endomorsmos
5.1 Polinomios
En este captulo, de nuevo los escalares seran K = Q, R o C.
Regla de Runi (1765-1822): Sea p(x) un polinomio con coecientes en K. Si K es
una raz de p(x), entonces p(x) es m ultiplo de x :
p(x) = (x )q(x) .
Demostracion: Dividiendo p(x) por x tendremos que p(x) = (x )q(x) +r, y sustitu-
yendo x = en esta igualdad obtenemos que
0 = p() = ( )q() +r = r ,
y concluimos p(x) = (x )q(x).
Denicion: Si K es una raz de un polinomio no nulo p(x) con coecientes en K,
llamaremos multiplicidad de tal raz al mayor n umero natural m tal que (x )
m
divida
a p(x); es decir, p(x) = (x )
m
q(x) donde q(x) ya no admite la raz , de acuerdo con la
Regla de Runi. Las races de multiplicidad 1 se denominan simples.
Consideremos un polinomio p(x) ,= 0 con coecientes en K. Si admite una raz
1
K,
tendremos p(x) = (x
1
)
m
1
q
1
(x), donde el polinomio q
1
(x) tambien tiene coecientes en
K y ya no admite la raz
1
. Ahora, si p(x) admite otra raz
2
K, ha de ser una raz de
q
1
(x), de modo que p(x) = (x
1
)
m1
(x
2
)
m2
q
2
(x). Procediendo de este modo obtenemos
una descomposicion
p(x) = (x
1
)
m
1
(x
2
)
m
2
. . . (x
r
)
m
r
q(x) , (5.1)
donde
1
, . . . ,
r
son todas las races de p(x) en K, los exponentes m
1
, . . . , m
r
son sus
respectivas multiplicidades, y el polinomio q(x) carece de races en K. Esta descomposicion
muestra que el n umero de races en K de un polinomio no nulo p(x), cada una contada con
su multiplicidad, esta acotado por el grado del polinomio, y diremos que p(x) tiene todas sus
races en K cuando se de la igualdad; i.e., cuando en 5.1 el polinomio q(x) sea constante.
Teorema de DAlembert (1717-1783): Todo polinomio no constante con coecientes com-
plejos admite alguna raz compleja.
La demostracion de este teorema fundamental se dara en cursos posteriores. De acuerdo
con este teorema, en el caso de polinomios con coecientes complejos, en la descomposicion
5.1 el factor q(x) ha de ser constante: El n umero de races complejas de un polinomio no
constante, contadas con su multiplicidad, siempre es el grado del polinomio.
27
28 CAP

ITULO 5. ENDOMORFISMOS
5.2 Valores y Vectores Propios
Denicion: Llamaremos endomorsmos de un K-espacio vectorial E a las aplicaciones
K-lineales T : E E. Si S, T : E E son dos endomorsmos, su producto ST es la
composicion S T, que tambien es un endomorsmo de E.
Fijada una base e
1
, . . . , e
n
de E, cada endomorsmo T : E E esta determinado por
su matriz A = (a
ij
) M
nn
(K) en tal base:
T(e
j
) =
n

i=1
a
ij
e
i
, j = 1, . . . , n .
Si se considera una nueva base en E, y B es la matriz del cambio de base, seg un 3.6 la
matriz

A de T en la nueva base es

A = B
1
AB . (5.2)
Denicion: Dado un endomorsmo T de un K-espacio vectorial de dimension nita E,
diremos que un escalar K es un valor propio de T si existe alg un vector no nulo e E
tal que T(e) = e, en cuyo caso diremos que e es un vector propio de T y pondremos
V

= Ker (Id T) = e E: T(e) = e


de modo que V

es un subespacio vectorial de E, y V

,= 0.
Denicion: Sea T un endomorsmo de un espacio vectorial E de dimension nita n. Si A
es la matriz de T en alguna base de E, diremos que el polinomio
c
T
(x) =

x a
11
a
12
. . . a
1n
a
21
x a
22
. . . a
2n
. . . . . . . . . . . .
a
n1
a
n2
. . . x a
nn

= x
n

_
n

i=1
a
ii
_
x
n1
+. . . + (1)
n
[A[
es el polinomio caracterstico de T, pues no depende de la base elegida, sino solo de T.
En efecto, si

A es la matriz de T en otra base de E, entonces

A = B
1
AB y
[xI

A[ = [xB
1
IB B
1
AB[ = [B
1
(xI A)B[ =
= [B
1
[ [xI A[ [B[ = [B[
1
[B[ [xI A[ = [xI A[ .
Teorema 5.2.1 Sea T un endomorsmo de un K-espacio vectorial de dimension nita E.
Los valores propios de T son las races en K de su polinomio caracterstico c
T
(x).
Demostracion: Sea n = dimE. Por denicion, K es un valor propio de T precisamente
cuando 0 ,= Ker (Id T); es decir, si y solo si
0 ,= dim
_
Ker (Id T)
_
3.2.2
= n rg (I A) ;
lo que signica que rg (I A) < n, y ocurre justamente cuando c
T
() = [I A[ = 0.
Corolario 5.2.2 El n umero de valores propios de un endomorsmo T de un espacio vecto-
rial E de dimension n siempre es menor o igual que n.
Demostracion: El grado del polinomio caracterstico c
T
(x) es n = dimE, y el n umero de
races en K de un polinomio siempre esta acotado por el grado del polinomio.
Corolario 5.2.3 Todo endomorsmo de un espacio vectorial complejo de dimension nita
tiene alg un valor propio.
Demostracion: Es consecuencia directa de 5.2.1 y del Teorema de DAlembert.
5.3. DIAGONALIZACI

ON DE ENDOMORFISMOS 29
Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracterstico
c(x) = x
n
+ . . . + c
1
x + c
0
de un endomorsmo T de un K-espacio vectorial de dimen-
sion nita E siempre anula al endomorsmo: c(T) = T
n
+. . . +c
1
T +c
0
Id = 0 .
Demostracion: Si A M
nn
(K) es la matriz de T en una base de E, la matriz del endo-
morsmo c(T) es c(A) = A
n
+. . . +c
1
A+c
0
I = 0, as que el teorema arma que c(A) = 0,
donde c(x) = [xI A[; luego basta probarlo en el caso K = C.
En tal caso procedemos por induccion sobre n = dimE. Si n = 1, entonces A = (a) para
alg un escalar a C. Luego c(x) = x a y c(A) = AaI = 0.
Si n > 1, de acuerdo con 5.2.3, el endomorsmo T tiene alg un valor propio C.
Consideremos un vector propio e
1
E de valor propio , y una base e
1
, . . . , e
n
en E. La
matriz A de T en esta base es de la forma
A =
_
. . .
0

A
_
para cierta matriz cuadrada

A de n 1 columnas. Luego c(x) = (x ) c(x), donde c(x) =
[xI

A[ y, por hipotesis de induccion, c(

A) = 0. Ahora
A
r
=
_

r
. . .
0

A
r
_
c(A) = (AI) c(A) =
_
0 . . .
0 B
__
c() . . .
0 c(

A)
_
=
_
0 . . .
0 B
__
c() . . .
0 0
_
= 0 .
5.3 Diagonalizacion de Endomorsmos
Denicion: Diremos que un endomorsmo T de un K-espacio vectorial de dimension nita
E es diagonalizable si existe alguna base e
1
, . . . , e
d
de E formada por vectores propios de
T; i.e., T(e
j
) =
j
e
j
para ciertos escalares
j
K, lo que signica que la matriz de T en
tal base es diagonal (todos sus coecientes son nulos, salvo quizas los de la diagonal):
D =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . . . . . . . . . . .
0 0 . . .
d
_
_
_
_
De acuerdo con 5.2, un endomorsmo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B
1
AB es una matriz diagonal D. En tal caso A = BDB
1
,
y es sencillo calcular las potencias A
n
(y por tanto, la solucion general X
n
= A
n
X
0
del
sistema de ecuaciones en diferencias nitas X
n+1
= AX
n
), porque
A
n
= (BDB
1
)(BDB
1
) . . . (BDB
1
) = BD
n
B
1
.
Igualmente, la solucion general del sistema de ecuaciones diferenciales X

= AX es X = B

X,
donde

X es la solucion general del sistema

X

= D

X. En efecto:
X

= B

X

= BD

X = BDB
1
X = AX .
Ahora, para resolver el sistema

X

= D

X, basta observar que la solucion general de la
ecuacion diferencial x

i
=
i
x
i
es
x
i
(t) = c e
it
.
30 CAP

ITULO 5. ENDOMORFISMOS
Ejemplos:
1. Para resolver la ecuacion diferencial x

= ax

+ bx, a, b R, planteamos el siguiente


sistema de ecuaciones diferenciales con una nueva funcion incognita y(t):
_
x

= y
y

= ay +bx
,
_
x
y
_

=
_
0 1
b a
__
x
y
_
, A =
_
0 1
b a
_
El polinomio caracterstico del endomorsmo A: R
2
R
2
es
c(u) = [uI A[ =

u 1
b u a

= u
2
au b .
Si el polinomio caracterstico u
2
aub tiene dos races reales y distintas (a
2
+4b > 0)

1
,
2
=
a

a
2
+ 4b
2
estas son los valores propios de tal endomorsmo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogeneos
_

1
1
b
1
a
__
x
1
x
2
_
=
_
0
0
_
,
_

2
1
b
2
a
__
x
1
x
2
_
=
_
0
0
_

1
x
1
x
2
= 0 ,
2
x
1
x
2
= 0
Los vectores propios e
1
= (1,
1
) y e
2
= (1,
2
) forman una base de R
2
,y nos permiten
diagonalizar la matriz A:
D =
_

1
0
0
2
_
= B
1
AB , B =
_
1 1

1

2
_
Ahora resolvemos el sistema de ecuaciones diferenciales

X

= D

X:
_
x
y
_

=
_

1
0
0
2
__
x
y
_
,
_
x

=
1
x
y

=
2
y
,
_
x = c
1
e

1
t
y = c
2
e
2t
y la solucion general del sistema de ecuaciones diferenciales X

= AX es X = B

X:
_
x
y
_
=
_
1 1

1

2
__
c
1
e

1
t
c
2
e
2t
_
x(t) = c
1
e
1t
+c
2
e
2t
c
1
, c
2
R .
2. Si el polinomio caracterstico u
2
au b tiene dos races imaginarias (a
2
+ 4b < 0)
i =
a
2
i

a
2
4b
2
,
hemos de sustituir R por C en el razonamiento anterior y considerar funciones con
valores complejos, de modo que la solucion general de la ecuacion diferencial x

=
ax

+bx es
x(t) = c
1
e
(+i)t
+c
2
e
(i)t
= e
t
_
c
1
e
it
+c
2
e
it
_
, c
1
, c
2
C
En las soluciones reales c
1
y c
2
han de ser conjugados, c
1
= e
i
y c
2
= e
i
, as que
x(t) = e
t
_
e
i(t+)
+e
i(t+)
_
x(t) = c e
t
cos(t +) c, R .
5.3. DIAGONALIZACI

ON DE ENDOMORFISMOS 31
3. Para hallar las sucesiones (x
n
) = (x
0
, x
1
, . . .) tales que x
n+2
= ax
n+1
+bx
n
, planteamos
el siguiente sistema de ecuaciones con una nueva sucesion incognita (y
n
):
_
x
n+1
= y
n
y
n+1
= ay
n
+bx
n
,
_
x
n+1
y
n+1
_
=
_
0 1
b a
__
x
n
y
n
_
, X
n+1
= AX
n
cuya solucion general es X
n
= A
n
X
0
. Cuando a
2
+ 4b ,= 0, la matriz A es diagonaliz-
able, A = BDB
1
, de modo que la solucion general es X
n
= BD
n
B
1
X
0
:
_
x
n
y
n
_
=
_
1 1

1

2
__

n
1
0
0
n
2
__
1 1

1

2
_
1
_
x
0
y
0
_
_
x
n
y
n
_
=
_

n
1

n
2

n+1
1

n+1
2
__
c
1
c
2
_
,
_
c
1
c
2
_
=
_
1 1

1

2
_
1
_
x
0
y
0
_
(5.3)
x
n
= c
1

n
1
+c
2

n
2
4. La sucesion de Fibonacci (1170-1250) es la sucesion 0, 1, 1, 2, 3, 5, 8, 13,... cuyos
terminos iniciales son x
0
= 0, x
1
= 1, y cada termino es la suma de los dos anteriores:
x
n+2
= x
n+1
+x
n
. Como las races del polinomio u
2
u1 son
1
= y
2
=
1
,
donde = (1 +

5)/2 1

618... es la llamada proporcion aurea, el termino general


de la sucesion de Fibonacci es
x
n
= c
1

n
+c
2
()
n
. (5.4)
Las constantes c
1
y c
2
pueden determinarse a partir de los terminos iniciales x
0
= 0,
y
0
= x
1
= 1 mediante la formula 5.3, o bien resolviendo el sistema de ecuaciones
lineales que se obtiene al dar los valores n = 0 y n = 1 en 5.4:
c
1
+c
2
= x
0
= 0
c
1
c
2

1
= x
1
= 1
_
, c
1
=
1
+
1
=
1

5
, c
2
= c
1
.
x
n
=

n
()
n

5
.
Teorema 5.3.1 Si
1
, . . . ,
m
son valores propios de un endomorsmo T, distintos entre
s, entonces la suma de los subespacios vectoriales V
1
, . . . , V
m
es directa, y por tanto
dim(V

1
+. . . +V

m
) = dimV

1
+. . . + dimV

m
.
Demostracion: Seg un la denicion de suma directa, hemos de probar que es inyectiva la
siguiente aplicacion lineal:
s: V

1
. . . V

m
V

1
+. . . +V

m
, s(v
1
, . . . , v
m
) = v
1
+. . . +v
m
.
Procedemos por induccion sobre m, y el enunciado es obvio cuando m = 1.
Si m > 1 y v
1
+. . . +v
m
= 0, donde v
i
V

i
, tendremos que
0 = T(v
1
+. . . +v
m
) =
1
v
1
+. . . +
m
v
m
y restando la igualdad 0 =
m
(v
1
+. . . +v
m
) obtenemos que
0 = (
1

m
)v
1
+. . . + (
m1

m
)v
m1
.
Por hipotesis de induccion, se sigue que (
1

m
)v
1
= . . . = (
m1

m
)v
m1
= 0. Como

i
,=
j
cuando i ,= j, concluimos que v
1
= . . . = v
m1
= 0, y por tanto que tambien
v
m
= v
1
. . . v
m1
= 0.
Por ultimo, dim(V

1
. . . V

m
) = dimV

1
+. . . + dimV

m
de acuerdo con 3.2.6.
32 CAP

ITULO 5. ENDOMORFISMOS
Lema 5.3.2 Sean
1
, . . . ,
r
todos los valores propios de un endomorsmo T de un espacio
vectorial E de dimension nita. T es diagonalizable si y solo si V

1
+. . . +V

r
= E.
Demostracion: Si T es diagonalizable, por denicion V

1
+ . . . + V

r
contiene una base de
E, y como es un subespacio vectorial de E, concluimos que V
1
+. . . +V
r
= E.
Recprocamente, si V
1
+ . . . + V
r
= E, considerando una base en cada sumando V
i
vemos que E admite un sistema de generadores formado por vectores propios de T, y 2.2.2
permite concluir que E admite una base formada por vectores propios de T; es decir, que T
es diagonalizable.
Corolario 5.3.3 Si un endomorsmo T de un K-espacio vectorial E de dimension n tiene
n valores propios distintos (su polinomio caracterstico tiene todas sus races en K y son
simples), entonces T es diagonalizable.
Demostracion: Si
1
, . . . ,
n
son los valores propios de T, tenemos que 1 dimV

i
as que
n dimV

1
+. . . + dimV

n
5.3.1
= dim(V

1
+. . . +V

n
) dimE = n .
Luego dim(V

1
+. . . +V

n
) = n, de modo que V

1
+. . . +V

n
= E y T es diagonalizable
de acuerdo con 5.3.2.
Criterio de Diagonalizacion: Un endomorsmo T de un K-espacio vectorial de dimen-
sion nita E es diagonalizable si y solo si su polinomio caracterstico c
T
(x) tiene todas sus
races en K y la multiplicidad m
i
de cada raz
i
coincide con la dimension de V

i
:
m
i
= dimV

i
.
Demostracion: Si T es diagonalizable, por denicion su matriz en alguna base de E es
D =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . . . . . . . . . . .
0 0 . . .
n
_
_
_
_
as que su polinomio caracterstico c
T
(x) = [xI D[ = (x
1
) . . . (x
n
) claramente tiene
todas sus races en K, y la multiplicidad m
i
de cada raz
i
es el n umero de veces que se
repite
i
en la sucesion
1
, . . . ,
n
, de modo que rg (D
i
I) = n m
i
y
m
i
= n rg (
i
I D)
3.2.2
= dim
_
Ker (
i
Id T)
_
= dimV
i
.
Recprocamente, sean
1
, . . . ,
r
K las races en K de c
T
(x) y m
1
, . . . , m
r
sus respec-
tivas multiplicidades. Si c
T
(x) tiene todas sus races en K, entonces
m
1
+. . . +m
r
= gr c
T
(x) = dimE .
Si ademas m
i
= dimV

i
para todo ndice i = 1, . . . , r, entonces
dim(V

1
+. . . +V

r
)
5.3.1
= dimV

1
+. . . + dimV

r
= m
1
+. . . +m
r
= dimE,
y obtenemos que V
1
+. . . +V
r
= E. Luego T es diagonalizable de seg un 5.3.2.
Nota: Si A es la matriz de T en una base de E, de acuerdo con 3.2.2
dimV

i
= dim
_
Ker (
i
I T)
_
= n rg (
i
I A) .

Indice de Materias
altura, 22
aplicacion, 3
biyectiva, 4
epiyectiva, 3
inversa, 4
inyectiva, 3
lineal, 15
argumento, 3
aurea, proporcion, 31
baricentro, 11
base, 9
, cambio de, 19
ortonormal, 25
biyectiva, aplicacion, 4
cambio de base, 19
canonica, proyeccion, 4
caracterstico, polinomio, 28
ciclo, 4
circuncentro, 22
clase de equivalencia, 1
cociente
, conjunto, 1
, espacio vectorial, 9
complejos, n umeros, 2
composicion, 3
congruencia, 1, 8
conjugado, 2
conjunto cociente, 1
coordenadas, 9
coseno, 22
Cramer, regla de, 6
cuadrilatero, 11
DAlembert, teorema de, 27
dependencia lineal, 9
determinante, 5
diagonalizable, endomorsmo, 29
diagonalizacion, criterio de, 32
dimension, 10
direccion, 8
directa, suma, 14
disjuntos, ciclos, 4
distancia, 21, 24
ecuaciones
implcitas, 18
parametricas, 18
endomorsmo, 28
diagonalizable, 29
epiyectiva, aplicacion, 3
equivalencia
, clase de, 1
, relacion de, 1
escalar, 5, 7
, producto, 21
espacio vectorial, 7
cociente, 9
eucldeo, 23
Euler
, formula de, 2
, recta de, 23
exponencial compleja, 3
generadores, sistema de, 9
Hamilton-Cayley, teorema de, 29
identidad, 3
imagen, 3, 15
imaginaria, parte, 2
impar, permutacion, 4
implcitas, ecuaciones, 18
independencia lineal, 9
inversa
, aplicacion, 4
, matriz, 5
invertible, matriz, 5
inyectiva, aplicacion, 3
isomorfa, teorema de, 17
isomorsmo, 17
lineal
, aplicacion, 15
, dependencia, 9
, independencia, 9
, subvariedad, 8
33
34

INDICE DE MATERIAS
modulo
de un n umero complejo, 2
de un vector, 21
matriz, 5
, determinante de una, 5
, menor de una, 6
, rango de una, 6
invertible, 5
traspuesta, 5
unidad, 5
mediana, 11
mediatriz, 22
medio, punto, 11
menor de una matriz, 6
multiplicidad de una raz, 27
n ucleo, 15
ortocentro, 22
ortogonal
, proyeccion, 24
, subespacio vectorial, 23
ortonormal, base, 25
paralelismo, 8
paralelogramo, 11
parametricas, ecuaciones, 18
permutacion, 4
impar, 4
par, 4
perpendicularidad, 24
Pitagoras, teorema de, 22
plano, 11
polinomio caracterstico, 28
producto
de matrices, 5
de n umeros complejos, 2
escalar, 21
propio
, valor, 28
, vector, 28
proyeccion
canonica, 4
ortogonal, 24
raz simple, 27
rango, 6
, teorema del, 6
real, parte, 2
recta, 11
relacion, 1
de equivalencia, 1
Rouche-Frobenius, teorema de, 6, 13
Runi, regla de, 27
signo de una permutacion, 4
simetra, 24
simple, raz, 27
sistema de generadores, 9
subespacio vectorial, 7
subvariedad lineal, 8
suma
de subespacios vectoriales, 8
directa, 14
suplementario, 14
trasposicion, 4
traspuesta, matriz, 5
triangulo, 11
unidad, matriz, 5
valor propio, 28
vector, 7
propio, 28

You might also like