You are on page 1of 77

Algebra I

1
Miguel Torres Iglesias y Paz Jimenez Seral
curso 20112012 (version septiembre 2011)
1
Asignatura del grado en Fsica de la Universidad de Zaragoza

Indice general
1. Introduccion. Lenguaje, operaciones y propiedades 4
2. Espacio vectorial 19
3. Base y dimension 29
4. Aplicaciones lineales 38
5. Matrices: Rango y equivalencia 54
6. Valores y vectores propios 59
7. Espacio dual 66
1
Prologo. Hasta mediados del siglo XIX la Matematica que hoy llamamos purase
ocupaba especialmente de los calculos y la manipulacion de expresiones simbolicas, refe-
ridas especialmente a n umeros, que en algunos casos no estaban perfectamente denidos.
En esa epoca aparece una nueva vision de la Matematica en donde el centro de la misma
pasa de la realizacion de calculos a la formulacion y comprension de objetos abstractos
y de las relaciones entre los mismos. Se establece el metodo deductivo como principal
herramienta de trabajo, volviendo as a la tradicion de los geometras griegos de la An-
tig uedad. Una vision radical de lo anterior se desprende de la denicion bourbakista: La
Matematica, hoy como en la Grecia antigua, es demostracion. Es claro que esta vision
debe ser ampliada con la toma en consideracion de los modernos y potentes metodos de
computacion.
En niveles educativos anteriores prima claramente el aspecto computacional y de
manipulacion de expresiones sobre el conceptual y deductivo. Hay excepciones, eviden-
temente, como por ejemplo las demostraciones de ciertos teoremas clasicos. Como iremos
viendo a lo largo de esta asignatura no abandonaremos del todo este tipo de habilida-
des que se desarrollaran en los temas que lo requieran, por ejemplo cuando tratemos
el algebra matricial o en el caso de los sistemas de referencia para convertir problemas
geometricos en manipulacion de las ecuaciones de las guras. Diramos que en los casos
en los que se aprecia una cierta concrecion aparecen objetos descritos por n umeros en los
que predomina el metodo del calculo. La gran novedad, y de ah la mayor dicultad de
esta asignatura, estriba en el papel primordial que se da al lenguaje y a las estructuras
abstractas y que no necesariamente se reeran a n umeros, guras, funciones descritas
por formulas, etc. La realidad es que este primer contacto con los objetos abstractos
y el metodo deductivo es una tarea encomendada a esta asignatura de modo explcito
dentro de las distintas tareas y contenidos que conguran el grado de Fsicas.
Podemos establecer, por orden de aparicion, cinco bloques conceptuales en la pro-
gramacion de contenidos.
1 El lenguaje de la Matematica
2 La linealidad
3 La simetra
4 La multilinealidad
5 Repaso de algunos puntos de geometra
1) En primer lugar se hace una introduccion a la Teora de Conjuntos, como principal
lenguaje de la Matematica. Notar que la denicion de conjunto como concepto basico de
esta teora es un tanto imprecisa y subjetiva, como ya ocurra en la denicion original
dada por G. Cantor. Con un poco de practica se consigue un buen manejo de este
lenguaje, que permite expresar con claridad y generalidad ideas tan comunes como la
de par, relacion y funcion (o aplicacion). As una funcion ya no esta necesariamente
dada por una formula: polinomio, serie convergente o expresion cualquiera de otras
funciones, etc. Se consigue extender la idea de funcion como un caso especial de relacion
sin preocuparnos, en principio, de su posible realizacion concreta. Veremos tambien lo
que signica en general una operacion binaria.
2) Aparte de las magnitudes escalares, como la masa o la carga electrica, que se
representan por n umeros reales, existen magnitudes vectoriales representadas por enti-
2
dades mas complejas, a saber los vectores. Los vectores se pueden sumar y multiplicar
por escalares y las magnitudes vectoriales o escalares se pueden relacionar entre s de
modo que muchas veces esta relacion respeta la suma (aditividad) y el producto escalar
(homogeneidad), la conjuncion de estos dos hechos es la linealidad. El ambito abstracto
en el que se desarrollan estas ideas es el de espacio vectorial en donde, en conse-
cuencia, partimos de dos operaciones La conservacion de la linealidad esta dada por la
condicion de aplicacion lineal y sus casos particulares mas importantes: forma lineal
y operador lineal
En geometra representamos los puntos del plano o del espacio por medio de pares
ordenados de n umeros reales o ternas ordenadas respectivamente con lo que las guras
se describen por las ecuaciones que verican sus coordenadas. Esto nos da un potente
metodo de tratar los problemas geometricos haciendo calculos. Es claro que estos calculos
deben interpretarse geometricamente para que el problema se considere resuelto. En
nuestro caso, cuando los espacios vectoriales son de un tipo especial, que recibe el nombre
de espacios nito-dimensionales es posible , y muy util, hacer una traduccion del lenguaje
abstracto de los elementos integrantes de un espacio vectorial, llamados vectores y de
las aplicaciones lineales a un lenguaje mas concreto, a saber los vectores se representan
por ternas en general n- tuplas y las aplicaciones lineales por matrices. Las operaciones
entre vectores y aplicaciones lineales se reejan en las bien conocidas operaciones con
matrices las cuales se pueden describir en terminos de operaciones con n umeros.
3) La simetra es una importante propiedad presente tanto en las guras geometricas
como en la Naturaleza. La abundancia de simetras en una conguracion cualquiera,
abstracta o real se mide por el conjunto de permutaciones que jan la apariencia de dicha
conguracion. Esta transformaciones se pueden componer y el resultado es un ejemplo
de grupo , que en denitiva es un conjunto dotado de una sola operacion (recordar que
en los espacios vectoriales tenamos dos operaciones). Especialmente importantes son los
grupos que describen las permutaciones de los conjuntos nitos y sobre todo los grupos
de matrices regulares.
4) Ademas de las magnitudes escalares representadas por un n umero y de las vec-
toriales representadas por un vector, o si se quiere por una terna de n umeros, existen
magnitudes cuyo comportamiento y representacion natural es mas compleja. Hay mag-
nitudes tensoriales, que conducen al estudio de la multilinealidad. En particular ciertas
aplicaciones sobre varias variables vectoriales que se comportan linealmente en cada una
de dichas variables, esto es lo que llamaremos tensor que del mismo modo que los
vectores y las aplicaciones lineales se representaran por familias de n umeros, llamadas
componentes, sometidas a una determinada ley de transformacion. Dada la complejidad
de estas componentes no es posible representarlas por las o matrices, salvo en los casos
mas sencillos.
5) El contenido de esta parte de la asignatura es obvio.
Como a veces ocurre con los prologos tras su lectura percibimos un tanto confu-
samente su contenido. Se recomienda hacer una segunda lectura tras haber cursado la
asignatura. Es de esperar que entonces se alcance una mejor comprension de las ideas
centrales aqu expuestas. Quedan en el tintero los aspectos metricos del Algebra Lineal
(recordar el producto escalar de los vectores del espacio ordinario); pero estos temas se
trataran en asignaturas mas avanzadas.
3
Captulo 1
Introducci on. Lenguaje,
operaciones y propiedades
En un nivel intuitivo es difcil dar una denicion precisa de conjunto sin incurrir
en redundancias o expresiones circulares. solemos apelar a nuestra percepcion de co-
lecciones, familias, agregados....de objetos
1
, por ello adoptaremos la siguiente
Denicion 1.1. Llamaremos conjunto a cualquier coleccion de objetos perfectamente
determinada.
Denotaremos los conjuntos por letras may usculas: A, B, y los objetos por letras
min usculas a, b, c, , x, y,
Los objetos que constituyen un conjunto de llaman miembros o elementos del
conjunto. Pondremos
x A
para signicar que x es un elemento de A y la negacion de este hecho se escribe as,
x A
El smbolo fue introducido por G. Peano y recuerda a la palabra griega (esta),
as las expresiones anteriores se leeran:
x esta en A, x no esta en A
Insistimos, un conjunto esta perfectamente denido cuando sabemos exactamente
cuales son sus miembros.
Ejemplos 1.2. .
1) El conjunto de todos los enteros positivos pares.
2) El conjunto de todos los enteros positivos menores que 8
3) El conjunto de ciudadanos mayores de edad que forman el censo electoral de
Zaragoza el 1 de enero de 2012
1
Con lo que no nos hallamos muy lejos de la denici on original expresada por G. Cantor: Entendemos
por conjunto cualquier recopilaci on (Zussammenfassung) en todo M de objetos m denidos y separados,
de nuestra intuici on y de nuestro pensamiento.
4
4) El conjunto de distritos electorales del municipio de Zaragoza.
5) El conjunto de los puntos del plano que distan r (n umero real positivo jo) de
un punto O dado del plano (que podemos tomar como origen de coordenadas)
6) En el sistema de coordenadas anterior el conjunto de los puntos de coordenadas
(x, y) tales que x
2
+y
2
= r
7) El conjunto de los n umeros reales x para los que no tiene sentido la expresion
1/senx
Cuando un conjunto es nito (y peque no!) se puede describir usando llaves:, que
abarcan todos los miembros del conjunto, as en el ejemplo 2 el conjunto se puede denir
as
C
2
= 1, 2, 3, 4, 5, 6, 7
El tama no del conjunto descrito en el ejemplo 3 hace incomodo este tipo de descrip-
cion.
A veces puede usarse la doble llave sin mas para cierto tipo de conjuntos innitos,
as el primer ejemplo se pone
C
1
= 2, 4, 6, , 2n,
sin olvidar poner los oportunos puntos suspensivos.
El procedimiento para denir un conjunto es considerar una propiedad caracterstica
de sus miembros; es decir una propiedad que cumplan los elementos de ese conjunto y
solamente dichos elementos. Esquematicamente se escribe
x[P(x)
y se lee: el conjunto de los elementos x que verican la propiedad P(x). La mayora
de las veces los elementos del conjunto que deben vericar esta propiedad pertenecen a
un conjunto A dado de antemano, en cuyo caso precisamos la notacion anterior poniendo
x A[P(x)
Con mucha frecuencia se manejan conjuntos de n umeros como referencia y existe
una notacion aceptada para los mismos. A saber N denota el conjunto de los n umeros
naturales 0, 1, 2, , Z el conjunto d elos n umeros enteros 0, 1, 2, 3, , Q es el de
los n umeros racionales, R el de los reales y C el de los complejos.
As en los ejemplos de mas arriba ponemos
C
1
= x[x = 2y, y > 0, y Z
C
7
= x R[x = k, k Z
Los ejemplos 5) y 7) son dos formas de describir la circunferencia de centro O y radio
r. Si P es el conjunto de puntos del plano se tiene
C
5
= x P[ distancia (x, O) = r O P y 0 < r R jos.
5
Denicion 1.3. Se llama conjunto vaco al conjunto que no tiene elementos. Se re-
presenta con el smbolo

que es una variante de la letra O en los idiomas escandinavos. Podemos denirlo a


partir de cualquier propiedad contradictoria, por ejemplo podramos dar una denicion
de conjunto vaco as
= x[x = x
Sabemos que hay conjuntos con un solo elemento a, que se escribe as a. En este
sentido es importante notar que y son cosas distintas.
Denicion 1.4. Se dice que dos conjuntos son iguales si tienen exactamente los mismos
elementos.
Si A y B son conjuntos iguales, se escribe A = B.
Se dice que A es un subconjunto del conjunto B, o que esta contenido en B, si
todo elemento de A es elemento de B. Se escribe A B. Observar que esta situacion no
excluye la igualdad A = B, en caso de que exista alg un elemento en B que no esta en
A se dice que A esta estrictamente contenido en B y se pone A B.
Observar que A = B es lo mismo que decir A B y B A. Notar tambien que
A para cualquier conjunto A, (esta armacion requiere un poco de atencion a las
deniciones de conjunto vaco y de subconjunto)
Ejemplo Sea A = a, b, c, d entonces a A, a, c A pero a, x no es subcon-
junto de A , con lo que pondremos
a, x A
Un conjunto formado por dos elementos se llama par (no ordenado). Notar que
a, b = b, a
Que signica a, b = a?
Dado un conjunto A cualquiera se denota {(A) al conjunto formado por todos los
subconjuntos de A (conjunto de las partes de A). Seg un esta denicion, si A es el
conjunto del ejemplo anterior se tiene
a, c A a, c {(A)
A {(A)
A = A A {(A)
a A a {(A)
Suponer A y B dos conjuntos, se dene la union de A y B como el conjunto formado
por los elementos que pertenecen a A o a B, dando a la conjuncion copulativa ,o, caracter
no excluyente. La union se denota por A B.
6
Se dene la interseccion como el conjunto formado por los elementos comunes a A
y B. Se denota por A B.
Observar que A B es el menor conjunto que contiene a A y a B y que A B es el
mayor conjunto contenido en A y en B.
Con mucha frecuencia se manejan conjuntos que estan contenidos en un conjunto de
referencia dado al que suele denominarse conjunto universal U. Por ejemplo cuando
estudiamos lugares geometricos el conjunto universal es el conjunto de puntos del plano o
del espacio (seg un estemos estudiando geometra plana o del espacio). En este contexto,
si A es un subconjunto de U, se dene el conjunto complementario de A (en U) como
el conjunto denido por
A

= x U[x A
Las asignaciones a A y B de su unionA B e interseccion A B as como la de-
nicion de A

son ejemplos de lo que mas adelante llamaremos operaciones binarias


en los primeros casos y aplicacion en tercero. Las propiedades principales de estas tres
construcciones se resumen en la siguiente
Proposicion 1.5. Dados A, B y C subconjuntos de U se tiene
(1) (A B) C = A (B C)
(2) (A B) C = A (B C)
(3) A B = B A
(4) A B = B A
(5) (A B) C = (A C) (B C)
(6) (A B) C = (A C) (B C)
(7) (A B)

= A

(8) (A B)

= A

(9) A A

= U
(10) A A

=
(11) (A

= A
(1 y 2) son las leyes asociativas, (3 y 4), las conmutativas (5 y 6), las distributivas
y (7 y 8) se dicen leyes de Morgan.
Las demostraciones son muy sencillas, veamos por ejemplo (5) y (7)
Para probar (5) observar en primer lugar que si x (A B) C entonces o bien
x A B o bien x C
En el primer caso x A y x B, como A A C y B B C se tiene x A C
y x B C, y por tanto x (AC) (B C). En el segundo caso tambien x AC
y x B C y se llega a la misma conclusion. En denitiva
(A B) C (A C) (B C)
7
Sea ahora x (AC) (BC) entonces x AC y x BC. Si x C, entonces
x (A B) C. Si x C se tiene que x A y x B con lo que x A B y de
aqu x (A B) C. En resumen
(A C) (B C) (A B) C
Este tpico doble contenido es precisamente la denicion de igualdad.
Para la prueba de (7) seamos menos tediosos:
x (A B)

x A B x A x A x A

x B


x A

B
2
La denicion de union e interseccion de dos conjuntos puede extenderse a familias
nitas : A
1
, , A
n
de conjuntos y a familias arbitrarias A
i
, i I de conjuntos. Pero
para ello conviene precisar el concepto de familia de conjuntos. Para ello vamos a
suponer que I es un conjunto no vaco cuyos elementos llamaremos ndices y denotaremos
genericamente por la letra i. Si a cada ndice i le asignamos un conjunto A
i
diremos que
hemos denido una familia. Notar que es posible que A
i
= A
j
aunque i = j, incluso
puede ocurrir que todos los A
i
sean iguales. En el caso en que I = 1, 2, , n la familia
se denota as
A
1
, , A
n

Insistiremos en el concepto de familia un poco mas adelante. No es difcil extender


las deniciones de union e interseccion de dos conjuntos a una familia cualquiera, as la
union de la familia A
i
[i I es el conjunto

iI
A
i
= x[(i I)(x A
i
)
3
y la interseccion es

iI
A
i
= x[(i I)(x A
i
)
Valen las propiedades:
(1)

B (

iI
A
i
) =

iI
(B A
i
)
(2)

B (

iI
A
i
) =

iI
(B A
i
)
(5)

B (

iI
A
i
) =

iI
(B A
i
)
(6)

B (

iI
A
i
) =

iI
(B A
i
)
(7)

iI
A
i
)

iI
A

i
(8)

iI
A
i
)

iI
A

i
2
Suponemos familiaridad con los smbolos l ogicos: , . Si no es as leer como abreviatura
de s y solo si y como otra forma de escribir la conjunci on copulativa, y. Los otros conectivos l ogicos
son , (implica) (o no excluyente ) y (no)
3
El smbolo signica , existe al menos un , y se llama cuanticador existencial. signica , para
todo, y es el cuanticador universal.
8
(5)

y (6)

son las leyes distributivas y (7)

y (8)

las leyes de Morgan (generalizadas)


Como meta nal de este captulo nos proponemos dar un sentido preciso y a la vez
muy general, de los conceptos de relacion y funcion. Curiosamente el punto de partida es
el de par ordenado, del cual puede darse una denicion rigurosa, pero nos conformaremos
con apelar a nuestra experiencia. En efecto, cuando en Geometra del plano jabamos
un sistema de coordenadas, representabamos cada punto P del plano por dos n umeros:
abscisa y ordenada; decimos que P tiene coordenadas (x, y). Esto es un par ordenado
(de n umeros reales en este caso). En general se distingue par ordenado (x, y) de par (no
ordenado) x, y en el hecho crucial:
(x, y) = (x

, y

) x = x

, y = y

Por lo tanto (x, y) = (y, x) unicamente cuando x = y, mientras que x, y = y, x


siempre.
Se llama producto cartesiano de dos conjuntos A y B al conjunto formado por
todos los pares ordenados (x, y) con x A, y B. Se escribe AB. En otras palabras:
AB = (x, y)[x A, y B
Si A = B se pone AA = A
2
De modo analogo podemos denir terna ordenada (recordar las coordenadas de
puntos en el espacio!) y, en general, la de n-la ordenada (tambien llamada n-tupla ).
(x
1
, x
2
, , x
n
)
cuyo signicado es el obvio. Comparar esta idea con la de familia nita de conjuntos.
El producto cartesiano de n conjuntos A
1
, , A
n
es
A
1
A
n
= (x
1
, , x
n
)[i(x
i
A
i

(hemos dado notacion y denicion)


Si A
1
= = A
n
= A se pone A A = A
n
La idea de relacion seg un el lenguaje ordinario establece una conexion entre entidades
de la misma o distinta naturaleza. Por ejemplo entre los conjuntos C
3
= ciudadanos de
Zaragoza y C
4
= distritos de Zaragoza, podemos establecer la relacion natural: c C
3
y d C
4
estan relacionados si
c tiene su domicilio en d
O diremos que c y c

miembros de C
3
estan relacionados si c tiene igual o mayor
edad que c

Una relacion distinta entre elementos de C


3
sera decir que c y c

estan relacionados
si c y c

viven en el mismo distrito.


Adelantando un poco los acontecimientos diremos que estas dos relaciones, bastante
naturales por otra parte, son ejemplos de relaciones muy importantes que deniremos
mas adelante.
Tambien entre objetos matematicos se pueden establecer relaciones atendiendo a
criterios denidores, aunque preferimos dar la denicion general siguiente
9
Denicion 1.6. Dados los conjuntos A y B se llama relacion entre A y B (en ese
orden ) a todo subconjunto { del producto cartesiano A B. Si A = B se dice que {
es una relacion en A.
Como { AB los elementos de { son pares (a, b) con a A, b B. Sin embargo
cuando hablamos de relaciones en vez de poner (a, b) { se escribe a{b.
Entre las propiedades que puede tener una relacion { en un conjunto A destacamos:
1) La propiedad reexiva : a{a, a A
2) La propiedad simetrica : a{b = b{a
3) La propiedad antisimetrica : a{b y b{a = a = b
4) La propiedad transitiva : a{b y b{c = a{c
Un ejercicio sencillo es averiguar cual de estas cuatro propiedades se verica o no se
verica el considerar las dos relaciones en C
3
establecidas mas arriba.
Una relacion de equivalencia en un conjunto A es una relacion que es reexiva,
simetrica y transitiva.
Ejemplos 1.7. .
1 Sea F el conjunto de todas las fracciones de n umeros enteros, mas precisamente
F =
x
y
[x, y Z, y = 0
Se dene en F la relaci on { dada por
x
y
{
z
t
xt = zy
y se comprueba que es una relacion de equivalencia, veamos por ejemplo la tran-
sitividad:
x
y
{
z
t
y
z
t
{
u
v
xt = zy y zv = ut = xtv = ztv y zvy = uty = xtv = uty
como t = 0 se concluye xv = uy
x
y
{
u
v
2 Sea F el conjunto de los vectores jos del espacio ordinario de dimension 3. Un
vector jo

PQ puede ser asimilado a un par ordenado de puntos (P, Q) llamados
origen y extremo del vector. Se dice que dos vectores

PQ y

RS son equipolen-
tes si o bien

PQ =

RS o bien la gura PQRS es un paralelogramo. Se prueba
geometricamente que la relacion de equipolencia es una relacion de equivalencia.
3 La relacion de vecindad denida en C
3
es evidentemente una relacion de equi-
valencia.
Cuando en un conjunto A se dene una relaci on de equivalencia { se produce una
clasicacion o reparto de A en subconjuntos, llamados clases de equivalencia, que se
denen as:
10
Si a A su clase de equivalencia respecto de a { es el conjunto
{(a) = b A[b{a
Esta claro que a {(a) con lo que {(a) = cualquiera que sea a. Suponer ahora
que {(a) {(b) = , entonces existe c {(a) {(b) con lo que c{a y c{b y de
ah a{b, esto signica que a {(b) y por consiguiente {(a) {(b). Del mismo modo
probaramos {(b) {(a), con lo que nalmente tenemos {(a) = {(b).
Por ultimo observar que como todo a A pertenece a {(a) se tiene
A =

aA
{(a)
Con ello tenemos repartido el conjunto A en una coleccion de distintos subconjuntos
no vaco, disjuntos dos a dos.
Un tal reparto se llama particion de A. Recprocamente si tenemos una particion
de A se dene una relacion { de modo que a{b precisamente cuando a y b estan en
el mismo subconjunto de la partici on. Pues bien, es inmediato observar que { es una
relacion de equivalencia en A. Por tanto relacion de equivalencia (que es un subconjunto
{ de AA) puede intercambiarse con una particion (que es un subconjunto de {(A)).
El conjunto formado por las clases de equivalencia de A respecto de { se llama v
conjunto cociente de A respecto a { y se denota por A/{. Es decir
A/{ = {(a)[a A {(A)
Cualquier elemento b de una clase de equivalencia {(a) se llama representante de
dicha clase.
En los ejemplos anteriores
1 Dada la fraccion
x
y
la clase de equivalencia {(
x
y
) asociada se llama n umero ra-
cional representado por
x
y
. Estrictamente hablando una fraccion no es un n umero
racional, sino una representacion del mismo, en este sentido si 0 = z Z las
fracciones
x
y
y
xz
yz
no son la misma cosa, tan solo son equivalentes. En la practi-
ca, sin emebargo, hemos llegado a confundir fraccion con el n umero racional que
representa, as escribimos con toda naturalidad para 0 = z Z
x
y
=
xz
yz
porque simplemente pensamos que
x
y
es {(
x
y
).
Estos abusos de lenguaje son necesarios para que el discurso matematico nos ea
excesivamente farragoso o pedante.
Quisieramos mencionar que en la clase de equivalencia que , insistimos, es un
n umero racional es posible siempre detectar un representante canonico, es decir
denible por un criterio preciso. Todo n umero racional puede denirse por su re-
presentante irreducible de denominador positivo:
x
y
m.c.d(x, y) = 1, y > 0
11
2 Se llama vector libre a toda clase de equivalencia de vectores jos. As si

PQ es
un vector jo, su vector libre viene dado por
v =

RS[

RS equiponente con

PQ
Cuando en Geometra Elemental aplicamosun vector libre v a un punto P no
hacemos mas que elegir el vector jo

PQ tal que

PQ v y, en consecuencia,
determinar un nuevo punto Q. A diferencia del ejemplo anterior aqu no hay
criterio para elegir representante can onico en un vector libre. Recordar que en el
espacio ordinario no existe ning un punto distinguido.
Vamos ahora a denir uno de los conceptos m as importantes (quiz as el mas im-
portante!) de la Matematica y que la invade e impregna totalmente, estamos hablando
del concepto de funcion cuya denicion conjuntista requiere echar un vistazo rapido a
como ha evolucionado esta idea desde una denicion descriptiva u operacional hasta la
formulacion abstracta general.
Al principio una funcion era una formula algebraica, trigonometrica, exponencial,
etc, en una o mas variables numericas (reales y a veces complejas), por ejemplo
y = (x + 1)
2
Entonces a cada n umero real a por ejemplo se le suma 1 y el resultado se eleva al
cuadrado dando como resultado un n umero real positivo (a + 1)
2
.
A veces se denen funciones por casos (algo muy tpico en ciertos examenes!) por
ejemplo la funcion
y =

(x + 1)
2
si x 1
2 si x < 1
en ambos casos asignamos a todo n umero real x (variable independiente) un valor y
(variable funci on).
Este concepto de funcion empezo a ser modicado por Fourier con el uso de series
trigonometricas y cristalizo con Dirichlet que considero por primera vez a las funciones
por su comportamiento, en vez del resultado de un proceso de calculos
4
Pasando de n umeros o mejor conjuntos de n umeros a conjuntos cualesquiera, las
ideas de Dirichlet se pueden expresar de la siguiente forma.
Tomar dos conjuntos A y B que podemos llamar respectivamente conjunto de entrada
y conjunto de salida de tal modo que todo elemento a A es sometido a un proceso
que llamaremos f cuyo resultado es un unico elemento en B que denotaremos f(a).
La idea se esquematiza as:
A
entradas: a
f
caja negra
B
salidas: f(a)
1
4
Si una variable y se relaciona con una variable x tal que siempre que se asigna a x un valor numerico,
existe una regla de acuerdo con la cual queda determinado un unico valor de y entonces s edice que y es
una funcion de la variable independiente x.
12
Podemos, para mayor generalidad (y por tanto exibilidad!) prescindir de describir
o preocuparnos de lo que pasa en la caja negra y observar que lo que interesa de una
funcion es el par (a, f(a) AB. Aparece en consecuencia un caso particular d erelacion
entre el conjunto A y el conjunto B. Se propone la siguiente
Denicion 1.8. Dado un conjunto A (llamado dominio y un conjunto B (llamado
rango o codominio se llama funcion de A en B a toda relacion f AB tal que
1) Para todo elemento a A existe b B tal que (a, b) f
2) Si (a, b
1
) y (a, b
2
) pertenecen a f entonces b
1
= b
2
Vemos as como una funcion permite asigna a todo a A un unico b B (en el
espritu de la denicion de Dirichlet!)
Se denota as
f : A B, a f(a)
Notas 1) No hay inconveniente en que los conjuntos A y B coincidan.
2) Los terminos funcion y aplicacion se consideraran sinonimos.
3) f(a) se dice imagen de a y a antiimagen de f(a).
Ejemplos 1.9. 1 Todo conjunto A posee una aplicacion llamada identidad
1
A
: A A, a a
Mas generalmente, si B es un subconjunto de A puede denirse la aplicacion in-
clusion canonica
: B A, b b
Observar que salvo el caso B = A la inclusi on canonica no debe confundirse con
la aplicaci on identidad ya que el dominio y el rango no coinciden.
2 Si { es una relacion de equivalencia en un conjunto A y consideramos el conjunto
cociente A/{, entonces si asignamos a cada a A su clase de equivalencia {(a)
tenemos denida una aplicacion
p : A A/{, a p(a) = {(a)
que se llama proyeccion canonica.
3 Las proyecciones p
A
: AB A y p
B
: AB B asocian respectivamente
, al par ordenado (a, b) de ABsus componentes a A y b B
4 Si en un subconjunto de un conjunto universal | se dene la funcion carac-
terstica de A como la funcion
A
: | 0, 1 dada por
A
(x) = 1 si x A y

A
(x) = 0 si x A.
Denotar por u la funcion caracterstica
U
que toma el valor constante igual a 1,
es un buen ejercicio calcular en funcion de
A
,
B
y u las funciones caractersticas
de A B, A

y A B ( se recomienda hacerlo por este orden).


13
La construccion mas importante que puede hacerse con las funciones esta dada por
la siguiente
Denicion 1.10. Dadas dos aplicaciones f : A B y g : B C de manera que el
codominio de la primera coincide con el dominio de la segunda, se llama composicion
de f y g (en este orden) a la aplicacion
g f : A C a g(f(a))
Hay dos tipos de funciones particularmente interesantes a saber:
1) Un aplicacion f : A B se llama suparayectiva (o sobre) si para todo
elemento b B existe al menos un elemento a A tal que b = f(a). En otras palabras
todo elemento de B tiene antiimagen.
2) Un aplicacion f : A B se llama inyectiva (o mono) si siempre que f(a
1
) =
f(a
2
) se tiene a
1
= a
2
Un buen ejercicio es repasar los ejemplos de aplicaciones que hemos ido dando en
estas lineas y observar si son suprayectivas o inyectivas.
Una aplicacion f : A B que es a la vez suprayectiva e inyectiva se dice biyectiva .
En ese caso todo elemento b B es imagen de un unico elemento a A. En consecuencia
tenemos una aplicacion f
1
: B A dada por f
1
(b) = a tal que f(a) = b. En terminos
de relaciones ponemos
f
1
= (b, a)[(a, b) f B A
Esta aplicacion se llama inversa de f. Se observa inmediatamente que
f
1
f = 1
A
y f f1 = 1
B
Si f : A B es una aplicacion y C A, se llama imagen de C por f al subconjunto
f(C) de B dado por
f(C) = f(a)[a C
f(C) = siempre que C = . En particular el subconjunto f(A) se llama imagen
de f. Es claro que decir que f es suprayectiva es lo mismo que decir f(A) = B
Del mismo modo si D B, se llama antiimagen de D por f (o imagen inversa
de D) al subconjunto f
1
(D) de A dado por
f
1
(D) = a A[f(a) D
Observar que f
1
en este caso no es la aplicacion inversa d ef que no tiene por
que existir. Ahora bien si existe tal aplicacion f
1
(D) es evidentemente la imagen de D
porf
1
. Observar tambien que f
1
(D) = si y solo si D f(A) =
Cuando queremos hallar la suma de dos n umeros enteros a y b efectuamos un cierto
algoritmo que nos produce un resultado al que llamamos a +b. Si tenemos dos vectores
libres v, w y queremos encontrar su suma elegimos un punto del espacio P, aplicamos
v y w en P obteniendo sendos vectores jos
PQ
y
PR
que por la ley del paralelogramo
14
denen un tercer vector jo
PS
. Su clase de equivalencia es el vector libre que se llama
suma: v + w
5
En ambos casos hemos asociado a todo par ordenado (a, b) de n umeros o (v, w) de
vectores un nuevo n umero: a + b o vector v + w. En denitiva hemos establecido dos
aplicaciones
+ : Z Z Z (a, b) a +b
+ : L L L (v, w) v + w
Estos ejemplos nos dan la pista para introducir otro de los conceptos centrales de la
Matematica (en algebra es incluso algo m as que central!) y que como veremos es un
caso particular de aplicacion. ( funcion)
Denicion 1.11. Si A es un conjunto cualquiera se llama operacion (binaria) a toda
aplicacion
: AA A (a, b) (a, b)
En vez de escribir (a, b) se pone (por respeto a la tradicion) a b. En algunas
ocasiones la operacion binaria queda implcita , en el sentido de que el resultado de la
operacion en el par (a, b) se indica con la mera yuxtaposicion de las letras: ab. esta
notacion es muy normal cuando hablamos de productos .
Una operacion binaria puede cumplir o no cumplir una serie de propiedades formales.
Vamos a mencionar unas cuantas que se cumplen precisamente en los dos ejemplos antes
citados
Una operaci on se llama asociativa si
a, b, c (a b) c = a (b c)
de modo que los parentesis indican el orden de realizacion de las operaciones.
Cuando tenemos una operacion asociativa, el valor com un de los dos miembros de
la igualdad de arriba se escribe sin parentesis as: a b c
Conoce alguna operacion binaria no asociativa?
La operacion se llama conmutativa si
a, b a b = b a
Un conocido ejemplo de operacion no conmutativa es el producto de matrices cua-
dradas del mismo orden n (n > 1) Conoce alguno mas?.
Se dice que una operacion binaria posee elemento neutro si existe un elemento e
tal que
a a e = e a = a
Por ejemplo el 0 es el elemento neutro (o nulo) para la operacion suma de enteros:
0 +n = n + 0 = n n Z. El vector nulo

0 es neutro para la suma de vectores libres.
5
Se prueba que v + w no depende del punto P elegido.
15
Si e y e

fueran neutros en una operacion se tendra


e = e

e = e

con lo que el elemento neutro, si existe, es unico.


Notar que la operacion suma en Z
+
(enteros positivos) no posee neutro.
Suponer que es una operacion binaria con elemento neutro e, se dice que a

es
inverso (u opuesto ) de a si
a a

= a

a = e
En una operacion binaria asociativa y con elemento neutro e cuando un elemento
posee inverso, este es unico; en efecto sean a

y a

inversos de a, entonces
a

= a

e = a

(a a

) = (a

a) a

= e a

= a

En Z todo elemento n posee opuesto (inverso para la suma), a saber n. En L todo


vector v posee opuesto: v.
En N el unico elemento que posee opuesto es el 0.
Cuando tenemos un conjunto A dotado de una operacion binaria que es asociativa,
posee elemento neutro y todo elemento posee inverso decimos que la estructura (A, )
formada por el conjunto A y la operaci on es un grupo. Se puede cometer el abuso de
lenguaje de llamar grupo al conjunto A, omitiendo referencia explcita de la operacion
si esta queda bien sobreentendida.
Si ademas la operacion es conmutativa se dice que (A, ) es un grupo abeliano
6
Por ejemplo (Z, +), (Q, +), (R, +), (C, +) y (L, +) son grupos abelianos. Por cierto
es habitual representar con el signo + a la operacion binaria de un grupo abeliano cual-
quiera sin importar el signicado concreto de la misma.

Unicamente nos va a interesar
que esta operacion cumple las cuatro propiedades mencionadas.
Vamos ahora a considerar uno cualquiera de los conjuntos de n umeros Z, R o C en
los cuales sabemos que existen dos operaciones
suma de n umeros a +b
producto de n umeros ab
El producto o multiplicacion de n umeros racionales, reales o complejos tiene las
propiedades asociativa, conmutativa y existe neutro ( el n umero 1). Ademas para todo
tal n umero no nulo, a existe un unico inverso a
1
= 1/a.
Finalmente las operaciones suma y producto se relacionan entre si por medio de la
propiedad distributiva:
(a +b)c = ac +ac +bc
a(b +c) = ab +ac
la idea general que surge de lo anterior est a recogida en la siguiente
6
En honor a N.H. Abel, matem atico noruego del primer tercio del siglo XIX.
16
Denicion 1.12. Llamaremos cuerpo a la estructura algebraica (K, +, .) en donde
K es un conjunto, + y . dos operaciones internas llamadas suma y producto y que
verican las siguientes propiedades o axiomas
1 a, b, c K (a +b) +c = a + (b +c)
2 a, b, K a +b = b +a
3 enK un elemento cero (denotado 0) tal que a + 0 = a a K
4 a KenK un elemento opuesto (denotado a) tal que a + (a) = 0
5 a, b, c K (ab)c = a(bc)
6 a, b, K ab = ba
7 en K un elemento unidad (denotado 1) tal que a1 = a a K y 1 = 0
8 a K, a = 0, enK un elemento inverso (denotado a
1
) tal que aa
1
= 1
9 a, b, c K a(b + c) = ab + ac y (a + b)c = ac + bc (esta ultima igualdad se
deduce de la anterior y de 6)
Observar que con esta nomenclatura Q, R y C son ejemplos de cuerpos si conside-
ramos en ellos las operaciones clasicas de suma y producto. Notar que hemos eludido el
smbolo de la operacion producto poniendo ab en vez de a.b.
Podemos analizar el objeto cuerpo (K, +, .) formado por tres cosas : un conjunto
y dos operaciones, de la siguiente manera:
Los cuatro primeros axiomas nos dicen que (K, +) es un grupo abeliano cuyo neutro
es el =. Si K

denota al conjunto K desprovisto del 0, de los axiomas 5,6, 7 y 8, se


tiene que ab = 0 a, b = 0 y deducimos que (K

, .) tambien es grupo abeliano cuyo


elemento neutro es 1. El axioma 9 liga las dos operaciones entre si dando coherencia a
la terna que forma un cuerpo.
Del axioma 9 se deduce la propiedad
a K a0 = 0a = 0
En efecto a0 = a(0 + 0) = a0 +a0 sumando a los dos terminos primero y tercero el
elemento a0 se deduce 0 = a0 + (a0) = a0 +a0 + (a0) = a0
Si en la denicion de cuerpo suprimimos el axioma 8 se obtiene una estructura mas
general que se llama anillo conmutativo . El ejemplo m as conocido lo constituyen
los enteros con las operaciones cl asicas de suma y producto (Z, +, .), observar que este
anillo conmutativo no es cuerpo ya que los unicos elementos del mismo que admiten
inverso son 1 y 1. otro ejemplo muy importante de anillo conmutativo lo constituyen
los polinomios con coecientes reales dotado con las operaciones conocidas de suma y
producto de polinomios. Es obvio que todo cuerpo es un anillo conmutativo.
Podemos ir un poco mas alla suprimiendo ademas el axioma 6, lo que se obtiene es
una estructura mas general llamada anillo, y no necesariamente conmutativo .
Como veremos en el captulo posterior las matrices de tama no n n con n jo se
suman y multiplican de tal manera que queda denido un anillo.
Usando operaciones binarias hemos denido varias estructuras algebraicas, a saber:
grupo, grupo abeliano, cuerpo, anillo conmutativo, anillo.
17
En esta asignatura se presta especial atencion a la estructura de grupo y a la estruc-
tura de cuerpo. La primera nos guiara por el mundo de la simetra y la segunda nos
servira como herramienta basica para denir en el captulo siguiente que es un espacio
vectorial.
18
Captulo 2
Espacio vectorial
En todo este captulo supondremos que K es un cuerpo cualquiera.
Nuestro punto de partida es la siguiente
Denicion 2.1. Se llama espacio vectorial sobre el cuerpo K a un conjunto V
dotado de una operacion binaria interna que llamaremos suma y denotaremos por + y
una operacion binaria externa
K V V que llamaremos producto por escalares y denotaremos por yuxtaposi-
cion
(, v) v de tal manera que
1 (V, +) es grupo abeliano cuyo elemento neutro denotaremos por 0 o 0
V
y llama-
remos vector nulo
2) (v +w) = v +w K v, w V
3) ( +)v = v +v , K v V
4) ()v = (v) , K v V
5) 1v = v siendo 1 el elemento unidad de K
La estructura de espacio vectorial se puede indicar (V, +, K) para resaltar sus tres
componentes
Los elementos de K se llaman escalares y los denotaremos normalmente por letras
griegas , , , , Los elementos de V se llaman vectores y los denotaremos por
v, w,
Cuando un signo + separa dos vectores, como en los dos miembros del axioma
segundo y en el segundo miembro del axioma tercero, nos estamos reriendo a la suma
de vectores, es decir la operacion binaria interna en V . Cuando el signo + separa dos
escalares, es claro que se reere a la operacion suma de elementos del cuerpo K.
Del mismo modo cabe distinguir la yuxtaposicion de escalar y vectores como la
operacion externa denida en V de la yuxtaposicion de escalares, que es el producto en
la estructura de cuerpo.
Ejemplos 2.2. .
19
1) La nomenclatura adoptada proviene sin duda del ejemplo clasico del algebra
vectorial elemental en donde V es el conjunto de vectores libres del espacio, la
suma de vectores es la denida por la ley del paralelogramo
1
y el conjunto de
escalares es el cuerpo R de los n umeros reales. El producto v de un n umero real
por un vector v es tambien conocido.
2) Con frecuencia se asimila el conjunto V anterior al conjunto
x

i +y

j +z

k[x, y, z R
en donde la suma de vectores es
(x

i +y

j +z

k) + (x

i +y

j +z

k) = (x+

i + (y +y

j + (z +z

k
y el producto por escalares
(x

i +y

j +z

k) = (x

i +y

j +z

k)
.
3) Si K es un cuerpo cualquiera el conjunto K
n
= (x
1
, x
2
, , x
n
)[x
i
K de
las n-tuplas con entradas en K es un espacio vectorial respecto a las operaciones
(x
1
, x
2
, , x
n
) + (y
1
, y
2
, , y
n
) = (x
1
+y
1
, x
2
+y
2
. , x
n
+y
n
)
(x
1
, x
2
, , x
n
) = (x
1
, x
2
, , x
n
)
4) Si C es un conjunto y K un cuerpo, en el conjunto K
C
de todas las aplicaciones
de C en K se denen las operaciones f +g y f as
(f +g)(c) = f(c) +g(c) c C
(f)(c) = f(c) c C
y, entonces K
C
pasa a ser un espacio vectorial sobre K. En particular si K =
C = R se tiene que el conjunto R
R
de todas las aplicaciones de R en s mismo es
un espacio vectorial sobre R
5) Si ((R, R) denota el conjunto de todas las aplicaciones continuas f : R R,
entonces si f, g ((R, R) y R, se tiene f + g y f ((R, R). Y se tiene
que ((R, R) es un espacio vectorial sobre R.
6) Con las mismas operaciones que en el ejemplo anterior se tiene que (

(R, R);
el conjunto de todas las aplicaciones innitamente derivables de R en R es un
espacio vectorial.
1
Ya conocida por Galileo.
20
7) Si K[X] denota el conjunto de todos los polinomios a
o
+a
1
X + +a
n
X
n
con
coecientes en un cuerpo K, entonces K[X] pasa a ser un espacio vectorial respecto
a las operaciones suma de polinomios y producto de polinomios por escalares.
K[X] se puede identicar con el conjunto de las sucesiones f : N K tales que
f(i) = 0 para i sucientemente grande. Esto es en denitiva un subconjunto de
K
N
. As la suma y producto por un escalar son las denidas en K
N
.
Si V es un espacio vectorial sobre el cuerpo de los n umeros complejos: (V, +, C),
podemos seguir considerando la suma de vectores y restringir la operacion binaria externa
CV V a los pares (, v) con R , v V . Se tiene as una aplicacion restringida
R V V . Se comprueba inmediatamente que la nueva estructura : (V, +, R) es un
espacio vectorial sobre el cuerpo de los reales que recibe el nombre de restriccion del
espacio vectorial complejo inicial. Esta vision de V se suele expresar poniendo V
R
en
vez deV .
Consecuencias de la denicion .
1 Sean K y v V , entonces v = 0 si y solo si = 0 o v = 0
2 ()v = (v) = v K v V
3 Como (V, +) es un grupo abeliano tiene sentido la expresion v
1
+ +v
n
inde-
pendientemente del orden de realizacion de las sumas (parentesis) y del orden de
aparicion de los sumandos. Esta suma se escribe
n

i=1
v
i
4 Mas generalmente si v
1
, , v
n
V y
1
, ,
n
K tiene sentido escribir

1
v
1
+ +
n
v
n
=
n

i=1

i
v
i
Comprobamos por ejemplo la primera armacion
0 + 0v = 0v = (0 + 0)v = 0v + 0v
sumando a los dos terminos extremos 0v se tiene
0 = 0v
La prueba de que 0 = 0 es analoga. Finalmente suponer K y v V tales que
v = 0. Caben dos posibilidades,
i) = 0 (y ya esta)
ii) = 0. En este caso como K es un cuerpo existe
1
inverso de lo que permite
poner
0 =
1
0 =
1
(v) = (
1
)v = 1v = v
De entre todos los subconjuntos de un espacio vectorial distinguiremos aquellos que
heredanla estructura de V , para ser mas precisos enunciaremos la siguiente
21
Denicion 2.3. Sea V un espacio vectorial, se llama subespacio a todo subconjunto
S de V tal que verica
1) v, w S = v +w S
2) v S, K = v S y
3) S dotado de las operaciones suma y producto por escalares de V restringidas a S
es un espacio vectorial.
Observar que S como espacio vectorial que es no puede ser vaco ya que su suma
tiene un elemento neutro 0
S
, ahora bien
0
V
+ 0
S
= 0
S
= 0
S
+ 0
S
y sumando 0
S
por la izquierda, se concluye 0
S
= 0
V
= 0. Por tanto 0 S para todo
subespacio de V . Observar que tanto el conjunto de un elemento 0 como el conjunto
total V son ejemplos de subespacios. Estos ejemplos se pueden considerar triviales.
Proposicion 2.4. Sea S = un subconjunto de V , entonces son equivalentes:
1.- S es subespacio de V .
2.- v +w S, v, w S , K.
3.- v +w S y v S v, w S K.
DEMostracion 1) = 2) y 2) = 3) son inmediatas. Suponer que se verica 3).
Como S = existe al menos un elemento v S con lo que por hipotesis 0v = 0 S. La
operacion + restringida a S S es una operacion binaria interna, y para cada v S,
se tiene que v = (1)v S por hipotesis. (S, +) pasa a ser un grupo abeliano con el
mismo elemento cero que V . El resto de los axiomas de espacio vectorial son evidentes.
La propiedades 2) se puede ampliar en el siguiente sentido: Si tenemos un subespacio
S de V , entonces siempre que v
1
, , v
n
S y
1
, ,
n
K se tiene
1
v
1
+ +

n
v
n
S
Esta ultima expresion se llama combinacion lineal de los vectores v
i
con coe-
cientes
i
. Podemos decir que un subesapacio es precisamente un subconjunto no vaco
cerradopara la construccion de combinaciones lineales de sus miembros.
Ejemplos 2.5. .
1) En K
n
el conjunto de las n-tuplas que son solucion de un sistema homogeneo

i=1
a
i
k
x
i
= 0
k = 1, , m
a
i
k
elementos jos de K es un subespacio. La realidad es que todo subespacio de
K
n
puede describirse as (ver captulo 7).
2) (

(R, R) es un subespacio de ((R, R) y este de R


R
3) K[X] se ha identicado como un subespacio de K
N
22
4) Si v V es un vector cualquiera, el subconjunto K < v >= v[ K es un
subespacio de V llamado subespacio monogeno generado por v
Las construcciones de interseccion y union de subconjuntos de un universal U tienen
su contrapartida en los subespacios de un espacio vectorial.
Es decisiva para lo que sigue la siguiente
Proposicion 2.6. Sea ( una coleccion no vaca de subespacios de un espacio vectorial
V , entonces el subconjunto interseccion
( = v S[S (
es un subespacio.
Demostracion. Utilizaremos el criterio 2) de la proposicion anterior. Como 0 S
para todo subespacio S de V , concluimos que 0 (, con lo que el subconjunto es no
vaco. Suponer ahora que , K y v, w (, entonces v, w S S (. Como S
es subespacio v +w S. En denitiva v +w (
Como de costumbre si ( = S
1
, , S
n
denotaremos por S
1
S
n
al subespacio
interseccion. Es claro que este es el mayor subespacio de V que esta contenido en todos
los subespacios S
i
.
Consideremos ahora S
1
, , S
n
desde otro punto de vista. Observar que S
i
V
para todo i, en consecuencia la coleccion
T = T[Tsubespacio deV y T S
i
i = 1, , n
es no vaca, con lo que dene, seg un la proposicion anterior un T. Se tiene
Proposicion 2.7. Si S
1
, , S
n
y T son como antes, se tiene que T coincide con
el conjunto S de todos los vectores de V espresables de la forma
v
1
+ +v
n
con v
i
S
i
i = 1, , n
Demostracion. Observar que S es un subespacio de V . Como todo v
i
S
i
se puede
poner como suma
0 + +v
i
+ + 0
y 0 S
j
para todo j = i, deducimos que S
i
S para todo i con lo que S T y por
tanto
T S
Por otro lado si T T todo sumando v
i
que aparece en la expresi on de un elemento
de S esta en T. Como T es subespacio v
1
+ + v
n
T. Al ser T cualquiera en T,
deducimos que v
1
+ +v
n
T. O sea
S T
23
En consecuencia
S = v
1
+ +v
n
[v
i
S
i

es el menor subespacio que contiene a todos los S


i
. Este subespacio recibe el nombre de
suma de los subespacios S
1
, , S
n
y se escribe S
1
+ +S
n
En teora de conjuntos, al jar un universal U, se podan denir en el conjunto {(U)
dos operaciones binarias internas: interseccion de dos subconjuntos A B y union de
dos subconjuntos A B. Se nalabamos asimismo, el comportamiento de U y de como
elementos maximo y mnimo en {(U) respecto a la relacion de orden ???
Cuando consideramos el conjunto o formado por todos los subespacios de V podemos
asociar a cada par de subespacios S, T o la interseccion ST y la suma S+T. Hemos
observado tambien que V y 0 se comportan como elementos maximo y mnimo respecto
al contenido. No es difcil comprobar que algunas propiedades de la interseccion y union
en teora de conjuntos se pueden traducir y son validas pasando a interseccion-suma de
subespacios. Usar para ello este peque no diccionario.
Subconjuntos Subespacios

+
U V
0
Ahora bien no son ciertas las propiedades distributivas en el caso de subespacios,
unicamente podemos asegurar que si R, S y T son subespacios de un espacio vectorial V
cualquiera, se tiene
i) (R +S) T (R T) + (S T)
ii) (R S) +T (R +T) (S +T)
sin que valga en general la igualdad. En efecto, considerar K un cuerpo cualquiera
V = K
2
y los subconjuntos de V siguientes
R = (x, 0)[x K
S = 0, y)[y K
T = (z, z)[z K
que, en efecto son subespacios de V . Entonces se tiene
(R +S) T = V T = T
(R T) + (S T) = 0 +0 = 0
unicamente podemos asegurar la validez de un caso particular de distributiva, a saber
24
Proposicion 2.8. Ley modular Si R, S y T son subespacios de un espacio vectorial
V de modo que S T, entonces
(R +S) T = (R T) +S
El contenido (R + S) T (R T) + S es obvio. Sea t (R + S) T, entonces
t = r +s con r R y s S, con lo que r = t s R T y por tanto podemos escribir
t = r +s (R T) +S
Finalizamos este captulo introduciendo un caso particular importante de suma de
subespacios a partir de la siguiente
Proposicion 2.9. Dados S
1
, S
2
, , S
n
subespacios de V , entonces son equivalentes
i) Todo elemento en S
1
+ + S
n
se puede escribir de modo unico en la forma
v
1
+ +v
n
con v
i
S
i
.
ii) Si v
1
+ +v
n
= 0 con v
i
S
i
, entonces v
i
= 0 para todo i.
iii) S
i
(S
1
+ +S
i1
) = 0 para todo 2 i n.
iv) S
i
(S
1
+ +

S
i
+ S
n
) = 0 para todo i.
2
Demostracion. i) = ii) Si v
1
+ +v
n
= 0 con v
i
S
i
podemos escribir
v
1
+ +v
n
= 0 = 0 + + 0
con v
i
, 0 S
i
por la unicidad de la expresion de 0 concluimos que v
i
= 0 para todo i.
ii) = iv) Suponer que v
i
S
i
(S
1
+ +

S
i
+ S
n
), entonces por denici on de
suma tenemos
v
i
= v
1
+ +v
i1
+v
i+1
+ +v
n
v
j
S
j
con lo que
v
1
+ +v
i1
+ (v
i
) +v
i+1
+ +v
n
= 0
Como suponemos que ii) es cierta concluimos en particular que v
i
= 0
iv) = iii) Obvio ya que
S
1
+ +S
i1
S
1
+ +

S
i
+ S
n
iii) = i) Suponer que un elemento de S
1
+ + S
n
se escribe de dos maneras
distintas as:
v
1
+ +v
n
= w
1
+ +w
n
v
i
, w
i
S
i
Coger el i mayor posible para el que v
i
= w
i
. Por lo pronto si i = 1 tendramos
v
2
= w
2
, v
3
= w
3
, , v
n
= w
n
con lo que cancelando, v
1
= w
1
lo que es contradictorio.
2
El circunejo dentro de la suma debe interpretarse como si el subespacio S
i
no aparece, es decir
como si hicieramos un salto del ndice i 1 al ndice i + 1.
25
Podemos suponer
v
1
+ +v
i1
+v
i
= w
1
+ +w
i1
+w
i
con i 2 y v
i
= w
i
. Se puede poner
v
i
w
i
= (w
1
v
1
) + + (w
i1
v
i1
) S
i
(S
1
+ +S
i1
) = 0
con lo que v
i
w
i
= 0 y v
i
= w
i
. De nuevo llegamos a una contradiccion. No existen
pues dos formas distintas de expresar un vector en la suma S
1
+ +S
n
.
Denicion 2.10. Si se verica una cualquiera de las cuatro propiedades de la propo-
sicion anterior (y por tanto las otras tres) se dice que los subespacios S
1
, , S
n
estan
en suma directa .
Cuando se da esta disposicion especial de los subespacios se indica en vez de la suma
S
1
+ +S
n
,
S
1
S
n
Notar que si S
1
S
n
, entonces S
i
S
j
= 0 para todo par de ndices i, = j; pero
el recproco no es cierto, en efecto si R, S y T son los subespacios del ejemplo previo a
la ley modular se tiene que
R S = R T = S T = 0
pero (R+S) T = T = 0 con lo que no tiene sentido la expresion RS T; sin
embargo si podemos poner K
2
= R S = R T = S T
Si un espacio vectorial V se puede expresar como suma directa V = S T de dos
subespacios, se dice que S y T son subespacios complementarios

Llamaremos variedad afn o subespacio trasladado de un espacio vectorial V


a todo subconjunto de V de la forma
v +S = v +x[x S
con v V y S un subespacio de V . Por razones que enseguida resultaran claras
vamos a considerar al subconjunto vaco como una variedad afn de V (no es subespacio
de V ).
No es difcil observar que si v S, entonces v +S = S con lo que un subespacio es
un caso particular de variedad afn. Pero si v S, ning un vector de v + S pertenece a
S.
26
Observacion Si A
1
= v
1
+ S
1
y A
2
= v
2
+ S
2
son dos variedades anes no vacas,
entonces
A
1
= A
2
S
1
= S
2
y v
1
v
2
S
1
Demostracion.
=) Se tiene que v
1
, v
2
A
2
luego v
1
v
2
S
2
. por la denici on de la variedad
afn.
Sea ahora x S
1
, v
1
+x A
1
= A
2
luego v
1
+xv
2
S
2
y x = v
1
+xv
2
(v
1
v
2
)
S
2
. As tenemos que S
1
S
2
. Intercambiando los papeles de S
1
y S
2
tenemos que
v
2
v
1
S
1
y S
2
S
1
=) Si x A
1
, x = v
1
+y con y S
1
= S
2
. Se tienen que x = v
2
+ (v
1
v
2
) +y y
como v
1
v
2
+ y S
2
, x A
2
. Hemos probado que A
1
A
2
y como las hipotesis son
simetricas podemos dar por probado A
2
A
1
La consecuencia es que una variedad afn A queda perfectamente determinada por
uno cualquiera de sus elementos v y un subespacio que llamaremos direccion de A.
As un subespacio es una variedad afn que pasa por 0.
Si A
i
= v
i
+S
i
, 1 = 1, 2 son dos variedades anes no vacas puede ocurrir
i) A
1
A
2
= o
ii) A
1
A
2
= , en este caso A
i
= v + S
i
con v S
1
S
2
y por tanto A
1
A
2
=
v + (S
1
S
2
En ambos casos A
1
A
2
es la mayor variedad afn contenida en A
1
y en A
2
. Como
en el caso de subespacios tambien existe una menor variedad afn que contiene a A
1
y
a A
2
, denotaremos por A
1
A
2
a dicha variedad (y la llamaremos union afn de A
1
y
A
2
.
Se comprueba que si A
1
A
2
= , entonces A
1
A
2
= v
1
+(K < v
2
v
1
> +S
1
+S
2
)
mientras que si v A
1
A
2
, A
1
A
2
= v
1
+ (S
1
+S
2
).
Se dice que dos variedades anes no vacas A
1
= v
1
+S
1
y A
2
= v
2
+S
2
son paralelas
si S
1
S
2
o S
2
S
1
. Se puede indicar poniendo A
1
| A
2
. Observar que esta relacion
es reexiva y simetrica pero no transitiva. Ademas
A
1
| A
2
= A
1
A
2
= o A
i
A
j
Si llamamos A(V ) al conjunto de todas las variedades anes del espacio vectorial V ,
la estructura
(A(V ), , , |)
se puede llamar la geometra afn de V.
Ejemplo El conjunto de todas las soluciones de un sistema lineal cualquiera

i=1
a
i
k
x
i
= a
k
k = 1, , m
(a
i
k
, a
k
elementos jos de un cuerpo K) es una variedad afn de K
n
.
27
En efecto si el sistema es incompatible, estamos hablando de la variedad vaca. Si el
sistema es compatible sabemos que todas las soluciones se obtienen sumando a una solu-
cion particular todas las soluciones del sistema homogeneo asociado obtenido haciendo
nulos los terminos independientes, pero esto es obviamente una variedad lineal.
Como en el caso de sistemas homogeneos se prueba en el captulo 7 que toda variedad
afn de K
n
puede describirse como solucion de un sistema lineal.
28
Captulo 3
Base y dimensi on
Sea V un espacio vectorial cualquiera sobre un cuerpo K y C un subconjunto no
vaco de V . Denotamos por K < C > al conjunto formado por todas las combinaciones
lineales
1
v
1
+ +
r
v
r
con
i
K y v
i
C. Es inmediato comprobar que este
conjunto es un subespacio de V y que es el menor subespacio que contiene a C. Se dice
que K < C > es el subespacio generado por C.
Se conviene en poner K < >= 0.
Si S es un subespacio y C es un subconjunto de V tal que K < C >= S se dice que
C es un conjunto generador de S, es obvio que C K < C > y que
C
1
K < C > K < C
1
> K < C >
En particular si K < C >= V se dice que C es un sistema generador de V .
Es claro que el espacio total V es un sistema generador (de dudosa utilidad). Veamos
algunos ejemplos mas
Ejemplos 3.1. 1) En el espacio vectorial K
n
la coleccion de elementos e
1
, e
n
con
e
1
= (1, 0, , 0)
e
2
= (0, 1, , 0)

e
n
= (0, 0, , 1)
es un sistema generador de K
n
ya que todo elemento (x
1
, x
2
, , x
n
) de este espacio
vectorial se puede poner en la forma
(x
1
, x
2
, , x
n
) = x
1
e
1
+ +x
n
e
n
2) La coleccion innita de monomios
1, X, X
2
, X
n
,
es evidentemente un sistema generador de K[X] basta escribir un polinomio cual-
quiera
p(X) = a
0
+a
1
X + +a
n
X
n
29
y considerar los coecientes a
i
K como escalares.
Si jamos un entero n, el conjunto de monomios 1, X, X
2
, , X
n
es un sistema
generador nito del subespacio de K[X] formado por los polinomios de grado menor o
igual que n.
La idea es hallar, cuando sea posible, sistemas generadores lo mas peque no posible.
Denicion 3.2. Llamaremos sistema generador minimal de V a todo sistema ge-
nerador C de V tal que para todo v C el sistema C v = x C[x = v no es un
sistema generador.
Todos los sistemas generadores de los ejemplos de arriba son sistemas generadores
minimales
Denicion 3.3. Un subconjunto D de un espacio vectorial se llama linealmente de-
pendiente (o ligado) si existen elementos v
1
, , v
n
en D y escalares
1
, ,
n
K
no todos nulos tales que

1
v
1
+ +
n
v
n
= 0
En caso contrario se dice que D es linealmente independiente (o libre)
A veces conviene ser redundante: D es linealmente independiente si para todo v
1
, , v
n
en D, cuando se tienen escalares
1
, ,
n
K tales que
1
v
1
+ +
n
v
n
= 0, entonces
necesariamente
1
= =
n
= 0.
Por ejemplo el conjunto vaco es libre y si 0 = v V , el conjunto v de un solo
elemento es linealmente independiente.
Por el contrario si 0 D, entonces D es linealmente dependiente.
Para comprobar que un conjunto nito D = v
1
, , v
n
es linealmente indepen-
diente basta observar que para toda coleccion
1
, ,
n
K tales que

1
v
1
+ +
n
v
n
= 0
necesariamente
1
= =
n
= 0.
As por ejemplo el subconjunto e
1
, e
n
de K
n
denido antes, es linealmente
independiente.
Ahora la idea es buscar sistemas linealmente independientes lo mas grade posible.
Denicion 3.4. Llamaremos sistema linealmente independiente maximal a todo sis-
tema linealmente independiente D tal que si v D, entonces Dv no es linealmente
independiente.
Los ejemplos 1) y 2) son, en los espacios respectivos, sendos sistemas linealmente
independientes maximales.
Veamos como se unen las ideas de generacion e independencia lineal.
Proposicion 3.5. Sea V un espacio vectorial sobre un cuerpo K. Entonces las siguientes
armaciones acerca un subconjunto B son equivalentes.
1) B es un sistema generador minimal
2) B es un subconjunto linealmente independiente maximal.
3) B es un sistema generador linealmente independiente.
30
Demostracion. 1) = 3)
Suponer que B es un sistema generador minimal, si
v
1
, , v
n
B y
1
, ,
n
K son tales que

1
v
1
+ +
n
v
n
= 0 ()
con alg un
i
= 0. Podemos suponer que
1
= 0 (reordenando si hiciera falta los suman-
dos), entonces se puede escribir
v
1
=
2

1
1
v
2
+ + (
n

1
1
)v
n
As B v
1
es un sistema generador de V , ya que si v V , se puede escribir en la
forma
v =
1
w
1
+ +
n
w
n
(
j
K , w
j
B)
si alguno de los w
j
coincide con v
1
, usando () podremos expresar v como combinacion
lineal de los vectores de B excluido v
1
.
Esto nos dice que B no es minimal como sistema generador. Contradiccion.
3) = 1) Suponer que B es libre y generador. Si existiera v B tal que B v
siguiera siendo generador, entonces tendramos v
1
, , v
n
B v y
1
, ,
n
K
tales que
v =
1
v
1
+ +
n
v
n
es decir

1
v
1
+ +
n
v
n
+ (1)v = 0
lo que contradice el hecho de que B es libre.
2) = 3) Sea B un sistema linealmente independiente maximal. Si v V y se
tiene que v B, obviamente v K < B >, si v B, se tiene que B v no es
linealmente independiente, por tanto existen v
1
, , v
m
B v y escalares no todos
nulos,
1
, ,
m
K tales que
0 =
1
v
1
+ +
m
v
m
Si v no gura en esta lista de v
1
, , v
m
tendramos que B no es linealmente indepen-
diente lo que es contradictorio, por tanto v = v
1
por ejemplo y
1
= 0. En consecuencia
v =
2

1
1
v
2
+ + (
m

1
1
)v
m
K < B >
es decir B es sistema generador.
3) = 2) Suponer que B es un sistema generador y libre. Sea v V tal que v B,
como V = K < B > podemos poner
v =
1
v
1
+ +
n
v
n

i
K v
i
B
y

1
v
1
+ +
n
v
n
+ (1)v = 0
con lo que B v no es linealmente independiente, en consecuencia B es linealmente
independiente maximal.
31
Cuando tenemos un sistema generador B que es linealmente independiente, todo
elemento v V puede expresarse de modo unico como combinacion lineal de elementos
en B, en efecto sea
v =
1
v
1
+ +
n
v
n
=
1
v
1
+ +
n
v
n

i
,
i
K v
i
B
En donde podemos suponer que los elementos de B involucrados en la expresion de
v son los mismos ( si hiciera falta a nadimos
i
y
j
nulos).
Se tiene as
(
1

1
)v
1
+ + (
n

n
)v
n
= 0
y por la independencia lineal
i

i
= 0, es decir
i
=
i
.
Destacamos la importancia de este tipo de subconjuntos en la siguiente
Denicion 3.6. Un sistema generador linealmente independiente de un espacio vectorial
se llama base
En K
n
el sistema e
1
, e
n
es una base que recibe el nombre de base canonica
(o natural ).
En K[X] el sistema de monomios 1, X, X
2
, X
n
, es tambien una base.
Utilizando toda la potencia de la teora de conjuntos se podra probar que todo
espacio vectorial V sobre un cuerpo K posee bases y que ademas dos bases cualesquiera
pueden ponerse en correspondencia biunvoca ( es decir, si B
1
y B
2
son tales bases,
existe una aplicacion biyectiva B
1
B
2
). Aqu solo probaremos ambas cosas y de
modo, en principio constructivo, en el caso particular de espacios vectoriales nitamente
generados.
Denicion 3.7. Un espacio vectorial V sobre un cuerpo K se llama nitamente ge-
nerado si existe un subconjunto nito C = v
1
, , v
n
tal que V = K < C >
Por ejemplo hemos observado que K
n
es nitamente generado ya que la base canonica
es nita. Por otro lado K[X] no es nitamente generado, en efecto si p
1
(X), , p
n
(X)
fuera un sistema generador y k fuera el grado maximo de los polinomios de este conjunto,
entonces X
k+1
K < p
1
(X), , p
n
(X) >
Proposicion 3.8. Suponer que C = v
1
, , v
r
es un subconjunto linealmente inde-
pendiente del espacio vectorial V de modo que el subconjunto ampliado
D = v
1
, , v
r
, w
1
, , w
s
es un sistema generador, entonces existe al menos un
subconjunto B tal que C B D y B es base de V .
Demostracion. De entre todos los subconjuntos linealmente independientes X de D
que contienen a C (C es uno de ellos), podemos elegir uno B con el mayor n umero
posible de elementos.
Caben dos posibilidades:
1) B es un sistema generador de V . Por tanto es base.
2) B no es un sistema generador de V , Entonces existe un w
i
D tal que w
i
K <
B >, ya que en caso contrario D K < B > y por tanto V = K < D > K < B > y
B sera un sistema generador de V , que no es el caso.
Formar el subconjunto B w
i
y observar que
C B B w
i
D
32
Ahora bien se comprueba facilmente que B w
i
es linealmente independiente con
mas elementos que B, lo que es contradictorio.
1
Lema 3.9. (del cambio de Steinitz) Suponer que C = v
1
, , v
r
es un sistema
linealmente independiente y D = w
1
, , w
s
un sistema generador en el espacio
vectorial V . Entonces se pueden sustituir r de los vectores de D por los vectores de C y
formar un sistema generador D
r
= v
1
, , v
r
, w
r+1
, , w
s
.
En particular r s
Demostracion. Suponer 0 t < r y que el conjunto
D
t
= v
1
, , v
t
, w
t+1
, , w
s

es un sistema generador
2
Como t < r podemos considerar
v
t+1
=
1
v
1
+ +
t
v
t
+
t+1
w
t+1
+
s
w
s
.
Por lo menos un coeciente
j
es no nulo ya que en otro caso la igualdad
v
t+1
=
1
v
1
+ +
t
v
t
implicara la dependencia lineal en C.
Reordenando los w
j
se puede suponer
t+1
= 0, con lo que podemos despejar w
t+1
w
t+1
=
1
t+1
v
t+1

1
t+1

1
v
1

1
t+1

t
v
t

1
t+1

t+2
w
t+2

1
t+1

s
w
s
Por consiguiente del sistema generador D
t
v
t+1
podemos eliminar a w
t+1
obte-
niendo
D
t+1
= v
1
, , v
t
, v
t+1
, w
t+2
, , w
s

sistema generador que resulta de D


t
sustituyendo w
t+1
por v
t+1
.
Este proceso se detiene cuando t = r
Una consecuencia inmediata de este lema del cambio es que en un espacio vectorial
nitamente generado no existen sistemas linealmente independientes innitos ya que un
conjunto innito posee subconjuntos nitos de un n umero arbitrariamente grande de
elementos.
Otra consecuencia es el siguiente resultado fundamental
Teorema 3.10. Dos bases de un espacio vectorial nitamente generado tienen el mismo
n umero de elementos.
1
Si B {w
i
} fuera ligado, existira una combinaci on lineal no trivial w
i
+
1
b
1
+ +
r
b
r
= 0 con
b
i
B y ,
i
K. Como B es libre, = 0, pero entonces
w
i
=
1

1
+ + (
1
)
r
b
r
K < B >
Contradicci on.
2
Es decir, hemos sustituido t elementos de D por los t primeros elementos de C y hemos renumerado
los restantes. Observar que suponemos t < r
33
Demostracion. Si B es una base con r eleemntos y B

es otra base con r

elementos,
como B es libre y B

es generador se tiene r r

. Cambiando los papeles de B y B

se
tiene r

r
Denicion 3.11. Se llama dimension de un espacio vectorial nitamente generado V
al n umero de vectores de un abase de V . Se escribe dimV
A partir de ahora hablaremos de espacio vectorial de dimension nita (o incluso de
dimension n) en vez de espacio vectorial nitamente generado.
Suponer que V es un espacio vectorial de dimension n, entonces el lema del cambio
permite enunciar la proposicion primera de la siguiente forma
Proposicion 3.12. Suponer que dimV = n y B un subconjunto con n elementos,
entonces son equivalentes
1) B es un sistema generador
2) B es un conjunto linealmente independiente.
3) B es una base.

Unicamente hay que recordar que un sistema generador debe tener por lo menos n
vectores y uno libre debe tener a lo mas n vectores.
Hacemos alg un comentario de tipo informativo. Si queremos comprobar que un sub-
conjunto v
1
, , v
n
de n vectores de un espacio vectorial V que tiene dimension n
es una base, bastara comprobar que es un conjunto linealmente independiente o que
es generador. Lo primero es mas f acil en general ya que consiste en vericar una pro-
piedad localdel conjunto v
1
, , v
n
usando coecientes arbitrarios. Sin embargo la
comprobacion de que es un sistema generador involucra a todos los vectores de V .
Ejemplo Probar que el conjunto (1, 0, 0), (1, 1, 0), (1, 1, 1) es una base de K
3
.
Veamos que es libre. A tal n suponer , , K que verican
(1, 0, 0) +(1, 1, 0) +(1, 1, 1) = (0, 0, 0)
Es decir
+ + = 0
+ = 0
= 0
Con lo que = = = 0 y la familia es libre y por tanto base puesto que dimension
de K
3
es 3.
Suponer que S es un subespacio de V de dimension n. Como un conjunto libre C en
S es un conjunto libre en S, el n umero de elementos de C es menor o igual que n (por
el lema del cambio). Un sistema libre maximal, o sea una base de S tiene a lo sumo n
vectores, luego dimS dimV .
Mas a un si dimS = dimV , una base B de S es un sistema libre en V con exactamente
n elementos, por tanto base de V y en consecuencia V = K < B > S, o sea V = S.
Estos dos hechos merecen ser resaltados en forma de
34
Proposicion 3.13. Si V es un espacio de dimension nita n y S es un subespacio de
V , se tiene
1) dimS dimV
2) dimS = dimV S = V
Suponer ahora que S es como antes un subespacio de un espacio vectorial V de
dimension n. Considerar una base de S: v
1
, , v
r
(r = dimS. Como sistema libre
que es, lo podemos ampliar hasta formar una base de V v
1
, , v
r
, v
r+1
, , v
n
,
entonces si T = K < v
r+1
, , v
n
> se tiene que
V = S T
En efecto si v V ,
v =
r

i=1

i
v
i
+
n

j=r+1

j
v
j
La primera sumatoria esta en S y la segunda esta en T, por tanto V = S + T.
Ademas si v S T,
v =
r

i=1

i
v
i
=
n

j=r+1

j
v
j
o sea

r
i=1

i
v
i
+

n
j=r+1
(
j
)v
j
= 0 por tanto
i
= 0 para todo i, con lo que v = 0.
Concluimos que S T = 0
Hemos probado as:
Proposicion 3.14. Si S es un subespacio de un espacio vectorial V de dimension n,
entonces S admite al menos un subespacio complementario.
Observar ahora que si S y T estan en suma directa, yuxtaponiendo una base v
1
, , v
r

de S con una base w


1
, , w
s
de T se obtiene una base de ST. Esto se puede reiterar
y concluir
Proposicion 3.15. Si S
1
, S
2
, , S
r
son subespacios que estan en suma directa entonces
dim(S
1
S
r
) =
r

i=1
dimS
i
Terminamos la parte estrictamentelineal de este captulo con un resultado clasico.
Proposicion 3.16. (formula de Grassmann) Si S y T son subespacios de un espacio
vectorial de dimension nita entonces
dim(S +T) +dim(S T) = dimS +dimT
Demostracion. Poner S = (S T) S
1
y T = (S T) T
1
, que es posible por la
proposicion (3,14).
S T
1
(S T) T
1
= 0, As S T
1
= 0 y T
1
esta en suma directa con
S = (S T) S
1
. Tambien S
1
esta en suma directa con S T y por tanto se tiene
S +T = (S T) S
1
T
1
35
Por la proposicion anterior
dim(S + T) = dim(S T) + dimS
1
+ dimT
1
= dim(S T) + dimS dim(S
T) +dimT dim(S T) = dimS +dimT dim(S T)

Sea V un espacio vectorial sobre K de dimension nita n. Toda variedad afn A en
A(V ) viene dada por uno de sus elementos, v y su direccion S : A = v + S, se dice
entonces que A es una variedad afn de dimension dimS.
Conviene usar terminologa geometrica para nombrar a determinadas variedades
anes.
Un punto es una variedad afn de direccion nula, es decir de dimension 0: v
Una recta es una variedad afn de dimension 1: r = v +K < a > , a = 0 es lo que
se llama un vector direccional.
Un plano es una variedad afn de dimension 2: = v + K < a, b > , con a, b
libre.
Un hiperplano es una variedad afn de dimension n1: H = v+K < a
1
, , a
n1
>
con a
1
, , a
n1
libre.
Se conviene en decir que la variedad vaca tiene dimension 1.
Por ejemplo si K = R y V = R
3
tenemos una geometra afn (A(V ) que nos per-
mite describir las propiedades anes (es decir las que involucran solamente incidencia y
paralelismo) de los puntos, rectas y planos del espacio ordinario
3
Como ejercicio pueden estructurarse en funcion de dependencia e independencia
lineal cuestiones tpicas como la posicion relativa entre dos rectas, dos planos, o recta y
plano.
Aunque no podemos hablar en sentido estricto de ortogonalidad, el espacio dual nos
ayudara desde fuera de V , por ejemplo, para encontrar un sucedaneo de vector carac-
terstico de un plano ( o de un hiperplano si estamos en un V de dimension arbitraria).
Ejemplo Posicion relativa de dos rectas en A(R
3
).
Sean r = v + K < a > y s = w + K < b > dos rectas cualesquiera de A(R
3
). Se
comprueba a partir de los conceptos de combinacion lineal e independencia lineal que
1) Si v w, a, b es libre, entonces
r s = y r s = R
3
(Las rectas se cruzan)
2) Si v w, a, b es ligado, pero v w, a es libre
r s = y r s = v +R < v w, a > es un plano
(Las rectas son paralelas y distintas)
3) Si v w, a, b es ligado, pero a, b es libre
4
3
Pero no las propiedades metricas que dependen de distancias, angulos, areas y vol umenes.
4
Por tanto v w = a +b con y unicos y u = v a = w+b es el unico punto com un a r y s
36
r s = u y r s = v +R < a, b > es un plano
(Las rectas se cortan en u)
4) Si v w, a, y a, b son ligados, entonces
r = s
Y no hay mas posibilidades.
Sean ahora dos planos = v +S y = w +T. Se tiene los siguientes casos
1) S = T, entonces S +T = R
3
con lo que dim(S T) = 1.
Por un lado v w = s +t, s S y t T con lo que u
0
= v s = w +t con
lo que podemos escribir
= u
0
+S = u
0
+T
Ahora bien u u u
0
S T.
Se concluye que = u
0
+ (S T) es una recta.
2) Si S = T y v w S. Si u podramos escribir u = v +s , u = w +s

con
s, s

S y se tendra v w S lo que es contradictorio, as = y |


3) Si S = T y v w S. Entonces v y =
37
Captulo 4
Aplicaciones lineales
Denicion 4.1. Si V y W son espacios vectoriales sobre el mismo cuerpo K, una
aplicacion f : V W se llama aplicacion lineal (u homomorsmo ) si se verican
las dos condiciones siguientes
i) f(v +w) = f(v) +f(w) v, w V
ii) f(v) = f(v) K v V
Consecuencias
1 f(0) = 0
2 f(v) = f(v) v, w V
3 f(
1
v
1
+ +
r
v
r
) =
1
f(v
1
) + +
r
f(v
r
)
i
K v
i
V
4 La composicion de aplicaciones lineales es lineal.
Demostracion.
1) 0 +f(0) = f(0) = f(0 + 0) = f(0) +f(0) f(0) = 0
2) El opuesto es unico, por tanto:
0 = f(0) = f(v + (v)) = f(v) +f(v) = f(v) = f(v)
3) consiste en reiterar las condiciones denidoras de aplicacion lineal.
4) Es rutinario.
Notar que la condicion 3) caracteriza a las aplicaciones lineales como las que conser-
van las combinaciones lineales.
Ejemplos 4.2. 1) Si V y W son espacios vectoriales sobre K cualquiera, la aplicacion
0 : V W v 0 v V
es trivialmente lineal y recibe el nombre de aplicacion lineal nula.
2) Si S es un subespacio de V , la inclusion canonica de S como subconjunto de V
: S V a a a S
es lineal. En particular si S = V , la aplicacion identidad 1
V
de V es lineal.
3) Si K jo y V es un espacio vectorial cualquiera, la aplicacion
h

: V V v v v V
38
es lineal. Notar que h
1
= 1
V
y h
0
= 0.
4) Si V = S T con S y T subespacios de V , como cada v V se puede poner de
modo unico en la forma
v = a +b a S, b T
se pueden denir sendas aplicaciones lineales
p
S
: V S p
T
: V T
dadas por p
S
(v) = a y p
T
(v) = b. Estas aplicaciones se llaman proyecciones de V en
los sumandos complementarios S y T. Observar la igualdad v = p
S
(v) +p
T
(v) v V
5) Considerar la aplicacion
D : (

(R, R) (

(R, R)
dada por D(f) = f

(funcion derivada de f), entonces D es lineal.


As mismo la aplicacion
M : (

(R, R) (

(R, R)
dada por M(f) : R R x xf(x), es lineal.
6) Sean a b R jos. La aplicacion
I
a,b
: ((R, R) R f

b
a
f
es lineal (recordad las propiedades de la integral!). Mas generalmente si jamos una
funcion g ((R, R), la aplicacion
I
a,b,g
: ((R, R) R f

b
a
gf
es lineal por las mismas razones.
Si a R jo, la aplicacion

a
: ((R, R) R f f(a)
llamada evaluacion en a, es lineal.
Una aplicacion lineal T : V V de un espacio vectorial V en si mismo, suele
llamarse endomorsmo (u operador lineal ).
Una aplicaci on lineal f : V K de un espacio vectorial sobre K en el propio cuerpo
K, se llama forma lineal (o funcional lineal.
7) Sean m y n enteros positivos. Recordar que una matriz mn con entradas en K
es un cuadro de elementos de K dispuestos en m las y n columnas.
A =

a
11
a
12
a
1n
a
21
a
22
a
2n


a
m1
a
m2
a
mn

39
Si disponemos las n-tuplas (es decir los elementos de K
n
) en columnas y efectuamos
la multiplicacion de la matriz A por la columna
x =

x
1
x
2
.
.
.
x
n

Obtenemos la columna
y =

y
1
y
2
.
.
.
y
m

= A

x
1
x
2
.
.
.
x
n

que interpretamos como un elemento de K


m
.
Entonces queda denida una aplicacion lineal
h
A
: K
n
K
m
x y = Ax
La prueba es simple consecuencia de las propiedades del producto de matrices.
Este ejemplo es sucientemente importante en esta asignatura para merecer algunos
comentarios.
En primer lugar se puede comentar que toda aplicacion lineal de K
n
en K
m
es de
esta forma.
Observar ademas que expresando la igualdad y = Ax por sus distintas las obtenemos
m igualdades
y
1
= a
11
x
1
+a
12
x
2
+ +a
1n
x
n
y
2
= a
21
x
1
+a
22
x
2
+ +a
2n
x
n

y
m
= a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
Suponer conocida la matriz A y la columna de las y
i
. Entonces encontrar la columna
de las x
j
que verican estas m igualdades no es otra cosa que resolver un sistema lineal de
m ecuaciones con n incognitas. Ahora bien esto es lo mismo que determinar el conjunto
h
1
A
(y)
1
Finalmente observar que sin necesidad de pasar a columnas, la matriz A dene
una aplicaci on lineal
k
A
: K
m
K
n
x y = xA
en donde ahora x =

x
1
x
2
x
m

, y =

y
1
y
2
y
n

1
Esto es que una variedad afn en K
n
que puede ser vaca (sistema incompatible) puede reducirse a un
punto (sistema compatible determinado) o puede tener dimensi on mayor que cero (sistema compatible
indeterminado)
40
Veamos como se comporta una aplicacion lineal con respecto a los principales con-
ceptos denidos en los captulos anteriores: subespacios, generacion de subespacios y
dependencia lineal.
Proposicion 4.3. Sea f : V W una aplicacion lineal cualquiera, S un subespacio de
V y T un subespacio de W, entonces
1) f(S) = f(a)[a S es un subespacio de W.
2) f
1
(T) = v V [f(v) T es un subespacio de V
Demostracion. 1) 0
V
S, luego 0
W
= f(0
V
) f(S) con lo que f(S) es no vaco.
Sean w
1
, w
2
f(S) y
1
,
2
K, entonces w
i
= f(a
i
) con a
i
S para i = 1, 2, por
tanto

1
w
1
+
2
w
2
=
1
f(a
1
) +
2
f(a
2
) = f(
1
a
1
+
2
a
2
) f(S)
2) f(0
V
) = 0
W
T = 0
V
f
1
(T) = f
1
(T) = .
Si v
1
, v
2
f
1
(T) y
1
,
2
K, entonces f(v
1
), f(v
2
) T por tanto f(
1
v
1
+
2
v
2
) =

1
f(v
1
) +
2
f(v
2
) T, es decir
1
v
1
+
2
v
2
f
1
(T)
En particular si ponemos S = V , se tiene que el subconjunto imagen, f(V ) es un
subespacio de W, que se llama imagen de f y se escribe Imf.
Si ponemos T = 0
W
, el conjunto
f
1
(0
W
) = v V [f(v) = 0
W

es un subespacio de V , llamado n ucleo de f y se denota Ker f


2
Proposicion 4.4. Sea f : V W una aplicacion lineal y C un subconjunto de V ,
entonces f(K < C >) = K < f(C) >. En particular f es suprayectiva si y solo si
transforma un sistema generador C de V en un sistema generador f(C) de W.
Demostracion.
w f(K < C >) v =
1
c
1
+ +
r
c
r

i
K c
i
C t.q. w = f(v) =

1
f(c
1
) + +
r
f(c
r
) w K < f(C) >
Proposicion 4.5. Sea f : V W una aplicaci on lineal, entonces
1) f es inyectiva Ker f = 0
V

2) Si f es inyectiva y C es un subconjunto libre de V , entonces


f(c) = f(c

) c = c

C y f(C) es libre.
Demostracion: 1) =: Es obvio puesto que no puede haber dos elementos distintos
que se apliquen en 0
W
.
=: Si f(v
1
) = f(v
2
) se tiene que f(v
1
) f(v
2
) = 0
W
y por tanto f(v
1
v
2
) = 0
W
,
luego v
1
v
2
Ker f = 0
V
y v
1
= v
2
con lo que f es inyectiva.
2). Por la inyectividad si c = c

C se tiene f(c) = f(c

).
Sean d
1
, , d
r
elementos distintos de f(C), entonces existen c
1
, , c
r
elementos
distintos en C tales que f(c
i
) = d
i
para i = 1, , r. Si tenemos una combinacion lineal

1
d
1
+ +
r
d
r
= 0
W
, se tiene

1
f(c
1
) + +
r
f(c
r
) = 0
W
= f(
1
c
1
+ +
r
c
r
) = 0
W
= f(0
V
)
2
Del alem an Kern (n ucleo) o del ingles kernel (n ucleo) a gusto del lector.
41
y por la inyectividad
1
c
1
+ +
r
c
r
= 0
V
. Como C es libre se tiene
i
= 0 i.
Como consecuencia de estas dos proposiciones se tiene que si f : V W es una
aplicacion lineal biyectiva y B es una base de V , entonces b, b

B con b = b

implica
que f(b) = f(b

) y que f(B) es una base de W.


Si f : V W es una aplicacion lineal y biyectiva, la aplicacion f
1
: W V es
tambien lineal, en efecto sean
1
,
2
K y w
1
, w
2
W, se tiene que
f(
1
f
1
(w
1
) +
2
f
1
(w
2
)) =
1
f(f
1
(w
1
)) +
2
f(f
1
(w
2
)) =
1
w
1
+
2
w
2
luego
f
1
(
1
w
1
+
2
w
2
) =
1
f
1
(w
1
) +
2
f
1
(w
2
)
Una aplicacion lineal biyectiva se llama isomorsmo. Cuando tenemos un isomor-
smo f : V W se dice que los espacios V y W son isomorfos. Un isomorsmo
f : V V se llama automorsmo.
Observacion Si dos espacios vectoriales V y W son isomorfos y uno de ellos tiene
dimension nita, tambien la tiene el otro y ademas dimV = dimW.
En efecto sea B = a
1
, , a
n
una base de V con n = dimV , entonces los vectores
f(a
1
), , f(a
n
) son distintos y constituyen una base de W.
Proposicion 4.6. Sea f : V W una aplicacion lineal tal que V tiene dimension
nita. Entonces
dimV = dim(Imf) +dim(Ker f)
Demostracion: Como V es de dimension nita, hemos probado en el captulo anterior
que existe al menos un subespacio S tal que V = S Ker f, entonces para todo v V
podemos escribir
v = a +k a S k Ker f
con lo que f(v) = f(a) +f(k) = f(a), la conclusion es que Imf = f(S)
Por otro lado S Ker f = 0
V
implica que el n ucleo de la restriccion de f a S es
nulo. Tenemos as denida una aplicacion lineal
f
1
: S f(S)
(f
1
la restriccion de f a S) que evidentemente es biyectiva. Por tanto dimS =
dimf(S), en denitiva
dimV = dimS +dimKer f = dimImf +dimKer f
Corolario 4.7. Sea f : V W lineal tal que V y W son de dimension nita
i) dimV dimW y f inyectiva = f isomorsmo
ii) dimV dimW y f suprayectiva = f isomorsmo
En particular para probar que una aplicacion lineal f : V W entre espacios de
igual dimension es isomorsmo, basta comprobar que es inyectiva o suprayectiva
3
3
En teora de conjuntos hay un resultado correspondiente: Si f : A B es una aplicacion entre
conjuntos nitos del mismo n umero de elementos, si f es inyectiva o suprayectiva, entonces es biyectiva.
42
Proposicion 4.8. Sea V un espacio vectorial de dimension nita n y B = a
1
, , a
n

una base de V . Entonces para toda aplicacion (en el sentido conjuntista) : B W,


W un espacio vectorial cualquiera, existe una unica aplicaci on lineal f : V W tal que
es la restriccion de f a B.
(Se dice que f extiende a )
Demostracion: Si v V , como B es una base existen
1
, ,
n
K unvocamente
determinados por v tales que
v =
1
a
1
+ +
n
a
n
Se pone f(v) =
1
(a
1
) + +
n
(a
n
) con lo que a todo v V le asignamos un
unico f(v) W.
Se comprueba que la aplicacion as denida es lineal, que f extiende a y que si
g : V W es lineal y extiende a , se tiene v V
g(v) =
1
g(a
1
) + +
n
g(a
n
) =
1
(a
1
) + +
n
(a
n
) = f(v)
es decir f = g, o sea que f es unica.
Suponer que V y W son espacios vectoriales de igual dimension n, jar B = a
1
, , a
n

una base de V y B

= a

1
, , a

n
una base de W. La biyeccion
B B

a
i
a

i
compuesta con la inclusion canonica de B

W determina una aplicacion inyectiva


: B W.
Por la proposicion se puede extender a una aplicacion lineal f : V W que trans-
forma la base B biyectivamente en la base B

, es decir es un isomorsmo. Recordando


la observacion 1 de mas arriba, concluimos
Proposicion 4.9. Dos espacios vectoriales de dimension nita V y W son isomorfos
si y solo si tienen la misma dimension.
Si pensamos en dos espacios vectoriales isomorfos como espacios vectoriales con las
mismas propiedades podemos decir que para cada n umero natural n hay, en esencia
un solo espacio vectorial de dimension n. El prototipo es K
n
. Ahora bien los espacios
vectoriales surgen de modo natural al resolver un problema lineal homogeneo, cuyas
soluciones no son n-tuplas. Por ejemplo pueden ser funciones en (

(R, R) como ocurre


cuando resolvemos una ecuacion diferencial homogenea con coecientes constantes, es
decir cuando calculamos el n ucleo de un operador diferencial de la forma
D
n
+a
1
D
n1
+ +a
n1
D +a
n
con a
i
R. En denitiva no es conveniente realizar un Algebra Lineal para espacios
de n-tuplas exclusivamente. Mas adelante haremos alg un otro comentario en esta linea.
Sean V y W dos espacios vectoriales sobre el mismo cuerpo K. Vamos a denotar
L(V, W) al conjunto de todas las aplicaciones lineales de V en W.
43
Si f, g L(V, W), es decir si f, g : V W lineales podemos utilizar la operacion
suma en W para denir la suma de aplicaciones
f +g : V W v (f +g)(v) := f(v) +g(v)
4
y observar que f + g es lineal (comprobacion rutinaria). Por tanto hemos denido
una operacion binaria interna
L(V, W) L(V, W) L(V, W) (f, g) f +g
La asociatividad y la conmutatividad en W permiten asegurar que la suma en
L(V, W) es asociativa y conmutativa. La aplicacion lineal nula 0 : V W v
0 v V es elemento neutro para la suma de aplicaciones lineales. Por ultimo si
f : V W es una aplicacion lineal, la aplicacion f : V W v (f)(v) := f(v)
es lineal y verica f + (f) = 0
Conclusion: La estructura (L(V, W), +) denida como se ha dicho es un grupo abe-
liano.
Sea ahora f L(V, W) y K se dene el producto del escalar por f
f : V W v (f)(v) := f(v)
(Observar que hacemos uso del producto por escalares de K en el espacio W)
Es rutinario comprobar que f L(V, W), con lo que hemos denido una operacion
binaria externa
K L(V, W) L(V, W) (, f) f
Tambien es rutinario el comprobar que
(L(V, W)+, K) es un espacio vectorial
Si a
1
, , a
n
una base de V y b
1
, , b
m
una base de W podemos denir cual-
quier aplicacion lineal f : V W sin mas que conocer los n valores f(a
1
), , f(a
n
)
(proposicion 4.8)
En particular para i, 1 i n j, 1 j m podemos denir una aplicacion
lineal
f
ij
: V W
de modo que f
ij
(a
r
) = 0 r = i f
ij
(a
i
) = b
j
Entonces este conjunto de aplicaciones lineales resulta ser una base de L(V, W), con
lo que
dimL(V, W) = dimV dimW
Aunque es bastante claro, daremos una demostracion muy sencilla un poco mas
adelante.
Hemos observado que si f : V W y g : W U son aplicaciones lineales, g f :
V U tambien es lineal.
4
el smbolo := se lee es igual por denici on
44
Fijamos un espacio vectorial V y llamamos E(V ) al conjunto de todos los endo-
morsmos (operadores lineales) de V , entonces la composicion de endomorsmos es una
operacion binaria interna
: E(V ) E(V ) E(V ) (f, g) f g
que es asociativa y tal que el operador identidad 1
V
: V V v v v V es
elemento neutro para la composicion.
Ademas E(V ) = L(V, V ) esta dotado de la suma de endomorsmos y no es difcil
comprobar que si f, g, h E(V ) se tiene
(f +g) h = f h +g h y h (f +g) = h f +h g
Reunimos toda esta informacion diciendo que
(E(V ), +, ) es un anillo
Ahora bien como E(V ) = L(V, V ) tambien (E(V ), +, K) es un espacio vectorial y
tambien se puede probar facilmente que
K f, g E(V ) (f) g = f (g) = (f g)()
Cuando tenemos una estructura como la observada en en E(V ) que es
i) espacio vectorial respecto de + y K
ii) anillo respecto a + y
iii) verica ()
se dice que estamos en presencia de una K-algebra asociativa. Insistimos
(E(V ), +, , K) es una K-algebra asociativa
Nota La operacion binaria no es, en general, conmutativa
5
Por ejemplo sea V = (

(R, R) y D, M (

(R, R) los operadores del ejemplo 5 de


4.2.
Si f V se tiene por la formula de la derivada de un producto
(xf(x))

= xf(x)

+f(x)
que escrito de otra forma es
D(M(f)) = M(D(f) +f f V
es decir
D M M D = 1
V
Recordar que la composicion de dos aplicaciones lineales biyectivas (isomorsmos)
es un isomorsmo, que la aplicacion identidad 1
V
es un automorfsmo cualquiera que
5

Unicamente es conmutativa si dimV 1, en estos casos E(V ) = {0} o E(V ) se identica con el
cuerpo K.
45
sea el espacio vectorial V y que la aplicacion inversa de un isomorsmo tambien es
isomorsmo.
Vamos a llamar GL(V ) al conjunto de todos los automorsmos f : V V , entonces
la composicion de automorsmos dene una operacion binaria interna
: GL(V ) GL(V ) GL(V ) (f, g)) f g
de modo que es asociativa, posee elemento neutro 1
V
y f
1
es el inverso de f respecto
de esta operacion. Concluimos que
(GL(V ), ) es un grupo
6
Hay que recordar que L(V, W) y E(V ) son grupos respecto a la suma de aplicaciones
lineales, pero GL(V ) es grupo respecto a la composicion de aplicaciones.
En geometra plana se representan los puntos por pares ordenados (x, y) de n umeros
reales a los que llamamos abscisa y ordenada. Para conseguir esto bastaba ordenar
convenientemente los ejes de coordenadas declarando como primer eje el de abscisas ( o
eje OX) y como segundo eje el de ordenadas (eje OY ) y se nalando en ambos un sentido
como positivo. Lo mismo se se hace en geometra del espacio con las tres coordenadas
(x, y, z) de un punto. Los ejes de coordenadas as dispuestos son la referencia utilizada
para adscribir a cada punto el par ( o la terna) ordenada que forman sus coordenadas.
En espacios vectoriales de dimension nita la referencia natural son las bases, que a
partir de ahora se van a considerar ordenadas. Si B = a
1
, , a
n
es una base cualquiera
de un espacio vectorial V de dimension n, esta base que es un subconjunto de V da
lugar a n! posibles bases ordenadas, que son familias de elementos de V indicadas por
los n umeros 1, 2, , n. Una base ordenada se indicara entre parentesis (a
1
, , a
n
) en
vez de entre llaves, de modo que (a
1
, a
2
, a
3
, a
4
) y (a
2
, a
1
, a
3
, a
4
) son dos bases ordenadas
distintas en un V de dimension 4 correspondientes a una misma base no ordenada.
Sea pues V un espacio vectorial de dimension nita n. Al jar una base ordenada
(a
1
, , a
n
) todo vector v V dene una unica n-tupla (x
1
, x
2
, , x
n
) tal que
v = x
1
a
1
+ +x
n
a
n
=
n

i=1
x
i
a
i
= x
i
a
i
con lo que queda denida una aplicacion
: V K
n
v (x
1
, x
2
, , x
n
)
que evidentemente es lineal. ademas es biyectiva cuya inversa asocia a la n-tupla
(x
1
, x
2
, , x
n
) la combinacion lineal

n
i=1
x
i
a
i
V . Tenemos un isomorsmo que se
llama sistema de coordenadas denido por la base (a
1
, , a
n
). La n-tupla imagen
de v es la n-tupla coordenada de v.
Recprocamente si : V K
n
es un isomorsmo, podemos asociar a la base canoni-
ca de K
n
, ordenada del modo natural
((1, 0, , 0), (0, 1, , 0), , (0, 0, , 1))
6

Unicamente este grupo es abeliano si dimV 1. Si dimV = 1, GL(V ) es el grupo multiplicativo


de los elementos no nulos del cuerpo K. Si dimV = 0 el grupo es trivial.
46
la base (a
1
, , a
n
) en V con (a
1
=
1
(1, 0, , 0), a
2
=
1
(0, 1, , 0), , a
n
=

1
(0, 0, , 1))
Es claro que es precisamente el sistema de coordenadas asociado a (a
1
, , a
n
)
Queda as establecida un aplicacion biyectiva entre el conjunto de las bases ordenadas
de V y el conjunto de todos los isomorsmos de V en K
n
.
Suponer ahora que (a
1
, , a
n
) y (a
1
, , a
n
) son dos bases cualesquiera de V , como
son sendos sistemas generadores de V podemos escribir por un lado
a
i
=
j
i
a
j
i = 1, , n
para ciertos escalares
j
i
, que dispondremos en forma de matriz n n
P = (
j
i
)
1j,in
en donde el superndice j se nala la la donde se coloca
j
i
y el subndice i, la columna.
P =

1
1

1
2

1
n

n
1

n
2

n
n

Llamaremos a P la matriz de cambio de bases


(a
1
, , a
n
) (a
1
, , a
n
)
Se suele decir que (a
i
)
1in
es la base nueva expresada en funcion de la base antigua
(a
i
)
1in
por la matriz P.
Si cambiamos los papeles y expresamos los a
k
en funcion de los a
k
a
h
=
k
h
a
k
h = 1, , n
Tenemos la correspondiente matriz Q = (
k
h
)
1h,kn
que efect ua el cambio inverso
(a
1
, , a
n
) (a
1
, , a
n
)
Tenemos as a
h
=
k
h
a
k
y a
k
=
j
k
a
j
, con lo que
a
h
=
k
h
(
j
k
a
j
) = (
k
h

j
k
)a
j
= (
j
k

k
h
)a
j
Conviene introducir el smbolo
s
r
con 1 r, s n dado por

s
r
=

1 si r = s
0 si r = s
llamado delta de Kronecker y que no es otra cosa que la descripcion de la matriz
identidad n n
I
n
= (
s
r
)
1r,sn
Observar que se puede escribir
a
h
=
j
h
a
j
lo que conduce, por ser (a
1
, , a
n
) un sistema libre, a la igualdad
47

k
h

j
k
=
j
h
Recordando la denicion de producto de matrices, podemos escribir
PQ = I
n
El argumento usado parte de una situacion simetrica
2
en consecuencia tenemos (o
intercambiando las dos bases)
QP = I
n
Usando una expresion informal, diramos que el cambio inverso esta regido por la
matriz inversa.
A riesgo de resultar pesados, insistimos en que la matriz de cambio es una matriz
regular.
Si cogemos un vector generico v V y lo expresamos en funcion de lo que hemos
llamado base antiguatenemos que v = x
i
a
i
de modo que (x
1
, , x
n
) son las coorde-
nadas de v en dicha base. Hacemos lo mismo con la base nueva: v = x
j
a
j
, o sea que
(x
1
, , x
n
) son las nuevas coordenadas.
Se tiene
v = x
i
a
i
= x
j
a
j
= x
j

k
j
a
k
con lo que por ser (a
1
, , a
n
) base se tiene
x
i
= x
j

i
j
i = 1, , n
Como los ndices superiores designan la, las ecuaciones anteriores se resumen en la
igualdad matricial

x
1
.
.
.
x
n

= P

x
1
.
.
.
x
n

con lo cual la matriz de cambio P permite expresar las coordenadas en la base antigua
en funcion de las nuevas.
Evidentemente la matriz Q = P
1
permite escribir

x
1
.
.
.
x
n

= Q

x
1
.
.
.
x
n

lo que suele expresarse diciendo que las coordenadas de los vectores de V cambian
de modo contravariante respecto del cambio de bases. Esta terminologa es de uso
constante en el captulo 9 y siguientes.
Suponer ahora que f : V W es una aplicacion lineal y que en cada espacio jamos
una base (a
1
, , a
n
) en V y (b
1
, b
m
) en W, Sabemos que f esta perfectamente
determinada por la coleccion de valores (f(a
1
), , f(a
n
)). Ademas cada f(a
j
) W se
puede expresar en terminos de la base jada en W:
48
f(a
j
) = a
i
j
b
i
con lo que el vector queda unvocamente determinado por sus coordenadas
a
k
j
k = 1, , m, podemos disponerlas en columna

a
1
j
a
2
j
.
.
.
a
m
j

Disponiendo ordenadamente estas columnas desde j = 1 a j = n conguramos una


matriz A de m las y n columnas
A = (a
i
j
)
1im,1jn
que se llama matriz coordenada de f respecto de las bases indicadas. Esta matriz
representa a f en el sentido de que almacena la informacion necesaria para, conocidas
las coordenadas de v V ( lo que equivale a conocer v) encontrar las coordenadas de
f(v) (es decir conocer f(v)).
En efecto, sea v = x
i
a
i
V entonces f(v) = x
i
f(a
i
) = x
i
a
k
i
b
k
. En funcion de sus
coordenadas (y
1
, , y
m
se tiene f(v) = y
j
b
j
. Por tanto
y
k
b
k
= x
i
a
k
i
b
k
Por ser (b
1
, b
m
) base de W se puede escribir
y
k
= x
i
a
k
i
k = 1, , m
Matricialmente

y
1
.
.
.
y
m

= A

x
1
.
.
.
x
n

Esta igualdad se llama ecuacion de la aplicacion lineal f en bases (a


1
, , a
n
) y
(b
1
, b
m
)
La ecuacion de un operador lineal T : V V esta referida a una base, de modo que

y
1
.
.
.
y
m

= A

x
1
.
.
.
x
n

con v = x
i
a
i
y T(v) = y
i
a
i
.
Si : V K es una forma lineal, es costumbre usar siempre la base natural de K
formada por el elemento 1, entonces la matriz de en base (a
1
, , a
n
) es la matriz la
(u
1
, , u
n
) y la ecuacion de esta dada por
y = (u
1
, , u
n
)

x
1
.
.
.
x
n

= u
i
x
i
49
con (v) = y si v = x
i
a
i
.
Notar que (v) resulta de evaluar el polinomio homogeneo de grado 1: u
1
X
1
+ +
u
n
X
n
en la n-tupla (x
1
. , x
n
)
No esta de mas recordar que clasicamente un polinomio homogeneo de grado 1 se
llama forma y que grado 1 es sinonimo de lineal.
Tomar ahora dos aplicaciones lineales f, g : V W y suponer que A = (a
i
j
) y
B = (B
i
j
) son sus matrices respectivas cuando jamos sendas bases (a
1
, , a
n
) en V y
(b
1
, , b
m
) en W.
Las expresiones f(a
j
) = a
i
j
b
i
y g(a
j
) = b
i
j
b
i
permiten escribir
(f +g)(a
j
) = f(a
j
) +g(a
j
) = (a
i
j
+b
i
j
)b
i
En otras palabras la matriz que representa a f + g en esas bases es la matriz suma
A+B
Si K y f es como antes podemos escribir
(f)(a
j
) = f(a
j
) = (a
i
j
)b
i
con lo que la matriz que representa a f en esas bases es A , producto del escalar
por la matriz A.
Denotar por M
mn
(K) al conjunto de todas las matrices mn con entradas en K.
Hemos observado que la biyeccion
L(V, W) M
mn
(K) f A
que asocia a cada aplicacion lineal f su matriz coordenada respecto de sendas bases
en V y W trasforma suma de aplicaciones en suma de matrices y producto de escalar
por aplicacion en producto de escalar por matriz. La consecuencia es la siguiente
Proposicion 4.10. El conjunto de matrices v dotado de las operaciones suma y producto
por escalares es un espacio vectorial. Al jar sendas bases de V y W queda denido un
isomorsmo de espacios vectoriales
L(V, W) M
mn
(K)
(n = dimV , m = dimW) que asocia a cada aplicacion lineal f su matriz coordenada
en dichas bases.
Nota No es necesario comprobar los axiomas de espacio vectorial para las operaciones
matriciales suma y producto por escalares ya que la biyeccion f A conserva las
operaciones, lo que permite trasladarlas propiedades de las aplicaciones lineales a las
correspondientes con matrices. Ademas toda matriz mn
A =

a
1
1
a
1
2
a
1
n


a
m
1
a
m
2
a
m
n

dene una mn-tupla (a


1
1
, a
1
2
, , a
1
n
, , a
m
1
, a
m
2
, , a
m
n
)
Esto es claramente un isomorsmo M
mn
(K) K
mn
50
En este isomorsmo la base canonica de K
mn
es imagen de una base, que tambien
podemos llamar canonica, de M
mn
(K) formada por todas las matrices m n cuyas
entradas son todo cero con excepcion de un 1 que va ocupando los mn lugares posibles.
Resaltamos el resultado, por otro lado obvio:
dim(L(V, W) = dimM
mn
(K) = mn
Que pasa al cambiar de bases en V y W?. La respuesta no es difcil, suponer que
producimos un cambio de bases
(a
1
, , a
n
) (a
1
, , a
n
)
en V con matriz de cambio Q que expresamos con el correspondiente cambio de coorde-
nadas

x
1
.
.
.
x
n

= Q

x
1
.
.
.
x
n

v = x
i
a
i
= x
i
a
i
y un cambio de bases
(b
1
, , b
m
) (b
1
, , b
m
)
en W con matriz de cambio P, que expresamos con el correspondiente cambio de coor-
denadas

y
1
.
.
.
y
m

= P

y
1
.
.
.
y
m

f(v) = y
j
b
j
= y
j
b
j
En el par de bases inicial f se representa por A y en el par nuevo, por la matriz A

y
1
.
.
.
y
m

= A

x
1
.
.
.
x
n

y
1
.
.
.
y
m

= A

x
1
.
.
.
x
n

Como

y
1
.
.
.
y
m

= PAQ
1

x
1
.
.
.
x
n

se tiene A = P
1
AQ
Esto da lugar a una importante relacion de equivalencia en M
mn
(K) llamada pre-
cisamente equivalencia de matrices y que se estudiara con mas detalle en el captulo
siguiente.
En el caso particular de un operador T : V V no existe mas que el cambio de
bases en V , lo que se traduce en pensar que Q = P, con lo que tenemos A = P
1
AP
Esto da lugar a una relacion de equivalencia en M
nn
(K) que se llama semejanza
de matrices. Su estudio es mas complicado y en esta asignatura unicamente se hace para
51
un caso particular de matrices cuadradas ( o si se quiere de operadores). Ver el captulo
6
Sea ahora f : V W y g : W U dos aplicaciones lineales de manera que el
espacio de llegada de f coincide con el espacio de salida de g.
A las bases (a
1
, , a
n
) de V y (b
1
, , b
n
) de W debemos a nadir la base (c
1
, , c
r
)
de U de modo que en el par de bases correspondientes f se representa por A = (a
i
j
)
1im,1jn
y g por B = (b
h
k
)
1hr,1km
. Es decir
f(a
j
) = a
i
j
b
i
g(b
k
) = b
h
k
c
h
Por tanto
(g f)(a
j
) = g(f(a
j
)) = g(a
i
j
b
i
) = a
i
j
g(b
i
) = a
i
j
(b
h
i
c
h
) = (b
h
i
a
i
j
)c
h
Si llamamos C = (c
h
j
)
1hr,1jn
a la matriz de la aplicaci on lineal
(g f) : V U
entonces (g f)(a
j
) = c
h
j
c
h
con lo que comparando las igualdades de antes se tieen
c
h
j
= b
h
i
a
i
j
Recordando que sumamos a lo largo de i, 1 i n, tenemos que C es el producto
de las matrices B y A en este orden C = BA
B es r n, A es n m y C es r m.
Las propiedades de la composicion de aplicaciones lineales ( o una comprobacion
rutinaria) permiten probar que el producto de matrices verica las siguientes propiedades
1) Es asociativo (AB)C = A(BC)
7
2) I
n
A = AI
m
= A para toda matriz A de tama no n m
3) Es distributivo con respecto a la suma
(A
1
+A
2
)B = A
1
B +A
2
B
A(B
1
+B
2
) = AB
1
+AB
2
En particular si jamos un entero positivo n: en el conjunto M
n
(K) de las matrices
n n sobre K se puede denir una nueva operacion binaria interna, el producto de
matrices
: M
n
(K) M
n
(K) M
n
(K) (A, B) AB
de modo que la estructura (M
n
(K), +, ) es un anillo cuyo elemento cero es la matriz
nula n n cuyas entradas son todas iguales a cero y cuyo elemento unidad es la matriz
I
n
. Este anillo es isomorfo al anillo (E(V ), +, ) de los operadores de V . Para cada base
d eV tenemos una aplicacion biyectiva
E(V ) M
n
(K) f A
7
Se supone que las operaciones correspondientes tienen sentido.
52
con A la matriz de f en la base dada, que respeta todas las operaciones entre
(E(V ), +, K, ) y M
n
(K, +, K, )
Se dice que esta aplicacion es un isomorsmo de algebras.
Recordar que una matriz A, n n sobre K se dice regular (o inversible) si existe
una matriz B, nn sobre K tal que AB = BA = I
n
. Recordar tambien que una matriz
cuadrada es regular si y solo si su determinante es distinto de cero.
Proposicion 4.11. Para un operador T : V V se tiene que T es biyectivo si y solo
si la matriz que lo representa en cualquier base es regular.
Demostracion: T T
1
= 1
V
es lo mismo que poner AA
1
= A
1
A = I
n
Si llamamos GL(n, K) al conjunto de las matrices regulares n n con entradas en
K y dotamos a este conjunto con la operacion de multiplicar matrices se tiene un grupo
tal que al jar cualquier base en V queda denida un abiyeccion
GLV ) M
n
(K) f A
(A como siempre) que respeta las operaciones respectivas de estos grupos. Una tal
aplicacion se llama isomorsmo de grupos.
En resumen hemos denido tres estructuras algebraicas basadas en las operaciones
de matrices que se pueden pensar como replicasde las estructuras analogas denidas en
el apartado anterior para aplicaciones lineales.
Para m, n enteros positivos cualesquiera y K cuerpo cualquiera
(M
mn
(K), +, K) es un espacio vectorial sobre K de dimension mn
Para n entero positivo cualquiera y K cuerpo cualquiera
(M
n
(K), +, ) es un anillo
y por ultimo
(GL(n, K), ) es un grupo
53
Captulo 5
Matrices: Rango y equivalencia
Denicion 5.1. Sean A y B matrices mn en K.
Se dice que A es equivalente a B cuando existen P y Q regulares tales que A = PBQ.
Observar que es relacion de equivalencia.
Proposicion 5.2. 1.-Sea A una matriz asociada a una aplicacion lineal f. Una matriz
B es equivalente con A si y solo si tambien es asociada a f.
Demostracion. Supongamos que f : V W y que A representa a f respecto de las
bases B
1
y B
2
de V y W respectivamente.
Si B representa a f respecto de las bases B
1
y B
2
de V y W respectivamente hemos
visto que en la leccion anterior que B = S
1
AR siendo R la matriz que tiene en sus
columnas las coordenadas de los vectores de B
1
respecto de B
1
y S la matriz que tiene
en sus columnas las coordenadas de los vectores de B
2
respecto de B
2
. Como S
1
y R
son regulares se tiene que B es equivalente a A.
Para el recproco supongamos que B = PAQ para unas determinadas matrices regu-
lares P Y Q.
Consideramos la aplicacion lineal de V en V que en la base B
1
se representa por Q.
Por ser Q regular y por lo que se dijo en la leccion anterior se tiene que es isomorsmo
y por tanto las imagenes de B
1
son tambien base de V que llamaremos B
1
. La matriz
de cambio de coordenadas que tiene en sus columnas las coordenadas de los vectores de
B
1
respecto de B
1
es precisamente la matriz Q.
An alogamente si consideramos la aplicacion lineal de W en W que en la base B
2
se representa por P
1
. Por ser P
1
regular se tiene que es isomorsmo y por tanto las
imagenes de B
2
son tambien base de W que llamaremos B
2
. La matriz de cambio de
coordenadas que tiene en sus columnas las coordenadas de los vectores de B
2
respecto
de B
2
es precisamente la matriz P
1
.
La matriz que representa a f respecto de las bases B
1
y B
2
es PAQ = B
Denicion 5.3. a) Sea f : V W aplicacion lineal. Se llama rango de f a la dimension
del subespacio imagen.
b) Sea A una matriz mn en K. Se llama rango de A (de columnas) a la dimension
del espacio que generan las columnas de A consideradas como elementos de K
m
.
Proposicion 5.4. Sea f : V W una aplicacion lineal representada po la matriz A en
ciertas bases. Se tiene que el rango de f es igual que el rango de A.
54
Demostracion: Sean B
1
y B
2
las bases en las que A representa a f y sea B
1
=
a
1
, , a
n
.
rango f = dimim(f) = dimK < f(a
1
), , f(a
n
) >=
= dimK < coordenadasf(a
1
), , coordenadasf(a
n
) >= K < columnas de A >
(Recordar que tomar coordenadas en una base es un isomorsmo y por eso la di-
mension de un espacio coincide con la de su imagen. Las coordenadas son respecto de
la base B
2
que es la unica mencionada en W.)
Corolario 5.5. Dos matrices equivalentes tienen el mismo rango.
Del siguiente teorema se deducir a la armacion recproca.
Teorema 5.6. Sea A una matriz mn en un cuerpo K y r el rango de A. Existen P
y Q regulares tales que
A = P

I
r
O
O O

Q. (La matriz central es m n y tiene 1 en los lugares (i, i) con


i r y 0 en el resto).
Demostracion: A es la matriz de h
A
: K
n
K
m
en bases can onicas. Buscamos otras
bases en las que la matriz de h
A
sea

I
r
O
O O

.
Consideramos ker h
A
y S un suplementario suyo. La aplicacion de S en imh
A
que
lleva s S a h
A
(s) tiene n ucleo 0 luego es inyectiva y por (3,7) es isomorsmo.
Tomamos (a
r+1
, , a
n
) base de kerh
A
y la ampliamos hasta una base de K
n
,
B
1
(a
1
, , a
r
, a
r+1
, , a
n
). Se tiene que (h
A
(a
1
), , h
A
(a
r
)) es base de imh
A
y la ampliamos hasta una base de K
m
,
B
2
(b
1
= h
A
(a
1
), , b
r
= h
A
(a
r
), b
r+1
, , b
m
) y respecto de las bases B
1
y B
2
la matriz de h
A
es

I
r
O
O O

.
La existencia de P y Q se deduce de (5,2)).
Teorema 5.7. Sean A y B matrices m n en K. A es equivalente a B si y solo si
rangA = rangB.
Demostracion: Por el corolario ultimo, dos matrices equivalentes tienen el mismo
rango.
Recprocamente, si rangA = rangB = r, A y B son equivalentes a

I
r
O
O O

.
Como la relacion de ser equivalentes es de equivalencia, A es equivalente a B.
Denicion 5.8. Sea A una matriz m n, se llama matriz traspuesta de A y la deno-
taremos A
t
a la matriz cuyas las son las columnas de A.
Es decir A = (a
ij
), A
t
= (a

ij
) con a

ij
= a
ji
.
Proposicion 5.9. Si A y B son matrices que se pueden multiplicar, (AB)
t
= B
t
A
t
.
Si A es regular A
t
tambien lo es (A
t
)
1
= (A
1
)t.
55
Demostracion. Ponemos (AB)
t
= (c
ij
) y B
t
A
t
= (d
ij
).
Se tiene c
ij
=

n
k=1
a
jk
b
ki
y d
ij
=

n
k=1
b
ki
a
jk
luego c
ij
= d
ij
.
A
t
(A
1
)
t
= (A(A
1
))
t
= (I
n
)
t
= I
n
luego (A
t
)
1
= (A
1
)
t
.
Proposicion 5.10. Sea A m n en K. El rango de las de A es igual al rango de
columnas de A.
Demostracion. Notar que rango de las de A es igual a rangA
t
.
Sea r = rangA. Existen P y Q regulares tales que A = P

I
r
O
O O

Q. Trasponien-
do A
t
= Q
t
(

I
r
O
O O

)
t
P
t
, es decir A
t
= Q
t

I
r
O
O O

P
t
(Notar que la matriz de en
medio no es la misma pero r si lo es). Como Q
t
y P
t
son regulares, se tiene que
rangA
t
= rang

I
r
O
O O

= r
Teorema 5.11. Sea A una matriz n n en K. Se tiene que A es regular si y solo si
rangA = n.
Demostracion. Si A es regular, como A = AI
n
I
n
, haciendo P = A y Q = I
n
se tiene
que A es equivalente a I
n
y por tanto tienen el mismo rango n.
Recprocamente si A tiene rango n, existe P y Q regulares tales que A = PI
n
Q es
decir A = PQ y como el producto de regulares es regular, A es regular.
Denicion 5.12. a) Las operaciones elementales para matrices son las siguientes:
1.-Intercambiar dos las.
2.-Sumar a una la otra multiplicada por un escalar.
3.- Multiplicar una la por un escalar no nulo.
1

, 2

y 3

cambiando en 1,2 y 3 lapor columna.


b) Una matriz que se obtiene aplicandole a I
n
una operacion elemental se llama
matriz elemental.
Proposicion 5.13. a) Si se obtiene B a partir de A con operaciones elementales,
rangA = rangB.
b) Las matrices elementales son regulares.
Demostracion. a) Cuando se hace una operacion elemental de las la matriz que
resulta tiene unas las que generan el mismo subespacio que la matriz anterior luego el
rango no cambia. Cuando se hace una operacion elemental de columnas la matriz que
resulta tiene unas columnas que generan el mismo subespacio que la matriz anterior
luego el rango no cambia. b) Es claro con a) y la denicion.
Proposicion 5.14. Sea A una matriz mn en K. Se tiene
1.-Si B resulta al aplicarle a A una operaci on elemental de las, B = EA con E la
correspondiente matriz elemental.
2.- Si B resulta al aplicarle a A una operaci on elemental de columnas, B = AE con
E la correspondiente matriz elemental.
3.-Efectuando en A operaciones elementales del tipo 2 puede llegarse a una matriz
con las primeras las escalonadas y las posibles siguientes de ceros.
4.-Si A es regular la matriz que se obtiene como dice 3 tiene en la diagonal principal
(lugares (i,i)) p
i
= 0 y ceros debajo de la diagonal y con m as operaciones del tipo 2 y
operaciones del tipo 3 se puede obtener I
n
.
56
Demostracion. Ejercicio comentado.
Teorema 5.15. Toda matriz regular es producto de matrices elementales de los tipos
2 y 3.
Notar antes de la demostracion que las matrices inversas de los tipos anteriores son
elementales de los mismos tipos. Concretamente si E
kl
(t) = (e
ij
) siendo e
ii
= 1, e
ij
= 0
si i = j, ij = kl y e
kl
= t, se tiene que E
kl
(t)
1
= E
kl
(t).
Si E
k
(s) = (e
ij
) siendo e
ii
= 1 si i = k, e
kk
= s,e
ij
= 0 si i = j, entonces E
k
(s)
1
=
E
k
(s
1
).
Demostracion. Si A es una matriz regular, por la proposicion anterior punto 4 y punto
1 se tiene que existen matrices elementales E
1
, , E
r
de los tipos que dice el enunciado
tales que E
r
E
1
A = I
n
. Sean F
i
= E
1
i
se tiene que F
1
, , F
r
son elementales del
tipo del enunciado y A = F
1
F
r
Aplicaciones Tengamos en cuenta que si A es una matriz m n podemos consi-
derar (A[I
m
) y si efectuamos operaciones la a esta matriz mas amplia llegamos a
(E
r
E
1
A[E
r
E
1
I
m
) que si la llamamos (B[C), se tiene B = CA.
Si A es regular m = n y llegamos a B = I
n
haciendo operaciones elementales de
las, C es la inversa de A.
Si consideramos

A I
m
I
n

y hacemos operaciones de las y de columnas tenemos


que existe E
r
E
1
matrices elementales y F
s
F
1
matrices elementales tales que se
llega a

E
r
E
1
AF
1
F
s
E
r
E
1
I
m
I
n
F
1
F
s

as si tras operaciones elementales de las


y columnas llegamos a

B P
Q

, se tiene B = PAQ
Lema 5.16. Sea f : V W aplicacion lineal y b W. Se tiene:
1.-Si b imf, entonces f
1
(b) = .
2.-Si b = f(a) con a V , entonces f
1
(b) = a +c[c kerf := a +Kerf
Demostracion. Hecha.
Teorema 5.17. Sea AX = B un sistema de ecuaciones lineales en K. Es decir A es
una matriz m n en K, B =

b
1
.
.
b
m

K
m
(es un sistema de m ecuaciones con n
incognitas).
Se tiene:
1.- El sistema tiene solucion si y solo si rangA = rang(A[B) ( se dice que el sistema
es compatible).
2.-Si el sistema es compatible y rangA = n, la solucion es unica.
3.Si el sistema es compatible y rangA < n, la solucion no es unica.
Demostracion.
1.-Sea h
A
: K
n
K
m
. Las soluciones del sistema son h
1
A
(B).
imh
A
= K < h
A
(e
1
), h
A
(e
n
) > siendo e
1
, , e
n
la base canonica de K
n
.
As imh
A
= K <columnas de A > y se tiene
B imh
A
si y solo si B K < c
1
, , c
n
> siendo c
1
, c
n
las columnas de A.
Recordar (1,9), se tiene B K < c
1
, , c
n
> si y solo si
57
K < c
1
, , c
n
>= K < c
1
, , c
n
, B >
Como K < c
1
, , c
n
> K < c
1
, , c
n
, B > se tiene la igualdad si y solo si son
iguales las dimensiones, es decir si y solo si rangA = rang(A[B).
2.-Si rangA = n, dim(imh
A
) = n y entonces dim(kerh
A
) = dimK
n
dimImh
A
=
n n = 0 luego kerh
A
= 0 y por el lema, la solucion es unica.
3.-Si rangA < n, dim(imh
A
) < n y entonces dim(kerh
A
) = dimK
n
dimImh
A
> 0
luego kerh
A
tiene mas de un elemento y por el lema la solucion no es unica.
Nota Un sistema del tipo AX = 0 se llama homogeneo. Las soluciones son un subes-
pacio de K
n
, es el kerh
A
de dimension nrangA. Siempre tiene soluciones, al menos la
n-tupla nula es solucion. Tiene alguna solucion distinta de la nula si y solo si rangA < n.
Proposicion 5.18. Sea A una matriz m n en K y B m 1 en K. Si efectuando
en (A[B) operaciones elementales de las se obtiene (C[D), los sistemas AX = B y
CX = D tienen las mismas soluciones.
Demostracion. Por obtenerse (C[D) a partir de (A[B) con operaciones elementales
de las se tiene que existe una matriz regular P (producto de elementales), tal que
PA = C y PB = D.
Sea (1) el sistema AX = B y (2) el CX = D. Si X es solucion de (1) se tiene
AX = B y multiplicando por P, PAX = PB, es decir CX = D y X es solucion de (2).
Si X es solucion de (2), CX = D y multiplicando por P
1
se tiene P
1
CX = P
1
D
es decir AX = B y X es solucion de (1).
58
Captulo 6
Valores y vectores propios
Uno de los problemas centrales del

Algebra Lineal es el siguiente: Dado un endomor-
smo (operador ) T de un espacio vectorial V de dimension nita existe alguna base
(a
1
, , a
n
) de V en la que T se represente por una matriz lo mas sencilla posible? La
respuesta es armativa y ademas existen procedimientos efectivos para obtenerla. Esta
meta, sin embargo, esta mas alla de los objetivos se nalados a esta asignatura. En todo
caso estudiaremos y caracterizaremos un tipo especial de endomorsmos en los que esa
forma sencilla, lo es grado que podramos llamar optimo.
La idea es descomponer V en suma directa de subespacios
V = S
1
S
r
que sean invariantes por T (es decir T(v) S
i
para todo v S
i
) de modo que en cada
subespacio T se comporte de la forma mas sencilla posible. El punto de partida que tiene
sentido aunque V no sea de dimension nita es la siguiente
Denicion 6.1. Si T : V V es un operador en un espacio vectorial cualquiera
(V = 0) se llama vector propio de valor propio asociado a todo vector 0 = v V
tal que
T(v) = v
Insistimos en que un vector propio es un vector no nulo que por T se transforma en
uno proporcional. El factor de proporcionalidad es el valor propio.
Ejemplos 6.2. 1) Si T : V V es un operador cuyo nucleo Ker T es no nulo, entonces
todo vector no nulo de Ker T es un vector propio de valor propio asociado 0.
Mas a un, decir que 0 = v es un vector propio de valor propio es lo mismo que
decir que v es un vector no nulo del n ucleo del operador
T 1
V
(1
V
designa como siempre el operador identidad de V )
2) Sea T : R
2
R
2
(a, b) (b, a), entonces buscar un vector propio (con un
valor propio asociado ) es lo mismo que resolver en R el sistema de ecuaciones

b = a
a = b
(las incognitas son a, b. debe considerarse parametro tal que a o b sea no nulo)
59
De las ecuaciones anteriores se deduce
a =
2
a b =
2
b
Como a o b no nulo, ello conduce a que
2
= 1, que es imposible para valores
reales.
La conclusion es que T no tiene vectores propios.
3) Sea ahora T : R
2
R
2
(a, b) (b, a), En este caso se plantea el sistema

b = a
a = b
que conduce a la condici on
2
= 1. Es decir tenemos dos valores propios posibles
= 1 y = 1.
En el caso = 1, los vectores propios son los de la forma (a, a) con a = 0 y para
= 1, los vectores propios son los de la forma (a, a) con a = 0
Del comentario hecho en el ejemplo 1) se deduce un hecho obvio pero muy importante
que resaltamos como
Proposicion 6.3. Si es un valor propio del operador T, entonces el conjunto V

formado por todos los vectores propios correspondientes a juntamente con el vector
nulo, es un subespacio no nulo de V .
Es claro que V

= Ker (T 1
V
). Se llama subespacio fundamental denido por
. Se tiene
Proposicion 6.4. Una coleccion nita de V

1
, , V

r
de distintos subespacios funda-
mentales siempre esta en suma directa.
Demostracion : Es una tpica demostracion por induccion sobre el n umero r de sus-
bespacios. Para r = 0 o r = 1 la armacion es obvia
1
Sean V

1
, , V

r1
, V

r
subespacios fundamentales distintos (
i
=
j
si i = j)
Por hipotesis inductiva V

1
V

r1
, suponer pues que
v (V

1
V

r1
) V

r
Entonces
v = v
1
+ +v
r1
v
j
V

j
()
Aplicando T a esta igualdad

r
v =
1
v
1
+ +
r1
v
r1
()
Multiplicamos () por
r
y le restamos (). Se tiene
0 = (
r

1
)v
1
+ + (
r

r1
)v
r1
y la hipotesis inductiva permite asegurar que (
r

i
)v
i
= 0 i = 1, , r 1
v
i
= 0 i = 1, , r 1
O sea que V

1
, , V

r1
, V

r
estan en suma directa.
Como un subespacio fundamental es no nulo por denicion se puede concluir el
siguiente
1
Se puede empezar por r = 0 o r = 1 seg un el gusto del lector.
60
Corolario 6.5. En un espacio vectorial V de dimension nita n el conjunto de valores
propios de un operador es nito y su n umero es menor o igual n. Notar que puede ser
vaco (ejemplo 2)
Sin embargo un operador T : V V con dimension de V innita puede tener
innitos valores propios, por ejemplo considerar V = (

(R, R) y D : V V el operador
que asocia a cada funcion f su derivada f

( V ).
Sabemos que De
x
= e
x
R con lo que la funcion exponencial x e
x
es
un vector propio de valor propio .
Sea ahora f V tal que Df = f, como e
x
= 0 x R se puede considerar la
funcion
x
f(x)
e
x
que esta en V . Entonces su derivada es la funcion
x
f

(x)e
x
f(x)e
x
e
2x
= 0 x
este cociente es constante f(x) = ke
x
. Es decir que para todo R , es un
valor propio cuyo espacio fundamental asociado viene generado por la funcion x e
x
Por el contrario el operador denido por multiplicacion por x no poseee valores pro-
pios.
En efecto suponer 0 = f V = (

(R, R) es tal que xf(x) = f(x) con R jo.


En particular existe R tal que f() = 0 con lo que
f() = f()
y por tanto = . (De lo anterior se tiene que f(x) = 0 para todo x = y esta funcion
no es continua.) Tambien, derivando la expresion
xf(x) = f(x)
se tiene
f(x) +xf

= f

f() = 0 y tenemos la contradiccion


0 = f() = f() = 0
Volviendo al caso nito dimensional analizamos la colocacion mas extensa posible de
los subespacios fundamentales V

1
, , V

r1
, V

r
de T : V V operador lineal. Esta
conguracion se produce cuando
V = V

1
V

r
y esto da lugar a la siguiente
Denicion 6.6. Un operador lineal T de un espacio vectorial V de dimension nita se
dice diagonalizable si V es suma directa de los subespacios fundamentales de T.
61
El termino adoptado proviene de que podemos encontrar bases formadas yuxtapo-
niendo bases de los subespacios fundamentales. Entonces la correspondiente representa-
cion matricial de T es por medio de una matriz diagonal
D =

2
0

2
0

en donde aparece
i
repetido dimV

i
veces.
Se tiene que T es diagonalizable precisamente cuando V posee una base formada por
vectores propios de T. Es claro que el ejemplo 2) no es diagonalizable, mientras que en
el ejemplo 3) la base ordenada de R
2
((1,1),(1,-1)) permite diagonalizar el operador y
representarlo por la matriz

1 0
0 1

Para el resto de este captulo vamos a necesitar la teora de determinantes, por lo


que viene muy bien repasar los conocimientos adquiridos en la asignatura Matematicas
II del Bachillerato.
Suponer que T : V V es un operador lineal de dimension nita n y que jamos
una base (a
1
, , a
n
) de V . Entonces T se representa por A, matriz coordenada n n

y
1
.
.
.
y
n

= A

x
1
.
.
.
x
n

A = (a
i
j
)
1i,jn
(recordar que si v = x
i
a
i
, T(v) = y
i
a
i
)
Por tanto si v es un vector propio de coordenadas (x
1
, , x
n
) tendremos que para
un cierto K se verica

x
1
.
.
.
x
n

= A

x
1
.
.
.
x
n

(con x
i
= 0 para alg un i)
es decir el sistema homogeneo
(I
n
A)

x
1
.
.
.
x
n

0
.
.
.
0

62
tiene al menos una solucion no trivial. Lo que equivale a decir que el determinante
de la matriz I
n
A es cero. En otras palabras introduciendo la indeterminada X se
tiene que es un valor propio de T precisamente cuando es una raz de la ecuacion
det (XI
n
A) = 0 (3)
Mas explcito
det

X a
1
1
a
1
2
a
1
n
a
2
1
X a
2
2
a
2
n

a
n
1
a
n
2
X a
n
n

= 0
O si preferimos la notacion con doble subndice
det

X a
11
a
12
a
1n
a
21
X a
22
a
2n

a
n1
a
n2
X a
nn

= 0 (4)
Si cambiamos de base la matriz A se transforma en la matriz PAP
1
con P la matriz
regular del cambio de bases, entonces el polinomio que aparece en el primer miembro de
(3) , con la nueva matriz es
det (XI
n
P
1
AP) = det (P
1
(XI
n
A)P) =
= det P
1
det (XI
n
A)det P = det P
1
det (XI
n
A)(det P) = det (XI
n
A)
Es decir que tiene el mismo polinomio al que llamaremos indistintamente polinomio
caracterstico de T o polinomio caracterstico de A.
La ecuacion de (3) se denomina ecuacion caracterstica de T (o de A)
Desarrollando el primer miembro de (4) por la primera columna observamos (utili-
zando la induccion obvia) que el polinomio caracterstico es un polinomio de grado n
cuyo coeciente X
n
es 1. Ademas se observa que el coeciente de X
n1
es a
11
a
nn
y haciendo X = 0 se observa que el termino independiente es
(1)
n
det A
As el polinomio caracterstico de T se puede calcular usando cualquier matriz que
represente a T en cualquier base y es de la forma
X
n
+c
1
X
n1
+c
2
X
n2
+ +c
n1
X +c
n
con
c
1
= (a
11
+ +a
nn
) = traza de A
c
n
= (1)
n
det A
Vemos nuevamente que el n umero de valores propios de un operador en un espacio
de dimension n esta acotado por este n umero ya que una ecuacion de grado n con
63
coecientes en un cuerpo K posee a lo sumo n races en K (o en cualquier cuerpo que
contenga a K).
Ademas se sabe que cualquier ecuacion de grado mayor o igual que 1 con coecientes
complejos posee al menos una raz compleja, en consecuencia todo operador en un espacio
complejo de dimension nita posee al menos un valor propio ( y por tanto un subespacio
fundamental!)
Si K = R y n = dimV es impar, como toda ecuacion con coecientes reales de grado
impar posee al menos una raz real, se puede asegurar que todo operador de V tiene al
menos un valor propio. El ejemplo 2) prueba que este no es el caso si n es par.
Toda matriz A, n n en K puede interpretarse como matriz de un operador lineal
de un espacio vectorial V de dimension n referido a una base (a
1
, , a
n
) de modo que
la columna i-esima de A esta formada por las coordenadas de T(a
i
) en dicha base. Por
ejemplo tomar V = K
n
y (a
1
, , a
n
) la base canonica con lo que la columna i-esima
de A es el elemento T(a
i
).
Pues bien se dice que A es diagonalizable si T lo es lo que equivale a decir que
existe una matriz regular P tal que P
1
AP es diagonal formada por los valores propios
de T con la multiplicidad adecuada.
Suponer que
P
1
AP = D =

diagonal
con
i
K (posiblemente repetidas), entonces para todo entero positivo m se tiene
A
m
= (PDP
1
)
m
= PD
m
P
1
= P

m
1

m
2

m
n

P
1
Con lo que el calculo de A
m
se puede efectuar calculando la matriz P cuya i-esima
columna esta formada por un vector propio de A de valor propio
i
adecuado.
Del mismo modo si f(X) es un polinomio con coecientes en K se tiene
f(A) = P

f(
1
)
f(
2
)
f(
n
)

P
1
y si por ejemplo queremos calcular la exponencial de la matriz A, pondremos
e
A
= P

1
e

2
e

P
1
64
Nota: Se dene e
A
como el lmite
lm
k
(I
n
+
1
1!
A+
1
2!
A
2
+ +
1
k!
A
k
)
65
Captulo 7
Espacio dual
Suponer que V es un espacio vectorial cualquiera sobre un cuerpo cualquiera K.
Considerar a K como espacio vectorial (unidimensional) sobre s mismo. Se llama forma
lineal sobre V (o si se preere, funcional lineal) a toda aplicacion lineal
: V K
Si v V pondremos < v, > para denotar la imagen (v) de v por .
Llamaremos V

al conjunto de todas las formas lineales sobre V , en el que sabemos


pueden denirse dos operaciones suma y producto por escalares de la siguiente forma :
i) La suma + de dos formas , V

es la aplicacion dada por


< v, + >=< v, > + < v, > v V
de modo que la linealidad de y implican la de +
ii) Si V

y a K se dene el producto de a por como la aplicacion a dada


por
< v, a =< av, > v V
Es rutinario comprobar que le conjunto V

dotado de estas dos operaciones binarias


pasa a ser un espacio vectorial cuyo vector nulo es la forma lineal nula
0

: V K v 0 v V
Se nalamos, en consecuencia, la siguiente
Denicion 7.1. El espacio vectorial (V

, +, K) se llama espacio vectorial dual de


V .
Como es costumbre lo denotaremos en la forma abreviada V

, quedando sobreen-
tendidas las operaciones suma y producto por escalares.
La idea es contemplar a V

como una entidad ligada a V , con una ecaz interaccion


entre ambos espacios, en especial en el caso en que V tiene dimension nita. Este es el
caso al que dedicaremos preferentemente nuestra atencion , aunque al nal del captulo
haremos, va un ejemplo, una tmida incursion al caso de dimension innita.
66
Suponer que (e
1
, e
2
, , e
n
) es una base cualquiera de V . Recordar que toda aplica-
cion lineal f que sale de V esta unvocamente determinada por los valores de f(e
i
), 1
i n, en consecuencia para todo j, 1 j n, podemos denir una forma lineal
e
j
: V K e
i
< e
i
, e
j
>=
j
i
(en donde
j
i
es el smbolo de Kronecker que vale 1 si i = j y 0 en otro caso).
Tenemos as n formas lineales que constituyen una familia (e
1
, e
2
, , e
n
). Se tiene
entonces
Proposicion 7.2. La familia (e
1
, , e
n
) anterior constituye una base de V

llamada
base dual de (e
1
, , e
n
).
Demostracion. Si a
1
, , a
n
K son tales que a
k
e
k
= a
1
e
1
+ a
n
e
n
= 0

, entonces
para todo i(1 i n) se tiene
0 =< e
i
, 0

>=< e
i
, a
k
e
k
>= a
k

j
i
= a
i
Es decir (e
1
, , e
n
) es libre. Por otro lado si V

se tiene que y (e
i
)e
i
=
(e
1
)e
1
+ +(e
n
)e
n
toman el mismo valor en cada elemento e
j
de la base inicial en
V , por lo tanto coinciden, es decir
= (e
i
)e
i
lo que permite asegurar que e
1
, , e
n
es un sitema generador de V

.
La primera consecuencia de esta proposicion es que si V es un espacio vectorial de
dimension nita, V

tambien lo es y
dimV

= dimV
Una segunda consecuencia es la siguiente
Observacion Si V es de dimension nita
1
entonces para todo par de vectores distintos
v y w existe al menos una forma lineal tal que < v, >=< w, >. En particular si
0 = v V existe V

tal que < v, >= 0.


En efecto, como v = w, el vector v w es no nulo, es decir la familia d eun solo
vector (v w) es libre con lo que se puede tomar como primer vector d euna base de V :
e
1
= v w. Basta tomar = e
1
primer vector d ela base dual. (Lo que se dice en esta
observacion es que existen sucientes formas lineales para distinguir.
el
ementos distintos
en V ).
Suponer ahora que (e
1
, , e
n
) es una base de V

, entonces la aplicacion
e : V
n
v (< v, e
1
>, , < v, e
n
>)
es evidentemente lineal, ademas e(v) = 0 si y solo si < v, e
i
>= 0 para todo i, lo
que equivale a decir que < v, >= 0 para todo V

. Por la observacion anterior


concluimos que v = 0, en otras palabras e es una aplicacion lineal inyectiva.
1
En realidad esta hip otesis de nitud es innecesaria si apelamos al hecho no probado en estas notas
que arma que en todo espacio vectorial un sistema libre de vectores puede ampliarse hasta formar una
base.
67
Como dimV = dimK
n
, e es necesariamente un isomorsmo. El isomorsmo inverso
e
1
de K
n
en V transforma la base canonica de K
n
en un abase de V , ahora bien c
i
=
(0, , 1 , 0) es el i-esimo vector de la base canonica de K
n
y ponemos e
i
= e
1
(c
i
),
se tiene que < e
i
, e
j
>=
j
i
.
La conclusion es que la base (e
1
, , e
n
) denida por e
1
tiene por base dual a
(e
1
, , e
n
), que es nuestra base de partida. En resumen, toda base de V

es dual de
una base de V . mas a un hemos establecido correspondencias naturales entre
INSERtar GRaco
Suponer ahora que efectuamos en V un cambio de bases de (e
1
, e
n
) a (e
1
, e
n
)
dado por

e
i
=
j
i
e
j
i = 1, , n
de manera que la matriz del cambio de bases
P =

1
1

1
2

1
n

2
1

2
2

2
n

n
1

n
2

n
n

es regular.
Cada una de esas bases tiene una base dual (e
1
, e
n
) a (e
1
, e
n
) respectivamente,
con lo que tenemos el correspondiente cambio de bases

e
h
=
h
k
e
k
h = 1, , n
de matriz
Q =

1
1

1
n

n
1

n
n

Por denicion de bases duales tenemos

h
i
=< e
i
, e
h
>=<
j
i
e
j
,
h
k
e
k
>=
j
i

h
k

k
j
=
k
i

h
k
lo que signica que las matrices P y Q son inversas una de otra.
Observar que los cambios de bases en V y V

denen sendos cambios de coordenadas

x
1
.
.
.
x
n

= P

x
1
.
.
.
x
n

P =

1
1

1
n

n
1

n
n

(v = x
i
e
i
= x
j
e
j
V
68

u
1
u
n

u
1
u
n

Q Q =

1
1

1
n

n
1

n
n

(
= u
h
e
h
= u
k
e
k
V

Nuestra notacion de ndices mixta: superndices para marcar la la y subndices para


marcar columnas conduce a representar por una matriz columna las coordenadas de los
elementos de V y por una matriz la, las de los elementos de V

; de ah la relacion
Q = P
1
obtenida antes.
Si nos adherimos a una notaci on de doble subndice para las matrices y escribimos
las coordenadas de los elementos de V y V

een columna , entonces la matriz Q de


cambio de coordenadas debe sustituirse por su traspuesta

u
1
.
.
.
u
n

= Q

u
1
.
.
.
u
n

con lo que con esta notacion la matriz de cambio de coordenadas en V

es la tras-
puesta de la inversa (que coincide con la inversa de la traspuesta) de la matriz de cambio
de coordenadas en V
2
La interaccion de V y V

tiene dos facetas complementarias entre s, la primera


de las cuales viene expresada en la siguiente
Denicion 7.3. Si S es un subespacio de V , se llama ortogonal de S al subconjunto
S

de V

denido por
S

= V

[ < v, >= 0 v S
De la denicion de subconjunto ortogonal se deduce inmediatamente que
1) S

es un subespacio de V

2) Si S
1
S
2
, entonces S

1
S

2
Proposicion 7.4. Si V es un espacio vectorial de dimension nita n y S es un
subespacio de V , entonces
dimS

= n dimS
Demostracion: Sea (e
1
, , e
r
) base de S ( por tanto r = dimS). Compltar esta
familia libre hasta conseguir una base de V : (e
1
, , e
r
, e
r+1
, , e
n
)). Considerar
en V

su base dual (e
1
, , e
n
). Si V

se puede poner
= u
i
e
i
= u
1
e
1
+ +u
r
e
r
+u
r+1
e
r+1
+ +u
n
e
n
2
La matriz (P
1
)

= (P

)1 recibe el feo nombre de contragradiente de P


69
Es claro que S

si y solo si < e
i
, >= 0 i = 1, , r; es decir si y solo si
u
i
=< e
i
, u
1
e
1
+ +u
r
e
r
+u
r+1
e
r+1
+ +u
n
e
n
>= 0 i = 1, , r
con lo que
S

= K < e
r+1
, , e
n
>
y de ah dimS

= n dimS
Analogamente podemos denir para todo subespacio T de V

su ortogonal T

en
V mediante la denicion obvia
T

= v V [ < v, >= 0 T
Es claro que T

es un subespacio de V , que
T
1
T
2
= T

1
T

2
y que modicando de modo obvio la demostracion d ela
proposicion anterior se tiene dimT

= n dimT
Finalmente observar que si S es un subespacio de V y T un subespacio de V

,
aplicando sucesivamente las dos construcciones del subespacio ortogonal tenemos
que por denicion
S S

T T

ahora bien por cuestion de dimensiones en ambos casos vale la igualdad:


S = S

T = T

As las dos asignaciones S S

y T T

son sendas aplicaciones biyectivas


e inversa una de otra denidas entre los subespacios de V y los subespacios de
V

. Estas dos biyecciones invierten el contenido. No es dicil observar que, en


consecuencia
0

= V

= V
(S
1
+S
2
)

= S

1
S

2
; (S
1
S
2
)

= S

1
+S

2
con S
1
y S
2
subespacios d eV y lo mismo si consideramos sumas e intersecciones
d esubespacios d eV

.
Veremos a continuacion cual es el sentido geometrico de la construccion del orto-
gonal S

del subespacio S.
70
En primer lugar sabemos que S queda determinado por cualquier sistema ge-
nerador, en particular y del modo mas economico posible por cualquier base
(a 1, , a
r
) de S. Los vectores de S se pueden determinar invocamente as
v S v =
1
a
1
+ +
r
a
r
con lo que
1
,
r
son r parametros independientes (una suerte de coordenadas
localesdentro de S) Si en V hubieramos denido una base (e
1
, , e
n
), o sea un
sistema de coordenadas, entonces las coordenadas (x
1
, , x
n
) de los vectores de
S se representaran parametricamente por

x
i
=
1
a
i
1
+ +
r
a
i
r
i = 1, , n
en funcion d elas coordenadas A
i
k
de los r vectores a
1
, , a
r
3
Sea ahora (
1
,
2
, ,
nr
una base cualquiera del subespacio ortogonal S

de
S, entonces
v S < v,
j
>= 0 j = 1, , n r
Con lo que las relaciones < v,
j
>= 0 se pueden interpretar como n r ligadu-
rasque obligan a v a pertenecer a S.
Si tuvieramos la base de V anterior cada
i
se pondra de la forma

i
= u
i
k
e
k
con (e
1
, , e
n
) la base dual en V

y las coordenadas (x
1
, , x
n
) de los vectores
de S son precisamente las que verican las n r ecuaciones lineales homogeneas

u
i
k
x
k
= 0
i = 1, , n r
la independencia lineal de las formas varphi
1
,
2
, ,
nr
se traduce en que la
matriz
(u
i
k
)
1inr,1kn
tiene rango (de las) n r
4
De modo un tanto coloquial diramos que la descripcion de un subespacio en
terminos de una base del mismo es una descripcion desde dentro como una suma
directa de r subespacios unidimensionales:
S = K < a
1
> K < a
r
>
3
Comparar con la representaci on parametrica de una recta o un plano en la geometra elemental del
espacio
4
Comparar esto con la descripci on de un plano por medio de una ecuacion o de una recta por medio
de dos ecuaciones.
71
Mientras que si S se considera el ortogonal de un subespacio de V

de dimension
n r, se tiene S como interseccion de n r subespacios de dimension n 1
(corrientemente llamados hiperplanos)
S = Ker
1
Ker
nr
En cierto modo esto es una descripcion desde fuera.

Sea ahora f : V W una aplicacion lineal con V y W espacios vectoriales


cualesquiera sobre un cuerpo K.
Si W

, lo que tenemos es una apicacion lineal : W K con lo que tiene


sentido efectuar la composicion f : V K, considerando como variable
independiente tenemos denida una aplicacion
f

: W

f
si recordamos las propiedades basicas de la composicion de aplicaciones lineales
observamos, en particular
1) , W

( +) f = f + f
2) W

a K (a) f = a( f)
igualdades que expresadas en terminos de la aplicacion f

dicen
1) f

( +) = f

() +f

() , W

2) f

(a) = af

() W

a K
es decir f

es una aplicacion lineal.


Denicion 7.5. La aplicacion lineal f

se llama aplicacion lineal dual de f


Observar que si f va de V en W, f

va de W

en V

(diramos a la contra) y
que esta es la unica manera de componer f con un elemnto generico : W K.
Ver el diagrama
INSERTAR GRAFICO
Es bastante ecaz a la hora de hacer calculos el recordar que
< f(v), >=< v, f

() >
(Al pasar f al otro lado de la coma se pone el asterisco)
Es inmediato comprobar las siguientes propiedades
1) (f
1
+f
2
)

= f

1
+f

2
siempre que f
1
y f
2
sean sumables.
2) (af)

= af

a K
3) (f
1
f
2
)

= f

2
f

1
siempre que f
1
y f
2
sean componibles.
4) (1
V
)

= 1
V

72
Supondremos que f : V W es como antes y que V y W son de dimension nita.
Fijar sendas bases
(e
1
, , e
n
)enV y (
1
,
m
)enW
con lo que tenemos las correspondientes bases duales
(e
1
, , e
n
)enV

y (
1
,
m
)enW

Si A = (
j
i
)
1 j m
1 i n
(CORREGIR) es la matriz mn de f en las bases iniciales,
se tiene f(e
i
) =
j
i

j
. Por otro lado si B = (
h
k
)
1 h m
1 k n
es la matriz mn de f

en las bases duales se tiene f

(
h
) =
h
k
e
k
Ahora bien
< f(e
i
),
h
>=< e
i
, f

(
h
) >
con lo que

h
i
=<
j
i

j
,
h
>=< e
i
,
h
k
e
k
>=
h
i
Por lo tanto las dos matrices coinciden. Notar que si hubieramos adoptado sis-
tematicamente la notacion de subndices la matriz B de f

hubiera sido la tras-


puesta de A
Recordar (una vez mas!) que las coordenadas y
i
de f(v) en base
i
) se relacionan
con las coordenadas x
j
de v en base e
j
por medio del producto de matrices

y
1
.
.
.
y
m

= A

x
1
.
.
.
x
n

a la que llamamos ecuacion de f en las bases dadas.


Como las coordenadas de f(e
i
) son exactamente las columnas de A podemos anotar
rango de columnas de A = dim Imf
Para escribir la ecuacion de f

: W

en las bases duales se recurre de modo


natural a escribir las coordenadas de las formas W

, f

() V

en

u
1
u
n

v
1
v
m

A
73
con = v
i

i
y f

() = u
j
e
j
. Por tanto tenemos que contemplar la matriz A de
modo ortogonal:
rango de las de A = dim Imf

Proposicion 7.6. Para toda aplicacion lineal f se tiene


Kerf = (Imf

Kerf

= (Imf)

Demostracion. Veamos unicamente la primera. Se tiene v Kerf f(v) =


0 < f(v), >= 0 W

< v, f

() >= 0 W

La ultima igualdad signica que v es anulado por toda forma Imf

, es decir
v (Imf

Como consecuencia de esta proposicion podemos poner


rango de columnas de A = dim Imf = dim V dim Kerf = dim V dim (Imf

=
dim V (dim V dim Imf

) = dim Imf

= rango de las de A
Se tiene as una prueba (geometrica?) de la igualdad de los rangos de las y de
columnas.

Terminamos este captulo con un ejemplo innito dimensionaldel comportamien-


to del espacio dual en el caso general.
Sea V el espacio vectorial real formado por todos los polinomios
p(X) = a
0
+a
1
X + +a
n
X
N
con a
i
R. Las operaciones son las habituales. De la denicion de polinomio
deducimos inmediatamente que la familia
(1, X, X
2
, , X
n
, )
es una base innita (5) de V
NOTA PIE En teora de conjuntos de precisa que esta base es innita numerable,
lo que signica que se puede poner en biyeccion con el conjunto N de los n umeros
naturales.
Se puede construir la correspondiente familia de formas lineales
(
0
,
1
, ,
n
, )
denida por
i
(X
j
) =
i
j
y comprobar que se trata de una familia linealmente
independiente.
Para todo n umero real a vamos a denir la aplicacion evaluacion en a
74

a
: V R p(X) p(a)
que asocia a cada polinomio (o funcion polinomica) p(X) su valor en a.
Pues bien si a
1
, a
2
, , a
r
son r n umeros reales distintos, se pueden denir r po-
linomios
l
i
(X) =
(X a
1
)

(X a
i
) (X a
r
)
a
i
a
1
)

(a
i
a
i
) (a
i
a
r
)
i = 1, , r. (El circumejo signica que el factor que hay debajo no aparece)
Se comprueba inmediatamente que

a
i
(l
j
(X)) =
j
i
con lo que podemos asegurar
1) Los l
i
(X) forman una familia libre de r elementos del subespacio V
r
de V
formado por los polinomios de grado menor que r. Por tanto son una base de
V
r
( se llaman polinomios interpoladores de Lagrange)
2) La familia de evaluaciones

a
[a R
es una familia innita ( mas grandeque la de los
i
, en efecto si as fuera

a
= b
0

0
+b
1

1
+ +b
n

n
b
i
R y n N sucientemente grande. Si as fuera, aplicando
a
al polino-
mio X
n+1
se obtendra

a
(X
n+1
) = a
n+1
= 0
pero la igualdad anterior conduce a

a
(X
n+1
) =

b
i

i
(X
n+1
) = 0
contradiccion.
La consecuencia es que la familia de los
i
(i N) no es una base de V

,
contrariamente a lo que ocurra en el caso de los espacios de dimension nita.
Por otro lado la existencia de la familia libre de las evaluaciones:
a
[a R
permite asegurar que la dimension de V

es mayor (en el sentido de la teora


de cardinales) que la dimension de V , aun siendo ambas dimensiones innitas.
En asignaturas posteriores se estudiara una teora de la dualidad mas na
valida en espacios vectoriales reales y complejos de dimension innita dotados
de la conveniente estructura adicional que permita hablar de continuidad.

75
Un plano de (A(R
3
) viene dado por uno de sus puntos w y un subespacio
direccional bidimensional S = R < a, b > con a, b libre.
En denitiva = w +S.
Alternativamente podemos considerar T = S

el subespacio de (R
3
)

anulador
de S. Si T = R < > tenemos
= v[ < v w, >= 0
Por tanto viene determinado por el par (w, ). Observar que es una forma
lineal no nula que se puede pensar como un sucedaneo del vector caracterstico
de la geometra clasica. Pondremos = (w, )
Sean = (w, ) un plano y r = v +R < a > una recta
1) Si < a, >= 0 se plantea la ecuacion en x
< v +xa w, >= 0
es decir
< v w, > +x < a, >= 0
que tiene solucion unica x
0
, por tanto v + x
0
a es el unico punto de r que
tambien esta en . En otras palabras r y se cortan en un punto.
2) Si < a, >= 0 y < v w, >= 0, la ecuacion anterior no tiene solucion,
es decir r = . Ademas < a >< >

= S lo que signica r | .
3) Si < a, >= 0 y < v w, >= 0, todo x R es solucion con lo que
r .
Estas son las tres posiciones relativas de recta y plano
Para planos, si escribimos = v +S = (v, ) y = w +T = (w, ), es decir
usamos las formas caractersticas y , se tendra
1) Si , es libre (S = T, luego S T es de dimension 1) , es una
recta de direccion < >

< >

2) Si , es ligado y < v w, >= 0, = y |


3) Si , es ligado y < v w, >= 0, =
76

You might also like