Professional Documents
Culture Documents
1
Miguel Torres Iglesias y Paz Jimenez Seral
curso 20112012 (version septiembre 2011)
1
Asignatura del grado en Fsica de la Universidad de Zaragoza
Indice general
1. Introduccion. Lenguaje, operaciones y propiedades 4
2. Espacio vectorial 19
3. Base y dimension 29
4. Aplicaciones lineales 38
5. Matrices: Rango y equivalencia 54
6. Valores y vectores propios 59
7. Espacio dual 66
1
Prologo. Hasta mediados del siglo XIX la Matematica que hoy llamamos purase
ocupaba especialmente de los calculos y la manipulacion de expresiones simbolicas, refe-
ridas especialmente a n umeros, que en algunos casos no estaban perfectamente denidos.
En esa epoca aparece una nueva vision de la Matematica en donde el centro de la misma
pasa de la realizacion de calculos a la formulacion y comprension de objetos abstractos
y de las relaciones entre los mismos. Se establece el metodo deductivo como principal
herramienta de trabajo, volviendo as a la tradicion de los geometras griegos de la An-
tig uedad. Una vision radical de lo anterior se desprende de la denicion bourbakista: La
Matematica, hoy como en la Grecia antigua, es demostracion. Es claro que esta vision
debe ser ampliada con la toma en consideracion de los modernos y potentes metodos de
computacion.
En niveles educativos anteriores prima claramente el aspecto computacional y de
manipulacion de expresiones sobre el conceptual y deductivo. Hay excepciones, eviden-
temente, como por ejemplo las demostraciones de ciertos teoremas clasicos. Como iremos
viendo a lo largo de esta asignatura no abandonaremos del todo este tipo de habilida-
des que se desarrollaran en los temas que lo requieran, por ejemplo cuando tratemos
el algebra matricial o en el caso de los sistemas de referencia para convertir problemas
geometricos en manipulacion de las ecuaciones de las guras. Diramos que en los casos
en los que se aprecia una cierta concrecion aparecen objetos descritos por n umeros en los
que predomina el metodo del calculo. La gran novedad, y de ah la mayor dicultad de
esta asignatura, estriba en el papel primordial que se da al lenguaje y a las estructuras
abstractas y que no necesariamente se reeran a n umeros, guras, funciones descritas
por formulas, etc. La realidad es que este primer contacto con los objetos abstractos
y el metodo deductivo es una tarea encomendada a esta asignatura de modo explcito
dentro de las distintas tareas y contenidos que conguran el grado de Fsicas.
Podemos establecer, por orden de aparicion, cinco bloques conceptuales en la pro-
gramacion de contenidos.
1 El lenguaje de la Matematica
2 La linealidad
3 La simetra
4 La multilinealidad
5 Repaso de algunos puntos de geometra
1) En primer lugar se hace una introduccion a la Teora de Conjuntos, como principal
lenguaje de la Matematica. Notar que la denicion de conjunto como concepto basico de
esta teora es un tanto imprecisa y subjetiva, como ya ocurra en la denicion original
dada por G. Cantor. Con un poco de practica se consigue un buen manejo de este
lenguaje, que permite expresar con claridad y generalidad ideas tan comunes como la
de par, relacion y funcion (o aplicacion). As una funcion ya no esta necesariamente
dada por una formula: polinomio, serie convergente o expresion cualquiera de otras
funciones, etc. Se consigue extender la idea de funcion como un caso especial de relacion
sin preocuparnos, en principio, de su posible realizacion concreta. Veremos tambien lo
que signica en general una operacion binaria.
2) Aparte de las magnitudes escalares, como la masa o la carga electrica, que se
representan por n umeros reales, existen magnitudes vectoriales representadas por enti-
2
dades mas complejas, a saber los vectores. Los vectores se pueden sumar y multiplicar
por escalares y las magnitudes vectoriales o escalares se pueden relacionar entre s de
modo que muchas veces esta relacion respeta la suma (aditividad) y el producto escalar
(homogeneidad), la conjuncion de estos dos hechos es la linealidad. El ambito abstracto
en el que se desarrollan estas ideas es el de espacio vectorial en donde, en conse-
cuencia, partimos de dos operaciones La conservacion de la linealidad esta dada por la
condicion de aplicacion lineal y sus casos particulares mas importantes: forma lineal
y operador lineal
En geometra representamos los puntos del plano o del espacio por medio de pares
ordenados de n umeros reales o ternas ordenadas respectivamente con lo que las guras
se describen por las ecuaciones que verican sus coordenadas. Esto nos da un potente
metodo de tratar los problemas geometricos haciendo calculos. Es claro que estos calculos
deben interpretarse geometricamente para que el problema se considere resuelto. En
nuestro caso, cuando los espacios vectoriales son de un tipo especial, que recibe el nombre
de espacios nito-dimensionales es posible , y muy util, hacer una traduccion del lenguaje
abstracto de los elementos integrantes de un espacio vectorial, llamados vectores y de
las aplicaciones lineales a un lenguaje mas concreto, a saber los vectores se representan
por ternas en general n- tuplas y las aplicaciones lineales por matrices. Las operaciones
entre vectores y aplicaciones lineales se reejan en las bien conocidas operaciones con
matrices las cuales se pueden describir en terminos de operaciones con n umeros.
3) La simetra es una importante propiedad presente tanto en las guras geometricas
como en la Naturaleza. La abundancia de simetras en una conguracion cualquiera,
abstracta o real se mide por el conjunto de permutaciones que jan la apariencia de dicha
conguracion. Esta transformaciones se pueden componer y el resultado es un ejemplo
de grupo , que en denitiva es un conjunto dotado de una sola operacion (recordar que
en los espacios vectoriales tenamos dos operaciones). Especialmente importantes son los
grupos que describen las permutaciones de los conjuntos nitos y sobre todo los grupos
de matrices regulares.
4) Ademas de las magnitudes escalares representadas por un n umero y de las vec-
toriales representadas por un vector, o si se quiere por una terna de n umeros, existen
magnitudes cuyo comportamiento y representacion natural es mas compleja. Hay mag-
nitudes tensoriales, que conducen al estudio de la multilinealidad. En particular ciertas
aplicaciones sobre varias variables vectoriales que se comportan linealmente en cada una
de dichas variables, esto es lo que llamaremos tensor que del mismo modo que los
vectores y las aplicaciones lineales se representaran por familias de n umeros, llamadas
componentes, sometidas a una determinada ley de transformacion. Dada la complejidad
de estas componentes no es posible representarlas por las o matrices, salvo en los casos
mas sencillos.
5) El contenido de esta parte de la asignatura es obvio.
Como a veces ocurre con los prologos tras su lectura percibimos un tanto confu-
samente su contenido. Se recomienda hacer una segunda lectura tras haber cursado la
asignatura. Es de esperar que entonces se alcance una mejor comprension de las ideas
centrales aqu expuestas. Quedan en el tintero los aspectos metricos del Algebra Lineal
(recordar el producto escalar de los vectores del espacio ordinario); pero estos temas se
trataran en asignaturas mas avanzadas.
3
Captulo 1
Introducci on. Lenguaje,
operaciones y propiedades
En un nivel intuitivo es difcil dar una denicion precisa de conjunto sin incurrir
en redundancias o expresiones circulares. solemos apelar a nuestra percepcion de co-
lecciones, familias, agregados....de objetos
1
, por ello adoptaremos la siguiente
Denicion 1.1. Llamaremos conjunto a cualquier coleccion de objetos perfectamente
determinada.
Denotaremos los conjuntos por letras may usculas: A, B, y los objetos por letras
min usculas a, b, c, , x, y,
Los objetos que constituyen un conjunto de llaman miembros o elementos del
conjunto. Pondremos
x A
para signicar que x es un elemento de A y la negacion de este hecho se escribe as,
x A
El smbolo fue introducido por G. Peano y recuerda a la palabra griega (esta),
as las expresiones anteriores se leeran:
x esta en A, x no esta en A
Insistimos, un conjunto esta perfectamente denido cuando sabemos exactamente
cuales son sus miembros.
Ejemplos 1.2. .
1) El conjunto de todos los enteros positivos pares.
2) El conjunto de todos los enteros positivos menores que 8
3) El conjunto de ciudadanos mayores de edad que forman el censo electoral de
Zaragoza el 1 de enero de 2012
1
Con lo que no nos hallamos muy lejos de la denici on original expresada por G. Cantor: Entendemos
por conjunto cualquier recopilaci on (Zussammenfassung) en todo M de objetos m denidos y separados,
de nuestra intuici on y de nuestro pensamiento.
4
4) El conjunto de distritos electorales del municipio de Zaragoza.
5) El conjunto de los puntos del plano que distan r (n umero real positivo jo) de
un punto O dado del plano (que podemos tomar como origen de coordenadas)
6) En el sistema de coordenadas anterior el conjunto de los puntos de coordenadas
(x, y) tales que x
2
+y
2
= r
7) El conjunto de los n umeros reales x para los que no tiene sentido la expresion
1/senx
Cuando un conjunto es nito (y peque no!) se puede describir usando llaves:, que
abarcan todos los miembros del conjunto, as en el ejemplo 2 el conjunto se puede denir
as
C
2
= 1, 2, 3, 4, 5, 6, 7
El tama no del conjunto descrito en el ejemplo 3 hace incomodo este tipo de descrip-
cion.
A veces puede usarse la doble llave sin mas para cierto tipo de conjuntos innitos,
as el primer ejemplo se pone
C
1
= 2, 4, 6, , 2n,
sin olvidar poner los oportunos puntos suspensivos.
El procedimiento para denir un conjunto es considerar una propiedad caracterstica
de sus miembros; es decir una propiedad que cumplan los elementos de ese conjunto y
solamente dichos elementos. Esquematicamente se escribe
x[P(x)
y se lee: el conjunto de los elementos x que verican la propiedad P(x). La mayora
de las veces los elementos del conjunto que deben vericar esta propiedad pertenecen a
un conjunto A dado de antemano, en cuyo caso precisamos la notacion anterior poniendo
x A[P(x)
Con mucha frecuencia se manejan conjuntos de n umeros como referencia y existe
una notacion aceptada para los mismos. A saber N denota el conjunto de los n umeros
naturales 0, 1, 2, , Z el conjunto d elos n umeros enteros 0, 1, 2, 3, , Q es el de
los n umeros racionales, R el de los reales y C el de los complejos.
As en los ejemplos de mas arriba ponemos
C
1
= x[x = 2y, y > 0, y Z
C
7
= x R[x = k, k Z
Los ejemplos 5) y 7) son dos formas de describir la circunferencia de centro O y radio
r. Si P es el conjunto de puntos del plano se tiene
C
5
= x P[ distancia (x, O) = r O P y 0 < r R jos.
5
Denicion 1.3. Se llama conjunto vaco al conjunto que no tiene elementos. Se re-
presenta con el smbolo
= x U[x A
Las asignaciones a A y B de su unionA B e interseccion A B as como la de-
nicion de A
= A
(8) (A B)
= A
(9) A A
= U
(10) A A
=
(11) (A
= A
(1 y 2) son las leyes asociativas, (3 y 4), las conmutativas (5 y 6), las distributivas
y (7 y 8) se dicen leyes de Morgan.
Las demostraciones son muy sencillas, veamos por ejemplo (5) y (7)
Para probar (5) observar en primer lugar que si x (A B) C entonces o bien
x A B o bien x C
En el primer caso x A y x B, como A A C y B B C se tiene x A C
y x B C, y por tanto x (AC) (B C). En el segundo caso tambien x AC
y x B C y se llega a la misma conclusion. En denitiva
(A B) C (A C) (B C)
7
Sea ahora x (AC) (BC) entonces x AC y x BC. Si x C, entonces
x (A B) C. Si x C se tiene que x A y x B con lo que x A B y de
aqu x (A B) C. En resumen
(A C) (B C) (A B) C
Este tpico doble contenido es precisamente la denicion de igualdad.
Para la prueba de (7) seamos menos tediosos:
x (A B)
x A B x A x A x A
x B
x A
B
2
La denicion de union e interseccion de dos conjuntos puede extenderse a familias
nitas : A
1
, , A
n
de conjuntos y a familias arbitrarias A
i
, i I de conjuntos. Pero
para ello conviene precisar el concepto de familia de conjuntos. Para ello vamos a
suponer que I es un conjunto no vaco cuyos elementos llamaremos ndices y denotaremos
genericamente por la letra i. Si a cada ndice i le asignamos un conjunto A
i
diremos que
hemos denido una familia. Notar que es posible que A
i
= A
j
aunque i = j, incluso
puede ocurrir que todos los A
i
sean iguales. En el caso en que I = 1, 2, , n la familia
se denota as
A
1
, , A
n
iI
A
i
= x[(i I)(x A
i
)
3
y la interseccion es
iI
A
i
= x[(i I)(x A
i
)
Valen las propiedades:
(1)
B (
iI
A
i
) =
iI
(B A
i
)
(2)
B (
iI
A
i
) =
iI
(B A
i
)
(5)
B (
iI
A
i
) =
iI
(B A
i
)
(6)
B (
iI
A
i
) =
iI
(B A
i
)
(7)
iI
A
i
)
iI
A
i
(8)
iI
A
i
)
iI
A
i
2
Suponemos familiaridad con los smbolos l ogicos: , . Si no es as leer como abreviatura
de s y solo si y como otra forma de escribir la conjunci on copulativa, y. Los otros conectivos l ogicos
son , (implica) (o no excluyente ) y (no)
3
El smbolo signica , existe al menos un , y se llama cuanticador existencial. signica , para
todo, y es el cuanticador universal.
8
(5)
y (6)
y (8)
, y
) x = x
, y = y
miembros de C
3
estan relacionados si c tiene igual o mayor
edad que c
estan relacionados
si c y c
aA
{(a)
Con ello tenemos repartido el conjunto A en una coleccion de distintos subconjuntos
no vaco, disjuntos dos a dos.
Un tal reparto se llama particion de A. Recprocamente si tenemos una particion
de A se dene una relacion { de modo que a{b precisamente cuando a y b estan en
el mismo subconjunto de la partici on. Pues bien, es inmediato observar que { es una
relacion de equivalencia en A. Por tanto relacion de equivalencia (que es un subconjunto
{ de AA) puede intercambiarse con una particion (que es un subconjunto de {(A)).
El conjunto formado por las clases de equivalencia de A respecto de { se llama v
conjunto cociente de A respecto a { y se denota por A/{. Es decir
A/{ = {(a)[a A {(A)
Cualquier elemento b de una clase de equivalencia {(a) se llama representante de
dicha clase.
En los ejemplos anteriores
1 Dada la fraccion
x
y
la clase de equivalencia {(
x
y
) asociada se llama n umero ra-
cional representado por
x
y
. Estrictamente hablando una fraccion no es un n umero
racional, sino una representacion del mismo, en este sentido si 0 = z Z las
fracciones
x
y
y
xz
yz
no son la misma cosa, tan solo son equivalentes. En la practi-
ca, sin emebargo, hemos llegado a confundir fraccion con el n umero racional que
representa, as escribimos con toda naturalidad para 0 = z Z
x
y
=
xz
yz
porque simplemente pensamos que
x
y
es {(
x
y
).
Estos abusos de lenguaje son necesarios para que el discurso matematico nos ea
excesivamente farragoso o pedante.
Quisieramos mencionar que en la clase de equivalencia que , insistimos, es un
n umero racional es posible siempre detectar un representante canonico, es decir
denible por un criterio preciso. Todo n umero racional puede denirse por su re-
presentante irreducible de denominador positivo:
x
y
m.c.d(x, y) = 1, y > 0
11
2 Se llama vector libre a toda clase de equivalencia de vectores jos. As si
PQ es
un vector jo, su vector libre viene dado por
v =
RS[
RS equiponente con
PQ
Cuando en Geometra Elemental aplicamosun vector libre v a un punto P no
hacemos mas que elegir el vector jo
PQ tal que
PQ v y, en consecuencia,
determinar un nuevo punto Q. A diferencia del ejemplo anterior aqu no hay
criterio para elegir representante can onico en un vector libre. Recordar que en el
espacio ordinario no existe ning un punto distinguido.
Vamos ahora a denir uno de los conceptos m as importantes (quiz as el mas im-
portante!) de la Matematica y que la invade e impregna totalmente, estamos hablando
del concepto de funcion cuya denicion conjuntista requiere echar un vistazo rapido a
como ha evolucionado esta idea desde una denicion descriptiva u operacional hasta la
formulacion abstracta general.
Al principio una funcion era una formula algebraica, trigonometrica, exponencial,
etc, en una o mas variables numericas (reales y a veces complejas), por ejemplo
y = (x + 1)
2
Entonces a cada n umero real a por ejemplo se le suma 1 y el resultado se eleva al
cuadrado dando como resultado un n umero real positivo (a + 1)
2
.
A veces se denen funciones por casos (algo muy tpico en ciertos examenes!) por
ejemplo la funcion
y =
(x + 1)
2
si x 1
2 si x < 1
en ambos casos asignamos a todo n umero real x (variable independiente) un valor y
(variable funci on).
Este concepto de funcion empezo a ser modicado por Fourier con el uso de series
trigonometricas y cristalizo con Dirichlet que considero por primera vez a las funciones
por su comportamiento, en vez del resultado de un proceso de calculos
4
Pasando de n umeros o mejor conjuntos de n umeros a conjuntos cualesquiera, las
ideas de Dirichlet se pueden expresar de la siguiente forma.
Tomar dos conjuntos A y B que podemos llamar respectivamente conjunto de entrada
y conjunto de salida de tal modo que todo elemento a A es sometido a un proceso
que llamaremos f cuyo resultado es un unico elemento en B que denotaremos f(a).
La idea se esquematiza as:
A
entradas: a
f
caja negra
B
salidas: f(a)
1
4
Si una variable y se relaciona con una variable x tal que siempre que se asigna a x un valor numerico,
existe una regla de acuerdo con la cual queda determinado un unico valor de y entonces s edice que y es
una funcion de la variable independiente x.
12
Podemos, para mayor generalidad (y por tanto exibilidad!) prescindir de describir
o preocuparnos de lo que pasa en la caja negra y observar que lo que interesa de una
funcion es el par (a, f(a) AB. Aparece en consecuencia un caso particular d erelacion
entre el conjunto A y el conjunto B. Se propone la siguiente
Denicion 1.8. Dado un conjunto A (llamado dominio y un conjunto B (llamado
rango o codominio se llama funcion de A en B a toda relacion f AB tal que
1) Para todo elemento a A existe b B tal que (a, b) f
2) Si (a, b
1
) y (a, b
2
) pertenecen a f entonces b
1
= b
2
Vemos as como una funcion permite asigna a todo a A un unico b B (en el
espritu de la denicion de Dirichlet!)
Se denota as
f : A B, a f(a)
Notas 1) No hay inconveniente en que los conjuntos A y B coincidan.
2) Los terminos funcion y aplicacion se consideraran sinonimos.
3) f(a) se dice imagen de a y a antiimagen de f(a).
Ejemplos 1.9. 1 Todo conjunto A posee una aplicacion llamada identidad
1
A
: A A, a a
Mas generalmente, si B es un subconjunto de A puede denirse la aplicacion in-
clusion canonica
: B A, b b
Observar que salvo el caso B = A la inclusi on canonica no debe confundirse con
la aplicaci on identidad ya que el dominio y el rango no coinciden.
2 Si { es una relacion de equivalencia en un conjunto A y consideramos el conjunto
cociente A/{, entonces si asignamos a cada a A su clase de equivalencia {(a)
tenemos denida una aplicacion
p : A A/{, a p(a) = {(a)
que se llama proyeccion canonica.
3 Las proyecciones p
A
: AB A y p
B
: AB B asocian respectivamente
, al par ordenado (a, b) de ABsus componentes a A y b B
4 Si en un subconjunto de un conjunto universal | se dene la funcion carac-
terstica de A como la funcion
A
: | 0, 1 dada por
A
(x) = 1 si x A y
A
(x) = 0 si x A.
Denotar por u la funcion caracterstica
U
que toma el valor constante igual a 1,
es un buen ejercicio calcular en funcion de
A
,
B
y u las funciones caractersticas
de A B, A
e = e
es
inverso (u opuesto ) de a si
a a
= a
a = e
En una operacion binaria asociativa y con elemento neutro e cuando un elemento
posee inverso, este es unico; en efecto sean a
y a
inversos de a, entonces
a
= a
e = a
(a a
) = (a
a) a
= e a
= a
i +y
j +z
k[x, y, z R
en donde la suma de vectores es
(x
i +y
j +z
k) + (x
i +y
j +z
k) = (x+
i + (y +y
j + (z +z
k
y el producto por escalares
(x
i +y
j +z
k) = (x
i +y
j +z
k)
.
3) Si K es un cuerpo cualquiera el conjunto K
n
= (x
1
, x
2
, , x
n
)[x
i
K de
las n-tuplas con entradas en K es un espacio vectorial respecto a las operaciones
(x
1
, x
2
, , x
n
) + (y
1
, y
2
, , y
n
) = (x
1
+y
1
, x
2
+y
2
. , x
n
+y
n
)
(x
1
, x
2
, , x
n
) = (x
1
, x
2
, , x
n
)
4) Si C es un conjunto y K un cuerpo, en el conjunto K
C
de todas las aplicaciones
de C en K se denen las operaciones f +g y f as
(f +g)(c) = f(c) +g(c) c C
(f)(c) = f(c) c C
y, entonces K
C
pasa a ser un espacio vectorial sobre K. En particular si K =
C = R se tiene que el conjunto R
R
de todas las aplicaciones de R en s mismo es
un espacio vectorial sobre R
5) Si ((R, R) denota el conjunto de todas las aplicaciones continuas f : R R,
entonces si f, g ((R, R) y R, se tiene f + g y f ((R, R). Y se tiene
que ((R, R) es un espacio vectorial sobre R.
6) Con las mismas operaciones que en el ejemplo anterior se tiene que (
(R, R);
el conjunto de todas las aplicaciones innitamente derivables de R en R es un
espacio vectorial.
1
Ya conocida por Galileo.
20
7) Si K[X] denota el conjunto de todos los polinomios a
o
+a
1
X + +a
n
X
n
con
coecientes en un cuerpo K, entonces K[X] pasa a ser un espacio vectorial respecto
a las operaciones suma de polinomios y producto de polinomios por escalares.
K[X] se puede identicar con el conjunto de las sucesiones f : N K tales que
f(i) = 0 para i sucientemente grande. Esto es en denitiva un subconjunto de
K
N
. As la suma y producto por un escalar son las denidas en K
N
.
Si V es un espacio vectorial sobre el cuerpo de los n umeros complejos: (V, +, C),
podemos seguir considerando la suma de vectores y restringir la operacion binaria externa
CV V a los pares (, v) con R , v V . Se tiene as una aplicacion restringida
R V V . Se comprueba inmediatamente que la nueva estructura : (V, +, R) es un
espacio vectorial sobre el cuerpo de los reales que recibe el nombre de restriccion del
espacio vectorial complejo inicial. Esta vision de V se suele expresar poniendo V
R
en
vez deV .
Consecuencias de la denicion .
1 Sean K y v V , entonces v = 0 si y solo si = 0 o v = 0
2 ()v = (v) = v K v V
3 Como (V, +) es un grupo abeliano tiene sentido la expresion v
1
+ +v
n
inde-
pendientemente del orden de realizacion de las sumas (parentesis) y del orden de
aparicion de los sumandos. Esta suma se escribe
n
i=1
v
i
4 Mas generalmente si v
1
, , v
n
V y
1
, ,
n
K tiene sentido escribir
1
v
1
+ +
n
v
n
=
n
i=1
i
v
i
Comprobamos por ejemplo la primera armacion
0 + 0v = 0v = (0 + 0)v = 0v + 0v
sumando a los dos terminos extremos 0v se tiene
0 = 0v
La prueba de que 0 = 0 es analoga. Finalmente suponer K y v V tales que
v = 0. Caben dos posibilidades,
i) = 0 (y ya esta)
ii) = 0. En este caso como K es un cuerpo existe
1
inverso de lo que permite
poner
0 =
1
0 =
1
(v) = (
1
)v = 1v = v
De entre todos los subconjuntos de un espacio vectorial distinguiremos aquellos que
heredanla estructura de V , para ser mas precisos enunciaremos la siguiente
21
Denicion 2.3. Sea V un espacio vectorial, se llama subespacio a todo subconjunto
S de V tal que verica
1) v, w S = v +w S
2) v S, K = v S y
3) S dotado de las operaciones suma y producto por escalares de V restringidas a S
es un espacio vectorial.
Observar que S como espacio vectorial que es no puede ser vaco ya que su suma
tiene un elemento neutro 0
S
, ahora bien
0
V
+ 0
S
= 0
S
= 0
S
+ 0
S
y sumando 0
S
por la izquierda, se concluye 0
S
= 0
V
= 0. Por tanto 0 S para todo
subespacio de V . Observar que tanto el conjunto de un elemento 0 como el conjunto
total V son ejemplos de subespacios. Estos ejemplos se pueden considerar triviales.
Proposicion 2.4. Sea S = un subconjunto de V , entonces son equivalentes:
1.- S es subespacio de V .
2.- v +w S, v, w S , K.
3.- v +w S y v S v, w S K.
DEMostracion 1) = 2) y 2) = 3) son inmediatas. Suponer que se verica 3).
Como S = existe al menos un elemento v S con lo que por hipotesis 0v = 0 S. La
operacion + restringida a S S es una operacion binaria interna, y para cada v S,
se tiene que v = (1)v S por hipotesis. (S, +) pasa a ser un grupo abeliano con el
mismo elemento cero que V . El resto de los axiomas de espacio vectorial son evidentes.
La propiedades 2) se puede ampliar en el siguiente sentido: Si tenemos un subespacio
S de V , entonces siempre que v
1
, , v
n
S y
1
, ,
n
K se tiene
1
v
1
+ +
n
v
n
S
Esta ultima expresion se llama combinacion lineal de los vectores v
i
con coe-
cientes
i
. Podemos decir que un subesapacio es precisamente un subconjunto no vaco
cerradopara la construccion de combinaciones lineales de sus miembros.
Ejemplos 2.5. .
1) En K
n
el conjunto de las n-tuplas que son solucion de un sistema homogeneo
i=1
a
i
k
x
i
= 0
k = 1, , m
a
i
k
elementos jos de K es un subespacio. La realidad es que todo subespacio de
K
n
puede describirse as (ver captulo 7).
2) (
S
i
+ S
n
), entonces por denici on de
suma tenemos
v
i
= v
1
+ +v
i1
+v
i+1
+ +v
n
v
j
S
j
con lo que
v
1
+ +v
i1
+ (v
i
) +v
i+1
+ +v
n
= 0
Como suponemos que ii) es cierta concluimos en particular que v
i
= 0
iv) = iii) Obvio ya que
S
1
+ +S
i1
S
1
+ +
S
i
+ S
n
iii) = i) Suponer que un elemento de S
1
+ + S
n
se escribe de dos maneras
distintas as:
v
1
+ +v
n
= w
1
+ +w
n
v
i
, w
i
S
i
Coger el i mayor posible para el que v
i
= w
i
. Por lo pronto si i = 1 tendramos
v
2
= w
2
, v
3
= w
3
, , v
n
= w
n
con lo que cancelando, v
1
= w
1
lo que es contradictorio.
2
El circunejo dentro de la suma debe interpretarse como si el subespacio S
i
no aparece, es decir
como si hicieramos un salto del ndice i 1 al ndice i + 1.
25
Podemos suponer
v
1
+ +v
i1
+v
i
= w
1
+ +w
i1
+w
i
con i 2 y v
i
= w
i
. Se puede poner
v
i
w
i
= (w
1
v
1
) + + (w
i1
v
i1
) S
i
(S
1
+ +S
i1
) = 0
con lo que v
i
w
i
= 0 y v
i
= w
i
. De nuevo llegamos a una contradiccion. No existen
pues dos formas distintas de expresar un vector en la suma S
1
+ +S
n
.
Denicion 2.10. Si se verica una cualquiera de las cuatro propiedades de la propo-
sicion anterior (y por tanto las otras tres) se dice que los subespacios S
1
, , S
n
estan
en suma directa .
Cuando se da esta disposicion especial de los subespacios se indica en vez de la suma
S
1
+ +S
n
,
S
1
S
n
Notar que si S
1
S
n
, entonces S
i
S
j
= 0 para todo par de ndices i, = j; pero
el recproco no es cierto, en efecto si R, S y T son los subespacios del ejemplo previo a
la ley modular se tiene que
R S = R T = S T = 0
pero (R+S) T = T = 0 con lo que no tiene sentido la expresion RS T; sin
embargo si podemos poner K
2
= R S = R T = S T
Si un espacio vectorial V se puede expresar como suma directa V = S T de dos
subespacios, se dice que S y T son subespacios complementarios
i=1
a
i
k
x
i
= a
k
k = 1, , m
(a
i
k
, a
k
elementos jos de un cuerpo K) es una variedad afn de K
n
.
27
En efecto si el sistema es incompatible, estamos hablando de la variedad vaca. Si el
sistema es compatible sabemos que todas las soluciones se obtienen sumando a una solu-
cion particular todas las soluciones del sistema homogeneo asociado obtenido haciendo
nulos los terminos independientes, pero esto es obviamente una variedad lineal.
Como en el caso de sistemas homogeneos se prueba en el captulo 7 que toda variedad
afn de K
n
puede describirse como solucion de un sistema lineal.
28
Captulo 3
Base y dimensi on
Sea V un espacio vectorial cualquiera sobre un cuerpo K y C un subconjunto no
vaco de V . Denotamos por K < C > al conjunto formado por todas las combinaciones
lineales
1
v
1
+ +
r
v
r
con
i
K y v
i
C. Es inmediato comprobar que este
conjunto es un subespacio de V y que es el menor subespacio que contiene a C. Se dice
que K < C > es el subespacio generado por C.
Se conviene en poner K < >= 0.
Si S es un subespacio y C es un subconjunto de V tal que K < C >= S se dice que
C es un conjunto generador de S, es obvio que C K < C > y que
C
1
K < C > K < C
1
> K < C >
En particular si K < C >= V se dice que C es un sistema generador de V .
Es claro que el espacio total V es un sistema generador (de dudosa utilidad). Veamos
algunos ejemplos mas
Ejemplos 3.1. 1) En el espacio vectorial K
n
la coleccion de elementos e
1
, e
n
con
e
1
= (1, 0, , 0)
e
2
= (0, 1, , 0)
e
n
= (0, 0, , 1)
es un sistema generador de K
n
ya que todo elemento (x
1
, x
2
, , x
n
) de este espacio
vectorial se puede poner en la forma
(x
1
, x
2
, , x
n
) = x
1
e
1
+ +x
n
e
n
2) La coleccion innita de monomios
1, X, X
2
, X
n
,
es evidentemente un sistema generador de K[X] basta escribir un polinomio cual-
quiera
p(X) = a
0
+a
1
X + +a
n
X
n
29
y considerar los coecientes a
i
K como escalares.
Si jamos un entero n, el conjunto de monomios 1, X, X
2
, , X
n
es un sistema
generador nito del subespacio de K[X] formado por los polinomios de grado menor o
igual que n.
La idea es hallar, cuando sea posible, sistemas generadores lo mas peque no posible.
Denicion 3.2. Llamaremos sistema generador minimal de V a todo sistema ge-
nerador C de V tal que para todo v C el sistema C v = x C[x = v no es un
sistema generador.
Todos los sistemas generadores de los ejemplos de arriba son sistemas generadores
minimales
Denicion 3.3. Un subconjunto D de un espacio vectorial se llama linealmente de-
pendiente (o ligado) si existen elementos v
1
, , v
n
en D y escalares
1
, ,
n
K
no todos nulos tales que
1
v
1
+ +
n
v
n
= 0
En caso contrario se dice que D es linealmente independiente (o libre)
A veces conviene ser redundante: D es linealmente independiente si para todo v
1
, , v
n
en D, cuando se tienen escalares
1
, ,
n
K tales que
1
v
1
+ +
n
v
n
= 0, entonces
necesariamente
1
= =
n
= 0.
Por ejemplo el conjunto vaco es libre y si 0 = v V , el conjunto v de un solo
elemento es linealmente independiente.
Por el contrario si 0 D, entonces D es linealmente dependiente.
Para comprobar que un conjunto nito D = v
1
, , v
n
es linealmente indepen-
diente basta observar que para toda coleccion
1
, ,
n
K tales que
1
v
1
+ +
n
v
n
= 0
necesariamente
1
= =
n
= 0.
As por ejemplo el subconjunto e
1
, e
n
de K
n
denido antes, es linealmente
independiente.
Ahora la idea es buscar sistemas linealmente independientes lo mas grade posible.
Denicion 3.4. Llamaremos sistema linealmente independiente maximal a todo sis-
tema linealmente independiente D tal que si v D, entonces Dv no es linealmente
independiente.
Los ejemplos 1) y 2) son, en los espacios respectivos, sendos sistemas linealmente
independientes maximales.
Veamos como se unen las ideas de generacion e independencia lineal.
Proposicion 3.5. Sea V un espacio vectorial sobre un cuerpo K. Entonces las siguientes
armaciones acerca un subconjunto B son equivalentes.
1) B es un sistema generador minimal
2) B es un subconjunto linealmente independiente maximal.
3) B es un sistema generador linealmente independiente.
30
Demostracion. 1) = 3)
Suponer que B es un sistema generador minimal, si
v
1
, , v
n
B y
1
, ,
n
K son tales que
1
v
1
+ +
n
v
n
= 0 ()
con alg un
i
= 0. Podemos suponer que
1
= 0 (reordenando si hiciera falta los suman-
dos), entonces se puede escribir
v
1
=
2
1
1
v
2
+ + (
n
1
1
)v
n
As B v
1
es un sistema generador de V , ya que si v V , se puede escribir en la
forma
v =
1
w
1
+ +
n
w
n
(
j
K , w
j
B)
si alguno de los w
j
coincide con v
1
, usando () podremos expresar v como combinacion
lineal de los vectores de B excluido v
1
.
Esto nos dice que B no es minimal como sistema generador. Contradiccion.
3) = 1) Suponer que B es libre y generador. Si existiera v B tal que B v
siguiera siendo generador, entonces tendramos v
1
, , v
n
B v y
1
, ,
n
K
tales que
v =
1
v
1
+ +
n
v
n
es decir
1
v
1
+ +
n
v
n
+ (1)v = 0
lo que contradice el hecho de que B es libre.
2) = 3) Sea B un sistema linealmente independiente maximal. Si v V y se
tiene que v B, obviamente v K < B >, si v B, se tiene que B v no es
linealmente independiente, por tanto existen v
1
, , v
m
B v y escalares no todos
nulos,
1
, ,
m
K tales que
0 =
1
v
1
+ +
m
v
m
Si v no gura en esta lista de v
1
, , v
m
tendramos que B no es linealmente indepen-
diente lo que es contradictorio, por tanto v = v
1
por ejemplo y
1
= 0. En consecuencia
v =
2
1
1
v
2
+ + (
m
1
1
)v
m
K < B >
es decir B es sistema generador.
3) = 2) Suponer que B es un sistema generador y libre. Sea v V tal que v B,
como V = K < B > podemos poner
v =
1
v
1
+ +
n
v
n
i
K v
i
B
y
1
v
1
+ +
n
v
n
+ (1)v = 0
con lo que B v no es linealmente independiente, en consecuencia B es linealmente
independiente maximal.
31
Cuando tenemos un sistema generador B que es linealmente independiente, todo
elemento v V puede expresarse de modo unico como combinacion lineal de elementos
en B, en efecto sea
v =
1
v
1
+ +
n
v
n
=
1
v
1
+ +
n
v
n
i
,
i
K v
i
B
En donde podemos suponer que los elementos de B involucrados en la expresion de
v son los mismos ( si hiciera falta a nadimos
i
y
j
nulos).
Se tiene as
(
1
1
)v
1
+ + (
n
n
)v
n
= 0
y por la independencia lineal
i
i
= 0, es decir
i
=
i
.
Destacamos la importancia de este tipo de subconjuntos en la siguiente
Denicion 3.6. Un sistema generador linealmente independiente de un espacio vectorial
se llama base
En K
n
el sistema e
1
, e
n
es una base que recibe el nombre de base canonica
(o natural ).
En K[X] el sistema de monomios 1, X, X
2
, X
n
, es tambien una base.
Utilizando toda la potencia de la teora de conjuntos se podra probar que todo
espacio vectorial V sobre un cuerpo K posee bases y que ademas dos bases cualesquiera
pueden ponerse en correspondencia biunvoca ( es decir, si B
1
y B
2
son tales bases,
existe una aplicacion biyectiva B
1
B
2
). Aqu solo probaremos ambas cosas y de
modo, en principio constructivo, en el caso particular de espacios vectoriales nitamente
generados.
Denicion 3.7. Un espacio vectorial V sobre un cuerpo K se llama nitamente ge-
nerado si existe un subconjunto nito C = v
1
, , v
n
tal que V = K < C >
Por ejemplo hemos observado que K
n
es nitamente generado ya que la base canonica
es nita. Por otro lado K[X] no es nitamente generado, en efecto si p
1
(X), , p
n
(X)
fuera un sistema generador y k fuera el grado maximo de los polinomios de este conjunto,
entonces X
k+1
K < p
1
(X), , p
n
(X) >
Proposicion 3.8. Suponer que C = v
1
, , v
r
es un subconjunto linealmente inde-
pendiente del espacio vectorial V de modo que el subconjunto ampliado
D = v
1
, , v
r
, w
1
, , w
s
es un sistema generador, entonces existe al menos un
subconjunto B tal que C B D y B es base de V .
Demostracion. De entre todos los subconjuntos linealmente independientes X de D
que contienen a C (C es uno de ellos), podemos elegir uno B con el mayor n umero
posible de elementos.
Caben dos posibilidades:
1) B es un sistema generador de V . Por tanto es base.
2) B no es un sistema generador de V , Entonces existe un w
i
D tal que w
i
K <
B >, ya que en caso contrario D K < B > y por tanto V = K < D > K < B > y
B sera un sistema generador de V , que no es el caso.
Formar el subconjunto B w
i
y observar que
C B B w
i
D
32
Ahora bien se comprueba facilmente que B w
i
es linealmente independiente con
mas elementos que B, lo que es contradictorio.
1
Lema 3.9. (del cambio de Steinitz) Suponer que C = v
1
, , v
r
es un sistema
linealmente independiente y D = w
1
, , w
s
un sistema generador en el espacio
vectorial V . Entonces se pueden sustituir r de los vectores de D por los vectores de C y
formar un sistema generador D
r
= v
1
, , v
r
, w
r+1
, , w
s
.
En particular r s
Demostracion. Suponer 0 t < r y que el conjunto
D
t
= v
1
, , v
t
, w
t+1
, , w
s
es un sistema generador
2
Como t < r podemos considerar
v
t+1
=
1
v
1
+ +
t
v
t
+
t+1
w
t+1
+
s
w
s
.
Por lo menos un coeciente
j
es no nulo ya que en otro caso la igualdad
v
t+1
=
1
v
1
+ +
t
v
t
implicara la dependencia lineal en C.
Reordenando los w
j
se puede suponer
t+1
= 0, con lo que podemos despejar w
t+1
w
t+1
=
1
t+1
v
t+1
1
t+1
1
v
1
1
t+1
t
v
t
1
t+1
t+2
w
t+2
1
t+1
s
w
s
Por consiguiente del sistema generador D
t
v
t+1
podemos eliminar a w
t+1
obte-
niendo
D
t+1
= v
1
, , v
t
, v
t+1
, w
t+2
, , w
s
1
+ + (
1
)
r
b
r
K < B >
Contradicci on.
2
Es decir, hemos sustituido t elementos de D por los t primeros elementos de C y hemos renumerado
los restantes. Observar que suponemos t < r
33
Demostracion. Si B es una base con r eleemntos y B
elementos,
como B es libre y B
es generador se tiene r r
se
tiene r
r
Denicion 3.11. Se llama dimension de un espacio vectorial nitamente generado V
al n umero de vectores de un abase de V . Se escribe dimV
A partir de ahora hablaremos de espacio vectorial de dimension nita (o incluso de
dimension n) en vez de espacio vectorial nitamente generado.
Suponer que V es un espacio vectorial de dimension n, entonces el lema del cambio
permite enunciar la proposicion primera de la siguiente forma
Proposicion 3.12. Suponer que dimV = n y B un subconjunto con n elementos,
entonces son equivalentes
1) B es un sistema generador
2) B es un conjunto linealmente independiente.
3) B es una base.
Unicamente hay que recordar que un sistema generador debe tener por lo menos n
vectores y uno libre debe tener a lo mas n vectores.
Hacemos alg un comentario de tipo informativo. Si queremos comprobar que un sub-
conjunto v
1
, , v
n
de n vectores de un espacio vectorial V que tiene dimension n
es una base, bastara comprobar que es un conjunto linealmente independiente o que
es generador. Lo primero es mas f acil en general ya que consiste en vericar una pro-
piedad localdel conjunto v
1
, , v
n
usando coecientes arbitrarios. Sin embargo la
comprobacion de que es un sistema generador involucra a todos los vectores de V .
Ejemplo Probar que el conjunto (1, 0, 0), (1, 1, 0), (1, 1, 1) es una base de K
3
.
Veamos que es libre. A tal n suponer , , K que verican
(1, 0, 0) +(1, 1, 0) +(1, 1, 1) = (0, 0, 0)
Es decir
+ + = 0
+ = 0
= 0
Con lo que = = = 0 y la familia es libre y por tanto base puesto que dimension
de K
3
es 3.
Suponer que S es un subespacio de V de dimension n. Como un conjunto libre C en
S es un conjunto libre en S, el n umero de elementos de C es menor o igual que n (por
el lema del cambio). Un sistema libre maximal, o sea una base de S tiene a lo sumo n
vectores, luego dimS dimV .
Mas a un si dimS = dimV , una base B de S es un sistema libre en V con exactamente
n elementos, por tanto base de V y en consecuencia V = K < B > S, o sea V = S.
Estos dos hechos merecen ser resaltados en forma de
34
Proposicion 3.13. Si V es un espacio de dimension nita n y S es un subespacio de
V , se tiene
1) dimS dimV
2) dimS = dimV S = V
Suponer ahora que S es como antes un subespacio de un espacio vectorial V de
dimension n. Considerar una base de S: v
1
, , v
r
(r = dimS. Como sistema libre
que es, lo podemos ampliar hasta formar una base de V v
1
, , v
r
, v
r+1
, , v
n
,
entonces si T = K < v
r+1
, , v
n
> se tiene que
V = S T
En efecto si v V ,
v =
r
i=1
i
v
i
+
n
j=r+1
j
v
j
La primera sumatoria esta en S y la segunda esta en T, por tanto V = S + T.
Ademas si v S T,
v =
r
i=1
i
v
i
=
n
j=r+1
j
v
j
o sea
r
i=1
i
v
i
+
n
j=r+1
(
j
)v
j
= 0 por tanto
i
= 0 para todo i, con lo que v = 0.
Concluimos que S T = 0
Hemos probado as:
Proposicion 3.14. Si S es un subespacio de un espacio vectorial V de dimension n,
entonces S admite al menos un subespacio complementario.
Observar ahora que si S y T estan en suma directa, yuxtaponiendo una base v
1
, , v
r
i=1
dimS
i
Terminamos la parte estrictamentelineal de este captulo con un resultado clasico.
Proposicion 3.16. (formula de Grassmann) Si S y T son subespacios de un espacio
vectorial de dimension nita entonces
dim(S +T) +dim(S T) = dimS +dimT
Demostracion. Poner S = (S T) S
1
y T = (S T) T
1
, que es posible por la
proposicion (3,14).
S T
1
(S T) T
1
= 0, As S T
1
= 0 y T
1
esta en suma directa con
S = (S T) S
1
. Tambien S
1
esta en suma directa con S T y por tanto se tiene
S +T = (S T) S
1
T
1
35
Por la proposicion anterior
dim(S + T) = dim(S T) + dimS
1
+ dimT
1
= dim(S T) + dimS dim(S
T) +dimT dim(S T) = dimS +dimT dim(S T)
Sea V un espacio vectorial sobre K de dimension nita n. Toda variedad afn A en
A(V ) viene dada por uno de sus elementos, v y su direccion S : A = v + S, se dice
entonces que A es una variedad afn de dimension dimS.
Conviene usar terminologa geometrica para nombrar a determinadas variedades
anes.
Un punto es una variedad afn de direccion nula, es decir de dimension 0: v
Una recta es una variedad afn de dimension 1: r = v +K < a > , a = 0 es lo que
se llama un vector direccional.
Un plano es una variedad afn de dimension 2: = v + K < a, b > , con a, b
libre.
Un hiperplano es una variedad afn de dimension n1: H = v+K < a
1
, , a
n1
>
con a
1
, , a
n1
libre.
Se conviene en decir que la variedad vaca tiene dimension 1.
Por ejemplo si K = R y V = R
3
tenemos una geometra afn (A(V ) que nos per-
mite describir las propiedades anes (es decir las que involucran solamente incidencia y
paralelismo) de los puntos, rectas y planos del espacio ordinario
3
Como ejercicio pueden estructurarse en funcion de dependencia e independencia
lineal cuestiones tpicas como la posicion relativa entre dos rectas, dos planos, o recta y
plano.
Aunque no podemos hablar en sentido estricto de ortogonalidad, el espacio dual nos
ayudara desde fuera de V , por ejemplo, para encontrar un sucedaneo de vector carac-
terstico de un plano ( o de un hiperplano si estamos en un V de dimension arbitraria).
Ejemplo Posicion relativa de dos rectas en A(R
3
).
Sean r = v + K < a > y s = w + K < b > dos rectas cualesquiera de A(R
3
). Se
comprueba a partir de los conceptos de combinacion lineal e independencia lineal que
1) Si v w, a, b es libre, entonces
r s = y r s = R
3
(Las rectas se cruzan)
2) Si v w, a, b es ligado, pero v w, a es libre
r s = y r s = v +R < v w, a > es un plano
(Las rectas son paralelas y distintas)
3) Si v w, a, b es ligado, pero a, b es libre
4
3
Pero no las propiedades metricas que dependen de distancias, angulos, areas y vol umenes.
4
Por tanto v w = a +b con y unicos y u = v a = w+b es el unico punto com un a r y s
36
r s = u y r s = v +R < a, b > es un plano
(Las rectas se cortan en u)
4) Si v w, a, y a, b son ligados, entonces
r = s
Y no hay mas posibilidades.
Sean ahora dos planos = v +S y = w +T. Se tiene los siguientes casos
1) S = T, entonces S +T = R
3
con lo que dim(S T) = 1.
Por un lado v w = s +t, s S y t T con lo que u
0
= v s = w +t con
lo que podemos escribir
= u
0
+S = u
0
+T
Ahora bien u u u
0
S T.
Se concluye que = u
0
+ (S T) es una recta.
2) Si S = T y v w S. Si u podramos escribir u = v +s , u = w +s
con
s, s
: V V v v v V
38
es lineal. Notar que h
1
= 1
V
y h
0
= 0.
4) Si V = S T con S y T subespacios de V , como cada v V se puede poner de
modo unico en la forma
v = a +b a S, b T
se pueden denir sendas aplicaciones lineales
p
S
: V S p
T
: V T
dadas por p
S
(v) = a y p
T
(v) = b. Estas aplicaciones se llaman proyecciones de V en
los sumandos complementarios S y T. Observar la igualdad v = p
S
(v) +p
T
(v) v V
5) Considerar la aplicacion
D : (
(R, R) (
(R, R)
dada por D(f) = f
(R, R) (
(R, R)
dada por M(f) : R R x xf(x), es lineal.
6) Sean a b R jos. La aplicacion
I
a,b
: ((R, R) R f
b
a
f
es lineal (recordad las propiedades de la integral!). Mas generalmente si jamos una
funcion g ((R, R), la aplicacion
I
a,b,g
: ((R, R) R f
b
a
gf
es lineal por las mismas razones.
Si a R jo, la aplicacion
a
: ((R, R) R f f(a)
llamada evaluacion en a, es lineal.
Una aplicacion lineal T : V V de un espacio vectorial V en si mismo, suele
llamarse endomorsmo (u operador lineal ).
Una aplicaci on lineal f : V K de un espacio vectorial sobre K en el propio cuerpo
K, se llama forma lineal (o funcional lineal.
7) Sean m y n enteros positivos. Recordar que una matriz mn con entradas en K
es un cuadro de elementos de K dispuestos en m las y n columnas.
A =
a
11
a
12
a
1n
a
21
a
22
a
2n
a
m1
a
m2
a
mn
39
Si disponemos las n-tuplas (es decir los elementos de K
n
) en columnas y efectuamos
la multiplicacion de la matriz A por la columna
x =
x
1
x
2
.
.
.
x
n
Obtenemos la columna
y =
y
1
y
2
.
.
.
y
m
= A
x
1
x
2
.
.
.
x
n
x
1
x
2
x
m
, y =
y
1
y
2
y
n
1
Esto es que una variedad afn en K
n
que puede ser vaca (sistema incompatible) puede reducirse a un
punto (sistema compatible determinado) o puede tener dimensi on mayor que cero (sistema compatible
indeterminado)
40
Veamos como se comporta una aplicacion lineal con respecto a los principales con-
ceptos denidos en los captulos anteriores: subespacios, generacion de subespacios y
dependencia lineal.
Proposicion 4.3. Sea f : V W una aplicacion lineal cualquiera, S un subespacio de
V y T un subespacio de W, entonces
1) f(S) = f(a)[a S es un subespacio de W.
2) f
1
(T) = v V [f(v) T es un subespacio de V
Demostracion. 1) 0
V
S, luego 0
W
= f(0
V
) f(S) con lo que f(S) es no vaco.
Sean w
1
, w
2
f(S) y
1
,
2
K, entonces w
i
= f(a
i
) con a
i
S para i = 1, 2, por
tanto
1
w
1
+
2
w
2
=
1
f(a
1
) +
2
f(a
2
) = f(
1
a
1
+
2
a
2
) f(S)
2) f(0
V
) = 0
W
T = 0
V
f
1
(T) = f
1
(T) = .
Si v
1
, v
2
f
1
(T) y
1
,
2
K, entonces f(v
1
), f(v
2
) T por tanto f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) T, es decir
1
v
1
+
2
v
2
f
1
(T)
En particular si ponemos S = V , se tiene que el subconjunto imagen, f(V ) es un
subespacio de W, que se llama imagen de f y se escribe Imf.
Si ponemos T = 0
W
, el conjunto
f
1
(0
W
) = v V [f(v) = 0
W
1
f(c
1
) + +
r
f(c
r
) w K < f(C) >
Proposicion 4.5. Sea f : V W una aplicaci on lineal, entonces
1) f es inyectiva Ker f = 0
V
) c = c
C y f(C) es libre.
Demostracion: 1) =: Es obvio puesto que no puede haber dos elementos distintos
que se apliquen en 0
W
.
=: Si f(v
1
) = f(v
2
) se tiene que f(v
1
) f(v
2
) = 0
W
y por tanto f(v
1
v
2
) = 0
W
,
luego v
1
v
2
Ker f = 0
V
y v
1
= v
2
con lo que f es inyectiva.
2). Por la inyectividad si c = c
).
Sean d
1
, , d
r
elementos distintos de f(C), entonces existen c
1
, , c
r
elementos
distintos en C tales que f(c
i
) = d
i
para i = 1, , r. Si tenemos una combinacion lineal
1
d
1
+ +
r
d
r
= 0
W
, se tiene
1
f(c
1
) + +
r
f(c
r
) = 0
W
= f(
1
c
1
+ +
r
c
r
) = 0
W
= f(0
V
)
2
Del alem an Kern (n ucleo) o del ingles kernel (n ucleo) a gusto del lector.
41
y por la inyectividad
1
c
1
+ +
r
c
r
= 0
V
. Como C es libre se tiene
i
= 0 i.
Como consecuencia de estas dos proposiciones se tiene que si f : V W es una
aplicacion lineal biyectiva y B es una base de V , entonces b, b
B con b = b
implica
que f(b) = f(b
una base de V y B
= a
1
, , a
n
una base de W. La biyeccion
B B
a
i
a
i
compuesta con la inclusion canonica de B
(R, R) y D, M (
= xf(x)
+f(x)
que escrito de otra forma es
D(M(f)) = M(D(f) +f f V
es decir
D M M D = 1
V
Recordar que la composicion de dos aplicaciones lineales biyectivas (isomorsmos)
es un isomorsmo, que la aplicacion identidad 1
V
es un automorfsmo cualquiera que
5
Unicamente es conmutativa si dimV 1, en estos casos E(V ) = {0} o E(V ) se identica con el
cuerpo K.
45
sea el espacio vectorial V y que la aplicacion inversa de un isomorsmo tambien es
isomorsmo.
Vamos a llamar GL(V ) al conjunto de todos los automorsmos f : V V , entonces
la composicion de automorsmos dene una operacion binaria interna
: GL(V ) GL(V ) GL(V ) (f, g)) f g
de modo que es asociativa, posee elemento neutro 1
V
y f
1
es el inverso de f respecto
de esta operacion. Concluimos que
(GL(V ), ) es un grupo
6
Hay que recordar que L(V, W) y E(V ) son grupos respecto a la suma de aplicaciones
lineales, pero GL(V ) es grupo respecto a la composicion de aplicaciones.
En geometra plana se representan los puntos por pares ordenados (x, y) de n umeros
reales a los que llamamos abscisa y ordenada. Para conseguir esto bastaba ordenar
convenientemente los ejes de coordenadas declarando como primer eje el de abscisas ( o
eje OX) y como segundo eje el de ordenadas (eje OY ) y se nalando en ambos un sentido
como positivo. Lo mismo se se hace en geometra del espacio con las tres coordenadas
(x, y, z) de un punto. Los ejes de coordenadas as dispuestos son la referencia utilizada
para adscribir a cada punto el par ( o la terna) ordenada que forman sus coordenadas.
En espacios vectoriales de dimension nita la referencia natural son las bases, que a
partir de ahora se van a considerar ordenadas. Si B = a
1
, , a
n
es una base cualquiera
de un espacio vectorial V de dimension n, esta base que es un subconjunto de V da
lugar a n! posibles bases ordenadas, que son familias de elementos de V indicadas por
los n umeros 1, 2, , n. Una base ordenada se indicara entre parentesis (a
1
, , a
n
) en
vez de entre llaves, de modo que (a
1
, a
2
, a
3
, a
4
) y (a
2
, a
1
, a
3
, a
4
) son dos bases ordenadas
distintas en un V de dimension 4 correspondientes a una misma base no ordenada.
Sea pues V un espacio vectorial de dimension nita n. Al jar una base ordenada
(a
1
, , a
n
) todo vector v V dene una unica n-tupla (x
1
, x
2
, , x
n
) tal que
v = x
1
a
1
+ +x
n
a
n
=
n
i=1
x
i
a
i
= x
i
a
i
con lo que queda denida una aplicacion
: V K
n
v (x
1
, x
2
, , x
n
)
que evidentemente es lineal. ademas es biyectiva cuya inversa asocia a la n-tupla
(x
1
, x
2
, , x
n
) la combinacion lineal
n
i=1
x
i
a
i
V . Tenemos un isomorsmo que se
llama sistema de coordenadas denido por la base (a
1
, , a
n
). La n-tupla imagen
de v es la n-tupla coordenada de v.
Recprocamente si : V K
n
es un isomorsmo, podemos asociar a la base canoni-
ca de K
n
, ordenada del modo natural
((1, 0, , 0), (0, 1, , 0), , (0, 0, , 1))
6
1
(0, 0, , 1))
Es claro que es precisamente el sistema de coordenadas asociado a (a
1
, , a
n
)
Queda as establecida un aplicacion biyectiva entre el conjunto de las bases ordenadas
de V y el conjunto de todos los isomorsmos de V en K
n
.
Suponer ahora que (a
1
, , a
n
) y (a
1
, , a
n
) son dos bases cualesquiera de V , como
son sendos sistemas generadores de V podemos escribir por un lado
a
i
=
j
i
a
j
i = 1, , n
para ciertos escalares
j
i
, que dispondremos en forma de matriz n n
P = (
j
i
)
1j,in
en donde el superndice j se nala la la donde se coloca
j
i
y el subndice i, la columna.
P =
1
1
1
2
1
n
n
1
n
2
n
n
j
k
)a
j
= (
j
k
k
h
)a
j
Conviene introducir el smbolo
s
r
con 1 r, s n dado por
s
r
=
1 si r = s
0 si r = s
llamado delta de Kronecker y que no es otra cosa que la descripcion de la matriz
identidad n n
I
n
= (
s
r
)
1r,sn
Observar que se puede escribir
a
h
=
j
h
a
j
lo que conduce, por ser (a
1
, , a
n
) un sistema libre, a la igualdad
47
k
h
j
k
=
j
h
Recordando la denicion de producto de matrices, podemos escribir
PQ = I
n
El argumento usado parte de una situacion simetrica
2
en consecuencia tenemos (o
intercambiando las dos bases)
QP = I
n
Usando una expresion informal, diramos que el cambio inverso esta regido por la
matriz inversa.
A riesgo de resultar pesados, insistimos en que la matriz de cambio es una matriz
regular.
Si cogemos un vector generico v V y lo expresamos en funcion de lo que hemos
llamado base antiguatenemos que v = x
i
a
i
de modo que (x
1
, , x
n
) son las coorde-
nadas de v en dicha base. Hacemos lo mismo con la base nueva: v = x
j
a
j
, o sea que
(x
1
, , x
n
) son las nuevas coordenadas.
Se tiene
v = x
i
a
i
= x
j
a
j
= x
j
k
j
a
k
con lo que por ser (a
1
, , a
n
) base se tiene
x
i
= x
j
i
j
i = 1, , n
Como los ndices superiores designan la, las ecuaciones anteriores se resumen en la
igualdad matricial
x
1
.
.
.
x
n
= P
x
1
.
.
.
x
n
con lo cual la matriz de cambio P permite expresar las coordenadas en la base antigua
en funcion de las nuevas.
Evidentemente la matriz Q = P
1
permite escribir
x
1
.
.
.
x
n
= Q
x
1
.
.
.
x
n
lo que suele expresarse diciendo que las coordenadas de los vectores de V cambian
de modo contravariante respecto del cambio de bases. Esta terminologa es de uso
constante en el captulo 9 y siguientes.
Suponer ahora que f : V W es una aplicacion lineal y que en cada espacio jamos
una base (a
1
, , a
n
) en V y (b
1
, b
m
) en W, Sabemos que f esta perfectamente
determinada por la coleccion de valores (f(a
1
), , f(a
n
)). Ademas cada f(a
j
) W se
puede expresar en terminos de la base jada en W:
48
f(a
j
) = a
i
j
b
i
con lo que el vector queda unvocamente determinado por sus coordenadas
a
k
j
k = 1, , m, podemos disponerlas en columna
a
1
j
a
2
j
.
.
.
a
m
j
y
1
.
.
.
y
m
= A
x
1
.
.
.
x
n
y
1
.
.
.
y
m
= A
x
1
.
.
.
x
n
con v = x
i
a
i
y T(v) = y
i
a
i
.
Si : V K es una forma lineal, es costumbre usar siempre la base natural de K
formada por el elemento 1, entonces la matriz de en base (a
1
, , a
n
) es la matriz la
(u
1
, , u
n
) y la ecuacion de esta dada por
y = (u
1
, , u
n
)
x
1
.
.
.
x
n
= u
i
x
i
49
con (v) = y si v = x
i
a
i
.
Notar que (v) resulta de evaluar el polinomio homogeneo de grado 1: u
1
X
1
+ +
u
n
X
n
en la n-tupla (x
1
. , x
n
)
No esta de mas recordar que clasicamente un polinomio homogeneo de grado 1 se
llama forma y que grado 1 es sinonimo de lineal.
Tomar ahora dos aplicaciones lineales f, g : V W y suponer que A = (a
i
j
) y
B = (B
i
j
) son sus matrices respectivas cuando jamos sendas bases (a
1
, , a
n
) en V y
(b
1
, , b
m
) en W.
Las expresiones f(a
j
) = a
i
j
b
i
y g(a
j
) = b
i
j
b
i
permiten escribir
(f +g)(a
j
) = f(a
j
) +g(a
j
) = (a
i
j
+b
i
j
)b
i
En otras palabras la matriz que representa a f + g en esas bases es la matriz suma
A+B
Si K y f es como antes podemos escribir
(f)(a
j
) = f(a
j
) = (a
i
j
)b
i
con lo que la matriz que representa a f en esas bases es A , producto del escalar
por la matriz A.
Denotar por M
mn
(K) al conjunto de todas las matrices mn con entradas en K.
Hemos observado que la biyeccion
L(V, W) M
mn
(K) f A
que asocia a cada aplicacion lineal f su matriz coordenada respecto de sendas bases
en V y W trasforma suma de aplicaciones en suma de matrices y producto de escalar
por aplicacion en producto de escalar por matriz. La consecuencia es la siguiente
Proposicion 4.10. El conjunto de matrices v dotado de las operaciones suma y producto
por escalares es un espacio vectorial. Al jar sendas bases de V y W queda denido un
isomorsmo de espacios vectoriales
L(V, W) M
mn
(K)
(n = dimV , m = dimW) que asocia a cada aplicacion lineal f su matriz coordenada
en dichas bases.
Nota No es necesario comprobar los axiomas de espacio vectorial para las operaciones
matriciales suma y producto por escalares ya que la biyeccion f A conserva las
operaciones, lo que permite trasladarlas propiedades de las aplicaciones lineales a las
correspondientes con matrices. Ademas toda matriz mn
A =
a
1
1
a
1
2
a
1
n
a
m
1
a
m
2
a
m
n
x
1
.
.
.
x
n
= Q
x
1
.
.
.
x
n
v = x
i
a
i
= x
i
a
i
y un cambio de bases
(b
1
, , b
m
) (b
1
, , b
m
)
en W con matriz de cambio P, que expresamos con el correspondiente cambio de coor-
denadas
y
1
.
.
.
y
m
= P
y
1
.
.
.
y
m
f(v) = y
j
b
j
= y
j
b
j
En el par de bases inicial f se representa por A y en el par nuevo, por la matriz A
y
1
.
.
.
y
m
= A
x
1
.
.
.
x
n
y
1
.
.
.
y
m
= A
x
1
.
.
.
x
n
Como
y
1
.
.
.
y
m
= PAQ
1
x
1
.
.
.
x
n
se tiene A = P
1
AQ
Esto da lugar a una importante relacion de equivalencia en M
mn
(K) llamada pre-
cisamente equivalencia de matrices y que se estudiara con mas detalle en el captulo
siguiente.
En el caso particular de un operador T : V V no existe mas que el cambio de
bases en V , lo que se traduce en pensar que Q = P, con lo que tenemos A = P
1
AP
Esto da lugar a una relacion de equivalencia en M
nn
(K) que se llama semejanza
de matrices. Su estudio es mas complicado y en esta asignatura unicamente se hace para
51
un caso particular de matrices cuadradas ( o si se quiere de operadores). Ver el captulo
6
Sea ahora f : V W y g : W U dos aplicaciones lineales de manera que el
espacio de llegada de f coincide con el espacio de salida de g.
A las bases (a
1
, , a
n
) de V y (b
1
, , b
n
) de W debemos a nadir la base (c
1
, , c
r
)
de U de modo que en el par de bases correspondientes f se representa por A = (a
i
j
)
1im,1jn
y g por B = (b
h
k
)
1hr,1km
. Es decir
f(a
j
) = a
i
j
b
i
g(b
k
) = b
h
k
c
h
Por tanto
(g f)(a
j
) = g(f(a
j
)) = g(a
i
j
b
i
) = a
i
j
g(b
i
) = a
i
j
(b
h
i
c
h
) = (b
h
i
a
i
j
)c
h
Si llamamos C = (c
h
j
)
1hr,1jn
a la matriz de la aplicaci on lineal
(g f) : V U
entonces (g f)(a
j
) = c
h
j
c
h
con lo que comparando las igualdades de antes se tieen
c
h
j
= b
h
i
a
i
j
Recordando que sumamos a lo largo de i, 1 i n, tenemos que C es el producto
de las matrices B y A en este orden C = BA
B es r n, A es n m y C es r m.
Las propiedades de la composicion de aplicaciones lineales ( o una comprobacion
rutinaria) permiten probar que el producto de matrices verica las siguientes propiedades
1) Es asociativo (AB)C = A(BC)
7
2) I
n
A = AI
m
= A para toda matriz A de tama no n m
3) Es distributivo con respecto a la suma
(A
1
+A
2
)B = A
1
B +A
2
B
A(B
1
+B
2
) = AB
1
+AB
2
En particular si jamos un entero positivo n: en el conjunto M
n
(K) de las matrices
n n sobre K se puede denir una nueva operacion binaria interna, el producto de
matrices
: M
n
(K) M
n
(K) M
n
(K) (A, B) AB
de modo que la estructura (M
n
(K), +, ) es un anillo cuyo elemento cero es la matriz
nula n n cuyas entradas son todas iguales a cero y cuyo elemento unidad es la matriz
I
n
. Este anillo es isomorfo al anillo (E(V ), +, ) de los operadores de V . Para cada base
d eV tenemos una aplicacion biyectiva
E(V ) M
n
(K) f A
7
Se supone que las operaciones correspondientes tienen sentido.
52
con A la matriz de f en la base dada, que respeta todas las operaciones entre
(E(V ), +, K, ) y M
n
(K, +, K, )
Se dice que esta aplicacion es un isomorsmo de algebras.
Recordar que una matriz A, n n sobre K se dice regular (o inversible) si existe
una matriz B, nn sobre K tal que AB = BA = I
n
. Recordar tambien que una matriz
cuadrada es regular si y solo si su determinante es distinto de cero.
Proposicion 4.11. Para un operador T : V V se tiene que T es biyectivo si y solo
si la matriz que lo representa en cualquier base es regular.
Demostracion: T T
1
= 1
V
es lo mismo que poner AA
1
= A
1
A = I
n
Si llamamos GL(n, K) al conjunto de las matrices regulares n n con entradas en
K y dotamos a este conjunto con la operacion de multiplicar matrices se tiene un grupo
tal que al jar cualquier base en V queda denida un abiyeccion
GLV ) M
n
(K) f A
(A como siempre) que respeta las operaciones respectivas de estos grupos. Una tal
aplicacion se llama isomorsmo de grupos.
En resumen hemos denido tres estructuras algebraicas basadas en las operaciones
de matrices que se pueden pensar como replicasde las estructuras analogas denidas en
el apartado anterior para aplicaciones lineales.
Para m, n enteros positivos cualesquiera y K cuerpo cualquiera
(M
mn
(K), +, K) es un espacio vectorial sobre K de dimension mn
Para n entero positivo cualquiera y K cuerpo cualquiera
(M
n
(K), +, ) es un anillo
y por ultimo
(GL(n, K), ) es un grupo
53
Captulo 5
Matrices: Rango y equivalencia
Denicion 5.1. Sean A y B matrices mn en K.
Se dice que A es equivalente a B cuando existen P y Q regulares tales que A = PBQ.
Observar que es relacion de equivalencia.
Proposicion 5.2. 1.-Sea A una matriz asociada a una aplicacion lineal f. Una matriz
B es equivalente con A si y solo si tambien es asociada a f.
Demostracion. Supongamos que f : V W y que A representa a f respecto de las
bases B
1
y B
2
de V y W respectivamente.
Si B representa a f respecto de las bases B
1
y B
2
de V y W respectivamente hemos
visto que en la leccion anterior que B = S
1
AR siendo R la matriz que tiene en sus
columnas las coordenadas de los vectores de B
1
respecto de B
1
y S la matriz que tiene
en sus columnas las coordenadas de los vectores de B
2
respecto de B
2
. Como S
1
y R
son regulares se tiene que B es equivalente a A.
Para el recproco supongamos que B = PAQ para unas determinadas matrices regu-
lares P Y Q.
Consideramos la aplicacion lineal de V en V que en la base B
1
se representa por Q.
Por ser Q regular y por lo que se dijo en la leccion anterior se tiene que es isomorsmo
y por tanto las imagenes de B
1
son tambien base de V que llamaremos B
1
. La matriz
de cambio de coordenadas que tiene en sus columnas las coordenadas de los vectores de
B
1
respecto de B
1
es precisamente la matriz Q.
An alogamente si consideramos la aplicacion lineal de W en W que en la base B
2
se representa por P
1
. Por ser P
1
regular se tiene que es isomorsmo y por tanto las
imagenes de B
2
son tambien base de W que llamaremos B
2
. La matriz de cambio de
coordenadas que tiene en sus columnas las coordenadas de los vectores de B
2
respecto
de B
2
es precisamente la matriz P
1
.
La matriz que representa a f respecto de las bases B
1
y B
2
es PAQ = B
Denicion 5.3. a) Sea f : V W aplicacion lineal. Se llama rango de f a la dimension
del subespacio imagen.
b) Sea A una matriz mn en K. Se llama rango de A (de columnas) a la dimension
del espacio que generan las columnas de A consideradas como elementos de K
m
.
Proposicion 5.4. Sea f : V W una aplicacion lineal representada po la matriz A en
ciertas bases. Se tiene que el rango de f es igual que el rango de A.
54
Demostracion: Sean B
1
y B
2
las bases en las que A representa a f y sea B
1
=
a
1
, , a
n
.
rango f = dimim(f) = dimK < f(a
1
), , f(a
n
) >=
= dimK < coordenadasf(a
1
), , coordenadasf(a
n
) >= K < columnas de A >
(Recordar que tomar coordenadas en una base es un isomorsmo y por eso la di-
mension de un espacio coincide con la de su imagen. Las coordenadas son respecto de
la base B
2
que es la unica mencionada en W.)
Corolario 5.5. Dos matrices equivalentes tienen el mismo rango.
Del siguiente teorema se deducir a la armacion recproca.
Teorema 5.6. Sea A una matriz mn en un cuerpo K y r el rango de A. Existen P
y Q regulares tales que
A = P
I
r
O
O O
I
r
O
O O
.
Consideramos ker h
A
y S un suplementario suyo. La aplicacion de S en imh
A
que
lleva s S a h
A
(s) tiene n ucleo 0 luego es inyectiva y por (3,7) es isomorsmo.
Tomamos (a
r+1
, , a
n
) base de kerh
A
y la ampliamos hasta una base de K
n
,
B
1
(a
1
, , a
r
, a
r+1
, , a
n
). Se tiene que (h
A
(a
1
), , h
A
(a
r
)) es base de imh
A
y la ampliamos hasta una base de K
m
,
B
2
(b
1
= h
A
(a
1
), , b
r
= h
A
(a
r
), b
r+1
, , b
m
) y respecto de las bases B
1
y B
2
la matriz de h
A
es
I
r
O
O O
.
La existencia de P y Q se deduce de (5,2)).
Teorema 5.7. Sean A y B matrices m n en K. A es equivalente a B si y solo si
rangA = rangB.
Demostracion: Por el corolario ultimo, dos matrices equivalentes tienen el mismo
rango.
Recprocamente, si rangA = rangB = r, A y B son equivalentes a
I
r
O
O O
.
Como la relacion de ser equivalentes es de equivalencia, A es equivalente a B.
Denicion 5.8. Sea A una matriz m n, se llama matriz traspuesta de A y la deno-
taremos A
t
a la matriz cuyas las son las columnas de A.
Es decir A = (a
ij
), A
t
= (a
ij
) con a
ij
= a
ji
.
Proposicion 5.9. Si A y B son matrices que se pueden multiplicar, (AB)
t
= B
t
A
t
.
Si A es regular A
t
tambien lo es (A
t
)
1
= (A
1
)t.
55
Demostracion. Ponemos (AB)
t
= (c
ij
) y B
t
A
t
= (d
ij
).
Se tiene c
ij
=
n
k=1
a
jk
b
ki
y d
ij
=
n
k=1
b
ki
a
jk
luego c
ij
= d
ij
.
A
t
(A
1
)
t
= (A(A
1
))
t
= (I
n
)
t
= I
n
luego (A
t
)
1
= (A
1
)
t
.
Proposicion 5.10. Sea A m n en K. El rango de las de A es igual al rango de
columnas de A.
Demostracion. Notar que rango de las de A es igual a rangA
t
.
Sea r = rangA. Existen P y Q regulares tales que A = P
I
r
O
O O
Q. Trasponien-
do A
t
= Q
t
(
I
r
O
O O
)
t
P
t
, es decir A
t
= Q
t
I
r
O
O O
P
t
(Notar que la matriz de en
medio no es la misma pero r si lo es). Como Q
t
y P
t
son regulares, se tiene que
rangA
t
= rang
I
r
O
O O
= r
Teorema 5.11. Sea A una matriz n n en K. Se tiene que A es regular si y solo si
rangA = n.
Demostracion. Si A es regular, como A = AI
n
I
n
, haciendo P = A y Q = I
n
se tiene
que A es equivalente a I
n
y por tanto tienen el mismo rango n.
Recprocamente si A tiene rango n, existe P y Q regulares tales que A = PI
n
Q es
decir A = PQ y como el producto de regulares es regular, A es regular.
Denicion 5.12. a) Las operaciones elementales para matrices son las siguientes:
1.-Intercambiar dos las.
2.-Sumar a una la otra multiplicada por un escalar.
3.- Multiplicar una la por un escalar no nulo.
1
, 2
y 3
A I
m
I
n
E
r
E
1
AF
1
F
s
E
r
E
1
I
m
I
n
F
1
F
s
B P
Q
, se tiene B = PAQ
Lema 5.16. Sea f : V W aplicacion lineal y b W. Se tiene:
1.-Si b imf, entonces f
1
(b) = .
2.-Si b = f(a) con a V , entonces f
1
(b) = a +c[c kerf := a +Kerf
Demostracion. Hecha.
Teorema 5.17. Sea AX = B un sistema de ecuaciones lineales en K. Es decir A es
una matriz m n en K, B =
b
1
.
.
b
m
K
m
(es un sistema de m ecuaciones con n
incognitas).
Se tiene:
1.- El sistema tiene solucion si y solo si rangA = rang(A[B) ( se dice que el sistema
es compatible).
2.-Si el sistema es compatible y rangA = n, la solucion es unica.
3.Si el sistema es compatible y rangA < n, la solucion no es unica.
Demostracion.
1.-Sea h
A
: K
n
K
m
. Las soluciones del sistema son h
1
A
(B).
imh
A
= K < h
A
(e
1
), h
A
(e
n
) > siendo e
1
, , e
n
la base canonica de K
n
.
As imh
A
= K <columnas de A > y se tiene
B imh
A
si y solo si B K < c
1
, , c
n
> siendo c
1
, c
n
las columnas de A.
Recordar (1,9), se tiene B K < c
1
, , c
n
> si y solo si
57
K < c
1
, , c
n
>= K < c
1
, , c
n
, B >
Como K < c
1
, , c
n
> K < c
1
, , c
n
, B > se tiene la igualdad si y solo si son
iguales las dimensiones, es decir si y solo si rangA = rang(A[B).
2.-Si rangA = n, dim(imh
A
) = n y entonces dim(kerh
A
) = dimK
n
dimImh
A
=
n n = 0 luego kerh
A
= 0 y por el lema, la solucion es unica.
3.-Si rangA < n, dim(imh
A
) < n y entonces dim(kerh
A
) = dimK
n
dimImh
A
> 0
luego kerh
A
tiene mas de un elemento y por el lema la solucion no es unica.
Nota Un sistema del tipo AX = 0 se llama homogeneo. Las soluciones son un subes-
pacio de K
n
, es el kerh
A
de dimension nrangA. Siempre tiene soluciones, al menos la
n-tupla nula es solucion. Tiene alguna solucion distinta de la nula si y solo si rangA < n.
Proposicion 5.18. Sea A una matriz m n en K y B m 1 en K. Si efectuando
en (A[B) operaciones elementales de las se obtiene (C[D), los sistemas AX = B y
CX = D tienen las mismas soluciones.
Demostracion. Por obtenerse (C[D) a partir de (A[B) con operaciones elementales
de las se tiene que existe una matriz regular P (producto de elementales), tal que
PA = C y PB = D.
Sea (1) el sistema AX = B y (2) el CX = D. Si X es solucion de (1) se tiene
AX = B y multiplicando por P, PAX = PB, es decir CX = D y X es solucion de (2).
Si X es solucion de (2), CX = D y multiplicando por P
1
se tiene P
1
CX = P
1
D
es decir AX = B y X es solucion de (1).
58
Captulo 6
Valores y vectores propios
Uno de los problemas centrales del
Algebra Lineal es el siguiente: Dado un endomor-
smo (operador ) T de un espacio vectorial V de dimension nita existe alguna base
(a
1
, , a
n
) de V en la que T se represente por una matriz lo mas sencilla posible? La
respuesta es armativa y ademas existen procedimientos efectivos para obtenerla. Esta
meta, sin embargo, esta mas alla de los objetivos se nalados a esta asignatura. En todo
caso estudiaremos y caracterizaremos un tipo especial de endomorsmos en los que esa
forma sencilla, lo es grado que podramos llamar optimo.
La idea es descomponer V en suma directa de subespacios
V = S
1
S
r
que sean invariantes por T (es decir T(v) S
i
para todo v S
i
) de modo que en cada
subespacio T se comporte de la forma mas sencilla posible. El punto de partida que tiene
sentido aunque V no sea de dimension nita es la siguiente
Denicion 6.1. Si T : V V es un operador en un espacio vectorial cualquiera
(V = 0) se llama vector propio de valor propio asociado a todo vector 0 = v V
tal que
T(v) = v
Insistimos en que un vector propio es un vector no nulo que por T se transforma en
uno proporcional. El factor de proporcionalidad es el valor propio.
Ejemplos 6.2. 1) Si T : V V es un operador cuyo nucleo Ker T es no nulo, entonces
todo vector no nulo de Ker T es un vector propio de valor propio asociado 0.
Mas a un, decir que 0 = v es un vector propio de valor propio es lo mismo que
decir que v es un vector no nulo del n ucleo del operador
T 1
V
(1
V
designa como siempre el operador identidad de V )
2) Sea T : R
2
R
2
(a, b) (b, a), entonces buscar un vector propio (con un
valor propio asociado ) es lo mismo que resolver en R el sistema de ecuaciones
b = a
a = b
(las incognitas son a, b. debe considerarse parametro tal que a o b sea no nulo)
59
De las ecuaciones anteriores se deduce
a =
2
a b =
2
b
Como a o b no nulo, ello conduce a que
2
= 1, que es imposible para valores
reales.
La conclusion es que T no tiene vectores propios.
3) Sea ahora T : R
2
R
2
(a, b) (b, a), En este caso se plantea el sistema
b = a
a = b
que conduce a la condici on
2
= 1. Es decir tenemos dos valores propios posibles
= 1 y = 1.
En el caso = 1, los vectores propios son los de la forma (a, a) con a = 0 y para
= 1, los vectores propios son los de la forma (a, a) con a = 0
Del comentario hecho en el ejemplo 1) se deduce un hecho obvio pero muy importante
que resaltamos como
Proposicion 6.3. Si es un valor propio del operador T, entonces el conjunto V
formado por todos los vectores propios correspondientes a juntamente con el vector
nulo, es un subespacio no nulo de V .
Es claro que V
= Ker (T 1
V
). Se llama subespacio fundamental denido por
. Se tiene
Proposicion 6.4. Una coleccion nita de V
1
, , V
r
de distintos subespacios funda-
mentales siempre esta en suma directa.
Demostracion : Es una tpica demostracion por induccion sobre el n umero r de sus-
bespacios. Para r = 0 o r = 1 la armacion es obvia
1
Sean V
1
, , V
r1
, V
r
subespacios fundamentales distintos (
i
=
j
si i = j)
Por hipotesis inductiva V
1
V
r1
, suponer pues que
v (V
1
V
r1
) V
r
Entonces
v = v
1
+ +v
r1
v
j
V
j
()
Aplicando T a esta igualdad
r
v =
1
v
1
+ +
r1
v
r1
()
Multiplicamos () por
r
y le restamos (). Se tiene
0 = (
r
1
)v
1
+ + (
r
r1
)v
r1
y la hipotesis inductiva permite asegurar que (
r
i
)v
i
= 0 i = 1, , r 1
v
i
= 0 i = 1, , r 1
O sea que V
1
, , V
r1
, V
r
estan en suma directa.
Como un subespacio fundamental es no nulo por denicion se puede concluir el
siguiente
1
Se puede empezar por r = 0 o r = 1 seg un el gusto del lector.
60
Corolario 6.5. En un espacio vectorial V de dimension nita n el conjunto de valores
propios de un operador es nito y su n umero es menor o igual n. Notar que puede ser
vaco (ejemplo 2)
Sin embargo un operador T : V V con dimension de V innita puede tener
innitos valores propios, por ejemplo considerar V = (
(R, R) y D : V V el operador
que asocia a cada funcion f su derivada f
( V ).
Sabemos que De
x
= e
x
R con lo que la funcion exponencial x e
x
es
un vector propio de valor propio .
Sea ahora f V tal que Df = f, como e
x
= 0 x R se puede considerar la
funcion
x
f(x)
e
x
que esta en V . Entonces su derivada es la funcion
x
f
(x)e
x
f(x)e
x
e
2x
= 0 x
este cociente es constante f(x) = ke
x
. Es decir que para todo R , es un
valor propio cuyo espacio fundamental asociado viene generado por la funcion x e
x
Por el contrario el operador denido por multiplicacion por x no poseee valores pro-
pios.
En efecto suponer 0 = f V = (
= f
1
, , V
r1
, V
r
de T : V V operador lineal. Esta
conguracion se produce cuando
V = V
1
V
r
y esto da lugar a la siguiente
Denicion 6.6. Un operador lineal T de un espacio vectorial V de dimension nita se
dice diagonalizable si V es suma directa de los subespacios fundamentales de T.
61
El termino adoptado proviene de que podemos encontrar bases formadas yuxtapo-
niendo bases de los subespacios fundamentales. Entonces la correspondiente representa-
cion matricial de T es por medio de una matriz diagonal
D =
2
0
2
0
en donde aparece
i
repetido dimV
i
veces.
Se tiene que T es diagonalizable precisamente cuando V posee una base formada por
vectores propios de T. Es claro que el ejemplo 2) no es diagonalizable, mientras que en
el ejemplo 3) la base ordenada de R
2
((1,1),(1,-1)) permite diagonalizar el operador y
representarlo por la matriz
1 0
0 1
y
1
.
.
.
y
n
= A
x
1
.
.
.
x
n
A = (a
i
j
)
1i,jn
(recordar que si v = x
i
a
i
, T(v) = y
i
a
i
)
Por tanto si v es un vector propio de coordenadas (x
1
, , x
n
) tendremos que para
un cierto K se verica
x
1
.
.
.
x
n
= A
x
1
.
.
.
x
n
(con x
i
= 0 para alg un i)
es decir el sistema homogeneo
(I
n
A)
x
1
.
.
.
x
n
0
.
.
.
0
62
tiene al menos una solucion no trivial. Lo que equivale a decir que el determinante
de la matriz I
n
A es cero. En otras palabras introduciendo la indeterminada X se
tiene que es un valor propio de T precisamente cuando es una raz de la ecuacion
det (XI
n
A) = 0 (3)
Mas explcito
det
X a
1
1
a
1
2
a
1
n
a
2
1
X a
2
2
a
2
n
a
n
1
a
n
2
X a
n
n
= 0
O si preferimos la notacion con doble subndice
det
X a
11
a
12
a
1n
a
21
X a
22
a
2n
a
n1
a
n2
X a
nn
= 0 (4)
Si cambiamos de base la matriz A se transforma en la matriz PAP
1
con P la matriz
regular del cambio de bases, entonces el polinomio que aparece en el primer miembro de
(3) , con la nueva matriz es
det (XI
n
P
1
AP) = det (P
1
(XI
n
A)P) =
= det P
1
det (XI
n
A)det P = det P
1
det (XI
n
A)(det P) = det (XI
n
A)
Es decir que tiene el mismo polinomio al que llamaremos indistintamente polinomio
caracterstico de T o polinomio caracterstico de A.
La ecuacion de (3) se denomina ecuacion caracterstica de T (o de A)
Desarrollando el primer miembro de (4) por la primera columna observamos (utili-
zando la induccion obvia) que el polinomio caracterstico es un polinomio de grado n
cuyo coeciente X
n
es 1. Ademas se observa que el coeciente de X
n1
es a
11
a
nn
y haciendo X = 0 se observa que el termino independiente es
(1)
n
det A
As el polinomio caracterstico de T se puede calcular usando cualquier matriz que
represente a T en cualquier base y es de la forma
X
n
+c
1
X
n1
+c
2
X
n2
+ +c
n1
X +c
n
con
c
1
= (a
11
+ +a
nn
) = traza de A
c
n
= (1)
n
det A
Vemos nuevamente que el n umero de valores propios de un operador en un espacio
de dimension n esta acotado por este n umero ya que una ecuacion de grado n con
63
coecientes en un cuerpo K posee a lo sumo n races en K (o en cualquier cuerpo que
contenga a K).
Ademas se sabe que cualquier ecuacion de grado mayor o igual que 1 con coecientes
complejos posee al menos una raz compleja, en consecuencia todo operador en un espacio
complejo de dimension nita posee al menos un valor propio ( y por tanto un subespacio
fundamental!)
Si K = R y n = dimV es impar, como toda ecuacion con coecientes reales de grado
impar posee al menos una raz real, se puede asegurar que todo operador de V tiene al
menos un valor propio. El ejemplo 2) prueba que este no es el caso si n es par.
Toda matriz A, n n en K puede interpretarse como matriz de un operador lineal
de un espacio vectorial V de dimension n referido a una base (a
1
, , a
n
) de modo que
la columna i-esima de A esta formada por las coordenadas de T(a
i
) en dicha base. Por
ejemplo tomar V = K
n
y (a
1
, , a
n
) la base canonica con lo que la columna i-esima
de A es el elemento T(a
i
).
Pues bien se dice que A es diagonalizable si T lo es lo que equivale a decir que
existe una matriz regular P tal que P
1
AP es diagonal formada por los valores propios
de T con la multiplicidad adecuada.
Suponer que
P
1
AP = D =
diagonal
con
i
K (posiblemente repetidas), entonces para todo entero positivo m se tiene
A
m
= (PDP
1
)
m
= PD
m
P
1
= P
m
1
m
2
m
n
P
1
Con lo que el calculo de A
m
se puede efectuar calculando la matriz P cuya i-esima
columna esta formada por un vector propio de A de valor propio
i
adecuado.
Del mismo modo si f(X) es un polinomio con coecientes en K se tiene
f(A) = P
f(
1
)
f(
2
)
f(
n
)
P
1
y si por ejemplo queremos calcular la exponencial de la matriz A, pondremos
e
A
= P
1
e
2
e
P
1
64
Nota: Se dene e
A
como el lmite
lm
k
(I
n
+
1
1!
A+
1
2!
A
2
+ +
1
k!
A
k
)
65
Captulo 7
Espacio dual
Suponer que V es un espacio vectorial cualquiera sobre un cuerpo cualquiera K.
Considerar a K como espacio vectorial (unidimensional) sobre s mismo. Se llama forma
lineal sobre V (o si se preere, funcional lineal) a toda aplicacion lineal
: V K
Si v V pondremos < v, > para denotar la imagen (v) de v por .
Llamaremos V
: V K v 0 v V
Se nalamos, en consecuencia, la siguiente
Denicion 7.1. El espacio vectorial (V
, quedando sobreen-
tendidas las operaciones suma y producto por escalares.
La idea es contemplar a V
llamada
base dual de (e
1
, , e
n
).
Demostracion. Si a
1
, , a
n
K son tales que a
k
e
k
= a
1
e
1
+ a
n
e
n
= 0
, entonces
para todo i(1 i n) se tiene
0 =< e
i
, 0
>=< e
i
, a
k
e
k
>= a
k
j
i
= a
i
Es decir (e
1
, , e
n
) es libre. Por otro lado si V
se tiene que y (e
i
)e
i
=
(e
1
)e
1
+ +(e
n
)e
n
toman el mismo valor en cada elemento e
j
de la base inicial en
V , por lo tanto coinciden, es decir
= (e
i
)e
i
lo que permite asegurar que e
1
, , e
n
es un sitema generador de V
.
La primera consecuencia de esta proposicion es que si V es un espacio vectorial de
dimension nita, V
tambien lo es y
dimV
= dimV
Una segunda consecuencia es la siguiente
Observacion Si V es de dimension nita
1
entonces para todo par de vectores distintos
v y w existe al menos una forma lineal tal que < v, >=< w, >. En particular si
0 = v V existe V
, entonces la aplicacion
e : V
n
v (< v, e
1
>, , < v, e
n
>)
es evidentemente lineal, ademas e(v) = 0 si y solo si < v, e
i
>= 0 para todo i, lo
que equivale a decir que < v, >= 0 para todo V
es dual de
una base de V . mas a un hemos establecido correspondencias naturales entre
INSERtar GRaco
Suponer ahora que efectuamos en V un cambio de bases de (e
1
, e
n
) a (e
1
, e
n
)
dado por
e
i
=
j
i
e
j
i = 1, , n
de manera que la matriz del cambio de bases
P =
1
1
1
2
1
n
2
1
2
2
2
n
n
1
n
2
n
n
es regular.
Cada una de esas bases tiene una base dual (e
1
, e
n
) a (e
1
, e
n
) respectivamente,
con lo que tenemos el correspondiente cambio de bases
e
h
=
h
k
e
k
h = 1, , n
de matriz
Q =
1
1
1
n
n
1
n
n
h
i
=< e
i
, e
h
>=<
j
i
e
j
,
h
k
e
k
>=
j
i
h
k
k
j
=
k
i
h
k
lo que signica que las matrices P y Q son inversas una de otra.
Observar que los cambios de bases en V y V
x
1
.
.
.
x
n
= P
x
1
.
.
.
x
n
P =
1
1
1
n
n
1
n
n
(v = x
i
e
i
= x
j
e
j
V
68
u
1
u
n
u
1
u
n
Q Q =
1
1
1
n
n
1
n
n
(
= u
h
e
h
= u
k
e
k
V
; de ah la relacion
Q = P
1
obtenida antes.
Si nos adherimos a una notaci on de doble subndice para las matrices y escribimos
las coordenadas de los elementos de V y V
u
1
.
.
.
u
n
= Q
u
1
.
.
.
u
n
es la tras-
puesta de la inversa (que coincide con la inversa de la traspuesta) de la matriz de cambio
de coordenadas en V
2
La interaccion de V y V
de V
denido por
S
= V
[ < v, >= 0 v S
De la denicion de subconjunto ortogonal se deduce inmediatamente que
1) S
es un subespacio de V
2) Si S
1
S
2
, entonces S
1
S
2
Proposicion 7.4. Si V es un espacio vectorial de dimension nita n y S es un
subespacio de V , entonces
dimS
= n dimS
Demostracion: Sea (e
1
, , e
r
) base de S ( por tanto r = dimS). Compltar esta
familia libre hasta conseguir una base de V : (e
1
, , e
r
, e
r+1
, , e
n
)). Considerar
en V
su base dual (e
1
, , e
n
). Si V
se puede poner
= u
i
e
i
= u
1
e
1
+ +u
r
e
r
+u
r+1
e
r+1
+ +u
n
e
n
2
La matriz (P
1
)
= (P
si y solo si < e
i
, >= 0 i = 1, , r; es decir si y solo si
u
i
=< e
i
, u
1
e
1
+ +u
r
e
r
+u
r+1
e
r+1
+ +u
n
e
n
>= 0 i = 1, , r
con lo que
S
= K < e
r+1
, , e
n
>
y de ah dimS
= n dimS
Analogamente podemos denir para todo subespacio T de V
su ortogonal T
en
V mediante la denicion obvia
T
= v V [ < v, >= 0 T
Es claro que T
es un subespacio de V , que
T
1
T
2
= T
1
T
2
y que modicando de modo obvio la demostracion d ela
proposicion anterior se tiene dimT
= n dimT
Finalmente observar que si S es un subespacio de V y T un subespacio de V
,
aplicando sucesivamente las dos construcciones del subespacio ortogonal tenemos
que por denicion
S S
T T
T = T
y T T
= V
= V
(S
1
+S
2
)
= S
1
S
2
; (S
1
S
2
)
= S
1
+S
2
con S
1
y S
2
subespacios d eV y lo mismo si consideramos sumas e intersecciones
d esubespacios d eV
.
Veremos a continuacion cual es el sentido geometrico de la construccion del orto-
gonal S
del subespacio S.
70
En primer lugar sabemos que S queda determinado por cualquier sistema ge-
nerador, en particular y del modo mas economico posible por cualquier base
(a 1, , a
r
) de S. Los vectores de S se pueden determinar invocamente as
v S v =
1
a
1
+ +
r
a
r
con lo que
1
,
r
son r parametros independientes (una suerte de coordenadas
localesdentro de S) Si en V hubieramos denido una base (e
1
, , e
n
), o sea un
sistema de coordenadas, entonces las coordenadas (x
1
, , x
n
) de los vectores de
S se representaran parametricamente por
x
i
=
1
a
i
1
+ +
r
a
i
r
i = 1, , n
en funcion d elas coordenadas A
i
k
de los r vectores a
1
, , a
r
3
Sea ahora (
1
,
2
, ,
nr
una base cualquiera del subespacio ortogonal S
de
S, entonces
v S < v,
j
>= 0 j = 1, , n r
Con lo que las relaciones < v,
j
>= 0 se pueden interpretar como n r ligadu-
rasque obligan a v a pertenecer a S.
Si tuvieramos la base de V anterior cada
i
se pondra de la forma
i
= u
i
k
e
k
con (e
1
, , e
n
) la base dual en V
y las coordenadas (x
1
, , x
n
) de los vectores
de S son precisamente las que verican las n r ecuaciones lineales homogeneas
u
i
k
x
k
= 0
i = 1, , n r
la independencia lineal de las formas varphi
1
,
2
, ,
nr
se traduce en que la
matriz
(u
i
k
)
1inr,1kn
tiene rango (de las) n r
4
De modo un tanto coloquial diramos que la descripcion de un subespacio en
terminos de una base del mismo es una descripcion desde dentro como una suma
directa de r subespacios unidimensionales:
S = K < a
1
> K < a
r
>
3
Comparar con la representaci on parametrica de una recta o un plano en la geometra elemental del
espacio
4
Comparar esto con la descripci on de un plano por medio de una ecuacion o de una recta por medio
de dos ecuaciones.
71
Mientras que si S se considera el ortogonal de un subespacio de V
de dimension
n r, se tiene S como interseccion de n r subespacios de dimension n 1
(corrientemente llamados hiperplanos)
S = Ker
1
Ker
nr
En cierto modo esto es una descripcion desde fuera.
: W
f
si recordamos las propiedades basicas de la composicion de aplicaciones lineales
observamos, en particular
1) , W
( +) f = f + f
2) W
a K (a) f = a( f)
igualdades que expresadas en terminos de la aplicacion f
dicen
1) f
( +) = f
() +f
() , W
2) f
(a) = af
() W
a K
es decir f
va de W
en V
(diramos a la contra) y
que esta es la unica manera de componer f con un elemnto generico : W K.
Ver el diagrama
INSERTAR GRAFICO
Es bastante ecaz a la hora de hacer calculos el recordar que
< f(v), >=< v, f
() >
(Al pasar f al otro lado de la coma se pone el asterisco)
Es inmediato comprobar las siguientes propiedades
1) (f
1
+f
2
)
= f
1
+f
2
siempre que f
1
y f
2
sean sumables.
2) (af)
= af
a K
3) (f
1
f
2
)
= f
2
f
1
siempre que f
1
y f
2
sean componibles.
4) (1
V
)
= 1
V
72
Supondremos que f : V W es como antes y que V y W son de dimension nita.
Fijar sendas bases
(e
1
, , e
n
)enV y (
1
,
m
)enW
con lo que tenemos las correspondientes bases duales
(e
1
, , e
n
)enV
y (
1
,
m
)enW
Si A = (
j
i
)
1 j m
1 i n
(CORREGIR) es la matriz mn de f en las bases iniciales,
se tiene f(e
i
) =
j
i
j
. Por otro lado si B = (
h
k
)
1 h m
1 k n
es la matriz mn de f
(
h
) =
h
k
e
k
Ahora bien
< f(e
i
),
h
>=< e
i
, f
(
h
) >
con lo que
h
i
=<
j
i
j
,
h
>=< e
i
,
h
k
e
k
>=
h
i
Por lo tanto las dos matrices coinciden. Notar que si hubieramos adoptado sis-
tematicamente la notacion de subndices la matriz B de f
y
1
.
.
.
y
m
= A
x
1
.
.
.
x
n
: W
, f
() V
en
u
1
u
n
v
1
v
m
A
73
con = v
i
i
y f
() = u
j
e
j
. Por tanto tenemos que contemplar la matriz A de
modo ortogonal:
rango de las de A = dim Imf
Kerf
= (Imf)
< v, f
() >= 0 W
, es decir
v (Imf
=
dim V (dim V dim Imf
) = dim Imf
= rango de las de A
Se tiene as una prueba (geometrica?) de la igualdad de los rangos de las y de
columnas.
a
: V R p(X) p(a)
que asocia a cada polinomio (o funcion polinomica) p(X) su valor en a.
Pues bien si a
1
, a
2
, , a
r
son r n umeros reales distintos, se pueden denir r po-
linomios
l
i
(X) =
(X a
1
)
(X a
i
) (X a
r
)
a
i
a
1
)
(a
i
a
i
) (a
i
a
r
)
i = 1, , r. (El circumejo signica que el factor que hay debajo no aparece)
Se comprueba inmediatamente que
a
i
(l
j
(X)) =
j
i
con lo que podemos asegurar
1) Los l
i
(X) forman una familia libre de r elementos del subespacio V
r
de V
formado por los polinomios de grado menor que r. Por tanto son una base de
V
r
( se llaman polinomios interpoladores de Lagrange)
2) La familia de evaluaciones
a
[a R
es una familia innita ( mas grandeque la de los
i
, en efecto si as fuera
a
= b
0
0
+b
1
1
+ +b
n
n
b
i
R y n N sucientemente grande. Si as fuera, aplicando
a
al polino-
mio X
n+1
se obtendra
a
(X
n+1
) = a
n+1
= 0
pero la igualdad anterior conduce a
a
(X
n+1
) =
b
i
i
(X
n+1
) = 0
contradiccion.
La consecuencia es que la familia de los
i
(i N) no es una base de V
,
contrariamente a lo que ocurra en el caso de los espacios de dimension nita.
Por otro lado la existencia de la familia libre de las evaluaciones:
a
[a R
permite asegurar que la dimension de V
el subespacio de (R
3
)
anulador
de S. Si T = R < > tenemos
= v[ < v w, >= 0
Por tanto viene determinado por el par (w, ). Observar que es una forma
lineal no nula que se puede pensar como un sucedaneo del vector caracterstico
de la geometra clasica. Pondremos = (w, )
Sean = (w, ) un plano y r = v +R < a > una recta
1) Si < a, >= 0 se plantea la ecuacion en x
< v +xa w, >= 0
es decir
< v w, > +x < a, >= 0
que tiene solucion unica x
0
, por tanto v + x
0
a es el unico punto de r que
tambien esta en . En otras palabras r y se cortan en un punto.
2) Si < a, >= 0 y < v w, >= 0, la ecuacion anterior no tiene solucion,
es decir r = . Ademas < a >< >
= S lo que signica r | .
3) Si < a, >= 0 y < v w, >= 0, todo x R es solucion con lo que
r .
Estas son las tres posiciones relativas de recta y plano
Para planos, si escribimos = v +S = (v, ) y = w +T = (w, ), es decir
usamos las formas caractersticas y , se tendra
1) Si , es libre (S = T, luego S T es de dimension 1) , es una
recta de direccion < >
< >