You are on page 1of 395

lgebra Lineal

Teora y Prctica
Miguel A. Perell
c 2000 - 2002 CRESLINE

Versin 20020715

Els autors, 2002; Edicions UPC, 2002

ii

Els autors, 2002; Edicions UPC, 2002

ndice general
Introduccin

XI

Teora

1. Espacios vectoriales
1.1. Hacia el concepto de vector . . . . . . . . . . . .
1.2. Concepto de espacio vectorial . . . . . . . . . . .
1.3. Propiedades elementales . . . . . . . . . . . . . .
1.4. Producto de espacios vectoriales . . . . . . . . .
1.5. Subespacios vectoriales . . . . . . . . . . . . . . .
1.6. Interseccin de subespacios vectoriales . . . . . .
1.7. Subespacio engendrado por un subconjunto . . .
1.8. Suma de subespacios vectoriales . . . . . . . . . .
1.9. Combinaciones lineales . . . . . . . . . . . . . . .
1.10. Clausura lineal . . . . . . . . . . . . . . . . . . .
1.11. Sistemas equivalentes . . . . . . . . . . . . . . . .
1.12. Dependencia e independencia lineal . . . . . . . .
1.13. Bases de un espacio vectorial de dimensin finita
1.14. Dimensin de un subespacio vectorial . . . . . . .
1.15. Espacio vectorial cociente . . . . . . . . . . . . .
1.16. Rango de un sistema de vectores . . . . . . . . .
1.17. Isomorfismos de espacios vectoriales . . . . . . .
1.18. Cambio de coordenadas . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
3
7
8
9
12
13
14
18
20
23
25
30
34
38
40
43
48

2. Aplicaciones lineales
2.1. Definicin y ejemplos . . . . . . . . . . .
2.2. Ncleo e imagen de una aplicacin lineal
2.3. Matriz asociada a una aplicacin lineal .
2.4. Espacios vectoriales isomorfos . . . . . .
2.5. Teoremas de isomorfismo . . . . . . . .
2.6. El espacio de las aplicaciones lineales . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

53
53
55
57
62
65
68

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

iii

Els autors, 2002; Edicions UPC, 2002

iv

NDICE GENERAL

3. Matrices
3.1. Definicin de matriz . . . . . . . . . . . . . . . .
3.1.1. Tipos especiales de matrices . . . . . . . .
3.2. Espacio vectorial de las matrices . . . . . . . . .
3.2.1. Suma de matrices . . . . . . . . . . . . .
3.2.2. Multiplicacin escalar de matrices . . . .
3.3. Matriz asociada a una aplicacin lineal . . . . . .
3.4. Producto de matrices . . . . . . . . . . . . . . . .
3.5. Imagen de un vector por de una aplicacin lineal
3.6. El anillo de las matrices cuadradas . . . . . . . .
3.7. Trasposicin de matrices . . . . . . . . . . . . . .
3.8. Cambios de base en un espacio vectorial . . . . .
3.9. Cambios de base en una aplicacin lineal . . . . .
3.9.1. Matrices equivalentes . . . . . . . . . . .
3.9.2. Matrices semejantes . . . . . . . . . . . .
3.10. Rango de una matriz . . . . . . . . . . . . . . . .
3.11. Matrices elementales . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

71
. 71
. 73
. 76
. 76
. 77
. 80
. 82
. 85
. 86
. 90
. 92
. 94
. 96
. 97
. 98
. 100

4. Determinantes
4.1. Determinante de n vectores . . . . . . . . . . . . . . . . .
4.1.1. Propiedades de las formas multilineales alternadas
4.1.2. Propiedades de los determinantes . . . . . . . . . .
4.2. Determinante de un endomorfismo . . . . . . . . . . . . .
4.3. Determinante de una matriz cuadrada . . . . . . . . . . .
4.3.1. Desarrollo por los elementos de una fila o columna
4.3.2. Clculo del rango de una matriz por determinantes
4.3.3. Clculo por determinantes de la matriz inversa . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

111
111
113
120
122
126
129
132
134

.
.
.
.
.
.
.
.

137
137
138
140
141
148
150
153
155

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

5. Sistemas de ecuaciones lineales


5.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . .
5.2. Existencia de soluciones de un sistema de ecuaciones lineales
5.3. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . .
5.4. Resolucin de un sistema de ecuaciones lineales . . . . . . . .
5.5. Clasificacin de los sistemas de ecuaciones lineales . . . . . .
5.6. Mtodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . .
5.7. Clculo de la matriz inversa . . . . . . . . . . . . . . . . . . .
5.8. Estudio de las ecuaciones AX = B . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

6. Diagonalizacin de endomorfismos
159
6.1. Vectores propios y valores propios. Polinomio caracterstico . . . 159
6.2. Diagonalizacin de endomorfismos . . . . . . . . . . . . . . . . . 161

Els autors, 2002; Edicions UPC, 2002

NDICE GENERAL

7. La forma reducida de Jordan


7.1. Polinomio mnimo . . . . . . .
7.2. Subespacios invariantes . . . .
7.3. El teorema de Cayley-Hamilton
7.4. Matriz reducida (general) de un
7.5. Matriz reducida de Jordan . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

167
167
169
175
177
181

8. Formas bilineales simtricas y formas cuadrticas


8.1. Definicin y primeras propiedades . . . . . . . . . .
8.2. Ortogonalidad. Elementos istropos . . . . . . . .
8.2.1. Bases ortogonales . . . . . . . . . . . . . . .
8.2.2. Bases ortonormales . . . . . . . . . . . . . .
8.3. Formas bilineales simtricas reales . . . . . . . . .
8.3.1. Endomorfismos adjuntos y autoadjuntos . .
8.3.2. Diagonalizacin de matrices simtricas . . .
8.4. Procedimientos . . . . . . . . . . . . . . . . . . . .
8.4.1. Reduccin de las formas cuadrticas reales
8.4.2. Clasificacin de formas cuadrticas reales .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

185
185
195
200
204
207
213
218
223
223
228

II

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
endomorfismo
. . . . . . . . .

.
.
.
.
.

Prctica

233

9. Espacios vectoriales
9.1. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . .
9.2. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . .
9.3. Interseccin de subespacios vectoriales . . . . . . . . . . . . . . .
9.4. Subespacio engendrado por un conjunto . . . . . . . . . . . . . .
9.5. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . .
9.6. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . .
9.7. Clausura lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.8. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . .
9.9. Dependencia e independencia lineal . . . . . . . . . . . . . . . . .
9.10. Bases de un espacio vectorial de dimensin finita . . . . . . . . .
9.11. Dimensin de un subespacio vectorial . . . . . . . . . . . . . . . .
9.12. Espacio vectorial cociente . . . . . . . . . . . . . . . . . . . . . .
9.13. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . .
9.14. Producto de espacios vectoriales. Isomorfismos de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.15. Cambio de coordenadas . . . . . . . . . . . . . . . . . . . . . . .

235
235
242
245
246
246
247
249
252
253
255
257
259
259

10.Aplicaciones lineales
10.1. Definicin y ejemplos . . . . . . . . . . .
10.2. Ncleo e imagen de una aplicacin lineal
10.3. Matriz asociada a una aplicacin lineal .
10.4. Espacios vectoriales isomorfos . . . . . .
10.5. Teoremas de isomorfismo . . . . . . . .

265
265
267
270
275
276

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Els autors, 2002; Edicions UPC, 2002

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

262
262

vi

NDICE GENERAL
10.6. El espacio de las aplicaciones lineales . . . . . . . . . . . . . . . . 277

11.Matrices
11.1. Definicin de matriz . . . . . . . . . .
11.2. Espacio vectorial de las matrices . . .
11.3. Producto de matrices . . . . . . . . . .
11.4. Matriz asociada a una aplicacin lineal
11.5. El anillo de las matrices cuadradas . .
11.6. Cambios de base . . . . . . . . . . . .
11.7. Matrices elementales . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

279
279
279
281
283
283
285
288

12.Determinantes
293
12.1. Formas multilineales. Propiedades . . . . . . . . . . . . . . . . . 293
12.2. Determinante de un endomorfismo . . . . . . . . . . . . . . . . . 294
12.3. Determinante de una matriz cuadrada. Propiedades . . . . . . . 295
13.Sistemas de ecuaciones lineales

303

14.Diagonalizacin de endomorfismos
313
14.1. Vectores y valores propios. Polinomio caracterstico . . . . . . . . 313
14.2. Diagonalizacin de matrices . . . . . . . . . . . . . . . . . . . . . 314
15.Forma reducida de Jordan
15.1. Polinomio mnimo . . . . . . . . . .
15.2. Subespacios invariantes . . . . . . .
15.3. El teorema de Cayley-Hamilton . . .
15.4. Matriz cannica de un endomorfismo

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

319
319
320
323
326

16.Formas bilineales simtricas y formas cuadrticas


16.1. Definicin y primeras propiedades . . . . . . . . . . . .
16.2. Ortogonalidad respecto a una forma bilineal simtrica
16.3. Formas bilineales simtricas reales . . . . . . . . . . .
16.4. Procedimientos . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

331
331
334
339
342

III

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

Apndices

347

A. Espacios vectoriales

349

B. Aplicaciones lineales

355

C. Matrices

361

D. Determinantes

365

E. Sistemas de ecuaciones lineales

369

F. Diagonalizacin de endomorfismos

371

Els autors, 2002; Edicions UPC, 2002

NDICE GENERAL

vii

G. Forma reducida de Jordan

375

H. Formas bilineales simtricas y formas cuadrticas

379

Agradecimientos

381

Els autors, 2002; Edicions UPC, 2002

viii

NDICE GENERAL

Els autors, 2002; Edicions UPC, 2002

Prefacio
El presente libro es slo una parte del curso que con el mismo ttulo se
ofrece de forma gratutita en www.aprendes.com. Su nico objetivo es presentar
sus contenidos en formato pdf para que el estudiante pueda obtener una copia
impresa de aquellos documentos que son de su inters. El estudiante, sin embargo, debe tener en cuenta que al elegir el estudio por la va del documento
impreso no podr beneficiarse de ninguna de las ayudas incorporadas en el curso
mediante interaccin, ni de ninguno de los exmenes tipo test donde podr poner a prueba su nivel de conocimientos sobre un determinado tema. Este material
debe considerarse solamente como un soporte de repaso a los cursos interactivos
presentados por aprendes.com.

ix

Els autors, 2002; Edicions UPC, 2002

PREFACIO

Els autors, 2002; Edicions UPC, 2002

Introduccin
El presente libro, dedicado al lgebra Lineal, est destinado a los estudiantes
de primer curso de las Facultades de Ciencias, Escuelas de Ingeniera y Arquitectura, y su texto est dividido en tres partes: Teora, Prctica y Apndice.
La primera parte presenta una exposicin terica de cada tema por captulos.
En cada captulo se tratan los conceptos de forma rigurosa mediante definiciones,
se enuncian sus propiedades mediante teoremas y corolarios, y se acompaan
todas las demostraciones. En la exposicin se han incorporado ejemplos para
hacer ms fcil su compresin y su utilizacin en la prctica.
La segunda parte, como su nombre indica, es una cuidada seleccin de problemas resueltos de cada tema. En la mayora de los casos, los problemas se
presentan en cada captulo de esta parte bajo los mismos epgrafes que la exposicin terica, y se han escrito los razonamientos que justifican los pasos
realizados para llegar a la solucin de cada uno de ellos.
Finalmente, como apndice del texto, se han aadido listas de problemas
de cada uno de los temas tratados en las partes anteriores para que sirvan de
soporte a los estudiantes que quieran practicar y profundizar ms, as como la
bibliografa utilizada en el curso.

xi

Els autors, 2002; Edicions UPC, 2002

xii

INTRODUCCIN

Els autors, 2002; Edicions UPC, 2002

Parte I

Teora

Els autors, 2002; Edicions UPC, 2002

Els autors, 2002; Edicions UPC, 2002

Captulo 1

Espacios vectoriales
1.1.

Hacia el concepto de vector

La palabra vector es conocida de todos por la geometra. En el bachillerato,


se estudi la clase de objetos que denominamos vectores en geometra plana o
del espacio. Sin embargo, hay otras clases de objetos de la matemtica que
se comportan del mismo modo; comportarse del mismo modo significa poseer
las mismas propiedades. Descubrir estas propiedades es el primer paso hacia la
generalizacin.
El segundo paso es la axiomatizacin, es decir, elegir entre todas las
propiedades descubiertas aquellas que permitan deducir todas las dems; estas propiedades se llaman entonces axiomas. Cualquier clase de objetos que
satisfaga estos axiomas se dir que se comportan como vectores.
El ltimo paso es desarrollar la teora matemtica con base en los axiomas
previamente elegidos. Los resultados que se obtienen de la teora constituyen
las propiedades de los vectores. Por tanto, cualquier clase de objetos que se
comporten como vectores tendrn estas propiedades.
Segn la teora matemtica, se llamar vector a cualquier elemento de un
espacio vectorial. Es preciso pues definir el concepto de espacio vectorial.

1.2.

Concepto de espacio vectorial

Para saber si un conjunto es un espacio vectorial es necesario comprobar


que sobre l podemos definir dos operaciones. Una de ellas es interna, es decir,
estable respecto a los elementos del propio conjunto y, la otra, es externa y su
conjunto de operadores externo es un cuerpo conmutativo; decir que la operacin
es externa significa que es estable respecto a la actuacin del cuerpo sobre los
elementos del conjunto. Adems, estas dos operaciones deben satisfacer unas
determinadas propiedades, que se denominan axiomas.
Definicin 1 Dado un cuerpo conmutativo K, sea E un conjunto arbitrario de
3

Els autors, 2002; Edicions UPC, 2002

CAPTULO 1. ESPACIOS VECTORIALES

objetos sobre los cuales se definen dos operaciones, la adicin y la multiplicacin


por escalares (elementos de K). Por adicin se entiende una regla para asociar
con cada pareja de objetos u y v de E, un elemento u + v, llamado suma de u
y v. Por multiplicacin por escalares se entiende una regla para asociar con
cada escalar de K y cada objeto u de E, un elemento u, llamado producto de
u por el escalar . Si los axiomas siguientes son satisfechos por todos los objetos
u, v, w en E y todos los escalares , en K, entonces E recibe el nombre de
espacio vectorial sobre K, y a los objetos en E se les denomina entonces
vectores.
1.

Si u y v son objetos de E, entonces u + v est en E (la adicin es una


operacin interna)

2.

u + (v + w) = (u + v) + w (la adicin es asociativa)

3.

u + v = v + u (la adicin es conmutativa)

4.

Existe un objeto 0 en E, denominado vector cero, tal que 0+u = u+0 =


u (la adicin posee elemento neutro)

5.

Para cada u en E, existe un objeto u en E, denominado opuesto de


u, tal que u + (u) = (u) + u = 0 (la adicin posee la propiedad del
elemento simtrico)

6.

Si est en K y u en E, entonces u est en E (la multiplicacin por


escalares es una operacin externa y su conjunto de operadores es K)

7.

(u + v) = u + v

8.

( + )u = u + u

9.

(u) = ()u

10.

1u = u (1 es la unidad del cuerpo K)

Observacin 1 Hacemos las siguientes observaciones importantes:


1.

En la teora de espacios vectoriales, el cuerpo K se fija de una vez para


siempre y se llama el cuerpo base. Sus elementos se llaman escalares
y se designan por letras griegas.

2.

A los elementos de los espacios vectoriales se les llama vectores y se


designan por letras minsculas en negrita. Para distinguir el conjunto de
su estructura de espacio vectorial, utilizaremos la siguiente notacin: escribiremos E para referirnos simplemente al conjunto, y E para referirnos
a su estructura de espacio vectorial sobre K.

3.

En realidad, la distincin entre escalares y vectores no tiene ningn sentido


matemtico ya que como veremos ms abajo los escalares se comportan
tambin como vectores.

Els autors, 2002; Edicions UPC, 2002

1.2. CONCEPTO DE ESPACIO VECTORIAL

4.

Se ha utilizado el mismo signo + para denotar dos operaciones distintas


(la adicin en K y la adicin en el espacio vectorial), pero no da lugar a
confusin si nos fijamos en los elementos que une el signo + en cada caso.
Lo mismo puede decirse de la multiplicacin en K y de la multiplicacin
por escalares.

5.

El conjunto E dotado con la adicin tiene la estructura de grupo conmutativo o abeliano al satisfacer los axiomas 1-5. Se supone en esta
seccin que el lector est familiarizado con las propiedades elementales de
la teora de grupos.

6.

En particular, un espacio vectorial sobre el cuerpo R de los nmeros reales


se llama un espacio vectorial real, y un espacio vectorial sobre el cuerpo
C de los nmeros complejos, un espacio vectorial complejo.

7.

El lector debe tener presente que, en la definicin de espacio vectorial, no


se especifica la naturaleza de lo que llamamos despus vectores ni la de
las operaciones que denominamos adicin y multiplicacin por escalares.
Cualquier clase de objetos que se desee puede servir como vectores, todo lo
que se requiere es que se satisfagan los axiomas de los espacios vectoriales.
En los ejemplos que siguen, dan cierta idea de la diversidad de espacios
vectoriales posibles.

Ejemplo 1 Todo cuerpo conmutativo es un espacio vectorial sobre s mismo,


lo que muestra que los escalares son en este caso tambin vectores; Q, R y
C son espacios vectoriales sobre s mismo.
Ejemplo 2 El cuerpo de los nmeros
realesR es un espacio vectorial sobre el
cuerpo Q de los nmeros racionales; 2, , 5 2 + /3, etc., son vectores de este
espacio.
Ejemplo 3 Tomemos E = C, K = R y las operaciones
(a + bi) + (c + di) = (a + c) + (b + d)i
(a + bi) = a + bi
donde a, b, c, d, R, entonces C es un espacio vectorial real; es tambin un
espacio vectorial sobre s mismo. Es importante saber que estas dos estructuras
son diferentes.
Ejemplo 4 Tomemos K = R y como E el conjunto de los vectores de origen
dado O del espacio ordinario. Definimos la suma de dos vectores por la regla
del paralelogramo y el producto de un nmero real por un vector v como el
vector obtenido aplicando a v la homotecia de centro O y razn . De este modo
se obtiene un espacio vectorial real. En este ejemplo est el origen de la nocin
general de espacio vectorial y explica adems el empleo de la palabra vector
para designar a sus elementos.

Els autors, 2002; Edicions UPC, 2002

CAPTULO 1. ESPACIOS VECTORIALES

Ejemplo 5 Se llama vector de orden n sobre K a toda n tupla ordenada


(x1 , ..., xn ) de elementos del cuerpo conmutativo K. Los elementos xi se llaman
componentes del vector. El elemento xi recibe entoces el nombre de componente i esima del vector. Dos vectores de orden n son iguales si y slo si sus
componentes son iguales. Distinguiremos entre vector fila
( x1
y vector columna

xn )

x1
..
.
xn

Es fcil dotar al conjunto de estos vectores de estructura de espacio vectorial


sobre K. La adicin se define por
(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn )
El elemento neutro es 0 = (0, ..., 0) y el opuesto de (x1 , ..., xn ) es (x1 , ..., xn ).
La multiplicacin por un escalar K se define por
(x1 , ..., xn ) = (x1 , ..., xn )
Es inmediato comprobar que se cumplen todos los axiomas de espacio vectorial,
ya que quedan reducidos a las propiedades elementales entre elementos del cuerpo
K. Este espacio vectorial se denota por Kn . Este ejemplo tiene su origen en la
geometra analtica al representar un vector por sus componentes en los ejes de
coordenadas.
Ejemplo 6 El conjunto

Rn [x] = a0 + a1 x + a2 x2 + ... + an xn : a0 , a1 , a2 , ..., an R

de los polinomios de grado a lo sumo n con coeficientes reales y las operaciones


(a0 + a1 x + a2 x2 + ... + an xn ) + (b0 + b1 x + b2 x2 + ... + bn xn ) =
(a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + ... + (an + bn )xn
(a0 + a1 x + a2 x2 + ... + an xn ) = a0 + a1 x + a2 x2 + ... + an xn

forman un espacio vectorial real.


Ejemplo 7 El conjunto F(R, R) = {f : f : R R} de las funciones reales de
variable real y las operaciones (f, g) 7 f + g y (, f ) 7 f definidas como
sigue
(f + g)(x) = f (x) + g(x)
(f )(x) = f (x)
forman un espacio vectorial real.

Els autors, 2002; Edicions UPC, 2002

1.3. PROPIEDADES ELEMENTALES

Ejemplo 8 El conjunto Mnm (R) de las matrices de orden n m con coeficientes reales junto con las operaciones de adicin matricial y multiplicacin
escalar:
(aij ) + (bij ) = (aij + bij )
(aij ) = (aij )
donde 1 i n y 1 j m, forman un espacio vectorial real.
Ejemplo 9 El conjunto E de todos los puntos del plano que se encuentran en
el primer cuadrante no es un espacio vectorial real. Para ver esto, obsrvese que
el punto de coordenadas (1, 1) est en E, pero (1)(1, 1) = (1, 1) no lo est.
Ejemplo 10 El conjunto de los polinomios de segundo grado con coeficientes
reales no es un espacio vectorial real. Para ver esto, consideremos los siguientes
polinomios de segundo grado:
p(x) = x2

q(x) = x2 + x + 1

Entonces, su suma no es un polinomios de segundo grado, pues


p(x) + q(x) = x + 1
Observacin 2 Sera interesante que el lector probara todas los axiomas de los
espacios vectoriales en los ejemplos anteriores; es fcil aunque un poco largo.

1.3.

Propiedades elementales

Como consecuencia de la definicin, se obtienen los siguientes resultados.


Teorema 1 Para cualquier u de E y de K, se cumple:
1.

0u = 0

2.

0 = 0

3.

u = 0 implica = 0 o u = 0

4.

(1)u = u

Demostracin: (1.) En efecto, aplicando el axioma 8, se tiene


0u = (0 + 0)u = 0u + 0u
y, de aqu, por la unicidad del vector cero, se deduce 0u = 0.
(2.) En efecto, aplicando los axiomas 4 y 7, se tiene
0 = (0 + 0) = 0 + 0

Els autors, 2002; Edicions UPC, 2002

CAPTULO 1. ESPACIOS VECTORIALES

y, de aqu, por la misma razn de antes, se deduce 0 = 0.


(3.) En efecto, si 6= 0, es invertible en K. Entonces, aplicando el axioma
9 y el apartado anterior, se tiene
u = 1u = (1 )u = 1 (u) = 1 0 = 0
y de aqu, se deduce lo que queramos demostrar.
(4.) En efecto, aplicando los axiomas 10 y 8, y el apartado 1, se tiene
u + (1)u = 1u + (1)u = (1 + (1))u = 0u = 0
de donde, por la unicidad del opuesto de u, se tiene lo que queramos probar.

1.4.

Producto de espacios vectoriales

El procedimiento que nos ha permitido definir Kn a partir de K puede generalizarse para construir nuevos espacios a partir de espacios conocidos.
Sean E1 y E2 dos espacios vectoriales sobre el mismo cuerpo conmutativo K.
Consideremos el conjunto producto E1 E2 y las dos operaciones siguientes:
(u1 , u2 ) + (v1 , v2 ) = (u1 + v1 , u2 + v2 )
(u1 , u2 ) = (u1 , u2 )
Entonces con estos datos tenemos un espacio vectorial sobre K que se llama
espacio vectorial producto E1 E2 .
Del mismo modo se define el producto de n espacios vectoriales E1 , ..., En
sobre un mismo cuerpo K. Las operaciones son en este caso
(u1 , u2 , ..., un ) + (v1 , v2 , ..., vn ) = (u1 + v1 , u2 + v2 , ..., un + vn )
(u1 , u2 , ..., un ) = (u1 , u2 , ..., un )
que definen el espacio vectorial producto E1 E2 En .
Observacin 3 De nuevo hacemos la sugerencia de que el lector haga la prueba
de las dos afirmaciones anteriores.
Sabemos que K es un espacio vectorial sobre s mismo, entonces, tomando
E1 = E2 = = En = K, se tiene el espacio vectorial Kn sobre K. Este espacio
vectorial es el mismo que el del ejemplo 5.
Ejemplo 11 Rn es un espacio vectorial real.
Ejemplo 12 Cn es un espacio vectorial tanto real como complejo.

Els autors, 2002; Edicions UPC, 2002

1.5. SUBESPACIOS VECTORIALES

1.5.

Subespacios vectoriales

Si E es un espacio vectorial sobre K, entonces ciertos subconjuntos de E


forman por s mismos espacios vectoriales sobre el mismo cuerpo, junto con la
adicin y multiplicacin por escalares definidas en E. En esta seccin se estudia
con detalle estos subconjuntos.
Definicin 2 Dado un espacio vectorial E sobre K, se llama subespacio vectorial de E a todo subconjunto de E que es tambin un espacio vectorial con las
mismas operaciones de adicin y multiplicacin por escalares definidas en E.
Teorema 2 Para que un subconjunto S no vaco de E sea un subespacio vectorial de E es necesario y suficiente que se cumplan las dos condiciones siguientes:
1.

para todo u, v S, u + v S

2.

para todo u S y K, u S

Demostracin: Las dos condiciones son suficientes. En efecto, es claro que +


es asociativa y conmutativa en S al serlo en E. Adems, si u S y 1 K,
entonces (1)u = u S y adems u + (u) = 0 S. De este modo S con la
suma es grupo conmutativo. Se comprueba en seguida que se cumplen los dems
axiomas.
Las dos condiciones son necesarias. En efecto, si S es un espacio vectorial con las mismas operaciones definidas en E se cumplen trivialmente las dos
condiciones (son los axiomas 1 y 6).
Teorema 3 Un subconjunto S no vaco de E es un subespacio vectorial de E si
y slo si, para todo u, v S y todo , K, se cumple que
u + v S
Demostracin: La condicin es suficiente. En efecto, si u, v S, puesto que
1, 1 K, entonces
1u + 1v = u + v S
y
1u + (1)u = u + (u) = 0 S
De esta ltima relacin se sigue que si K, entonces
u + 0 = u S
Por tanto, por el teorema anterior, se deduce que S es un subespacio vectorial
de E.
La condicin es necesaria. Si S es un subespacio vectorial es evidente que se
satisface la condicin indicada.
Observacin 4 Hacemos las observaciones siguientes:

Els autors, 2002; Edicions UPC, 2002

10

CAPTULO 1. ESPACIOS VECTORIALES

1.

Todo espacio vectorial E tiene al menos dos subespacios. El propio E es


un subespacio y el conjunto {0} es otro subespacio denominado subespacio
cero; respecto a la inclusin de conjuntos, podemos afirmar que el primero
es el mayor de todos los subespacios de E, y el menor, es el segundo. Todo
subespacio distinto a estos dos se llama subespacio vectorial propio de E.

2.

Distinguiremos la estructura de espacio vectorial de un subconjunto S que


es subespacio vectorial de E por S.

Ejemplo 13 En el espacio vectorial real E de los vectores de origen O del


espacio ordinario, se tienen dos clases de subespacios vectoriales (aparte de {0}
y del propio E): (a) el conjunto de los vectores de origen O situados sobre una
recta que pasa por O, y (b) el conjunto de los vectores de origen O situados
sobre un plano que pasa por O. Obsrvese que no hay ningn otro subespacio
vectorial de E ms que los que acabamos de describir.
Ejemplo 14 El conjunto de los nmeros reales R es un subespacio vectorial de
C considerado como espacio vectorial real.
Ejemplo 15 Demostrar que el conjunto S de las matrices cuadradas de orden
2 que tienen ceros en la diagonal principal es un subespacio del espacio vectorial
real de todas las matrices cuadradas de orden 2 con coeficientes reales.
Solucin: Es claro que S 6= . Sean

0 b12
0 a12
y B=
A=
a21 0
b21 0
dos matrices cualesquiera de S y un escalar cualquiera. Entonces

0
a12 + b12
A+B =
a21 + b21
0
y
A =

0
a21

a12
0

Debido a que A + B y A tienen ceros en la diagonal principal, estn en S. Por


consiguiente, S es un subespacio vectorial.
Ejemplo 16 Sea n un nmero natural y supongamos que S consta de la funcin
constante igual 0 y de todas las funciones polinmicas de grado a lo sumo n;
esto es, todas las funciones reales de variable real expresables en la forma
p(x) = a0 + a1 x + + an xn
en donde a0 , a1 , ..., an son nmeros reales. Demostrar que S es un subespacio
del espacio vectorial real de todas las funciones reales de variable real.
Solucin: Es claro que S 6= . Sean
p(x) = a0 + a1 x + + an xn

Els autors, 2002; Edicions UPC, 2002

1.5. SUBESPACIOS VECTORIALES

11

y
q(x) = b0 + b1 x + + bn xn
Entonces,
(p + q)(x) = p(x) + q(x) =
= (a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn
y
(p)(x) = p(x) =
= (a0 ) + (a1 )x + + (an )xn
tienen la forma adecuada para afirmar que p + q y p estn en S. Por consiguiente, S es un subespacio vectorial.
Ejemplo 17 Recurdese que si f y g son funciones continuas y es una constante real, entonces f + g y f son funciones continuas. Se concluye, pues,
que el conjunto de todas las funciones continuas es un subespacio del espacio
vectorial real de todas las funciones reales de variable real.
Ejemplo 18 Consideremos un sistema lineal de m ecuaciones con n incgnitas:

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..
..
..
..
.
.
.
.

am1 x1 + am2 x2 + + amn xn = bm


o bien, en notacin matricial, Ax = b, siendo

a11 a12
a21 a22

A= .
..
..
..
.
.
am1

x=

x1
x2
..
.
xn

am2

Se dice que un vector columna de R

s=

amn

b=

a1n
a2n
..
.

s1
s2
..
.
sn

b1
b2
..
.
bm

Els autors, 2002; Edicions UPC, 2002

12

CAPTULO 1. ESPACIOS VECTORIALES

es un vector solucin del sistema si x1 = s1 , x2 = s2 , ..., xn = sn es una solucin


de tal sistema. Demostrar que el conjunto de vectores solucin de un sistema
homogneo es un subespacio de Rn . Un sistema lineal se llama homogneo si
todos sus trminos independientes son nulos, es decir, b1 = = bm = 0.
Solucin: Sea Ax = 0 un sistema lineal homogneo de m ecuaciones con n
incgnitas, S el conjunto de vectores solucin, y s y t vectores de S. Puesto que
s y t son vectores solucin del sistema, se tiene
As = 0

At = 0

Por tanto,
A(s + t) = As + At = 0 + 0 = 0
y
A (s) = (As) = 0 = 0
0

De donde, s + s y s satisfacen la ecuacin Ax = 0. Por tanto, s + s0 y s


son vectores solucin y, en consecuencia, S es un subespacio vectorial que es
habitual denominarlo subespacio solucin del sistema Ax = 0.

1.6.

Interseccin de subespacios vectoriales

Teorema 4 La interseccin S T de dos subespacios cualesquiera S y T de un


espacio vectorial E es tambin un subespacio de E.
Demostracin: La interseccin S T se define como el conjunto de todos los
elementos que pertenecen simultneamente a S y T . Si u, v S T, entonces
u, v S y u, v T. Al ser ambos subespacios, se tiene u + v S y u + v T
y por tanto u + v S T. Anlogamente, todo mltiplo escalar u estar en
S T siempre que lo est u.
Observacin 5 Hacemos las siguientes observaciones:
1.

Dados dos subespacios S y T de E, S T es el mayor subespacio contenido


en los dos.

2.

En general, si F es una familia cualquiera de subespacios vectoriales de


E, se demuestra del mismo modo que
\
F
FF

es tambin un subespacio vectorial de E.


Ejemplo 19 Determinar la interseccin de los subespacios vectoriales

S =
(x, y, z) R3 : x 2y + z = 0

T =
(x, y, z) R3 : x = 0
de R3 .

Els autors, 2002; Edicions UPC, 2002

1.7. SUBESPACIO ENGENDRADO POR UN SUBCONJUNTO

13

Solucin: Obsrvese que S y T son subespacios vectoriales de R3 porque


ambos estn definidos por ecuaciones lineales homogneas. Cualquier vector de
S es solucin de la ecuacin lineal
x 2y + z = 0
Del mismo modo, cualquier vector de T es solucin de la ecuacin lineal
x=0
Entonces, cualquier vector (x, y, z) S T debe ser solucin del sistema

x 2y + z = 0
x=0
es decir,

1.7.

S T = (x, y, z) R3 : 2y + z = 0 y x = 0

Subespacio engendrado por un subconjunto

Definicin 3 Dado un subconjunto no vaco A de E, se llama subespacio


engendrado por A al menor de los subespacios vectoriales de E que contienen
a A. Denotamos por hAi el subespacio engendrado por A.
Observacin 6 Hacemos las siguientes observaciones:
1.

Dicho de otro modo, hAi es el subconjunto de E que cumple:


a)
b)
c)

2.

hAi es un subespacio vectorial de E


A hAi
Si S es un subespacio vectorial de E tal que A S, entonces debe
cumplirse que hAi S.

Es evidente que si S es un subespacio vectorial de E, entonces el subespacio


engendrado por S es el mismo S.

Teorema 5 Dado un subconjunto no vaco A de E, se cumple


\
hAi =
F
FF

donde F es la familia (no vaca, pues E pertenece a la familia) de todos los


subespacios vectoriales de E contienen a A.
Demostracin: En efecto, si F es la familia de todos los subespacios de E que
contienen A, entonces es claro que
\
F
FF

verifica las tres condiciones indicadas en la ltima observacin.

Els autors, 2002; Edicions UPC, 2002

14

CAPTULO 1. ESPACIOS VECTORIALES

Ejemplo 20 Demostrar que si v es un vector de E y A = {v}, entonces hAi =


{v : K}.
Solucin: El conjunto {v : K} es un subespacio de E, ya que
(v) + (v) = ( + )v
y
(v) = ()v
Adems, v est en dicho conjunto, ya que
v = 1v
Por ltimo, es el menor subespacio que contiene a A por construccin.

1.8.

Suma de subespacios vectoriales

Definicin 4 Dados dos subespacios vectoriales S y T de E, se llama subespacio


suma de S y T denotado por S + T al subespacio vectorial engendrado por el
conjunto S T . En smbolos
S + T = hS T i
Teorema 6 Dados dos subespacios vectoriales S y T de E, entonces el subespacio suma cumple
S + T = {s + t : s S, t T}
Demostracin: En efecto, si tomamos dos elementos cualesquiera de esta forma s1 + t1 y s2 + t2 , entonces se tiene
(s1 + t1 ) + (s2 + t2 ) = s1 + (t1 + s2 ) + t2 = (s1 + s2 ) + (t1 + t2 )
que es otro elemento de la misma forma. Adems, tambin tenemos
(s + t) = s + t
Por tanto, el conjunto {s + t : s S, t T} es un subespacio de E. Por otra
parte, de la manera como se ha definido es claro que es el menor subespacio que
contiene a S y T, y en consecuencia tenemos lo que queramos demostrar.
Observacin 7 Hacemos las siguientes observaciones importantes:
1.

En general, ST no es un subespacio vectorial de E. Para probarlo, consideremos los subespacios vectoriales S = {(x, 0) : x R} y T = {(0, y) : y R}
de R2 . La suma (1, 0) + (0, 1) = (1, 1) no pertenece a S ni a T.

2.

Dados dos subespacios S y T de E, S + T es el menor subespacio que


contiene a ambos.

Els autors, 2002; Edicions UPC, 2002

1.8. SUMA DE SUBESPACIOS VECTORIALES

15

Observacin 8 Un vector v de S + T puede, en general, descomponerse de


varias maneras en la forma s + t. Si
v = s1 + t1 = s2 + t2
entonces
w = s1 s2 = t2 t1
y el vector w obtenido de esta forma, que pertenece a S y T, tambin pertenece
a su interseccin. Recprocamente, cualquiera que sea w S T, se tiene
v = s + t = (s + x) + (t x)
Esta observacin justifica la proposicin y definicin siguientes.
Teorema 7 Dados dos subespacios vectoriales S y T de un espacio vectorial E,
entonces las tres condiciones siguientes son equivalentes:
1.

La descomposicin de todo vector v de S + T en suma de un vector s de S


y de un vector t de T es nica

2.

Si s + t = 0, con s S y t T, se cumple que s = t = 0

3.

S T = {0}

Demostracin: (1) implica (2). Dado que podemos escribir


s+t=0+0
se deduce s = t = 0.
(2) implica (3). Supongamos que v S T, podemos escribir
0 = v + (v)
donde v S y v T. De (2) se deduce v = 0.
(3) implica (1). Supongamos que tenemos un vector v de S + T expresado de
dos maneras
v = s1 + t1 = s2 + t2
entonces
s1 s2 = t2 t1 = 0
pues s1 s2 = t2 t1 es un vector de S T que por hiptesis debe ser 0.
Definicin 5 Dados dos subespacios vectoriales S y T de un espacio vectorial
E. Si S T = {0}, entonces se dice que la suma de subespacios S + T es una
suma directa y la designamos con la notacin
ST
Observacin 9 Hacemos las observaciones siguientes:

Els autors, 2002; Edicions UPC, 2002

16

CAPTULO 1. ESPACIOS VECTORIALES

1.

A veces se dice que dos subespacios S y T de un espacio vectorial E son


independientes cuando S T = {0}. En tal caso, su suma es directa.

2.

En general, si S1 , ..., Sm es una familia finita de subespacios de E, su suma


se define como sigue
)
(m
n
X
X
vi : vi Si
Si = S1 + + Sm =
i=1

i=1

que es un subespacio de E. La suma es directa, denotndose por


n
M
i=1

Si = S1 Sm

si la descomposicin de un vector de este subespacio slo es posible de una


manera. Para ello es necesario y suficiente que la igualdad
m
X

vi = 0

i=1

se verifique nicamente escogiendo todos los vectores vi nulos.


Definicin 6 Se dice que S1 y S2 son dos subespacios suplementarios de
E si todo vector v de E puede escribirse de manera nica en la forma
v = v1 + v2
en donde v1 S1 y v2 S2 .
Corolario 1 Dos subespacios vectoriales S1 y S2 de E son suplementarios si y
slo si
E = S1 S2
Observacin 10 Hacemos las siguientes observaciones importantes:
1.

Cuando se cumple
E = S1 S2

En tal caso se dice que S1 (resp. S2 ) es un suplementario de S2 (resp. S1 )


respecto a E. En tal caso, cualquier vector v de E puede escribirse de
manera nica en la forma
v = v1 + v2
en donde v1 S1 y v2 S2 .
2.

Es natural plantearse dos preguntas: si S1 es un subespacio de E, existe un


suplementario S2 de S1 respecto a E, y, si existe, es nico? La respuesta a
la segunda pregunta es negativa, segn el teorema 21, pero ms adelante
tenemos el corolario 9. Respecto a la primera, la respuesta es afirmativa
segn el mismo teorema.

Els autors, 2002; Edicions UPC, 2002

1.8. SUMA DE SUBESPACIOS VECTORIALES


3.

17

No hay que confundir suplementario del subespacio S respecto a E con el


complementario del conjunto S respecto a E. En este ltimo caso, no es
un subespacio de E ya que no contiene el 0.

Ejemplo 21 En R3 se consideran los subespacios S y T engendrados por los


conjuntos {(2, 3, 0), (3, 1, 2)} y {(1, 2, 2)} respectivamente. Determinar el subespacio S + T y averiguar si es suma directa.
Solucin: Segn el teorema, un vector (x, y, z) de S + T es de la forma
(x, y, z) = (2, 3, 0) + (3, 1, 2) + (1, 2, 2)
Efectuando operaciones, se obtiene
(x, y, z) = (2 + 3 + , 3 + 2, 2 + 2)
Igualando componentes, se tiene

E1 : x = 2 + 3 +
E2 : y = 3 + 2

E3 : z = 2 + 2

De aqu se obtiene

3E1 2E2 : 3x 2y = 7 + 7
E3 :
z = 2 + 2

De aqu se obtiene
2(3E1 2E2 ) 7E3 : 6x 4y 7z = 0
Por consiguiente
S + T = {(x, y, z) R3 : 6x 4y 7z = 0}
Para saber si la suma es directa debemos averiguar si los subespacios son o no
independientes. Para ello, debemos calcular S T . Un vector (x, y, z) de S T
debe cumplir
(x, y, z) = (2, 3, 0) + (3, 1, 2)
y
(x, y, z) = (1, 2, 2)
Por tanto,
(2, 3, 0) + (3, 1, 2) = (1, 2, 2)
es decir
(2 + 3, 3 + , 2) = (, 2, 2)
de donde se obtiene

2 + 3 =
3 + = 2

2 = 2

Els autors, 2002; Edicions UPC, 2002

18

CAPTULO 1. ESPACIOS VECTORIALES

Se tiene = . Por tanto, = = . Tomando = 1, se obtiene


(1, 2, 2) = (2, 3, 0) + (3, 1, 2)
lo que significa que
(1, 2, 2) S T
Por consiguiente,
S T 6= {0}

y la suma no es directa.

1.9.

Combinaciones lineales

Definicin 7 Se llama sistema de vectores de E a cualquier sucesin finita S


de vectores de E. De este modo, S = (v1 , v2 , ..., vm ), con vi E (i = 1, ..., m),
es un sistema de vectores de E.
Observacin 11 Se ha de tener cuidado en no confundir el sistema de vectores
(v1 , v2 , ..., vm ) con el conjunto {v1 , v2 , ..., vm } cuyos elementos son los vectores
del sistema. Por ejemplo, el sistema (1, 1, 1) de vectores de R tiene como conjunto de vectores {1}; y los sistemas distintos (1, 2, 3) y (2, 1, 3) de R tienen el
mismo conjunto de vectores {1, 2, 3}.
Cuando escribamos sistema de vectores nos referiremos a la sucesin finita
de vectores. En cambio, cuando escribamos vectores del sistema nos referiremos al conjunto de los vectores de la sucesin.
Definicin 8 Dado un sistema S = (v1 , v2 , ..., vm ) de vectores de E. Se dice
que un vector v de E es combinacin lineal de los vectores del sistema S si
existe una sucesin finita (1 , 2 , ..., m ) de elementos de K tales que
v = 1 v1 + 2 v2 + + m vm
Los escalares i (i = 1, ..., m) se denominan coeficientes de la combinacin
lineal.
Tambin se dice entonces, que el vector v depende linealmente de los
vectores del sistema S.
Observacin 12 Ms en general, si S = (vi )iI es una familia cualquiera
(finita o no) de vectores de E, se dice que un vector v de E es combinacin
lineal de los vectores de la familia S si existe una familia (i )iI de elementos
de K tales que slo un nmero finito de los escalares i son no nulos y
X
v=
i vi
iI

Obsrvese que si J I, J es finito y tal que i = 0 para todo i I J,


entonces
X
X
i vi =
i vi
iI

iJ

Els autors, 2002; Edicions UPC, 2002

1.9. COMBINACIONES LINEALES

19

Es evidente que el valor del segundo miembro de la igualdad anterior no depende


de J (con tal que J satisfaga las condiciones enunciadas). Como consecuencia
tenemos que un vector v de E es combinacin lineal de los vectores de la familia
(vi )iI si lo es de una subfamilia finita de (vi )iI .
Teorema 8 Se deducen inmediatamente de la definicin los siguientes resultados:
1.

El vector 0 es combinacin lineal de los vectores de cualquier sistema.

2.

Todo vector es combinacin lineal de los vectores de cualquier sistema que


lo contiene.

3.

Si v es combinacin lineal de los vectores del sistema (v1 , v2 , ..., vm ) y si


cada vi (i = 1, 2, ..., m) es combinacin lineal de los vectores del sistema
(w1 , w2 , ..., wp ), el vector v es combinacin lineal de de los vectores del
sistema (w1 , w2 , ..., wp ).

Demostracin: (1.) Es suficiente elegir todos los coeficientes nulos.


(2.) En efecto,
v = 1v
y, si hay otros vectores, los afectamos a todos de coeficientes nulos.
(3.) Si
p
X
vi =
ij wj
j=1

v = 1 v1 + 2 v2 + + m vm
entonces, por sustitucin y reglas de clculo, tenemos

p
p
p
X
X
X
v = 1
1j wj + 2
2j wj + + m
mj wj
=

j=1

m
X

k=1

k k1 w1 +

j=1

m
X

k=1

k k2

w2 + +

m
X

j=1

k kp

k=1

wp

Observacin 13 Este ltimo resultado se expresa tambin as: si v depende


linealmente de los vectores v1 , v2 , ..., vm , y cada uno de estos depende linealmente de w1 , w2 , ..., wp , el vector v depende linealmente de estos ltimos. Por
esta razn, este resultado se le conoce como propiedad transitiva de la dependencia lineal.
Ejemplo 22 Consideremos los vectores u = (1, 2, 1) y v = (6, 4, 2) de R3 .
Demostrar que w = (9, 2, 7) es combinacin lineal de u y v, y que, en cambio,
w0 = (4, 1, 8) no es combinacin lineal de u y v.

Els autors, 2002; Edicions UPC, 2002

20

CAPTULO 1. ESPACIOS VECTORIALES

Solucin: Para que w sea una combinacin lineal de u y v, deben existir


los escalares 1 y 2 tales que w = 1 u + 2 v, es decir,
(9, 2, 7) = 1 (1, 2, 1) + 2 (6, 4, 2)
o bien,
(9, 2, 7) = (1 + 62 , 21 + 42 , 1 + 22 )
Al igualar las componentes correspondientes, se obtiene el sistema siguiente

1 + 62 = 9
21 + 42 = 2

1 + 22 = 7

Si se resuelve este sistema, se obtiene la solucin 1 = 3 y 2 = 2. De este


modo, tenemos
w = 3u + 2v

Del mismo modo, para que w0 sea una combinacin lineal de u y v deben
existir 1 y 2 tales que
(4, 1, 8) = 1 (1, 2, 1) + 2 (6, 4, 2)
o bien,
(4, 1, 8) = (1 + 62 , 21 + 42 , 1 + 22 )
Igualando componentes, se obtiene

1 + 62 = 4
21 + 42 = 1

1 + 22 = 8

Este sistema de ecuaciones es incompatible, de modo que no existen esos escalares. Como consecuencia, w0 no es una combinacin lineal de u y v.

1.10.

Clausura lineal

Definicin 9 Se llama clausura lineal del sistema S = (v1 , v2 , ..., vm ) al


conjunto de todos los vectores de E que son combinacin lineal de los vectores
de S. Denotamos este conjunto por hv1 , v2 , ..., vm i.
Teorema 9 La clausura lineal de cualquier sistema es un subespacio vectorial
de E.
Demostracin: En efecto, de las relaciones siguientes
(1 v1 + + m vm ) + (1 v1 + + m vm ) = (1 + 1 )v1 + + (m + m )vm
(1 v1 + + m vm ) = (1 )v1 + + (m )vm
se deduce inmediatamente lo que queremos demostrar.

Els autors, 2002; Edicions UPC, 2002

1.10. CLAUSURA LINEAL

21

Definicin 10 Un subespacio vectorial S de E se dice que est engendrado


por el sistema S = (v1 , v2 , ..., vm ) si S es la clausura lineal del sistema, es
decir, si se cumple
S = hv1 , v2 , ..., vm i
Tambin se dice que S es un sistema generador del subespacio S.
Teorema 10 La clausura lineal de un sistema es el menor subespacio vectorial
que contiene al conjunto de los vectores del sistema.
Demostracin: Dado un sistema cualquiera S = (v1 , v2 , ..., vm ). Sea A =
{v1 , v2 , ..., vm } el conjunto de los vectores de S. Por el teorema anterior la
clausura lineal es un subespacio vectorial de E. Para cualquier vi A (i =
1, ..., m) se cumple
vi = 0v1 + + 1vi + + 0vm
con lo que A est contenido en la clausura lineal de S. Si S es cualquier subespacio de E que contiene A, entonces cualquier combinacin lineal de los vectores
de A es claramente otro vector de S. Por tanto, la clausura lineal de S est contenido en S y, en consecuencia, es el menor subespacio vectorial que contiene a
A.
Observacin 14 Las nociones y propiedades anteriores pueden ampliarse al
caso de una familia cualquiera (vi )iI , finita o no, de vectores de E. Se llama
clausura lineal de una familia (vi )iI al menor subespacio vectorial que la contiene. Puede demostrarse, sin ninguna dificultad, que dicha clausura lineal es la
interseccin de la familia de subespacios que contienen al conjunto de vectores
de la familia en consideracin. Finalmente, se demuestra que dicha clausura
lineal es el subespacio de las combinaciones lineales de cada subfamilia finita de
(vi )iI .
Ejemplo 23 Dado el sistema (e1 , e2 , e3 ) de vectores de R3 , siendo e1 = (1, 0, 0), e2 =
(0, 1, 0) y e3 = (0, 0, 1). Determinar la clausura lineal de este sistema.
Solucin: Es claro que he1 , e2 , e3 i R3 . Por otra parte, tenemos que todo
vector (x, y, z) de R3 se puede escribir como
(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
es decir,
(x, y, z) = xe1 + ye2 + ze3
lo cual es una combinacin lineal de e1 , e2 y e3 . Por tanto, he1 , e2 , e3 i = R3 .
Ejemplo 24 Los polinomios 1, x, x2 , ..., xn engendran al espacio vectorial Rn [x]
(vase ejemplo 6), pues cualquier polinomio p(x) de Rn [x] se puede escribir
como
p(x) = a0 + a1 x + a2 x2 + + an xn
lo cual es una combinacin lineal de 1, x, x2 , ..., xn .

Els autors, 2002; Edicions UPC, 2002

22

CAPTULO 1. ESPACIOS VECTORIALES

Ejemplo 25 Determinar si v1 = (1, 1, 2), v2 = (1, 0, 1), v3 = (2, 1, 3) engendran R3 .


Solucin: Es suficiente determinar si un vector arbitrario v = (x, y, z) de
R3 se puede escribir como una combinacin lineal de v1 , v2 y v3
v = 1 v1 + 2 v2 + 3 v3
Si expresamos esta ecuacin en trminos de componentes, se tiene
(x, y, z) = 1 (1, 1, 2) + 2 (1, 0, 1) + 3 (2, 1, 3)
o bien,
(x, y, z) = (1 + 2 + 23 , 1 + 3 , 21 + 2 + 33 )
o bien,

1 + 2 + 23 = x
1
+ 3 = y

21 + 2 + 33 = z
Por consiguiente, el problema se reduce a determinar si este sistema es o no
compatible para todos los valores de x, y y z. Aunque ms adelante daremos
mtodos ms operativos para resolver estas cuestiones, de momento nos contentamos con afirmar que el vector (1, 0, 0) de R3 no es una combinacin lineal
de v1 , v2 y v3 . En efecto, puede comprobarse que el sistema siguiente

1 + 2 + 23 = 1
1
+ 3 = 0

21 + 2 + 33 = 0
es incompatible. Por consiguiente, los vectores v1 , v2 y v3 engendran un subespacio vectorial distinto de R3 .

Ejemplo 26 Podemos determinar x de manera que el vector (1, 2, 5, x) pertenezca al subespacio de Q4 engendrado por (4, 2, 1, 7) y (1, 0, 2, 4)?
Solucin: Para que (1, 2, 5, x) h(4, 2, 1, 7), (1, 0, 2, 4)i deben existir dos
escalares 1 y 2 de Q tales que
(1, 2, 5, x) = 1 (4, 2, 1, 7) + 2 (1, 0, 2, 4)
o bien,
(1, 2, 5, x) = (41 + 2 , 21 , 1 + 22 , 71 + 42 )

Igualando componentes, se tiene

41 + 2 = 1
21 = 2
1 + 22 = 5
71 + 42 = x

De las dos primeras ecuaciones del sistema se obtiene 1 = 1 y 2 = 3.


Estos valores satisfacen tambin la tercera ecuacin del sistema. Por tanto, debe
ocurrir
x = 7 + 12 = 5

Els autors, 2002; Edicions UPC, 2002

1.11. SISTEMAS EQUIVALENTES

1.11.

23

Sistemas equivalentes

Definicin 11 Se dice que dos sistemas (v1 , ..., vm ) y (w1 , ..., wp ) de E son
equivalentes, denotndolo por (v1 , ..., vm ) (w1 , ..., wp ), cuando sus clausuras
lineales son iguales, es decir, cuando
hv1 , ..., vm i = hw1 , ..., wp i
Teorema 11 Dos sistemas son equivalentes si y slo si todo vector de cada
sistema es combinacin lineal de los vectores del otro.
Demostracin: Es inmediato a partir de la definicin de clausura lineal de un
sistema.
Observacin 15 Es fcil demostrar tambin que la relacin definida anteriormente es de equivalencia.
Teorema 12 La clausura lineal de un sistema no cambia cuando se aaden
nuevos vectores al sistema que sean combinacin lineal de los primeros.
Demostracin: Dado un sistema de vectores (v1 , ..., vm ), si
w=

m
X

i vi

i=1

entonces
hv1 , ..., vm , wi = hv1 , ..., vm i
pues
1 v1 + + m vm + w

= 1 v1 + + m vm +

m
X

i vi

i=1

= (1 + 1 ) v1 + + (m + m ) vm
y por otra parte
1 v1 + + m vm = 1 v1 + + m vm + 0w
as con cualquier otro vector aadido.
Observacin 16 Hacemos las siguientes observaciones:
1.

Del teorema anterior se sigue de forma inmediata que


(v1 , ..., vm , w) (v1 , ..., vm )
si w es combinacin lineal de v1 , ..., vm .

2.

Despus de este resultado, cabe preguntarse en seguida si ser posible encontrar un sistema de vectores equivalente con un nmero menor de vectores. Resolveremos esta cuestin al estudiar la independencia lineal de
vectores.

Els autors, 2002; Edicions UPC, 2002

24

CAPTULO 1. ESPACIOS VECTORIALES

Definicin 12 A continuacin definimos ciertas transformaciones que aplicadas sobre un sistema de vectores proporcionan sistemas equivalentes. Estas
operaciones se llaman transformaciones elementales y son las siguientes:
T1: Permutar dos vectores cualesquiera
(v1 , ..., vi , ..., vj , ...vm ) (v1 , ..., vj , ..., vi , ...vm ) (i 6= j)
T2: Multiplicar un vector cualquiera por un escalar distinto de cero
(v1 , ..., vi , ...vm ) (v1 , ..., vi , ...vm )
T3: Sumar a un vector cualquiera un mltiplo escalar de otro vector
(v1 , ..., vi , ..., vj , ...vm ) (v1 , ..., vi + vj , ..., vj , ...vm ) (i 6= j)
Teorema 13 La clausura lineal de los vectores de un sistema no cambia sometiendo el sistema a una o varias transformaciones elementales.
Demostracin: Supongamos que el sistema S 0 = (w1 , ..., wm ) es el resultado de aplicar una de las transformaciones elementales sobre el sistema dado
S = (v1 , ..., vm ). Se trata de probar que hw1 , ..., wm i = hv1 , ..., vm i, o lo que es
lo mismo, que S S 0 . Probaremos que todo vector v, combinacin lineal del sistema (v1 , ..., vm ), es tambin combinacin lineal del nuevo sistema (w1 , ..., wm ).
Si S 0 se obtiene de S por T1, entonces esto es evidente por la conmutatividad
de la suma, pues los wj son idnticos a los vi , salvo el orden.
Si S 0 se obtiene de S por T2, entonces reemplazamos vi por wi = vi ( 6=
0), sin modificar los restantes vectores. Entonces se tiene
v

= 1 v1 + + i vi + + m vm
i
= 1 w1 + + wi + + m wm

Si S 0 se obtiene de S por T3, entonces reemplazamos vi por wi = vi +


vj (i 6= j), sin modificar los otros vectores. Entonces se tiene
v

= 1 v1 + + i vi + + m vm
= 1 w1 + + i wi + + (j i )wj + + m wm

Por otra parte, las transformaciones elementales son reversibles, ya que las
operaciones inversas son del mismo tipo. Por tanto, los sistemas S y S 0 son,
pues, equivalentes. Adems, la transitividad de la relacin demuestra que una
sucesin de transformaciones (tal que cada una opera sobre el sistema que resulta
de la precedente) aplica un sistema a otro de equivalente.
Ejemplo 27 Demostrar que los sistemas S = (v1 , v2 ) y S 0 = (w1 , w2 ) de
R3 son equivalentes,siendo v1 = (1, 1, 2), v2 = (0, 1, 1), w1 = (1, 0, 1) y w2 =
(2, 1, 1).

Els autors, 2002; Edicions UPC, 2002

1.12. DEPENDENCIA E INDEPENDENCIA LINEAL

25

Solucin: Para ello, aplicaremos transformaciones elementales a S hasta


obtener S 0 . Aplicando T3, se obtiene
(v1 , v2 ) (v1 v2 , v2 )
Ahora, aplicando T2,
(v1 v2 , v2 ) (v1 v2 , v2 )
Finalmente, aplicando T3,
(v1 v2 , v2 ) 5(v1 v2 , v2 + 2(v1 v2 ))
Por la transitividad de la relacin se deduce
(v1 , v2 ) (v1 v2 , v2 + 2(v1 v2 ))
es decir,
w1 = v1 v2
y
w2 = v2 + 2(v1 v2 )

Por consiguiente, S y S 0 son equivalentes.

1.12.

Dependencia e independencia lineal

Definicin 13 Diremos que el sistema de vectores (v1 , ..., vm ) de un espacio


vectorial E es ligado cuando existe una sucesin finita (1 , ..., m ) de elementos
de K, no todos nulos, tales que
1 v1 + + m vm = 0
Cuando el sistema de vectores (v1 , ..., vm ) de E es ligado, tambin se dice
que los vectores v1 , ..., vm del sistema son linealmente dependientes, y la
relacin
1 v1 + + m vm = 0
en donde no todos los coeficientes son nulos, se llama una relacin de dependencia de dichos vectores.
Teorema 14 Sealemos algunas consecuencias inmediatas de la definicin:
1.

Todo sistema que incluya el vector 0 es ligado.

2.

Si se aaden otros vectores a un sistema ligado, el sistema que resulta es


tambin ligado.

3.

Todo sistema que incluya dos vectores iguales es ligado.

Els autors, 2002; Edicions UPC, 2002

26

CAPTULO 1. ESPACIOS VECTORIALES

4.

El sistema (v1 , ..., vm ), con v1 6= 0, es ligado si y slo si alguno de sus


vectores es combinacin lineal de los que le preceden.

5.

Para que un sistema sea ligado es necesario y suficiente que exista un


subsistema propio equivalente al sistema considerado.

Demostracin: (1.) Consiste en elegir todos los coeficientes iguales a cero,


salvo el del vector 0.
(2.) Consiste en elegir, por ejemplo, los coeficientes nulos para los nuevos
vectores.
(3.) Supongamos el sistema (v1 , ..., vm ) en el que para ciertos i, j, con i 6= j
y 1 i < j m, se cumple vi = vj . Entonces, es claro que
0v1 + + 1vi + + (1)vj + + 0vm = 0
lo que significa que el sistema considerado es ligado.
(4.) Si el sistema (v1 , ..., vm ) de E es ligado, entonces existe una sucesin
finita de escalares (1 , ..., m ), no todos nulos, tales que
1 v1 + + m vm = 0
ax{i :
De estos i no nulos, escogemos el que tiene el mayor subndice. Sea k = m
i 6= 0}. Se cumple que k > 1, pues de lo contrario se tendra 1 v1 = 0, y como
por hiptesis v1 6= 0, se deducira que 1 = 0, lo que no es posible. Entonces
tenemos
1 v1 + + k vk = 0
y k 6= 0. De esta ltima relacin se obtiene
vk =

k1
1
v1
vk1
k
k

es decir, podemos expresar vk como combinacin lineal de los vectores que le


preceden v1 , ..., vk1 .
Recprocamente, si existe vk con 1 k m tal que
vk = 1 v1 + + k1 vk1
entonces
1 v1 k1 vk1 + 1vk + 0vk+1 + + 0vm = 0
lo que significa que el sistema (v1 , ..., vm ) es ligado.
Con una demostracin anloga se deducira el teorema que resulta de sustituir la hiptesis v1 6= 0 por vm 6= 0, y la palabra preceden por siguen.
(5.) Si el sistema (v1 , ..., vm ) de E es ligado, entonces existe una sucesin
finita de escalares (1 , ..., m ), no todos nulos, tales que
1 v1 + + m vm = 0

Els autors, 2002; Edicions UPC, 2002

1.12. DEPENDENCIA E INDEPENDENCIA LINEAL

27

Supongamos que i 6= 0, entonces se tiene


1
m
v1 + + 1vi + +
vm = 0
i
i
de donde
vi =

m
1
v1
vm
i
i

es decir, vi es combinacin lineal de los vectores v1 , ..., vi1 , vi+1 , ..., vm . Entonces, por sucesivas aplicaciones de T1, se tiene
(v1 , ..., vi , ..., vm ) (v1 , ..., vi1 , vi+1 , ..., vm , vi )
y, por el teorema 10, se tiene
(v1 , ..., vi1 , vi+1 , ..., vm , vi ) (v1 , ..., vi1 , vi+1 , ..., vm )
Por tanto,
(v1 , ..., vi , ..., vm ) (v1 , ..., vi1 , vi+1 , ..., vm )
Repitiendo el proceso con cada i 6= 0, se obtendr un subsistema equivalente al
original.
El recproco es evidente, pues si el sistema dado es equivalente a un subsistema suyo, cualquier vector de este ltimo es combinacin lineal de los vectores
del sistema y, en consecuencia, el sistema es ligado.
Observacin 17 Del ltimo resultado del teorema anterior se sigue que el sistema que se obtiene por eliminacin de todos aquellos vectores que en la relacin
1 v1 + + m vm = 0
tengan coeficiente distinto de cero, es equivalente al sistema original.
Definicin 14 Diremos que el sistema (v1 , ..., vm ) de vectores de un espacio
vectorial E es libre cuando no es ligado.
Cuando el sistema de vectores (v1 , ..., vm ) de E es libre, tambin se dice que
los vectores v1 , ..., vm del sistema son linealmente independientes.
Observacin 18 Dicho de otro modo, para que un sistema (v1 , v2 , ..., vm ) sea
libre es necesario y suficiente que la relacin
1 v1 + + m vm = 0
se cumpla slo si todos los coeficientes i son nulos; la nica combinacin nula
de los vectores del sistema corresponde a elegir todos los coeficientes nulos.
Teorema 15 Sealemos algunas consecuencias inmediatas de la definicin:
1.

Un vector v no nulo constituye por s solo un sistema libre.

Els autors, 2002; Edicions UPC, 2002

28

CAPTULO 1. ESPACIOS VECTORIALES

2.

Todos los vectores de un sistema libre son distintos de 0.

3.

Todos los vectores de un sistema libre son dos a dos distintos.

4.

Todo subsistema de un sistema libre es tambin libre.

5.

En la clausura lineal de un sistema libre, todo vector puede escribirse de


manera nica como combinacin lineal de los vectores del sistema.

6.

Si el sistema (v1 , ..., vm ) es libre, mientras que el sistema (v1 , ..., vm , w),
obtenido aadindole un vector, es ligado, entonces el vector w es combinacin lineal de los vectores v1 , ..., vm .

Demostracin: (1.) En efecto,


v = 0 = = 0
pues la igualdad v = 0 queda excluida.
(2.) Pues cualquier sistema que contiene al vector 0 es ligado.
(3.) Pues cualquier sistema que contiene dos vectores iguales es ligado.
(4.) En efecto, si el nuevo sistema fuera ligado, aadindole otros vectores
seguira siendo un sistema ligado.
(5.) Supongamos que el sistema (v1 , ..., vm ) es libre. Sea v hv1 , ..., vm i y
supongamos que v pudiera escribirse de dos maneras:
v = 1 v1 + + m vm = 1 v1 + + m vm
Entonces, se tendra
(1 1 )v1 + + (m m )vm = 0
y por ser independientes los vectores vi se tendra que
i i = 0 (i = 1, ..., m)
En consecuencia, las dos descomposiciones coinciden.
(6.) Por ser el sistema (v1 , ..., vm , w) ligado, tendremos la siguiente relacin
lineal
1 v1 + + m vm + w = 0
en donde 6= 0 ya que el sistema (v1 , ..., vm ) es libre. Por consiguiente podemos
despejar w, lo que demuestra la afirmacin.
Observacin 19 Hacemos las observaciones siguientes:
1.

Del teorema 7 y del teorema 15 (5) se deduce inmediatamente el resultado siguiente: si el sistema (v1 , ..., vm ) es libre, entonces
hv1 , ..., vm i = hv1 i hvm i

Els autors, 2002; Edicions UPC, 2002

1.12. DEPENDENCIA E INDEPENDENCIA LINEAL


2.

29

Las nociones de dependencia e independencia lineal se generalizan para


cualquier familia (vi )iI de vectores de E. Una familia (vi )iI de vectores
de E se dir libre si lo es toda subfamilia finita. Una familia se llamar
ligada si no es libre. Esto significa que al menos hay una subfamilia finita
que no es libre.

Teorema 16 Si el espacio vectorial E es engendrado por el sistema (v1 , ..., vm ),


y E contiene k vectores linealmente independientes, entonces k m.
Demostracin: Supongamos que w1 , ..., wk son vectores linealmente independientes de E. Es claro que el sistema (w1 , v1 , ..., vn ) es generador de E. Puesto
que E = hv1 , ..., vm i, w1 es combinacin lineal de v1 , ..., vm . Por tanto, (w1 , v1 , ..., vn )
es ligado, y por el teorema 14 (4) existe un vector que es combinacin lineal
de los precedentes, que no es w1 pues w1 6= 0 (por pertenecer a un sistema
libre); sea dicho vector vi . Suprimindolo obtenemos otro sistema generador
equivalente, es decir,
E = hv1 , ..., vi , ..., vn i = hw1 , v1 , ..., vi1 , vi+1 , ..., vm i
Tambin ser generador el sistema (w2 , w1 , v1 , ..., vi1 , vi+1 , ..., vm ) que a su
vez es ligado. Volviendo a aplicar el teorema 14 (4) podemos suprimir otro
vector vj , que no es w2 ni w1 porque (w1 , w2 ) es un sistema libre. Repitiendo
este proceso resulta que, si fuese k > n, el sistema (wn , ..., w1 ) sera generador,
y en consecuencia, (wn+1 , wn ..., wk ) sera ligado, contra la hiptesis.
Ejemplo 28 Demostrar que dos vectores de un espacio vectorial E son linealmente dependientes si uno es un mltiplo escalar del otro.
Solucin: Sean u, v dos vectores linealmente dependientes de E. Entonces
existe una relacin de dependencia de dichos vectores
1 v1 + 2 v2 = 0
con algn i 6= 0. Supongamos que 1 6= 0, entonces
1v1 +

2
v2 = 0
1

de donde
v1 =

2
v2
1

con lo que v1 es mltiplo escalar de v2 .


Ejemplo 29 Determinar si el sistema (v1 , v2 , v3 ) de R3 es o no libre, siendo
v1 = (1, 2, 3), v2 = (0, 1, 2), v3 = (2, 0, 1).
Solucin: Supongamos que
1 v1 + 2 v2 + 3 v3 = 0
Introduciendo sus componentes, se tiene
1 (1, 2, 3) + 2 (0, 1, 2) + 3 (2, 0, 1) = (0, 0, 0)

Els autors, 2002; Edicions UPC, 2002

30

CAPTULO 1. ESPACIOS VECTORIALES

o bien
(1 23 , 21 + 2 , 31 + 22 + 3 ) = (0, 0, 0)
Igualando compoenentes, se obtiene el siguiente sistema:

1 23 = 0
21 + 2 = 0

31 + 22 + 3 = 0

resolvindolo, se obtiene, 1 = 0, 2 = 0, 3 = 0. Por tanto, el sistema es libre.

Ejemplo 30 Demostrar que el sistema (1 + x 2x2 , 2 + 5x x2 , x + x2 ) de


R2 [x] es ligado. Escribir una relacin de dependencia.
Solucin: Supongamos que
1 (1 + x 2x2 ) + 2 (2 + 5x x2 ) + 3 (x + x2 ) = 0
entonces
(1 + 22 ) + (1 + 52 + 3 )x + (21 2 + 3 )x2 = 0
Por el principio de identidad de polinomios, se obtiene el sistema siguiente:
1 + 22 = 0
1 + 52 + 3 = 0
21 2 + 3 = 0
Es fcil comprobar que este sistema es compatible indeterminado y, en consecuencia, el sistema es ligado. Sus soluciones son, 1 = 22 , 2 = 2 , 3 =
32 . Tomando 2 = 1, se obtiene 1 = 2 y 3 = 3. Por tanto,
2(1 + x 2x2 ) + (1)(2 + 5x x2 ) + 3(x + x2 ) = 0
es una relacin de dependencia.

1.13.

Bases de un espacio vectorial de dimensin


finita

Definicin 15 Se llama base de un espacio vectorial E a toda familia libre


(finita o no) que engendra E.
Definicin 16 Se dice que un espacio vectorial E es de dimensin finita si
admite al menos una familia finita que engendra E.
Observacin 20 Dicho de otro modo, E es de dimensin finita si existe un
familia finita (v1 , ..., vm ) de E tal que
E = hv1 , ..., vm i

Els autors, 2002; Edicions UPC, 2002

1.13. BASES DE UN ESPACIO VECTORIAL DE DIMENSIN FINITA 31


Teorema 17 Todo espacio vectorial E 6= {0} de dimensin finita posee una
base.
Demostracin: Supongamos que E = hv1 , ..., vm i. Si el sistema (v1 , ..., vm ) es
libre, forman una base y el teorema queda demostrado. En caso contrario, existe
al menos un vector vi que es combinacin lineal de los otros. Entonces
E = hv1 , ..., vm i = hv1 , ..., vi1 , vi+1 , ..., vm i
Apliquemos de nuevo el mismo razonamiento al nuevo sistema
(v1 , ..., vi1 , vi+1 , ..., vm )
Si es libre, constituye una base y, si no lo es, suprimimos otro vector, deduciendo
un tercer sistema generador. Repitiendo un nmero finito de veces este proceso,
llegaremos a un sistema libre y generador de E, es decir, a una base, o suprimiremos todos los vectores. Ahora bien, en este segundo caso sera E = h0i = {0},
lo que no sera posible por hiptesis.
Observacin 21 Hacemos las observaciones siguientes:
1.

De la demostracin del teorema anterior se deduce de forma inmediata el


siguiente resultado: todo sistema generador de E contiene un subsistema
libre equivalente.

2.

En general, se demuestra que todo espacio vectorial (de dimensin finita


o no) admite una base.

Teorema 18 Todas las bases de un espacio vectorial E de dimensin finita son


finitas y tienen el mismo nmero de vectores.
Demostracin: Sean B1 y B2 dos bases cualesquiera de E, deducidas o no de
un sistema generador (v1 , ..., vm ) de E. El teorema 16 prueba que cada una de
ellas tiene un nmero finito de vectores; n1 para B1 y n2 para B2 , con n1 m
y n2 m. Por otra parte, cada base constituye una familia libre y generatriz de
E. Consideremos B1 como familia generatriz y B2 como familia libre, por el teorema 16, es n2 n1 . Repitiendo de nuevo el mismo razonamiento, cambiando
el papel de las dos bases, se llega a que n1 n2 . Por consiguiente, n1 = n2 .
Observacin 22 En general, se demuestra que todas las bases de un espacio
vectorial (de dimensin finita o no) son equipotentes (de la misma cardinalidad).
Definicin 17 El nmero de vectores de cualquier base finita de un espacio
vectorial E se llama dimensin de E y se denota por dim E. Diremos que E es
de dimensin infinita si no tiene bases finitas.
Observacin 23 El subespacio nulo {0} no posee base alguna, ya que la familia
(0) es ligada, pero se admite que:
dim {0} = 0

Els autors, 2002; Edicions UPC, 2002

32

CAPTULO 1. ESPACIOS VECTORIALES

Corolario 2 En un espacio vectorial de dimensin finita, la dimensin coincide con el nmero mximo de vectores linealmente independientes de cualquier
sistema libre, y tambin con el nmero mnimo de vectores de cualquier sistema
generador.
Demostracin: Es una consecuencia inmediata del teorema 16.
Corolario 3 En un espacio vectorial de dimensin finita, toda familia libre de
E puede completarse hasta obtener una base.
Demostracin: Sea (v1 , ..., vn ) una base y (w1 , ..., wk ) una familia libre de E,
entonces por el teorema 16 se pueden sustituir k vectores vi por los wj de
modo que la familia (w1 , ..., wk , vi1 , ..., vink ) sea una base de E.
Corolario 4 Para que un sistema de n vectores sea una base de un espacio
vectorial de dimensin n, es suficiente que el sistema sea generador de E o que
sea libre.
Demostracin: Por el corolario 3, cualquier sistema libre de n vectores se
puede completar hasta obtener una base. Ahora bien, todas las bases del espacio
tienen n vectores por el teorema 18. Por tanto, el sistema es una base. Por
otro lado, cualquier sistema generador de n vectores de un espacio vectorial
de dimensin n no es ligada, pues, de lo contrario, por el teorema 14 (5),
existira una subsistema propio generador, lo cual es imposible por el hecho de
que el nmero mnimo de vectores de cualquier sistema generador es n, segn
el corolario 2.
Definicin 18 Se llaman coordenadas de un vector v de un espacio vectorial E respecto a la base (v1 , ..., vn ) a la nica familia finita de escalares
(1 , ..., n ) tales que
v = 1 v1 + + n vn
Observacin 24 Esta ltima definicin tiene sentido en virtud del teorema
15 (5).
Ejemplo 31 El espacio geomtrico ordinario es de tres dimensiones, porque,

elegidos tres vectores no coplanarios (no situados en el mismo plano) OA, OB, OC,

sabemos que todo vector OM puede escribirse como sigue:

OM = OA + OB + OC
Ejemplo 32 El espacio Kn de los vectores que son n tuplas de elementos K
es de dimensin n. En efecto, consideremos los n vectores siguientes:
e1 = (1, 0, ..., 0)
e2 = (0, 1, ..., 0)
..
.
en = (0, 0, ..., 1)

Els autors, 2002; Edicions UPC, 2002

1.13. BASES DE UN ESPACIO VECTORIAL DE DIMENSIN FINITA 33


de los cuales el i esimo, ei , tiene componente i esima igual a 1 y el resto,
igual a 0. El (e1 , e2 , ..., en ) es generador de Kn , ya que cualquier vector v =
(1 , 2 , ..., n ) de Kn puede escribirse como sigue:
v = 1 e1 + 2 e2 + + n en
Adems, este sistema es libre. En efecto, la relacin
1 e1 + 2 e2 + + n en = 0
slo es posible si i = 0 para todo 1 i n.
La base introducida de esta forma, asociada de manera particularmente sencilla a la definicin de Kn se llama base natural.
Ejemplo 33 Probar que los vectores de la familia S, siendo
S = ((2, 1, 1), (1, 3, 1), (2, 1, 3))
forman una base de R3 .
Solucin: Sabemos que la dimensin de R3 es tres. Por el corolario 2, es
suficiente probar que S es libre. En efecto, supongamos que
(2, 1, 1) + (1, 3, 1) + (2, 1, 3) = (0, 0, 0)
es decir,
(2 + 2, + 3 + , + + 3) = (0, 0, 0)
Por igualacin de sus componentes se obtiene el siguiente sistema:

2 + 2 = 0
+ 3 + = 0

+ + 3 = 0

cuya solucin es = 0, = 0, = 0. Por tanto, S es una base de R3 .


Ejemplo 34 Completar la siguiente familia libre (v1 , v2 , v3 ) para formar una
base de R4 , siendo v1 = (1, 1, 1, 1), v2 = (1, 1, 0, 1), v3 = (1, 2, 1, 1).
Solucin: Sabemos que la familia (e1 , e2 , e3 , e4 ) es una base de R4 , siendo
e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0), e4 = (0, 0, 0, 1). Se tiene
v1 = 1e1 + 1e2 + (1)e3 + 1e4
de donde
e1 = v1 e2 + e3 e4
Por tanto,
(e1 , e2 , e3 , e4 ) (v1 , e2 , e3 , e4 )
Se tiene
v2 = 1v1 + 0e2 + 1e3 + 0e4

Els autors, 2002; Edicions UPC, 2002

34

CAPTULO 1. ESPACIOS VECTORIALES

de donde
e3 = v1 + v2
Por tanto,
(v1 , e2 , e3 , e4 ) (v1 , e2 , v2 , e4 )
Finalmente, se tiene
v3 = (1)v1 + 1e2 + 2v2 + 0e4
de donde
e2 = v1 2v2 + v3
Por tanto,
(v1 , e2 , v2 , e4 ) (v1 , v3 , v2 , e4 )
Adems, se cumple
(v1 , v3 , v2 , e4 ) (v1 , v2 , v3 , e4 )
Por consiguiente,
(e1 , e2 , e3 , e4 ) (v1 , v2 , v3 , e4 )

y, en consecuencia, (v1 , v2 , v3 , e4 ) es una base de R4 .

Ejemplo 35 El conjunto de los polinomios en una indeterminada x con coeficientes en un cuerpo conmutativo K es un espacio vectorial sobre K que denotamos por K [x]. La familia (1, x, x2 , ...) es una base de K [x] pues todo polinomio
puede escribirse como combinacin lineal de una subfamilia finita. Este espacio
es de dimensin infinita.
Ejemplo 36 En el espacio vectorial C sobre R la familia (1, i) es una base. La
familia (1 + i, 1 i) es otra base.

1.14.

Dimensin de un subespacio vectorial

Teorema 19 Si E es un espacio vectorial de dimensin n, todo subespacio vectorial S de E es de dimensin finita y se cumple
dim S dim E
Adems
dim S = dim E

implica

S=E

Demostracin: El nmero de vectores de cualquier sistema libre y generador de


E est acotado por n. Todo sistema libre y generador de S tendr como mximo
un nmero determinado m de vectores de E. Por tanto, m n. Si m = n, los
vectores de una base de S constituyen un sistema libre de n vectores de E, y
en consecuencia, una base de E. Por tanto, S = E. Finalmente, si E = {0}, se
tiene igualmente S = {0}.

Els autors, 2002; Edicions UPC, 2002

1.14. DIMENSIN DE UN SUBESPACIO VECTORIAL

35

Teorema 20 En un espacio vectorial E de dimensin finita, si partimos una


base en dos partes complementarias, las clausuras lineales de cada uno de los
sistemas as definidos son subespacios suplementarios.
Demostracin: Sea B = (v1 , ..., vn ) una base de E. Consideremos los sistemas
S = (v1 , ..., vk ) y S0 = (vk+1 , ..., vn ), y sean
S = hv1 , ..., vk i
T = hvk+1 , ..., vn i
Por construccin, es claro que S + T = E. Sea v S T, entonces
v
v

= 1 v1 + + k vk
= k+1 vk+1 + + n vn

de aqu se obtiene
1 v1 + + k vk k+1 vk+1 n vn = 0
de donde i = 0 para todo 1 i n, ya que (v1 , ..., vn ) es un sistema libre.
Por consiguiente, v = 0 y, en consecuencia, S T = {0}.
Teorema 21 En un espacio vectorial E de dimensin n, todo subespacio S admite al menos un subespacio suplementario T y se cumple
E=ST

implica

dim E = dim S + dim T

Demostracin: Sea (u1 , ..., up ) una base de S. Existe en E al menos un vector


v1 tal que el sistema (u1 , ..., up , v1 ) es libre, pues, en caso contrario, los vectores
ui formaran una base de E y se tendra S = E y, en consecuencia, T = {0}.
Se repite el razonamiento con el sistema libre (u1 , ..., up , v1 ) que tiene p + 1
vectores. Podemos aadirle otro vector v2 de manera que se obtenga otro sistema
libre (u1 , ..., up , v1 , v2 ) si p + 1 < n. Este proceso termina cuando se hayan
introducido n p nuevos vectores, porque se habr obtenido una base de E. Los
vectores del sistema libre (v1 , v2 , ..., vnp ) engendran un subespacio vectorial T,
cuya dimensin es n p, y es un suplementario de S. Finalmente, si S = {0},
entonces T = E.
Observacin 25 Una demostracin alternativa basada en resultados anteriores
es la siguiente: Si S es una base de S, segn el corolario 3 de la seccin
anterior, existe un sistema S 0 libre tal que (S, S 0 ) es una base de E. De aqu,
por el teorema 20, los subespacios S = hSi y T = hS 0 i son suplementarios.
Teorema 22 Sean S y T dos subespacios vectoriales de un espacio vectorial E
de dimensin finita. Entonces se cumple
dim S + dim T = dim(S T) + dim(S + T)
Demostracin: Sea (u1 , ..., up ) una base de S T. Por el corolario 3 de la
seccin anterior, podemos completar esta base hasta obtener una base de S y

Els autors, 2002; Edicions UPC, 2002

36

CAPTULO 1. ESPACIOS VECTORIALES

una base de T. As tenemos que (u1 , ..., up , up+1 , ..., uk ) es una base de S y
(u1 , ..., up , vp+1 , ..., vm ) es una base de T. Entonces
(u1 , ..., up , up+1 , ..., uk , vp+1 , ..., vm )
constituye un sistema de generador de S + T. Si demostramos que todos estos
vectores son linealmente independientes, habremos obtenido una base de S + T
con un nmero de vectores que prueba la igualdad del enunciado. Supongamos
k
X

i ui +

i=1

m
X

i vi = 0

i=p+1

entonces
k
X
i=1

i ui =

m
X

i vi

i=p+1

es un vector de S T, de donde

es decir

m
X

i vi =

i=p+1

p
X

j uj

j=1

j uj +

j=1

p
X

m
X

i vi = 0

i=p+1

y, como que (u1 , ..., up , vp+1 , ..., vm ) es una base de T, se deduce j = 0 (j =


1, ..., p) y i = 0 (i = p + 1, ..., m). Por tanto,
k
X

i ui = 0

i=1

y, como que (u1 , ..., up , up+1 , ..., uk ) es una base de S, se deduce i = 0 (i =


1, ..., k).
Corolario 5 En las mismas condiciones del teorema anterior, se cumple
dim(S T) = dim S + dim T
En este caso, la reunin de una base de S y de una base de T da una base de
S T.
Demostracin: Es inmediato, sabiendo que cuando la suma es directa, ST =
{0}; adems, dim {0} = 0
Corolario 6 La suma S + T de dos subespacios es directa si y slo si dim S +
dim T = dim(S + T).
Demostracin: Es inmediato a partir del teorema precedente.

Els autors, 2002; Edicions UPC, 2002

1.14. DIMENSIN DE UN SUBESPACIO VECTORIAL

37

Ejemplo 37 Determinar una base para la suma y la interseccin de los subespacios S y T de R4 engendrados por los conjuntos {(1, 2, 1, 0), (1, 1, 1, 1)} y
{(2, 1, 0, 1), (1, 1, 3, 7)} respectivamente.
Solucin: Es claro que dim S = 2 y dim T = 2. Un vector (x, y, z, t) S T
debe cumplir
(x, y, z, t) = (1, 2, 1, 0) + (1, 1, 1, 1) = (2, 1, 0, 1) + (1, 1, 3, 7)
es decir
( , 2 + , + , ) = (2 + , , 3, + 7)
Por tanto, se obtiene el siguiente sistema
E1
E2
E3
E4

:
: 2 +
: +
:

= 2 +

=
=
3

= + 7

Efectuando las transformaciones indicadas

E1 + E2 :
3 =
E3 :
= + 7
Sustituyendo estos resultados en E3 se tiene
= 3
Por tanto, = , = 4 y = 3. De aqu, se tiene
(x, y, z, t) = (1, 2, 1, 0) + 4(1, 1, 1, 1) = (5, 2, 3, 4)
Por tanto,
S T = h(5, 2, 3, 4)i

y, en consecuencia, ((5, 2, 3, 4)) es una base de S T y dim (S T) = 1. Por


la frmula del teorema 22, se sigue
dim (S + T) = dim S + dim T dim (S T) = 2 + 2 1 = 3
Sabemos que
S + T = h(1, 2, 1, 0), (1, 1, 1, 1), (2, 1, 0, 1), (1, 1, 3, 7)i
y por el resultado anterior debe ser uno de los vectores generadores dependiente
de los dems. Para encontrarlo aplicamos sucesivas transformaciones elementales con objeto de hallar un sistema equivalente libre.
v1
1
2
1
0

v1
v2 v3 v4
1 2
1
1
1 1 1 2
1
0
3
1
1
1
7
0

v2 + v1 = u2
0
3
2
1

v3 2v1 = u3
0
5
2
1

v4 v1 = u4
0
3

2
7

Els autors, 2002; Edicions UPC, 2002

38

CAPTULO 1. ESPACIOS VECTORIALES


v1
1
2
1
0

u2
0
3
2
1

5u2 + 3u3 = w3
0
0
4
8

v1
u4 + u2 = w4
0
1
0
2
4
1
8
0

u2
0
3
2
1

w3
0
0
4
8

w4 w3
0
0
0
0

Por consiguiente
S + T = h(1, 2, 1, 0), (0, 3, 2, 1), (0, 0, 4, 8)i
y una base de S + T es ((1, 2, 1, 0), (0, 3, 2, 1), (0, 0, 4, 8)).

1.15.

Espacio vectorial cociente

Sea E un espacio vectorial y F un subespacio vectorial de E.


Definicin 19 Decimos que u, v E estn relacionados mdulo F si uv
F. Simblicamente, escribimos
u v mod F si y slo si u v F
Teorema 23 Esta relacin es una congruencia sobre E.
Demostracin: Primero probaremos que es una relacin de equivalencia. En
efecto, para todo u, v, w E se tiene: (1) u u mod F, pues uu = 0 F ( es
reflexiva); (2) si u v mod F, es decir, u v F, entonces (u v) = v u
F, es decir, v u mod F ( es simtrica); (3) si u v mod F y v w mod F,
es decir, si u v F y v w F, entonces (u v) + (v w) = u w F,
es decir, u w mod F ( es transitiva).
Segundo, probaremos que es una relacin compatible con las operaciones
de E. En efecto, para todo u1 , u2 , v1 , v2 E y K, si u1 v1 mod F y
u2 v2 mod F, entonces u1 + u2 v1 + v2 mod F, pues de
u1 v1
u2 v2

F
F

se deduce
(u1 v1 ) + (u2 v2 ) = (u1 + u2 ) (v1 + v2 ) F
Y, si u1 v1 F, entonces u1 v1 F, pues de u1 v1 F se deduce que
(u1 v1 ) = u1 v1 F.
Teorema 24 El conjunto cociente E/F junto con las siguientes operaciones:
[u] + [v] = [u + v]
[u] = [u]
en donde [u] = {u + v : v F} designa la clase del vector u E, es un
espacio vectorial sobre K.

Els autors, 2002; Edicions UPC, 2002

1.15. ESPACIO VECTORIAL COCIENTE

39

Definicin 20 Se llama espacio vectorial cociente mdulo F, denotado por


E/F, al conjunto cociente E/F con las dos operaciones definidas en el teorema
anterior. Denotaremos tambin la clase del vector u por u + F.
Teorema 25 Si E es de dimensin finita, E/F tambin lo es y se cumple
dim(E/F) = dim E dim F
Demostracin: Completemos una base (v1 , ..., vm ) de F hasta obtener una
base (v1 , ..., vm , vm+1 , ..., vn ) de E. Es claro que
[vi ] = [0]
para todo 1 i m. Afirmamos que ([vm+1 ] , ..., [vn ]) es una base de E/F. En
efecto, toda clase [u] de un vector
u=

n
X

i vi

i=1

se puede escribir como sigue


[u] =

n
X

n
X

i [vi ] =

i=1

i [vi ]

i=m+1

Por tanto, ([vm+1 ] , ..., [vn ]) es un sistema generador de E/F.


Para ver que el sistema ([vm+1 ] , ..., [vn ]) es libre, consideremos
n
X

i [vi ] = [0]

i=m+1

es decir,

"

n
X

i vi = [0]

i=m+1

de donde

n
X

i=m+1

Entonces

n
X

i vi =

i=m+1

es decir,

m
X
j=1

i vi F
m
X

j vj

j=1

j vj

n
X

i vi = 0

i=m+1

Ahora bien, (v1 , ..., vm , vm+1 , ..., vn ) es una base de E. Por tanto, j = 0 (j =
1, ..., m) y i = 0 (i = m + 1, ..., n).
Hemos obtenido una base de E/F, demostrando as la igualdad del enunciado.

Els autors, 2002; Edicions UPC, 2002

40

CAPTULO 1. ESPACIOS VECTORIALES

Ejemplo 38 Consideremos un subespacio F = hvi de R2 . Si representamos los


elementos de R2 como puntos del plano, los vectores de F corresponden a los
puntos de una recta que pasa por el origen. Cada una de las clases u + F corresponde, entonces, a puntos de una recta paralela a F que pasa por u. El espacio
R2 /F es, en este caso, el conjunto de rectas paralelas a F. Anlogamente, si
F = hvi R3 , entonces R3 /F es el conjunto de rectas de R3 paralelas a una
recta F que pasa por el origen. Si F = hu, vi R3 es de dimensin 2, F corresponde a un plano que pasa por el origen y R3 /F es el conjunto de planos
paralelos a F.

1.16.

Rango de un sistema de vectores

Definicin 21 Se llama rango de un sistema S = (v1 , ..., vm ) de E, denotado


por rang S, a la dimensin de la clausura lineal de dicho sistema, es decir, en
smbolos
rang S = dim hv1 , ..., vm i
Observacin 26 Dicho de otro modo, el rango del sistema (v1 , ..., vm ) es el
nmero mximo de vectores linealmente independientes que contiene.
Teorema 26 Si S y S 0 son dos sistema equivalentes de E, entonces
rang S = rang S 0
Demostracin: Es una consecuencia inmediata de la definicin 11.
Corolario 7 Dado un sistema S = (v1 , ..., vm ), su rango no vara si se efecta
cualquiera de las transformaciones elementales:
1.

rang (v1 , ..., vi , ..., vj , ...vm ) = rang (v1 , ..., vj , ..., vi , ...vm ) (i 6= j)

Els autors, 2002; Edicions UPC, 2002

1.16. RANGO DE UN SISTEMA DE VECTORES

41

2.

rang (v1 , ..., vi , ...vm ) = rang (v1 , ..., vi , ...vm ) ( 6= 0)

3.

rang (v1 , ..., vi , ..., vj , ...vm ) = rang (v1 , ..., vi + vj , ..., vj , ...vm ) (i 6=
j)

Demostracin: Estos resultados son consecuencias del teorema 13.


Corolario 8 Dado un sistema S = (v1 , ..., vm ), entonces
rang (v1 , ..., vm ) = rang (v1 , ..., vm , w)
si y slo si w es combinacin lineal de los vectores de (v1 , ..., vm ).
Demostracin: Es una consecuencia inmediata del teorema 12.
Observacin 27 Este ltimo resultado permite asegurar que el rango de un
sistema no vara cuando suprimimos los vectores que son dependientes de los
restantes; en particular, podemos suprimir los vectores nulos, y de los vectores
repetidos nos quedamos slo con uno de ellos.
Teorema 27 Dado un sistema de r vectores (u1 , ..., ur ) de un espacio vectorial
E de dimensin n (r n) y (v1 , ..., vn ) una base de E. Si expresamos estos
vectores en esta base
ui =

n
X

ij vj

(i = 1, ..., r)

j=1

y se cumple
ij = 0 para j < i
y
ii 6= 0 para todo i = 1, ..., r
entonces (u1 , ..., ur ) es un sistema libre.
Demostracin: Consideremos
1 u1 + + r ur = 0
Introduciendo las coordenadas de los vectores en la base se tiene
1

n
X
j=1

1j vj + + r

n
X

rj vj = 0

j=1

De aqu, puesto que (v1 , ..., vn ) es libre, se obtienen


r
X

i ij = 0

(j = 1, ..., n)

i=1

Els autors, 2002; Edicions UPC, 2002

42

CAPTULO 1. ESPACIOS VECTORIALES

Si ahora tenemos en cuenta las propiedades de las ij , obtenemos:


1 11
1 12 + 2 22
1 13 + 2 23 + 3 33

1 1r + 2 2r + + r rr

= 0
= 0
= 0
..
.
= 0

es decir, 1 = 2 = = r = 0.
Observacin 28 El teorema anterior nos da un mtodo para determinar el
rango de un sistema. Para ver esto, examina con detalle el siguiente ejemplo.
Ejemplo 39 En R4 determinar el rango del sistema S = (v1 , v2 , v3 , v4 ), siendo
v1 = (1, 1, 2, 0), v2 = (1, 1, 0, 6), v3 = (1, 2, 0, 1), v4 = (1, 1, 1, 3).
Solucin: Tomando la base cannica de R4 , escribimos las coordendas de
estos vectores por filas (del mismo modo se hara por columnas) como sigue:
v1
v2
v3
v4

:
:
:
:

1
1
1
1

1
1
2
1

2
0
0
1

0
6
1
3

1
0
0
0

1
0
3
0

2
2
2
1

0
6
1
3

1
3
0
0

2
2
1
2

0
1
3
6

aplicando 3 veces T3 se obtiene


v1
v2 v1
v3 + v1
v4 v1

:
:
:
:

aplicando ahora 2 veces T1 se obtiene


v1
v3 + v1
v4 v1
v2 v1

:
:
:
:

1
0
0
0

aplicando una vez T3 se obtiene


v1 :
v3 + v1 :
v4 v1 :
v2 v1 2(v4 v1 ) :

1
0
0
0

1
3
0
0

2
2
1
0

finalmente, suprimiendo el vector nulo se tiene


v1 :
v3 + v1 :
v4 v1 :

1
0
0

1
3
0

2
2
1

Els autors, 2002; Edicions UPC, 2002

0
1
3

0
1
3
0

1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES

43

De este modo tenemos


(v1 , v2 , v3 , v4 ) (v1 , v3 + v1 , v4 v1 )
Por tanto,
rang (v1 , v2 , v3 , v4 ) = rang (v1 , v3 + v1 , v4 v1 )
El sistema (v1 , v3 + v1 , v4 v1 ) adems es libre, ya que cumple las coordenadas
de estos vectores cumplen las condiciones del teorema anterior. Por tanto,
rang(v1 , v2 , v3 , v4 ) = rang(v1 , v3 + v1 , v4 v1 ) = 3
Como consecuencia el sistema dado (v1 , v2 , v3 , v4 ) es ligado. Adems, a partir de las transformaciones aplicadas anteriormente deducimos una relacin de
dependencia
v2 v1 2(v4 v1 ) = 0
es decir
v1 + v2 2v4 = 0
En general, comprobaremos que el mtodo nos da no solamente el rango s del sistema (v1 , ..., vr ), es decir, la dimensin del subespacio engendrado, sino tambin
una base de este subespacio y las r s relaciones de dependencia existentes entre
los vectores del sistema. En particular, si E es de dimensin n y (v1 , ..., vn ) es
una base, este mtodo permite calcular las coordenadas de un vector cualquiera
respecto a dicha base.

1.17.

Isomorfismos de espacios vectoriales

Definicin 22 Dados dos espacios vectoriales E y E0 sobre el mismo cuerpo K.


Se llama isomorfismo de E en E0 a toda aplicacin biyectiva f : E E0 que
cumple:
1.

Para todo u, v E, f (u + v) = f (u) + f (v)

2.

Para todo u E y K, f (u) = f (u)

Si existe un isomorfismo de E en E0 , entonces se dice que E y E0 son dos


espacios vectoriales isomorfos. Escribiremos entonces
E
= E0
Observacin 29 Hacemos las observaciones siguientes:
1.

Afirmar que dos espacios vectoriales son isomorfos equivale a decir que
ambos tienen la misma estructura de espacio vectorial.

2.

Estudiaremos con detalle los isomorfismos como caso particular de los homomorfismos de espacios vectoriales (o aplicaciones lineales) ms adelante
en la seccin correspondiente.

Els autors, 2002; Edicions UPC, 2002

44

CAPTULO 1. ESPACIOS VECTORIALES

Teorema 28 Si E1 y E2 son dos subespacios suplementarios de un espacio


vectorial E, entonces los espacios E = E1 E2 y E1 E2 son isomorfos.
Demostracin: Si E1 y E2 son dos subespacios suplementarios de E, entonces
E = E1 E2 . Consideremos la descomposicin nica de todo v E como
v = v1 + v2
con v1 E1 y v2 E2 . Consideremos la aplicacin f de E1 E2 en E1 E2
definida por
f (v1 , v2 ) = v1 + v2
Por construccin, es claro que f es biyectiva. Adems se cumple
f ((v1 , v2 ) + (w1 , w2 )) =
=
=
=

f (v1 + w1 , v2 + w2 ) =
(v1 + w1 ) + (v2 + w2 ) =
(v1 + v2 ) + (w1 + w2 ) =
f (v1 , v2 ) + f (w1 , w2 )

y
f ((v1 , v2 )) =
=
=
=

f (v1 , v2 ) =
v1 + v2 =
(v1 + v2 ) =
f (v1 , v2 )

Por consiguiente, f es un isomorfismo.


Observacin 30 Si E1 y E2 son dos espacios vectoriales sobre K, podemos
construir un nuevo espacio vectorial E que los contenga a los dos salvo un isomorfismo. En efecto, consideremos el espacio vectorial producto E1 E2 . Todo
vector (v1 , v2 ) del espacio producto E1 E2 puede descomponerse como sigue
de forma nica
(v1 , v2 ) = (v1 , 0) + (0, v2 )
Consideremos ahora los dos subespacios siguientes de E1 E2 :
E01 = {(v1 , 0) : v1 E1 }
y
E02 = {(0, v2 ) : v2 E2 }

Es evidente que E1 E2 = E01 E02 , ya que los dos subespacios tienen interseccin
{(0, 0)}.
Por otra parte, es inmediato comprobar que las aplicaciones, f1 : E01 E1
definida por f1 (v1 , 0) = v1 , y f2 : E02 E2 definida por f2 (0, v2 ) = v2 , son
isomorfismos de espacios vectoriales.
Como consecuencia de esto, en la prctica se identifica siempre Ei y E0i
(i = 1, 2); identificar por ejemplo E1 y E01 quiere decir, confundir los vectores

Els autors, 2002; Edicions UPC, 2002

1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES

45

v1 E1 y (v1 , 0) E01 . Esta identificacin permite decir que E1 y E2 son subespacios suplementarios de E1 E2 . Por el teorema, los espacios E1 E2 y
E1 E2 son isomorfos.
El espacio E = E1 E2 se llama suma directa de los espacios vectoriales
dados E1 y E2 . Entonces, es claro que E tiene a E1 y E2 como subespacios
suplementarios y se cumple que E y E1 E2 son isomorfos.
En estas condiciones, si v E, la descomposicin nica v = v1 + v2 , hace
que la aplicacin de E en Ei definida por
v

= v1 + v2

7 vi

se identifique con la aplicacin de E1 E2 en Ei , que se llama la proyeccin


i de E1 E2 sobre Ei (i = 1, 2). Por ejemplo, 1 se llama proyeccin de E
sobre el subespacio E1 paralelamente al subespacio E2 , suplementario de
E1 respecto a E. Se dice tambin que v1 (resp. v2 ) es la componente de v de
E en E1 (resp. E2 ).
Ejemplo 40 Probar que los espacios vectoriales siguientes R R y R2 son
isomorfos.
Solucin: Si tomamos E1 = E2 = R. Segn la observacin anterior, podemos
afirmar que los espacios vectoriales reales R R y R2 son isomorfos. Si representamos los elementos de E1 como los vectores del eje real Ox, los de E2 como
los vectores del eje real Oy, distinto de Ox, y los de E1 E2 como los vectores
de origen O del plano ordinario, entonces identificar R R y R2 equivale a confundir (x1 , y1 ) de R2 y x1 + y1 de R R. La figura siguiente ilustra este hecho.

Teorema 29 Si E1 y E2 son dos subespacios suplementarios de un espacio


vectorial E, entonces el espacio cociente E/E1 es isomorfo a E2 .
Demostracin: Si E1 y E2 son dos subespacios suplementarios de un espacio
vectorial E, entonces E = E1 E2 . Dados v = v1 + v2 y w = w1 + w2 de E, la
relacin v1 + v2 w1 + w2 (mod E1 ) puede escribirse como sigue
(v1 + v2 ) (w1 + w2 ) = v1 w1 + v2 w2 E1

Els autors, 2002; Edicions UPC, 2002

46

CAPTULO 1. ESPACIOS VECTORIALES

equivalente a v2 = w2 . Por tanto, todos los vectores de una misma clase tienen
la misma componente en E2 . Consideremos la aplicacin f : E/E1 E2 denida
por
f ([v1 + v2 ]) = v2
Es claro que f es exhaustiva, pues cualquiera que sea v2 de E2 existe [0 + v2 ]
tal que f ([0 + v2 ]) = v2 . Adems, si
f ([v1 + v2 ]) = f ([w1 + w2 ])
entonces v2 = w2 . Por tanto,
(v1 + v2 ) (w1 + w2 ) E1
es decir,
[v1 + v2 ] = [w1 + w2 ]
Por tanto, f es inyectiva. Se cumple
f ([v] + [w]) = f ([v + w]) = v2 + w2 = f ([v]) + f ([w])
y
f ( [v]) = f ([v]) = v2 = f ([v])
Por tanto, f es un isomorfismo.
Corolario 9 En un espacio vectorial E, todos los subespacios suplementarios
de un subespacio vectorial E1 de E son isomorfos.
Demostracin: Es una consecuencia inmediata del teorema anterior.
Teorema 30 Dos espacios vectoriales E y E 0 de dimensin finita sobre el mismo cuerpo K son isomorfos si y slo si tienen la misma dimensin.
Demostracin: Supongamos que E y E0 son de la misma dimensin n. Elegimos una base (v1 , ..., vn ) de E y otra (w1 , ..., wn ) de E0 . Por el teorema 15
(5), todo vector u E admite una expresin nica como sigue
u = 1 v1 + + n vn
Consideremos la aplicacin f de E en E0 definida por
f (u) = 1 w1 + + n wn
Es claro que f es biyectiva. Por otra parte, si f (v) = 1 w1 + + n wn , entonces
se cumple:
f (u + v) = (1 + 1 )w1 + + (n + n ) wn =
= (1 w1 + + n wn ) + ( 1 w1 + + n wn ) =
= f (u) + f (v)

Els autors, 2002; Edicions UPC, 2002

1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES

47

y
f (u) = 1 w1 + + n wn =
= (1 w1 + + n wn ) =
= f (u)
Por tanto, esta aplicacin es un isomorfismo de E en E0 .
Recprocamente, supongamos que E y E0 son isomorfos, y sea f el isomorfismo de E en E0 . Suponagmos tambin que dim E = n y dim E0 = n0 . Elegimos
una base (v1 , ..., vn ) de E. Denotamos por wi = f (vi ) para cada 1 i n.
Cualquier vector u E admite una expresin nica como sigue
u = 1 v1 + + n vn
De aqu, se tiene
f (u) = f (1 v1 + + n vn ) =
= 1 f (v1 ) + + n f (vn ) =
= 1 w1 + + n wn
Puesto que f es exhaustiva, cualquier vector w E0 tiene una antiimagen en
E. Supongamos que f (u) = w, entonces
w = 1 w1 + + n wn
Por tanto, (w1 , ..., wn ) es un sistema generador de E0 . Vamos a ver ahora que
(w1 , ..., wn ) es libre. Para ello, consideremos
1 w1 + + n wn = 0
es decir
1 f (v1 ) + + n f (vn ) = 0
De aqu, segn la definicin de isomorfismo, se sigue
f (1 v1 + + n vn ) = f (0)
ya que
f (0) = f (0 + 0) = f (0) + f (0)

implica

f (0) = 0

Ahora bien, f es inyectiva. Por tanto,


1 v1 + + n vn = 0
Puesto que (v1 , ..., vn ) es una base de E, se sigue que i = 0 para todo 1 i
n. Por consiguiente, (w1 , ..., wn ) es una base de E0 . En consecuencia, los dos
espacios vectoriales tienen la misma dimensin.

Els autors, 2002; Edicions UPC, 2002

48

CAPTULO 1. ESPACIOS VECTORIALES

Observacin 31 En la demostracin de este teorema se prueba tambin que si


dos espacios vectoriales de dimensin finita son isomorfos, la aplicacin transforma una base de uno en una base del otro. Adems, el isomorfismo queda
perfectamente definido una vez elegida una base de cada espacio vectorial. En
concreto, el isomorfismo asocia los vectores de las mismas coordenadas.
Corolario 10 Todo espacio vectorial E de dimensin n sobre K es isomorfo a
Kn .
Demostracin: El isomorfismo se establece una vez elegidas las bases: en E
escogemos una base arbitraria (v1 , ..., vn ) y en Kn podemos tomar la base natural
(e1 , ..., en ). Entonces, el vector v = 1 v1 + + n vn de E de coordenadas
(1 , ..., n ) respecto de la base considerada se corresponde con el vector w =
1 e1 + + n en de Kn de las mismas coordenadas en la base natural.
Observacin 32 Despus de este ltimo resultado, el estudio de E, desde el
punto de vista de su estructura vectorial se identifica as con el estudio de Kn
referido a su base natural. Esta es la razn por la que se denomina tambin
base cannica a la base natural de Kn . Obsrvese que con este resultado hemos
resuelto el problema de determinar (salvo isomorfismo) todos los espacios vectoriales de dimensin finita.
Corolario 11 Dados dos espacios vectoriales E1 y E2 de dimensiones finitas,
entonces se cumple
dim (E1 E2 ) = dim (E1 E2 ) = dim E1 + dim E2
Demostracin: Segn la observacin 30 se tiene
E1 E2
= E1 E2
Por tanto, por el teorema 30, tenemos
dim (E1 E2 ) = dim (E1 E2 )
Para probar la ltima igualdad, supongamos que (v1 , ..., vn ) y (w1 , ..., wm ) son
bases de E1 y E2 respectivamente. Entonces es inmediato probar que
((v1 , 0), ..., (vn , 0), (0, w1 ), ..., (0, wm ))
es una base del espacio producto E1 E2 . Por tanto
dim (E1 E2 ) = n + m

1.18.

Cambio de coordenadas

Definicin 23 Se llaman coordenadas de un vector v de un espacio vectorial E respecto a la base (v1 , ..., vn ) a la nica familia finita de escalares
(1 , ..., n ) tales que
v = 1 v1 + + n vn

Els autors, 2002; Edicions UPC, 2002

1.18. CAMBIO DE COORDENADAS

49

Definicin 24 Dado un espacio vectorial E, al pasar de una base B1 a una


base B2 , decimos que los vectores de E cambian sus coordenadas. Se dice
que el vector v tiene coordenadas (1 , ..., n ) en B1 = (v1 , ..., vn ) y (1 , ..., n )
en B2 = (u1 , ..., un ). A la base B1 se la llama base antigua y a B2 , la base
nueva.
En el teorema 31 se indicar cmo se calculan las coordendadas nuevas
a partir de las antiguas y recprocamente, y, en el teorema 32 se darn las
ecuaciones que caracterizan la relacin que hay entre las dos bases.
Observacin 33 Suponiendo E = E0 en el teorema 30 y eligiendo dos bases
distintas (v1 , ..., vn ) y (u1 , ..., un ) de E, la aplicacin biyectiva que asigna a
v = 1 v1 + + n vn el vector w = 1 u1 + + n un , es un automorfismo de
E (un isomorfismo de E en s mismo). Esto hace que el estudio de E, realizado
utilizando la base antigua, se conserve idnticamente cuando cambiemos de base
y reemplacemos los vectores estudiados por sus transformados en el automorfismo asociado, es decir, los vectores expresados en la base nueva.
Teorema 31 Dadas dos bases distintas B1 = (v1 , ..., vn ) y B2 = (u1 , ..., un )
de un espacio vectorial E. Sea v un vector arbitrario de E de coordenadas
(1 , ..., n ) en la base B1 y de coordenadas (1 , ..., n ) en la base B2 . Entonces
existen n2 coeficientes ij y ij tales que
i = 1 i1 + + n in

(i = 1, ..., n)

i = 1 i1 + + n in

(i = 1, ..., n)

y
Demostracin: Sea v un vector arbitrario de E de coordenadas (1 , ..., n ) en
la base antigua B1 . Queremos hallar sus nuevas coordenadas en la base nueva
B2 .
Los vectores de la nueva base estn definidos por medio de sus coordenadas
en la antigua base por las ecuaciones
uj = 1j v1 + + nj vn

(j = 1, ..., n)

(1.1)

lo que introduce n2 coeficientes ij . El vector v se descompone de dos maneras


v = 1 v1 + + n vn = 1 u1 + + n un
siendo (1 , ..., n ) las coordenadas nuevas de v. Reemplazando los uj de (1.1),
se obtiene
1 v1 + + n vn = 1 (11 v1 + + n1 vn ) + + n (1n v1 + + nn vn )
identificando en ambos miembros los coeficientes de vj se tiene
i = 1 i1 + + n in

(i = 1, ..., n)

Estas son las expresiones de las antiguas coordenadas en funcin de las


nuevas.

Els autors, 2002; Edicions UPC, 2002

50

CAPTULO 1. ESPACIOS VECTORIALES

Si se desea obtener las frmulas inversas, basta escribir los vectores de la


antigua base por medio de sus coordenadas en la nueva base
vj = 1j u1 + + nj un

(j = 1, ..., n)

(1.2)

y procediendo de la misma manera se obtiene


i = 1 i1 + + n in

(i = 1, ..., n)

Observacin 34 Podemos escribir estas ecuaciones de una manera ms cmoda utilizando matrices. Consideremos las matrices siguientes

11 1n
1
11 1n

.. Q = ..
.. A = .. B =
..
..
P = ...
.
.

.
.
.
.
n1

nn

n1

nn

Las ecuaciones que relacionan las coordenadas nuevas en B2 en funcin de las


antiguas en B1 se pueden escribir as
B = QA
y las ecuaciones que relacionan las coordenadas antiguas en funcin de las
nuevas como
A = PB

Es importante observar que las columnas de la matriz P son los vectores


de la base antigua B1 expresados en la base nueva B2 . Del mismo modo, las
columnas de la matriz Q son los vectores de la base nueva B2 expresados en la
base antigua B1 . Las matrices columna A y B son las coordenadas de un mismo
vector expresadas en B1 y B2 , respectivamente
Las matrices P y Q se llaman matrices de cambio de base. Tambin se
dice que P es la matriz de paso de la base nueva B2 a la base antigua B1 . De
forma anloga, Q se la llama matriz de paso de B1 a B2 .
Definicin 25 Se define la aplicacin : Nn Nn {0, 1} por

1 si i = j
(i, j) =
0 si i 6= j
siendo Nn = {1, 2, ..., n}. El valor (i, j) se representa por ij y recibe el nombre
de smbolo de Kronecker.
Teorema 32 Dadas dos bases distintas (v1 , ..., vn ) y (u1 , ..., un ) de un espacio
vectorial E. Las coordenadas ij y ij de los vectores de una base respecto de la
otra, estn ligadas por las siguientes ecuaciones caractersticas
n
X

kj ik = ij

k=1

Els autors, 2002; Edicions UPC, 2002

1
..
.
n

1.18. CAMBIO DE COORDENADAS

51

siendo ij el smbolo de Kronecker.


Demostracin: En las ecuaciones (1.1), introduciendo las ecuaciones (1.2),
se obtiene
uj = (1j 11 + + nj 1n )u1 + + (1j n1 + + nj nn )un

uj

=
=

n
X

kj 1k
k=1
n
n X
X

u1 + +

n
X

kj nk

k=1

un =

kj ik ui

i=1 k=1

Dado que (u1 , ..., un ) es un sistema libre, se deducen las siguientes relaciones:
1.

Si j = i, el coeficiente de ui en el segundo miembro debe ser igual a 1.


Por tanto,
n
X
ki ik = 1 (i = 1, ..., n)
k=1

2.

Si j = r 6= i, el coeficiente de ur en el segundo miembro debe ser igual a


0. Por tanto,
n
X

kr ik = 0

k=1

(i = 1, ..., r 1, r + 1, ..., n)

Introduciendo el smbolo de Kronecker, las dos relaciones anteriores se escriben en una sola como sigue
n
X

kj ik = ij

k=1

Observacin 35 El teorema puede escribirse ms cmodamente utilizando matrices. En efecto, obsrvese que la matriz asociada a la aplicacin que define el
smbolo de Kronecker por
aij = ij
es la matriz que llamamos matriz identidad
por In

1 0
0 1

In = . . .
..
.. ..
0 0

de orden n que la denotamos


0
0
..
.
1

Els autors, 2002; Edicions UPC, 2002

52

CAPTULO 1. ESPACIOS VECTORIALES

Las ecuaciones anteriores se escriben as


QP = In
Obsrvese que las matrices de los cambios de base son siempre invertibles. De
la ltima igualdad se sigue
P = Q1

Q = P 1

Ejemplo 41 En R3 se consideran las bases B1 = (e1 , e2 , e3 ) y B2 = (v1 , v2 , v3 )


siendo v1 = 2e1 , v2 = e2 + 2e3 y v3 = 3e3 . Hallar las coordenadas respecto
a B2 del vector u = 4e1 + e2 5e3 .
Solucin: Segn la observacin 34, sabemos que la matriz de cambio de
base o de paso de B1 a B2 tiene por vectores columna a los vi referidos a la base
antigua B1 . En este caso tenemos

2 0
0
P = 0 1 0
0 2 3
Entonces, segn la observacin 35, la matriz Q de paso de B2 a B1 cumple
QP = I3
Por tanto,
Q = P 1

3 0
0
1
= 0 6 0
6
0 4 2

Si (x1 , y1 , z1 ) son las coordenadas de un vector referidas a la base B1 y (x2 , y2 , z2 )


son las coordenadas del mismo vector referidas a la base B2 . Entonces se cumple

x2
x1
3 0
0
1
0 6 0 y2 = y1
6
0 4 2
z
z
2

Sustituyendo las coordenadas del vector u se tiene

2
4
3 0
0
1
0 6 0 1 = 1
6
1
5
0 4 2
Por tanto

u = 2v1 v2 + v3

Els autors, 2002; Edicions UPC, 2002

Captulo 2

Aplicaciones lineales
2.1.

Definicin y ejemplos

Sean dos espacios vectoriales E y F sobre el mismo cuerpo K. Una aplicacin


entre los conjuntos E y F que sea compatible con las estructuras de espacio
vectorial de E y F se llama homomorfismo de espacios vectoriales o aplicacin
lineal.
Definicin 26 Se llama aplicacin lineal a toda aplicacin f : E F tal que
f (u + v) = f (u) + f (v)
f (u) = f (u)
para todo u, v E y todo K.
Ejemplo 42 Consideremos E = F = R y K = R. Si f : R R es lineal y
f (1) = a, entonces f (x) = f (x1) = xf (1) = ax. Se cumple tambin que
f (x + y) = a(x + y) = ax + ay = f (x) + f (y)
De este modo, hemos caracterizado las aplicaciones compatibles con la estructura
de espacio vectorial de R; cualquier aplicacin lineal f : R R es de la forma
f (x) = ax, con a R.
Ejemplo 43 Sea E un espacio vectorial sobre K y (v1 , ..., vn ) una base de E.
La aplicacin f : E Kn definida por
f (u) = (1 , ..., n )
siendo u = 1 v1 + + n vn , es lineal. Esta aplicacin hace corresponder a
cada vector de E sus coordendas en la base dada.
Teorema 33 Si f : E F es lineal, entonces se cumple:
53

Els autors, 2002; Edicions UPC, 2002

54

CAPTULO 2. APLICACIONES LINEALES

1.

f (u + v) = f (u) + f (v)

2.

f (0) = 0

3.

f (u) = f (u)

4.

si adems g : F G es lineal, entonces g f : E G es lineal

Demostracin: (1.) Si f es lineal entonces se cumple


f (u + v) = f (u) + f (v)
De nuevo por ser lineal se cumple
f (u) + f (v) = f (u) + f (v)
De donde se tiene lo que queramos probar.
(2.) Si f es lineal, entonces se cumple
f (0) = f (0 + 0) = f (0) + f (0)
De donde se obtiene lo que queramos probar.
(3.) Si f es lineal, entonces se cumple
0 = f (0) = f (u + (u)) = f (u) + f (u)
De donde se obtiene lo que queramos probar.
(4.) Si f es lineal entonces se cumple
(g f )(u + v) = g(f (u + v)) = g(f (u) + f (v))
Por ser g lineal, entonces
g(f (u) + f (v)) = g(f (u)) + g(f (v)) = (g f )(u) + (g f )(v)
Por otro lado, si f es lineal entonces se cumple
(g f )(u) = g(f (u)) = g(f (u))
Por ser g lineal, entonces
g(f (u)) = (g(f (u))) = (g f )(u)

Definicin 27 Un monomorfismo es una aplicacin lineal inyectiva. Un epimorfismo es una aplicacin lineal exhaustiva. Un isomorfismo es una aplicacin lineal biyectiva. Un endomorfismo es una aplicacin lineal de un espacio E en s mismo. Un automorfismo es un endomorfismo biyectivo.

Els autors, 2002; Edicions UPC, 2002

2.2. NCLEO E IMAGEN DE UNA APLICACIN LINEAL

2.2.

55

Ncleo e imagen de una aplicacin lineal

Sea f : E F una aplicacin lineal.


Definicin 28 Se llama ncleo de f al subconjunto de E definido como sigue
ker f = {u E : f (u) = 0}
Definicin 29 Se llama imagen de f al subconjunto de F definido como sigue
Im f = {v F : existe u E tal que f (u) = v}
Ejemplo 44 Consideremos la aplicacin cero 0 : E E:
0(u) = 0
para todo u E. Calculemos su ncleo y su imagen:
ker 0 = {u E : 0(u) = 0} = E
Im 0 = {v E : existe u E tal que 0(u) = v} = {v E : 0 = v} = {0}
Ejemplo 45 Consideremos la aplicacin identidad IE : E E:
IE (u) = u
para todo u E. Calculemos su ncleo y su imagen:
ker IE = {u E : IE (u) = 0} = {u E : u = 0} = {0}
Como u = IE (u), para todo u E, entonces
Im IE = E
Ejemplo 46 Consideremos la aplicacin
f : R2 R2
definida por
f (x, y) = (x + y, x y)

Calculemos su ncleo y su imagen:


ker f

= {(x, y) R2 : f (x, y) = 0} = {(x, y) R2 : x + y = 0 y x y = 0} =


= {(x, y) R2 : x = y y x = y} = {(0, 0)} = {0}

Im f

= {f (x, y) : (x, y) R2 } = {(x + y, x y) : (x, y) R2 } =


= {(x, x) + (y, y) : (x, y) R2 } = {x(1, 1) + y(1, 1) : (x, y) R2 } =
= h{(1, 1), (1, 1)}i

es decir, Im f es el subespacio vectorial de R2 generado por los vectores (1, 1) y


(1, 1).

Els autors, 2002; Edicions UPC, 2002

56

CAPTULO 2. APLICACIONES LINEALES

Teorema 34 Se cumple que ker f es un subespacio vectorial de E, e Im f es


un subespacio vectorial de F.
Demostracin: Vamos a probar que ker f es un subespacio vectorial de E. En
efecto, consideremos u, v ker f , entonces se cumple
f (u + v) = f (u) + f (v) = 0 + 0 = 0
por ser f lineal. Por tanto, u + v ker f . Consideremos K, entonces se
cumple
f (u) = f (u) = 0 = 0
por ser f lineal. Por tanto, u ker f . En consecuencia lo que queramos
probar.
Para probar que Im f es un subespacio, consideremos u0 , v0 Im f , entonces
existen u, v E tales que
f (u) = u0

f (v) = v0

Consideremos u + v E. Entonces se cumple


f (u + v) = f (u) + f (v) = u0 + v0
por ser f lineal. Por consiguiente, u0 + v0 Im f . Consideremos K. Si
u0 Im f entonces existe u E tal que f (u) = u0 . Por tanto, u E y se
cumple
f (u) = f (u) = u0
por ser f lineal. Por consiguiente, u Im f .
Teorema 35 Sea f : E F una aplicacin lineal, donde E es un espacio de
dimensin finita. Entonces ker f e Im f son de dimensin finita. Adems se
cumple
dim E = dim ker f + dim Im f
Demostracin: ker f es un subespacio vectorial de E, que por hiptesis es de
dimensin finita. Por tanto, ker f tambin es de dimensin finita. Sean k =
dim ker f , n = dim E. Consideremos una base de ker f , u1 , . . . , uk , y amplimosla a una base de E, u1 , . . . , uk , uk+1 , . . . , un . Para completar la demostracin
del teorema, basta probar que f (uk+1 ), . . . , f (un ) es una base de F, porque esto
implicar que la dimensin de F es finita, y que dim F = dim E dim ker f , tal
y como queremos ver.
Veamos a continuacin que f (uk+1 ), . . . , f (un ) es una base de F. Sea u
Pi=n
Im f . Entonces existe v = i=1 i ui E tal que
u = f (v) = f

i=n
X
i=1

i ui

i=n
X

i f (ui ) =

i=1

Els autors, 2002; Edicions UPC, 2002

i=n
X

i=k+1

i f (ui )

2.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL

57

donde se ha usado que las imgenes por f de u1 , . . . , uk son 0 por pertenecer


a ker f . Por consiguiente, f (uk+1 ), . . . , f (un ) generan Im f. Slo falta ver que
son linealmente independientes:
i=n
!
i=n
X
X
0=
i f (ui ) = f
i ui
i=k+1

Por tanto,

Pi=n

i=k+1

i=k+1

i ui ker f , de donde se deduce


i=n
X

i ui =

i=k
X

i ui

i=1

i=k+1

Por tanto,
i=k
X
i=1

i ui

i=n
X

i ui = 0

i=k+1

Los vectores ui son linealmente independientes, por lo que los coeficientes deben
ser 0. En particular, i = 0 para i = k+1, . . . , n. Por consiguiente, f (uk+1 ), . . . , f (un )
son linealmente independientes.
Definicin 30 El rango de una aplicacin lineal f es la dimensin de Im f.
Teorema 36 Una aplicacin lineal f : E F es inyectiva si, y slo si, ker f =
0. Una aplicacin lineal f es exhaustiva si, y slo si, Im f = F.
Demostracin: Veamos primero que f es inyectiva ker f = 0.
) u ker f f (u) = 0 = f (0) u = 0, por ser f inyectiva.
) f (u) = f (v) f (u) f (v) = 0 f (u v) = 0 u v ker f
u v = 0 u = v.
Para ver que f es exhaustiva Im f = F, basta aplicar la definicin de
exhaustividad.

2.3.

Matriz asociada a una aplicacin lineal

Teorema 37 Sea B = {ui |i I} una base de un espacio vectorial E sobre el


cuerpo K. Sean {wi |i I} vectores cualesquiera de un espacio vectorial F sobre
K. Existe una aplicacin lineal f : E F, y slo una, tal que f (ui ) = wi para
cada i I.
Demostracin: Puesto que f es una aplicacin lineal, cumple
n
!
n
X
X
f
i ui =
i f (ui )
i=1

i=1

As pues, debemos definir la funcin que buscamos como sigue


n
!
n
X
X
f
i ui =
i wi
i=1

i=1

Els autors, 2002; Edicions UPC, 2002

58

CAPTULO 2. APLICACIONES LINEALES

Slo falta demostrar que, as definida, f es lineal:


n
!
n
!
n
n
X
X
X
X
i ui +
i ui = f
(i + i )ui =
(i + i )wi =
f (x + y) = f
i=1

i=1

i=1

i=1

n
n
n
X
X
X
(i wi + i wi ) =
i wi +
i wi = f (x) + f (y)
=
i=1

f (x) = f

n
X

i=1

i ui

i=!

i=!

n
!
n
n
X
X
X
(i )ui =
(i )wi =
i wi = f (x).
=f
i=1

i=1

i=!

Observacin 36 El anterior teorema nos dice que una aplicacin lineal queda
totalmente determinada por las imgenes de los vectores de una base. Estas
imgenes pueden ser, no obstante, arbitrarias.
Teorema 38 Con las notaciones del teorema anterior, f es inyectiva si, y slo
si, {wi |i I} es linealmente independiente.
Demostracin: ) Supongamos que f es inyectiva. Por tanto, ker f = 0.
Veamos que {wi |i I} son linealmente independientes:

!
X
X
X
X
i wi = 0
i f (ui ) = 0 f
i ui = 0
i ui = 0
iI

iI

iI

iI

i = 0 para cada i I.

) Supongamos que {wi |i I} es linealmente independiente. Basta probar


que ker f = 0.

!
X
X
X
Sea x =
i ui ker f f (x) = 0 f
i ui = 0
i wi = 0
iI

iI

iI

i = 0 para todo i I x = 0 ker f = 0.

Teorema 39 Con las notaciones del teorema anterior, f es exhaustiva si, y


slo si, {wi |i I} genera F.
Demostracin: ) Supongamos que f es exhaustiva. Por tanto, Im f = F.
Sea y F, y veamos que puede expresarse en combinacin lineal de {wi |i I}:
X
y F = Im f Existe x =
i ui E tal que y = f (x)
y=f

X
iI

i ui

iI

y=

X
iI

i f (ui ) y =

Els autors, 2002; Edicions UPC, 2002

X
iI

i wi .

2.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL


)
Im f :
y

59

Supongamos que {wi |i I} genera F. Sea y F, y veamos que y

F = hwi |i Ii y =

i wi =

iI

i f (ui ) =

iI

y Im f f es exhaustiva.

f ( i ui ) = f

iI

i ui

iI

Teorema 40 Con las notaciones del teorema anterior, f es biyectiva si, y slo
si, {wi |i I} es una base de F.
Demostracin: El enunciado se deduce de los dos teoremas anteriores:
f biyectiva f inyectiva y exhaustiva
{wi |i I} es linealmente independiente y genera F
{wi |i I} es una base de F.

Sea f : E F lineal, con E y F de dimensiones n y m respectivamente.


Sean u1 , . . . , un y v1 , . . . , vm bases de E y F. Entonces f queda determinada si
conocemos las coordenadas de f (u1 ), . . . , f (un ) en la base v1 , . . . , vm :
f (ui ) =

m
X

ji vj ,

i = 1, . . . , n

j=1

Definicin 31 Se llama matriz asociada a


a
1
1 1n
..
..
..
.
.
.
m
1

m
n

f respecto a las bases {ui }, {vj }

La matriz asociada es la herramienta con que, muy a menudo, se estudian las aplicaciones lineales. Veamos cmo esta matriz nos permite calcular las
coordenadas de la imagen de un vector:

n
!
n
n
n
m
m
X
X
X
X
X
X j
j

Sea w =
wi ui E f (w) =
wi f (ui ) =
wi
i vj =
i wi vj
i=1

i=1

i=1

j=1

j=1

As pues, las coordenadas (w1, . . . , wm ) de f (w) en la base {vj } son


wj =

n
X

ji wi ,

j = 1, . . . , m.

i=1

Els autors, 2002; Edicions UPC, 2002

i=!

60

CAPTULO 2. APLICACIONES LINEALES

Si escribimos las coordenadas (w1 , . . . , wn ) y (w1 , . . . , wm ) como matrices de


una columna

w1
w1

W = ... , W = ...
wn

wn

entonces las igualdades anteriores se pueden resumir en


W = AW.

Ejemplo 47 Consideremos la aplicacin f : Rn Rm definida por


(x1 , . . . , xn ) 7 (

n
X

1i xi , . . . ,

i=1

n
X

m
i xi )

i=1

Tomemos en Rn y Rm las bases {ei = (0, . . . , 0, 1, 0, . . . 0)}.


f (ei ) = f ((0, . . . , 1, . . . , 0)) = (1i , . . . , m
i )
Por tanto, la matriz asociada a f es
1
1
..
..
.
.

m
1
Ejemplo 48 La matriz de IE : E E,
dos espacios, es la matriz identidad

1 0
0 1

.. ..
. .

1n
..
.
m
n

considerando la misma base {ui } en los

..
.

0
0
..
.

0 0

ya que IE (ui ) = ui = 0u1 + + 1ui + 0un .


Ejemplo 49 Consideremos la matriz identidad IE : E E. Tomemos en el
primer espacio E una base u1 , . . . , un y en el segundo una base v1 , . . . , vn . La
matriz de IE respecto a estas bases est formada por los coeficientes de
IE (ui ) = ui =

n
X

ji vj

j=1

Ejemplo 50 Sea f : E F un isomorfismo. Consideremos una base {ui } de


E y la base {f (ui )} de F. La matriz de f respecto a estas bases es la matriz
identidad.

Els autors, 2002; Edicions UPC, 2002

2.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL

61

Teorema 41 Sean f : E F y g : F H aplicaciones lineales. Sean {u1 , . . . , un },


{v1 , . . . , vm }, {w1 , . . . , ws } bases de E, F, H respectivamente. Sean A, B, C las
matrices de f, g, g f respecto a estas P
bases. Entonces C = BA.
P
j
Demostracin: Tenemos f (ui ) = m
g(vj ) = sk=1 kj wk . Enj=1 i vj ,
tonces

s
!
m
m
m
s
m
X
X
X
X
X
X

(gf )(ui ) = g(f (ui )) = g


ji vj =
ji g(vj ) =
ji
kj wk =
ji kj wk
j=1

j=1

j=1

k=1

k=1

Por otro lado, usando la matriz asociada a g f,


(g f )(ui ) =

s
X

cki wk

k=1

Igualando las dos expresiones de (g f )(ui ), obtenemos


cki =

m
X
j=1

ji kj =

m
X

kj ji

j=1

Es decir,
C = BA.

Corolario 12 El producto de matrices es asociativo.


Demostracin: Recordemos en primer lugar que el producto de matrices slo
est definido cuando el nmero de columnas de la primera matriz coincide con
el nmero de filas de la segunda. Sean, pues
A Mmn (K),

B Msm (K),

C Mts (K)

Consideremos espacios vectoriales E, F, G, H sobre K de dimensiones n, m, s, t


respectivamente. Si fijamos bases en cada uno de estos espacios, existen aplicaciones lineales f, g, h con matrices A, B, C respecto a estas bases. El hecho de
que h (g f ) = (h g) f implica que
C(BA) = (CB)A
tal y como queramos ver.
Queremos ahora encontrar qu relacin hay entre las matrices de una misma
aplicacin lineal respecto a diferentes bases. Sea
f :EF
con matriz A respecto a las bases u1 , . . . , un de E y v1 , . . . , vm de F, y con matriz
B respecto a las bases u
1 , . . . , u
n de E y v
1 , . . . , v
m de F. Podemos escribir f
como la composicin
E EFF
f = IF f IE

Els autors, 2002; Edicions UPC, 2002

j=1

62

CAPTULO 2. APLICACIONES LINEALES

vi } respecConsideremos en estos cuatro espacios las bases {


ui }, {ui }, {vi }, {
tivamente. Sabemos que
B = QAP
donde P es la matriz de IE
u
i =

n
X

pki uk ,

i = 1, . . . , n

qjk v
k ,

j = 1, . . . , m

k=1

y Q es la matriz de IF
vj =

m
X

k=1

En muchas ocasiones, lo que conocemos son las coordenadas de la nueva base


v
k en la base vj ,
m
X
v
k =
rkj vj , k = 1, . . . , m
j=1

Recordemos, sin embargo, que las matrices R = (rkj ) y Q son inversas una de la
otra. As pues,
B = R1 AP.

2.4.

Espacios vectoriales isomorfos

Teorema 42 Si f es lineal y biyectiva, entonces f 1 tambin es lineal.


Demostracin: Para demostrar que f 1 (u+v) = f 1 (u)+f 1 (v),basta probar
que ambos miembros tienen la misma imagen por f , gracias a que f es biyectiva:
f (f 1 (u + v)) = u + v = f f 1 (u) + f f 1 (v) = f (f 1 (u) + f 1 (v))
Veamos que f 1 (u) = f 1 (u) de la misma manera:
f (f 1 (u)) = u = f f 1 (u) = f (f 1 (u)).

Observacin 37 Gracias a este teorema sabemos que si f : E F es un


isomorfismo, entonces existe una aplicacin lineal g : F E (notamos g = f 1 )
tal que g f = IE y f g = IF , donde IE designa la aplicacin identidad de E
en E (IE (u) = u, para todo u E) y anlogamente para IF .
Recprocamente, si f es tal que existe una aplicacin lineal g : F E que
cumple g f = IE y f g = IF , entonces f es biyectiva e inversa de g. Aplicando
el anterior teorema, tenemos que f es lineal y, por tanto, es un isomorfismo.
Definicin 32 Se dice que dos espacios vectoriales E y F son isomorfos si
existe un isomorfismo E F.

Els autors, 2002; Edicions UPC, 2002

2.4. ESPACIOS VECTORIALES ISOMORFOS

63

Notacin 1 Para indicar que dos espacios E y F son isomorfos, usaremos la


siguiente notacin:
E
=F
Ejemplo 51 Si E es un espacio vectorial de dimensin n sobre K, entonces
E
= Kn .
En efecto, consideremos una base de E: u1 , . . . , un . Todo vector v E puede
expresarse como v = 1 u1 + + n un .
Definimos la siguiente aplicacin:
f : E Kn
dada por
f (1 u1 + + n un ) = (1 , . . . , n ) Kn
Veamos que f es un isomorfismo:
f es lineal:
f (v + w) =
=
=
=

f ((1 u1 + + n un ) + ( 1 u1 + + n un )) =
f ((1 + 1 )u1 + + (n + n )un ) =
(1 + 1 , . . . , n + n ) = (1 , . . . , n ) + ( 1 , . . . , n ) =
f (u) + f (v)

f (v) = f ((1 u1 + + n un )) = f (1 u1 + + n un ) =
= (1 , . . . , n ) = (1 , . . . , n ) = f (v)
f es inyectiva: Basta probar que ker f = 0:
v

ker f f (v) = 0 f (1 u1 + + n un ) = 0 (1 , . . . , n ) = 0
i = 0, i = 1, . . . , n v = 0.

f es exhaustiva: Basta probar que Im f = Kn .Sea (1 , . . . , n ) Kn .


Definimos
v = 1 u1 + + n un
Es obvio que f (v) = (1 , . . . , n ) (1 , . . . , n ) Im f.
Teorema 43 Dos espacios vectoriales de dimensin finita E y F son isomorfos
si, y slo si, dim E = dim F.
Demostracin: ) Supongamos que E
= F. As pues, existe un isomorfismo
f : E F. Sabemos que ker f = 0 por ser f inyectiva, y que Im f = F por ser
f exhaustiva. Se cumple
dim E = dim ker f + dim Im f dim E = dim 0 + dim F = 0 + dim F = dim F
tal y como queramos ver.

Els autors, 2002; Edicions UPC, 2002

64

CAPTULO 2. APLICACIONES LINEALES

) Supongamos ahora que dim E = dim F. Sea u1 , . . . , un una base de E,


y v1 , . . . , vn una base de F. Consideremos la aplicacin lineal
f :EF
definida de la siguiente forma:
f

n
X

i ui

i=1

n
X

i vi

i=1

Veamos que f es un isomorfismo:


f es lineal: Sean x, y E, x =
f (x + y) = f

n
X

i ui +

i=1

Pn

n
X

i ui ,

i=1

i ui

i=1

y=

Pn

i=1

i ui ,

K.

n
!
n
X
X
(i + i )ui =
(i + i )vi =
=f
i=1

i=1

n
n
n
X
X
X
(i vi + i vi ) =
i vi +
i vi = f (x) + f (y)
=
i=1

f (x) = f

n
X

i=1

i ui

i=1

i=1

n
!
n
n
X
X
X
(i )ui =
(i )vi =
i vi = f (x)
=f
i=1

i=1

i=1

f es inyectiva: Basta ver que ker f = 0.


Sea x

n
X
i=1

i ui ker f f (x) = 0 f

n
X

i ui

i=1

=0

i = 0 para i = 1, . . . , n x = 0 ker f = 0
f es exhaustiva: Basta
P ver que F = Im f. Sea y F,
Consideremos x = ni=1 i ui E.
f (x) = f

n
X
i=1

i ui

n
X
i=1

y=

n
X
i=1

Pn

i=1

i vi = 0

i vi .

i vi = y y = f (x) y Im f

Ejemplo 52 R2 y C son espacios vectoriales sobre R isomorfos. Un isomorfismo es


(a, b) a + bi

Els autors, 2002; Edicions UPC, 2002

2.5. TEOREMAS DE ISOMORFISMO

2.5.

65

Teoremas de isomorfismo

Teorema 44 (primer teorema de isomorfismo) Si f : E F es lineal,


entonces
Im f
= E/ ker f
Demostracin: La aplicacin f enva todos los elementos de una clase u+ker f
al mismo vector de F; en efecto, si w ker f , f (w) = 0, y
f (u + w) = f (u) + f (w) = f (u) + 0 = f (u)
Esto nos permite definir una aplicacin
g : E/ ker f Im f
de la forma siguiente
g([u]) = f (u)
g es lineal:
g([u] + [v]) = g([u + v]) = f (u + v) = f (u) + f (v) = g([u]) + g([v])
g es exhaustiva:
si y Im f existe x E tal que y = f (x) y = g([x]) y Im g
g es inyectiva: Basta ver que ker g = 0.
Supongamos que g([u]) = 0 f (u) = 0 u ker f [u] = [0]
Por consiguiente, g es un isomorfismo entre E/ ker f e f. As pues,
Im f
= E/ ker f.
Corolario 13 (Segundo teorema de isomorfismo) Si F y G son subespacios
de E, se cumple
(F + G)/F
= G/(F G)

Demostracin: Consideremos la aplicacin

f : G (F + G)/F
dada por
f (v) = [v]
f es claramente lineal. ker f est formado por aquellos vectores v G tales
que [v] = 0, es decir, v F. Por tanto, ker f = F G. Adems, f es exhaustiva:
si [u] (F + G)/F u = w + v,

w F,

v G [u] = [v] = f (v)

Aplicando el primer teorema de isomorfismo a f , obtenemos


G/(F G)
= (F + G)/F.

Els autors, 2002; Edicions UPC, 2002

66

CAPTULO 2. APLICACIONES LINEALES

Corolario 14 (Tercer teorema de isomorfismo)Si F G son subespacios


de E, entonces
(E/F)/(G/F)
= E/G.
Demostracin: Observemos primero que F G implica que si una clase [u]
de E/F tiene un representante en G, todos sus elementos son de G. Por tanto,
G/F es un subconjunto de E/F. Definimos la aplicacin
f : E/F E/G
dada por
f ([u]F ) = [u]G
donde [u]F indica la clase de u mdulo F, y [u]G , la clase de u mdulo G.Esta
aplicacin est bien definida, ya que elementos equivalentes respecto a F tambin
son equivalentes respecto a G.
f es lineal:
f ([u]F + [v]F ) = f ([u + v]F ) = [u + v]G = [u]G + [v]G = f ([u]F ) + f ([v]F )
f es claramente exhaustiva.
Calculemos ker f :
ker f = {[u]F tales que [u]G = [0]G } = {[u]F tales que u G} = G/F
Aplicando el primer teorema de isomorfismo,
(E/F)/(G/F)
= E/G.

Observacin 38 Si la dimensin del espacio E es finita, Im f y E/ ker f tienen


la misma dimensin. Son, por tanto, espacios isomorfos. Qu nos dice de nuevo, pues, el primer teorema de isomorfismo? En primer lugar, nos dice que el
resultado es vlido para cualquier espacio vectorial, de dimensin finita o no.
An ms importante es, sin embargo, el hecho de que se pueda definir un isomorfismo de una manera muy natural y sin intervencin de base. Una aplicacin
lineal definida sin utilizar ninguna base, o que permita una definicin de ese
tipo, se llama una aplicacin cannica. Todos los isomorfismos establecidos en
las tres demostraciones de este apartado son isomorfismos cannicos.
A continuacin veamos algunos ejemplos para ilustrar los tres teoremas de
isomorfismo.
Ejemplo 53 Consideremos la aplicacin lineal
f : R2 R
dada por
f (x, y) = x y

Els autors, 2002; Edicions UPC, 2002

2.5. TEOREMAS DE ISOMORFISMO

67

El ncleo de f corresponde en el plano a una recta que pasa por (0, 0). R2 / ker f
es el conjunto de rectas paralelas a ker f :
R2 / ker f = {x y = a,

a R}

Cada una de estas rectas corta al eje de las x en un punto (a, 0), y su imagen
por f es, precisamente, a. El isomorfismo
g : R2 / ker f Im f
definido de la forma
g([(x, y)]) = f (x, y) = x y
hace corresponder a cada recta de R2 / ker f su interseccin con el eje de las x.
Ejemplo 54 Consideremos
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) en R3
Sean F y G los subespacios vectoriales de R3 definidos por
F = he1 , e2 i,

G = he1 , e3 i

Entonces
F G = he1 i y F + G = R3
Por tanto, (F + G)/F es el conjunto de planos de R3 paralelos a F y G/(F G)
es el conjunto de rectas del plano G paralelas a F G. El isomorfismo usado en
la demostracin del segundo teorema de isomorfismo hace corresponder a cada
recta de G paralela a F G el plano de R3 paralelo a F que la contiene.
Ejemplo 55 Sean
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) en R3
Consideremos los subespacios de R3
F = he1 i y G = he1 , e2 i
Entonces R3 /F es el conjunto de rectas de R3 paralelas a F y G/F es el conjunto
de rectas de G paralelas a F. Cada clase de (R3 /F)/(G/F) est formada por todas
las rectas (paralelas a F) situadas en un plano paralelo a G. El isomorfismo
usado en la demostracin del tercer teorema de isomorfismo hace corresponder
a cada una de esas clases el plano paralelo a G que la contiene (que es un
elemento de R3 /G).

Els autors, 2002; Edicions UPC, 2002

68

CAPTULO 2. APLICACIONES LINEALES

2.6.

El espacio de las aplicaciones lineales

Consideremos el conjunto L(E, F) de todas las aplicaciones lineales de E en


F. Hay una manera natural de definir una suma y un producto por elementos
del cuerpo K en L(E, F):
Si f, g L(E, F), definimos la suma f + g por
(f + g)(u) = f (u) + g(u) para todo u E
Si K, definimos el producto f por
(f )(u) = f (u) para todo u E
Las aplicaciones f +g y f son, claramente, lineales. L(E, F) con estas dos operaciones satisface todos los axiomas de espacio vectorial, por lo que lo llamaremos
espacio vectorial de las aplicaciones de E en F.
Teorema 45 Si E y F son de dimensin finita, L(E, F) tambin lo es y dim L(E, F) =
dim E dim F
Demostracin: Sea u1 , . . . , un una base de E, y v1 , . . . , vm una base de F.
Definimos
fij : E F, i = 1, . . . , n, j = 1, . . . , m
de la forma

fij (uk ) = 0 si k 6= i
fij (ui ) = vj
El teorema quedar demostrado si probamos que estas nm aplicaciones forman
una base de L(E, F). Para ello, tenemos que ver que {fij } genera L(E, F), y que
es linealmente independiente.
{fij } genera L(E, F): Sea f : E F lineal. Supongamos que f (uk ) =
Pm
j
j=1 k vj . Entonces
n X
m
X
f=
ji fij
i=1 j=1

ya que para todo uk

m
n X
X

ji fij (uk ) =
i=1 j=1

{fij } es linealmente independiente: En efecto,


n X
m
X

ji fij

i=1 j=1

m
X
j=1

jk vj

n X
m
X

ji fij (uk ) = 0

i=1 j=1
m X
n
X
ji fij (uk )
j=1 i=1

=0

k = 1, . . . , n

k = 1, . . . , n

k = 1, . . . , n ji = 0

Els autors, 2002; Edicions UPC, 2002

k = 1, . . . , n,

j = 1, . . . , m.

2.6. EL ESPACIO DE LAS APLICACIONES LINEALES

69

La matriz de la aplicacin {fij } respecto a las bases u1 , . . . , un y v1 , . . . , vm


es la matriz Eij formada por 0 en todas las posiciones, excepto en la columna
i, fila j, donde aparece un 1. Estas matrices forman una base de Mmn (K). La
aplicacin
L(E, F) Mmn (K)
tal que
fij 7 Eij ,

i = 1, . . . , n,

j = 1, . . . , m

es un isomorfismo entre estos dos espacios vectoriales. Este isomorfismo asocia


a cada aplicacin lineal f su matriz en las bases consideradas.

Els autors, 2002; Edicions UPC, 2002

70

CAPTULO 2. APLICACIONES LINEALES

Els autors, 2002; Edicions UPC, 2002

Captulo 3

Matrices
3.1.

Definicin de matriz

Definicin 33 Dados dos conjuntos finitos I = {1, 2, ..., m} y J = {1, 2, ..., n},
se llama matriz de orden m n con coeficientes en un conjunto K a
toda aplicacin de I J en K, tal que a cada par de elementos (i, j) I J le
hace corresponder el elemento aij de K. Dicha matriz es expresable como una
tabla rectangular de m filas y n columnas formada por elementos de K.
Denotaremos las matrices por letras maysculas. De este modo, si A es una
matriz de orden m n, designaremos por aij el coeficiente de A que ocupa el
lugar correspondiente a la i-sima fila y la j-sima columna. De esta manera A
se escribir como sigue:

a11 a12 a1n


a21 a22 a2n

A= .
..
..
..
..
.
.
.
am1 am2 amn

indicando que los coeficientes aij de A son elementos de K para todo i =


1, 2, ..., m y j = 1, 2, ..., n. Abreviadamente escribiremos A = (aij ) cuando no
haya confusin en el orden de la matriz, y recordando que el subndice i recorre
las filas y el j recorre las columnas de la matriz A. Cuando m = n, la matriz
se llama cuadrada de orden n. Si m = 1 la matriz se llama matriz fila de
orden n y si n = 1, se llama matriz columna de orden m.
Denotaremos por Mmn (K) el conjunto de matrices de orden m n con
coeficientes en el conjunto K. As A Mmn (K) significa que A es una matriz
de orden m n con coeficientes en el conjunto K. Escribiremos simplemente
Mn (K) cuando las matrices sean cuadradas de orden n.

Observacin 39 En la mayor parte de los casos, los coeficientes de las matrices


sern elementos de un cuerpo conmutativo K pero, en general los coeficientes de
las matrices pueden ser cualquier objeto de la matemtica (nmeros, polinomios,
71

Els autors, 2002; Edicions UPC, 2002

72

CAPTULO 3. MATRICES

matrices, funciones, etc.). Cuando K = R (K = C) las matrices se llaman


reales (complejas).
Definicin 34 La igualdad de dos matrices A, B Mmn (K) se define por
su identidad: A = B si y slo si aij = bij para todo i = 1, 2, ..., m y j = 1, 2, ..., n.
Por consiguiente dos matrices iguales tienen el mismo orden. En otras palabras,
diremos que dos matrices son iguales cuando son del mismo orden y tienen los
mismos coeficientes.
Ejemplo 56 En un espacio vectorial de dimensin finita un vector cualquiera
puede representarse por una matriz despus de haber elegido una base: los coeficientes de la matriz son las coordenadas del vector en dicha base. Podemos
escribirlo bien como una matriz fila o bien columna. Debe observarse, sin embargo, que un vector no es una matriz ya que un cambio de base cambia las
componentes del vector y por tanto la matriz, mientras que el vector permanece
invariable. Por ejemplo, el vector de componentes (1, 2, 3) en la base cannica
de R3 tiene asociado las siguientes matrices columna y fila en dicha base:

1

2
1 2 3
y
3

Ejemplo 57 Los sistemas lineales quedan perfectamente caracterizados por matrices. As, por ejemplo, el siguiente sistema lineal:

3x 2y + z = 1
2x + 3y z = 0
define la matriz

3 2 1
2 3 1

formada por los coeficientes de las incgnitas.

Ejemplo 58 Siendo E un espacio vectorial de dimensin m sobre un cuerpo


conmutativo K de base (u1 , u2 , ..., um ) y n vectores v1 , v2 , ..., vn de E expresados
en dicha base como:
vj =

m
X
i=1

aij uj = a1j u1 + + aij ui + + amj um (j = 1, 2, ..., n)

Las coordenadas aij de estos n vectores pueden estar dispuestas segn una matriz
como la siguiente:

a11 a1j a1n


..
..
..
..
.
.
.
.

ai1 aij ain

.
..
..
..
..
.
.
.
am1 amj amn

Els autors, 2002; Edicions UPC, 2002

3.1. DEFINICIN DE MATRIZ

73

Esta matriz es la matriz de las coordenadas de estos n vectores de E en la


base considerada. Obsrvese que los vectores estn colocados por columnas en la
matriz.

3.1.1.

Tipos especiales de matrices

Definicin 35 Dada la matriz A, sean i1 , i2 , ..., iq ciertos ndices de filas y


j1 , j2 , ..., jp ciertos ndices de columnas. La matriz q p obtenida, a partir de A,
suprimiendo en ella las filas y columnas de ndices distintos a los considerados,
se dice que es una submatriz de A. Si los ndices de filas y columnas elegidos
son consecutivos la matriz que resulta la llamaremos caja o bloque de la matriz
A dada.
Ejemplo 59 Dada la matriz

1
2 1
5
3
1
1
2
A = 0 1
3 4
2 2 2

de orden 3 5. La matriz siguiente

B=

0 1
2
3 2 2

es una submatriz de A, obtenida suprimiendo la primera fila y las columnas 2 y


4; obsrvese que B no es una caja de A ya que los ndices elegidos (i1 = 2, i2 =
3, j1 = 1, j2 = 3 y j3 = 5) para las columnas no son consecutivos. En cambio, la
matriz siguiente

1 5 3
C=
1 1 2

obtenida suprimiendo la tercera fila y las columnas 1 y 2, es una caja de A.


Obsrvese que en este caso se han elegido i1 = 1, i2 = 2, j1 = 3, j2 = 4 y j3 = 5.
Observacin 40 Si trazamos paralelas a los bordes de la tabla rectangular, la
matriz se divide en cierto nmero de submatrices o cajas. As, por ejemplo,
la matriz

d e
a b c

d0 e0
B = a0 b0 c0

se ha dividido en cuatro cajas. Recprocamente, podemos representar B como


la yuxtaposicin de cuatro cajas en un determinado orden, teniendo presente
que las cajas escritas en un misma fila han de tener el mismo nmero de filas,
y las de una misma columna el mismo nmero de columnas. De este modo B
puede considerarse como una matriz con coeficientes en un conjunto formado
por elementos que son matrices. En suma, podemos expresar B como:

B11 B12
B=
B21 B22

Els autors, 2002; Edicions UPC, 2002

74

CAPTULO 3. MATRICES

donde, por ejemplo,


B12 =

d
d0

e
e0

Siguiendo con este procedimiento podemos afirmar que cualquier matriz puede
considerarse como la yuxtaposicin ordenada por filas de varias matrices columna o bien como la yustaposicin ordenada por columnas de matrices fila. De este
modo, si

a11 a12 a1n


a21 a22 a2n

A= .
..
..
.
.
.
.
.
.
.
am1 am2 amn

es una matriz de orden m n,

F1
F2

A= .
..
Fm

podemos escribir

= C1

C2

Cn

donde Fi y Cj representan matrices fila de orden n y matrices columna de orden


m correspondientes a la i-fila y j-columna respectivamente de la matriz A. Por
ejemplo, la matriz B se escribe como

F1

B = F2 = C1 C2 C3 C4
F3
donde por ejemplo

c
C3 = c0

F2 =

a0

b0

c0

d0

e0

Supongamos ahora que K es un cuerpo conmutativo. Sea A un elemento de


Mmn (K). Podemos expresar A como una matriz columna en la que cada fila
representa un vector de Kn o bien como una matriz fila en la que cada columna
es un vector de Km , en ambos casos habr que tomar ciertas bases en las que
se expresen los vectores en cuestin. Los vectores as considerados son llamados
respectivamente vectores fila y vectores columna de la matriz A. Por tanto,
una matriz de Mmn (K) puede considerarse como una fila de vectores columna
o bien como una columna de vectores fila.
Definicin 36 Si A es una matriz cuadrada de orden n, se llama diagonal
principal de A a los elementos de la forma aii , i = 1, 2, ..., n. Se llama traza
de A, denotndose por tr A, a la suma de los elementos de la diagonal principal,
es decir,
n
X
tr A =
aii
i=1

Els autors, 2002; Edicions UPC, 2002

3.1. DEFINICIN DE MATRIZ

75

Definicin 37 Una matriz cuadrada se llama diagonal cuando todos los elementos situados fuera de la diagonal principal son nulos:
aij = 0 i 6= j
Las matrices diagonales son de la forma siguiente:

a11
..
.

.
..
0

..
.

0
..
.

0
..
.

aii
..
.

..
.

0
..
.

ann

Una matriz diagonal se llama escalar cuando todos los elementos de la diagonal
principal son iguales:
aii = k i = 1, 2, ..., n
En particular, cuando k = 1, se llama la matriz identidad de orden n y se
denota por In o simplemente I.

1
.. . .
.
.

.
..
0

0
..
.
1
.. . .
.
.
0

0
..
.

..
.
1

Definicin 38 Una matriz cuadrada se llama triangular inferior (superior) cuando todos los elementos que estn por encima (debajo) de la diagonal
principal son nulos. Por ejemplo,

a11
0
0
a21 a22
0

A= .
.
..
.
..
..
..
.
an1 an2 ann
es una matriz triangular inferior. Obsrvese que aij = 0 cuando i > j (i < j) y
la matriz es triangular inferior (superior).
Ejemplo 60 Escribir la matriz real A de orden 2 3 tal que aij = (1)i+j .
Solucin: Se tiene

1 1 1
A=
1 1 1
puesto que, por ejemplo, a23 = (1)2+3 = (1)5 = 1.

Els autors, 2002; Edicions UPC, 2002

76

CAPTULO 3. MATRICES

Ejemplo 61 Cundo son iguales las matrices siguientes?

3 t1
t
2v
y
2t
u
u+1 t+w
Solucin: Dos matrices son iguales cuando son del mismo orden y tienen
sus coeficientes iguales. Por tanto
3
t1
2t
u

=
=
=
=

t
2v
u+1
t+w

De aqu se obtiene, t = 3, v = 1, u = 5 y w = 2. Entonces las matrices son


iguales e iguales a la matriz

3 2
6 5

3.2.

Espacio vectorial de las matrices

Sea K un cuerpo conmutativo. Las operaciones que vamos a definir a continuacin tienen como objetivo dotar al conjunto Mmn (K) de una estructura
de espacio vectorial sobre K.

3.2.1.

Suma de matrices

Definicin 39 Sean A = (aij ) y B = (bij ) dos elementos cualesquiera de


Mmn (K). Se define la adicin de A y B como la matriz C = (cij ) de
Mmn (K) tal que cij = aij + bij para todo i = 1, 2, ..., m y j = 1, 2, ..., n.
Simblicamente escribimos
A + B = C aij + bij = cij
A la matriz A + B se la llama suma de A y B.
Teorema 46 El conjunto Mmn (K) dotado con la adicin de matrices es un
grupo conmutativo.
Demostracin: Es fcil comprobar los axiomas de grupo:
1.

Asociativa: Para todo A, B, C Mmn (K) se cumple


A + (B + C) = (A + B) + C

2.

Conmutativa: Para todo A, B Mmn (K) se cumple


A+B =B+A

Els autors, 2002; Edicions UPC, 2002

3.2. ESPACIO VECTORIAL DE LAS MATRICES


3.

77

Elemento neutro: La matriz llamada nula, cuyos elementos son todos


iguales e iguales al cero de K, es el elemento neutro. Esta matriz se
denota por O = (0) y cumple
A+O =O+A=A
para todo A Mmn (K); obsrvese que hay una matriz nula para cada
orden de las matrices.

4.

Elemento opuesto: Una matriz admite siempre una matriz opuesta. Se


llama matriz opuesta de A a la matriz que denotamos por A cuyos
coeficientes son los opuestos de los elementos de A en K. Si A = (aij ),
entonces A = (aij ). Se cumple que
A + (A) = (A) + A = O
para cada A Mmn (K).

Ejemplo 62 La matriz suma de dos matrices del mismo orden se calcula sumando cada coeficiente de una con el correspondiente coeficiente de la otra:


1 2 3
0 4 8
1 2 5
=
+
0 1 4
1 1 4
1 0 8

3.2.2.

Multiplicacin escalar de matrices

Definicin 40 Sea A = (aij ) un elemento de Mmn (K) y K. Se define la


multiplicacin escalar A como la matriz B = (bij ) de Mmn (K) tal que
bij = aij para todo i = 1, 2, ..., m y j = 1, 2, ..., n. Simblicamente escribimos
A = B aij = bij
A la matriz A se la llama producto de por A.
Teorema 47 La multiplicacin escalar de matrices cumple las siguientes propiedades:
1.

(A + B) = A + B

2.

( + )A = A + A

3.

()A = (A)

4.

1A = A

para todo , K y A, B Mmn (K); hemos denotado por 1 la unidad de


K.
Demostracin: Es una simple comprobacin.

Els autors, 2002; Edicions UPC, 2002

78

CAPTULO 3. MATRICES

Ejemplo 63 El producto de un nmero por una matriz se calcula multiplicando


cada coeficiente de la matriz por dicho nmero:

1
2
0
3 4 2

6
12
0
18 24 12

Como consecuencia de los dos teoremas anteriores tenemos el siguiente resultado.

Teorema 48 El conjunto Mmn (K) dotado con las operaciones de adicin y


de multiplicacin escalar tiene estructura de espacio vectorial sobre K.
Demostracin: Es consecuencia inmediata de los dos teoremas anteriores.

Observacin 41 El hecho de que Mmn (K) sea un espacio vectorial permite


que todos las nociones relativas a los espacios vectoriales puedan aplicarse a las
matrices: combinacin lineal, dependencia e independencia lineal, base, dimensin, etc.

Teorema 49 El espacio vectorial de las matrices Mmn (K) es de dimensin


m n.
Demostracin: Sea A cualquier elemento de Mmn (K), se tiene
A=

n X
m
X

aij Eij

j=1 i=1

siendo Eij una matriz de Mmn (K) que tiene todos sus coeficientes nulos, salvo
el que est situado en la interseccin de la fila i con la columna j y que es igual
a la unidad de K

0
.. . .
.
.

Eij =

.
..
0

0
..
.
1
.. . .
.
.
0

Els autors, 2002; Edicions UPC, 2002

0
..
.

..
.
0

3.2. ESPACIO VECTORIAL DE LAS MATRICES

79

En efecto,

a11
a21
..
.

..
.

a1n
a2n
..
.

1 0

0 0

A =
= a11 .. .. . .

. .
.
am1 am2 amn
0 0

0 0 1
0 0
0 0 0
0 0

a1n . . .
+ + am1 . . .
. . ...
..
.. ..

.. ..
0 0 0
1 0

0 0 0
0 0 0

amn . . .
. . ...
.. ..

a12
a22
..
.

0 0

0
0
..
.

+ +

0
0
..
.
0

+ +

De esto se sigue que estas m n matrices Eij forman un sistema generador


del espacio vectorial Mmn (K); adems, por la forma que tienen es inmediato
comprobar que son independientes. En efecto,
n X
m
X

ij Eij = (ij ) = (0) = ij = 0

j=1 i=1

para todo i = 1, 2, ..., n y j = 1, 2, ..., m.


Por tanto, (Eij : i = 1, 2, ..., m; j = 1, 2, ..., n) es una base de Mmn (K); a
esta base se la llama base natural o cannica de Mmn (K).
Ejemplo 64 La base cannica de M2 (R) es

1 0
0 1
0 0
0 0
,
,
,
0 0
0 0
1 0
0 1
Obsrvese que cualquier matriz, como por ejemplo

1 5
A=
2 8
se escribe como combinacin lineal de las matrices de esta base

1 5
1 0
0 1
0 0
0 0
= 1
+5
2
+8
=
2 8
0 0
0 0
1 0
0 1
= E11 + 5E12 2E21 + 8E22
Ejemplo 65 Probar que el conjunto T de las matrices triangulares inferiores
de Mn (K) forman un subespacio vectorial de Mn (K). Probar tambin que su
dimensin es n(n + 1)/2.

Els autors, 2002; Edicions UPC, 2002

80

CAPTULO 3. MATRICES

Demostracin: Es claro que O


inferiores de Mn (K), entonces

a11
0
a21 a22

A+B = .
..
..
..
.
.

an1

an2

a11 + b11
a21 + b21

=
..

.
an1 + bn1

T . Si A, B son dos matrices triangulares


0
0
..
.
ann

0
a22 + b22
..
.

an2 + bn2

..
.

b11
b21
..
.

0
b22
..
.

..
.

0
0
..
.

bn1

bn2

bnn

0
0
..
.
ann + bnn

es decir, la matriz A + B es una matriz triangular. Adems


a11
a11
0
0
0

a21 a22
a21 a22
0


A = .
..
.. = ..
..
..
..
..
.
.
.
. .
.
an1 an2 ann
an1 an2

0
0
..
.
ann

es decir, la matriz A es una matriz triangular. Por tanto, T es un subespacio


de Mn (K).
Observemos que si A T , entonces

a11
1 0 0
0 0
0
0
a21 a22

0 0 0
1 0
0

A = .
..
.. = a11 .. .. . .
. + a21 .. .. . .
..
..
. .
. .
.
. ..
.
.
.
an1

a22

an2

0 0
0 1
.. .. . .
.
. .
0 0

ann
0

.. + + ann

.
0

0 0
0 0
.. .. . .
.
. .
0 0

0
0
..
.

0 0

0
0
..
.
0

es decir, las matrices triangulares E11 , E21 , E22 , E31 , ..., Enn forman un sistema
generador de T . Es claro que por su forma son tambin linealmente independientes. Por tanto, constituyen una base de T . Su dimensin es
dim T = 1 + 2 + 3 + + (n 1) + n =

n(1 + n)
2

obsrvese la sucesin de elementos de la base (E11 , E21 , E22 , E31 , E32 , E33 , E41 , ..., Enn ).

3.3.

Matriz asociada a una aplicacin lineal

Sean E y F dos espacios vectoriales de dimensiones finitas sobre un cuerpo


K. Supongamos que B = (u1 , ..., un ) y B0 = (v1 , ..., vm ) son bases de E y F

Els autors, 2002; Edicions UPC, 2002

3.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL

81

respectivamente. Sabemos que una aplicacin lineal f : E F queda unvocamente determinada al expresar los vectores f (u1 ), ..., f (un ) en la base B0 de F.
De este modo, tenemos
f (ui ) = a1i v1 + + ami vm (i = 1, ..., n)
Definicin 41 Se llama matriz de f respecto de las bases B de E y B0 de F a
la matriz de orden m n con coeficientes en K cuya columna i sima est
constituida por las coordenadas de f (ui ) (i = 1, ..., n) en la base B0 de F.

A esta matriz se la llama tambin matriz asociada a la aplicacin lineal f en


las bases de E y F. Es frecuente denotarla por M(f,B,B0 ) , o simplemente, Mf ,
cuando no haya confusin posible.
Teorema 50 Sean E y F dos espacios vectoriales de dimensiones finitas sobre
un cuerpo K. Supongamos que B = (u1 , ..., un ) y B0 = (v1 , ..., vm ) son bases de
E y F respectivamente. Dada una aplicacin lineal f : E F , la aplicacin
: L(E, F) Mmn (K)
definida por
(f ) = M(f,B,B0 )
es biyectiva.
Demostracin: Fijadas las bases B = (u1 , ..., un ) y B0 = (v1 , ..., vm ) de E y
F, respectivamente. Dada cualquier matriz A = (aij ) de Mmn (K), sta define
de manera nica n vectores de F por las siguientes frmulas
wj = a1j v1 + + amj vm (j = 1, ..., n)
Entonces sabemos que existe una aplicacin f : E F , y slo una, tal que
f (uj ) = wj (j = 1, ..., n). Obsrvese entonces que A es la matriz asociada a f
en las bases consideradas.
Observacin 42 En particular, toda matriz de Mmn (K) puede ser considerada como la matriz asociada a la aplicacin lineal de Kn en Km referidos a sus
respectivas bases cannicas.

Els autors, 2002; Edicions UPC, 2002

82

CAPTULO 3. MATRICES

Ejemplo 66 Sea f : R2 R3 una aplicacin lineal definida por


f (x, y) = (x + y, x + y, x + y)
Hallar su matriz asociada a las bases cannicas de R2 y R3 .
Solucin: Se cumple
f (1, 0) = (1, 1, 1)
f (0, 1) = (1, 1, 1)
Por tanto,

1 1
Mf = 1 1
1 1

Ejemplo 67 Dada la matriz


M=

1 2 3
0 1 1

Escribir la aplicacin lineal asociada a esta matriz.


Solucin: Es claro que M M23 (R). Por tanto, f : R3 R2 y cumple
f (e1 ) = e01
f (e2 ) = 2e01 e02
f (e3 ) = 3e01 + e02
Por tanto,
f (x, y, z) = xf (e1 ) + yf (e2 ) + zf (e3 )
= xe01 + y(2e01 e02 ) + z(3e01 + e02 )
= (x + 2y + 3z)e01 + (y + z)e02
es decir,
f (x, y, z) = (x + 2y + 3z, y + z)

3.4.

Producto de matrices

Sean E, F, G tres espacios vectoriales de dimensiones respectivas m, n, p sobre


K, y supongamos que (ui : i = 1, ..., n), (vj : j = 1, ..., m), (wk : k = 1, ..., p) son
bases de E, F y G, respectivamente. Consideremos las tres aplicaciones lineales
f, g, g f

Els autors, 2002; Edicions UPC, 2002

3.4. PRODUCTO DE MATRICES

83

y las tres matrices asociadas en las bases dadas Mf = (ij ), Mg = ( jk ) y


Mgf = ( ik ). Observemos que Mf Mmn (K), Mg Mpm (K) y Mgf
Mpn (K) y que
p
X

(g f )(ui ) =

k=1
m
X

f (ui ) =

j=1
p
X

g(vj ) =

ki wk
ji vj
kj wk

k=1

Entonces
(g f )(ui ) = g(f (ui )) = g(
=

m
X

ji

p
X

m
X

ji vj ) =

j=1

kj wk =

j=1
k=1
p X
m
X

ji kj wk =

k=1 j=1

Por tanto
ki =

m
X

m
X

ji g(vj )

j=1

p
m X
X

ji jk wk
j=1 k=1
p
m
X
X
wk

k=1

ji kj

j=1

ji kj

j=1

que se puede representar por el esquema siguiente

Obsrvese que el coeficiente ki de la matriz de Mgf se obtiene de los elementos

Els autors, 2002; Edicions UPC, 2002

84

CAPTULO 3. MATRICES

de la fila k de Mg (factor de la izquierda) y de los elementos de la columna i de


Mf (factor de la derecha); se dice entonces que se ha efectuado el producto de
la fila k por la columna i. De este modo, tenemos el resultado siguiente
Mgf = Mg Mf
y, en general, la siguiente definicin.
Definicin 42 Dadas las matrices A = (aik ) de Mmp (K) y B = (bkj ) de
Mpn (K), se define la multiplicacin de A y B como la matriz C de Mmn (K)
tal que
cij = ai1 b1j + ai2 b2j + + aip bpj

(i = 1, ..., m; j = 1, ..., n)

Simblicamente escribimos
AB = C cij = ai1 b1j + ai2 b2j + + aip bpj
A la matriz AB se la llama producto de A y B.
Observacin 43 La multiplicacin de dos matrices es una operacin que no
siempre puede realizarse. Para que pueda hacerse se ha de cumplir la siguiente
condicin: el nmero de columnas de la primera matriz (factor de la izquierda)
ha de coincidir con el nmero de filas de la segunda matriz (factor de la derecha).
Si A es una matriz de orden m p, entonces slo podemos multiplicarla por una
matriz B que sea del orden p n. En tal caso, la matriz producto A B es de
orden m n. Es importante pues observar bien como estn puestos los nmeros
m, n y p de los rdenes de las matrices.
La operacin se efecta de la siguiente manera: si designamos por C la matriz
que resulta de la multiplicacin de A por B, tenemos
cij = ai1 b1j + ai2 b2j + + ain bnj
es decir, multiplicamos trmino a trmino la fila i de A por la columna j de B,
sumando despus todos los productos efectuados.
Ejemplo:

1
2
1 2 3
0 1 =
2 1 3
1 5

1 1 + (2) 0 + 3 (1) 1 2 + (2) (1) + 3 5


=
2 1 + 1 0 + (3) (1) 2 2 + 1 (1) + (3) 5

2 19
5 12
Observemos los rdenes: 2 3 por 3 2 debe obtenerse 2 2.

Els autors, 2002; Edicions UPC, 2002

3.5. IMAGEN DE UN VECTOR POR DE UNA APLICACIN LINEAL 85

3.5.

Imagen de un vector por de una aplicacin


lineal

Teorema 51 Sean E y F dos espacios vectoriales de dimensiones finitas sobre


0
un cuerpo K. Supongamos que B = (u1 , ..., un ) y B = (v1 , ..., vm ) son bases de E
y F respectivamente. Sea f : E F una aplicacin lineal que tiene como matriz
0
asociada en las bases B y B la matriz A = (aij ) Mmn (K). Consideremos
que (x1 , ..., xn ) son las coordenadas de v en B y (y1 , ..., ym ) son las coordendas
de f (v) en B0 . Entonces se cumple la siguiente frmula matricial

a11
..
.
am1

a1n
..
.
amn

..
.


x1
.. =
.
xn

y1
..
.
ym

Demostracin: En efecto, puesto que


v = x1 u1 + + xn un
entonces,
f (v) = x1 f (u1 ) + + xn f (un )
Esta ecuacin puede

y1
..
.

ym

donde

escribirse matricialmente como sigue

a11
a1n

.
.
= x1 .. + + xn ..
am1
amn

x1

.
A11 A1n ..
=
xn

a1i

A1i = ... (i = 1, ..., n)


ami

Ahora bien

A11

A1n

a11
.
= ..
am1

a1n

..
=A
.
amn

Por tanto, tenemos la siguiente frmula matricial para calcular la imagen de un


vector
Y = AX

Els autors, 2002; Edicions UPC, 2002

86

CAPTULO 3. MATRICES

siendo

x1

X = ...
xn

y1

Y = ...
ym

Ejemplo 68 Dadas las matrices

1 0 3 2
2 0 1
1 2 3
A=
, B = 1 1 2 , C = 3 1 2 1
3 1 2
2 0 1 1
1 3 1
comprobar que

(AB)C = A(BC)
Solucin: Se tiene por un lado

2
1 2 3
1
AB =
3 1 2
1

1 0
3 7 8
3 1
(AB)C =
5 7 3
2 0

por otro lado

2 0 1
BC = 1 1 2
1 3 1

1 2 3
A(BC) =
3 1 2

3.6.

0 1
3
1 2 =
5
3 1

3 2
34

2 1
=
32
1 1


1 0 3 2
3 1 2 1 =
2 0 1 1

4
0 7 3
0 1 3 3 =
10 3 4 6

7 8
7 3

7 13 21
7 32
0

4
0 7 3
0 1 3 3
10 3 4 6
34 7 13 21
32 7 32
0

El anillo de las matrices cuadradas

Teorema 52 El conjunto Mn (K) de las matrices cuadradas de orden n sobre


K, provisto de las operaciones de adicin y multiplicacin es un anillo unitario, no conmutativo, que posee divisores de cero, isomorfo al anillo L(E), con
dim E = n.
Demostracin: Segn el teorema 5, Mn (K) puede considerarse como el conjunto de las matrices asociadas a los endomorfismos del espacio vectorial E de
dimensin n sobre K. La biyeccin
: L(E)
Mn (K)
f
(f ) = Mf

Els autors, 2002; Edicions UPC, 2002

3.6. EL ANILLO DE LAS MATRICES CUADRADAS

87

nos permite definir sobre Mn (K) dos operaciones internas A + B y AB, adicin
y multiplicacin de matrices respectivamente. Esta biyeccin y la estructura de
anillo de L(E) nos muestran que Mn (K), provisto de las operaciones de adicin
y multiplicacin de matrices, tiene tambin estructura de anillo y que estos dos
anillos son isomorfos.
La unidad de este anillo es la matriz asociada a la identidad de E, es decir,
la matriz In . Como L(E), este anillo no es conmutativo, como se puede ver en
el siguiente ejemplo

1 1
0 1
1 1
=
0 1
1 0
1 0

0 1
1 1
0 1
=
1 0
0 1
1 1
Igual que L(E), Mn (K) tiene divisores de cero. El siguiente ejemplo muestra
este hecho

1 0
0 0
0 0
=
0 0
1 1
0 0
Observacin 44 De este teorema, se sigue que las matrices cuadradas de orden
n sobre K satisfacen las siguientes propiedades:
1.

(AB)C = A(BC)

2.

AB 6= BA

3.

AIn = In A = A

4.

A(B + C) = AB + AC y (A + B)C = AC + BC

5.

AB = O no implica A = O o B = O

6.

AB = AC no implica B = C

7.

An = AAn1 , para todo nmero natural n > 1

Teorema 53 Si f es un automorfismo de un espacio vectorial E de dimensin


n sobre K, entonces se cumple
Mf 1 = Mf1
Demostracin: En efecto, si f es un automorfismo, existe f 1 , y satisface la
siguiente relacin
f f 1 = f 1 f = IdE
conduce
Mf Mf 1 = Mf 1 Mf = In
y, por tanto, Mf 1 =

Mf1 .

Els autors, 2002; Edicions UPC, 2002

88

CAPTULO 3. MATRICES

Definicin 43 Dada una matriz A de Mn (K), se dice que A tiene inversa o


que es inversible, si existe una matriz B de Mn (K) tal que
AB = BA = In
En tal caso la matriz B se representa por A1 y se llama la matriz inversa
de A.
Recurdese que el conjunto de automorfismos de un espacio vectorial E sobre
un cuerpo conmutativo K es un grupo respecto a la composicin de aplicaciones.
Este grupo se llama grupo lineal de E y se representa por GL(E).
Teorema 54 El conjunto de las matrices inversibles de Mn (K) es un grupo no
conmutativo isomorfo a GL(E).
Demostracin: La biyeccin f 7 Mf establecida en el teorema 5 demuestra
enseguida este hecho.
Observacin 45 Si dos matrices A, B de Mn (K) son inversibles, se sigue que:
1.
2.
3.

A1 es nica
1 1
=A
A
(AB)

= B 1 A1

Es una simple consecuencia de que las matrices inversibles de Mn (K) forman un grupo.
Ejemplo 69 Demostrar que la matriz

1 1 1
A= 1 1 1
1 1 1

verifica la relacin An = 3n1 A.


Solucin: La demostracin es por induccin. Para n = 1, es claro que se
cumple ya que A = A. Supongamos que la relacin es cierta para n 1, es decir,
An1 = 3n2 A. Entonces
An = AAn1 = A(3n2 A) = 3n2 A2

Ahora bien,

Por tanto,

1 1 1
3 3 3
A2 = 1 1 1 = 3 3 3 = 3A
1 1 1
3 3 3

An = 3n2 (3A) = 3n1 A

Els autors, 2002; Edicions UPC, 2002

3.6. EL ANILLO DE LAS MATRICES CUADRADAS

89

Ejemplo 70 Demostrar que la matriz

2 1
A=
1 2
verifica la ecuacin A2 + A + I2 = O, determinando los valores de y .
Calcular A1 , si existe.
Solucin: Se tiene entonces

2 1
2 1
1 0
0 0
+
+
=
1 2
1 2
0 1
0 0
Ahora bien,

2 1
1 2

5 4
4 5

por tanto, de la ecuacin anterior se sigue que

5 + 2 +
4+
0 0
=
4+
5 + 2 +
0 0
luego
5 + 2 + = 0
4+ = 0
de donde = 4 y = 3. Entonces A satisface la ecuacin siguiente
A2 4A + 3I2 = O
Multiplicando la igualdad por A1 , suponiendo que existe, se tiene
A 4I2 + 3A1 = O
Por tanto,
A1 =
es decir
A1 =

1
3

1
(4I2 A)
3

2 1
1 2

Obsrvese que
1

AA

1
=
3

2 1
1 2

2 1
1 2

1
=
3

3 0
0 3

Els autors, 2002; Edicions UPC, 2002

= I2

90

CAPTULO 3. MATRICES

3.7.

Trasposicin de matrices

Definicin 44 En el conjunto Mmn (K) se define una operacin que recibe el


nombre de trasposicin. Hallar la traspuesta de una matriz A de Mmn (K), es
formar otra matriz At de Mnm (K) que se obtiene a partir de A cambiando sus
filas por sus columnas. De manera general, A = (aij ) se convierte en At = (a0ij )
con a0ij = aji , i = 1, ..., n, j = 1, ..., m. A la matriz At se le llama traspuesta
de A.
Observacin 46 Si E y F son dos espacios vectoriales de dimensiones finitas
sobre K, E y E , espacio dual de E, estn referidos a dos bases duales, as como
F y F , entonces se cumple que
Mf t = (Mf )

para todo f L(E, F).


Teorema 55 De la definicin, se obtienen las siguientes propiedades:
1.

La trasposicin es una aplicacin biyectiva de Mmn (K) en Mnm (K)

2.

(At )t = A, para todo A Mmn (K)

3.

(A + B)t = At + B t , para todo A, B Mmn (K)

4.

(A)t = At , para todo K y A Mmn (K)

5.

(AB)t = B t At

Demostracin: (1) Es inmediato por la forma en que se efecta la trasposicin


de matrices.
t
(2) Si A = (aij ), entonces At = (aji ) y, por tanto, (At ) = (aij ) = A.
(3) Si A = (aij ) y B = (bij ), entonces A + B = C = (cij ) y cij = aij + bij .
Por tanto, (A + B)t = C t = (cji ) = (aji + bji ) = (aji ) + (bji ) = At + B t .
(4) Si A = (aij ), entonces A = C y cij = aij . Por tanto, (A)t = C t =
(cji ) = (aji ) = (aji ) = At .
(5) Si A = (aij ) y B = (bij ), entonces AB = C = (cij ) y
cij = ai1 b1j + ai2 b2j + + ain bnj
Por tanto,
(AB)t

=
=
=
=

C t = (cji )
(aj1 b1i + aj2 b2i + + ajn bni )
(b1i aj1 + b2i aj2 + + bni ajn )
B t At

Els autors, 2002; Edicions UPC, 2002

3.7. TRASPOSICIN DE MATRICES

91

Definicin 45 Una matriz cuadrada A = (aij ) de orden n se llama simtrica


si cumple aij = aji , i = 1, ..., n y j = 1, ..., n. La matriz se llama antisimtrica
si se cumple aij = aji , i = 1, ..., n y j = 1, ..., n.
Teorema 56 Sea A = (aij ) una matriz cuadrada de orden n. Entonces se
cumplen las siguientes propiedades:
1.

A es simtrica si y slo si At = A

2.

A es antisimtrica si y slo si At = A

3.

Si A es antisimtrica, entonces todos los elementos de la diagonal principal


son nulos

4.

A es descomponible en suma de una matriz simtrica y otra antisimtrica

Demostracin: (1) Si A = (aij ) es simtrica, entonces A = (aij ) = (aji ) = At .


Recprocamente, si At = A, entonces es claro que la matriz es cuadrada y de
orden el de A. Adems, de At = A se sigue que aij = aji .
(2) Si A = (aij ) es antisimtrica, entonces A = (aij ) = (aji ) = (aji ) =
At . Recprocamente, si At = A, entonces es claro que la matriz es cuadrada
y de orden el de A. Adems, de At = A se sigue que aji = aij , o sea que
aij = aji .
(3) Si A = (aij ) es antisimtrica, entonces A = (aij ) = (aji ). Por tanto,
aii = aii , luego aii = 0 para todo i = 1, ..., n.
(4) Es claro que la matriz 12 (A + At ) es simtrica, pues

t
1
1
(A + At ) = (At + A)
2
2

y que la matriz 12 (A At ) es antisimtrica, pues

1
(A At )
2

1
1 t
t
= (A A) = (A A )
2
2

y adems se cumple que


A=

1
1
(A + At ) + (A At )
2
2

y, en consecuencia, toda matriz cuadrada puede descomponerse en suma de una


matriz simtrica y otra antisimtrica.
Ejemplo 71 Dadas dos matrices A, B Mn (K), probar que
1.

AAt y At A son simtricas

2.

A, B simtricas no implica AB simtrica


t

1
Si A es inversible, entonces (At ) = A1

3.

Els autors, 2002; Edicions UPC, 2002

92
4.

CAPTULO 3. MATRICES
Si A y B son simtricas, entonces AB es simtrica si y slo si AB = BA
Solucin: (1) En efecto,
t
(AAt )t = At At = AAt

y del mismo modo se prueba que At A es tambin simtrica.


(2) En efecto, consideremos las matrices simtricas siguientes

1 1
1 2
A=
yB=
1 1
2 1
entonces
AB =

1 2
2 1

1 1
1 1

que no es simtrica.
(3) Si A es inversible, existe A1 . Entonces

1 3
3 1

AA1 = I
de donde
(A1 A)t = At (A1 )t = I
t

1
Por tanto, (At ) = A1 .
(4) Si AB es simtrica, entonces
AB = (AB)t = B t At = BA = BA
luego, A y B conmutan. Recprocamente, si AB = BA, entonces
(AB)t = B t At = BA = AB
por tanto, AB es una matriz simtrica.

3.8.

Cambios de base en un espacio vectorial

Teorema 57 Si B1 = (u1 , ..., un ) y B2 = (v1 , ..., vn ) son dos bases de un espacio vectorial E sobre K, la matriz P que tiene por columna i las coordenadas
de vi respecto de la base B1 es inversible; se le llama la matriz de cambio o
paso de la base B1 a la base B2 y se cumple
X = PY

Y = P 1 X

donde X y Y son las matrices columna asociadas a un vector v de E, X son


las coordenadas de v en la base B1 y Y son las coordenadas de v en la base B2 .
Demostracin: Consideremos la identidad de E
B2
E
vi

IdE B1
E
vi = 1i u1 + + ni un (i = 1, ..., n)

Els autors, 2002; Edicions UPC, 2002

3.8. CAMBIOS DE BASE EN UN ESPACIO VECTORIAL

93

que es un automorfismo de E. Segn la definicin 9, este automorfismo tiene


como matriz asociada en la base B2 en el espacio de salida y B1 en el espacio
de llegada, la siguiente matriz

11 1n

..
..
P = ...
.
.
n1

nn

que tiene por columna i las coordenadas de vi respecto de la base B1 . Segn


el teorema 8, P es una matriz inversible. Si designamos por (x1 , ..., xn ) las
coordenadas de un vector v de E en la base B1 y por (y1 , ..., yn ) las coordenadas
del mismo vector en la base B2 , se cumple
v = x1 u1 + + xn un = y1 v1 + yn vn
Segn el teorema 6, podemos escribir esta igualdad en forma matricial como
sigue
PY = X
o bien
Y = P 1 X

Observacin 47 Cuando se pasa de una base B a otra base B se dice algunas veces que B es la base antigua y B0 , la nueva. Tambin se dice que
(x1 , ..., xn ) son las coordenadas antiguas y (y1 , ..., yn ), las nuevas de v. Se
ve enseguida que la matriz de paso P da las coordenadas antiguas en funcin de
las nuevas.
Ejemplo 72 En R2 se consideran las bases B1 = (e1 , e2 ) , B2 = (u1 , u2 ) y
B3 = (v1 , v2 ) tales que
u1
u2

= e1
= 2e1 + e2

v1
v2

= e1
= e1 + 4e2

Obtener las componentes del vector u = 2u1 + 5u2 en la base B3 .


Solucin: Observemos el diagrama siguiente
R2
(ui )

IdR2

R2
(ei )

IdR2

R2
(vi )

Els autors, 2002; Edicions UPC, 2002

94

CAPTULO 3. MATRICES

siendo
A=
entonces

1 2
0 1

R2
(ui )
Por tanto
BA =
luego

1 14
0 14

1
0

7
4
1
4

yB=
IdR2

BA

2
5

1 14
0 14

R2
(vi )

1 2
0 1

43
4
5
4

1
0

7
4
1
4

Por consiguiente
u=

3.9.

43
5
v1 + v2
4
4

Cambios de base en una aplicacin lineal

Teorema 58 Dados dos espacios vectoriales E, F de dimensiones finitas sobre


K, B1 y B10 dos bases de E, B2 y B20 dos bases de F, P la matriz de paso de B1
a B10 y Q la matriz de paso de B2 a B20 , entonces para toda aplicacin lineal f
de E en F se cumple que
A0 = Q1 AP
siendo A = M(f,B1 ,B2 ) y A0 = M(f,B10 ,B20 ) .
Demostracin: Consideremos el diagrama
E
B10

IdE
E
P
B1

f
F
A B2

IdF

Q1

F
B20

entonces tenemos
f = IdF f IdE
Por tanto
A0 = Q1 A P

Observacin 48 Se puede operar directamente sobre las matrices. Supongamos


que X y X 0 son las coordenadas un vector de E en las bases B1 y B10 respectivamente, y Y y Y 0 son las coordenadas de un vector de F en las bases B2 y B20 .
As tenemos, segn el teorema 6, que
Y = AX

Els autors, 2002; Edicions UPC, 2002

3.9. CAMBIOS DE BASE EN UNA APLICACIN LINEAL

95

y
Y 0 = A0 X 0
Por tanto
QY 0 = AP X 0
de donde multiplicando por la izquierda por Q1 se sigue que
Y 0 = Q1 AP X 0
Por tanto
A0 X 0 = Q1 AP X 0
es decir
(A0 Q1 AP )X 0 = O

para todo X 0 . Aplicando esta ltima frmula a las matrices columna asociadas
a los m vectores de B10 se deduce que
A0 = Q1 AP
Corolario 15 Para todo endomorfismo f de E se tiene
A0 = P 1 AP
siendo A y A0 las matrices asociadas a f respecto a la base B1 y B10 , respectivamente; y P la matriz de paso de B1 a B10 .
Demostracin: Es inmediato a partir del teorema 13.
Ejemplo 73 Obtener la matriz asociada a una aplicacin lineal f : R2 R3
definida por
f (1, 2) = (1, 1, 2)
f (2, 3) = (2, 10, 1)
al expresarla en la base B1 = ((1, 1), (1, 3)) de R2 y B2 = ((1, 0, 1), (1, 1, 0), (0, 0, 2))
de R3 .
Solucin: Supongamos que B0 = (e1 , e2 ) y B00 = (u1 , u2 , u3 ) son las bases
cannicas de R2 y R3 respectivamente. Entonces
f (1, 2) = f (e1 ) + 2f (e2 ) = u1 + u2 + 2u3
f (2, 3) = 2f (e1 ) + 3f (e2 ) = 2u1 + 10u2 + u3
De aqu se obtiene
f (e1 ) = (1, 17, 4) = u1 + 17u2 4u3
f (e2 ) = (0, 8, 3) = 8u2 + 3u3
Por tanto la matriz asociada a f en las bases cannicas de R2 y R3 es la siguiente

1
0
A = 17 8
4 3

Els autors, 2002; Edicions UPC, 2002

96

CAPTULO 3. MATRICES

Observemos el siguiente diagrama


R2
B1

IdR2

R2
B0

donde
P =
y
Q1

f
R3
A B00

1 1
1 3

IdR3

Q1

R3
B2

1
1 1 0
1
= 0 1 0 = 0
12
1 0 2

1
1
1
2

0
0
1
2

En esta misma unidad se expone un mtodo para hallar la matriz inversa. Aqu
suponemos que ya se conoce y simplemente damos el resultado. Por tanto

1 1 0
1
0
1 1
1 0 17 8
Q1 AP = 0
1 3
1
1
4 3
1
2
2
2
8 8
= 9 7
7
32
2

3.9.1.

Matrices equivalentes

Definicin 46 Dadas dos matrices A, B Mmn (K), se dice que A y B son


equivalentes si existen dos matrices inversibles P Mn (K) y Q Mm (K)
que verifican la siguiente relacin
B = QAP
Observacin 49 Por el teorema 13, es inmediato observar que dos matrices de
Mmn (K) son equivalentes si y slo si estn asociadas a la misma aplicacin
lineal de E en F, con dim E = n y dim F = m.
Teorema 59 La relacin binaria entre matrices de Mmn (K) segn la cual
A, B Mmn (K) estn relacionadas si y slo si A, B son equivalentes, es una
relacin de equivalencia sobre Mmn (K).
Demostracin: En efecto, la relacin es reflexiva ya que para todo A Mmn (K)
se cumple
A = Im AIn
La relacin es simtrica ya que para todo A, B Mmn (K), de
B = QAP

Els autors, 2002; Edicions UPC, 2002

3.9. CAMBIOS DE BASE EN UNA APLICACIN LINEAL

97

se deduce
Q1 BP 1 = A
La relacin es transitiva ya que para todo A, B, C Mmn (K), de
B = QAP
y
C = RBS
entonces
C = R(QAP )S = (RQ) A(P S)
siendo RQ Mm (K) y P S Mn (K), matrices inversibles.

3.9.2.

Matrices semejantes

Definicin 47 Dadas dos matrices cuadradas A, B Mn (K), se dice que A y


B son semejantes si existe una matriz inversible P Mn (K) tal que
B = P 1 AP
Observacin 50 Del corolario 1 se deduce que dos matrices cuadradas de orden
n sobre K son semejantes si y slo si estn asociadas al mismo endomorfismo
de un espacio vectorial de dimensin n sobre K. Por este motivo, el objetivo en
las unidades de diagonalizacin y forma cannica de Jordan ser el de encontrar
una base respecto de la cual la matriz asociada a un endomorfismo sea la ms
simple posible.
Teorema 60 La relacin binaria entre matrices de Mn (K) segn la cual A, B
Mn (K) estn relacionadas si y slo si A, B son semejantes, es una relacion de
equivalencia sobre Mn (K).
Demostracin: En efecto, la relacin es reflexiva ya que para todo A Mn (K)
se cumple
A = (In )1 AIn
La relacin es simtrica ya que para todo A, B Mn (K), de
B = P 1 AP
se deduce

1 1
P
BP 1 = A

La relacin es transitiva ya que para todo A, B, C Mn (K), de


B = P 1 AP
y
C = Q1 BQ
entonces
C = Q1 (P 1 AP )Q = (P Q)

A(P Q)

Els autors, 2002; Edicions UPC, 2002

98

CAPTULO 3. MATRICES

3.10.

Rango de una matriz

Definicin 48 Dada una matriz A de Mmn (K) se llama rango de A y se


designa por rang A, el rango del sistema de Km formado por los vectores columna de A.
Teorema 61 Si A es la matriz asociada a una aplicacin lineal f de E en F,
entonces los cuatro nmeros siguientes son iguales:
1.

rango del sistema de Km formado por los vectores columna de A

2.

rango del sistema de Kn formado por los vectores fila de A

3.

dim Im f

4.

dim Im f t , donde f t representa la aplicacin traspuesta de f

Demostracin: Sabemos que el rang A es el nmero mximo de vectores columna de A linealmente independientes. Supongamos que dim E = n y (ui : i =
1, ..., n) una base de E, y dim F = m, si A es la matriz asociada a la aplicacin
lineal f , entonces los vectores columna de A representan los n vectores f (ui ) de
F y, como que Im f = hf (u1 ), ..., f (un )i, se tiene
rang A = dim Im f
y rang A inf{n, m}, ya que Im f F. Por otra parte, la aplicacin lineal f t ,
traspuesta de f , tiene asociada la matriz At en las bases duales de las consideradas en E y F. Entonces, el mismo razonamiento anterior hace que
rang At = dim Im f t
Obsrvese que los vectores columna de At son los vectores fila de A. Ahora bien,
sabemos que
dim Im f = dim Im f t
Por tanto se obtiene lo que queramos demostrar y adems se cumple que
rang A inf{n, m}

Definicin 49 Se llama matriz cannica de rango r de Mmn (K) a la


matriz siguiente

Els autors, 2002; Edicions UPC, 2002

3.10. RANGO DE UNA MATRIZ

99

Teorema 62 Todas las matrices de Mmn (K) de rango r son equivalentes a


la matriz cannica de rango r.
Demostracin: Sea A una matriz de Mmn (K) asociada a una aplicacin lineal f de un espacio vectorial E de dimensin n sobre K en otro F de dimensin
m sobre K. Si dim Im f = r, entonces sabemos que dim ker f = n r. Escojamos la base (u1 , ..., un ) de E de manera que (u1 , ..., ur ) sea una base de un
subespacio suplementario de ker f y (ur+1 , ..., un ) una base del ker f . Entonces
(f (u1 ), ..., f (ur )) es una base de Im f . Ampliemos esta base hasta obtener una
base de F (f (u1 ), ..., f (ur )), vr+1 , ..., vm ). Entonces la matriz asociada a f toma
la forma considerada en dichas bases.
Corolario 16 Para que dos matrices de Mmn (K) sean equivalentes es necesario y suficiente que sean del mismo rango.
Demostracin: En efecto, si son equivalentes, la dos matrices representan la
misma aplicacin lineal f respecto a bases diferentes, son pues del mismo rango,
el rango de f . Si tienen el mismo rango r, son equivalentes a la matriz cannica
de rango r de Mmn (K) y, en consecuencia, son equivalentes entre s.
Corolario 17 Para que una matriz cuadrada A de orden n sobre K sea inversible es necesario y suficiente que sea de rango n.
Demostracin: En efecto, A representa un endomorfismo f de un espacio
vectorial E de dimensin n sobre K. Si dim Im f = rang A = n = dim E,
entonces sabemos que f es un automorfismo y, por el teorema 8, A es inversible.
Recprocamente, si A es inversible, f es un automorfismo y, en consecuencia,
rang A = dim Im f = n.
Ejemplo 74 Sea f : R3 R3 un endomorfismo de R3 y B = (e1 , e2 , e3 ) una
base de R3 . Se define f por
f (e1 e2 ) = 0
f (e1 + e2 + e3 ) = 4e2 + 5e3
f (e2 + e3 ) = 3e2 + 3e3

Els autors, 2002; Edicions UPC, 2002

100

CAPTULO 3. MATRICES

Hallar la matriz asociada a f en esta base. Calcular su rango y deducir si es o


no inversible.
Solucin: Puesto que f es lineal, se sigue que
f (e1 ) f (e2 ) = 0
f (e1 ) + f (e2 ) + f (e3 ) = 4e2 + 5e3
f (e2 ) + f (e3 ) = 3e2 + 3e3
De estas relaciones se obtienen las siguientes
f (e1 ) = f (e2 ) = e2 + 2e3
f (e3 ) = 2e2 + e3
Por tanto, la matriz asociada a f en esta base es la matriz siguiente

0 0 0
A= 1 1 2
2 2 1
Sabemos que rang A = dim Im f = dim hf (e1 ), f (e2 ), f (e3 )i. Por tanto, debemos calcular el rango del sistema de R3 formado por las imgenes de los vectores
de la base, que son los vectores columna de la matriz A. Calcularemos este rango
por transformaciones elementales
f (e1 ) f (e2 ) f (e3 )
0
0
0
1
1
2
2
2
1

f (e1 ) f (e2 ) f (e1 ) f (e3 ) 2f (e1 )


0
0
0
1
0
0
2
0
3

f (e1 ) f (e3 ) 2f (e1 ) f (e2 ) f (e1 )


0
0
0
1
0
0
2
3
0

Por tanto, rang A = dim Im f = 2. La matriz A no tiene inversa ya que su


rango no es 3.

3.11.

Matrices elementales

En la unidad de los espacios vectoriales se vi como las transformaciones


elementales dejan invariante el rango de un sistema de vectores. Es natural
estudiar la aplicacin de estas transformaciones para las matrices.
Definicin 50 Una matriz elemental es una matriz cuadrada que resulta
de aplicar una transformacin elemental a las filas o columnas de la matriz
identidad.

Els autors, 2002; Edicions UPC, 2002

3.11. MATRICES ELEMENTALES

101

Tenemos as seis tipos de matrices elementales: 3 para filas y 3 para columnas.


Las matrices siguientes son ejemplos de matrices elementales

1
0

0
0

0
0
0
1

0
0
1
0

0
1

0
0

se han permutado las columnas 2 y 4 de I4

1 0 0
0 1 0
0 0 2

se ha multiplicado por -2 la columna 3 de I3

1
0

0
0

3
1
0
0

0
0
1
0

0
0

0
1

se ha sumado la columna 1, multiplicada por 3, a la columna 2 de I4 .

Teorema 63 Si A es una matriz de Mmn (K), cada transformacin elemental


efectuada sobre las filas de A puede expresarse como EA, donde E es la matriz
elemental de orden m correspondiente a la transformacin efectuada. Asimismo,
cada transformacin elemental efectuada sobre las columnas de A puede expresarse como AE, donde E es la matriz elemental de orden n correspondiente a
la transformacin efectuada.
Demostracin: Esto puede probarse por clculo directo del producto AE y EA
en cada caso. Consideremos, por ejemplo, la transformacin elemental de sumar
a la columna i la columna j multiplicada por un nmero k.

Els autors, 2002; Edicions UPC, 2002

102

CAPTULO 3. MATRICES

y as con el resto de transformaciones.


Corolario 18 Una matriz elemental E es una matriz inversible.
Demostracin: Cualquier matriz elemental E resulta de aplicar una cierta
transformacin elemental a las columnas (o filas) de la matriz identidad. La
transformacin inversa es tambin elemental y, en consecuencia, corresponde
a alguna matriz elemental E , y transforma E en I. Por el teorema 18, la
transformacin inversa efectuada sobre las columnas de E puede expresarse
como EE y, por tanto, EE = I. Asimismo, la transformacin E efectuada
sobre las columnas de E se expresa como E E y, por tanto, E E = I.
Definicin 51 Decimos que dos matrices A, B de Mmn (K) son equivalentes
por filas si puede obtenerse B a partir de A por una sucesin finita de transformaciones elementales aplicadas a sus filas.
Corolario 19 Si dos matrices A, B de Mmn (K) son equivalentes por filas,
entonces existe una matriz inversible Q de Mm (K) tal que B = QA.
Demostracin: Si A y B son equivalentes por filas, B se obtiene por transformaciones elementales de las filas de A. Por el teorema 18, se sigue que
B = Es Es1 E1 A
siendo Ei una matriz elemental, i = 1, ..., s. Tomando Q = Es Es1 E1 , y sabiendo que las matrices elementales son inversibles, se obtiene lo que queramos
demostrar.
Definicin 52 Diremos que una matriz A de Mmn (K) es reducida por filas
si

Els autors, 2002; Edicions UPC, 2002

3.11. MATRICES ELEMENTALES

103

1.

Cada fila no nula de A tiene un 1 como primer elemento

2.

Cada columna que contenga un 1 y ste sea el primer elemento de su fila,


tiene todos sus otros elementos nulos

Ejemplo 75 La siguiente matriz

0 0
1 0

0 1

0 0
0 0
es una matriz 5 6 reducida por

1
0

0
0

1
0
0
0
0

3
2
2
0
0

0
0
0
1
0

5
3
3
3
0

filas. En cambio, la matriz

0 2 3 0 4
1 0 1 1 1

0 0 0 1 0
0 0 0 0 2

no es reducida por filas ya que la cuarta fila no tiene como primer elemento 1
y tambin porque la cuarta fila tiene como primer elemento el 1 de la quinta
columna y no todos sus elementos son nulos.

Definicin 53 Diremos que una matriz A de Mmn (K) es escalonada reducida por filas si
1.

A es una matriz reducida por filas

2.

Las filas nulas de A se sitan debajo de todas las filas no nulas

3.

El primer 1 de cada fila se sita (de arriba a abajo) ms a la derecha que


el primer 1 de la fila inmediatamente superior.

Ejemplo 76 La matriz siguiente

1 0
0 1

0 0

0 0
0 0

0
0
1
0
0

2
2
3
0
0

0
0
0
1
0

3
3
5
3
0

es una matriz 5 6 escalonada reducida por filas. Esta matriz se ha obtenido


directamente de la matriz reducida del ejemplo 20 por permutaciones adecuadas
de sus filas.
Teorema 64 Cualquier matriz A de Mmn (K) es equivalente por filas a una
matriz escalonada reducida por filas.

Els autors, 2002; Edicions UPC, 2002

104

CAPTULO 3. MATRICES

Demostracin: Puesto que la demostracin es por induccin y sigue un mtodo


constructivo basado en la aplicacin sucesiva de las transformaciones elementales a las filas de la matriz, en lugar de hacer una demostracin general, proponemos hacer una ilustracin del mtodo mediante un ejemplo. Consideremos
la matriz

2 1 3 2
0 2 1 4

A=
4 2 3 9
2 3 4 5
Observemos que la primera fila no nula tiene como primer elemento un 2, colocado en la primera columna. Multipliquemos la primera fila por 1/2. As tenemos

1 12 32 1
0 2
1 4

4 2 3 9
2 3 4 5
Ahora sumamos la primera fila multiplicada
filas respectivamente. As tenemos

3
1 12
2
0 2
1

0 0 3
0 2 1

por 4 y 2 a la tercera y cuarta

1
4

5
3

Observemos que as hemos reducido cada uno de los otros elementos de la columna 1 a cero. Repitamos el mismo procedimiento con la segunda fila. Observamos
que el primer elemento no nulo es un 2, colocado en la segunda columna. Multipliquemos la segunda fila por 1/2. As tenemos

3
1 12
1
2
1
0 1
2
2

0 0 3 5
0 2 1 3
Ahora sumamos la segunda fila multiplicada por 4 a la cuarta, y la segunda fila
multiplicada por 1/2 a la primera; as tenemos

1 0 74 2
0 1 1 2
2

0 0 3 5
0 0 2 7

De nuevo hemos reducido cada uno de los restantes elementos de la segunda


columna a cero. Repitamos el proceso con la tercera fila. Multiplicamos la tercera
fila por 1/3, as tenemos

1 0 74
2
0 1 1
2
2

0 0 1 5
3
0 0 2
7

Els autors, 2002; Edicions UPC, 2002

3.11. MATRICES ELEMENTALES

105

Ahora sumamos la tercera fila multiplicada por 2 a la cuarta, la tercera fila


multiplicada por 1/2 a la segunda, y la tercera multiplicada por 7/4 a la
primera; as tenemos

1 0 0 59
12
0 1 0 17
6

0 0 1 5
3
0 0 0 31
3
Finalmente, multiplicamos la cuarta fila por 3/31 y as tenemos

1 0 0 59
12
0 1 0 17
6

0 0 1 5
3
0 0 0 1

ahora, sumamos la cuarta fila multiplicada por los nmeros correspondientes a


cada una de las otras filas y se obtiene la matriz escalonada reducida por filas
equivalente a la matriz dada

1 0 0 0
0 1 0 0

0 0 1 0
0 0 0 1
Ejemplo 77 Hallar la matriz escalonada reducida por filas de la siguiente matriz

1 2 3
2 3 4

A=
3 4 5
4 5 6
escribiendo en cada caso la matriz elemental correspondiente.
Solucin: Para ello seguimos los pasos siguientes

1 0 0 0 1 2 3
1 0
0 1 0 0 2 3 4
2 1
0

0 0 1 0 3 4 5 F2 = F2 2F1 0 0
0 0 0 1 4 5 6
0 0

1 0 0 0 1
1
2
3
0 1 0 0 0 1 2
0
0

F3 = F3 3F1
0 0 1 0 3
3
4
5
0 0 0 1 4
0
5
6

1 0 0 0 1
1
2
3
0 1 0 0 0 1 2
0
0

0 0 1 0 0 2 4 F4 = F4 4F1 0
0 0 0 1 4
4
5
6

Els autors, 2002; Edicions UPC, 2002

3
2

5
6

0
0
1
0

0
0
0
1

1
0
3
4

2
1
4
5

0
1
0
0

0
0
1
0

0
0
0
1

1
0
0
4

2
1
2
5

0
1
0
0

0
0
1
0

0
0
0
1

1
0
0
0

2
1
2
3

3
2

4
6

3
2

4
6

106

1
0

0
0

1
0

0
0

1
0

0
0

1
0

0
0

CAPTULO 3. MATRICES
0
1
0
0

0
0
1
0

0
0
0
1

1
0
0
0

2
1
2
3

0
1
0
0

0
0
1
0

0
0
0
1

1
0
0
0

2
1
2
3

0
1
0
0

0
0
1
0

0
0
0
1

1
0
0
0

0
1
2
3

0
1
0
0

0
0
1
0

0
0
0
1

1
0
0
0

0
1
0
3

1
0
3

2
F20 = F2 0 1
0
0
4
0
0
6

1
3
0
0
2
F1 = F1 2F2
0
4
0
6

1
1
0
0
2
F3 = F3 + 2F2
0
4
0
6

1
1
0
0
2
F4 = F4 + 3F2
0
4
0
6

0
0
1
0

0
0
0
1

2
1
0
0

1
0
0
0
0
0
1
0

2
1
2
3
0
0
0
1

1
0
0
0

0
1
2
0

0
0
1
0

0
0
0
1

1
0
0
0

0
1
0
3

0
1
0
3

0
0
1
0

0
0
0
1

1
0
0
0

0
1
0
0

que se obtiene por

B = E7 E6 E1 A

1 2 0 0
0 1 0 0

E5 =
0 0 1 0
0 0 0 1

Teorema 65 Si A Mn (K) es una matriz inversible, entonces se reduce a la


identidad por una sucesin de transformaciones elementales entre sus filas, la
misma sucesin de transformaciones aplicadas a la matriz identidad I da como
resultado la matriz inversa de A.
Demostracin: Si A es una matriz inversible de Mn (K), A es equivalente
por filas a una matriz escalonada reducida E que tambin tiene rango n. Esta
matriz E tiene por lo tanto n filas no nulas y, en consecuencia, tiene unos como
primeros elementos en n diferentes columnas y ningn otro elemento no nulo
en esas columnas. Por tanto, E es precisamente la matriz identidad. Si ahora
aplicamos el teorema 18, se sigue que para matrices elementales apropiadas Ei
se tiene
Es Es1 E1 A = I

Els autors, 2002; Edicions UPC, 2002

1
2

4
6

1
2

0
6

1
2

0
0

0
1
2
3

Por tanto, la matriz escalonada reducida por filas es la matriz

1 0 1
0 1 2

B=
0 0 0
0 0 0

donde, por ejemplo,

3
2

4
6

3.11. MATRICES ELEMENTALES

107

Multiplicando a la derecha por A1 los dos miembros de esta igualdad, se tiene


Es Es1 E1 I = A1
La matriz a la izquierda es el resultado de aplicar a la identidad I la sucesin
de matrices elementales E1 , ..., Es .
Observacin 51 Este teorema proporciona un mtodo para determinar la inversa de una matriz inversible.
Corolario 20 Una matriz A de Mn (K) es inversible si y slo si puede expresarse como un producto de matrices elementales.
Demostracin: Por el teorema 20, si A es inversible, entonces A puede expresarse como un producto de matrices elementales. Recprocamente, si
A = E1 E2 Es
entonces, segn el corolario 4,
1

A1 = (E1 E2 Es )

= Es1 E21 E11

Por tanto, A es una matriz inversible.


Corolario 21 Dos matrices A, B de Mmn (K) son equivalentes por filas si y
slo si existe una matriz inversible Q de Mm (K) tal que B = QA.
Demostracin: Si A, B son equivalentes por filas, entonces por el corolario 5
existe una matriz inversible Q de Mm (K) tal que B = QA. Recprocamente, si
B = QA, con Q una matriz inversible, entonces por el corolario 6
Q = Es Es1 E1
es decir,
B = Es Es1 E1 A
Por tanto, segn el teorema 18, B es equivalente por filas a A.
Definicin 54 Decimos que dos matrices A, B de Mmn (K) son equivalentes
si puede obtenerse una a partir de la otra por una sucesin de transformaciones
elementales
0
0
0
B = Er Er1 E1 AE1 Es1 Es
donde E1 , ..., Er son matrices elementales que representan las transformaciones
0
0
aplicadas a las filas de A y E1 , ..., Es las transformaciones aplicadas a las columnas de A, para obtener la matriz B.
Observacin 52 Hacemos las siguientes observaciones importantes:

Els autors, 2002; Edicions UPC, 2002

108

CAPTULO 3. MATRICES

1.

Al reemplazar A por su traspuesta At , las transformaciones elementales


entre filas se cambian por transformaciones elementales entre columnas y
viceversa. En particular, A se podr transformar en B mediante una serie de transformaciones elementales entre columnas, cuando la traspuesta
At se pueda transformar en B t por una sucesin de transformaciones elementales entre filas, y slo en este caso. Aplicando, el corolario 7, esto
significa que B t = QAt , o sea, B = (B t )t = (QAt )t = AQt = AP , donde
P = Qt es una matriz inversible. Recprocamente, si B = AP , siendo P
una matriz inversible, expresa que B es equivalente por columnas a A.

2.

Esta definicin coincide con la definicin 14, pero ahora ha sido expresada en trminos de matrices elementales. En efecto, si tomamos P =
0
0
0
E1 Es1 Es y Q = Er Er1 E1 , se tiene B = QAP , con P, Q matrices inversibles. Las matrices P y Q son inversibles por el corolario 6.

Ejemplo 78 Obtener la matriz cannica de rango r de la matriz

1 2 3
2 3 4

A=
3 4 5
4 5 6

indicando las matrices inversibles P y Q.


Solucin: En el ejemplo 22 hemos visto que A es equivalente a la siguiente
matriz escalonada reducida por filas

1 0 1
0 1 2

0 0 0
0 0 0

Aplicaremos ahora transformaciones elementales a sus columnas, o de forma


equivalente, aplicaremos transformaciones elementales a las filas de su matriz
traspuesta

1 0 0 0 1 0 0
1 0 0 0 1 0 0
0 1 0 0 0 1 0 F30 = F3 + F1 0 1 0 0 0 1 0
1 2 0 0 0 0 1
0 2 0 0 1 0 1

1 0 0 0 1 0 0
1 0 0 0 1
0 0
0
0 1 0 0 0 1 0 F3 = F3 2F2 0 1 0 0 0
1 0
0 2 0 0 0 0 1
0 0 0 0 0 2 1

Trasponiendo de nuevo la matriz resultante,


rango r de A es la siguiente matriz

1 0 0
0 1 0

0 0 0
0 0 0

se sigue que la matriz cannica de

Els autors, 2002; Edicions UPC, 2002

3.11. MATRICES ELEMENTALES

109

Obsrvese que esta matriz se ha obtenido por transformaciones elementales entre


columnas a partir de la matriz

1 0 1
0 1 2

0 0 0
0 0 0
En efecto, para comprobarlo basta trasponer
anteriormente

1 0 1
1
1 0 1
0 1 2
0 1 0 0

0 0 0
0
0 0 1
0 0 0

Entonces

las matrices elementales aplicadas

1 0 0
0 0
0 1 0

1 2 =
0 0 0
0 1
0 0 0

1 0 1
1 0 0
1 0 1
P = 0 1 0 0 1 2 = 0 1 2
0 0 1
0 0 1
0 0 1

y, segn el ejemplo 22,

3 2 0 0
2 1 0 0

Q = E7 E6 E1 =
1 2 1 0
2 3 0 1

Obsrvese que se

3 2
2 1

1 2
2 3

cumple lo siguiente

1 2 3
0 0
2 3 4
0 0

1 0 3 4 5
4 5 6
0 1

1
1 0 1
0

0 1 2 =
0

0 0 1
0

0
1
0
0

0
0

0
0

Observacin 53 En la prctica si A, B Mmn (K) son equivalentes y B =


QAP , consideraremos el esquema inicial (Im |A|In ) y mediante transformaciones
elementales obtendremos el esquema (Q|B|P ). Todas las transformaciones de
tipo fila realizadas en A para llegar a B se reflejan en Im y las de tipo columna
en In . Una vez conseguida la matriz B, las matrices P y Q sern las obtenidas
a partir de In y Im , respectivamente.
Asimismo, si A es una matriz inversible, su forma cannica es In . Por tanto,
In = QAP . Si se realizan slo transformaciones de tipo fila, consideraremos el
esquema inicial (In | A) y mediante transformaciones elementales obtendremos
el esquema (Q | In ), y se cumple Q = A1 . Anlogamente, si se realizan slo
transformaciones de tipo columna, consideraremos el esquema inicial (A | In ) y
mediante transformaciones elementales obtendremos el esquema (In | P ), y se
cumple P = A1 .

Els autors, 2002; Edicions UPC, 2002

110

CAPTULO 3. MATRICES

Ejemplo 79 Calcular la inversa de la matriz

1 2 1
7
4
A = 3
2
2
1

utilizando solamente transformaciones elementales de tipo fila.


Solucin:

1 0 0
1 2 1
0 1 0 3
7
4
0 0 1
2
2
1

0
1 0 0 1 2 1
F2 = F2 + 3F1
1
1
3 1 0 0
0
F3 = F3 2F1
2 0 1 0
6
3
0

F1 = F1 + 2F2
0
F3 = F3 6F2
0

F3 = 13 F3
0

F2 = F2 F3
0
F1 = F1 F3
Luego

7
2 0 1 0
1
3
1 0 0 1
1

20 6 1 0 0 3

7 2
0 1 0 1
3 1
0 0 1 1

20/3 2 1/3 0 0 1

1/3
0
1/3 1 0 0
1/3 0 1 0
11/3 1
20/3
2 1/3 0 0 1

A1

1/3
0
1/3
1/3
= 11/3 1
20/3
2 1/3

Els autors, 2002; Edicions UPC, 2002

Captulo 4

Determinantes
4.1.

Determinante de n vectores

Consideremos el conjunto de las matrices cuadradas de orden n con coeficientes en un cuerpo conmutativo K. Queremos asociar a cada matriz un elemento de K, su determinante, de forma que se cumplan las siguientes propiedades:
1. si multiplicamos por a K los elementos de una columna, el determinante
queda multiplicado por a
2. si una columna es suma de dos, el determinante es suma de los determinantes calculados con cada una de las columnas-sumandos
3. si dos columnas son iguales, el determinante es cero
Estas tres condiciones son, de hecho, suficientemente restrictivas como para
no permitir mucho margen al querer definir lo qu ser el determinante de una
matriz. Vamos a verlo.
Observemos, en primer lugar, que las condiciones impuestas se refieren a las
columnas; por ello, conviene considerar cada matriz cuadrada de orden n como
n
z
}|
{
n
un elemento de K Kn , interpretando cada columna como una ntupla
de Kn . As pues, un determinante ha de ser una aplicacin
n

z
}|
{
K
det : Kn Kn
(a1 , ..., an )
7 det(a1 , ..., an )
que cumpla:
1. det(a1 , ..., a ai , ..., an ) = a det(a1 , ..., an ), para todo a K y para todo
i = 1, ..., n
2. det(a1 , ..., ai +a0i , ..., an ) = det(a1 , ..., ai , ..., an )+det(a1 , ..., a0i , ..., an ), para
todo i = 1, ..., n
111

Els autors, 2002; Edicions UPC, 2002

112

CAPTULO 4. DETERMINANTES

3. det(a1 , ..., an ) = 0 si dos columnas cualesquiera son iguales


Esto nos conduce a la primera definicin que vamos a dar para una situacin
algo ms general.
Definicin 55 Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K. Se llama nforma lineal de E en K a toda aplicacin D : En
K que cumple
1.

D(v1 , ..., avi , ..., vn ) = a D(v1 , ..., vi , ..., vn )

2.

D(v1 , ..., vi + vi0 , ..., vn ) = D(v1 , ..., vi , ..., vn ) + D(v1 , ..., vi0 , ..., vn ), para
todo i = 1, ..., n

Las nformas lineales para n 2 se llaman tambin formas multilineales; si n = 2, se dice que D es una forma bilineal.
Observacin 54 Las condiciones (1) y (2) se resumen diciendo que f es lineal
en cada factor. El nombre de forma se reserva para aplicaciones lineales o
multilineales en K.
Definicin 56 Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K. Una forma multilineal D de E en K se llama simtrica si para todo
elemento (v1 , ..., vi , ..., vn ) de En y para toda permutacin Sn se cumple
D(v(1) , ..., v(i) , ..., v(n) ) = D(v1 , ..., vi , ..., vn )
Definicin 57 Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K. Una forma multilineal D de E en K se llama antisimtrica si
para todo elemento (v1 , ..., vi , ..., vn ) de En y para toda permutacin Sn se
cumple
D(v(1) , ..., v(i) , ..., v(n) ) = () D(v1 , ..., vi , ..., vn )
Teorema 66 Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K. Una forma multilineal D de E en K es antisimtrica si y slo si
para todo (v1 , ..., vi , ..., vn ) de En y para toda trasposicin Sn se cumple
D(v(1) , ..., v(i) , ..., v(n) ) = D(v1 , ..., vi , ..., vn )
Demostracin: Si Sn es una trasposicin, entonces () = 1. Luego, si
D es antisimtrica se tiene
D(v(1) , ..., v(i) , ..., v(n) ) = D(v1 , ..., vi , ..., vn )
Recprocamente, si Sn , es descomponible en producto de trasposiciones:
= r 1 . Entonces
D(v(1) , ..., v(n) ) = D(v(r 1 )(1) , ..., v(r 1 )(n) )
= D(v(r 2 )(1) , ..., v(r 2 )(n) )
..
.
= (1)r D(v1 , ..., vn )
= () D(v1 , ..., vn )

Els autors, 2002; Edicions UPC, 2002

4.1. DETERMINANTE DE N VECTORES

113

Definicin 58 Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K. Una forma multilineal D de E en K se llama alternada si cumple
D(v1 , ..., vn ) = 0
si dos de los vectores son iguales.

4.1.1.

Propiedades de las formas multilineales alternadas

Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K.


Teorema 67 Si D : En K es una nforma lineal alternada, entonces
D(v1 , ..., vi , ..., vj , ..., vn ) = D(v1 , ..., vj , ..., vi , ..., vn )
Demostracin: Tenemos
0 = D(v1 , ..., vi + vj , ..., vi + vj , ..., vn )
D(v1 , ..., vi , ..., vi , ..., vn ) + D(v1 , ..., vi , ..., vj , ..., vn )
=
+ D(v1 , ..., vj , ..., vi , ..., vn ) + D(v1 , ..., vj , ..., vj , ..., vn )
= D(v1 , ..., vi , ..., vj , ..., vn ) + D(v1 , ..., vj , ..., vi , ..., vn )
de donde,
D(v1 , ..., vi , ..., vj , ..., vn ) = D(v1 , ..., vj , ..., vi , ..., vn )

Observacin 55 Si vi = vj , entonces segn el teorema anterior tenemos


2 D(v1 , ..., vi , ..., vi , ..., vn ) = 0
Siempre que en K sea 2 6= 0, esto equivale a
D(v1 , ..., vi , ..., vi , ..., vn ) = 0
para 1 i n. Por tanto, esta propiedad es equivalente a la condicin que define
a las formas multilineales alternadas si y slo si K no es de caracterstica 2.
Teorema 68 Si D : En K es una nforma lineal alternada, entonces
D(v(1) , ..., v(n) ) = () D(v1 , ..., vn )
siendo () la signatura de la permutacin Sn .
Demostracin: Si es una trasposicin, entonces () = 1 y la propiedad
se cumple por el teorema 1. En general, podemos descomponer en producto de
trasposiciones y aplicar el teorema 1 reiteradamente.

Els autors, 2002; Edicions UPC, 2002

114

CAPTULO 4. DETERMINANTES

Observacin 56 Si Sn es el grupo de permutaciones del conjunto {1, ..., n},


se llama trasposicin a toda permutacin Sn tal que (i) = j, (j) = i
y (k) = k, con i 6= j, i 6= k y j 6= k. Se demuestra que toda permutacin
se puede descomponer en producto de trasposiciones. Si I() indica el nmero
de inversiones presentadas dos a dos por los elementos {1, ..., n}, se define la
signatura de , denotndose por (), como el nmero siguiente
() = (1)I()
Si () = 1, se dice que es una permutacin par, y si () = 1, se llama
permutacin impar. Se demuestra que toda trasposicin es impar y que para
todo par de permutaciones , Sn se cumple
( ) = () ( )
Por ejemplo, si S6 y por definicin

= 3 4 5 6 1 2

Entonces

3 5 1
4 6 2

5 1
3 1
6 2
4 2
=
=

y () = (1)4 = 1, es decir, es una permutacin par.

Teorema 69 Si D : En K es una nforma lineal alternada y vi = 0,


entonces
D (v1 , ..., vi , ..., vn ) = 0
Demostracin: En efecto, como vi = 0 vi , tenemos por (2)
D(v1 , ..., vi , ..., vn ) = D(v1 , ..., 0 vi , ..., vn )
= 0 D(v1 , ..., vi , ..., vn )
= 0

Teorema 70 Si D : En K es una nforma lineal alternada y


X
vj =
ak vk
k6=j

siendo ak K, entonces
D(v1 , ..., vj , ..., vn ) = 0
Demostracin: En efecto, segn (1) y (2) se tiene
X
D(v1 , ..., vj , ..., vn ) =
ak D(v1 , ..., vk , ..., vn )
k6=j

Observemos que en cada sumando vk ocupa las posiciones j y k, y, por tanto,


segn (3), el sumando se anula.

Els autors, 2002; Edicions UPC, 2002

4.1. DETERMINANTE DE N VECTORES

115

Teorema 71 Si D : En K es una nforma lineal alternada, entonces

X
D v1 , ..., vi +
ak vk , ..., vn = D(v1 , ..., vi , ..., vn )
k6=i

Demostracin: Es consecuencia inmediata del teorema 4.

Teorema 72 Si e1 , ..., en es una base de E, una nforma lineal alternada D


de E en K queda determinada por el valor D(e1 , ..., en ) K. Recprocamente,
dado k K existe una y una sola nforma lineal alternada D de E en K tal
que D(e1 , ..., en ) = k.
Demostracin: En efecto, calculemos D(v1 , ..., vn ). Si
vi =

n
X

ahi eh

h=1

entonces
D(v1 , ..., vn ) = D
=

n
X

ah1 eh , ...,

h=1
n
X

n
X

ahn eh

h=1

D (ah1 1 eh1 , ..., ahn n ehn )

h1 ,...,hn =1
n
X
h1 ,...,hn =1

ah1 1 ahn n D(eh1 , ..., ehn )

En D(eh1 , ..., ehn ), los subndices h1 , ..., hn pueden tomar valores arbitrarios en
{1, ..., n}, pero el sumando se anular siempre que dos de los subndices sean
iguales. Quedarn solamente, pues, los sumandos en que h1 , ..., hn sean precisamente 1, ..., n permutados. Designemos por h la permutacin

h = h1 hn

entonces por teorema 1 tenemos


P
D(v1 , ..., vn ) = Phsn ah1 1 ahn n D(eh1 , ..., ehn )
=
hsn ah1 1 ahn n (h) D(e1 , ..., en )
luego D(v1 , ..., vn ) queda determinada por D(e1 , ..., en ).
Recprocamente, la aplicacin D definida por
X
D(v1 , ..., vn ) =
(h) ah1 1 ahn n k
hsn

es una nforma lineal alternada de E en K tal que D(e1 , ..., en ) = k. En efecto,


X
D(v1 , ..., avi , ..., vn ) =
(h) ah1 1 aahi i ahn n k
hsn

= a

hsn

(h) ah1 1 ahi i ahn n k

= a D(v1 , ..., vi , ..., vn )

Els autors, 2002; Edicions UPC, 2002

116

CAPTULO 4. DETERMINANTES

lo que demuestra la condicin (1). Comprobemos (2)


D(v1 , ..., vi + wi , ..., vn ) =

hsn

hsn

(h) ah1 1 (ahi i + bhi i ) ahn n k

(h) ah1 1 ahi i ahn n k +

hsn

(h) ah1 1 bhi i ahn n k

= D(v1 , ..., vi , ..., vn ) + D(v1 , ..., wi , ..., vn )


Falta, por ltimo, demostrar (3). Supongamos que vi = vj , esto quiere decir
que sus coordenadas son iguales, aki = akj para todo k {1, ..., n}. Entonces,
tenemos
X
(h) ah1 1 ahi i ahj j ahn n k
D(v1 , ..., vi , ..., vj , ..., vn ) =
hsn

Consideremos un sumando cualquiera


(h) ah1 1 ahi i ahj j ahn n
y comparmoslo con el sumando correspondiente a t = h (i, j); sabiendo que
(i, j) = 1 y que ( ) = () ( ), tenemos
(t) at1 1 ati i atj j atn n

= (h) ah1 1 ahj i ahi j ahn n


= (h) ah1 1 ahj j ahi i anhn

Por tanto, estos dos sumandos suman 0 y podemos eliminarlos del sumatorio.
Este proceso puede repetirse tantas veces como sea necesario; al final quedar
X
(h) ah1 1 ahi i ahj j ahn n k = 0
hsn

de donde
D(v1 , ..., vi , ..., vj , ..., vn ) = 0

Corolario 22 Si e1 , ..., en es una base de E y D es una nforma lineal alternada tal que D(e1 , ..., en ) = 0, entonces D(v1 , ..., vn ) = 0 para cualquier ntupla
de vectores de E.
Demostracin: Es inmediato a partir de que
X
D(v1 , ..., vn ) =
(h) ah1 1 ahn n k
hsn

con D(e1 , ..., en ) = k.

Els autors, 2002; Edicions UPC, 2002

4.1. DETERMINANTE DE N VECTORES

117

Corolario 23 Si D es una nforma lineal alternada de E en K no nula y


v1 , ..., vn son vectores linealmente independientes de E, entonces D(v1 , ..., vn ) 6=
0.
Demostracin: En efecto, si v1 , ..., vn son linealmente independientes, v1 , ..., vn
forman una base de E. Si fuera D(v1 , ..., vn ) = 0 entonces por el corolario anterior sera D = 0, lo que no es posible por hiptesis. Por lo tanto, D(v1 , ..., vn ) 6=
0.
Definicin 59 Se llama determinante de los vectores v1 , ..., vn respecto de
la base e1 , ..., en de E al siguiente elemento de K
X
(h) ah1 1 ahn n k
hsn

y abreviadamente se escribe

det(v1 , ..., vn ) =
(ei )

(h) ah1 1

hsn

siendo
vi =

ahn n k =

n
X

a11
..
.
an1

..
.

a1n
..
.
ann

ahi eh

h=1

Este elemento solamente depende de las coordenadas de los vectores v1 , ..., vn


en la base e1 , ..., en , y por el teorema 6 cumple la condicin de que, para toda
nforma lineal alternada D,
D(v1 , ..., vn ) = det(v1 , ..., vn ) D(e1 , ..., en )
(ei )

As pues, existen tantas nformas lineales alternadas como elementos del cuerpo
K.
Teorema 73 Consideremos el conjunto A (E, K) de las nformas lineales alternadas de E en K y, en l, las operaciones dadas por
(D1 + D2 )(v1 , ..., vn ) = D1 (v1 , ..., vn ) + D2 (v1 , ..., vn )
(a D)(v1 , ..., vn ) = a D(v1 , ..., vn ) (a K)
A (E, K), con estas operaciones, es un espacio vectorial sobre el cuerpo K.
Demostracin: Es muy fcil probar que si D1 , D2 y D son de A (E, K), entonces D1 + D2 y aD tambin lo son. El resto de axiomas se comprueban sin
ninguna dificultad.
Teorema 74 Sea ahora e1 , ..., en una base de E. La aplicacin
A (E, K) K
D
7 D(e1 , ..., en )

Els autors, 2002; Edicions UPC, 2002

118

CAPTULO 4. DETERMINANTES

es un isomorfismo de espacios vectoriales. As pues, tenemos


A (E, K)
=K
y, en particular, A (E, K) tiene dimensin 1. La nforma alternada correspondiente al 1 de K es precisamente
det(ei ) : En
K
(v1 , ..., vn ) 7 det(ei ) (v1 , ..., vn )
Demostracin: Es una simple comprobacin que la aplicacin es lineal y, por
el teorema 6, es biyectiva. Los dems resultados son consecuencias inmediatas
de la teora de espacios vectoriales y de las aplicaciones lineales.
Corolario 24 Los vectores v1 , ..., vn de E son linealmente independientes si y
slo si
det(v1 , ..., vn ) 6= 0
(ei )

Demostracin: Si los vectores v1 , ..., vn de E son linealmente independientes,


por el corolario 2, tenemos
det(v1 , ..., vn ) 6= 0
(ei )

Recprocamente, si fueran dependientes, segn el teorema 4, se tendra


det(v1 , ..., vn ) = 0
(ei )

lo que no es posible.
Teorema 75 Sean e1 , ..., en y u1 , ..., un dos bases de un espacio vectorial E.
Entonces, se verifica que
det (ui ) (v1 , ..., vn ) = det (ei ) (v1 , ..., vn ) det (ui ) (e1 , ..., en )
Demostracin: Para cualquier nforma lineal alternada D tenemos
D(v1 , ..., vn ) = det (ei ) (v1 , ..., vn ) D(e1 , ..., en )
= det (ei ) (v1 , ..., vn ) det (ui ) (e1 , ..., en ) D(u1 , ..., un )
y tambin
D(v1 , ..., vn ) = det (ui ) (v1 , ..., vn ) D(u1 , ..., un )
Podemos tomar D tal que D(u1 , ..., un ) 6= 0 y obtenemos la igualdad deseada.
Ejemplo 80 Supongamos que E es un espacio vectorial de dimensin 2 sobre
K. Sea e1 , e2 una base de E y v1 , v2 E. Calcular det(ei ) (v1 , v2 ).

Els autors, 2002; Edicions UPC, 2002

4.1. DETERMINANTE DE N VECTORES

119

Solucin: Sea D : E2 K una forma bilineal alternada. Supongamos que


v1 = (a11 , a21 ) y v2 = (a12 , a22 ) son sus coordenadas en la base e1 , e2 . Entonces
D(v1 , v2 ) =
=
=
=
=

D(a11 e1 + a21 e2 , a12 e1 + a22 e2 )


D(a11 e1 , a12 e1 ) + D(a11 e1 , a22 e2 ) + D(a21 e2 , a12 e1 ) + D(a21 e2 , a22 e2 )
a11 a12 D(e1 , e1 ) + a11 a22 D(e1 , e2 ) + a21 a12 D(e2 , e1 ) + a21 a22 D(e2 , e2 )
a11 a22 D(e1 , e2 ) a21 a12 D(e1 , e2 )
(a11 a22 a21 a12 )D(e1 , e2 )

Por tanto
det(v1 , v2 ) = a11 a22 a21 a12
(ei )

Ejemplo 81 Para dos bases cualesquiera e1 , ..., en y u1 , ..., un de E, probar que


se verifica
det (ei ) (u1 , ..., un ) det (ui ) (e1 , ..., en ) = 1
Solucin: En efecto, D(u1 , ..., un ) 6= 0 y
D(u1 , ..., un ) = det(u1 , ..., un )D(u1 , ..., un )
(ui )

de donde
det(u1 , ..., un ) = 1

(ui )

Por tanto,
det (ui ) (u1 , ..., un ) = det (ei ) (u1 , ..., un ) det (ui ) (e1 , ..., en ) = 1

Ejemplo 82 Demostrar que toda forma multilineal alternada es antisimtrica.


Recprocamente, si K no es de caracterstica 2, entonces toda forma multilineal
antisimtrica es alternada.
Solucin: Supongamos que D es una forma multilineal alternada, entonces
0 = D(v1 , ..., vi + vj , ..., vi + vj , ..., vn )
D(v1 , ..., vi , ..., vi , ..., vn ) + D(v1 , ..., vi , ..., vj , ..., vn )
=
+ D(v1 , ..., vj , ..., vi , ..., vn ) + D(v1 , ..., vj , ..., vj , ..., vn )
= D(v1 , ..., vi , ..., vj , ..., vn ) + D(v1 , ..., vj , ..., vi , ..., vn )
Por tanto,
D(v1 , ..., vj , ..., vi , ..., vn ) = D(v1 , ..., vi , ..., vj , ..., vn )
y por el teorema 1??, D es antisimtrica. Recprocamente, si D es antisimtrica,
entonces
D(v1 , ..., vj , ..., vi , ..., vn ) = D(v1 , ..., vi , ..., vj , ..., vn )

Els autors, 2002; Edicions UPC, 2002

120

CAPTULO 4. DETERMINANTES

Luego si vi = vj , se sigue
2 D(v1 , ..., vi , ..., vj , ..., vn ) = 0
y como K no es de caracterstica 2, se concluye
D(v1 , ..., vi , ..., vj , ..., vn ) = 0

4.1.2.

Propiedades de los determinantes

De las propiedades de las nformas lineales alternadas y de la definicin se


deducen de forma inmediata las siguientes propiedades:
1. Si se multiplican todos los elementos de una columna por k, el determinante queda multiplicado por k.
2. Si los elementos aij de la columna j de un determinante son de la forma
aij = bi + ci , el determinante es igual a la suma de dos determinantes que
tienen bi y ci respectivamente por columna j y las dems columnas iguales
a las del primero.
3. Si un determinante tiene dos columnas iguales es nulo.
4. Si en un determinante se cambian entre s dos columnas, el determinante
cambia de signo.
5. Si un determinante tiene una columna de ceros es nulo.
6. Condicin necesaria y suficiente para que un determinante sea nulo es que
las columnas sean linealmente independientes.
7. Si a una columna de un determinante se le suma una combinacin lineal
de las restantes columnas el determinante no vara.
8. Si tomamos E = Rn y K = R,

a11 a1n

..
.
..
.
. ..

an1 ann

por definicin tenemos

() a(1)1 a(n)n
=
s
n

ya que D(e1 , ..., en ) = 1. Para n = 2, puesto que 2! = 2, se obtiene


X
() a(1)1 a(2)2 = ()a(1)1 a(2)2 + ( )a (1)1 a (2)2 =
s2

= a11 a22 a21 a12

ya que () = 1y ( ) = 1. Por tanto

a11 a12

a21 a22 = a11 a22 a21 a12

Els autors, 2002; Edicions UPC, 2002

4.1. DETERMINANTE DE N VECTORES

121

Para n = 3, puesto que 3! = 6, se obtiene


X

() a(1)1 a(2)2 a(3)3

() a(1)1 a(2)2 a(3)3 = a11 a22 a33 +a21 a32 a13 +a31 a12 a23 a31 a22 a13 a11 a32 a23 a21 a12 a33

( 1 ) a1 (1)1 a1 (2)2 a1 (3)3 + ( 2 ) a2 (1)1 a2 (2)2 a2 (3)3 + ( 3 ) a3 (1)2 a3 (2)

s3

s3

+ ( 4 ) a4 (1)1 a4 (2)2 a4 (3)3 + ( 5 ) a5 (1)1 a5 (2)2 a5 (3)3 + ( 6 ) a6 (1)1 a6 (

ya que ( 1 ) =
tanto

a11 a12 a13

a21 a22 a23

a31 a32 a33

( 2 ) = ( 3 ) = 1 y ( 4 ) = ( 5 ) = ( 6 ) = 1. Por

= a11 a22 a33 +a21 a32 a13 +a31 a12 a23 a31 a22 a13 a11 a32 a23 a21 a12 a33

Observacin 57 Para recordar la expresin que permite calcular los determinantes de orden 3 se tiene la regla de Sarrus: se multiplican los tres elementos
de la diagonal principal; luego se multiplican los dos elementos situados sobre
una lnea paralela por debajo (a21 y a32 ) a la diagonal principal por un tercer
elemento que es el vrtice (a13 ) que est por encima de la diagonal principal.
Luego, se repite la misma multiplicacin pero tomando la paralela por encima
(a12 y a23 ) y el vrtice (a31 ) por debajo de la diagonal principal. Ahora se suman
los tres nmeros obtenidos. Se procede de igual forma pero en lugar de tomar como referencia la diagonal principal, se toma la otra diagonal, que est formada
por los elementos a13 , a22 y a31 . Despus se suman los tres nmeros obtenidos.
Por ltimo, se resta la segunda suma de la primera. Ejemplo:

2 1 2

3 5 1 = [2 (5) 7 + 3 4 (2) + 1 1 1]

1 4
7
[(2) (5) 1 + 1 4 2 + 1 3 7]
= 93 39 = 132

Ejemplo 83 Hallar el signo del termino a21 a12 a43 a34 a55 que aparece en el desarrollo de un determinante de orden cinco.
Solucin: La permutacin correspondiente a este trmino es

2 1 4 3 5

4 3
2 1
=

Por tanto, () = (1)2 = 1, o sea, es una permuitacin par.


Ejemplo 84 Comprobar que los vectores (1, 1, 1), (a, b, c), (b + c, a + c, a + b) de
R3 son linealmente dependientes.

Els autors, 2002; Edicions UPC, 2002

122

CAPTULO 4. DETERMINANTES

Solucin: Calculemos el determinante

1
1 a b+c

1 b a+c = 1

1
1 c a+b

de estos tres vectores

a a + b + c
b a + b + c
c a+b+c

1 a 1

= (a + b + c) 1 b 1
1 c 1

= 0

Por tanto, los tres vectores son linealmente dependientes.

4.2.

Determinante de un endomorfismo

Teorema 76 Sea f L(E) un endomorfismo de un espacio vectorial E de


dimensin n sobre K. Para toda nforma lineal alternada D, la aplicacin fb
definida como sigue
fb(D) : En
K
(v1 , ..., vn ) 7 D(f (v1 ), ..., f (vn ))

es una n-forma lineal alternada de E en K.


Demostracin: En efecto,

fb(D)(v1 , ..., a vi , ..., vn ) = D(f (v1 ), ..., f (a vi ), ..., f (vn ))


= D(f (v1 ), ..., a f (vi ), ..., f (vn ))
= a D(f (v1 ), ..., f (vi ), ..., f (vn ))
= a fb(D)(v1 , ..., vn )

fb(D)(v1 , ..., vi + wi , ..., vn ) = D(f (v1 ), ..., f (vi + wi ), ..., f (vn ))


= D(f (v1 ), ..., f (vi ) + f (wi ), ..., f (vn ))
= D(f (v1 ), ..., f (vi ), ..., f (vn )) + D(f (v1 ), ..., f (wi ), ..., f (vn ))
= fb(D)(v1 , ..., vi , ..., vn ) + fb(D)(v1 , ..., wi , ..., vn )

y si vi = vj entonces f (vi ) = f (vj ) y, tenemos

fb(D)(v1 , ..., vi , ..., vj , ..., vn ) = D(f (v1 ), ..., f (vi ), ..., f (vj ), ..., f (vn )) = 0
Teorema 77 La aplicacin fb definida como sigue

fb : A (E, K) A (E, K)
D
7 fb(D)

Els autors, 2002; Edicions UPC, 2002

4.2. DETERMINANTE DE UN ENDOMORFISMO

123

es lineal.
Demostracin: En efecto,

Por tanto,

fb(a D)(v1 , ..., vn ) = (a D)(f (v1 ), ..., f (vi ), ..., f (vn ))


= a(D(f (v1 ), ..., f (vi ), ..., f (vn )))
= a fb(D)(v1 , ..., vn )
fb(a D) = a fb(D)

Adems,

fb(D1 + D2 )(v1 , ..., vn ) = (D1 + D2 )(f (v1 ), ..., f (vi ), ..., f (vn ))
= D1 (f (v1 ), ..., f (vi ), ..., f (vn )) + D2 (f (v1 ), ..., f (vi ), ..., f (vn ))
= fb(D1 )(v1 , ..., vn ) + fb(D2 )(v1 , ..., vn )

Por tanto,

fb(D1 + D2 ) = fb(D1 ) + fb(D2 )

Teorema 78 La aplicacin
L(E) L(A (E, K))
f
7 fb

es una aplicacin del anillo L(E) en el anillo L(A (E, K)) que satisface las siguientes propiedades
g[
f = fb gb y IbE = IA(E,K)
Demostracin: En efecto,

g[
f (D)(v1 , ..., vn ) = D(g(f (v1 )), ..., g(f (vn )))
= gb(D)(f (v1 ), ..., f (vn ))
= fb(b
g (D))(v1 , ..., vn )
= (fb gb)(D)(v1 , ..., vn )

Por tanto, g[
f = fb gb. Por otro lado, tenemos

IbE (D)(v1 , ..., vn ) = D(IE (v1 ), ..., IE (vn ))


= D(v1 , ..., vn )
= IA(E,K) (D)(v1 , ..., vn )

Por tanto, IbE = IA(E,K) .

Els autors, 2002; Edicions UPC, 2002

124

CAPTULO 4. DETERMINANTES

Observacin 58 Esta aplicacin no es lineal ya que por ejemplo, si n 2 se


cumple
c (D)(v1 , ..., vn ) = D((af )(v1 ), ..., (af )(vi ), ..., (af )(vn ))
af
= D(a f (v1 ), ..., a f (vi ), ..., a f (vn ))
= an (D(f (v1 ), ..., f (vi ), ..., f (vn )))
= an fb(D)

y por tanto

c (D) 6= a fb(D)
af

Teorema 79 Para cada f L(E) existe un nico k K tal que


fb = k IA(E,K)

Demostracin: Puesto que A (E, K)


= K, en particular, A (E, K) tiene dimensin 1. Sea D una base de A (E, K), entonces
fb(D) = k D

para k K. Como cualquier D0 A (E, K) ser de la forma D0 = r D, con


r K, entonces
fb(D0 ) = fb(rD) = rfb(D) = rk D = kD0

es decir, fb = k IA(E,K) .

Definicin 60 Al elemento k de K correspondiente a f se le llama determinante del endomorfismo f y lo denotamos por det f . Por tanto, det f es el
elemento de K que satisface
fb = (det f ) IA(E,K)

Corolario 25 Sea e1 , ..., en una base de E y D una nforma lineal alternada


no nula de E en K, entonces
det f = det D(f (e1 ), ..., f (en ))
(ei )

es decir, el determinante de f es el determinante de los vectores f (e1 ), ..., f (en )


respecto de la base e1 , ..., en .
Demostracin: Puesto que fb = (det f ) IA(E,K) , se tiene
fb(D) = det f IA(E,K) (D)
= (det f ) D

Por tanto,

fb(D)(e1 , ..., en ) = (det f ) D(e1 , ..., en )

Els autors, 2002; Edicions UPC, 2002

4.2. DETERMINANTE DE UN ENDOMORFISMO

125

Por la definicin de fb, se tiene

fb(D)(e1 , ..., en ) = D(f (e1 ), ..., f (en ))


= det (ei ) (f (e1 ), ..., f (en )) D(e1 , ..., en )

Igualando y teniendo en cuenta que D(e1 , ..., en ) 6= 0, se obtiene que


det f = det (ei ) (f (e1 ), ..., f (en ))

Corolario 26 Si f , g son dos endomorfismos de E, e I es la identidad, se


cumple
det(g f ) = det g det f y det I = 1
Si f es biyectiva, entonces
det f 1 = (det f )1
Demostracin: En efecto, de g[
f = fb gb resulta

det(g f ) = det f det g = det g det f

De IbE = IA(E,K) , resulta

De f f 1

det I = 1
1 fb = Ib
= I, se obtiene f\
f 1 = fd
A(E,K) . De aqu, resulta
det f 1 det f = 1

Corolario 27 Condicin necesaria y suficiente para que un endomorfismo f de


E sea un automorfismo es que det f 6= 0.
Demostracin: Sea e1 , ..., en una base de E. Sabemos que f es un automorfismo de E si y slo si los vectores f (e1 ), ..., f (en ) son linealmente independientes,
lo cual equivale por el corolario 3 a
det f = det (ei ) (f (e1 ), ..., f (en )) 6= 0
Ejemplo 85 Se considera el endomorfismo de R3 definido por
f (e1 ) = e1 e2
f (e2 ) = e2 e1
f (e3 ) = e3
siendo (e1 , e2 , e3 ) la base cannica de R3 . Averiguar si f es o no un automorfismo.

Els autors, 2002; Edicions UPC, 2002

126

CAPTULO 4. DETERMINANTES

Solucin: Se tiene
det f = det (ei ) (f (e1 ), f (e2 ), f (e3 ))
Por tanto,

1 1 0

1 0 = 0
det f = 1
0
0 1

luego f no es un automorfismo.

4.3.

Determinante de una matriz cuadrada

Definicin 61 Dada una matriz cuadrada de orden n sobre K

a11 a1n

.
..
A = ...

. ..
an1 ann

se llama determinante de A al elemento de K denotado por det A y definido


como sigue
X
det A =
(h) ah1 1 ahn n
hsn

Usaremos tambin la notacin

det A =

a11
..
.
an1

..
.

a1n
..
.
ann

Observacin 59 Fijado un espacio vectorial E sobre K y una base e1 , ..., en de


E. Podemos interpretar las columnas de A como las coordenadas de los vectores
de E
n
X
aji ej
ai =
j=1

Tenemos as una correspondencia biyectiva entre matrices cuadradas de orden


n y ntuplas de vectores de E
Mn (K)

En
A = (aij ) 7 (a1 , ..., an )
de forma que
det A = det (ei ) (a1 , ..., an )
Esta correspondencia permite traducir enseguida las propiedades de los determinantes de n vectores en propiedades de los determinantes de las matrices
cuadradas de orden n.

Els autors, 2002; Edicions UPC, 2002

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA

127

Corolario 28 Sea e1 , ..., en una base de E y f un endomorfismo de E. Si A es


la matriz asociada a f en la base e1 , ..., en , entonces

a11 a1n

..
..
det f = det A = ...

. .

an1 ann

siendo

f (ei ) =

n
X

aji ej

j=1

Demostracin: Es inmediato a partir de

det f = det (ei ) (f (e1 ), ..., f (en ))


Observacin 60 Con este resultado es claro que todas las matrices asociadas
a un endomorfismo en diferentes bases tienen el mismo determinante. De este
modo, se concluye que el determinante de un endomorfismo es invariante
frente a los cambios de base.
Corolario 29 Si A y B son dos matrices cuadradas de orden n, entonces
1.

det In = 1

2.

det(AB) = det A det B

3.

Si A es adems inversible, entonces det A1 = (det A)1

Demostracin: A partir del hecho de que cualquier matriz cuadrada es la matriz de un endomorfismo en una cierta base de un espacio vectorial de dimensin
n y del corolario ??? se deducen de forma inmediata estos resultados.
Teorema 80 Sea A una matriz cuadrada de orden n sobre K y At su matriz
traspuesta. Entonces
det A = det At
Demostracin: Sean A = (aij ) y At = (bij ), de forma que aij = bji . Entonces,
tenemos
X
(h) ah(1)1 ah(n)n
det A =
hsn

(h) a1h1 (1) anh1 (n)

hsn

(k) a1k(1) ank(n)

ksn

(k) ak(1)1 ak(n)n

ksn

= det At
en donde k = h1 .

Els autors, 2002; Edicions UPC, 2002

128

CAPTULO 4. DETERMINANTES

Observacin 61 Este resultado tiene como consecuencia que todas las propiedades
de los determinantes de matrices cuadradas de orden n referentes a sus columnas
dan lugar a propiedades referentes a sus filas. Por ejemplo, si multiplicamos los
elementos de una fila por un elemento a de K, el valor del determinante queda
multiplicado por a; si una fila es combinacin lineal de las otras, el determinante
es cero; etc.
0

Corolario 30 Sea f un endomorfismo y f su dual. Entonces se cumple


det f = det f 0
Demostracin: Recordemos que si A es la matriz asociada a un endomorfismo
f en una cierta base, la traspuesta At es la matriz asociada a la aplicacin dual
f 0 en la base dual de la anterior. Por tanto, por el teorema anterior, obtenemos
det f = det f 0 .
Ejemplo 86 Calcular el determinante de una matriz antisimtrica de orden n
impar.
Solucin: Sea A dicha matriz. Se tiene
det A = det At = det(A) = (1)n det A = det A
Por tanto, det A = 0.
Ejemplo 87 De dos matrices cuadradas A y B de orden 2 se sabe que
AB =

7 5
5 15

AB =

a 8
2 b

Calcular los posiles valores de a y b.


Solucin: Sabemos que
|AB| = 105 25 = 80 = |A| |B|
y
|BA| = ab 16 = |B| |A|
De donde, ab 16 = 80, o sea que ab = 96. Pero como tr(AB) = tr(BA), se
tiene adems 22 = a + b. Por tanto, resolviendo el sistema
ab = 96
a + b = 22

se obtienen las soluciones a = 6, b = 16 y a = 16, b = 6.

Els autors, 2002; Edicions UPC, 2002

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA

4.3.1.

129

Desarrollo por los elementos de una fila o columna

Designemos por a1 , ..., an los vectores columna de una matriz cuadrada


A = (aij ) de orden n. Observemos que cada columna interviene una y slo
una vez en cada trmino de det A, lo cual significa que fijadas n 1 columnas
a1 , ..., aj1 , aj+1 , ..., an la aplicacin det(a1 , ..., aj1 , , aj+1 , ..., an ) es lineal en
los elementos a1j , ..., aij , ..., anj de la jsima columna de A. Agrupando los
trminos en que interviene cada aij obtendremos una expresin de la forma
det A = A1j a1j + + Aij aij + + Anj anj
en la que el coeficiente Aij de aij es una expresin que depender slo de las
restantes columnas a1 , ..., aj1 , aj+1 , ..., an . Como en cada factor (h) ah1 1 ahn n
interviene exactamente un elemento de cada fila y, tambin, un elemento de cada
columna, es claro que en el coeficiente Aij no pueden intervenir ni los elementos
de la fila i ni los elementos de la columna j. En l intervienen solamente los
elementos de la submatriz Mij , que es la matriz obtenida al suprimir de A la
fila i y la columna j.
Como las filas y columnas intervienen simtricamente en det A, se tiene de
forma anloga el desarrollo de det A por los elementos de una fila.
Ejemplo 88 Sabemos por la regla se

2 1

3 5

1 4
Ahora se trata de
Solucin:

2 1 2

3 5 1

1 4
7

Sarrus que

2
1 = 132
7

calcular el determinante desarrollndolo por la primera fila.

= 2 (1)1+1 5 1

4 7

1+2 3 1
1+3 3 5
+1 (1)
1 7 + (2) (1)
1 4
= 78 20 34 = 132

Definicin 62 El coeficiente Aij se llama adjunto (o cofactor) del elemento


aij en la matriz A. Entonces, cuando
det A = a1j A1j + + aij Aij + + anj Anj
se dice que hemos desarrollado det A por los elementos de la columna jsima.
Anlogamente se tiene el desarrollo de det A por los elementos de una fila.
Definicin 63 Dado un elemento aij de A, se llama menor complementario
de aij al determinante de la submatriz Mij de A que se obtiene de suprimir en
esta, la fila isima y la columna jsima.

Els autors, 2002; Edicions UPC, 2002

130

CAPTULO 4. DETERMINANTES

Teorema 81 Si Aij es el adjunto y Dij es el menor complementario de aij , se


tiene
Aij = (1)i+j |Mij |

Demostracin: Si i = j = 1, entonces la definicin


X
det A =
(h) ah1 1 ahn n
hsn

muestra claramente que los trminos en que interviene a11 son exactamente los
trminos que resultan de todas las permutaciones Sn tales que (1) = 1.
Una permutacin par (impar) de este tipo contina siendo una permutacin par
(impar) de los restantes ndices 2, ..., n, ya que (1) = 1 no forma inversin con
los siguientes (i). Por tanto,
X
A11 =
() a2 2 an n = |M11 |
s0

donde S 0 = {2, ..., n}.


Cualquier otro adjunto Aij puede ahora reducirse a este caso especial, llevando el trmino aij a la posicin (1, 1) por medio de i1 trasposiciones de filas
(la isima con cada una de las precedentes), seguido de j 1 trasposiciones
de columnas (la jsima con cada una de las precedentes). Estas operaciones
no alteran |Mij |, pues la posicin relativa de las filas y columnas de Mij queda
inalterada, pero cambia (i 1) + (j 1) veces de el signo de det A. As tenemos
det A = (1)i+j det A
donde A es la matriz resultante de estas operaciones. Ahora bien, desarrollando
det A y det A, el coeficiente de aij en el primero es |Mij | y en el segundo es
(1)i+j Aij ; como ambos miembros son iguales, queda probado el teorema.
Corolario 31 El desarrollo de det A por los elementos de una columna, puede
escribirse as
det A = (1)1+j (a1j Aij anj Anj )
donde en el parntesis se toman alternativamente los signos ms o menos.
Anlogamente se escribira el desarrollo por los elementos de una columna.
Demostracin: Es inmediato a partir del teorema anterior.

Observacin 62 1. La frmula del corolario reduce el clculo de un determinante de orden n al de determinantes de rdenes n 1, lo cual tiene
gran inters prctico en la mayora de ocasiones.
2.

Un caso de especial inters es aquel en el cual todos los elementos de la


primera columna, a excepcin del primero, son nulos. En el desarrollo
det A = a1j A1j + + anj Anj
aparece entonces solamente el primer adjunto |M11 | = A11 , es decir,
det A = a11 |M11 |

Els autors, 2002; Edicions UPC, 2002

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA

131

Corolario 32 El determinante de una matriz triangular es el producto de sus


elementos diagonales.
Demostracin: Este resultado se obtiene de forma inmediata por induccin a
partir de la observacin anterior.
Ejemplo 89 Calcular por triangulacin

1 2

1 1

1 1

2 1
Solucin:

1 2 1

1 1 2

1 1 2

2 1 1

2
1
2
1

el valor del determinante siguiente

1 2
2 1
2 2
1 1

2 1 2

3 3 3
= 0
0 1 1 0

5 3 5

1
2 1 2

0
1 1 1
= 3
0
1
1 0

0
5 3 5

1 2
1 2

0 1
1 1
= 3
0
0
2 1

0 0 2 0

1 2 1 2

0 1 1 1

= 3

0 0 2 1
0 0 0 1
= 31121=6

Recordemos que una operacin elemental entre filas transforma la identidad


en una matriz elemental E y la matriz A en el producto EA.
Teorema 82 Si E es una matriz elemental,
|EA| = |E| |A| = |AE|
Demostracin: En efecto, para la transformacin elemental E1 que consiste en
multiplicar la isima fila de A por un escalar c 6= 0, se tiene det E1 = c; para
la operacin E2 que consiste en permutar dos filas de A, se tiene det E2 = 1; y
para la operacin E3 que consiste en sumar a la fila i el producto de a por la fila
j, se tiene det E3 = 1. Por tanto, segn las propiedades de los determinantes,
obtenemos |E1 A| = c |A|, |E2 A| = |A| y |E3 A| = |A|, respectivamente. Esto

Els autors, 2002; Edicions UPC, 2002

132

CAPTULO 4. DETERMINANTES

demuestra que |EA| = |E| |A|; por simetra, segn el teorema (traspuesta), lo
mismo se aplica a las operaciones elementales entre columnas, obteniendo que
|AE| = |A| |E|.
Observacin 63 Estos ltimos resultados proporcionan un mtodo til para
calcular el valor del determinante de una matriz A. Se reduce A mediante transformaciones elementales a una forma triangular T ; sea t el nmero de intercambios de filas (o columnas) efectuado, y sean c1 , ..., ck los diversos escalares
utilizados para multiplicar filas (o columnas) de A. Por el teorema anterior, se
tiene
det A = (1)t (c1 ck )1 det T
El clculo se concluye poniendo
det T = t11 tnn
segn el ltimo corolario.

4.3.2.

Clculo del rango de una matriz por determinantes

Sea E un espacio vectorial de dimensin n. En el teorema ??? hemos dado


un criterio para saber si n vectores de E son, o no, linealmente independientes:
lo son si y slo si su determinante es diferente de 0. En este apartado queremos
ampliar este criterio para poder reconocer si k vectores v1 , ..., vm de E son, o
no, linealmente independientes, cules de ellos son combinacin lineal del resto
y cules son las combinaciones lineales que los relacionan.
Sea e1 , ..., en una base de E. Una vez fijada una base, cada vector vendr
representado por una ntupla de elementos del cuerpo K, sus coordenadas, y
cada conjunto de vectores v1 , ..., vm por una matriz de m columnas formadas por
las coordenadas de los m vectores. Toda matriz A de orden n m, corresponde
a m vectores de E. Recordemos que se llama rango de A al nmero mximo
de vectores-columna de A linealmente independientes. El problema planteado
equivale, pues, al clculo del rango de una matriz.
Definicin 64 Se llaman menores de orden p de una matriz A de orden
n m a las submatrices cuadradas de orden p que se obtienen de la matriz A
al suprimir ciertas filas y columnas.
Teorema 83 El rango de una matriz A es el mximo de los rdenes de los
menores de A con determinante no nulo.
Demostracin: Indicaremos por aj el vector correspondiente a la columna j
de la matriz A = (aij ); es decir, las coordenadas de aj en la base prefijada son
(a1j , ..., anj ). Supongamos que rang A = r. Demostraremos, en primer lugar,
que todo menor de orden p > r tiene determinante cero. Sean j1 , ..., jp las columnas con las cuales se ha formado el menor. Los vectores-columna aj1 , ..., ajp son
linealmente dependientes y, por tanto, su determinante ser cero.
Veamos ahora que hay un menor de orden r con determinante no nulo.
En la matriz A hay por hiptesis r columnas linealmente independientes; sean

Els autors, 2002; Edicions UPC, 2002

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA

133

aj1 , ..., ajr . Completemos estos vectores-columna con vectores de la base e1 , ..., en
en la que trabajamos hasta obtener una base del espacio aj1 , ..., ajr , ehr+1 , ..., ehn .
La matriz A formada por estos vectores en columna tiene el siguiente determinante

a1j1 a1jr 0 0 0

a2j1 a2jr 0 1 0

..
..
..
..
..
.

.
.

..
..
..
..
.

.
1 . .

.
.
..
.
.
det A = .
..

. .. ..
.
.

..
..
.
..

.
. .. 1

.
..
..
.
.
..

.
. .. ..

.
a
anjr 0 .. 0
nj1

En cada una de las n r ltimas columnas, todos los elementos son 0, excepto
uno que vale 1; ese elemento aparece en cada columna en una fila distinta.
Desarrollando sucesivamente este determinante por cada una de las nr ltimas
columnas, se obtiene

ai1 j1 ai1 jr

..
det A = ...

ai j ai j
r 1

r r

Como los vectores-columna aj1 , ..., ajr son linealmente independientes, se deduce que det A 6= 0. Obtenemos as un menor de orden r de la matriz A con
determinante no nulo.

Observacin 64 El teorema anterior proporciona un mtodo para cualcular el


rango de una matriz A mediante el clculo de los determinantes de los menores
de A. En la prctica, para calcular el rango de una matriz por determinantes
tendremos en consideracin la siguiente propiedad: si en una matriz tenemos el
determinante de un menor de orden p distinto de cero y al aadirle una fila fija
y todas las dems columnas (de una en una) se forman menores de orden p + 1
cuyo determinante son todos nulos, entonces esta fila es combinacin lineal de
las dems filas y por tanto se puede suprimir para el clculo del rango. Esta
propiedad es tambin vlida cambiando filas por columnas. Para probar esta
propiedad se pueden aplicar transformaciones elementales y las propiedades de
los determinantes.
Ejemplo 90 Calcular el rango de la

1
2
A=
1
4

siguiente matriz

2 3 1 5
1 3 0 1

1 2 0 2
4 8 1 8

Els autors, 2002; Edicions UPC, 2002

134

CAPTULO 4. DETERMINANTES

Solucin: Se cumple
det

1 2
2 1

6= 0

Aadindole la tercera fila y las dems columnas resultan menores de orden 3.


Observamos que

1 2 1
1 2 3

2 1 3 = 0 y 2 1 0 6= 0

1 1 0
1 1 2

Aadiendo al menor cuyo determinante es no nulo la cuarta fila y las dems


columnas se obtienen los menores de orden 4. Observamos que

1 2 1 5
1 2 3 1

2 1 3 0
=0 y 2 1 0 1 =0

1 1 0 2
1 1 2 0

4 4 1 8
4 4 8 1

Por tanto, rang A = 3 y adems, segn estos resultados, podemos concluir que
la cuarta fila es combinacin lineal de las tres primeras; en efecto, la suma de
las tres primeras filas es la fila cuarta.

Corolario 33 Una matriz A y su traspuesta At tienen el mismo rango


rang A = rang At
Demostracin: Es inmediato a partir del teorema ???
Corolario 34 Una aplicacin lineal f y su dual f 0 tienen el mismo rango.
Demostracin: Sabemos que el rango de una aplicacin lineal f : E
F es la dimensin de Im f . Si e1 , ..., en es una base de E, entonces Im f =
hf (e1 ) , ..., f (en )i. Las coordenadas de f (e1 ) , ..., f (en ) forman las columnas
de la matriz A asociada a f . Por tanto,
rang f = rang A
El resultado se deduce ahora del teorema ??? y el corolario ???

4.3.3.

Clculo por determinantes de la matriz inversa

Teorema 84 Una matriz cuadrada A es inversible si y slo si det A 6= 0.


Demostracin: Mediante las transformaciones elementales entre filas y columnas, cualquier matriz cuadrada A resulta equivalente a una matriz diagonal D,
as como A puede obtenerse a partir de D por matrices elementales F y C, de
tipo fila y columna respectivamente.
A = Fs F1 D C1 Cr

Els autors, 2002; Edicions UPC, 2002

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA

135

Segn el teorema ???, se tiene


|A| = |Fs | |F1 | |D| |C1 | |Cr |
Como cada |Fi | 6= 0 y |Ci | 6= 0, ser |A| 6= 0 si y slo si |D| 6= 0. La forma
cannica D tiene exactamente r elementos 1 en la diagonal principal, siendo
r = rang A. Por tanto, |D| es el producto de sus n elementos diagonales y, en
consecuencia, |D| 6= 0 si y slo si r = n, es decir, si y slo si A es una matriz
inversible.
Lema 1 Sea A una matriz cuadrada de orden n. La suma de los productos
de los elementos de una columna (fila) por los adjuntos de una columna (fila)
paralela es cero.
Demostracin: Consideremos las columnas i y j de A con i 6= j. Sea A la
matriz que se obtiene sustituyendo en A la columna j por la columna i. Como A
tiene dos columnas iguales se tiene det A = 0. Si ahora desarrollamos det A
por los elementos de la columna j, se tiene
det A = a1i A1j + + ani Anj = 0
Anlogamente para filas, se tiene
ai1 Aj1 + + ain Ajn = 0

Teorema 85 Si A es una matriz cuadrada y det A 6= 0, entonces


A1 = (det A)1 (Aij )t
donde (Aij ) es la matriz de los adjuntos de los elementos de la matriz A.
Demostracin: La ecuacin obtenida en el lema anterior para filas
ai1 Aj1 + + ain Ajn = 0 (i 6= j)
y la ecuacin tambin para filas de
det A = ai1 Ai1 + + ain Ain
pueden escribirse conjuntamente as
ai1 Aj1 + + ain Ajn = ij |A|
donde
ij =

1 si i = j
0 si i 6= i

El nmero ij es precisamente el elemento (i, j) de la matriz identidad I; luego,


I = ( ij ). La igualdad anterior es muy semejante a un producto matricial; si
los subndices de los adjuntos Aji se intercambian, el primer miembro de la

Els autors, 2002; Edicions UPC, 2002

136

CAPTULO 4. DETERMINANTES

igualdad da el elemento (i, j) del producto de A = (aij ) por la matriz traspuesta


de la matriz de los adjuntos de los elementos de A
(ai1 A1j + + ain Anj ) = A (Aij )t
El segundo miembro de la igualdad es el elemento (i, j) de la identidad multiplicada por el escalar |A|. Por lo tanto, tenemos
A (Aij )t = |A| I
Como det A 6= 0, A es inversible y, en consecuencia,
1

A1 = |A|

(Aij )t

Definicin 65 Sea A = (aij ) una matriz cuadrada, se llama matriz adjunta


de A a la matriz que tiene por elemento (i, j) el adjunto Aij de aij de A.
Ejemplo 91 Calcular la matriz inversa

1
A= 1
1

de la siguiente matriz

2 2
1 1
0 1

Solucin: Observemos en primer lugar que


det A = 1 6= 0

luego A es inversible. Para calcular su inversa, primero calcularemos la matriz


adjunta de A

1
0 1
2 1
2
0
1 1
Por tanto,
A1

t
1
2
0
1
0 1
1 1
2 = 0
= |A|1 (Aij )t = 2 1
1 2
1
0
1 1

Els autors, 2002; Edicions UPC, 2002

Captulo 5

Sistemas de ecuaciones
lineales
5.1.

Planteamiento del problema

Supongamos que tenemos un sistema de ecuaciones lineales

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..

am1 x1 + am2 x2 + + amn xn = bm

donde los aij y bi son elementos conocidos de un cuerpo conmutativo K. Se


trata de encontrar las ntuplas (x1 , ..., xn ) de Kn que satisfacen todas estas
ecuaciones.
Observacin 65 Cada una de las ecuaciones del sistema se llama una ecuacin
lineal con las incgnitas x1 , ..., xn y, en conjunto, forman lo que se llama un
sistema de m ecuaciones lineales en dichas n incgnitas. Los elementos aij
se llaman los coeficientes del sistema. Los elementos bi se llaman trminos
independientes de las ecuaciones del sistema.
Si hacemos

A=

a11
a21
..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

am1

am2

amn

,b =

b1
b2
..
.
bm

,x =

x1
x2
..
.
xn

podemos escribir entonces el sistema anterior en forma matricial como sigue


Ax = b
137

Els autors, 2002; Edicions UPC, 2002

138

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

Observacin 66 Los coeficientes del sistema forman la matriz A que se llama


matriz del sistema. Su rango se llama rango del sistema.
Este mismo problema se puede plantear de otra manera. Sean E y F dos
espacios vectoriales sobre K con bases u1 , ..., un y v1 , ..., vm , respectivamente.
Entonces, sabemos que existe una aplicacin lineal f : E F que tiene
como matriz asociada en esas bases la matriz A. Designemos por b el vector
b = b1 v1 + + bm vm de F y por x el vector x = x1 u1 + + xn un de E. La
ecuacin matricial Ax = b es equivalente a escribir
f (x) = b
De este modo, el problema de hallar las soluciones del sistema se traduce en
encontrar las antiimgenes del vector b por la aplicacin lineal f .
Recprocamente, dada una aplicacin lineal f : E F y un vector b F,
el problema de encontrar las antiimgenes x de b es equivalente a resolver el
sistema de ecuaciones lineales
Ax = b
donde A es la matriz asociada a f en unas ciertas bases y b, x son matrices
de una columna formadas por las coordenadas de los vectores correspondientes.
Tanto en la primera interpretacin como en la segunda, nuestro objetivo es
1. Saber cundo el problema tiene solucin y cundo no
2. Si tiene solucin, saber cuntas soluciones tiene
3. Dar un mtodo para encontrar todas las soluciones
Para resolver cada una de estas cuestiones usaremos la interpretacin que nos
resulte ms cmoda. En general, los razonamientos de tipo terico son ms simples en el lenguaje de aplicaciones lineales y la resolucin de los casos concretos
se lleva a cabo mediante el lenguaje de matrices.

5.2.

Existencia de soluciones de un sistema de


ecuaciones lineales

La condicin necesaria y suficiente para que b admita una antiimagen, es


decir, para que el sistema tenga solucin, es que b Im f . Puesto que
Im f = hf (u1 ) , ..., f (un )i
resulta el siguiente teorema.
Teorema 86 La condicin necesaria y suficiente para que un sistema de ecuaciones lineales sobre un cuerpo K tenga solucin es que la matriz del sistema
y la que se obtiene al aadir la columna de trminos independientes, tengan el
mismo rango.

Els autors, 2002; Edicions UPC, 2002

5.2. EXISTENCIA DE SOLUCIONES DE UN SISTEMA DE ECUACIONES LINEALES139


Demostracin: Es claro que la concidicin b Im f es equivalente a
hf (u1 ) , ..., f (un )i = hf (u1 ) , ..., f (un ) , bi
Por tanto
rang f = dim Im f = dim hf (u1 ) , ..., f (un ) , bi
Sabemos que rang f = rang A, luego
rang A = rang (A|b)
donde (A|b) indica la matriz que se obtiene aadiendo a A la columna formada
por las coordenadas de b.
Observacin 67 En lenguaje de matrices, tenemos que el sistema Ax = b
tiene solucin si y slo si
rang A = rang (A|b)
A la matriz (A|b) suele llamarse matriz ampliada del sistema. Conocemos
mtodos para calcular el rango de una matriz. Por tanto, tenemos resuelto el
problema de saber si el sistema tiene o no soluciones.
Definicin 66 Se llama sistema homogneo asociado al sistema
Ax = b
al sistema de ecuaciones lineales que se obtiene haciendo bi = 0 para todo i =
1, ..., m.
Teorema 87 Las soluciones del sistema de ecuaciones lineales Ax = b, si
existen, se obtienen sumando a una solucin particular del sistema las soluciones
del sistema homogneo asociado.
Demostracin: En la demostracin del primer teorema de isomorfismo, se ha
visto que todos los vectores de E que se aplican por f en el mismo vector de
F forman una clase x0 + ker f mdulo el ncleo de f . Es decir, si f (x0 ) = b,
entonces cualquier vector x de la clase x0 + ker f tiene esa misma propiedad,
f (x) = b. As pues, b tiene tantas antiimgenes como vectores tiene ker f .
Adems, todas las antiimgenes se obtienen sumando a una solucin particular
x0 los vectores de ker f . Segn la definicin de ker f , los vectores de ker f tienen
por coordenadas las soluciones del sistema homogneo asociado al sistema dado
Ax = 0

Observacin 68 Con este ultimo teorema tambin hemos resuelto el problema


de saber cuntas soluciones tiene el sistema, siempre que tenga solucin.

Els autors, 2002; Edicions UPC, 2002

140

5.3.

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

Regla de Cramer

Vamos a dar en este apartado un mtodo para encontrar las soluciones de


un sistema de ecuaciones lineales en un caso muy particular.
Teorema 88 (Regla de Cramer) Sea el sistema Ax = b y supongamos que
la matriz A es cuadrada de orden n y que det A 6= 0. Entonces el sistema tiene
una nica solucin x = (x1 , ..., xn ) y se cumple
xi =

det (a1 , ..., ai1 , b, ai+1 , ..., an )


det A

para todo i = 1, ..., n; los vectores a1 , ..., an respresentan los vectores columna
de la matriz A.
Demostracin: Supongamos que en la ecuacin matricial
Ax = b
la matriz A es cuadrada de orden n y que det A 6= 0. Esto es equivalente a
suponer que en la ecuacin siguiente
f (x) = b
f es un isomorfismo. Entonces sabemos que hay una solucin y slo una, que
es
x = A1 b
Sabemos tambin que
A1 = (det A)1 (Aij )t
donde (Aij ) representa la matriz adjunta de A. Por tanto
xi = (det A)1

n
X

Aji bj

j=1

Ahora bien, la expresin

n
X

Aji bj

j=1

es el desarrollo por los trminos de la columna i del determinante de una matriz


con los mismos elementos que A, salvo la columna i, que ha sido sustituida por
(b1 , ..., bn ). Designemos ese determinante por det (a1 , ..., ai1 , b, ai+1 , ..., an ).
Entonces tenemos
xi =

det (a1 , ..., ai1 , b, ai+1 , ..., an )


det A

para todo i = 1, ..., n. Estas frmulas se conocen con el nombre de regla de


Cramer y proporcionan un mtodo para hallar la nica slucin del sistema
cuando det A 6= 0.

Els autors, 2002; Edicions UPC, 2002

5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES

141

Ejemplo 92 Resolver el sistema


+ 2y 3z + t = 2
2x y z t = 1
x + y + 2z t = 0
3x + 2y 4z 3t = 1
es

Solucin: La matriz del sistema es

1
2 3

2 1 1

1
1
2

3
2 4

cuadrada de orden 4 y su determinante

1
1
= 27 6= 0
1
3

Por tanto el sistema tiene una sola solucin. Aplicando la regla de Cramer,
obtenemos

2
2 3
1

1 1 1 1

0
1
2 1

1
2 4 3
x=
=2
27

1 2 3
1

2 1 1 1

1 0
2 1

3 1 4 3
=1
y=
27

t =

5.4.

1
2 2
1

2 1 1 1

1
1 0 1

3
2 1 3
27

1
2
3 2

2 1 1 1

1
1
2 0

3
2 4 1
27

=1

=1

Resolucin de un sistema de ecuaciones lineales

Vamos a dar en este apartado un mtodo para encontrar las soluciones de


un sistema de ecuaciones lineales en el caso general.

Els autors, 2002; Edicions UPC, 2002

142

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

Teorema 89 Sea el sistema Ax = b y supongamos que se cumple


rang A = rang (A|b) = r
y que el menor M de orden r de A

ai1 j1
..
M = .

air j1

..
.

ai1 jr
..
.
air jr

tiene determinante no nulo. Entonces el sistema admite las soluciones x =


(x1 , ..., xn ) tales que
x1

= 1
..
.

xr
xr+1

xn

= r
= r+1
..
.
= n

nr
X

i1 xr+i

nr
X

ir xr+i

i=1

i=1

donde 1 , ..., r es la solucin nica del sistema

ai1 j1 1 + + ai1 jr r = bi1

..
.

air j1 1 + + air jr r = bir

obtenida por la regla de Cramer, y i1 , ..., ir (i = 1, ..., n r) es la solucin


nica de cada sistema

ai1 j1 i1 + + ai1 jr ir = a1r+i

..
.

air j1 i1 + + air jr ir = arr+i


para cada i = 1, ..., n r obtenida tambin por la regla de Cramer.
Demostracin: Dado el sistema Ax = b,

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..

am1 x1 + am2 x2 + + amn xn = bm

Els autors, 2002; Edicions UPC, 2002

5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES

143

Observemos que el sistema es equivalente a la siguiente ecuacin vectorial


a1 x1 + a2 x2 + + an xn = b
donde a1 , a2 , ..., an son los vectores columna de la matriz A. Sabemos por hiptesis que
rang A = rang (A|b) = r
A fin de facilitarnos la notacin, no es restrictivo suponer que hemos reordenado
convenientemente las ecuaciones y las incgnitas para conseguir que el menor

a11 a1r
..
..
..
.
.
.

ar1

arr

tenga determinante D 6= 0; obsrvese que as evitamos escribir las permutaciones i, j Sr , presentes en el enunciado del teorema. Por tanto, los vectores
columna a1 , ..., ar de A son linealmente independientes; observemos, en particular, que r n. En estas condiciones, tenemos
ar+i = i1 a1 + + ir ar (i = 1, ..., n r)
b = 1 a1 + + r ar
es decir, los n r vectores columna restantes de A son combinaciones lineales
de los r primeros. Sustituyendo estos resultados en la ecuacin
a1 x1 + + ar xr + ar+1 xr+1 + + an xn = b
se obtiene
(x1 +

nr
X
i=1

i1 xr+i 1 ) a1 + + (xr +

nr
X
i=1

ir xr+i r ) ar = 0

De aqu, por la independencia lineal de los vectores a1 , ..., ar , todos los coeficientes de la combinacin son nulos y, por tanto, se obtiene
x1

= 1
..
.

xr

= r

nr
X

i1 xr+i

nr
X

ir xr+i

i=1

i=1

donde xr+1 , ..., xn pueden tomarse arbitrariamente en K. Estas frmulas dan explcitamente las soluciones del sistema de ecuaciones una vez conocidos los elementos 1 , ..., r , 11 , ..., 1r , ...., nr1 , ..., nrr del cuerpo K. Por tanto, debemos calcular estos elementos. Para ello, consideremos los sistemas que resultan

Els autors, 2002; Edicions UPC, 2002

144

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

al igualar las r primeras componentes de ambos miembros de las igualdades


siguientes
a1 i1 + + ar ir
a1 1 + + ar r
es decir,

= ar+i (i = 1, ..., n r)
= b

a11 i1 + + a1r ir = a1r+i

..
.

ar1 i1 + + arr ir = arr+i

(i = 1, ..., n r)

a11 1 + + a1r r = b1

..
.

ar1 1 + + arr r = br

Este ltimo sistema de r ecuaciones lineales con r incgnitas 1 , ..., r tiene


rango r por la condicin que hemos supuesto. La nica solucin se obtendr por
la regla de Cramer
i =

det (a1 , ..., ai1 , b, ai+1 , ..., ar )


(i = 1, ..., r)
det D

Por otro lado, cada uno de los sistemas

a11 i1 + + a1r ir = a1r+i

..
.

ar1 i1 + + arr ir = arr+i

(i = 1, ..., n r)

tiene tambin rango r y la solucin se obtendr por la regla de Cramer


ij =

det (a1 , ..., aj1 , ar+i , aj+1 , ..., ar )


det D

siendo i = 1, ..., n r y j = 1, ..., r.


Teorema 90 Sea el sistema Ax = b y supongamos que se cumple
rang A = rang (A|b) = r
y que el menor M de orden r de A

ai1 j1
..
M = .
air j1

..
.

ai1 jr
..
.
air jr

Els autors, 2002; Edicions UPC, 2002

5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES

145

tiene determinante no nulo. Las soluciones admitidas por el sistema en el teorema anterior
x1

= 1
..
.

xr
xr+1

xn

= r
= r+1
..
.
= n

nr
X

i1 xr+i

i=1

nr
X

ir xr+i

i=1

donde r+1 , ..., n K pueden escogerse arbitrariamente, son todas las soluciones del sistema

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..

am1 x1 + am2 x2 + + amn xn = bm

Demostracin: Si hacemos xr+1 = = xn = 0, por las frmulas se obtiene


el vector
x0 = (1 , ..., r , 0, ..., 0)
Obsrvese que es una solucin ya que al sustituir en el sistema de ecuaciones
se obtienen las condiciones

a11 1 + + a1r r = b1

..
.

ar1 1 + + arr r = br

que se satisfacen por el teorema anterior. Si en xr+1 , ..., xn hacemos xr+i = 1


y el resto todos nulos para cada i = 1, ..., n r, los vectores que se obtienen por
las frmulas son
x1
x2

xnr

= (1 11 , 2 12 , ..., r 1r , 1, 0, ..., 0)
= (1 21 , 2 22 , ..., r 2r , 0, 1, ..., 0)
..
.
= (1 nr1 , 2 nr2 , ..., r nrr , 0, 0, ..., 1)

obsrvese que cada una de ellas es una solucin ya que al sustituir en el sistema
se obtienen las condiciones

a11 i1 + + a1r ir = a1r+i

..
(i = 1, ..., n r)
.

ar1 i1 + + arr ir = arr+i

Els autors, 2002; Edicions UPC, 2002

146

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

que se satisfacen por el teorema anterior. Los vectores


x1 x0 , x2 x0 , ..., xnr x0
son del ncleo de la aplicacin lineal f asociada al sistema Ax = b. En efecto
A(xi x0 ) = Axi Ax0 = b b = 0
Puesto que estos vectores son linealmente independientes (por qu? se comprueba inmediatamente observando las ltimas n r componentes) y sabemos que
dim ker f = n r, son una base del ncleo. Por tanto, segn el teorema 2, todas
las soluciones del sistema son de la forma
x0 + ker f = x0 +

nr
X
i=1

(xi x0 )xr+i

que coinciden con las soluciones dadas por las frmulas del teorema anterior.
Por tanto, hemos demostrado que dichas frmulas dan todas las soluciones del
sistema.
Observacin 69 Las incgnitas xr+1 , ..., xn cuyos valores puden elegirse arbitrariamente en K se llaman incgnitas no principales, mientras que las
restantes se llaman incgnitas principales. Supuesto que el sistema tiene soluciones y es de rango r, del teorema anterior ??? se sigue que como incgnitas
principales podemos elegir r cualesquiera de ellas con tal que las columnas del
mismo subndice sean vectores linealmente independientes.
Los resultados de los teoremas anteriores suelen resumirse en el siguiente
teorema.
Teorema 91 (Teorema de Rouch-Frobenius) La condicin necesaria y suficiente para que un sistema de m ecuaciones lineales con n incgnitas sobre un
cuerpo K tenga solucin es que la matriz del sistema y la matriz ampliada con
la columna de trminos independientes tengan el mismo rango r. Supuesto que
la condicin se cumple, la solucin es nica si el rango es igual al nmero de
incgnitas. Si r < n se llaman incgnitas principales a r cualesquiera de las
incgnitas cuyas columnas en la matriz del sistema son linealmente independientes; entonces se pueden escoger arbitrariamente en K los valores de las incgnitas restantes, que se llaman incgnitas no principales, y con stas se expresan
linealmente los valores de las incognitas principales que con ellos forman una
solucin del sistema.
Definicin 67 Se llaman sistemas homogneos a los sistemas de ecuaciones
lineales cuyos trminos independientes son todos nulos. Matricialmente, un sistema homogneo se expresa como
Ax = 0
Tales sistemas admiten obviamente la solucin x1 = x2 = = xn = 0 y
tienen como conjunto de soluciones el ncleo de la aplicacin lineal cuya matriz
asociada es la matriz del sistema de ecuaciones.

Els autors, 2002; Edicions UPC, 2002

5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES

147

A los sistemas homogneos podemos aplicar el teorema de Rouch-Frobenius.


Como ejemplo, proponemos el siguiente ejemplo, muy frecuente en Geometra.
Definicin 68 Ejemplo 93 Sea el sistema
a11 x1 + a12 x2 + + a1n xn = 0
a21 x1 + a22 x2 + + a2n xn = 0
..
.
an11 x1 + an12 x2 + + an1n xn = 0

y supongamos que rang A = n 1. Se trata de encontrar todas sus soluciones.


Solucin: Por el teorema ???, supuesto que

a11

a1n1

..
..
..
det An =
6= 0
.
.
.

an11 an1n1
se cumple

det (a1 , ..., ai1 , b, ai+1 , ..., an1 )


= 0 (i = 1, ..., n 1)
det An

i =

ya que b = 0, y
1j =

det (a1 , ..., aj1 , an , aj+1 , ..., an1 )


det Aj
= (1)nj1
det An
det An

siendo j = 1, ..., n1 y Aj indica la submatriz que resulta de suprimir la columna


j a la matriz A del sistema. Por tanto,
x1
x2

xn1
xn

det A1

det An
det A2
= 12 xn = (1)n2

det An
..
.
det An1
= 1n1 xn = (1)

det An
=
= 11 xn = (1)n1

con K, y las soluciones forman el subespacio vectorial generado por el vector


((1)n1

det A1
det A2
det An1
, (1)n2
, ...,
, 1)
det An
det An
det An

o bien,
((1)n1 det A1 , (1)n2 det A2 , ..., det An1 , det An )
observemos que dicho subespacio es de dimensin 1.

Els autors, 2002; Edicions UPC, 2002

148

5.5.

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

Clasificacin de los sistemas de ecuaciones


lineales

Definicin 69 Si un sistema tiene alguna solucin se llama compatible, en


caso contrario se llama incompatible. Si tiene una nica solucin se llama
determinado y si tiene infinitas solucines se llama indeterminado.
Segn el teorema de Rouch-Frobenius, podemos clasificar entonces los sistemas de m ecuaciones lineales con n incgnitas sobre un cuerpo conmutativo
K, como sigue:
1. No homogneos
a) Compatible: rang A = rang (A|b) = r
1) Determinado: r = n; la solucin se encuentra por la regla de
Cramer
2) Indeterminado: r < n; las soluciones se encuentran por la regla
de Cramer una vez elegidas r incgnitas principales
b) Incompatible: rang A 6= rang (A|b)
2. Homogneos: siempre son compatibles
a) Determinado: rang A = n; la solucin es la trivial
b) Indeterminado: rang A = r < n; las soluciones se encuentran por la
regla de Cramer una vez elegidas r incgnitas principales
Ejemplo 94 Discutir y resolver, si es posible, el siguiente sistema

x + 2y z + t + u = 0

3x y + t u = 6
6x + y + t + u = 1

x 2y + 2z 2t = 5

Solucin: En primer lugar calculemos el rango de A. Puesto que

1
2 1

3 1
0 = 9 6= 0

6
1
0

1
2 1
1
3 1
0
1
6
1
0
1
1 2
2 2

=0

1
2 1
1
3 1
0 1
=0
6
1
0
1
1 2
2
0

Els autors, 2002; Edicions UPC, 2002

5.5. CLASIFICACIN DE LOS SISTEMAS DE ECUACIONES LINEALES149


se cumple que rang A = 3.
(A|b). Puesto que

Calculemos ahora el rango de la matriz ampliada


1
2 1
0
3 1
0
6
6
1
0
1
1 2
2 5

=0

se cumple que rang (A|b) = 3. Por tanto, como rang A = rang (A|b) = 3 < 5,
el sistema es compatible indeterminado. Elegimos como incgnitas principales
x, y, z ya que los vectores columna correspondientes a estas incgnitas son linealmente independientes. Por tanto, las incgnitas t, u pueden tomar cualquier
valor real; supongamos que t = y u = . Entonces el sistema

x + 2y z =
3x y = 6 +

6x + y = 1

tiene una sola solucin para cualquier valor de , R. Aplicando la regla de


Cramer, se obtiene


2 1

6 + 1
0

1
1
0
7 2
x=
=
9
9 9

1
1

3 6+
0

6 1
0
11 1
= +
y=
9
3
3

3 1 6 +

6
1 1
59 13
9
+
z=
=
4
4
4
4
t=
u=
Por tanto, las soluciones del sistema son

(x, y, z, t, u) = (7/9, 11/3, 59/4, 0, 0)+(2/9, 1/3, 13/4, 1, 0)+(0, 1, 9/4, 0, 1)


para todo , R, o bien,
x =
y

t =
u =

7 2
t
9 9
11 1
+ tu
3
3
59 13
9
t+ u
4
4
4
t
u

Els autors, 2002; Edicions UPC, 2002

150

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

5.6.

Mtodo de Gauss

Otro mtodo para resolver sistemas de ecuaciones lineales es el de reduccin


o de Gauss-Jordan. Su justificacin terica est basada en unos razonamientos
muy simples. Sea f : E F una aplicacin lineal y sean u1 , ..., un y v1 , ..., vm
bases de E y F respectivamente. Denotamos por A la matriz asociada a f en
estas bases y por b el vector de F cuyas coordenadas son (b1 , ..., bm ). Queremos
encontrar las antiimgenes x de b. Los cambios en la base de F dan lugar a
cambios en la matriz asociada y en las coordenadas de b, pero no afectan a las
coordenadas de x, que permanecen invariables. Por tanto, si A1 y b1 son la nueva
matriz asociada y las nuevas coordenadas de b, las soluciones del sistema A1 x =
b1 coinciden con las del sistema original Ax = b. Efectuando cambios en la
base de F podemos conseguir un sistema equivalente con una matriz lo bastante
simple como para que el hecho de encontrar la solucin general no implique
ningn clculo. Adems, los cambios que efectuaremos son nicamente de tres
tipos muy simples y se corresponden con las transformaciones elementales.
1. Permutacin del orden de los vectores de la base de F. Naturalmente,
entonces, las coordenadas de
f (ui ) = a1i v1 + + ami vm (i = 1, ..., n)
y de
b = b1 v1 + + bm vm
quedan permutadas, lo cual equivale a que en la matriz (A|b) las filas
queden permutadas o que las ecuaciones del sistema se intercambien.
2. Sustitucin de un vector vj de la base de F por kvj , con k 6= 0. Entonces
f (ui ) = a1i v1 + + (aij k 1 ) k vj + + ami vm
b = b1 v1 + + (bj k 1 ) k vj + + bm vm

Es decir, en la matriz (A|b) la fila j queda multiplicada por k1 o que la


ecuacin j queda multiplicada por k 1 .
3. Sustitucin de un vector vj de la base de F por vj + k vh , con h 6= j.
Entonces
f (ui ) = a1i v1 + + aji (vj + k vh ) + + (ahi aji k) vh + + ami vm
b = b1 v1 + + bj (vj + k vh ) + + (bh bj k) vh + + bm vm
Es decir, en la matriz (A|b), a la fila h se le resta la fila j multiplicada por
k o lo que es lo mismo, a la ecuacin h se le resta la ecuacin j multiplicada
por k.

Els autors, 2002; Edicions UPC, 2002

5.6. MTODO DE GAUSS

151

Haciendo cambios del tipo 1, 2 y 3 y permutando, si es necesario, el orden de


las incgnitas, lo que equivale a permutar el orden de las n primeras columnas
de (A|b), obtenemos una matriz de la forma

1 0 0 c1r+1 c1n
d1
0 1 0 c2r+1 c2n
d2

.. .. . .
..
..
.
..
.
..
..
. .

.
.
.
.

0 0 1 crr+1 crn

d
r

0 0 0

0
d
r+1

.. .. . .
.
..
..
.
.
..
..
..
. .

. .
.
m
d
0 0 0
0

0
El sistema as obtenido es de la forma
x1
x2
..

.
xr

+ c1r+1 xr+1
+ c2r+1 xr+1
..
..
.
.

+
+

+ c1n xn
+ c2n xn

=
=
..
.

+ crr+1 xr+1

+ crn xn
0
..
.

= dr
= dr+1
..
..
.
.
= dm

d1
d2

tiene, pues, las mismas soluciones que el original, salvo tal vez el orden de
las incgnitas. Por tanto, el sistema es compatible si y slo si
dr+1 = = dm = 0
y, en este caso, la solucin general es
xi = di cir+1 xr+1 cin xn
xr+1 = xr+1
..
.

(i = 1, ..., r)

xn = xn
Observacin 70 Los cambios en la matriz (A|b) se efectan de la manera
siguiente: si la primera columna es toda 0, se pasa al lugar n. Si hay un elemento
no nulo, se permutan las filas de forma que quede en primer lugar. Con un
cambio del tipo 2 se puede conseguir que este elemento pase a ser un 1 y con
cambios del tipo 3 se puede conseguir que el resto de la columna sea 0. La
primera columna queda, as, en la forma deseada. Supongamos que tenemos h
columnas en la forma deseada. Si en la columna h + 1 los elementos de las filas
h + 1, ..., m son 0, la situamos en el lugar n. En caso contrario, colocamos un
elemento no nulo en la fila h + 1, permutando nicamente las filas h + 1, ..., m.
Con cambios del tipo 2 y 3 podemos conseguir que este elemento sea 1 y el resto
de la columna sea 0. Observemos que de esta forma las columnas anteriores no
varan. El proceso puede continuar hasta obtener una matriz como la que hemos
escrito ms arriba.

Els autors, 2002; Edicions UPC, 2002

152

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

Notacin 2 Una de las ventajas del mtodo de Gauss es que se puede aplicar
simultneamente a sistemas de ecuaciones con la misma matriz y diferentes trminos independientes. Sean, por ejemplo, Ax = b y Ax = c dos sistemas con
matriz A. Si efectuamos los cambios necesarios en la matriz (A|b|c), resolveremos al mismo tiempo los dos sistemas.
Ejemplo 95 Consideremos el sistema
x1 2x2 + 3x3 + 5x4 4x5
2x1 4x2 + 6x3 + 5x4 + 2x5
2x1 5x2 + 7x3 + 7x4 + 3x5
x1 + x2 2x3 3x4 + 5x5

= b1
= b2
= b3
= b4

y supongamos que nos interesan las soluciones cuando b es (2, 6, 7, 3) y


(3, 1, 1, 2).
Solucin: Enumeramos las columnas y las filas. Para facilitarnos la escritura, las operaciones con filas o columnas indicadas en cada paso se refieren
siempre al paso inmediatamente anterior.
1.
F1
F2
F3
F4

C1 C2 C3 C4 C5
1 2
3
5 4
2 3
2 4
6
5
2 6 1
2 5
7
7
3 7
1
1
1 2 3
5 3
2

2.
F1
F2 2F1
F3 2F1
F4 + F1

C1 C2 C3 C4 C5
1 2
3
5 4
2 3
0
0
0 5 10 10
5
0 1
1 3 11 11
7
0 1
1
2
1 1 1

3.
F1
F4
F3
F2

C1 C2 C3 C4 C5
1 2
3
5 4
2 3
0 1
1
2
1 1 1
0 1
1 3 11 11
7
0
0
0 5 10 10
5

4.
F1 2F2
F4
F3 F2
F2

C1 C2 C3 C4 C5
1
0
1
1 6
4 1
0
1 1 2 1
1
1
0
0
0 5 10 10
8
0
0
0 5 10 10
5

Els autors, 2002; Edicions UPC, 2002

5.7. CLCULO DE LA MATRIZ INVERSA

153

5.
F1
F2
F3
F4 F3

C1 C2 C3 C4 C5
1
0
1
1 6
4 1
0
1 1 2 1
1
1
0
0
0 5 10 10
8
0
0
0
0
0
0 3

observemos que la ltima fila nos dice que el segundo sistema es incompatible. En consecuencia, podemos eliminarla y tambin la ltima columna.
6.
F1
F2
F3 /5

C1 C2 C4 C3 C5
1
0
1
1 6 4
0
1 2 1 1 1
0
0
1
0 2 2

7.
F1 F3
F2 + 2F3
F3

C1 C2 C4 C3 C5
1
0
0
1 4 2
0
1
0 1 5 5
0
0
1
0 2 2

Por tanto, las soluciones del primer sistema se obtienen del siguiente sistema
equivalente

x1 + x3 4x5 = 2

x2 x3 5x5 = 5

x4 2x5 = 2

x3 = x3

x5 = x5

es decir,

x1
x2
x3
x4
x5

5.7.

= 2 x3 + 4x5
= 5 + x3 + 5x5
= x3
= 2 + 2x5
= x5

Clculo de la matriz inversa

Dada A Mn (K), se trata de encontrar, si existe, una matriz B = (bij )


que cumpla AB = In . Esto equivale a buscar las n columnas bi = (b1i , ..., bni )
de B de forma que para cada i = 1, ..., n se cumpla
Abi = ei
donde ei = (0, ..., 1, ..., 0) es la columna i de In . En otras palabras, debemos
resolver los siguientes n sistemas simultneamente
Ax = ei

(i = 1, ..., n)

Els autors, 2002; Edicions UPC, 2002

154

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES

todos con la misma matriz A. Para hacerlo aplicaremos el mtodo de Gauss.


Consideremos la matriz (A|e1 | |en ) y apliquemos las transformaciones del
mtodo de Gauss. Observemos que (|e1 | |en ) es precisamente la matriz identidad. Por tanto, partimos de
(A|In )
y llegaremos a una matriz del tipo (In |B), es decir,

1 0 b11 b1n
.. . .
.
..
..
..
.
. ..
.
.
.
0 1 bn1 bnn

La solucin del primer sistema es la primera columna de B, es decir, xi = bi1 ,


i = 1, ..., n, etc. En resumen, resulta que la matriz (bij ) que hemos obtenido
as es precisamente la matriz inversa de A. Naturalmente, puede suceder que la
matriz A no se pueda transformar en la matriz identidad In . Entonces uno de
los sistemas Ax = ei para un cierto 1 i n, resulta incompatible y A no
tiene matriz inversa.
Ejemplo 96 Hallar la inversa de la siguiente matriz

1 1 1
A= 0 1 1
1 0 1

Solucin: Para facilitarnos la escritura, las operaciones con filas indicadas


en cada paso se refieren siempre al paso inmediatamente anterior. As tenemos
1.
F1
F2
F3

1 1 1 1 0 0
0 1 1 0 1 0
1 0 1 0 0 1

2.
F1
F2
F3 F1

1
1 1
1 0 0
0
1 1
0 1 0
0 1 0 1 0 1

3.
F1
F2
F3 + F2

1 1 1
1 0 0
0 1 1
0 1 0
0 0 1 1 1 1

4.
F1 F3
F2 F3
F3

1 1 0
2 1 1
0 1 0
1
0 1
0 0 1 1
1
1

Els autors, 2002; Edicions UPC, 2002

5.8. ESTUDIO DE LAS ECUACIONES AX = B

155

5.
F1 F2
F2
F3
Por tanto,
A1

5.8.

1 0 0
1 1
0
0 1 0
1
0 1
0 0 1 1
1
1

1 1
0
0 1
= 1
1
1
1

Estudio de las ecuaciones AX = B

1. Calculamos rang A y rang (A|B). Si son iguales, el sistema es compatible


y por tanto tiene solucin, y si no son iguales, el sistema es incompatible,
es decir, no tiene solucin.
2. Procedemos a efectuar transformaciones elementales en la matriz (A|B)
hasta conseguir una nueva matriz de la forma (I|X), siendo I la matriz
identidad. Si esto es posible, entonces X es la nica solucin del sistema y
por tanto decimos que el sistema es compatible determinado. Ahora bien,
puede ocurrir que al efectuar las transformaciones por filas no sea posible
llegar a la situacin sealada antes. Sin embargo, reordenando columnas
(o sea incgnitas) si es necesario, siempre ser posible llegar a una matriz
de la forma (I|T |Z), donde (I|T ) es la transformada de A y T es una
matriz de tantas columnas como grados de libertad (o sea incgnitas no
principales) tenga el sistema AX = B, y Z es la transformada de B. En
este ltimo caso, el problema inicial se ha reducido a resolver el sistema
equivalente (I|T )X = Z. Descomponiendo la matriz de las incgnitas X
en dos submatrices o cajas X1 y X2 de rdenes tales que pueda efectuarse
la multiplicacin matricial, se tiene

X1
= IX1 + T X2 = X1 + T X2
(I|T )X = (I|T )
X2
Por tanto, el sistema inicial es equivalente al siguiente
X1 + T X2 = Z
es decir,
X1 = Z T X2
X2 = X2

Por tanto, la solucin general viene dada por


Z T X2
X1
=
X=
X2
X2

Els autors, 2002; Edicions UPC, 2002

156

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES


en donde X2 es la matriz de las incnitas no principales y por tanto pueden
tomar cualquier valor en K. En este caso, decimos que el sistema es compatible indeterminado.

Observacin 71 Cuando el sistema es de la forma XA = B, tenemos dos


alternativas. La primera consiste en hacer lo mismo que antes, pero aplicando
transformaciones elementales por columnas en lugar de por filas. La segunda
alternativa consiste en observar que el sistema XA = B es equivalente a At X t =
B t y, en consecuencia, podemos resolver este ltimo siguiendo las indicaciones
explicadas. Sin embargo, es importante no olvidar que la solucin que se obtiene
as es X t y, por tanto, para hallar X habr que trasponer X t .
Ejemplo 97 Discutir segn los valores de la compatibilidad de la ecuacin
XA = B, siendo

1 1
1 2

1 1
y B=
A=
1 1 1
1 1
Solucin: Es claro que XA = B es equivalente a At X t = B t y por tanto,
discutiremos la compatibilidad de este ltimo sistema. As tenemos

1 1 1 1
t t
A |B = 1 1 1
1 1 2 1

Aplicando transformaciones elementale por filas, tenemos

F3
1 1 2 1
1 1 1 1
1 1 1 1 1 1 F2
1 1 2 1
1 1
1 1
F1

1
1

2
1 1 2 1
F1
1
1 1 1 0 1 1 2
0 F2 F1
1 1
1 1
0 1 1 2 1 3 1
F3 aF1


2
1
1

1
1

2
1
0 1 1 2

0 1
1
2
0

2
3
2
0 1 1
0
0 2 1 + 2 3
1 1
Puesto que las transformaciones que hemos efectuado respetan el valor del determinante de At , tenemos
det At = ( 1)(2 2 ) = ( 1)2 ( + 2)
Por tanto, si 6= 1 y 6= 2, entonces rang At = 3 y por tanto se cumple
rang At = rang (At |B t ) = 3. En este caso, el sistema es compatible determinado. Si = 1, tenemos

1 1 1 1 1
t t
A |B 0 0 0 0 0
0 0 0 0 0

Els autors, 2002; Edicions UPC, 2002

1
F
0 F
1
F

5.8. ESTUDIO DE LAS ECUACIONES AX = B

157

y por tanto tenemos rang At = rang (At |B t ) = 1. En este caso, el sistema es


compatible indeterminado. Si = 2, tenemos

1
1 2
4
1
t t
3 6
0
A |B 0 3
0
0
0
3 1

y por tanto tenemos rang At = 2 y rang (At |B t ) = 3. En este caso el sistema es


incompatible, es decir, no tiene solucin. Vamos ahora a encontrar las soluciones
en los casos en los que el sistema es compatible.
1.

Empecemos por el caso en que

1
t t
A |B 0
0
siendo T =

1 1

yZ=

1 1 1

= 1. Tenemos,

1 1 1 1
0 0 0 0 = (I1 |T |Z)
0 0 0 0

1 1 . Por tanto,

X1
X2

Sabiendo que X t es de orden 3 2, tomamos

X1 =

a b

y de este modo obtenemos


(1) X1 +
es decir,
(1)
Por tanto

a b

a b

1 1

1 1

1 1

X2 =

X2 =

1 1

c d
e f

1 1

1 1

c d
e f

c+e d+f

La solucin general de At X t = B t es

1ce 1df
a b

d
Xt = c d = c
e
f
e f
y por tanto

X=

1ce
1df

c e
d f

es la solucin general del sistema AX = B.

Els autors, 2002; Edicions UPC, 2002

158
2.

CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES


Si 6= 1 y 6= 2, entonces tenemos

1
1

2
t t
1
2
A |B 0 1
2
0
0 2 1 + 2 3

1
0
1

Observemos que 2 2 = ( 1)( + 2) y que 1 + 2 3 =


( 1)( + 1)2 , por tanto

1 1
t t

0 1 1
A |B
0 0 1

1 1
0 1 1
0 0 1

1 1 0
0 1 0

0 0 1

(+1)2
+2

+2
1
+2
(+1)2
+2

Por tanto, obtenemos

(+1)2
+2

1
0
1
+2

F1

1
1 F2
1
(1)(+2) F3

1 1 0
+2
1

0 1 0
+2
2
1
0 0 1 (+1)
+2
+2

2
1 0 0 +1
+2
+2
1
1
0 1 0
+2
+2
2
1
0 0 1 (+1)
+2
+2

1
0

1 0 0
t t
A |B 0 1 0
0 0 1

+1
+2

1
+2
(+1)2
+2

1
+2
1
+2
1
+2

2
+2
1
+2
1
+2
1
+2
1
+2
1
+2

F1 F3

F2 + F3
F3

F1 F2

F2
F3

t
= (I3 |X )

y, en consecuencia, la solucin es

1
( + 1) 1 ( + 1)2
X=
1
1
1
+2

Els autors, 2002; Edicions UPC, 2002

Captulo 6

Diagonalizacin de
endomorfismos
6.1.

Vectores propios y valores propios. Polinomio


caracterstico

Definicin 70 Sea f End (E). Un vector v E, v 6= 0, es un vector propio


de f si
f (v) = kv, para algn k K.
Diremos, entonces, que k es un valor propio de f .
Observacin 72 Un vector v 6= 0 es vector propio de f de valor propio k si
y slo si f (v) kv = 0, es decir, si y slo si v ker (f kI). Un elemento
k K es un valor propio de f si y slo si ker (f kI) 6= {0}.
Definicin 71 Se llama multiplicidad del valor propio k a la dimensin de
ker (f kI).
Ejemplo 98 Los vectores de ker f diferentes de 0 son vectores propios de valor
propio 0.
Ejemplo 99 Si f = kI (homotecia de razn k), todo v 6= 0 es un vector propio
de f , y k es el nico valor propio de f .
Ejercicio 1 Si todo v E, v 6= 0, es un vector propio de f , f es una homotecia.
Teorema 92 k K es valor propio de f si y slo si det (f kI) = 0.
Demostracin: k es valor propio ker (f kI) 6= {0} det (f kI) =
0
159

Els autors, 2002; Edicions UPC, 2002

160

CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS


Definicin 72 Sea A = aji la matriz de f
E. Entonces, si k es un valor propio de f ,
1
a1 k
a12

2
2
a1
a2 k

det (f kI) =
..
..

.
.

n
an
a
1
2

en una cierta base e1 , . . . , en de

..
.

=0

n
an k
a1n
a2n
..
.

Esta expresin es una ecuacin de grado n en la incgnita k, el miembro izquierdo de la cual es el valor en k de un polinomio pA (x), que denominaremos polinomio caracterstico de A.
Teorema 93 Si A y B son las matrices asociadas a f en dos bases distintas,
entonces pB (x) = pA (x).
Demostracin: Se cumple:
det (B kI) = det (f kI) = det (A kI)

k K.

Es decir, pB (k) = pA (k) para todo k K. Si K tiene ms de n elementos,


resulta que pB (x) = pA (x).
Si K tiene n elementos o menos, esta demostracin no sirve, pero el resultado
contina siendo cierto. Una manera de demostrarlo es considerar pA (x) como
un determinante con elementos en el anillo K [x] :

1
a1 x
a12

a1n

a21
a2n
a22 x

pA (x) = det (A xI) =


.
..
..
..
..

.
.
.
.

an
an x
an
1

La definicin y la mayora de las propiedades de los determinantes de matrices


con elementos en un cuerpo K se pueden generalizar a matrices con elementos en
K [x]. En particular, se cumple que el determinande de un producto de matrices
es el producto de sus determinantes. Entonces, si A y B son matrices del mismo
endomorfismo, B = P 1 AP (donde P es una matriz invertible) y
det (B xI) = det(P 1 AP xI) = det(P 1 (A xI) P ) =
= det P 1 det (A xI) det P = det (A xI) .

Observacin 73 El teorema anterior nos permite hablar del polinomio caracterstico de f , pf (x).
Teorema 94 El polinomio caracterstico de A es
n

pA (x) = (1) xn +(1)

n1

(a11 + +ann ) xn1 + +(1) Ar xr + +det A,

Els autors, 2002; Edicions UPC, 2002

6.2. DIAGONALIZACIN DE ENDOMORFISMOS

161

donde Ar es la suma de los determinantes de los menores de orden n r formados por los elementos de A de (n r) filas y (n r) columnas correspondientes
a los mismos ndices: aji , i = i1 , . . . , inr , j = i1 , . . . , inr . Es decir, son los
menores de orden n r que tienen la diagonal principal sobre la diagonal principal de A.
Demostracin: No efectuaremos el clculo de los Ar , que es largo y pesado.
Por otra parte, existen maneras ms cmodas de hallarlos que las que podramos
dar con los conocimientos que tenemos ahora. Nos limitaremos a calcular el
coeficiente de xn1 y el trmino independiente.
De la definicin de determinante resulta

1
a1 k
a12

a1n

a21
a2n
a22 k

= (a11 k)(a22 k) (ann k) + S,

..
..
..
..

.
.
.
.

an
an k
an
1

donde S es una suma de productos en cada uno de los cuales hay a lo sumo
n 2 elementos de la diagonal. Los trminos de grado n y n 1 en k son, por
tanto,
(1)n k n + (1)n1 (a11 + + ann ) kn1 .
El trmino independiente de pA (x) es pA (0) = det (A 0I) = det A.
Corolario 35 Si A y B son dos matrices asociadas al mismo endomorfismo,
es decir, tales que B = P 1 AP con P invertible, entonces
a11 + + ann = b11 + + bnn .
Demostracin: Del teorema anterior y de la invariancia del polinomio caracterstico, se deduce que Ar = Br para todo r y, en particular,
a11 + + ann = b11 + + bnn .
Definicin 73 La suma a11 + + ann se llama la traza de A, tr A. Dado
que dos matrices equivalentes tienen la misma traza, tiene sentido referirse a la
traza de f , tr f.

6.2.

Diagonalizacin de endomorfismos

Sea f End (E). Si conseguimos formar una base de E con vectores propios
de f , la matriz de f tendr una forma muy simple:

k1 0 0
0 k2 0

..
.. . .
.. .
.
.
.
.
0 0 kn

Els autors, 2002; Edicions UPC, 2002

162

CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS

Todos los elementos no situados sobre la diagonal sern 0 y k1 , k2 , . . . , kn


sern los valores propios de los vectores propios de la base.
Definicin 74 Una matriz de la forma

k1 0
0 k2

..
.. . .
.
.
.
0 0

0
0
..
.
kn

se llama una matriz diagonal.


Diagonalizar un endomorfismo f quiere decir encontrar una base de
vectores propios de f ; diagonalizar una matriz A quiere decir encontrar una
matriz diagonal equivalente a A.
Diremos que un endomorfismo f es diagonalizable si se puede encontrar
una base de vectores propios de f . Una matriz se puede diagonalizar si y slo si
el endomorfismo asociado es diagonalizable.
Observacin 74 En la seccin anterior hemos dado ya una manera de encontrar los valores propios y los vectores propios: los valores propios son los ceros
del polinomio caracterstico y ker (f kI) es el conjunto de vectores propios
de valor propio k (ms el 0). Slo queda, pues, ver si hay n vectores propios
linealmente independientes.
Teorema 95 Vectores propios de valores propios diferentes son linealmente independientes.
Demostracin: Sean v1 , . . . , vm vectores propios de valores propios distintos
k1 , . . . , km . Procederemos por induccin sobre m. Si m = 1, v1 6= 0 es linealmente independiente. En general, sea a1 v1 + + am vm = 0; entonces
0 = (f k1 I) (a1 v1 + + am vm ) = a2 (k2 k1 ) v2 + + am (km k1 ) vm .
Por hiptesis de induccin, v2 , . . . , vm son linealmente independientes, de donde
se deduce que aj (kj k1 ) = 0, j = 2, . . . , m. Puesto que kj 6= k1 si j 6= 1, ser
aj = 0

para j = 2, . . . , m.

Entonces a1 v1 = 0, de donde tambin a1 = 0.


Corolario 36 El nmero de valores propios diferentes es n. Si hay exactamente n valores propios diferentes, el endomorfismo es diagonalizable.
Ejemplo 100 Consideremos el endomorfismo f : R2 R2 cuya matriz es

3
4
5
4
5

35

en la base usual (1, 0) , (0, 1). Su polinomio caracterstico es


x2 1 = (x 1) (x + 1) .

Els autors, 2002; Edicions UPC, 2002

6.2. DIAGONALIZACIN DE ENDOMORFISMOS

163

f tiene, por tanto, dos valores propios: +1 y 1. El subespacio de vectores


propios de valor propio +1 es ker (f I). La matriz de (f I) es
2

4
5
5
,
4
85
5
de donde resulta que ker (f I) = {(2y, y)} = h(2, 1)i. Anlogamente se ve que
ker (f + I) = h(1, 2)i es el subespacio de vectores propios de valor propio 1.
Los vectores (2, 1) , (1, 2) forman una base en la que la matriz de f es

1 0
.
0 1
La imagen de un v E se puede encontrar geomtricamente de la manera
siguiente: descompongamos v como suma de un vector v1 de h(2, 1)i y un vector
v2 de h(1, 2)i: v = v1 + v2 . Entonces f (v) = v1 v2 . Esto es una simetra
de eje h(2, 1)i.
Ejemplo 101 Consideremos ahora f : R2 R2 con matriz

1 1
0 1
en la base usual (1, 0) , (0, 1). El polinomio caracterstico es (1 x)2 y, por tanto,
el nico valor propio es 1. Si f diagonalizase, su matriz diagonal sera

1 0
,
0 1
f sera la identidad y eso no es cierto. De hecho, el subespacio de vectores
propios tiene dimensin 1 : ker (f I) = h(1, 0)i.
Teorema 96 Si r es la multiplicidad del valor propio k, es decir, si r = dim ker (f kI),
y s es la multiplicidad del cero k del polinomio caracterstico, entonces r s.
Demostracin: Sea v1 , . . . , vr una base de ker (f kI). Completmosla hasta
obtener una base de E : v1 , . . . , vn . En esta base la matriz de f es de la forma

k 0 0 a1r+1 a1n
..
..

0 k 0
.

.. .. . .
..
..
..
. .
.
.
.

.
.
A=

.
..
..
0 0 k

. . .
..
..
. . ...
.. ..
.

.
0

anr+1

ann

El polinomio caracterstico es, pues, p (x) = (k x) q (x), lo que demuesta el


enunciado.

Els autors, 2002; Edicions UPC, 2002

164

CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS

Supongamos ahora que f es diagonalizable y sea

k1 0
.. . .
..
.
.
.
0

kn

su matriz diagonal (k1 , . . . , kn no necesariamente distintos). El polinomio


caracterstico es
p (x) = (k1 x) (kn x)
y se descompone, por tanto, en factores lineales. Si un valor propio ki aparece
s veces en la diagonal, la multiplicidad del cero ki de p (x) es s. Por otro lado,
(f ki I) tendr una matriz diagonal con exactamente s ceros en la diagonal,
de donde dim ker (f ki I) = s. Estos hechos caracterizan los endomorfismos
diagonalizables, como lo demuestra el siguiente teorema.
Teorema 97 (Teorema de diagonalizacin) Un endomorfismo f es diagonalizable si y slo si su polinomio caracterstico se descompone en factores
lineales y la multiplicidad de cada uno de sus ceros coincide con su multiplicidad como valor propio de f .
Demostracin: ) Supongamos ahora que f es diagonalizable y sea

k1 0
.. . .
.
.
. ..
0

kn

su matriz diagonal (k1 , . . . , kn no necesariamente distintos). El polinomio caracterstico es


p (x) = (k1 x) (kn x)

y se descompone, por tanto, en factores lineales. Si un valor propio ki aparece


s veces en la diagonal, la multiplicidad del cero ki de p (x) es s. Por otro lado,
(f ki I) tendr una matriz diagonal con exactamente s ceros en la diagonal,
de donde dim ker (f ki I) = s.
) Demostremos ahora las condiciones del enunciado son suficientes para
que f sea diagonalizable. Sea
p (x) = (1)n (x k1 )n1 (x kr )nr ,

n1 + + nr = n

el polinomio caracterstico de f . Pongamos Eki = ker (f ki I). Vamos a ver


que
E = Ek1 Ekr .
Una vez visto esto, podremos obtener una base de vectores propios tomando bases
en Ek1 , . . . , Ekr . En esa base, la matriz de f ser diagonal.
Demostraremos, pues, que la expresin de los vectores de E como suma de
vectores de los subespacios Eki es nica. En efecto,
v1 + + vr = w1 + + wr

Els autors, 2002; Edicions UPC, 2002

6.2. DIAGONALIZACIN DE ENDOMORFISMOS

165

con vi , wi Eki , i = 1, . . . , r, implica


(v1 w1 ) + + (vr wr ) = 0.
Los vectores vi wi son vectores propios de valores propios diferentes, o 0.
Sabemos que son linealmente independientes, por lo que han de ser todos ellos
cero:
vi wi = 0;
es decir, vi = wi , i = 1, . . . , r. La suma de los subespacios Eki es, pues, directa
y su dimensin es n1 + + nr = n. Por tanto,
Ek1 Ekr = E.

Definicin 75 Una matriz A = aji se llama triangular superior si aji = 0
para i < j. Diremos que un endomorfismo es triangulable si, en una base
conveniente, su matriz es triangular.
Teorema 98 (Teorema de triangulacin) Un endomorfismo es triangulable
si y slo si su polinomio caracterstico se descompone en factores de primer
grado.
Demostracin: ) Si el endomorfismo f tiene una matriz triangular
1

a1 a12 a13 a1n


0 a22 a23 a2n

0 0 a33 a3n

,
..
..
.. . .
..
.
. .
.
.
0 0 0 ann

su polinomio caracterstico p (x) = (a11 x)(a22 x) (ann x) se descompone


en factores lineales.
) Probaremos el recproco por induccin sobre n. Para n = 1, toda matriz
es triangular.
Sea n 2 cualquiera. El polinomio caracterstico tiene como mnimo una
raz; hay pues, como mnimo, un valor propio. Sea v1 un vector propio, y
v1 , v2 , . . . , vn una base de E. La matriz de f en esta base es del tipo

k a12 a1n
0 a22 a2n

.. .. . .
. .
. .
. ..
0

an2

ann

Consideremos ahora la aplicacin

g : hv2 , . . . , vn i hv2 , . . . , vn i

Els autors, 2002; Edicions UPC, 2002

166

CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS

de matriz

a22
..
.
an2

..
.

a2n
.. .
.
ann

Tenemos que det (f xI) = (k x) det (g xI) y, por tanto, el polinomio caracterstico de g, det (g xI), se descompone tambin en factores de primer grado. Por hiptesis de induccin existe entonces una base u2 , . . . , un de hv2 , . . . , vn i
en la cual la matriz de g es triangular:

2 2
b2 b3 b2n
0 b33 b3n

..
.. . .
. .
.
. ..
.
0

bnn

P
Ahora bien, f (vi ) = a1i v1 + g (vi ), i = 2, . . . , n. Por tanto, si uj = ni=2 cij vi ,
entonces
n
!
n
n
X
X
X
1

i
i
i 1
f (uj ) =
cj f (vi ) =
cj ai v1 + g (vi ) =
cj ai v1 + g (uj ) ,
i=2

i=2

i=2

para j = 2, . . . , n. La matriz de f en la base v1 , u2 , . . . , un se obtiene, pues,


aadiendo
a la matriz de g una
columna (k, 0, ..., 0) y una primera

Pnprimera
i 1
fila k, b12 , ..., b1n , donde b1j =
,
j 2. Es, por tanto, una matriz
c
a
j
i
i=2
triangular.
Corolario 37 Todo endomorfismo de un espacio vectorial sobre los complejos
es triangulable.

Els autors, 2002; Edicions UPC, 2002

Captulo 7

La forma reducida de
Jordan
7.1.

Polinomio mnimo

El estudio de los vectores propios nos ha permitido simplificar la matriz


de un endomorfismo en muchos casos. Queda, sin embargo, sin resolver el caso
general. Nuestros pasos se encaminan ahora hacia la obtencin de unos teoremas
de descomposicin de E en suma directa de subespacios que permitan obtener
bases convenientes en las que se pueda expresar el endomorfismo. Observemos
que una descomposicin de ese tipo es la que nos ha permitido demostrar el
teorema de diagonalizacin.
Definicin 76 Consideremos las potencias de f : f r , r = 0, 1, 2, . . .
f 0 = I, f 1 = f, . . . , f r = f f r1 , . . .
Si la dimensin de E es n, el espacio vectorial End (E) tiene dimensin n2 , y las
potencias f r no pueden ser todas linealmente independientes. Las combinaciones
lineales
a0 I + a1 f + + as f s = 0
nos llevan a considerar el ncleo de la aplicacin
f : K [x] End (E)
p (x) = a0 + a1 x + + ar xr 7 p (f ) = a0 I + a1 f + + ar f r
Se cumplen las siguiente propiedades:
f (p (x) + q (x)) = p (f ) + q (f ) = f (p (x)) + f (q (x)) .
f (p (x) q (x)) = p (f ) q (f ) = f (p (x)) f (q (x)) .
f (kp (x)) = kp (f ) = kf (p (x)) .
167

Els autors, 2002; Edicions UPC, 2002

168

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

f es, pues, un morfismo de lgebras. De la conmutatividad del producto de


K [x] se deduce que dos endomorfismos de la imagen siempre conmutan:
p (f ) q (f ) = q (f ) p (f ) .
El ncleo de f es un ideal K [x] y, por tanto,
N uc f = {p (x) K [x] | p (f ) = 0} = (mf (x)) .
Los polinomios de N uc f se llaman polinomios anuladores de f ; mf (x)
se llama el polinomio minmo de f y est determinado salvo factores de K.
En general se toma mf (x) mnico, es decir, con el coeficiente de grado mximo
igual a 1.
Ejemplo 102 Si E = {0} y f es el nico endomorfismo de {0}, entonces
N uc f = K [x] = (a0 ), a0 6= 0. Recprocamente, si el polinomio mnimo
de f es a0 K, a0 6= 0, entonces N uc f = (a0 ) = K [x] y, en particular,
0 = f (1) = IE . Esto implica que E = {0} .
Ejemplo 103 Si E 6= {0} y f = 0, N uc f = (x) .
Ejemplo 104 Si E 6= {0} y f = I, x 1 N uc f y mf (x) | (x 1). Pero
puesto que mf (x) no es constante, mf (x) = x 1.
Ejemplo 105 Si E 6= {0}, f = kI si y slo si mf (x) = x k.
Definicin 77 Fijado un vector u E, consideremos ahora la aplicacin
u : K [x] E
p (x) 7 p (f ) (u) .
El ncleo de u es un ideal de K [x] :
N uc u = {p (x) K [x] | p (f ) (u) = 0} = (mu (x)) .
mu (x) se llama el polinomio mnimo de f en u o simplemente el polinomio
mnimo de u (si no hay confusin respecto a qu f nos referimos); est determinado salvo factores de K y generalmente se toma mnico.
Teorema 99 Sea
mu (x) = a0 + a1 x + + as xs

el polinomio mnimo de u. Entonces u, f (u) , . . . , f s1 (u) son linealmente independientes y u, f (u) , . . . , f s1 (u), f t (u) (t s) son linealmente dependientes.
Demostracin: Si u, f (u) , . . . , f s1 (u) fuesen linealmente dependientes, habra
un polinomio p (x) de grado < s tal que p (f ) (u) = 0. Esto contradice la definicin de mu (x).
Si t = s, mu (f ) (u) = a0 u + a1 f (u) + + as f s (u) = 0 nos dice que estos
vectores son linealmente dependientes. Para t > s, procederemos por induccin.
As, pues,

f t1 (u) u, f (u) , . . . , f s1 (u) ,

Els autors, 2002; Edicions UPC, 2002

7.2. SUBESPACIOS INVARIANTES

169

de donde

f t (u) f (u) , f 2 (u) , . . . , f s (u) = u, f (u) , . . . , f s1 (u)

y u, f (u) , . . . , f s1 (u), f t (u) son linealmente dependientes.

7.2.

Subespacios invariantes

Definicin 78 Sea f End (E). Un subespacio F de E se llama invariante


por f si f (F) F. En ese caso, f induce un endomorfismo de F
fb = f|F : F F
v 7 f (v)
al que llamaremos restriccin de f a F.
Teorema 100 mfb (x) divide a mf (x) .

b
Demostracin: mf (f ) = 0 mf (f ) (u)
= 0 u E mf (f ) (v) =
mf (f ) (v) = 0 v F mf (x) mfb (x) mfb (x) divide a mf (x) .

Corolario 38 Si dos subespacios F y G de E, invariantes por f , tienen polinomios mnimos primos entre s, entonces F G = {0}.
Demostracin: Claramente, F G es tambin invariante y, por el teorema
anterior, su polinomio mnimo es 1. En este caso, el espacio debe ser {0}.
Teorema 101 Para todo polinomio p (x) K [x] , N uc p (f ) e Im p (f ) son subespacios invariantes por f .
Demostracin: Si u N uc p (f ) , p (f ) (f (u)) = f (p (f ) (u)) = f (0) = 0, de
donde f (u) N uc p (f ).
Si u = p (f ) (v) Im p (f ), f (u) = f (p (f ) (v)) = p (f ) (f (v)), de donde
f (u) Im p (f ) .
Teorema 102 (primer teorema de descomposicin) Si el polinomio mnimo de f End (E) es
mf (x) = m1 (x)n1 mr (x)nr ,

donde m1 (x) , . . . , mr (x) son factores irreducibles, el espacio E es suma directa


de subespacios invariantes
E = E1 Er,
de forma que el polinomio mnimo de la restriccin de f a E i es mi (x)ni .
Esta descomposicin es nica:
n

E i = N uc (mi (f ) i ) ,

i = 1, . . . , r.

Els autors, 2002; Edicions UPC, 2002

170

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

Demostracin: Supongamos que el polinomio mnimo de f, mf (x), se descompone en producto de dos factores primos entre s:
mf (x) = p (x) q (x) .
Consideremos los subespacios invariantes N uc p (f ) y N uc q (f ). Los polinomios
p (x) y q (x) son anuladores de la restriccin de f a estos subespacios. Por tanto,
N uc p (f ) N uc q (f ) = {0}.
Ahora bien, es fcil ver que N uc p (f ) Im q (f ) y que N uc q (f ) Im p (f ) .
Comprobemos la primera inclusin: si u = q (f ) (v) Im q (f ), entonces p (f ) (u) =
p (f ) q (f ) (v) = mf (f ) (v) = 0 y, por tanto, u N uc p (f ). Estas inclusiones
indican que
n = dim N uc p (f ) + dim Im p (f )
dim N uc p (f ) + dim N uc q (f ) =
= dim (N uc p (f ) N uc q (f )) n.
Las dos inclusiones son, pues, igualdades y
E = N uc p (f ) N uc q (f ) .
Cules son los polinomios mnimos de la restriccin de f a esos dos subespacios
invariantes en que se descompone E? Ya hemos dicho antes que tienen que ser
divisores de p (x) y de q (x) (estos polinomios son anuladores): sean p (x) y
q (x) . Pero, entonces, p (x)q (x) es un anulador de f : si u E, u = u1 + u2
con u1 N uc p (f ) , u2 N uc q (f ) y, entonces,
p (f ) q (f ) (u) = q (f ) p (f ) (u1 ) + p (f ) q (f ) (u2 ) = 0 + 0 = 0.
Por tanto, por un lado p (x)q (x) (mf (x)) y por el otro divide a mf (x) =
p (x) q (x). Debe cumplirse, pues p (x)q (x) = mf (x); es decir, p (x) = p (x)
y q (x) = q (x) son los polinomios mnimos buscados. Naturalmente, si ahora
p (x) (o q (x)) se descompone en factores primos, podemos descomponer N uc p (f )
(o N uc q (f ) ) en suma de subespacios invariantes y proceder as tantas veces como podamos.
Lo nico que falta por demostrar es la unicidad de la descomposicin. Supongamos, pues, que tenemos dada una descomposicin en subespacios invariantes
E = E1 Er ,
de la cual solamente sabemos que el polinomio mnimo de la restriccin de f
a E i es mi (x)ni , para i = 1, . . . , r. Esta ltima condicin implica que E i
n
N uc (mi (f ) i ) , de donde
n = dim E 1 + + dim E r
n
n
dim N uc (m1 (f ) 1 ) + + dim N uc (mr (f ) r ) = n.

Els autors, 2002; Edicions UPC, 2002

7.2. SUBESPACIOS INVARIANTES

171

La desigualdad tiene que ser, pues, una igualdad y todas las inclusiones anteriores tienen que ser igualdades:
E i = N uc (mi (f )ni ) ,

i = 1, . . . , r.

Observacin 75 La descomposicin de E en suma directa de subespacios invariantes reduce el estudio del comportamiento de f al estudio de sus restricciones a cada uno de los subespacios. Si escribimos la matriz de f en una base
de E formada por bases de cada uno de los subespacios, obtenemos

A1

A2
0

..

.
0

Ar

La matriz A esta formada por matrices A1 , . . . , Ar con la diagonal sobre la de A,


y 0 en el resto de posiciones. El estudio de A se reduce, pues, al de las matrices
Ai , que son precisamente las matrices de las restricciones de f a cada uno de
los subespacios en que se descompone E.
Aplicaremos ahora el primer teorema de descomposicin a varios ejemplos
concretos.
Ejemplo 106 Consideremos el endomorfismo f : R2 R2 cuya matriz es
3

4
5
5
A=
4
35
5
En la base (1, 0) , (0, 1). El estudio de las combinaciones lineales entre sus potencias An resulta aqu trivial. Tenemos A2 = I y, por tanto, x2 1 es un
polinomio anulador.
Si mf (x) = x 1, mf (f ) = f I = 0, de donde f = I. Si mf (x) =
x + 1, mf (f ) = f + I = 0, de donde f = I. Ninguno de los dos casos es el
nuestro; por tanto,
mf (x) = (x 1) (x + 1)

E = E1 E2,

donde E 1 = N uc (f I) = h(2, 1)i , E 2 = N uc (f + I) = h(1, 2)i . La restriccin de f a E 1 es IE 1 ; la restriccin a E 2 es IE 2 . Es decir, E 1 y E 2 son


precisamente los subespacios de los vectores propios de valores propios 1 y 1.
En la base (2, 1) , (1, 2) la matriz resulta ser

1 0
.
0 1

Els autors, 2002; Edicions UPC, 2002

172

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

Ejemplo 107 Como generalizacin del ejemplo anterior, consideremos un endomorfismo f tal que f 2 = I (se llama una involucin). mf (x) divide a
x2 1 = (x 1) (x + 1) y, como en el ejemplo 1,
si mf (x) = x 1, f = I;
si mf (x) = x + 1, f = I;
si mf (x) = (x 1) (x + 1) , E = E 1 E 2 .
El polinomio mnimo de la restriccin de f a E 1 es x 1 y, por tanto, sobre
1
E , f es IE 1 . Anlogamente, sobre E 2 , f es IE 2 . Si e1 , . . . , er es una base de
E 1 y er+1 , . . . , en una base de E 2 , la matriz de E en la base que resulta de la
unin de esas dos es

..

.
0

.
.

.
0
1
Observemos que aqu tambin E 1 , E 2 son los subespacios de vectores propios de
valores propios 1, 1 y que la matriz obtenida es una matriz diagonal.

Ejemplo 108 Modifiquemos el ejemplo anterior estudiando endomorfismos f


tales que f 2 = I. El polinomio mnimo es ahora divisor de x2 + 1. Si el cuerpo
sobre el que trabajamos es el complejo C, x2 + 1 = (x i) (x + i), y obtenemos
una situacin muy similar a la del ejemplo 2. El polinomio mf (x) puede ser
mf (x) = x i, de donde f = iI;
mf (x) = x + i, de donde f = iI;
mf (x) = (x i) (x + i) , de donde E = E 1 E 2 . La restriccin de f a
1
E es iIE 1 ; la de f a E 2 es iIE 2 .
Tomando bases de E 1 y E 2 obtenemos una base de E en la cual f tiene una
matriz diagonal:

..

.
0

i
.

..

.
0
i

Si el cuerpo sobre el que trabajamos es el real R, x2 + 1 es irreducible: mf (x) =


x2 + 1 y el primer teorema de descomposicin no da ninguna descomposicin
propia. Podra ser, no obstante, que consiguiramos simplificar la matriz de f
tomando vectores propios para formar una base, pero tampoco es posible. Por
qu? Si k fuese un valor propio, el subespacio de vectores propios N uc (f kI) 6=
{0} sera invariante y con polinomio mnimo x k. Esto implicara que x k
dividira a mf (x), lo cual no es cierto para ningn k. Este razonamiento que
acabamos de hacer es general y nos da:

Els autors, 2002; Edicions UPC, 2002

7.2. SUBESPACIOS INVARIANTES

173

Teorema 103 Si k es un valor propio de f, entonces (x k) | mf (x) .


Demostracin: Si k es un valor propio, el subespacio de vectores propios
N uc (f kI) 6= {0} es invariante y con polinomio mnimo x k. Esto implica que x k divide a mf (x).
Ejemplo 109 Sea f End (E) tal que f 3 = I. El polinomio x3 1 es un
anulador y mf (x) | x3 1. Si el cuerpo es C,
!
!
1i 3
1+i 3
x+
.
x 1 = (x 1) x +
2
2
3

Un estudio parecido al de los ejemplos anteriores nos da, para todos los posibles
mf (x), bases de E en las que la matriz de f es diagonal y los valores propios
son
(

)
1 + i 3 1 i 3
1,
,
2
2
o un subconjunto de ste.
Si el cuerpo es R, x3 1 = (x 1) (x2 + x + 1) y, por tanto, E = E 1 E 2 .
El polinomio mnimo de f sobre E 1 es x 1 y, por tanto, f sobre E 1 es IE 1 . El
polinomio mnimo de f sobre E 2 es x2 + x + 1, irreducible. Sea e1 , . . . , er una
base de E 1 , y er+1 , . . . , en una base de E 2 . La matriz de f en la base e1 , . . . , en
es de la forma

1
0

..

.
.

1
0
A2

Al igual que en el ejemplo anterior, ningn valor propio permite simplificar A2 .


Ejemplo 110 Sea f : R2 R2 con matriz

1 1
A=
0 1
2

en la base (1, 0) , (0, 1). Es fcil ver que mf (x) = (x 1) . El primer teorema de
descomposicin no permite descomponer E en suma de subespacios invariantes.
Hay, sin embargo, un subespacio invariante: el subespacio de vectores propios
de valor propio 1, h(1, 0)i . Si f tuviese una matriz diagonal, tendra que ser

1 0
0 1

ya que 1 es el nico valor propio de f . Pero f 6= I y no puede tener nunca la


matriz identidad.

Els autors, 2002; Edicions UPC, 2002

174

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

Ejemplo 111 Sea f End (E) con matriz

1 0 0
A = 0 1 1
0 1 1

en la base e1 , e2 , e3 . Al calcular las potencias An se ve en seguida que f 3 = f 2


y, por tanto, x3 x2 es un polinomio anulador. As pues, mf (x) | x3 x2 =
x2 (x 1) .
Si mf (x) = x 1, f = I, lo cual es falso.
Si mf (x) = x, mf (f ) = f = 0, lo cual es falso.
Si mf (x) = x2 , f 2 = 0, lo cual es falso.
Si mf (x) = (x 1) x, f 2 = f , lo cual es falso.
As pues, mf (x) = (x 1) x2 y E = E 1 E 2 . Sobre E 1 , f es IE 1 . Sobre
2
E , f tiene polinomio mnimo x2 . El clculo de E 1 y E 2 nos da
E 1 = N uc (f I) = he1 i ,

E 2 = N ucf 2 = he2 , e3 i .

En la base e1 , e2 , e3 , la matriz de f es la matriz de A dada. Y los valores propios,


cules son? Pues son 1 y 0; los subespacios de vectores propios respectivos son
he1 i y he2 + e3 i . Si completamos estos dos vectores hasta obtener una base de
E : e1 , e2 + e3 , e3 , obtenemos la matriz de f

1 0 0
0 0 1 ,
0 0 0

que es triangular.

Todos los ejemplos estudiados nos llevan de manera natural a la siguiente


conclusin.
Teorema 104 (Teorema de diagonalizacin) Un endomorfismo es diagonalizable si y slo si su polinomio mnimo se descompone en factores lineales no
repetidos.
Demostracin: ) Supongamos que mf (x) = (x a1 ) (x ar ), donde
ai 6= aj si i 6= j. Por el primer teorema de descomposicin, E = E 1
E r ,donde
E i = N uc (f ai I)
es el subespacio de vectores propios de valor propio ai . Existe, pues, una base
de vectores propios de E constituida por bases de cada uno de los subespacios
E1, . . . , E r .
) Recprocamente, supongamos ahora que E tiene una base formada por
vectores propios:
e11 , . . . , e1n1 , e21 , . . . , e2n2 , . . . , er1 , . . . , ernr .

Els autors, 2002; Edicions UPC, 2002

7.3. EL TEOREMA DE CAYLEY-HAMILTON

175

i
i
Supongamos
tambin
que ai es el valor propio de e1 , . . . , eni . Entonces, si ponemos
i
i
i
E = e1 , . . . , eni , tenemos

E = E1 Er

y el polinomio mnimo de E i es (x ai ). Esto implica que


(x a1 ) (x ar ) | mf (x) .
Ahora bien, (x a1 ) (x ar ) es un anulador, ya que si u = u1 + + ur
con ui E i , i = 1, . . . , r, se tiene
(f a1 I) (f ar I) (u) =
= (f a2 I) (f ar I) (f a1 I) (u1 ) +
+ (f a1 I) (f a3 I) (f ar I) (f a2 I) (u2 ) +
+ + (f a1 I) (f ar I) (ur ) =
= 0 + 0 + + 0 = 0,

de donde mf (x) = (x a1 ) (x ar ) .

Por definicin el polinomio mnimo tiene grado n2 = dim End (E) . Esta
cota es, sin embargo, muy grande cuando se trata de encontrar el polinomio
mnimo de un endomorfismo.
Teorema 105 El grado del polinomio mnimo mf (x) es menor o igual que la
dimensin del espacio E.
Demostracin: Sea mf (x) = m1 (x)n1 mr (x)nr y E = E 1 E r la
descomposicin dada por el primer teorema de descomposicin. Es suficiente
n
ver que gr mi (x) i dim E i para i = 1, . . . , r.
Dado que mi (x)ni es el polinomio mnimo de la restriccin de f a E i ,
n
n 1
hay un vi E i tal que mi (f ) i (vi ) = 0 pero mi (f ) i (vi ) 6= 0. Entonces
ni
el polinomio mnimo de vi es mi (x) y, por tanto, tendremos que los vectores vi , f (vi ) , . . . , f ki 1 (vi ) son linealmente independientes, donde ki = gr
mi (x)ni . Por tanto, ki dim E i .

7.3.

El teorema de Cayley-Hamilton

Teorema 106 a es un cero de mf (x) si y slo si es un cero de pf (x) .


Demostracin: Hemos visto anteriormente que los ceros del polinomio caracterstico, pf (x), son tambin ceros del polinomio mnimo, mf (x) .
Demostremos ahora el recproco.Si a es un cero de mf (x) , entonces
mf (x) = (x a) m1 (x) .
Existe un u E tal que m1 (f ) (u) 6= 0 (en caso contrario, el polinomio mnimo
sera m1 (x)). Entonces el vector w = m1 (f ) (u) tiene valor propio a:
(f aI) w = (f aI) m1 (f ) (u) = mf (f ) (u) = 0.
Por tanto, a es un cero de pf (x) .

Els autors, 2002; Edicions UPC, 2002

176

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

Teorema 107 Si el polinomio mnimo mf (x) y el polinomio caracterstico


pf (x) se descomponen en factores lineales, entonces pf (x) es un anulador de
f ; esto es, pf (f ) = 0.
Demostracin: Sea mf (x) = (x a1 )n1 (x ar )nr y sea E = E 1 E r
la descomposicin dada por el primer teorema de descomposicin. La matriz de
f en una base formada por bases de los subespacios E i es de la forma

A1
0

A2

A=
.
.
..

Ar

Ahora bien, si pi (x) es el polinomio caracterstico de Ai (es decir, de la restriccin de f a E i ),


pf (x) = p1 (x) p2 (x) pr (x) .
Cada pi (x) se descompone en factores lineales y sus ceros son ceros del polin
m
nomio mnimo de E i , que es (x ai ) i . Por tanto, pi (x) = (x ai ) i con
i
mi = dim E . Sabemos que el grado del polinomio mnimo cumple ni mi , de
donde resulta que
mf (x) | pf (x) ,

y pf (x) es un anulador.

Teorema 108 (Teorema de Cayley-Hamilton) El polinomio mnimo divide


siempre al polinomio caracterstico.
Demostracin: Si A es una matriz nn sobre un cuerpo K, podemos referirnos
al polinomio caracterstico de A, pA (x), y al polinomio mnimo de A, mA (x),
tal como hemos hecho en el caso de endomorfismos. As, pues, mA (x) ser
un polinomio de grado mnimo del ideal {p (x) K [x] | p (A) = 0}, donde, si
p (x) = a0 + a1 x + + an xn , ponemos
p (A) = a0 I + a1 A + + an An .
Si pA (x) y mA (x) se descomponen en factores lineales, el teorema anterior
asegura que
pA (A) = 0.
Sea ahora A una matriz real. A es tambin una matriz compleja y su polinomio
caracterstico es el mismo: pA (x) = det (A xI). Entonces, en C,
pA (A) = 0
y, naturalmente, esta igualdad vale tambien en R. Este razonamiento hecho para
R y C sirve para dos cuerpos cualesquiera K K tales que todo polinomio de
K se descomponga en factores lineales. Si un polinomio no tiene ceros en K
podemos construir un cuerpo K1 K donde este polinomio tenga un cero. Se
puede demostrar que la reiteracin de este proceso conduce a un cuerpo K K
en el cual todo polinomio se descompone en factores lineales. Este cuerpo K se
llama la clausura algebraica de K.

Els autors, 2002; Edicions UPC, 2002

7.4. MATRIZ REDUCIDA (GENERAL) DE UN ENDOMORFISMO

177

Observacin 76 El teorema de Cayley-Hamilton proporciona un mtodo prctico para calcular el polinomio mnimo de un endomorfismo f dado: sea A la
matriz de f en una base cualquiera. Debemos calcular el polinomio caracterstico pA (x), descomponerlo en factores irreducibles y buscar el menor de sus
divisores q (x) tales que q (f ) = 0 (tal como se ha hecho en los ejemplos de la
seccin Subespacios invariantes). ste ser mf (x) .

7.4.

Matriz reducida (general) de un endomorfismo

El primer teorema de descomposicin en subespacios invariantes permite reducir el estudio de un endomorfismo f al estudio de sus restricciones a ciertos
subespacios invariantes E i . En casos muy particulares, los espacios E i son subespacios de vectores propios y podemos obtener una matriz de f diagonal. Vamos
a estudiar ahora las restricciones de f a los subespacios E i en el caso general.
Concretamente, vamos a descomponer cada subespacio E i en suma de subespacios invariantes sobre los cuales la actuacin de f es muy clara: los subespacios
f -cclicos.
Definicin 79 Un subespacio F de E es f cclico si existe un vector u E
tal que F = u, f (u) , f 2 (u) , . . . .

Observacin 77 Si F es f cclico, entonces es invariante por f y su dimensin es el grado del polinomio mnimo de f en u. Si este polinomio es
a0 + a1 x + + as1 xs1 + xs ,

entonces u, f (u) , . . . , f s1 (u)


la restriccin de f es

0 0
1 0

0 1

.. ..
. .

es una base de F y, en esta base, la matriz de

..
.

0 0

0
0
0
..
.

a0
a1
a2
..
.

1 as1

Teorema 109 (segundo teorema de descomposicin) Si f End (E), E


es suma directa de subespacios f cclicos.
Demostracin: Por el primer teorema de descomposicin, solamente hace falta
considerar el caso en que el polinomio mnimo de f es una potencia de un
s
polinomio primo: mf (x) = q (x) , q (x) primo.
Usaremos induccin sobre la dimensin de E. Si dim E = 1, E ya es f cclico.
Supongamos cierto el teorema para todos los espacios de dimensin menor o
igual que n 1.

Els autors, 2002; Edicions UPC, 2002

178

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

Sea dim E = n. En la demostracin de que gr mf (x) n probamos que


existe un u0 E tal que el polinomio mnimo de f en u0 es el mismo mf (x).
Sea

F0 = u0 , f (u0 ) , f 2 (u0 ) , . . .
y E = E/F0 .
f induce un endomorfismo f de E

f : E E
[v] 7 [f (v)] ,
bien definido, ya que la imagen por f de todos los representantes de [v] est en
[f (v)] :
f ([v]) = f (v + F0 ) = f (v) + f (F0 ) f (v) + F0 = [f (v)] .
Ahora bien, dim E < n = dim E y, por hiptesis de induccin,
E = F1 Fr

con F i f cclico, i = 1, . . . , r. Sea F i = [ui ] , f [ui ] , . . . . Usaremos el siguiente lema:


Lema 2 Existe un representante ui de [ui ] tal que, si denotamos por Fi el
subespacio hui , f (ui ) , . . .i ,la proyeccin
i : Fi
v

Fi
7 [v]

es un isomorfismo.
Supongamos demostrado, de momento, este lema. Entonces
E = F0 F1 Fr .
Comprobmoslo: si v E, [v] = [v1 ]+ +[vr ] con [vi ] Fi . El lema nos asegura
entonces que podemos suponer que vi Fi . As pues, E = F0 +F1 + +Fr . Para
ver que la suma es directa, supongamos que v E se expresa de dos maneras
como suma de vectores de F0 , . . . , Fr :
v = v0 + v1 + + vr = w0 + w1 + + wr ,

vi , wi Fi ,

i = 0, 1, . . . , r

[v] = [v1 ] + + [vr ] = [w1 ] + + [wr ]

en E = F 1 F r [vi ] = [wi ] , i = 1, . . . , r. Pero, por el lema,


vi = wi ,

i = 1, . . . , r;

de donde tambin se deduce


v0 = w0 .
Slo queda demostrar el lema. Hagamos antes dos observaciones generales:

Els autors, 2002; Edicions UPC, 2002

7.4. MATRIZ REDUCIDA (GENERAL) DE UN ENDOMORFISMO

179

Si m (x) y m (x) son los polinomios mnimos de f y f en v y en [v] respectivamente, entonces m (x) | m (x), ya que
m(f ) ([v]) = [m (f ) (v)] = [0].
El polinomio mnimo de f en v divide al polinomio mnimo de f . Esto
implica, en nuestro caso, que aquel polinomio es una potencia de q (x) con
exponente s.
Demostracin del lema: Sean q (x)s y q (x)s los polinomios mnimos de
f y f en ui y [ui ], s s s. Entonces
q(f )s ([ui ]) = [0]

ss

q (x) | q (x)

q(f )s (ui ) F0

q (f )

ss
s

q (f )s (ui ) = a (f ) (u0 )

a (f ) (u0 ) = q (f ) (ui ) = 0

(ya que el polinomio mnimo de u0 es q (x) )

a (x)

a (x) = q (x) b (x)

q (f ) (ui ) = a (f ) (u0 ) = q (f ) b (f ) (u0 ) .

El vector ui = ui b (f ) (u0 ) ui + F0 = [ui ] tiene un polinomio mnimo que


divide a q (x)s , ya que
q (f )s (ui b (f ) (u0 )) = 0.
Por otra parte, el polinomio mnimo de ui ha de ser mltiplo del de [ui ] = [ui ],
que es q (x)s . As, pues, el polinomio mnimo de ui es q (x)s , el mismo que el
de [ui ]. Los vectores ui , f (ui ) , . . . , f t1 (ui ), donde t = s gr q (x), forman una
base de Fi . Las clases
[ui ] , f ([ui ]) , . . . , f

t1

([ui ])

forman una base de F i , y por tanto la proyeccin i : Fi F i es un isomorfismo. Esto acaba la demostracin.
Observacin 78 Hasta qu punto es nica la descomposicin obtenida en el
segundo teorema de descomposicin? Supongamos que
E = G0 G1 Gm ,
donde los subespacios Gi son f cclicos y el polinomio mnimo de la restricn
cin de f a Gi es qi (x) i con qi (x) irreducible. Agrupemos los sumandos que
correspondan a potencias del mismo qi (x). Por ejemplo, supongamos q0 (x) =
q1 (x) = = qs (x) y consideremos E 0 = G0 Gs . El polinomio mnimo
t
de la restriccin de f a E 0 es q0 (x) , donde t = m
ax (n0 , . . . , ns ) . Agrupando
de esta forma los Gi , obtenemos una descomposicin de E,
E = E0 E1 Er ,

Els autors, 2002; Edicions UPC, 2002

180

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

que es precisamente la dada por el primer teorema de descomposicin. As pues,


los subespacios E i estn unvocamente determinados y las diferentes descomposiciones de E en subespacios f cclicos correspondern a las diferentes descomposiciones de los subespacios E i .
Consideremos, pues, el caso en que el polinomio mnimo de f End (E) es
s
q (x) , q (x) primo. La primera observacin que debe hacerse es que no podemos
aspirar a demostrar la unicidad de la descomposicin dada por el segundo teorema de descomposicin. Lo veremos con un ejemplo.
Ejemplo 112 Si f = kIE , cualquier base u1 , . . . , un da lugar a una descomposicin en subespacios f cclicos:
E = hu1 i hun i .
Vamos a ver, no obstante, que en todas las posibles descomposiciones de E
en subespacios f cclicos el nmero nt de subespacios a los que corresponde
t
un cierto polinomio mnimo q (x) es el mismo. Recordemos que estamos considerando el caso en que el polinomio mnimo de f es q (x)s . Supongamos que
E = F0 Fr
es una descomposicin de E en suma de subespacios f cclicos Fi . Sea q (x)si
el polinomio mnimo de la restriccin de f a Fi (si s) .Tenemos:
t

a. q (f ) (Fi ) Fi ; de donde
q (f )t (E) = q (f )t (F0 ) q (f )t (Fr )
y, por tanto,
dim(q (f )t (E)) =

r
X

dim(q (f )t (Fi )).

i=0

b. Si si > t, el polinomio mnimo de la restriccin de f a q (f ) (Fi ) es q (x)


Entonces,

si t

dim(q (f )t (Fi )) = (si t) gr q (x) = dim Fi t gr q (x) .


t

c. Si si t, q (f ) (Fi ) = {0}. Entonces,


dim(q (f )t (Fi )) = 0 = dim Fi si gr q (x) .
Sustituyendo las expresiones de (b) y (c) en el sumatorio de (a), obtenemos
dim(q (f )t (E)) = dim E

r
X
i=0

mn (si , t) gr q (x) .

Observemos ahora que


mn (si , t) mn (si , t 1)) =

0 si si t 1
1 si si t,

Els autors, 2002; Edicions UPC, 2002

7.5. MATRIZ REDUCIDA DE JORDAN

181

Pr
de donde i=0 (mn (si , t) mn (si , t 1)) = nt + nt+1 + + ns . Denotemos
por qt la dimensin de q (f )t (E). Tenemos entonces
qt1 qt = (nt + nt+1 + + ns ) gr q (x) ,
de donde resulta que
nt =

1
(qt1 2qt + qt+1 ) .
gr q (x)

Esta expresin de nt no depende de la descomposicin de E considerada.


Observacin 79 Se cumple
{0} N uc q (f ) N uc q (f )2 N uc q (f )s = N uc q (f )s+1 = = E.
t

Sea q t = dim N uc q (f ) = n qt y designemos por

t
t1
= q t q t1 .
pt = dim N uc q (f ) / N uc q (f )

Resulta, entonces, que

nt =

7.5.

1
(pt pt+1 ) .
gr q (x)

Matriz reducida de Jordan

Teorema 110 Si el polinomio mnimo de f End (E) se descompone en factores lineales, existe una base de E en la cual la matriz de f es de la forma

J =

J (a0 , s0 )

0
J (a1 , s1 )
..

.
J (ar , sr )

Demostracin: Supongamos que el polinomio mnimo de f se descompone en


factores lineales. Sea
E = F0 Fr
la descomposicin dada por el segundo teorema de descomposicin en subespacios f cclicos y (x ai )si el polinomio mnimo de la restriccin de f a Fi .
s
Escojamos para cada Fi un vector ui con polinomio mnimo (x ai ) i . Entonces,
s 1
ui , (f ai I) (ui ) , . . . , (f ai I) i (ui )

Els autors, 2002; Edicions UPC, 2002

182

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

son linealmente independientes. Ahora bien, dim Fi = si y por tanto estos vectores forman una base. La matriz de la restriccin de f a Fi en esta base es la
siguiente matriz de si filas:

ai 0
0 0
1 ai
0 0

.
..
0 1

0
0

.
J (ai , si ) = .

.
.
.
.
.
..
..
. . ..
..
..

0 0
1 ai 0
0 0
1 ai
Definicin 80 La matriz J del teorema anterior se llama la matriz reducida
de Jordan de f .
Observacin 80 Observemos que los elementos ai que aparecen en la diagonal
de la matriz cannica de Jordan son los valores propios de f (posiblemente
repetidos).
Para obtener una base de E en la cual la matriz de f sea la matriz cannica
de Jordan procederemos de la siguiente forma.
Sean
p (x) = (x 1 )1 (x r )r
y
m (x) = (x 1 )s1 (x r )sr
los polinomios caracterstico y mnimo de f . Recordemos que 1 + + r =
n = dim E y si i i. Los enteros si estn caracterizados por el hecho de
satisfacer
2

{0} N uc (f i I) N uc (f i I)

N uc (f i I)si 1 ( N uc (f i I)si

y
N uc (f i )

si

= N uc (f i ) = E i ,

t si .

Adems,
E = E1 Er .
La base que buscamos es unin de bases convenientes de los subespacios
invariantes E i . Restringindonos a estos espacios, podemos suponer que el polinomio caracterstico de f End (E) es (x )n y el polinomio mnimo (x )s , s
n. Para cualquier u E, designaremos (f I) (u) por q (u). Consideremos el
siguiente recuadro de vectores:

Els autors, 2002; Edicions UPC, 2002

7.5. MATRIZ REDUCIDA DE JORDAN


E = N uc (f I)s
N uc (f I)s1

N uc (f I)

u11
q(u11 )

q s1 (u11 )

u1k1

q(u1k1 )
u21

q s1 (u1k1 ) q s2 (u21 )

183

u2k2

q s2 (u2k2 )

us1

usks

u11 , . . . , u1k1 determinan clases que forman una base de N uc (f I)s / N uc (f I)s1 .
Es fcil ver que u11 , . . . , u1k1 son linealmente independientes y que q (u11 ) , . . . , q (u1k1 )
N uc (f I)s1 determinan clases linealmente independientes en N uc (f I)s1 / N uc (f I)s2 .
Los vectores u21 , . . . , u2k2 son vectores representantes de clases que, juntamente
s1
s2
/ N uc (f I) . Repicon las anteriores, forman una base de N uc (f I)
tamos ahora este proceso hasta obtener una base de N uc (f I) formada por
los vectores situados en la ltima fila del recuadro.
Tenemos entonces:
i. El conjunto de todos los vectores que aparecen en el recuadro forman una
base de E.
ii. El nmero de columnas es la multiplicidad del valor propio .
iii. El nmero de filas es el exponente del polinomio mnimo.
iv. El nmero de vectores en cada fila es
dim (N uc(f I)t / N uc (f I)t1 ) = q t q t1 = pt .
v. El nmero de matrices J (, t) que aparecen en la matriz cannica de Jordan
de f es nt = pt pt+1 , que es la diferencia de vectores en filas consecutivas.
vi. Cada columna es la base de un subespacio f cclico de la descomposicin
de E.
Observacin 81 nS 1 siempre, ya que ps+1 1. Esto significa que siempre
aparece al menos una matriz J (, s) de la mxima dimensin.
Ejemplo 113 Consideremos un endomorfismo f End (E) con matriz

1 1 1 1 1
1
3
1
1
1

0
0
2
0
0
.

0
0
0
1 1
0
0
0
1
3

Su polinomio caracterstico es (2 x)5 . El rango de (f 2I) es 2 y, por tanto,


dim N uc (f 2I) = 3. Adems,
2

(f 2I) = 0

Els autors, 2002; Edicions UPC, 2002

184

CAPTULO 7. LA FORMA REDUCIDA DE JORDAN


2

y el polinomio mnimo de f es (x 2) . El recuadro considerado anteriormente


tiene, en este caso, dos filas y tres elementos en la fila inferior:
u12
u11
q(u11 ) q(u12 ) u2
Podemos tomar u11 = (1, 0, 0, 0, 0) , u12 = (0, 0, 0, 1, 0). Entonces,
q (u11 ) = (f 2I) (u11 ) = (1, 1, 0, 0, 0)
q (u12 ) = (f 2I) (u12 ) = (1, 1, 0, 1, 1)
son dos vectores propios que, juntamente con u2 = (0, 1, 1, 0, 0) , forman una
base de vectores propios. En la base
u11 , q (u11 ) , u12 , q (u12 ) , u2 ,
la matriz de f es

2
1
0
0
0

0
2
0
0
0

0
0
2
1
0

0
0
0
2
0

0
0
0
0
2

Observacin 82 El problema de encontrar la matriz cannica de Jordan de


un endomorfismo f dado queda, pues, resuelto, si el polinomio mnimo de f se
descompone en factores lineales:
m (x) = (x 1 )s1 (x r )sr .
Solamente nos hace falta conocer para cada valor propio i los nmeros nt correspondientes (1 t s1 ), los cuales nos indican cuntos subespacios f cclicos
de dimensin t aparecen (submatrices con el valor propio i en la diagonal y unos
debajo de ella). En particular, si si = 1, el subespacio invariante correspondiente es un subespacio de vectores propios. El endomorfismo es diagonalizable si
y slo si s1 = = sr = 1.

Els autors, 2002; Edicions UPC, 2002

Captulo 8

Formas bilineales simtricas


y formas cuadrticas
En la unidad de Determinantes se dio la definicin y primeras propiedades
del concepto de nforma lineal sobre un espacio vectorial. Aqu estudiaremos
las formas bilineales y las formas cuadrticas sobre un espacio vectorial E sobre
un cuerpo conmutativo K.

8.1.

Definicin y primeras propiedades

Definicin 81 Una forma bilineal sobre E es una aplicacin f : E E K


tal que verifica las dos condiciones siguientes:
1.

Para todo y E, la aplicacin (parcial) fy de E en K definida por


fy (x) = f (x, y)
es lineal

2.

Para todo x E, la aplicacin (parcial) fx de E en K definida por


fx (y) = f (x, y)
es lineal

Teorema 111 Dada una base e1 , ..., en de E, a toda forma bilineal f sobre E
se puede asociar una matriz cuadrada A de Mn (K) definida por f (ei , ej ) = aij
para todo 1 i, j n. Adems, la aplicacin de L(E2 , K) en Mn (K) definida
por f 7 A es un isomorfismo de espacios vectoriales. Si X y Y representan
las matrices columna de las coordenadas de los vectores x e y respecto de la base
e1 , ..., en , entonces se cumple
f (x, y) = X t AY = Y t At X
185

Els autors, 2002; Edicions UPC, 2002

186CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Demostracin: Sea e1 , ..., en una base de E y los vectores
x=

n
X

xi ei

y=

i=1

n
X

yj ej

j=1

Si f es una forma bilineal sobre E, entonces por definicin se cumple


n
n
X
X
xi ei ,
yj ej )
f (x, y) = f (
i=1

j=1

xi yj f (ei , ej )

i,j

es decir, la forma quedar definida cuando se conozcan las imgenes f (ei , ej ).


Si designamos estas imgenes como aij , entonces tenemos
X
f (x, y) =
aij xi yj
i,j

Esta ecuacin puede escribirse matricialmente como sigue


f (x, y) = X t AY
donde

x1

X = ... , A =
xn

a11
..
.
an1

..
.

a1n

..
,Y =
.
ann

y1
..
.
yn

es decir, hemos considerado los vectores x e y como matrices columna que indicamos respectivamente por X y Y . Recprocamente, utilizando la misma notacin anterior, dada una matriz cuadrada A de Mn (K) y una base e1 , ..., en
de E. La aplicacin f : E E K definida como sigue
f (x, y) = X t AY
es una forma bilineal sobre E. Como consecuencia inmediata de lo que acabamos
de ver, la aplicacin de L(E2 , K) en Mn (K) definida por f 7 A es una
aplicacin biyectiva; adems se ve enseguida que es un isomorfismo de espacios
vectoriales. Es claro que f (x, y) es una escalar y, por tanto, independiente de
la trasposicin, es decir, se cumple
f (x, y) = Y t At X
Esto equivale a caracterizar la forma bilineal por una nueva matriz At .
Definicin 82 Dada una forma bilineal f sobre E. Se llama matriz de la
forma bilineal f referida a la base e1 , ..., en a la matriz A = (aij ) de
Mn (K) tal que
f (ei , ej ) = aij
para todo 1 i, j n.

Els autors, 2002; Edicions UPC, 2002

8.1. DEFINICIN Y PRIMERAS PROPIEDADES

187

Teorema 112 Dos matrices A, A0 Mn (K) asociadas a una misma forma


bilineal f sobre E son congruentes.
Demostracin: Recordemos que dos matrices cuadradas A, B Mn (K) se
llaman congruentes cuando existe una matriz inversible P Mn (K) tal que
B = P t AP

Si P es la matriz de cambio de base en E, sabemos que las nuevas matrices


columna de los vectores x e y de E son X 0 y Y 0 tales que
X = P X0

Y = PY 0

De aqu, se deduce que


f (x, y) = X t AY
= (P X 0 )t A(P Y 0 )
= (X 0 )t (P t AP )Y 0
es decir, la matriz asociada a la forma en la nueva base es, por tanto,
A0 = P t AP
Por consiguiente, si A, A0 son dos matrices asociadas a f , entonces son congruentes.
Ejemplo 114 Una aplicacin bilineal de R2 en R est definida por: f (e1 , e1 ) =
1, f (e1 , e2 ) = 1, f (e2 , e1 ) = 1 y f (e2 , e2 ) = 3. Determinar su matriz. Calcular
el valor de f (x, y) siendo x = 2e1 3e2 , y = e1 +2e2 y comprese con f (y, x).
Determinar la nueva matriz de f en la base u1 = (1, 1) y u2 = (1, 1).
Solucin: Sabemos que la matriz A asociada a f en la base e1 , e2 viene
dada por
f (ei , ej ) = aij
Por tanto,
A=

1 1
1 3

Puesto que x = (2, 3) e y = (1, 2), se tiene

t
1
1
1
2
f (x, y) =
2
1 3
3

1
2 3
=
7
= 19
Por otra parte, tenemos
t

1 1
2
f (y, x) =
1 3
3

1
1 2
=
11
= 21

1
2

Els autors, 2002; Edicions UPC, 2002

188CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Por tanto, f (x, y) 6= f (y, x). La matriz de cambio de base es

1 1
P =
1 1
Por tanto, la nueva matriz asociada a f en la nueva base es
A0

= P t AP

t
1 1
1 1
1 1
=
1 3
1 1
1 1

1 1
2 0
=
1 1
2 4

4 4
=
0 4

Ejemplo 115 Sea la aplicacin f de R2 en R definida por


f (x, y) = 2x1 y1 + x1 y2 x2 y1 3x2 y2

siendo x = (x1 , x2 ) e y = (y1 , y2 ) en la base cannica de R2 . Hallar la nueva


expresin de f cuando se toma la base u1 = (2, 1) y u2 = (1, 1).
Solucin: Si e1 , e2 es la base cannica de R2 , entonces se cumple: f (e1 , e1 ) =
2, f (e1 , e2 ) = 1, f (e2 , e1 ) = 1 y f (e2 , e2 ) = 3. Por tanto, la matriz de f en
la base cannica es

2
1
A=
1 3
La matriz de cambio viene dada por

2 1
P =
1 1
Por tanto, la nueva matriz asociada a f es
A0

= P t AP

t
2
1
2 1
2 1
=
1 3
1 1
1 1

2 1
5
3
=
1 1
5 4

5 2
=
0 1

De este modo, la nueva expresin de f en la nueva base es


0
0 t
5 2
y1
x1
f (x0 , y0 ) =
x02
y20
0 1

5y10 + 2y20
0
x1 x02
=
y20
= 5x01 y10 + 2x01 y20 x02 y20

Els autors, 2002; Edicions UPC, 2002

8.1. DEFINICIN Y PRIMERAS PROPIEDADES

189

Definicin 83 Una forma bilineal f sobre E se llama simtrica si


f (x, y) = f (y, x)
para todo (x, y) E E.
Teorema 113 Una forma bilineal f es simtrica si su matriz asociada A es
una matriz simtrica.
Demostracin: Si f es simtrica, entonces
aij

= f (ei , ej )
= f (ej , ei )
= aji

luego A es una matriz simtrica. Si A es simtrica, entonces


f (x, y) =
=
=
=

X t AY
X t At Y
Y t AX
f (y, x)

Sea f una forma bilineal sobre un espacio vectorial E sobre K. Para todo
y E, la funcin fy definida por
fy (x) = f (x, y)
es una forma lineal sobre E. Por consiguiente, f define una aplicacin de E
en su dual E por
(y) = fy
Teorema 114 Sea f una forma bilineal sobre un espacio vectorial E sobre K.
La aplicacin : E E definida por
(y) = fy
es lineal.
Demostracin: Cualesquiera que sean x, y, z E se cumple
fy+z (x) = f (x, y + z)
= f (x, y) + f (x, z)
= fy (x) + fz (x)
y, por tanto,
fy+z = fy + fz

Els autors, 2002; Edicions UPC, 2002

190CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


o equivalentemente,
(y + z) = (y) + (z)
Por otra parte, se tiene
fy (x) = f (x, y)
= f (x, y)
y, por tanto,
fy = fy
o de forma equivalente,
(y) = (y)
cualesquiera que sean K y y E.
Observacin 83 Se definira igualmente fx , que es tambin un elemento del
dual E de E. Designemos por la aplicacin de E en E definida por
(x) = fx
Del mismo modo que antes, es lineal.
Teorema 115 Si e1 , ..., en es una base de E y e1 , ..., en es una base de E , dual
de la dada, entonces la matriz asociada a la forma bilineal f respecto a la base
(ei ) coincide con la matriz asociada a respecto a las bases (ei ) y (ei ).
Demostracin: Designamos por A = (aij ) la matriz cuadrada de orden n
asociada a la forma bilineal f sobre E. Entonces,
f (ei , ej ) = aij
para 1 i, j n. Designamos por B = (bij ) la matriz cuadrada de orden n
asociada a la aplicacin en las bases (ei ) y su dual (ei ). Entonces,
(ei ) = fei =

n
X

bik ek

k=1

para i = 1, ..., n. De aqu, obtenemos


aij

= f (ei , ej )
= fei (ej )
n
!
X

bik ek (ej )
=
k=1

=
=

n
X

k=1
n
X

bik ek (ej )
bik kj

k=1

= bij
Por tanto, A = B.

Els autors, 2002; Edicions UPC, 2002

8.1. DEFINICIN Y PRIMERAS PROPIEDADES

191

Corolario 39 Si f es una forma bilineal simtrica sobre E, las dos aplicaciones


lineales y de E en E , definidas por (y) = fy y (x) = fx , donde fx y fy
son las aplicaciones parciales asociadas a f , son idnticas.
Demostracin: Es inmediato ya que para todo x E se tiene
[(y)] (x) = f (x, y)
= f (y, x)
= [(y)] (x)
y, por tanto, (y) = (y) para todo y E. Por consiguiente, = .
Definicin 84 Se llama ncleo de una forma bilineal simtrica f el ncleo de
, es decir, est constituido por los elementos y E tales que
(y) = fy = 0
o equivalentemente,
fy (x) = f (x, y) = 0
para todo x E. Adems, siendo f simtrica, est igualmente constituido por
los elementos x E tales que
(x) = fx = 0
o equivalentemente,
fx (y) = f (x, y) = 0
para todo y E.
Observacin 84 En general, el subconjunto
A = {(x, y) E E : f (x, y) = 0}
no es un subespacio vectorial de E E y, en consecuencia, el ncleo de f no es
A. Esto se debe a que f es bilineal y no lineal.
Definicin 85 Se dice que la forma bilineal simtrica f es no degenerada si
y slo si es inyectiva, es decir, si y slo si ker f = ker = {0}. Si ker f =
ker 6= {0} se dice que f es degenerada. Si E es de dimensin finita, se llama
rango de f al rango de , es decir, rang f = dim Im .
Teorema 116 Sea f una forma bilineal simtrica sobre un espacio vectorial E
de dimensin n y A = (aij ) la matriz asociada a f respecto a una base de E,
entonces las propiedades siguientes son equivalentes:
1.

f es no degenerada sobre E

2.

f (x, y) = 0 para todo x E, implica que y = 0

3.

f (x, y) = 0 para todo y E, implica que x = 0

Els autors, 2002; Edicions UPC, 2002

192CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


4.

La aplicacin de E en E , asociada a f , es un isomorfismo de espacios


vectoriales

5.

det A 6= 0

Demostracin: (1) = (2) Puesto que f es no degenarada, se tiene ker f =


{0}. Por tanto, si f (x, y) = 0 para todo x E, entonces y ker f y, en
consecuencia, y = 0.
(2) = (3) Puesto que f es simtrica, la prueba es inmediata.
(3) = (1) Si x ker f , entonces f (x, y) = 0 para todo y E. De aqu,
por (3), implica que x = 0 y, en consecuencia, f es no degenerada.
(1) = (4) Si f es no degenerada, entonces es inyectiva y, en consecuencia, es biyectiva, ya que E es de dimensin finita y dim E = dim E = n. por
qu? Por tanto, es un isomorfismo ya que sabemos que es una aplicacin
lineal.
(4) = (5) Si es biyectiva, entonces rang f = dim Im = n y, en consecuencia, det A 6= 0.
(5) = (1) Si det A 6= 0, entonces rang f = dim Im = n y, por tanto,
dim ker f = 0 y, en consecuencia, f es no degenerada.
Sea E un espacio vectorial sobre un cuerpo K de caracterstica diferente de
2.
Definicin 86 Sea f una forma bilineal sobre E, se llama forma cuadrtica
asociada a f la aplicacin q de E en K definida por
q(x) = f (x, x)
para todo x E.
Observacin 85 Sea e1 , ..., en una base de E y el vector
x=

n
X

xi ei

i=1

entonces,
q(x) = f (x, x)
X
X
xi ei ,
xi ei )
= f(
=

aij xi xj

i,j

= X t AX
donde f (ei , ej ) = aij , es decir, si consideramos q como una aplicacin de Kn
en K, q se expresa como un polinomio homogneo de segundo grado.

Els autors, 2002; Edicions UPC, 2002

8.1. DEFINICIN Y PRIMERAS PROPIEDADES

193

Teorema 117 El conjunto Q(E) de las formas cuadrticas definidas sobre E es


un espacio vectorial sobre K, provisto de la adicin y de la multiplicacin por
un escalar.
Demostracin: Es una simple comprobacin y se deja al lector.
Teorema 118 Supongamos que K es un cuerpo de caracterstica distinta de
2. La aplicacin que a toda forma bilineal simtrica f sobre E asocia la forma
cuadrtica q definida por
q(x) = f (x, x)
para x E, es biyectiva. Adems, la forma bilineal simtrica f , as asociada a
q, es tal que
1
f (x, y) = [q(x + y) q(x) q(y)]
2
para todo (x, y) E E.
Demostracin: Es claro que por definicin la aplicacin es exhaustiva. Veamos
a continuacin que tambin es inyectiva. Como f es simtrica, tenemos
q(x + y) = f (x + y, x + y)
= f (x, x) + f (x, y) + f (y, x) + f (y, y)
= q(x) + q(y) + 2f (x, y)
de donde obtenemos
f (x, y) =

1
[q(x + y) q(x) q(y)]
2

Esta frmula muestra tambin que si la misma forma cuadrtica q est asociada a dos formas bilineales simtricas f y g, entonces f = g y, por tanto, la
aplicacin es inyectiva.
Observacin 86 1. En general, la aplicacin establecida en el teorema no
es inyectiva ya que si h es una forma bilineal alternada no nula, entonces
se tiene
f (x, x) = q(x)
y
(f + h)(x, x) = f (x, x) + h(x, x)
= f (x, x)
= q(x)
Por lo tanto, las dos formas bilineales distintas f y f + h estn asociadas
a la misma forma cuadrtica q.
2.

El teorema muestra que el estudio de las formas bilineales simtricas es


equivalente, en cuerpos de caracterstica distinta de 2, al de las formas
cuadrticas.

Els autors, 2002; Edicions UPC, 2002

194CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Definicin 87 Se dice que la forma bilineal simtrica f es la polar de la forma
cuadrtica q cuando
f (x, y) =

1
[q(x + y) q(x) q(y)]
2

para todo x, y E.
Corolario 40 Si q es la forma cuadrtica asociada a la forma bilineal simtrica
f sobre E, las relaciones q = 0 y f = 0 son equivalentes.
Demostracin: Es inmediato a partir de las frmulas q(x) = f (x, x) y
f (x, y) =

1
[q(x + y) q(x) q(y)]
2

para todo x, y E.
Corolario 41 Si q es la forma cuadrtica asociada a la forma bilineal simtrica f , para todo endomorfismo u de E, se tiene q [u(x)] = q(x) si y slo si
f [(u(x), u(y)] = f (x, y) para todo x, y E. En tal caso se dice que u conserva
f o q.
Demostracin: Es inmediato a partir de las frmulas q(x) = f (x, x) y
f (x, y) =

1
[q(x + y) q(x) q(y)]
2

para todo x, y E.
Definicin 88 Si E es de dimensin finita y q es una forma cuadrtica sobre
E. Si f es la polar de q, la matriz A = (aij ) asociada a f respecto de una base
de E se llama tambin matriz asociada a la forma cuadrtica q y a su
determinante se le llama discriminante de q. Tenemos entonces que
X
X
X
aij xi xj =
aii x2i + 2
aij xi xj
q(x) =
i,j

i,j

y se dice a menudo que aii x2i es un trmino cuadrado y 2aij xi xj es un trmino


cruzado de la forma cuadrtica.
Ejemplo 116 Consideremos la siguiente forma cuadrtica sobre R2
q(x) = 2x21 3x1 x2 + 4x22
con x = (x1 , x2 ). Determinar su nueva expresin cuando se toma como base
u1 = (1, 1) y u2 = (1, 1). Hallar la forma bilineal simtrica asociada a q.
Solucin: Determinemos primero la matriz de q en la base dada, es decir,

2 32
A=
32
4

Els autors, 2002; Edicions UPC, 2002

8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS

195

La matriz de cambio de base viene dada por

1 1
P =
1 1
Por tanto, la matriz de q en la nueva base es
A0

= P t AP

t
1 1
2 32
1 1
=
1 1
1 1
3
4

1 2 7
2
1 1
2
=
5
11
1 1
2
2

3 2
=
2 9

y, en consecuencia, la nueva expresin de q en la nueva base viene dada as


q(x) = 3x21 + 4x1 x2 + 9x22
donde x = (x1 , x2 ) en la nueva base. Si f es la polar de q, entonces las matrices
asociadas a f y q coinciden y, por tanto, tenemos

3 2
y1
y2
2 9

3y1 + 2y2

x1 x2
=
2y1 + 9y2
= 3x1 y1 + 2x1 y2 + 2x2 y1 + 9y1 y2

f (x, y) =

x1
x2

que es la expresin de f en la nueva base. Obsrvese que al hacer


q(x) = f (x, x)
= 3x21 + 4x1 x2 + 9x22
se obtiene el mismo resultado anterior.

8.2.

Ortogonalidad. Elementos istropos

Definicin 89 Sea f una forma bilineal simtrica sobre un espacio vectorial


E sobre K. Se dice que x e y son dos vectores ortogonales respecto a f si
f (x, y) = 0. Se dice tambin que dos subconjuntos A y B de E son ortoganales
repecto a f , si cada vector de A es ortogonal a cada uno de los vectores de B
respecto a f . Por la bilinealidad de f , podemos decir entonces que dos subespacios F y G son ortogonales respecto a f si una base de F y una base de G son
ortogonales.

Els autors, 2002; Edicions UPC, 2002

196CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Teorema 119 Si F es un subespacio vectorial de E, entonces el conjunto de
todos los vectores x E que son ortogonales a todo y F respecto a f , es un
subespacio vectorial de E. Este subespacio se llama ortogonal de F respecto a
f y se designa generalmente por F .
Demostracin: Es inmediata y se deja al lector.
Definicin 90 Se dice que x E es un elemento istropo respecto a f si
f (x, x) = 0. Se dice que un subespacio F de E es isotropo repecto a f si existe
x 6= 0 de F ortogonal a todo F, es decir, cuando F F 6= {0}.
Teorema 120 Si E es un espacio vectorial de dimensin n, para toda forma
bilineal simtrica f sobre E y todo subespacio F de E, las propiedades siguientes
son equivalentes:
1.

La restriccin de f a F es no degenerada

2.

F F = {0}

3.

F no es isotropo

4.

E = F F

Demostracin: (1) (2) Si fF es la restriccin de f a F, entonces fF es


una forma bilineal simtrica sobre F. Designemos por 0 la aplicacin lineal de
F en F definida por
0 (x) = (fF )x
Si x ker 0 , entonces tenemos
[0 (x)] (y) = (fF )x (y)
= fF (x, y)
= f (x, y) = 0
para todo y F, es decir, x F . De este modo, obtenemos que
ker 0 = F F
Por lo tanto, F F = {0} es equivalente a 0 inyectivo y, en consecuencia, a
fF no degenerada sobre F.
(2) (3) La condicin F F = {0} es equivalente a afirmar que el nico
vector de F ortogonal a todo F es el vector cero. Por tanto, F no es istropo.
(1) (4) Para todo x E, consideremos la forma lineal fx sobre E.
Podemos considerar su restriccin sobre F que designamos por u, es decir, se
cumple
u(y) = fx (y) = f (x, y)
para todo y F. Como fF no es degenerada sobre F, esto es equivalente por el
teorema ??? (4) a que para toda forma lineal sobre F, en particular u, exista un
nico x1 de F tal que u(y) = f (x1 , y) para todo y F . Por tanto, tenemos
f (x, y) = f (x1 , y)

Els autors, 2002; Edicions UPC, 2002

8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS

197

para todo y F. De aqu, obtenemos


f (x, y) f (x1 , y) = 0
f (x x1 , y) = 0
para todo y F. Dicho de otro modo, x2 = x x1 es ortogonal a F, luego para
todo x E existen x1 F y x2 F tales que x = x1 + x2 y, en consecuencia,
E = F + F . Ahora bien, como F F = {0}, se tiene
E = F F

Corolario 42 Si F es un subespacio vectorial no isotropo de un espacio vectorial


E de dimensin finita, entonces
dim F = dim E dim F
Demostracin: Es evidente a partir del teorema anterior.
Corolario 43 Si f es una forma bilineal simtrica sobre un espacio vectorial
E de dimensin finita, entonces las siguientes propiedades son equivalentes:
1.

Para x E, la relacin f (x, x) = 0 implica x = 0; dicho de otro modo, f


no tiene ningn vector istropo no nulo.

2.

Se cumple
E = F F
para todo subespacio vectorial F de E.

Demostracin: Es inmediato que para todo subespacio F de E el subespacio


F F se conpone de vectores istropos. Por tanto, la propiedad (1) implica
F F = {0}
y, por consiguiente, segn el teorema anterior, implica (2). Recprocamente, si se
cumple (2), en particular se cumplir para cualquier subespacio F de dimensin
uno de E y, en consecuencia, deduciremos (1).
Ejemplo 117 Sea M2 (R) el espacio vectorial de las matrices cuadradas de
orden dos sobre el cuerpo R y f : M2 (R) M2 (R) R la aplicacin definida
por
f (X, Y ) = tr(XY ) trX trY
Se pide:
1.

Estudiar si f es una forma bilineal simtrica

2.

Hallar el subespacio de las matrices ortogonales a la matriz identidad

Els autors, 2002; Edicions UPC, 2002

198CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


3.

Determinar la dimensin de dicho subespacio


Solucin:

1.

f es una forma bilineal ya que para todo , R y X, Y, Z M2 (R) se


tiene
f (X + Y, Z) =
=
=
=
=

tr [(X + Y )Z] tr(X + Y ) trZ


tr(XZ + Y Z) trX trZ trY trZ
tr(XZ) + tr(Y Z) trX trZ trY trZ
(tr(XZ) trX trZ) + (tr(Y Z) trY trZ)
f (X, Z) + f (Y, Z)

Anlogamente se comprueba que para todo , R y X, Y, Z M2 (R)


se tiene
f (X, Y + Z) = f (X, Y ) + f (X, Z)
Adems, f es simtrica
f (X, Y ) = tr(XY ) trX trY
= tr(Y X) trY trX
= f (Y, X)
2.

Si X es ortogonal a la matriz identidad I, se tiene


0 =
=
=
=

f (X, I)
tr(XI) trX trI
trX 2 trX
trX

Luego, trX = 0 y, por tanto, el subespacio de las matrices ortogonales a


I es

a b
F=
: a, b, c R
c a
3.

Es claro que dim F = 3, ya que

1 0
0 1
0 0
,
,
0 1
0 0
1 0
constituye una base de F.

Ejemplo 118 Consideremos R4 referido a su base cannica y provisto de la


forma cuadrtica q definida por
q(x) = x21 + x22 + x23 x24
para todo x = (x1 , x2 , x3 , x4 ) R4 . Se pide:

Els autors, 2002; Edicions UPC, 2002

8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS

199

1.

Comprobar que el vector x0 = (1, 0, 0, 1) es istropo respecto a q

2.

Dar las coordenadas de todos los vectores istropos en funcin de tres


parmetros reales

3.

Hallar el ncleo de q y verificar que x0 no pertenece a este ncleo


Solucin:

1.

Supongamos que f es la forma bilineal simtrica asociada a q. Entonces,


el vector x0 es istropo ya que
f (x0 , x0 ) = q(x0 ) = 1 + 0 + 0 1 = 0

2.

El vector x = (x1 , x2 , x3 , x4 ) es istropo si y slo si


q(x) = x21 + x22 + x23 x24 = 0
Si hacemos x1 = , x2 = y x3 = , entonces tenemos
q
x4 = 2 + 2 + 2
Por tanto, los vectores

q
(, , , 2 + 2 + 2 )

con , , R, son istropos respecto a q.


3.

La matriz asociada a q es

1
0

0
0

0
1
0
0

0
0
1
0

0
0

0
1

cuyo rango es 4. Por tanto, el ncleo de q se reduce al vector nulo y, en


consecuencia, x0 no pertenece a este ncleo.

Ejemplo 119 Sea E un espacio vectorial sobre K, f una forma bilineal simtrica sobre E y x0 un vector no nulo de E. Demostrar que el subespacio K x0 es
istropo si y slo si x0 es istropo. Se dice entonces que K x0 es una recta
istropa que pasa por el origen.
Solucin: Todos los elementos del subespacio en cuestin son de la forma
x0 con K. Luego, este subespacio ser istropo si existe 6= 0 tal que
f (x0 , x0 ) = f (x0 , x0 ) = 0
para todo K. En particular, para = 1, tenemos
f (x0 , x0 ) = 0
y, por tanto, x0 es istropo. Recprocamente, si x0 es istropo entonces es obvio
que el subespacio K x0 es istropo.

Els autors, 2002; Edicions UPC, 2002

200CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS

8.2.1.

Bases ortogonales

Definicin 91 Sea E un espacio vectorial de dimensin n sobre K y f una


forma bilineal simtrica sobre E. Se llama base ortogonal de E respecto a f a
toda base (e1 , ..., en ) de E tal que se cumpla
f (ei , ej ) = 0
para i 6= j. Esto significa que la matriz de f respecto a esta base es diagonal, o
tambin que la expresin de f respecto a dicha base es de la forma
f (x, y) =

n
X

ai xi yi

i=1

con f (ei , ei ) = ai (i = 1, ..., n).


Lema 3 Sea f una forma bilineal simtrica sobre un espacio vectorial E sobre
un cuerpo conmutativo de caracterstica distinta de 2. Si f no es nula, existen
en E vectores no istropos respecto a f .
Demostracin: Dicho de otro modo, si f 6= 0 y f (x, x) = 0 para todo x E,
entonces K es de caracterstica 2. En efecto, supongamos f (x, x) = 0 para todo
x E, entonces
f (x + y, x + y) = f (x, x) + 2f (x, y) + f (y, y)
= 2f (x, y)
y se tiene
2f (x, y) = 0
cualesquiera que sean x, y E. Sustituyendo x por x, con K, se tiene
2f (x, y) = 0
para todo K. Si f 6= 0, podemos elegir x e y de manera que f (x, y) = 6= 0;
tomando = 1 , resulta
2=0
y esto demuestra que K es de caracterstica 2.
Teorema 121 (Existencia de bases ortogonales) Sea f una forma bilineal
simtrica sobre un espacio vectorial E de dimensin finita sobre K. Si K es de
caracterstica distinta de 2, existe una base ortogonal de E respecto a f .
Demostracin: El teorema es trivial si f = 0, de manera que supondremos
f 6= 0. Como no hay nada que demostrar si E es de dimensin 1, razonaremos
por induccin sobre n = dim E. Supongamos que hemos hallado un vector v1 E
no istropo respecto a f , que existe por el lema anterior. Entonces, por el ejemplo
???, K v1 no es istropo, y segn el teorema ???, se cumple
E = K v1 (K v1 )

Els autors, 2002; Edicions UPC, 2002

8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS

201

es decir, E es la suma directa de la recta vectorial generada por v1 y del hiperplano F ortogonal a sta. Segn el corolario ???, dim F = n1 y, en consecuencia, la hiptesis de induccin muestra que F admite una base v2 , ..., vn ortogonal
respecto a la restriccin fF de f a F. Es claro entonces que v1 , v2 , ..., vn es una
base ortogonal de E respecto a f .
Corolario 44 Sea f una forma bilineal simtrica sobre un espacio vectorial E
de dimensin n sobre un cuerpo K de caracterstica distinta de 2 y q la forma
cuadrtica asociada. Supongamos que K es de caracterstica distinta de 2. Entonces, existe una base de E tal que la expresin de f y de q respecto a esta base
sea
r
r
X
X
f (x, y) =
ai xi yi y q(x) =
ai x2i
i=1

i=1

donde r n. Para que f sea no degenerada es necesario y suficiente que ai 6= 0


para 1 i n, porque se debe expresar que la matriz de f respecto a la base
considerada es inversible.
Demostracin: Elijamos una base (e1 , ..., en ) de E ortogonal respecto a f ;
podemos suponer (cambiando si es necesario la numeracin de los vectores de
la base) que

ai para 1 i r
f (ei , ei ) =
0 para r + 1 i n

Entonces esta base cumple las condiciones del enunciado. Si r < n, es claro que
en es ortogonal a todos los ei (1 i n) y, por tanto, a todo x E, y, en
consecuencia, f es degenerada. Se tiene por tanto r = n si f es no degenerada.
Recprocamente, si r = n la matriz de f respecto a la base que acabamos de
construir es la matriz diagonal D = diag(a1 , ..., an ), con ai 6= 0 (i = 1, ..., n).
Por tanto, es inversible y f no es degenerada.
Observacin 87 1. Si suponemos que K es algebraicamente cerrado y de
caracterstica distinta de 2 (por ejemplo K = C). Entonces, existe una
base de E tal que la expresin de f y de q respecto a esta base sea
f (x, y) =

r
X

xi yi

q(x) =

i=1

r
X

x2i

i=1

donde r n. Para que f sea no degenerada es necesario y suficiente que


r = n. Como K es algebraicamente cerrado, existen i K (1 i r)
que verifican
2i f (ei , ei ) = 1
para 1 i r. Esto quiere decir que los vectores vi = i ei satisfacen
f (vi , vi ) = 1
para 1 i r, ya que f es bilineal. Entonces la base (v1 , ..., vn ) cumple
las condiciones del enunciado. Si r < n, es claro que en es ortogonal a

Els autors, 2002; Edicions UPC, 2002

202CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


todos los ei (1 i n) y, por tanto, a todo x E, y, en consecuencia, f
es degenerada. Se tiene entonces r = n si f es no degenerada. Recprocamente, si r = n la matriz de f respecto a la base que acabamos de construir
es la matriz identidad, por tanto, es inversible y f no es degenerada.
2.

Observemos que r es el rango de f , ya que el ncleo de f est descrito por


x = 1 e1 + + n en verificando
f (x, y) = 0
para todo y E. En particular, entonces tenemos
a1 1 = = ar r = 0
luego, como ai 6= 0 para 1 i r,
1 = = r = 0
Por tanto, el ncleo de f est pues descrito por los vectores x de E verificando
x = r+1 er+1 + + n en
es decir, dim ker f = n r y, en consecuencia, rang f = r.

Corolario 45 Sea f una forma bilineal simtrica sobre un espacio vectorial real
E de dimensin n y q la forma cuadrtica asociada. Existen nmeros naturales
s, t tales que s + t n, y una base de E tal que la expresin de f respecto a esta
base sea
f (x, y) =

s
X
i=1

xi yi

s+t
X

xi yi

q(x) =

i=s+1

s
X
i=1

x2i

s+t
X

x2i

i=s+1

Adems, f es no degenerada si y slo si s + t = n.


Demostracin: Elijamos una base (e1 , ..., en ) de E ortogonal respecto a f ;
podemos suponer (cambiando si es necesario la numeracin de los vectores de
la base) que

> 0 para 1 i s
< 0 para s + 1 i s + t
f (ei , ei ) =

= 0 para s + t + 1 i n
Tomando ahora

ei

f (ei ,ei )
ei
vi =

f (ei ,ei )
ei

para 1 i s
para s + 1 i s + t
para s + t + 1 i n

encontramos una base de E respecto a la cual la expresin de f es evidentemente


la del enunciado, ya que

para 1 i s
1
1 para s + 1 i s + t
f (vi , vi ) =

0
para s + t + 1 i n

Els autors, 2002; Edicions UPC, 2002

8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS

203

Si s + t < n, es claro que en es ortogonal a todos los ei (1 i n) y, por tanto,


a todo x E, y, en consecuencia, f es degenerada. Se tiene por tanto s+t = n si
f es no degenerada. Recprocamente, si s+t = n la matriz de f respecto a la base
que acabamos de construir es la matriz diagonal D = diag(1, ..., 1, 1, ..., 1).
Por tanto, es inversible y f no es degenerada.
Observacin 88 Es obvio que rang f = s + t. Las mismas consideraciones
realizadas en la ltima observacin muestran este hecho.
En el siguiente teorema se demuestra que los nmeros s, t no dependen ms
que de f , y no de la eleccin de la base.
Teorema 122 (Ley de inercia de Sylvester) Todas las matrices reducidas
diagonales asociadas a una funcin bilineal simtrica f (o a una forma cuadrtica q) sobre un espacio vectorial real E de dimensin n contienen el mismo
nmero de trminos positivos y negativos.
Demostracin: En la base v1 , ..., vn del corolario anterior las expresiones de
f y q son como sigue
f (x, y) =

s
X
i=1

xi yi

s+t
X

xi yi

q(x) =

i=s+1

s
X
i=1

x2i

s+t
X

x2i

i=s+1

que contienen p trminos positivos y q negativos. Supongamos ahora que existe


una segunda base u1 , ..., un de E ortogonal respecto a f (o a q) para la que f y
q toma la siguiente expresin
0

f (x, y) =

s
X
i=1

xi yi

0
sX
+t0

xi yi

q(x) =

i=s0 +1

s
X

x2i

i=1

0
sX
+t0

x2i

i=s0 +1

Vamos a demostrar que s = s0 y t = t0 . Consideremos los dos subespacios


vectoriales de E siguientes:
F = hv1 , ..., vs i
G = hus0 +1 , ..., un i
obviamente, dim F = s y dim G = n s0 . Si x F, se tiene q(x) 0; si,
6 0 (1 i p), luego
adems, x 6= 0 es claro que existe al menos un xi =
q(x) > 0 para todo x 6= 0 de F. Por otra parte, es claro tambin que si x0 G,
se tiene q(x0 ) 0. Por tanto,
F G = {0}
luego, segn la frmula de Grassmann, obtenemos,
dim F + dim G = dim(F + G) dim E
es decir,
s + n s0 n

Els autors, 2002; Edicions UPC, 2002

204CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


de donde
s s0
Ahora, permutando el papel de las bases (vi ) y (ui ) se demostrar del mismo
modo que s0 s. Por lo tanto, s = s0 . Como, por otro lado, s + t = s0 + t0 =
rang f , se tiene tambin t = t0 .
Definicin 92 Sea f una forma bilineal simtrica sobre un espacio vectorial
real E de dimensin n y q la forma cuadrtica asociada. Existen nmeros naturales s, t tales que s + t n, y una base de E tal que la expresin de f respecto
a esta base sea
f (x, y) =

s
X
i=1

xi yi

s+t
X

xi yi

q(x) =

i=s+1

s
X
i=1

x2i

s+t
X

x2i

i=s+1

Al par de enteros naturales (s, t) se le llama la signatura de f o de q.

8.2.2.

Bases ortonormales

Sea f una forma bilineal simtrica sobre un espacio vectorial E de dimensin


finita sobre K.
Definicin 93 Decimos que una base (e1 , ..., en ) de E es ortonormal respecto
a f si

0 si i 6= j
f (ei , ej ) =
1 si i = j
o lo que es lo mismo, si la matriz de f respecto a la base en cuestin es la matriz
identidad, o, por ltimo, si la expresin de f respecto a esta base es de la forma
f (x, y) =

n
X

xi yi

i=1

donde n = dim E.
Observacin 89 La existencia de una base ortonormal obliga evidentemente
a que f sea no degenerada, y la observacin ??? muestra que esta condicin
tambin es suficiente en el caso ortogonal complejo o, con mayor generalidad,
si K es algebraicamente cerrado y de caracterstica distinta de 2.
Definicin 94 Decimos que una forma bilineal simtrica f sobre un espacio
vectorial real E y que la forma cuadrtica asociada q es definida positiva si
f (x, x) = q(x) > 0
para todo x 6= 0 de E.

Els autors, 2002; Edicions UPC, 2002

8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS

205

Teorema 123 (Existencia de bases ortonormales) Sea E un espacio vectorial real de dimensin finita y f una forma bilineal simtrica sobre E. Para
que E admita una base ortonormal respecto a f es necesario y suficiente que f
sea definida positiva.
Demostracin: Si f admite una base ortonormal, entonces se tiene para todo
xE
n
X
f (x, x) =
x2i
i=1

y por consiguiente,

f (x, x) > 0
para todo x 6= 0. Recprocamente, si f es definida positiva, la demostracin del
corolario ??? muestra que se cumple s = n, y por tanto consiguiente que E
admite una base ortonormal.
Del corolario ??? se deduce que para que f sea definida positiva es necesario
y suficiente que s = n y t = 0. El otro extremo, s = 0 y t = n, es el de las
formas definidas negativas, es decir,
f (x, x) < 0
para todo x 6= 0.
Definicin 95 Decimos que una forma bilineal simtrica f sobre un espacio
vectorial real E y que la forma cuadrtica asociada q es definida negativa si
f (x, x) = q(x) < 0
para todo x 6= 0 de E.
Definicin 96 Se dice con mayor generalidad que una forma bilineal simtrica
f sobre un espacio vectorial real E y que la forma cuadrtica asociada q es
positiva (resp. negativa) si se cumple f (x, x) = q(x) 0 (resp. f (x, x) =
q(x) 0) para todo x E. Una forma que no es ni positiva ni negativa se
llama indefinida; esto significa que se pueden encontrar vectores x, y E tales
que
f (x, x) = q(x) > 0 y f (y, y) = q(y) < 0
Observacin 90 Esto significa evidentemente que t = 0 (resp. s = 0), de
manera que las formas definidas positivas (resp. definidas negativas) son las
formas positivas (resp. negativas) no degeneradas. Para el caso en que la forma
es indefinida es claro que se tiene p 1 y q 1.
Teorema 124 (Desigualdad de Schwarz) Si f es una forma bilineal simtrica positiva sobre un espacio vectorial real E y q la forma cuadrtica asociada,
se cumple
p
f (x, y) q(x) q(y)

Els autors, 2002; Edicions UPC, 2002

206CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


para todo (x, y) E E.
Demostracin: Siendo f positiva, para todo x, y E y R, tenemos
q(x + y) = f (x + y, x + y)
= f (x, x) + 2f (x, y) + 2 f (y, y) 0
en el caso en que f (y, y) 6= 0, q(x + y) es un polinomio de segundo grado en
con coeficientes reales. Como
f (x, x) + 2f (x, y) + 2 f (y, y) 0
es imposible que tenga dos races reales distintas, de donde
4 [f (x, y)]2 4q(x) q(y) 0
es decir,

[f (x, y)] q(x) q(y)


Si y es tal que f (y, y) = 0, la desigualdad
f (x, x) + 2f (x, y) 0
no se puede verificar para todo nmero real salvo que f (x, y) = 0 y, en consecuencia,
[f (x, y)]2 q(x) q(y)
tambin se cumple. En definitiva, se cumple
p
f (x, y) q(x) q(y)
Corolario 46 Si q es una forma cuadrtica positiva sobre un espacio vectorial
real E, se cumple
p
p
p
q(x + y) q(x) + q(y)
para todo x, y E.
Demostracin: De la desigualdad de Schwarz se sigue que

q(x + y) = f (x + y, x + y)
= f (x, x) + 2f (x, y) + f (y, y)
p
q(x) + 2 q(x) q(y) + q(y)
hp
i2
p
=
q(x) + q(y)

de donde, obtenemos

p
p
p
q(x + y) q(x) + q(y)

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

207

Corolario 47 El ncleo de una forma bilineal simtrica positiva f sobre un


espacio vectorial real E es el conjunto de los vectores istropos de E respecto a
f.
Demostracin: Sabemos que el ncleo de f est constituido por los vectores x
de E tales que
f (x, y) = 0
para todo y E. Por tanto, todo elemento del ncleo es istropo. Recprocamente, si f es positiva y x es cualquier vector istropo de E, entonces
f (x, x) = 0
Por la desigualdad de Schwarz, tenemos
2

[f (x, y)] 0
para todo y E, y por tanto,

f (x, y) = 0

para todo y E.
Observacin 91 De lo anterior resulta que si f es definida positiva, su ncleo
se reduce a {0}; por tanto, el vector nulo es el nico vector istropo respecto a
una forma bilineal simtrica definida positiva sobre un espacio vectorial real E.

8.3.

Formas bilineales simtricas reales

En toda esta seccin suponemos que E es un espacio vectorial sobre R.


Diremos entonces que f es una forma bilineal simtrica real y que q es una
forma cuadrtica real.
Definicin 97 Sea E un espacio vectorial sobre R (o C), toda aplicacin p de
E en R que posee las siguientes propiedades:
1.

p(x) = 0 si y slo si x = 0

2.

p(x + y) p(x) + p(y)

3.

p(x) = || p(x)
para todo x, y E y R, se llama una norma sobre E.

Observacin 92 1. En esta definicin se puede reemplazar R o C por cualquier


cuerpo valorado K, es decir, que posea definido un valor absoluto.
2.

Es habitual escribir kxk en lugar de p(x).

Els autors, 2002; Edicions UPC, 2002

208CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Teorema 125 Si q es la forma cuadrtica asociada a una forma bilineal simtrica definida positiva sobre un espacio vectorial E real, la aplicacin de E en R+ ,
definida por
p
x 7 q(x)

para todo x E, es una norma sobre E.


Demostracin: Si f es definida positiva, entonces el nico vector istropo es
0, luego
q(x) = 0 x = 0
Adems, segn el corolario ???, se tiene
p
p
p
q(x + y) q(x) + q(y)

para todo x, y E. Finalmente,

q(x) = f (x, x) = 2 q(x)


Por tanto,
para todo x E y R.

q(x) = ||

p
q(x)

Definicin
98 Un espacio vectorial E sobre R provisto de una norma x 7
p
q(x), siendo q una forma cuadrtica definida positiva sobre E, se llama un
espacio prehilbertiano real en el caso general y, en particular, si E es de
dimensin finita, E se llama espacio euclideo.
Definicin 99 Sea E un espacio euclideo de dimensin n, a la forma bilineal
simtrica definida positiva sobre E se llama producto escalar. Si f es el producto escalar sobre E, utilizaremos la notacin x y para designar el nmero
real f (x, y). Se llama norma euclidea a la norma definida por

kxk = x x
En una base ortonormal de E, se tiene
x y = x1 y1 + + xn yn
y
kxk =

q
x21 + + x2n

Observacin 93 Si E un espacio euclideo de dimensin n, es decir, un espacio


vectorial de dimensin n sobre R provisto de una forma bilineal simtrica definida positiva f . Cualesquiera que sea esta forma f , referida a una base ortonormal
respecto a f , se expresar como sigue
f (x, y) =

n
X

xi yi

i=1

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

209

Esto nos permite decir que existe una sola estructura de espacio euclideo de dimensin n. Para estudiarlo escogemos una forma bilineal simtrica no degenerada positiva f0 que se llama producto escalar sobre E. Las bases ortonormales
de E sern las bases ortonormales respecto a f0 . Asimismo, se llama norma
euclidea a la norma definida con la ayuda de la forma cuadrtica q0 asociada
a f0 .
Definicin 100 Si E es un espacio euclideo, dos vectores x, y E se llaman
ortogonales si x y = 0. Un vector x E se llama unitario si x x = 1.
Ejemplo 120 Si E es un espacio euclideo y x es un vector de E no nulo, entonces
x

xx
es un vector unitario de E.
Solucin: Tenemos
x
xx
x

=
=1
xx
xx
xx
Ejemplo 121 Si E es un espacio euclideo y S es un subconjunto de vectores
diferentes de 0 y ortogonales dos a dos, entonces S es linealmente independiente.
Solucin: Supongamos que S = {v1 , ..., vr } y que
r
X

i vi = 0

i=1

Entonces, para cada vk tenemos,


0 =
=

r
X

i=1
r
X
i=1

i vi

vk

i vi vk

= k vk vk
Ahora bien, como vk 6= 0, se tiene vk vk 6= 0. Por tanto, k = 0 para todo k.
Teorema 126 (Mtodo de Gram-Schmidt) Si E es un espacio euclideo,
entonces siempre existe una base ortonormal de E.
Demostracin: Sea e1 , ..., en una base cualquiera de E. Consideremos los subespacios siguientes:
E1 = he1 i E2 = he1 , e2 i En = he1 , ..., en i = E

Els autors, 2002; Edicions UPC, 2002

210CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Es claro que E1 tiene una base ortonormal que es
e1
u1 =
e1 e1
Supongamos que u1 , ..., ur es una base ortonormal de Er . Construyamos una
base ortonormal de Er+1 = hu1 , ..., ur , er+1 i de la siguiente manera: consideremos un vector de la forma
u0r+1 = er+1 (1 u1 + + r ur )
ortogonal a cada ui , i = 1, ..., r, es decir,
0 = u0r+1 ui
= [er+1 (1 u1 + + r ur )] ui
= er+1 ui i
Por tanto, tenemos que tomar para cada i = 1, ..., r
i = er+1 ui
El ejemplo ??? nos dice que u1 , ..., ur , u0r+1 son linealmente independientes y,
por tanto, forman una base de Er+1 . Si ahora hacemos
u0
ur+1 = p 0 r+1 0
ur+1 ur+1

entonces, los vectores u1 , ..., ur , ur+1 forman una base ortonormal de Er+1 . De
este modo, por induccin obtenemos que En = E tiene una base ortonormal.
Teorema 127 Si una forma bilineal f sobre un espacio vectorial real tiene la
matriz identidad en una base u1 , ..., un , entonces f es un producto escalar.
Demostracin: Es inmediato y se deja al lector los detalles de la demostracin.

Ejemplo 122 En R3 se considera el producto escalar que en la base cannica


tiene por matriz

3 1 1
G= 1 1 0
1 0 1

Determinar por el mtodo de Gram-Schmidt un conjunto ortonormal de {(1, 0, 0), (0, 1, 1)}
respecto del producto escalar considerado.
Solucin: Hacemos v1 = (1, 0, 0) y v2 = (0, 1, 1). Entonces tenemos,
v1
u1 =
v1 v1

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

211

donde, en este caso,



1
3 1 1
1 0 0 1 1 0 0
=
0
1 0 1

3

1 0 0 1 =3
=
1

v1 v1

luego,

1
u1 = ( , 0, 0)
3
Por otro lado, tenemos
u02 = v2 u1

siendo = v2 u1 , es decir,
=

=
luego,

0 1 1

3 1 1
3
1 1 0 0
1 0 1
0
3

0 1 1
u02

3
1
3
1
3

=
3

2
= (0, 1, 1) ( , 0, 0)
3
2
= ( , 1, 1)
3

y
u02 u02

23

23

2
3
3 1 1
1 1 1 1 0 1
1 0 1
1

2
1 1 13 =
3
1

Por tanto,
u2

u0
p 02 0
u2 u2
3
3
2
= ( , , )
6
6
6
=

Los vectores u1 , u2 forman un conjunto ortonormal respecto al producto considerado.

Els autors, 2002; Edicions UPC, 2002

212CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Teorema 128 Si E es un espacio euclideo, la aplicacin : E E definida
por (y) = y y tal que y (x) = x y para todo x E, es un isomorfismo
cannico.
Demostracin: Para todo y E, la aplicacin y : E R definida por
y (x) = x y es lineal. Entonces, podemos definir la aplicacin : E E por
(y) = y . La aplicacin es inyectiva ya que
y = w

=
=
=
=
=

y (x) = z (x)
xy =xz
x (y z) = 0
yz=0
y=z

Veremos ahora que la aplicacin es exhaustiva. En efecto, dado w E ,


consideremos una base ortonormal e1 , ..., en de E y el vector
y = w(e1 ) e1 + + w(en ) en
El vector y es una antiimagen de w, ya que
y (ei ) = ei y = w(ei )
para todo i = 1, ..., n, es decir, y = w. Por ltimo, veremos que es lineal. En
efecto, se cumple
(y + z) (x) = x (y + z)
= xy+xz
= y (x) + z (x)
para todo x E, es decir,
(y + z) = (y) + (z)
Adems,
(y) (x) = x (y)
= (x y)
= y (x)
para todo x E; por tanto,

(y) = (y)

Definicin 101 Si E es un espacio euclideo y S es un subconjunto de E. Denominaremos subespacio ortogonal de S a


S = {y E : x y = 0, para todo x E}

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

213

Teorema 129 Si E es un espacio euclideo y S, T son subconjuntos de E. Se


cumple:
1.

S es un subespacio vectorial de E

2.

S T implica T S

3.

S = hSi

4.

hSi S = {0}

5.

hSi (S )

Demostracin: En cada caso es una simple comprobacin a partir de la definicin; la demostracin se deja al lector.
Teorema 130 Si E es un espacio euclideo y F es un subespacio vectorial de E,
entonces
E = F F
Demostracin: De la propiedad 4 del teorema anterior se deduce que F F =
{0}. Sea u1 , ..., ur una base ortonormal de F. Completmosla hasta obtener
una base u1 , ..., ur , er+1 , ..., en de E y apliquemos el mtodo de Gram-Schmidt
para conseguir una base ortonormal u1 , ..., ur , ur+1 , ..., un de E. Observemos que
uj F si j = r + 1, ..., n. Entonces, para todo x E,
x = x1 u1 + + xr ur + xr+1 ur+1 + + xn un F + F
de donde resulta lo que queramos demostrar.
Corolario 48 Si E es un espacio euclideo y F es un subespacio vectorial de E,
entonces
dim F = dim E dim F
Demostracin: Es inmediato a partir del resultado del teorema anterior.
Corolario 49 Si E es un espacio euclideo y F es un subespacio vectorial de E,
entonces F = F.
Demostracin: Por la propiedad 5 del teorema ???, se tiene F F . Por el
corolario anterior, F y F tienen la misma dimensin y, por tanto, F = F.

8.3.1.

Endomorfismos adjuntos y autoadjuntos

Definicin 102 Sea E un espacio euclideo. Un endomorfismo g se llama el


adjunto de f L(E) si
x g(y) = f (x) y
para todo x, y E.

Els autors, 2002; Edicions UPC, 2002

214CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Teorema 131 Sea E un espacio euclideo. El adjunto de un endomorfismo f de
E, si existe, es nico.
Demostracin: En efecto, si g1 tambin es adjunto de f L(E), tenemos
x g(y) = f (x) y
= x g1 (y)
para todo x, y E, de donde
g(y) = g1 (y)
para todo y E. Por tanto, g = g1 .
Teorema 132 Sea E un espacio euclideo. El adjunto g de un endomorfismo f
de E queda determinado por
g = 1 f 0
siendo el isomorfismo cannico entre E y su dual E , y f 0 : E E tal que
f 0 (y ) = y f para todo y E .
Demostracin: Veremos que la aplicacin
g = 1 f t : E E

es lineal y que satisface


x g(y) = f (x) y
para todo x, y E. La linealidad de g es consecuencia de la linealidad de y
de f 0 . Observemos ahora que
y

7 y

f0
7 y f

g(y)

es decir, se cumple

[g(y)] = y f
de donde, para todo x E se tiene
[g(y)] (x) = (y f )(x)
x g(y) = y (f (x))
x g(y) = f (x) y

Teorema 133 Sea E un espacio euclideo. Si g es el adjunto de f L(E),


entonces
ker g = (Im f ) y Im g = (ker f )

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

215

Demostracin: Observamos que


ker g

=
=
=
=

{y E : g(y) = 0}
{y E : x g(y) = 0, para todo x E}
{y E : f (x) y = 0, para todo x E}
(Im f )

De aqu, tomando ortogonales, obtenemos


Im f = (ker g)
Ahora bien, si g es el adjunto de f , entonces f es el adjunto de g y, en particular,
se cumple
Im g = (ker f )

Teorema 134 Sea E un espacio euclideo. Si A = (aij ) es la matriz de f L(E)


en una base ortonormal e1 , ..., en . La matriz del adjunto de f en dicha base es
At = (aji ).
Demostracin: Sea g el adjunto de f y B = (bij ) su matriz en la base e1 , ..., en .
Entonces,
n
X
g(ei ) =
bji ej
j=1

de donde,

bji

= g(ei ) ej
= ei f (ej )
n
!
X
akj ek
= ei
k=1

= aij

Por tanto, B = At .
Ejemplo 123 En R2 se considera el producto escalar cuya matriz en la base
cannica es

2 0
G=
0 3
y el endomorfismo f definido por

f (x, y) = (2x + 3y, y)


Determinar el adjunto de f .
Solucin: La matriz de f en la base ortonormal (( 12 , 0), (0, 13 )) es

1
2

0
1
3

!1

2 3
0 1

1
2

0
1
3


6
2
0 1

Els autors, 2002; Edicions UPC, 2002

216CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Por tanto, la matriz del adjunto g de f en esta base es

2 0
6 1
y en la base cannica

1
2

0
1
3

2 0
6 1

1
2

0
1
3

!1

2 0
2 1

Por tanto,
g(x, y) = (2x, 2x + y)

Definicin 103 Sea E un espacio euclideo. Se dice que f L(E) es autoadjunto o simtrico cuando su adjunto coincide con s mismo, es decir, si se
cumple
x f (y) = f (x) y
para todo x, y E.
Corolario 50 Sea E un espacio euclideo. Si A es la matriz de f L(E) en una
base ortonormal de E, entonces f es simtrico si y slo si A = At .
Demostracin: Es inmediato a partir del teorema anterior.
Ejemplo 124 Sea f un endomorfismo del espacio euclideo ordinario R2 cuya
matriz en la base ((1, 1), (0, 1)) es

2 0
1
Determinar para que f sea simtrico.
Solucin: Si f es simtrico, entonces su matriz en una base ortonormal
debe ser simtrica. Si tomamos la base cannica, entonces la matriz de f en
esta base es

1 0
2 0
1 0
2
0
=
1 1
1
1 1
+1 1
luego, + 1 = 0, es decir, = 1.
Definicin 104 Sea E un espacio euclideo. Se dice que un automorfismo f de
E es ortogonal si su adjunto es f 1 , es decir, si se cumple
x f 1 (y) = f (x) y
para todo x, y E.

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

217

Teorema 135 Sea E un espacio euclideo. Si f es un automorfismo ortogonal


de E si y slo si f conserva el producto escalar, es decir, se cumple
f (x) f (y) = x y
para todo x, y E.
Demostracin: En efecto, si f es un automorfismo ortogonal de E, entonces
f (x) f (y) = x f 1 (f (y))
= xy
para todo x, y E y, por tanto, f conserva el producto escalar. Recprocamente,
si f conserva el producto escalar y suponemos que g es el endomorfismo adjunto
de f , entonces
xy
xy
par todo x, y E, de donde

= f (x) f (y)
= x g(f (y))
g f = idE

De aqu se sigue que f es inyectiva y, en consecuencia, biyectiva ya que E es


de dimensin finita, luego g = f 1 y se tiene tambin
f g = idE

Observacin 94 Podamos haber definido endomorfismo ortogonal de E como


un endomorfismo de E que conserva el producto escalar y deducir de ah que
dicho endomorfismo es biyectivo y, en consecuencia, un automorfismo de E.
Corolario 51 Sea E un espacio euclideo. Si A es la matriz de f L(E) en
una base ortonormal e1 , ..., en de E, entonces las siguientes propiedades son
equivalentes:
1.

f es ortogonal

2.

f (e1 ), ..., f (en ) es una base ortonormal

3.

A1 = At

4.

At A = AAt = In

Demostracin: (1) (2) Si f es ortogonal, por el teorema anterior, f


conserva el producto escalar y, por tanto, se cumple
f (ei ) f (ej ) = ei ej = ij

Els autors, 2002; Edicions UPC, 2002

218CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


y, en consecuencia, f (e1 ), ..., f (en ) es una base ortonormal. Recprocamente, si
f (e1 ), ..., f (en ) es una base ortonormal, entonces

n
! n
X
X
xi ei f
xj ej
f (x) f (y) = f
i=1

n
X
i=1

j=1

! n
X
xi f (ei )
xj f (ej )

n
n X
X
i=1 j=1
n X
n
X

j=1

xi yj (f (ei ) f (ej ))
xi yi

i=1 j=1

= xy

(1) (3) Si f es ortogonal, por el corolario ???, esto es equivalente a


A1 = At .
(3) (4) Es inmediato y se deja la demostracin al lector.
Corolario 52 Sea E un espacio euclideo. Si e1 , ..., en y u1 , ..., un son dos bases
ortonormales de E, entonces la matriz de paso de una base a la otra es ortogonal.
(recordemos que una matriz cuadrada A de orden n se llama ortogonal si y slo
si At A = In )
Demostracin: En efecto, Si suponemos que P es la matriz de paso de la base
u1 , ..., un a la base e1 , ..., en , entonces
X = P X0
donde X e X 0 designan las matrices columna de un vector x expresado en (ei )
y (ui ), respectivamente. Obsrvese que
x x = X tX
= (P X 0 )t (P X 0 )
= (X 0 )t P t P X 0
Por tanto,
P t P = In

8.3.2.

Diagonalizacin de matrices simtricas

Segn el corolario anterior, toda matriz simtrica real es la matriz de un


endomorfismo autoadjunto en una base ortonormal de un espacio euclideo E.
El problema de diagonalizar estas matrices equivale, pues, al de encontrar una
base de vectores propios de un endomorfismo autoadjunto de E.

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

219

Definicin 105 Si E es un espacio vectorial de dimensin n sobre R y e1 , ..., en


es una base de E, entonces se tiene
E = R e1 R en
Si ahora consideramos el espacio vectorial E0 sobre C que tiene igualmente como
base e1 , ..., en , entonces se tendr
E0 = C e1 C en
El espacio vectorial E0 de dimensin n sobre C asociado de esta manera a E se
llama complejificado de E, y se tiene claramente
E E0

E 6= E0

Observacin 95 1. Si suponemos que E es un espacio euclideo, es decir, un


espacio vectorial provisto de una forma bilineal simtrica definida positiva
f , se tendr
n
X
xi yi
f (x, y) =
i=1

cuando est referida a una base ortonormal e1 , ..., en de E. Entonces, se


puede dar a E0 , complejificado de E, la forma bilineal f 0 : E0 E0 C
definida en la misma base (es decir, en la base ortonormal de E respecto
a f ) por
n
X
f 0 (x, y) =
xi yi
i=1

con

x=

n
X

xi ei

y=

i=1

n
X

yi ei

i=1

pero, ahora x1 , ..., xn , y1 , ..., yn son nmeros complejos. Es claro que f 0


es una forma bilineal simtrica no degenerada sobre E0 y que e1 , ..., en ,
considerada como base de E0 , es ortonormal respecto a f 0 . Ahora bien, es
importante saber que en este caso
f 0 (x, x) =

n
X

x2i

i=1

es un nmero complejo que puede ser nulo aun cuando x 6= 0, es decir,


hay en E0 vectores istropos no nulos. Por lo tanto, no se puede asociar
una norma a f 0 y f 0 no es un producto escalar. Por ejemplo, el vector
x = (1, i) 6= 0 es istropo respecto a la forma cuadrtica sobre C2 definida
por
q(x) = x21 + x22

Els autors, 2002; Edicions UPC, 2002

220CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


2.

Si suponemos que E es un espacio euclideo y f es un endomorfismo de E,


entonces podemos asociarle un endomorfismo f 0 del complejificado E 0 de
E de manera que su matriz A sea la misma que la de f en la misma base.
Los valores propios de f (en C) son los mismos que los de f 0 , que son los
de la matriz real A.

Lema 4 Si E es un espacio euclideo de dimensin n y f : E E es autoadjunto, entonces el polinomio caracterstico de f es de la forma


p(x) = (x 1 ) (x n )
con 1 , ..., n R, es decir, todos los valores propios de f son nmeros reales.
Demostracin: Sea E0 el complejificado de E y f 0 el endomorfismo de E0 asociado a f . Sea A la matriz de f en una base ortonormal de E. Puesto que f y
f 0 tienen la misma matriz A en dicha base y f es autoadjunto, A es simtrica.
Es claro que, con respecto a esta base, se cumplir tambin
x f 0 (y) = f 0 (x) y
para todo x, y E0 . Sea un valor propio de f 0 en C y, por tanto, de f y de A. Si
fuera un nmero complejo, f 0 admitira tambin el valor propio , conjugado
de . Sean x y x dos vectores propios, no nulos, asociados, respectivamente, a
y . Podemos suponer que sus coordenadas son dos a dos conjugadas en una
cierta base ortonormal de E0 . Entonces tenemos,
x f 0 (x)
x (x)
(x x)
( )(x x)

=
=
=
=

de donde
( )(x x) = ( )
como x 6= 0 implica

n
X
i=1

f 0 (x) x
(x) x
(x x)
0
n
X
i=1

|xi |2 = 0

|xi |2 6= 0

se sigue que = y, por tanto, que es real.


Teorema 136 Si E es un espacio euclideo de dimensin n y f : E E es
autoadjunto, se cumple:
1.

El subespacio ortogonal a todo vector propio no nulo de f es invariante


por f

2.

Los subespacios propios asociados a dos valores propios distintos son ortogonales

Els autors, 2002; Edicions UPC, 2002

8.3. FORMAS BILINEALES SIMTRICAS REALES

221

Demostracin:
1.

Si x es un vector propio no nulo de f de valor propio , entonces el


subespacio

F = hxi = {y E : x y = 0}
es invariante pot f . En efecto, si y F, entonces
x f (y) =
=
=
=

f (x) y
(x) y
(x y)
0 =0

Por tanto, f (y) F.


2.

Sean x1 y x2 dos vectores propios de f asociados, respectivamente, a dos


valores propios distintos 1 y 2 . Entonces, tenemos
x1 f (x2 )
x1 (2 x2 )
2 (x1 x2 )
(1 2 )(x1 x2 )

=
=
=
=

f (x1 ) x2
(1 x1 ) x2
1 (x1 x2 )
0

de donde, x1 x2 = 0 y, por tanto, x1 y x2 son ortogonales. Por consiguiente, resulta que los subespacios propios asociados a 1 y 2 son ortogonales.

Teorema 137 Si E es un espacio euclideo de dimensin n y f : E E es


autoadjunto, existe una base de vectores propios ortonormal.
Demostracin: Procederemos por induccin sobre la dimensin de E. Si dim E =
1, f tiene un solo valor propio . Si x 6= 0 es un vector propio, entonces
u=

x
kxk

constituye una base ortonormal de E. Sea dim E = n > 1 y supongamos que


para todo endomorfismo simtrico f de un espacio euclideo de dimensin n 1
existe una base ortonormal de vectores propios. Si dim E = n, f tiene n valores
propios reales por el lema anterior. Sea 1 uno de ellos, y u1 un vector propio de
valor propio 1 tal que ku1 k = 1. Consideremos el subespacio vectorial F = hu1 i;
F no es istropo ya que en un espacio euclideo el nico vector istropo es 0. Por
tanto
E = F F

Els autors, 2002; Edicions UPC, 2002

222CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Por 1 del teorema anterior, F es invariante por f y, por tanto, si f 0 es el
endomorfismo inducido por f en F , f 0 es simtrico ya que
x f 0 (y) = x f (y)
= f (x) y
= f 0 (x) y
para todo x, y F . Por otra parte, si x es un vector propio de f 0 existe R
tal que
f 0 (x) = f (x) = x
por tanto, los vectores propios de f 0 son los vectores propios de f . Por hiptesis
de induccin, existe una base u2 , ..., un de vectores propios de f 0 ortonormal de
F . Por 2 del teorema anterior se sigue que u1 , u2 , ..., un es una base ortonormal
de de E formada por vectores propios de f .
Corolario 53 Para toda matriz simtrica real A de orden n, existe una matriz
P ortogonal real de orden tal que la matriz
B = P 1 AP
es diagonal.
Demostracin: Es una consecuencia inmediata del teorema anterior y del corolario ???, teniendo en cuenta que los elementos de la diagonal de la matriz B
son los valores propios de A.
Reduccin de las formas cuadrticas reales
Observacin 96 Dada una forma bilineal simtrica f sobre un espacio vectorial real de dimensin finita (o bien, la forma cuadrtica asociada a q), degenerada
o no, positiva o no, en una base ortonormal viene dada por
f (x, y) = X t AY

(At = A)

Entonces, podemos asociarle de manera biyectiva un endomorfismo autoadjunto


o simtrico g, de manera que se cumpla
f (x, y) = x g(y) = g(x) y
cuya matriz en la base considerada es A. De este modo, es lo mismo estudiar f
(o bien q) o g o tambin A, matriz cuadrada real simtrica.
Sea E un espacio euclideo de dimensin n y f una forma bilineal simtrica
cualquiera sobre E. Si A es la matriz asociada a f o al endomorfismo autoadjunto
o simtrico respecto a una base ortonormal cualquiera. Entonces, en una base
ortonormal formada por los vectores propios asociados a los valores propios
1 , ..., n de A, tenemos
n
X
f (x, y) =
i xi yi
i=1

Els autors, 2002; Edicions UPC, 2002

8.4. PROCEDIMIENTOS

223

o bien, si q es la forma cuadrtica asociada a f ,


q(x) =

n
X

i x2i

i=1

Naturalmente, si rang f = r, cambiando si fuera preciso la numeracin de los


vectores de la base, obtenemos
f (x, y) =

r
X

i xi yi

q(x) =

i=1

r
X

i x2i

i=1

donde los i 6= 0 (1 i r). Esta ltima operacin se llama reduccin de las


formas cuadrticas en una base ortonormal.

8.4.

Procedimientos

Estos mtodos se exponen sin demostracin.

8.4.1.

Reduccin de las formas cuadrticas reales

Mtodo reduccin de Gauss


Este mtodo directo se basa en considerar una forma cuadrtica q como un
polinomio homogneo de segundo grado p(x1 , ..., xn ). Se considera una forma
cuadrtica q sobre Rn y se pone
q(x) = p(x1 , ..., xn ) =

aii x2i + 2

aij xi xj

i,j

Distinguimos dos casos:


1. Existe algn trmino x2i con coeficiente no nulo. Si, por ejemplo, es a11 6= 0,
entonces escribimos
q(x) =

1
2
[L(x)] + q1 (x)
a11

donde L es una forma lineal que se expresar con la ayuda de


1

[q(x)]
2 x1
y q1 (x) = p(x2 , ..., xn ) es una forma cuadrtica en las variables x2 , ..., xn a
la que se vuelve a aplicar el mtodo, con lo que acabamos descomponiendo
q en una suma o diferencia de cudrados.

Els autors, 2002; Edicions UPC, 2002

224CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


2. Todos los coeficientes de los trminos x2i son nulos. Si, por ejemplo, es
a12 6= 0, entonces escribimos
q(x) =

2
[L1 (x) L2 (x)] + q1 (x)
a12

donde L1 y L2 son formas lineales que se expresarn con la ayuda

[q(x)]
x1

[q(x)]
x2

y q1 (x) = p(x3 , ..., xn ) es una forma cuadrtica en las variables x3 , ..., xn


a la que se repite el proceso indicado en 1 o aqu, segn el caso. En este
caso, es conveniente observar que
4L1 L2 = (L1 + L2 )2 (L1 L2 )2
Observacin 97 Es conveniente recordar en este caso la frmula de Euler
para polinomios homogneos: p es un polinomio homogneo de grado 2 si y slo
si

[p(x)] + +
[p(x)] = 2p(x)
x1
xn
Ejemplo 125 Determinar una forma reducida de la siguiente forma cuadrtica
de R3
q(x, y, z) = x2 + y 2 + 3z 2 + 4xy + 2xz + 2yz
Solucin: Aplicaremos el mtodo de reduccin de Gauss, segn caso (1):
q(x, y, z) = x2 + y 2 + 3z 2 + 4xy + 2xz + 2yz
= (x + 2y + z)2 3y 2 + 2z 2 2yz
7
1
= (x + 2y + z)2 (3y + z)2 + z 2
3
3
obtenemos as la siguiente forma reducida de q
7
1
q(x0 , y 0 , z 0 ) = (x0 )2 (y 0 )2 + (z 0 )2
3
3
donde

0
x = x + 2y + z
y 0 = 3y + z
0
z =z

Obsrvese que la forma cuadrtica es indefinida y no degenerada.


Ejemplo 126 Determinar una forma reducida de la siguiente forma cuadrtica
de R4
q(x1 , x2 , x3 , x4 ) = x1 x2 + x2 x3 + x1 x4 + x2 x4 + x3 x4

Els autors, 2002; Edicions UPC, 2002

8.4. PROCEDIMIENTOS

225

Solucin: Aplicaremos el mtodo de reduccin de Gauss, segn caso (2):


q(x1 , x2 , x3 , x4 ) = x1 x2 + x2 x3 + x1 x4 + x2 x4 + x3 x4
= (x1 + x3 + x4 )(x2 + x4 ) x24
1
1
=
(x1 + x2 + x3 + 2x4 )2 (x1 x2 + x3 )2 x24
4
4
obtenemos as la siguiente forma reducida de q
q(x01 , x02 , x03 , x04 ) =
donde

0
x

10
x2
x0

30
x4

1 0 2 1 0 2
(x ) (x2 ) (x03 )2
4 1
4

= x1 + x2 + x3 + 2x4
= x1 x2 + x3
= x4
=0

Transformaciones elementales
Realizando transformaciones elementales en la matriz A de la forma bilineal
simtrica asociada a la forma cuadrtica, conseguiremos otra matriz D congruente con ella cuya forma es diagonal. De este modo, existe una matriz ortogonal
P tal que
D = P t AP
Las columnas de P sern las coordenadas de los vectores que constituyen la base
ortonormal respecto de la cual la matriz de la forma cuadrtica es D.
Ejemplo 127 Sea q la forma cuadrtica sobre R3 definida por
q(x, y, z) = x2 + y 2 + z 2 + 2yz
1.

Determinar una forma reducida y la base correspondiente

2.

Es definida positiva?
Solucin:

1.

La matriz asociada a q en la base cannica de R3 es

1 0 0
A= 0 1 1
0 1 1

Els autors, 2002; Edicions UPC, 2002

226CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Aplicando transformaciones elementales en esta matriz obtenemos,

I3 |A|I3

1 0 0 1 0 0 1 0 0
0 1 0 0 1 1 0 1 0
0 0 1 0 1 1 0 0 1
1 0 0 1 0 0 1 0 0 F1
0 1 0 0 1 1 0 1 0 F2
0 0 1 0 0 0 0 1 1 F3 F2
1 0 0
0 1 1
0 0 1

C1
1
0
0

C2
0
1
0

C3 C2
0
0
0

P |D|P t

1 0 0
0 1 0
0 1 1

Por tanto, tenemos que


q(x0 , y 0 , z 0 ) = x02 + y 02
y la base ortogonal respecto a q en la que se expresa es la siguiente
((1, 0, 0), (0, 1, 0), (0, 1, 1))
2.

Es evidente que q no es definida positiva ya que los elementos de la diagonal de la forma reducida son 1, 1 y 0, que no son estrictamente positivos.

Clculo de la base ortonormal


Este mtodo consiste en hallar una base ortonormal formada por los vectores propios de la matriz asociada a la forma cuadrtica. Para ello, deberemos
calcular primero los valores propios correspondientes a partir de su polinomio
caracterstico.
Ejemplo 128 Sea q la forma cuadrtica sobre R3 definida por
q(x, y, z) = x2 + y 2 + z 2 + 2yz
Determinar su forma reducida en una base ortonormal formada por los vectores
propios de su matriz asociada.
Solucin: La matriz A del endomorfismo simtrico f del espacio euclideo
ordinario R3 asociado a q coincide con la matriz de q en una base ortonormal,
es decir, ser

1 0 0
A= 0 1 1
0 1 1

Els autors, 2002; Edicions UPC, 2002

8.4. PROCEDIMIENTOS

227

en la base cannica. Puesto que f (1, 0, 0) = (1, 0, 0), es evidente que e1 =


(1, 0, 0) es un vector propio de valor propio 1, y al ser f (e2 ) = f (e3 ) = (0, 1, 1),
entonces det A = 0 y, por tanto, 0 es valor propio de A. Los vectores propios de
valor propio 0 son los vectores del ncleo de f , es decir,

0
x
1 0 0
0 1 1 y = 0
0
z
0 1 1
Por ejemplo, el vector (0, 1, 1) es un vector propio de valor propio 0 ya que

0
0
1 0 0
0 1 1 1 = 0
0
1
0 1 1

Como que la traza es un invariante frente a los cambios de base, deducimos que
trA = 1 + 0 +
1+1+1 = 1+
2 =
Por tanto, los valores propios son 0,1 y 2. Puesto que los vectores propios de valores propios distintos son ortogonales, podemos calcular un vector propio (x, y, z)
de valor propio 2 con la ayuda de las ecuaciones siguientes:

(x, y, z) (1, 0, 0) = 0
(x, y, z) (0, 1, 1) = 0

es decir, x = 0 y y = z. Por tanto, podemos tomar como vector propio de


valor propio 2 el vector (0, 1, 1). Normalizando los vectores de la base obtenida
tenemos
u1
u2
u3

= (1, 0, 0)
(0, 1, 1)
1
1

=
= (0, , )
2
2
2
(0, 1, 1)
1
1

=
= (0, , )
2
2
2

y, por tanto,
1
1
1
1
((1, 0, 0), (0, , ), (0, , ))
2
2
2
2
es una base ortonormal formada por vectores propios de f en la que las matrices
de f y q coinciden; esta matriz es

1 0 0
D= 0 2 0
0 0 0
La forma reducida de q en dicha base es

q(x0 , y 0 , z 0 ) = x02 + 2y 02

Els autors, 2002; Edicions UPC, 2002

228CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS

8.4.2.

Clasificacin de formas cuadrticas reales

Consiste en determinar si la forma cuadrtica es degenerada o no, positiva


o no, o indefinida. Existen varios mtodos para hacer esto:
Invariantes
Consiste en determinar el rango r y la signatura (s, t), donde s es el nmero
de trminos positivos que presenta la forma cuadrtica q en una base ortonormal
y t, el nmero de trminos negativos. De este modo, tenemos
1. Si r = s = n, entonces q es definida positiva
2. Si r = t = n, entonces q es definida negativa
3. Si r = s < n, entonces q es positiva
4. Si r = t < n, entonces q es negativa
5. Si r 6= s y s 6= 0, entonces q es indefinida
Ejemplo 129 Clasificar la siguiente forma cuadrtica q de R5 que tiene por
matriz asociada

2 1 0 0 0
1 2 0 0 0

A=
0 0 2 0 0
0 0 0 2 1
0 0 0 1 2
en la base cannica. Para ello, hallar su rango y su signatura.
Solucin: Sabemos que en una base ortonormal el endomorfismo simtrico
asociado a q tiene la misma matriz A. El polinomio caracterstico de A es
det(A I5 ) = ( 2)( 1)2 ( 3)2
y, por tanto, los valores propios de A son 1 (doble),2 y 3 (doble). Por lo tanto,
la forma reducida de q en la base ortonormal formada por vectores propios de
valores propios 1,2 y 3 es
q(x, y, z, t, u) = x2 + y 2 + 2z 2 + 3t2 + 3u2
De aqu obtenemos que r = 5 y la signatura de q es (5, 0) y, en consecuencia,
la forma cuadrtica es definida positiva.
Diagonalizacin de la forma cuadrtica
Supongamos que en una base ortonormal la forma cuadrtica se reduce a
q(x) = a11 x21 + + ann x2n
entonces:

Els autors, 2002; Edicions UPC, 2002

8.4. PROCEDIMIENTOS

229

1. Si aii > 0 para todo i = 1, ..., n, entonces q es definida positiva


2. Si aii < 0 para todo i = 1, ..., n, entonces q es definida negativa
3. Si aii 0 para todo i = 1, ..., n, entonces q es positiva
4. Si aii 0 para todo i = 1, ..., n, entonces q es negativa
5. Si hay coefientes aii positivos y negativos, entonces q es indefinida
Ejemplo 130 Clasificar la siguiente forma cuadrtica q de R4 , calculando primero
una forma reducida de q
q(x, y, z, t) = 4x2 + 2y 2 + z 2 + 2t2 + 4xy + 2yz 2yt
Solucin: Emplearemos el mtodo de Gauss para hallar una forma reducida
de q,
q(x, y, z, t) = 4x2 + 2y 2 + z 2 + 2t2 + 4xy + 2yz 2yt
1
=
(4x + 2y)2 + y 2 + z 2 + 2t2 + 2yz 2yt
4
1
=
(4x + 2y)2 + (y + z t)2 + t2 + 2zt
4
1
=
(4x + 2y)2 + (y + z t)2 + (t + z)2 z 2
4
Por tanto, tenemos
q(x0 , y 0 , z 0 , t0 ) =
donde

1 0 2
(x ) + (y 0 )2 + (z 0 )2 (t0 )2
4

0
x = 4x + 2y

0
y =y+zt
0
z
=t+z

0
t =z

Es claro que la forma cuadrtica es indefinida y no degenerada.


Estudio de los menores principales
Si A = (aij ) es la matriz simtrica real de orden n, asociada a la forma
cuadrtica q, se llaman menores principales de A a los siguientes determinantes

a11 a1p

..
..
Mp = ...
(1 p n)
. .

ap1 app

Els autors, 2002; Edicions UPC, 2002

230CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


6 0 para todo p
Se puede demostrar, que si Mp =
matriz diagonal

c1 0
..
.
..
D= .
. ..
0

y una matriz triangular de la forma

1
t21

T = .
..

tn1

cn

= 1, ..., n, entonces existe una

0
1
..
.

..
.

0
0
..
.

tn2

tales que

A = T Dt T
y
ck =

Mk
Mk1

Si rang A = r, se tiene c1 6= 0, ..., cr 6= 0, cr+1 = = cn = 0 y A = T Dt T si


y slo si Mp 6= 0 para 1 p r. Con este resultado, obtenemos el siguiente
criterio para caracterizar una forma cuadrtica q,
1. Si rang A = n, entonces se tiene
a) Si Mi > 0 para todo i = 1, ..., n, entonces q es definida positiva
b) Si M1 < 0, M2 > 0, M3 < 0, ... y as sucesivamente, entonces q es
definida negativa
2. Si rang A = r, entonces se tiene
a) Si M1 > 0, M2 > 0, ..., Mr > 0, Mr+1 = = Mn = 0, entonces q es
positiva
b) Si M1 < 0, M2 > 0, ... y as sucesivamente, Mr+1 = = Mn = 0,
entonces q es negativa
Ejemplo 131 Clasificar la siguiente forma cuadrtica sobre R3
q(x, y, z) = x2 + 2y 2 + 3z 2 + 2xy + 2xz + 4yz
Solucin: La matriz de q en la base

1
A= 1
1

cannica es

1 1
2 2
2 3

Els autors, 2002; Edicions UPC, 2002

8.4. PROCEDIMIENTOS

231

Calculemos los menores principales de A,


M1
M2
M3

= 1>0

1 1
=
1 2

1 1

= 1 2
1 2

=1>0

1
2 = 1 > 0
3

Por tanto, la forma cuadrtica es definida positiva.


Ejemplo 132 Clasificar, segn los valores
de R3 que tiene por matriz

1 a
1
A= a
0
0

a, la siguiente forma cuadrtica q

0
0
3

Solucin: Obsrvese en primer lugar que e3 = (0, 0, 1) es un vector propio


de valor propio 3 del endomorfismo simtrico asociado a q en la base cannica.
Por tanto, q no puede ser definida positiva. Calculemos los menores principales
de A,
M1
M2
M3

= 1 < 0

1 a
=
a
1

1 a

1
= a
0
0

= 1 a2

0
0 = 3(1 a2 )
3

Es claro que q es definida negativa si y slo si a2 < 1, es decir, 1 < a < 1. Si


a > 1 o a < 1, entonces q es indefinida y no degenerada, ya que no es definida
positiva. Por ltimo, si a = 1 o a = 1, q es negativa y degenerada.
Estudio del signo de los valores propios
A partir del signo de los valores propios obtenidos como races del polinomio
caracterstico de la matriz asociada a la forma cuadrtica q tenemos:
1. Si todos los valores propios son positivos, q es definida positiva; si, adems,
alguno es nulo, entonces q es positiva
2. Si todos los valores propios son negativos, q es definida negativa; si, adems,
alguno es nulo, entonces q es negativa
3. Si existen valores propios positivos y negativos, q es indefinida

Els autors, 2002; Edicions UPC, 2002

232CAPTULO 8. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Para tomar una decisin en estos casos slo es necesario calcular el polinomio
caracterstico de la matriz A y averiguar los signos de las races por el teorema de
Descartes. Este teorema afirma, que el nmeros de races positivas, contada cada
una tantas veces como indique su multiplicidad, no supera el nmero de cambios
de signo que presenta la sucesin de coeficientes (supuestos todos reales), y
ambos nmeros (nmero de races positivas y nmero de cambios de signo)
tienen la misma paridad. Por ejemplo, el polinomio
p(x) = 7x5 5x3 + 2x2 + x 1
presenta la siguiente sucesin de signos
+ + +
luego, el nmero de races positivas ser 3 o 1. Para obtener el nmero de races
negativas basta poner x en lugar de x, y de este modo, la sucesin de signos
es
++
luego, el nmero de races negativas ser 2 o 0. En consecuencia, si este polinomio
admite todas sus races en R (esta situacin se dar en nuestro caso ya que la
matriz es simtrica real y, por tanto, ser siempre diagonalizable), tendr 3
races positivas y 2 de negativas.
Ejemplo 133 Clasificar la siguiente forma cuadrtica de R3
q(x, y, z) = x2 + 2y 2 + 3z 2 + 2xy
Solucin: La matriz de q en la base

1
A= 1
0

cannica de R3 es

1 0
2 0
0 3

El polinomio caracterstico del endomorfismo


cannica es

det(A I3 ) = 1
0

simtrico asociado a q en la base


1
0
2 0
0
3

= 3 + 62 10 + 3

La sucesin de signos es
+ +
es decir, hay tres cambios de signo. Como A admite todos sus valores propios
en R, se sigue que los valores propios de A son todos positivos y, por tanto, q
es definida positiva.

Els autors, 2002; Edicions UPC, 2002

Parte II

Prctica

233

Els autors, 2002; Edicions UPC, 2002

Els autors, 2002; Edicions UPC, 2002

Captulo 9

Espacios vectoriales
9.1.

Concepto de espacio vectorial

Ejercicio 2 Si K es el cuerpo de los enteros mdulo 3, considrese el espacio


vectorial de los vectores de orden n sobre K. Cunntos vectores hay en este
espacio? Siendo v un vector, qu cabe decir de v + v + v? Puede ser un vector
la suma de tres vectores iguales?

Solucin: Es claro que K = Z3 = 0, 1, 2 , pues


m = {n Z : n m (3)}

en donde (3) denota el conjunto de mltiplos de 3. Entonces,


0 ={n Z : n (3)} = (3)

1 ={n Z : n 1 = mltiplo de 3} = (3) + 1


2 ={n Z : n 2 = mltiplo de 3} = (3) + 2
El espacio vectorial es Kn cuyos vectores son n tuplas ordenadas de elementos
de K. En este espacio hay pues 3n vectores.
Para calcular v + v + v, haz click en cada paso:
v+v+v

=
=
=

(1 + 1 + 1)v
0v
0

ya que 3 0 mod 3

Por tanto, la suma de tres vectores iguales siempre es el vector cero. En


consecuencia, slo el vector cero es la suma de tres vectores iguales.

Ejercicio 3 Constryase un espacio vectorial con cuatro vectores, utilizando el


cuerpo de los enteros mdulo 2.
235

Els autors, 2002; Edicions UPC, 2002

236

CAPTULO 9. ESPACIOS VECTORIALES


Solucin: Si K = Z2 = 0, 1 , entonces K2 es un espacio vectorial de
22 = 4 elementos sobre K. La suma de vectores se define por la tabla siguiente:
+
(0, 0)
(0, 1)
(1, 0)
(1, 1)

(0, 0)
(0, 0)
(0, 1)
(1, 0)
(1, 1)

(0, 1)
(0, 1)
(0, 0)
(1, 1)
(1, 0)

(1, 0)
(1, 0)
(1, 1)
(0, 0)
(0, 1)

(1, 1)
(1, 1)
(1, 0)
(0, 1)
(0, 0)

y el producto por escalares se define por la tabla siguiente


0
1

(0, 0)
(0, 0)
(0, 0)

(0, 1)
(0, 0)
(0, 1)

(1, 0)
(0, 0)
(1, 0)

(1, 1)
(0, 0)
(1, 1)

En ambas tablas hemos escrito 0 y 1 en lugar de 0 y 1, respectivamente.

Ejercicio 4 Demostrar que el conjunto E de las aplicaciones f : R R puede


dotarse de manera natural de estructura de espacio vectorial real.
Solucin: Para cada par (f, g) E E definimos la aplicacin f + g por
(f + g)(x) = f (x) + g(x)
y para cada par (, f ) R E definimos la aplicacin f por
(f )(x) = f (x)
Se cumplen los 10 axiomas para ser espacio vectorial real:
(1) Para todo f, g E, f + g E ya que la adicin de dos nmeros reales
es un nmero real.
(2) Para todo f, g, h E, (f + g) + h = f + (g + h), pues
((f + g) + h)(x) =
por definicin
(f + g)(x) + h(x) =
por definicin
(f (x) + g(x)) + h(x) =
por la propiedad asociativa de la adicin en R
f (x) + (g(x) + h(x)) =
por definicin
f (x) + (g + h)(x) =
por definicin
(f + (g + h))(x)

Els autors, 2002; Edicions UPC, 2002

9.1. CONCEPTO DE ESPACIO VECTORIAL

237

(3) Para todo f, g E, f + g = g + f , pues


(f + g)(x) =
por definicin
f (x) + g(x) =
por la propiedad conmutativa de la adicin en R
g(x) + f (x) =
por definicin
(g + f )(x)
(4) Existe la aplicacin 0 constante igual 0 R, definida por 0(x) = 0, tal
que f + 0 = f para todo f E, pues
(f + 0)(x) =
por definicin
f (x) + 0(x) =
por definicin de la aplicacin constante igual 0
f (x) + 0 =
por ser 0 el cero de R
f (x)
(5) Para cada f E existe la aplicacin f E, definida por (f )(x) =
f (x), tal que f + (f ) = 0, pues
(f + (f ))(x) =
por definicin
f (x) + (f )(x) =
por definicin de f

f (x) + (f (x)) =

por ser f (x) y f (x) dos nmeros reales opuestos


0=
por definicin de la aplicacin constante igual 0
0(x)
(6) Para todo f E y R, f E, ya que la multiplicacin de dos
nmeros reales es un nmero real.
(7) Para todo f, g E y R, (f + g) = f + g, pues
((f + g)) (x) =

Els autors, 2002; Edicions UPC, 2002

238

CAPTULO 9. ESPACIOS VECTORIALES

por definicin
(f + g) (x) =
por definicin
(f (x) + g(x)) =
por la propiedad distributiva de la multiplicacin respecto de la adicin en R
f (x) + g(x) =
por definicin
(f ) (x) + (g) (x) =
por definicin
(f + g) (x)
(8) Para todo f E y , R, ( + ) f = f + f , pues
(( + ) f ) (x) =
por definicin
( + ) f (x) =
por la propiedad distributiva en R
f (x) + f (x) =
por definicin
(f ) (x) + (f ) (x) =
por definicin
(f + f ) (x)
(9) Para todo f E y , R, () f = (f ), pues
(() f ) (x) =
por definicin
() f (x) =
por la propiedad asociativa de la multiplicacin en R
(f (x)) =
por definicin
((f ) (x)) =
por definicin
( (f )) (x)
(10) Para todo f E, 1f = f , pues
(1f ) (x) =

Els autors, 2002; Edicions UPC, 2002

9.1. CONCEPTO DE ESPACIO VECTORIAL

239

por definicin
1f (x) =
por ser 1 la unidad en R
f (x)

Ejercicio 5 Estudiar si los conjuntos siguientes de nmeros reales y las operaciones que se indican formano no
un espacio vectorial
sobre el cuerpo de los

nmeros racionales: (a) A = x + y 5 : x, y Z y las operaciones

(x1 + y1 5) + (x2 + y2 5) = (x1 + x2 ) + (y1 + y2 ) 5

(x + y 5) = (x) + (y) 5

(b) B = x + y 5 : x, y Q y las mismas operaciones anteriores.


Solucin:
(a) A no tiene estructura de espacio vectorial sobre Q, pues 1/2
Q y 1 + 2 5 A y, en cambio
1
1
/A
1+2 5 = + 5
2
2

porque 1/2
/ Z.
(b) Para B y las mismas
operaciones
se cumplen los 10 axiomas:

(1) Para todo x1 + y1 5, x2 + y2 5 B, (x1 + x2 ) + (y1 + y2 ) 5 B, ya


que x1 + x2 , y1 + y2 Q

(2) Para todo x1 + y1 5, x2 + y2 5, x3 + y3 5 B,

h

i
x1 + y1 5 + x2 + y2 5 + x3 + y3 5 =
por definicin

por definicin

h
i
x1 + y1 5 + (x2 + x3 ) + (y2 + y3 ) 5 =

(x1 + (x2 + x3 )) + (y1 + (y2 + y3 )) 5 =

por la propiedad asociativa de + en Q

((x1 + x2 ) + x3 ) + ((y1 + y2 ) + y3 ) 5 =
por definicin

por definicin

h

i
(x1 + x2 ) + (y1 + y2 ) 5 + x3 + y3 5 =
h

i

x1 + y1 5 + x2 + y2 5 + x3 + y3 5

Els autors, 2002; Edicions UPC, 2002

240

CAPTULO 9. ESPACIOS VECTORIALES

(3) Para todo x1 + y1 5, x2 + y2 5 B,



x1 + y1 5 + x2 + y2 5 =

por definicin

(x1 + x2 ) + (y1 + y2 ) 5 =

por la propiedad conmutativa de + en Q

(x2 + x1 ) + (y2 + y1 ) 5 =
por definicin



x2 + y2 5 + x1 + y1 5

(4) Existe 0 + 0 5 B tal que, para todo x1 + y1 5 B



0 + 0 5 + x1 + y1 5 =

por definicin

(0 + x1 ) + (0 + y1 ) 5 =

por ser 0 el elemento neutro de + en Q

x1 + y1 5

(5) Para cada x1 + y1 5 B, existe (x1 ) + (y1 ) 5 B tal que



(x1 ) + (y1 ) 5 + x1 + y1 5 =

por definicin

((x1 ) + x1 ) + ((y1 ) + y1 ) 5 =

por ser x el opuesto de x por + en Q

0+0 5

(6) Para todo x1 + y1 5 B y Q, (x1 ) + (y1 ) 5 B, ya que


x1 , y1 Q

(7) Para todo x1 + y1 5, x2 + y2 5 B y Q,


h

i
x1 + y1 5 + x2 + y2 5 =

por definicin

por definicin

h
i
(x1 + x2 ) + (y1 + y2 ) 5 =

((x1 + x2 )) + ((y1 + y2 )) 5 =

Els autors, 2002; Edicions UPC, 2002

9.1. CONCEPTO DE ESPACIO VECTORIAL


por la propiedad distributiva de la multiplicacin respecto a la adicin en Q

(x1 + x2 ) + (y1 + y2 ) 5 =
por definicin
por definicin



x1 + y1 5 + x2 + y2 5 =



x1 + y1 5 + x2 + y2 5

(8) Para todo x1 + y1 5 B y , Q,


( + ) x1 + y1 5 =

por definicin

(( + ) x1 ) + (( + ) y1 ) 5 =

por la propiedad distributiva de la multiplicacin respecto a la adicin en Q

(x1 + x1 ) + (y1 + y1 ) 5 =
por definicin
por definicin



x1 + y1 5 + x1 + y1 5 =



x1 + y1 5 + x1 + y1 5

(9) Para todo x1 + y1 5 B y , Q,


h
i
x1 + y1 5 =

por definicin

por definicin


x1 + y1 5 =

(x1 ) + (y1 ) 5 =

por la propiedad asociativa de la multiplicacin en Q

() x1 + () y1 5 =
por definicin


() x1 + y1 5

(10) Para todo x1 + y1 5 B,


1 x1 + y1 5 =

por definicin

(1x1 ) + (1y1 ) 5 =

por ser 1 la unidad de la multiplicacin en Q

x1 + y1 5
Por tanto, B es un espacio vectorial sobre Q.

Els autors, 2002; Edicions UPC, 2002

241

242

9.2.

CAPTULO 9. ESPACIOS VECTORIALES

Subespacios vectoriales

Ejercicio 6 Consideremos el espacio vectorial real F(R, R) de las funciones


reales de variable real. Averiguar
son sube
cules de los siguientes subconjuntos
spacios vectoriales: (a) S1 = f F(R, R) : f (x2 ) = (f (x))2 ; (b) S2 = {f F(R, R) : f (0) = f (2)};
(c) S3 = {f F(R, R) : f (2) = 3 + f (1)}.
Solucin: (a) Si f, g S1 , entonces
f (x2 ) = (f (x))2
g(x2 ) = (g(x))2
Por tanto,
(f + g)(x2 ) =
por definicin,
f (x2 ) + g(x2 ) =
por hiptesis,
(f (x))2 + (g(x))2
Por otra parte,
((f + g)(x))2 =
por definicin,
(f (x) + g(x))2 =
desarrollando,
(f (x))2 + 2f (x)g(x) + (g(x))2
En general,
(f (x))2 + (g(x))2 6= (f (x))2 + 2f (x)g(x) + (g(x))2
Por consiguiente, f + g
/ S1 y, en consecuencia, S1 no es subespacio vectorial.
(b) Si f, g S2 , entonces
f (0) = f (2)
g(0) = g(2)
Por tanto,
(f + g)(0) =
por definicin,
f (0) + g(0) =
por hiptesis,
f (2) + g(2) =
por definicin,
(f + g)(2)

Els autors, 2002; Edicions UPC, 2002

9.2. SUBESPACIOS VECTORIALES

243

Por tanto, f + g S2 . Adems,


(f )(0) =
por definicin,
f (0) =
por hiptesis,
f (2) =
por definicin,
(f )(2)
Por tanto, f S2 . Obsrvese que 0 S2 , siendo 0 la funcin constante igual
0. En consecuencia, S2 es subespacio vectorial.
(c) Si f, g S2 , entonces
f (2) = 3 + f (1)
g(2) = 3 + g(1)
Por tanto,
(f + g)(2) =
por definicin,
f (2) + g(2) =
por hiptesis y efectuando operaciones,
6 + f (1) + g(1) =
Por otra parte,
3 + (f + g)(1) =
por definicin,
3 + f (1) + g(1)
Es claro que
6 + f (1) + g(1) 6= 3 + f (1) + g(1)
Por consiguiente, f + g
/ S3 y, en consecuencia, S3 no es subespacio vectorial.

Ejercicio 7 En el espacio vectorial R4 consideremos el conjunto S = {(x, y, z, t)


R4 : 2x + 3y + z 2t = 0}. Probar que S es un subespacio vectorial de R4 .
Solucin: Si u = (x1 , y1 , z1 , t1 ), v = (x2 , y2 , z2 , t2 ) S, entonces
2x1 + 3y1 + z1 2t1
2x2 + 3y2 + z2 2t2

= 0
= 0

Els autors, 2002; Edicions UPC, 2002

244

CAPTULO 9. ESPACIOS VECTORIALES

Por definicin,
u + v = (x1 + x2 , y1 + y2 , z1 + z2 , t1 + t2 )
Adems se cumple,
2(x1 + x2 ) + 3(y1 + y2 ) + (z1 + z2 ) 2(t1 + t2 ) =
efectuando operaciones,
2x1 + 3y1 + z1 2t1 + 2x2 + 3y2 + z2 2t2 =
por hipotesis,
0+0=0
Por tanto, u + v S.
Si u = (x1 , y1 , z1 , t1 ), R, entonces por definicin se tiene
u = u = (x1 , y1 , z1 , t1 )
Adems se cumple,
2(x1 ) + 3(y1 ) + (z1 ) 2(t1 ) =
efectuando operaciones,
(2x1 + 3y1 + z1 2t1 ) =
por hiptesis,
0 = 0
Por tanto, u S. Obsrvese que 0 = (0, 0, 0, 0) S.
Por consiguiente, S es un subespacio vectorial de R4 .

Ejercicio 8 Estudiar si los siguientes conjuntos son subespacios de R4 . (a)


S1 = {(x, y, z, t) R4 : xy = 0}; (b) S2 = {(x, y, z, t) R4 : x = 1}; (c)
S3 = {(x, y, z, t) R4 : x2 + y 2 + z 2 + t2 = 0}.
Solucin: (a) Es claro que u = (1, 0, 0, 0), v = (0, 1, 0, 0) S1 pero u + v =
(1, 1, 0, 0)
/ S1 . Por tanto, S1 no es subespacio vectorial.
(b) Es claro que 0 = (0, 0, 0, 0)
/ S2 . Por tanto, S2 no es subespacio vectorial.
(c) La ecuacin
x2 + y 2 + z 2 + t2 = 0
slo es vlida en R si x = y = z = t = 0. Por tanto, S3 = {0} y, en consecuencia, es subespacio vectorial de R4 .

Els autors, 2002; Edicions UPC, 2002

9.3. INTERSECCIN DE SUBESPACIOS VECTORIALES

9.3.

245

Interseccin de subespacios vectoriales

Ejercicio 9 Dados los subespacios S = {(x, y, z) R3 : x + y + z = 0} y


T = {(, + , ) : , R} de R3 . Determinar el subespacio interseccin
S T y expresarlo paramtricamente.
Solucin: En primer lugar debemos observar que el subespacio T viene dado
en forma paramtrica. Cualquier vector v = (x, y, z) de T debe cumplir

x=

y =+

z =
en donde , R. De estas ecuaciones se deduce
y + z = 2
y, de aqu, se obtiene
y + z = 2x
es decir
2x y z = 0
Por tanto, podemos escribir
T = {(x, y, z) R3 : 2x y z = 0}
De este modo, es evidente que
S T = {(x, y, z) R3 : x + y + z = 0 y 2x y z = 0}
Para expresarlo en forma paramtrica debemos resolver el sistema lineal formado
por las dos ecuaciones definidoras del subespacio:

x+y+z =0
2x y z = 0
Sumando las dos ecuaciones se obtiene
x=0
y, por tanto,
y = z
Si ahora hacemos z = , con R, entonces

x=0
y =

z=

y, en consecuencia

S T = {(0, , ) : R}

Els autors, 2002; Edicions UPC, 2002

246

9.4.

CAPTULO 9. ESPACIOS VECTORIALES

Subespacio engendrado por un conjunto

Ejercicio 10 Dado el conjunto A = {(1, 1, 1), (1, 0, 1)} de vectores de R3 .


Hallar el subespacio engendrado por A.
Solucin: Es claro que por construccin
hAi = {(1, 1, 1) + (1, 0, 1) : , R}
Por tanto, si (x, y, z) hAi, entonces deben existir , R tales que
(x, y, z) = (1, 1, 1) + (1, 0, 1)
Por tanto, efectuando operaciones
(x, y, z) = ( + , , )
Teniendo presente que dos vectores son iguales si tienen las mismas componentes, se tiene

x=+
y=

z =

Sumando las ecuaciones, primera y tercera, se obtiene


x + z = 2
Y de la segunda, se obtiene
x + z = 2y
Por consiguiente

hAi = {(x, y, z) R3 : x 2y + z = 0}

9.5.

Suma de subespacios vectoriales

Ejercicio 11 En el espacio vectorial R4 se considera el subespacio S engendrado


por los vectores u1 = (1, 2, 0, 3), u2 = (2, 1, 2, 4), u3 = (0, 2, 1, 1), y el
subespacio T engendrado por v1 = (1, 0, 1, 4), v2 = (1, 1, 1, 0). Calcular S + T
y determinar si la suma es o no directa.
Solucin: Un vector (x, y, z, t) de S + T debe cumplir
(x, y, z, t) = (1, 2, 0, 3)+(2, 1, 2, 4)+(0, 2, 1, 1)+(1, 0, 1, 4)+(1, 1, 1, 0)
Efectuando operaciones, se tiene
(x, y, z, t) = ( + 2 + + , 2 + + 2 + , 2 , 3 + 4 + + 4)

Els autors, 2002; Edicions UPC, 2002

9.6. COMBINACIONES LINEALES


es decir,
E1
E2
E3
E4

:
:
:
:

x = + 2 + +
y = 2 + + 2 +
z = 2
t = 3 + 4 + + 4

De aqu, por sucesivas reducciones, se obtiene

247

5E1 + 4E2 + 9E3 + E4 : 5x + 4y + 9z + t = 0


Por consiguiente,
S + T = {(x, y, z, t) R4 : 5x + 4y + 9z + t = 0}
Obsrvese que se cumple
v1 = u1 + u3
Por tanto,
v1 S T

y, en consecuencia,
y la suma no es directa.

9.6.

S T 6= {0}

Combinaciones lineales

Ejercicio 12 Escribir el vector w = (1, 1, 1) como una combinacin lineal de


los vectores del sistema S = (v1 , v2 , v3 ) de R3 , siendo v1 = (1, 2, 3), v2 =
(0, 1, 2), v3 = (1, 0, 1).
Solucin: Es necesario encontrar escalares 1 , 2 , 3 tales que
w = 1 v1 + 2 v2 + 3 v3
o bien,
(1, 1, 1) = 1 (1, 2, 3) + 2 (0, 1, 2) + 3 (1, 0, 1)
o bien,
(1, 1, 1) = (1 3 , 21 + 2 , 31 + 22 + 3 )

Igualando componentes, se obtiene el siguiente sistema lineal

1 3 = 1
21 + 2 = 1

31 + 22 + 3 = 1

cuya soluciones son, 3 = 1 1, 2 = 21 + 1, 1 = 1 . Por ejemplo, para


obtener una solucion particular, puede tomarse 1 = 1. Entonces 2 = 1 y
3 = 0, y se tiene
w = 1v1 + (1)v2 + 0v3 = v1 v2
Otras elecciones para 1 producen otras maneras de escribir w como una combinacin lineal de S.

Els autors, 2002; Edicions UPC, 2002

248

CAPTULO 9. ESPACIOS VECTORIALES

Ejercicio 13 Escribir el polinomio p(x) = 2+6x2 como una combinacin lineal


de los polinomios p1 (x) = 2 + x + 4x2 , p2 (x) = 1 x + 3x2 , p3 (x) = 3 + 2x + 5x2
de R2 [x].
Solucin: Es preciso hallar escalares 1 , 2 , 3 tales que
p(x) = 1 p1 (x) + 2 p2 (x) + 3 p3 (x)
es decir,
2 + 6x2 = 1 (2 + x + 4x2 ) + 2 (1 x + 3x2 ) + 3 (3 + 2x + 5x2 )
efectuando operaciones se obtiene
2 + 6x2 = (21 + 2 + 33 ) + (1 2 + 23 )x + (41 + 32 + 53 )x2
Por el prinicipio de identidad de polinomios, se obtiene el siguiente sistema
lineal

21 + 2 + 33 = 2
1 2 + 23 = 0

41 + 32 + 53 = 6
cuya solucin es: 1 = 4, 3 = 2, 2 = 0. Por tanto,

p(x) = 4p1 (x) + 0p2 (x) + (2)p3 (x) = 4p1 (x) 2p3 (x)

Ejercicio 14 Averiguar si la matriz


A=

6 3
0 8

es o no una combinacin lineal de las matrices

1 2
0 1
4 2
, M2 =
, M3 =
M1 =
1 3
2 4
0 2
de M2 (R).
Solucin: Se trata de encontrar 1 , 2 , 3 R tales que
A = 1 M1 + 2 M2 + 3 M3
es decir

6 3
0 8

= 1

1 2
1 3

+ 2

Efectuando operaciones se obtiene


6 3
1 + 43
=
1 + 22
0 8

0 1
2 4

+ 3

21 + 2 23
31 + 42 23

Els autors, 2002; Edicions UPC, 2002

4 2
0 2

9.7. CLAUSURA LINEAL

249

De esta igualdad de matrices se obtiene el siguiente sistema

1 + 43 = 6

21 + 2 23 = 3
1 + 22 = 0

31 + 42 23 = 8
cuya solucin es: 1 = 2, 3 = 1, 2 = 1. Por tanto,
A = 2M1 + M2 + M3

9.7.

Clausura lineal

Ejercicio 15 Dados los vectores v1 = (3, 1, 1), v2 = (1, 2, 0), v3 = (0, 7, 1)


de R3 , encontrar a para que el vector w = (1, 5, a) pertenezca a la clausura lineal
de dichos vectores.
Solucin: Hemos de encontrar a de manera que se cumpla
w hv1 , v2 , v3 i
es decir
w = 1 v1 + 2 v2 + 3 v3
para ciertos 1 , 2 , 3 R. Por tanto tenemos
(1, 5, a) = 1 (3, 1, 1) + 2 (1, 2, 0) + 3 (0, 7, 1)
es decir
(1, 5, a) = (31 2 , 1 + 22 + 73 , 1 3 )
Por tanto, se tiene el sistema

31 2 = 1
1 + 22 + 73 = 5

1 3 = a

De la primera ecuacin se tiene 2 = 31 1. Sustituyendo este resultado en la


segunda se obtiene 3 = 1 1 . Sustituyendo este ltimo resultado en la tercera
ecuacin se obtiene a = 1.
Ejercicio 16 Hallar un sistema homogneo de ecuaciones lineales que tenga
como subespacio solucin F = h(1, 1, 1, 1), (2, 1, 0, 3)i.
Solucin: Consideremos una solucin arbitraria de este sistema (x, y, z, t).
Entonces deben existir 1 , 2 R tales que
(x, y, z, t) = 1 (1, 1, 1, 1) + 2 (2, 1, 0, 3)

Els autors, 2002; Edicions UPC, 2002

250

CAPTULO 9. ESPACIOS VECTORIALES

es decir,
(x, y, z, t) = (1 + 22 , 1 + 2 , 1 , 1 + 32 )
Por tanto, el siguiente sistema
1 + 22 = x
1 + 2 = y
1 = z
1 + 32 = t

debe ser compatible. Sustituyendo el valor de 1 = z en las ecuaciones del


sistema se tiene
22 = x z
2 = y z
32 = t z
Por tanto, debe cumplirse
tz
xz
=yz =
2
3
o bien
x 2y + z = 0
3y 2z t = 0

Obsrvese adems que hemos demostrado que

F = (x, y, z, t) R4 : x 2y + z = 0 y 3y 2z t = 0
Ejercicio 17 Hallar un sistema generador S del espacio vectorial de las soluciones del siguiente sistema lineal homogneo:

xy =0
2x + y + z = 0

x+yz =0

Suponer que los coeficientes del sistema son elementos de: (a) R; (b) Z2 ; (c)
Z5 .
Solucin: En cualquiera de los tres casos es preciso resolver el sistema.
(a) En este caso, su solucin es: x = y = z = 0. Por tanto, S = ((0, 0, 0)).
(b) En este caso, el sistema se escribe como sigue

[x] + [y]) = [0]


[y] + [z] = [0]
(mod 2)

[x] + [y] + [z] = [0]


cuya solucin es [x] = [y] = [z] = [0]. Por tanto, S = (([0] , [0] , [0])).

Els autors, 2002; Edicions UPC, 2002

9.7. CLAUSURA LINEAL

251

(c) En este caso, el sistema se escribe como sigue

[x] + [4y]) = [0]


[2x] + [y] + [z] = [0]
(mod 5)

[x] + [y] + [4z] = [0]

De la suma de las dos primeras ecuaciones, multiplicando la primera por [3], se


obtiene
[3y] + [z] = [0]
es decir,
[z] = [2y]
De la suma de la segunda y tercera, multiplicando la tercera por [3], se obtiene
[4y] + [3z] = [0]
es decir, multiplicando por [2],
[3y] + [z] = [0]
o sea, obtenemos que [z] = [2y]. Por tanto, las soluciones del sistema son:[x] =
[y] , [z] = [2y] , [y] = [y]. Cualquier solucin del sistema es de la forma ([y] , [y] , [2y])
con [y] Z5 , es decir,
([y] , [y] , [2y]) = [y] ([1] , [1] , [2])
Por consiguiente, S = (([1] , [1] , [2])).
Ejercicio 18 En el espacio vectorial R3 se consideran los subespacios vectoriales
S1
S2

= {(x, y, z) R3 : x + y + z = 0}
= {(, 2, 3) : R}

Demostrar que R3 = S1 S2 .
Solucin: Primero debemos comprobar que S1 S2 = {(0, 0, 0)} y, segundo,
que S1 + S2 = R3 . En efecto, si u = (x, y, z) S1 S2 , entonces se cumple
x + y + z = 0, pues u S1 , y = 2x, z = 3x ya que u S2 . Por tanto,
x + 2x + 3x = 5x = 0
o sea x = 0; de donde, y = z = 0. En consecuencia, S1 S2 = {(0, 0, 0)}.
Consideremos u = (x, y, z) R3 , debemos encontrar v S1 y w S2 tales que
u=v+w
Es claro, por otra parte, que si (x, y, z) S1 , entonces z = x y. Por tanto,
(x, y, x y) = x(1, 0, 1) + y(0, 1, 1)

Els autors, 2002; Edicions UPC, 2002

252

CAPTULO 9. ESPACIOS VECTORIALES

y, en consecuencia,
S1 = h(1, 0, 1), (0, 1, 1)i
Por tanto, si v S1 , entonces v = (1, 0, 1) + (0, 1, 1) y, si w S2 ,
entonces w = (, 2, 3). Entonces
(x, y, z) = (1, 0, 1) + (0, 1, 1) + (1, 2, 3)
o bien
+=x
+ 2 = y
+ 3 = z

Conocidos x, y, z, y resolviendo el sistema, se obtiene


=

x+y+z
6

luego
=

5x y z
6
x + 2y z
3

Por consiguiente, S1 + S2 = R3 . En consecuencia, R3 = S1 S2 . Obsrvese


adems que los dos subespacios son suplementarios.

9.8.

Sistemas equivalentes

Ejercicio 19 Consideremos los sistemas S1 = (p1 , p2 , p3 , p4 ) y S2 = (q1 , q2 , q3 )


del espacio vectorial R2 [x], siendo p1 = 2 + x2 , p2 = 1 + 2x + x2 , p3 =
2x + x2 , p4 = 1 + x, q1 = 1, q2 = x, q3 = x2 . Demostrar que son equivalentes.
Solucin: Para demostrarlo veremos que los vectores de cada sistema son
combinacin lineal de los del otro. En efecto, es fcil encontrar las siguientes
relaciones
q1
q2
q3

= p2 p3
= p2 + p3 + p4
= p1 2p2 + 2p3

y
p1
p2
p3
p4

=
=
=
=

2q1 + q3
q1 + 2q2 + q3
2q2 + q3
q1 + q2

Por tanto, S1 S2 .

Els autors, 2002; Edicions UPC, 2002

9.9. DEPENDENCIA E INDEPENDENCIA LINEAL

9.9.

253

Dependencia e independencia lineal

Ejercicio 20 Cules de las siguientes familias finitas de elementos de F(R, R)


son libres? (a) (f1 , f2 , f3 ), definidas como sigue: f1 (x) = sin x, f2 (x) = cos x, f3 (x) =
1; (b) (g1 , g2 ), definidas por g1 (x) = ex , g2 (x) = ex+2 ; (c) (h1 , h2 , h3 ), definidas
como h1 (x) = 2, h2 (x) = x + 2, h3 (x) = x2 ; (d) (j1 , j2 , j3 ), j1 (x) = 0, j2 (x) =
1, j3 (x) = x + 1.
Solucin: (a) Consideremos
1 f1 + 2 f2 + 3 f3 = 0
Entonces, para todo x R se cumple
1 sin x + 2 cos x + 3 1 = 0
En particular, para x = 0, x = /2, x = , se tiene

2 + 3 = 0
1 + 3 = 0

2 + 3 = 0

cuya solucin es 3 = 0, 2 = 0, 1 = 0. Por tanto, la familia es libre.


(b) Consideremos
1 g1 + 2 g2 = 0
Entonces, para todo x R se cumple
1 ex + 2 ex+2 = 0
es decir,
(1 + 2 e2 )ex = 0
De donde
1 = e2 2
Tomando 2 = 1 y 1 = e2 , se tiene
e2 g1 + g2 = 0
Por tanto, la familia es ligada.
(c) Consideremos
1 h1 + 2 h2 + 3 h3 = 0
Entonces, para todo x R, se cumple
1 2 + 2 (x + 2) + 3 x2 = 0
es decir,
2(1 + 2 ) + 2 x + 3 x2 = 0

Els autors, 2002; Edicions UPC, 2002

254

CAPTULO 9. ESPACIOS VECTORIALES

De donde se obtiene

2(1 + 2 ) = 0
2 = 0

3 = 0

cuya solucin es 1 = 2 = 3 = 0. Por tanto, la familia es libre.


(d) La familia es ligada ya que contiene el vector cero.
Ejercicio 21 Hallar los valores de a y b para que los vectores (3, 2, a, 5), (2, 3, 5, a), (0, 13, b, 7)
de R4 sean linealmente dependientes.
Solucin: Considermos
1 (3, 2, a, 5) + 2 (2, 3, 5, a) + 3 (0, 13, b, 7) = (0, 0, 0, 0)
es decir,
(31 + 22 , 21 32 + 133 , a1 + 52 + b3 , 51 + a2 + 73 ) = (0, 0, 0, 0)
Por tanto,
31 + 22
21 32 + 133
a1 + 52 + b3
51 + a2 + 73

=0
=0
=0
=0

De las dos primeras ecuaciones se obtiene


3
1
2 = 1 y 3 = 1
2
2
Sustituyendo estos resultados en las dos siguientes y suponiendo que 1 6= 0 (ya
que de lo contrario seran linealmente independientes) se obtiene

2a b = 15
3a = 3
de donde resulta
a = 1 y b = 13
Ejercicio 22 En el espacio vectorial de los nmeros reales
R sobre el cuerpo
de los nmeros racionales Q, probar que los vectores 1, 2, 5 son linealmente
independientes.
Solucin: Consideremos

1 1 + 2 2 + 3 5 = 0
con 1 , 2 , 3 Q. Si fuera 1 6= 0, entonces

1 = 2 2 3 5

Els autors, 2002; Edicions UPC, 2002

9.10. BASES DE UN ESPACIO VECTORIAL DE DIMENSIN FINITA 255

es decir, 2 2 3 5 sera un nmero racional, lo que no es posible. Por


tanto, 1 = 0. De aqu se obtiene

2 2 + 3 5 = 0
Si fuera 2 6= 0, entonces

5
2 = 3
2


es decir, ( 5/ 2)3 sera un nmero racional, lo que no es posible. Por tanto,
2 = 3 = 0. En consecuencia, los vectores son linealmente independientes.

9.10.

Bases de un espacio vectorial de dimensin


finita

Ejercicio 23 Demostrar que los vectores u1 = (1, 1, 1), u2 = (1, 1, 2) y u3 =


(1, 2, 3) forman una base de R3 , y encontrar las coordenadas del vector v =
(6, 9, 14) en dicha base.
Solucin: Sabemos que la dimensin del espacio vectorial es tres. Por tanto,
los vectores formarn una base si son linealmente independientes. Para ver esto,
consideremos
1 (1, 1, 1) + 2 (1, 1, 2) + 3 (1, 2, 3) = (0, 0, 0)
es decir,
(1 + 2 + 3 , 1 + 2 + 23 , 1 + 22 + 33 ) = (0, 0, 0)
Por tanto, se obtiene el sistema siguiente

1 + 2 + 3 = 0
1 + 2 + 23 = 0

1 + 22 + 33 = 0

cuya solucin es 1 = 2 = 3 = 0. Por tanto, los vectores son linealmente


independientes y, en consecuencia, forman base. Las coordenadas (x, y, z) de v
en esta base cumplen
x(1, 1, 1) + y(1, 1, 2) + z(1, 2, 3) = (6, 9, 14)
es decir,

x+y+z =6
x + y + 2z = 9

x + 2y + 3z = 14

cuya solucin es x = 1, y = 2 y z = 3. Por consiguiente, las coordenadas de v


son (1, 2, 3) en la base en cuestin.

Els autors, 2002; Edicions UPC, 2002

256

CAPTULO 9. ESPACIOS VECTORIALES

Ejercicio 24 En el espacio vectorial F(R, R), se consideran las funciones f1 , f2 , f3 , f4 , f5


definidas como sigue: f1 (x) = 1, f2 (x) = sin2 x, f3 (x) = cos2 x, f4 (x) = sin2x, f5 (x) =
cos2x. Se pide: (a) estudiar su dependencia o independencia lineal; (b) determinar la dimensin y una base del subespacio F = hf1 , f2 , f3 , f4 , f5 i; (c) calcular las coordenadas de f y g con respecto a la base encontrada en (b), siendo
f (x) = cos2x + sin2x y g(x) = cosx.
Solucin: (a) Los vectores son linealmente dependientes, ya que se tiene
f3

f2

1
f1 +
2
1
f1
2

1
f5
2
1
f5
2

pues, cos2 x = 12 (1 + cos2x) y sin2 x = 12 (1 cos2x).


(b) Por las relaciones anteriores y, aplicando transformaciones elementales,
se tiene
(f1 , f2 , f3 , f4 , f5 ) (f1 , f4 , f5 )
Por tanto,

F = hf1 , f2 , f3 , f4 , f5 i = hf1 , f4 , f5 i

Vamos a probar que f1 , f4 , f5 son linealmente independientes. Consideremos


1 f1 + 2 f4 + 3 f5 = 0
es decir, para todo x R se cumple
1 1 + 2 sin2x + 3 cos2x = 0
Tomando x = 0, x = /4, x = /2 se tiene el sistema siguiente

1 + 3 = 0
1 + 2 = 0

1 3 = 0

cuya solucin es 1 = 2 = 3 = 0. En consecuencia, dim F = 3 y (f1 , f4 , f5 )


es una base de F.
(c) Es claro que
f = 0f1 + 0f4 + 1f5
Por tanto, las coordenadas de f en la base considerada son (0, 0, 1). Por otra
parte, se cumple g
/ F ya que de lo contrario se tendra para todo x R
cosx = + sin2x + cos2x
Tomando x = 0 y x = , se obtendra
1 = +
1 = +
lo que es una contradiccin. Por consiguiente, no tiene sentido hablar de coordenadas en F.

Els autors, 2002; Edicions UPC, 2002

9.11. DIMENSIN DE UN SUBESPACIO VECTORIAL

9.11.

257

Dimensin de un subespacio vectorial

Ejercicio 25 Consideremos el espacio vectorial Rn [x] de los polinomios con


coeficientes reales de grado menor o igual que n. Se pide: (a) demostrar que el
polinomio xn y sus n primeras derivadas forman una base de Rn [x]; (b) estudiar
si los vectores p1 (x) = 1 + 3x + 5x2 , p2 (x) = 1 + 2x2 , p3 (x) = 3 + 3x + x2 son
o no linealmente independientes; (c) sean r1 (x) = 1 + x2 , r2 (x) = 1 x2 y
S1 = hr1 (x), r2 (x)i, estudiar si p(x) y r(x) pertenecen a S1 , siendo p(x) =
1 + 5x2 , r(x) = 1 + x; (d) sea S2 = hp1 (x), p2 (x), p3 (x)i, calcular S1 S2 y
S1 + S2 .
Solucin: (a) Se cumple:
f0 (x) = xn
f1 (x) = nxn1
f2 (x) = n(n 1)xn2
..
.
fn1 (x) = n(n 1)(n 2) 2x
fn (x) = n!
Hay que probar que (f0 (x), f1 (x), ..., fn (x)) es una base de Rn [x]. Cualquier
polinomio p(x) de Rn [x] es de la forma
p(x) = a0 + a1 x + + an1 xn1 + an xn
expresndose tambin como sigue:
p(x) =

ao
a1
an1
fn (x) +
fn1 (x) + +
f1 (x) + an f0 (x)
n!
n(n 1) 2
n

es decir, p(x) es combinacin lineal de f0 (x), f1 (x), ..., fn (x). Por otra parte,
sabemos que dim Rn [x] = n + 1. Por tanto, (f0 (x), f1 (x), ..., fn (x)) es una base.
(b) Obsrvese que p3 (x) = p1 (x) p2 (x). Por tanto, son linealmente dependientes.
(c) Para que p(x) hr1 (x), r2 (x)i deben existir 1 , 2 R tales que
p(x) = 1 r1 (x) + 2 r2 (x)
es decir,
1 + 5x2 = 1 (1 + x2 ) + 2 (1 x2 )
De aqu se obtiene el sistema
1 + 2 = 1
1 2 = 5

cuya solucin es 2 = 2, 1 = 3. Por tanto, p(x) S1 . Del mismo modo,


r(x) hr1 (x), r2 (x)i debe cumplirse
r(x) = 1 r1 (x) + 2 r2 (x)

Els autors, 2002; Edicions UPC, 2002

258

CAPTULO 9. ESPACIOS VECTORIALES

es decir,
1 + x = 1 (1 + x2 ) + 2 (1 x2 )

o bien,

1 + x = 1 + 2 + 0x + (1 2 )x2

lo que no es posible, ya que r(x) tiene coeficiente 1 en x y, en cambio, 1 r1 (x) +


2 r2 (x) tiene coeficiente 0 en x. Por tanto, r(x)
/ S1 .
(d) Por (b) se tiene S2 = hp1 (x), p2 (x)i y dim S2 = 2. Por otro lado,
(r1 (x), r2 (x)) es una base de S1 y dim S1 = 2. Para determinar p(x) de manera
que p(x) S1 S2 debe cumplirse
p(x) = p1 (x) + p2 (x)

p(x) = r1 (x) + r2 (x)

es decir,
(1 + 3x + 5x2 ) + (1 + 2x2 ) = (1 + x2 ) + (1 x2 )
o bien,
+ 3x + (5 + 2)x2 = + + ( )x2

Por tanto, tenemos el siguiente sistema

=+
3 = 0

5 + 2 =

cuya solucin es = 0, = 12 , = 32 . Tomando = 1, un vector de la


interseccin es 1 + 2x2 . Por consiguiente, S1 S2 = 1 + 2x2 y dim (S1
S2 ) = 1. Entonces
dim(S1 + S2 ) = dim S1 + dim S2 dim(S1 S2 ) = 2 + 2 1 = 3
Es claro que S1 + S2 = hp1 (x), p2 (x), r1 (x), r2 (x)i. Ahora bien, slo tres de estos
vectores son linealmente independientes. Para encontrarlos, consideremos
(1 + 3x + 5x2 ) + (1 + 2x2 ) + (1 + x2 ) + (1 x2 ) = 0
de donde se obtiene
( + + ) + 3x + (5 + 2 + )x2 = 0
Por tanto, debe cumplirse

++ =0
3 = 0

5 + 2 + = 0

De aqu se obtiene, = 0, = 2 y = . Tomando, por ejemplo, = 1,


entonces = 2 y = 1 y, en consecuencia, tenemos
r2 (x) = 2p2 (x) r1 (x)
es decir, r2 (x) depende linealmente de los otros. Por tanto, (p1 (x), p2 (x), r1 (x))
es una base de S1 + S2 .

Els autors, 2002; Edicions UPC, 2002

9.12. ESPACIO VECTORIAL COCIENTE

9.12.

259

Espacio vectorial cociente

Ejercicio 26 Sea E un espacio vectorial de dimensin 3 y (e1 .e2 , e3 ) una base de


E. Sea F el subespacio engendrado por (v1 , v2 ) siendo v1 = e1 e2 y v2 = e1 +e2 .
Hallar una base del espacio vectorial cociente E/F.
Solucin: Es claro que el sistema (v1 , v2 ) es libre. Por tanto, dim F = 2.
En consecuencia,
dim E/F = dim E dim F = 3 2 = 1
Para hallar una base de E/F basta hallar un vector no nulo de E/F, es decir,
una clase no nula. Si [v] 6= [0], entonces v
/ F. Por tanto, v puede ser cualquier
vector que sea linealmente independiente con v1 y v2 ; por ejemplo, podemos
tomar e3 . Por consiguiente, (e3 + F) es una base de E/F.
Ejercicio 27 Obtener una base del espacio vectorial cociente R4 mdulo el subespacio
F = h(1, 0, 1, 1), (1, 2, 1, 1), (2, 2, 2, 2)i
Solucin: Observemos que
(2, 2, 2, 2) = (1, 0, 1, 1) + (1, 2, 1, 1)
Por tanto, dim F = 2. De aqu,
dim R4 /F = 4 2 = 2
Para obtener una base de R4 /F basta con hallar una base del subespacio suplementario de F respecto de R4 . Obtendremos esta base completando la base de F a
una base de R4 . Sea (e1 , e2 , e3 , e4 ) la base cannica de R4 y v1 = (1, 0, 1, 1), v2 =
(1, 2, 1, 1). Observemos que
e1 = v1 e3 e4
Por tanto, (v1 , e2 , e3 , e4 ) es una base de R4 . Observemos tambin que
1
1
e2 = v1 + v2
2
2
Por tanto, (v1 , v2 , e3 , e4 ) es una base de R4 . En consecuencia, (e3 , e4 ) es una
base del subespacio suplementario de F. Por consiguiente, (e3 + F, e2 + F) es una
base de E/F.

9.13.

Rango de un sistema de vectores

Ejercicio 28 Determinar, segn los valores de , el rango del sistema S =


(v1 , v2 , v3 ) de vectores de R3 , siendo v1 = (, 1, 1), v2 = (1, , 1), v3 =
(1, 1, ).

Els autors, 2002; Edicions UPC, 2002

260

CAPTULO 9. ESPACIOS VECTORIALES

Solucin: Tomando la base cannica de R3 , escribimos las coordendas de


estos vectores por filas (del mismo modo se hara por columnas) como sigue:
1 1
v1 :
v2 : 1 1
v3 : 1 1

Aplicando T1 se obtiene
v3 : 1 1

v2 : 1 1
v1 :
1 1
aplicando 2 veces T3 se obtiene
1

v3 : 1
v2 v3 :
0 + 1 1
v1 + v3 :
0 1 1 + 2
o de forma equivalente
1

v3 : 1
v2 v3 :
0
1
(1 + )
v1 + v3 :
0 ( + 1) ( + 1)( 1)
Aplicando T2, suponiendo que + 1 6= 0, se obtiene
1

v3 : 1
v2 v3 :
0 1 (1 + )
v1 +v3
:
0
1
1
+1
Aplicando T1, se tiene
: 1
1

:
0
1
1
0 1 (1 + )
v2 v3 :
v3
v1 +v3
+1

aplicando T3, se tiene

v2 v3 +

v3
v1 +v3
+1
(1)(v1 +v3 )
+1

: 1 1

:
0 1
1
:
0
0 (1 + ) ( 1)2

o de forma equivalente

v2 v3 +

v3
v1 +v3
+1
(1)(v1 +v3 )
+1

: 1 1

:
0 1
1
:
0
0 2 + 2

Els autors, 2002; Edicions UPC, 2002

9.13. RANGO DE UN SISTEMA DE VECTORES

261

De donde obtenemos que si 6= 1, entonces

v1 + v3
(1 )(v1 + v3 )
(v1 , v2 , v3 ) v3 ,
, v2 v3 +
+1
+1
y, los vectores de este ltimo sistema son linealmente independientes, ya que
2 + 2 6= 0 para todo R. Por tanto, si 6= 1 entonces rang S = 3.
Si fuese = 1, entonces se tendra
v3 : 1 1 1
v2 v3 :
0
2
0
v1 v3 :
0
0
0
Suprimiendo la tercera fila se tiene
v3 : 1 1 1
v2 v3 :
0
2
0
Por tanto, si = 1

(v1 , v2 , v3 ) (v3 , v2 v3 )

y se tiene rang S = 2. Adems, la relacin de dependencia en este caso es


v1 v3 = 0
Ejercicio 29 Determinar el rango del sistema S de R4 y eventualmente las relaciones de dependencia entre los vectores del sistema, siendo S = (v1 , v2 , v3 , v4 )
con v1 = (1, 1, 1, 1), v2 = (0, 1, 2, 1), v3 = (1, 0, 2, 3), v4 = (2, 1, 0, 1).
Solucin: Tomando la base cannica de R4 , escribimos las coordendas de
estos vectores por columnas (del mismo modo se hara por filas) como sigue:
v1 v2 v3 v4
1
0
1
2
1
1
0
1
1
2 2
0
1 1
3 1
Aplicando dos veces T3, se tiene
v1 v2 v3 v1 v4 2v1
1
0
0
0
1
1
1
1
1
2
3
2
1 1
2
3
Aplicando de nuevo dos veces T3, se tiene
v1 v2 v3 v1 + v2 v4 2v1 + v2
1
0
0
0
1
1
0
0
1
2
1
0
1 1
1
4

Els autors, 2002; Edicions UPC, 2002

262

CAPTULO 9. ESPACIOS VECTORIALES

Por tanto,
rang(v1 , v2 , v3 , v4 ) = rang(v1 , v2 , v1 + v2 + v3 , 2v1 + v2 + v4 ) = 4
ya que los vectores del sistema (v1 , v2 , v1 + v2 + v3 , 2v1 + v2 + v4 ) son
linealmente independientes.

9.14.

Producto de espacios vectoriales. Isomorfismos de espacios vectoriales

Ejercicio 30 Sean los espacios vectoriales E y F con E = F = R2 . Calcular


una base del espacio vectorial producto E F asociada a la base natural de R2 .
Solucin: Sabemos que el espacio vectorial E F es de dimensin 4, siendo
una base los vectores v1 = (e1 , 0), v2 = (e2 , 0), v3 = (0, e1 ) y v4 = (0, e2 ).
Sabemos que
R2 R2
= R2 R2
= (R R) (R R)
=RRRR
= R4
De aqu, podemos identificar el vector v1 = (e1 , 0) de R2 R2 con el vector
(1, 0, 0, 0) de R4 . De este modo, tenemos
((1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1))
es una base del espacio producto.

9.15.

Cambio de coordenadas

Ejercicio 31 Calcular la matriz de cambio de la base B1 = ((1, 1, 0), (1, 0, 2), (0, 2, 5))
a la base B2 = ((0, 1, 1), (1, 1, 1), (3, 1, 0)) de R3 .
Solucin: Sea B0 la base natural de R3 . Sabemos que la matriz de paso de
B1 a B0 es

1 1 0
P = 1 0 2
0 2 5
y la matriz de paso de B2 a B0 es

0 1 3
Q= 1 1 1
1 1 0

Si (x1 , y1 , z1 ) son las coordenadas de un vector en B1 y (x2 , y2 , z2 ) son las coordenadas del mismo vector en B2 . Entonces, se cumple

x2
0 1 3
x1
1 1 0
1 0 2 y1 = 1 1 1 y2
1 1 0
0 2 5
z1
z2

Els autors, 2002; Edicions UPC, 2002

9.15. CAMBIO DE COORDENADAS

263

como que las matrices de cambio son siempre invertibles, podemos escribir
1

x1
x2
0 1 3
1 1 0
1 1 1 1 0 2 y1 = y2
1 1 0
0 2 5
z1
z2

es decir

x2
x1
2 3 4
2 5
9 y1 = y2
1 2 3
z1
z2

Por tanto, la matriz de paso de B1 a B2 es

2 3 4
9
Q1 P = 2 5
1 2 3

Obsrvese el siguiente diagrama para recordar cmo puede deducirse directamente la matriz en cuestin
Q1

B2 B0 B1
No hay que olvidar que el diagrama para cualquier base B que no sea la natural
es siempre el siguiente
P
B0 B
en donde la matriz P tiene por columnas las coordenadas de los vectores de la
base B.

Els autors, 2002; Edicions UPC, 2002

264

CAPTULO 9. ESPACIOS VECTORIALES

Els autors, 2002; Edicions UPC, 2002

Captulo 10

Aplicaciones lineales
10.1.

Definicin y ejemplos

Ejercicio 32 Estudiar si la aplicacin f : R2 R dada por f (x, y) = 2x+3y1


es lineal.
Solucin: Sean (x1 , y1 ), (x2 , y2 ) R2 ,
f ((x1 , y1 ) + (x2 , y2 )) = f (x1 + x2 , y1 + y2 ) = 2(x1 + x2 ) + 3(y1 + y2 ) 1 =
= (2x1 + 3y1 ) + (2x2 + 3y2 1)
Por otro lado,
f (x1 , y1 ) + f (x2 , y2 ) = (2x1 + 3y1 1) + (2x2 + 3y2 1)
As pues, f ((x1 , y1 ) + (x2 , y2 )) 6= f (x1 , y1 ) + f (x2 , y2 ), por lo que concluimos
que f no es lineal.
Ejercicio 33 Di cules de las siguientes aplicaciones son lineales:
f : R3 R3 dada por f (x, y, z) = (2x, x y, 0)
g : R R3 dada por g(x) = (x, 2, 3x)
h : R3 R dada por h(x, y, z) = x 3y + 2z
Solucin:
Consideremos f : R3 R3 dada por f (x, y, z) = (2x, x y, 0).
Sean (x1 , y1 , z1 ), (x2 , y2 , z2 ) R3 :
f ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = f (x1 + x2 , y1 + y2 , z1 + z2 ) =
= (2(x1 +x2 ), (x1 +x2 )(y1 +y2 ), 0) = (2x1 +2x2 , (x1 y1 )+(x2 y2 ), 0) =
= (2x1 , x1 y1 , 0) + (2x2 , x2 y2 , 0) = f (x1 , y1 , z1 ) + f (x2 , y2 , z2 )
265

Els autors, 2002; Edicions UPC, 2002

266

CAPTULO 10. APLICACIONES LINEALES


Sean (x1 , y1 , z1 ) R3 , R:
f ((x1 , y1 , z1 )) = f (x1 , y1 , z1 ) = (2(x1 ), x1 y1 , 0) =
= (2x1 , x1 y1 , 0) = f (x1 , y1 , z1 )
As pues, se cumple
f ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = f (x1 , y1 , z1 ) + f (x2 , y2 , z2 )
f ((x1 , y1 , z1 )) = f (x1 , y1 , z1 )
Por tanto, f es una aplicacin lineal.
Consideremos g : R R3 dada por g(x) = (x, 2, 3x).
Sean x1 , x2 R:
g(x1 + x2 ) = ((x1 + x2 ), 2, 3(x1 + x2 )) = (x1 x2 , 2, 3x1 + 3x2 )

Solucin:
Por otro lado,
g(x1 ) + g(x2 ) = (x1 , 2, 3x1 ) + (x2 , 2, 3x2 ) = (x1 x2 , 4, 3x1 + 3x2 )
As pues, g(x1 + x2 ) 6= g(x1 ) + g(x2 ), por lo que g no es lineal.
Consideremos h : R3 R dada por h(x, y, z) = x 3y + 2z.
Sean (x1 , y1 , z1 ), (x2 , y2 , z2 ) R3 :
h((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = h(x1 + x2 , y1 + y2 , z1 + z2 ) =
= (x1 + x2 ) 3(y1 + y2 ) + 2(z1 + z2 ) = x1 + x2 3y1 3y2 + 2z1 + 2z2 =
= (x1 3y1 + 2z1 ) + (x2 3y2 + 2z2 ) = h(x1 , y1 , z1 ) + h(x2 , y2 , z2 )
Sean (x1 , y1 , z1 ) R3 ,

R:

h((x1 , y1 , z1 )) = h(x1 , y1 , z1 ) = x1 3(y1 ) + 2(z1 ) =


= (x1 3y1 + 2z1 ) = h(x1 , y1 , z1 )
As pues, se cumple
h((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = h(x1 , y1 , z1 ) + h(x2 , y2 , z2 )
h((x1 , y1 , z1 )) = h(x1 , y1 , z1 )
Por tanto, h es una aplicacin lineal.

Els autors, 2002; Edicions UPC, 2002

10.2. NCLEO E IMAGEN DE UNA APLICACIN LINEAL

267

Ejercicio 34 Sea f : M2 (R) R4 dada por

a b
f
= (a + b, b + c, c + d, d + a).
c d
Probar que f es lineal.
Solucin: Sean A1 , A2 M2 (R):

a1 b1
a2
, A2 =
A1 =
c1 d1
c2
Veamos que f es lineal:

a2
a1 b1
+
f (A1 +A2 ) = f
c1 d1
c2

b2
d2

=f

b2
d2

a1 + a2
c1 + c2

b1 + b2
d1 + d2

= ((a1 +a2 )+(b1 +b2 ), (b1 +b2 )+(c1 +c2 ), (c1 +c2 )+(d1 +d2 ), (d1 +d2 )+(a1 +a2 )) =
= ((a1 +b1 )+(a2 +b2 ), (b1 +c1 )+(b2 +c2 ), (c1 +d1 )+(c2 +d2 ), (d1 +a1 )+(d2 +a2 )) =
= (a1 + b1 , b1 + c1 , c1 + d1 , d1 + a1 ) + (a2 + b2 , b2 + c2 , c2 + d2 , d2 + a2 ) =

a2 b2
a1 b1
+f
= f (A1 ) + f (A2 )
=f
c1 d1
c2 d2

a b
Sean R, A =
:
c d

a b
a b
f (A) = f
=f
= (a+b, b+c, c+d, d+a) =
c d
c d
= ((a + b), (b + c), (c + d), (d + a)) = (a + b, b + c, c + d, d + a) =

a b
= f
= f (A)
c d
As pues,
f (A1 + A2 ) = f (A1 ) + f (A2 )
f (A1 ) = f (A1 )
Por tanto, f es lineal.

10.2.

Ncleo e imagen de una aplicacin lineal

Ejercicio 35 Calcular el ncleo y la imagen de la aplicacin lineal f : R2 R3


definida por f (x, y) = (2x + y, x y, 3y).
Solucin: Calculemos N uc f :
N uc f = {(x, y) R2 :

f (x, y) = 0} = {(x, y) R2 : (2x+y, xy, 3y) = (0, 0, 0)} =

= {(x, y) : 2x + y = 0, x y = 0, 3y = 0} =

Els autors, 2002; Edicions UPC, 2002

268

CAPTULO 10. APLICACIONES LINEALES


= {(x, y) : 2x + y = 0, x y = 0, y = 0} =
= {(x, y) : x = y = 0} = {(0, 0)}

Calculemos Im f :
Im f = {f (x, y), (x, y) R2 } = {(2x + y, x y, 3y), (x, y) R2 } =
= {(2x, x, 0) + (y, y, 3y), (x, y) R2 } =

= {x(2, 1, 0) + y(1, 1, 3), (x, y) R2 } = h(2, 1, 0), (1, 1, 3)i


As pues,
N uc f = 0
Im f = h(2, 1, 0), (1, 1, 3)i.
Ejercicio
36 Sea la aplicacin
lineal f : R3 M2 (R) definida por f (x1 , x2 , x3 ) =

x1 x2 x2 x3
. Calcular la dimensin y una base de N uc f e Im f .
x3 x1 x1 x2
Solucin: Calculemos N uc f :
N uc f = {(x1 , x2 , x3 ) R3 : f (x1 , x2 , x3 ) = 0} =

0 0
x1 x2 x2 x3
3
=
}=
= {(x1 , x2 , x3 ) R :
x3 x1 x1 x2
0 0
= {(x1 , x2 , x3 ) : x1 x2 = 0, x2 x3 = 0, x3 x1 = 0, x1 x2 = 0} =
= {(x1 , x2 , x3 ) : x1 = x2 = x3 } = {(x1 , x1 , x1 ), x1 R} =
= {x1 (1, 1, 1), x1 R} = h(1, 1, 1)i
As pues,
N uc f = h(1, 1, 1)i
Por tanto, dim N uc f = 1, y podemos deducir que dim Im f = 2, ya que
dim R3 = dim N uc f +dim Im f

3 = 1+dim Im f

dim Im f = 2

Calculemos ahora Im f :
Im f = {f (x1 , x2 , x3 ), (x1 , x2 , x3 ) R3 } =

x1 x2 x2 x3
={
, (x1 , x2 , x3 ) R3 } =
x3 x1 x1 x2



x2 x2
x1
0
0 x3
={
, (x1 , x2 , x3 ) R3 } =
+
+
x1 x1
0
x2
x3
0

1 1
1 0
0 1
+ x3
= {x1
+ x2
, (x1 , x2 , x3 ) R3 } =
0 1
1 1
1 0

Els autors, 2002; Edicions UPC, 2002

10.2. NCLEO E IMAGEN DE UNA APLICACIN LINEAL

269


1 1
0 1
1 0
,
i
=h
,
0 1
1 0
1 1
Sabemos que dim Im f = 2, por lo que basta tomar dos vectores linealmente
independientes entre los que generan Im f , por ejemplo los dos primeros:


1 1
1 0
i.
Im f = h
,
0 1
1 1

Ejercicio 37 Sea f un endomorfismo idempotente (f f = f 2 = f ). Demostrar:


1.

(I f )2 = I f

2.

N uc f = Im (I f )

3.

Im f = N uc (I f )
Solucin:

1.

Veamos que (I f )2 = I f :
(I f )2 = (I f ) (I f ) = I I + I (f ) + (f ) I + (f ) (f ) =
= I f f + f 2 = I 2f + f 2 = I 2f + f = I f

2.

Veamos que N uc f = Im (I f ): Recordemos:


N uc f = {u E : f (u) = 0}
Im (I f ) = {v E : Existe u E

tal que (I f )(u) = v}

) Probemos que N uc f Im (I f ):
u N uc f

f (u) = 0

u f (u) = u 0

(I f )(u) = u

u Im (I f )

) Probemos que N uc f Im (I f ):
v Im (If )

uf (u) = v

Existe u E tal que (If )(u) = v

f (uf (u)) = f (v)

f (u) f (u) = f (v)

0 = f (v)

I(u)f (u) = v

f (u)f 2 (u) = f (v)

As pues, N uc f = Im (I f ).

Els autors, 2002; Edicions UPC, 2002

v N uc f

270
3.

CAPTULO 10. APLICACIONES LINEALES


Veamos que Im f = N uc (I f ): Recordemos:
Im f = {v E : Existe u E

tal que f (u) = v}

N uc (I f ) = {u E : (I f )(u) = 0}
) Probemos que Im f N uc (I f ):
v Im f

Existe u E tal que f (u) = v

f 2 (u) = f (v)
v f (v) = 0

f (f (u)) = f (v)

f (u) = f (v)

v = f (v)

(I f )(v) = 0

v N uc (I f )

) Probemos que Im f N uc (I f ):
u N uc (I f )

(I f )(u) = 0

u f (u) = 0

u = f (u)

I(u) f (u) = 0

u Im f

As pues, Im f = N uc(I f ).

10.3.

Matriz asociada a una aplicacin lineal

Ejercicio 38 Sea la aplicacin lineal f : R3 R4 definida por


f (x, y, z) = (2x + 4y + 2z, x 2y z, 3x + y 2z, 5x 5z).
Calcular su matriz asociada en las bases cannicas.
Solucin: Para determinar la matriz asociada a f en las bases cannicas,
debemos expresar las imgenes de e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) (los
vectores de la base cannica de R3 ) en u1 = (1, 0, 0, 0), u2 = (0, 1, 0, 0), u3 =
(0, 0, 1, 0), u4 = (0, 0, 0, 1) (la base cannica de R4 ):
f (e1 ) = f (1, 0, 0) = (2, 1, 3, 5) = 2u1 u2 + 3u3 + 5u4
Por tanto, la primera columna de la matriz asociada a f en estas bases ser

2
1

3
5
(Porque los coeficientes de f (e1 ) en la base {u1 , u2 , u3 , u4 } son (2, 1, 3, 5)
f (e2 ) = f (0, 1, 0) = (4, 2, 1, 0) = 4u1 2u2 + u3

Els autors, 2002; Edicions UPC, 2002

10.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL

271

Por tanto, la segunda columna de la matriz asociada a f en estas bases ser

4
2

1
0
f (e3 ) = f (0, 0, 1) = (2, 1, 2, 5) = 2u1 u2 2u3 5u4
Por tanto, la tercera columna de la matriz asociada a f en estas bases ser

2
1

2
5
As pues, la matriz asociada a f en las bases cannicas de R3 y R4 es:

2
4
2
1 2 1

3
1 2
5
0 5

Ejercicio 39 Sea la aplicacin lineal f : R2 R2 definida por f (x, y) = (x +


y, xy). Obtener su matriz asociada en la base cannica de R2 . Obtener tambin
en esta misma base las matrices asociadas a f 2 I y f 3 .
Solucin: Los vectores de la base cannica de R2 son e1 = (1, 0), e2 = (0, 1).
f (e1 ) = f (1, 0) = (1, 1) = e1 + e2
f (e2 ) = f (0, 1) = (1, 1) = e1 e2
Por tanto, la matriz asociada a f en esta base es:

1 1
1 1
(La primera columna de la matriz est formada por la coeficientes de f (e1 )
en la base {e1 , e2 }, y la segunda columna, por los coeficientes de f (e2 ) en
{e1 , e2 })Calculemos ahora la matriz asociada a f 2 I:
La matriz asociada a f es

1 1
1 1
y la matriz asociada a I es

1 0
0 1

Els autors, 2002; Edicions UPC, 2002

272

CAPTULO 10. APLICACIONES LINEALES

As pues, la matriz asociada a f 2 I es

1 1
1 0
1 1
1 1
1 0

=
1 1
0 1
1 1
1 1
0 1

2 0
1 0
1 0
=

=
0 2
0 1
0 1

Calculemos, finalmente, la matriz asociada a f 3 : Como la matriz asociada a f


es

1 1
1 1

la matriz asociada a f 3 es:

1 1
1 1
1 1
1 1
2 0
2 2
=
=
=
.
1 1
1 1
1 1
1 1
0 2
2 2
Ejercicio 40 Sea f : R3 R4 una aplicacin lineal tal que f (e1 e3 ) =
u1 , f (e2 e3 ) = u1 u2 y f (2e3 ) = 2u1 + 2u3 , donde B = {e1 , e2 , e3 } es
= {u1 , u2 , u3 , u4 } es una base de R4 . Calcular la matriz
una base de R3 y B

asociada a f en las bases B y B.


nos
Solucin: Para determinar la matriz asociada a f en las bases B y B
hace falta conocer f (e1 ), f (e2 ) y f (e3 ).
Sabemos que f (2e3 ) = 2u1 +2u3
Sabemos que f (e1 e3 ) = u1

f (e1 )f (e3 ) = u1

f (e1 ) = u1 + u1 + u3

Sabemos que f (e2 e3 ) = u1 u2

f (e2 ) = u1 u2 + f (e3 )

2f (e3 ) = 2u1 +2u3

f (e3 ) = u1 +u3

f (e1 ) = u1 +f (e3 )

f (e1 ) = 2u1 + u3
f (e2 ) f (e3 ) = u1 u2

f (e2 ) = u1 u2 + u1 + u3

f (e2 ) = 2u1 u2 + u3

As pues,
f (e1 ) = 2u1 + 0u2 + 1u3 + 0u4
f (e2 ) = 2u1 1u2 + 1u3 + 0u4
f (e3 ) = 1u1 + 0u2 + 1u3 + 0u4
es
Por tanto, la matriz asociada a f en las bases B, B

2 2 1
0 1 0

1 1 1
0 0 0

Els autors, 2002; Edicions UPC, 2002

10.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL

273

Ejercicio 41 Dada la aplicacin lineal f : R3 R2 definida por f (x, y, z) =


(2x + y, y z), encontrar la matriz asociada a f en:
las bases cannicas de R3 y R2 ;
las bases {(1, 1, 1), (0, 1, 2), (0, 2, 1)} de R3 y {(2, 1), (1, 0)} de R2 .
Solucin:
Calculemos la matriz de f en las bases cannicas:
Base cannica de R3 : {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}
Base cannica de R2 : {u1 = (1, 0), u2 = (0, 1)}
Para determinar la matriz asociada a f en estas bases, debemos calcular
f (e1 ), f (e2 ), f (e3 ):
f (e1 ) = f (1, 0, 0) = (2, 0) = 2u1 + 0u2
f (e2 ) = f (0, 1, 0) = (1, 1) = u1 + u2
f (e3 ) = f (0, 0, 1) = (0, 1) = 0u1 u2
Por tanto, la matriz asociada a f en las bases cannicas de R3 y R2 es:

2 1 0
0 1 1
Calculemos ahora la matriz de f en las bases siguientes:
Base de R3 : {v1 = (1, 1, 1), v2 = (0, 1, 2), v3 = (0, 2, 1)}
Base de R2 : {w1 = (2, 1), w2 = (1, 0)}
Para determinar la matriz asociada a f en estas bases, debemos calcular
f (v1 ), f (v2 ), f (v3 ) y expresarlo en la base {w1 , w2 }:
f (v1 ) = f (1, 1, 1) = (3, 0) = 3w2
f (v2 ) = f (0, 1, 2) = (1, 1) = w1 + 3w2
f (v3 ) = f (0, 2, 1) = (2, 1) = w1
As pues,
f (v1 ) = 0w1 + 3w2
f (v2 ) = w1 + 3w2
f (v3 ) = w1 + 0w2
Por tanto, la matriz asociada a f en las bases {v1 , v2 , v3 } de R3 y {w1 , w2 }
de R2 es:

0 1 1
3 3 0

Els autors, 2002; Edicions UPC, 2002

274

CAPTULO 10. APLICACIONES LINEALES

2
2
Ejercicio 42 Sea
f : R R una aplicacin lineal cuya matriz en la base
1 3
. Dada la base {u1 , u2 }, con u1 = (2, 5), u2 = (1, 3),
cannica es A =
2 4
calcular la matriz de f en esta nueva base.
Solucin: Sabemos que la matriz de f en la base {e1 = (1, 0), e2 = (0, 1)}
de R2 es

1 3
A=
2 4
Queremos encontrar su matriz en la base

{u1 = (2, 5), u2 = (1, 3)}


Para ello usarem la siguiente frmula, que nos da la relacin entre las matrices
de una aplicacin lineal respecto a bases distintas:
B = R1 AP.
donde B es la matriz asociada a f en la base {u1 , u2 }, R1 es la inversa de
la matriz de las coordenadas de la base {u1 , u2 } en la base {e1 , e2 }, A es la
matriz asociada a f en la base {e1 , e2 } y P es la matriz de las coordenadas de
la base {u1 , u2 } en la base {e1 , e2 }. Calculemos P : P tiene por columnas las
componentes de los vectores {u1 , u2 } en la base {e1 , e2 }:
u1 = (2, 5) = 2e1 + 5e2
u2 = (1, 3) = 1e1 + 3e2
Por tanto,
P =

2 1
5 3

Calculemos R1 : R1 es la inversa de la matriz de las coordenadas de {u1 , u2 }


en {e1 , e2 }, es decir, R1 = P 1 . Dicho de otro modo, R1 es la matriz de las
coordenadas de {e1 , e2 } en {u1 , u2 }:
e1 = (1, 0) = 3u1 5u2
e2 = (0, 1) = u1 + 2u2

Por tanto,

R1 =
Calculemos finalmente B:

3 1
5 2

3 1
1 3
2 1
B = R AP =
=
5 2
2 4
5 3

3 1
17 10
27
16
=
=
5 2
24 14
37 22
1

As pues, la matriz de f en la base {u1 , u2 } es

27
16
37 22

Els autors, 2002; Edicions UPC, 2002

10.4. ESPACIOS VECTORIALES ISOMORFOS

10.4.

275

Espacios vectoriales isomorfos

Ejercicio 43 Si E es un espacio vectorial de dimensin 1 sobre un cuerpo K,


demostrar que L(E, E) es isomorfo a K.
Solucin: Como dim E = 1, toda base de E est formada por un solo elemento. Sea {e} una base de E. As pues, E = hei.
Sabemos que toda aplicacin lineal f : E E queda definida al dar una imagen
de una base de E, es decir, al dar f (e).
Puesto que f (e) E = hei existe K tal que f (e) = e.
Conocer nos permite calcular la imagen por f de todo vector de E: si v E,
entonces existe K tal que v = e, y
f (v) = f (e) = f (e) = (e) = ()e = ()e = (e) = v
Por tanto, toda aplicacin lineal f : E E consiste en multiplicar por un
escalar. Esto nos lleva a definir la aplicacin
: L(E, E) K
de la forma siguiente: si f (e) = e, entonces (f ) = K.
Veamos que es un isomorfismo: es lineal: Sean f, g L(E, E) tales que
(f ) = y (g) = .
(f +g)(e) = f (e)+g(e) = e+e = (+)e

(f +g) = + = (f )+(g)

Sea K
(f )(e) = f (e) = (e) = ()e

(f ) = = (f )

As pues,
(f + g) = (f ) + (g)
(f ) = (f )
es inyectiva:
N uc = {f L(E, E) : (f ) = 0} = {f L(E, E) : f (e) = 0e} =
= {f L(E, E) : f (v) = 0v, v E} = 0
Por tanto, N uc = 0

inyectiva

es exhaustiva: Sea K. Definamos una aplicacin f L(E, E) como sigue:


f (v) = v,

v E

En particular,
f (e) = e

(f ) =

Im

Im = K

Els autors, 2002; Edicions UPC, 2002

exhaustiva.

276

CAPTULO 10. APLICACIONES LINEALES

10.5.

Teoremas de isomorfismo

Ejercicio 44 Sean F y G subespacios vectoriales de E. Se considera la aplicacin f : F G E, definida por f (u, v) = u + v.


1.

Demostrar que Im f = F + G, y N uc f = {(u, u) : u F G}.

2.

Demostrar que la aplicacin g definida por g(u) = (u, u) es un isomorfismo de F G en N uc f .

3.

Deducir de los apartados anteriores que dim (F + G) + dim (F G) =


dim F + dim G (Frmula de Grassman).
Solucin:

1.

Veamos que Im f = F + G:
Im f = {f (u, v) : (u, v) F G} = {f (u, v) : u F, v G} =
= {u + v : u F, v G} = F + G
Veamos que N uc f = {(u, u) : u F G}:
N uc f = {(u, v) F G : f (u, v) = 0} = {(u, v) F G : u + v = 0} =
= {(u, v) FG : v = u} = {(u, u) FG} = {(u, u) : u F, u G} =
= {(u, u) : u F G}

2.

Veamos que la aplicacin g : F G N uc f definida por g(u) = (u, u)


es un isomorfismo:
g es lineal: Sean u, v F G,
g(u+v) = (u+v, (u+v)) = (u+v, uv) = (u, u)+(v, v) = g(u)+g(v)
Sean u F G, K,
g(u) = (u, u) = (u, u) = g(u)
g es inyectiva: veamos que N uc g = 0
N uc g = {u F G : g(u) = 0} = {u F G : (u, u) = 0} =
= {u F G : u = 0} = 0
g es exhaustiva: Sea (u, u) N uc f
Im g.

Els autors, 2002; Edicions UPC, 2002

(u, u) = g(u)

(u, u)

10.6. EL ESPACIO DE LAS APLICACIONES LINEALES


3.

277

Veamos que dim (F + G) + dim (F G) = dim F + dim G:


Sabemos que (FG)/N uc f
= Im f

10.6.

dim ((FG)/N uc f ) = dim (Im f )

dim (F G) dim (N uc f ) = dim (Im f )

dim (F G) = dim (N uc f ) + dim (Im f )

dim (F G) = dim (N uc f ) + dim (F + G)

dim (F G) = dim (F G) + dim (F + G)

dim (F) + dim (G) = dim (F G) + dim (F + G)

El espacio de las aplicaciones lineales

Ejercicio 45 Calcula la dimensin sobre R de los siguientes espacios vectoriales:


L(R2 , R3 )
L(C, R5 )
L(R, M23 (R))
L(L(R3 , R4 ), M34 (R))
Solucin:
Calculemos dim L(R2 , R3 ):
dim L(R2 , R3 ) = dim (R2 ) dim (R3 ) = 2 3 = 6
Calculemos dim L(C, R5 ):
dim L(C, R5 ) = dim (C) dim (R5 ) = 2 5 = 10
Calculemos dim L(R, M23 (R)):
dim L(R, M23 (R)) = dim (R) dim (M23 (R)) = 1 2 3 = 6
Calculemos dim L(L(R3 , R4 ), M34 (R)):
dim L(L(R3 , R4 ), M34 (R)) = dim (L(R3 , R4 ) dim (M34 (R)) =
= dim (R3 ) dim (R4 ) dim(M34 (R)) = 3 4 (3 4) = 144

Els autors, 2002; Edicions UPC, 2002

278

CAPTULO 10. APLICACIONES LINEALES

Els autors, 2002; Edicions UPC, 2002

Captulo 11

Matrices
11.1.

Definicin de matriz

Ejercicio 46 Cul es el orden de las matrices siguientes?

1 2

8 5

3 2

A=
, B = 1 2
3 16 , C =
7 6
5
8
1 1

Solucin: La matriz A es cuadrada de orden 2. La matriz B es una matriz


fila de orden 4, y la matriz C es de orden 4 2.
Ejercicio 47 De las matrices del ejercicio anterior, decir cules son los valores
de a21 , b23 y c32 .
Solucin: Se tiene a21 = 5; no existe el valor de b23 porque la matriz slo
tiene una fila; y c32 = 6.
Ejercicio 48 Construir la matriz A = (aij ) de orden 4 3 definida por aij =
2i j.
Solucin: Puesto que aij = 2i j, se tiene

1 0 1
3 2
1

A=
5 4
3
7 6
5
ya que, por ejemplo, a42 = 2 4 2 = 8 2 = 6.

11.2.

Espacio vectorial de las matrices

Ejercicio 49 Determinar dos matrices X e Y tales que verifiquen

1 2
2 1
2X 5Y =
X + 3Y =
0
1
3 0
279

Els autors, 2002; Edicions UPC, 2002

280

CAPTULO 11. MATRICES

Solucin: Sean
A=

1 2
0
1

B=

2 1
3 0

entonces podemos escribir las ecuaciones iniciales como:


2X 5Y
X + 3Y

= A
= B

por reduccin, multiplicando la segunda ecuacin por 2 y sumndola despus con


la primera, obtenemos:

1 2
2 1
4 3
Y = 2B + A = 2
+
=
0 1
3 0
3 2
y multiplicando la primera por 3 y la segunda por 5 y sumando despus, se tiene:

1 2
2 1
13 1
X = 3A + 5B = 3
+5
=
0 1
3 0
15 3
Ejercicio 50 Estudiar la dependencia lineal de las tres matrices siguientes:

2 2
1 4
0 4
A=
B=
C=
4 6
5 3
4 8
Solucin: De la siguiente combinacin lineal de la matriz nula

2 2
1 4
0 4
0 0

+
+
=
4 6
5 3
4 8
0 0
se obtiene:

2 +
4 + 5 4

2 4 4
6 + 3 8

luego
2 + = 0
2 4 4 = 0
4 + 5 4 = 0
6 + 3 8 = 0

0 0
0 0

cuya solucin es = 0, = 0, = 0. Por consiguiente las matrices A, B y C


son lienalmente independientes.
Ejercicio 51 Determinar y para que las matrices siguientes:

11
2 1
5 3
A=
B=
C=
4

5 3
2 1

Els autors, 2002; Edicions UPC, 2002

11.3. PRODUCTO DE MATRICES

281

sean dependientes. Hallar la relacin de dependencia.


Solucin: Si son dependientes, podemos escribir


11
2 1
5 3

+
=
4

5 3
2 1
de donde se obtiene

2 + 5
5 + 2

3
3

o sea el sistema
2 + 5 = 11
3 =
5 + 2 = 4
3 =

11
4

De la primera y la tercera se obtiene = 2 y = 3, y sustiyendo estos


resultados en la segunda y la cuarta, tenemos = 11 y = 9.

11.3.

Producto de matrices

Ejercicio 52 Sean las matrices

1 2 3
B=
2 1 4

C=

1 7 13
5 0
5

Existe alguna matriz A, tal que C = AB?


Solucin: La matriz A, en caso de existir, ser cuadrada de orden 2

x y
A=
z t
Entonces
AB =
Por tanto

x y
z t

1 2 3
2 1 4

1 7 13
5 0
5

y, en consecuencia,

x + 2y
z + 2t

x + 2y
z + 2t

2x y
2z t

2x y
2z t

3x + 4y
3z + 4t

x + 2y = 1
2x y = 7

3x + 4y = 13

de donde, y = 1 y x = 3. Adems

z + 2t = 5
2z t = 0

3z + 4t = 5

Els autors, 2002; Edicions UPC, 2002

3x + 4y
3z + 4t

282

CAPTULO 11. MATRICES

de donde, z = 1 y t = 2. Por consiguiente

3 1
A=
1 2
Ejercicio 53 Efectuar por cajas la multiplicacin AB, con

1 1
2 3 1 0
1 0

A= 1 0 0 1 y B=
1 0
0 1 1 0
0 1

Solucin: Para ello, debemos tener en cuenta que las matrices cuyos elementos sean las cajas han de ser multiplicables, as como debe ser siempre posible
la multiplicacin de las cajas consideradas como matrices. Descomponemos A
de la siguiente manera

2 3 1 0
A11 A12
A= 1 0 0 1 =
A21 A22
0 1 1 0

y B como sigue

1
1
B=
1
0

Entonces
AB =

A12
A22

A11
A21

Se tiene
A11 B11 + A12 B21

=
=

y
A21 B11 + A22 B21

=
=

Por tanto

0
B11
=
B21
0
1

B11
B21

2 3
1 0

0 1
2 0

A11 B11 + A12 B21


A21 B11 + A22 B21

1 0
0 1

1 1
1 0

1 1
1 0

6 2
1 2

6
AB = 1
2

2
2
0

Els autors, 2002; Edicions UPC, 2002

1 0
0 1

1 0

1 0
0 1

11.4. MATRIZ ASOCIADA A UNA APLICACIN LINEAL

11.4.

283

Matriz asociada a una aplicacin lineal

Ejercicio 54 Una aplicacin lineal aplica (1, 1) en (0, 1, 2) y (1, 1) en (2, 1, 0).
Hallar la matriz que representa a esta aplicacin lineal.
Solucin: Llamamos f a esta aplicacin lineal. Es claro que f : R2 R3
y
f (1, 1) = (0, 1, 2)
f (1, 1) = (2, 1, 0)
Si tomamos las bases cannicas de R2 y R3 , puesto que (1, 1) = e1 + e2 y
(1, 1) = e1 + e2 y f es lineal, se tiene
f (e1 ) + f (e2 ) = (0, 1, 2)
f (e1 ) + f (e2 ) = (2, 1, 0)
De aqu se sigue que
2f (e1 ) = (2, 0, 2)
2f (e2 ) = (2, 2, 2)
es decir,
f (e1 ) = (1, 0, 1)
f (e2 ) = (1, 1, 1)
Por tanto, la matriz asociada a f en
siguiente matriz

1
0
1

11.5.

las bases cannicas de R2 y R3 es la

1
1
1

El anillo de las matrices cuadradas

Ejercicio 55 Sean A, B Mn (K), demostrar que


1.

tr (A + B) = tr A + tr B

2.

tr (AB) = tr (BA)
Como consecuencia, probar que no es posible la igualdad AB BA = In .

Els autors, 2002; Edicions UPC, 2002

284

CAPTULO 11. MATRICES

Solucin: (1) Se cumple


tr (A + B) = tr (aij + bij )
n
X
=
(aii + bii )
i=1
n
X

aii +

i=1

n
X

bii

i=1

= tr A + tr B

(2) Supongamos que C = AB y D = BA. Entonces se cumple


tr C

n
X
i=1

n
X

n
X

aij bji

n
X

dii

i=1

y
tr D

i=1

cii

n
X
i=1

j=1

n
X

bij aji
j=1

Es claro que tr C = tr D.
Si fuera posible, entonces por (1) y (2) se cumple
tr(AB BA) = trI
tr(AB) tr(BA) = n
0 = n
lo que es una contradiccin.

Ejercicio 56 Una matriz A de Mn (K) se llama nilpotente si existe un nmero


natural n tal que An = O. Probar que si A es nilpotente, entonces la matriz
I A tiene inversa.
Solucin: Supongamos que existe n N tal que An = O. Observemos que

(I + A + A2 + + An2 + An1 )(I A) = I + A + A2 + + An2 + An1


A A2 An1 An
= I An
= I
Por tanto
(I A)1 = I + A + A2 + + An2 + An1

Els autors, 2002; Edicions UPC, 2002

11.6. CAMBIOS DE BASE

285

Ejercicio 57 Dada una matriz A Mn (K), probar que


1.

Existe un nmero natural m n tal que


k0 I + k1 A + k2 A2 + + km Am = O

2.

Si k0 6= 0, la matriz A es inversible. Cul es su inversa?

Solucin: (1) Puesto que A representa a un endomorfismo f de un espacio


vectorial E sobre K de dimensin n, consideremos las potencias sucesivas de f
f 0 = IdE f, f 2 , ..., f r = f f r1 , ...
Si la dimensin de E es n, el espacio vectorial L(E) tiene dimensin n2 , y las
potencias f r no pueden ser todas linealmente independientes. Por tanto, debe
existir algn m n y k0 , k1 , ..., km no todos nulos tales que
k0 IdE + k1 f + k2 f 2 + + km f m = O
De aqu se obtiene
k0 I + k1 A + k2 A2 + + km Am = O
(2) Si k0 6= 0, entonces se cumple que
I+

k1
k2
km m
A + A + +
A =O
k0
k0
k0

de donde resulta

k1
k2
km m1
A=I
I A
A
k0
k0
k0
Por tanto
A1 =

11.6.

k1
k2
km m1
I A
A
k0
k0
k0

Cambios de base

Ejercicio 58 Encontrar las coordenadas de un vector de R3 , respecto de la


base B1 = ((1, 2, 3), (3, 4, 0), (1, 1, 0)), sabiendo que sus coordenadas respecto de
la base B2 = ((1, 1, 0), (0, 1, 1), (1, 0, 1)), son (1, 1, 1).
Solucin: Supongamos que B0 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) sea la base cannica de R3 . Observemos el diagrama siguiente
R3
B2

IdR3

R3
B0

IdR3

R3
B1

Els autors, 2002; Edicions UPC, 2002

286

CAPTULO 11. MATRICES

siendo

1 0 1
A = 1 1 0
0 1 1
1

1
0
0
1 3 1
3
B = 2 4 1 = 1 1 13
3 0 0
4 3 23

En esta misma unidad se expone un mtodo para hallar la matriz inversa. Aqu
suponemos que ya se conoce y simplemente damos el resultado. Entonces
IdR3

BA

R3
B2

R3
B1

donde

1
1
0
0
0
1 0 1
3
3
1
2
BA = 1 1 3 1 1 0 = 0
3
2
0 1 1
4 3 3
1 73

Por tanto

1
0
3
0 2
3
1 73

2
1
3
1 = 2
3
10
1
3

1
3
43
14
3

1
3
43
14
3

luego, las coordenadas del vector en la base B1 son (2/3, 2/3, 10/3).
Ejercicio 59 Sea f : R3 R3 una aplicacin lineal de matriz asociada en la
base cannica B0 = (e1 , e2 , e3 )

1 0 1
A = 1 1 0
0 2 0

Sean u1 = e2 + e3 , u2 = e1 + e3 y u3 = e1 + e2 los vectores de una nueva base


de R3 . Calcular la imagen del vector v = u1 + 2u2 + 2u3 .
Solucin: Llamemos B1 a la base nueva. Consideremos el diagrama correspondiente al cambio de base
R3
B1

IdR3

R3
B0

f
R3
A B0

IdR3

P 1

entonces
R3
B1

P 1 AP

R3
B1

Els autors, 2002; Edicions UPC, 2002

R3
B1

11.6. CAMBIOS DE BASE

287

Debemos calcular P y P 1 . Es claro que

0 1 1
P = 1 0 1
1 1 0

ya que

IdR3

R3
u1
u2
u3

R3
u1 = e2 + e3
u2 = e1 + e3
u3 = e1 + e2

Se tiene
R3
e1
e2
e3
ya que

Por tanto

IdR3

e1 = 1/2(u1 + u2 + u3 )
e2 + e3 = u1
e1 + e3 = u2
= e2 = 1/2(u1 u2 + u3 )

e2 = 1/2(u1 u2 + u3 )
e1 + e2 = u3
P 1

y, en consecuencia,
P 1 AP

R3
e1 = 1/2(u1 + u2 + u3 )
e2 = 1/2(u1 u2 + u3 )
e3 = 1/2(u1 + u2 u3 )

1
=
2

1
= 1
0

1 1
1
1
= 1 1 1
2
1
1 1

0 1 1
1 0 1
1 1
1
1 1 1 1 1 0 1 0 1
1 1 0
0 2 0
1
1 1

1
3
2
2
3
3
2
2
1
12
2

La imagen del v = u1 + 2u2 + 2u3 es pues


1
1 32
1
1
2
3
1 3
2 = 7
2
2
1
1
0
2
0 2 2
es decir,

f (v) = u1 + 7u2

Els autors, 2002; Edicions UPC, 2002

288

11.7.

CAPTULO 11. MATRICES

Matrices elementales

Ejercicio 60 Hallar la matriz cannica de rango r de la matriz siguiente

1
3 1
0
2 1 1
1
1 11 1 2
0
2 0 1
1
1 1
3

averiguando tambin las matrices de paso correspondientes.


Solucin:

1 0 0 0
0
2 1 0 0
F2 = F2 2F1

0
F3 = F3 + F1 E3 E2 E1 =
1 0 1 0
0
0 0 0 1
F4 = F4 + F1
1 0 0 0
Entonces

1
2

0
1

0
1
0
0
0

0
0
1
0
0

0
0
0
1
0

0
0
0
0
1

1
F2 = F2 E4 =

Entonces

1 0
0 1
7

0 0

0 0
0 0

1
3 1
0
2 1 1
1
1 11 1 2
0
2 0 1
1
1 1
3

0
0
1
0
0

0
0
0
1
0

0
0
0
0
1

1 0
0 17
0 0
0 0
0 0

0
0
1
0
0

0
0
0
1
0


1 3
1
0

0 7 1 1

0 14
2 2 =

0 2
0 1
0 4
2
3

0
0
0
0
1

1 3
1
0
0 7 1 1

0 14
2 2

0 2
0 1
0 4
2
3
0
0
0
0
1

1 3
0 1
0 14
0 2
0 4

0
1 3 0 0
F1 = F1 3F2
0
0
1
0 0

F3 = F3 14F2
0
14
1 0
E8 E7 E6 E5 =
0

F4 = F4 2F2
0 2 0 1
0
F5 = F5 4F2
0 4 0 0

Els autors, 2002; Edicions UPC, 2002

1
1
7

2
0
2
0
0
0
0
1

0
17
2
1
3

11.7. MATRICES ELEMENTALES


Entonces

1
0

0
0

Entonces

1
0

0
0

3
1
14
2
4

0
0
1
0
0

0
0
0
1
0

0
0
0
0
1

0
1
0
0
0

0
0
0
0
1

0
0
0
1
0

0
1
0
0
0

0
0
7
10

0
0

0
0
1
0
0

Entonces

1
0

0
0

1 3
0 1
0 14
0 2
0 4

1
2
0
2

0
0
0
1
0

0 47
1 17
0 0
0 27
0 10
7

1
0
0
0
0

7
F3 E10 =

10

0
0
0
0
1

4
0
7
1
1
7
0 10
7
0 27
0 0

1
0
0
0
0

0
17
2
1
3

1
7

F3 = F5
E9 =
0

F5 = F3

F3 =

Entonces

1
0

0
0

289

1
0
0
0
0

0
0
0
0
1

0
0
0
1
0

0
0
0
0
1

25
7

1
0
0
0
0

0
1
0
0
0

3
7
17
25
7
57

0
0
7
10

0
0

0 47
1 17
0 1
0 27
0 0

3
7
17
5
2
57

0
0
0
1
0

1
0
0
0
0

0 47
1
1
7
10
0
7
0 27
0 0

57
25
7

0 47
1 17
0 1
0 27
0 0

1
0
0
0
0

3
7
17
25
7
57

0 47
1 17
0 1
0 27
0 0

1
0
0
0
0

0
0
0
0
1

3
7
17

1
0
0
0
0

0
=
57

1
0
0
0
0

0
0
1
0
0

F1 = F1 47 F3

0
1

E
E
E
=
F2 = F2 7 F3
13 12 11

0
2

F3 = F3 + 7 F4

0 47
1 17
0 1
0 27
0 0

0
0
0
1
0

0 47
1
1
7
0 0
0 27
0 10
7

1
0
0
0
0

0
1
0
0
0

3
7
17

3
7
17
5
2
57

0
0
0
1
0

0
0
0
0
1

0
1
0
0
0

0 1
0 12
1 52
0 0
0 0

Els autors, 2002; Edicions UPC, 2002

290

CAPTULO 11. MATRICES

Esta matriz es la matriz escalonada reducida por filas de A. Ahora debemos


aplicar transformaciones elementales entre columnas para reducirla a su forma
cannica.

1 0 0 1
0 1 0 0
0
0

C4 = C4 + C1 E1 =
0 0 1 0
0 0 0 1
Entonces

1
0
0
0
0

0
1
0
0
0

0 1
0 12
1 52
0 0
0 0

0
1
0
0

0
0
1
0

1
1
0

0
= 0
0
0
1
0

1
0
0
0
1
C4 = C4 + C2 E2 =
0
2
0

Entonces

1
0
0
0
0

0
1
0
0
0

0 0
0 12
1 52
0 0
0 0

1 0 0

0 1 0

0 0 1

0 0 0

1
0
0
0
0

0
1
0
0
0

0
0
1
0
0

0
5
2
0
0

1
0
0
0

0
1
0
0

0
0
1
0


=
0

1
1
2

1
0
0
0
5
C4 = C4 C3 E3 =
0
2
0

Entonces

0
1
0
0

0
1
0
0

0
1
0
0
0

0 0
0 12
5
1
2
0 0
0 0

0
1
1
2

1
0
0
0
0

0
1
0
0
0

0
0
1
0
0

0 0
0 0

1 52
0 1

1
0 0
0

0 0
= 0
1 52
0
0 1
0

0
1
0
0
0

0
0
1
0
0

0
0

5
2
0
0

0
0
0
0
0

Esta es la matriz cannica de rango 3 equivalente a la matriz dada. Las matrices


de paso son entonces

1 0 0 1
0 1 0 1
0
0
0
2
P = E1 E2 E3 =
0 0 1 5
2
0 0 0 1

Els autors, 2002; Edicions UPC, 2002

11.7. MATRICES ELEMENTALES


y

y se cumple
1
1

5
3
10
1
10
35

5
15
2
5
2
5

Q = E13 E12 E1 =

0
0
0
0
1

0 25
1
0 10
7
0
10
1
1
5
0
0

291

1
5
3
10
1
10
35

1
5
15
2
5
2
5

1
3 1
0
2 1 1
1
1 11 1 2
0
2 0 1
1
1 1
3

0
0
0
0
1

0 25
1
0 10
7
0
10
1
1
5
0
0

1 0 0 1

1
0 1 0

2 =

0 0 1 5
2

0 0 0 1

Els autors, 2002; Edicions UPC, 2002

1
0
0
0
0

0
1
0
0
0

0
0
1
0
0

0
0
0
0
0

292

CAPTULO 11. MATRICES

Els autors, 2002; Edicions UPC, 2002

Captulo 12

Determinantes
12.1.

Formas multilineales. Propiedades

Ejercicio 61 Sea el espacio vectorial R2 . Se considera la aplicacin f : R2


R2 R definida por
f (x, y) = x1 y2 x2 y1
con x = (x1 , x2 ), y = (y1 , y2 ). Estudiar si f es una forma bilineal. Es simtrica? Es antisimtrica? Es alternada?
Solucin: Veamos que f es lineal respecto al primer factor; del mismo modo
se vera la linealidad respecto del segundo factor.
f (ax, y) = ax1 y2 ax2 y1
= a(x1 y2 x2 y1 )
= af (x, y)
0

f (x + x , y) = (x1 + x1 )y2 (x2 + x2 )y1


0

= x1 y2 x2 y1 + x1 y2 x2 y1
0

= f (x, y) + f (x , y)

Por tanto, f es una forma multilineal; f no es simtrica, ya que si hacemos x =


(1, 1) y y = (3, 4), tenemos f (x, y) = 1 y f (y, x) = 1, luego f (x, y) 6= f (y, x);
f es antisimtrica ya que
f (y, x) = y1 x2 y2 x1
= (x1 y2 x2 y1 )
= f (x, y)
Al ser f antisimtrica y 2 6= 0, f es alternada.
293

Els autors, 2002; Edicions UPC, 2002

294

CAPTULO 12. DETERMINANTES

Ejercicio 62 En el espacio vectorial M2 (R) de las matrices cuadradas de orden


2 sobre R, se define la aplicacin f : M2 (R) R por
f (A, B) = tr(AB)
Probar que f es una forma bilineal simtrica.
Solucin: Se cumple
f (A, B) = tr((A)B)
= tr(AB)
= f (A, B)
y
f (A1 + A2 , B) =
=
=
=

tr((A1 + A2 )B)
tr(A1 B + A2 B)
tr(A1 , B) + tr(A2 , B)
f (A1 , B) + f (A2 , B)

Luego f es lineal respecto al primer factor; anlogamente se comprueba que es


lineal respecto al segundo factor. Por tanto, f es una forma bilineal. Se cumple
que f es simtrica ya que
f (A, B) = tr(AB)
= tr(BA)
= f (B, A)

12.2.

Determinante de un endomorfismo

Ejercicio 63 Sea f un endomorfismo de R3 definido por


f (e1 ) = e1 e2
f (e2 ) = e2 e1
f (e3 ) = e3
siendo (e1 , e2 , e3 ) la base cannica de R3 . Consideremos los vectores
v1
v2
v3

= e1 + e2
= e1 + e3
= e2 + e3

que forman base de R3 . Calcular el determinante de f en esta nueva base.

Els autors, 2002; Edicions UPC, 2002

12.3. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES295


Solucin: Sabemos que el determinante
efectuamos un cambio de base. Por tanto,

1 1

1
det f = 1
0
0

de un endomorfismo no cambia si
0
0
1

=0

Ejercicio 64 Sea E el espacio vectorial de la funciones reales de variable real


generado por la funciones 1, sin y cos. Calcular el determinante del endomorfismo f de E definido por la derivacin.
Solucin: Supongamos que f1 (x) = 1, f2 (x) = sin x y f3 (x) = cos x. Entonces, f10 (x) = 0, f20 (x) = cos x y f30 (x) = sin x. Entonces
f (1) = 0
f (sin) = cos
f (cos) = sin
Por tanto,

12.3.

0 0
0

det f = 0 0 1 = 0
0 1
0

Determinante de una matriz cuadrada. Propiedades

Ejercicio 65 Demostrar que el valor del siguiente determinante

1 9 1 3

2 6 1 8

2 2 1 3

1 5 1 9

es mltiplo de 11.
Solucin: Al sumar a la cuarta fila la tercera multiplicada por 10, la segunda
por 100 y la primera por 1000, se tiene

1
1 9 1 3
9
1
3

2
2 6 1 8
6
1
8

2 2 1 3 = 2
2
1
3

1221 9625 1111 3839


1 5 1 9

1
9
1
3

2
6
1
8
= 11
2
1
3
2
111 875 101 349

Por tanto, el valor del determinante es mltiplo de 11.

Els autors, 2002; Edicions UPC, 2002

296

CAPTULO 12. DETERMINANTES

Ejercicio 66 Calcular el valor del

2
Solucin: Desarrollaremos

1 2 3 4

1 2 4 5

2 3 5 7

1 0 0 1

2 0 1 3

siguiente determinante

2 3 4 5
2 4 5 6
3 5 7 9
0 0 1 2
0 1 3 0

este determinante por la fila cuarta.

5 2 3 4 3
5

6 2 4 5 4
6

9 = 9 3 5 7 5
0 0 0 1
0
2

5 0 1 3 6
0

5 2 3 3

6 2 4 4

9 3 5 5
5 0 1 6

10 2 3 15

14 2 4 20

16 3 5 25

0 0 1 0

10 2 15

= 14 2 20
16 3 25

5 2 3

= 10 7 2 4
8 3 5

5 2 3

= 10 7 2 4
1 1 1

2 1 3

= 10 3 2 4
0
0 1

2 1

= 10
3 2
= 10 (1) = 10

Ejercicio 67 El determinante de Vandermonde de orden 3 tiene la siguiente


forma

1 1 1

D = a b c
a2 b2 c2

Els autors, 2002; Edicions UPC, 2002

12.3. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES297


Demostrar que
Solucin:

a
2
a

D = (b a)(c a)(c b).


1
b
b2

1
c
c2

= a
2

0
0
ba
ca
(b a)(b + a) (c a)(c + a)

1
1
= (b a)(c a)
b+a c+a

1
0
= (b a)(c a)
b+a cb
= (b a)(c a)(c b)

Ejercicio 68 Calcular el siguiente determinante

3 1 1 1

1 3 1 1

1 1 3 1

.. .. .. . .
..
. . .
. .

1 1 1 3
Solucin:

3 1

1 3

1 1

.. ..
. .

1 1

1
1
3
.. . .
.
.
1

2+n 2+n

1
=
..

..
.

1
1
3

1 1

0 2

= (2 + n) 0 0
.. ..
. .

0 0

1
1
1
..
.

= 2n1 (2 + n)

2 + n 2 + n
1

1
3

1
..
..
..
.
.
.
1

1 1
0 0
2 0
.
.. . .
. ..
.
0 2

Ejercicio 69 Sea A una matriz cuadrada de orden n cuyos elementos aij son
funciones reales derivables de variable x real. Se designa por aj los n vectorescolumna de A y se escribe
f (x) = det A = det(a1 , ..., aj , ..., an )
Demostrar que
f 0 (x) =

n
X

det(a1 , ..., aj1 , aj , aj+1 , ..., an )

j=1

Els autors, 2002; Edicions UPC, 2002

298

CAPTULO 12. DETERMINANTES

Deducir de aqu que se cumple


n
X
d
d
[|A|] =
[aij ] Aij
dx
dx
i,j=1

f 0 (x) =

Deducir de aqu que se cumple


Aij =

[|A|]
aij

Como aplicacin, calcular el valor del determinante de orden n cuyos elementos


son todos iguales a 1 salvo los de la diagonal principal que son iguales a 1 + x.
Solucin: Por definicin se tiene
X
() a(1)1 a(j)j a(n)n
f (x) =
Sn

Por tanto,
f 0 (x) =

()

Sn

Se cumple que
X

Sn

d
a(j)j a(n)n
a
dx (1)1

n
X

d
a(j)j a(n)n
()
a(1)1
dx
j=1
Sn

!
n
X
X

d
a(j)j a(n)n
=
() a(1)1
dx
j=1
X

d
a(1)1 a(j)j a(n)n =
()
dx

Sn

n
X

det(a1 , ..., aj1 , aj , aj+1 , ..., an )

j=1

luego
f 0 (x) =

n
X

det(a1 , ..., aj1 , aj , aj+1 , ..., an )

j=1

De aqu, desarrollando cada determinante por la columna j, se obtiene


f 0 (x) =

n
X

det(a1 , ..., aj1 , aj , aj+1 , ..., an )

j=1

n
n
X
X
j=1
n
X

i=1

aij Aij

d
[aij ] Aij
dx
i,j=1

Els autors, 2002; Edicions UPC, 2002

12.3. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES299


luego
f 0 (x) =
Si ahora suponemos que

n
X
d
[aij ] Aij
dx
i,j=1

f (a11 , ..., aij , ..., ann ) = det A


de la fmula anterior deducimos

[det A] = Aij
aij
Sea

1+x
1

1
1
+
x

Dn = .
.
..
..
..
.

1
1

y supongamos que

f (x) = Dn

entonces

0
f (x) =

1
1

0 1 + x
..
..
..
.
.
.
0
1

1
1
..
.
1+x

1+x
1

1
1 + x
..
..
..
.
.
.
1
1

= nDn1

Por tanto,

0
0
..
.
1

1+x
1
1
..
.


1 + x 0

1
1

+ ..
.. . .
.
.
.

1
0

+ +

1+x
1
1
..
.

f 0 (x) = nDn1
f 00 (x) = n(n 1)Dn2
f 000 (x) = n(n 1)(n 2)Dn3
..
.
(n2)
f
(x) = n(n 1)(n 2) 3 D2
(n1)
f
(x) = n!(1 + x)
f (n) (x) = n!
Aplicando la frmula de Taylor a f en x = 0 se tiene
f (x) = f (0) +

f 0 (0) f 00 (0)
f (n1) (0) n1 f (n) (0) n
+
+
+ +
x
x
1!
2!
(n 1)!
n!

Els autors, 2002; Edicions UPC, 2002

300

CAPTULO 12. DETERMINANTES

y teniendo en cuenta que para todo 2 i n se cumple


Di (0) = 0
entonces
n!
n!
xn1 + xn
(n 1)!
n!

f (x) =

= nxn1 + xn
= (n + x)xn1
Por tanto,

Dn = (n + x)xn1
Ejercicio 70 Calcular el rango de

1
0
A=
2
3
Solucin: Observemos que

Aadiendo la tercera fila y las


Observemos que

Aadiendo la cuarta fila y


Observemos que

1 7
5

0 4
2

2 2 4

3 1 7

1 7

0 4

6= 0

dems columnas, obtenemos menores de orden 3.

1 7
5
0 4
2 = 8 6= 0
2 2 4

las dems columnas, obtenemos menores de orden 4.

Por tanto, rang A = 3 y la


en efecto, se cumple

x
y

la siguiente matriz

7
5 3 2
4
2 2 0

2 4 0 1
1 7 1 3

3
2
0
1

=0

1
0
2
3

7
4
2
1

5
2
4
7

2
0
1
3

=0

cuarta fila es combinacin lineal de las dems filas;


7
4
2
y

5
2
4
z

3
2
0
t

= 16x 8z + 8t

16 3 8 7 + 8 1 = 0

Els autors, 2002; Edicions UPC, 2002

12.3. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES301


Ejercicio 71 Calcular unas ecuaciones homogneas del subespacio S de R4 generado por los vectores (1, 1, 1, 1) y (1, 0, 1, 1).
Solucin: Sean (x, y, z, t) las coordenadas de los vectores del subespacio
S = h(1, 1, 1, 1), (1, 0, 1, 1)i. Entonces, el rango de la siguiente matriz

1 1 x
1 0 y

A=
1 1 z
1 1 t

debe ser 2. En consecuencia, todos los menores de A de orden 3 deben ser nulos.
Al ser (1, 1, 1, 1) y (1, 0, 1, 1) linealmente independientes, la dimensin de S es
2. Por tanto, habr dos ecuaciones homogneas definidoras de S que pueden ser

1 1 x
1 1 x

1 0 y =xt=0
1 0 y =xz =0
y

1 1 t
1 1 z

Por tanto,

S = {(x, y, z, t) R4 : x = z = t}

Ejercicio 72 Calcular la inversa de la

1
A= 1
1

siendo a3 = 1 y a 6= 1.
Solucin: Se cumple

1 1

det A = 1 a
1 a2

1
a2
a

siguiente matriz

1 1
a a2
a2 a

= a4 + 3a2 2a

Como a3 = 1, entonces det A = a + 3a2 2a = 3a(a 1). Adems como


a3 1 = (a 1)(a2 + a + 1) = 0 y a 6= 1, se tiene a2 + a + 1 = 0. Por tanto,
a 6= 0 y, en consecuencia, det A 6= 0. Calculemos ahora la matriz adjunta de A

a
a
a
a a a2 a a2 a
a2 a a 1 1 a2 = (a 1) a
1
(1 + a)
a (1 + a)
1
a2 a 1 a2 a 1
Observando que la matriz A es simtrica, tenemos

a
a
a
a a
1
1
a
a a3
1
(1 + a) =
A1 =
3a
3a
a (1 + a)
1
a a2

Els autors, 2002; Edicions UPC, 2002

a
a2
a3

302

CAPTULO 12. DETERMINANTES

donde hemos tenido presente que a3 = 1 y a2 = (1 + a). Por tanto

1 1 1
1
A1 = 1 a2 a
3
1 a a2

Els autors, 2002; Edicions UPC, 2002

Captulo 13

Sistemas de ecuaciones
lineales
Ejercicio 73 Discutir y resolver el sistema siguiente

2x + 4y + 5z = 1

x + 3y + 3z = 1

4x + 5y + 4z = 2

3x + 3y + 2z = 2

2x + 5y z = 7

Solucin: Escalonemos la matriz ampliada del


2 4
5
2
4
5
1
1 3
0
1
3
2
1


4 5

4
2

0 3 6
3 3

0 6 11
2
2
2 5 1 7
0
1
6

F1
2 4
2 4
5
1
0 2
3
0 2
1
F
2

0 0 9
9
2F3 + 3F2 0 0
0 0
0 0 8
8 F4 + 3F2
0 0 13 13
0 0
2F5 F2

sistema

F1
1
3
F1
2F
2

2F1
0
F
3

1 2F4 3F1
8
F5 F1

5
F1
1
1 3
F2

F
1
1
3 /9

0
0 F4 /8 F3 /9
0
F5 /13 F3 /9
0

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliada


del sistema dado. El sistema escalonado equivalente es

2x + 4y + 5z = 1
2y + z = 3

z=1

cuyo nmero de ecuaciones (suprimidas las ecuaciones triviales, o sea las filas
de ceros de la matriz) es igual al nmero de incgnitas. Por tanto, el sistema es
303

Els autors, 2002; Edicions UPC, 2002

304

CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES

compatible determinado y su solucin es, sustituyendo los valores de las incgnitas hacia arriba
x=2
y = 2
z=1

Ejercicio 74 Discutir y resolver el sistema

x+y+z+tu=1
x y z t + 2u = 2

x + y + z + 2t = 0

Solucin: Escalonemos la matriz ampliada del sistema


1 1 1 1 1
1
1
1
1
1 1
1 1 1 1
2
1
2 0 0 0 0
1
1
1
2
0
0 0 0 1
1
0

1
0
0

1
0
0

1
0
0

1
1
0

1
1
1

F1
1
1 F3
3
F2

F1
1
3 F2 + F1
1
F3 F1

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliada


del sistema dado. El nmero de ecuaciones no triviales del sistema escalonado
correspondiente es menor que el nmero de incgnitas. Por tanto, el sistema es
compatible indeterminado. Las incgnitas no principales son y y z como puede
observarse en la matriz escalonada. El sistema escalonado equivalente es

x+tu=1yz
t + u = 1

u=3

Por sustituciones hacia arriba obtenemos las soluciones

x=8yz

y=y

z=z

t = 4

u=3

Ahora podemos obtener soluciones del sistema dando valores a y y z.


Ejercicio 75 Discutir y resolver el sistema

x 3y = 10
3x + 8y = 12

5x 19y = 35

Els autors, 2002; Edicions UPC, 2002

305
Solucin: Escalonemos la matriz ampliada del sistema

1 3
F1
1
3
10
10
3
18 F2 3F1
8
17
12 0
0 34
5 19 35
15
F3 + 5F1

1 3
F1
10
0 17 18
F2
21
0
0
F3 + 2F2

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliada


del sistema dado. Podemos observar enseguida que el sistema escalonado equivalente tiene una contradiccin en la ltima ecuacin. Por consiguiente el sistema
es incompatible.
Ejercicio 76 Discutir y resolver el siguiente sistema

3x + 2y + z = 0
2x + 2y + 5z = 0

7x 4y + 2z = 0

Solucin: Podemos ver enseguida que el sistema es homogneo porque sus


trminos independientes son todos iguales a cero. Por consiguiente, el sistema es
compatible porque admite al menos una solucin: la solucin trivial. Para saber
si es o no indeterminado, escalonemos la matriz de coeficientes del sistema

F1
3 2 1
3
2
1
2
2
5 0 2 13 3F2 2F1
0 2 13
7 4 2
3F3 + 7F1

3 2 1
F1
0 2 13
F2
0 0 0
F3 F2
Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliada
del sistema dado. El nmero de ecuaciones no triviales del sistema escalonado
correspondiente es menor que el nmero de incgnitas. Por tanto, el sistema es
compatible indeterminado. La incgnita no principal es z como puede observarse
en la matriz escalonada. El sistema escalonado equivalente es

3x + 2y = z
2y = 13z
Por sustituciones hacia arriba obtenemos las soluciones

x = 4z

13
y= z
2

z=z

Ahora podemos obtener soluciones del sistema dando valores a z.

Els autors, 2002; Edicions UPC, 2002

306

CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES

Ejercicio 77 Discutir y resolver cuando sea posible, segn los valores del parmetro
, el siguiente sistema

2y z =

3x 2z = 11
y+z =6

2x + y 4z =

Solucin: Escalonemos la matriz ampliada del sistema


3 0 2 11
0 2 1
3 0 2 11 0 2 1

0 1
1
6 0 1
6
1
2 1 4
2 1 4

F1
3 0 2
3 0 2
11

0 2 1
0
2 1

F
2

0 0
0 1
1
3
6
F3
0 3 8 3 22
0 0 13
3F4 2F1

F1
3 0 2
11

0 2 1

F2

0 0
3
12
F3
4 + 24
0 0
0
3F4 + 13F3

F2
F1

F3
F4

F1
11

F2

12 2F3 F2
3 44
2F4 3F2

En primer lugar, vemos que el sistema ser incompatible cuando


6= 6
porque entonces la ltima ecuacin del sistema escalonado ser una contradiccin. El sistema ser compatible determinado cuando
=6
ya que el nmero de ecuaciones no triviales del sistema escalonado es igual al
nmero de incgnitas. El sistema escalonado equivalente para este valor de es

3x 2z = 11
2y z = 6

3z = 6

cuya solucin es

x=5
y=4
z=2

Ejercicio 78 Resolver el sistema, caso de ser compatible

2x 5y + z 2t + 2u = 0

3x 2y z + t 2u = 0
2x + y z + 2t 3u = 0

x 2y + z t + u = 0

Els autors, 2002; Edicions UPC, 2002

307
Solucin: El sistema es homogneo, tiene 4 ecuaciones y 5 incgnitas (o
sea, es de rango 5 como mximo). Por consiguiente, el sistema es compatible
indeterminado. Para conocer el nmero de grados de libertad (nmero de incgnitas no principales) es necesario calcular el rango de la matriz del sistema.

F4
1 2 1 1 1
2 5 1 2 2
3 2 1 1 2
3 2 1 1 2

2 1 1 2 3 2 1 1 2 3
2 5 1 2 2
1 2 1 1 1
F1

1 2 1 1 1
1 2 1 1 1
0 4 4 4 5 F2 3F1
3 2 1 1 2

2 1 1 2 3 0 5 3 4 5 F3 2F1
0 1 1 0
0
2 5 1 2 2
F4 2F1

1 2 1 1 1
1 2 1 1 1
0 1
0 4 4 4 5
1
0
0
F4

0 5 3 4 5 0 5 3 4 5
0 4 4 4 5
0 1 1 0
0
F2

1 2 1 1 1
1 2 1 1 1

0 1
0 1
1
0
0
1
0
0

0 5 3 4 5 0 0 8 4 5 F3 5F2
0 0 8 4 5
0 4 4 4 5
F4 4F2

1 2 1 1 1
1 2 1 1 1

0 1
0 1
1
0
0
1
0
0

0 0 8 4 5 0 0 8 4 5
0 0
0
0
0
F4 F3
0 0 8 4 5
luego, la matriz tiene rango 3 y por tanto, el sistema es compatible indeterminado
con 53 = 2 grados de libertad. Para resolverlo, utilizamos la matriz escalonada
equivalente. El sistema equivalente es entonces

x 2y + z t + u = 0
y+z =0

8z + 4t 5u = 0

Por tanto, tomando como incgnitas no principales t y u, se tiene

x 2y + z = t u

y+z =0

8z = 4t + 5u

t=t

u=u

es decir,

x = 18 (4t 7u)
y = 18 (4t 5u)
z = 18 (4t 5u)
t=t
u=u

Els autors, 2002; Edicions UPC, 2002

308

CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES

Ejercicio 79 Determinar para qu valores de a el sistema es compatible

ax + a2 y + a3 z = a

x + ay + a2 z = a2
3
x + y + az = a

x + y + z = a4

Solucin: El sistema tiene 4 ecuaciones y 3 incgnitas. Por consiguiente


puede ser incompatible si el rango es 4. Vamos a calcular los valores para los
que el sistema no es compatible

1 a a2 1
a a2 a3 a

1 a a2 a2
1 a a2 a2

1 1 a a3 = a 1 1 a a3 =

1 1 1 a4
1 1 1 a4

1
F1
a
a2
1

2
0
0
0
a 1 F2 F1
a
=
2
3

0 1 a a a2 a4 1 F3 F1
0 1 a 1 a a 1 F4 F1

0
0
1

a(1 a)
(1 a)(a2 + a + 1)
a(a2 1) 1 a
1 a (1 a)(1 + a) (1 a)(a + 1)(a2 + 1)

0
0
1

2
2
2
a
a + a + 1 =
a(a 1)(1 a) 1
1 1 + a (a + 1)(a2 + 1)

a
3 1
a(a + 1)(1 a)
= a(a + 1)(1 a)3
1 1+a

De la ecuacin

a(a + 1)(1 a)3 = 0

se obtienen las soluciones: a = 0, a = 1, y a = 1. Estos valores hacen que el


rango de la matriz ampliada no sea 4 y en consecuencia, que el sistema pueda
ser compatible. As pues, tenemos:
1.

Si a 6= 0 y a 6= 1 y a 6= 1, el sistema no tiene solucin porque el rango de


la matriz ampliada es 4 y el rango de la matriz del sistema es a lo sumo
3.

2.

Si a = 0, entonces las matrices del sistema

0 0 0 0
1 0 0 0

1 1 0 0
1 1 1 0

son

Els autors, 2002; Edicions UPC, 2002

309
y los rangos son rang A = rang (A|b) = 3. Por consiguiente, el sistema
es compatible determinado ya que el rango coincide con el nmero de incgnitas. El sistema que resulta es homogneo

x=0
x+y =0

x+y+z =0

y por tanto la solucin es la trivial, o sea, x = 0, y = 0, z = 0.


3.

Si a = 1, entonces las matrices del

1
1
1
1

1
1
1
1

sistema son

1 1
1
1

1 1
1
1

cuyos rangos vamos a calcular por el mtodo de Gauss:


1
1
1 1
1 1 1 1
1
0
1
1
0
0
1
0

1
1
1 1 0
2 2 2
1
1
1
0
2
0
1
0

1
0

0
0

1
2
2
0

1
0
2
0


1
1
0
0

2 0
0
0

1
2
0
0

1
0
2
0

F1
F2 + F1

F3 + F1
F4 + F1

1
0
F
2 2
F3 F2
0

de donde rang A = rang (A|b) = 3. Por consiguiente, el sistema es compatible determinado ya que el rango coincide con el nmero de incgnitas.
El sistema equivalente que resulta es

x + y z = 1
2y = 0

2z = 2

cuya solucin es, x = y = 0, z = 1.


4.

Si a = 1, las matrices del sistema son

1 1 1
1 1 1

1 1 1
1 1 1

1
1

1
1

cuyos rangos son evidentemente rang A = rang (A|b) = 1. Por consiguiente, el sistema es compatible indeterminado con 3 1 = 2 grados de

Els autors, 2002; Edicions UPC, 2002

310

CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES


libertad. Para resolverlo podemos tomar como incgnitas libres por ejemplo y y z. Entonces, la solucin del sistema es

x=1yz
y=y

z=z

Ejercicio 80 Discutir y resolver, segn los valores de los parmetros a y b, el


siguiente sistema

x + ay + a2 z = 1
x + ay + abz = a

bx + a2 y + a2 bz = a2 b

Solucin: El sistema tiene 3 ecuaciones y 3 incgnitas. Averiguemos para


qu valores de a y b el sistema tiene rango 3. Para ello, observemos que

1 a a2
1 1 a

1 a ab = a2 1 1 b =

b a2 a2 b
b a ab

1 1 a
1
1
a F1

0
b a F2 F1
a2 1 1 b = a2 0
=
b a ab
0 ab
0 F3 bF1 (b 6= 0)

1 1

0 ba
2
2

= a2 (a b)2
a (a b) 0 0 b a = a (a b)
1
0
0 1

por tanto, si a 6= 0 y a 6= b, el rango del sistema es 3 y, en consecuencia, el


sistema es compatible determinado. Analicemos todos los casos posibles:
1.

Si a 6= 0 y a 6= b, rang A = rang (A|b) = 3 y el sistema es compatible


determinado. La solucin puede hallarse por la regla de Cramer

1
a a2

a
a ab
2
a b a2 a2 b
a2 (1 b)
x=
=
a2 (a b)2
ab

1 1
a2

1 a
ab

b a2 b a2 b
b(a2 1)
y=
=
2
2
a (a b)
a(a b)

1 a
1

1 a
a

b a2 a2 b
1a
=
z=
2
2
a (a b)
a(a b)

Els autors, 2002; Edicions UPC, 2002

311
2.

Si a = 0, las matrices del sistema son

1 0 0
1 0 0
b 0 0

1
0
0

cuyos rangos son evidentemente rang A = 1 y rang (A|b) = 2. Por consiguiente, el sistema es incompatible.

3.

Si a = b, entonces las matrices

1
1
a

del sistema son

a a2 1
a a2 a
a2 a3 a3

cuyos rangos son rang A = 1 (ya que las tres columnas son dependientes de
la primera; las otras dos se obtienen multiplicando esta ltima por a y a2 ,
respectivamente; obsrvese que a 6= 0, porque de lo contrario estaramos
en el caso anterior). El rango de la matriz ampliada puede ser 2 ya que

1 1

1 a =a1

puede ser cero cuando a = 1 y el rango es 1, o bien distinto de cero cuando


a 6= 1 y el rango es 2. As pues tenemos dos subcasos:
a)

Si a = b 6= 1, entonces rang A = 1 y rang (A|b) = 2 y el sistema es


incompatible.

b)

Si a = b = 1, entonces las matrices del sistema son

1 1 1 1
1 1 1 1
1 1 1 1

cuyos rangos son evidentemente: rang A = rang (A|b) = 1 y el sistema es compatible indeterminado con 3 1 = 2 grados de libertad.
Su solucin es

x=1yz
y=y

z=z

Els autors, 2002; Edicions UPC, 2002

312

CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES

Els autors, 2002; Edicions UPC, 2002

Captulo 14

Diagonalizacin de
endomorfismos
14.1.

Vectores y valores propios. Polinomio caracterstico

Problema 1: Hallar los posibles valores propios de un endomorfismo idempotente (f 2 = f f = f ) de un espacio vectorial E.
Solucin: Sea k un valor propio de f . Sea v un vector propio de valor propio
k:
f (v) = kv
Entonces
f 2 (v) = f (f (v)) = f (kv) = kf (v) = k kv = k 2 v
Pero, por ser f idempotente,
f 2 (v) = f (v) = kv
Por tanto,
k2 v

= kv (k 2 k)v = 0 k2 k = 0

k(k 1) = 0 k = 0, k = 1

En conclusin, los nicos valores propios posibles son 0 y 1.


Problema 2: Calcular el polinomio caracterstico de la matriz

1 4 1 4
2
0
5 4

A=
1 1 2 3
1 4 1 6
313

Els autors, 2002; Edicions UPC, 2002

314

CAPTULO 14. DIAGONALIZACIN DE ENDOMORFISMOS

Solucin: Usaremos el teorema 3:


4

pA (x) = (1) x4 + (1) A3 x3 + (1)2 A2 x2 + (1)A1 x + det A,


donde Ai es la suma de los menores de orden 4i que tienen la diagonal principal
sobre la diagonal principal de A :
1
2
3
4
A3 = a

a4 = 1 + 0 +(2) + 6 = 5
1 + a2 +a3 +
1 4 1 1 1 4 0 5

+
+
+
A2 =
2 0 1 2 1 6 1 2


0 4 2 3
= 8 3 + 2 5 + 16 9 = 9
+
+
4 6 1 6


1 4 1 1 4 4 1 1 4 0 5 4


0 4 + 1 2 3 + 1 2 3
0
5 + 2
A1 = 2
1 1 2 1 4
6 1 1 6 4 1 6
= 3 + 16 8 + 2 = 7
det A = 2
As pues,
pA (x) = x4 5x3 + 9x2 7x + 2

Problema 3: Son equivalentes (asociadas al mismo endomorfismo) las


matrices

1 1 2 3
1 2 3 4
2 3 4 5
0 2 1 2

B=
A=
0 1 0 1 ?
1 3 4 5 ,
1 2 3 4
0 1 2 4

Solucin: Por el corolario del teorema 3, sabemos que dos matrices asociadas
al mismo endomorfismo, o equivalentes, tienen la misma traza, pero
tr A = 1 + 2 + 4 + 4 = 11
tr B = 1 + 3 + 0 + 4 = 8
Por tanto, A y B no son equivalentes.

14.2.

Diagonalizacin de matrices

Problema 4: Calcular los valores y vectores propios de

1 2 0
A = 1 3 1
0 1 1

Els autors, 2002; Edicions UPC, 2002

14.2. DIAGONALIZACIN DE MATRICES

315

Solucin: Calculamos primero el polinomio caracterstico de A :

1x
2
0

3x
1 = (1 x)2 (3 x) + (1 x) =
PA (x) = 1
0
1
1x
= (1 x)((1 x)(3 x) + 1) = (1 x)(x2 4x + 4) =
= (1 x)(x 2)2

Los valores propios son 1 y 2. Calculemos ahora los vectores propios asociados
a cada uno de los valores propios:
a. k = 1. La matriz A I

1 2
1 3
0 1

es:



0 2 0
1 0 0
0
1 0 1 0 = 1 2 1
0 1 0
0 0 1
1

Calculemos N uc (A I) :
si cumple:

0
1
0

Por tanto,

Un vector (x1 , x2 , x3 ) pertenece a N uc (A I)


x1
0
2 0
2 1 x2 = 0
0
1 0
x3

2x2 = 0

x1 + 2x2 + x3 = 0

x2 = 0

x1 = x3

N uc (A I) = {(x1 , 0, x1 )} = h(1, 0, 1)i

Los vectores propios de A de valor propio 1 son los vectores pertenecientes


a h(1, 0, 1)i.
b. k = 2. La matriz A 2I es:

1 2 0
2 0 0
1 2 0
1 3 1 0 2 0 = 1 1 1
0 1 1
0 0 2
0 1 1

Calculemos N uc (A 2I) : Un vector (x1 , x2 , x3 ) pertenece a N uc (A 2I)


si cumple:

0
x1
1 2 0
1 1 1 x2 = 0
0
0 1 1
x3

Por tanto,

x1 + 2x2 = 0
x1 = 2x2
x1 + x2 + x3 = 0

x3 = x2

x2 x3 = 0

N uc (A 2I) = {(2x2 , x2 , x2 )} = h(2, 1, 1)i

Los vectores propios de A de valor propio 2 son los vectores pertenecientes


a h(2, 1, 1)i.

Els autors, 2002; Edicions UPC, 2002

316

CAPTULO 14. DIAGONALIZACIN DE ENDOMORFISMOS

Problema 5: Sean E un espacio vectorial sobre K y f un endomorfismo de


E. Probar que f es inyectiva si, y slo si, 0 no es un valor propio de f .
Solucin: Queremos ver:
f inyectiva 0 no es valor propio de f
Esto es equivalente a demostrar:
f no es inyectiva 0 es valor propio de f
Demostraremos esta segunda equivalencia:
0 es valor propio de f

existe v 6= 0 tal que f (v) = 0 v = 0


existe v 6= 0 tal que v N uc f
N uc f 6= {0}
f no inyectiva.

Problema 6: Calcular los valores y

5
B= 0
2

vectores propios de

0 4
3 0
0 1

Solucin: Calculamos primero el polinomio caracterstico de B :

5x
0
4

4
= (3 x) 5 x
3x
0
PB (x) = 0
2

1
x
2
0
1 x

= (3 x)((5 x)(1 x) + 8) = (3 x)(x2 4x + 3) =


= (3 x)2 (1 x)

Los valores propios son 1 y 3. Calculemos ahora los vectores propios asociados
a cada uno de los valores propios:
a. k = 1. La matriz B I es:

4 0 4
1 0 0
5 0 4
0 3 0 0 1 0 = 0 2 0
2 0 2
0 0 1
2 0 1

Calculemos N uc (B I) : Un vector (x1 , x2 , x3 ) pertenece a N uc (B I)


si cumple:

0
x1
4 0 4
0 2 0 x2 = 0
0
2 0 2
x3

Els autors, 2002; Edicions UPC, 2002

14.2. DIAGONALIZACIN DE MATRICES


Por tanto,

4x1 4x3 = 0

2x2 = 0

317

x2 = 0

x1 = x3

N uc (B I) = {(x1 , 0, x1 )} = h(1, 0, 1)i


Los vectores propios de B de valor propio 1 son los vectores pertenecientes
a h(1, 0, 1)i.
b. k = 3. La matriz B 3I es:

2 0 4
3 0 0
5 0 4
0 3 0 0 3 0 = 0 0 0
2 0 4
0 0 3
2 0 1

Calculemos N uc (B 3I) : Un vector (x1 , x2 , x3 ) pertenece a N uc (B 3I)


si cumple:

0
x1
2 0 4
0 0 0 x2 = 0
0
2 0 4
x3
Por tanto,

{2x1 4x3 = 0 {x1 = 2x3


N uc (B 3I) = {(2x3 , x2 , x3 )} = h(2, 0, 1), (0, 1, 0)i
Los vectores propios de B de valor propio 3 son los vectores pertenecientes
a h(2, 0, 1), (0, 1, 0)i.

Els autors, 2002; Edicions UPC, 2002

318

CAPTULO 14. DIAGONALIZACIN DE ENDOMORFISMOS

Els autors, 2002; Edicions UPC, 2002

Captulo 15

Forma reducida de Jordan


15.1.

Polinomio mnimo

Ejercicio 1: Si E 6= {0} y f = kI, calcular mf (x).


Solucin: Supongamos que E 6= {0} y que f = kI. Observamos que el
polinomio p(x) = x k es un polinomio anulador, porque
p(f ) = f kI = kI kI = 0.
Adems, p es mnico y tiene el menor grado posible. Por tanto,
mf (x) = p(x) = x k

Ejercicio 2: Sea E = R3 , f un endomorfismo de E tal que su polinomio


mnimo es mf (x) = (x 2)3 y u un vector tal que (f 2I)2 u 6= 0. Probar que
(u, (f 2I)u, (f 2I)2 u) es base de E.
Solucin: Como dim E = 3, basta ver que los tres vectores u, (f 2I)u y
(f 2I)2 u son linealmente independientes. Observamos primero que son tres
vectores no nulos:
(f 2I)2 u 6= 0 por hiptesis
(f 2I)((f 2I)u) 6= 0 (f 2I)u 6= 0
(f 2I)u 6= 0 u 6= 0
Veamos que son linealmente independientes. Supongamos que existen escalares
0 , 1, 2 tales que
0 u + 1 (f 2I)u + 2 (f 2I)2 u = 0
319

Els autors, 2002; Edicions UPC, 2002

320

CAPTULO 15. FORMA REDUCIDA DE JORDAN

Aplicamos (f 2I)2 a los dos miembros de la igualdad. Teniendo en cuenta que


el polinomio mnimo es mf (x) = (x 2)3 , entonces (f 2I)3 = 0, y por tanto,
tambin (f 2I)4 = 0 :
0 (f 2I)2 u + 1 (f 2I)3 u + 2 (f 2I)4 u = (f 2I)2 0
0 (f 2I)2 u + 0 + 0 = 0
0 (f 2I)2 u 6= 0

Como (f 2I)2 u 6= 0, deducimos que 0 = 0. As pues, nos queda:


1 (f 2I)u + 2 (f 2I)2 u = 0
Aplicamos (f 2I) a los dos miembros:
1 (f 2I)2 u + 2 (f 2I)3 u = (f 2I)0
1 (f 2I)2 u + 0 = 0
1 (f 2I)2 u = 0

Como (f 2I)2 u 6= 0, deducimos que 1 = 0. As pues, nos queda


2 (f 2I)2 u = 0
Como (f 2I)2 u 6= 0, deducimos que 2 = 0.
Por tanto, los vectores u, (f 2I)u, (f 2I)2 u son linealmente independientes, luego forman una base de E = R3 .

15.2.

Subespacios invariantes

Ejercicio 3: Sea E un espacio vectorial sobre K, f un endomorfismo de E,


un escalar y u un vector. Supongamos que (f I)(u) 6= 0 y (f I)2 (u) = 0.
Sea F el subespacio vectorial generado por u y (f I)(u).
a. Probar que (u, (f I)u) es una base de F.
b. Probar que F es invariante por f .
c. Encontrar la matriz de f en la base (u, (f I)u).
Solucin:

a. Para ver que (u, (f I)u) es una base de F = hu, (f I)ui , basta ver que
u y (f I)u son linealmente independientes. Sean y dos escalares
tales que
u + (f I)u = 0

Els autors, 2002; Edicions UPC, 2002

15.2. SUBESPACIOS INVARIANTES

321

Aplicando (f I) a ambos miembros de la igualdad, obtenemos


(f I)u + (f I)2 u = (f I)0 = 0
Como (f I)2 u = 0 y (f I)u 6= 0, deducimos que = 0. Nos queda,
por tanto,
(f I)u = 0
Nuevamente, como (f I)u 6= 0, deducimos que = 0.

Por tanto, u y (f I)u son linealmente independientes, luego forman


una base de F .
b. Para ver que F es invariante por f hace falta ver que
f (F) F.
Basta demostrarlo para una base. As pues, slo hay que probar
1. f (u) F
2. f ((f I)(u)) F
En efecto,
1. f (u) = f (u) u + u = (f I)(u) + u f (u) F
2. f ((f I)(u)) = f 2 (u) f (u) = f 2 (u) 2f (u) + 2 u f (u) +
2f (u) 2 u =
= (f I)2 (u)+f (u)2 u = 0+(f (u)u) = (f I)(u) F.
c. Busquemos ahora la matriz de f en la base B = (u, (f I)u). En el apartado
anterior hemos visto
f (u) = u + (f I)u
f ((f I)u) = (f I)u

Por tanto, las componentes de f (u) en la base B son (, 1), y las componentes de f ((f I)u) son (0, ). Por tanto, la matriz de la restriccin de
f a F en la base B es

0
1
Ejercicio 4: Encontrar la descomposicin dada por el primer teorema de
descomposicin de un endomorfismo involutivo (f 2 = I).
Solucin:
Sea f un endomorfismo tal que f 2 = I. Un polinomio anulador es x2 1.
Calculemos el polinomio mnimo, usando que mf (x) divide a x2 1 = (x
1)(x + 1). Se pueden dar tres casos:

Els autors, 2002; Edicions UPC, 2002

322

CAPTULO 15. FORMA REDUCIDA DE JORDAN

si mf (x) = x 1, obtenemos f = I;
si mf (x) = x + 1, obtenemos f = I;
si mf (x) = (x 1)(x + 1), aplicando el primer teorema de descomposicin,
obtenemos E = E 1 E 2 .

El polinomio mnimo de la restriccin de f a E 1 es x 1 y, por tanto,


sobre E 1 , f es IE 1 . Anlogamente, sobre E 2 , f es IE2 . Si e1 , . . . , er es
una base de E 1 y er+1 , . . . , en una base de E 2 , la matriz de E en la base
que resulta de la unin de esas dos es

..

.
0

.
.

.
0
1

Observemos que E 1 , E 2 son los subespacios de vectores propios de valores


propios 1, 1 y que la matriz obtenida es una matriz diagonal.

Ejercicio 5:Encontrar la descomposicin dada por el primer teorema de


descomposicin del endomorfismo f con matriz

1 0 0
A = 0 1 1
0 1 1

en la base cannica de R3 .
Solucin:
Al calcular las potencias An se ve en seguida que f 3 = f 2 y, por tanto, x3 x2
es un polinomio anulador. As pues, mf (x) divide x3 x2 = x2 (x 1).
Si mf (x) fuera x 1, obtendramos f = I, lo cual es falso.
Si mf (x) fuera x, obtendramos mf (f ) = f = 0, lo cual es falso.
Si mf (x) fuera x2 , obtendramos f 2 = 0, lo cual es falso.
Si mf (x) fuera (x 1) x, obtendramos f 2 = f , lo cual es falso.
As pues, mf (x) = (x 1)x2 y, por el primer teorema de descomposicin,
E = E 1 E 2 . Sobre E 1 , f es IE 1 . Sobre E 2 , f tiene polinomio mnimo x2 . El
clculo de E 1 y E 2 nos da
E 1 = N uc (f I) = h(1, 0, 0)i,

E 2 = N uc f 2 = h(0, 1, 0), (0, 0, 1)i.

En la base e1 , e2 , e3 , la matriz de f es la matriz de A dada.

Els autors, 2002; Edicions UPC, 2002

15.3. EL TEOREMA DE CAYLEY-HAMILTON

323

Los valores propios son 1 y 0; los subespacios de vectores propios respectivos


son h(1, 0, 0)i y h(0, 1, 1)i. Si completamos estos dos vectores hasta obtener una
base de E : e1 , e2 + e3 , e3 , obtenemos la matriz de f

1 0 0
0 0 1 ,
0 0 0

que es triangular.

15.3.

El teorema de Cayley-Hamilton

Ejercicio 6: Aplicando el teorema de Cayley-Hamilton, calcular la inversa


de la matriz

1 2 0
A = 1 3 1
0 1 1
Solucin: El polinomio caracterstico de A es

1x
2
0

1 =
pA (x) = det (A xI) = 1 3 x
0
1
1x
= (1 x)[(3 x)(1 x) 1] + 2(1 x) =
= (1 x)(3 3x x + x2 1) + 2 2x =
= (1 x)(x2 4x + 2) + 2 2x =
= x2 4x + 2 x3 + 4x2 2x + 2 2x =
= x3 + 5x2 8x + 4
Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracterstico es
mltiplo del polinomio mnimo, y por tanto, es anulador. Por consiguiente, se
verifica:
A3 + 5A2 8A + 4 = 0
Multiplicamos por A1 :
A2 + 5A 8 + 4A1 = 0
Por tanto,
A1 =

A2 5A + 8I
4

Els autors, 2002; Edicions UPC, 2002

324

CAPTULO 15. FORMA REDUCIDA DE JORDAN

As pues,
A1

=
=

1
(A A 5A + 8I) =
4

1 0 0
1 2 0
1 8 2
1
4 8 4 5 1 3 1 + 8 0 1 0 =
4
0 0 1
0 1 1
1 4 2

2 2 2
1
1
1 1 .
4
1 1 5

Ejercicio 7: Sea A la matriz

1 0
A= 0 1
0 0

0
0
1
2

a. Calcular la matriz M = 2A4 7A3 + 9A2 5A + I.


b. Calcular la matriz N = A3 4A2 + 5A1 + 4I
Solucin:

a. El polinomio caracterstico de la matriz A es

1x
0

1x
pA (x) = det (A xI) = 0
0
0
1
= (1 x)(1 x)( x) =
2
5
1
= (x3 x2 + 2x )
2
2

1
2

0
0
x

Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracterstico es anulador:


5
1
(A3 A2 + 2A I)
2
2

0 2A3 5A2 + 4A I = 0

2A4 5A3 + 4A2 A = 0


Por tanto,
M

= 2A4 7A3 + 9A2 5A + I =


= (2A4 5A3 + 4A2 A) 2A3 + 5A2 4A + I =
= 0 2A3 + 5A2 4A + I = 0

Els autors, 2002; Edicions UPC, 2002

15.3. EL TEOREMA DE CAYLEY-HAMILTON


b. La matriz inversa de A es:
A1
Su polinomio caracterstico es

325

1 0 0
= 0 1 0
0 0 2

1x
0
0

1
1x
0
pA1 (x) = det (A xI) = 0
0
0
2x
= (1 x)(1 x)(2 x) =
= (x3 4x2 + 5x 2)

Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracterstico es anulador:


(A3 4A2 + 5A1 2I) = 0 A3 4A2 + 5A1 2I = 0
N = A3 4A2 + 5A1 + 4I = A3 4A2 + 5A1 2I) + 6I = 6I.
Ejercicio 8: Calcular el polinomio mnimo

1 i
0
i 1 i
A=
0 i 1
0
0
i

de la matriz

0
0
.
i
1

Solucin: Calculemos el polinomio caracterstico de A:

1 x
i
0
0

i
1 x
i
0
=

pA (x) = det (A xI) =

0
i
1 x
i

0
0
i
1 x

1 x
0
0
i
0

i 1 x

i
1 x
i

i
= (1 x) i

i
1 x
0
i
1 x
= (1 x)[(1 x)3 (1 + x) (1 x)] i[i(1 x)2 + i] =
= (1 + x)4 + (1 + x)2 + 1

Por el teorema de Cayley-Hamilton, sabemos que el polinomio mnimo es un


divisor de pA (x). Pero pA (x) no tiene races reales. Por tanto,
mA (x) = pA (x) = (1 + x)4 + (1 + x)2 + 1 =
= t4 + 4t3 + 7t2 + 6t + 3.

Els autors, 2002; Edicions UPC, 2002

326

CAPTULO 15. FORMA REDUCIDA DE JORDAN

15.4.

Matriz cannica de un endomorfismo

Ejercicio 9: Calcular la forma cannica

2 0 3
1 2 0
A=
0 0 2
0 0 1

de Jordan de la matriz

0
3
.
0
2

Solucin: Su polinomio caracterstico es

2x
0
3
0

1
2

x
0
3
pA (x) =
0
0
2

x
0

0
0
1
2x

= (2 x)4 .

0
1
dim N uc (A2I) = 4rango (A2I) = 4rango
0
0

0
0
0
0

0 0
0 0
dim N uc (A2I) = 4rango (A2I) = 4rango
0 0
0 0
2

Adems,

3
0
0
1

0
3
= 42 = 2
0
0

0 0
6 0
= 41 = 3
0 0
0 0

(A 2I)3 = 0
Por tanto, el polinomio mnimo de A es
mA (x) = (x 2)3 .
Veamos qu forma tiene el recuadro expuesto en el procedimiento para obtener
la matriz de Jordan:
El nmero de filas es el exponente del polinomio mnimo: 3
El nmero de elementos en la fila inferior es p1 :
p1 = q 1 q 0 = dim N uc (A 2I) dim N uc I = 2 0 = 2
El nmero de elementos en la segunda fila por abajo es p2 :
p2 = q 2 q 1 = dim N uc (A 2I)2 dim N uc (A 2I) = 3 2 = 1
El nmero de elementos en la fila superior es p3 :
p3 = q 3 q 2 = dim N uc (A 2I)3 dim N uc (A 2I)2 = 4 3 = 1

Els autors, 2002; Edicions UPC, 2002

15.4. MATRIZ CANNICA DE UN ENDOMORFISMO

327

Tenemos la siguiente situacin:

u1 es un vector cualquiera que pertenezca a N uc (A 2I)3 pero no a N uc (A


2I)2 . Por ejemplo,
u1 = (0, 0, 1, 0)
Entonces,
(A 2I)u1
(A 2I)2 u1

= (3, 0, 0, 1) N uc (A 2I)2 \N uc (A 2I)


= (0, 6, 0, 0) N uc (A 2I)

u2 es un vector de N uc (A 2I) linealmente independiente con (A 2I)2 u1 ;


por ejemplo
u2 = (3, 0, 0, 1)
En la base B = {(0, 0, 1, 0), (3, 0, 0, 1), (0, 6, 0, 0), (3, 0, 0, 1)}, la matriz del endomorfismo ser la matriz cannica de Jordan:

2 0 0 0
1 2 0 0

J =
0 1 2 0 .
0 0 0 2
Ejercicio 10: Calcular las posibles formas cannicas de Jordan de la matriz

10
4
13
3
7 .
A= 5
9 4 12

Solucin: Su polinomio caracterstico es

1x
10 x
0
1 x
4
13

=
= 5
3x
7
5
3x
7
pA (x) =


9
4 12 x
4 12 x 9

1
0
0

= (1 x) 3 x
2
= (1 x) 5 3 x
4 3 x =

9
4 3 x
= (1 x)2 (x + 1).

Los valores propios de A son 1 y -1.

9
4
13
2
7 = 32 = 1
dim N uc (AI) = 3rango (AI) = 3rango 5
9 4 13

Els autors, 2002; Edicions UPC, 2002

328

CAPTULO 15. FORMA REDUCIDA DE JORDAN

16 8 24
dim N uc (AI)2 = 3rango (AI)2 = 3rango 8 4 12 = 31 = 2
16
8
24

Por tanto,

N uc (A I) N uc (A I)2 = N uc (A I)r ,

r2

Por consiguiente, el polinomio mnimo de A es


mA (x) = (x 1)2 (x + 1).
Veamos qu forma tiene el recuadro expuesto en el procedimiento para obtener
la matriz de Jordan para el valor propio 1:
El nmero de filas es el exponente del polinomio mnimo: 2
El nmero de elementos en la fila inferior es p1 :
p1 = q 1 q 0 = dim N uc (A I) dim N uc I = 1 0 = 1
El nmero de elementos en la fila superior es p2 :
p2 = q 2 q 1 = dim N uc (A I)2 dim N uc (A I) = 2 1 = 1
Tenemos la siguiente situacin:

u1 es un vector cualquiera que pertenezca a N uc (AI)2 pero no a N uc (AI).


Por ejemplo,
u1 = (1, 2, 0)
Entonces,
(A I)u1 = (1, 1, 1) N uc (A I)
u2 es un vector de N uc (A + I) ; por ejemplo
1
u2 = (1, , 1)
2
La forma de Jordan de la matriz A depende del orden de los vectores de la base:
En la base B = {u1 = (1, 2, 0), (A I)u1
matriz del endomorfismo ser:

1 0

1 1
J=
0 0

= (1, 1, 1), u2 = (1, 12 , 1)}, la

0
0 .
1

Els autors, 2002; Edicions UPC, 2002

15.4. MATRIZ CANNICA DE UN ENDOMORFISMO

329

En la base B = {u2 = (1, 12 , 1), u1 = (1, 2, 0), (A I)u1 = (1, 1, 1)} la


matriz del endomorfismo ser:

1 0 0
J = 0
1 0
0
1 1
En la base B = {(A I)u1 = (1, 1, 1), u1 = (1, 2, 0), u2 = (1, 12 , 1)}, la
matriz del endomorfismo ser:

1 1 0
J = 0 1 0
0 0 1
En la base B = {u2 = (1, 12 , 1), (A I)u1 = (1, 1, 1), u1 = (1, 2, 0)}, la
matriz del endomorfismo ser:

1 0 0
J = 0
1 1
0
0 1

Els autors, 2002; Edicions UPC, 2002

330

CAPTULO 15. FORMA REDUCIDA DE JORDAN

Els autors, 2002; Edicions UPC, 2002

Captulo 16

Formas bilineales simtricas


y formas cuadrticas
16.1.

Definicin y primeras propiedades

Ejercicio 81 Consideremos las bases B1 = (u1 , u2 , u3 ) y B2 = (v1 , v2 , v3 ) de


R3 tales que
u1
u2
u3

= 2v1 + v2
= v1 v3
= v1 + v3

y la forma bilineal f : R3 R3 R cuya matriz en B1 es la matriz

1 0 2
0
A= 1 1
0 1
0

Hallar la matriz de f en la base B2 .


Solucin: Designamos por (x1 , x2 , x3 ) y (x01 , x02 , x03 ) las coordenadas de un
vector x de R3 en las bases B1 y B2 , respectivamente. Entonces tenemos

x1
x1
2
1 1
1
0 0 x2 = x02
0 1 1
x3
x03
es decir,

2
1
x1
x2 = 1
0
0 1
x3

0 1
= 12 1
1
1
2

1
1
0
1

0
12
1
2

x01
x02
x03

x01
x02
x03

331

Els autors, 2002; Edicions UPC, 2002

332CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


En la base B1 se cumple,

f (x, y) =

x1

x2

x3

por tanto, en la base B2 tendremos,

x01 x02 x03 12


f (x0 , y0 ) =
=

x01

x02

y1
1 0 2
1 1
0 y2
0 1
0
y3

t
0
1
0
1 0 2
0 12
1 12 1 1
1
1
0 1
0
1 12
2

21
y10
12 12
2

2 4
0
x3
y20
1
0 2
0
y30

y, en consecuencia, la matriz de f en la base


1
12
2
0
A = 2 4
0 12

0
1
0
y1
1 12 y20
y30
1 12

B2 es

12
0
0

Ejercicio 82 Se considera la forma bilineal f : R3 R3 R definida por


f (x, y) = x1 y1 x1 y3 + x2 y2 x3 y1 + x3 y2 + 2x3 y3 + x2 y3
siendo x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ). Se pide:
1.

La matriz asociada a f .

2.

Rango y ncleo de f .

3.

En R3 se considera el siguiente cambio de coordenadas


x01 = 2x1 + 2x2 + 3x3
x02 = x1 x3
x03 = x2 x3
Hallar la expresin analtica de la forma cuadrtica asociada a f en la
nueva base.
Solucin:

1.

Se cumple
f (x, y) =

x1

x2

x3

y1
1 0 1
0 1
1 y2
1 1
2
y3

y la matriz de f en la base original es

1 0 1
1
A= 0 1
1 1
2

Els autors, 2002; Edicions UPC, 2002

16.1. DEFINICIN Y PRIMERAS PROPIEDADES


2.

333

Observamos que f es simtrica y, por tanto, el rango de f es el rango de


A; puesto que det A = 0 y

1 0

0 1 6= 0
el rango de f es dos y, en consecuencia, f es una forma degenerada. El
ncleo se obtiene resolviendo el siguiente sistema,


x1
0
1 0 1
0 1
1 x2 = 0
0
1 1
2
x3

cuyas soluciones son x1 = x3 = y x2 = con R. Por tanto,


ker f = h(1, 1, 1)i
3.

La ecuacin del cambio de coordenadas es,


0

x1
x1
2
2
3
1
0 1 x2 = x02
x3
x03
0 1 1

luego,

0

1
1
2
x1
x1
x2 = 1
2
1 x02
1 2 2
x3
x03

Entonces,

f (x0 , y0 ) =

x01

x02

x01

x02

t
y1
1
1
2
1 0 1
1
1
2
2
1 y20
1 1
2
1 0 1
x03 1
1 2 2
1 1
2
1 2 2
y30
0

y1
4 6 8

x03 6 9 12 y20
8 12 17
y30

Por tanto, si q es la forma cuadrtica asociada a f , entonces tendremos,


q(x0 ) =

x01

x02

x03

0
x1
4 6 8
6 9 12 x02
8 12 17
x03

= 4(x01 )2 + 9(x02 )2 + 17(x03 )2 + 12x01 x02 + 16x01 x03 + 24x02 x03

Els autors, 2002; Edicions UPC, 2002

334CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS

16.2.

Ortogonalidad respecto a una forma bilineal simtrica

Ejercicio 83 Sea S2 (R) el espacio vectorial de las matrices simtricas de orden


2y

1 0
0 1
0 0
B=
,
,
0 0
1 0
0 1
una base del mismo. Sea f una forma bilineal simtrica sobre S2 (R), cuya matriz
asociada en esta base es

1 1
0
1
A= 1 2
0 1 1
Se pide:
1.

Rango de f y una base del ncleo de f

2.

Hallar el subespacio ortogonal respecto a f con la matriz

1 2
B=
2 0

3.

Hallar una base ortogonal de S2 (R) respecto de f

4.

Clasificar la forma cuadrtica asociada a f


Solucin:

1.

Como

1 1
0

1 2
1

0 1 1

el rango de f es dos y,

1
1
0
es decir,

1 1

1 2

=0

6= 0

por tanto, es degenerada. Calculemos su ncleo,


0
x
1
0
2
1 y = 0
0
z
1 1

x+y =0
x + 2y z = 0

y + z = 0

Els autors, 2002; Edicions UPC, 2002

16.2. ORTOGONALIDAD RESPECTO A UNA FORMA BILINEAL SIMTRICA335


de donde se obtiene, x = , y = z = con R. Por tanto, tenemos
que el ncleo de f est constituido por las matrices de la forma

1 1
1 0
0 1
0 0

+
+
=
1
1
0 0
1 0
0 1
y la matriz

1 1
1
1

es una base del ncleo de f .


2.

Las coordenadas de la matriz B en la base B son

1 2
1 0
0 1
0 0
=1
+2
+0
2 0
0 0
1 0
0 1
es decir, (1, 2, 0); luego el subespacio ortogonal vendr dado por las matrices de coordenadas (x, y, z) tales que

x
1 1
0

1 y = 0
1 2 0 1 2
z
0 1 1
es decir,

3 5 2

Por tanto,
hBi =
3.

x y
y z

x
y = 3x + 5y 2z = 0
z

S2 (R) : 3x + 5y 2z = 0

Tomamos como primer vector de la base ortogonal la matriz

1 0
0 0
que tiene como coordenadas (1, 0, 0). Hallemos su subespacio ortogonal,

x
x
1 1
0

1 1 0 y
1 y =
1 0 0 1 2
z
z
0 1 1
= x+y =0
Un vector de este subespacio es, por ejemplo, (0, 0, 1) que ser el segundo
vector vector de la base. Buscamos ahora un tercer vector de coordenadas

Els autors, 2002; Edicions UPC, 2002

336CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


(x, y, z) ortogonal con
tendr que cumplir

0 0 1 1
0

los dos anteriores. Para que sea ortogonal a (0, 0, 1)

x
x
1
0

0 1 1 y
2
1 y =
z
z
1 1
= y + z = 0

Por tanto, este tercer vector debe satisfacer

x+y =0
y + z = 0
Por ejemplo, podemos tomar (1, 1, 1). Por lo tanto, una base ortogonal
respecto a f es



1 1
1 0
1 1
0
B =
,
,
1
1
0 0
1 0
4.

La matriz de la forma cuadrtica q asociada a f coincide con A en la


base B. Para clasificarla debemos expresarla en una base ortonormal. Si
tomamos como base ortonormal la que acabamos de calcular, entonces la
matriz de cambio de base es

1 0 1
P = 0 0 1
0 1 1
y, por tanto, la nueva matriz
t

1 1
1 0 1
0 0 1 1 2
0 1
0 1 1

de q en la

0
1
1

y su expresin en esta base es

base B0 ser


1 0 0
1 0 1
0 0 1 = 0 1 0
0 0 0
0 1 1

q(x0 , y 0 , z 0 ) = (x0 )2 + (y 0 )2
y, en consecuencia, es una forma cuadrtica positiva, ya que slo contiene
trminos positivos por qu?

Ejercicio 84 Sea E un espacio vectorial de dimensin cuatro sobre el cuerpo de


los nmeros reales y B = (e1 , e2 , e3 , e4 ) una base, respecto de la cual las coordenadas de un vector genrico x se representan por (x1 , x2 , x3 , x4 ). Consideremos
la forma cuadrtica definida sobre E por
q(x) = x21 + 3x22 x23 + 4x1 x2 + 2x1 x3 + 2x1 x4 + 2x2 x4 2x3 x4
Se pide:

Els autors, 2002; Edicions UPC, 2002

16.2. ORTOGONALIDAD RESPECTO A UNA FORMA BILINEAL SIMTRICA337


1.

Clasificar la forma cuadrtica.

2.

Calcular una base del ncleo de la polar de q.

3.

Sea F el subespacio vectorial de E definido por las siguientes ecuaciones

x1 x3 + 2x4 = 0
x2 x3 x4 = 0
en la base B. Hallar la matriz de q sobre F, indicando la base utilizada en
F.

4.

Determinar un subespacio vectorial de E de dimensin mxima tal que la


restriccin de q a l sea una forma cuadrtica definida positiva. Dar la
dimensin y una base de dicho subespacio.
Solucin:

1.

La matriz asociada a q en la base

1
2
A=
1
1

B es
2
2
0
1

1
0
1
1

1
1

1
0

Observemos que q(e1 ) = 1 > 0 y q(e3 ) = 1 < 0; luego q es indefinida.


Adems, q es degenerada ya que det A = 0.
2.

La polar de q es la forma bilineal simtrica f cuya matriz en la base B es


A. Por tanto, el ncleo de f se calcular por

x1
1 2 1
1

2 2 0

1
x2

1 0 1 1 x3 = 0
1 1 1 0
x4
Como el rango de A es tres, la dimensin del ncleo es uno y, por tanto,
podemos tomar como base el vector (1, 1, 0, 1).

3.

Calculemos una base de F; para ello, resolvamos el siguiente sistema

x1 x3 + 2x4 = 0
x2 x3 x4 = 0
cuyas soluciones son ( 2, + , , ) = (1, 1, 1, 0) + (2, 1, 0, 1) con
, R. Por tanto, una base de F es u1 = (1, 1, 1, 0) y u2 = (2, 1, 0, 1)).
Calculemos ahora la matriz de la restriccin de f a F en la base considerada; para ello, debemos determinar f (u1 , u1 ) = q(u1 ), f (u1 , u2 ) y

Els autors, 2002; Edicions UPC, 2002

338CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


f (u2 , u2 ) = q(u2 ),


1
1
1
1
= 9
1 0
0
0

2
2 1
1

2 0
1
1 = 2
0 1 1 0
1
1 1 0

2
1 2 1
1

2 2 0

1
1
2 1 0 1
q(u2 ) =
1 0 1 1 0 = 3
1
1 1 1 0

2
1 1 1 0
q(u1 ) =
1
1

2
1 1 1 0
f (u1 , u2 ) =
1
1

2
2
0
1

1
0
1
1

Luego, la matriz de la restriccin g de f a F es

9
2
2 3

y si representamos por (y1 , y2 ) las coordenadas de un vector de F con


repecto a la base considerada, la expresin de la restriccin de q a F es
q(y1 , y2 ) = 9y12 3y2 4y1 y2
4.

En primer lugar debemos calcular el valor de s, es decir, el nmero de


trminos positivos que contiene la forma cuadrtica al expresarla en una
base ortonormal respecto a f . Para ello, debemos calcular una base ortogonal de E respecto a f . Tomemos como primer vector (1, 0, 0, 0); las
coordenadas del segundo (x1 , x2 , x3 , x4 ) deben cumplir,

x1
1 2 1
1

2 2 0
1
x2
1 0 0 0
1 0 1 1 x3 = x1 + 2x2 + x3 + x4 = 0
1 1 1 0
x4
y, tomamos, por ejemplo, (1, 0, 1, 0); el tercer vector debe satisfacer,
adems de esta ltima ecuacin, la siguiente,

x1
1 2 1
1

2 2 0
1
x2
1 0 1 0
1 0 1 1 x3 = 2x2 + 2x3 + 2x4 = 0
1 1 1 0
x4

y, tomamos, (0, 0, 1, 1); por ltimo,


anteriores y la siguiente

1 2 1

2 2 0
0 0 1 1
1 0 1
1 1 1

el cuarto deber satisfacer las dos

x1
1
x2
1

1 x3
0
x4

Els autors, 2002; Edicions UPC, 2002

= x2 + x4 = 0

16.3. FORMAS BILINEALES SIMTRICAS REALES

339

y, tomamos, (1, 1, 0, 1). Por tanto, B0 = ((1, 0, 0, 0), (1, 0, 1, 0), (0, 0, 1, 1), (1, 1, 0, 1))
es una base ortonormal de E respecto a f . La matriz de q respecto a esta
ltima base se calcular como sigue,

1
0

0
0

1
0
1
0

0
0
1
1

t
1
1 2
2 2
1

0 1 0
1
1 1

1
0
1
1

1 1
1
0 0
1

1 0 1
0 0
0

0
0
1
1


1 0 0 0
1
0 2 0 0
1
=
0 0 0 1 0
0 0 0 1
1

y a la vista de los elementos de la diagonal tenemos que s = 2. Por tanto,


la dimensin mxima de un subespacio de E para el que la restriccin de la
forma cuadrtica es definida positiva es dos. Si llamamos v1 = (1, 0, 0, 0)
y v3 = (0, 0, 1, 1), es evidente que el subespacio vectorial G = hv1 , v3 i
cumple la condicin exigida y una base es v1 y v3 .

16.3.

Formas bilineales simtricas reales

Ejercicio 85 Consideremos en R3 las formas cuadrticas q1 y q2 con matrices

2
1
0
1 0 1
1 1 y M2 = 0 3
1
M1 = 1
0 1
3
1 1
2

en la base cannica, respectivamente. Averiguar si q1 y q2 son equivalentes en


R3 .
Solucin: En un espacio euclideo dos formas cuadrticas q1 y q2 son equivalentes si existe una base ortonormal respecto a la cual las matrices de las dos
formas cuadrticas coinciden. Ahora bien, como las formas cuadrticas reales
admiten siempre una representacin matricial diagonal en una base ortonormal, el polinomio caracterstico es un invariante completo para la clasificacin
euclidea de las formas cuadrticas. Calculando los polinomios caractersticos de
ambas matrices tenemos,
det(M1 I3 ) = 3 + 62 9 + 1
det(M2 I3 ) = 3 + 62 9 + 2
A la vista de los resultados es evidente que las dos formas no son equivalentes.
Sin embargo, obsrvese que, para ambas formas cuadrticas, la sucesin de signos del polinomio caracterstico coincide,
+ +
Por tanto, las signaturas de ambas formas coinciden y su valor es (3, 0).

Els autors, 2002; Edicions UPC, 2002

340CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Ejercicio 86 Consideremos la forma cuadrtica q de R3 definida por
q(x) = 2x2 + y 2 + 3z 2 + 4xy + 4yz
y el subespacio vectorial F engendrado por los vectores de coordenadas u1 =
(2, 0, 1) y u2 = (1, 1, 1). Estudiar si la restriccin de q a F es definida positiva
o negativa, o indefinida.
Solucin: La matriz de q y de la forma bilineal simtrica asociada f en la
base cannica es,

2 2 0
2 1 2
0 2 3

Encontremos la matriz de la restriccin al subespacio F, para ello debemos calcular q(u1 ), f (u1 , u2 ) y q(u2 ),

2
2 2 0

2 0 1 2 1 2 0 = 5
q(u1 ) =
1
0 2 3

1
2 2 0

2 0 1 2 1 2 1 = 5
f (u1 , u2 ) =
1
0 2 3

1
2 2 0

1 1 1 2 1 2 1 = 10
q(u2 ) =
1
0 2 3
Por tanto, la matriz de la restriccin a F es,

5 5
5 10

que es una forma cuadrtica indefinida, ya que a la vista de su polinomio caracterstico 75 5x + x2 tiene signatura (1, 1) por qu?
Ejercicio 87 Consideremos la forma cuadrtica q de R3 definida por
q(x) = 2x2 2xy + y 2 + 2xz
Para cada t [0, 1], consideramos el subespacio vectorial Ft = h(1, 1, 0), (t, 1, t)i
y qt : Ft R, la restriccin de q sobre Ft . Considerando en R3 el producto
escalar ordinario,
1.

Dar la matriz de qt en una base de Ft .

2.

Clasificar qt segn los valores de t [0, 1].

3.

Si ft es el endomorfismo simtrico asociado a qt , sea E un espacio euclideo


y f un endomorfismo simtrico E, se llama forma cuadrtica asociada
a f la forma cuadrtica qf sobre E que satisface qt (x) = x f (x) para todo
x E, hallar la matriz de ft en una base de Ft .

Els autors, 2002; Edicions UPC, 2002

16.3. FORMAS BILINEALES SIMTRICAS REALES

341

Solucin:
1.

La matriz de q y de la forma bilineal simtrica f asociada a q en la base


cannica es,

2 1 1
1
1 0
1
0 0

Designemos por u1 = (1, 1, 0) y u2 = (t, 1, t); para hallar la matriz de la


restriccin qt en la base u1 , u2 debemos calcular q(u1 ), q(u2 ) y f (u1 , u2 ),

1
2 1 1

1 0 1 = 1
1 1 0 1
q(u1 ) =
0
1
0 0

t
2 1 1

1 0 1 = 0
1 1 0 1
f (u1 , u2 ) =
t
1
0 0

t
2 1 1

1 0 1 = 2t + 1
t 1 t 1
q(u2 ) =
t
1
0 0
Por tanto, la matriz de qt en la base u1 , u2 de Ft es

1
0
AFt =
0 1 2t

2.

A la vista de la matriz hallada en el apartado anterior, es claro que qt es


definida positiva si y slo si 1 2t > 0, es decir, t < 1/2. Si t = 1/2,
entonces qt es positiva y degenarada, y, si t > 1/2, qt es indefinida.

3.

Calculemos la matriz del producto escalar


Ft ,

1

1 1 0 1
0

1 1 0 1
t

t 1 t 1
t

ordinario de R3 restringido a

= 2

= t+1

= 1 + 2t2

Por tanto, la matriz del producto escalar sobre Ft es

2
t+1
GFt =
t + 1 1 + 2t2

Els autors, 2002; Edicions UPC, 2002

342CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


y, en consecuencia, si MFt es la matriz del endomorfismo simtrico asociado a qt tenemos
AFt = GFt MFt
es decir,
MFt

16.4.

= G1
Ft AFt
1

1
0
2
t+1
=
0 1 2t
t + 1 1 + 2t2

2
1
1 + 2t 1 + t + 2t2
=
1 t
2 4t
1 2t + 3t2

Procedimientos

Ejercicio 88 Dada la familia de formas cuadrticas en R3


q (x) = x2 + y 2 + ( + 1)z 2 + 2yz + 2zx
1.

Clasificar las formas cuadrticas segn los distintos valores reales del parmetro
.

2.

Para = 2, obtener el ortogonal del subespacio vectorial F definido por


las ecuaciones siguientes

xy =0
y=0

3.

Diagonalizar la forma para = 3 por el mtodo de Gauss.

4.

Para = 4 diagonalizar la forma encontrando una base de vectores ortogonales


Solucin:

1.

La matriz asociada a q en la base cannica es

1 0
1

A = 0 1
1 +1
Calculemos los menores principales,
M1
M2
M3
Entonces tenemos:

= 1>0

1 0
=
0 1

1 0

= 0 1
1

=1>0

1
= (1 )
+1

Els autors, 2002; Edicions UPC, 2002

16.4. PROCEDIMIENTOS

2.

343

a)

Si < 0, como M3 < 0, q es indefinida y no degenerada

b)

Si 0 < < 1, como M3 > 0, q es definida positiva

c)

Si = 0 o = 1, como M3 = 0, q es positiva y degenerada

d)

Si > 1, como M3 < 0, q es indefinida y no degenerada

Observemos que F = h(0, 0, 1)i y, por tanto, el subespacio ortogonal vendr


definido por,

x
1 0 1

x y z 0 1 2 y = 0
z
1 2 3
x + 2y + 3z = 0
Por tanto,
F = {(x, y, z) R3 : x + 2y + 3z = 0}

3.

Para = 3, tenemos
q3 (x) = x2 + y 2 + 4z 2 + 6yz + 2zx
= (x + z)2 + y 2 + 3z 2 + 6yz
= (x + z)2 + (y + 3z)2 6z 2
Mediante el siguiente cambio de coordenadas,
0
x =x+z
y 0 = y + 3z
0
z =z

se obtiene la siguiente forma reducida,

q(x0 ) = (x0 )2 + (y 0 )2 6(z 0 )2


4.

Para = 4, tenemos
q4 (x) = x2 + y 2 + 5z 2 + 8yz + 2zx
Vamos a construir una base ortogonal respecto a q4 . Tomamos como primer
vector de esta base el vector (1, 0, 0). El subespacio ortogonal con (1, 0, 0)
vendr dado por

x
1 0 1

1 0 0 0 1 4 y = 0
z
1 4 5
x+z = 0

Els autors, 2002; Edicions UPC, 2002

344CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


Un vector de este subespacio, por ejemplo, (0, 1, 0) ser el segundo vector
de la base. Por ltimo, buscamos un vector de coordenadas (x, y, z) que
sea ortogonal a los dos anteriores. El subespacio ortogonal con (0, 1, 0) es

x
1 0 1

0 1 0 0 1 4 y = 0
z
1 4 5
y + 4z = 0
Por tanto, (x, y, z) tiene que ser solucin del siguiente sistema,

x+z =0
y + 4z = 0
Por ejemplo, (1, 4, 1) puede ser el tercer vector de la base. Por lo tanto,
la base ortogonal respecto a q4 es,
B = ((1, 0, 0), (0, 1, 0), (1, 4, 1))
La forma reducida correspondiente se hallar calculando primero
q4 (1, 0, 0) = 1
q4 (0, 1, 0) = 1
q4 (1, 4, 1) = 12
Por tanto,
q4 (x0 ) = (x0 )2 + (y 0 )2 12(z 0 )2
Ejercicio 89 Consideremos en R3 la familia de formas cuadrticas q cuya
matriz respecto a la base cannica es

1 0
A = 0 1 1
1 0
Calcular las signaturas de las formas cuadrticas segn los valores reales del
parmetro .
Solucin: Calculamos el determinante de A ,

1 0

0 1 1 = 1 2

1 0

Como R, 1 2 6= 0 para todo valor de . As, las formas cuadrticas


no son degeneradas para todo valor de R. Calculamos ahora el polinomio
caracterstico,
det(A tI3 ) = t3 + 2t2 + 2 t (1 + 2 )

Els autors, 2002; Edicions UPC, 2002

16.4. PROCEDIMIENTOS

345

y como 2 0 y 1 + 2 > 0 para todo R, obtenemos la siguiente sucesin


de signos entre los coeficientes,
+ +
con dos cambios de signo. Como adems q es no degenerada, la signatura es
(2, 1) para todo valor R.

Els autors, 2002; Edicions UPC, 2002

346CAPTULO 16. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS

Els autors, 2002; Edicions UPC, 2002

Parte III

Apndices

347

Els autors, 2002; Edicions UPC, 2002

Els autors, 2002; Edicions UPC, 2002

Apndice A

Espacios vectoriales
1. Demostrar que el conjunto C de los nmeros complejos, con las operaciones
(a + bi) + (c + di) = (a + c) + (b + d)i
(a + bi) = a + bi
tiene estructura de espacio vectorial real.
2. Considerese el conjunto de las funciones definidas sobre el intervalo [0, 1]
y tales que 2f (0) = f (1). Forman un espacio vectorial real?
3. Considerese el conjunto de los polinomios de grado inferior o igual a 4,
sobre un cuerpo K (comprendido el polinomio nulo). Forman un espacio
vectorial sobre K?
4. Consideremos el espacio vectorial real F(R, R) de las funciones reales de
variable real. Determinar cules de los siguientes subconjuntos son subespacios vectoriales: (a) S1 = {f F(R, R) : f (x) = f (x), x R};
(b) S2 = {f F(R, R) : f (x) = f (x), x R}; (c) S3 = {f
F(R, R) : f es continua}; (d) S4 = {f F(R, R) : f (x) 0, x R};
(e) S5 = {f F(R, R) : f es dos veces derivable y f 00 f 0 + f = 0}; (f)
S6 = {f F(R, R) : f (1) = f (2) + 3}.
5. Consideremos el espacio vectorial real Mnm (R) de las matrices de orden
n m con coeficientes reales. Determinar cules de los siguientes subconjuntos son subespacios vectoriales:
Pn (a) S1 = {A Mnm (R) : a11 = 0};
(b) S2 = {A Mnm (R) :
i=1 aii = 0, n = m}; (c) S3 = {A
Mnm (R) : aij = aji , i, j, n = m}.

6. Considrese
las inclusiones Q Q( 3 5) R C, siendo Q( 3 5) = {a +

b 3 5 : a, b Q}. Demostrar que cada uno de estos cuerpos es un espacio


vectorial sobre el anterior.
349

Els autors, 2002; Edicions UPC, 2002

350

APNDICE A. ESPACIOS VECTORIALES

7. Escribir el vector w = (2, 2, 3) como una combinacin lineal de los vectores del sistema S = (v1 , v2 , v3 ) de R3 , siendo v1 = (2, 1, 4), v2 =
(1, 1, 3), v3 = (3, 2, 5).
8. Escribir el polinomio p(x) = 2 + 2x + 3x2 como una combinacin lineal de
los polinomios p1 (x) = 2+x+4x2 , p2 (x) = 1x+3x2 , p3 (x) = 3+2x+5x2
de R2 [x].
9. Averiguar si la matriz
A=

1 7
5 1

es o no una combinacin lineal de las matrices

1 2
0 1
4 2
M1 =
, M2 =
, M3 =
1 3
2 4
0 2
de M2 (R).
10. (a) Exprese (4a, a b, a + 2b) como una combinacin lineal de (4, 1, 1) y
(0, 1, 2). (b) Exprese (3a + b + 3c, a + 4b c, 2a + b + 2c) como una
combinacin lineal de (3, 1, 2) y (1, 4, 1). (c) Exprese (2a b + 4c, 3a
c, 4b + c) como una combinacin lineal de tres vectores diferentes de cero.
11. Exprese v = (1, 1) como una combinacin lineal de v1 = (1, 1), v2 =
(3, 0), v3 = (2, 1), de dos maneras distintas.
12. Expresar (si es posible) los siguientes elementos de F(R, R) como una
combinacin lineal de las familias correspondientes: (a) sin x y (1, x, x2 , ...);
(b) x2 + x 1 y (1,x 1, (x 1)2 ); (c) 1 y (x + 1, x2 1, x3 + 1); 0 y
((x 1)2 , x, x2 + 2, 3).
13. En el espacio vectorial R4 se considera el subespacio engendrado por
los vectores (2, 3, 1, 5) y (0, 2, 1, 3). Hallar a y b para que el vector
(2, a, 3, b) pertenezca a dicho subespacio.
14. Hallar un sistema generador S del espacio vectorial de las soluciones de
los siguientes sistemas lineales homogneos:

2x 3y + z = 0
x + 4y + 8z = 0
6x 9y + 3z = 0
(b)
(a) 2x + 5y + 6z = 0

4x + 6y 2z = 0
3x + y 4z = 0

15. De los sistemas siguientes, determinar cules engendran R3 . En caso negativo, dar una descripcin geomtrica del subespacio que engendran. (a)
S1 = ((4, 7, 3), (1, 2, 6), (2, 3, 5)); (b) S2 = ((2, 5, 0), (4, 6, 3)); S3 =
((1, 0, 3), (2, 0, 1), (4, 0, 5), (2, 0, 6)).

Els autors, 2002; Edicions UPC, 2002

351
16. Hallar un sistema de ecuaciones lineales homogneas cuyo espacio de soluciones es cada uno de los siguientes subespacios vectoriales:
S1
S2
S3
S4

= h(1, 2, 0, 3), (1, 1, 1, 4), (1, 0, 2, 5)i


= h(1, 2, 0, 1)i

= 8 + 3x, 2x + 3x2 (considerado como subespacio de R2 [x] )

0 1
0 1
3 1
=
,
,
3 1
1 3
1 0

17. Se consideran los subespacios S y T de R4 definidos como sigue:


S = {(x, y, z, t) R4 : x = y = z}
T = {( + + + 3, + + 2, + , + ) : , , , R}
(a) Est T S? (b) Calcular S T.
18. Hallar S T y S + T, siendo
S
T

= h(1, 0, 1), (1, 1, 0)i


= h(1, 2, 3), (0, 0, 1)i

Averiguar si la suma es o no directa. Averiguar tambin si S y T son o no


subespacios suplementarios respecto R3 .
19. Demostrar que los sistemas S1 = ((1, 2, 1), (2, 1, 0)) y S2 = ((4, 7, 2), (1, 7, 3))
de R3 son equivalentes.
20. En el espacio vectorial R4 se consideran los vectores (1, 2, 0, a), (3, 2, b, 1), (2, 7, a, 3).
Determinar a y b para que estos vectores sean linealmente dependientes.
21. En R4 estudiar la independencia lineal de los vectores
(1, 7, 1, 0), (2, 13, 0, 1), (3, 17, 4, 2), (0, 5, 2, 1)
22. Probar que si u1 , u2 , u3 son vectores linealmente independientes de un
espacio vectorial E, tambin lo son u1 + u2 , u2 + u3 , u1 + u3 .
23. Calcular el espacio vectorial cociente del espacio vectorial R4 mdulo el
subespacio F, siendo: (a) F = {(x, y, z, t) : x + y = z t = 0}; (b) F =
h(1, 1, 1, 1), (1, 2, 3, 4), (1, 3, 5, 6)i; (c) F = {(x, y, z, t) : x + y = x y =
z + t = x t = 0}.
24. Sean

a b
M ={
: a, b, c R}
0 c

ab
2a
0
M ={
: a, b R}
b
a + 2b

Hallar una base de M22 (R)/M y M22 (R)/M 0 .

Els autors, 2002; Edicions UPC, 2002

352

APNDICE A. ESPACIOS VECTORIALES

25. Determinar los rangos de los sistemas R4 y eventualmente las relaciones entre los vectores de Si (i = 1, 2). (a) S1 : v1 = (1, 0, 1, 0), v2 = (2, 1, 0, 1), v3 =
(0, 2, 1, 1), v4 = (3, 1, 2, 0); (b) S2 : v1 = (1, 0, 2, 3), v2 = (7, 4, 2, 1), v3 =
(5, 2, 4, 7), v4 = (3, 2, 0, 1).
26. Determinar, segn los valores de (o de , , ) los rangos de los sistemas
S1 , S2 , S3 de vectores de R3 . (a) S1 : v1 = (, 1, 1), v2 = (1, , 1), v3 =
(1, 1, ); (b) S2 : v1 = (, 1, 1), v2 = (1, , 1), v3 = (1, 1, );
S3 : v1 = (0, , ), v2 = (, 0, ), v3 = (, , 0).
27. Determinar una base del subespacio F de R4 descrito por (x, y, z, t) del
que se sabe que x = y 3z y z = t. Completar la base obtenida para
obtener una base de R4 .
28. En R3 verificar que los vectores a, b, c son independientes y calcular las
coordenadas de x respecto de la base (a, b, c). Los vectores son a =
(1, 1, 1), b = (1, 1, 1), c = (1, 1, 1) y x = (2, 3, 1).
29. Determinar el rango del sistema de vectores vi (i = 1, ..., n) de Rn que
tienen coordenadas ij = 1+ ( 1) ij , en donde es un escalar conocido
y ij es el smbolo de Kronecker.
30. Sean F, G, H subespacios del espacio vectorial E. Demostrar o dar contraejemplos de las afirmaciones siguientes:
a) F (G + H) = (F G) + (F H)

b) F + (G H) = (F + G) (F + H)

c) dim(F (G + H)) = dim(F G) + dim(F H) + dim(F G H)


31. Consideremos el espacio vectorial R3 [t] de los polinomios con coeficientes
reales de grado a lo sumo tres. Sean F y G los subespacios
F = {p(t) R3 [t] : p(0) = p(1) = p0 (1/2) = p000 (0) = 0}

G = ht + 1, t, t 1i

a) Calcular sus dimensiones y hallar una base de cada uno de ellos


b) Consideremos los polinomios t2 5t + 2 y 3t 4. Se pide: (i) Son de
G? (ii) En caso afirmativo, hallar , , R tales que
p(t) = (t + 1) + t + (t 1)
siendo p(t) cada uno de los dos polinomios anteriores. (iii) Son estos
, , nicos? En caso afirmativo, justificar la respuesta. En caso contrario, hallarlos.
c) Calcular las dimensiones y hallar una base de F + G y F G. Es la
suma F + G directa?
d) Hallar una base de un complementario de F + G en R3 [t].

Els autors, 2002; Edicions UPC, 2002

353
32. Consideremos en C3 el sistema S = ((2 i, 1, 1), (1, 2 + i, 3), (1, 2 + 3i, 2)).
Averiguar: (a) Si S es un sistema generador de un subespacio de C3 de
dimensin 1; (b) Si S es un sistema generador de un subespacio de C3 de
dimensin 2; (c) Es una base de C3 ? (d) Es un sistema libre?

Els autors, 2002; Edicions UPC, 2002

354

APNDICE A. ESPACIOS VECTORIALES

Els autors, 2002; Edicions UPC, 2002

Apndice B

Aplicaciones lineales
1. Es lineal la aplicacin f : R2 R3 definida por f (x, y) = (2x + y, x
y, 3y)?
Solucin: S.
2. Sea la aplicacin f : R3 M2 (R) dada por

x1 x2 x2 x3
.
f (x1 , x2 , x3 ) =
x3 x1 x1 x2
Demostrar que es lineal.
3. Sea la aplicacin lineal f : R4 R3 dada por f (x, y, z, t) = (x+y, xt, 3z).
Calcular el valor de para que el vector v = (22, 4, 0, 2) pertenezca
a N uc f .
Solucin: = 2.
4. Consideremos las aplicaciones f : M2 (R) R2 [x] definida por

a b
f
= a + (b + c)x2
c d
y g : R2 [x] R2 [x] definida por
g(P (x)) = P(x) (derivada de P (x))
a) Es f inyectiva? Es g inyectiva?
b) Calcular las matrices asociadas a f y g en las bases cannicas de
M2 (R) y R2 [x]:

1 0
0 1
0 0
0 0
,
,
,
,
Base de M2 (R) :
0 0
0 0
1 0
0 1
Base de R2 [x] : {1, x, x2 }

355

Els autors, 2002; Edicions UPC, 2002

356

APNDICE B. APLICACIONES LINEALES


c) Calcular una base y la dimensin de Im f y N uc g
d) Calcular la matriz de g f en las bases cannicas de M2 (R) y R2 [x].



1 0
1 1
1 1
e) Calcular la matriz de gf en las bases V y W, siendo V =
,
,
0 0
0 0
1 0
y W = {1 + x + x2 , 1 + 2x + x2 , x2 }
Solucin: f y g no son inyectivas; la matriz asociada a f es

1 0 0 0
0 0 0 0
0 1 1 0
La matriz asociada a g es

0 1 0
0 0 2
0 0 0

Base de Im f : {1, x2 }. Dim Im f = 2. Base de N uc g : {1}. Dim N uc g =


1;

0 2 4 4
0 0 0 0
0 2 2 0 y 0 2
4
4
0 0
0
0
0 0 0 0
5. Sean f y g dos endomorfismos de un espacio vectorial, tales que f g = gf .
Demostrar:
a) f (ker g) ker g

b) f (Im g) Im g
Indicacin: Usar las definiciones de N uc e Im.

6. Sean E y F espacios vectoriales sobre K y f una aplicacin lineal de E en


F. Demostrar que la aplicacin : E F E F definida por (u, v) =
(u, v f (u)) es un automorfismo de E F.
Indicacin: Hay que demostrar que es lineal, inyectiva y exhaustiva.
Para demostrar que es exhaustiva, recuerda el Teorema 3.

7. Sea E un espacio vectorial sobre K. Si f es un endomorfismo idempotente


(f 2 = f ), demostrar que E = N uc f Im f .
Indicacin: Hay que demostrar que N uc f Im f = {0}, y que E = N uc f +
Im f. Observa que x = x f (x) + f (x).

8. Sea E un espacio vectorial sobre un cuerpo K de caracterstica 6= 2, y f un


endomorfismo de E, tal que f 2 = IE . Sean F = {x E : f (x) = x}, G =
{x E : f (x) = x}. Demostrar:
a) F y G son subespacios de E.

Els autors, 2002; Edicions UPC, 2002

357
b) E = F G.
Indicacin: Para probar que E = FG hay que demostrar que FG = {0}
y que E = F + G. Observa que x = 12 (x + f (x)) + 12 (x f (x)).
9. Se definen las aplicaciones lineales f y g de la siguiente manera
f
g

: R3 R4
: R4 R2

con f (x1 , x2 , x3 ) = (x1 x2 , x1 x3 , 0, x1 )


con g(y1 , y2 , y3 , y4 ) = (y1 + y4 , y1 y2 )

Calcular:
a) La matriz asociada a f en las bases cannicas de R3 y R4 .
b) La matriz asociada a g en las bases cannicas de R4 y R2 .
c) La matriz asociada a g f en las bases cannicas de R3 y R2 .

d) ker (g f )
Solucin:

1 1 0

1 0 1
1 0 0 1
2 1 0
,

y
0 0
0
1 1 0 0
0 1 1
1 0
0
y ker (g f ) = h(1, 2, 2)i.

10. Se considera el subconjunto M de matrices cuadradas 2 2 definido de la


forma siguiente:

a b
M=
: a, b, c R
c 0
y la aplicacin f : M M definida por

a b
ab ba
f
=
.
c 0
c
0
Demostrar que f es lineal, y calcular la matriz asociada a f en la base

1 0
0 1
0 0
e1 =
, e2 =
, e3 =
0 0
0 0
1 0
de M.

La matriz asociada a f es

1 1 0
1 1 0
0
0 1

Els autors, 2002; Edicions UPC, 2002

358

APNDICE B. APLICACIONES LINEALES

11. Sea la aplicacin lineal f : R3 R2 dada por f (x, y, z) = (x 2y, y +


z). Calcular su matriz en las bases {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R3 y
{(1, 0), (1, 1)} de R2 .
Solucin:

1 3 1
0 1
1

12. Sea f la aplicacin entre los espacios M2 (R) y R2 [x] definida por

a b
f
= ax2 + (b c)x + d
c d
a) Es f lineal?
b) Calcular la matriz de f en las bases cannicas de M2 (R) y R2 [x]:

1 0
0 1
0 0
0 0
,
,
,
,
Base de M2 (R) :
0 0
0 0
1 0
0 1
Base de R2 [x] : {x2 , x, 1}

c) Calcular N uc f y Im f.
d) Es f inyectiva? Es f exhaustiva? Es f biyectiva?
Solucin: S;

1 0 0 0
0 1 1 0
0 0 0 1

0 1
ker f =
, Im f = R2 [x]; f es exhaustiva, pero no es
1 0
inyectiva ni biyectiva.

1 1
la matriz de un endomorfismo f de R2 en la base
13. Sea A =
0 1
cannica. Sean u1 = (0, 1), u2 = (1, 1) una base de R2 . Calcular la matriz de f en esta nueva base.
Solucin:

0 1
1 2

14. Dada la aplicacin f : R2 R3 definida por


f (1, 0) = (2, 1, 0)
f (2, 1) = (4, 0, 2)
calcular su matriz en las bases cannicas de R2 y R3 .
Solucin:

2 0
1 2
0 2

Els autors, 2002; Edicions UPC, 2002

359
15. Sea f : E E una aplicacin lineal, y {e1 , e2 , e3 } una base de E. Se define
f por
f (e1 e2 ) = 0
f (e1 + e2 + e3 ) = 4e2 + 5e3
f (e2 + e3 ) = 3e2 + 3e3
Hallar la imagen de v = 3e1 + 4e2 + 6e3 .
16. Consideremos la aplicacin lineal f : R3 [x] M2 (R) definida por

a
bd
f (ax3 + bx2 + cx + d) =
.
cb
0
a) Calcular su matriz en las bases cannicas de R3 [x] y M2 (R):
Base de R3 [x] : {x3 , x2 , x, 1},

1 0
0 1
0 0
0 0
Base de M2 (R) :
,
,
,
0 0
0 0
1 0
0 1
b) Calcular una base de N uc f.
Solucin:

y N uc f = h(0, 1, 1, 1)i.

1 0 0 0
0 1 0 1

0 1 1 0
0 0 0 0

17. Dado un endomorfismo f de un espacio vectorial E de dimensin finita n,


demostrar que los conjuntos
F = {g L(E, E) : f g = 0} y G = {g L(E, E) : g f = 0}
son subespacios vectoriales de L(E, E).
18. Sea f L(E, E). Demostrar que N uc f = Im f si, y slo si, dim E es par,
E
f 2 = 0 y el rango de f es dim
2 .

Els autors, 2002; Edicions UPC, 2002

360

APNDICE B. APLICACIONES LINEALES

Els autors, 2002; Edicions UPC, 2002

Apndice C

Matrices
1. Escribir la matriz real A de orden 2 3 tal que aij = (1)i+j .
2. Para qu valores de u y v son iguales las dos matrices siguientes?

4
4
u
(1 u)2 v 2 3

v
2u 5 y v 3v u v
6 v+5
1
6
u 1
3. Calcular A + B, A B, y 5A 3B, sabiendo que

0 1 1
1 1 5
A=
yB=
2 3 7
0 1 9
4. Determinar dos matrices X, Y tales que

1 1
2X 5Y =
2 1
2 1
X + 2Y =
4 1

5. Estudiar la dependencia lineal de las tres matrices siguientes

1 1
0 1
2 3
,
,
2 3
1 1
1 4
6. En M3 (R) consideramos el subconjunto S de las matrices mgicas. Una
matriz A se llama mgica si las ocho sumas siguientes son iguales.
3
X
i=1

aij (j = 1, 2, 3),

3
X

aij (i = 1, 2, 3),

j=1

3
X

aii , a13 + a22 + a31

i=1

Demostrar que S es un subespacio de M3 (R), dando su dimensin y una


base.
361

Els autors, 2002; Edicions UPC, 2002

362

APNDICE C. MATRICES

7. Una aplicacin lineal aplica (2, 3) en (1, 0) y (3, 2) en (1, 1). Hallar la
matriz que representa a esta aplicacin lineal.
8. Dado el espacio vectorial Mn (R) de las matrices cuadradas de orden n
con coeficientes reales.
a) Demostrar que el conjunto S de las matrices simtricas y el conjunto
T de las matrices antisimtricas son subespacios de Mn (R)
b) Demostrar que Mn (R) = S T

c) Calcular la dimensin y una base de S y T

Descomponer la matriz

1 2 1
6 1 4
2 3 5

en suma de una matriz simtrica y otra antisimtrica


9. Si A es una matriz idempotente, es decir, verifica que A2 = A, probar que
es idempotente la matriz B = I A y que AB = BA = O.
10. Dadas las matrices

1
A= 0
0

Calcular An y B n .

1
n

1
0

1
n

0
1

y B=

cos sin
sin cos

11. Sea B1 = (u1 , u2 , u3 ), con u1 = (1, 2, 1), u2 = (0, 3, 1) y u3 = (2, 0, 3), una
base de R3 . Hallar la matriz respecto a la base cannica de la aplicacin
lineal que hace corresponder a cada vector su primera coordenada en la
base B1 .
12. Sea E un espacio vectorial real de dimensin 3 y B1 = (e1 , e2 , e3 ) una base
del mismo. Sea f un endomorfismo de E cuya matriz en esta base es

2 0 1
1 1 0
2 0 2
y g el endomorfismo de E determinado por

g(e1 ) = e1 + e3
g(e2 ) = 2e1 + e2 + 3e3
g(e3 ) = 3e1 + e2 + 4e3
Hallar las matrices asociadas a los endomorfismos g f y 2f 3g.

Els autors, 2002; Edicions UPC, 2002

363
13. Calcular el rango de las matrices

a 0 b
A3 = b a 0
0 b a
Generalizarlo para An .

a 0 0 b
b a 0 0

y A4 =
0 b a 0
0 0 b a

14. Calcular por transformaciones elementales


matriz

1 0 0 0
0 0 3 0

A=
0 0 0 6
0 1 0 0
0 0 1 0

de tipo fila la inversa de la

0
3

0
1

15. Calcular por transformaciones elementales de tipo columna, la inversa de


la matriz

2 0 1
A= 1 0 1
1 1 1
16. Calcular la matriz triangular equivalente a

3 1 0
1 1 1
A=
0 1 2
1 2 1

la matriz

0
1

1
2

utilizando nicamente transformaciones de tipo fila.

Els autors, 2002; Edicions UPC, 2002

364

APNDICE C. MATRICES

Els autors, 2002; Edicions UPC, 2002

Apndice D

Determinantes
1. Sea el espacio vectorial R2 . Se considera la aplicacin f : R2 R2 R
definida por
f (x, y) = x1 y1 x2 y2
con x = (x1 , x2 ), y = (y1 , y2 ). Estudiar si f es una forma bilineal. Es
simtrica? Es antisimtrica? Es alternada?
2. Calcular el determinante de la matriz A = (aij ), donde aij = |i j|.
3. Probar que (x 1)3 divide al polinomio

1 x x2 x3

1 1
1
1

1 2
3
4

1 4
9 16

4. Dada la matriz

M=

0 A
adj A 0

calcular det M en funcin de det A. (adj A indica la matriz adjunta de A,


que se obtiene a partir de A sustituyendo cada elemento por su adjunto).
5. Descomponer el polinomio de C [x]

1 + x + x2
1
1

1
1
+
x
+
x
1

1
1
1 + x + x2

1
1
1

1
1
1

1
1
1
1 + x + x2
1

en factores irreducibles.

365

Els autors, 2002; Edicions UPC, 2002

1
1
1
1
1 + x + x2

366

APNDICE D. DETERMINANTES

6. Sea E el espacio vectorial de las funciones reales de variable real generado


por sin y cos. Calcular el determinante del endomorfismo de E definido
por la derivacin.
7. Sea A una matriz cuadrada de orden n y adj A, la matriz adjunta de A.
Demostrar:
n1

a) det(adj A) = (det A)
b) Si rang A = n 1, entonces rang (adj A) = 1
8. Consideremos el determinante
k
1
2k
k
2
3k

D (n, k) = .
..
..
.

nk (n + 1)k

..
.

k
(2n 1)
nk
k
(n + 1)
..
.

a) Calcular D (1, 1) , D (2, 1) , D (3, 1) , D (4, 1)


b) Demostrar que D (n, 2) = 0, para todo n > 3
c) Demostrar que D (n, k) = 0, para todo n > k + 1

t
1
9. Demostrar que, si A es invertible, A1 = (At ) .

10. Demostrar que el determinante

0
2
3
4

1
2
1
5

4
4
4
9

es mltiplo de 3.

11. Calcular el determinante de la matriz A cuadrada de orden n tal que


aij = 1 si i = j, y aij = x si i 6= j, para todo 1 i, j n.
12. Calcular el rango de la matriz

1
2
A=
1
2

2
3
1
4

3
4
1
6

4
5
1
8

5
6
1
1

6
7

1
2

13. Hallar las ecuaciones definidoras del subespacio vectorial S = h(1, 1, 1, 1), (1, 2, 3, 4), (3, 2, 1, 0)i
de R4 .

14. Dada la matriz


A=

x x2
2
x

Calcular los valores de x para que puedan existir matrices B cuadradas


de orden 2, no nulas, tales que AB = O.

Els autors, 2002; Edicions UPC, 2002

367
15. Calcular la matriz inversa de la matriz

1 i i
0
A= i 1
i 0
1
siendo i2 = 1.

16. El determinante de Vandermonde

a
D = 2
a3
a

de orden 4 tiene la siguiente forma

1 1 1
b c d
b2 c2 d2
b3 c3 d3

Demostrar que D = (b a)(c a)(d a)(c b)(d b)(d c).

Els autors, 2002; Edicions UPC, 2002

368

APNDICE D. DETERMINANTES

Els autors, 2002; Edicions UPC, 2002

Apndice E

Sistemas de ecuaciones
lineales
1. Dado el sistema

x + by + az = 1
ax + by + z = a

x + aby + z = b

a) Para qu valores de a y b el sistema tiene solucin?


b) Resolverlo y determinar cundo tiene una nica solucin.
2. Discutir el sistema homogneo

6x 6y + (11 a) z = 0
3x + (12 a) y 6z = 0

(2 a) x + 3y 6z = 0

y encontrar sus soluciones.

3. Resolver los sistemas de congruencias

x + 2y + z 1
2x + y + 2z 1
(mod 5)

y + 2z 1

x + 2y + z 1
2x + y + 2z 1
(mod 3)

y + 2z 1

4. Encontrar un sistema de ecuaciones lineales homogneo cuyas soluciones


4
sean exactamente los vectores del subespacio vectorial de (Z7 ) generado
por los vectores
(1, 0, 1, 1) , (2, 1, 3, 0) , (1, 3, 4, 5)
369

Els autors, 2002; Edicions UPC, 2002

370

APNDICE E. SISTEMAS DE ECUACIONES LINEALES

5. Discutir segn los valores del parmetro a el sistema de congruencias mdulo 5

x + y + 3z 2
2x + 3y + 4z 0

3x + 4y + az 3

6. Hallar la solucin por el mtodo de Gauss del siguiente sistema

x1 + x2 + x3 + x4 = 10

x1 x2 + 2x3 + x4 = 9
2x1 + x3 + x4 = 9

4x1 + 2x2 x3 + 2x4 = 13


7. Hallar la inversa de la matriz

1
0

0
0

a
1
0
0
0

a2
a
1
0
0

a3
a2
a
1
0

a4
a3
a2
a
1

8. Discutir el siguiente sistema segn los valores de a y b

x+y+z = 3

2x ay + 3z = 4
3x 3y + 4z = 7

5x (a + b)y + 7z = 8 + b

9. Dadas las

1
A= 2
1

matrices

2
11 2
1 3 1
b 0 1
a 3
1 4 , B = 1 1 b , C = 0 1 0 , D = 2 8 2
0
2 0
1 2 1
2 b 0
0 2

Para qu valores de a, b R los sistemas de ecuaciones AX = B y


XC = D tienen una solucin comn?. Hallar dicha solucin.

Els autors, 2002; Edicions UPC, 2002

Apndice F

Diagonalizacin de
endomorfismos
1. Estudiar la diagonalizacin de las siguientes matrices de Mn (K) para K =
Q, R, C.
a)

b)

c)

d)

e)

1 2 2
1 3 0
0 2 1

3 1 1
6 1
2
2
1
0

5 6 3
1 0 1
1 2 1

1 1
1
1
1 1 1 1

1 1 1 1
1 1 1 1

3
1
0
4 1 0
4 8 2

371

Els autors, 2002; Edicions UPC, 2002

372

APNDICE F. DIAGONALIZACIN DE ENDOMORFISMOS

2. Sea f el endomorfismo de R4 definido por


f (x, y, z, t) = (x z + (a + 2)t, y + z 2t, 2z + (a 3)t, at)
a) Calcular su matriz en la base cannica de R4
b) Determinar para qu valores de a es diagonalizable f .
3. Hallar los posibles valores propios de un endomorfismo f involutivo (f f =
I).
4. Estudiar si son equivalentes las matrices

2
0
0 0
1 1 2 4
10 2 11 6
0 5 0 0

B=
A=
11
0 12 1 8
0
6 3
7 0
7 4
0 9 1 3

5. Calcular el polinomio caracterstico, utilizando los menores principales de


la matriz

4 0 4 11
6 3 3 9

A=
5 1 5 7
1 1 1 5
6. Sabiendo que las matrices

a 5
A=
5 4

y B=

3i 0
0 3i

son equivalentes, calcular el valor de a.


7. Encontrar una matriz A M3 (R) con vectores propios (1, 2, 1), (1, 0, 1), (0, 1, 2)
de valores propios 2, 1, 2 respectivamente.
8. Encontrar las condiciones que deben
matriz real

1 0
a 1

A=
b c
d e
sea diagonalizable.

9. Encontrar los valores propios de la

a
b
A=
b
b
Diagonaliza?

verificar a, b, c, d, e, f para que la

0 0
0 0

2 0
f 2

matriz

b c d
a c d

c a d
c d a

Els autors, 2002; Edicions UPC, 2002

373
10. Sea f EndR (E). Probar que si dim E es senar, entonces f tiene algn
valor propio, y que si dim E es par y det f < 0, f tiene al menos dos
valores propios. Dar un ejemplo de un endomorfismo sin valores propios.
11. Sea A Mn (R) y R no nulo. Encontrar la relacin que hay entre el
polinomio caracterstico de A y el polinomio caracterstico de A. Deducir
que si es un valor propio de A, entonces es un valor propio de A
y que si x es un vector propio de A de valor propio , entonces x es un
vector propio de A de valor propio .

Els autors, 2002; Edicions UPC, 2002

374

APNDICE F. DIAGONALIZACIN DE ENDOMORFISMOS

Els autors, 2002; Edicions UPC, 2002

Apndice G

Forma reducida de Jordan


1. Se consideran las siguientes matrices de M3 (R) :

1 0 0
A1 = 1 1 0 ,
1 0 1

1 0 1
A2 = 0 3 4 ,
0 1 1

2
1 1
A3 = 2 1 2
1 1 2

Razonar cules de estas matrices son equivalentes entre s, es decir, cules


de estas matrices pueden serlo de un mismo endomorfismo.
Indicacin:Dos matrices son equivalentes si tienen la misma forma cannica de Jordan.
2. Dadas las matrices de M3 (C),

4 1 1
A = 6 1 2
3 1 0

1 0 0
y B= 1 0
1 0

hallar para qu valores de y pueden ser equivalentes (matrices del


mismo endomorfismo).
3. Dada la matriz

1 3 0
3
1
0
0 1

A=
0
0 1 0
1 2 0
1

a) Encontrar la forma cannica de Jordan y una base de Jordan para


A.
b) Qu vectores de esta base son vectores propios de A?Podramos
encontrar una base de R4 formada por vectores propios de A?
375

Els autors, 2002; Edicions UPC, 2002

376

APNDICE G. FORMA REDUCIDA DE JORDAN

4. Calcular la forma cannica de Jordan

5 0
0 2
2 0

de

4
0
1

5. Calcular la forma cannica de Jordan de

1 3 2
0 1 0

0 2 2
6 6 3

0
0

0
4

6. Calcular la forma cannica de Jordan de

2
0
1
2
1 3
0 1

2 2 4
6
1 1 1 1
7. Calcular la forma cannica de Jordan de

4 0 4 11
6 3 3 9

5 0 5 7
1 0 1 5
8. Estudiar para qu valores de los parmetros a y b es diagonalizable la
matriz

5 0 0
0 1 b
3 0 a
calculando la forma cannica de Jordan para los valores a = 1 y b = 1.

9. Calcular la forma cannica de Jordan de las siguientes matrices:

1 2 3
1 1
A=
y B= 2 1 3
0 1
3 3 0
10. Calcular la forma cannica de Jordan de las siguientes matrices:

3 0 0
10
4
13
3
7 y B= 0 1 5
A= 5
0 5 1
9 4 12
11. De una matriz A se sabe que el conjunto de sus valores propios es {1, 1, 6}.
Adems, se tiene:

Els autors, 2002; Edicions UPC, 2002

377
a) dim N uc (A I) = dim N uc (A I)2 = 1
b) dim N uc (A + I) = 1

c) dim N uc (A + I)2 = 2
d) dim N uc (A + I)3 = dim N uc (A + I)4 = 3
e) dim N uc (A 6I) = dim N uc (A 6I)2 = 1
Cul es la forma cannica de Jordan de A?
12. Sea B = {e1 , e2 , e3 , e4 , e5 } una base del espacio vectorial R5 . Sea f un
endomorfismo de R5 del que se conoce
a) f (e2 ) = e2

b) f (e3 + e4 ) = e3 + e4
c) f (e5 ) = 2e5 + e1 e2

El polinomio caracterstico de f tiene la raz triple 2. Las ecuaciones implcitas, respecto de la base B, del ncleo del endomorfismo f 2I son

x1 + x2 + x3 = 0
x3 + x4 = 0

x5 = 0
Calcular la forma cannica de Jordan de f .

Els autors, 2002; Edicions UPC, 2002

378

APNDICE G. FORMA REDUCIDA DE JORDAN

Els autors, 2002; Edicions UPC, 2002

Apndice H

Formas bilineales simtricas


y formas cuadrticas
1. Sea f : R2 R2 R la aplicacin definida por
f (x, y) = 2x1 y1 3x1 y2 + x2 y2
a) Demostrar que f es bilineal. Es simtrica?
b) Hallar la matriz A de f respecto de la base ((1, 0), (0, 1)).
c) Hallar la matriz B de f respecto de la base ((2, 1), (1, 1)).

d) Hallar la matriz P tal que B = P t AP .

2. Es cierta la desigualdad de Schwarz para la forma cuadrtica cuya forma


bilineal asociada tiene por matriz respecto de una cierta base

1 1 1
1 3 0
1 0 2
3. Clasificar la siguiente forma cuadrtica
q(x, y, z) = 3x2 + 4xy + 10xz 4yz
Calcular una forma reducida.
4. Obtener la forma reducida en una base ortogonal respecto a q de las siguientes formas cuadrticas:
a) q(x, y, z) = x2 + y 2 5z 2 + 6xz + 4yz
b) q(x, y, z) = 2xy + 2yz + 2xz

c) q(x, y, z, t) = x2 + 6y 2 4xy + z 2 + 2yt + t2


379

Els autors, 2002; Edicions UPC, 2002

380APNDICE H. FORMAS BILINEALES SIMTRICAS Y FORMAS CUADRTICAS


5. Clasificar las formas cuadrticas asociadas a las formas bilineales simtricas que tienen por matrices en la base cannica de R3

1 2 3 4
4
2 2
2 5 8 11

5 1
(b)
(a) 2
3 8 14 20
2 1 3
4 11 20 30
6. Dadas las matrices asociadas a formas cuadrticas

2
1 1
1 0 1
1 1 1
1 , A2 = 0 1 0 , A3 = 1 2 2
A1 = 1 2
1 1 2
1 0 1
1 2 3

Son equivalentes? (es decir, representan la misma forma cuadrtica?) Si


A y B son dos de estas matrices equivalentes, hallar la matriz inversible
S tal que B = S t AS.

Els autors, 2002; Edicions UPC, 2002

Agradecimientos
Quiero expresar aqu mi sincero agradecimiento a la profesora Brbara Llacay por haber colaborado en la realizacin de algunos captulos de este libro.

381

Els autors, 2002; Edicions UPC, 2002

382

AGRADECIMIENTOS

Els autors, 2002; Edicions UPC, 2002

Bibliografa
[1] Roger Godement. lgebra. Editorial Tecnos, 1971.
[2] G. Birkho S. Mac Lane. lgebra Moderna. Editorial Vicens-Vives, 1974.
[3] Michel Queysanne. lgebra Lineal. Editorial Vicens-Vives, 1973.
[4] A. Lentin J. Rivaud. lgebra Moderna. Editorial Aguilar, 1973.
[5] J. Sancho San Roman.
Zaragoza, 1973.

lgebra Lineal Y Geometra.

Universidad de

[6] J. Teixidor J. Vaquer. Curso de Matemticas. Universidad de Barcelona,


1972.

383

Els autors, 2002; Edicions UPC, 2002

You might also like