You are on page 1of 199

lgebra Lineal

Semestre Enero - Mayo, 2014


Notas de Curso

Jos Alejandro Lara Rodrguez


Facultad de Matemticas
Universidad Autnoma de Yucatn
9 de enero de 2014

Estas notas estn basadas en el libro de lgebra Lineal de los autores


J.A. Lara Rodrguez y C.J. Rubio Barrios [12]. Las notas incorporan
ejemplos de cmo realizar algunos clculos usando el software libre
para matemticas llamado Sage (www.sagemath.org) [22]. Tambin
se incluyen respuestas a ejercicios seleccionados.

ii

ndice general

ndice general

iii

ndice de figuras

vii

Notaciones frecuentemente usadas

ix

1. Sistemas de ecuaciones lineales


1.1. Ecuaciones lineales . . . . . . . . . . . . . . . . .
1.1.1. Representaciones matriciales . . . . . . .
1.1.2. Ejercicios . . . . . . . . . . . . . . . . . .
1.2. Tcnicas de eliminacin . . . . . . . . . . . . . .
1.2.1. Forma escalonada y el mtodo de Gauss .
1.2.2. La forma escalonada reducida y el mtodo
1.2.3. Ejercicios . . . . . . . . . . . . . . . . . .
1.3. Rango y consistencia . . . . . . . . . . . . . . . .
1.3.1. Ejercicios . . . . . . . . . . . . . . . . . .
1.4. Sistemas homogneos . . . . . . . . . . . . . . . .
1.4.1. Ejercicios . . . . . . . . . . . . . . . . . .
1.5. Sistemas no homogneos . . . . . . . . . . . . . .
1.5.1. Ejercicios . . . . . . . . . . . . . . . . . .
1.6. Clculo de los cuatro espacios fundamentales . .
1.7. Descomposiciones LU . . . . . . . . . . . . . . .
1.7.1. Ejercicios . . . . . . . . . . . . . . . . . .

. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
de Gauss-Jordan
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
1
4
7
9
13
17
19
22
25
27
28
28
31
32
33
40

2. Determinantes
2.1. Existencia de una funcin determinante
2.1.1. Ejercicios . . . . . . . . . . . . .
2.2. Permutaciones . . . . . . . . . . . . . .
2.2.1. Ejercicios . . . . . . . . . . . . .
2.3. Unicidad de la funcin determinante . .
2.3.1. Ejercicios . . . . . . . . . . . . .
2.4. Determinantes y sistemas de ecuaciones
2.4.1. Ejercicios . . . . . . . . . . . . .
2.5. Clculo de determinantes . . . . . . . .
2.5.1. Ejercicios . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

43
43
47
48
51
52
58
61
62
63
65

iii

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

NDICE GENERAL

iv

2.6. reas y volmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


2.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Espacios vectoriales
3.1. Espacios vectoriales . . . . . . . . . .
3.1.1. Ejercicios . . . . . . . . . . .
3.2. Subespacios . . . . . . . . . . . . . .
3.2.1. Ejercicios . . . . . . . . . . .
3.3. Dependencia e independencia lineal .
3.3.1. Ejercicios . . . . . . . . . . .
3.4. Bases y dimensin . . . . . . . . . .
3.4.1. Ejercicios . . . . . . . . . . .
3.5. Bases y dimensin de los subespacios
3.5.1. Ejercicios . . . . . . . . . . .
3.6. Sumas directas . . . . . . . . . . . .
3.6.1. Ejercicios . . . . . . . . . . .

67
72

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
fundamentales
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

75
. 75
. 77
. 78
. 81
. 83
. 87
. 89
. 92
. 94
. 96
. 97
. 101

4. Transformaciones lineales y matrices


4.1. Transformaciones lineales . . . . . . . . . . . . . . .
4.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.2. El ncleo y la imagen de una transformacin lineal .
4.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.3. Transformaciones lineales inyectivas y suprayectivas
4.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.4. La matriz asociada a una transformacin lineal . . .
4.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.5. El isomorfismo entre K dim W dim V y L(V, W ) . . . .
4.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.6. Matrices asociadas a la misma transformacin lineal
4.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.7. Operadores diagonalizables . . . . . . . . . . . . . .
4.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . .
4.8. El espacio dual . . . . . . . . . . . . . . . . . . . . .
4.8.1. Ejercicios . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

105
105
109
111
113
114
116
117
121
124
125
125
132
134
135
136
138

A. Campos
141
A.1. Definicin y propiedades bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.2. La caracterstica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
B. Matrices
B.1. Definiciones bsicas . . . . . . . . . . . . . . . . . .
B.2. El espacio vectorial de las matrices . . . . . . . . .
B.3. El anillo de las matrices cuadradas . . . . . . . . .
B.4. La transpuesta de una matriz . . . . . . . . . . . .
B.5. Multiplicacin de matrices en bloques . . . . . . .
B.6. La traza de una matriz . . . . . . . . . . . . . . . .
B.7. Matrices elementales . . . . . . . . . . . . . . . . .
B.8. Mtodo de eliminacin de Gauss . . . . . . . . . .
B.9. Mtodo de eliminacin de Gauss-Jordan . . . . . .
B.10.Algoritmo de Gauss-Jordan para calcular la inversa
B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
C. Soluciones a ejercicios seleccionados

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

145
145
149
151
154
159
161
162
169
172
173
174
179

NDICE GENERAL

Bibliografa

185

ndice alfabtico

187

vi

NDICE GENERAL

ndice de figuras

1.1. Interpretacin geomtrica: Interseccin de rectas . . . . . . . . . . . . . . . . . .


1.2. Interpretacin geomtrica: Combinacin lineal de vectores . . . . . . . . . . . . .
1.3. Interpretacin funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.

El paralelogramo P (v, w) determinado por los vectores v y w. . . .


El paralelogramo P (nv, w) determinado por los vectores nv y w . .
El paralelogramo P (rv, w) determinado por rv y w . . . . . . . . .
Propiedades de volmenes y determinantes . . . . . . . . . . . . .
Paralelogramo determinado por v = (3 5)T y w = (1 2)T . . . . .
Paralelogramo determinado por (2 3)T , (5 5)T , (5 8)T y (2 10)T

vii

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

7
8
9
67
68
69
69
71
72

viii

NDICE DE FIGURAS

Notaciones frecuentemente usadas

N
Z
Q
R
C
R+
Fq
K
(s1 , . . . , sn )
(s1 , . . . , sn )T
Kn
K mn
I
In
A = (aij )
[A]ij
Aj
Ai
adj(A)
AT
A
A
[A | b]
R (A)
N (A) 
N AT 
R AT
D(A), det(A), |A|
Sn
V
V
1V
hSi
W
dim V
||

Final de una demostracin.


Nmeros naturales.
Nmeros enteros.
Nmeros racionales.
Nmeros reales.
Nmeros complejos.
Nmeros reales positivos.
Un campo finito con q elementos.
Un campo arbitrario.
Vector rengln con entradas s1 , . . . , sn .
Transpuesto del vector rengln (s1 . . . sn ).
{(x1 . . . xn )T | xi K, 1 i n}.
Espacio de las matrices de m n.
Matriz identidad.
Matriz identidad de tamao n n.
Matriz A con entradas aij .
La entrada (i, j) de la matriz A.
Columna j de una matriz A.
Rengln i de una matriz A.
Adjunta de la matriz A.
Transpuesta de la matriz A o del operador A.
La conjugada de la matriz compleja A, A = (
aij ).
La transpuesta conjugada de la matriz compleja A, A = AT . Tambin
indica el adjunto del operador A.
La matriz aumentada del sistema Ax = b.
Espacio columna de la matriz A.
Espacio nulo de la matriz A.
Espacio nulo izquierdo de la matriz A.
Espacio rengln de la matriz A.
Determinante de la matriz A.
El grupo de las permutaciones de n elementos.
Usualmente denota un espacio vectorial.
El espacio dual del espacio vectorial V .
El operador identidad sobre el espacio vectorial V .
Subespacio vectorial generado por el conjunto S.
Complemento ortogonal del subespacio W .
Dimensin de V .
Cardinalidad de un conjunto. Tambin indica valor absoluto.
ix

x
kvk
U W
U W
[v]
K[t]
K[t]n
f
ker T
Im T
[T ] 0
[1V ] 0
L(V, W )
L(V )
Bil(U V, W )
Bil(V )
hv, wi
(A)
E

0. Notaciones frecuentemente usadas


Norma del vector v.
Suma directa de U y W .
Producto cartesiano de U y W . Si U y W son espacios vectoriales, denota
su producto directo.
Vector de coordenadas respecto de la base .
El espacio vectorial de los polinomios en la variable t con coeficientes en
K.
El espacio vectorial de los polinomios en la variable t con coeficientes en
K, de grado menor que n.
Grado del polinomio f .
Ncleo de la transformacin lineal T .
Imagen de la transformacin lineal T .
Matriz de T en las bases y 0 .
Matriz cambio de base de la base a la base 0 .
El espacio de las transformaciones lineales de V en W .
Espacio de las funciones lineales de V en V .
Espacio de las funciones bilineales de U V en W .
Espacio de las formas bilineales de V .
Producto interno (escalar o hermitiano) de v y w.
Espectro de A, el conjunto de los valores propios de A.
Espacio propio correspondiente al valor propio .

CAPTULO

Sistemas de ecuaciones lineales

Este captulo est dedicado al estudio de la resolucin de los sistemas de ecuaciones lineales.
Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, se
introducen las diferentes tcnicas de eliminacin para la resolucin de stos. Quiz las tcnicas
ms conocidas son las de Gauss y Gauss-Jordan, incluyendo su versin matricial que usa la denominada descomposicin LU . Se analiza la estructura del conjunto de soluciones de un sistema,
estudiando primero los sistemas homogneos, que tienen estructura de espacio vectorial (en el
Captulo 3 se estudiarn los espacios vectoriales), y despus los sistemas generales. Asociado a
una matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya que
cualquier subespacio de un espacio vectorial de dimensin finita se relaciona directamente con
uno de stos.
Las tcnicas que se desarrollarn en este captulo son indispensables para entender plenamente los conceptos abstractos de espacio y subespacio vectorial que se presentarn ms adelante.
La teora se desarrollar sobre un campo arbitrario K. Sin embargo, si el lector lo prefiere,
puede suponer que K es un subcampo del campo de los nmeros complejos (esto por supuesto
incluye a Q, R y C). A los elementos de un campo se les llama escalares.

1.1.

Ecuaciones lineales

El estudio de los sistemas de ecuaciones lineales es uno de los temas ms importantes del
lgebra lineal. El estudio de estos sistemas est ntimamente ligado con el estudio de las matrices.
Sea K un campo. Una ecuacin lineal con n incgnitas x1 , . . . , xn es una ecuacin que se
puede escribir en la forma:
a1 x1 + a2 x2 + + an xn = b,

(1.1)

donde a1 , . . . , an , b son escalares (esto es, son elementos del campo K). Las xi s son las incgnitas,
las ai s son los coeficientes y el escalar b se llama trmino constante o independiente.
Si K = R, una ecuacin lineal con dos incgnitas representa una recta en el plano, en tanto
que una ecuacin lineal con tres incgnitas representa un plano en el espacio (salvo algunas
excepciones).

Las ecuaciones 5x + 2y = 3 y 3x y = 2z son ecuaciones lineales, en tanto que


x 3y 2 = 0 y cos x + y = 3 no lo son.
1

1. Sistemas de ecuaciones lineales

Una matriz con exactamente una columna se llama vector columna, y una matriz con exactamente un rengln se llama vector rengln. El conjunto de todos los vectores columna con
entradas en el campo K se denotar por K n . Si x es un vector columna, entonces su transpuesta1 es un vector rengln. Recprocamente, si x es un vector rengln su transpuesta es un vector
columna.
Un vector (s1 , . . . , sn )T K n es una solucin de la ecuacin lineal (1.1) si a1 s1 + a2 s2 +
+ an sn = b. As, (1, 1)T es una solucin de la ecuacin 5x + 2y = 3, pues 5(1) + 2(1) = 3.
Por otro lado, (1, 1)T no es solucin ya que 5(1) + 2(1) = 7 6= 3.
Un sistema de m ecuaciones lineales con n incgnitas es un conjunto de m ecuaciones lineales
que se puede escribir en la forma:
a11 x1 + a12 x2 + + a1n xn

= b1 ,

a21 x1 + a22 x2 + + a2n xn

= b2 ,
..
.

am1 x1 + am2 x2 + + amn xn

(1.2)

= bm ,

donde las aij s y las bi s (1 i m, 1 j n) son escalares. Cuando se tiene b1 = b2 = =


bm = 0, se dice que el sistema es un sistema homogneo. De otra manera se dice que es no
homogneo. De acuerdo a esta definicin, el sistema:
2x 3y + 7z = 0,
x y z = 0,
es homogneo, mientras que el sistema:
2x 3y + 7z = 0,
x y z = 3,
es no homogneo.
Un vector (s1 , . . . , sn )T K n es una solucin del sistema (1.2) si es solucin de cada una
de las ecuaciones del sistema. Es claro que para un sistema de ecuaciones dado solo hay dos
posibilidades: tiene solucin o no tiene solucin. Un sistema que tiene al menos una solucin se
llama consistente; un sistema sin solucin se llama inconsistente. Para un sistema consistente
se presentan dos posibilidades: o tiene solucin nica o tiene ms de una solucin. Un sistema
consistente se llama determinado si tiene solucin nica e indeterminado si tiene ms de una
solucin.
(

Consistente Determinado: Solucin nica.


Sistema de ecuaciones
Indeterminado: Ms de una solucin.

Inconsistente: Sin solucin.


Veamos algunos ejemplos.
Ejemplo 1.1.1. Una solucin del sistema:
2x y = 1,
x + y = 2,
T

es (1, 1) . Ms an, se puede demostrar que es la nica solucin. En consecuencia, ste es un


sistema consistente y determinado.
1 Si A = (a ) es una matriz de m n, su transpuesta denotada por AT es la matriz cuya (i, j)-sima entrada
ij
es aji .

1.1. Ecuaciones lineales

3
T

Ejemplo 1.1.2. Los vectores (1, 3, 2) y (1, 7, 4)T son soluciones del sistema de ecuaciones:
2x + y z = 1,
x y + 2z = 0.
Este sistema es consistente, pero indeterminado.
Ejemplo 1.1.3. El sistema de ecuaciones:
x + y = 1,
x + y = 2,
T

es inconsistente sobre el campo de los nmeros reales. En efecto, si (s1 , s2 ) fuera una solucin
del sistema, se tendra 1 = s1 + s2 = 2. As este sistema no tiene solucin.
Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinar
su consistencia o inconsistencia. La otra parte consiste en calcular la solucin si sta es nica o
bien describir el conjunto de todas las soluciones. Antes de analizar cmo resolver sistemas de
ecuaciones lineales es necesario familiarizarnos con las diferentes representaciones en trminos
de matrices de stos.
Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemas
de ecuaciones de los ejemplos anteriores.
sage : var ( x y z )
(x , y , z )
sage : solve ([2* x - y ==1 , x + y ==2] , x , y ) # Determinado
[[ x == 1 , y == 1]]
sage : solve ([2* x +y - z ==1 , x - y +2* z ==0] , x ,y , z ) # Indeterminado
[[ x == -1/3* r1 + 1/3 , y == 5/3* r1 + 1/3 , z == r1 ]]
sage : solve ([ x + y ==1 , x + y ==2] , x , y ) # Inconsistente
[]

Note que en el segundo caso, la solucin est dada en trminos de un parmetro r1 . Se deja al
lector verificar que x = r1 /3+1/3, y = 5r1 /3+1/3 y z = r1 , donde r1 es cualquier nmero real
es solucin del sistema de ecuaciones del Ejemplo 1.1.2. Que haya una infinidad de soluciones se
debe a que la interseccin de dos planos no paralelos es una recta. En el ltimo caso el sistema
no tiene solucin.
De manera alterna se pueden almacenar las ecuaciones en variables.
sage : e1 = 2* x - y ==1
sage : e2 = x + y ==2
sage : e1
2* x - y == 1
sage : e2
x + y == 2
sage : solve ([ e1 , e2 ] , x , y )
[[ x == 1 , y == 1]]

1.1.1.

1. Sistemas de ecuaciones lineales

Representaciones matriciales

Es posible (y altamente recomendable) expresar un sistema de ecuaciones lineales en trminos


matriciales. Consideremos el siguiente sistema de m ecuaciones lineales con n incgnitas:
a11 x1 + a12 x2 + + a1n xn

a21 x1 + a22 x2 + + a2n xn

= b2 ,
..
.

am1 x1 + am2 x2 + + amn xn

b1 ,

= bm .

Las matrices:

a11
a21

A= .
..

a12
a22
..
.

...
...
..
.

a1n
a2n

.. ,
.

am1

am2

...

amn

[A | b]

b1
b2

b= .
..
bm

a11
a21
..
.

a12
a22
..
.

...
...
..
.

a1n
a2n
..
.

am1

am2

...

amn


b1

b2

..
.

bm

reciben los nombres de matriz de coeficientes, matriz (o vector) de trminos independientes y


matriz aumentada, respectivamente. Considerando la definicin de igualdad de matrices y las
operaciones de suma y multiplicacin de matrices, podemos escribir el sistema dado como:
T

Ax = b, donde x = (x1 , . . . , xn ) .
La multiplicacin Ax se puede realizar de dos maneras diferentes: por renglones o por columnas.
En la multiplicacin por renglones tenemos:

A1 x
A2 x

Ax = .
..
Am x
donde A1 , A2 , . . . , Am son los renglones de A. En la multiplicacin por columnas tenemos:
b = Ax = x1 A1 + x2 A2 + + xn An ,
donde A1 , A2 , . . . , An son las columnas de A. En la multiplicacin por columnas, se dice que
b es combinacin lineal de las columnas de A.
Sean B1 , . . . , Bm son matrices del mismo tamao. Una combinacin lineal de las matrices
Bi es una matriz de la forma
a1 B1 + + am Bm =

m
X

a i Bi

i=1

donde a1 , . . . , am son escalares. Una matriz BPes una combinacin lineal de las matrices Bi
si existen escalares a1 , . . . , am tales que B =
ai Bi . Formar combinaciones lineales a partir
de un conjunto de matrices dado es muy fcil; basta con elegir escalares arbitrarios y realizar

1.1. Ecuaciones lineales

5


las operaciones correspondientes. Consideremos por ejemplo las matrices B1 =




1
. Algunas combinaciones lineales de estas matrices son:
1

B1 + B2 =

2
0


,

2B1 + 3B2 =

5
1

1
1


y B2 =


,

0B1 + B2 = B2 ,

B1 + 0B2 = B1 .

Decidir si una matriz particular es combinacin



 lineal lineal de otras matrices no siempre
3
resulta tan sencillo. Por ejemplo, es B =
una combinacin lineal de B1 y B2 ? Ms
5
adelante se vern mtodos generales para responder a esta pregunta.
Ejemplo 1.1.5. La matriz de coeficientes y el vector de trminos independientes del sistema:
3x1 + 2x2 x3 + x4 = 1,
x2 + x3 x4 = 2,
2x1 + x2 3x3 + 5x4 = 8,
son:

3
A = 0
2


1
2 1
1
1
1 1 y b = 2 ,
8
1 3
5

respectivamente. El sistema se puede escribir de las siguientes maneras:


x1

3
2 1
1
1
x
2
= 2 ,
0 1
1 1
x3
2
1 3
5
8
x4




3
2
1
1
1
x1 0 + x2 1 + x3 1 + x4 1 = 2 .
2
1
3
5
8
Una solucin de este sistema de ecuaciones lineales es s = (2 3 1 2)T . El vector b se puede
escribir como combinacin lineal de las columnas de A:



3
2
1
1
1
2 0 + (3) 1 + 1 + 2 1 = 2 .
2
1
3
5
8
El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un
sistema de ecuaciones lineales.
Teorema 1.1.6. Sea el sistema de ecuaciones lineales Ax = b, donde A K mn y b K m .
Las siguientes afirmaciones son equivalentes:
a) El sistema de ecuaciones lineales tiene al menos una solucin.
b) Existe al menos un vector en K n que satisface simultneamente todas las ecuaciones del
sistema.
c) Es posible escribir al vector de trminos independientes b, como combinacin lineal de las
columnas de la matriz A.

1. Sistemas de ecuaciones lineales

d) El vector b pertenece a la imagen de la funcin T : K n K m definida por T (x) = Ax.


Demostracin. a) b). Es por definicin de solucin de un sistema de ecuaciones. b) c) Sea
T
s = (s1 , . . . , sn ) un vector que satisface simultneamente todas las ecuaciones del sistema
Ax = b. Entonces As = b y
b = As = s1 A1 + + sn An .

(1.3)

c) d) Supongamos que existen escalares s1 , . . . , sn tales que b se puede escribir de la forma


(1.3), entonces b = As = T (s), donde s = (s1 . . . sn )T K n y por lo tanto b Im T .
d) a) Supongamos que b Im T . Por definicin de imagen, existe un s K n tal que
b = f (s) = As. Esto muestra que el sistema Ax = b tiene al menos una solucin.
A la imagen de la funcin T definida en la proposicin anterior se le denomina espacio
columna de la matriz A y se denota con el smbolo R(A):
R (A) = Im T = {b K m | b = Ax para algn x K n } .
El espacio columna de A consta de todos aquellos vectores de K m que se pueden escribir como
combinacin lineal de las columnas de A, es decir, consta de todas las combinaciones lineales de
las columnas de A. De acuerdo con la proposicin anterior podemos afirmar que:
El sistema Ax = b tiene solucin si y slo si b R(A).
En la siguiente seccin estudiaremos tcnicas para determinar cuando un sistema de ecuaciones
dado tiene solucin.
T

Ejemplo 1.1.7. La nica solucin del siguiente sistema de ecuaciones es s = (2, 3) .


2x y = 1,

(1.4)

x + y = 5.
El punto s satisface simultneamente las dos ecuaciones del sistema. La solucin es aquel punto
del plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de trminos
independientes
b
se escribe
 

  como combinacin de las columnas de la matriz asociada al sistema:
2
1
1
2
+3
=
(Figura 1.2); observamos que para obtener el vector b se debe multi1
1
5
 


2
1
plicar por 2 el vector
, por 3 el vector
y realizar la suma de los vectores resultantes.
1
1
Finalmente, al considerar la funcin T : R2 R2 definida de la siguiente manera:
T

  
x
2
=
y
1

1
1

  

x
2x y
=
,
y
x+y

notamos que y Im T = {y R2 | y = T (x) para algn x R2 } = R(A), donde A es la matriz


de coeficientes del sistema. Observeque en
 el espacio columna de
 la matriz A hay ms de un
1
1
vector. Por ejemplo, el vector b1 =
R(A) ya que A
= b1 . Se deja de ejercicio al
2
1
lector construir ms elementos que pertenezcan al espacio columna de la matriz A.

1.1. Ecuaciones lineales

7
y
2x y = 1

6
5
4

 
2
3

3
2
1

x
x+y =5

Figura 1.1: La solucin (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como la interseccin de las rectas 2x y = 1 y x + y = 5.

1.1.2.

Ejercicios

1. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, indeterminado o inconsistente.
1
x4 = 1,
2
1
x1 2 x4 2 x5 =
,
14
2 x1 + x2 + x5 = 2,
3
2 x3 x4 + x5 = .
2
2 x3 +

Escriba la matriz de coeficientes y el vector de trminos independientes.


2. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, indeterminado o inconsistente.

x2

1
1
x3 2 x4 = ,
2
4
2 x3 x5 = 61,

2 x2 + 2 x3 + x4
1
1
x3 x4
2
2
1
x1 + 2 x3 x4
2
1
2 x2 x3
2

= 0,
= 21,
= 4,
3
= .
7

1. Sistemas de ecuaciones lineales


y
b = 2v + 3w
5
4

3w

2v

w
3

Figura 1.2: La solucin (2, 3)T del sistema de ecuaciones lineales 1.4 interpretada como una
combinacin lineal de los vectores v = (2, 1)T y w = (1, 1)T . El vector v se multiplica por
2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de trminos
b = 2v + 3w.

3. La matriz de coeficientes y el vector de trminos independientes de un sistema de ecuaciones


son

2
0 1
1
2 0
1

1
0
2
0 1
32

11

1
0 1
y
b = 2 ,
A = 0 2

1
1
0 1 0
0
1
1 1
0 0
1
respectivamente. Determine si el sistema de ecuaciones es determinado, indeterminado o
inconsistente.

4
4. Con la ayuda de algn software, por ejemplo Sage, determine si el vector b = 3 es
4
combinacin lineal de las matrices

1
1
1
v1 = 2 ,
v2 = 2 ,
v3 = 1 .
1
1
1
5. Determine
cul o cules

de los siguientes vectores pertenecen al espacio columna de la matriz


1
1 1
1 1 .
A = 1
2 1 1

3
2 ,
6

6
6 ,
6

1
2 ,
5

0
0
5

1
1 .
13

1.2. Tcnicas de eliminacin

9
T

y
 
1
5

5
4

 
2
3

Figura 1.3: La solucin s = (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como aquel
punto del dominio de la funcin T : R2 R2 que satisface T (s) = b = (1 5)T .

6. Considere el sistema de ecuaciones lineales Ax = b, donde

0 0
1 0
[A | b] =
2 0
4 0

2 2
2 2
1
0 6
4
1
3
9 5
3 7 17
9

4
10
.
26
54

a) Escriba b, el vector de trminos independientes, como una combinacin lineal de las


columnas de A.
b) Sea T la funcin de R6 R4 definida por la matriz A. Proporcione al menos cinco
vectores b R4 que pertenezcan a la imagen de T .
7. Pruebe que si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dos
soluciones diferentes, entonces tiene infinidad de soluciones. (Sugerencia. Si x1 6= x2 son
soluciones del sistema Ax = b, demuestre que x1 + k(x1 x2 ) tambin es solucin del sistema
para todo k R. Luego demuestre que cualesquiera dos de estas soluciones son distintas).
8. Sean A y x matrices de nmeros reales positivos de tamaos n n y n 1 respectivamente.
Demuestre que si A2 x = x, entonces Ax = x.

1.2.

Tcnicas de eliminacin

En esta seccin se estudiar el fundamento en que se basan los diferentes mtodos para
resolver sistemas de ecuaciones lineales. Estos mtodos nos permitirn describir el conjunto de
soluciones de un sistema, o en su caso, determinar que el sistema dado no tiene solucin.
La idea principal de estos mtodos es transformar un sistema de ecuaciones lineales en
otro que sea ms fcil de resolver. Para llevar a cabo esta transformacin formaremos nuevas
ecuaciones lineales a partir de las ecuaciones del sistema dado; la caracterstica principal de las
nuevas ecuaciones es que cualquier solucin del sistema original tambin ser solucin de las
nuevas.

10

1. Sistemas de ecuaciones lineales


Consideremos el sistema de ecuaciones lineales:
a11 x1 + a12 x2 + + a1n xn

a21 x1 + a22 x2 + + a2n xn

= b2 ,
..
.

am1 x1 + am2 x2 + + amn xn

b1 ,

(1.5)

= bm .

Diremos que la ecuacin lineal:


1 x1 + 2 x2 + + n xn = ,

(1.6)

es una combinacin lineal del sistema (1.5) si existen escalares 1 , 2 , . . . , m tales que:
1

= 1 a11 + 2 a21 + + m am1 ,

=
..
.

1 a12 + 2 a22 + + m am2 ,

1 a1n + 2 a2n + + m amn ,

1 b1 + 2 b2 + + m bm .
T

Supongamos que s = (s1 , . . . , sn ) es una solucin del sistema (1.5). Afirmamos que s
tambin es una solucin de la combinacin lineal (1.6). En efecto:
1 s1 + 2 s2 + + n sn

(1 a11 + 2 a21 + + m am1 ) s1 +


(1 a12 + 2 a22 + + m am2 ) s2 + +
(1 a1n + 2 a2n + + m amn ) sn

= 1 (a11 s1 + a12 s2 + + a1n sn ) +


2 (a21 s1 + a22 s2 + + a2n sn ) + +
m (am1 s1 + am2 s2 + + amn sn )
=

1 b1 + 2 b2 + + m bm

El recproco no es cierto, es decir, existen soluciones de la combinacin lineal que no son


soluciones del sistema original.
Ejemplo 1.2.1. Considere el sistema de ecuaciones lineales del Ejemplo 1.1.5. La ecuacin
lineal:
16x1 + 12x2 20x3 + 30x4 = 36

(1.7)

es una combinacin lineal de las ecuaciones del sistema, ya que:


16 = 2(3) + (3)(0) + 5(2),
12 = 2(2) + (3)(1) + 5(1),
20 = 2(1) + (3)(1) + 5(3),
30 = 2(1) + (3)(1) + 5(5),
36 = 2(1) + (3)(2) + 5(8).
Note que la ecuacin (1.7) se obtuvo simplemente multiplicando la primera ecuacin del sistema
por 1 = 2, la segunda por 2 = 3 y la tercera por 3 = 5, y sumando trmino a trmino las
T
ecuaciones lineales obtenidas. Una solucin de la ecuacin lineal (1.7) es s = 49 , 0, 0, 0 . Sin
embargo, s no es solucin del sistema original.

1.2. Tcnicas de eliminacin

11

A partir de un sistema de ecuaciones lineales se pueden formar combinaciones lineales de


una forma muy sencilla:
1. Se eligen escalares arbitrarios 1 , . . . , m .
2. Para cada i (1 i m) se multiplica la i-sima ecuacin lineal del sistema de ecuaciones
dado por i .
3. Se suman trmino a trmino las nuevas ecuaciones lineales obtenidas en el paso anterior.
Aclaremos esto con un ejemplo. Formemos una combinacin lineal de las ecuaciones del
sistema:
x1 + 3x2 + 3x3 + 2x4

1,

2x1 + 6x2 + 9x3 + 5x4

2,

x1 3x2 + 3x3

= 1.

Tomemos 1 = 2, 2 = 1 y 3 = 3. Efectuando las operaciones del paso dos tenemos:


2x1 + 6x2 + 6x3 + 4x4

2,

2x1 6x2 9x3 5x4

2,

3x1 9x2 + 9x3 + 0x4

3.

Al sumar trmino a trmino obtenemos la ecuacin lineal 3x1 9x2 + 6x3 x4 = 3. Note
T
que s = 0, 31 , 0, 0 es una solucin del sistema de ecuaciones y tambin es una solucin de
la combinacin lineal que se acaba de formar.
Lo anterior se puede hacer en Sage de la siguiente manera:
sage : var ( x1 x2 x3 x4 )
( x1 , x2 , x3 , x4 )
sage : ec1 = x1 + 3* x2 +3* x3 +2* x4 ==1
sage : ec2 = 2* x1 + 6* x2 +9* x3 +5* x4 ==2
sage : ec3 = - x1 -3* x2 +3* x3 == -1
sage : l1 =2; l2 = -1; l3 = 3
sage : ec4 = l1 * ec1 + l2 * ec2 + l3 * ec3 # una combinaci n lineal
sage : ec4
-3* x1 - 9* x2 + 6* x3 - x4 == -3
sage : l1 * ec1 # se multiplica la ec1 por 2
2* x1 + 6* x2 + 6* x3 + 4* x4 == 2
sage : l2 * ec2 # se multiplica la ec2 por -1
-2* x1 - 6* x2 - 9* x3 - 5* x4 == -2
sage : l3 * ec3 # se multiplica la ec3 por 3
-3* x1 - 9* x2 + 9* x3 == -3
sage : # (0 ,1/3 ,0 ,0) es soluci n
sage : ec1 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
1 == 1
sage : ec2 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
2 == 2
sage : ec3 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
-1 == -1
sage : ec4 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0)
-3 == -3
sage : ec4 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) es soluci n
-3 == -3
sage : ec1 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) NO es soluci n
6 == 1

12

1. Sistemas de ecuaciones lineales

Definicin 1.2.2. Se dice que dos sistemas de ecuaciones lineales S1 y S2 son equivalentes si
cada ecuacin de S1 es combinacin lineal de S2 , y cada ecuacin de S2 es combinacin lineal
de S1 .
Para aclarar esta definicin veamos algunos ejemplos.
Ejemplo 1.2.3. Sea S1 el sistema de ecuaciones lineales formado por E1 , E2 y E3 y S2 el
sistema formado por E10 , E20 y E30 , donde:
E1 :
E2 :
E3 :

E10 :
E20 :
E30 :

x2 x3 = 2
x1 + 2x2 x3 = 1
x1 + x2 + 2x3 = 3

x1 + 2x2 x3 = 1
x2 x3 = 2
x3 = 3

Estos sistemas son equivalentes. En efecto, notemos que:


E1 = 0E10 + E20 + 0E30
E2 = 1E10 + 0E20 + 0E30
E3 = 1E10 1E20 + 2E30

E10 = 0E1 + E2 + 0E3


E20 = 1E1 + 0E2 + 0E3
E30 = 12 E1 12 E2 + 21 E3

Como la ecuacin E1 es combinacin lineal de las ecuaciones E10 , E20 y E30 , entonces cualquier
solucin del segundo sistema tambin es una solucin de E1 . Lo mismo es aplicable a E2 y E3 .
As, cualquier solucin del segundo sistema es una solucin del primer sistema. Tambin es cierto
que cualquier solucin del primer sistema es una solucin del segundo sistema. En consecuencia,
los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones.
Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes tambin son equivalentes:
E1 :
E2 :
E3 :

2x1 + 6x2 + 6x3 + 2x4 = 2


5x1 + 3x2 + 3x3 + 5x4 = 5
4x1 + 4x4 = 4

E10 :
E20 :

x1 + 3x2 + 3x3 + x4 = 1
x2 + x3 = 0

ya que:
E1 = 2E10 + 0E20
E2 = 5E10 12E20
E3 = 4E10 12E20

E10 = 12 E1 + 0E2 + 0E3


1
5
E1 12
E2 + 0E3
E20 = 24

Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de soluciones
es el mismo para ambos sistemas.
Podemos resumir lo que hasta aqu hemos dicho.
Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismas
soluciones.
Demostracin. Consideremos los sistemas de ecuaciones lineales equivalentes S1 y S2 . Sean S1 y
S2 los conjuntos formados por las soluciones de S1 y S2 , respectivamente. Si s S1 , entonces s es
solucin de cada una de las ecuaciones del sistema S1 . Como cada ecuacin de S2 es combinacin
lineal de las ecuaciones del sistema S1 , se sigue que s es solucin de cada una de las ecuaciones
del sistema S2 , y por lo tanto s S2 . As, S1 S2 . De manera anloga, tenemos que S2 S1 .
Por lo tanto, S1 = S2 .
Este teorema es fundamental en la resolucin de sistemas de ecuaciones. Dado un sistema
de ecuaciones lineales nuestra tarea ser determinar un sistema equivalente que sea ms fcil de
resolver que el original. Para esto utilizaremos unas operaciones a las que llamaremos operaciones
elementales. Estas operaciones son:
1. Intercambio de dos ecuaciones del sistema.

1.2. Tcnicas de eliminacin

13

2. Reemplazo de una ecuacin del sistema por algn mltiplo escalar no nulo de sta.
3. Reemplazo de una ecuacin del sistema por esa ecuacin ms un mltiplo escalar de otra
ecuacin.
Utilizaremos la siguiente notacin para indicar el tipo de operacin que utilizamos al pasar
de un sistema a otro.
Operacin

Smbolo

1
2
3

Rij
Ri (c)
Rij (c)

Significado del smbolo


Intercambio de las ecuaciones i y j.
Reemplazo de la ecuacin i por c veces la ecuacin i.
Reemplazo de la ecuacin i por la ecuacin i ms c veces la ecuacin
j.

Proposicin 1.2.6. Si un sistema de ecuaciones lineales S 0 se obtiene del sistema de ecuaciones


lineales S aplicando exactamente una operacin elemental, entonces S y S 0 son equivalentes. En
particular tienen exactamente las mismas soluciones.
0
Demostracin. Supongamos que el sistema de ecuaciones S 0 = {E10 , . . . , Em
} se obtuvo del
sistema S = {E1 , . . . , Em } reemplazando la ecuacin i por la ecuacin i ms c la ecuacin j,
con i 6= j. Esto quiere decir que
(
(
E`0
si ` 6= i,
E`
si ` 6= i,
E` =
E`0 =
Ei0 cEj0 si ` = i.
Ei + cEj si ` = i.

Se sigue que cada ecuacin de S es una combinacin lineal de las ecuaciones del sistema S 0 ,
y tambin que cada ecuacin del sistema S 0 es una combinacin lineal de las ecuaciones del
sistema S. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones se
sigue del Teorema 1.2.5.
La demostracin cuando se aplica una operacin elemental de cualquiera de los otros dos
tipos es similar y se deja de ejercicio al lector.

1.2.1.

Forma escalonada y el mtodo de Gauss

El mtodo de eliminacin de Gauss, tambin conocido como eliminacin gaussiana, es un


proceso sistemtico para transformar mediante la aplicacin de operaciones elementales, un
sistema en otro que sea ms simple de resolver. El mtodo se explica mejor con un ejemplo.
2x1 +6x2 +6x3 +2x4 =2,
5x1 +3x2 +3x3 +5x4 =5,
4x1

+4x4 =4.

La estrategia general consiste en elegir una variable y eliminar todos los trminos debajo
de esta posicin. Esta variable es la variable pivotal y su coeficiente se llama pivote o elemento
pivotal. Para el proceso de eliminacin slo se permiten pivotes distintos de cero. Si algn
coeficiente en alguna posicin pivotal es cero, entonces se intercambia la ecuacin con alguna
ecuacin que est por debajo de la posicin pivotal para obtener un pivote diferente de cero.
Siempre se tomar como primer pivote el primer coeficiente de la primera ecuacin (a menos
claro que ste sea cero).

14

1. Sistemas de ecuaciones lineales


La primera variable pivotal es x1 y el primer pivote es 2 y se indica encerrado en un cuadro.
2 x1 +6x2 +6x3 +2x4 =2,
5x1 +3x2 +3x3 +5x4 =5,
4x1 +

+4x4 =4.

Usando este pivote se elimina la variable x1 de todas las ecuaciones excepto de la primera. Para
esto se multiplica la primera ecuacin por 25 y se le suma a la segunda. En otras palabras se
reemplaza la segunda ecuacin por la segunda ecuacin ms 52 veces la primera. Se obtiene:
2 x1 + 6x2 + 6x3 +2x4 =2,
12x2 12x3
4x1 +

=0,
4x4 =4.

A la tercera ecuacin se le resta dos veces la primera, es decir se aplica la operacin elemental
R13 (2). El resultado es:
2 x1 + 6x2 + 6x3 +2x4 =2,
12x2 12x3

=0,

12x2 12x3

=0.

El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variable
x2 en la tercera ecuacin, el nuevo pivote es -12 .
2x1 +

6x2 + 6x3 +2x4 =2,


- 12 x2 12x3

=0,

12x2 12x3

=0,

Ahora se multiplica la segunda ecuacin por 1 y se le suma a la tercera, es decir se aplica la


operacin elemental R23 (1):
2x1 +

6x2 + 6x3 +2x4 =2,


- 12 x2 12x3

=0,

0x2 + 0x3

=0.

Como cualquier cuarteta de escalares satisface la ecuacin lineal 0x1 + 0x 2 + 0x3 + 0x4 = 0, se
puede eliminar del sistema para obtener:
2x1 +

6x2 + 6x3 +2x4 =2,


- 12 x2 12x3

=0.

La solucin a este sistema la obtenemos al despejar x2 en la segunda ecuacin y sustituirla en


la primera.
1 x4 ,

x1

x2

= x3 .

1.2. Tcnicas de eliminacin

15

Las variables x1 y x2 quedan determinadas por las variables x3 y x4 . Las primeras dos se llaman
variables bsicas y las dos ltimas variables libres.
La descripcin del conjunto de soluciones es:

1r
s

S = {x R4 | Ax = b} = {
s | r, s R}.
r
Notemos que al realizar la eliminacin gaussiana, todos los clculos se hicieron con los nmeros (coeficientes y trminos independientes) y no con los smbolos xi s.
Se puede eficientar la tcnica de eliminacin de Gauss trabajando solamente con los coeficientes y trminos independientes evitando reescribir las variables durante todo el proceso. Se
observa tambin que la matriz aumentada del sistema est en una forma escalonada. De hecho
en eso consiste el mtodo de Gauss, en llevar la matriz aumentada del sistema a una forma
escalonada.
2 x1 +6x2 +6x3 +2x4 =2,
5x1 +3x2 +3x3 +5x4 =5,
4x1 +

+4x4 =4.

2 x1 + 6x2 + 6x3 +2x4 =2,


12x2 12x3
4x1 +

=0,
4x4 =4.

2 x1 + 6x2 + 6x3 +2x4 =2,

2x1 +

12x2 12x3

=0,

12x2 12x3

=0.

6x2 + 6x3 +2x4 =2,


- 12 x2 12x3

=0,

2
5
4

6 6 2
3 3 5
0 0 4

2
5
4

2
0
4

6
6 2
12 12 0
0
0 4

2
0
4

2
0
0

6
12
12

6 2
12 0
12 0

2
0
0

6
-12
0

6 2
12 0
0 0

2
0
0

2
0
0

0x2 + 0x3
=0.
Sage tiene implementado las operaciones elementales de rengln. El comando
B.with_added_multiple_of_row(i,j,c)
suma c veces el rengln j al rengln i. La matriz B no cambia. De esta manera para multiplicar
por 5/2 el primer rengln y sumrselo al segundo rengln se usa el comando
B.with_added_multiple_of_row(1,0,-5/2).
sage : A = matrix ( QQ , 3 , [2 ,6 ,6 ,2 ,5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A
[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage : b = vector ([2 ,5 ,4]); b
(2 , 5 , 4)
sage : B = A . augment (b , subdivide = True ); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]

16

1. Sistemas de ecuaciones lineales

sage : B1 = B . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5/2); B1
[ 2
6
6
2| 2]
[ 0 -12 -12
0| 0]
[ 4
0
0
4| 4]
sage : B2 = B1 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,0 , -2); B2
[ 2
6
6
2| 2]
[ 0 -12 -12
0| 0]
[ 0 -12 -12
0| 0]
sage : B3 = B2 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,1 , -1); B3
[ 2
6
6
2| 2]
[ 0 -12 -12
0| 0]
[ 0
0
0
0| 0]
sage : B4 = B3 . with_rescaled_row (1 , -1/12); B4
[2 6 6 2|2]
[0 1 1 0|0]
[0 0 0 0|0]

Recuerde que se dice que una matriz E K mn est en forma escalonada por renglones si
se cumplen las siguientes dos condiciones:
1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferior
de la matriz.
2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de la
primera entrada diferente de cero del rengln anterior.
En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matriz
en forma escalonada se ve como sigue:

*
0
0
0
0
0

*
0
0
0
0

0
0
0
0

*
0
0
0

0
0
0

*
0
0

0
0

0
0

donde los pivotes son las entradas encerradas en un cuadro.


Mtodo de eliminacin de Gauss.
1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.
2. Llevar la matriz aumentada [A | b] a una forma escalonada [U | c] mediante la aplicacin de
operaciones elementales de rengln.
3. Resolver el sistema de ecuaciones lineales U x = c. Las variables bsicas corresponden a las
posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.
Ejercicio 1.2.7. Resuelva cada uno de los siguientes sistemas aplicando el mtodo de eliminacin de Gauss.

1.2. Tcnicas de eliminacin

a)

c)

e)

17

x + 2y + 7z = 1
x + y z = 2
3x 2y + 5z = 5

b)

x1 + x2 + x3 + x4 + x5 = 2
x1 + x2 + x3 + 2x4 + 2x5 = 3
x1 + x2 + x3 + 2x4 + 3x5 = 2

d)

x + y + z = 2
3x + 3y z = 6
x y + z = 1

f)

x + 4y + 2z = 2
2x 8y + 3z = 32
y+z =1
x+y =1
xy =3
x + 2y = 2
2x y + 3z = 2
x + 2y + z = 1
3x 4y + 5z = 4

Solucin. El clculo de formas escalonadas correspondiente a cada sistema resulta en las


siguientes matrices:

1 2 7 1
a) 0 1 2 1 ,
0 0 0 0

1 1
1
d) 0 1 1 ,
0 0
1

1 4
b) 0 1
0 0

1 1
e) 0 1
0 0

2
1
1
1
0
1

2
1 ,
4

2
12 ,
3

1
c) 0
0

2
f) 0
0

1
0
0

1
0
0

1
5
2

1
1
0
3
21
0

1
1
1

2
1 ,
1

2
0 .
1

El primer sistema es consistente indeterminado; el conjunto de soluciones es:


T

{(1 3t , 1 2t , t) | t R}.
T

La nica solucin del segundo sistema es (2, 3, 4) . El conjunto de soluciones del sistema c)
es
{(1 s t, s, t, 2, 1)T | s, t R}.
El cuarto sistema es inconsistente. Finalmente, el sistema e) es consistente y determinado y la
T
nica solucin es 23 , 12 , 3 , en tanto que el sistema f) es inconsistente.

1.2.2.

La forma escalonada reducida y el mtodo de Gauss-Jordan

La tcnica de eliminacin de Gauss - Jordan es una variante de la eliminacin gaussiana. Son


dos las caractersticas que hacen diferente el mtodo de Gauss-Jordan del mtodo de Gauss:
a) En cada paso del proceso, cada pivote debe convertirse en 1.
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
Recuerde que una matriz E K mn est en la forma escalonada reducida por renglones si:
1. E est en forma escalonada.
2. Todos los pivotes son 1.
3. Cada pivote es la nica entrada distinta de cero en su columna.

18

1. Sistemas de ecuaciones lineales


La forma escalonada reducida de

0
0

una matriz se ve como sigue:

0 0 0

1 0 0

0 0 1 0

0 0 0 0 1

0 0 0 0 0 0 0
0 0 0 0 0 0 0

donde los pivotes son los nmeros encerrados en un cuadro.


Mtodo de eliminacin de Gauss - Jordan.
1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.
2. Llevar la matriz aumentada [A | b] a la forma escalonada reducida [U | c] mediante la aplicacin de operaciones elementales de rengln.
3. Resolver el sistema de ecuaciones lineales U x = c. Las variables bsicas corresponden a las
posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.
Resolvamos de nuevo el sistema de ecuaciones lineales:
2x1 + 6x2 + 6x3 + 2x4

2,

5x1 + 3x2 + 3x3 + 5x4

5,

4x1 + 4x4

4,

pero ahora por el mtodo de Gauss - Jordan.

2 6 6 2
La matriz aumentada es [A | b] = 5 3 3 5
4 0 0 4
una matriz A se obtiene con el comando A.rref():

2
5 . La matriz escalonada reducida de
4

sage : A = matrix (3 ,[2 ,6 ,6 ,2 , 5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A


[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage : b = vector ([2 ,5 ,4]); b
(2 , 5 , 4)
sage : B = A . augment (b , subdivide = True ); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
sage : B . rref ()
[1 0 0 1|1]
[0 1 1 0|0]
[0 0 0 0|0]

El sistema U x = c es:
x1 + x4

1,

x2 + x3

0.

Despejando x1 y x2 en trminos de x3 y x4 tenemos:


1 x4 ,

x1

x2

= x3 .

1.2. Tcnicas de eliminacin

19

Las variables bsicas son x1 y x2 ; las variables


libres son x3 y x4 . Por lo tanto el conjunto de

soluciones es (1 s, t, t, s)T | s, t R .

2 6 6 2
Ejemplo 1.2.8. Sea A = 5 3 3 5 R34 . Dado un vector b ya se sabe como encontrar
4 0 0 4
un vector x tal que Ax = b. Consideremos ahora el problema de hallar todos los vectores b de
tal manera que el sistema de ecuaciones Ax = b tenga solucin. En otras palabras, se quiere
describir el espacio columna de la matriz A. Entonces la pregunta es: cules son las condiciones
en b1 , b2 , b3 de tal manera que el sistema
2x1 + 6x2 + 6x3 + 2x4

= b1 ,

5x1 + 3x2 + 3x3 + 5x4

= b2 ,

4x1 + 4x4

= b3 ,

tiene solucin?
Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz aumentada [A | b]:
sage : var ( b1 b2 b3 )
( b1 , b2 , b3 )
sage : assume ( b1 ==0 , b2 ==0 , b3 ==0)
sage : A = matrix (3 , [2 ,6 ,6 ,2 , b1 ,5 ,3 ,3 ,5 , b2 ,4 ,0 ,0 ,4 , b3 ]); A
[ 2 6 6 2 b1 ]
[ 5 3 3 5 b2 ]
[ 4 0 0 4 b3 ]
sage : A . rref ()
[1
0
0
1
-1/8* b1 + 1/4* b2 ]
[0
1
1
0 5/24* b1 - 1/12* b2 ]
[0
0
0
0
1/2* b1 - b2 + b3 ]

Es necesario decirle a Sage que b1 , b2 y b3 pueden ser cero, para que no divida entre algn bi . El
correspondiente sistema de ecuaciones es
1
1
x1 + x4 = b1 + b2
8
4
5
1
x2 + x3 =
b1
b2
24
12
1
0x1 + 0x2 + 0x3 + 0x4 = b1 b2 + b3 .
2
El sistema tiene solucin si y solamente si b1 /2 b2 + b3 = 0. Luego
R(A) = {b R3 | x R4 , Ax = b} = {b R3 | b1 2b2 + 2b3 = 0}.
En particular, se tiene que (2, 5, 4)T R(A).

1.2.3.

Ejercicios

1. Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz

5
7
0
2 29 15
27
2
2
2
2
11 0
2 3
9
5 15

2 0 2
4
8 4
14

.
20 0 4
2
10
6
16
3
8 0
3
3 2
6
2

20

1. Sistemas de ecuaciones lineales

2. Considere el sistema de ecuaciones lineales:


E1 :

x1 x2 x4 = 1,

E2 :

4x1 4x2 + x3 3x4 x5 = 2,

E3 :

2x1 2x2 + x3 x4 x5 = 0.

a) Obtenga una combinacin lineal de este sistema.


b) Encuentre todas las soluciones del sistema y muestre por sustitucin directa que cada
solucin del sistema es solucin de la combinacin lineal encontrada en el inciso anterior.
c) Considere la combinacin lineal 2E1 + E2 + E3 . Demuestre que esta combinacin lineal
tiene al menos una solucin que no es solucin del sistema dado.
3. Determine la relacin o relaciones que deben satisfacer b1 , b2 , b3 para que el sistema:
2x1 + x2 2x3 + 2x4 = b1 ,
4x1 + x2 + 3x3 5x4 = b2 ,
6x1 5x3 + 7x4 = b3 ,
tenga solucin.

2
3
1
2
4
7
4
5
. Determine la relacin o relaciones que deben satisfacer
4. Sea A =
4
8 6 6
6
12
9
9
las coordenadas de b R4 para que el sistema Ax = b tenga solucin.
5. Utilice la eliminacin de Gauss - Jordan para resolver el siguiente sistema de ecuaciones
2x 4y + 2z 6w

3x + 6y 2z + 13w

2x + 4y + 14w

12

4x + 8y 7z

= 10.

6. Dada una matriz A Rmn se definen los siguientes conjuntos:


R (A)

N (A) =

N AT
=

R AT
=

{b Rm | x Rn , b = Ax} ,
{x Rn | Ax = 0} ,


y Rm | A T y = 0 ,


x Rn | y Rm , x = A T y .

Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espacio
rengln, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y rengln
de cada una de las siguientes matrices:

2 2
0 0
1
3 3 2
3 4 1 2 , 2
6 9 5 .
1 1 2 4
1 3 3 0

1
4
7. Sea A la matriz
3
2
A sea igual al espacio

2 0
3
8 2 10
. Encuentre una matriz B tal que el espacio columna de
6 2
7
4 2
4
nulo de B, es decir, R (A) = N (B).

1.2. Tcnicas de eliminacin

21

32
8. Encuentre matrices
 B1 , B2 R  tales que AB1 = I = AB2 , donde I es la matriz identidad
1 1 1
de 2 2 y A =
. Escoja al azar vectores b R2 y verifique que B1 b y B2 b
1
1 1
son soluciones del sistema de ecuaciones Ax = b.

2
5
3 R23 .
9. Sea A = 1
2 3

a) Encuentre matrices B1 , B2 R23 tales que B1 A = I = B2 A, donde I es la matriz


identidad de 2 2.

11
b) Encuentre una solucin del sistema Ax = b, donde b = 7 . Verifique que la
5
solucin que encontr es igual a Bi b, i = 1, 2.

1
c) Verifique que el sistema de ecuaciones Ax = 1 no tiene solucin.
1
10. Sean A Cmn , B Cnm y b Cm .
a) Suponga que AB es la matriz identidad de orden m. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene al menos una solucin.
b) Suponga que BA es la matriz identidad de orden n. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene a lo ms una solucin.
11.

a) Construya un sistema homogneo de cuatro ecuaciones y cinco incgnitas cuya solucin


general sea:
!
1 !
0!
1
x2

1
0
0
0

+ x4

0
2
1
0

+ x5

0
1
0
1

b) Construya un sistema no homogneo de cuatro ecuaciones y cinco incgnitas cuya solucin general sea:
!
!
1 !
0!
1
1
0
1
0
0

+ x2

1
0
0
0

+ x4

0
2
1
0

+ x5

0
1
0
1

12. Determine los valores de de tal manera que el sistema de ecuaciones:


x + y z = 1,
3x + y + z = 5,
4x + y = 5,
sea:
a) consistente y determinado;

b) indeterminado;

c) inconsistente.

13. Suponga que A y B son matrices de m n y que P es una matriz invertible tal que A = P B.
Pruebe que:


a) R AT = R B T .
b) N (A) = N (B) .


En particular, pruebe que si U es una forma escalonada de A, entonces R AT = R U T y
N (A) = N (U ) .
14. Sean A, B Rnn tales que (A + B)k = Ak + B k para todo entero positivo k. Demuestre
que si A es invertible, entonces B es la matriz cero.

22

1.3.

1. Sistemas de ecuaciones lineales

Rango y consistencia

Por la flexibilidad que se tiene al elegir las operaciones para llevar una matriz A a una forma
escalonada E no se puede hablar de una sola forma escalonada, de hecho una matriz puede
tener varias formas escalonadas. Sin embargo, se puede probar que una matriz A slo tiene una
forma escalonada reducida y de este hecho se deduce que cualquier forma escalonada de A tiene
el mismo nmero de pivotes y por lo tanto el mismo nmero de renglones diferentes de cero.
Definicin 1.3.1. Sea A una matriz m n y sea E su forma escalonada reducida. El rango de
A se define:
rango(A) = nmero de pivotes de E
= nmero de renglones diferentes de cero de E.
Las columnas bsicas de A (o columnas base) son las columnas de A que contienen las
posiciones pivotales.
Ejemplo SAGE 1.3.2. El comando A.rank() de Sage nos devuelve el rango de la matriz A:
sage : A = matrix (4 ,[1 ,2 ,1 ,3 ,3 , 2 ,4 ,0 ,4 ,4 ,1 ,2 ,3 ,5 ,5 ,2 ,4 ,0 ,4 ,7]); A
[1 2 1 3 3]
[2 4 0 4 4]
[1 2 3 5 5]
[2 4 0 4 7]
sage : A . rank ()
3
sage : A . rref ()
[1 2 0 2 0]
[0 0 1 1 0]
[0 0 0 0 1]
[0 0 0 0 0]

El comando A.pivots() regresa los nmeros de las columnas en las que se encuentran los pivotes
de A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si empezamos
a contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo hace Sage.
sage : A . pivots ()
(0 , 2 , 4)

1 2 1 3 3
2 4 0 4 4

Consideremos la matriz A =
1 2 3 5 5 . La forma escalonada reducida de A es
2 4 0 4 7

1 2 0 2 0
0 0 1 1 0

E=
0 0 0 0 1 . El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Las
0 0 0 0 0
posiciones pivotales de E estn en las columnas 1, 3 y 5. Por lo tanto, las columnas bsicas de
A son las columnas A1 , A3 y A5 , es decir:
 1   1   3 
2
columnas bsicas =
, 03 , 45
.
1
2

Trabajar con la forma escalonada reducida nos provee de ms informacin y explica un poco
por qu el nombre de columnas base. Observe que cada columna que no es bsica de E se puede

1.3. Rango y consistencia

23

expresar como combinacin lineal de las columnas bsicas anteriores:


2
1
2
1
0
0
0
1
0
=2 0 ;
= 2 0 + 1 10 .
0
0
0

Exactamente la misma relacin se tiene con las columnas no bsicas de A :


2
1
3
1
1
4
2
4
2
=2 1 ;
= 2 1 + 1 03 .
2
5
4

Esto no es coincidencia.
Lema 1.3.3. Sean A y B matrices m n y sea P una matriz invertible tal que P A = B. Si:
Bk = 1 Bb1 + 2 Bb2 + + j Bbj ,
entonces:
Ak = 1 Ab1 + 2 Ab2 + + j Abj .
Demostracin. De la hiptesis se deduce que A = P 1 B. Entonces:
Ak = columna k de la matriz P 1 B
= P 1 Bk
= P 1 1 Bb1 + 2 Bb2 + + j Bbj

= 1 P 1 Bb1 + 2 P 1 Bb2 + + j P 1 Bbj


= 1 Ab1 + 2 Ab2 + + j Abj .
En otras palabras, el lema establece que si una columna de B es combinacin lineal de algunas
(o de todas) las columnas de B, entonces la misma relacin de dependencia lineal existe entre
las columnas de A.
Teorema 1.3.4. Sea A una matriz m n y sea E su forma escalonada reducida. Entonces:
1. Cada columna no bsica Ek en E es una combinacin lineal de las columnas bsicas de E
que estn a la izquierda de Ek . Ms an:
Ek = 1 Eb1 + 2 Eb2 + + j Ebj ,
donde Eb1 , Eb2 , . . . , Ebj son las columnas bsicas a la izquierda de Ek , y los escalares i
son las primeras j entradas en Ek .
2. La relacin que existe entre las columnas de E es exactamente la misma que entre las columnas de A. En particular, si Ak es una columna no bsica de A, entonces:
Ak = 1 Ab1 + 2 Ab2 + + j Abj ,
donde Ab1 , Ab2 , . . . , Abj son las columnas bsicas a la izquierda de Ak y los escalares i
son las primeras j entradas en Ek .
Demostracin.
1. Sea Ek una columna no bsica de E y sean Eb1 , Eb2 , . . . , Ebj las columnas bsicas a la
izquierda de Ek . Entonces:
1
1
0
0
2
0
1
0
.
.
..
..
..
.
.
.
.

Ek =
0 + 2 0 + + j 1 ,
0j = 1


..
..
..
..
.
.
.
0
0
0
0

24

1. Sistemas de ecuaciones lineales


0

y claramente Eb1

..
..
..



= 0. , Eb2 = 0. , . . . , Ebj = 1. .
.
.
.
..
..
..
0

2. Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = P A.
El resultado se sigue ahora aplicando el lema anterior y el inciso 1.

Ejemplo 1.3.5. Si A es una matriz real tal que

2
4
A1 = 3 ,
A3 = 2 ,
2
5

1
EA = 0
0

5
0
0

0
1
0

8
3 ,
0

donde EA es la matriz escalonada reducida de A, entonces las columnas 1 y 3 de A son columnas


bsicas. Dado que E2 = 5E1 y E4 = 8 E1 + 3E3 sigue que las columnas 2 y 4 de A
satisfacen las mismas relaciones. Entonces

4
10
A2 = 5A1 = 15 ,A4 = 8 A1 + 3A3 = 30 .
1
10
Una verificacin directa muestra que efectivamente, EA es la forma escalonada reducida de la
matriz A.
La relacin entre el rango de una matriz y la consistencia de un sistema de ecuaciones lineales
se presenta en el siguiente teorema.
Teorema 1.3.6 (Consistencia). Las siguientes afirmaciones acerca del sistema de ecuaciones
Ax = b son equivalentes:
1. El sistema de ecuaciones Ax = b es consistente.
2. Al reducir [A | b] nunca aparece un rengln de la forma
(0

0 | ) ,

con 6= 0.

(1.8)

3. b no es una columna bsica en [A | b] .


4. rango ([A | b]) = rango (A) .
5. b es una combinacin lineal de las columnas bsicas en A.
Demostracin. (1 2): Supngase que el sistema es consistente pero que al reducir la matriz
[A | b] llegamos a una matriz [A0 | b0 ] que tiene un rengln de la forma (1.8). Esto implica que
la correspondiente ecuacin lineal es 0x1 + 0x2 + + 0xn = la cual claramente no tiene
solucin y en consecuencia el sistema de ecuaciones A0 x = b0 al que pertenece tampoco. Como
el conjunto de soluciones de Ax = b y A0 x = b0 es el mismo entonces el sistema Ax = b no tiene
soluciones lo cual contradice la hiptesis.
(2 3): Si b fuera una columna bsica, entonces se tendra un rengln de la forma (1.8) lo
cual es contrario a la hiptesis.
(3 4): Si b no es una columna bsica de [A | b], entonces todas las columnas bsicas de
[A | b] se encuentran en A y por lo tanto el nmero de columnas bsicas de [A | b] y A es el
mismo, es decir, estas matrices tienen el mismo rango.

1.3. Rango y consistencia

25

(4 5): Si el rango de [A | b] y A es el mismo, entonces b no es columna bsica de [A | b] ,


pues de ser as esta matriz tendra una columna bsica ms que A y su rango no sera igual al
de A. Como b no es columna bsica, por el teorema anterior se tiene que b es combinacin lineal
de las columnas bsicas de [A | b] , es decir, b es combinacin lineal de las columnas bsicas de
A.
(5 1): Finalmente, si b es combinacin lineal de las columnas bsicas de A, entonces
b es combinacin lineal de todas las columnas de A (con coeficiente cero en las columnas no
bsicas), es decir, existen s1 , s2 , . . . , sn tales que b = s1 A1 + s2 A2 + + sn An = As, donde
T
s = (s1 , . . . , sn ) lo que muestra que s es una solucin y por lo tanto el sistema es consistente.
Esto prueba el teorema.
De acuerdo al teorema anterior, el espacio columna de A, es igual al conjunto formado por
todas las combinaciones lineales de las columnas bsicas de A.

1.3.1.

Ejercicios

1. Calcule el rango de

1 2
8
1
0
1

1
1
3

1
0 72
2
1 1

las siguientes matrices reales.

3
2
4
1
1
4 0
1
0 14
7 1

1 0

10 3
1 2 25
, 123 0
1
1 2 1
1
4 0
1
0 1
2 1

5
9
15 7
18
19 13
15
.
122 245 493 247
13
9
33 25

2. La matriz escalonada reducida por renglones de una matriz A es

1 2 0
4 2 0 5
1
0
0
1
5
3
0
4
1

0 0
0 0 1
1 1
EA =
0
0
0 0
0 0 0
0
0
0
0 0
0 0 0
0
0
Las columnas 1, 3 y 6 de A son

5
1

A1 =
4 ,
5
8

A3 =

1
2
2
1
3

0
2
4
0
0

A6 =

2
3
1
0
1

Encuentre la matriz A.
3. Si A Rmn , demuestre que rango(A) mn{m, n}.
4. Pruebe que si A es una matriz m n cuyo rango es m, entonces el sistema de ecuaciones
Ax = b es consistente para cualquier b.
5. Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son [A | b] y [A | c] son
consistentes. Qu puede decir acerca de la consistencia del sistema de ecuaciones cuya matriz
aumentada es [A | b + c]?

1
0
2 a
1
1 1 en funcin del parmetro a.
6. Discuta el rango de la matriz A = 0
2 8 a 0

26

1. Sistemas de ecuaciones lineales

7. Discuta el rango de las siguientes matrices en funcin de los parmetros a y b.

1
A= 0
a

0 2
1 4
b
0

3
6 ,
0

2 2 0
0 2 1 .
b 0 4

1
B = 1
a

8. Determine todos los valores de de tal manera que el sistema de ecuaciones:


x + y + z = 1
x + y + z =
x + y + z = 2
sea:
a) determinado

b) indeterminado

c) inconsistente.

9. Calcule todos los valores de k (k R)


x 2y + 3z

2x + ky + 6z

x + 3y + (k 3) z

para los cuales el sistema (a) no tiene solucin; (b) tiene exactamente una solucin; (c) tiene
infinidad de soluciones. Para el caso de infinitas soluciones, encuentre la forma general de la
solucin.
!
10. Considere la matriz

1 3.75
2

2 ln 2 2
2
1
8 9 92 153

. Es posible que las cuatro columnas de esta matriz

sean bsicas?
11. Sea A una matriz de m n. Demuestre que el rango de A es igual a 1 si y slo si existen
vectores columna u 6= 0 de m 1 y v 6= 0 de n 1 tales que A = uv T .
12. Suponga que A tiene la forma escalonada reducida EA .

1
2
1 b
1
a
1 8 , EA = 0
A= 2
tercer rengln de A
0

2
0
0

0
1
0

3
2 .
0

a) Qu se puede decir del tercer rengln de A?


b) Determine los nmeros a y b.
13. Sean A y B matrices invertibles de n n, distintas de la matriz identidad I que satisfacen
las relaciones:
A7 = I y ABA1 = B 2 .
Demuestre que existe un entero k > 0 tal que B k = I y determine el menor valor de k con
esta propiedad.
14. Sean A, B Rnn matrices invertibles. Demuestre que si (AB)k = Ak B k para tres valores
enteros consecutivos de k, entonces AB = BA.
15.

a) Demuestre que toda matriz A Cnn se puede escribir como suma de n matrices de
rango 1.
b) Demuestre que la matriz identidad de tamao n n no se puede escribir como suma de
menos de n matrices de rango 1.

1.4. Sistemas homogneos

1.4.

27

Sistemas homogneos

Recuerde que un sistema de ecuaciones lineales de la forma Ax = 0 se llama homogneo. Los


sistemas homogneos siempre son consistentes pues x1 = x2 = = xn = 0 siempre es solucin
del sistema. A esta solucin se le denomina solucin trivial. El problema entonces no es encontrar
una solucin, ms bien se trata de determinar bajo qu condiciones un sistema homogneo tiene
una solucin no trivial. Al conjunto de todas las soluciones del sistema homogneo Ax = 0
asociado a la matriz A K mn se le conoce como el espacio nulo de A y se denota con el
smbolo N (A):
N (A) = {x K n | Ax = 0}.
Con base en la tcnica de eliminacin de Gauss - Jordan se tiene el siguiente algoritmo para el
clculo del espacio nulo de una matriz A.
Algoritmo para el clculo del espacio nulo de una matriz Amn de rango r.
1. Llevar la matriz A a su forma escalonada reducida E mediante operaciones elementales de
rengln.
2. Resolver el sistema de ecuaciones Ex = 0. Las r variables bsicas estn en trminos de las
n r variables libres.
3. Escribir la solucin general en forma de vector.
4. Descomponer la solucin general en una combinacin lineal de vectores.
Teorema 1.4.1. Sea A una matriz m n. El sistema homogneo Ax = 0 tiene solucin nica
si y slo si rango(A) = n.
Demostracin. Si el sistema homogneo Ax = 0 tiene solucin nica, entonces no hay variables
libres. Es decir, todas las columnas de A son bsicas y por lo tanto, rango(A) = n. Recprocamente, si rango(A) = n, entonces todas las columnas de A son bsicas. Es decir, no hay variables
libres y por lo tanto, el sistema homogneo Ax = 0 tiene solucin nica.
Ejemplos 1.4.2.

1
3 3 2
6 9 5 . La
1. Consideremos el sistema homogneo asociado a la matriz A = 2
1
3
3 0

1 3 0 1
forma escalonada reducida de esta matriz es E = 0 0 1 1/3. Como el rango es 2 < 4,
0 0 0 0
entonces la solucin del sistema tiene dos variables bsicas y dos libres y por lo tanto el
sistema tiene una solucin no trivial. El sistema asociado es:
x1 + 3x2 + x4 = 0,
x3 + 31 x4 = 0.
Las variables libres son x2 y x4 . Las soluciones son:
x1

= 3x2 x4 ,

x3

= 31 x4 .

Tambin podemos escribir:


3x2 x4
1
x1
3
x2

1
0
x2

=
x3 1 x4 = x2 0 + x4 1 .
3
3
x4
0
x4
1

28

1. Sistemas de ecuaciones lineales


Una descripcin del espacio nulo es la siguiente:

1
3
1
0

N (A) = {x2
0 + x4 1 : x2 , x4 R}.
3
0
1

2. Dado que

1
A= 0
1

17
1
1
1
1 11

1
EA = 0
0

0
1
0

0
0 ,
1

donde EA es la matriz escalonada reducida por renglones de A, entonces el rango de A es 3;


por lo tanto, el sistema homogneo asociado tiene solucin nica, y as N (A) = {0}.
La solucin general de un sistema de ecuaciones lineales homogneo no depende de la forma
escalonada que se use, pues al resolver el sistema utilizando la sustitucin hacia atrs para
expresar las variables bsicas en trminos de las variables libres, se obtiene la forma escalonada
reducida que es nica.

1.4.1.

Ejercicios

1. Si A es la matriz de coeficientes de un sistema homogneo formado por 4 ecuaciones y 8


incgnitas y hay 5 variables libres, cul es el rango de A?
2. Demuestre que un sistema homogneo de m ecuaciones y n incgnitas con m < n, siempre
tiene una infinidad de soluciones.
3. Sea Amn de rango n. Pruebe que la funcin T : K n K m dada por T (x) = Ax es una
funcin inyectiva.
4. Encuentre
A(con dos renglones) de tal manera que su espacio nulo sea N (A) =

una matriz

2
1
{r 3 + s 0 | r, s R}.
1
1

1.5.

Sistemas no homogneos

A continuacin se analizar la estructura del conjunto de soluciones de un sistema no homogneo Ax = b.


Teorema 1.5.1. Suponga que x0 es una solucin particular al sistema de ecuaciones Ax = b.
Entonces, el conjunto de todas las soluciones del sistema Ax = b es:
S

{x | Ax = b}

{x | x = x0 + h, donde h N (A)}

x0 + N (A)

Notacin

Demostracin. Si x S, entonces Ax = b. Como tambin Ax0 = b, entonces Ax = Ax0 , de


donde A (x x0 ) = 0 y por lo tanto x x0 N (A) ; haciendo h = x x0 se tiene x = x0 + h
con h N (A) . Recprocamente, si x x0 + N (A) , entonces x = x0 + h para algn h N (A) ;
entonces Ax = A (x0 + h) = Ax0 + Ah = b + 0 = b. Luego, x S.

1.5. Sistemas no homogneos

29

El teorema anterior muestra que la solucin de un sistema no homogneo Ax = b, est dada


en trminos de las soluciones del sistema homogneo Ax = 0, es decir, est en trminos del
espacio nulo de A. Ms precisamente, la solucin general del sistema no homogneo Ax = b,
donde rango(A) = r, es de la forma:
x = x0 + xf1 h1 + + xfnr hnr , con xf1 , . . . , xfnr escalares,
donde x0 es una solucin particular del sistema Ax = b, y xf1 h1 + + xfnr hnr es la solucin
general del sistema Ax = 0.
Ejemplo 1.5.2. Consideremos el sistema de ecuaciones Ax = b, donde A es la matriz del
Ejemplo 1.4.2 y b = (5, 3, 19)T . La forma escalonada reducida de [A | b] es

1 3 0 1 12
7
.
EA = 0 0 1 13
3
0 0 0 0
0
Las soluciones estn dadas por x1 = 12 3x2 x4 , x3 = 7/3 x4 /3. Por lo tanto, el conjunto
solucin es

1
3
12

0
0

S=
7/3 + {x2 0 + x4 1/3 : x2 , x4 R} = x0 + N (A),
1
0
0
donde x0 es una solucin del sistema Ax = b y N (A) es el espacio nulo de A.
Teorema 1.5.3. Sea A K mn . Las siguientes afirmaciones sobre el sistema consistente
Ax = b son equivalentes:
1. El sistema Ax = b es consistente y determinado.
2. rango(A) = n
3. No hay variables libres.
4. El sistema homogneo asociado solamente tiene la solucin trivial.
Demostracin. Si el sistema Ax = b es consistente y determinado, entonces por el teorema
anterior se sigue que el sistema homogneo asociado Ax = 0 tiene slo la solucin trivial, y por
el Teorema 1.4.1 el rango de A es n. Recprocamente, si el rango de A es n, entonces el sistema
Ax = 0 slo tiene la solucin trivial por el Teorema 1.4.1 y por lo tanto, el sistema consistente
Ax = b tiene solucin nica, por el teorema anterior. Esto demuestra que 1 2. Es claro que
2 3. Finalmente, la demostracin de 1 4 est contenida en la demostracin de 1 2.
Teorema 1.5.4. Sea A una matriz cuadrada de n n. Las siguientes afirmaciones son equivalentes.
a) A es una matriz invertible (A es no singular).
b) El rango de A es n.
c) La forma escalonada reducida de A es I.
d) Ax = 0 implica que x = 0.

30

1. Sistemas de ecuaciones lineales

Demostracin. Si A es no singular, entonces el sistema homogneo Ax = 0 es consistente y


determinado (la nica solucin es la trivial) y de acuerdo con el teorema anterior, su rango
es n; esto prueba a) b). Recprocamente, si el rango de A es n dado que A es una matriz
cuadrada, para cualquier b se tiene rango ([A | b]) = rango (A) y por tanto el sistema Ax = b
es consistente. De acuerdo con el teorema anterior y tomando en cuenta que rango (A) = n, el
sistema Ax = b tiene solucin nica. En particular para cada ej (1 j n) sea xj la nica
solucin del sistema Ax = ej . Sea X = [x1 | x2 | | xn ]; entonces AX = I. Si XA 6= I,
entonces XA I 6= 0 y por tanto al menos una columna de esta matriz no es cero. As,
A (XA I) = AXA AI = IA A = 0. Esto implica que el sistema Ax = 0 tiene al menos
una solucin no trivial (dicha solucin no trivial es una de las columnas distintas de cero de la
matriz XA I), lo cual de acuerdo al teorema anterior no puede ser. Por lo tanto, XA = I y
X = A1 . Esto demuestra que a) b). b) c) es inmediato. a) d) es tambin inmediato.
Demostraremos que d) a). En efecto, si Ax = 0 implica que x = 0, entonces el sistema
homogneo Ax = 0 slo tiene la solucin trivial y por el Teorema 1.4.1 el rango de A es n.
Luego, por la equivalencia entre b) y a) de este teorema, se sigue que A es invertible. Esto
demuestra que d) a) y as, a) d). Esto concluye la prueba.
Observacin 1.5.5. De acuerdo con el teorema anterior, una matriz A es invertible si y solamente si su forma escalonada reducida es la matriz identidad. Esto justifica el Mtodo de
Gauss-Jordan para calcular la inversa de una matriz cuadrada (Vea el pendice B).
Finalizamos la seccin probando que el rango de una matriz y el de su transpuesta son
iguales. Esto ser consecuencia del siguiente teorema.
Teorema 1.5.6. Si A es una matriz de tamao m n y de rango r, entonces existen matrices
invertibles P y Q tales que:


Ir 0
P AQ =
,
0 0
donde Ir es la matriz identidad de tamao r r.
Demostracin. Sea E la forma escalonada reducida de A. Entonces, existe una matriz invertible
P tal que P A = E. Como el rango de A es r, las columnas bsicas de E son las r columnas
unitarias. Aplicando intercambios de columnas a E podemos mover estas r columnas unitarias
a la parte ms izquierda. Si Q1 es el producto de las matrices elementales correspondientes a
estos intercambios de columnas, entonces P AQ1 tiene la forma:


Ir J
P AQ1 = EQ1 =
.
0 0
Multiplicando esta igualdad a la derecha en ambos lados por la matriz invertible:


Ir
J
Q2 =
,
0 Inr
obtenemos:


P AQ1 Q2 =

Ir
0

J
0



Ir
0

J
Inr


=

Ir
0

0
0


,

donde Inr es la matriz identidad de tamao (n r) (n r). Finalmente, haciendo Q = Q1 Q2


se
(Ntese que Q2 es una matriz de n n invertible, ya que la matriz
 sigue el resultado.

Ir
J
es su inversa).
0 Inr
Corolario 1.5.7. Para cada matriz A de m n, se tiene que:

rango (A) = rango AT .

1.5. Sistemas no homogneos

31

Demostracin. De acuerdo con el teorema anterior,


P , Q, R y S
 existen
 matrices
 invertibles

I
0
I
0
r
s
tales que P AQ = Nr y RAT S = Ns , donde Nr =
, Ns =
y r es el rango de A
0 0
0 0
T
y s es el rango de A . Tenemos que:
A = P 1 Nr Q1

y AT = R1 Ns S 1 .

Luego:
(P 1 Nr Q1 )T = R1 Ns S 1 .
Simplificando y usando el hecho de que NrT = Nr , tenemos que:
Nr = P 0 Ns Q0
donde P 0 y Q0 son las matrices invertibles QT R1 y S 1 P T , respectivamente. De la ltima
igualdad no es difcil concluir que r = s (observe que P 0 y Q0 son producto de matrices elementales y que la multiplicacin por una matriz elemental no cambia el rango), y as el rango de A
y el rango de AT coinciden.

1.5.1.

Ejercicios


1. El conjunto solucin del sistema Ax =

6
9


es

 


1
2
+ {r
| r R}. Determine la
1
1

matriz A.
2. Encuentre una
matriz
A de tal
que el conjunto solucin del sistema de ecuaciones
manera
 
1
2
7
Ax =
es 1 + {r 1 | r R}.
19
1
2
3. Suponga que A es una matriz de 2 1 y que B es una matriz de 1 2. Demuestre que AB
no es invertible.
4. Suponga que A es de m n con m > n y que B es de n m. Pruebe que AB no es invertible.
5. Sea A una matriz de n n. Demuestre las siguientes afirmaciones:
a) Si A es invertible y AB = 0 para alguna matriz B de n n, entonces B = 0.
b) Si A no es invertible, entonces existe una matriz B de n n, B 6= 0, tal que AB = 0.


a b
6. Sea A =
. Demuestre que A es invertible si y slo si ad bc 6= 0.
c d

1 4 0 2
7. Sea A una matriz cuya forma escalonada reducida es 0 0 1 2. Determine todas las
0 0 0 0
soluciones (si existen) del sistema: Ax = suma de las columnas de A.
8. Considere la matriz real de n n:

x+y
x

A= .
..
x

x
x+y
..
.

..
.

x
x
..
.

x+y

Determine los valores de x, y, para que la matriz A sea invertible y calcule A1 .

32

1. Sistemas de ecuaciones lineales

9. Sean A y B matrices de m n y n p, respectivamente.


a) Suponga que la columna k de la matriz B es una combinacin de lineal de otras columnas
de B, digamos, Bk = 1 Bk1 + + j Bkj . Pruebe que (AB)k = 1 (AB)k1 + +
j (AB)kj .
b) Pruebe que rango(AB) rango(B).
c) Pruebe que rango(AB) rango(A).
d) Suponga que A y B son matrices cuadradas de n n. Pruebe que si AB = I, entonces
rango(A) = n.
10. Sean A y B matrices de 2 3 y 3 2, respectivamente. Suponga que AB = I. Pruebe que
BA 6= I.

1.6.

Clculo de los cuatro espacios fundamentales

En este seccin iniciaremos el estudio de los cuatro espacios2 fundamentales asociados con
una matriz. Si A es una matriz de m n, dos de estos subespacios son subespacios de K n y los
otros dos de K m .
Dada una matriz A K mn se definen los siguientes conjuntos:
R (A)

= {b K m | x K n , b = Ax} .

N (A) = {x K n | Ax = 0} .



N AT
=
y K m | AT y = 0 .



R AT
=
x K n | y K m , x = AT y .
Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espacio
rengln, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Los
primeros dos surgieron previamente en la Subseccin 1.1.1 y en la Seccin 1.4, respectivamente.
Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones lineales. Dada una matriz A es natural preguntarnos para que bs el sistema de ecuaciones Ax = b
tiene solucin. En el caso del espacio nulo, ste simplemente es el conjunto de todas las soluciones del sistema homogneo Ax = 0. Si se conoce una solucin particular del sistema Ax = b,
entonces el conjunto de todas sus soluciones se obtiene sumando a la solucin particular un
elemento del espacio nulo. Ms adelante veremos que cada vector de Rn se puede escribir de
manera nica como un vector del espacio nlo de A ms un vector del espacio rengln de A.
Una situacin similar sucede en Rm .
Un subconjunto S de Rn se dice que est generado por vectores s1 , . . . , sl si para todo s S
existen constantes c1 , . . . , cl R tales que s = c1 s1 + + cl sl .
La demostracin del siguiente resultado se presenta en una versin ms general en el Teorema 3.5.1.
Teorema 1.6.1. Sea A una matriz m n de rango r. Sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Entonces:
1. R (A) es el conjunto generado por las columnas bsicas de A.

2. R AT  es el conjunto generado por los r renglones diferentes de cero de U y R(AT ) =
R UT .
3. N (A) es el conjunto generado por las n r h0i s en la solucin general de U x = 0. (Las hi s
se definieron en la seccin anterior).
2 En

el captulo 3 se estudiarn formalmente los espacios vectoriales.

1.7. Descomposiciones LU

33


4. N AT es el conjunto generado por los ltimos m r renglones de P.
Del teorema anterior se desprende inmediatamente el siguiente algoritmo.
Algoritmo para el clculo de los espacios fundamentales de una matriz
1. Lleve la matriz aumentada [A | Im ] a una forma escalonada [U | P ].
2. Particione la matriz [U | P ] de la siguiente manera:


U1 P1
r
[U | P ] =
0
P2
mr
Entonces:
R (A) =
 {generado
 por las columnas bsicas de A} = N (P2 ).
R AT = R U1T .
0
N (A) =
 {generado
 por las n r hi s en la solucin general de U x = 0}.
N AT = R P2T .
Ejemplo 1.6.2. Se calcularn los cuatro espacios fundamentales de la matriz

1 2
1 1
5
1 2
0
4
2
.
A=
1
2
1 9
1
1
2 1
1 5
La forma escalonada reducida por renglones de [A | I4 ] es


[U | P ] =

U1
0

P1
P2

1
0
=
0
0

2 0
4 2
0 1 5 3
0 0
0 0
0 0
0 0

0
0
1
0

0
0
0
1

12
1
2

0
1
2

21
21
.
1
1
2

Por lo tanto, las columnas 1 y 3 son las columnas bsicas de A. Se tiene:


R(A) = {rA1 + sA3 | r, s R} = {b R4 | b1 + b4 = 0, 2b2 + b3 + b4 = 0}.
Los espacios rengln y nulo izquierdo de A son
T
T
R(AT ) = {rU1
+ sU2
| r, s R},

1.7.

T
T
N (AT ) = {rP3
+ sP4
| r, s R}.

Descomposiciones LU

En secciones anteriores se analizaron los mtodos de eliminacin de Gauss y de Gauss Jordan para resolver sistemas de ecuaciones lineales. En esta seccin se analizar un mtodo
diferente para resolver sistemas cuadrados no singulares basado en la descomposicin LU de
una matriz. Esta descomposicin consiste en factorizar la matriz de coeficientes en un producto
de dos matrices: una triagular inferior y otra triangular superior. Este mtodo, adecuado para
emplear en computadoras, es en realidad la eliminacin de Gauss visto desde la perspectiva de
las matrices.
Cuando se utiliza la eliminacin gaussiana para llevar una matriz A a una forma escalonada U
se aplican operaciones elementales de rengln, lo que equivale a multiplicar por la izquierda por la

34

1. Sistemas de ecuaciones lineales

matriz elemental3 correspondiente. As, es posible encontrar matrices elementales E1 , E2 , . . . , Ek


tales que:
Ek E2 E1 A = U.
Como las matrices elementales son invertibles, entonces:
A = E11 E21 Ek1 U.
En general, las matrices elementales del tipo 1 (intercambio de renglones) y 3 (reemplazo
de un rengln por el mismo rengln ms un mltiplo de otro rengln) no son triangulares
inferiores, pero las que se usan en la eliminacin gaussiana s lo son. Se puede probar por
induccin (ejercicio) que el producto de matrices triangulares inferiores es una matriz triangular
inferior. Si suponemos que durante la reduccin no se encuentra un pivote cero, entonces no
es necesario el intercambio de renglones y la reduccin se puede realizar aplicando solamente
operaciones elementales del tipo 3. En este caso:
L = E11 E21 Ek1
es una matriz triangular inferior y por lo tanto:
A = LU,
que es una factorizacin de A en un producto de una matriz
triangular
superior. Ilustremos
con un ejemplo calculando una

2
6 2
A = 3 8 0 .
4
9 2

2
6
2
2
R21 (3/2)
R32 (3)
1
3 0
A 0
R31 (2)
0 3 2
0
El producto de las tres matrices elementales usadas es:

1
1 0 0
1 0 0
E3 E2 E1 = 0 1 0 0 1 0 3/2
0
2 0 1
0 3 1

0
1
0

triangular inferior y una matriz


descomposicin LU de la matriz

6
1
0

2
3 = U.
7

1
0
0 3/2
5/2
1

0
1
3

0
0 .
1

O sea que E3 E2 E1 A = U, por lo que A = E11 E21 E31 U = LU, donde:

1
0 0
1 0 .
L = E11 E21 E31 = 3/2
2 3 1
El ejemplo muestra varias cosas. Primero, la mayor parte del trabajo para obtener una descomposicin LU se invierte en el clculo de L. La matriz U es el resultado final de la eliminacin
gaussiana. La matriz L tiene en su diagonal 1s; debajo de la diagonal principal de L, cada
entrada lij es precisamente el negativo del multiplicador que se utiliz en la eliminacin para
introducir un cero en la posicin (i, j) . El trabajo se puede simplificar llevando un registro cuidadoso de las operaciones efectuadas para llevar a cabo la reduccin. Lo que ilustra este ejemplo
sucede en general, siempre que no se use intercambio de renglones.
El clculo de las matrices L y U usando Sage se muestra a continuacin.
3 Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operacin elemental
de rengln. Puesto que son tres las operaciones elementales de rengln, hay tres tipos de matrices elementales.
Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.

1.7. Descomposiciones LU

35

sage : A = matrix (3 , [2 ,6 ,2 , -3 , -8 ,0 , 4 ,9 ,2])


sage : P , L , U = A . LU ( pivot = nonzero )
sage : L , U
(
[
1
0
0] [2 6 2]
[ -3/2
1
0] [0 1 3]
[
2
-3
1] , [0 0 7]
)
sage : L * U
[ 2 6 2]
[ -3 -8 0]
[ 4 9 2]

Por el momento no haremos caso de la matriz P .


Teorema 1.7.1 (LU sin intercambios). Si A es una matriz n n no singular tal que no es
necesario aplicar ningn intercambio de renglones durante la eliminacin gaussiana, entonces
A se puede factorizar como A = LU, donde:
1. U es una forma escalonada de A que se obtiene al aplicar la eliminacin gaussiana a A.
2. L es una matriz triangular inferior y U es una matriz triangular superior.
3. lii = 1 y uii 6= 0, i = 1, 2, . . . , n.
4. Debajo de la diagonal principal de L, cada lij es el negativo del multiplicador usado para
introducir el cero en la posicin (i, j) .
5. Las matrices L y U estn determinadas de manera nica por las propiedades 2 y 3.
Demostracin. Para la prueba es til el concepto de matriz triangular inferior elemental. Sea k
0
.
..
0
un entero 1 k < n y sea ck = k+1
. Es decir, ck es un vector cuyas primeras k entradas
.
..
n

son cero. Sea ek el k-simo vector unitario de K n , es decir, ek es el vector que en su k-sima
entrada tiene al 1 y tiene ceros en todas las dems posiciones. La matriz:

0 1

1 0
Tk = I

ck eTk

.. .. . .
. . .
0 0
=
0 0
. .
.. ..

0
0

0 0
0 0

..
.

..
.

..
.

.. . . ..
. ..

..
.

1
0 0
k+1 1 0

0 0

0 1

se llama matriz triangular inferior elemental.


Estas matrices son invertibles. De hecho:

0 1

Tk1

=I+

ck eTk

1 0

0
0

0 0
0 0

.. .. . .
. . .
0 0
=
0 0
. .
.. ..

..
.

..
.

0 0

1
k+1

..
.

..
.
0 0 .
1 0
.. . . ..
. ..
0 1

36

1. Sistemas de ecuaciones lineales


En efecto,
Tk I + ck eTk

I ck eTk

I + ck eTk

= I + ck eTk ck eTk ck eTk ck eTk


= I,
ya que eTk ck = 0. La utilidad de las matrices triangulares inferiores elementales Tk est en que las
operaciones elementales tipos 2 y 3 necesarias para hacer ceros las entradas debajo del k-simo
pivote, se pueden lograr con una multiplicacin por Tk . Si:
1
0

Ak1

. . .
.. .. . .

= 0 0
0 0
. .
.. ..
0 0

..
.

k
k+1

..
.

..
.

..
.



.. . . ..
. ..

(k 6= 0)

es el resultado parcialmente triangularizado despus de k 1 pasos en la reduccin, entonces:


1
0 2

Tk Ak1

(I

ck eTk )Ak1

= Ak1

ck eTk Ak1

.. .. . . .. ..
. . . . .
k
=
00 00
0

.. ..
.. .. . .
. .
. . .
0 0

donde:

..
.
,

..
.

..
.

ck = k+1 /k
,

..
.
n /k

contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajo
de k . Note que Tk no altera las primeras k 1 columnas de Ak1 , ya que eTk [Ak1 ]?j = 0 si
j k 1. Por lo tanto, si ningn intercambio de rengln se requiere en la eliminacin gaussiana,
entonces al reducir A a una matriz triangular superior U , realizamos n 1 multiplicaciones por
la izquierda con matrices triangulares inferiores elementales. Es decir, Tn1 T2 T1 A = U , de
donde:
1
A = T11 T21 Tn1
U.
Note que eTi cj = 0 siempre que i < j. Por lo tanto:
1
L = T11 T21 Tn1


= I + c1 eT1 I + cn1 eTn1

= I + c1 eT1 + + cn1 eTn1 .


Observe que:
0 0
0 0

ck eTk

. .
.. ..

= 00 00

. .
.. ..

0 0

0
0

..
.

0
lk+1,k

..
.

lnk

0 0
0 0

..
.

..
.

..
.

..
.

0 0

0 0
0 0

1.7. Descomposiciones LU

37

donde los lik s son los negativos de los multiplicadores usados para introducir ceros debajo de
la posicin (k, k) en la eliminacin de Gauss. Por lo tanto, A = LU donde:

1
0 0
l21 1 0

L= .
..
. .
..
..
. ..
.
ln1

ln2

Por otra parte, si uii = 0 para algn i, 1 i n, entonces el rango de U y en consecuencia


el de A, sera a lo ms n 1 lo cual no puede ser puesto que al ser A no singular, el rango de A
es n. Por lo tanto, uii 6= 0 para cada i = 1, 2, . . . , n.
Para demostrar la unicidad de las matrices L y U , observe que L es invertible por ser producto de
matrices invertibles, y en consecuencia U = L1 A tambin es producto de matrices invertibles.
Luego, L y U son invertibles. Supongamos que L1 U1 = A = L2 U2 son dos factorizaciones LU
de A. Entonces:
1
L1
2 L1 = U2 U1 .

(1.9)

1
Note que L1
es una matriz triangular su2 L1 es una matriz triangular inferior y U2 U1
perior, ya que la inversa de una matriz triangular inferior (superior) es tambin triangular
inferior (superior), y el producto de dos matrices triangulares inferiores (superiores) es tambin
triangular inferior (superior) (ver ejercicios al final de la seccin). Luego, de (1.9) se sigue que
1
L1
es una matriz diagonal. Adems, [L2 ]ii = 1 implica que [L1
2 L1 = D = U2 U1
2 ]ii = 1 (por
1
qu?), y por lo tanto, L1
2 L1 = I = U2 U1 , de donde L1 = L2 y U1 = U2 . Esto prueba la
unicidad de la factorizacin y concluye la prueba.

Una vez que se tiene una descomposicin LU para una matriz no singular A es relativamente
fcil resolver el sistema Ax = b. Reescribiendo Ax = b como L(U x) = b, y haciendo el cambio
de variable y = U x, es fcil verificar que el sistema Ax = b es equivalente a los dos sistemas
triangulares Ly = b y U x = y.
En efecto, si y es una solucin de Ly = b y x es una solucin de U x = y, entonces x es una
solucin de Ax = b, pues Ax = LU x = Ly = b. Recprocamente, si x es una solucin de Ax = b,
entonces x es una solucin de y = U x y y es solucin de Ly = b.
Ahora bien, los dos sistemas son muy fciles de resolver. El primero por sustitucin hacia
adelante y el segundo por sustitucin hacia atrs.
Ejemplo 1.7.2. Usando la descomposicin LU resuelva el sistema Ax = b, donde


2
2
2
12
7
7 y b = 24 .
A = 4
6 18 22
12
Para mayor claridad, conforme vayamos reduciendo la matriz escribiremos en negrita en la
posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j).

A
Entonces:

2
= 4
6

2
7
18

2
2
R21 (2)
7 2
R31 (3)
22
3

1
L = 2
3

0
1
4

0
0
1

2
3
12

2
2
3 2
R32 (4)
16
3

2
y U = 0
0

2
3
0

2
3 .
4

2 2
3 3 .
4 4

38

1. Sistemas de ecuaciones lineales


Observe que:

0
1
c1 = 2 , T1 = 2
3
3


0
0
0 , c2 = 0 ,
1
4

1 0 0
0 0
L = I + c1 eT1 + c2 eT2 = 0 1 0 + 2 0
0 0 1
3 0
Ahora resolvemos

1
2
3
Finalmente, por

2
0
0

0
1
0

primero el sistema Ly = b

0 0
y1
12
1 0 y2 = 24
4 1
y3
12

1
0
1
T2 = 0
0 4

0
0 0
0 + 0 0
0
0 4

0
0 ,
1

0
0 .
0

mediante sustitucin hacia adelante.


y1 = 12,
y2 = 24 2y1 = 0,
y3 = 12 3y1 4y2 = 24.

sustitucin hacia atrs resolvemos el sistema U x = y.


2 2
x1
12
x3 = 24/4 = 6,
3 3 x2 = 0 x2 = (0 3x3 )/3 = 6,
0 4
x3
24
x1 = (12 2x2 2x3 )/2 = 6.

Si se va a resolver solamente un sistema Ax = b, entonces no existe una diferencia significativa


entre la tcnica de reducir la matriz aumentada [A | b] a una forma escalonada y el mtodo de
la descomposicin LU. Sin embargo, si fuera necesario resolver el sistema Ax = b para diferentes
vectores b, entonces es relativamente ms econmico resolver estos sistemas a partir de una
descomposicin LU.


0 1
No todas las matrices tienen una descomposicin LU. Para la matriz
no es posible
1 0
encontrar un valor u11 6= 0 que satisfaga:

 


0 1
1 0
u11 u12
=
.
1 0
l21 1
0 u22
El problema radica en el valor del pivote en la posicin (1,1). En este caso se procede
1 0
a efectuar un intercambio de renglones, y la matriz resultante
evidentemente tiene
0 1
una descomposicin LU. Ahora bien, el problema del intercambio no solo se presenta cuando se
encuentra un cero en una posicin donde se requiere un pivote durante el proceso de eliminacin.
En la prctica es necesario realizar intercambios de renglones para reducir los errores provocados
por el redondeo, cuando se resuelve numricamente un sistema.
A continuacin se analizar cul es el efecto de aplicar intercambios durante el proceso para
hallar la descomposicin LU. En caso de tener que realizar uno o ms intercambios durante el
proceso se tendra algo as:
Tn1 Er Tk+1 E1 Tk T2 T1 A = U.
Basta analizar qu sucede cuando se aplica una matriz elemental a una matriz triangular
inferior elemental. Sea Tk = I ck eTk una matriz triangular inferior elemental, y sea E la matriz
elemental del tipo I que se obtiene de la identidad al intercambiar los renglones i y j, donde
k < i, j. Es decir E intercambia dos renglones debajo del rengln k. Tomando en cuenta que
E 2 = I (por qu?) y que eTk E = (rengln k de E) = eTk (por qu?), se tiene que:
ETk E

E(I ck eTk )E = (E Eck eTk )E

E 2 Eck eTk E = I (Eck ) eTk = I e


ck eTk ,

1.7. Descomposiciones LU

39

donde e
ck = Eck . Como e
ck tambin es un vector cuyas primeras k entradas son ceros, tenemos
que la matriz Tek = ETk E = I e
ck eTk sigue siendo una matriz triangular inferior elemental.
Adems las matrices Tk y Tek solamente difieren en las posiciones (i, k) y (j, k) , en las que estn
permutados los elementos i y j , es decir en la posicin (i, k) de Tek est j y en la posicin
(j, k) est el elemento i . Suponga que se est llevando la matriz A a una forma escalonada y
exactamente despus del ksimo paso es necesario efectuar el intercambio de los renglones i y
j (k < i, j). Insertando E 2 a la derecha de cada Tj se tiene
ETk Tk1 T1

= ETk E 2 Tk1 E 2 T1 E 2
(ETk E) (ETk1 E) (ET1 E) E
= Tek Tek1 Te1 E.

Esto implica que se puede trasladar la matriz E a la derecha del producto de las matrices
Ti , y las matrices Tei s siguen siendo triangulares inferiores elementales. Ms an, las matrices
Tk Tk1 T1 y Tek Tek1 Te1 difieren en que en los renglones i y j tienen intercambiados los
multiplicadores (Observe que no todo el rengln i est intercambiado con el rengln j). De esta
manera la eliminacin gaussiana con intercambio de renglones se puede expresar en la forma:
Ten1 Te2 Te1 P A = U,
donde P es el producto de las matrices elementales de intercambio de renglones que se utilizaron
1
y las Tek s son las matrices triangulares inferiores
durante el proceso, L = Te11 Te21 Ten1
elementales en las que los multiplicadores estn intercambiados de acuerdo a los intercambios
que se realizaron en el proceso.

1
2 3
4
4
8
12 8
y determinemos la descomposicin
Veamos un ejemplo. Sea A =
2
3
2
1
3 1
1 4
P A = LU , donde P es la matriz permutacin asociada.
Para mayor claridad, conforme vayamos reduciendo la matriz, escribiremos en negrita en la
posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j). Tambin
usaremos una columna adicional p que nos servir como contador en los intercambios de rengln.
Esta columna estar formada por los nmeros 1, 2, 3, 4.

[A | p] =

R21 (1/4)

R31 (1/2)
R41 (3/4)

R32 (1/5)

R43 (1/3)

1
2
3
4
8
12

2
3
2
3 1
1

4
8 12
1
0 6
41

1
4
2
34
5 10

4
8 12
3
5
10
14
1

2
2
5
1
0 6
4

4
8
12
3
5
10
41

0
6
4
1
15 13
2

4
8
1
4
8
6
5
10
8
10
3
6
8
10
6
1

1
4
8 12 8 2
2
1
2 3
4 1
R12

2
3
3
2
1 3
4
3 1
1 4 4

4
8 12
8
2
3
1
5
10
10
R24
14

3
1 4
5
2
1
4
0 6
6
4

2
4
8 12
8
3
4
5 10 10
R34

41

3
0
6
6
4
1
1
15 2
3
2

2
4
.
1
3

2
4

3
1

2
4

1
3

40

1. Sistemas de ecuaciones lineales


Por lo tanto:

1
3
4
L=
1

0
1
0

4
1
2

15

0
12 8
0
10 10
, P =
1
6
6
0
0
1

0 0
4 8
0 5
0 0
, U =
0 0
1 0
1
0 0
1
3

1
0
0
0

0
1
.
0
0

0
0
0
1

Como P es invertible, el sistema Ax = b es equivalente al sistema P Ax = P b. Por lo tanto


se puede emplear la tcnica descrita antes para resolver el sistema permutado: resolver primero
Ly = P b y posteriormente U x = y.
Note que:
U

=
=

T3 E3 T2 E2 T1 E1 A = T3 (E3 T2 E3 )(E3 (E2 T1 E2 )E3 )(E3 E2 E1 )A


e
T3 (Te2 E3 Te2 E3 )P A = T3 Te2 Te1 P A,

donde E1 , E2 y E3 son las matrices elementales que


3 y 4, respectivamente, y:

1 0 0 0
1 0 0
0 1 0
3 1 0 0
ee
4
e

T1 =
1 0 1 0 , T2 = 0 0 1
4
0 15 0
12 0 0 1

intercambian los renglones 1 y 2, 1 y 4, y

0
1
0
0
, T =
0 3 0
0
1

0
1
0
0

0
0
1
31

0
0
.
0
1

e
La diferencia de Te1 con T1 est en las posiciones (2, 1), (3, 1) y (4, 1): [T1 ]21 = 1/4, [T1 ]31 =
1/2 y [T1 ]41 = 3/4. Con Sage la tarea es sencilla.
sage : A = matrix (4 ,[1 ,2 , -3 ,4 ,
sage : P ,L , U = A . LU ()
sage : P , L , U
(
[0 0 1 0] [
1
0
0
[1 0 0 0] [ -3/4
1
0
[0 0 0 1] [ 1/4
0
1
[0 1 0 0] , [ 1/2 -1/5 1/3
)
sage : P * A == L * U
False
sage : P . inverse ()* A == L * U
True
sage : A == P * L * U
True

1.7.1.

4 ,8 ,12 , -8 ,2 ,3 ,2 ,1 , -3 , -1 ,1 , -4])

0]
0]
0]
1] ,

[
[
[
[

4
0
0
0

8
5
0
0

12 -8]
10 -10]
-6
6]
0
1]

Ejercicios

1. Pruebe que las matrices Tk definidas en esta seccin son triangulares.


2. Pruebe que si T1 y T2 son matrices n n triangulares inferiores (superiores), entonces T1 T2
es una matriz triangular inferior (superior).
3. Pruebe que si T es una matriz cuadrada triangular inferior (superior) invertible, entonces
T 1 tambin es triangular inferior (superior). (Sugerencia: demuestre primero que tii 6= 0
para cada i = 1, 2, . . . , n).

1.7. Descomposiciones LU

41

4. Calcule matrices triangulares inferiores


elementalesT1 y T2 tales que U = T2 T1 A sea una

2 1
3
4 8 . Verifique que A = LU, donde L =
matriz escalonada, donde A = 2
6
3
3
T11 T21 .
5. Considere la matriz elemental Ek (c). Pruebe que Ek (c) = I (1 c)ek eTk y que Ek (c)1 =
Ek ( 1c ). Es Ek (c) una matriz triangular inferior elemental?
6. Considere la matriz elemental Eij (c) con i 6= j. Pruebe que Eij (c) = I + cei eTj y que
Eij (c)1 = I cei eTj . Es Eij (c) es una matriz triangular inferior elemental?
7. Se dice que una matriz cuadrada A acepta una descomposicin LDU si A = LDU, donde L
es una matriz triangular inferior con unos en la diagonal principal, D es una matriz diagonal
y U es una matriz triangular superior con unos en la diagonal superior. Pruebe que si A es
una matriz que acepta una descomposicin LU entonces acepta una descomposicin LDU.
Sugerencia: Analice el siguiente ejemplo y generalice:


 

 


3 2
1 0
3 2
1 0
3 0
1 32
.
A=
=
=
9
8
3 1
0
2
3 1
0 2
0
1
8. Pruebe que si A es una matriz simtrica que acepta una descomposicin LDU, entonces la
descomposicin LDU de A es de la forma LDLT . (Recuerde que una matriz cuadrada A es
simtrica si A = AT ).
9. Para cada una de las siguientes matrices

1 2
4 17
3 6 12 3

2 3 3 2 ,
0 2 2 6

10.

11.

12.

13.

2
2

6
4

1
5
1
1

4
20
12
6

3
27
,
0
1

calcule la factorizacin P A = LU . Encuentre matrices triangulares Ti , i = 1, 2, 3, tales que


T3 T2 T1 P A = U .

1
2 0
Considere la matriz A = 5 10 1 . Determine una matriz permutacin P tal que
2 5 1
P A tenga una factorizacin LU . Encuentre las matrices L y U .


0
1
1
2
2 4 y b = 4. Determine una matriz permutacin P , as como
Sean A = 0
2 5
1
8
los factores L y U tales que P A = LU . Usando las matrices P, L y U resuelva el sistema
Ax = b.

2 0
Determine todos los valores de para los cuales A = 1 1 tiene una factorizacin
0 1
LU .

3
1 1
0 5 .
Sea A = 6
21 11 6
a) Calcule la factorizacin LU de A.

42

1. Sistemas de ecuaciones lineales


b) Use la factorizacin LU para resolver los sistemas Ax = b1 y Ax = b2 , donde b1 =
T
T
(13, 17, 84) y b2 = (2, 11, 5) .
c) Usando la factorizacin LU de A calcule la inversa de A.
d) Encuentre una factorizacin LDU de A.

14. Sea A = LU la factorizacin LU de la matriz invertible A. Encuentre L si se utilizaron las


siguientes operaciones para obtener U .
a) R21 (2), R31 (5), R32 (8).
b) R31 (1/3), R41 (2/3), R42 (1/2) y R43 (1/2).
15. Sea A = LU la factorizacin LU de la matriz invertible A. Para cada una de las matrices L
a continuacin, determine las operaciones elementales que se usaron para obtener la matriz
U:

1 0 0
0 0

1
0
0 0
0 1 0
0 0
1
0 0

5
1
0 0

2
0 0
1 0
,
.
1 3 1
2/3 5
1 0
4 0 1
1 0
8 1 1
9
4 3 1
1 2 0 1 1

CAPTULO

Determinantes

El estudio de la teora de determinantes es importante por derecho propio. Sin embargo, en


este captulo desarrollaremos nicamente la herramienta necesaria para aplicarla a la solucin
de sistemas de ecuaciones lineales. Esto se har en las primeras tres secciones.
En la ltima seccin se aplicar la teora de los determinantes para probar la Regla de Cramer
que proporciona un mtodo para resolver sistemas de ecuaciones lineales de n ecuaciones con n
incgnitas, cuya matriz de coeficientes tiene determinante distinto de cero. El uso de esta regla
es principalmente de corte terico, pero no por ello menos importante.
El captulo termina con una aplicacin de los determinantes al clculo de reas y volmenes.

2.1.

Existencia de una funcin determinante

Dada una matriz A, Aj denota la columna j de A.


Definicin 2.1.1. Sea K un campo. Una funcin D : K nn K es una funcin determinante
si satisface las siguientes propiedades:
1. Si A, B y C son matrices de n n tales que para algn entero r, 1 r n, se tiene:
Cr = Ar + Br ,
Cj = Aj = Bj , j 6= r,
entonces D (C) = D (A) + D (B) .
2. Si A y B son matrices de n n tales que para algn entero r, 1 r n, se tiene:
Br = cAr , (c K),
Bj = Aj , j 6= r,
entonces D (B) = cD (A) .
3. Si A tiene dos columnas adyacentes iguales, entonces D (A) = 0.
4. D (I) = 1, donde I es la matriz identidad de n n.
43

44

2. Determinantes

Ejemplo 2.1.2. Sea D : Q33 Q una funcin determinante. De acuerdo a la definicin se


tiene que

3
D 2
7

8
3
3
5 12 = 3D 2
11 27
7

8 1
5
4 ,
11
9

ya que la matriz del lado izquierdo se obtiene de la matriz del lado derecho multiplicando su
tercera columna por 3. De acuerdo con la definicin tambin se tiene que

a + a0
D d + d0
g + g0

b c
a
e f = D d
h i
g

b
e
h

0
c
a
f + D d0
i
g0

b c
e f .
h i

Sea D una funcin determinante. Las primeras dos propiedades de la definicin dicen que
D es una funcin n-lineal, es decir, D es una funcin lineal de la j-sima columna cuando las
otras n 1 columnas se quedan fijas. Ms precisamente, para una matriz A = [A1 | . . . | An ],
escribamos D(A) = D(A1 | . . . | An ). Entonces para cada j, 1 j n, la funcin Tj : K n K
definida por
Tj (x) = D(A1 | . . . | x | . . . | An ),
donde x aparece en la j-sima posicin, es una funcin lineal, es decir Tj (x1 + x2 ) = Tj (x1 ) +
Tj (x2 ) y Tj (cx) = cTj (x) para cualesquiera x1 , x2 K n y cualquier escalar c K.
Para fijar las ideas veamos un ejemplo concreto.
Ejemplo 2.1.3. Definamos la funcin D : R33 R como sigue:
D

 a11

a12 a13
a21 a22 a23
a31 a32 a33



= 3a21 a32 a13 .

Sea A arbitraria. La funcin T1 : R3 R est dada por


T1

 x1 
x2
x3

=D

 x1

a12 a13
x2 a22 a23
x3 a32 a33



= 3x2 a32 a13 = 3a32 a13 x2 .

Anlogamente, T2 (x) = 3a21 x3 a13 y T3 (x) = 3a21 a32 x1 . Claramente las funciones T1 , T2 y T3
son lineales. Por ejemplo para T1 se tiene
T1 (x + y) = D(x + y | A2 | A3 ),

T1 (cx) = D(cx | A2 | A3 )

= 3a32 a13 (x2 + y2 ),

= 3a32 a13 (cx2 )

= 3a32 a13 x2 + 3a32 a13 y2 ,

= c(3a32 a13 x2 )

= D(x | A2 | A3 ) + D(y | A2 | A3 ),

= cD(x | A2 | A3 )

= T1 (x) + T1 (y),

= cT1 (x).

Esto muestra que la funcin D es 3-lineal, es decir, satisface las primeras dos condiciones de la
Definicin 2.1.1. Sin embargo, esta funcin no es una funcin determinante, ya que por ejemplo
D(I) = 0.
El siguiente resultado muestra que existen funciones determinante.
Teorema 2.1.4. Para cada campo K existe exactamente una funcin determinante det :
K 22 K.

2.1. Existencia de una funcin determinante

45

Demostracin. La prueba se da en dos partes: existencia y unicidad. Para probar la existencia


definamos det ac db = ad bc. Paramostrar que se cumple la primera condicin de la definicin


0
0
b
sean A = ac db , B = ac0 db y C = a+a
. Entonces:
c+c0 d
det(C) = (a + a0 )d b(c + c0 ) = ad bc + a0 d bc0 = det(A) + det(B).



0 
b+b0
La prueba es anloga si A = ac db , B = ac db 0 y C = ac d+d
. Si ahora A =
0

ka
b
B = kc d , entonces:

a b
c d

det(B) = (ka)d b(kc) = k(ad bc) = k det(A).


Se deja al lector demostrar las otras dos condiciones de la definicin.
Para probar la unicidad supongamos que hay otra funcin determinante, es decir supongamos
22
que hay una funcin
K que satisface la definicin para ser una funcin determinante.
 D:K
a
b
Como A = c d , podemos escribir ( ac ) = a ( 10 ) + c ( 01 ) = ae1 + ce2 y db = be1 + de2 , de modo
que:
D(A) = D(ae1 + ce2 | A2 )
= D(ae1 | A2 ) + D(ce2 | A2 )
= aD(e1 | A2 ) + cD(e2 | A2 )
= aD(e1 | be1 + de2 ) + cD(e2 | be1 + de2 )
= ad + bcD(e2 | e1 ).
Como 0 = D(e1 + e2 | e1 + e2 ) = D(e1 | e2 ) + D(e2 | e1 ) = 1 + D(e2 | e1 ), se tiene que
D(e2 | e1 ) = 1 y por lo tanto D(A) = det(A).
Ms adelante demostraremos que para cada entero positivo n siempre existe exactamente
una funcin determinante det : K nn K.
Para el siguiente resultado es til el concepto de submatriz. Si A es una matriz de n n, y
r y s son enteros entre 1 y n, se denota con Ars a la matriz de tamao (n
1) (n 1) que

1 1 3 2
3 5 7 2

se obtiene de A suprimiendo el rengln r y la columna s. Por ejemplo, si A =


1 2 9 8 ,
4 0 2 2

1 1 2
entonces A23 = 1 2 8.
4 0 2
Teorema 2.1.5 (Desarrollo por cofactores). Sea n Z, n > 1. Si det : K (n1)(n1) K es
una funcin determinante, entonces para cada entero s (1 s n), la funcin Ds : K nn K
dada por:
n
X
s+j
Ds (A) =
(1)
asj det (Asj ) ,
j=1

es una funcin determinante. (El nmero (1)s+j det(Asj ) se llama cofactor asociado al elemento asj ).
Demostracin. Sea s {1, 2, . . . , n}. Sean A = (aij ), B = (bij ) y C = (cij ) matrices de n n
tales que para algn r {1, 2, . . . , n}, cir = air + bir y cij = aij = bij para j 6= r, 1 i n.
Analicemos las submatrices Csj , Asj y Bsj . Note que Csr = Asr = Bsr .
Si j < r, entonces la columna r 1 de la submatriz Csj es la suma de las columnas r 1 de las

46

2. Determinantes

submatrices Asj y Bsj . Si j > r, entonces la columna r de Csj es la suma de las columnas r de
Asj y Bsj . En cualquier caso tenemos que det(Csj ) = det(Asj ) + det(Bsj ). Luego:
Ds (C)

(1)s+r csr det(Csr ) +

X
(1)s+j csj det(Csj )
j6=r

(1)

s+r

(1)

s+r

(asr + bsr ) det(Csr ) +

X
(1)s+j csj (det(Asj ) + det(Bsj ))
j6=r

s+r

asr det(Csr ) + (1)

bsr det(Csr ) +

X
(1)s+j csj det(Asj ) +
j6=r

X
(1)s+j csj det(Bsj )
j6=r

(1)s+r asr det(Asr ) +

X
(1)s+j asj det(Asj ) + (1)s+r bsr det(Bsr ) +
j6=r

X
(1)s+j bsj det(Bsj )
j6=r

Ds (A) + Ds (B).

Supongamos ahora que Br = cAr con c K y Bj = Aj para j 6= r. Si j < r, entonces la


columna r 1 de la submatriz Bsj es c veces la columna r 1 de la submatriz Asj . Si j > r,
entonces la columna r de la submatriz Bsj es c la columna r de la submatriz Asj de A. En
cualquier caso se tiene que det(Bsj ) = c det Asj . Por lo tanto,
Ds (B) = (1)s+r bsr det(Bsr ) +

(1)s+j bsj det(Bsj )

j6=r
s+r

= (1)

casr det(Asr ) +

(1)s+j casj det(Asj )

j6=r

n
X
= c (1)s+j asj det(Asj )
j=1

= cDs (A).
A continuacin se prueba que Ds (I) = 1. Recordemos que I = (ij ), donde ij es la delta de
Kronecker. Note que Iss es la matriz identidad de tamao (n 1) (n 1). Dado que sj = 0
si s 6= j y ss = 1, obtenemos
Ds (I) =

n
X

(1)s+j sj det(Isj ) = (1)s+s 1 det(Iss ) = 1.

j=1

Esto muestra que la funcin Ds satisface las condiciones 1,2 y 4 de la Definicin 2.1.1. Se
deja de ejercicio al lector completar la demostracin.
Teorema 2.1.6 (Existencia de una funcin determinante). Sea K un campo. Para cada entero
positivo n, existe una funcin determinante D : K nn K.
Demostracin. La prueba la haremos por induccin en n. Si n = 1, es fcil verificar que la funcin
K 11 K dada por [a] 7 a es una funcin determinante. Supongamos que la afirmacin es
vlida para algn entero r > 1, es decir, supongamos que existe una funcin determinante
det : P
K rr K. Entonces por el Teorema 2.1.5, la funcin K (r+1)(r+1) K dada por
r+1
A 7 j=1 (1)1+j a1j det(A1j ) es una funcin determinante.

2.1. Existencia de una funcin determinante

47

2
Ejemplo 2.1.7. Usando la frmula del Teorema 2.1.5, halle D1 (A) si A = 1
4
Tenemos que:






0
2
1
2
1 0
D1 (A) = (2) det
(1) det
+ (3) det
1 1
4 1
4 1

1
3
0
2.
1 1

= (2)(2) 1(9) + 3(1) = 16,



a
donde det
c

2.1.1.


b
= ad bc segn la demostracin del Teorema 2.1.4.
d

Ejercicios

1. Sean A1 y A2 las columnas de la matriz A = [A1 | A2 ] K 22 . Demuestre que:


a) Si K, entonces det(A1 + A2 | A2 ) = det(A1 | A2 + A1 ) = det(A1 | A2 ).
b) det(A1 | A2 ) = det(A2 | A1 ).
c) det(A) = det(AT ).
2. Pruebe que det(AB) = det(A) det(B), para cualesquiera A, B K 22 .
3. Pruebe que A K 22 es invertible si y solamente si det(A) 6= 0.
4. Pruebe que si A K 22 es invertible, entonces det(A1 ) = det(A)1 .


a b
5. Pruebe que si A =
K 22 es invertible, entonces
c d
A

1
=
det(A)

d b
c
a


.

6. Sea A K 22 . Pruebe que det(I A) = 2 tr(A)+det(A), donde I es la matriz identidad


de 2 2 y K. (Nota. La traza de A es la suma de los elementos de la diagonal principal
de A y se denota por tr A).
7. Sea A K 22 . Determine la condicin o condiciones que debe cumplir K para que I A
sea una matriz singular.


1 5
8. Considere la matriz real A =
. Encuentre todos los valores de tales que I A
5
1
es singular. Para cada , encuentre todas las x tales Ax = x.
9. Sea A K 22 tal que A2 = 0. Demuestre que det(I A) = 2 para todo K.
10. Sea A K 22 . Demuestre que det(I + A) = 1 + det(A) si y slo si tr(A) = 0, donde I es la
matriz identidad 2 2.
11. Sea A R22 . Pruebe que det(AT A) 0. Pruebe que det(AT A) > 0 si y solamente si
rango(A) = 2.
12. Complete la demostracin del Teorema 2.1.5.

48

2.2.

2. Determinantes

Permutaciones

Para estudiar las propiedades de los determinantes es necesario conocer algunas de las propiedades de las permutaciones.
Una permutacin de un conjunto A, es una funcin biyectiva : A A. La permutacin
identidad es la funcin identidad en A definida por 1A (a) = a para toda a A. La composicin de
funciones es una operacin binaria en SA , es decir, SA para cualesquier , SA . La inversa
de una permutacin es nuevamente una permutacin. De hecho, SA junto con composicin de
funciones es un grupo. A la composicin de permutaciones, la llamaremos multiplicacin de
permutaciones.
Si A es el conjunto finito
de A, i.e.
 A = {1, 2, . . . , n}, y
 es una permutacin de los elementos


1
2
...
n
1 2 3 4 5
SA , escribimos =
. Por ejemplo, n = 5 y =
,
(1) (2) . . . (n)
3 5 2 4 1
entonces (1) = 3, (2) = 5, (3) = 2, (4) = 4 y (5) = 1.
Ilustremos la multiplicacin
de permutaciones.
Para ilustrar
esto, supongamos que A =



1 2 3 4 5
1 2 3 4 5
{1, 2, 3, 4, 5}, =
y=
. Entonces:
4 2 5 3 1
3 5 4 2 1

=

1
3

2
5

3
4

4
2

5
1


1
4

2
2

3
5

4
3

5
1


=

1
2

2
5

3
1

4
4


5
.
3

Si A es el conjunto finito {1, 2, . . . , n}, escribimos Sn en vez de SA . Note que Sn tiene n!


elementos, donde n! = n(n 1)(n 2) 3(2)(1). En particular:

 

1 2
1 2
S2 =
,
,
1 2
2 1

 
 
 
 
 

1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
,
,
.
S3 =
,
,
,
1 2 3
1 3 2
2 1 3
2 3 1
3 1 2
3 2 1
Una permutacin de un conjunto A es un ciclo de longitud r o un r-ciclo si existen a1 ,
a2 , . . . , ar A tales que:
(a1 ) = a2 ,

(a2 ) = a3 ,

...

(ar1 ) = ar ,

(ar ) = a1 ,

y (x) = x para todo x A tal que x 6 {a1 , a2 , . . . , ar }. Si es un r-ciclo, escribimos:


= (a1 , a2 , . . . , ar ).
Al usar la notacin cclica anterior, el conjunto A debe estar claramente ubicado en el contexto.
Por ejemplo, si A = {1, 2, 3, 4, 5}, entonces:


1 2 3 4 5
(1, 3, 5, 4) =
.
3 2 5 1 4
Observe que (1, 3, 5, 4) = (3, 5, 4, 1) = (5, 4, 1, 3) = (4, 1, 3, 5).
Observe que un ciclo de longitud 1 es la permutacin identidad.
Si = (a1 , a2 , . . . , ar ) es un r-ciclo, entonces el inverso de r es un r-ciclo. Dado que

a1 a2 ar1 ar a1
se tiene que
a1 a2 ar1 ar a1

2.2. Permutaciones

49

As 1 = (a1 , ar , ar1 , . . . , a2 ). La prueba formal es sencilla. Si x


/ {a1 , . . . , ar }, entonces
(x) = x y por lo tanto x = 1 (x). Por otro lado, (ai ) = ai+1 , 1 i < r y (ar ) = a1 ,
de donde 1 (ai+1 ) = ai , 1 i < r y 1 (a1 ) = ar . Tomando b1 = a1 y bi = ar+2i para
i = 2, . . . , r se tiene que 1 (bi ) = bi+1 , 1 i < r y 1 (br ) = b1 .
Puesto que los ciclos son tipos particulares de permutaciones, pueden multiplicarse como
cualesquiera dos permutaciones. Sin embargo, el producto de dos ciclos no necesariamente es un
ciclo. Por ejemplo, consideremos los ciclos (1, 4, 5, 6) y (2, 1, 5) en S6 . Entonces:


1 2 3 4 5 6
(2, 1, 5)(1, 4, 5, 6) =
4 1 3 2 6 5
y

(1, 4, 5, 6)(2, 1, 5) =

1
6

2
4

3
3

4
5

5
2


6
,
1

y ninguna de estas dos permutaciones es un ciclo.


Diremos que dos ciclos = (a1 , . . . , ar ) y = (b1 , . . . , bs ) son ajenos si los conjuntos
{a1 , . . . , ar } y {b1 , . . . , bs } son ajenos, es decir, si {a1 , . . . , ar } {b1 , . . . , bs } = .
Es fcil verificar (se deja de ejercicio al lector) que el producto de ciclos ajenos es conmutativo.
Demostraremos que cualquier permutacin de un conjunto finito es producto de ciclos ajenos. La demostracin
ser constructiva.
Ilustremos la tcnica con un ejemplo. Consideremos la


1 2 3 4 5 6
permutacin
. En primer lugar, el 1 se mueve al 6 y el 6 al 1, produciendo
6 5 2 4 3 1
el ciclo (1, 6). A continuacin el 2 se mueve al 5, que a su vez se mueve al 3, el cual se mueve
al 2, produciendo el ciclo (2, 5, 3). Esto abarca todos los elementos excepto el 4, que permanece
fijo. As:


1 2 3 4 5 6
= (1, 6)(2, 5, 3).
6 5 2 4 3 1
Es claro que la multiplicacin de ciclos ajenos es conmutativa, as que no es importante el
orden de los factores (1, 6) y (2, 5, 3).
Teorema 2.2.1. Cada permutacin de un conjunto finito A es producto de ciclos ajenos.
Demostracin. No se pierde generalidad al suponer que A = {1, 2, . . . , n}. Sea Sn y definamos en A la siguiente relacin a b si y slo si existe un entero k tal que k (a) = b. Es fcil
verificar que esta es una relacin de equivalencia en A. La clase de equivalencia de a A es
o(a) = { k (a) | k = 0, 1, 2, . . . , } = {a, (a), 2 (a), . . . , }
y recibe el nombre de rbita de a. Note que cada rbita genera de manera natural un ciclo:
(a, (a), 2 (a), . . . , ).
Sean o(a1 ), . . . , o(am ) las distintas rbitas de , o(aj ) = {aj , (aj ), . . . , }. Para cada j (1
j m) sea cj el ciclo inducido por la rbita o(aj ). Veamos que = c1 c2 cm . Sea a A =
o(ai ) y supongamos que a o(aj ). Luego a = s (aj ) para algn s 0. Por un lado se tiene
que (a) = (aj ) = ( s (aj )) = s+1 (aj ). Por otro lado, dado que los ciclos c1 , . . . , cm son
ajenos, ci (a) = a si i 6= j y cj (a) = cj ( s (aj )) = ( s (aj )) = s+1 (aj ). Esto concluye la prueba.
Ser posible convencerse fcilmente de que la representacin de una permutacin como producto de ciclos ajenos, ninguno de los cuales es la permutacin identidad, es nica, salvo el orden
de los factores.
Diremos que un ciclo de longitud 2 es una transposicin. Es decir, una transposicin es
una permutacin que mueve nicamente dos elementos y deja fijos a los dems. Observe que la
inversa de una transposicin es ella misma.

50

2. Determinantes

Supongamos que (a) = r y (b) = s. Si es transposicin que intercambia r y s, = (r, s),


entonces y difieren nicamente en las posiciones a y b. De hecho, (x) = (x) si x
/ {a, b}
y ( )(a) = s y ( )(b) = r. Veamos un ejemplo.



1 2 3 4 5 6
1 2 3 4 5 6
=
1 6 3 4 5 2
4 5 2 3 6 1


1 2 3 4 5 6
=
.
4 5 6 3 2 1
Observemos que
1 =(1,4)

2 =(2,5)

3 =(3,5)

4 =(4,5)

5 =(5,6)

1 2 3 4 1
Es decir, 5 4 3 2 1 = 1, de donde = 11 21 31 41 51 , y queda escrito como un producto
de transposiciones.
Cualquier ciclo se puede escribir como un producto de ciclos de longitud 2, es decir, de
transposiciones. Un clculo muestra que:
(a1 , a2 , a3 , . . . , an1 , an ) = (a1 , an )(a1 , an1 ) (a1 , a3 )(a1 , a2 ).
Tenemos entonces el siguiente corolario al teorema anterior.
Corolario 2.2.2. Cualquier permutacin de un conjunto finito de al menos dos elementos es
un producto de transposiciones.
Las transposiciones pueden no ser ajenas y no es nica esta representacin de la permutacin. Por ejemplo, siempre es posible insertar al principio la transposicin (a, b) dos veces, pues
(a, b)(a, b) es la permutacin identidad. Lo cierto es que el nmero de transposiciones que se
usan para representar una permutacin dada, debe ser siempre par o siempre impar. Este es un
hecho importante y lo demostraremos a continuacin.
Teorema 2.2.3. Ninguna permutacin de un conjunto finito puede expresarse como un producto
de un nmero par de transposiciones y como un producto de un nmero impar de transposiciones.
Demostracin. No se pierde generalidad al considerar el conjunto A = {1, 2, . . . , n} y suponer
que n 2, de manera que existan las transposiciones. Por simplicidad, en esta prueba utilizaremos la letra griega en vez de 1A para denotar a la permutacin identidad. Estudiemos primero
el caso especial de la permutacin identidad. Desde luego, puede expresarse como un producto
de un nmero par de transposiciones, digamos = (1, 2)(1, 2). Debemos mostrar que si:
=

1 2 k ,

(2.1)

donde cada i es una transposicin, entonces k debe ser par. Sea m cualquier entero que aparezca
en alguna de las transposiciones en la ecuacin (2.1) y sea j la primera transposicin, contando
de izquierda a derecha, en la cual aparece m. No podemos tener j = k pues, de ser as, no
hubiera dejado fijo a m. Ahora bien, j j+1 debe tener la forma de alguno de los lados izquierdos
de las siguientes identidades fciles de verificar:
(m, x)(m, x)

= ,

(m, x)(m, y)

(x, y)(m, x),

(m, x)(y, z)

(y, z)(m, x),

(m, x)(x, y)

(x, y)(m, y).

(2.2)

Si sustituimos la identidad correcta en la ecuacin (2.2), en lugar de j j+1 en la ecuacin (2.1), sucede que reducimos en 2 el nmero k de transposiciones o trasladamos la primera

2.2. Permutaciones

51

aparacin de m un lugar a la derecha. Repetimos este procedimiento hasta eliminar m de la


expresin de la ecuacin (2.1); hay que recordar que m no puede aparecer por primera vez en la
transposicin final, as que en algn momento debe aparecer la situacin de la primera identidad
en la ecuacin (2.2) para eliminar a m por completo. A continuacin elegimos otro entero en
A que aparece en la ecuacin (2.1) reducida y lo eliminamos de la ecuacin (2.1) mediante un
proceso similar y continuamos hasta que el lado derecho de la ecuacin (2.1) se reduzca a la
sucesin . Como al sustituir una identidad de la ecuacin (2.2) el nmero k permanece
igual o se reduce en 2, vemos que k debe haber sido par.
Es fcil demostrar el teorema partiendo del caso especial para . Supngase que:
= 1 2 r = 10 20 r0 .
Como cada transposicin es su propia inversa (prubese), obtenemos:
= 1 = 1 2 r (10 20 s0 )1 = 1 2 r s0 20 10 .
Se sigue entonces que r + s es un nmero par, de modo que r y s son ambos nmeros pares o
ambos son nmeros impares.
Una permutacin Sn se dice que es una permutacin par si puede expresarse como el
producto de un nmero par de transposiciones. Se dice que la permutacin es impar si no es
una permutacin par, o equivalentemente, si puede expresarse como el producto de un nmero
impar de transposiciones.
A cada permutacin se le asigna un signo de la siguiente manera:

+1
si es par,
() =
1
si es impar.
Corolario 2.2.4.

1. El producto de dos permutaciones pares es par.

2. El producto de dos permutaciones impares es par.


3. El producto de una permutacin par y una impar es impar.
4. La paridad de una permutacin y su inversa es la misma.
Demostracin. Se deja de ejercicio

2.2.1.

Ejercicios

1. Demuestre que para toda , Sn , () = ()().


2. Demuestre que la funcin F : Sn Sn dada por F () = 1 es biyectiva.
3. Sea = (3, 8) S9 . Exprese como un producto de transposiciones del tipo (i, i + 1). Repita
lo anterior para la transposicin (r, s) con r < s.
4. Sea n > 1 y sea Sn una transposicin. Pruebe que si Sn es impar, entonces es
par.
5. Sea n un entero mayor que uno. Pruebe que los conjuntos P = { Sn | () = 1} e
I = { Sn | () = 1} tienen la misma cardinalidad. Concluya que |P| = n!/2. Es
relevante la hiptesis n > 1?
6. Se dice que una permutacin Sn tiene orden m > 0 si m = 1 y t 6= 1 para 0 < t < m.
Pruebe que el orden de un r-ciclo es r.

52

2. Determinantes

7. Considere las siguientes permutaciones





1 2 3 4 5 6
1 2 3
,
3 6 5 2 1 4
8 4 1

4
2

5
3

6
6

7
5


8
,
7


1
3

2
4

3
1

4
2

5
7

6
5


7
.
6

a) Encuentre las rbitas de cada una de las permutaciones dadas.


b) Escriba cada permutacin como un producto de ciclos ajenos.
c) Escriba cada permutacin como un producto de transposiciones.
d) Encuentre el signo de cada permutacin.
8.

a) Considere la siguiente tcnica


para escribir
una permutacin como


1 2 3 4
transposiciones. Sea =
. Como (4) = 1, defina 1
2 3 4 1


1 2 3 4
ces 1 =
. De esta manera 1 deja fijo 4. Se repite
2 3 1 4

1
con 1 . Dado que (1 )(3) = 1, sea 2 = (1, 3). Luego 2 1 =
2
1 1
Entonces = 1 2 3 = 1 2 3 .

un producto de
= (4, 1). Entonel proceso ahora

2 3 4
= 3 .
1 3 4

b) Generalice el ejercicio anterior y pruebe que cualquier permutacin se puede escribir


como un producto de transposiciones. (Sugerencia: La prueba se hace por induccin
sobre n. En el inciso anterior, observe que 1 se puede considerar una permutacin de
S3 ).
9. Demuestre de manera ms elegante el Teorema 2.2.1; emplese un argumento por induccin
sobre el nmero de elementos movidos por .
10. Sea n 2. Demuestre que:
a) Toda permutacin en Sn puede escribirse como un producto de a lo ms n 1 transposiciones.
b) Toda permutacin impar en Sn puede escribirse como producto de 2n+3 transposiciones
y toda permutacin par como producto de 2n + 8 transposiciones.
11. Demuestre que si es un ciclo, entonces 2 es un ciclo, siempre que la longitud de sea un
entero impar.
12. Sean A = (aij ) una matriz de n n y Sn . Considere el producto a1(1) a2(2) an(n) .
Demuestre que no hay dos factores de este producto
que provengan
del mismo rengln y/o
1 1 2
5 8 , calcule:
de la misma columna de A. En particular, si A = 3
4
7 2
X

()a1(1) a2(2) an(n) .

Sn

2.3.

Unicidad de la funcin determinante

En esta seccin mostraremos que en realidad slo existe una funcin determinante. Para ello
necesitamos estudiar las propiedades generales que posee una funcin determinante.
Teorema 2.3.1 (Propiedades de una funcin determinante). Sea det : K nn K una funcin
determinante cualquiera y sea A K nn .

2.3. Unicidad de la funcin determinante

53

1. Si B K nn se obtiene intercambiando dos columnas adyacentes de A, entonces det(B) =


det(A).
2. Si B K nn se obtiene intercambiando dos columnas de A, entonces det(B) = det(A).
3. Si A tiene dos columnas iguales, entonces det(A) = 0.
4. Si B K nn se obtiene de A reemplazando una columna de A por dicha columna ms un
mltiplo de una columna distinta, entonces det(A) = det(B).
Demostracin.
1. Sean A = [A1 | . . . | An ] y B = [A1 | . . . | Aj+1 | Aj | . . . | An ] con 1 j < n. Es decir,
B se obtuvo intercambiando las columnas j y j + 1 de A, con 1 j < n. Para simplificar la
notacin, denotaremos por {c1 , c2 } al determinante de la matriz obtenida de A al reemplazar
su j-sima columna por una matriz columna c1 y su (j + 1)-sima columna por una matriz
columna c2 . Entonces, det(B) = {Aj+1 , Aj } y det(A) = {Aj , Aj+1 }. Luego, aplicando las
propiedades de la definicin de una funcin determinante, tenemos que:
0 = {Aj + Aj+1 , Aj + Aj+1 }
= {Aj , Aj + Aj+1 } + {Aj+1 , Aj + Aj+1 }
= {Aj , Aj } + {Aj , Aj+1 } + {Aj+1 , Aj } + {Aj+1 , Aj+1 }
= 0 + det(B) + det(A) + 0,
de donde det(B) = det(A).
2. Supongamos que B se obtuvo intercambiando las columnas r y s de A, con r < s. Consideremos la transposicin = (r, s). Es fcil verificar que:
= 1 2 sr1 sr sr1 2 1 ,
donde i = (r + i 1, r + i) con 1 i s r (se deja al lector verificar esta afirmacin).
Observe que B = [A (1) | A (2) | . . . | A (n) ]. Aplicando el inciso anterior, tenemos que:
det(A1 (1) | . . . | A1 (n) ) = (1 ) det(A1 | . . . | An ) = (1 ) det(A),
det(A1 2 (1) | . . . | A1 2 (n) ) = (2 ) det(A1 (1) | . . . | A1 (n) ) = (2 )(1 ) det(A).
Continuando de esta forma, tenemos que:
det(B) = (1 ) (s )(s1 ) (1 ) det(A)
= (1 s s1 1 ) det(A)
= ( ) det(A)
= det(A).
3. Supongamos que las columnas r y s de A son iguales. Sea = 1 2 s , donde i = (r + i
1, r + i) con 1 i s r. Entonces, las columnas s 1 y s de la matriz [A(1) | . . . | A(n) ]
son iguales, de modo que su determinante es cero. Se sigue por un argumento anlogo al del
inciso anterior que:
0 = det(A(1) | . . . | A(n) ) = () det(A),
de donde det(A) = 0.

54

2. Determinantes

4. Supongamos que la i-sima columna de A, Ai , se sustituye por Ai + cAj con i 6= j.


Utilizando la notacin de la prueba del inciso 1, tenemos que:
det(B) = {Ai + cAj , Aj } = {Ai , Aj } + {cAj , Aj }
= det(A) + c{Aj , Aj } = det(A) + c 0 = det(A).

Teorema 2.3.2 (Unicidad de la funcin determinante). Para cada entero positivo n existe
exactamente una funcin determinante det : K nn K.
Demostracin. Sea det : K nn K una funcin determinante. Sea A = (aij ) = [A1 | . . . |
An ] K nn . Notemos que cada Aj se puede escribir como combinacin lineal de los vectores
cannicos e1 , . . . , en de K n . De hecho:
n
X

A1 = a11 e1 + a21 e2 + + an1 en =


A2 = a12 e1 + a22 e2 + + an2 en =

k1 =1
n
X

ak1 1 ek1 ,
ak2 2 ek2 ,

k2 =1

..
.
n
X

An = a1n e1 + a2n e2 + + ann en =

akn n ekn .

kn =1

Luego:
!

n
X

det(A1 | . . . | An ) = det

ak1 1 ek1 | A2 | . . . | An

k1 =1

n
X

ak1 1 det(ek1 | A2 | . . . | An )

k1 =1

..
.
=

n X
n
X
k1 =1 k2 =1

n
X

ak1 1 ak2 2 akn n det(ek1 | ek2 | . . . | ekn ).

kn =1

Esta suma consta de nn sumandos ak1 1 ak2 2 akn ,n det(ek1 | ek2 | . . . | ekn ). Sea In =
{1, 2, . . . , n}. Denotemos por InIn al conjunto de todas las funciones : In In . Por cada
sumando hay una funcin : In In dada por (i) = ki ; y por cada funcin : In In hay
un sumando:
a(1)1 a(2)2 a(n)n det(e(1) | . . . | e(n) ).
Luego:
det(A1 | . . . | An )

a(1)1 a(n)n det(e(1) | . . . | e(n) ).

In
In

Si : In In no es inyectiva, entonces existe i 6= j tal que (i) = (j). Por lo tanto,


det(e(1) | . . . | e(n) ) = 0 ya que tiene dos columnas iguales (ver Teorema 2.3.1 inciso 3).

2.3. Unicidad de la funcin determinante

55

Entonces, podemos considerar la suma slo sobre las funciones inyectivas. Pero una funcin
: In In es inyectiva si y slo si es suprayectiva y por tanto es una permutacin. As:
X
det(A1 | . . . | An ) =
a(1)1 a(2)2 a(n)n det(e(1) | . . . | e(n) ).
Sn

Pero det(e(1) | . . . | e(n) ) = () det(e1 | . . . | en ) = () (por qu?). Por lo tanto:


det(A) =

()a(1)1 a(2)2 a(n)n .

Sn

Luego, si D es otra funcin determinante, entonces D(A) = det(A). As, la funcin determinante es nica.
Teorema 2.3.3. La funcin det : K nn K dada por:
X
()a(1)1 a(2)2 a(n)n ,
det(A) =
Sn

satisface que det(A) = det(AT ) para toda (aij ) = A K nn , es decir:


X
X
()a(1)1 a(2)2 a(n)n =
()a1(1) a2(2) an(n) .
Sn

Sn

Demostracin. Sean A = (aij ) y B = AT = (bij ) , donde bij = aji . Por definicin tenemos:
X
X
det (A) =
() a(1)1 a(n)n y det (B) =
() b(1)1 b(n)n .
Sn

Sn


Demostraremos que el conjunto

= () a1(1) an(n) | Sn es igual al conjunto =
() a(1)1 a(n)n | Sn . En efecto, si x , entonces x = () a1(1) an(n) para

1
2 ... n
algn = (1)
(2) ... (n) Sn . Supongamos que (i) = ji para cada i = 1, 2, . . . , n. Entonces
i = 1 (ji ), y por lo tanto ai(i) = aiji = a1 (ji )ji . En consecuencia:


= () a1(1) an(n)
= () a1 (j1 )j1 a1 (jn )jn

= 1 a1 (1)1 . . . a1 (n)n ,

ya que () = ( 1 ) y los nmeros j1 , j2 , . . . , jn son los nmeros 1, 2, . . . , n en algn orden.


Luego, x y por lo tanto .
De manera anloga se demuestra que . Por lo tanto, = y det(A) = det(B) =
det(AT ).
Corolario 2.3.4. La funcin det : K nn K definida por:
X
det (A) =
() a1(1) an(n)
Sn

es la nica funcin determinante.


Demostracin. Se sigue del teorema anterior.
En ocasiones el determinante de una matriz se define por la frmula dada en el Corolario
2.3.4. Esta frmula aunque importante tericamente, no es prctica para el clculo del determinante de una matriz. Para el clculo del determinante de una matriz es preferible usar las
propiedades del determinante o el desarrollo por cofactores (vea el Corolario 2.3.12).

56

2. Determinantes

Corolario 2.3.5. Si B es la matriz que se obtiene como


operacin elemental de rengln o de columna, entonces:

para operaciones
det (A)
det (A)
para operaciones
det (B) =

det (A)
para operaciones

resultado de aplicar a A K nn una


elementales de tipo I
elementales de tipo II
elementales de tipo III

Demostracin. Se sigue de las propiedades de la funcin determinante.


Corolario 2.3.6.
1. Si E es una matriz elemental, entonces:

para operaciones elementales de tipo I


1

para operaciones elementales de tipo II


det (E) =

1
para operaciones elementales de tipo III
2. Si E es una matriz elemental, entonces det (E) 6= 0.
3. Si E es una matriz elemental, entonces det (EA) = det (E) det (A) .
4. Si E1 , . . . , Ek son matrices elementales y A K nn , entonces:
det (E1 Ek A) = det (E1 ) det (Ek ) det (A) .
Demostracin. El inciso 1 se sigue del corolario anterior, haciendo B = E y A = I, y de que
det(I) = 1. El inciso 2 se sigue del inciso 1. El inciso 3 se deja de ejercicio al lector. El inciso 4
se sigue por induccin en k usando el inciso 3.


A C
Teorema 2.3.7. Si M =
de tamao n n, es una matriz triangular superior con
0 B
bloques diagonales A y B de tamaos r r y s s respectivamente, con r + s = n, entonces
det M = (det A)(det B).
Demostracin. Sean A = (aij ), B = (bij ) y M = (mij ). Tenemos que:
det M =

()m1(1) m2(2) mn(n) .

Sn

Si i > r y j r, entonces mij = 0, de modo que slo es necesario considerar aquellas permutaciones tales que:
{r + 1, r + 2, . . . , r + s} = {r + 1, r + 2, . . . , r + s} y {1, 2, . . . , r} = {1, 2, . . . , r}.
Sean 1 (k) = (k) para k r y 2 (k) = (r + k) r para k s. Entonces:
()m1(1) m2(2) mn(n) = (1 )a11 (1) a21 (2) ar1 (r) (2 )b12 (1) b22 (2) bs2 (s)
y esto implica que det M = (det A)(det B).
Teorema 2.3.8. Si A K nn es una matriz triangular superior (inferior), entonces:
det (A) = a11 ann .
En particular, det (I) = 1, donde I es la matriz identidad de n n.

2.3. Unicidad de la funcin determinante

57

Demostracin. Supongamos que A es una matriz triangular superior, es decir, aij = 0 si i > j.
Entonces:
X
() a1(1) an(n)
det (A) =
Sn

a11 ann +

() a1(1) an(n) .

Sn ,6=1

Si Sn con 6= 1, entonces existe m {1, 2, . . . , n} tal que m > (m). En efecto, si


m (m) para toda m {1, 2, . . . , n}, entonces n (n) y por lo tanto (n) = n. Tambin
n 1 (n 1) de donde (n 1) = n 1 o n, de donde (n 1) = n 1. Continuado
de esa manera se concluye que = 1 lo cual contradice la eleccin de . Por lo tanto, existe
m {1, 2, . . . , n} tal que m > (m) y am(m) = 0. Luego, () a1(1) an(n) = 0 para cada
Sn , 6= 1, de donde det(A) = a11 ann . La prueba cuando A es una matriz triangular
inferior es anloga.
Ejemplo 2.3.9. Sea det Q33 Q la nica funcin determinante. Entonces

1 1 1
1 1 1
1 1 1
R21 (1)
R31 (1)
0 9 = 0
0 9 = 0.
1 8 = 0
det 1
1
1 1
0
0 2
1
1 1
La ltima igualdad porque el determinante de una matriz triangular superior es el producto de
los elementos en la diagonal principal.
Corolario 2.3.10.
1. Una matriz A K nn es no singular si y slo si det (A) 6= 0.
2. Una matriz A K nn es singular si y slo si det (A) = 0.
Demostracin. 1. Si A es invertible, existen matrices elementales E1 , . . . , Ek tales que A =
Ek E1 . Entonces:
det (A) = det (Ek ) det (E1 ) 6= 0.
Recprocamente, supngase que det (A) 6= 0. Sean E1 , . . . , Ek matrices elementales tales que
A = Ek E1 E, donde E es la forma escalonada reducida de A. De la relacin det(A) =
det(Ek E1 E) = det(Ek ) det(E1 ) det(E) se deduce que det (E) 6= 0. Como E es una matriz
triangular superior y det(E) 6= 0, el Teorema 2.3.8 implica que cada elemento de la diagonal de
E es distinto de cero, y por lo tanto E = I. As, A es un producto de matrices invertibles y por
lo tanto es invertible. El inciso 2 es equivalente al inciso 1.
Ejemplo 2.3.11. Las matrices del Ejemplo 2.3.9 no son invertibles pues todas tienen determinante cero.
Corolario 2.3.12. Si A K nn y det : K nn K es la nica funcin determinante, entonces:
det(A) =

() a1(1) an(n) =

n
X

(1)s+j asj det(Asj )

j=1

Sn

para cada entero s tal que 1 s n.


Demostracin. De acuerdo con los Teoremas 2.3.2 y 2.3.4 tenemos que la funcin det : K nn
K definida por:
X
det(A) =
() a1(1) an(n) ,
Sn

58

2. Determinantes

es la nica funcin determinante.


Por otra parte, segn el Teorema 2.1.5 tenemos que la funcin Ds : K nn K dada por:
Ds (A) =

n
X
(1)s+j asj det(Asj ),
j=1

con 1 s n, es una funcin determinante. Por lo tanto, Ds (A) = det(A), es decir:


X

det(A) =

() a1(1) an(n) =

n
X
(1)s+j asj det(Asj )
j=1

Sn

para todo entero s tal que 1 s n.

1
Ejemplo 2.3.13. Evale el determinante de la matriz A = 0
2
det(A) =

3
X

3
2
1 2 usando cofactores.
1
0

(1)2+j a2j det(A2j )

j=1

= (1)

2+1


3
0
1



1
2
2+2
+ (1) (1)
2
0



1
2
2+3
+ (1) (2)
2
0


3
1

= 4 10 = 6.
Teorema 2.3.14. Si A, B K nn , entonces det (AB) = det (A) det (B) .
Demostracin. La prueba se divide en dos casos.
1. Si A es no singular, entonces A es un producto de matrices elementales, digamos A = E1 Ek .
Entonces AB = E1 Ek B y por lo tanto:
det (AB) = det (E1 Ek B) = det (E1 ) det (Ek ) det (B)
= det (E1 Ek ) det (B) = det (A) det (B) .
2. Si A es singular, entonces AB tambin lo es. En efecto, si AB no fuera singular, entonces
existira C tal que (AB) C = I y por lo tanto A (BC) = I y A sera no singular. Luego,
det (AB) = 0 = 0 det (B) = det (A) det (B).

1
Corolario 2.3.15. Si A es no singular, entonces det A1 = det (A) .
Demostracin. Si A es no singular y A1 es su inversa, entonces AA1 = I, y por el teorema
anterior tenemos que det(AA1 ) = det(I), es decir, det(A) det(A1 ) = 1 de donde se sigue el
resultado.

2.3.1.

Ejercicios

1. Si A es una matriz de 5 5 cuyo determinante es 3, calcule el determinante de las matrices


4A, A, A2 , A3 y A1 .
m

2. Pruebe que det (Am ) = (det A) para todos los enteros no negativos m. Si A es no singular,
m
pruebe que det (Am ) = (det A) para todo entero m.
3. Si A K nn , pruebe que det (cA) = cn det (A) para todo c K.
4. Sea K un subcampo del campo de los nmeros complejos. Pruebe que si n es impar y
A K nn es una matriz antisimtrica, entonces det (A) = 0 (Una matriz cuadrada A es
antisimtrica si A = AT ).

2.3. Unicidad de la funcin determinante

a
5. Si det d
g

b
e
h

c
a
b
f = 4, calcule det 7d 7e
i
g h

59

c
5g
5h
5i
7f y det d 2a e 2b f 2c .
i
a
b
c

6. Sea A una matriz n n. Pruebe que det (A) = 0 si y slo si alguna columna A se puede
escribir como combinacin lineal de las restantes columnas de A.
7. Sea A Cnn y sea C. Pruebe que existe un vector x 6= 0 tal que Ax = x si y slo si
det (A I) = 0.
8. La matriz compaera del polinomio mnico f (t) = a0 + a1 t + + an1 tn1 + tn K[t] es
la matriz

0
1
0
0

0
0
1
0

.
.
.
.
..
..
.. . .
C=
.

0
0
0
1
a0 a1 an1
Pruebe que el determinante de la matriz compaera del polinomio mnico f es (1)n a0 .
9. Sean v = (v1 , . . . , vn )T K n . Calcule el determinante de la matriz que se obtiene de la
matriz identidad de n n reemplazando su columna i por el vector v.
10. Sea A una matriz de n n. El cofactor (i, j) de A es por definicin el nmero cij =
i+j
(1) det (Aij ) . La adjunta de la matriz A o matriz de cofactores, denotada con el smbolo
adj(A), sedefine como la
transpuesta de la matriz (cij ). Calcule todos los cofactores de la ma1 1
1
3 2 . Encuentre la matriz adjunta de A. Verifique por multiplicacin
triz A = 2
1 4
5
directa que A (adj(A)) = (adj (A))A = (det A) I.
11. Sea A K nn .
a) Pruebe que si i 6= j, entonces:
n
X

(1)j+k aik det(Ajk ) = 0,

k=1

n
X

(1)i+k akj det(Aki ) = 0.

k=1

(Sugerencia: Para la primera suma, sea B la matriz que se obtiene de A al reemplazar


el rengln j de A por su rengln i. Use el Teorema 2.1.5 con s = j para calcular det(B).
Para la segunda suma, sea C la matriz que se obtiene de A al reemplazar la columna i
de A por su columna j).
b) Pruebe que A (adj(A)) = (adj (A))A = (det A) I. (Sugerencia: Use el inciso a)).
c) Pruebe que si A es invertible, entonces A1 = adj(A)/ det(A).
12. Sea A una matriz de n n. Pruebe que
a) Pruebe que adj(cA) = cn1 adj(A).
b) Pruebe que det(adj(A)) = det(A)n1 .
13. Proporcione otra prueba del Teorema 2.3.14 siguiendo la prueba del Teorema 2.3.2. Sean A
y B matrices de n n y C = AB = [AB1 , . . . , ABn ]. Entonces cada columna de C es
combinacin lineal de la columnas de A: Ck = ABk = b1k A1 + b2k A2 + + bnk An .
Contine por cuenta propia.

60

2. Determinantes

14. Suponga que A, B K nn son matrices semejantes, es decir, suponga que existe una matriz
invertible P tal que A = P BP 1 . Pruebe que det (A) = det (B) .
15. Sea A Cnn . Se define la matriz A = AT (la barra indica que se trata del complejo
conjugado).
a) Pruebe que det (A ) = det (A).
b) Pruebe que si A es hermitiana, es decir A = A , entonces det (A) es un nmero real.
16. Si A Rnn es una matriz ortogonal, pruebe que |det (A)| = 1 (Una matriz A Rnn es
ortogonal si AT A = I).
17. Si A Cnn es una matriz unitaria, pruebe que |det (A)| = 1 (Una matriz A Cnn es
unitaria si A A = I).
18. Sean A, B y C matrices cuadradas del mismo tamao tales que det(AB) = 9, det(AC) = 16,
det(BC) = 25 y det(A) < 0, calcule el determinante de la matriz ABC.
19. Sean A, B y C matrices cuadradas del mismo tamao. Si se tiene que det(AB) = 16,
det(AC) = 25, det(BC) = 36 y det(A) > 0, calcule det(ABC).
20. El determinante de la siguiente matriz es un polinomio en la variable . Calcule el coeficiente
de 6 .

4 1
1
6 28 2
3 4 28
1 4
2

3 4
5 19 62
1
.

A=
1 2
6
1

3 2

1
3
1 39
8
4
3
1 8
1

3a 1
5
21. Considere la matriz A = 7
4 a
de a3 en la expresin de det (A) .

2
4a . Encuentre, sin usar cofactores, el coeficiente
3

22. Sin usar cofactores, determine los coeficientes de x4 y x3 en la expresin de:

2x x 1
2
1 x 1 1
.
det
3 2 x
1
1 1 1
x
(Sugerencia: No es necesario calcular el

387 456
488 455
23. Considere la matriz A =
440 982
892 564
par o impar. Justifique su respuesta.

determinante).

589 238
677 382
. Determine si el determinante de A es
654 651
786 442

24. Calcule el determinante de una matriz nilpotente. (Recuerde que una matriz A K nn es
nilpotente si Ak = 0 para algn entero positivo k).

2.4. Determinantes y sistemas de ecuaciones

61

25. Sea A una matriz de 4 4 con entradas nmeros complejos que satisface la igualdad:
AT AAT = A.
Determine los valores que puede tomar det(A).
26. Sea A una matriz idempotente, es decir, A tiene la propiedad de que A2 = A. Calcule los
posibles valores para det (A) .
27. Sea A C33 y f () = det (I A). Pruebe que f es un polinomio mnico de grado 3, que el
trmino independiente es det(A) y que el coeficiente de 2 es tr(A). Si 1 , 2 , 3 son las
races del polinomio f , pruebe que la traza de A es (1 + 2 + 3 ) y que det (A) = 1 2 3 .
28. Generalice el ejercicio anterior, es decir, pruebe que si es un escalar y A es una matriz
n n, entonces la funcin f () = det (I A) es una funcin polinomial de grado n, cuyo
coeficiente principal es 1. Adems, pruebe que
a) el coeficiente de n1 es tr(A) y que el trmino independiente es (1)n det(A);
Q
P
b) la traza de A es i y que det(A) = (1)n i , donde 1 , . . . , n son las races del
polinomio f .

2.4.

Determinantes y sistemas de ecuaciones

En esta seccin se presentar una frmula til que relaciona el determinante con la solucin de
un sistema de ecuaciones lineales. Esta frmula, llamada regla de Cramer, describe la solucin
de ciertos sistemas de n ecuaciones lineales con n incgnitas, en trminos de determinantes.
Mientras que este resultado es de poco uso prctico en los sistemas que van ms all de 2 2,
es de gran importancia terica. Necesitaremos algo de notacin adicional para llevar a cabo su
demostracin. Para una matriz A K nn y b K n , denotemos con Ai (b) a la matriz obtenida
al reemplazar la i-sima columna de A por b. Es decir:
Ai (b) = [A1 | . . . | b | . . . | An ],
donde Aj denota la j-sima columna de A.
Teorema 2.4.1 (Regla de Cramer). Si A K nn es no singular, entonces para cada b K n
la nica solucin del sistema Ax = b est dada por:
xi =

det(Ai (b))
,
det(A)

para i = 1, 2, . . . , n.
Demostracin. Si A K nn es no singular, entonces el sistema Ax = b es consistente y determinado para cada b K n . Sea I la matriz identidad de n n. Claramente, I = [e1 | . . . | en ]
donde e1 , . . . , en son los vectores cannicos de K n . Si Ax = b, entonces:
AIi (x)

A[e1 | . . . | x | . . . | en ] = [Ae1 | . . . | Ax | . . . | Aen ]

[A1 | . . . | b | . . . | An ]

Ai (b).

Luego, de acuerdo con el Teorema 2.3.14, tenemos que:


(det(A))(det(Ii (x))) = det(AIi (x)) = det(Ai (b)).

62

2. Determinantes
Por otra parte, tenemos que:

0 1

1 0

. . .
.. .. . .

Ii (x) = 0 0
. .
.. ..

x1
x2

..
.

xi

..
.

0 0
0 0

..
.

..
.

0 0 .
.
.
.. . .
. . .

0 0 xn1 1 0
0 0 xn 0 1

Desarrollando
el determinante a lo largo del i-simo rengln usando la frmula det(A) =
Pn
s+j
asj det(Asj ) con s = i, del Corolario 2.3.12, tenemos que det(Ii (x)) = xi . De
j=1 (1)
esta manera, det(A)xi = det(Ai (b)) de donde se sigue el resultado.
Otra prueba es como sigue. Dado que Ax = b, se tiene que b es combinacin lineal de las
columnas de A, es decir, b = x1 A1 + + xn An . Dado que el determinantes es lineal se tiene
que
X
det Ai (b) = det(A1 , . . . ,
xj Aj , . . . , An )
X
=
xj det(A1 , . . . , Aj , . . . , An )
X
= xi det(A1 , . . . , Ai , . . . , An ) +
xj det(A1 , . . . , Aj , . . . , An )
j6=i

= xi det(A).
La ltima igualdad se sigue pues det(A1 , . . . , Aj , . . . , An ) = 0.

2
0 0 1
Ejemplo 2.4.2. El sistema de ecuaciones Ax = b, donde A = 1 2 1 y b = 1
0
1 1
2
tiene solucin pues det (A) = 1. Aplicando la regla de Cramer se tiene
x1 = det(b | A2 | A3 ) = 11,

x2 = det(A1 | b | A3 ) = 7,

x3 = det(A1 | A2 | b) = 2.

Por
aplicarla regla de Cramer para resolver el sistema Ax = b si
otro lado, no es
posible
1
2
7
1
1 1 y b = 2 , pues det (A) = 0. Sin embargo, esto no significa que
A = 1
3 2
5
5
T
el sistema no tenga solucin. De hecho, x = (2, 3, 1) es una solucin.

2.4.1.

Ejercicios

1. Aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones

x + y + z = 0,
x + 2y + z = 1,
3x + 2y + 2z = 2.

x y + z = 14,
x + 2y z = 31,
x + 2y 2z = 33.

Observe que en ambos casos las soluciones son enteras.


2. Sea A una matriz de n n y sea b una matriz de n 1, ambas con entradas nmeros enteros.
Suponga que det(A) = 1. Demuestre que el vector solucin del sistema Ax = b tiene entradas
nmeros enteros.

2.5. Clculo de determinantes

63

3. Sean A y B matrices no nulas de n n con n > 1, tales que AB = 0. Demuestre que


det(A) = det(B) = 0.


40 21
4. Considere la matriz real A =
.
70 37
a) Encuentre todos los valores tales que det (A I) = 0.
b) Para cada uno de los valores calculados en el apartado anterior, encuentre todas las x
tales que Ax = x.

2
2
6
5. Sea A = 2 1 3 R33 .
2 1
1
a) Calcule todos los valores tales que det (A I) = 0.
b) Para cada uno de los valores calculados en el apartado anterior, encuentre todas las x
tales que Ax = x.
6. Use la regla de Cramer para encontrar la solucin x2 del sistema de ecuaciones lineales:
2x1 x2 = 8,
x1 + 2x2 x3 = 4,
x2 + 2x3 = 12.
7. Determine los valores de de tal manera
donde

1 2
0
A=
3 1
4 0

que el sistema de ecuaciones Ax = b determinado,


1
1
1
2

2
2

1
1

2 .
8

8. Considere el sistema de ecuaciones lineales:

s 3s 10
x1 (s)
s 1
2s
s+2
2 s 2 2 s + 1 2 s + 2 x2 (s) = 4s2 8s 14 .
3s2 + 7s 3
x3 (s)
s
0 s + 1
Determine el valor de s para el cual x1 (s) alcanza su valor mnimo.
9. Calcule lms x2 (s), donde x2 (s) est determinado por el sistema de ecuaciones lineales:

0 s2 s
x1 (s)
s + 3s2 + s3
s2 s3 0 x2 (s) = 5s3 + s2
.
5s4 + s3 1
s3 s4 1
x3 (s)

2.5.

Clculo de determinantes

En esta seccin se presentarn algunos mtodos para el clculo de determinantes. Cabe


aclarar que los determinantes no son tiles para la resolucin eficiente de sistemas de ecuaciones
lineales de n n para n 4.
Un primer mtodo para el clculo de los determinantes es usando la frmula dada en el
Corolario 2.3.4:
X
det (A) =
() a1(1) an(n) .
Sn

64

2. Determinantes
Si A es una matriz de 2 2, y tomando en cuenta que:

 

1 2
1 2
S2 =
,
,
1 2
2 1

se tiene:
det A = a11 a22 a12 a21 .
De forma anloga, si A es una matriz de 3 3, como:

 
 
 
1 2 3
1 2 3
1 2 3
1 2
S3 =
,
,
,
1 2 3
1 3 2
2 1 3
2 3

 
3
1
,
1
3

 
3
1
,
2
3

2
1


3
1

2
2

se tiene que:
det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31 .
Si A es una matriz de 4 4, el determinante de A tendr 4! = 24 sumandos.
Un segundo mtodo es el denominado desarrollo por cofactores (Teorema 2.1.5):
det A = ai1 Ci1 + ai2 Ci2 + + ain Cin .
1+j

donde C1j = (1)


det A1j . El nmero Cij = (1)i+j det(Aij ) el cofactor (i, j) de A. Puesto
que el determinante de una matriz es nico, el desarrollo del determinante es independiente del
rengln.
Observe que los signos de la definicin de cofactor tienen la siguiente distribucin:

+

.
+

2
Ejemplo 2.5.1. Calcular el determinante de la matriz A = 4
6
de los cofactores.

1
3
8

2
9 por el mtodo
34

Desarrollando conforme al primer rengln, se tiene:




4
6

3
8

Tambin pudo haberse desarrollado conforme a la ltima columna:







4 3
2 1
2
det(A) = 2 det
(9) det
+ 34 det
6
8
6 8
4

1
3

det(A) = 2 det

3
8

9
34


1 det

4
6

9
34


+ 2 det

= 2 (30) 1 (82) + 2 (14) = 6.

= 2 (14) + 9 (10) + 34 (2) = 6.


Otro mtodo para el clculo de los determinantes es el uso de las propiedades del determinante. En este mtodo esencialmente se trata de usar la eliminacin gaussiana para convertir la
matriz original en otra matriz cuyo determinante sea ms fcil de calcular. Recuerde que si E
es una matriz elemental, entonces det(E) = 1, a menos que E sea la matriz elemental que se
obtiene de la matriz identidad intercambiando dos renglones.

2.5. Clculo de determinantes

65

Ejemplo 2.5.2. Calcular el determinante de la matriz A del ejemplo anterior usando las propiedades del determinante.

2
det 4
6

1
3
8

2
2
9 = det 0
34
0

1
1
5

2
2
5 = det 0
28
0

1
2
1 5 = 6.
0
3

La primera igualdad se obtiene aplicando a la matriz A las operaciones elementales de rengln


R21 (2) y R31 (3). La segunda igualdad sumando al tercer rengln 5 veces el segundo rengln.
Finalmente, tambin se puede calcular el determinante utilizando la factorizacin P A = LU .
Este es un mtodo eficiente para el clculo del determinante.
Si P A = LU, se tiene:
(det P )(det A) = (det L)(det U ).
Dado que det P = 1 y det L = 1, entonces:
det A = det U = (producto de los pivotes) .
Ejemplo 2.5.3. La descomposicin P A = LU es:

2
1
0 0
1 0 0
A = 2
0
3 5 1

1
2
1 5 .
0
3

En este caso P = I. Entonces det A = (2) (1) (3) = 6.

2.5.1.

Ejercicios

1. Sea A una matriz invertible tal que las entradas de A y A1 son nmeros enteros. Pruebe
que det(A) = det(A1 ) = 1 o det(A) = det(A1 ) = 1.
2. Encuentre el trmino distinto de cero en la expansin por permutaciones del siguiente determinante:

0 1 0 0
1 0 1 0

det
0 1 0 1 .
0 0 1 0
3. Encuentre los determinantes de las siguientes matrices.

0
1

1
0


,

0
1
1

1
0
1

1
1 ,
0

0
1

1
1

1
0
1
1

1
1
0
1

1
1
,
1
0

1
1
0
1

1
1
,
1
0

0
1
1
1
1

1
0
1
1
1

1
1
0
1
1

1
1
1
0
1

1
1
1
1
0

1
1
1
1
1

1
0
1
1
1

1
1
0
1
1

1
1
1
0
1

1
1
1
1
0

Generalice el resultado.
4. Calcule el determinante de las siguientes matrices.

1
1

1
0


,

1
1
1

Generalice el resultado.

1
0
1

1
1 ,
0

1
1

1
1

1
0
1
1

66

2. Determinantes

5. Considere la matriz de n n (n 3), A = (aij ) definida como aij = i + j. Pruebe que


det(A) = 0.
6. Calcule el determinante de la matriz

31 32 33 34 35
61 62 63 64 65

A=
91 92 93 94 95
121 122 123 124 125
151 152 153 154 155

7. Sean K un campo, K y n 3. Calcule el determinante de la matriz A de n n, definida


por [A]ij = i + j (1 i, j n).
8. Demuestre, sin usar cofactores, que:

1 1
det a b
a2 b2

1
c = (b a)(c a)(c b).
c2

9. Pruebe que

1
1

det .
..

x1
x2
..
.

x21
x22
..
.

xn

x2n

...
...

...

xn1
1
Y
xn1
2

(xj xi ).
.. =
.
xn1
n

(*)

j>i

La matriz cuadrada en () se conoce como la matriz de Vandermonde de orden n, en honor


del matemtico francs Alexandre-Theophile Vandermonde, y usualmente se denota con la
letra Vn .
10. Sean (x1 , y1 ), . . . , (xn , yn ) C2 tales que xi 6= xj para i 6= j. Pruebe que existe exactamente
un polinomio f (t) = a0 + a1 t + + an1 tn1 de grado n 1 tal que f (xi ) = yi para
i = 1, . . . , n.
11. Demuestre, sin usar cofactores, que:
2
a (a + 1)2
b2 (b + 1)2
det
c2 (c + 1)2
d2 (d + 1)2

(a + 2)2
(b + 2)2
(c + 2)2
(d + 2)2

(a + 3)2
(b + 3)2
= 0.
(c + 3)2
(d + 3)2

(Sugerencia. Puede ser ms til realizar operaciones de columna que de rengln).


12. Use la eliminacin gaussiana para calcular los determinantes de cada una de las siguientes
matrices:

2 5
0
1
5

1 0 1 2
2
0
1
2
7 2
2 1
0 3 1 2

,
4 16 10 6
1 2
0 ,
1

.
3 0

0
0
0 2 22
1
2 19
3 16
2 4 1
1
2 7
6 2
0

2.6. reas y volmenes

67


13. Calcule el determinante de la matriz A =

2
1

1
1


y tambin los determinantes de cada

una de las siguientes matrices.

2
1
0

1
0
0
2 1
0
,
1
2 1
0 1
1

2
1

0
0

1
0
2 1 ,
1
1

2
1
0
0
0

1
0
0
0
2 1
0
0
1
2 1
0
0 1
2 1
0
0 1
1

14. Calcule los determinantes

1
1

..
.

de cada una de las siguientes matrices.

0 1 1
1
1 1 1
1 1 1
1
2 1 1

1 1 2
1
1 3 1
.
,
.. .. .. . .
..
.. .. . .
..

.
. .
. . .
.
. .
1 1 1 n 1
1 1 1 n

2.6.

reas y volmenes

Para finalizar este captulo se mostrar que el determinante se puede interpretar como un
volumen (rea en el caso bidimensional y volumen en dimensiones mayores que dos).
Sean v, w dos vectores en R2 y sea P (v, w) el paralelogramo generado por estos vectores, es
decir:
P (v, w) = {v + w | 0 1, 0 1}.
El rea de P (v, w) ser denotada con el smbolo Vol(v, w). Vea la Figura 2.1.

v
w

O
Figura 2.1: El paralelogramo P (v, w) determinado por los vectores v y w.

Se usarn las siguientes propiedades bsicas del rea (o del volumen): a) el rea de un
segmento de recta es igual a 0; b) si A y B son regiones congruentes, entonces tienen la misma
rea; c) si A y B son regiones ajenas, entonces el rea de A B es igual al rea de A ms el
rea de B; d) si A y B son regiones tales que A B tiene rea cero, entonces el rea de A B
es igual al rea de A ms el rea de B.
Teorema 2.6.1. Sean v, w en R2 .
1. Vol(v, w) = 0 si y slo si v y w son linealmente dependientes.

68

2. Determinantes
2. Si n N, r Q+ y c R+ , entonces:
a) Vol(nv, w) = n Vol(v, w),
b) Vol(rv, w) = r Vol(v, w),
c) Vol(cv, w) = c Vol(v, w).
3. Vol(v, w) = Vol(v, w).
4. Vol(v + w, w) = Vol(v, w).

Demostracin. 1. Supongamos que Vol(v, w) = 0. Esto slo es posible si P (v, w) es un punto o


un segmento de recta. En el primer caso v = w = 0 y en el segundo caso v = cw o w = cv para
algn escalar c 6= 0. En cualquier caso v y w son linealmente dependientes.
Supongamos ahora que v y w son linealmente dependientes. En consecuencia existen escalares
a y b, no ambos cero, tales que av + bw = 0. Si a 6= 0, entonces v = ab w y por tanto P (v, w) es
un segmento de recta. En consecuencia Vol(v, w) = 0. El caso en que b 6= 0 es completamente
anlogo.
Como consecuencia de (1) podemos suponer, en los apartados del (2) al (4) que v y w son
linealmente independientes. En efecto, si v y w son linealmente dependientes tambin lo sern
cada uno de los conjuntos {nv, w}, {qv, w}, {cv, w}, {v, w} y {v +w, w} y como 0 = 0, entonces
se cumplirn cada una de las igualdades en (2)-(4).
2a) Sea n N. El paralelogramo P (nv, w) est formado por n paralelogramos, cada uno de
los cuales es congruente con P (v, w) (Figura 2.2), y consecuentemente, el rea de cada uno de
stos es Vol(v, w). Si designamos con P1 , . . . , Pn a cada uno de estos paralelogramos, entonces
Pi Pi+1 es un segmento de recta (1 i < n). As:
Vol(nv, w) = Vol(v, w) + + Vol(v, w) = n Vol(v, w).
{z
}
|
n veces

nv
(n 1)v
2v
v
w
Figura 2.2: El paralelogramo P (nv, w) es la unin de n paralelogramos, cada uno de los cuales
es congruente con P (v, w).
2b) Sea r Q+ y supongamos que r = m
n con m, n enteros positivos. Como:
   


1
1
Vol(v, w) = Vol n
v , w = n Vol
v, w ,
n
n
se tiene que:
Vol(rv, w) = Vol
=m

   


1
1
v, w = Vol m
v , w = m Vol
v, w
n
n
n

m

1
Vol(v, w) = r Vol(v, w).
n

2.6. reas y volmenes

69

2c) En primer lugar observemos que si 0 < r < c < r0 , entonces P (rv, w) P (cv, w)
P (r0 v, w) (Figura 2.3). Ahora elijamos una sucesin creciente (rn ) y una sucesin decreciente (rn0 )
de nmeros racionales que converjan ambas a c. Para cualquier n N se tiene que rn < c < rn0
de donde se concluye que P (rn v, w) P (cv, w) P (rn0 v, w). Como consecuencia de estas
contenciones tenemos:
Vol(rn v, w) Vol(cv, w) Vol(rn0 v, w).
r0 v
cv
rv
w
Figura 2.3: El paralelogramo P (rv, w) est contenido en el paralelogramo P (cv, w) y este a su
vez est contenido en el paralelogramo P (r0 v, w).
Aplicando la parte (b) llegamos a que para toda n N se tiene que:
rn Vol(v, w) Vol(cv, w) rn0 Vol(v, w).
Al tomar lmites y considerando que:
rn Vol(v, w) c Vol(v, w) y rn0 Vol(v, w) c Vol(v, w),
obtenemos que c Vol(v, w) Vol(cv, w) c Vol(v, w). Por lo que Vol(cv, w) = c Vol(v, w).
3. Los paralelogramos P (v, w) y P (v, w) son congruentes. Por tanto sus reas son iguales:
Vol(v, w) = Vol(v, w).
4. El rea del paralelogramo P (v, w) es la suma de las reas de los tringulos A y B, es
decir Vol(v, w) = rea 4A + rea 4B. De manera similar Vol(v + w, w) = rea 4B + rea 4C
(Figura 2.4).
v + 2w
v+w
C

v
A

2w

B
w

Figura 2.4: Tringulos A, B y C.


Como los tringulos A y C son congruentes, rea 4A = rea 4C. As:
Vol(v, w) = Vol(v + w, w).

Ntese que dados v, w R2 se puede formar la matriz cuadrada de 22 cuyas columnas son v
y w: A = [v | w] y en consecuencia tiene sentido hablar de det(v | w). Se quiere probar que el rea
del paralelogramo determinado por v, w R2 es |det(v | w)|, es decir, Vol(v, w) = |det(v | w)|.

70

2. Determinantes

Definicin 2.6.2. Si v, w R2 , el rea orientada del paralelogramo P (v, w) denotada con


Vol0 (v, w) est dada por:

Vol(v, w) si det(v | w) 0,
Vol0 (v, w) =
Vol(v, w) si det(v | w) 0.
Teorema 2.6.3. El rea orientada de P (v, w) es igual a det(v | w):
Vol0 (v, w) = det(v | w).
Demostracin. En virtud del Teorema 2.3.2 bastar verificar que Vol0 satisface las condiciones
dadas en la Definicin 2.1.1.
Como {v, v} es linealmente dependiente, entonces Vol0 (v, v) = 0. Claramente Vol0 (e1 , e2 ) =
1, donde e1 y e2 son los vectores unitarios estndar. Slo falta mostrar que Vol0 es bilineal.
Veamos primero que Vol0 (cv, w) = c Vol0 (v, w). Si c = 0, entonces det(cv | w) = 0 y
Vol0 (cv, w) = Vol(cv, w) = 0 = c Vol0 (v, w) ya que {0, w} es linealmente dependiente. Supongamos ahora que c > 0. Si det(cv | w) 0, entonces det(v | w) 0 ya que c > 0. Luego,
Vol0 (cv, w) = Vol(cv, w) = c Vol(v, w) = c Vol0 (v, w). Finalmente, si det(cv | w) 0, entonces
det(v | w) < 0, y
Vol0 (cv, w) = Vol(cv, w) = c Vol(v, w) = c( Vol(v, w)) = c Vol0 (v, w).
Supongamos que c < 0. Si det(cv | w) 0, entonces det(v | w) 0 y
Vol0 (cv, w) = Vol(cv, w) = Vol(cv, w) = c Vol(v, w) = c( Vol(v, w))
= c Vol0 (v, w).
Si det(cv | w) 0, entonces det(v | w) 0. Se sigue que:
Vol0 (cv, w) = Vol(cv, w) = Vol(cv, w) = (c) Vol(v, w) = c Vol(v, w)
= c Vol0 (v, w).
Esto prueba que Vol0 (cv, w) = c Vol(v, w). La prueba de que Vol0 (v, cw) = c Vol0 (v, w) es
anloga a la del caso anterior.
A continacin mostraremos que Vol0 (v1 +v2 , w) = Vol0 (v1 , w)+ Vol0 (v2 , w). Primero veamos
que si v, w es una base de R2 , entonces Vol0 (v + w, w) = Vol0 (v, w). Si = 0, entonces
Vol0 (v, w) = Vol0 (v, w) con base en lo que se prob previamente. Si 6= 0, entonces:
Vol0 (v + w, w) = Vol0 (v + w, w)
(
Vol(v + w, w) si det(v + w | w) 0
=
Vol(v + w, w) si det(v + w | w) 0
(
Vol(v, w) si det(v | w) 0
=
Vol(v, w) si det(v | w) 0
= Vol0 (v, w)
= Vol0 (v, w).
Como 6= 0, tenemos que Vol0 (v + w, w) = Vol0 (v, w).
Sean v1 , v2 , w R2 . Si w = 0, la afirmacin es vlida. Si w 6= 0, sea v R2 tal que {v, w} es
base de R2 . Escribamos v1 y v2 en trminos de esta base de la siguiente manera: v1 = 1 v + 1 w
y v2 = 2 v + 2 w. Luego, v1 + v2 = (1 + 2 )v + (1 + 2 )w. Se tiene entonces que:
Vol0 (v1 + v2 , w) = Vol0 ((1 + 2 )v + (1 + 2 )w, w) = (1 + 2 ) Vol0 (v, w)
= 1 Vol0 (v, w) + 2 Vol0 (v, w)
= Vol0 (1 v + 1 w, w) + Vol0 (2 v + 2 w, w)
= Vol0 (v1 , w) + Vol0 (v2 , w).

2.6. reas y volmenes

71

El caso Vol0 (v, w1 + w2 ) = Vol0 (v, w1 ) + Vol0 (v, w2 ) es anlogo al anterior.


Como consecuencia de todo lo anterior tenemos que Vol0 : R2 R2 R es una funcin
determinante. De acuerdo con el Teorema 2.3.2 se tiene:
Vol0 (v, w) = det(v | w)
para cualesquiera v, w R2 .
Ejemplo 2.6.4. Calcular el rea del paralelogramo determinado por los vectores v = (3, 5)
T
y w = (1, 2) (Figura 2.5).
y

w=

 
3
5

5
4
3
2
1
2 1
1

 
3
v=
5
Figura 2.5: Paralelogramo determinado por los vectores v = (3 5)T y w = (1 2)T .
Solucin. El rea de este paralelogramo es el rea del paralelogramo P (v, w).


Vol 35 21 = det 35 21 = |6 5| = 11.
En el ejemplo anterior, los vectores que determinan al paralelogramo estn anclados en el
origen. El siguiente ejemplo ilustra como proceder cuando se tienen los vrtices que determinan
al paralelogramo en vez de los vectores generadores. La solucin es sencilla, ya que a paritr de
los vrtices se pueden construir los vectores generadores.
T

Ejemplo 2.6.5. Calcular el rea del paralelogramo cuyos vrtices son (2, 3) , (5, 5) ,
T
T
(2, 10) y (5, 8) (Figura 2.6).
Solucin. El paralelogramo original es congruente al paralelogramo generado por los vectores
T
T
T
T
T
T
v = (5, 5) (2, 3) = (3, 2) y w = (5, 8) (2, 10) = (7, 5) . Por lo tanto, el rea
buscada es:




3 7
Vol(v, w) = det
= 29.
2 5
El Teorema 2.6.3 se puede generalizar a cualquier dimensin. Para ello basta fijar todas las
coordenadas, excepto dos de ellas y todo se reduce al caso bidimensional. Se enunciar el teorema
para el caso tridimensional.
Si u, v, w son tres vectores de R3 , denotaremos con P (u, v, w) el paraleleppedo generado por
estos vectores:
P (u, v, w) = {u + v + w | 0 1, 0 1, 0 1}.
Denotaremos con Vol(u, v, w) el volumen de P (u, v, w).

72

2. Determinantes
y

(2, 10)

10
9

(5, 8)

8
7
6

(5, 5)

w = (7, 5)

5
4

(2, 3)
v = (3, 2)

3
2
1

5 4 3 2 1

Figura 2.6: Paralelogramo determinado por los vectores (2 3)T , (5 5)T , (5 8)T y (2 10)T . El
paralelogramo punteado es la traslacin al origen del paralelogramo original.

Teorema 2.6.6. Sean u, v, w R3 .


1. Vol(u, v, w) = 0 si y slo si u, v, w son linealmente dependientes.
2. Si n N, r Q+ y c R+ , entonces:
a) Vol(nu, v, w) = n Vol(u, v, w),
b) Vol(ru, v, w) = r Vol(u, v, w),
c) Vol(cu, v, w) = c Vol(u, v, w).
3. Vol(u, v, w) = Vol(u, v, w).
4. Vol(u + v, v, w) = Vol(u, v, w).
Demostracin. La demostracin es anloga a la prueba del Teorema 2.6.3.
Ejemplo 2.6.7. Calcular el volumen del paraleleppedo determinado por los vectores u =
T
T
T
(1, 2, 4) , v = (2, 3, 1) y w = (5, 1, 2) .
Solucin. El volumen de P (u, v, w) est dado por |det(u | v | w)|. As:



1
2
5

Vol(u, v, w) = det 2 3 1 = 55.

4
1
2

2.6.1.

Ejercicios

1. Determine las reas de los paralelogramos generados por los siguientes pares de vectores:
T

a) (5, 1) y (8, 4) .
T

b) (4, 2) y (1, 7) .

2.6. reas y volmenes

73

2. Determine el rea de cada paralelogramo de tal manera que tres de los vrtices de cada uno
de ellos estn determinados por los siguientes puntos:
T

a) (5, 2) , (11, 8) , (9, 2) .


T

b) (0, 3) , (4, 5) , (7, 12) .


T

c) (1, 1) , (3, 3) , (0, 2) .


3. Determine el volumen de cada paraleleppedo generado por las siguientes tercias de puntos
de R3 :
T

a) (1, 1, 1) , (1, 2, 1) , (1, 1, 3) .


T
T
T
b) 1, 12 , 13 , 12 , 13 , 14 , 31 , 14 , 51 .
T

c) (1, 1, 1) , (1, 1, 1) , (1, 0, 1) .

74

2. Determinantes

CAPTULO

Espacios vectoriales

En diversas ramas de las matemticas nos topamos con conjuntos de elementos que se pueden
operar entre ellos y multiplicar por escalares, es decir por elementos de algn campo. Consideremos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como resultado
un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El conjunto de
soluciones de un sistema homogneo es otro ejemplo tpico. Podemos sumar dos o ms soluciones
y obtenemos nuevamente una solucin. De hecho cualquier combinacin lineal de soluciones es
nuevamente una solucin. En Clculo, tambin se presentan ejemplos de tales conjuntos, v.gr.
el conjunto de todas la funciones diferenciables de R en R. Sabemos que cualquier combinacin
lineal de funciones diferenciables es nuevamente una funcin diferenciable. stos son ejemplos
de espacios vectoriales. En este captulo nos dedicaremos al estudio de la teora bsica acerca de
los espacios vectoriales sobre un campo arbitrario, haciendo nfasis en los espacios de dimensin
finita.

3.1.

Espacios vectoriales

Un espacio vectorial es una estructura algebraica que consta de un conjunto no vaco junto
con dos operaciones binarias, una externa y otra interna, y que satisfacen ciertas propiedades.
Las propiedades que posee R2 junto con las suma de vectores y la multiplicacin por escalar
y que comparte por ejemplo con el conjunto de todas funciones diferenciables de R en R sern
la base para la definicin de espacio vectorial.
Definicin 3.1.1. Un espacio vectorial sobre un campo K (o un K-espacio vectorial ) es conjunto no vaco V junto con dos operaciones
+:V V
(v1 , v2 )

V
,
v1 + v2

:K V
(c, v)

V
7

cv

llamadas respectivamente suma y producto por escalar las cuales satisfacen:


1. u + v = v + u para todos los u, v V.
2. (u + v) + w = u + (v + w) para todos los u, v, w V.
3. Existe un elemento 0 V tal que v + 0 = v para todo v V.
75

76

3. Espacios vectoriales

4. Para cada v V , existe v V tal que v + (v) = 0.


5. c (u + v) = cu + cv para cualquier c K y cualesquiera u, v V.
6. (c1 + c2 ) v = c1 v + c2 v para cualesquiera c1 , c2 K, v V.
7. (c1 c2 ) v = c1 (c2 v) para cualesquiera c1 , c2 K, v V.
8. El escalar 1 K cumple 1 v = v para todo v V.
A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo K
escalares. Aqu la palabra vector no est haciendo referencia a los vectores de R2 o R3 .
V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial
complejo.
Observacin 3.1.2.
1. Las propiedades 1-4 establecen que (V, +) es un grupo abeliano.
2. Es importante enfatizar que un espacio vectorial no es nicamente un conjunto V . Es como
dice la definicin una terna (V, +, ), donde V es un conjunto no vaco junto con las operaciones
binarias + y que satisfacen las propiedades de espacio vectorial. De hecho el mismo conjunto
V puede ser parte de espacios vectoriales diferentes. En general, cuando no haya peligro de
confusin haremos referencia a un espacio vectorial mencionando nicamente el conjunto V.
Ejemplos 3.1.3. En los siguientes ejemplos K es un campo arbitrario y n, m N. Los siguientes
conjuntos junto con las operaciones indicadas son K-espacios vectoriales.
a) El conjunto K n que consta de todos los vectores columna junto con las operaciones usuales
de suma de vectores y multiplicacin de vector por escalar.
b) El conjunto K mn de todas las matrices de m n con entradas en el campo K es un espacio
vectorial respecto de la suma de matrices y la multiplicacin matriz por escalar.
c) Sea A K mn . El conjunto de todas las soluciones del sistema homogneo Ax = 0, junto
con las operaciones usuales de suma de vectores y multiplicacin de vector por escalar.
d) Sea K un campo. El conjunto K[t] de todos los polinomios en la variable t, junto con operaciones usuales de suma de polinomios y producto de polinomio por escalar es un K-espacio
vectorial.
Ejemplo 3.1.4. Sea V el conjunto de todas las matrices de mn con entradas reales. Considere
en V la suma usual de matrices. Sean : R V V y 0 : Q V V la multiplicacin usual
por escalar (En el segundo caso la multiplicacin se restringe a nmeros racionales). Entonces
(V, +, ) y (V, +, 0 ) son dos espacios vectoriales diferentes, ya que uno es real y el otro es racional.
Teorema 3.1.5. En un K-espacio vectorial V se cumple lo siguiente:
1) Si u, v, w V son tales que v + u = w + u, entonces v = w.
2) Existe un nico elemento 0 V tal que v + 0 = v para todo v V.
3) Para cada v V, existe un nico elemento w V tal que v + w = 0.
4) (v) = v para todo v V.
5) 0 v = 0 para todo v V.
6) (1) v = v para todo v V .

3.1. Espacios vectoriales

77

7) c 0 = 0 para todo c K.
8) Si c K, v V y cv = 0, entonces c = 0 v = 0.
Demostracin. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector est familiarizado con las propiedades bsicas de los grupos, puede omitir las
pruebas de 1)-4).
1) Si v + u = w + u, entonces (v + u) + (u) = (w + u) + (u). Pero (v + u) + (u) =
v + (u + (u)) = v + 0 = v y (w + u) + (u) = w + (u + (u)) = w + 0 = w. Luego, v = w.
2) Supongamos que 0 y 00 cumplen que v + 0 = v y v + 00 = v para todo v V . Luego, en
particular 0 + 0 = 0 y 0 + 00 = 0. De aqu que 0 + 0 = 0 + 00 y por el inciso anterior, se sigue
que 0 = 00 .
3) Sea v V . Sabemos que existe v V tal que v + (v) = 0. Supongamos que w V cumple
que v + w = 0. Entonces v + (v) = v + w, y por el inciso 1 se sigue que w = v.
4) Sea v V . Sabemos que existe v V tal que v + (v) = 0. Pero tambin existe (v) V
tal que v + ((v)) = 0. Luego, v + (v) = (v) + (v) y por el inciso 1 se sigue que
v = (v).
5) Escribamos 0 = 0 + 0. Entonces, para todo v V tenemos que 0 v = (0 + 0)v = 0 v + 0 v,
de donde 0 = 0 v.
6) Sea v V . Tenemos que (1+1)v = (1)v +1v = (1)v +v y tambin (1+1)v = 0v = 0
segn el inciso anterior. Luego, (1)v + v = 0 y por lo tanto (1)v = v.
7) Escribamos 0 = 0 + 0. Entonces, para todo c K tenemos que c 0 = c(0 + 0) = c 0 + c 0,
de donde c 0 = 0.
8) Supongamos que cv = 0 con c K y v V . Si c = 0 no hay nada que demostrar. Supongamos
entonces que c 6= 0. Entonces existe c1 K tal que c1 c = 1. Luego, c1 (cv) = c1 0.
Pero, c1 (cv) = (c1 c)v = 1 v = v y c1 0 = 0. Por lo tanto, v = 0.

3.1.1.

Ejercicios

1. Sea K un campo y sea X un conjunto no vaco. Considere el conjunto K X = {f : X K |


f es funcin}. Dadas dos funciones f, g K X y c K se define la suma de funciones y la
multiplicacin por escalar como sigue:
f +g : X
x

X
,
7 f (x) + g (x)

cf : X
x

X
.
7

cf (x)

Pruebe que K X con estas operaciones es un K-espacio vectorial. Concluya que K n , K mn


y K son K-espacios vectoriales. (Aqu K denota al conjunto de todas las sucesiones
(a1 , a2 , a3 , . . . ) de elementos de K).
2. Pruebe que cualquier campo es un espacio vectorial sobre s mismo.
3. Considere el campo C de los nmeros complejos. Es R un C-espacio vectorial? Justifique su
respuesta.
4. Sean F y K campos arbitrarios tales que F K. Pruebe que K es un F -espacio vectorial.

78

3. Espacios vectoriales

5. Sean V y W dos K-espacios vectoriales. Considere V W y defina:


(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) ,
c (v, w) = (cv, cw) .
Pruebe que V W con estas operaciones es un espacio vectorial. Se dice que este espacio
vectorial es el producto directo de V y W .
6. Sea R+ el conjunto de todos los nmeros reales positivos. Considere R+ junto con las operaciones:
? : R + R+
R+
: R R+
R+
,
(x, y)
7 x + y 3
(c, x)
7 cx 3c + 3
Es R+ junto con estas operaciones un espacio vectorial real? Justifique su respuesta.
7. Pruebe que R es un espacio vectorial real con las operaciones x?y = x+y1, cx = cxc+1.
Cul es el neutro aditivo en este espacio vectorial? En este contexto, qu significa x?
8. Pruebe que R+ es un espacio vectorial real con las operaciones x ? y = xy, c x = xc . Cul
es el neutro aditivo en este espacio vectorial? En este contexto, qu significa x?
9. Sea V un K-espacio vectorial, S un conjunto y f : V S una funcin biyectiva. Para cada

x, y S y para cada
escalar c K defina las operaciones x ? y = f f 1 (x) + f 1 (y) y

c x = f cf 1 (x) . Pruebe que S junto con estas operaciones es un K-espacio vectorial.

3.2.

Subespacios

Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del espacio original sean a su vez espacios vectoriales. Por ejemplo, sea A Rmn y consideramos el
espacio nulo de A, el cual es un subconjunto de Rn . Observemos que si x, y N (A), es decir, si
Ax = 0 y Ay = 0, entonces A(x+y) = 0 y por tanto x+y N (A). Adems, si c R y x N (A),
entonces cx N (A). En notacin funcional, +(N (A) N (A)) N (A) y (R N (A)) N (A).
As, la suma usual definida en Rn Rn cuando se restringe a N (A) N (A) define una funcin
N (A) N (A) N (A). De manera similar, la multiplicacin por escalar : R Rn Rn define
una operacin binaria externa : R N (A) N (A). Es rutinario verificar que N (A) junto con
estas dos operaciones binarias satisfacen las condiciones de la Definicin 3.1.1 y por lo tanto
N (A) tiene estructura de R-espacio vectorial.
Por otro lado, el subconjunto R+ R+ de R2 no es un espacio vectorial ya que la multiplicacin por escalar no es cerrada (por ejemplo (1) (1, 1)
/ R+ R+ ).
Dado un espacio vectorial V , un subespacio vectorial es un subconjunto W de V tal que W
es un espacio vectorial con las operaciones de suma y producto por escalar definidas en V .
Para determinar si un conjunto dado es un subespacio vectorial, no es necesario verificar las
ocho propiedades que definen a un espacio vectorial; de hecho basta con verificar tres condiciones,
como lo indica el siguiente teorema.
Teorema 3.2.1. Sea W un subconjunto de un Kespacio vectorial V. Entonces W es un subespacio de V si y slo si:
1. W 6= ,
2. v, w W v + w W ,
3. c K y v W cv W .

3.2. Subespacios

79

Demostracin. Si W es un subespacio de V , es claro que se verifican 1, 2 y 3 por definicin.


Recprocamente, supongamos que W satisface 1, 2 y 3. Por 1, W es no vaco, mientras que por
2 y 3, las operaciones de suma y producto por escalar estn bien definidas sobre W . Adems,
los axiomas 1, 2, 5, 6, 7 y 8 de la definicin de espacio vectorial se verifican en W , puesto que
los vectores de W pertenecen a V . Por lo tanto, slo necesitamos demostrar que los axiomas 3 y
4 tambin se verifican en W . Como W es no vaco existe u W . Entonces, por 3, 0u = 0 W y
por lo tanto v + 0 = v para todo v W . Finalmente, si v W , entonces por 3, (1)v = v W
y v + (v) = 0. Por lo tanto, W es un subespacio de V .
Con este teorema es fcil verificar que el conjunto:
 

x
2
W =
R | ax + by = 0
y

es un subespacio de R2 (De hecho, W es el espacio nulo de la matriz A = a b ).
A partir de un conjunto dado de vectores de un espacio vectorial V , se puede construir un
subespacio como se muestra a continuacin.
Sean v1 , . . . , vn vectores de un K-espacio vectorial V . El conjunto de todas las posibles
combinaciones lineales de los vectores vi s se denota por hv1 , . . . , vn i o por gen (v1 , . . . , vn ) y
se llama subespacio generado por {v1 , . . . , vn }. En ocasiones se escribe h{v1 , . . . , vn }i en vez de
hv1 , . . . , vn i. En notacin de conjuntos:
hv1 , . . . , vn i = {v V | v es una combinacin lineal de v1 , . . . , vn }
= {c1 v1 + c2 v2 + + cn vn | c1 , . . . , cn K} .
Es sencillo probar que hv1 , . . . , vn i es un subespacio de V . Primero se observa que hv1 , . . . , vn i
es no vaco pues contiene a cada uno los vi s que lo genera: Para cada i, 1 i n, vi =
i1 v1 + i2 v2 + + in vn , donde ij es la delta de Kronecker. Las otras dos condiciones se siguen
de:
n
n
n
n
n
X
X
X
X
X
cj vj +
dj v j =
(cj + dj )vj ,
c
cj vj =
(ccj )vj .
j=1

j=1

j=1

j=1

j=1




2
1
Ejemplo 3.2.2. Consideremos el espacio vectorial R2 y sean v1 =
, v2 =
y
4
2


3
v3 =
. Es muy fcil construir vectores que estn en el subespacio W = hv1 , v2 , v3 i. Basta
6
elegir tres escalares y formar la correspondiente combinacin lineal. As los vectores




4
39
= v1 + 0v2 2v3 ,
= 5v1 + 8v2 7v3 ,
8
78
son elementos de W .
Por otro lado, decidir si un vector dado pertenece
 o noal subespacio generado por v1 , v2
2
y v3 , puede ser ms complicado. Es el vector w =
un elemento de W ? La pregunta
3
se traduce en Existen escalares c1 , c2 , c3 R tales que w = c1 v1 + c2 v2 + c3 v3 ? Esto lleva a
preguntarse si el sistema de ecuaciones lineales
2c1 c2 + 3c3 = 2
4c1 + 2c2 6c3 = 3
tiene solucin. La forma escalonada reducida de la matriz aumentada [A | b] es


1 21 32 0
.
0
0 0 1
Se concluye que el sistema de ecuaciones lineales no tiene solucin y por lo tanto w
/ W.

80

3. Espacios vectoriales

A continuacin una de las principales propiedades de los subespacios generados por un conjunto de vectores.
Teorema 3.2.3. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el
subespacio generado por estos vectores es el menor de todos los subespacios de V que contienen
a stos.
Demostracin. Previamente se prob que hv1 , . . . , vn i es subespacio de V . Sea W un subespacio
de V que contiene a {v1 , . . . , vn }. Debemos demostrar que hv1 , . . . , vn i W . Tenemos que
c1 v1 , . . . , cn vn W , donde ci K, y tambin c1 v1 + + cn vn W por ser W un subespacio
de V . As, hv1 , . . . , vn i W .
A modo de ejemplo describamos analtica y geomtricamente el subespacio de R3 generado
T
T
por los vectores v1 = (1, 1, 1) y v2 = (1, 2, 0) . Por definicin:
W

hv1 , v2 i

{c1 v1 + c2 v2 | c1 , c2 R}
n
o
T
(c1 c2 , c1 + 2c2 , c1 ) | c1 , c2 R

=
T

Ahora bien, (x, y, z) W si existen escalares c1 , c2 R tales que x = c1 c2 , y = c1 + 2c2 y


z = c1 . Eliminando c1 y c2 se obtiene 2x + y = 3z. Recprocamente, si (x, y, z)T R3 es tal que
2x + y 3z = 0, entonces y = 2x + 3z. As:


x
x
1
0
y = 2x + 3z = (x) 2 + z 3 = xv2 + z(v1 + v2 ) = zv1 + (x + z)v2 ,
z
z
0
1
T

y por lo tanto (x, y, z) W . Con esto se ha demostrado que W = {(x, y, z)T R3 | 2x + y


3z = 0}. Note que W es el espacio nulo de la matriz 2 1 3 .
Observe que tambin se puede proceder como sigue. Por definicin de subespacio generado,
w = (x, y, z)T W si y solamente si existen escalares c1 , c2 tales que

 
1 1
c1

1 2
w = c 1 v1 + c 2 v2 =
= Ac.
c2
1 0
As W est caracterizado como el conjunto de todos los w R3 para los cuales el sistema
de ecuaciones Ac = w tiene solucin; en otras palabras W es el espacio columna de la matriz
A. Luego decidir si w W es equivalente a decidir si w R(A). Una forma escalonada por
renglones de [A | w] es

1 1
x
0
3
x + y ,
2
0
0 3 x 13 y + z
de donde se sigue que el sistema de ecuaciones Ac = w tiene solucin si y solamente si 2x
y + 3z = 0.
Geomtricamente W es el plano que pasa por el origen determinado por los vectores v1 y v2 .
Ejemplo SAGE 3.2.4. Sage tiene la capacidad de operar con espacios y subespacios vectoriales. Para crear un espacio vectorial se pueden usar las siguientes instrucciones.
sage : V = RR ^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
sage : V = RealField ()^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision

3.2. Subespacios

81

Para probar pertenencia:


sage : v1 = vector ( RR , [1 , pi ]); v1
(1.00000000000000 , 3.14159265358979)
sage : v1 in V
True
sage : v2 = vector ( CC , [1+ i , - i ]); v2
(1.00000000000000 + 1.00000000000000* I , -1.00000000000000* I )
sage : v2 in V
False

Una forma de generar subespacios generados es como sigue (Vea el Ejemplo 3.2.2):
sage :
sage :
sage :
True
sage :
True
sage :
False

3.2.1.

v1 = vector ([2 , -4]); v2 = vector ([ -1 ,2]); v3 = vector ([ -4 ,8])


W = V . span ([ v1 , v2 , v3 ])
w1 = vector ([ -4 ,8]); w1 in W
w2 = vector ([ -39 ,78]); w2 in W
w3 = vector ([2 , -3]); w3 in W

Ejercicios

1. Sea V un espacio vectorial sobre un campo K. Pruebe que la interseccin de cualquier coleccin de subespacios de V es nuevamente un subespacio de V.
2. Sea V un espacio vectorial y sean v1 , . . . , vn V. Pruebe que la interseccin de todos los
subespacios de V que contienen a {v1 , . . . , vn } es igual al subespacio h{v1 , . . . , vn }i.
3. Sean a1 , . . . , an vectores de Rm . Pruebe que el conjunto:


W = x Rm | xT ai = 0 para i = 1, . . . , n
es un subespacio de Rm .
4. Sea V un espacio y sean v1 , v2 y v3 elementos de V. Suponga que v3 depende linealmente de
v1 y v2 , es decir, suponga que existen escalares c1 , c2 tales que v3 = c1 v1 + c2 v2 . Pruebe que
h{v1 , v2 , v3 }i = h{v1 , v2 }i .
5. Sea V un espacio vectorial y sean B1 = {v1 , . . . , vr } y B2 = {v1 , . . . , vr , w}. Pruebe que
hB1 i = hB2 i si y solamente si w hB1 i.
6. Describa algebraica y geomtricamente el subespacio de R3 generado por (1, 1, 1)
T
(1, 2, 3) .

7.
Encuentre un conjunto
finito de vectores que genere el espacio nulo de la matriz A =
1
1 1
1
2
3
2 1 . Haga lo mismo para el espacio columna y rengln de A.
0 2
5
1


8. Sea A K mn . Pruebe que R(A) = hA1 , . . . , An i y que R(AT ) = AT1 , . . . , ATm .
9. Sea A K mn . Pruebe que si W es un subespacio de K n , entonces A(W ) = {Ax | x W }
es un subespacio de K m . Pruebe que si W = hv1 , . . . , vr i, entonces A(W ) = hAv1 , . . . , Avr i.

82

3. Espacios vectoriales

10. Sea W un subespacio no nulo de R2 . Pruebe que W = R2 o bien W = {( xy ) R2 | ax+by = 0}


para algunos a, b R.
11. Sean A K mn y B K np . Pruebe que el espacio columna de AB est generado por
{AB1 , . . . , ABp }.






1 1
1 3
0
1
12. Determine si los vectores v1 =
, v2 =
, v3 =
y v4 =
1 1
0 4
3 1


0 0
generan R22 , el espacio de las matrices cuadradas de 2 2.
0 1
13.

a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K[t]n que consta de los
polinomios de grado menor que n es un subespacio vectorial del espacio de polinomios
K[t].
b) Determine cules de los siguientes polinomios de R [t]3 pertenencen al subespacio de
R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t.
i) p(t) = 2 t t2
ii) p(t) = 1 4t + t2
iii) p(t) = 10 2t + 8t2 .
T

14. Determine si R3 est generado por los vectores v1 = (2, 3, 1) , v2 = (3, 4, 2) , v3 =


T
T
(0, 1, 3) y v4 = (1, 3, 1) .
15. Si U y W son subespacios de un espacio V, pruebe que el conjunto U + W = {u + w | u
U, w W } es un subespacio de V . Pruebe adems que U + W es el menor de todos los
subespacios de V que contienen a U W . El subespacio U + W es la suma de los subespacios
U y W.
16. Sea V un espacio vectorial. Si B1 genera a U y B2 genera a W , pruebe que B1 B2 genera a
U + W , i.e., pruebe que gen (B1 B2 ) = gen (B1 ) + gen (B2 ).
17. En R3 , considere los subespacios:
n x 
o
n x 
o
y
y
U=
|x+y+z =0 y V =
| 2x y + z = 0 .
z

a) Describa explcitamente el subespacio U V.


b) Es U V un subespacio de R3 ?
c) Verifique que R3 = U + V.
18. Sean A y B matrices de m n y m p, respectivamente. Pruebe que el espacio columna de
la matriz [A | B] es la suma de los espacios columna de A y de B. En smbolos, pruebe que
R([A | B]) = R(A) + R(B).
19. Determine cules de los siguientes subconjuntos de Rnn son subespacios.
a) Las matrices simtricas.
b) Las matrices antisimtricas.
c) Las matrices no singulares.
d) Las matrices singulares.
e) Las matrices triangulares superiores.
f) Las matrices triangulares inferiores.
g) Todas las matrices que conmutan con una matriz dada A.
h) Las matrices idempotentes (una matriz es idempotente si A2 = A).

3.3. Dependencia e independencia lineal

83

i) Las matrices cuya traza es cero.


j) Las matrices diagonales.
20. Sea V un espacio vectorial y sea W un subespacio de V. Defina la siguiente relacin en V :
v w si v w W.
Pruebe que es una relacin de equivalencia. Denote con [v] la clase de equivalencia de
v V. Es decir [v] = {w V | w v W } . Sea V /W el conjunto cociente, es decir, el
conjunto formado por todas las clases de equivalencia de esta relacin. Defina en V /W las
siguientes operaciones:
[v] + [w] = [v + w] ; c [v] = [cv] .
Pruebe que estas operaciones estn bien definidas y que V /W es un espacio vectorial con
estas operaciones. V /W se denomina espacio vectorial cociente.
21. Sean W1 y W2 dos K-espacios vectoriales y sea V = W1 W2 su producto directo. Sea
W = W1 0 = {(w1 , 0) | w1 W1 }. Pruebe que V /W = {W1 w2 | w2 W2 }, es decir, pruebe
que cada elemento del espacio cociente V /W es [(w1 , w2 )] = W1 w2 = {(w10 , w2 ) | w10 W1 }.

3.3.

Dependencia e independencia lineal

En esta seccin se estudia el concepto de dependencia e independencia lineal de vectores. Sea


V un K-espacio vectorial y sean v1 , . . . , vn vectores de V . Se dice que un vector v V depende
linealmente de los vectores vi , si v se puede escribir como combinacin lineal de los vi . El vector
0 de V depende linealmente, aunque de manera trivial, de cualquier conjunto de vectores, pues
0 = 0v1 + 0v2 + + 0vn . Dado un subconjunto S de vectores de V , uno est interesado en
determinar si el vector cero depende linealmente, de manera no trivial, de los vectores de S.
Considere en el plano cartesiano los siguientes subconjuntos de vectores:





1
2
S1 = v1 =
, v2 =
,
2
4



 


7
2
19
S2 = w1 =
, w2 =
, w3 =
.
4
9
92
Observe que el vector cero de R2 se puede escribir de manera no trivial como combinacin lineal
tanto de v1 y v2 como de los vectores wi :
2v1 + (1) v2

0,

5w1 8w2 + w3

0.

Los vectores v1 = (8, 4, 6, 10) , v2 = (9, 6, 12, 18) y v3 = (41, 4, 43, 67) de R4
satisfacen una propiedad similar, es decir, el cero es una combinacin lineal no trivial de ellos:
15v1 14v2 + 6v3 = 0.
Un ltimo ejemplo, ahora con vectores de R [t]3 . Considere los polinomios p1 = 2 + 3t
5t2 , p2 = 3 + 5t 6t2 , p3 = 19 + 7t2 y p4 = 24 + 2t + 6t2 . En este caso, se tiene que:
15p1 11p2 3p3 + 5p4 = 0.
Ahora bien, dada una coleccin de vectores no siempre es posible hallar una combinacin lineal
no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar una

84

3. Espacios vectoriales

combinacin lineal no trivial de los vectores 1, 1 + t, 1 + t + t2 que de como resultado el polinomio


cero. En efecto, si suponemos que existen c1 , c2 y c3 tales que:

c1 (1) + c2 (1 + t) + c3 1 + t + t2 = 0 + 0t + 0t2
entonces se debe cumplir:
c1 + c2 + c3

0,

c2 + c3

0,

c3

0,

lo cual implica que c1 = c2 = c3 = 0.


Con estos ejemplos queda ilustrado que dado un conjunto de vectores solamente hay dos
posibilidades:
a) Es posible hallar una combinacin lineal no trivial de los vectores cuyo resultado sea el vector
cero, o
b) la nica combinacin lineal que da como resultado el vector cero es con todos los escalares
iguales a cero.
Definicin 3.3.1. Sea V un espacio vectorial sobre un campo K. Se dice que un conjunto no
vaco S = {v1 , . . . , vn } de vectores de V es linealmente dependiente si existen escalares c1 , . . . , cn
no todos cero tales que c1 v1 + + cn vn = 0. Se dice que S es linealmente independiente si no
es linealmente dependiente.
Ejemplo 3.3.2. Sea V un K-espacio vectorial y sea S = {v1 , . . . , vn } V . Que S sea linealmente dependiente es equivalente a decir que al menos un vector vj S que depende
linealmente de los otros. En efecto, suponga
que existen escalares c1 , . . . , cn con cj 6= 0 tales que
P
c1 v1 + + cn vn = 0; entonces vj P
= i6=j (c1
j ci )vi . Recprocamente, si vj depende linealmente
de los otros vectores de S y vj = i6=j xi vi , entonces x1 v1 + + (1)vj + + xn vn = 0 y S
es linealmente dependiente.
Aunque las definiciones de dependencia e independencia lineal se expresan en trminos de
conjuntos finitos de vectores, podemos extender los conceptos a conjuntos infinitos de la siguiente
manera.
Definicin 3.3.3. Un conjunto S de vectores en un espacio vectorial V es linealmente dependiente si contiene un subconjunto finito linealmente dependiente. Un conjunto de vectores que
no es linealmente dependiente se dice que es linealmente independiente.
A manera de ejemplo, demostremos que en el espacio vectorial de todos los polinomios con
coeficientes reales, R[t], el conjunto S = {1, t, t2 , . . .} es linealmente independiente.
Para ello, supongamos por contradiccin que S es linealmente dependiente. Entonces, existe
un subconjunto finito T de S que es linealmente dependiente, digamos T = {tm1 , tm2 , . . . , tmr }
con m1 < m2 < < mr . Entonces, existen escalares cm1 , cm2 , . . . , cmr no todos cero tales que:
cm1 tm1 + cm2 tm2 + + cmr tmr = 0.
Por definicin un polinomio es cero, si y slo si todos sus coeficientes son cero. Por lo tanto
cmi = 0 para i = 1, . . . , r, lo cual es una contradiccin. Por lo tanto, S es linealmente independiente. Note que esta prueba es aplicable independientemente de la naturaleza del campo
K.
Teorema 3.3.4. Sean V un K-espacio vectorial y S un subconjunto de V .

3.3. Dependencia e independencia lineal

85

1. Si S0 S y S0 es linealmente dependiente, entonces S es linealmente dependiente.


2. Si S es linealmente independiente y S0 S, entonces S0 es linealmente independiente.
3. Si 0 S, entonces S es linealmente dependiente.
4. {v} V es linealmente independiente si y slo si v 6= 0.
5. Sea v V . Si S es finito y linealmente independiente, entonces S {v} es linealmente
independiente si y slo si v
/ hSi.
Demostracin.
1. Si S0 es linealmente dependiente, entonces S0 contiene un subconjunto finito linealmente
dependiente. Como S0 S, se sigue que S contiene un subconjunto finito linealmente dependiente y por lo tanto S es linealmente dependiente.
2. Es la contrapositiva de la proposicin del inciso anterior.
3. Para todo c K con c 6= 0, tenemos que c 0 = 0. Luego, el conjunto {0} S es linealmente
dependiente y por lo tanto S es linealmente dependiente.
4. Demostraremos, de manera equivalente, que {v} V es linealmente dependiente si y slo si
v = 0. Segn el inciso anterior, tenemos que si v = 0, entonces {v} es linealmente dependiente.
Supongamos entonces que {v} es linealmente dependiente. En este caso, existe c K, c 6= 0,
tal que c v = 0. Luego, por el Teorema 3.1.5 se sigue que v = 0.
5. Sea S = {v1 , . . . , vn } linealmente independiente y sea v V . Demostraremos, de manera
equivalente, que S {v} es linealmente dependiente si y slo si v hSi. En efecto, si S {v}
es linealmente dependiente, entonces existen escalares no todos cero c1 , . . . , cn , c tales que
c1 v1 + + cn vn + cv = 0. Si c = 0, entonces c1 v1 + + cn vn = 0 y por lo tanto c1 = =
cn = 0, pues S es linealmente independiente. Luego, c 6= 0. De aqu que v = cc1 v1 cc2 v2
ccn vn hSi. Recprocamente, si v hSi, entonces existen escalares c1 , . . . , cn tales que
v = c1 v1 + + cn vn . Luego, v c1 v1 cn vn = 0 y por lo tanto, S {v} es linealmente
dependiente.






1 0
0 0
0 1
Ejemplo 3.3.5. Determine si las matrices v1 =
, v2 =
y v3 =
son
0 0
0 1
1 0
linealmente dependientes o independientes.
Supngase que es posible hallar escalares c1 , c2 , c3 tales que:
c1 v1 + c2 v2 + c3 v3 = 0.
Esta ecuacin implica que:

c1
c3

c3
c2


=

0
0


0
,
0

y por tanto c1 = c2 = c3 = 0. As los vectores dados son linealmente independientes.

1
0
1
1

Ejemplo 3.3.6. Determine si los vectores v1 =


2 , v2 = 3 , v3 =
4
1

1
1
4

v4 =
0 de R son linealmente dependientes o independientes.
0

3
5
y
12
10

86

3. Espacios vectoriales
Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que:
c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.

Entonces:

1
1

2
4
Al resolver el sistema se tiene:

0
1
3
1

1 0
0 1

0 0
0 0

c1
3 1
c2
5 1

12 0 c3
c4
10 0

c1
3 1
c2
2 2

0 4 c3
c4
0 0

0
0
= .
0
0

0
0

=
0 .
0

Luego, el sistema tiene infinidad de soluciones, por ejemplo 3v1 + 2v2 + v3 + 0v4 = 0. Por lo
tanto el conjunto de vectores dado es linealmente dependiente.
Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o
no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son
linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar
cuando las columnas de una matriz son linealmente independientes.
Teorema 3.3.7. Sea A K mn . Las siguientes afirmaciones son equivalentes:
1. Las columnas de A son linealmente independientes.
2. N (A) = {0}.
3. rango (A) = n.
Demostracin. La equivalencia de 2 y 3 se sigue del Teorema 1.5.4. Demostraremos slo la
equivalencia de 1 y 2.
Sea A = [A1 | . . . | An ] y supongamos que las columnas de A son linealmente independienT
tes. Sea x = (x1 , . . . , xn ) N (A). Entonces:
x1

0 = Ax = [A1 | . . . | An ]

..
.

!
= x1 A1 + + xn An ,

xn

de donde se sigue que x1 = = xn = 0. Es decir, x = 0. Por lo tanto, N (A) = {0}.


Recprocamente, supongamos que N (A) = {0}. Sean x1 , . . . , xn escalares tales que x1 A1 +
T
+ xn An = 0. Esta igualdad es equivalente a la igualdad Ax = 0 donde x = (x1 , . . . , xn ) .
Luego, x N (A) y por lo tanto x = 0. De aqu que x1 = = xn = 0 y as, las columnas de A
son linealmente independientes.
Una consecuencia del teorema anterior es que cualquier conjunto de n vectores en K m es
linealmente dependiente si n > m, pues el sistema Ax = 0 asociado tiene ms incgnitas que
ecuaciones y por lo tanto el sistema homogneo tiene ms de una solucin.
Teorema 3.3.8. Sea A K nn . Entonces, det(A) 6= 0 si y slo si las columnas de A son
linealmente independientes.

3.3. Dependencia e independencia lineal

87

Demostracin. Supongamos que las columnas de la matriz A son linealmente dependientes. Entonces alguna
P columna de A se puede escribir como combinacin lineal de las otras. Supongamos
que Aj = i6=j xi Ai para algn j, con 1 j n. Entonces:
det (A)

=
=

det (A1 | . . . | Aj | . . . | An )

X
det A1 | . . . |
xi Ai | . . . | An
i6=j

xi det (A1 | . . . | Ai | . . . | An )

i6=j

xi 0 = 0.

i6=j

Esto prueba que si det (A) 6= 0, entonces las columnas de A son linealmente independientes. Supongamos ahora que las columnas de A son linealmente independientes. Por el teorema anterior,
tenemos que el rango de A es n y por lo tanto, A es invertible. Es decir, det (A) 6= 0.
Es importante trabajar con conjuntos linealmente independientes, pues se evitan redundancias. Un ejemplo aclararesto.

En R [t]3 el conjunto 1 + t, 1 t + t2 es linealmente independiente. En este caso, el polinomio 5 t + 3t2 se puede escribir como combinacin lineal de 1 + t y 1 t + t2 de una nica
forma, a saber:

5 t + 3t2 = 2 (1 + t) + 3 1 t + t2 .
Esta afirmacin se verifica fcilmente planteando el sistema correspondiente y cerciorndose que
la solucin es nica. Por otro lado, se mostr anteriormente que los vectores p1 = 2 + 3t 5t2 ,
p2 = 3 + 5t 6t2 , p3 = 19 + 7t2 y p4 = 24 + 2t + 6t2 son linealmente dependientes. El vector
p = 15 6t + 3t2 se puede escribir como combinacin lineal de estos vectores por ejemplo:
p = p1 p2 + 2p3 2p4 = 9p1 7p2 + 0p3 + p4
Se tiene el siguiente teorema.
Teorema 3.3.9. Sea {v1 , . . . , vn } un conjunto linealmente independiente de vectores de un
espacio vectorial V. La representacin de cada vector v hv1 , . . . , vn i como combinacin lineal
de estos vectores es nica.
Demostracin. Supongamos que v se puede escribir de dos formas distintas como combinacin
lineal de v1 , v2 , . . . , vn . Es decir:
v

= c1 v1 + c2 v2 + + cn vn ,

= c01 v1 + c02 v2 + + c0n vn .

Entonces, (c1 c01 )v1 + (c2 c02 )v2 + + (cn c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn
son linealmente independientes, se sigue que ci c0i = 0 para cada i = 1, 2, . . . , n. Por lo tanto
ci = c0i para cada i = 1, 2, . . . , n y as la representacin de v es nica.

3.3.1.

Ejercicios

1. Suponga que los vectores v1 , v2 , v3 de un espacio vectorial V son linealmente independientes.


Pruebe que los vectores w1 = v1 , w2 = v1 + v2 , w3 = v1 + v2 + v3 son linealmente independientes. Pruebe que el recproco tambin es cierto.
2. Sea V un espacio vectorial real y sean v1 , v2 V vectores linealmente independientes. Pruebe
que los vectores w1 = 2v1 + 5v2 y w2 = v1 + 3v2 son linealmente independientes.

88

3. Espacios vectoriales

3. Sean v1 , v2 , . . . , vm en Rn vectores no nulos tales que vit vj = 0 para i 6= j. Pruebe que


{v1 , v2 , . . . , vm } es un conjunto linealmente independiente.
4. De una interpretacin geomtrica al hecho de que tres vectores no nulos v1 , v2 , v3 de R3 sean
linealmente independientes.

2
4
0
6
3
0
1
6
4

5. Sean v1 =
1 , v2 = 1 , v3 = 0 y v4 = 1 elementos de R . Pruebe que
0
2
1
1
v4 hv1 , v2 , v3 i.
6. Determine los valores de x para que el siguiente conjunto de R3 sea linealmente independiente:

1
1
1
2 , x 1 , 2 .

1
1
1
T

7. Sea W el subespacio de R3 generado por los vectores v1 = (1, 2, 1) , v2 = (3, 6, 3) ,


T
T
v3 = (4, 2, 1) y v4 = (11, 4, 2) . Pruebe que el conjunto S = {v1 , v2 , v3 , v4 } es linealmente
dependiente y que existe un subconjunto de S que es linealmente independiente y que genera
a W.
8. Sea V un espacio vectorial. Sean v1 , v2 , . . . , vk1 , vk vectores distintos de V . Pruebe que
{v1 , . . . , vk } es linealmente dependiente si vk hv1 , v2 , . . . , vk1 i. Pruebe que el recproco no
es cierto.
9. Sea V un espacio vectorial. Suponga que v1 , . . . , vn son vectores linealmente independientes
de V y que v es un vector que no pertenece al subespacio generado por los vectores v1 , . . . , vn ,
es decir, v
/ hv1 , . . . , vn i . Pruebe que {v1 , . . . , vn , v} es linealmente independiente.

10. Considere
el campo Q( 2) (Vea el Ejemplo A.1.3) como Q-espacio vectorial. Pruebe que

{1, 2} es linealmente independiente.


11. Si {v1 , . . . , vn } es un conjunto linealmente dependiente de vectores de un espacio V y v1 6= 0,
pruebe que existe un vector vj con j 2 tal que vj h{v1 , . . . , vj1 }i .
12. Considere la matriz de Vandermonde de m n:

1 x1 x21 . . . xn1
1
1 x2 x22 . . . xn1
2

mn
Vmn = .
..
..
.. C
.
.
.
.

.
1 xm x2m . . . xn1
m
donde xi 6= xj si i 6= j. Pruebe que si n m, entonces las columnas de Vmn son linealmente
independientes. (Sugerencia: Suponga que N (Vmn ) 6= {0}; encuentre un polinomio f C[t]
de grado a lo ms n 1 tal que f (xi ) = 0. Proceda por cuenta propia).
13. Suponga que los vectores v1 , . . . , vr de K n son linealmente independientes. Pruebe que si
P K nn es invertible, entonces los vectores P v1 , . . . , P vr son linealmente independientes.
14. Sea A K mn una matriz de rango n. Pruebe que si los vectores v1 , . . . , vr de K n son
linealmente independientes, entonces Av1 , . . . , Avr son vectores linealmente independientes
de K m .

3.4. Bases y dimensin

89

15. Sean v1 , . . . , vn vectores de K m . Pruebe que si n > m, entonces {v1 , . . . , vn } es un conjunto


linealmente dependiente.
16. Pruebe que las columnas de una matriz cuadrada A Cnn diagonalmente dominante1 son
linealmente independientes. (Sugerencia: Demuestre, de manera equivalente, que N (A) = {0}.
Para ello suponga que existe x 6= 0 tal que Ax = 0 y suponga que xk es la entrada de magnitud
mxima en x, es decir, |xk | |xi | para i = 1, 2, . . . , n. Estime el valor de |akk xk | usando la
desigualdad del tringulo y llegue a una contradiccin).
17. Sea V el espacio vectorial de las matrices de tamao 2 2 sobre el campo finito Fp con p
nmero primo, y sea:
S = {A V | det(A) 6= 0}.
Demuestre que S tiene p(p 1)2 (p + 1) elementos. (Sugerencia. Dada A V , demuestre que
det(A) = 0 si y slo si los renglones de A son linealmente dependientes. Use esto para calcular
|S|).

3.4.

Bases y dimensin

Uno de los invariantes ms importantes asociados a un espacio vectorial es su dimensin.


Definicin 3.4.1. Sea V un espacio vectorial. Una base para V es un subconjunto de V que es
linealmente independiente y genera a V .
Que un conjunto de vectores genere a un espacio vectorial significa que el subespacio vectorial
generado por esos vectores coincida con todo el espacio. En smbolos, decir que el conjunto
genera a V significa que V = hi. El que una coleccin de vectores genere o no genere a un espacio
vectorial no est ligado a la dependencia lineal o independencia lineal de stos. Por ejemplo, el
conjunto {p1 = 2+3t5t2 , p2 = 3+5t6t2 , p3 = 19+7t2 , p4 = 24+2t+6t2 } es linealmente
dependiente, en tanto que el conjunto {1+t, 1t+t2 } es linealmente independiente, pero ninguno
genera al espacio vectorial R [t]3 . De hecho, hp1 , p2 , p3 , p4 i = {a + bt + ct2 | 7a + 27b + 19c = 0}
y h1 + t, 1 t + t2 i = {a + bt + ct2 | a b 2c = 0}. Por otro lado, los conjuntos = {1, t, t2 } y
0 = {1, 1 + t, 1 + t + t2 , 4 + 2t + 5t2 } generan a R[t]3 , siendo una base en tanto que 0 no.
A continuacin se presentan ms ejemplos.
T

1. Cada uno de los conjuntos 1 = {e1 , e2 } y 2 = {(1, 1) , (1, 0) son bases para R2 .
T
Cada uno genera a R2 y es linealmente independiente. En cambio el conjunto {(1, 1) } no
T
genera a R2 . Por ejemplo, e1 no es combinacin lineal de (1, 1) .

 
 

1 0
0 0
0 1
2. El conjunto
,
,
no es una base para R22 pues aunque el conjunto
0 0
0 1
1 0
es
 linealmente
 independiente, ste no genera al espacio. Por ejemplo, es fcil verificar que
1 2
no es combinacin lineal de los vectores dados. El conjunto
2 1

 
 
 

1 0
0 1
0 0
0 0
,
,
,
0 0
0 0
1 0
0 1
s es una base para R22 .
Teorema 3.4.2. Sea V un espacio vectorial generado por un conjunto finito de m vectores
v1 , . . . , vm . Entonces todo conjunto linealmente independiente de vectores de V es finito y adems
no contiene ms de m elementos.
1 Una

matriz A Cnn es diagonalmente dominante si para cada i = 1, 2, . . . , n se tiene |aii | >

P
j6=i

|aij |.

90

3. Espacios vectoriales

Demostracin. Demostraremos de manera equivalente que todo subconjunto S de V que contiene ms de m vectores es linealmente dependiente. En efecto, sea S = {w1 , w2 , . . . , wn } con
n > m, un subconjunto de V . Como {v1 , v2 , . . . , vm } genera a V , existen escalares aij tales que:
w1
w2

=
=

a11 v1 + a21 v2 + + am1 vm =


a12 v1 + a22 v2 + + am2 vm =

m
X
i=1
m
X

ai1 vi ,
ai2 vi ,

i=1

..
.
wn

a1n v1 + a2n v2 + + amn vm =

m
X

ain vi .

i=1

Por otra parte, como n > m tenemos que el rango de la matriz A = (aij ) es a lo ms m y por
T
lo tanto el sistema homogneo Ax = 0 tiene solucin
Pnno trivial x = (x1 , . . . , xn ) . Es decir,
existen escalares no todos cero x1 , . . . , xn tales que j=1 aij xj = 0 para cada i = 1, 2, . . . , m.
Luego:
x1 w1 + + xn wn

n
X

xj w j =

j=1

n
X
j=1

xj

m
X

aij vi

i=1

m
m
n
n X
X
X
X

(aij xj )vi =
aij xj vi = 0,
j=1 i=1

i=1

j=1

y por lo tanto, S es linealmente dependiente.


Corolario 3.4.3. Sea V un espacio vectorial no nulo. Si y 0 son dos bases finitas de V ,
entonces || = | 0 |.
Demostracin. Supongamos que || = m y | 0 | = n. Entonces, por el teorema anterior | 0 | m
y || n. Es decir, n m n, de donde m = n.
Este corolario permite definir la dimensin de un espacio vectorial no nulo, como el nmero
de elementos de una base cualquiera de V . Se indicar la dimensin de un espacio V no nulo
por dim V .
Si V es un espacio vectorial sobre un campo K, el subespacio nulo de V es generado por el
vector 0, pero {0} es un conjunto linealmente dependiente y no es una base. Por esta razn se
conviene que el subespacio nulo tenga dimensin 0.
Corolario 3.4.4. Sea V un espacio vectorial no nulo de dimensin finita y sea n = dim V .
Entonces:
1. Todo subconjunto de V con ms de n vectores es linealmente dependiente.
2. Ningn subconjunto de V con menos de n vectores puede generar a V.
Demostracin. El inciso 1 se sigue del Teorema 3.4.2. Para demostrar el inciso 2, supongamos
que S es un subconjunto de V con m vectores tal que hSi = V y m < n. Como dim V = n, el
Teorema 3.4.2 implica que n m, lo cual es una contradiccin. Por lo tanto, ningn subconjunto
de V con menos de n vectores puede generar a V .
Corolario 3.4.5. Sea V un espacio vectorial de dimensin n.

3.4. Bases y dimensin

91

1. Todo conjunto linealmente independiente con exactamente n vectores de V , es una base para
V.
2. Todo conjunto generador de V compuesto de exactamente n vectores, es una base para V .
Demostracin. Sea V un espacio vectorial de dimensin n.
1. Sea S V un conjunto linealmente independiente con exactamente n vectores. Supongamos
que S no genera a V . Entonces, existe v V tal que v 6 hSi. Luego, por el Teorema 3.3.4
inciso 5, tenemos que S {v} es linealmente independiente. Como v 6 hSi, se sigue que
v 6 S y por lo tanto S {v} es un conjunto linealmente independiente con exactamente n + 1
elementos. Pero esto no puede ser, pues dim V = n. Por lo tanto, S genera a V y as, S es
base de V .
2. Supongamos que S = {v1 , . . . , vn } V tiene exactamente n vectores y genera a V . Si S es
linealmente dependiente, entonces existe vi S que es combinacin lineal de v1 , . . . , vi1 ,
vi+1 , . . . , vn . Como todo vector de V es combinacin lineal de v1 , . . . , vn , se sigue que todo
vector de V es combinacin lineal de v1 , . . . , vi1 , vi+1 , . . . , vn . Es decir, V est generado por
n 1 vectores. Esto es una contradiccin, pues por el corolario anterior ningn conjunto con
menos de n vectores puede generar a V . Por lo tanto, S es linealmente independiente y en
consecuencia, es una base para V .
Las dimensiones de los espacios vectoriales K n , K mn y K [t]n , todos sobre el campo K, son
n, mn y n, respectivamente. En efecto, el conjunto {e1 , . . . , en } es una base para K n . Para el
segundo caso, sea Eij la matriz que tiene un uno en la posicin (i, j) y cero en todas las dems
posiciones. Entonces el conjunto:


Eij K mn | i = 1, . . . , m, j = 1, . . . , n ,


es una base para K mn . Finalmente, una base para K [t]n es 1, t, . . . , tn1 . Nos referiremos
a estas bases como las bases cannicas.
Corolario 3.4.6. Si W es un subespacio de un espacio vectorial V de dimensin finita, todo
subconjunto linealmente independiente de W es finito y es parte de una base (finita) de W .
Demostracin. Supongamos que dim V = n. Sea S un subconjunto linealmente independiente de
W . Como W es un subespacio de V , se sigue que S es un subconjunto linealmente independiente
de V . Luego, por el Teorema 3.4.2 se sigue que S tiene a lo ms n elementos. Extenderemos S a
una base de W como sigue. Si S genera a W , entonces S es una base de W y terminamos. Si S
no genera a W , entonces existe un vector v1 W tal que v1 6 hSi y por el Teorema 3.3.4 inciso
5, el conjunto S1 = S {v1 } W es linealmente independiente. Si S1 genera a W terminamos.
Si no, aplicamos nuevamente el Teorema 3.3.4 inciso 5, para obtener un vector v2 W tal que
S2 = S1 {v2 } W es linealmente independiente. Continuando de esta forma, obtenemos un
conjunto Sm = S {v1 , . . . , vm } W linealmente independiente que genera a W con a lo ms
dim V = n elementos. Por lo tanto, S es parte de una base (finita) Sm de W .
Ejemplo 3.4.7. Extienda el conjunto {1 + t, 1 t} a una base para R[t]3 .
Primero advierta que {1+t, 1t} es linealmente independiente (por qu?). Como dim R[t]3 =
3, necesitamos un tercer vector que no sea linealmente dependiente con los primeros dos. Podramos proceder mediante el mtodo de ensayo y error. Sin embargo, en la prctica es ms fcil
proceder de manera distinta. Extenderemos el conjunto dado de vectores mediante la inclusin
de la base cannica de R[t]3 , lo cual nos da:
S = {1 + t, 1 t, 1, t, t2 }.

92

3. Espacios vectoriales

Ahora, S es linealmente dependiente segn el Corolario 3.4.4, de modo que necesitamos


descartar algunos vectores (en este caso, dos). Debido a que 1 = 12 (1 + t) + 12 (1 t), el conjunto
{1 + t, 1 t, 1} es linealmente dependiente, de manera que eliminamos el 1. En forma similar,
t = 21 (1 + t) 12 (1 t), de modo que {1 + t, 1 t, t} tambin es linelamente dependiente. Por
ltimo verificamos que {1 + t, 1 t, t2 } es linealmente independiente (puede pensar en una
forma rpida para sustentar esta afirmacin?). Por lo tanto, {1 + t, 1 t, t2 } es una base para
R[t]3 que extiende a {1 + t, 1 t}.
Corolario 3.4.8. Sea V un espacio vectorial de dimensin finita y sea W un subespacio de V.
Entonces:
1. dim W dim V .
2. dim W = dim V si y slo si W = V.
Demostracin. Podemos suponer que W 6= {0}.
1. Sea v W con v 6= 0. Por el corolario anterior, existe una base de W que contiene al
subconjunto linealmente independiente {v} y que tiene a lo ms dim V elementos. Luego, W
es de dimensin finita y dim W dim V .
2. Si W = V , es claro que dim W = dim V . Supongamos entonces que las dimensiones de W y
V son iguales, es decir, dim W = dim V = n. Como W V , basta demostrar que V W .
Si V 6 W , entonces existe v V tal que v 6 W . Sea una base de W . Como W = hi y
v 6 W , el Teorema 3.3.4 inciso 5 implica que {v} es un subconjunto de V linealmente
independiente. Pero esto es una contradiccin, pues {v} tiene n + 1 elementos y segn
el Corolario 3.4.4 inciso 1, todo subconjunto de V con ms de dim V = n elementos es
linealmente dependiente. Por lo tanto, V W y as W = V .
Si V no es de dimensin finita y W es un subespacio de V , puede suceder que dim W = dim V
y que W 6= V . (Vase el Ejercicio 16).

3.4.1.

Ejercicios

1. Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espacios
fundamentales

1
1
12 1
2
2 2
1 1
1

1
1
1
1
1

,
1
1 12
.
2
2 2 1
1
2
1
1 1
12
2
1 1
1
1
1
2. Encuentre una base para el subespacio vectorial de R4 generado por el conjunto

1


1
1
1
2
2

1 2 2 1
1

S=
,
,
,
,
.
2 2 2 12 2

1
2
1
1
2
3. Determine si el conjunto

18
6
B = 5 , 3

5
3

3.4. Bases y dimensin

93

es o no es una base para el espacio generado por el conjunto

1
1
4
S = 1 , 1 , 9 .

1
1
9
4. Sea V el espacio vectorial de las matrices 2 2 sobre el campo K. Demuestre que V tiene
dimensin 4, encontrando una base de V que tenga cuatro elementos.
5. Determine si los siguientes vectores linealmente independientes o linealmente dependientes,
en el correspondiente espacio vectorial.

1
2
1
2 1 1

a) En R4 ,
1 , 1 , 2 .
1
1
1

1
4
7
b) En R3 , 2 , 8 , 14 .
1
4
7
c) En R22 ,

 
1850
2
1
,
5
2 3

10
23

 
 
exp (3) 2

,
,
5
1
0

4
2

 
,

14
1
ln 5 1


.

6. Sea es una base de R4 . Verifique que la afirmacin Si W 6= {0} es un subespacio de R4 ,


entonces algn subconjunto de es una base de W es falsa dando un contraejemplo.
7. Nuevamente sea V el espacio vectorial de las matrices 2 2 sobre el campo K. Encuentre
una base {A1 , A2 , A3 , A4 } de V , de modo que A2j = Aj para j = 1, 2, 3, 4.
8. Sea V un espacio vectorial. Suponga que hay un nmero finito de vectores v1 , v2 , . . . , vr en
V que generan V . Demuestre que V es de dimensin finita.
9. Extienda el conjunto linealmente independiente {1 + t, 1 + t + t2 } a una base para R[t]3 .

 

0 1
1 1
10. Extienda el conjunto linealmente independiente {
,
} a una base para R22 .
0 1
0 1

 
 

1 0
0 1
0 1
11. Extienda el conjunto linealmente independiente {
,
,
} a una
0 1
1 0
1
0
base para R22 .

1
0
0
0

12. Los vectores v1 =


1 y v2 = 1 son linealmente independientes. Determine un
2
2
par de vectores v3 , v4 tales que = {v1 , v2 , v3 , v4 } sea una base para R4 .
13. Encuentre 3 vectores en R3 que sean linealmente dependientes y tales que dos cualesquiera
de ellos sean linealmente independientes.


14. Determine una base y la dimensin del espacio vectorial real V = A R33 | A = AT .
15. Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K 22 .
a) El subespacio de todas la matrices cuya traza es cero.

94

3. Espacios vectoriales
b) El subespacio de todas matrices simtricas.
Generalice el resultado a matrices de n n.

16. Sean V = R[t] y W = {tp(t) | p(t) V }. Demuestre que W es un subespacio de V tal que
dim W = dim V y W 6= V . Contradice esto el Corolario 3.4.8?
17. Sea V el conjunto de los nmeros reales. Considere V como un espacio vectorial sobre el
campo de los nmeros racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensin finita.
18. Sean A K mn y W un subespacio de K n . Pruebe que si W N (A) = {0}, entonces
dim A(W ) = dim W , donde A(W ) = {Aw | w W }.
19. Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V /W = 2. (Sugerencia: Si
f (t) V , por el algoritmo de la divisin para polinomios, f (t) = (t + 2)2 q(t) + r(t), donde
r(t) es un polinomio de grado menor que 2. Entonces f (t) r(t) W ).
Para la definicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
20. Sea V un espacio vectorial de dimensin finita y sea W un subespacio de V . Demuestre
que dim V /W = dim V dim W . (Sugerencia: Sea {w1 , . . . , wr } una base para W y sean
wr+1 , . . . , wn V tales que {w1 , . . . , wn } es una base para V . Pruebe que {[wr+1 ], . . . , [wn ]}
es una base para V /W .)

3.5.

Bases y dimensin de los subespacios fundamentales

En esta seccin el objetivo principal es calcular bases para cada uno de los cuatro espacios
fundamentales de una matriz y en consecuencia calcular sus dimensiones.
Teorema 3.5.1. Sea A Rmn una matriz de rango r y sea P una matriz no singular tal que
P A = U, donde U es una forma escalonada de A. Sean H = {h1 , . . . , hnr } el conjunto de las
hi s que aparecen en la solucin general del sistema Ax = 0. (Vase la Seccin 1.5). Entonces:
i) Las columnas bsicas de A forman una base para R (A).

ii) Los r renglones diferentes de cero de U forman una base para R AT .

iii) Los ltimos m r renglones de P forman una base para N AT .
iv) El conjunto H es una base para N (A).
Adems:
dim R (A) = r.

dim R AT = r.

dim N AT = m r.
dim N (A) = n r.
Demostracin. i) Demostraremos que el conjunto = {Af1 , . . . , Afr } es una base para el
espacio columna de A, donde Af1 , . . . , Afr son las columnas bsicas A. Cada columna
de A pertenece al espacio columna de A puesto que Aej = Aj . En particular R (A) y
T
por lo tanto hi R (A). Por otro lado, si b R (A), entonces existe x = (x1 , . . . , xn )
tal que Ax = b. Luego, b = x1 A1 + + xn An . Es decir, todo elemento de R(A) es

3.5. Bases y dimensin de los subespacios fundamentales

95

combinacin lineal de las columnas de A. Como toda columna no bsica de A se puede


escribir como combinacin lineal de las columnas bsicas de A, de sigue que b tambin es
combinacin lineal de las columnas bsicas de A. De aqu que R(A) hi y as R(A) = hi.
Esto prueba que es un conjunto que genera al espacio columna de A. Por otro lado, si
no fuera linealmente independiente, entonces algn elemento de sera combinacin lineal
del resto de las columnas de A, y este elemento no sera columna bsica de A, lo cual es
una contradiccin. Luego es linealmente independiente. As, las columnas bsicas de A
constituyen una base para el espacio columna de A y dim R (A) = r.



ii) Demostraremos primero que R AT = R U T . En efecto, si y R AT , entonces y = AT z
T
T
para algn z. Como AT = P 1 U
= U T P 1 , entonces y = U T x, donde x =
T

P 1 z y por lo tanto y R U T . Recprocamente, si y R(U T ), entonces y = U T z

T
T
para algn z. Luego, y = (P A) z = AT P T z =
x = P T z, y de aqu
 A x, donde

T
T
T
y R(A ). Con esto hemos demostrado que R A = R U . Luego, basta demostrar
que las r columnas diferentes de cero de U T (los r renglones diferentes de cero de U ) forman
una base para R(U T ). Es claro que si b R(U T ), entonces existen escalares x1 , . . . , xn
T
T
= b. Luego, cada elemento de R(U T ) es combinacin lineal
tales que x1 U1
+ + xn Un
T
de todas las columnas de U y por lo tanto, es combinacin de las columnas diferentes de
cero de U T . As, R(U T ) est generado por las columnas diferentes de cero de U T . Usando
que U es una forma escalonada de A, es fcil demostrar que las columnas distintas de
cero de U T son linealmente independientes, y por lo tanto forman una base para R(U T ).
Finalmente, de acuerdo con el Corolario 1.5.7 y por lo demostrado en el inciso anterior
tenemos que:
dim R(AT ) = rango(AT ) = rango(A) = dim R(A) = r.
iii) Escribamos las matrices P , P 1 y U en forma de bloques. Es decir:
 
 

P1
C
1
P =
,
P = Q1 Q2 ,
U=
,
P2
0
donde P1 tiene tamao r m, P2 tiene tamao (m r) m, Q1 tiene
 tamao m r, Q2
tiene tamao m (m r) y C tiene tamao r n. Como det P T = det (P ) 6= 0, los
renglones de P son linealmente independientes. En particular los m r renglones de P2
T
son linealmente independientes. Es claro que estos m r vectores generan
 a R(P2T ), y por
T
T
lo tanto constituyen una base para R(P2 ). Demostraremos que N A = R P2 y esto
concluir la prueba. Sea y N AT . Entonces:

AT y = 0 y T A = 0 y T P 1 U = 0 y T ( Q1 Q2 ) ( C0 ) = 0


y T Q1 C = 0 C T QT1 y = 0 QT1 y N C T .


T

Pero N C
= {0}, pues rango(C T ) = rango(C) = r. Luego QT1 y = 0 y por lo tanto
T
y Q1 = 0. Por otro lado I = P 1 P = Q1 P1 + Q2 P2 , de donde:
y T = y T I = y T Q1 P1 + y T Q2 P2 = y T Q2 P2

y = P2T QT2 y .


Luego, y  R(P2T ) de donde N AT R P2T . Para demostrar la otra inclusin sea
y R P2T . Entonces y = P2T x para algn x, y en consecuencia y T A = xT P2 A. Por otro
lado:


P1 A
1
C
C
PA = U P
P2 A = ( 0 ) P2 A = ( 0 ) P2 A = 0.
Luego, y T A = xT P2 A = xT 0 = 0, o bien, AT y = 0. As, y N (AT ) y R(P2T ) N (AT ).
Por lo tanto, N (AT ) = R(P2T ) y dim N (AT ) = m r.

96

3. Espacios vectoriales

iv) Haciendo B = AT en el inciso anterior, tenemos que:



dim N (A) = dim N B T = n rango (B) = n rango(B T ) = n r.
Como H es un conjunto generador de N (A) y tiene exactamente n r elementos, se sigue
que H es una base para N (A) y as dim N (A) = n r.

1 2 2 3
Ejercicio 3.5.2. Considere la matriz A = 2 4 1 3. Calcule bases para N (A), R(A),
3 6 1 4
T
T
N (A ) y R(A ).

3.5.1.

Ejercicios

1. Encuentre una base para los subespacios fundamentales R(A), R(AT ) y N (A) asociados a la
matriz:

1 2 0 2 1
A = 0 0 1 3 3 .
0 0 0 0 0
2. Sea V un espacio vectorial de dimensin finita sobre un campo K. Una base ordenada =
{v1 , . . . , vn } de V es una base de V en la que se considera un orden fijo y bien definido,
indicado por las posiciones relativas de los vectores en . En el espacio tridimensional R3 las
bases 1 = {e1 , e2 , e3 } y 2 = {e2 , e3 , e1 } son bases ordenadas diferentes, a pesar de que se
trata del mismo conjunto. Si = {v1 , . . . , vn } es una base ordenada de V, para cada v V
T
existe exactamente un vector (x1 , . . . , xn ) tal que v = x1 v1 + + xn vn . A xi se le llama
T
la isima coordenada de v respecto a la base . Al vector (x1 , . . . , xn ) se le llama vector
de coordenadas de v en la base y ser denotado con [v] . Esta asignacin establece una
funcin de V en K n denominada funcin de coordenadas:
[

] : V K n

Considereahora el espacio vectorial


real R [t]3 de los polinomios de grado menor que 3 y la

base = 1, 1 + t, 1 + t + t2 .
a) Calcule el vector de coordenadas del vector p = 3+2t5t2 en la base , es decir, determine
[p] .
b) Escriba explcitamente la funcin de coordenadas [

] : R [t]3 R3 .

3. Sea V un espacio vectorial de dimensin finita sobre un campo K, sea = {v1 , . . . , vn } una
base de V . Pruebe que la funcin de coordenadas con respecto a la base es una funcin
lineal biyectiva, es decir, pruebe que:
a) [v + w] = [v] + [w] para cualesquiera v, w V .
b) [cv] = c [v] para cualquier c K y v V .
c) [v] = 0 si y slo si v = 0.
d) Para cada x K n , existe exactamente un vector v V tal que x = [v] .
2
4. Considere
  C
 como
 espacio vectorial real, es decir, la multiplicacin por escalar est dada por
z1
cz1
c
=
, donde c es un nmero real. Calcule la dimensin de este espacio vectorial.
z2
cz2

3.6. Sumas directas

97

5. Sea V un espacio vectorial complejo de dimensin n 1. Como el conjunto de los nmeros


reales es un subconjunto de los nmeros complejos, V se puede considerar un espacio vectorial
real (vea el ejercicio anterior). Pruebe que V es de dimensin finita y calcule su dimensin.
6. Sea V el subespacio de R22 formado por las matrices anti-simtricas. Cul es la dimensin
de V ? Encuentre una base para V .
7. Sea V = R [t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles
2
por (t 1) . Pruebe que W es un subespacio de V y que V /W es un espacio de dimensin
finita. Adems, pruebe que la dimensin de V /W es 2. Encuentre una base para este espacio.
(Sugerencia: Considere el algoritomo de la divisin para polinomios).

3.6.

Sumas directas

En esta seccin se presentarn algunos resultados concernientes a sumas de subespacios.


Recordemos que dados dos subespacios U y W de un espacio V es posible construir un nuevo
subespacio denominado la suma de U y W , U + W = {u + w | u U, w W } . Este subespacio
resulta ser el subespacio ms pequeo que contiene simultneamente a U y a W . En otras
palabras, la suma de U y W es el subespacio generado por el conjunto U W . Cuando V es de
dimensin finita, tambin lo es la suma de U y W , como lo afirma el siguiente resultado.
Teorema 3.6.1. Sean U y W dos subespacios de dimensin finita de un espacio vectorial V .
Entonces U + W es de dimensin finita y:
dim (U + W ) = dim U + dim W dim (U W ) .
Demostracin. Tenemos que U W es subespacio tanto de U como de W . Supongamos que
dim U = m, dim W = n y dim(U W ) = r. Supongamos, adems que {v1 , . . . , vr } es una base
para U W . Extendamos este conjunto linealmente independiente en U y en W , a una base de
U y a una base de W :
{v1 , . . . , vr , u1 , . . . , umr }

base para U,

{v1 , . . . , vr , w1 , . . . , wnr }

base para W.

Sea = {v1 , . . . , vr , u1 , . . . , umr , w1 , . . . , wnr }. Notemos que tiene m + n r elementos.


Luego, bastar demostrar que es base para U + W . Como el conjunto {vi , uj } genera a U y el
conjunto {vi , wk } genera a W , la unin = {vi , uj , wk } generar a U + W . Por lo tanto, basta
demostrar que es linealmente independiente. Supongamos que:
a1 v1 + + ar vr + b1 u1 + + bmr umr + c1 w1 + + cnr wnr = 0,
donde ai , bj y ck son escalares. Sea:
v = a1 v1 + + ar vr + b1 u1 + + bmr umr .
De la primera igualdad, tenemos tambin que:
v = c1 w1 cnr wnr .
Como {vi , uj } U , la segunda igualdad implica que v U ; y como {wk } W , la tercera
igualdad implica que v W . As, v U W . Ahora bien, {vi } es base para U W , por lo que
existen escalares d1 , . . . , dr tales que v = d1 v1 + + dr vr . Usando esta relacin junto con la
tercera igualdad, tenemos que:
d1 v1 + + dr vr + c1 w1 + + cnr wnr = 0.

98

3. Espacios vectoriales

Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aqu que
la ltima igualdad implique que c1 = = cnr = 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:
a1 v1 + + ar vr + b1 u1 + + bmr umr = 0.
Pero {vi , uj } es una base para U y por lo tanto es linealmente independiente. Luego, a1 = =
ar = 0 y b1 = = bmr = 0. Por lo tanto, es linealmente independiente y es base para
U + W.
T

Ejemplo 3.6.2. Considere los subespacios U = {(x y z) R3 | x + y + z = 0} y W =


T
{(x y z) R3 | 2x y + z = 0} de R3 . Calcule la dimensin de U + W.
Para el clculo de dim(U + W ) necesitamos calcular la dimensin de los subespacios U , W
y U W . Es claro que U y W tienen ambos dimensin 2 (pues son planos). Entonces U W
debe ser una recta y su dimensin es 1. As, la dimensin de U + W es 3. Luego, R3 = U + W.
En consecuencia todo vector de R3 se puede escribir como la suma de un vector de U y uno de
W . Sin embargo, esta representacin no es nica, ya que:

5
1
3
3
6
0 = 2 + 2 = 3 + 3 .
7
2
4
1
5
Definicin 3.6.3. Suponga que V es un espacio vectorial. Sean U y W dos subespacios de V.
Suponga que V 0 es un subespacio de V que tiene la propiedad de que cada vector v V 0 se
puede escribir en forma nica como:
v =u+w
0
donde u U y w W. En este
L caso se dice que V es la suma directa (interna) de los subespacios
0
U y W y se escribe V = U
W.

As, la suma de los subespacios del ejemplo anterior no es directa.


Teorema
3.6.4. Sea V un espacio vectorial y sean U , W subespacios de V . Entonces V =
L
U
W si y slo si V = U + W y U W = {0} .
L
Demostracin. () : Supongamos que V = U
W . Entonces, en particular V = U + W . Sea
v U W . Tenemos que v U y v W . Luego, v V y:
v

= v + 0, con v U, 0 W,

0 + v, con 0 U, v W.

Como tal suma para v debe ser nica, tenemos que v = 0 y as U W = {0}.
() : Supongamos que V = U + W y U W = {0}. Sea v V . Dado que V = U + W , existen
u U y w W tales que v = u + w. Debemos probar que esta suma es nica. Para ello,
supongamos que v = u0 + w0 , donde u0 U y w0 W . Entonces, u + w = u0 + w0 y por lo tanto
u u0 = w0 w. Como U y W son subespacios de V , tenemos que u u0 U y w w0 W ,
de modo que u u0 U W y w0 w U W . Como U W = {0}, tenemos que u u0 = 0
0
0
0
y ww
L = 0, es decir, u = u y w = w . De este modo, tal suma para v V es nica y as
V =U
W.
Corolario 3.6.5. Si U y W son subespacios de dimensin finita de un espacio vectorial V ,
entonces:
 M 
dim U
W = dim U + dim W.

3.6. Sumas directas

99

L
Demostracin. Sea V 0 = U
W . De acuerdo con el Teorema 3.6.4 tenemos que V 0 = U + W
y U W = {0}. Luego, dim(U W ) = 0 y segn el Teorema 3.6.1 tenemos que dim(V 0 ) =
dim U + dim W dim(U W ), es decir, dim(V 0 ) = dim U + dim W .
Ejemplos 3.6.6.
L
1. R3 = U
W, donde U = he1 , e2 i y W

1
2
2. Considere la matriz A = 2 4
1
2
L
N (A) .
R AT
Un clculo sencillo muestra que:

= he3 i.

1 1

L
0 4 . Verifique que R3 = R (A) N AT y R4 =
2 4

1
2
1

  1 oE
, 0
R (A) =
,
2
 1   0 

2
, 01
,
R AT =
0
Dn

N A


=


N (A) =

1
1/4
1/2



.


2 
2
0
1
.
,
3
0
0

Observe que los espacios columna y nulo izquierdo de A son ortogonales2 . Tambin lo son los
espacios rengln y nulo de A. Es fcil probar que si dos subespacios de Rn son ortogonales,
entonces su suma es directa
(se deja esta afirmacin como ejercicio). En consecuencia, la

suma de R (A) y N AT es directa y tambin
lo es la suma de R AT y N (A) . Como la

T
3
T
dimensin del subespacio
R (A) + N A es 3 = dim R3 , entonces

 L R = R (A) + N A =
L
T
4
T
R (A) N A . Anlogamente se verifica que R = R A
N (A) .
Teorema 3.6.7. Si A Rmn , entonces:
Rm = R(A)

N (AT ).

Rn = N (A)

R(AT ).



Demostracin. Demostraremos primero que N AT R (A) = {0} . En efecto, si x N AT
R (A) , entonces AT x = 0 y x = Az para algn z. Luego:


T
xT x = (Az) x = z T AT x = z T AT x = z T 0 = 0,

de donde x = 0. As, N AT R (A) = {0}. Ahora, como dim(R(A) + N (AT )) = dim(R(A)) +
m
dim(N (AT )) dim(R(A) N (AT )) = r + (m r) 0 = m = dim
L R , donde r es el rango de
A, tenemos que Rm = R(A) + N (AT ). Por lo tanto, Rm = R(A) N (AT ).


T 
Ahora, como N AT R (A) = {0} para cualquier matriz A, se tiene que {0} = N AT



T
T
R A
= N (A) R A , y razonando de manera anloga al caso anterior se demuestra la
segunda igualdad.
Teorema 3.6.8 (Rango de un producto de matrices). Si A K mn y B K np , entonces:
rango(AB) = rango(B) dim(N (A) R (B)).
Demostracin. Sea S = {x1 , . . . , xs } una base para N (A) R(B). Claramente, N (A) R(B)
R(B). Supongamos que dim R(B) = s + t y extendamos la base S a una base para R(B),
digamos:
S 0 = {x1 , . . . , xs , z1 , . . . , zt }.
2 Dos subespacios de U y W de Rn son ortogonales si uT w = 0 para toda u U y toda w W. Si U y W son
ortogonales se escribe U W .

100

3. Espacios vectoriales

Demostraremos que dim R(AB) = t, mostrando que T = {Az1 , . . . , Azt } es una base para
R(AB).
efecto, P
si b R(AB), entonces b = ABy para algn y. Pero By R(B) implica que
PEn
s
t
By = i=1 ci xi + i=1 di zi para algunos escalares ci , di . Luego:
!
s
t
s
t
t
X
X
X
X
X
b=A
ci x i +
di zi =
ci Axi +
di Azi =
di Azi ,
i=1

i=1

i=1

i=1

i=1

ya que S N (A) R(B) N (A). As, T genera a R(AB).


Supongamos ahora que existen escalares 1 , . . . , t tales que:
!
t
t
X
X
0=
i Azi = A
i zi .
i=1

i=1

Entonces,
+ t zt N (A) P
R(B), de modo
Pt 1 z1 + P
Ps que existen escalares 1 , . . . , s tales
s
t
que i=1 i zi = j=1 j xj , es decir, i=1 i zi j=1 j xj = 0. Como S 0 es un conjunto
linealmente independiente, resulta que i = 0 y j = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s.
As, T es linealmente independiente. Por lo tanto, T es una base para R(AB), de modo que
t = dim R(AB) = rango(AB) y de aqu se sigue que:
rango(B) = dim R(B) = s + t = dim(N (A) R(B)) + rango(AB).
Teorema 3.6.9. Si A Rmn , entonces:


1. rango AT A = rango (A) = rango AAT .



2. R AT A = R AT y R AAT = R (A) .



3. N AT A = N (A) y N AAT = N AT .
Demostracin. 1. Observemos primero que N (AT ) R(A) = {0} ya que:
x N (AT ) R(A) AT x = 0 y x = Ay para algn y
X
x T x = y T AT x = 0
x2i = 0
x = 0.
Luego, aplicando la frmula para el rango de un producto tenemos que:
rango(AT A) = rango(A) dim(N (AT ) R(A)) = rango(A).
Si ahora intercambiamos los papeles de A y AT , tenemos que:
rango(AAT ) = rango(AT ) = rango(A),
donde la ltima igualdad se sigue del Corolario 1.5.7.
2. Es fcil probar que R(AB) R(A) (se deja de ejercicio al lector). Luego, R(AT A) R(AT ).
Por otra parte, de acuerdo con el inciso anterior tenemos que:
dim R(AT A) = rango(AT A) = rango(A) = rango(AT ) = dim R(AT ),
de donde se sigue que R(AT A) = R(AT ). Intercambiando los papeles de A y AT se obtiene
que R(AAT ) = R(A).
3. Es fcil probar que N (B) N (AB) (se deja de ejercicio al lector). Luego, N (A) N (AT A).
Aplicando el inciso 1, tenemos que:
dim N (A) = n rango(A) = n rango(AT A) = dim N (AT A),
de donde se sigue que N (A) = N (AT A). Intercambiando los papeles de A y AT obtenemos
que N (AAT ) = N (AT ).

3.6. Sumas directas

3.6.1.

101

Ejercicios

1. Pruebe que rango (A + B) rango (A) + rango (B) .


2. Sean A K mn y B K mp . Pruebe que rango([A | B]) = rango(A) + rango(B)
rango(R(A) R(B)).
3. Sean A y B matrices de m n y n p. Pruebe que
a) rango(AB) mn{rango(A), rango(B)}.
b) rango(A) + rango(B) n rango(AB).
4. Sea W un subespacio de Rn y sea:


W = v Rn | v T w = 0 para todo w W .
Pruebe que W es un subespacio de Rn y que la suma de W y W es directa. Al subespacio
W se le denomina complemento ortogonal de W .
5. Sea m > n y sea A Rmn . Cul de las siguientes afirmaciones es verdadera?

a) Rn = R (A) N AT .


b) Rn = R AT N AT .
c) Rn = R (A) N (A).

d) Rn = R AT N (A).
6. Sea = {v1 , v2 , v3 , v4 } una base para el R-espacio vectorial V . Sea U el subespacio generado
por los vectores v1 v4 y v2 v3 ; sea W el subespacio de generado por los vectores v1 + v4
y v2 + v3 . Es la suma de U y W directa? Si la respuesta es afirmativa, prubelo. En caso
contrario, explique por qu la suma no es directa.
7. Sea = {v1 , v2 , v3 , v4 , v5 } una base para el R-espacio vectorial V . Sea U el subespacio
generado por los vectores v1 v2 y v3 + v4 ; sea W el subespacio de generado por los
vectores v1 + v4 y v2 + v3 . Es la suma de U y W directa? Si la respuesta es afirmativa,
prubelo. En caso contrario, explique por qu la suma no es directa.
8. Considere los siguientes subespacios de R4 :


W1 =
x R4 : x 1 + x 2 + x 3 + x 4 = 0


W2 =
x R4 : x 1 = x 2 = x 3 = x 4
Pruebe que R4 = W1 W2 , i.e. pruebe que R4 = W1 + W2 y W1 W2 = {0}.
9. Demuestre que si P es una matriz invertible de m m, entonces
rango(P A) = rango(A),
para cualquier matriz A de m n.



10. Sea A Rmn . Pruebe que N AT R (A) y R (A) N AT .


11. Calcule el complemento ortogonal del espacio columna de la matriz:

1
2 1 1
A = 2 4 0 4 .
1
2 2 4

102

3. Espacios vectoriales

12. Pruebe que si U y W son subespacios ortogonales de Rn , entonces la suma de U y W es


directa.
13. Pruebe que los espacios nulo y rengln de una matriz A Rmn , son ortogonales. Pruebe
que tambin lo son los espacios columna y nulo izquierdo de A.
14. Sean U y W subespacios diferentes de un espacio vectorial V . Suponga que dim U = dim W =
4 y dim V = 6. Calcule todos los posibles valores para la dimensin del subespacio U W .
15. Sean U y W subespacios de un espacio vectorial V cuya dimensin es 10. Suponga que la
dim U = 5 y dim W = 6. Pruebe que la suma de U y W no es directa.
16. Sean W1 y W2 subespacios de un espacio vectorial V . Si dim V = 12, dim W1 = 6 y dim W2 =
8, entonces el valor ms pequeo que puede tener dim W1 W2 es: (a) 0, (b) 2, (c) 2, (d)
6, (e) 8. Justifique su respuesta.
17. Sea V el espacio de todas las funciones continuas de R en R. Sean W1 el subespacio de V
que consiste de las funciones pares y W2 el subespacio de V que consiste de las funciones
impares:
W1

= {f V : f (x) = f (x) ,

W2

= {g V : g (x) = g (x) ,

x R} ,
x R} .

Pruebe que V es la suma directa de W1 y W2 .


18. Sea K un campo y sea V el espacio vectorial K nn , es decir, el espacio vectorial de todas las
matrices cuadradas de n n sobre el campo K. Sean W1 y W2 los subespacios de V formados
por las matrices simtricas y antisimtricas, respectivamente.
a) Si K es un subcampo del campo de los nmeros complejos, pruebe que V = W1 W2 .
b) Ms general, pruebe que si K es un campo de caracterstica distinta de 2, entonces V =
W1 W2 .
c) Es cierto el resultado si la caracterstica del campo es 2?

19. Considere el sistema de ecuaciones lineales Ax = b, donde A =

1
1

1 1
1
1


yb=

 
2
.
3

20. a) Verifique que el sistema Ax = b es inconsistente.


b) Verifique que el sistema de ecuaciones lineales AT Ax = AT b es un sistema de ecuaciones
lineales consistente. Encuentre todas sus soluciones.


1
c) Muestre que el sistema de ecuaciones lineales Ax = c es consistente, donde c =
.
2
T
T
Muestre tambin que los sistemas Ax = c y A Ax = A c tiene exactamente las mismas
soluciones.
T
T
21. Muestre
quelos dos
sistemas

de ecuaciones lineales Ax = b y A Ax = A b, donde A =


1 1
1
1
0 y b = 2 , tienen solucin nica. Verifique que en ambos casos la solucin
1
1
5
es x = (AT A)1 AT b.

22. Sean A Rmn y b Rm .


a) Pruebe que el sistema de ecuaciones lineales AT Ax = AT b siempre es consistente, aun
cuando Ax = b no sea un sistema de ecuaciones lineales consistente.

3.6. Sumas directas

103

b) Pruebe que si Ax = b es consistente, entonces el conjunto de soluciones de Ax = b y el de


AT Ax = AT b es el mismo.
c) Pruebe que AT Ax = AT b tiene solucin nica si y solo rango(A) = n.
23. Sea p > 2 un nmero primo y sea V el espacio vectorial F4p sobre el campo Fp .
a) Si A es una matriz de 4 4 con coeficientes en Fp y A2 = I, demuestre que V = E F
donde E = {u V | Au = u} y F = {u V | Au = u}.
b) Si E es un subespacio de V = F4p tal que dim E = k, demuestre que |E| = pk .
c) Si W es un espacio vectorial sobre Fp de dimensin m, demuestre que el nmero de
subespacios de W de dimensin n, con 1 n m, es:
(pm 1)(pm1 1) (pmn+1 1)
.
(pn 1)(pn1 1) (p 1)
d) Si Xp = {A F44
| A2 = I}, demuestre que:
p
|Xp | = p8 + p7 + 4p6 + 3p5 + 3p4 + 2p3 + 2.

104

3. Espacios vectoriales

CAPTULO

Transformaciones lineales y matrices

En este captulo se estudia el concepto de transformacin lineal. Esta herramienta ser


til para establecer cundo dos espacios vectoriales son esencialmente iguales, es decir, tienen
exactamente la misma estructura algebraica. Se mostrar que en esencia un espacio vectorial
de dimension finita sobre un campo K es un K n para algn n, y que una transformacin lineal
entre dos espacios vectoriales de dimensin finita se corresponde con una matriz.
El problema de seleccionar bases adecuadas, de tal manera que la matriz asociada tenga
una estructura simple, conduce al estudio de los valores y vectores propios, los cuales sern
estudiados en un captulo posterior. Tambin se estudiar la relacin que guardan las matrices
asociadas a la misma transformacin lineal, y en la ltima seccin se tratar el concepto de
espacio dual de un espacio vectorial.

4.1.

Transformaciones lineales

Empezamos la seccin con la definicin de transformacin lineal.


Definicin 4.1.1. Sean V y W dos espacios vectoriales sobre un mismo campo K.
1) Una funcin T : V W es una transformacin lineal si
T (u + v) = T (u) + T (v)

T (cv) = cT (v)

para cualquier c K y cualesquiera u, v V.


2) Un operador lineal sobre V es una transformacin lineal de V en s mismo.
Aplicacin lineal o funcin lineal son sinnimos para de transformacin lineal.
La definicin de transformacin lineal se puede reescribir como sigue. La funcin T : V W
es lineal si y solamente si
T (cu + v) = cT (u) + T (v)
(*)
para cualesquiera u, v V y c K. En efecto, si T es lineal, entonces T (cu+v) = T (cu)+T (v) =
cT (u) + T (v). Recprocamente, si cumple (*), entonces
T (u + v) = T (1 u + v) = 1 T (u) + T (v) = T (u) + T (v)
T (cv) = T (cv + 0) = cT (v) + T (0) = cT (v).
105

106

4. Transformaciones lineales y matrices

La ltima igualdad es consecuencia de que T (0) = 0 ( T (0) = T (1 0 + 0) = 1T (0) + T (0) =


T (0) + T (0)).
Veamos algunos ejemplos.
Ejemplos 4.1.2.
1. La funcin 0 : V W definida por 0(v) = 0 que mapea todos los elementos del espacio
vectorial V al elemento cero del espacio W , es claramente una funcin lineal, llamada por
razones obvias la transformacin cero.
2. La funcin 1V : V V dada por 1V (v) = v es un operador lineal denominado operador
identidad sobre V .
3. (La transformacin lineal inducida por una matriz) Si A K mn , la funcin TA : K n K m
dada por TA (x) = Axes lineal. Cuando
A es una matriz cuadrada, TA es un operador lineal.

1
1 1
En particular, si A =
, entonces:
1 1
1



x
x+yz

.
TA y =
xy+z
z
4. Si V es el espacio vectorial de todas las funciones diferenciables de R en R y W = RR ,
entonces la funcin D : V W dada por D (f ) = f 0 es una transformacin lineal.
5. Si V = C(R)
R x es el espacio de todas las funciones continuas de R en R, entonces la funcin
T (f ) = 0 f (t) dt es una funcin lineal.
6. Si V es un K -espacio vectorial de dimensin finita e igual a n > 0, y es una base para V,
la funcin de coordenadas:
[ ] : V K n
es lineal. Adems es una biyeccin. (Vanse los Ejercicios 2 y 3 de la Seccin 3.5).
7. La funcin F : K mn K nm dada por F (A) = AT es una funcin lineal.
Teorema 4.1.3. Si T : V W es una transformacin lineal, entonces:
1. T (0) = 0.
2. T (v) = T (v) para todo v V .
Demostracin.
1. Como 0+0 = 0, tenemos que T (0+0) = T (0). Es decir, T (0)+T (0) = T (0)
ya que T es lineal. Por lo tanto, T (0) = 0.
2. Para cada v V sabemos que existe v V tal que v + (v) = 0. Luego, T (v + (v)) =
T (0). Como T (0) = 0 y T (v + (v)) = T (v) + T (v), tenemos que T (v) + T (v) = 0. Por
lo tanto, T (v) = T (v).
El siguiente teorema permite construir funciones lineales sobre espacios vectoriales de dimensin finita.
Teorema 4.1.4. Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de
dimensin finita y que = {v1 , . . . , vn } es una base de V . Sean w1 , . . . , wn elementos arbitrarios
de W . Entonces existe una nica transformacin lineal T : V W tal que T (vi ) = wi para
i = 1, . . . , n.

4.1. Transformaciones lineales

107

Demostracin. Dado v V , sea [v] = (x1 , . . . , xn )T K n . Definimos:


T (v) =

n
X

xi wi .

i=1

Veamos que T es una funcin lineal. Sean u, v V y c K. Supongamos que [u] = (x1 , . . . , xn )T
y [v] = (y1 , . . . , yn )T . Luego [u + v] = (x1 + y1 , . . . , xn + yn )T y [cu] = (cx1 , . . . , cxn )T . As
T (u + v) =

n
n
n
n
X
X
X
X
(xi + yi )wi =
(xi wi + yi wi ) =
xi wi +
yi wi = T (u) + T (v),
i=1

i=1

i=1

i=1

n
n
n
X
X
X
T (cu) =
(cxi )wi =
c(xi wi ) = c
xi wi = cT (u).
i=1

i=1

i=1

Supongamos ahora que T 0 : V W es


transformacin lineal tal que T 0 (vi ) = wi para
Puna
n
i = 1, . . . , n. Sea v V y escribamos v = i=1 xi vi . Como T 0 es lineal se tiene
T 0 (x1 v1 + + xn vn ) = T 0 (x1 v1 ) + + T 0 (xn vn ) = x1 T 0 (v1 ) + + xn T 0 (vn )
= x1 w1 + xn wn = T (v)
Como T 0 (v) = T (v) todo v V se concluye que T = T 0 .
Ejemplo 4.1.5. Calcule la nica transformacin lineal T : R[t]3 R2 tal que T (v1 ) = e1 ,
T (v2 ) = 2e1 + e2 y T (v3 ) = e1 + 3e2 , donde v1 = 1, v2 = 1 + t y v3 = 1 + t + t2 .
Como el conjunto = {v1 , v2 , v3 } es una base para R[t]3 , se puede aplicar el teorema anterior.
Sea v = a + bt + ct2 R[t]3 . El primer paso consiste en calcular [v] . Al hacerlo se obtiene que:

ab
[v] = b c .
c
Entonces la funcin pedida se define como:






1
2
1
2
T (a + bt + ct ) = (a b)
+ (b c)
+c
0
1
3


a + 3b c
=
.
b + 2c
Ejercicio 4.1.6. Considere la base = {v1 , v2 } de R2 , donde v1 = e1 y v2 = e1 + e2 . Calcule
las nicas transformaciones lineales v1 , v2 : R2 R tales que:
v1 (vi ) = i1

y v2 (vi ) = i2

i = 1, 2,

donde ij es la delta de Kronecker.


Sean V y W dos K-espacios vectoriales. El conjunto de todas las transformaciones lineales
T : V W , denotado por L(V, W ) tiene una estructura natural de espacio vectorial.
Teorema 4.1.7. Sean V y W K-espacios vectoriales. Si F, T L(V, W ) y c es un escalar,
entonces F + T , cF L(V, W ), donde F + T, cF : V W son las funciones definidas por
(F + T )(v) = F (v) + T (v) y (cF )(v) = cF (v), respectivamente. Ms an, L(V, W ) junto con
estas operaciones es un K-espacio vectorial.

108

4. Transformaciones lineales y matrices

Demostracin. Supngase que F, T son transformaciones lineales. Sean v1 , v2 V y sean c,


escalares. Entonces
(F + T )(v1 + v2 ) = F (v1 + v2 ) + T (v1 + v2 )
= F (v1 ) + F (v2 ) + T (v1 ) + T (v2 )
= (F (v1 ) + T (v1 )) + (F (v2 ) + T (v2 ))
= (F + T )(v1 ) + (F + T )(v2 ).
Esto prueba que F + T es lineal. En forma anloga,
(cF )(v1 + v2 ) = cF (v1 + v2 )
= c(F (v1 ) + F (v2 ))
= cF (v1 ) + cF (v2 )
= (cF )(v1 ) + (cF )(v2 ),
prueba que cF es una transformacin lineal.
Para probar que L(V, W ) junto con estas operaciones es un espacio vectorial, se debe verificar
directamente cada una de las condiciones de la Definicin 3.1.1. Los detalles se dejan al lector.
Teorema 4.1.8. Sean U, V y W K-espacios vectoriales. Si T : U V y F : V W son
transformaciones lineales, entonces la funcin F T : U W definida por (F T )(u) = F (T (u))
es lineal.
U

/V

/5 W

F T

Demostracin. Sean u1 , u2 U y sea c un escalar. Entonces


(F T ) (cu1 + u2 )

= F (T (cu1 + u2 ))
= F (cT (u1 ) + T (u2 ))
= cF (T (u1 )) + F (T (u2 ))
= c (F T ) (u1 ) + (F T ) (u2 ) .

Si V = W , en vez de escribir L(V, V ) se escribe L(V ). El siguiente teorema presenta las


propiedades bsicas de la composicin en L(V ).
Teorema 4.1.9. Sean T1 , T2 y F operadores lineales sobre un espacio V , es decir T1 , T2 L(V ).
Sea c un escalar. Entonces:
a) 1V F = F = F 1V .
b) F (T1 + T2 ) = F T1 + F T2 ; (T1 + T2 ) F = T1 F + T2 F .
c) c (F T1 ) = (cF ) T1 = F (cT1 ).
Demostracin. (a) Es fcil y se deja al lector.
(b) Sea u U .
[F (T1 + T2 )](u) = F ((T1 + T2 )(u))
= F (T1 (u) + T2 (u))
= F (T1 (u)) + F (T2 (u))
= (F T1 )(u) + (F T2 )(u)
= (F T1 + F T2 )(u).

4.1. Transformaciones lineales

109

As F (T1 + T2 ) = F T1 + F T2 .
(c) Se deja al lector.

Observacin 4.1.10. De los resultados anteriores se sigue que, L(V ) junto con las operaciones
de suma y composicin es un anillo con unitario. Todava ms, dado que L(V ) es un anillo con
unitario, que adems es un un K-espacio vectorial que satisface c(F T ) = (cF ) T = F (cT ),
se tiene que L(V ) es un ejemplo muy particular de una K-lgebra.

4.1.1.

Ejercicios

1. Determine cules de las siguientes transformaciones son lineales.


a) T : R3 R3 , T

x

x

b) T : R3 R3 , T

x

y

c) T : R3 R3 , T

x

y
z

y
z

y
z

0
z

z
x

x
y
1

d) T : R2 R2 , T ( xy ) =

x+3y1 
2xy+4 .

e) T : R2 R2 , T ( xy ) =

x
y

f) T : R2 R2 , T ( xy ) =


y

2. Considere los vectores v1 = (1, 1) , v2 = (2, 1) , v3 = (3, 2) , w1 = (1, 0) , w2 =


T
T
(0, 1) y w3 = (1, 1) . Existe una funcin lineal F : R2 R2 tal que F (vi ) = wi ? Si
existe, descrbala explcitamente. En caso contrario, pruebe que no existe.
3. Considere R[t]3 con la base = {1 t + t2 , 1, 1 t} = {v1 , v2 , v3 }. Calcule la nica transformacin lineal T : R[t]3 R3 tal que T v1 = w1 , T v2 = w2 y T v3 = w3 , donde

1
3
2
a) w1 = 2 w2 = 2 , w3 = 0 .
2
3
1

1
1
1
b) w1 = 1 , w2 = 0 , w3 = 2 .
5
1
1

4. Sea T : V W una transformacin lineal y sean v1 , . . . , vn V y w1 , . . . , wn W tales que


T vi = wi .
a) Si w1 , . . . , wn son linealmente independientes, pruebe que los vectores v1 , . . . , vn son linealmente independientes.
b) Si los vectores v1 , . . . , vn son linealmente independientes, Es cierto que w1 , . . . , wn son
linealmente independientes? Si su respuesta es afirmativa, prubelo. En caso contrario, de
un contrajemplo.
2

5. Defina una transformacin lineal T : R R tal que T


3

e1 , e2 , e3 son los vectores unitarios de R .

1
2


= e1 + 2e2 + 3e3 , donde

110

4. Transformaciones lineales y matrices




1
1
4
6. Encuentre una transformacin lineal T : R3 R2 tal que T 1 =
y T 1 =
2
1
0


1
. Nota: Debe escribir a T en forma explcita, es decir, debe encontrar una frmula
3

x1
para T x2 en trminos de x1 , x2 y x3 . Justifique su respuesta.
x3
7. Sea V un espacio vectorial real de dimensin 3 y sea = {v1 , v2 , v3 } una base para V .
Suponga que f : V R es una transformacin lineal tal que
f (v1 v2 ) = 5,

f (v2 v3 ) = 3,

f (v1 + v3 ) = 4.

De una frmula en trminos de la base para calcular f (v) para cualquier v V.


8. Pruebe que la funcin T : K[t]3 K 33 dada por:

a0
T (a0 + a1 t + a2 t2 ) = 0
0

a1
a0
0

a2
a1 ,
a0

es una transformacin lineal inyectiva.


9. Sea K un campo arbitrario y sea K. Pruebe que la funcin evaluacin ev : V K dada
por ev (a0 + a1 t + + an tn ) = a0 + a1 + + an n es una transformacin lineal.
10. Pruebe que la funcin traza tr : K nn K dada por tr(A) =

Pn

i=1

aii es lineal.

11. Sea A K mn . Pruebe que la funcin T : K nr K mr dada por T (X) = AX es una


transformacin lineal.
12. Sea A K nn . Es la funcin T : K nn K dada por T (X) = tr(AX) una transformacin
lineal? (Sugerencia: Vea el Teorema 4.1.8.)
13. Pruebe que la funcin T : K[t] K[t] dada por T (p(t)) = tp(t) es un operador lineal.
14. Sea V un K-espacio vectorial y sea T : V V K una funcin bilineal, es decir una funcin
que satisface lo siguiente:
T (u1 + u2 , v) = T (u1 , v) + T (u2 , v),
T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ),
T (cu, v) = cT (u, v) = T (u, cv),
para cualesquiera u1 , u2 , v1 , v2 , u, v V y para cualquier c K. Sean v, w V tales que
T (v, w) = 0 = T (w, v) y T (v, v) = T (w, w) = 1. Pruebe que los vectores v y w son linealmente
independientes.
15. Sean = {v1 , v2 , v3 } y 0 = {w1 , w2 } bases para los K-espacios vectoriales V y W , respectivamente. Sea Eij : V W la nica transformacin lineal tal que Eij (vi ) = ij wj , donde
ij es la delta de Kronecker. As por ejemplo, E11 es la nica transformacin lineal tal que
E11 (v1 ) = w1 , E11 (v2 ) = 0 y E11 (v3 ) = 0. Pruebe que dim L(V, W ) = 3 3 mostrando que la
coleccin {Eij : 1 i 3, 1 j 2} es una base.

4.2. El ncleo y la imagen de una transformacin lineal

111

16. Podemos encajar R2enR3 en formas diferentes. La forma usual de hacer


esto es mediante

 
 
x
x
x
x
la funcin
7 y . Otra forma es mediante la funcin
7 y . Considere los
y
y
0
1

x
puntos de R2 como tercias del tipo y . Para cada una de las siguientes matrices:
1

cos sen
cos
R = sen
0
0

1
0 0
Py = 0 1 0 ,
0
0 1

0
1 0 0
0 , Px = 0 1 0 ,
1
0 0 1

1 0 a
(a,b) = 0 1 b ,
0 0 1

considere la correspondiente transformacin lineal inducida (vase el Ejemplo 4.1.2, apartado




3). Analice el efecto de aplicar la transformacin lineal a un vector de la forma


tipo de matrices son tiles en grficas por computadora.

4.2.

x
y
1

. Este

El ncleo y la imagen de una transformacin lineal

Asociada a una transformacin lineal T : V W estn los conjuntos:


ker(T )

= {v V | T (v) = 0} ,

Im(T )

= {w W | v V, w = T (v)} = {T (v) | v V } .

El primer conjunto es el ncleo, kernel o espacio nulo de T . El segundo es la imagen o rango


de T . Estos subconjuntos son subespacios de V y de W , respectivamente. La prueba de esta
afirmacin es sencilla y se deja de ejercicio al lector.
Ejemplos 4.2.1.
1. Calcule el ncleo y la imagen de la transformacin lineal T : R [t]3 R2 dada por:
2

T (a + bt + ct ) =


a + 3b c
.
b + 2c

En este caso:
ker(T )



a + bt + ct2 R [t]3 | a + 3b c = 0 y b + 2c = 0


=
a + bt + ct2 R [t]3 |a = 7c y b = 2c


=
7c 2ct + ct2 |c R


= 7 2t + t2
=

y
 

x
2
Im(T ) =
R | x = a + 3b c y y = b + 2c para algunos a, b, c R = R2 .
y
Observe que dim R[t]3 = dim ker T + dim Im T.

112

4. Transformaciones lineales y matrices

2. Si A es una matriz m n y TA es la transformacin lineal inducida por A, entonces:


ker(TA ) = N (A)

Im(TA ) = R (A) .

Es decir, los subespacios ncleo e imagen de la transformacin lineal inducida por A son los
espacios nulo y columna de A, respectivamente.
Definicin 4.2.2. Sea T : V W una transformacin lineal. El rango de T es la dimensin de
la imagen de T y se denota por rango(T ). La nulidad de T es la dimensin del ncleo de T y se
denota por nulidad(T ).
Teorema 4.2.3 (Teorema de la dimensin). Si V es un espacio vectorial de dimensin finita y
T : V W es una transformacin lineal, entonces:
dim(V ) = rango(T ) + nulidad(T ).
Demostracin. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker(T ) (de manera
que nulidad(T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, podemos
extenderlo a una base para V , digamos = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que el
conjunto:
0 = {T (vk+1 ), . . . , T (vn )}
es una base para Im(T ).
Claramente 0 Im(T ). Sea T (v) Im(T ) con v V . Como es base para V , existen escalares
c1 , . . . , cn tales que:
v = c1 v1 + + ck vk + ck+1 vk+1 + + cn vn .
Como v1 , . . . , vk ker(T ), tenemos que T (v1 ) = = T (vk ) = 0, de modo que:
T (v)

= T (c1 v1 + + ck vk + ck+1 vk+1 + + cn vn )


= c1 T (v1 ) + + ck T (vk ) + ck+1 T (vk+1 ) + + cn T (vn )
= ck+1 T (vk+1 ) + + cn T (vn ),

lo cual demuestra que Im(T ) est generada por 0 . Supongamos ahora que existen escalares
dk+1 , . . . , dn tales que:
dk+1 T (vk+1 ) + + dn T (vn ) = 0.
Entonces T (dk+1 vk+1 + + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + + dn vn
ker(T ). Por lo tanto, existen escalares d1 , . . . , dk tales que:
dk+1 vk+1 + + dn vn = d1 v1 + + dk vk ,
pues {v1 , . . . , vk } es base para ker(T ). Luego:
d1 v1 + + dk vk dk+1 vk+1 dn vn = 0,
y la independencia lineal de obliga a que d1 = = dn = 0. En particular, dk+1 = =
dn = 0 y por lo tanto 0 es linealmente independiente. As, 0 es base para Im(T ). Luego,
rango(T ) = n k y por lo tanto:
rango(T ) + nulidad(T ) = k + (n k) = n = dim(V ),
como se quera.

4.2. El ncleo y la imagen de una transformacin lineal

113

Ejemplo 4.2.4. Encuentre el rango y la nulidad de la transformacin lineal T : R[t]3 R[t]4


definida por T (p(t)) = tp(t).
Solucin. Tenemos que T (a + bt + ct2 ) = at + bt2 + ct3 . Luego:
ker(T ) = {a + bt + ct2 | T (a + bt + ct2 ) = 0}
= {a + bt + ct2 | at + bt2 + ct3 = 0}
= {a + bt + ct2 | a = b = c = 0}
= {0},
de manera que nulidad(T ) = 0 y por el Teorema de la dimensin, tenemos que rango(T ) =
dim(R[t]3 ) nulidad(T ) = 3 0 = 3.
Note que hubiera sido ms fcil hallar primero el rango de T , debido a que se ve fcilmente
que {t, t2 , t3 } es una base para la imagen de T . Aunque, por lo regular, una de las dos (el rango
o la nulidad de una transformacin lineal) sea ms fcil de calcular, el Teorema de la dimensin
puede ser utilizado para hallar la otra.

4.2.1.

Ejercicios

1. Describa explcitamente una transformacin lineal de R3 en R3 cuya imagen sea el espacio


generado por los vectores (1 0 1)T y (1 2 2)T .
2. Sea W el espacio vectorial de todas las matrices simtricas de 22. Defina una transformacin
lineal T : W R[t]3 mediante:


a b
T
= (a b) + (b c)t + (c a)t2 .
b c
Encuentre el rango y la nulidad de T .
3. Encuentre el rango y la nulidad de las siguientes transformaciones lineales:
a) T : R33 R33 definida por T (A) = A AT para cada A R33 .
b) T : R[t]3 R definida por T (p(t)) = p0 (0) para cada p(t) R[t]3 . (Nota: p0 (t) denota la
derivada de p(t) con respecto a t).


ab
4. Sea T : R[t]3 R2 la transformacin lineal dada por T (a + bt + ct2 ) =
.
b+c
a) Cul o cules de los siguientes vectores est en el ncleo de T ?: (a) 1 + t, (b) t t2 , (c)
1 + t t2 .




0
1
b) Cul o cules de los siguientes vectores est en la imagen de T ?: (a)
, (b)
,
0
0
 
0
(c)
.
1


5. Considere el espacio vectorial R [t]3 con la base = 1, 1 t, 1 t + t2 .
a) Construya la nica transformacin lineal de T : R [t]3 R22 tal que






1 1
1
1
1
T (1) =
, T (1 t) =
, T 1 t + t2 =
1
1
1 1
1
b) Calcule el ncleo de la transformacin lineal construida en el inciso a).

3
3


.

114

4. Transformaciones lineales y matrices




6. Calcule el ncleo de la transformacin lineal inducida por la matriz A =

1
0

2
0

0
1


2
.
3

7. Calcule el ncleo de la transformacin lineal T : R4 R2 dada por:




T
x + 2y + 2w
T x, y, z, w =
.
z + 3w
8. Sean V y W espacios vectoriales reales de dimensin finita. Sean = {v1 , v2 , v3 , v4 } y 0 =
{w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V W la nica transformacin
lineal tal que
T v1

w1 + 2w2 w3

T v2

3w1 + 6w2 3w3

T v3

3w1 + 9w2 + 3w3

T v4

2w1 + 5w2

Calcule bases para el ncleo y la imagen de T .


9. Sean U, V y W espacios vectoriales sobre el campo K, y sean T1 : V U y T2 : U W
funciones lineales. Demuestre que ker(T1 ) ker(T2 T1 ) y Im(T2 T1 ) Im(T2 ).
10. Sea P : V V un operador lineal idempotente, es decir, P P = P . Pruebe que V =
ker P Im P .
11. Sea V un espacio vectorial y sea T : V V un operador lineal. Demuestre que las siguientes
condiciones son equivalentes:
a) ker T Im T = {0}.
b) v V, T (T (v)) = 0 T (v) = 0.
12. Sea V un espacio vectorial de dimensin finita y sea T : V V una funcin lineal. Demuestre
que si rango(T T ) = rango(T ), entonces Im(T ) ker(T ) = {0}.
13. Sean T : V W una transformacin lineal y U un subespacio de dimensin finita del espacio
V . Pruebe que si U ker T = {0}, entonces dim T (U ) = U , donde T (U ) = {T u | u U }.
14. Sean U, V y W K-espacios vectoriales. Si U es de dimensin finita, A : U V y B : V W
son transformaciones lineales, pruebe que
dim Im(AB) = dim Im(B) dim ker(A) Im(B).

4.3.

Transformaciones lineales inyectivas y suprayectivas

Recordemos que una funcin f : A B es inyectiva si para cualesquiera a, a0 A, f (a) =


f (a0 ) implica a = a0 . Si Im(f ) = B, entonces f es suprayectiva.
En esta seccin la conexin entre las funciones inyectivas y la nulidad de una transformacin
lineal.
Primero veamos un ejemplo.
Teorema 4.3.1. Una transformacin lineal T : V W es inyectiva si y slo si ker(T ) = {0}.

4.3. Transformaciones lineales inyectivas y suprayectivas

115

Demostracin. () : Supongamos que T es inyectiva y sea v ker(T ). Entonces T (v) = 0. Sin


embargo, tambin sabemos que T (0) = 0 segn el Teorema 4.1.3, de manera que T (v) = T (0).
Debido a que T es inyectiva, esto implica que v = 0 y por lo tanto ker(T ) = {0}.
() : Supongamos ahora que ker(T ) = {0} y sean u, v V tales que T (u) = T (v). Como T
es lineal, tenemos que T (u v) = T (u) T (v) = 0 de donde u v ker(T ). Pero ker(T ) = {0},
de modo que u v = 0. Por lo tanto, u = v y T es inyectiva.
Corolario 4.3.2. Sea dim V = dim W = n. Entonces, una transformacin lineal T : V W
es inyectiva si y slo si es suprayectiva.
Demostracin. Tenemos que T es inyectiva si y slo si ker(T ) = {0} segn el Teorema 4.3.1.
Luego, T es inyectiva si y slo si nulidad(T ) = 0. Por el Teorema de la dimensin, tenemos
que n = rango(T ). Por lo tanto, T es inyectiva si y slo si n = rango(T ). Como rango(T ) =
dim(Im(T )), tenemos que Im(T ) = W y por lo tanto T es suprayectiva. As, T es inyectiva si y
slo si es suprayectiva.
Corolario 4.3.3. Sea T : V W una transformacin lineal inyectiva. Si S = {v1 , . . . , vk }
es un conjunto linealmente independiente en V , entonces T (S) = {T (v1 ), . . . , T (vk )} es un
conjunto linealmente independiente en W .
Demostracin. Sean c1 , . . . , ck escalares tales que:
c1 T (v1 ) + + ck T (vk ) = 0.
Entonces, T (c1 v1 + +ck vk ) = 0 pues T es lineal. De aqu que c1 v1 + +ck vk ker(T ). Pero, ya
que T es inyectiva, ker(T ) = {0} segn el Teorema 4.3.1. Por consiguiente, c1 v1 + + ck vk = 0.
No obstante, debido a que S es linealmente independiente, concluimos que c1 = = ck = 0.
Por lo tanto, T (S) es linealmente independiente.
Corolario 4.3.4. Sea dim V = dim W = n. Entonces, una transformacin lineal inyectiva
T : V W mapea una base para V en una base para W .
Demostracin. Sea = {v1 , . . . , vn } una base para V . Como T es inyectiva, los elementos de
T () son distintos entre s. Luego, |T ()| = n = dim W . De acuerdo con el Corolario 3.4.5,
T () ser una base para W si T () es linealmente independiente. Pero T () es linealmente
independiente segn el corolario anterior. Por lo tanto T () es una base para W .
Ahora estamos en posicin de describir, en trminos concretos, lo que significa que dos
espacios vectoriales sean esencialmente el mismo.
Definicin 4.3.5. Una transformacin lineal T : V W es un isomorfismo si es inyectiva y
suprayectiva. Si V y W son espacios vectoriales tales que existe un isomorfismo de V en W ,
entonces decimos que V es isomorfo a W y escribimos V
= W.
Observacin 4.3.6. Sea K un campo. La relacin es isomorfo a es una relacin de equivalencia
en la clase de todos los K-espacios vectoriales.
Ejemplo 4.3.7. Los espacios R[t]n y Rn son isomorfos.
Teorema 4.3.8. Sean V y W espacios vectoriales de dimensin finita. Entonces, V es isomorfo
a W si y slo si dim V = dim W .
Demostracin. () : Sea n = dim V . Si V es isomorfo a W , entonces existe un isomorfismo
T : V W . Como T es inyectiva, nulidad(T ) = 0, y como T es suprayectiva, Im(T ) = W .
El Teorema de la dimensin implica entonces que rango(T ) = n, de donde dim W = n. As,
dim V = dim W = n.

116

4. Transformaciones lineales y matrices

() : Supongamos ahora que dim V = dim W = n. Sea = {v1 , . . . , vn } una base para V y
sea 0 = {w1 , . . . , wn } una base para W . Por el Teorema 4.1.4 existe una nica transformacin
lineal T : V W tal que T (vi ) = wi para i = 1, . . . , n. Demostraremos que esta funcin es
inyectiva y suprayectiva. Sea v ker(T ). Podemos escribir v como combinacin lineal de los
vectores de la base , digamos v = c1 v1 + + cn vn . Tenemos que:
0 = T (v) = T (c1 v1 + + cn vn ) = c1 T (v1 ) + + cn T (vn ) = c1 w1 + + cn wn ,
de donde c1 = = cn = 0 ya que 0 es linealmente independiente. Por lo tanto, v = 0
y as ker(T ) = {0}. Aplicando ahora el Teorema 4.3.1, se sigue que T es inyectiva. Como
dim V = dim W = n, T tambin es suprayectiva, de acuerdo con el Corolario 4.3.2. Por lo tanto,
T es un isomorfismo y V
= W.
Ejemplo 4.3.9. Los espacios Rn y R[t]n+1 no son isomorfos, ya que dim Rn = n 6= n + 1 =
dim R[t]n+1 .

4.3.1.

Ejercicios

1. Sea T un operador lineal sobre V tal que T 2 = T , es decir, T T = T . Sea v V . Demuestre


que {v, T (v)} es linealmente dependiente si y slo si T (v) = v o T (v) = 0.
2. Sea L : R2 R2 un operador lineal no nulo tal que L2 = L L = 0. Demuestre que existe
una base {v1 , v2 } de R2 tal que L(v1 ) = v2 y L(v2 ) = 0.
2
3. Determine si la transformacin

 lineal T es (a) inyectiva y (b) suprayectiva. T : R[t]3 R
p(0)
definida por T (p(t)) =
.
p(1)


p (0)
4. Sea T : R [t]4 R2 la funcin lineal dada por T (p) =
. Calcule una base para el
p (1)
ncleo de T. Es T una funcin suprayectiva? Justifique su respuesta.
3
5. Calcule bases para el ncleo
 a0y+ala2 imagen de la transformacin lineal T : R [t]3 R definida
por T (a0 + a1 t + a2 t2 ) = a1 .
0

 

a b
a
6. Sea T : R
R la funcin lineal dada por T
=
. Calcule una
c d
a+b+c+d
base para el ncleo de T. Es T una funcin suprayectiva? Justifique su respuesta.
22

7. Sea T : R5 R4 una transformacin lineal tal que dim ker T = 1. Encuentre la imagen de T .
8. Sea v un vector no cero de R2 . Sea T : R2 R2 un operador lineal tal que T (v) = 0.
Demuestre que Im T es o una lnea recta o es {0}.
9. Sean W1 , W2 dos espacios vectoriales y sea V su producto directo V = W1 W2 . Sea W =
W1 0 = {(w1 , 0) V | w1 W1 } . Demuestre que el espacio cociente V /W y el espacio W2
son isomorfos. (Sugerencia: Considere la funcin T : W2 V /W dada por T (w2 ) = W1 w2 ).
Para la definicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
10. Demuestre que T : R[t]n+1 R[t]n+1 definida por T (p(t)) = p(t) + p0 (t) para cada p(t)
R[t]n+1 , es un isomorfismo.
11. Es la funcin T : R[t]n+1 R[t]n+1 definida por T (p(t)) = p(t2) para cada p(t) R[t]n+1 ,
un isomorfismo?

4.4. La matriz asociada a una transformacin lineal

117

12. Sea W el espacio vectorial de todas las matrices simtricas de 2 2. Demuestre que W es
isomorfo a R3 .
13. Sea K un campo y sea T : K K n una funcin lineal. Demuestre que T = 0 T es inyectiva.
14. Sea V un espacio vectorial de dimensin finita y sea T : V V un operador lineal. Suponga
que existe un operador lineal F : V V tal que T F = 1V . Demuestre que T es un
isomorfismo.
15. Pruebe que no existen funciones lineales inyectivas de R3 a R2 .
16. Pruebe que no existen funciones lineales suprayectivas de R2 en R3 .
17. Sean T : V W y F : W Z dos transformaciones lineales. Pruebe que
a) ker T ker F T .
b) Si dim V > dim W entonces F T : V Z no es un isomorfismo.
18. Sea T : V W una transformacin lineal entre dos espacios vectoriales de dimensin finita.
a) Demuestre que si dim V < dim W , entonces T no puede ser suprayectiva.
b) Demuestre que si dim V > dim W , entonces T no puede ser inyectiva.
c) Si dim V = dim W , pruebe T es un isomorfismo o bien T no es inyectiva ni es suprayectiva.
19. Suponga que T : U V y F : V W son transformaciones lineales tales que F T es una
biyeccin. Pruebe que V = Im T ker F.
20. Sea V un espacio vectorial de dimensin finita y sea T : V W una transformacin lineal.
Pruebe que V / ker T
= Im T . (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 ).)
Para la definicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
21. Pruebe el Teorema de la dimensin usando el ejercicio anterior.
22. Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una
transformacin lineal inyectiva
:

V
V
V

.
W1 W2
W1
W2

23. Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensin finita
n > 0. Determine la cardinalidad de V .

4.4.

La matriz asociada a una transformacin lineal

A cada transformacin lineal es posible asignarle una matriz. Veamos un ejemplo de cmo
hacer esto. Considere los espacios vectoriales R3 y R[t]3 con las bases:
n
 1
 1
 1 o
0 , v3 = 1
,
=
v1 = 1 , v2 =
2

= {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },

respectivamente. Sea T : R3 R[t]3 la transformacin lineal dada por:


x
T y = (y + 2z) + (y + z)t + (x + y)t2 .
z

118

4. Transformaciones lineales y matrices


T

Sea v = (4, 1, 9) . El objetivo de este ejemplo es escribir T (v) como combinacin lineal
de los vectores de la base 0 utilizando dos procedimientos diferentes.
Primer procedimiento. Calculemos directamente T (v).
 4
T (v) = T 1 = 17 + 8t + 3t2 .
9

Queremos escribir T (v) = x1 w1 + x2 w2 + x3 w3 . Esto nos lleva a:


17 + 8t + 3t2

= x1 (1) + x2 (1 + t) + x3 (1 + t + t2 )
=

(x1 + x2 + x3 ) + (x2 + x3 )t + x3 t2 .

Resolviendo el sistema de ecuaciones lineales resultante, obtenemos x1 = 9, x2 = 5 y x3 = 3.


As:
T (v)

9(1) + 5(1 + t) + 3(1 + t + t2 )

9w1 + 5w2 + 3w3 ,

y por lo tanto [T (v)] 0 = (9, 5, 3) .


Segundo procedimiento. Lo haremos en varios pasos.
(1) Escribimos cada uno de los vectores T (v1 ), T (v2 ) y T (v3 ) como combinacin lineal de los
vectores de la base 0 . Es decir:
T (v1 )
T (v2 )

3 + t + 0t2 = 2(1) + 1(1 + t) + 0(1 + t + t2 )

2w1 + w2 + 0w3

= 2 t + t2 = (1) 2(1 + t) + 1(1 + t + t2 )


= w1 2w2 + w3

T (v3 )

3 + 2t + 2t2 = 1(1) + 0(1 + t) + 2(1 + t + t2 )

= w1 + 0w2 + 2w3 .
(2) Escribimos a v como combinacin lineal de los vectores de la base . Es decir:
 1  1
1
0 + 2 1 = 3v1 v2 + 2v3 .
v = 3 1
1

(3) En el paso (2) hallamos escalares c1 , c2 y c3 tales que v = c1 v1 +c2 v2 +c3 v3 . Por la linealidad
de T se tiene que T (v) = c1 T (v1 ) + c2 T (v2 ) + c3 T (v3 ). Combinando esto con los resultados del
paso (1), escribimos T (v) como combinacin lineal de w1 , w2 y w3 . Es decir:
T (v)

3T (v1 ) T (v2 ) + 2T (v3 )

3(2w1 + w2 + 0w3 ) (w1 2w2 + w3 ) + 2(w1 + 0w2 + 2w3 )

9w1 + 5w2 + 3w3 .

Los dos procedimientos arrojan el mismo resultado. Sin embargo,


es ms conveniente. Ntese que si hacemos:

2 1
A = [[T (v1 )] 0 | [T (v2 )] 0 | [T (v3 )] 0 ] = 1 2
0
1
entonces:

2
A[v] = 1
0

el segundo procedimiento

1
0 ,
2

1 1
3
9
2 0 1 = 5 = [T (v)] 0 .
1 2
2
3

4.4. La matriz asociada a una transformacin lineal

119

Teorema 4.4.1. Sean V y W dos K-espacios vectoriales de dimensin finita. Sean =


{v1 , . . . , vn } y 0 = {w1 , . . . , wm } bases para V y W , respectivamente. Para cada transformacin
lineal T : V W existe una nica matriz en K mn , denotada por [T ] 0 que satisface:
[T ] 0 [v] = [T (v)] 0 , v V.
La matriz [T ] 0 es la matriz de T en las bases y 0 . Tambin se dice que [T ] 0 es la matriz
asociada a T en las bases y 0 .
Demostracin. Sea v V . Tenemos que v = x1 v1 + + xn vn con xi escalares. Luego, [v] =
T
(x1 , . . . , xn ) . Por otra parte, usando la linealidad de T tenemos que:
T (v) = x1 T (v1 ) + + xn T (vn ).

(4.1)

Para hallar [T (v)] 0 debemos expresar a T (v) como combinacin lineal de w1 , w2 , . . . , wm .


Como T (v1 ), T (v2 ), . . . , T (vn ) W , ser suficiente expresar cada uno de estos vectores T (vj ),
como combinacin lineal de los wi s.
Para cada j = 1, . . . , n, supongamos que:
T (vj ) = a1j w1 + a2j w2 + + amj wm .
Sustituyendo cada T (vj ) en (4.1) tenemos que:
= x1 (a11 w1 + + am1 wm ) + + xn (a1n w1 + + amn wm )

T (v)

(a11 x1 + + a1n xn )w1 + + (am1 x1 + + amn xn )wm .

Luego:

[T (v)] 0


a11 x1 + + a1n xn
a11

..
..

= .
.
am1 x1 + + amn xn
am1

a11 a1n
..
.. [v] .
..
.
.
.
am1

Haciendo [T ] 0

a11
..
= .

..
.

..
.


a1n
x1
.. ..
. .
amn

xn

amn

a1n
.. , tenemos que [T (v)] 0 = [T ] 0 [v] . Note que [T ] 0 =

am1
amn
[[T (v1 )] 0 | . . . | [T (vn )] 0 ].
Para demostrar la unicidad de [T ] 0 , supongamos que B K mn es tal que [T (v)] 0 = B[v]
para todo v V . Sea A = [T ] 0 . Entonces, A[v] = B[v] para todo v V , en particular,
A[vj ] = B[vj ] para j = 1, . . . , n. Como [vj ] = ej , tenemos que Aej = Bej , es decir, la j-sima
columna de A es igual a la j-sima columna de B para j = 1, . . . , n, y por lo tanto A = B.
Ejemplos 4.4.2.
1. Si T : R3 R[t]3 es la transformacin lineal dada por:

x
T y = (y + 2z) + (y + z)t + (x + y)t2 ,
z

120

4. Transformaciones lineales y matrices

y , 0 son como antes, entonces:

[T ] 0

1 1
2 0 .
1 2

2
= 1
0

Si ahora, 1 = {e1 , e2 , e3 } y 10 = {1, t, t2 }, entonces:

0 1 2
[T ]1 10 = 0 1 1 .
1 1 0
Este ejemplo muestra que una transformacin lineal puede tener ms de una matriz asociada.
De hecho, para cualquier pareja de bases , 0 hay una matriz asociada. Ms adelante, en
la Seccin 4.6 se describir la relacin que hay entre las matrices asociadas a la misma
transformacin lineal.
2. Sean T, F : R2 R2 las transformaciones lineales dadas por:
  

  

x
5x + 9y
x
4x + 17y
,
F
=
,
T
=
y
x + y
y
x + 6y
respectivamente. Considere las siguientes bases de R2 :
   
  

1
0
1
1
0
={
,
},
={
,
},
0
1
1
1
   
   
3
2
1
1
1 = {
,
},
10 = {
,
}
1
1
0
1
Entonces:

[T ]

2
3

5
4


= [F ]1 10 .

Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma matriz
asociada, respecto de diferentes bases.


1
2 3
3. Sea TA : R3 R2 la funcin lineal inducida por A =
. Es decir:
2 3
5


x1
1

TA x2 =
2
x3

2 3
3
5




x1
x2 = x1 + 2x2 3x3 .
2x1 3x2 + 5x3
x3

Si y 0 son las bases cannicas para R3 y R2 respectivamente, entonces:




1
2 3
[TA ] 0 =
= A.
2 3
5
En general, si A K mn y TA : K n K m es la funcin lineal inducida por A, entonces
[TA ] 0 = A, donde y 0 son las bases cannicas de K n y K m , respectivamente. En efecto,
supongamos que = {e1 , . . . , en } y 0 = {e01 , . . . , e0m }. Entonces TA (ej ) = Aej = columna j
de A. Luego, [TA (ej )] 0 = Aej y por lo tanto [TA ] 0 = [Ae1 | . . . | Aen ] = A.

4.4. La matriz asociada a una transformacin lineal

121

4. Sean V y W dos espacios vectoriales reales de dimensiones 3 y 2, respectivamente. Sean


= {v1 , v2 , v3 } y 0 = {w1 , w2 } bases para V y W , respectivamente. Suponga que T : V W
es una transformacin lineal tal que:


3 2 7
[T ] 0 =
.
2 1 4
Si v = 2v1 + 3v2 v3 , podemos escribir T (v) como combinacin lineal de los elementos de la
base 0 . Para calcular [T (v)] 0 aplicamos el Teorema 4.4.1:





2
3 2 7
7
3 =
[T (v)] 0 = [T ] 0 [v] =
.
2 1 4
5
1
Por lo tanto T (v) = 7w1 5w2 .
5. Considere las bases = {e1 , e2 } y 0 = {e1 + e2 , e1 e2 } del espacio vectorial R2 . Sea
1R2 : R2 R2 el operador lineal identidad sobre R2 . Puesto que 1R2 (e1 ) = e1 = 1e1 + 0e2 y
1R2 (e2 ) = e2 = 0e1 + 1e2 , la matriz asociada al operador lineal 1R2 respecto a la base es:


1 0
[1R2 ]
= I.
0 1
Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) 12 (e1 e2 ),
de modo que:


[1R2 ] 0 =

1
2
1
2

1
2
21

Si v = (7, 8) , entonces [v] = v. Luego:


[v] 0 = [1R2 (v)] 0 = [1R2 ] 0 [v] ,

 

 1
1
7
1/2
2
2
=
[v] 0 =
1
8
15/2
12
2




1
1
As, v = (1/2)
+ (15/2)
. Ntese que esta matriz sirve para cambiar de base.
1
1
En general, si V es un espacio vectorial de dimensin n, y 0 son bases para V y 1V : V V
es la funcin lineal identidad, a la matriz [1V ] 0 se le llama matriz cambio de base de la base
a la base 0 .
En el caso en que = 0 tenemos que [1V ] = I, donde I es la matriz identidad de n n.
En efecto, si = {v1 , . . . , vn }, entonces 1V (vj ) = vj y [vj ] = ej , de donde [1V ] = [e1 |
. . . | en ] = I.

4.4.1.

Ejercicios

1. Sea T el operador lineal sobre R[t]2 definido por:


T (a + bt) = (18a + 30b) + (10a 17b)t.
Considere las bases = {1, t} y 0 = {2 t, 3 + 2t}. Calcule las matrices [T ] y [T ] 0 .


2. Considere el espacio vectorial R [t]3 con la base = 1 + t + t2 , 2 + 3t + t2 , 1 + 2t + t2 . Sea
T : R [t]3 R [t]3 la funcin lineal derivacin T (p) = p0 . Calcule la matriz de T respecto a la
base .

122

4. Transformaciones lineales y matrices

3. Sea T el operador lineal sobre R22 dado por T (A) = BA AB, donde B =

1
1

1
1


.

Calcule [T ] , la matriz de T en la base , donde es la base cannica de R22 .


4. Sea T : R [t]3 R4 dada por T (p) = (p(0), p(1), p(2), p(3))T . Encuentre la matriz de T
respecto a las bases cannicas de R [t]3 y R4 , respectivamente.

2x1 + 6x2 + 6x3 + 2x4


5. Sea T : R4 R3 la transformacin lineal dada por T (x) = 5x1 + 3x2 + 3x3 + 5x4 .
4x1 + 4x4
a) Calcule la matriz de T en las bases cannicas de R4 y R3 , respectivamente.
b) Considere las bases

1

1
1
1 =
1

1

2
1
0
2
1 =
3
1

1
1
1 1 1 1
,

2 1 , 2 1
1
1

2
1
, 1 1 , 1 2
3
3
2
2

1 1
,
,
2 1

de R4 y R3 , respectivamente. Calcule la matriz de T referida a este par de bases.


6. Sea V un K-espacio vectorial de dimensin n con una base . Pruebe que un conjunto de
vectores {v1 , v2 , . . . , vr } V es linealmente independiente si y slo si el conjunto de vectores
coordenados:
{[v1 ] , [v2 ] , . . . , [vr ] } K n
es linealmente independiente.
7. Sean V y W espacios vectoriales de dimensin finita y sea T : V W una transformacin
lineal. Sean = {v1 , . . . , vn } y 0 = {w1 , . . . , wm } bases para V y W , respectivamente, y sea
A = [T ] 0 . Sean v V y w W . Pruebe que:
a) v Ker(T ) si y slo si [v] N (A).
b) w Im(T ) si y slo si [w] 0 R(A).
c) Si {h1 , . . . , hnr } es una base del espacio nulo de A, entonces {u1 , . . . , unr } es una base
para el ncleo de T , donde ui es tal que [ui ] = hi para i = 1, . . . , n r.
d) Si {y1 , . . . , yr } es una base para el espacio columna de A, entonces {w1 , . . . , wr } es una
base para la imagen de T , donde wj es tal que [wj ] 0 = yj para j = 1, . . . , r.
8. Sean = {v1 , v2 , v3 } y 0 = {w1 , w2 } bases para R3 y R2 , respectivamente. Sea T : R3 R2
la nica transformacin lineal tal que T v1 = w2 y T v2 = T v3 = w1 w2 . Calcule la matriz
[T ] 0 .
9. Sean V y W dos espacios vectoriales reales de dimensin finita. Sean = {v1 , v2 , v3 , v4 } y 0 =
{w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V W la nica transformacin
lineal tal que T (v1 ) = w1 2w2 w3 , T (v2 ) = w2 , T (v3 ) = w1 w2 w3 y T (v4 ) =
w1 + 2w2 + w3 . Utilizando la representacin matricial de T , calcule bases para el ncleo
y la imagen de T . (Nota: Los vectores de estas bases debern expresarse en trminos de los
vectores de las bases y 0 , segn corresponda).

4.4. La matriz asociada a una transformacin lineal

123

10. Sean V y W dos espacios vectoriales reales de dimensin finita. Sean = {v1 , v2 , v3 , v4 } y
0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V W la nica transformacin
lineal tal que
T v1 = w1 + 2w2 3w3 ,

T v 2 = w2 ,

T v3 = w1 w2 + 3w3 ,

T v4 = 2w1 + 4w2 6w3 .

Calcule una base para el ncleo de T .


11. Sea T el operador lineal sobre R22 dado por T (A) =
para R22 . Calcule [T ] .

1
2 (A

+ AT ). Sea la base cannica

12. Sea P : R2 R2 la transformacin lineal que a cada vector v R2 le asigna su proyeccin


ortogonal sobre la recta y = x, es decir, le asigna el vector v0 sobre la recta y = x de tal
manera que el vector v v0 es perpendicular al vector v0 .
a) Calcule [P ] , donde es la base cannica de R2 .

b) Describa explcitamente P , es decir, determine una frmula para P

x
y


.

13. Considere
vectoriales V = R[t]3 y W = R2 con las bases = {1, t, t2 } y 0 =

 los
 espacios

1
1
{
,
}. Encuentre de manera explcita la nica transformacin lineal de T : V
1
1


1 1 2
W tal que [T ] 0 =
.
1
1 1
T

14. = {(1, 1, 1) , (1, 1, 0) , (0, 1, 1) } y 0 = {(1, 1) , (1, 1) } son bases de R3 y R2 ,


respectivamente.
Calcule
una transformacin lineal T L(R3 , R2 ) tal que [T ] 0 = A, donde


1 1 2
A=
3
2 4
15. Considere R2 con las bases = {v1 , v2 } y 0 = {w1 , w2 } donde v1 = (2 1)T , v2 = (1 1)T ,
w1 = (1 1)T y w2 = (1 1)T . Sea T el nico operador lineal sobre R2 tal que T (w1 ) = v1
y T (w2 ) = v2 . Calcule las matrices [1V ] 0 , [T ] y [T ] 0 y comprelas. Qu observa?.
16. Sea V un espacio vectorial de dimensin finita y sean = {v1 , . . . , vn } y 0 = {w1 , . . . , wn }
bases diferentes para V . Sea T el nico operador lineal sobre V tal que T (wi ) = vi para
i = 1, . . . , n. Pruebe que [1V ] 0 = [T ] = [T ] 0 .
17. Sea V un espacio de dimensin finita, sean y 0 bases para V , sea P la matriz cambio de
base de la base a la base 0 y sea T : V V un operador lineal. Demuestre que:
[T ] 0 = P [T ] .
18. Sean V y W dos espacios vectoriales reales de dimensiones 2 y 3, respectivamente. Sean
= {v1 , v2 } y 0 = {w1 , w2 , w3 } bases para V y W , respectivamente. Si T : V W es una
transformacin lineal tal que:

2
1
[T ] 0 = 1 1
1
3
y v = 2v1 3v2 , calcule T (v).
19. Sea E : Rn Rn un operador lineal idempotente, es decir, un operador lineal tal que
E 2 = E. Sean 1 = {v1 , . . . , vr } y 2 = {w1 , . . . , wnr } bases para la imagen y el ncleo
de E, respectivamente. Calcule la matriz de E en la base = 1 2 de Rn . (Demuestre
primero que es base de Rn ).

124

4. Transformaciones lineales y matrices

20. Sea T un operador lineal sobre R3 tal que T 3 = 0


para R3 tal que:

0 0
[T ] = 1 0
0 1

y T 2 6= 0. Demuestre que existe una base

0
0 .
0

21. Sea T : R2 R2 una proyeccin (es decir, T es una transformacin lineal tal que T 2 = T ).
Demuestre que T = 0, o T es la transformacin identidad, o existe una base de R2 tal que:


1 0
[T ] =
.
0 0

4.5.

El isomorfismo entre K dim W dim V y L(V, W )

Sean V y W dos K-espacios vectoriales. Como se vio en la seccin 4.1, L(V, W ) es un espacio
vectorial. En esta seccin se probar que si los espacios V y W son de dimensin finita, entonces
L(V, W )
= K dim W dim V y L(V, W ) es de dimensin finita.
Teorema 4.5.1.
1. Si A, B K mn , y c es un escalar, entonces TA+B = TA + TB y TcA = cTA .
2. Si A K mn y B K np , entonces TAB = TA TB .
Demostracin. Se deja de ejercicio al lector.
Teorema 4.5.2. Para cada T L(K n , K m ) existe una nica matriz A K mn tal que T = TA .
Demostracin. Sea T L(K n , K m ) y sean , 0 las bases cannicas para K n y K m respectivamente. Por el Teorema 4.4.1, la matriz A = [T ] 0 es la nica matriz que satisface:
T (x) = [T (x)] 0 = [T ] 0 [x] = Ax = TA (x), x K n ,
es decir, T = TA .
Teorema 4.5.3. La funcin : K mn L(K n , K m ) dada por (A) = TA es un isomorfismo
de espacios vectoriales.
Demostracin. Se sigue del Teorema 4.5.1 que es lineal y del Teorema 4.5.2 que es biyectiva.
Corolario 4.5.4. dim(L(K n , K m )) = mn.
Demostracin. Como la funcin del teorema anterior es un isomorfismo, tenemos que ker() =
{0} y Im() = L(K n , K m ). Luego, por el teorema de la dimensin tenemos que dim(K mn ) =
dim(ker()) + dim(Im()), es decir, mn = dim(L(K n , K m )).
Teorema 4.5.5. Sea V un K-espacio vectorial de dimensin finita n > 0 y sea una base
para V . Sea W un K-espacio vectorial de dimensin finita m > 0 y sea 0 una base para
W . Si F, T : V W son transformaciones lineales, entonces [F + T ] 0 = [F ] 0 + [T ] 0 y
[cF ] 0 = c[F ] 0 para todo c K.
Demostracin. Sea v V . Por el Teorema 4.4.1 tenemos que:
[F + T ] 0 [v]

[(F + T )(v)] 0 = [F (v) + T (v)] 0 = [F (v)] 0 + [T (v)] 0

[F ] 0 [v] + [T ] 0 [v] = ([F ] 0 + [T ] 0 )([v] ).

En particular [F +T ] 0 [v 0 ] = ([F ] 0 +[T ] 0 )([v 0 ] ) para todo v 0 , de modo que [F +T ] 0 =


[F ] 0 + [T ] 0 . De manera anloga se prueba que [cF ] 0 = c[F ] 0 para todo c K.

4.6. Matrices asociadas a la misma transformacin lineal

125

Teorema 4.5.6. Sean V , W , y 0 como en el Teorema 4.5.5. Para cada matriz A K mn


existe una nica transformacin lineal T : V W tal que:
A = [T ] 0 .
Demostracin. Sean = {v1 , . . . , vn }, 0 = {w1 , . . . , wm } y A = (aij ) K mn . Por el Teorema 4.1.4, existe una nica transformacin lineal T : V W tal que:

es decir, tal que [T ] 0

T (v1 )

= a11 w1 + a21 w2 + + am1 wm ,


..
.

T (vn )

= a1n w1 + a2n w2 + + amn wm ,

a11
a21

= .
..

...
...
..
.

a1n
a2n

.. = A.
.

am1

...

amn

Teorema 4.5.7. Sean V , W , y 0 como en el Teorema 4.5.5. La funcin : L(V, W ) K mn


dada por (T ) = [T ] 0 es un isomorfismo de espacios vectoriales.
Demostracin. Se sigue del Teorema 4.5.5 que es lineal y del Teorema 4.5.6 que es biyectiva.

Corolario 4.5.8. Sean V y W dos K-espacios vectoriales de dimensin finita, con dim(V ) = n
y dim(W ) = m. Entonces, dim(L(V, W )) = mn.
Demostracin. Como la funcin del teorema anterior es un isomorfismo, se tiene la funcin
inversa 1 : K mn L(V, W ) tambin es un isomorfismo. Luego, ker(1 ) = {0} y Im(1 ) =
L(V, W ). Aplicando el teorema de la dimensin, tenemos que dim(K mn ) = dim(ker(1 )) +
dim(Im(1 )), es decir, mn = dim(L(V, W )).

4.5.1.

Ejercicios

1. Demuestre el Teorema 4.5.1.


2. Sea V un K-espacio vectorial
de dimensin 2 y sea una base de V . Si T es un operador


a b
lineal sobre V y [T ] =
, demuestre que:
c d
T 2 (a + d)T + (ad bc)1V = 0.
  

x
y
3. Sea T : R R la funcin lineal dada por T
=
. Demuestre que la transfory
x
macin lineal T c1R2 es un isomorfismo para todo nmero real c.
2

4.6.

Matrices asociadas a la misma transformacin lineal

Escribiremos T : (V, ) (W, 0 ) para denotar a una transformacin lineal T entre dos
espacios vectoriales V y W con bases y 0 , respectivamente.

126

4. Transformaciones lineales y matrices

Teorema 4.6.1. Sean U , V y W , K-espacios vectoriales de dimensiones positivas m, n y p,


con bases , 0 y 00 , respectivamente. Si F y T son transformaciones lineales tales que:
F

(U, ) (V, 0 ) (W, 00 )


entonces:
[T F ] 00 = [T ] 0 00 [F ] 0 .
Demostracin. Sea u U . El Teorema 4.4.1 implica que:
[T F ] 00 [u] = [(T F )(u)] 00 = [T (F (u))] 00 = [T ] 0 00 [F (u)] 0 = [T ] 0 00 [F ] 0 [u] .
Como esto es para todo u U , en particular [T F ] 00 [u0 ] = [T ] 0 00 [F ] 0 [u0 ] para todo
u . Luego, [T F ] 00 = [T ] 0 00 [F ] 0 .
0

Corolario 4.6.2. Si V es un espacio vectorial de dimensin finita n > 0, y , 0 son bases para
0
V , entonces: [1V ]1
0 = [1V ] .
Demostracin. Consideremos la transformacin lineal identidad 1V tal que:
1

(V, ) V (V, 0 ) V (V, )


Por el Teorema 4.6.1, tenemos que [1V ] = [1V ] 0 [1V ] 0 . Como [1V ] = I, se sigue que
0
[1V ]1
0 = [1V ] .
Teorema 4.6.3. Sean V y W espacios vectoriales de dimensin finita y T : V W una
transformacin lineal.
1. Si T es invertible, entonces [T ] 0 es invertible para cualesquiera bases y 0 de V y W ,
respectivamente. Adems:
1
[T ]1
] 0 .
0 = [T
2. Si [T ] 0 es invertible para algn par de bases y 0 de V y W respectivamente, entonces T
es invertible.
Demostracin. 1. Si T : V W es invertible, entonces T es un isomorfismo de espacios vectoriales y por lo tanto dim(V ) = dim(W ). Supongamos que dim(V ) = n, y sean y 0 bases
de V y W respectivamente. Sea T 1 la inversa de T . Claramente T 1 es lineal. Entonces
[T 1 T ] = [1V ] = I, donde I es la matriz identidad de n n. Como:
T

T 1

(V, ) (W, 0 ) (V, )


entonces por el Teorema 4.6.1 tenemos que:
[T 1 T ] = [T 1 ] 0 [T ] 0 ,
1 0
y por lo tanto I = [T 1 ] 0 [T ] 0 , es decir, [T ] 0 es invertible y [T ]1
] .
0 = [T

2. Supongamos que existen bases y 0 de V y W respectivamente, tales que [T ] 0 es invertible.


Entonces, V y W tienen la misma dimensin, digamos n. Sea A la matriz inversa de [T ] 0 .
Por el Teorema 4.5.6, existe una nica transformacin lineal S : W V tal que A = [S] 0 .
Entonces, [T ] 0 [S] 0 = I, donde I es la matriz identidad de nn. Pero por el Teorema 4.6.1,
tenemos que [T ] 0 [S] 0 = [T S] 0 0 , de modo que [T S] 0 0 = I. Se sigue finalmente que
T S = 1W , es decir, T es invertible.

4.6. Matrices asociadas a la misma transformacin lineal

127

Los siguientes ejemplos son aplicaciones del Teorema 4.6.3.


2
Ejemplo

 4.6.4. Determine si la funcin lineal T : R[t]2 R lineal dada por T (a + bt) =
ab
es invertible. En caso de que lo sea, halle su inversa.
a + 2b
Se calcula la matriz de T respecto de alguna
  una pareja
 debases. Se escogen las bases
1
1
0
= {1, t} y = {e1 , e2 }. Dado que T (1) =
y T (t) =
, se tiene que
1
2


1 1
[T ] 0 =
.
1
2

Esta matriz es invertible ya que su determinante es 3. De hecho,


 2 1 
3
3
.
[T ]1
=
0
13 31
De acuerdo con el Teorema 4.6.3, dado que T es invertible se tiene que [T 1 ] 0 = [T ]1
0 . Por
lo tanto, la inversa de T es la nica funcin T 1 : R2 R[t]2 dada por T 1 (e1 ) = 2/3 t/3 y
T 1 (e2 ) = 1/3 + t/3. Por lo tanto
 
t
1
t
1
2
1 x
T
= xT 1 (e1 ) + yT 1 (e2 ) = x( ) + y( + ) = (2x + y + (x + y)t) .
y
3 3
3 3
3
La eleccin de las bases cannicas fue para facilitar los clculos. Se recomienda al lector como
ejercicio verificar que se obtiene el mismo resultado si escogen las bases = {1 + t, 1 t} y
0 = {e1 + e2 , e1 } para R[t]2 y R2 , respectivamente.
Ejemplo 4.6.5. Sea W el espacio vectorial real que consta de las matrices antisimtricas de
3 3, es decir:
W = {A R33 | A = AT }.
Sea T : R[t]3 W la transformacin lineal dada por:

0 a + b b + c
0
c .
T (a + bt + ct2 ) = a b
bc
c
0
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para ello,
se trabajar con las bases:

=
=

{1, t, t2 },

w1 = 1

1 0
0
0 0 , w2 = 0
0 0
1

0
0
0

1
0
0 , w3 = 0
0
0

0
0
1

0
1 ,

de R[t]3 y W , respectivamente. Dado que T (1) = w1 , T (t) = w1 + w2 y T (t2 ) = w2 + w3 , se


tiene que:

1 1
0
1 1 .
[T ] 0 = 0
0
0
1

1 1 1
0 1 1. Luego, la inversa de T es
Es fcil ver que esta matriz es invertible y que [T ]1
0 =
0 0 1
1
la nica funcin lineal T : W R[t]3 tal que:
T 1 (w1 ) = 1,

T 1 (w2 ) = 1 + t,

T 1 (w3 ) = 1 + t + t2 .

128

4. Transformaciones lineales y matrices

Se sigue entonces que T 1 est dada por:

0 a b
1
a
0 c =
T
b
c
0

T 1 (aw1 + bw2 + cw3 )

a(1) + b(1 + t) + c(1 + t + t2 )

(a + b + c) + (b + c)t + ct2 .

Ntese que si T : V W es una transformacin lineal tal que para algn par de bases y 0
de V y W respectivamente, la matriz [T ] 0 no es invertible, entonces T tampoco es invertible.
En efecto, si T fuera invertible, entonces por el Teorema 4.6.3, la matriz de T referida a cualquier
par de bases sera invertible, en particular [T ] 0 sera invertible, lo que es una contradiccin.
A continuacin veremos la relacin que hay entre las matrices que representan a una misma
transformacin lineal.
Definamos en K mn una relacin de equivalencia denominada equivalencia de matrices.
Decimos que A es equivalente a B, denotado A B, si existen matrices invertibles P y Q de
m m y n n, respectivamente, tales que:
A = P BQ.
Se deja al lector probar que esta relacin es una relacin de equivalencia (Ejercicio 1). Se denota
por K mn / el conjunto de todas las clases de equivalencia bajo esta relacin.
Teorema 4.6.6. Sean V y W espacios vectoriales de dimensin finita y sea T : V W una
transformacin lineal.
1. Cualesquiera dos matrices que representan a T son equivalentes. Adems, si y 1 son bases
para V , y 0 y 10 son bases para W , entonces:
[T ] 0 = [1W ]10 0 [T ]1 10 [1V ]1 .
En otras palabras, el siguiente diagrama es conmutativo:
T

(V, ) (W, 0 )

1
1V y
W
(V, 1 ) (W, 10 )
T

es decir, T = 1W T 1V .
2. Recprocamente, si A y B son matrices equivalentes y A representa a T , entonces B tambin
representa a la transformacin lineal T . Ms precisamente, si A = [T ] 0 para algunas bases
de V y 0 de W , entonces existen bases 1 de V y 10 de W , tales que B = [T ]1 10 .
Demostracin.
1. Por el Teorema 4.6.1 tenemos que:
[1W ]10 0 [T ]1 10 = [1W T ]1 0 y [1W T ]1 0 [1V ]1 = [(1W T ) 1V ] 0 .
Por lo tanto:
([1W ]10 0 [T ]1 10 )[1V ]1 = [(1W T ) 1V ] 0 = [T ] 0 ,
ya que (1W T ) 1V = T .

4.6. Matrices asociadas a la misma transformacin lineal

129

2. Supongamos que A = [T ] 0 y que A = P BQ con P = (pij ) y Q = (qij ) matrices invertibles


de m m y n n, respectivamente. Sea 0 = {w1 , . . . , wm }. Para cada i = 1, 2, . . . , m,
definimos:
m
X
wi0 = p1i w1 + p2i w2 + + pmi wm =
pki wk .
k=1
0
Demostraremos que 10 = {w10 , . . . , wm
} es base de W . Supongamos que:
0
c1 w10 + c2 w20 + + cm wm
= 0.

Entonces:
0

= c1
=

m
X

pk1 wk + c2

k=1
m X
m
X

m
X

pk2 wk + + cm

k=1
m X
m
X

m
X

pkm wk

k=1

ci pki wk =
ci pki wk
i=1 k=1
k=1 i=1
!
m
m
X
X
ci pki

k=1

wk .

i=1

Pm
Como 0 es base de W , se sigue que i=1 ci pki = 0 para cada k = 1, 2, . . . , m. Es decir,
tenemos que P c = 0 donde c = (c1 c2 cm )T . Como P es invertible, se sigue que
c = P 1 0 = 0, de modo que ci = 0 para cada i = 1, 2, . . . , m. Por lo tanto, 10 es un conjunto
de m vectores linealmente independientes y en consecuencia es base de W . As, P = [1W ]10 0 .
0
Por otro lado, sean = {v1 , v2 , . . . , vn } y Q1 = (qij
). Para cada i = 1, 2, . . . , n, definimos:

0
0
0
vi0 = q1i
v1 + q2i
v2 + + qni
vn =

n
X

0
qki
vk ,

k=1

y como en el caso anterior, se demuestra que 1 = {v10 , v20 , . . . , vn0 } es base de V . Luego,
Q1 = [1V ]1 y por el Corolario 4.6.2, se sigue que Q = [1V ]1
1 = [1V ]1 .
Luego, hemos encontrado bases 1 y 10 de V y W , respectivamente, tales que P = [1W ]10 0
y Q = [1V ]1 . Luego, por lo demostrado en 1, se tiene que
A = [T ] 0 = [1W ]10 0 [T ]1 10 [1V ]1 = P [T ]1 10 Q
Finalmente, como A = P BQ, se sigue que P [T ]1 10 Q = P BQ de donde [T ]1 10 = B.
El teorema anterior establece que la funcin L(V, W ) K dim W dim V / dada por:
T 7 clase de equivalencia de A
est bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 4.5.6 que la asignacin es suprayectiva. La funcin no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 4.4.2, inciso
2).
Ejemplo 4.6.7. Sea T : R[t]4 R[t]3 la transformacin lineal dada por:
T (a + bt + ct2 + dt3 ) = (2a + 6b + 6c + 2d) + (5a + 3b + 3c + 5d)t + (4a + 4d)t2 .

130

4. Transformaciones lineales y matrices

Sean y 0 las bases cannicas de R[t]4 y R[t]3 respectivamente. Entonces, T (1) = 2+5t+4t2 ,
T (t) = 6 + 3t, T (t2 ) = 6 + 3t y T (t3 ) = 2 + 5t + 4t2 , de modo que:

2 6 6 2
[T ] 0 = 5 3 3 5 .
4 0 0 4
Si se consideran ahora las bases:


1 + t + t2 + t3 1 t t2 + t3 1 t + t2 t3 1 + t t2 t3
,
,
,
,
1 =
2
2
2
2


2 + 2t + t2 2 + t + 2t2 1 2t + 2t2
10 =
,
,
,
3
3
3
entonces la matriz de T referida a este par de bases

12 0
[T ]1 10 = 0 6
0 0
Las matrices cambio de base son:

2
1
23
3
3
1
23
P = [1R[t]3 ]10 0 = 32
3
1
3

2
3

2
3

es:

0 0
0 0 .
0 0

y Q = [1R[t]4 ]1 =

1
2
1
2
1
2
1
2

1
2
12
12
1
2

1
2
21
1
2
21

1
2
1
2
21
21

Un clculo directo muestra que [T ] 0 = P [T ]1 10 Q.


Si T : (V, ) (V, ) es una funcin lineal y se considera la misma base tanto para el
dominio como para el contradominio, en vez de escribir [T ] se escribe [T ] .
Definamos en K nn una relacin de equivalencia denominada semejanza de matrices.
Decimos que A es semejante a B, denotado A B, si existe una matriz invertible P tal que
A = P BP 1 . Esta relacin es una relacin de equivalencia (Ejercicio 2). Se denota por K nn /
al conjunto de todas las clases de equivalencia bajo esta relacin.
Sea V un K-espacio vectorial de dimensin finita. Si T L(V ) y A es la matriz de T respecto
de alguna base, el siguiente teorema establece que la funcin L(V ) K dim V dim V / dada
por:
T 7 clase de equivalencia de A
est bien definida.
Corolario 4.6.8. Sea V un espacio vectorial de dimensin finita y sea T un operador lineal
sobre V .
1. Cualesquiera dos matrices que representan a T son semejantes. Adems, si y 0 son bases
para V , entonces [T ] = P [T ] 0 P 1 , donde P = [1V ] 0 .
2. Si A y B son matrices semejantes y A = [T ] para alguna base de V , entonces existe una
base 0 de V tal que B = [T ] 0 .
Demostracin. Se sigue del Teorema 4.6.6.
Ejemplo 4.6.9. Sea T : R[t]2 R[t]2 la transformacin lineal dada por: T (a+bt) = (ab)+2bt.
Sea 0 la base de R[t]2 dada por 0 = {v1 , v2 }, donde v1 = 1 y v2 = 1 t. Como T (v1 ) = v1 y
T (v2 ) = 2v2 , se tiene


1 0
D = [T ] 0 =
.
0 2

4.6. Matrices asociadas a la misma transformacin lineal

131

Si A es la matriz de T en la base cannica, entonces A = P DP 1 , donde




1
1
P = [1R[t]2 ] 0 =
0 1
Ejemplo 4.6.10.

2
4

0
A=
1

1
1

Sean A y P las siguientes matrices:

2 1 0 0
0 0
1 0 0
0 8
0 2 1 0
0 0
4 0 0
0 8

0 0 0 0 1 1
0 2 0 1
1

y
P =
0 0
0 0 5
0
1
1 0 0 1

1 0 0 0
1 0
0 1 0
4
0
1 0 0 0
0 0
0 0 0
0
4

Sean T : R6 R6 la transformacin lineal inducida por la matriz A, y 0 = {v1 , . . . , vn }, donde


vi es la columna i de la matriz P . Como det(P ) = 1 6= 0, 0 es una base de R6 . Puesto que
T (v1 ) = 2v1 , T (v2 ) = v1 + 2v2 , T (v3 ) = v2 + 2v3 T (v4 ) = 5v4 , T (v5 ) = 3v5 , T (v6 ) = v5 + 3v6 , la
matriz de T respecto de la base 0 es

2 1 0 0 0 0
0 2 1 0 0 0

0 0 2 0 0 0
.

J = [T ] 0 =

0 0 0 5 0 0
0 0 0 0 3 1
0 0 0 0 0 3
Si es la base cannica de R6 , entonces A = P JP 1 .
Observacin 4.6.11. De todas las matrices que representan a una transformacin lineal T ,
es deseable (y recomendable) escoger una matriz que sea particularmente simple. En el Ejemplo 4.6.7 fue posible escoger una pareja de bases de tal manera que la matriz asociada fuera
diagonal. En el caso del operador lineal del Ejemplo 4.6.9, la matriz asociada result diagonal.
En el Ejemplo 4.6.10 la matriz asociada con el operador lineal no fue diagonal, pero s muy
cercana a una matriz diagonal. En el Captulo ??, se estudiarn:
La teora de diagonalizacin. Bajo ciertas condiciones una matriz cuadrada A es semejante
a una matriz diagonal D (Seccin ??).
La descomposicin en valores singulares. Cualquier matriz A de m n, ya sea real o compleja, es equivalente a una matriz , tal que ij = 0 si i 6= j (Seccin ??).
La descomposicin de Jordan. Cualquier matriz A Cnn es semejante a una matriz J
casi diagonal, es decir Jik = 0 si i < k o k > i + 1 (Seccin ??).
Terminamos esta seccin con el concepto de determinante de un operador lineal.
Es un ejercicio demostrar que si A y B son matrices semejantes, entonces det(A) = det(B).
Usando esto y el Corolario 4.6.8, podemos definir el determinante de un operador lineal.
Definicin 4.6.12. Sean V un espacio vectorial de dimensin finita y T un operador lineal
sobre V . Entonces, el determinante de T , denotado por det(T ), es el determinante de la matriz
[T ] para cualquier base de V .
Ejemplo 4.6.13. Calcule el determinante del operador lineal T : R[t]2 R[t]2 dado por T (a +
bt) = (a b) + (a + 2b)t.


1 1
Considrese la base = {1, t}. La matriz de T en la base es
y por lo tanto su
1
2
determinante es 3. Observe
se toma la base 0 = {1 + t, 1 t}, entonces la matriz de T
 que si 
respecto a esta base es

3
2
3
2

1
2
3
2

. El determinante es el mismo.

132

4. Transformaciones lineales y matrices

Ejemplo 4.6.14. Hallar el determinante del operador lineal F : R22 R22 dado por F (A) =
3A 2AT para toda A R22 .
22
Lo primero
seleccionar
 es 
 unabase para
 R . Por facilidad

consideremos la base cannica
1 0
0 1
0 0
0 0
= {e11 =
, e12 =
, e21 =
, e22 =
}. Entonces:
0 0
0 0
1 0
0 1
F (e11 )

= e11 = 1e11 + 0e12 + 0e21 + 0e22




0 3
F (e12 ) =
= 0e11 + 3e12 2e21 + 0e22
2 0


0 2
F (e21 ) =
= 0e11 2e12 + 3e21 + 0e22
3
0
F (e22 )

= e22 = 0e11 + 0e12 + 0e21 + 1e22 .

Se sigue que:

[F ]

1
0

0
0

0
0 0
3 2 0
.
2
3 0
0
0 1

Por lo tanto, det(F ) = det([F ] ) = 5.

4.6.1.

Ejercicios

1. Pruebe que la equivalencia de matrices es una relacin de equivalencia en el conjunto K mn .


Ms precisamente, pruebe que:
a) A A;
b) si A B, entonces B A;
c) si A B y B C, entonces A C.
Si A K mn , pruebe que la clase de equivalencia de A es:
{P AQ | P, Q son matrices invertibles de m m y n n, respectivamente}.
2. Pruebe que la semejanza de matrices es una relacin de equivalencia en el conjunto K nn .
Cul es la clase de equivalencia de una matriz A?
  

x1
x2
2
3. Sea T el operador lineal sobre R dado por T
=
. Sea una base arbitraria
x2
x1


a11 a12
de R2 y suponga que [T ] =
. Demuestre que a12 a21 6= 0.
a21 a22


2 1
4. Sean P =
y la base cannica de R2 .
7
4
a) Halle una base 0 de R2 de tal manera que P sea la matriz cambio de base de la base a
la base 0 .
b) Sea T : R2 R2 la tansformacin lineal dada por:
  

x
15x 8y
T
=
.
y
28x 15y
Encuentre una matriz que sea semejante a la matriz [T ] . (Escriba dicha matriz explcitamente).

4.6. Matrices asociadas a la misma transformacin lineal

133

5. Sea V un espacio vectorial real de dimensin finita y sea T un operador lineal sobre V . Si A es
la matriz que representa a T en alguna base y se cumple la relacin 8A3 16A2 +5A+3I = 0,
pruebe que T es un isomorfismo.


8 1 1
6. Sea T : R3 R2 la transformacin lineal dada por T (x) = Ax, donde A =
.
3
0 1


1 1
1
La matriz B =
es equivalente a la matriz A, de hecho A = P BQ, donde
1 2 1



1 1 1
3 5
1
1 . Calcule bases 1 y 10 para R3 y R2 , respectivamente
P =
yQ= 0
1 2
0
0 1
tales que B = [T ]1 10 . Por comprobacin directa verifique que efectivamente B = [T ]1 10 .



1 1
0
2
5
1 .
En caso de necesitarlo, P 1 =
y Q1 = 0 1
1
3
0 0 1


5
8
2
7. Sea T el operador lineal sobre R dado por T (x) = Ax, donde A =
. La
3 5


1 1
matriz B =
es semejante con la matriz A, de hecho, A = P BP 1 , donde
0
1


2 3
P =
. Calcule una base 0 para R2 de tal manera que B = [T ] 0 .
1
2
8. Sea V un espacio vectorial de dimensin finita y sea = {v
1 , v2 } unabase para V . Sea
2 1
T un operador lineal sobre V tal que [T ] = A, donde A =
. La matriz B =
4
3 



41 24
2 1
es semejante con A, de hecho A = P BP 1 , donde P =
. Calcule
79
46
7 4
una base 0 para V de tal manera que [T ] 0 = B. La base 0 debe expresarse en trminos de
la base .
9. Sean = {v1 , . . . , vn } y 0 = {w1 , . . . , wn } bases para Rn . Sean A = [v1 | . . . | vn ] y
B = [w1 | . . . | wn ]. Demuestre que la matriz P = B 1 A es la matriz cambio de base de la
base a la base 0 .
T

2
10. Sean = {(1, 1) , (1, 1) } y 0 = {1, 1 + t} bases para los 
espacios
 R y R[t]2 , respecti3 4
vamente. Sea T : R2 R[t]2 la funcin lineal tal que [T ] 0 =
= A.
2 3

a) Encuentre una funcin lineal F : R[t]2 R2 tal que:




3 4
[F ] 0 = A1 =
.
2
3
b) Verifique que F es la inversa de la funcin T .
11. Sea B C22 . Demuestre que el determinante del operador lineal T : C22 C22 dado
por T (A) = AB BA, es cero.
12. Considere a los nmeros complejos C como un espacio vectorial sobre el campo de los nmeros
reales. Sea C y sea T : C C el operador lineal dado por T (z) = z. Calcule el
determinante de T .
13. Sea V un K-espacio vectorial de dimensin finita y sean S y T operadores lineales sobre V .
Demuestre que existen bases y 0 de V tales que [S] = [T ] 0 si y slo si existe un operador
lineal invertible U sobre V tal que T = U S U 1 .

134

4. Transformaciones lineales y matrices

4.7.

Operadores diagonalizables

En diferentes reas de las Matemticas, Fsica, Ingeniera o incluso Biologa, el anlisis de un


determinado problema puede requerir calcular las potencias de una cierta matriz y determinar
si stas convergen a un
la matriz es diagonal, 
este problema es muy sencillo.
 lmite. Cuando

1
0
n1
0
n
Por ejemplo si D =
, entonces D =
para todo entero positivo n.
0 2
0 n2
Si A no es diagonal, perose puede
 escribir en trminos de una matriz diagonal, por ejemplo
1 1
1
A = P DP , donde P =
, entonces:
1 2
n

A = PD P


=

2 n1 n2
2 n1 2 n2

n1 + n2
n1 + 2 n2


.

Si las sucesiones {n1 } y {n2 } de nmeros convergen, digamos lm n1 = 1 y lm n2 = 0, enn


n
tonces


2 1
lm An =
.
2 1
n
Cuando una matriz A se puede escribir de la forma A = P DP 1 con D una matriz diagonal, A
recibe un nombre especial.
Definicin 4.7.1.
1. Un operador lineal T sobre un espacio de dimensin finita V es diagonalizable, si existe una
base para V tal que [T ] es diagonal. En este caso se dice que la base diagonaliza al
operador T .
2. Una matriz cuadrada A es diagonalizable si la transformacin lineal TA inducida por A es
diagonalizable.
El operador lineal T : R[t]2 R[t]2 dado por T (a + bt) = (a 2b) bt es diagonalizable, pues
la matriz de T en la base 0 = {1, 1 + t} es diagonal:


1
0
[T ] 0 =
.
0 1


1
0

2
1


1
1
1
0

0
1



Observe que si = {1, t}, entonces [T ] =





donde [1R[t]2 ] 0 =

1
0

1
0

2
1

1
1


=

1
0

y tambin:
1
0

1
1


,

(vase el Corolario 4.6.8).

Ejemplo 4.7.2. Considere el operador lineal sobre R2 dado por:


  

x
7x 15y
T
=
.
y
6x + 12y

2 0
Pruebe que T es diagonalizable, encontrando una base tal que [T ] =
. Encuentre
0 3
1
tambin una matriz P tal que [T ] 0 = P [T ] P , donde es la base cannica de R2 .
0

4.7. Operadores diagonalizables

135

Solucin. Supongamos que la base pedida es 0 = {w1 , w2 }. Puesto que [T ] 0 = diag(2, 3),
entonces:
T (w1 )

2w1 + 0w2 ,

T (w2 )

0w1 + 3w2 .

Se sigue entonces que [T ] w1 = 2w1 y [T ] w2 = 3w2 (ya que por el Teorema 4.4.1 [T ] w1 =
[T ] [w1 ] = [T (w1 )] = T (w1 ) y [T ] w2 = [T ] [w2 ] = [T (w2 )] = T (w2 )), donde [T ] =
7 15
6 12 . Luego, podemos escribir las ecuaciones anteriores en la forma ([T ] 2I)w1 = 0 y
([T ] 3I)w2 = 0. As, el problema se reduce al clculo de dos espacios nulos. Despus de
realizar los clculos obtenemos que

 

5/3
5
N ([T ] 2I) =
=
,
1
3

 

3/2
3
N ([T ] 3I) =
=
.
1
2
 5

3
Por lo tanto, una base con la caracterstica pedida es 0 =
por el
3 , 2
 . Finalmente,

2
3
1
Corolario 4.6.8, tenemos que [T ] 0 = P [T ] P
donde P = [1R2 ] 0 =
.
3 5
Teorema 4.7.3. Sea T un operador lineal sobre un espacio V de dimensin finita. T es diagonalizable si y slo si existe una base = {v1 , . . . , vn } de V y escalares 1 , . . . , n , tales que
T (vj ) = j vj para j = 1, . . . , n.
Demostracin. Supongamos que T es diagonalizable. Entonces existe una base de V , digamos
= {v1 , . . . , vn }, tal que [T ] es diagonal. Supongamos que [T ] = diag(1 , . . . , n ). Entonces,
T (vj ) = j vj para cada j = 1, . . . , n.
Recprocamente, si existe una base = {v1 , . . . , vn } de V y escalares 1 , . . . , n , tales que
T (vj ) = j vj para cada j = 1, . . . , n, entonces [T ] = diag(1 , . . . , n ), es decir, [T ] es diagonal
y por lo tanto T es diagonalizable.
El siguiente corolario dice que la Definicin 4.7.1 (2) se reescribe como sigue: A es diagonalizable si y solamente si existe una matriz invertible P y una matriz diagonal D tal que
A = P DP 1 .
Corolario 4.7.4. Una matriz A de nn es diagonalizable si y slo si existe una matriz invertible
P tal que P 1 AP es una matriz diagonal.
Demostracin. Sea A K nn . Si A es diagonalizable, entonces TA : K n K n es diagonalizable.
Luego, segn el teorema anterior, existe una base 0 de K n y escalares 1 , . . . , n tales que
[TA ] 0 = diag(1 , . . . , n ). Por el Corolario 4.6.8, si es la base cannica de K n , tenemos
que [TA ] = P [TA ] 0 P 1 donde P = [1K n ] 0 . Como [TA ] = A, se sigue que P 1 AP =
diag(1 , . . . , n ).
Recprocamente, supongamos que P es una matriz invertible tal que P 1 AP es una matriz
diagonal, digamos P 1 AP = diag(1 , . . . , n ). Sea la base cannica de K n . Como A = [TA ] ,
el Corolario 4.6.8 implica que existe una base 0 = {v1 , . . . , vn } de K n tal que diag(1 , . . . , n ) =
[TA ] 0 , es decir, TA (vi ) = i vi para i = 1, 2, . . . , n. Luego, TA es diagonalizable por el teorema
anterior, y por lo tanto A tambin es diagonalizable.

4.7.1.

Ejercicios

1. Sea T el operador lineal sobre R2 dado por



 

x
7x 15y
T
=
.
y
6x + 12y

136

4. Transformaciones lineales y matrices

[T ] 0


2 0
. Encuentre tambin una matriz P tal que
0 3
= P [T ] P 1 . Concluya que T es diagonalizable.

Encuentre una base 0 tal que [T ] 0 =

2. Determine si el operador lineal dado es diagonalizable o no. En caso de serlo, encuentre


nmeros reales 1 y 2 , y vectores v1 y v2 tales que T (vi ) = i vi para i = 1, 2.


+ a+b
t.
a) T es el operador lineal sobre R[t]2 dado por T (a + bt) = a+b
2
2


1 6
b) T es el operador lineal sobre R2 inducido por la matriz A =
.
2 6
  

x
2x y
c) T : R2 R2 est dado por T
=
.
y
x+y

4.8.

El espacio dual

Sea V un K-espacio vectorial. Un funcional lineal sobre V es una funcin lineal de V en K.


De acuerdo con el Teorema 4.1.7, el conjunto de todas las funcionales lineales L(V, K) es un
espacio vectorial, llamado espacio dual de V y denotado por V .
Ejemplos 4.8.1.
x1

1. La proyeccin sobre la primera coordenada 1 : K n K dada por

..
.

= x1 es un

xn

funcional lineal. De hecho, para cada i, 1 i n, la proyeccin i : K n K sobre la i-sima


coordenada es un funcional lineal sobre K n .
2. La funcin traza tr : K nn K es un funcional lineal sobre K nn .
3. Sea V = C([a, b], R) el espacio de todas las funciones reales continuas en el intervalo [a, b].
Rb
La funcin L : V R dada por L(f ) = a f (x)dx es un funcional lineal sobre V .
Ejemplo 4.8.2. Sea = {v1 , v2 } una base de R2 , y sean v1 , v2 : R2 R2 las nicas transformaciones lineales tales que:
v1 (v1 ) = 1, v1 (v2 )=0,
v2 (v1 ) = 0, v2 (v2 )=1.
Veamos que = {v1 , v2 } es una base para el espacio dual de R2 . Observe que si v = x1 v1 +x2 v2 ,
entonces:
v1 (v) = v1 (x1 v1 + x2 v2 ) = x1 v1 (v1 ) + x2 v1 (v2 ) = x1 .
Anlogamente v2 (v) = x2 .
Ahora bien, sea f : R2 R una funcin lineal, es decir, sea f (R2 ) . Sean a1 = f (v1 ) y
a2 = f (v2 ). Entonces:
f (v) = f (x1 v1 + x2 v2 ) = x1 f (v1 ) + x2 f (v2 ) = v1 (v)a1 + v2 (v2 )a2
= a1 v1 (v) + a2 v2 (v) = (a1 v1 )(v) + (a2 v2 )(v) = (a1 v1 + a2 v2 )(v)
Esto muestra que f = a1 v1 + a2 v2 . En otras palabras, genera a (R2 ) . Supongamos ahora
que c1 , c2 son escalares tales que c1 v1 + c2 v2 = 0. En particular:
0 = (c1 v1 + c2 v2 )(v1 ) = c1 v1 (v1 ) + c2 v2 (c2 ) = c1 .
Anlogamente c2 = 0. Se concluye que es una base para el espacio dual.

4.8. El espacio dual

137

Teorema 4.8.3. Si V es un K-espacio vectorial de dimensin finita, entonces el espacio dual


V tambin es de dimensin finita y dim V = dim V .
Demostracin. Sea = {v1 , . . . , vn } una base de V . Para cada i, 1 i n sea vi : V K el
nico funcional lineal sobre V (Teorema 4.1.4) tal que:
vi (vj ) = ij ,

para j = 1, . . . , n.

Veamos que es una base para el espacio dual. Si v V y v = x1 v1 + + xn vn , entonces:

n
n
n
X
X
X
vi (v) = vi
x j vj =
xj vi (vj ) =
xj ij = xi ii = xi .
j=1

j=1

j=1

De esta manera podemos escribir v = v1 (v)v1 + + vn (v)vn . Sea f V y sea ai = f (v1 ),


1 i n. Para cualquier v V ,
!
n
n
n
n
X
X
X
X

f (v) = f
vi (v)vi =
vi (v)f (vi ) =
vi (v)ai =
ai vi (v)
i=1

n
X

i=1

(ai vi )(v) =

i=1

i=1

i=1

!
n
X

(ai vi ) (v).
i=1

Luego f = a1 v1 + + an vn . Veamos ahora que es linealmente independiente. Consideremos


la combinacin lineal c1 v1 + + cn vn = 0. Entonces:
!
n
n
n
X
X
X

0=
ci vi (vj ) =
ci vi (vj ) =
ci ij = cj jj = cj .
i=1

i=1

i=1

Esto prueba que es una base para V . Adems dim V = n = dim V .


La base inducida por la base es la base dual de la base .
Definicin 4.8.4. Sea V un K-espacio vectorial y sea S un subconjunto de V . Se dice que un
funcional lineal f anula a S si f (v) = 0 para todo v S. El conjunto:
S 0 = {f V | f anula a S}
es el anulador de S.
Si f, g S 0 , y v S, (f +g)(v) = f (v)+g(v) = 0. Si c es un escalar, (cf )(v) = cf (v) = c0 = 0.
Esto muestra que el anulador de S es un subespacio vectorial del espacio dual, independientemente de que S sea o no un subespacio de V . De la definicin es inmediato que {0}0 = V y
V 0 = {0}.
T

Ejemplo 4.8.5. Consideremos R4 y sea S = {s1 , s2 }, donde s1 = (1, 1, 1, 1) y s2 =


T
(1, 1, 1, 1) . El funcional lineal f : R4 R dado por f (x) = x1 + x2 x3 x4 anula a S:
f (s1 ) = 1 + (1) 1 (1) = 0 = 1 + 1 1 1 = f (s2 ),
es decir f S 0 . A continuacin describiremos todos los elementos de S 0 .
Consideremos en R4 la base cannica, es decir, la formada por los vectores unitarios e1 , e2 ,
e3 , e4 . Entonces s1 = e1 e2 + e3 e4 , s2 = e1 + e2 + e3 + e4 . Por definicin, f S 0 si y slo si
f (s1 ) = f (s2 ) = 0, es decir, si y slo si:
0 = f (s1 ) = f (e1 e2 + e3 e4 ) = f (e1 ) f (e2 ) + f (e3 ) f (e4 ),
0 = f (s2 ) = f (e1 + e2 + e3 + e4 ) = f (e1 ) + f (e2 ) + f (e3 ) + f (e4 ),

138

4. Transformaciones lineales y matrices

Resolviendo el sistema de ecuaciones lineales homogneo se tiene que f (e1 ) = f (e3 ), f (e2 ) =
P4
f (e4 ). Si x R4 , x = i=1 xi ei . Se sigue que f S 0 si y slo si:
f (x)

x1 f (e1 ) + x2 f (e2 ) + x3 f (e3 ) + x4 f (e4 )

(x1 + x3 )f (e3 ) + (x2 + x4 )f (e4 ).

Se sigue que S 0 = {fr,s | r, s R}, donde fr,s es la funcional lineal dada por fr,s (x) =
(x1 + x3 )r + (x2 + x4 )s.
Del ejemplo se observa que dim R4 = dimh{s1 , s2 }i + dim S 0 . Esto sucede en general, como
lo muestra el siguiente teorema.
Teorema 4.8.6. Si V es un espacio vectorial de dimensin finita y W es un subespacio de V ,
entonces:
dim V = dim W + dim W 0 .
Demostracin. Si W = {0}, entonces W 0 = V y de acuerdo con el Teorema 4.8.3 se tiene el
resultado. Supongamos entonces que W no es el espacio cero y sea {v1 , . . . , vr } una base de W .
Sean vr+1 , . . . , vn tales que = {v1 , . . . , vn } es una base de V . Sea la base dual de . Sea
f W 0 y sean x1 , . . . , xn tales que f = x1 v1 + + xn vn . Como f W 0 , f (vj ) = 0 para
1 j r. Luego para j = 1, . . . , r:
!
n
n
n
X
X
X

xi ij = xj jj = xj .
xi vi (vj ) =
0 = f (vj ) =
xi vi (vj ) =
i=1

i=1

i=1

Entonces f = xr+1 vr+1


+ + xn vn . Ahora bien, si i > r y j {1, . . . , r}, vi (vj ) = ij = 0.
Como vi anula a los elementos de la base de W , anula a cada elemento de W , de aqu que

vi W 0 , r + 1 i n. Se sigue que {vr+1


, . . . , vn } es una base para W 0 . As dim W 0 = n r =
dim V dim W .

4.8.1.

Ejercicios

1. Para cada una de las siguientes funciones sobre un espacio vectorial V , determine cules son
funcionales lineales.
a) V = R[t], f (p) = 2p0 (0) + p00 (1) donde p0 (t) denota la derivada de p(t).
   
x
2x
b) V = R2 , f
=
.
y
4y
c) V = R22 , f (A) = a11 donde A = (aij ).
2. Para cada espacio vectorial V con base , determine la base dual para V .

1
0
1
a) V = R3 , = 0 , 2 , 0 .

1
1
1
b) V = R[t]3 , = {1, t, t2 }.
3. Sea V = R3 y defina:

x
f1 y = x 2y,
z

x
f2 y = x + y + z,
z

x
f3 = y = y 3z.
z

Demuestre que = {f1 , f2 , f3 } es una base para V y determine una base para V cuya base
dual sea .

4.8. El espacio dual

139

4. Dado un espacio vectorial V , se define el doble dual V de V como el dual de V .


Sea V un K-espacio vectorial de dimensin finita. Este ejercicio pretende demostrar que V
se puede identificar de una manera natural con su doble dual V .
a) Para cada v V , se define v : V K dada por v(f ) = f (v) para cada f V .
Demuestre que v es un funcional lineal sobre V , es decir, v V .
b) Sea v V . Demuestre que si v(f ) = 0 para todo f V , entonces v = 0.
c) Demuestre que la funcin : V V dada por (v) = v es un isomorfismo.
5. Sea V un espacio vectorial de dimensin finita con espacio dual V . Demuestre que cada base
ordenada de V es la base dual de alguna base de V .
6. Sea V un espacio vectorial de dimensin finita y sea S un subconjunto de V .
a) Si W es un subespacio de V y v 6 W , demuestre que existe f W 0 tal que f (v) 6= 0.
b) Demuestre que (S 0 )0 = h(S)i, donde es el isomorfismo del ejercicio 4.
c) Si W1 y W2 son subespacios de V , demuestre que W1 = W2 si y slo si W10 = W20 .
d) Si W1 y W2 son subespacios de V , demuestre que (W1 + W2 )0 = W10 W20 .

140

4. Transformaciones lineales y matrices

APNDICE

Campos

En este Apndice se da la definicin de campo, algunos ejemplos y las propiedades bsicas


comunes a los campos. Tambin se establece la definicn de caracterstca de un campo.

A.1.

Definicin y propiedades bsicas

Definicin A.1.1. Un campo K es un conjunto con dos operaciones + y


+: K K K

: K K K

(x, y) 7 x + y,

(x, y) 7 x y

llamadas respectivamente suma y multiplicacin las cuales satisfacen:


1. (K, +) es un grupo abeliano. Es decir,
a) La suma es conmutativa: x + y = y + x para todo x, y K.
b) La suma es asociativa: (x + y) + z = x + (y + z) para todo x, y, z K.
c) Existe un elemento neutro para la suma: Existe un elemento 0 K tal que x + 0 = x para
todo x K.
d) Existen los inversos aditivos: Dado x K, existe un y K tal que x + y = 0.
2. (K, ) es un grupo abeliano:
a) La multiplicacin es conmutativa: x y = y x para todo x, y K.
b) La multiplicacin es asociativa: (x y) z = x (y z) para todo x, y, z K.
c) Existe un elemento neutro para la multiplicacin: Existe un elemento 1 K tal que
x 1 = x para todo x K.
d) Existen los inversos multiplicativos: Dado x K \ {0}, existe un y K tal que x y = 1
3. La multiplicacin se distribuye sobre la suma: x (y + z) = x y + x z para todo x, y, z K.
Los elementos de K se denominan escalares.
141

142

A. Campos

Tanto el neutro aditivo como el multiplicativo son nicos. Por ejemplo, si 0 y 00 son dos neutros
aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x y. Tambin los
inversos aditivo y multiplicativo son nicos. Si y, y 0 dos inversos aditivos para el elemento x, se
tiene y = y + 0 = y + (x + y 0 ) = (y + x) + y 0 = 0 + y 0 = y 0 . El inverso aditivo de x K se denota
por x. El inverso multiplicativo de x K se denota por x1 .
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos de un
campo K, escribiremos x y en vez de x + (y), Tambin se acostumbra escribir xy en vez de
xy 1 . Si 0 6= x K, y n es un entero positivo, nx denota la suma x + + x (n sumandos) y
xn denota el producto a a (n factores). Si n es negativo, nx denota (n)(x) y xn denota
(x1 )n . Finalmente, 0x = 0 y x0 = 1.
Ejemplo A.1.2. El anillo de los enteros Z no es campo. Por ejemplo, no existe ningn entero
y tal que 3y = 1.
Ejemplos A.1.3. Con las operaciones usuales de suma y multiplicacin de nmeros complejos,
cada uno de los siguientes subconjuntos de C es un campo:
1. Los nmeros racionales Q.
2. Los nmeros reales R.
3. Los nmeros complejos C.

4. El conjunto Q( 2) = {a + b 2 | a, b Q}.

Probablemente los tres primeros ejemplos son familiares al lector. Veamos que K = Q( 2) es
un campo. K es cerrado bajo la suma y la multiplicacin:

(a + b 2) + (c + d 2) = (a + c) + (b + d) 2,

(a + b 2)(c + d 2) = (ac + 2bd) + (ad + bc) 2.

El inverso
aditivo de

a + b 2 K es a b 2 y pertenece a K. El inverso multiplicativo de


a + b 2 K, a + b 2 6= 0, tambin es un elemento de K:

a
b
1
ab 2
ab 2
1
=

= 2
= 2
2
2.
2
2
2
a 2b
a 2b
a 2b
a+b 2
a+b 2ab 2

De hecho
si D es un nmero racional que no es un cuadrado perfecto
en Q, el conjunto Q( D) =
{a + b D | a, b Q} C es un campo. De esta manera, Q(i), Q( 2) son ejemplos de campos.
Ejemplo A.1.4. Sea p > 0 un nmero primo. El conjunto Fp = {0, 1, . . . , p 1} de los enteros
mdulo p es un campo con las operaciones de suma y multiplicacin mdulo p, es decir, a+b = c
en Fp si a + b c m
od p y ab = c en Fp si ab c mod p. Si p = 5, Fp = {0, 1, 2, 3, 4} y
+
0
1
2
3
4

0
0
1
2
3
4

1
1
2
3
4
0

2
2
3
4
0
1

3
3
4
0
1
2

4
4
0
1
2
3

0
1
2
3
4

0
0
0
0
0
0

1
0
1
2
3
4

2
0
2
4
1
3

3
0
3
1
4
2

4
0
4
3
2
1

A.1. Definicin y propiedades bsicas

143

Ejemplo A.1.5. Sea F = {0, 1, , } junto con las operaciones de suma y multiplicacin dadas
por
0
0
1

+
0
1

1
1
0

0
1

1
0

0
1

0
0
0
0
0

1
0
1

Se deja al lector comprobar que F es un campo.


Ejemplo A.1.6. Sea K un campo y t una variable. Sea K[t] conjunto de todos los polinomios
en la variable t con coeficientes en K. El conjunto


a(t)
K(t) =
| a(t), b(t) K[t], b(t) 6= 0
b(t)
es un campo con la suma y multiplicacin dadas por
c(t)
a(t)d(t) + b(t)c(t)
a(t)
+
=
,
b(t)
d(t)
b(t)d(t)
a(t)c(t)
a(t) c(t)
=
.
b(t) d(t)
b(t)d(t)
Este campo se denomina el campo de las funciones racionales.
Las propiedades bsicas de los campos se resumen en la siguiente proposicin.
Proposicin A.1.7. Si K es un campo, entonces:
a) Si K es un campo, son vlidas las leyes de cancelacin para la suma y la multiplicacin:
i) Si x + y = x + z, entonces y = z.
ii) Si xy = xz, con x 6= 0, entonces y = z.
b) (x) = x.
c) Si x 6= 0, (x1 )1 = x.
d) 0a = 0.
e) Si xy = 0, entonces x = 0 o y = 0.
f ) (x)y = (xy) = x(y).
g) (x)(y) = xy.
Demostracin. Si x, y, z K y x + y = x + z, entonces:
y = y + 0 = y + (x + (x)) = (y + x) + (x)
= (y + x) + (x) = y + (x + (x)) = z + 0 = z.
La segunda parte del inciso a) es similar. Como:
(x) + x = 0 = (x) + ((x)),
se sigue que x = (x). La prueba de c) es similar. Observe que:
0 + 0a = 0a = (0 + 0)a = 0a + 0a.

144

A. Campos

Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces:
0 = x1 0 = x1 (xy) = (xx1 )y = 1y = y.
Esto prueba e). Para probar g), note que:
(x)y + xy = ((x) + x)y = 0y = 0.
Luego (xy) = (x)y. De manera anloga se prueba que (xy) = x(y). La prueba del inciso
g) se deja al lector.

A.2.

La caracterstica de un campo

Si K es un campo, es posible sumar 1 consigo mismo un nmero finito de veces y obtener 0. Por
ejemplo, en el campo del ejemplo A.1.4, 1 + 1 + 1 + 1 + 1 = 0. Esto no sucede en el campo de
los nmeros complejos ni en ningn subcampo de l.
Definicin A.2.1. La caracterstica car(K) de un campo K es el menor entero positivo p tal
que p 1 = 0 si tal p existe, y 0 en cualquier otro caso.
Los campos Q, R, C tienen caracterstica cero. El campo F5 tiene caracterstica 5.
Proposicin A.2.2. La caracterstica de cualquier campo es 0 o es un nmero primo p.
Demostracin. Sea n = car(K). Supongamos que n 6= 0 y tampoco es un nmero primo. Escribamos n = ab con 1 < a, b < n. Por definicin de caracteristica a 1 6= 0 y b 1 6= 0. Por otro
lado:
(a 1)(b 1) = (1 + + 1)(1 + + 1) = (1 + + 1) = (ab) 1 = n 1 = 0.
| {z }
| {z } | {z }
a veces

b veces

ab veces

Esto es una contradiccin, pues en un campo, el producto de cualesquiera dos elementos distintos
de cero no es cero. Luego n = 0, o n es un nmero primo.
Ejemplo A.2.3. El campo del ejemplo A.1.5 es un campo de caracterstica 2.

APNDICE

Matrices

En este captulo se introduce la definicin de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicacin). Se probar que el conjunto de todas las matrices del
mismo tamao junto con la suma es un grupo abeliano; tambin se probara que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Tambin se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada,
matriz diagonal, matriz identidad, matriz triangular superior o inferior, etc). Tambin se introducen los conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz
invertible. Se presentan ejemplos de las diversas operaciones con matrices cuando estas estn
divididas en bloques.
Al final del captulo se estudia brevemente a las matrices elementales y a las operaciones
elementales de matrices.
A menos que se diga lo contrario, a lo largo de este captulo, K siempre denotar un campo
arbitrario.

B.1.

Definiciones bsicas

En esta seccin se introduce la definicin de matriz y las definiciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.

Definicin B.1.1. Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de
(tamao) m n es un arreglo rectangular de mn elementos de K ordenados en m renglones
(filas) horizontales y n columnas verticales encerrados entre parntesis o entre corchetes:
145

146

B. Matrices
columna j

A=

a11
a21

a12 . . . a1j . . . a1n


a22 . . . a2j . . . a2n

..
.
ai1

..
.
ai2

..
.

..
.

am1 am2

..
..
.
.
. . . aij

..
..
.
.
. . . ain

..
..
..
..
.
.
.
.
. . . amj . . . amn

rengln i

El i-simo rengln de A es:


Ai = ai1

ai2

aij


ain ,

(1 i m).

La j-sima columna de A es:

Aj

a1j
a2j

= . ,
..

(1 j n).

anj
La coleccin de todas las matrices de m n se denota por K mn . Otras notaciones para
el mismo fin son Mmn (K) o M atmn (K). Cuando la matriz tiene una sola columna se llama
vector columna; si slo tiene un rengln se denomina vector rengln. Se denotar con K n al
conjunto de todos los vectores columna, es decir K n = K n1 .
Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir
A = (aij )mn o simplemente A = (aij ) para indicar que el elemento en la entrada (i, j) es
aij . Tambin es frecuente usar la notacin [A]ij en vez de aij para denotar al elemento en la
entrada (i, j). Si [A]ij denota al elemento de A en la posicin (i, j), escribimos A = ([A]ij ). Si
A1 , . . . , An son las columnas de A, escribimos:
A = [A1 | . . . | An ].
Tambin se puede escribir:

A1

A = ... ,
Am
donde A1 , . . . , Am son los renglones de A.
Ejemplo B.1.2. Sea K el campo de los nmeros complejos. Las siguientes son matrices de
2 3, 2 2, 1 3 y 3 1, respectivamente.





10

3 2 i
1
3
A=
, B=
, C = 1 1 3 , D = 1 i .
1 + 2i 3
2
7 1
3i
La matriz C es un vector rengln, en tanto que D es un vector columna. El primer rengln y la
segunda columna de A son
 

2
A1 = 3 2 i , A2 =
.
1

B.1. Definiciones bsicas

147

respectivamente. El elemento que est en la posicin (2, 1) de la matriz B es 1 + 2i y se escribe:


[B]21 = 1 + 2i o tambin b21 = 1 + 2i.
Ejemplo SAGE B.1.3. En Sage hay varias formas de definir una matriz.
sage : # Se construyen tres matrices
sage : # Se ilustran algunos m todos de construcci n
sage : A = matrix ([ [ -1 ,3] , [4 ,8] ]); A # m todo 1
[ -1 3]
[ 4 8]
sage : B = matrix (2 , [8 ,4 ,1 ,3]); B # m todo 2
[8 4]
[1 3]
sage : # variante m todo 2
sage : C = matrix ( QQ , 2 , 2 , [1/2 , 1/3 , 1 , -1]); C
[1/2 1/3]
[ 1 -1]

En Sage QQ se refiere al conjunto de los nmeros racionales. Tambin es posible declarar el


espacio de todas las matrices de 2 2 con entradas racionales como sigue:
sage : M23 = MatrixSpace ( QQ ,2 ,3); M23
Full MatrixSpace of 2 by 3 dense matrices over Rational Field
sage : A = M23 ([1 , -1 ,2 ,3 , -4 ,5])
sage : A
[ 1 -1 2]
[ 3 -4 5]

Las columnas y renglones de A se obtienen con los comandos A.columns() y A.rows(), respectivamente.
sage : A . columns ()
[(1 , 3) , ( -1 , -4) , (2 , 5)]
sage : A . rows ()
[(1 , -1 , 2) , (3 , -4 , 5)]

Observe que Sage expresa las columnas de A en forma horizontal.


Para obtener un rengln en particular se usa el comando A.row(nmero de rengln) (El
primer rengln es el rengln cero)
sage : A . row (0)
(1 , -1 , 2)
sage : A . row (1)
(3 , -4 , 5)

La delta de Kronecker ij est definida como sigue:


(
1 si i = j,
ij =
0 si i 6= j.
Este smbolo es til para definir por ejemplo a la matriz de 3 3 que en las posiciones (i, i) es

148

B. Matrices

igual a 1 y es igual a cero en cualquier otra

11
I = (ij )33 = 21
31

posicin:
12
22
32


13
1
23 = 0
33
0

0
1
0

0
0 .
1

Los comandos matrix.identity(n) y identity_matrix(n) de Sage crean a la matriz identidad de n n. matrix.identity(n):


sage : matrix . identity (3)
[1 0 0]
[0 1 0]
[0 0 1]

Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.
Definicin B.1.4. 1) Una matriz A de m n es cuadrada si m = n, y decimos que A es una
matriz cuadrada de orden n. Los elementos a11 , a22 , . . . , ann forman la diagonal principal de
A.
2) Una matriz cuadrada D = (dij ) K nn es una matriz diagonal si dij = 0 para i 6= j. Si D
es una matriz diagonal, se escribe D = diag(d11 , . . . , dnn ).
3) La matriz identidad de n n denotada por In (o simplemente I) es la matriz I = (ij ), donde
ij es la delta de Kronecker.
4) Se dice que una matriz cuadrada U es triangular superior si [U ]ij = 0 cuando i > j, i.e., si
todas las entradas debajo de la diagonal principal son cero.
5) Una matriz cuadrada L es triangular inferior si [L]ij = 0 cuando i < j, i.e., cuando todas
las entradas arriba de la diagonal principal son cero.
6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula y se
denota con el smbolo 0.
Ejemplo B.1.5. Sea K el campo de los nmeros reales. Las matrices:



0
0
0
3 0
0 ,
D1 =
, D2 = 0 1
0
2
0
0 4
son matrices diagonales. Note que una matriz diagonal, es simultneamente una matriz triangular inferior y superior. Las siguientes matrices son triangulares.

3 1 7
3
0 0
U = 0 1 4 , L = 2 1 0 .
0
0 2
1
1 1
La primera es triangular superior y la segunda triangular inferior. Las siguientes matrices son
ejemplos de matrices identidad:



1 0 0
1 0
, 0 1 0 .
0 1
0 0 1
Finalmente, las siguientes son ejemplos de matrices nulas (o matrices cero):





0 0 0
0 0 0
0 0
,
, 0 0 0 .
0 0 0
0 0
0 0 0

B.2. El espacio vectorial de las matrices

B.2.

149

El espacio vectorial de las matrices

La matrices se pueden sumar y multiplicar por un escalar. Estas dos operaciones convierten
al conjunto de todas las matrices de m n es lo que se conoce como un espacio vectorial.
Definicin B.2.1 (Suma de matrices). Sean A, B K mn . La suma de A y B denotada por
A + B se obtiene sumando las correspondientes entradas de A y B:
[A + B]ij = [A]ij + [B]ij ,

1 i m, 1 j n.

Si A = (aij ), B = (bij ) y C = A + B, tambin se escribe cij = aij + bij .


Observacin B.2.2. Si las matrices A y B son de diferente tamao, la suma no est definida.
Ejemplo B.2.3. Si A, B Q23 son las matrices:





1 2 0
1
0 1 0
,
B
=
entonces
A
+
B
=
A=
1
1
1
1
0
0 0
2
2
2

1
1

Ejemplo B.2.4. Sea K = F5 . Si A, B K 23 son las matrices:







2 1 4
3 2 2
0
A=
, B=
entonces A + B =
1 0 3
3 1 2
4


1
.
0

3
1

0
1
2


.

El inverso aditivo de A, es la matriz denotada por A, cuyos entradas son los inversos
aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = (aij ), entonces
A = (aij ). Esto permite definir la sustraccin de la manera usual. Si A y B son matrices del
mismo tamao, la diferencia A B se define como la matriz A B = A + (B).

1
0
1
1 0 1
Ejemplo B.2.5. Si A = 1 2 2 , entonces A = 1 2 2 .
1 1 21
1 1 12
Definicin B.2.6. Dos matrices A y B son iguales si y slo si A y B son del mismo tamao y
aij = bij para todo i, j.
El siguiente teorema presenta las propiedades bsicas de la suma de matrices.
Teorema B.2.7. El conjunto K mn de todas las matrices de m n junto con la suma de
matrices es un grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A + B = B + A, para A, B K mn .
b) La suma es asociativa, es decir, A + (B + C) = (A + B) + C, para A, B, C K mn .
c) La matriz 0 es el neutro aditivo para la suma: A + 0 = A para cualquier matriz A.
d) Existencia de los inversos aditivos: A + (A) = 0 para A K mn .
Demostracin. Escribamos A = (aij ), B = (bij ) y C = (cij ).
Los elementos (i, j) de las matrices A + B y B + A son aij + bij y bij + aij , respectivamente.
Como aij + bij = bij + aij , entonces las matrices A + B y B + A son iguales. Esto prueba el
inciso a).
Los elementos (i, j) de las matrices A + (B + C) y (A + B) + C son aij + (bij + cij ) y
(aij + bij ) + cij , respectivamente. Como
aij + (bij + cij ) = (aij + bij ) + cij ,
se sigue que las matrices A + (B + C) y (A + B) + C son iguales.
Para el inciso c) basta observar que aij + 0 = aij para para cualquier para (i, j).
Finalmente, para cada (i, j) se tiene que aij + (aij ) = 0 as que A + (A) = 0.

150

B. Matrices
A continuacin se define la multiplicacin de una matriz por escalar.

Definicin B.2.8 (Multiplicacin por escalar). Sean c un escalar y A K mn una matriz.


La multiplicacin de c por A, denotada por cA est dada por [cA]ij = c[A]ij para 1 i m,
1 j n.


3 1
4
Ejemplo B.2.9. Si A =
, entonces:
1
3 5

2A =

6
2


2
8
,
6 10


3
1A =
1


1 4
,
3
5


0A

0
0

0
0


0
.
0

Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,

 
 

0 0 0
30 30 30
0 0 0
3
=
=
.
0 0 0
30 30 30
0 0 0
Las propiedades de la multiplicacin por escalar se resumen en el siguiente teorema.
Teorema B.2.10. Sean A, B matrices del mismo tamao y sean c1 , c2 escalares.
a) c(A + B) = cA + cB.
b) (c1 + c2 )A = c1 A + c2 A.
c) c1 (c2 A) = (c1 c2 )A.
d) 1 A = A.
e) (1)A = A.
f ) 0 A = 0.
g) c 0 = 0.
Demostracin. Usaremos la notacin [A]ij para denotar al elemento (i, j) de la matriz A. Las
pruebas se siguen directamente de la definicin. Por un lado, el elemento (i, j) de la matriz
c(A + B) es de acuerdo con la definicin c[A + B]ij ; por otro lado, el elemento (i, j) de la matriz
A + B es [A]ij + [B]ij . Entonces
[c(A + B)]ij = c[A + B]ij = c([A]ij + [B]ij ) = c[A]ij + c[B]ij = [cA]ij + [cB]ij
= [cA + cB]ij .
Esto prueba el inciso a). El inciso b) se prueba como sigue:
[(c1 + c2 )A]ij = (c1 + c2 )[A]ij = c1 [A]ij + c2 [A]ij = [c1 A]ij + [c2 A]ij
Las dems pruebas se dejan al lector.
Observacin B.2.11. El Teorema B.2.7 junto con las propiedades a)-d) del Teorema B.2.10
muestran que el conjunto de las matrices de m n junto con la suma de matrices y la multiplicacin por escalar es un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian
en los cursos de lgebra Lineal.
Ejemplo SAGE B.2.12. Las operaciones con matrices estudiadas en esta seccin se pueden
realizar con Sage.

B.3. El anillo de las matrices cuadradas

151

sage : M33 = MatrixSpace ( QQ ,3 ,3); M33


Full MatrixSpace of 3 by 3 dense matrices over Rational Field
sage : A = M33 . random_element (); B = M33 . random_element ()
sage : A , B
(
[
1
2
-2] [ 0 0 -2]
[ -1/2
2
-1] [ -2 -1 0]
[ 1/2
1
-2] , [ 2 0 -1]
)
sage : A + B
[
1
2
-4]
[ -5/2
1
-1]
[ 5/2
1
-3]
sage : 2* A
[ 2 4 -4]
[ -1 4 -2]
[ 1 2 -4]
sage : -5* B
[ 0
0 10]
[ 10
5
0]
[ -10
0
5]
sage : -A
[ -1
-2
2]
[ 1/2
-2
1]
[ -1/2
-1
2]

B.3.

El anillo de las matrices cuadradas

Las matrices se pueden multiplicar cuando stas tienen las dimensiones adecuadas.
Definicin B.3.1. Sean A K mn y B K nr . El producto de A por B (tambin llamado
multiplicacin) denotado por AB es la matriz de tamao m r cuyas entradas estn dadas por
[AB]ij =

n
X

[A]ik [B]kj ,

1 i m, 1 j r.

k=1

Si C = AB y se usa la notacin A = (aij ) y B = (bij ), entonces


cij =

n
X

aik bkj ,

1 i m, 1 j r.

k=1

Note que para poder efectuar la multiplicacin de A y B en ese orden, es necesario que el
nmero de columnas de A sea igual al nmero de renglones de B. De otra manera el producto
no est definido. Por ejemplo, si



b11 b12 b13 b14
a11 a12 a13
A=
y B = b21 b22 b23 b24
a21 a22 a23
b31 b32 b33 b34
el producto de A y B existe ya que el nmero de columnas de A coincide con el nmero de
renglones de B y AB ser una matriz de 2 4. La entrada (1, 1), (1, 2) y (2, 3) de la matriz AB

152

B. Matrices

son
[AB]11 =

3
X

a1k bk1 = a11 b11 + a12 b21 + a13 b31 ,

k=1

[AB]12 =

3
X

a1k bk2 = a11 b12 + a12 b22 + a13 b32 ,

k=1

[AB]23 =

3
X

a2k bk3 = a21 b13 + a22 b23 + a23 b33 .

k=1

Ejemplo B.3.2. Sea K el campo de los nmeros



1 2
0
0 2 1
1
0
A=
, B = 1
1
1 5
1
6 7

racionales.


1
3

2
AB =
5
1

4
7 3
29 35
8


.

Observamos que AB est definido, pero no BA, pues el nmero de columnas de B con coincide
con el nmero de renglones de A. An cuando estn definidos AB y BA, estos no necesariamente
son iguales:


 3
1 1
= 1,
4


 

3 3
3
1 1 =
.
4 4
4
Cuando el producto de dos matrices da como resultado una matriz de 1 1, usualmente no
escriben los parntesis ya que la matriz se identifica con el escalar.
Aun cuando A y B sean ambos del mismo tamao, no necesariamente AB = BA. Si ahora,








1 1
1 1
2 2
0 0
A=
,B=
= AB =
, BA =
.
1 1
1 1
2 2
0 0
Tambin es importante mencionar que las leyes de cancelacin no son validas cuando de
matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:


 
 


1 4
1 1
5 5
2 3
1 1
=
=
.
3 1
1 1
4 4
4 0
1 1
Observacin B.3.3. Es importante recalcar lo discutido en el ejemplo anterior.
1. El producto de matrices no es conmutativo.
2. En general no es cierto que si A 6= 0 y B 6= 0 y AB est definido, entonces AB 6= 0.
3. Las leyes de la cancelacin no son aplicables al producto de matrices, i.e., AC = BC o
CA = CB con C 6= 0 no necesariamente implica que A = B.
Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A2 , AAA = A3 , etc.
Haremos la convencin que A0 = I y A1 = A. Para n 0, definimos An+1 = A An .
En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido
el producto o la suma indicada.
Teorema B.3.4.
a) El producto de matrices es asociativo: A(BC) = (AB)C.

B.3. El anillo de las matrices cuadradas

153

b) El producto de matrices se distribuye con respecto a la suma:


A(B + C) = AB + AC,

Ley distributiva izquierda,

(A + B)C = AC + BC

Ley distributiva derecha.

c) Si A es de mn, entonces AInn = Imm A = A, donde Imm e Inn denotan a las matrices
identidad de m m y n n, respectivamente.
d) c(AB) = (aA)B = A(cB).
e) A0 = 0, 0A = 0.
f ) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene:
n

Am An = Am+n ,

(Am ) = Amn .

Demostracin. Haremos algunas prueba. Las dems se dejan de ejercicio al lector.


a) Supongamos que A K mn , B K nr y C K rs . Entonces:
!
n
r
n
X
X
X
[A]ik
[B]k` [C]`j
[A]ik [BC]kj =
[A(BC)]ij =
i=1

i=1

`=1

r
r X
n
n X
X
X
[A]ik [B]k` [C]`j =
[A]ik [B]k` [C]`j
=
`=1 i=1
r
X

i=1 `=1
r
n
X
X
=
[A]ik [B]k`
`=1

[C]`j =

i=1

[AB]i` [C]`j

`=1

= [(AB)C]ij .
Como para cualquier (i, j) se tiene la igualdad se concluye que A(BC) = (AB)C.
b) Supongamos ahora que A K mn y B, C K nr . Entonces
[A(B + C)]ij =
=

n
X

[A]ik [B + C]kj =

k=1
n
X

n
X

[A]ik ([B]kj + [C]kj )

k=1

([A]ik [B]kj + [A]ik [C]kj ) =

k=1

n
X

[A]ik [B]kj +

k=1

n
X

[A]ik [C]kj .

k=1

Luego A(B + C) = AB + AC.


c) Veamos que la matriz identidad es el neutro multiplicativo. Supongamos que A es de mn
e I es de n n. Recordando que [I]kj = 0 si k 6= j e [I]kj = 1 cuando k = j, se tiene
[AI]ij =

n
X

[A]ik [I]kj = [A]ij .

k=1

De manera anloga se muestra que IA = A.


d) Veamos que cAB = (cA)B:
[cAB]ij = c[AB]ij = c

n
X

[A]ik [B]kj =

k=1

= [(cA)B]ij .

n
X
k=1

(c[A]ik )[B]kj =

n
X

[cA]ik [B]kj

k=1

154

B. Matrices

Teorema B.3.5. El conjunto K nn de las matrices cuadradas de nn junto con las operaciones
de suma y producto de matrices es un anillo con unitario.
Demostracin. Que K nn es un anillo con elemento unitario se sigue del Teorema B.2.7 y de
los incisos a), b) y c) del Teorema B.3.4.
Observacin B.3.6. Si n > 1, en general K nn no es conmutativo. El siguiente ejemplo ilustra
que puede suceder AB 6= BA.


 



 

1 0
0 1
0 1
0 1
1 0
0 0
=
,
=
.
0 0
0 0
0 0,
0 0
0 0
0 0
Terminamos la seccin con algunas definiciones de matrices que tienen propiedades particulares.
Definicin B.3.7. a) Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algn
entero positivo k.
b) Una matriz cuadrada A es idempotente si A2 = A.

0 1 2
0 1 es nilpotente ya que
Ejemplo B.3.8. La matriz A = 0
0
0 0

0 0 1
0 0 0
0
A2 = 0 0
A3 = 0 0 0 .
0 0
0
0 0 0


1 1
Ejemplo B.3.9. La matriz A =
es idempotente, ya que:
0 0


 

1 1
1 1
1 1
A2 =
=
.
0 0
0 0
0 0

B.4.

La transpuesta de una matriz

Definicin B.4.1. Si A K mn , la transpuesta de A es la matriz AT de n m dada por:


[AT ]ij = [A]ji ,
Si x = a1

...

1 i n, 1 j m.

an es un vector rengln, entonces xT se convierte en un vector columna:

a1

xT = ... .
an
Recprocamente, si x es un vector columna, xT es un vector rengln.
De acuerdo con la definicin, las entradas en cada rengln de AT son las correspondientes
entradas en la columna de A, es decir, si A = [A1 | . . . | An ], entonces:
T
A1
..
T
A = . .
ATn

B.4. La transpuesta de una matriz

155

A1

Si A = ... , AT = [AT1 | . . . | ATm ].


Am
En cualquier caso:

a11
a12

AT = .
..

a21
a22
..
.

..
.

am1
am2

.. .
.

a1n

a2n

amn

Ejemplo B.4.2. Sea K el campo de los nmeros complejos. Considere las matrices:



3 2i
5
6
1 1 5

1+i
2
7
A=
, B=
.
8 3 2
1 + 2i 2 3i 1
Entonces:
[AT ]11 = 3 2i,
Las transpuestas de A y B son:

3 2i
AT = 5
6

[AT ]12 = 1 + i,

1 + i 1 + 2i
2
2 3i ,
7
1

[B T ]31 = 5.

1
B T = 1
5

8
3 ,
2

respectivamente.
Ejemplo SAGE B.4.3. El comando A.transpose() calcula la transpuesta de la matriz A.
sage : A = matrix (3 ,[3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i , 1]); A
[ -2* I + 3
-5
6]
[
I + 1
2
7]
[ 2* I + 1 -3* I + 2
1]
sage : A . transpose ()
[ -2* I + 3
I + 1 2* I + 1]
[
-5
2 -3* I + 2]
[
6
7
1]
sage : B = matrix (2 , [1 , -1 ,5 ,8 , -3 ,2]); B
[ 1 -1 5]
[ 8 -3 2]
sage : B . transpose ()
[ 1 8]
[ -1 -3]
[ 5 2]

Las propiedas bsicas de la transpuesta son la siguientes.


Teorema B.4.4. a) (AT )T = A.
b) (A + B)T = AT + B T .
c) (cA)T = cAT .
d) (AB)T = B T AT .

156

B. Matrices

Demostracin. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A K mn y B K nr . Para cualquier 1 i m y 1 j r,
[(AB)T ]ij = [AB]ji =

n
X

[A]jk [B]ki =

k=1

n
X

n
X

[AT ]kj [B T ]ik

k=1

[B T ]ik [AT ]kj = [B T AT ]ij .

k=1

Esto prueba el inciso d).


Definicin B.4.5. Se dice que una matriz cuadrada A es simtrica si A = AT . Se dice que es
antisimtrica si A = AT .
Ejemplo B.4.6. Las matrices A y B a continuacin

7
2 1
1 2i 3 4i 5 i
1 ,
3i .
B = 3 4i 1 + i
A = 2 2
1
1 3
5i
3i
3
son simtricas; la matriz

0 10 13
0 1 .
C = 10
13
1
0
es antisimtrica.
Ejemplo B.4.7. Si A es una matriz de m n, entonces AT A y AAT son matrices simtricas.
En efecto:
(AT A)T = AT (AT )T = AT A.
De manera similar se prueba que AAT es simtrica.
La siguiente definicn se aplica nicamente cuando K es un subcampo del campo de los
nmeros complejos (Para fijar ideas el lector puede suponer que K = C).
Definicin B.4.8. Sea K un subcampo del campo de los nmeros complejos. Si A K mn , la
matriz conjugada de A es la matriz A de m n dada por:
[A]ij = [A]ij ,

1 i n, 1 j m.
T

La conjugada transpuesta de A es la matriz A = A , i.e.,


[A ]ij = [A]ji ,

1 i n, 1 j m.

Ejemplo B.4.9. Se tiene



2 + 4i
2 4i 1 i 2
=1+i
3
3 + 4i 0
2

3
3 4i .
0

Ejemplo SAGE B.4.10. La conjugada y la conjugada transpuesta de una matriz A se obtienen


con los comandos A.conjugate()) y A.conjugate_transpose(), respectivamente.

B.4. La transpuesta de una matriz

sage :
[ -2* I
[
I
[ 2* I
sage :
[ 2* I
[ -I
[ -2* I
sage :
[ 2* I
[
[

157

A = matrix (3 , [3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i ,1]); A


+ 3
-5
6]
+ 1
2
7]
+ 1 -3* I + 2
1]
A . conjugate ()
+ 3
-5
6]
+ 1
2
7]
+ 1 3* I + 2
1]
A . conjugate_transpose ()
+ 3
-I + 1 -2* I + 1]
-5
2 3* I + 2]
6
7
1]

Las propiedas bsicas de la transpuesta conjugada son la siguientes.


Teorema B.4.11. a) (A ) = A.
b) (A + B) = A + B .
c) (cA) = cA .
d) (AB) = B A .
Demostracin. La prueba se deja de ejercicio para el lector.
Definicin B.4.12. Se dice que una matriz cuadrada A Cnn es hermitiana si A = A . Se
dice que es anti-hermitiana si A = A .
Ejemplo B.4.13. Las siguientes matrices son hermitianas:



1
1 + i 3 + 4i
3
2i
1i
3
2 i ,
,
2+i
1
3 4i 2 + i
5
La matriz

i
A = 5 i
2 + i

5i
3i
2 + 3i

2+i
2 + 3i
4i

es una matriz antihermitiana. En efecto, se tiene

i
i+5
i + 2
3i 3i + 2 ,
A= i5
i 2 3i 2
4i

i
i 5 i 2
T
3i 3i 2 .
A = A = i + 5
i + 2 3i + 2
4i
Por lo tanto, A = A .
Con Sage:
sage : A = matrix (3 , [i , 5 -i , 2+ i , -5 -i , -3*i , 2+3* i ,
-2+i , -2+3* i ,4* i ])
sage : A == -A . conjugate_transpose ()
True

1
2
3

2
4
5

3
5 .
2

158

B. Matrices

Definicin B.4.14. Sean x y y vectores columna del mismo tamao, es decir, x, y K n .


Entonces el producto interno o interior de x y y es el escalar xT y, y el producto exterior de x y
y es la matriz de n n xy T .
 3
 1 
5
Ejemplo B.4.15. El producto interno y externo de los vectores x = 1 y y =
es:
2


1

xT y = 3 1 2 5 = 3(1) + (1)5 + (2)(2) = 4,
2

1
3 15
6

xy T = 5 3 1 2 = 1 5 2 ,
2
2 10
4
respectivamente.
En Sage se tienen los comandos x.inner_product(y) y x.outer_product(y) para calcular
los productos interno y externo de x y y.
sage : x = vector ([3 , -1 ,2]); y = vector ([ -1 ,5 ,2])
sage : x . inner_product ( y )
-4
sage : x . outer_product ( y )
[ -3 15 6]
[ 1 -5 -2]
[ -2 10 4]

Definicin B.4.16. Sea A K mn .


1. Una inversa izquierda de A es una matriz B K nm tal que BA = In .
2. Una inversa derecha de A es una matriz B K nm tal que AB = Im .
3. Suponga que A es una matriz cuadrada. Una matriz B es una inversa de A si AB = BA = I.
Si A tiene una inversa, se dice que es invertible o que es no singular. En otro caso, se dice
que la matriz es no invertible o singular.
Se sigue de la definicin que cuando una matriz es invertible, su inversa es nica. Supongamos
que A tiene dos inversas, digamos B1 y B2 . Entonces:
B1 = B1 I = B1 (AB) = (B1 A)B = IB = B.
La inversa de A (cuando existe) se denota por A1 .
Ejemplo B.4.17. Sea K el campo de los nmeros racionales y sea A la matriz:


3 1 5
A=
.
8
7 4
A tiene al menos dos inversas derechas ya que:

1


 
 7
13
1 0
3
3 1 5 13
8
3
=
=
13
13
0 1
8
8
7 4
0
0

1 5
7 4

4
13
4
13
1
13

4
13
7
13
1
13

Del ejemplo anterior se observa que en general, no es vlida la ley cancelativa para matrices,
es decir, es posible tener XA = Y A con A 6= 0 sin que esto implique que X = Y .

B.5. Multiplicacin de matrices en bloques

159

Proposicin B.4.18. Sean A, B matrices no singulares. Entonces:


a) AB es no singular y (AB)1 = B 1 A1 .
b) A1 es no singular y (A1 )1 = A.
c) AT es no singular y (AT )1 = (A1 )T .
Demostracin. a) Como A y B son ambas no singulares, existen sus respectivas inversas A1 y
B 1 . Entonces:
(AB)(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I.
De manera similar se muestra que (B 1 A1 )(AB) = I. Esto prueba que la inversa de AB es
B 1 A1 , es decir, (AB)1 = B 1 A1 .
b) Por definicin AA1 = A1 A = I. Se sigue que A1 es invertible y su inversa es A.
c) Se tiene:
(A1 )T AT = (AA1 )T = I T = I.
Anlogamente se tiene que AT (A1 )T = I. As (AT )1 = (A1 )T .

B.5.

Multiplicacin de matrices en bloques

Con frecuencia es til considerar una matriz compuesta por una o varias matrices denominadas submatrices. Una submatriz de una matriz A es una matriz que se obtiene eliminando
cualquier combinacin de
renglones de A.
columnas y
1 1 3 2
3 5 7 2

Por ejemplo, si A =
1 2 9 8 , las siguientes matrices son submatrices de A:
4 0 2 2


3
4

5
0

7
2

 
2
3
,
2
4

5
0

 
2
3
,
2
2


2
.
2

La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo eliminando los renglones primero y tercero y la tercera columna. Finalmente, la ltima submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.
Al introducir lineas horizontales y verticales en una matriz, podemos particionarla en submatrices o bloques:

1 1 0 0
3 5 0 0

0 0 9 8 .
0 0 2 2
Supongamos que las matrices A y B estn particionadas en submatrices como se indica a
continuacin:

A11
A21

A= .
..

A12
A22
..
.

...
...
..
.

A1n
A2n

.. ,
.

Am1

Am2

...

Amn

B11
B21

B= .
..

B12
B22
..
.

...
...
..
.

B1p
B2p

..
.

Bn1

Bn2

...

Bnp

160

B. Matrices

Supongamos que para cada tercia de enteros (i, k, j), 1 i m, 1 k n, 1 j p, las


matrices Aik y Bkj , (1 k n) se pueden multiplicar. Entonces el producto AB est definido
y el (i, j)-simo bloque de AB es
Ai1 B1j + Ai2 B2j + + Ain Bnj =

n
X

Aik Bkj .

k=1

En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicacin de matrices de esta forma en ocasiones resulta til, pues simplifica
la notacin.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con los manejos de
los subndices. En lugar de hacer la prueba, ilustraremos la tcnica con ejemplos.
Ejemplo B.5.1. Considere las siguientes matrices particionadas:

3
4 1 7 8


4
5 0 1 4
A11 A12

=
,
A=
A21 A22
5 1 4 0 0
6
1 5 0 0

1
1
1
1


0
1

B11 B12
=
0
0
3
B=

B21 B22
2 1
2
1
1 1
Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces

15 2 10


5
7
7
A11 B11 + A12 B21 A11 B12 + A12 B22
.
AB =
=

A21 B11 + A22 B21 A21 B12 + A22 B22


6
5 16
5
6 22
Ejemplo B.5.2. Si

3 5
2 1
A=
1 0
0 1

0

3
= C
I2
0
1

3
0
0
0

3I2
,
0

1 0
0 1
B=
0 0
0 0

2
0
1
0

0

3
= I2
0
0
1


D
,
I2

entonces


CI2 + 3I2 0
I2 + 0 0

3 5 9 15
2 1 4
6
=
1 0 2
0
0 1 0
3

AB =

CD + 3I22
I2 D + 0 I2


=

C
I2

CD + 3I2
D

Ejemplo B.5.3. A K mn y B K nr . A es una submatriz de s misma, por lo que


podemos considerarla particionada en un solo bloque. Si B est particionada en columnas,
B = [B1 | . . . | Br ], se tiene
AB = A[B1 | . . . | Br ] = [AB1 | . . . | ABr ].

B.6. La traza de una matriz

161

Si particionamos ahora A en renglones y B en columnas,

A1 B1
A1
A2 B1
A2

AB = . [B1 | B2 | . . . | Br ] =
..

..
.

A1 B2
A2 B2
..
.

...
...
..
.

A1 Br
A2 Br

.
..

Am B1

Am B2

...

Am Br

Am

Ejemplo B.5.4. Si A K mn se particiona en columnas [A1 | A2 | . . . | An ] y x K n1 en


renglones

x1
x2

.. ,
.
xn
entonces Ax = x1 A1 + x2 A2 + + xn An .

B.6.

La traza de una matriz

Definicin B.6.1. La traza de una matriz A = (aij ) K nn se define como la suma de los
elementos de la diagonal principal de A y se denota por tr(A). Esto es,
tr(A) = a11 + a22 + + ann =

n
X

aii .

i=1

Ejemplo B.6.2. Se tiene

10 29
tr 2 5
1
1

0
8 = 10 5 + 15 = 20.
15

Sage provee el comando A.trace() para calcular la traza de la matriz A.


Algunas de las propiedades de la traza se presentan en el siguiente teorema.
Teorema B.6.3.
1) Para cualesquiera matrices A, B K nn y cualquier escalar se tiene
a) tr(A + B) = tr(A) + tr(B),
b) tr(A) = tr(A).
En otras palabras, la traza es una funcin lineal.
2) Sean A K mn y B K nm . Entonces tr(AB) = tr(BA).
3) Si A es una matriz cuadrada, tr(A) = tr(AT ).
Demostracin. Sean A = (aij ), B = (bij ) y un escalar. Entonces
tr(A + B) =

n
n
n
X
X
X
(aii + bii ) =
aii +
bii = tr(A) + tr(B).
i=1

tr(A) =

n
X
i=1

i=1

aii =

n
X
i=1

i=1

aii = tr(A).

162

B. Matrices

Esto prueba el inciso 1).


Sean C = AB y D = BA. Entonces
cij =
dij =

n
X
k=1
m
X

aik bkj ,

1 i m, 1 j n,

bik akj ,

1 i n, 1 j m.

k=1

Ntese que AB K mm y BA K nn . Luego


tr(AB) =

m
X
i=1

cii =

n
m X
X

aik bki =

i=1 k=1

n X
m
X

bki aik =

k=1 i=1

n
X

dkk = tr(BA).

k=1

Esto prueba el inciso 2).


La demostracin del ltimo apartado es inmediata ya que la diagonal principal de A y de
AT son la misma.
Por induccin se puede extender la propiedad 2 del teorema anterior. As, si A1 , . . . , At son
matrices tales que el producto A1 At est definido, entonces
tr(A1 At ) = tr(At A1 At1 ).
En particular se tiene
tr(ABC) = tr(CAB) = tr(BCA).
Sin embargo, en general no es cierto que tr(ABC) = tr(BAC).

B.7.

Matrices elementales

A continuacin se definen las operaciones elementales de rengln(de columna).


Definicin B.7.1. Sea A una matriz de mn. Una operacin elemental de rengln (de columna)
en la matriz A es uno de los siguientes tres tipos de operaciones:
Tipo I. Intercambio de dos renglones (columnas) de A.
Tipo II. Reemplazo de un rengln (una columna) de A por algn mltiplo escalar no nulo de
ste (sta).
Tipo III. Reemplazo de un rengln (una columna) de A por ese rengln (esa columna) ms un
mltiplo escalar no nulo de otro rengln (otra columna).
Utilizaremos la siguiente notacin para indicar el tipo de operacin elemental de rengln que
se aplic para pasar de la matriz A a la matriz B.
Operacin

Smbolo

I
II
III

Rij
Ri (c)
Rij (c)

Significado del smbolo


Intercambio de los renglones i y j.
Se multiplica por c el rengln i.
Al rengln i se le suma c veces el rengln j.

Para indicar el tipo de operacin elemental de columna que se uso para pasar de la matriz

B.7. Matrices elementales

163

A a la matriz B se usa la siguiente notacion:


Operacin

Smbolo

I
II
III

Cij
Ci (c)
Cij (c)

Significado del smbolo


Intercambio de las columnas i y j.
Se multiplica por c la columna i.
A la columna i se le suma c veces la columna j.

Ejemplo B.7.2. En cada caso la matriz B se obtuvo de la matriz A aplicando la operacin


elemental de rengln indicada.
A

3 5 8 4
2 1 12 6
4 1 7 4

3 4
1
5 7 11
1 13 4

1
3
6

3
2
4

4 1 7 4
2 1 12 6
3 5 8 4

3 4
1
15 21 33
1 13 4

13

R2 (3)

5 2
3
1
5
2
3
R21 (5)
9 5
4 2 16 5 11
7 8 10
6
7
8
10

5 8 4
7 1 7 4
C12 (5)
0 1 12 6
1 12 6

1 7 4
2 5 8 4

Sage nos ayuda a realizar las tareas rutinarias.


sage : A = matrix (3 ,[3 ,5 ,8 ,4 , 2 ,1 ,12 ,6 ,4 ,1 ,7 ,4]); A
[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage : B = A . with_swapped_rows (0 ,2); B
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]
sage : A = matrix (3 , [ -3 ,4 , -1 , -5 ,7 , -11 , -1 ,13 , -4]); A
[ -3
4 -1]
[ -5
7 -11]
[ -1 13 -4]
sage : B = A . with_rescaled_row (1 ,3); B
[ -3
4 -1]
[ -15 21 -33]
[ -1 13 -4]
sage : A = matrix (3 , [ -1 ,5 ,2 ,3 , -3 ,9 ,5 ,4 , 6 , -7 ,8 ,10]); A
[ -1 5 2 3]
[ -3 9 5 4]
[ 6 -7 8 10]
sage : B = A . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5); B
[ -1
5
2
3]
[ 2 -16 -5 -11]
[ 6 -7
8 10]

Sage tambin nos permite trabajar con operaciones elementales de columna:

164

B. Matrices

sage : A . w i t h _ a d d e d _ m u l t i p l e _ o f _ c o l u m n (0 ,1 , -2)
[ -7 5 8 4]
[ 0 1 12 6]
[ 2 1 7 4]

A las matrices que tiene la forma I uv T , donde u y v son vectores columna de n 1 tales
que v T u 6= 1, se les llama matrices elementales. La condicin v T u 6= 1 es para garantizar que
las matrices elementales sean invertibles. Sea c = 1/(v T u 1). Entonces
(I uv T )(I cuv T ) = I cuv T uv T + cuv T uv T
= I cuv T uv T + (cv T u)uv T
= I uv T + c(v T u 1)uv T
= I uv T + uv T
= I.
As, las matrices elementales son invertibles y su inversa es nuevamente una matriz elemental:
I uv T

1

=I

uv T
.
vT u 1

Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.
Definicin B.7.3. Una matriz elemental de Tipo I, II o III es una matriz que se obtiene
al aplicar a la matriz identidad In exactamente una operacin elemental de Tipo I, II o III,
respectivamente. Eij denota la matriz elemental que se obtiene al aplicar a In la operacin
elemental Rij , Ei (c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad
la operacin elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la
matriz identidad la operacin elemental Rij (c).
Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la
forma I uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la
identidad intercambiando los renglones 1 y 3. Se observa que

0 0 1
1 0 1
1

0 = I 0 1 0 1 ,
E13 = 0 1 0 = I 0 0
1 0 0
1 0
1
1
es decir, E13 = I (e1 e3 )(e1 e3 )T , donde
Por otro lado, observe que

1 0 0
0 0
E21 (c) = c 1 0 = I + c 1 0
0 0 1
0 0

e1 , e2 , e3 son los vectores unitarios.


0
1
0 = I + c 0 0
0
0


0 = I + ce1 eT2 .

Se deja de ejercicio al lector verificar que


Eij = I (ei ej )(ei ej )T ,

Ei (c) = I (1 c)ei eTi ,

Eij (c) = I + cei eTj .

Observacin B.7.4. Las matrices elementales de Eij , Ei (c) y Eij (c) se pueden obtener de la
matriz identidad aplicando operaciones elementales de columna:
Tipo I. Eij se obtiene de la matriz identidad intercambiando las columnas i y j.
Tipo II. Ei (c) se obtiene de la matriz identidad multiplicando la columna i por el escalar c.

B.7. Matrices elementales

165

Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la operacin
Cji (c), es decir, a la columna j se le suma c veces la columna i.
Ejemplo B.7.5.

0
E13 = 0
1

Sea n = 3. Las matrices elementales E13 , E2 (3) y E21 (5) son:

0 1
1 0 0
1 0
1 0 ,
E2 (3) = 0 3 0 ,
E21 (5) = 5 1
0 0
0 0 1
0 0

0
0 ,
1

respectivamente. La matriz E13 se obtiene intercambiando las columnas 1 y 3 de la matriz


identidad; E2 (3) se obtiene multiplicando la columna 2 de la identidad por 3; la matriz E21 (5)
se obtiene sumando 5 veces la columna 2 a la columna 1, es decir, aplicando a la matriz
identidad la operacin elemental C12 (5).
Ejemplo SAGE B.7.6. El comando elementary_matrix de Sage sirven para crear matrices
elementales. Para construir las matrices Eij , Ei (c) y Eij (c) se usan las instrucciones
1. elementary_matrix(R, n, row1=i, row2=j)
2. elementary_matrix(R, n, row1=i, scale=c),
3. elementary_matrix(R, n, row1=i, row2=j, scale=c),
respectivamente. Tambin se puede usar el comando matrix.elementary. El argumento opcional R denota al anillo sobre el cual se construirn las matrices. Se debe recordar que en Sage la
numeracin de renglones y columnas empieza en 0.
sage : E1 = elementary_matrix (3 , row1 =0 , row2 =2); E1
[0 0 1]
[0 1 0]
[1 0 0]
sage : E2 = elementary_matrix (3 , row1 =1 , scale =3); E2
[1 0 0]
[0 3 0]
[0 0 1]
sage : E3 = elementary_matrix (3 , row1 =1 , row2 =0 , scale = -5); E3
[ 1 0 0]
[ -5 1 0]
[ 0 0 1]

A continuacin se muestra que multiplicar una matriz elemental E por una matriz A da por
resultado una matriz que se obtiene de la matriz A al aplicar la operacin elemental que se uso
para construir E.
sage : A = matrix (3 ,[3 ,5 ,8 ,4 ,2 ,1 ,12 ,6 , 4 ,1 ,7 ,4]); A
[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage : E1 * A
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]
sage : E2 * A
[ 3 5 8 4]
[ 6 3 36 18]
[ 4 1 7 4]
sage : E3 * A

166

B. Matrices

[ 3
5
8
4]
[ -13 -24 -28 -14]
[ 4
1
7
4]

Si escribimos In = (ij ) y Eij = (rs ), entonces:


rs = rs ,

r 6= i, j, 1 s n,

is = js ,

1 s n,

js = is ,

1 s n.

Si Ei (c) = (rs ), entonces:


rs = rs ,
is = cis ,

r 6= i, 1 s n,
1 s n.

Finalmente si Eij (c) = (rs ), entonces:


rs = rs ,

r 6= i, 1 s n,

is = is + cjs ,

1 s n.

Proposicin B.7.7. Sea A K mn . Si B es la matriz que se obtiene de A al aplicarle una operacin elemental de rengln, entonces B = EA, donde E es la matriz elemental correspondiente
a la operacin elemental de rengln aplicada a A.
Demostracin. Supongamos que B se obtiene de A al intercambiar los renglones i y j, es decir
A

Rij

/ B . Veamos que B = Eij A. Para r 6= i, j, 1 r m, tenemos que:


[Eij A]rs =

m
X

rk aks = rr ars = ars = [B]rs ,

1 s n.

jk aks = jj ajs = ajs = [B]is ,

1 s n.

k=1

Adems:
[Eij A]is =
[Eij A]js =

m
X
k=1
m
X

1 s n.

ik aks = ii ais = ais = [B]js ,

k=1

As Br = Ar si r 6= i, j, Bi = Aj y Bj = Ai . Esto prueba la igualdad B = Eij A.


Supongamos ahora que B se obtiene de A al aplicarle la operacin elemental Rij (c). Veamos
que B = Eij (c)A. Para r 6= i, 1 r m, tenemos que:
[Eij (c)A]rs =

m
X

rk aks = rr ars = ars = [B]rs ,

1 s n.

k=1

Por otro lado:


[Eij (c)A]is =

m
X

(ik + cjk )aks =

k=1

m
X
k=1

ik aks + c

m
X

jk aks

k=1

= ii ais + cjj ajs = ais + cajs = [B]is ,

1 s n.

Luego Br = Ar si r 6= i, Bi = Ai + cAj . As B = Eij (c)A. Se deja al lector probar que si


B se obtiene de A al aplicarle la operacin elemental Ri (c), entonces B = Ei (c)A.

B.7. Matrices elementales

167

Proposicin B.7.8. Sea A K mn . Si B es la matriz que se obtiene de A al aplicarle una operacin elemental de columna, entonces B = AE, donde E es la matriz elemental correspondiente
a la operacin elemental de columna aplicada a A.
Demostracin. La prueba se puede hacer de manera anloga a la prueba de la Proposicin B.7.7.
Sin embargo, no lo haremos as, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fcil verificar que E = I vv T , donde v = ei ej . Entonces
AE = A Avv T = A (Aei Aej )(eTi eTj )
= A ([A]i [A]j )(eTi eTj )
= A ([A]i [A]j )eTi ([A]i [A]j )eTj

As se tiene
columna j

columna i

0 a1i a1j

0 a2i a2j

AE = A .
..
.
.
.

0 ami amj

a1j a1i

a2j a2i

..

.
amj ami

..

de donde se sigue el resultado.


Si B se obtiene de A aplicando la operacin Cij (c) y E es la matriz elemental correspondiente,
entonces E = I + cej eTi . Luego

0 a1j 0
0 a2j 0

AE = A + c(Aej )eTi = A + c[A]j eTi = A + c .


..
.. ,
..
.
.
0 anj 0
donde la columna j de A aparece en la columna i de la matriz (Aej )eTi .
Para el caso que falta, la matriz elemental correspondiente es E = I (1 c)ei eTi . Se deja
al lector como ejercicio completar la prueba.
Ejemplo B.7.9. Para las matrices del Ejemplo B.7.2 se tiene:

4 1 7 4
0 0 1
3 5 8 4
2 1 12 6 = 0 1 0 2 1 12 6 ,
3 5 8 4
1 0 0
4 1 7 4

3
4
1
1 0 0
3 4
1
15 21 33 = 0 3 0 5 7 11 ,
1 13 4
0 0 1
1 13 4

1
5
2
3
1 0 0
1
5 2 3
2 16 5 11 = 5 1 0 3
9 5 4
6
7
8
10
0 0 1
6 7 8 10

1 0 0
7 5
8 4
3 5 8 4
2 1 0
0 1 12 6 = 2 1 12 6
0 0 1
2 1
7 4
4 1 7 4
0 0 0

0
0
.
0
1

168

B. Matrices

Proposicin B.7.10. Las matrices elementales son invertibles. Ms an:


1
1. Eij
= Eji = Eij .

2. Ei (c)1 = Ei (1/c) con c 6= 0.


3. Eij (c)1 = Eij (c) con i 6= j.
Demostracin. a) Sea B = Eij Eji . Como Eij es una matriz elemental, por la Proposicin B.7.7,
B se obtiene de Eji intercambiando los renglones i y j. Luego B = I. Anlogamente Eji Eij =
I.
b) Ei (c) se obtiene de la matriz identidad multiplicando el rengln c. Por la Proposicin B.7.7,
Ei (1/c)Ei (c) es la matriz que se obtiene de Ei (c) multiplicando su i-simo rengln por 1/c.
Luego Ei (1/c)Ei (c) = I. Anlogamente Ei (c)Ei (1/c) = I.
c) La prueba es similar a las anteriores y se deja de ejercicio al lector.
Proposicin B.7.11. Si la matriz B se obtiene de la matriz A al aplicar una sucesin finita
de operaciones elementales de rengln, es decir:
R

1
2
s
A
A1
A2
As = B,

entonces B = P A, para algna matriz invertible P .


Demostracin. Sea Ei la matriz elemental correspondiente a la operacin elemental Ri . Entonces
A1 = E1 A,
A2 = E2 A1 = E2 E1 A,
..
.
B = As = Es E2 E1 A.
Como las matrices elementales son invertibles, P = Es E2 E1 es una matriz invertible y
B = P A.

2
2
2
7
7 R33 se le aplican las
Ejemplo B.7.12. Suponga que a la matriz A = 4
6 18 22
operaciones elementales indicadas y se obtiene la matriz B.

2 2 2
R21 (2)
R31 (3)
R32 (4)
A A1 A2 0 3 3 = B.
0 0 4
Entonces,

1
B = E32 (4)E31 (3)E21 (2)A = 2
5

0 0
2
1 0 4
4 1
6

2
7
18

2
7 .
22

La siguiente proposicin es una generalizacin de la proposicin anterior.


Proposicin B.7.13. Si la matriz B se obtiene de la matriz A al aplicar una sucesin finita
de operaciones elementales, entonces B = P AQ para algunas matrices invertibles P y Q.
Demostracin. Se deja de ejercicio al lector.

B.8. Mtodo de eliminacin de Gauss

169

1 2
7
38
2 6
33 se le aplican las operaciones
Ejemplo B.7.14. A la matriz A = 1
7 14 45 246
elementales de rengln indicadas a continuacin para obtener la matriz EA .

0
A A1 A2 A3 EA =
0
R21 (1)

R31 (7)

R32 (4)

R12 (7)

2 0 3
0 1 5 .
0 0 0

Aplicando operaciones elementales de columna a EA se obtiene

EA

1
C
23
A5 A6 A7 A8 = 0
0
C31 (2)

C41 (3)

C42 (5)

0
1
0

0
0
0

0
0
0

De esta manera se tiene que


A8 = E12 (7)E32 (4)E31 (7)E21 (1)AE23 E13 (2)E14 (3)E24 (5) = P AQ,
donde

P =

B.8.

6
1
3

7 0
1 0
4 1

1
0
y Q=
0
0

0
0
1
0

2
1
0
0

3
0
.
5
1

Mtodo de eliminacin de Gauss

Las operaciones elementales se usan, entre otras aplicaciones, para llevar una matriz a una
forma escalonada por renglones o a su forma escalonada reducida por renglones. En esta seccin
se estudian las matrices en forma escalonada por renglones y el mtodo de eliminacin guassiana
para llevar una matriz a una forma escalonada.
Definicin B.8.1 (Forma escalonada por renglones). Se dice que una matriz E K mn est
en forma escalonada si se cumplen las siguientes dos condiciones:
1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferior
de la matriz.
2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de la
primera entrada diferente de cero del rengln anterior.
En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote
Las siguientes matrices estn en forma escalonada. Los pivotes estn encerrados en un crculo.


1 4 1 2

0 0 0 2

0 0 0 0


2 4 1 2

0 0 1 3

0 0 0 0

170

B. Matrices
En general, la forma escalonada de una matriz se ve como sigue:

*
0
0
0
0
0

*
0
0
0
0

0
0
0
0

*
0
0
0

0
0
0

*
0
0

0
0

0
0

donde los pivotes son las entradas encerradas en un cuadro.


Mtodo de Eliminacin de Gauss
Explicaremos con un ejemplo el Mtodo de eliminacin de Gauss para llevar una matriz a
una forma escalonada. La estrategia general consiste, fijarnos en la entrada (1, 1) de la matriz y
usarla como pivote para eliminar todas las entradas por debajo esta posicin pivotal, aplicando
operaciones elementales de rengln. Los pivotes deben ser distintos de cero. Si el escalar en la
posicin pivotal es cero, entonces se intercambia ese rengln por algn rengln debajo de l para
producir un pivote distinto de cero.
Ejemplo B.8.2. Usando el Mtodo de eliminacin de Gauss, encuentre una forma escalonada
por renglones de la matriz

3 1
2 2
A = 3 1 2 2 .
1 0
1
9
Escriba P A = E, donde P es una matriz invertible y E es una matriz en forma escalonada.
Solucin. El elemento en la posicin (1, 1) es distinto de cero, as que se toma como pivote
este elemento y se producen ceros en las posiciones (2, 1) y (3, 1) aplicando las operaciones
elementales R21 (1) y R31 (1/3):

3
1 2 2
3 1 2 2
R31 (1/3)
R21 (1)
2 0 4 = A2
A 0 2 0 4 0
1
1 0 1
9
0 3 31 29
3
A continuacin, se concentra uno en el segundo rengln. La primera entrada distinta de cero
est en la posicin (2, 2). As la nueva posicin pivotal ser la (2, 2) y el pivote sera 2. Para
introducir un cero en la posicin (3, 2) se aplicar la operacin elemental E32 (1/6) a la matriz
A2 . As

3 1 2 2
R32 (1/6)
A2 0 2 0 4 = E
0 0 31
9
La matriz E est en forma escalonada por renglones. Dado que R32 (1/6)E31 (1/3)E21 (1)A = E,
la matriz

1 0 0
P = R32 (1/6)E31 (1/3)E21 (1) = 1 1 0
16 16 1
es tal que P A = E. Para construir P se puede efectuar la multiplicacin de las matrices involucradas. Tambin es posible construir P aplicando a la matriz identidad la secuencia operaciones

B.8. Mtodo de eliminacin de Gauss


elementales que se usaron para obtener la matriz

1
1 0 0
R21 (1)
R31 (1/3)
I 1 1 0 1
0 0 1
13

171
E.

1
0 0
R32 (1/6)
1 0 1
0 1
16

0
1
1
6

0
0 = P.
1

Las operaciones elementales de rengln que se aplican a A son las mismas operaciones elementales que se aplican a la matriz identidad para obtener la matriz P tal que P A = E. Estas
operaciones elementales se pueden aplicar de manera simultnea a las matrices A e I para obtener las matrices E y P . Para esto se construye la matriz aumentada [A | I] y se le aplican
las operaciones elementales necesarias para construir una forma escalonada de A. Al final del
proceso se obtiene la matriz [E | P ].

1 0 0
3
1 2 2
3 1
2 2 1 0 0
R21 (1)
0
3 1 2 2 0 1 0
2 0 4
1 1 0
R31 (1/3)
1
1
1
29
1 0
1
9 0 0 1
3 0 1
0 3 3
3

3 1 2 2
1 0 0
R32 (1/6)
1 1 0 = [E | P ].
0 2 0 4
1
1
0 0 3
9 6 16 1
La instruccin echelon_form() de Sage construye una forma escalonada por renglones de
la matriz A.
sage : A = matrix ( 3 , [3 ,1 ,2 , -2 , -3 ,1 , -2 , -2 , 1 ,0 ,1 ,9]); A
[ 3 1 2 -2]
[ -3 1 -2 -2]
[ 1 0 1 9]
sage : A . echelon_form ()
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]

Usando la opcin transformation = True, se obtiene adems de una forma escalonada, una
matriz invertible P tal que P A = E.
sage : E , P = A . echelon_form ( transformation = True ); E , P
(
[ 1 0 1 9] [ 0 0 1]
[ 0 1 1 25] [ 0 1 3]
[ 0 0 2 54] , [ -1 1 6]
)
sage : P * A
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]

Ejemplo B.8.3. Encuentre una forma escalonada de la matriz

0
1
3
2
2
3 5 .
A= 0
0 1 4 5
Solucin.

0 1
R21 (2)
A 0 0
R31 (1)
0 0

3
2
0
R32 (1/3)
3 9 0
1 3
0

1
0
0

3
2
3 9 .
0
0

172

B.9.

B. Matrices

Mtodo de eliminacin de Gauss-Jordan

En esta seccin se estudia el mtodo de eliminacin de Gauss-Jordan encontrar la forma


escalonada reducida de una matriz. Primero la definicin de lo que se entiende por una matriz
en forma escalonada reducida.
Definicin B.9.1 (Forma escalonada reducida por renglones). Se dice que una matriz E
K mn est en la forma escalonada reducida por renglones si:
1. E est en forma escalonada.
2. La primera entrada distinta de cero en cada rengln es 1 (es decir, cada pivote es 1).
3. Cada pivote es la nica entrada distinta de cero en su columna.
La tcnica de eliminacin de Gauss-Jordan es una variante de la eliminacin gaussiana. Son
dos las caractersticas que hacen diferente el mtodo de Gauss-Jordan del mtodo de Gauss:
a) En cada paso del proceso, cada pivote debe convertirse en 1.
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
Mtodo de eliminacin de Gauss-Jordan
Explicaremos con un ejemplo el Mtodo de eliminacin de Gauss-Jordan para llevar una
matriz a una forma escalonada reducida.
Ejemplo B.9.2. Usando el Mtodo de Gauss-Jordan, determine la forma escalonada reducida
por renglones de la matriz A.

3 1
2 2
A = 3 1 2 2
1 0
1
9
Determine P invertible de tal manera que P A = EA , donde EA es la forma escalonada reducida
de A.
Solucin. Dado que la entrada (1, 1) es distinto de cero, esta ser la posicin pivotal inicial.
Lo primero que se hace producir un 1 en la posicin pivotal aplicando una operacin elemental
de Tipo II. A continuacin, las entradas que se encuentran por debajo de la posicin pivotal se
convierten en ceros, mediante la aplicacin de operaciones elementales de Tipo III.

1
A 3
1
R1 (1/3)

2
3

1
3

1 2
0
1

1
32
R21 (3)
2 0
R31 (1)
9
0

1
3

2
3

2
31

1
3

23
4 = A2
29
3

Se pasa ahora al segundo rengln. Dado que la posicin (2, 2) es distinta de cero, esta ser la
nueva posicin pivotal. Se aplica una operacin elemental de Tipo II. Posteriormente, se aplican
operaciones elementales de Tipo III para producir ceros en las entradas por arriba y por debajo
de la posicin pivotal.

1
R2 (1/2)
A2 0
0

1
3

1
13

2
3

23
1 0
R12 (1/3)
0 2 0 1
R32 (1/3)
1
29
0 0
3
3

2
3

0
0 2 = A4
1
9
3

B.10. Algoritmo de Gauss-Jordan para calcular la inversa

173

Como siguiente paso a la matriz A4 , se le aplica operaciones elementales de los Tipos II y


III para producir un 1 en la posicin (3, 3) y cero en la posicin (1, 3).

1 0 0 18
0
1 0 32
R3 (3)
R13 (2/3)
2 = EA .
A4 0 1 0 2 0 1 0
0 0 1
27
0 0 1 27
La matriz invertible

P = E13 (2/3)E3 (3) E21 (3)E1 (1/3) =

1
2
1
2
12

21
1
2
1
2

2
0
3

es tal que P A = EA .
Utilizando la instruccin rref() de Sage se obtiene la forma escalonada reducida EA :
sage : A . rref ()
[ 1
0
0 -18]
[ 0
1
0 -2]
[ 0
0
1 27]

B.10.

Algoritmo de Gauss-Jordan para calcular la inversa

Finalizamos con el Mtodo de Gauss-Jordan para calcular la inversa de una matriz cuadrada.
El mtodo se basa en el siguiente resultado (Teorema 1.5.3): una matriz cuadrada es invertible
si y solamente si su forma escalonada reducida es la matriz identidad.
Sea A una matriz cuadrada.
1. Construya la matriz aumentada [A | I], donde I es la matriz identidad de orden n.
2. Lleve la matriz [A | I] [EA | P ] a su forma escalonada reducida.
3. Si EA es la matriz identidad, entonces A es invertible y A1 = P . En caso contrario, A
no es invertible.

2 1 1
1 .
Ejemplo B.10.1. Calcule la inversa, si la tiene, de la matriz A = 1 1
3 2
3
Solucin. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.
1 21 12 12 0

1 1
1 0 1
[A | I]
3 2
3 0 0

1
1
1
1 2 2
0
2
R2 (2/3)
1

0
1 3 31 23

3
3
0 72
0
2
2

2
1
1
1 0 3

3
3
R3 (3)
0 1 1 1 2

3
3
3
0 0
1
1 7

R1 (1/2)

0
R21 (1)
0
R31 (3)
1

0
R12 (1/2)
0
R32 (7/2)
1

0
R13 (2/3)
0
R23 (1/3)
3

1 12 21 12 0
1
1
0 3
1
2
2
2
7
3
3
0 2
0
2
2

2
1
1 0 3
31
3
0 1 1 1 2
3
3
3
1
1
0 0
37
3
3

1 0 0 1 5 2
0 1 0 0 3 1
0 0 1 1 7 3

0
0
1

0
0
1

Dado que la forma escalonada reducida de A es la matriz identidad, se concluye que A es


invertible y su inversa aparece en el lado derecho de la segunda matriz en la lnea anterior.

174

B. Matrices

1
1 1
1 2 .
Ejemplo B.10.2. Calcule la inversa, si la tiene, de la matriz A = 2
1 1
1
Solucin. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.

1
1 0
0 31 13
1
1 1 1 0 0
3
1
1 2 0 1 0 0 1 43 0
23 = [EA | P ]
[A | I] = 2
3
1 1
1 0 0 1
0 0
0 1
0
1
Dado que la forma escalonada reducida de la matriz A no es la matriz identidad, se concluye
que A no es invertible.

B.11.

Ejercicios

1. Determine los elementos [A]12 , [A]31 y [A]33 de la matriz

1 1 1
8 13 .
A = 14
36
1
3
Escriba la diagonal principal de A.
2. Provea ejemplos de matrices triangulares superiores, triangulares inferiores y matrices diagonales.
3. Provea ejemplos de matrices simtricas y antisimtricas.
4. Provea ejemplos de matrices hermitianas y anti-hermitianas.
5. Si

A=

C=

1
1
1
1

2 2
5 5

3
,
1

11
0


10 2
D=
,
2
1
B=

0
1

6
2


,

realice si es posible hacerlo, las


a) A + B,
b) 5A,
e) 2C + 5D, f) A B,
i) DB,
j) CA + DB,

siguientes operaciones:
c) D,
d) A + D,
g) AT + B T , h) AC,
k) A10 ,
l) C 3 .


5 5 5
6. Determine la matriz X si 5X =
.
30 10
0

2 1
1
3
0
1
0
1 , B = 2 7 y C = 1 , calcule los siguientes
7. Si A = 0
1
2 4
5 1
1
productos siempre que sea posible:
a) AB,
b) BA,
c) CB
d) C T B, e) A2
f) B 2 ,
T
T
T
T
T
g) C C h) CC
i) BB
j)B B
k) C AC.
8. Encuentre los valores de x y y de tal manera que



4 14
0
3
2 3 y 1
1
2
3
0 1
1 + 1 1
2
1 = 2
0 3
1 12
1
2 1 8 x
1

2 x 1
1
1
1
0

2
0 .
5y

B.11. Ejercicios
9. Encuentre los valores de x, y de tal manera que

2 5 5
1
2 1 1 1
x 0 3 62
1
x
y 3
0 0 3
1
3 4 3 1
y 0
1 3

175

5 10
13 5
16 15

5 58
11
194 .
5 245

10. Verifique que cada una de las siguientes matrices son nilpotentes:

0


0 1 1
0 1 0
0
0 c

0 0 2 ,
0 0 0 ,
,
0
0 0
0 0 0
0 2 0
0

1 3
2
0 3
5

0 0 4
0 0
0

11. Verifique que cada una de las siguientes matrices son idempotentes:






 1
0 0
1 0
1 0
3

,
,
,
1
1 1
1 0
0 0
2
3

1
3


2
2
3

12. Sea 0 a 1 un nmero real. Verifique que la matriz



a
a a2

A=
a a2
1a
es una matriz idempotente.
13. Sean A y B matrices cuadradas idempotentes tales que AB = BA. Pruebe que AB es
idempotente.
14. Calcule el producto de las siguientes matrices triangulares superiores:

3 1 1
1 1 0
2
5 .
B= 0
A = 0 2 1 ,
0
0 2
0
0 3
15. Sean A y B matrices de n n triangulares superiores.
a) Pruebe que AB es una matriz triangular superior.
b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n.
16. Calcule el producto de las triangulares inferiores:

1 2 3 4
0
0 0 1 2
0

A=
B=
0 0 2 1 ,
0
0 0 0 4
0

2 1
0
2 1 2
.
0 1 1
0 0
2

17. Sean A y B matrices de n n triangulares inferiores.


a) Pruebe que AB es una matriz triangular inferior.
b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n.
18. Calcule la traza de las siguientes matrices:

0
2
11
29
4 22
2 2 1 ,
12 1
1 ,
29 8 23
47
1 4

1 + 5i

8
3 + 13i

1
3 5i
4

i
2 + i .
8

176

B. Matrices

19. De ejemplos de matrices tales que tr(A) = tr(B) y A 6= B.


20. Si A y B son matrices del mismo tamao tales que tr(A) = 12 y tr(B) = 4, calcule la traza
de las siguientes matrices: 8A, 5B, 4AT , 2A + 3B y 3AT .
21. Sean A y B matrices de m n y n r, respectivamente. Pruebe que tr(AB) = tr(B T AT ).


a11 a12 a13
22. Sea A =
. Verifique que la entrada (1, 1) de AAT es a211 + a212 + a213 y que
a21 a22 a23
la entrada (2, 2) de AAT es a221 + a222 + a223 . Calcule la traza de AAT .
23. Generalice el ejercicio anterior. Es decir, si A K mn , pruebe que la entrada (i, i) de la
matriz AAT est dada por
[AAT ]ii =

n
X

[A]2ij .

j=1

24. Sea A R23 tal que tr(AAT ) = 0. Pruebe que A es la matriz cero.
25. Sea A una matriz de nn. Use las propiedades de la traza para mostrar que no existe ninguna
matriz X tal que AX XA = I, donde I es la matriz identidad.
26. Sean A y B matrices cuadradas. Es cierto que (A + B)2 = A2 + 2AB + B 2 ? Por qu?
Justifique su respuesta.
27. Sean A y B matrices de m n. Suponga que Ax = Bx para todos los vectores columna de
n 1. Pruebe que A = B (Sugerencia: Empiece con matrices de 2 2 o 2 3 y elija valores
T
T
particulares para x, por ejemplo x = 1 0 o x = 1 0 0 ).
28. Sean A, B matrices simtricas tales que AB = BA. Pruebe que AB es una matriz simtrica.
29. Pruebe que si A y B son matrices simtricas del mismo tamao, entonces A+B es una matriz
simtrica.
30. Pruebe que si A es simtrica, entonces tambin lo son AT y cA donde c es cualquier escalar.
31. Pruebe que si A Cnn es hermitiana y c es un nmero real, entonces cA tambin es una
matriz hermitiana.
32. Sea A Cmn . Pruebe que las matrices A A y AA son matrices hermitianas.
33. Pruebe que si A, B Cnn son matrices hermitianas, entonces A + B tambin es una matriz
hermitiana.
34. Pruebe que si A, B Cnn son matrices hermitianas tales que AB = BA, entonces AB
tambin es una matriz hermitiana.
35. Pruebe que si A Cnn es una matriz hermitiana, entonces Im[A]ii = 0 para todo i. En
otras palabras, pruebe que los elementos de la diagonal principal son nmeros reales.
36. Pruebe las siguientes afirmaciones:
a) Si A es una matriz anti-simtrica, entonces [A]ii = 0 para toda i.
b) Si A Cnn es una matriz anti-hermitiana, entonces Re[A]ii = 0 para toda i.
37. Sea A una matriz cuadrada. Pruebe que A + AT es simtrica y A AT es ansimtrica.

B.11. Ejercicios

177

38. Sea A Cnn una matriz cuadrada. Pruebe que A + A es una matriz hermitiana y A A
es anti-hermitiana.
39. Determine

4
0

0
0

2
0

0
0

si las siguientes matrices estn o no en una forma escalonada.

3 2 1
3 2 1
1 2 3 4
1

0 5 1
0 1 3 ,
0 0 1 2 ,
0
,
0 0 4
0 0 0
0 0 0 1
0
0 0 1

4 6 8


0 0 0
0
0 1 2
0
1
0
,
0 0 0 ,
0
,
1 3 1
0 0 1
0 0 0
0
0 0 1

2
0
3

5
0
1

1
0
0

0
0
0

1
0 .
0

40. Encuentre una forma escalonada para cada una de las siguientes matrices:

4
2
0
9
1
1 4 1
2 8 1 2
2

1
1
6
, 2
2 1
2 1
1 ,
1 3 ,
2 1 1 6

3 9 1
1
1 1
8 1
2
1 5 3

1
2
1
0

1
2
2
5

2 1
2
2

41. Encuentre la forma escalonada reducida de cada una de las matrices del inciso anterior.
42. Encuentre la inversa, si existe, de cada una de las siguientes matrices.

1
1
1
1 1
3 1 1
1 2
1
1
2 1
2
1
,
4 1 1 , 1 2
1 ,
1 1 1
2 2
1 1 2
4
2 1
1
2 1
1
1

1
1 5
1
1
2
.
4 27 13
1 1 3

43. Determine
los valores de de tal manera que la forma escalonada reducida de la matriz

1 2
3

6 no sea la matriz identidad. Para que valores de es A invertible?


A= 2
1
3 3

1 1
44. Determine los valores de de tal manera que la matriz A = 1 1 sea invertible.
1 1 1

178

B. Matrices

APNDICE

Soluciones a ejercicios seleccionados

Captulo 1. Sistemas de ecuaciones lineales


1.1.2.1. La matriz y el vector de trminos independientes son
sage : A =
sage : A
[ 0
0
[ -1
0
[ 2
1
[ 0
0
sage : b =
[ -1]
[1/14]
[
2]
[ 3/2]

matrix (4 ,[0 ,0 , -2 ,1/2 ,0 , -1 ,0 ,0 , -2 , -2 , 2 ,1 ,0 ,0 ,1 , 0 ,0 , -2 , -1 ,1])


-2 1/2
0]
0 -2 -2]
0
0
1]
-2 -1
1]
vector ([ -1 ,1/14 ,2 ,3/2]); b . column ()

Se definen las variables x1 , . . . , x5 para formar las ecuaciones y resolver el sistema.


sage : var ( x1 x2 x3 x4 x5 )
( x1 , x2 , x3 , x4 , x5 )
sage : ec1 = ( A *x - b )[0]; ec1
-2* x3 + 1/2* x4 + 1
sage : ec2 = ( A *x - b )[1]; ec2
- x1 - 2* x4 - 2* x5 - 1/14
sage : ec3 = ( A *x - b )[2]; ec3
2* x1 + x2 + x5 - 2
sage : ec4 = ( A *x - b )[3]; ec4
-2* x3 - x4 + x5 - 3/2
sage : solve ([ ec1 , ec2 , ec3 , ec4 ] , x1 , x2 , x3 , x4 , x5 )
[[ x1 == -10/3* r1 + 137/42 , x2 == 17/3* r1 - 95/21 , x3 == 1/6* r1 + 1/12 ,
x4 == 2/3* r1 - 5/3 , x5 == r1 ]]

El sistema es indeterminado pues hay al menos dos soluciones, cuando r = 0 y cuando r = 1.


179

180

C. Soluciones a ejercicios seleccionados

1.1.2.7. Supongamos que Ax1 = Ax2 = b con x1 6= x2 . Entonces A(x1 x2 ) = Ax1 Ax2 =
bb = 0. Para k R, sea yk = x1 +k(x1 x2 ). Entonces Ayk = Ax1 +kA(x1 x2 ) = b+k 0 = b
y yk es solucin. Se observa que si k1 6= k2 entonces yk1 6= yk2 . En efecto, si yk1 = yk2 , entonces
(k1 k2 )(x1 x2 ) = 0 y como x1 x2 6= 0, se sigue que k1 = k2 . Por lo tanto el conjunto
{yk | k R} es infinito.
1.1.2.8. Sugerencia. Defina y = Ax. Entonces Ay = x. Sean A = (aij ), x = (x1 , . . . , xn )T e
y = (y1 , . . . , yn )T , donde aij , xk , yl son todos nmeros reales positivos. Entonces,
y1 = a11 x1 + a12 x2 + + a1n xn ,

x1 = a11 y1 + a12 y2 + + a1n yn ,

y2 = a21 x1 + a22 x2 + + a2n xn ,


..
.

x2 = a21 y1 + a22 y2 + + a2n yn ,


..
.

yn = an1 x1 + an2 x2 + + ann xn ,

xn = an1 y1 + an2 y2 + + ann yn .

Sea c = mn{ xy11 , xy22 , . . . , xynn }, c > 0. Demuestre que xj cyj debe ser igual a 0 para todo
j = 1, . . . , n y siga por cuenta propia.
1.2.3.1. La forma escalonada reducida

1 0
0 0

0 0

0 0
0 0

es
0 0
1 0
0 1
0 0
0 0

6
19

0
35
19

0
0

10
19
6
71
19
0
0

9
19

0
0

62
19

1.2.3.3. La forma escalonada reducida de la matriz aumentada del sistema es

7
1
1
1 0 56
6
6 b1 6 b2
2
1
0 1 1 1
.
3
3
3 b1 + 3 b2
0 0
0
0 b1 + b2 + b3
El sistema tiene solucin si y solamente si b1 + b2 + b3 = 0.
1.2.3.5. La matriz escalonada reducida de la

1 2
0 0

0 0
0 0

matriz aumentada [A | b] es

0 7 0
1 4 0
.
0 0 1
0 0 0

Dado que la ecuacin 0x + 0y + 0z + 0w = 1 no tiene solucin, se concluye que el sistema de


ecuaciones no tiene solucin.
1.2.3.7. El espacio columna de A se puede describir como el conjunto de vectores b R4 que
satisfacen un sistema homogneo:
R(A) = {b R4 | b1 b2 + b3 = 0 y 2b1 b2 + b4 = 0}.


1 1 1 0
Tomando B =
se tiene que R(A) = N (B).
2 1 0 1
1.3.1.1. La primera matriz tiene rango 5 y la segunda rango 2.

181
1.3.1.2. La columnas bsicas de la matriz A son precisamente las columnas 1,3 y 6. Las columnas
no bsicas son combinacin lineal de las columnas bsicas. La forma escalonada reducida de la
matriz A muestra las dependencias lineales de las columnas de A:
A1 = 2A1 ,

A4 = 4A1 5A3 ,

A5 = 2A1 + 3A3 ,

A7 = 5A1 + 4A3 + A5 ,

A8 = A1 A3 A5 ,

A9 = 0A1 + 2A3 + 4A5 .

De esta manera, la matriz A es

5 10 1
25 7
2
1
2
2
14
4
3

2
6 14 1
A=
4 8
5 10 1
25 7
0
8 16
3
17 25
1

1
1.3.1.6. Se tiene que E32 (8)E31 (2)A = 0
0
si a 6= 4, el rango es 3.

0
1
0

27
4
6
16 6 16
13
3
0
29
6 2
27
4 10

2
a
1
1 . Si a = 4 el rango es 2;
a + 4 2a + 8

1.5.1.3. De acuerdo con el Teorema 1.5.4, es suficiente probar que N (AB) 6= {0}. Como el
rango de B es a lo ms uno, el sistema homogneo Bx = 0 una solucin no trivial, digamos x0 .
Entonces ABx0 = A0 = 0. Luego x0 es una solucin no trivial de ABx = 0.
1.5.1.9. Para la primera parte, imite la prueba del Lema 1.3.3. Para la segunda parte, Es
posible que AB tenga ms columnas bsicas de las que tiene B? Para la tercera parte,
rango(AB) = rango(B T AT ) rango(AT ) = rango(A).
Finalmente, n = rango(I) = rango(AB) rango(A). Como A es cuadrada de n n, se tiene
que rango(A) n.

Captulo 2. Determinantes
2.3.1.18. Como det(A) < 0, entonces det(C) < 0.
det(ABC)2 = det(AB) det(AC) det(BC) = 9 16 25

= det(ABC) = 9 16 25 = 3 4 5 = 60
Otra forma,
9
16
9
=
= det(B) =
det(C),
det(B)
det(C)
16
9
25 16
54
det(C)2 = 25 = det(C)2 =
= det(C) =
.
16
9
3
det(A) =

det(B) det(C) = 25

Luego
det(ABC) = det(AB) det(C) = 9

54
= 3 4 5 = 60
3

182

C. Soluciones a ejercicios seleccionados

2.3.1.20. El trmino que produce 6 es


()a16 a25 a33 a44 a51 a62

donde =

1
6

2
5

3
3

4
4

5
1


6
. Ahora bien,
2
= (1, 6, 2, 5) = (1, 5)(1, 2)(1, 6)

y es una permutacin par. Luego


()a16 a25 a33 a44 a51 a62 = (1)(2)(4)(5)(2)()() = 80 6
El coeficiente de 6 es 80.
2.5.1.10. El polinomio f debe satisfacer f (xi ) = yi para cada i = 1, 2, . . . , n. Es decir,
a0 + a1 x1 + a2 x21 + + an1 xn1
= y1
1
a0 + a1 x2 + a2 x22 + + an1 xn1
= y2
2
..
.
a0 + a1 xn + a2 x2n + + an1 xn1
= yn
n

Es decir,

1
1

.
..

x1
x2
..
.

x21
x22
..
.

xn

x2n


a0
y1
. . . xn1
1

a1 y2
. . . xn1
2
a2
= . .
..
. ..

.
..
yn
. . . xn1
n
an1

Dado que la matriz del sistema es la matriz cuadrada de Vandermonde, y xi xj 6= 0 para i 6= j,


los coeficientes a0 , . . . , an1 estn determinados de manera nica.

Captulo 3. Espacios vectoriales


3.2.1.2.
Sea U = {U | U es un subespacio de V que contiene a S}. Se debe probar que hSi =
T
U
.
U U
T
Se tiene que hSi U, as que U A U hSi.
Recprocamente, sea U U. Como S U , se tiene
P que vi U para toda i. Ahora bien, U es
cerrado bajo suma y producto por escalar, as que
xi vi U , para cualesquiera xi K. Esto
prueba que hSi U .
3.2.1.3. Si x, y W y c R:
0T ai = 0 = 0 W
(x + y)T ai = (xT + y T )ai = xT ai + y T ai = 0 + 0 = x + y W
(cx)T ai = (cxT )ai = c(xT ai ) = c0 = 0 = cx W

183
3.3.1.14. Consideremos
P la combinacin lineal x1 Av1 + xr Avr = 0. Entonces A(x1 v1 + +
x
v
)
=
0,
es
decir,
xi vi N (A). Como el rango de A es n, se tiene que N (A) = {0}, as que
Pr r
xi vi = 0 y dado que v1 , . . . , vr son l.i, se sigue que xi = = xr = 0.
3.4.1.18. Sea = {w1 , . . . wr } una base para W . Veamos que 0 = {Aw1 , . . . , Awr } es una
base para A(W ). Sea v A(W ); entonces existe un w W tal quePv = Aw. Escribamos
w P
W comoP
combinacin lineal de los vectores de la base : w =
xi wi . Entonces v =
0
A( P
xi w i ) =
xi Awi . Esto muestra
que

genera
al
subespacio
A(W
).
Ahora, supongamos
P
P
que
xi Awi = 0; entonces A( xi wi ) = 0, es decir w =
xi wi N (A). Como tambin
w W , se tiene que w W N (A) = {0}, as que w = 0 lo que implica que xi = 0 para
i = 1, . . . , n.
3.6.1.6. La suma es directa si y solamente si U W = {0}. Sean v U W y c1 , c2 , c3 , c4 K
tales que v = c1 (v1 v4 ) + c2 (v2 v3 ) = c3 (v1 + v4 ) + c4 (v2 + v3 ). De aqu
c1 (v1 v4 ) + c2 (v2 v3 ) c3 (v1 + v4 ) c4 (v2 + v3 ) = 0
= (c1 c3 )v1 + (c2 c4 )v2 + (c2 c4 )v3 + (c1 c3 )v4 = 0.
Como es una base se obtiene el sistema de ecuaciones:
c1 c3 = 0
c2 c4 = 0
c2 c4 = 0
c1 c3 = 0.
La nica solucin al sistema de ecuaciones la trivial. As que v = 0. Por lo tanto la suma es
directa.
3.6.1.7. La suma es directa si y solamente si U W = {0}.
Se observa que u = v1 v2 + (v3 + v4 ) U y u tambin pertenece a W , ya que u = v1 +
v4 + (1)(v2 + v3 ). Adems u 6= 0 pues los vectores v1 , v2 , v3 , v4 son linealmente independientes.
As U W 6= {0} y la suma no es directa.
Si uno no se da cuenta de lo anterior, se puede proceder como sigue. Sean v U W y
c1 , c2 , c3 , c4 K tales que v = c1 (v1 v2 ) + c2 (v3 + v4 ) = c3 (v1 + v4 ) + c4 (v2 + v3 ). De aqu
c1 (v1 v2 ) + c2 (v3 + v4 ) c3 (v1 + v4 ) c4 (v2 + v3 ) = 0
= (c1 c3 )v1 + (c1 c4 )v2 + (c2 c4 )v3 + (c2 c3 )v4 = 0.
Como es una base, se obtiene el sistema de ecuaciones:
c1 c3 = 0
c1 c4 = 0
c2 c4 = 0
c2 c3 = 0.
Se tiene

1
1

0
0

0 1
0
1
0
0
0 1

0
1
0 1
1 1
0
0

0
1
0
0

0
0
1
0

1
1

1
0

El conjunto de soluciones es c1 = c4 , c2 = c4 , c3 = c4 . Tomando c4 = 1, entonces


c1 = c2 = c3 = 1. Entonces v = v1 v2 v3 + v4 el cual obviamente es distinto de cero y
pertenece a la interseccin. La suma por lo tanto no es directa.

184

C. Soluciones a ejercicios seleccionados

Captulo 4. Transformaciones lineales y matrices


4.1.1.14. Se observa que T (0, u) = T (00, u) = 0T (0, u) = 0; anlogamente se ve que T (u, 0) = 0.
Sean a, b K tales que av + bw = 0. Entonces
0 = T (av + bw, v) = T (av, v) + T (bw, v) = aT (v, v) + bT (w, v) = a 1 + b 0.
As a = 0. De manera anloga se prueba que b = 0.
4.2.1.10. Sea v ker P Im P ; entonces P v = 0 y v = P u para algn u V . As 0 = P v =
P (P u) = P u = v. Luego la suma es directa.
Sea v V . Entonces P v = P (P v), es decir 0 = P v P (P v) = P (v P v) y por lo tanto
u = v P v pertenece al ncleo de P . Tenemos que v = u + P v y por lo tanto V = ker P + Im P .

4.4.1.13. Se est buscando la nica transformacin lineal tal que





 

1
1
0
T (1) = 1
+ (1)
=
1
1
2



 

1
1
0
T (t) = (1)
+ (1)
=
1
1
2


  

1
1
3
T (1) = 2
+ (1)
=
1
1
1
Luego
2

T (a + bt + ct ) = aT (1) + bT (t) + cT (t ) =

Captulo B. Matrices

3c
2 a + 2 b c


.

Bibliografa

[1] Juan de Burgos Romn. lgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edicin, 1993.
[2] Jos Antonio de la Pea. lgebra Lineal Avanzada. Fondo de Cultura Econmica, Mxico,
1996.
[3] John B. Fraleigh. lgebra Abstracta. Adison Wesley Iberoamericana, Mxico, 1987.
[4] Stanley I. Grossman. lgebra Lineal. McGraw-Hill Interamericana, Mxico, quinta edicin,
1996.
[5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.
[6] I.N. Herstein. lgebra Moderna. Trillas, Mxico, 1970.
[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edicin, 1996.
[8] Kenneth Hoffman y Ray Kunze. lgebra Lineal. Prentice Hall, Mxico, segunda edicin,
1984.
[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison
Wesley, 1971.
[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edicin, 1997.
[11] Serge Lang. lgebra Lineal. Fondo Educativo Iberoamericano, Mxico, 1976.
[12] Jos Alejandro Lara Rodrguez and Carlos Jacob Rubio Barrios. lgebra Lineal. Universidad Autnoma de Yucatn, Mxico, 2011. (document)
[13] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. WileyInterscience, Nueva York, segunda edicin, 2007.
[14] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edicin, 1998.
[15] Seymour Lipschutz. lgebra Lineal. McGraw-Hill, Mxico, segunda edicin, 1992.
185

186

BIBLIOGRAFA

[16] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.
[17] Ben Noble y James W. Daniel. lgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
Mxico, tercera edicin, 1989.
[18] David Poole. lgebra Lineal: Una introduccin moderna. Thomson, Mxico, 2004.
[19] Hugo A. Rincn Meja. lgebra Lineal. Coordinacin de Servicios Editoriales, Facultad de
Ciencias, UNAM, Mxico, 2001.
[20] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edicin, 2008.
[21] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.
[22] W. A. Stein et al. Sage Mathematics Software (Version 5.10). The Sage Development
Team, 2013. http://www.sagemath.org. (document)
[23] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.

ndice alfabtico

anulador, 137
aplicacin lineal, 105
base
de un espacio vectorial, 89
dual, 137
campo, 141
caracterstica de un campo, 144
ciclo de longitud r, 48
ciclos ajenos, 49
cofactor, 45, 59
cofactores
matriz de, 59
columna bsica, 22
combinacin lineal, 4, 10
complemento ortogonal, 101
delta de Kronecker, 147
dependencia e independencia lineal, 84
descomposicin
LU , 33
de Jordan, 131
en valores singulares, 131
determinante
desarrollo por cofactores, 45
funcin determinante, 43
diagonal principal de una matriz, 148
dimensin de un espacio vectorial, 90
ecuacin lineal, 1
solucin de una, 2
elemento pivotal, 13
equivalencia de matrices, 128
escalar, 1, 76, 141
espacio
columna, 6, 20, 32

de las transformaciones lineales, 107


dual, 136
nulo, 20, 27, 32
nulo de una transformacin lineal, 111
nulo izquierdo, 20, 32
rengln, 20, 32
vectorial, 75
base de un, 89
cociente, 83
complejo, 76
real, 76
espacios fundamentales, 32
bases y dimensin, 94
espacio columna, 6, 20, 32
espacio nulo, 20, 32
espacio nulo izquierdo, 20, 32
espacio rengln, 20, 32
forma escalonada
por renglones, 16, 169
reducida por renglones, 17, 172
funcin lineal, 105
funcional lineal, 136
imagen
de una transformacin lineal, 111
inversa
de una matriz, 158
derecha de una matriz, 158
izquierda de una matriz, 158
isomorfismo de espacios vectoriales, 115
Mtdo de eliminacin de
Gauss, 170
Gauss-Jordan, 172
matrices
187

188

NDICE ALFABTICO

equivalentes, 128
semejantes, 130
matriz
adjunta, 59
anti-hermitiana, 157
antisimtrica, 58, 156
asociada a una funcin lineal, 119
aumentada, 4
cambio de base, 121
cero, 148
compaera, 59
conjugada de una, 156
conjugada transpuesta de una, 156
cuadrada, 148
de coeficientes, 4
de trminos independientes, 4
diagonal, 148
diagonalizable, 134
elemental, 164
elemental de Tipo I, II o III, 164
hermitiana, 60, 157
idempotente, 61, 154
identidad, 148
invertible, 158
nilpotente, 60, 154
no singular, 158
nula, 148
simtrica, 41, 156
singular, 158
transpuesta de una, 154
traza de una, 47, 61
triangular inferior, 148
triangular superior, 148
unitaria, 60
matriz de cofactores, 59
multiplicacin de matrices, 151

multiplicacin de permutaciones, 48
par, 51
pivote, 13, 169
producto
de matrices, 151
de matriz por escalar, 150
exterior, 158
interior, 158
interno, 158

ncleo
de una transformacin lineal, 111
nulidad
de una transformacin lineal, 112
operacin elemental
de columna, 162
de rengln, 162
operaciones elementales, 12
operador lineal
diagonalizable, 134

teorema
de la dimensin, 112
transformacin lineal, 105
ncleo de una, 111
construccin de una, 106
espacio nulo de una, 111
imagen de una, 111
inducida por una matriz, 106
matriz asociada a una, 119
transposicin, 49
traza de una matriz, 47, 161

permutacin, 48
identidad, 48
impar, 51

Vandermonde
matriz de, 66, 88
variable

rango
de un producto de matrices, 99
de una matrix, 22
de una transformacin lineal, 112
e independencia lineal, 86
regla de cramer, 61
semejanza
de matrices, 130
sistema de ecuaciones lineales, 2
consistente, 2
determinado, 2
equivalentes, 12
homogneo, 2
inconsistente, 2
indeterminado, 2
representacin matricial, 4
solucin de un, 2
subespacio
generado por un conjunto de vectores, 80
vectorial, 78
subespacios ortogonales, 99
submatriz, 45, 159
suma
de matrices, 149
de subespacios, 82
suma directa, 98

NDICE ALFABTICO
bsica, 15, 16
libre, 15, 16
pivotal, 13
vector, 76
columna, 2, 146
de coordenadas, 96
de trminos independientes, 4
rengln, 2, 146

189

You might also like