You are on page 1of 156

Notas sobre álgebra lineal

Universidad Nacional de Colombia


Sede Manizales

Juan Pablo Hernández Rodas

2016
ii
Índice general

I Espacios vectoriales 3

1. Campos 5

1.1. Algunos ejemplos de campos . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.1. Teorema fundamental de la aritmética . . . . . . . . . . . . . . . . 7

1.2. Relaciones de equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2. Espacios vectoriales 19

2.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.2. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.3. Intersección y suma de subespacios . . . . . . . . . . . . . . . . . . . . . . 25

2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3. Bases y dimensión 29

3.1. Conjuntos linealmente independientes y linealmente dependientes . . . . . 29

3.2. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 34

3.2.1. Operaciones fila elementales . . . . . . . . . . . . . . . . . . . . . . 34

3.3. Bases para espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 45

3.3.1. Ordenes parciales, totales y el Lema de Zorn . . . . . . . . . . . . 48

3.4. Dimensión de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . 51

iii
iv ÍNDICE GENERAL

3.4.1. Dimensión de subespacios vectoriales . . . . . . . . . . . . . . . . . 56


3.4.2. Dimensión de una suma de espacios vectoriales . . . . . . . . . . . 57
3.5. Suma directa de subespacios vectoriales . . . . . . . . . . . . . . . . . . . 60
3.6. Espacios vectoriales con producto interno . . . . . . . . . . . . . . . . . . 64
3.6.1. Vectores en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.6.2. Producto interno entre vectores de Rn . . . . . . . . . . . . . . . . 70
3.6.3. Proyección ortogonal y el teorema de Pitágoras . . . . . . . . . . . 73
3.6.4. Complemento Ortogonal y proceso de ortogonalización de Gram-
Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

4. Matrices, bases ordenadas y transformaciones lineales 95


4.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.2. Bases ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.2.1. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.2.2. Matrices de cambio de base . . . . . . . . . . . . . . . . . . . . . . 106
4.3. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.3.1. Kernel e imagen de una transformación lineal . . . . . . . . . . . . 113
4.3.2. Operaciones entre transformaciones lineales . . . . . . . . . . . . . 118
4.3.3. Matriz asociada a una transformación lineal . . . . . . . . . . . . . 119
4.3.4. Isometrías lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4. Función Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.4.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.5. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5.1. Valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5.2. Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.5.3. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Introducción

1
2 ÍNDICE GENERAL
Parte I

Espacios vectoriales

3
Capítulo 1

Campos

Definición 1. Un campo es un conjunto F dotado con dos operaciones binarias


+ : F × F → F y • : F × F → F , que satisface las siguientes propiedades:

S1: a + b = b + a para todo a, b ∈ F (Conmutatividad)

S2: a + (b + c) = (a + b) + c para todo a, b, c ∈ F (Asociatividad)

S3: Existe un elemento 0 ∈ F tal que a + 0 = a para todo a ∈ F (Existecia del neutro
de la suma)

S4: Para todo a ∈ F existe −a ∈ F tal que a + (−a) = 0 (Existencia del inverso
aditivo)

P1: a • b = b • a, para todo a, b ∈ F (Conmutatividad)

P2: a • (b • c) = (a • b) • c para todo a, b, c ∈ F (Asociatividad)

P3: Existe un elemento 1 ∈ F , 1 6= 0, tal que a • 1 = a para todo a ∈ F (Existencia


del elemento identidad)

P4: Para todo a ∈ F , a 6= 0, existe a−1 ∈ F tal que a • a−1 = 1 (Existencia del inverso
multiplicativo)

5
6 CAPÍTULO 1. CAMPOS

D: a • (b + c) = a • b + a • c, para todo a, b, c ∈ F (Distributividad)

1.1. Algunos ejemplos de campos

Ejemplo 1. Los ejemplos más naturales, dado que aparecen todo el tiempo en los cursos
básicos de matemáticas, son:

1. (Q, +, ·): El conjunto de los números racionales, Q = { m


n : m, n ∈ Z y n 6= 0}
con las operaciones
a c ad + bc a c ac
+ = y · =
b d bd b d bd

El conjunto de los números racionales, se puede construir a partir de los números


enteros por medio de una relación de quivalencia, como veremos más adelante.

2. (R, +, ·): El conjunto de los números reales.


La construcción de los números reales es más complicada. Una forma de construirlos
es usando cortaduras de Dedekin y otra forma es construirlos usando sucesiones
de cauchy.

3. (C, +, ·): El conjunto de los números complejos, definido como

C = {a + bi : a, b ∈ R},


donde i = −1 ∈
/ R, con las operaciones usuales

(a + bi) + (c + di) = (a + c) + (b + d)i y (a + bi) · (c + di) = (ac − bd) + (ad + bc)i

4. Extensiones simples de Q: Es claro que Q ⊂ C. En un curso de teoría de campos,


dado α ∈ C \ Q, se define un nuevo campo Q(α), simplemente como el campo más
pequeño que contiene a Q y a α. Este campo es simplemente la intersección de
todos los campos contenidos en C que contienen a Q y a α.
1.1. ALGUNOS EJEMPLOS DE CAMPOS 7

Note que todos los ejemplos anteriores, son campos que contienen al campo de los
números racionales Q.
Los siguientes dos ejemplos que quiero mostrar, son por un lado un caso particular de

las extensiones simples Q(α), y es precisamente el campo Q( n), donde n es un natural
libre de cuadrados, y por el otro lado, un campo finito muy importante en matemáticas
denotado Zp .
Para discutir estos dos ejemplos es necesario primero introducir ciertas nociones de teoría
de números y hablar de relaciones de equivalencia.

1.1.1. Teorema fundamental de la aritmética

Definición 2. Decimos que un natural p ∈ N es un número primo, si sus únicos divisores


son el 1 y p.

Proposición 1. Todo número natural n ∈ N es divisible por algún número primo.

Demostración. Sea n ∈ N. Si n es un número primo, entonces n divide a n y terminamos


la prueba.
Si n no es primo, entonces por definición de número primo, n tiene un divisor d con d 6= 1
y d 6= n. Consideremos e el divisor más pequeño de n. Por el principio del buen orden
sabemos que existe este elemento, ya que si consideramos el conjunto {d ∈ N : d|n},
este es un subconjunto no vacio de los números naturales y por lo tanto tiene un elemento
minimal.
Veamos que e es primo. En efecto, supongamos por reducción al absurdo que e no es
primo, luego e tiene un divisor distinto de 1 y de e, digamos que sea k, pero como k|e
entonces k < e, lo cual es un absurdo ya que k|e y e|n implica k|n, y esto contradice la
minimalidad de e.

Teorema 1 (Algoritmo de la división). Sean m, n ∈ Z, n 6= 0. Existen únicos enteros q


y r tales que m = nq + r, y 0 ≤ r < |n|.
8 CAPÍTULO 1. CAMPOS

Demostración. Existencia: Supongamos primero el caso n > 0. Consideremos el con-


junto M = {m − qn : q ∈ Z y m − qn ≥ 0}. Notemos que M 6= ∅, ya que si m ≥ 0
entonces con q = 0 se tiene que m − qn = m ∈ M , y si m < 0 entonces con q = m
tenemos que m − qn = m − mn = m(1 − n) ≥ 0 pues 1 − n ≤ 0 y m < 0, por lo tanto
m − mn ∈ M . Por el principio del buen orden, como M ⊂ N es un subconjunto no
vacio, entonces M tiene un elemento minimal. Digamos que este elemento minimal es
r = m − qn, luego m = qn + r. Veamos que 0 ≤ r < n. Claramente r ≥ 0, y si suponemos
por el absurdo que r ≥ n, entonces r = m − qn ≥ n lo que implica que m − qn − n ≥ 0
y por lo tanto m − (q + 1)n ∈ M , pero m − (q + 1)n < m − qn = r ya que n > 0, lo que
contradice la minimalidad de r.
Cuando n < 0, ya probamos que m = q(−n) + r con 0 ≤ r < |n|, luego m = (−q)n + r
con 0 ≤ r < |n|.
Unicidad: Nuevamente basta probar el caso n > 0. Supongamos que m = qn + r y
m = tn + s con 0 ≤ r < n y 0 ≤ s < n. Sin pérdida de generalidad podemos suponer que
s ≥ r. Luego qn + r = tn + s lo que implica que (q − t)n = s − r. Así, n ≤ s − r pero s < n
y r < n implica que s − r = 0, es decir, r = s. Note que r = s implica inmediatamente
que q = t.

El algoritmo de la división nos permite construir algorítmicamente el máximo común


divisor entre dos numeros naturales.

Proposición 2. Dados dos números naturales a, b ∈ N, existe un único número natural


d que denotaremos por d = (a, b) con las siguientes propiedades:

1. d|a y d|b

2. Si k|a y k|b entonces k|d

Demostración. Por el algoritmo de la división sabemos que a = qb + r, con 0 ≤ r < b.


Aplicando nuevamente el algoritmo de la división tenemos que b = q1 r + r1 con 0 ≤
r1 < r < b. Continuando de esta forma obtenemos una ecuación ri = qi+2 ri+1 + ri+2
1.1. ALGUNOS EJEMPLOS DE CAMPOS 9

con 0 ≤ ri+2 < ri+1 < · · · < r1 < r < b. Así, para algún n, rn = 0 y por lo tanto como
rn−2 = qn rn−1 + rn , entonces rn−2 = qn rn−1 .
Veamos que rn−1 es el número buscado.
En efecto, rn−1 |rn−2 y como rn−3 = qn−1 rn−2 + rn−1 , entonces rn−1 |rn−3 . Por lo tan-
to, si rn−1 |rj para j = n − 2, n − 3, · · · , n − k, entonces rn−1 |rn−k−1 ya que rn−k−1 =
(qn−k−1+2 )(rn−k−1+1 ) + (rn−k−1+2 ), es decir, rn−k−1 = (qn−k+1 )(rn−k ) + (rn−k+1 ) y
como rn−1 |rn−k y rn−1 |rn−k+1 entonces rn |rn−k−1 . Esto implica que continuando recur-
sivamente, obtenemos que rn−1 |a y rn−1 |b.
Si otro número k es tal que k|a y k|b, entonces k|r1 . Pero si k|b y k|r1 entonces k|r2 .
Nuevamente de manera recursiva, veamos que si k|ri para todo i < j entonces k|rj . En
efecto, como rj−2 = qj rj−1 + rj entonces rj = rj−2 − qj rj−1 . Por lo tanto, ya que k|rj−2
y k|rj−1 , entonces k|rj . Esto muestra que continuando de esta manera obtenemos que
k|rn−1 .
Por lo tanto rn−1 es el número que estabamos buscando.
La unicidad se deja como ejercicio.

Este número (a, b) construido en la prueba anterior es llamado el máximo común


divisor entre a y b.

Corolario 1. Sean a, b ∈ Z. Si d = (a, b) es el máximo común divisor entre a y b,


entonces d = ta + sb, para ciertos números t, s ∈ Z.

Demostración. Como vimos en la prueba del teorema anterior, a = qb + r, b = q1 r + r1 ,


r = q2 r1 + r2 , · · · , ri = qi+2 ri+1 + ri+2 , · · · , rn−3 = qn−1 rn−2 + rn−1 , y rn−2 = qn rn−1 ,
donde rn−1 = (a, b). De la primera ecuación tenemos que r = a − qb, lo cual muestra que
r = t0 a + s0 b, con t0 , s0 ∈ Z. De la segunda ecuación tenemos que r1 = b − q1 r, luego
reemplazando r = t0 a + s0 b obtenemos que r1 = t1 a + s1 b, para ciertos t1 , s1 ∈ Z. De
manera recursiva, si suponemos que ri = ti a + si b y ri+1 = ti+1 a + si+1 b, entonces de la
ecuación ri = qi+2 ri+1 + ri+2 obtenemos que ri+2 = ri − qi+2 ri+1 , luego reemplazando
10 CAPÍTULO 1. CAMPOS

nos queda que ri+2 = ti a+si b−qi+2 (ti+1 a+si+1 b), de donde agrupando términos resulta
que ri+2 = ti+2 a + si+2 b, para ciertos ti+2 , si+2 ∈ Z. Esto muestra que continuando de
esta forma obtenemos finalmente que rn−3 = tn−3 a + sn−3 b y rn−2 = tn−2 a + sn−2 b,
de donde nuevamente de la ecuación rn−3 = qn−1 rn−2 + rn−1 , obtenemos que rn−1 =
rn−3 − qn−1 rn−2 y por lo tanto rn−1 = (a, b) = ta + sb, para ciertos t, s ∈ Z.

Definición 3. Dados dos números naturales a, b ∈ N, definimos el mínimo común múl-


tiplo entre a y b, que denotaremos por mcm(a, b), como

ab
mcm(a, b) =
(a, b)

Proposición 3. Sea p ∈ Z un número primo. Entonces si p|ab, se tiene que p|a o p|b.

Demostración. Supongamos que p|ab y que p - a. Veamos entonces que p|b. En efecto,
como p|ab entonces ab = kp. Como p - a entonces (a, p) = 1, es decir, a y p son primos
relativos. Por lo tanto tenemos que 1 = ta + sp, de donde, multiplicando a ambos lados b
se sigue que b = t(ab) + (sb)p, luego b = (tk)p + (sb)p, y así b = (tk + sb)p. Esto muestra
que p|b.

Teorema 2 (Teorema fundamental de la aritmética). Todo número natural n ∈ N, n > 1


se puede escribir como n = p1 p2 · · · pr , donde pi es primo para todo i = 1, · · · , r. Además
la escritura es única salvo el orden de los factores.

Demostración. Existencia: Vamos a razonar por inducción sobre n.


Si n = 2, el resultado es trivial ya que 2 es primo. Supongamos que el resultado es cierto
para todo k < n. Si n es primo el resultado es trivial. Supongamos que n no es primo.
Por la proposición anterior sabemos que existe un primo p que divide a n, es decir,
n = kp para cierto k ∈ N. Claramente k < n y por lo tanto de la hipótesis de inducción
concluimos que k = p1 · · · pt con pi primo para i = 1, · · · , t. Luego n = p1 p2 · · · pt p, un
producto de primos.
Unicidad: Supongamos que n = p1 p2 · · · pr y n = q1 q2 · · · qs son dos descomposiciones
1.1. ALGUNOS EJEMPLOS DE CAMPOS 11

primas de n. Entonces p1 p2 · · · pr = q1 q2 · · · qs . De aquí se sigue que pi |q1 q2 · · · qs y por


lo tanto pi |qj para algún j, lo que implica que pi = qj para cierto j. De igual forma
p1 p2 · · · pr = q1 q2 · · · qs implica que qk |pt para cierto t, luego qk = pt para cierto t. Esto
muestra la igualdad de conjuntos {p1 , . . . , pr } = {q1 , . . . , qs }.

Observación 1. En el enunciado del teorema anterior, se pone la condición n > 1, para


evitar confusiones, ya que para n = 1 también es cierto el resultado asumiendo que un
producto vacio de términos es 1, es decir, 1 es un producto vacio de primos.

Definición 4. Decimos que n ∈ N es libre de cuadrados, si en su descomposición prima


no tiene primos repetidos.
√ √
Ejemplo 2. Sea n ∈ N libre de cuadrados, n 6= 1. Entonces Q( n) = {q1 +q2 n : q1 , q2 ∈
Q} es un campo.

Demostración. Vamos a ver solamente que todo elemento no nulo de Q( n) tiene inverso
multiplicativo.
La verificación de las otras propiedades de campo, se dejan como ejercicio para el lector.

Basta demostrar que todo elemento no nulo de la forma a + b n con a, b ∈ Z tiene un
inverso, ya que

m s√ tm + sr n 1 √
+ n= = (tm + sr n),
r t rt rt

y por lo tanto basta invertir tm + sr n.
También podemos suponer que (a, b) = 1, ya que si a y b tienen un factor común,
√ √ √
entonces a = kt y b = st, y por lo tanto a + b n = kt + st n = t(k + s n) y basta

invertir k + s n.

Supongamos entonces que queremos invertir a + b n 6= 0, con (a, b) = 1.
Note que

√ a−b n
(a + b n) 2 = 1,
a − nb2
siempre y cuando a2 − nb2 6= 0.
Veamos que a2 − nb2 6= 0. Supongamos por el absurdo que a2 = nb2 , luego n|a2 . Como
12 CAPÍTULO 1. CAMPOS

n es libre de cuadrados, entonces n|a y por lo tanto a = kn. Así, k 2 n2 = nb2 y luego
k 2 n = b2 . Esto implica que n|b2 y como n es libre de cuadrados entonces n|b. Por lo
tanto n|a y n|b, lo cual es absurdo ya que (a, b) = 1.

Observación 2. Tenga en cuenta que como dijimos anteriormente, dado cualquier ele-
mento α ∈ C \ Q, Q(α) es un campo. El ejemplo anterior simplemente muestra que

cuando α = n donde n es libre de cuadrados, entonces en este caso es sencillo demos-

trar que Q( n) es un campo.
Por ejemplo, si n = 360 = 23 32 5, claramente en este caso n no es libre de cuadrados. Sin
√ √
embargo, Q( 360) = Q( 10), donde 10 es libre de cuadrados.

1.2. Relaciones de equivalencia

La razón por la que quiero introducir la noción de relación de equivalencia, es para


mostrar por un lado como los números racionales se pueden obtener a partir de Z por
medio de un relación de equivalencia, y por otro lado exhibir campos que no contengan
a los números racionales. Note que hasta ahora, todos los ejemplos de campos han sido
conjuntos que contienen al campo Q.

Definición 5. Una relación de equivalencia en un conjunto K, es simplemente un sub-


conjunto R ⊂ K × K que satisface las siguientes propiedades:

Reflexiva: Para todo a ∈ K, (a, a) ∈ R

Simétrica: Si (a, b) ∈ R entonces (b, a) ∈ R

Transitiva: Si (a, b) ∈ R y (b, c) ∈ R, entonces (a, c) ∈ R.

Las relaciones de equivalencia se acostumbran denotar con el símbolo ∼, por lo tanto las
propiedades anteriores se puede enunciar como:

Reflexiva: a ∼ a, para todo a ∈ K


1.2. RELACIONES DE EQUIVALENCIA 13

Simétrica: Si a ∼ b entonces b ∼ a

Transitiva: Si a ∼ b y b ∼ c, entonces a ∼ c

Observación 3. Si ∼ es una relación de equivalencia en K, denotaremos

[a] = a = {b ∈ K : b ∼ a},

que llamaremos la clase de equivalencia de a. La relación de equivalencia ∼, permite ver


al conjunto K como una unión disjunta de subconjuntos
[
K= [aα ],
α

donde [aα ] ∩ [aβ ] = ∅ si aα  aβ , es decir, si aα no está relacionado con aβ .


El cociente de K por la relación ∼, que denotaremos por K/ ∼, es el conjunto de todas
las distintas clases de elementos de K, es decir,

K/ ∼ = {[a] : a ∈ K}

Ejemplo 3 (Los números racionales). Denote Z∗ = Z \ {0}. Consideremos la siguiente


relación de equivalencia en Z × Z∗ , es decir, la relación de equivalencia en este caso es un
subconjunto R ⊂ (Z × Z∗ ) × (Z × Z∗ ). Diremos que (a, b) ∼ (c, d) si ad − bc = 0. Queda
como ejercicio para el lector, la demostración de que esta es una relación de equivalencia.
La clase de equivalencia de (a, b) que veniamos denotando por [(a, b)] será denotada en
este ejemplo por
a
[(a, b)] =
b
El cociente de Z × Z∗ por esta relación de equivalencia, con las operaciones

[(a, b)] + [(c, d)] = [(ad + bc, bd)] y [(a, b)][(c, d)] = [(ac, bd)],

o con la notación anterior de fracciones,


a c ad + bc ac ac
+ = y = ,
b d bd bd bd
es lo que llamaremos el conjunto de los números racionales.
Se deja como ejercicio, demostrar que este conjunto con estas operaciones es un campo.
14 CAPÍTULO 1. CAMPOS

Ejemplo 4 (Construcción de Zn ). Dado n ∈ N, n > 1, consideremos en Z la siguiente


relación de equivalencia:
Diremos que a ∼ b si n|(a − b). Dejamos como ejercicio para el lector, demostrar que
esta es en efecto una relación de equivalencia. Sabemos que esta relación de equivalencia
divide el conjunto Z en subconjuntos disjuntos.
Veamos que en este caso Z queda dividido en finitos subconjuntos disjuntos, es decir,
veamos que Z/ ∼ es un conjunto finito.
En efecto, vamos a demostrar que Z/ ∼ = {0, 1, . . . , n − 1}.
Antes de demostrar esto, es bueno familiarizarse con la notación. Por ejemplo, 0 = {k ∈
Z : n|k}, es decir, es el subconjunto de todos los múltiplos de n. De igual forma,
1 = {k ∈ Z : n|(k − 1)} y en general, m = {k ∈ Z : n|(k − m)}.
Veamos entonces que Z/ ∼ = {0, 1, . . . , n − 1}. Primero que todo, note que si 0 ≤ i < n
y 0 ≤ j < n, entonces n - (i − j), es decir, i 6= j. Esto muestra que las clases de
equivalencia 0, 1, . . . , n − 1 son todas distintas. Por otro lado, si k ≥ n, entonces por el
algoritmo de la división sabemos que existen únicos enteros q, r tales que k = qn + r y
0 ≤ r < n. Por lo tanto, k − r = qn lo que implica que n|(k − r), es decir, k = r, y
como 0 ≤ r < n entonces r ∈ {0, 1, . . . , n − 1}. Esto muestra que Z/ ∼ es finito y es
precisamente el conjunto {0, 1, . . . , n − 1}.
Este conjunto Z/ ∼ será denotado de ahora en adelante por Zn o Fn , y es llamado el
conjunto de los enteros módulo n.
El conjunto Zn se puede dotar de dos operaciones suma y producto definidas como:

a + b = a + b y ab = ab

Se deja como ejercicio para el lector, demostrar que estas operaciones están bien defini-
das.

Observación 4. En Zn , cuando a = b, decimos que a ≡ b mod (n), que se lee, a es


congruente con b módulo n.
1.2. RELACIONES DE EQUIVALENCIA 15

Proposición 4. Zn con las operaciones definidas en el Ejemplo 4 es un campo, si y sólo


si n es primo.

Demostración. Supongamos que n = p es primo y veamos que Zp es un campo. Voy a


demostrar solamente que todo elemento no nulo de Zp tiene un inverso multiplicativo.
La verificación de las otras propiedades de campo, se deja como ejercicio para el lector.
Sea k ∈ Zp , k 6= 0. Por lo tanto p - k, lo que implica que (k, p) = 1. Luego 1 = tk + sp,
de donde 1 − tk = sp. Así p|(1 − tk), lo que muestra que 1 = tk, pero tk = tk, ya que así
definimos la operación producto en Zp , por lo tanto tenemos que 1 = tk, lo que muestra
que t es el inverso multiplicativo de k.
Reciprocamente, veamos que si Zn es un campo, entonces n es primo. Por la descompo-
sición prima sabemos que n = pk, con p primo. Luego como n|pk tenemos que 0 = pk.
Como k < n entonces n - k, lo que implica que k 6= 0 y como Zn es un campo, k tiene un
inverso (k)−1 . Si multiplicamos a ambos lados la ecuación 0 = pk por (k)−1 obtenemos
que 0 = p, lo que muestra que n|p, pero como p es primo se concluye que n = p

Ejemplo 5. La Proposición anterior, nos muestra una forma de construir campos fini-
tos, es decir, por cada número primo p, tenemos un campo finito Zp . Esto muestra la
existencia de campos que no contienen a Q.

Esto nos permite concluir que tenemos campos que contiene a Q y campos que no lo
contienen.

Definición 6. Sea F un campo. Definimos la característica de F , como el menor natural


n tal que n · 1 = 1 + 1 · · · + 1 = 0, es decir, la suma de n-veces el elemento identidad es
0.

Observación 5. Dado un campo F , si no existe ningún natural que satisfaga la defini-


ción anterior, entonces decimos que F es un campo de característica cero.

Ejemplo 6. Q, R, C son todos campos de característica cero.


16 CAPÍTULO 1. CAMPOS

Proposición 5. Sea F un campo de característica n > 0, es decir, tal que la suma


de n-veces el elemento identidad es cero, n · 1 = 0 y n es minimal con esta propiedad.
Entonces n es un número primo.

Demostración. Supongamos que p|n, p primo. Luego n = pk, y como n · 1 = 0 entonces


pk · 1 = 0, es decir, (p · 1)(k · 1) = 0. Como k < n entonces k · 1 6= 0 ya que n es minimal
con esta propiedad, luego como F es un campo entonces k · 1 tiene un inverso. Si en la
ecuación (p · 1)(k · 1) = 0 multiplicamos a ambos lados por el inverso multiplicativo de
k · 1, obtenemos que 0 = p · 1. Pero n es el menor natural no nulo con esta propiedad,
luego p ≥ n. Por otro lado la igualdad n = pk implica que p ≤ n. Así tenemos que
n = p.

Por lo tanto, concluimos que los campos pueden tener característica cero o caracte-
rística prima.

Ejemplo 7. Para p primo, Zp es un ejemplo de un campo de característica prima.

Observación 6. Existen campos de característica prima que no son finitos.


En un curso de teoría de campos, se demuestra que todo campo de característica cero
contiene una copia de Q, y que todo campo de característica prima p contiene una copia
de Zp .

1.3. Ejercicios

1. Sea (F, +, •) un campo. Demuestre los siguientes enunciados:

i) El neutro de la suma, 0, es único.

ii) Para todo a ∈ F , a • 0 = 0.

iii) Dado a ∈ F su inverso aditivo −a ∈ F es único.

iv) −a = (−1) • a para todo a ∈ F .


1.3. EJERCICIOS 17

v) El elemento identidad, 1, es único.

vi) Dado a ∈ F , a 6= 0, su inverso aditivo a−1 es único.

vii) Dados a, b ∈ F , si a • b = 0 entonces a = 0 o b = 0.

2. Sean a y b números naturales. Si k = mcm(a, b), demuestre que a|k y b|k, y que si
a|c y b|c entonces k|c.

3. Demostrar la unicidad en la Proposición 2.

4. Demuestre que si n ∈ N, n 6= 1 es tal que cada vez que n|ab se tiene que n|a o n|b,
entonces n es un número primo. Esta es una manera equivalente de definir un
número primo.

5. Demuestre que si n es libre de cuadrados y n|ak entonces n|a. Muestre con un


ejemplo que esto en general no es cierto cuando n no es libre de cuadrados.

6. Demuestre que si ∼ es una relación de equivalencia en un conjunto K, entonces si


a  b, es decir, si a no está relacionado con b, entonces [a] ∩ [b] = ∅.

7. Demuestre que la relación definida en el Ejemplo 3, es en efecto una relación de


equivalencia.

8. Demuestre que las operaciones del Ejemplo 3 están bien definidas, es decir, de-
muestre que si [(a, b)] = [(r, s)] y [(c, d)] = [(p, q)], entonces [(a, b)] + [(c, d)] =
[(r, s)] + [(p, q)] y [(a, b)][(c, d)] = [(r, s)][(p, q)].
Demuestre además que, (Z × Z∗ )/ ∼ con estas operaciones es un campo.

9. Dado n ∈ N, consideremos en Z la relación a ∼ b si y sólo si n|(a − b). Demuestre


que esta es una relación de equivalencia.

10. Demuestre que las operaciones definidas en el Ejemplo 4, están bien definidas, es
decir, si a = c y b = d, entonces a + b = c + d, y ab = cd.
18 CAPÍTULO 1. CAMPOS

11. Demuestre que si p es primo, entonces Zp es un campo, es decir, verifique todas


las propiedades de campo.

12. Encuentre el menor número natural n tal que: n ≡ 1 mod(1), n ≡ 1 mod(2),


n ≡ 1 mod(3), . . . , n ≡ 1 mod(10).

13. Encuentre el inverso multiplicativo de 4 en Z13 .

14. Es posible dotar a R2 de estructura de campo?


Capítulo 2

Espacios vectoriales

En un curso básico de álgebra lineal, el conjunto sobre el cual se suele trabajar,


es el conjunto Rn . A los elementos de este conjunto se le llaman vectores, y hay una
forma natural de sumar vectores: (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ).
Como señalamos en la primera sección, R es un campo, pero cuando trabajamos con
Rn no nos interesa tener un producto entre vectores, si no más bien, un producto por
elementos del campo R, esto es lo que llamamos un producto escalar. Si analizamos
las propiedades de Rn con esta suma de vectores y el producto escalar definido por
c · (a1 , . . . , an ) = (ca1 , . . . , can ), podemos deducir las propiedades que hay que pedirle en
general a un conjunto para que sea un espacio vectorial.

Definición 7. Sea K un campo. Un espacio vectorial sobre K, es un conjunto V dotado


de dos operaciones binarias, + : V × V → V y · : K × V → V , que satisface las siguientes
propiedades:

S1: v + w = w + v para todo v, w ∈ V (Comutatividad)

S2: u + (v + w) = (u + v) + w para todo u, v, w ∈ V (Asociatividad)

S3: Existe un elemento O ∈ V tal que O + v = v para todo v ∈ V (Existencia del


neutro para la suma)

19
20 CAPÍTULO 2. ESPACIOS VECTORIALES

S4: Para todo v ∈ V existe un elemento −v ∈ V tal que v + (−v) = O (Existencia de


inversos aditivos)

E1: c · (u + v) = c · u + c · v, para todo c ∈ K, u, v ∈ V

E2: (a + b) · v = a · v + b · v, para todo a, b ∈ K, v ∈ V

E3: (ab) · v = a · (b · v), para todo a, b ∈ K, v ∈ V

E4: 1 · v = v, para todo v ∈ V . Aquí 1 ∈ K, es decir, 1 es la identidad del campo.

Observación 7. 1. Los elementos de V son llamados vectores y los elementos de K


escalares.

2. Note que es necesario hacer una distinción entre el neutro del campo, 0 ∈ K, y el
neutro de V , O ∈ V .

3. V no tiene necesariamente una multiplicación entre vectores, por lo tanto no tiene


que existir una identidad en V . Así, cuando hablemos de la identidad, nos referimos
a la identidad del campo K.

4. Siempre que hablemos de un espacio vectorial, es necesario decir un espacio vec-


torial sobre que campo. Por ejemplo, C es un C-espacio vectorial, pero C también
es un R-espacio vectorial, y los dos espacios vectoriales son muy diferentes.

2.1. Ejemplos

Ejemplo 8. R no es un C-espacio vectorial, ya que al multiplicar un número complejo


por un número real, el resultado no es necesariamente un real, por ejemplo i · π ∈
/ R.

Ejemplo 9. Sea K un campo. Consideremos el conjunto K n = {(a1 , . . . , an ) : ai ∈


K}. En este conjunto podemos definir una suma (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 +
b1 , . . . , an + bn ) y un producto escalar, es decir, un producto por elementos del campo,
2.1. EJEMPLOS 21

c · (a1 , . . . , an ) = (ca1 , . . . , can ).


K n con estas operaciones es un K-espacio vectorial.

Ejemplo 10. Consideremos el conjunto de matrices m × n con entradas en un campo


K, que denotaremos por Mm×n (K). Recordemos que una matriz m × n, es simplemente
un objeto que tiene la forma
 
 a11 a12 ··· a1n 
 
 a
 21 a22 ··· a2n 

A=
 . .. .. ..

 ..

 . . . 

 
am1 am2 · · · amn

y que por comodidad denotaremos por A = [aij ].


Este conjunto con la suma definidad como [aij ] + [bij ] = [aij + bij ], es decir, se suma
componente a componente, y el producto por escalar c · [aij ] = [caij ], es decir, el escalar
entra a multiplicar cada entrada de la matriz, es un K-espacio vectorial.
En particular, el espacio Mn (K) de todas las matrices cuadradas n × n con coeficientes
en K, es un K-espacio vectorial.

Ejemplo 11. Consideremos el conjunto S = {f : R → R : f es una función}. En S


tenemos la suma de funciones, donde f +g es la función definida como (f +g)(x) = f (x)+
g(x), y tenemos un producto escalar, c · f es la función definida como (c · f )(x) = cf (x).
S con estas dos operaciones es un R-espacio vectorial.

Ejemplo 12. El conjunto N = {f : R → R : f (0) 6= 0} con las operaciones del Ejemplo


11, no es un R-espacio vectorial. Hay varias razones por las cuales este no es un espacio
vectorial, una de ellas es que la función 0 : R → R que envía cualquier elemento en cero,
no pertenece al conjunto, es decir, N no tiene neutro.

Ejemplo 13. Sea T = {f : R → R : ∃N ∈ N tal que f (x) = 0 ∀ x ≥ N }


T con la suma y el producto escalar del Ejemplo 11, es un R-espacio vectorial. La prueba
se deja como ejercicio.
22 CAPÍTULO 2. ESPACIOS VECTORIALES

Ejemplo 14. Sea K un campo. Una expresión de la forma p(x) = an xn + an−1 xn−1 +
· · · + a1 x + a0 , con ai ∈ K para todo i = 0, 1, 2, . . . , n, es lo que se conoce como un
polinomio con coeficientes en K. El conjunto de todos los polinomios con coeficientes en
K se denota por K[x].
En K[x] podemos definir una suma de la siguiente forma: si p(x) = an xn + an−1 xn−1 +
· · · + a1 x + a0 y q(x) = bm xm + bm−1 xm−1 + · · · + b1 x + b0 , entonces si suponemos
que n ≥ m, podemos escribir q(x) = bn xn + bn−1 xn−1 + · · · + bm+1 xm+1 + bm xm +
bm−1 xm−1 + · · · + b1 x + b0 , donde bn = bn−1 = · · · = bm+1 = 0, y por lo tanto podemos
definir p(x) + q(x) = (an + bn )xn + · · · + (a1 + b1 )x + (a0 + b0 ). La multiplicación por
escalar, simplemente se define como c · (an xn + · · · + a1 x + a0 ) = can xn + · · · + ca1 x + ca0 .
K[x] con estas dos operaciones, es un K-espacio vectorial.

2.2. Subespacios vectoriales

Cuando trabajamos en el espacio vectorial R3 , aparecen subconjuntos importantes,


como las rectas y los planos. Los planos permiten generalizar la noción de recta tangente a
una curva en el plano, a la noción de plano tangente a una superficie. A su vez, los planos
están completamente definidos por su recta normal y un punto sobre el plano. Un plano
en R3 es un conjunto de la forma P = {(x, y, z) ∈ R3 : a(x−x0 )+b(y−y0 )+c(z−z0 ) = 0},
donde (a, b, c) es su vector normal y el plano contiene al punto (x0 , y0 , z0 ). Note que en
general, un plano no es R-espacio vectorial, ya que para serlo, es necesario que contenga
al origen. Pero a pesar de esto, una simple traslación lo convierte en un espacio vectorial.
Por ejemplo, el plano P = {(x, y, z) ∈ R3 : 3x − y + z = 1} no es un espacio vectorial,
sin embargo, el plano P 0 = {(x, y, z) ∈ R3 : 3x − y + z = 0} es un espacio vectorial,
y este plano P 0 es paralelo al plano P . Estos planos en R3 que pasan por el origen, son
subespacios vectoriales. Vamos a ver a continuación la definición en general de subespacio
vectorial.
2.2. SUBESPACIOS VECTORIALES 23

Definición 8. Sea V un K-espacio vectorial. Decimos que un subconjunto W ⊂ V es


un subespacio vectorial, si W satisface las siguientes propiedades:

i) Para todo u, v ∈ W , u + v ∈ W (cerrado con la suma)

ii) Para todo c ∈ K y todo v ∈ W , c · v ∈ W (cerrado con la multiplicación por


escalares)

iii) El neutro O ∈ V , tiene que pertenecer a W , es decir, O ∈ W .

Proposición 6. Sea V un K-espacio vectorial. Entonces W ⊂ V es un subespacio


vectorial si y sólo si cu + v ∈ W para todo c ∈ K, u, v ∈ W .

Demostración. La prueba se deja como ejercicio.

Ejemplo 15. Sea K un campo. Consideremos el K-espacio vectorial K n . Definamos


W = {(a1 , a2 , . . . , an−1 , an ) ∈ K n : an = 0}. W es un subespacio vectorial de K n que
se puede identificar con K n−1 . Por ejemplo en R3 , W = {(x, y, z) ∈ R3 : z = 0}, es
precisamente el plano xy, que claramente puede ser identificado con R2 .

Ejemplo 16. En K n se puede definir un producto punto o producto interno de la


siguiente forma:
(a1 , . . . , an ) · (b1 , . . . , bn ) = a1 b1 + · · · + an bn

Es fácil verificar las siguientes propiedades del producto interno: (Ejercicio)

1. u · v = v · u para todo u, v ∈ K n

2. (u + v) · w = u · w + v · w para todo u, v, w ∈ K n .

3. cu · v = c(u · v), para todo c ∈ K, u, v ∈ K n

Decimos que dos vectores u, v ∈ K n son perpendiculares, si u · v = 0.


Sea U ⊂ K n un subespacio vectorial. Definimos su complemento ortogonal como:

U ⊥ = {v ∈ K n : v · u = 0 para todo u ∈ U }
24 CAPÍTULO 2. ESPACIOS VECTORIALES

U ⊥ es un subespacio vectorial (Ejercicio)


Por ejemplo en R3 , si U = {(x, y, z) ∈ R3 : z = 0} es el plano xy, entonces su
complemento ortogonal es U ⊥ = {(x, y, z) ∈ R3 : x = 0 = y}, que es precisamente el
eje z.

Ejemplo 17. Sabemos que Q es un Q-espacio vectorial. Dado un número primo p,


consideremos el subconjunto de Q, W = { m
n : p|m y p - n}. Entonces W no es un

subespacio vectorial de Q.

Ejemplo 18. Si S = {f : R → R : f es función}, entonces el subconjunto de las


funciones continuas y el subconjunto de las funciones diferenciables, son subespacios
vectoriales.

Ejemplo 19. Consideremos el K-espacio vectorial K[x]. El subconjunto C = {p(x) ∈


K[x] : p(0) = 0} es un subespacio vectorial de K[x].

Ejemplo 20. En el espacio vectorial de todas las matrices n × n, que denotamos


por Mn (K), consideremos el conjunto de todas las matrices invertibles, denotado por
GLn (K). GLn (K) no es un subespacio vectorial.

Definición 9. Dada una matriz A ∈ Mn (K), decimos que A es invertible, si existe una
matriz B ∈ Mn (K) tal que AB = In = BA, donde In denota la matriz identidad n × n
definida como: In = [aij ] donde aii = 1 para todo i = 1, 2, . . . , n y aij = 0 para todo
i 6= j, es decir:
 
 1 0 ··· 0 
 

 0 1 ··· 0 

In = 
 .. .. . . ..



 . . . . 

 
0 0 ··· 1

El conjunto GLn (K) no es un subespacio vectorial de Mn (K), ya que la matriz nula


no pertenece a GLn (K).
2.3. INTERSECCIÓN Y SUMA DE SUBESPACIOS 25

2.3. Intersección y suma de subespacios

Proposición 7. Sea V un K-espacio vectorial y sean W, W 0 ⊂ V subespacios vectoriales.


Entonces W ∩W 0 = {v ∈ V : v ∈ W y v ∈ W 0 } y W +W 0 = {w+w0 : w ∈ W, w0 ∈ W 0 }
son subespacios vectoriales.

Demostración. Claramente W ∩ W 0 ⊂ V y W + W 0 ⊂ V .
Veamos primero que W ∩W 0 es un subespacio vectorial. Por la Proposición 6, es suficiente
demostrar que dados c ∈ K y u, v ∈ W ∩ W 0 , se tiene que cu + v ∈ W + W 0 . Como
u, v ∈ W ∩W 0 entonces u, v ∈ W y u, v ∈ W 0 y como W y W 0 son subespacios vectoriales,
entonces nuevamente por la Proposición 6, cu + v ∈ W y cu + v ∈ W 0 . Por lo tanto
cu + v ∈ W ∩ W 0 . Esto muestra que W ∩ W 0 es un subespacio vectorial.
De igual forma, si c ∈ K y w + w0 , v + v 0 ∈ W + W 0 , es decir, w, v ∈ W y w0 , v 0 ∈ W 0 ,
entonces c(w + w0 ) + (v + v 0 ) = (cw + v) + (cw0 + v 0 ) ∈ W + W 0 ya que W y W 0 son
subespacios vectoriales. Esto muestra que W + W 0 es un subespacio vectorial.

Ejemplo 21. En R3 , la intersección de dos planos que pasen por el origen es un subes-
pacio.

Observación 8. En general, si V es un K-espacio vectorial y {Wα }α∈A es una familia


de subespacios vectoriales de V , entonces la intersección
\

α∈A

es un subespacio vectorial de V .
La demostración es igual al caso de una intersección de dos subespacios, y por lo tanto
se deja como ejercicio para el lector.

Observación 9. Note que la unión de subespacios no es necesariamente un subespacio,


ya que la unión no es cerrada bajo la suma, es decir, si tenemos dos subespacios W, W 0
de un espacio vectorial V , dados u, v ∈ W ∪ W 0 , la suma u + v no necesariamente
pertenece a W ∪ W 0 . Por ejemplo en R3 , consideremos W = {(x, y, 0) : x, y ∈ R} el
26 CAPÍTULO 2. ESPACIOS VECTORIALES

plano xy y L = {(0, 0, z) : z ∈ R} el eje z. Ambos son subespacios de R3 , pero W ∪ L


no es un subespacio, ya que por ejemplo (1, 1, 0) ∈ W ∪ L y (0, 0, 1) ∈ W ∪ L, pero
(1, 1, 0) + (0, 0, 1) = (1, 1, 1) ∈
/ W ∪ L.

2.4. Ejercicios

1. Sea V un K-espacio vectorial. Demuestre que:

0 · v = O para todo v ∈ V

Para todo v ∈ V , su inverso aditivo −v ∈ V es único.

−v = (−1) · v para todo v ∈ V

Para todo c ∈ K, c · O = O

2. Sea V un K-espacio vectorial. Suponga que c ∈ K, c 6= 0. Demuestre que c · v = 0


implica v = 0.

3. Demuestre que el conjunto del Ejemplo 13 es un espacio vectorial.

4. Dado un polinomio p(x) ∈ K[x], definimos el grado de p(x) = an xn + an−1 xn−1 +


· · · + a1 x + a0 que denotamos por deg(p(x)), como la potencia m más grande que
aparece en el polinomio tal que am 6= 0. Por ejemplo, el grado de un polinomio
constante es cero.
Considere el conjunto Pn = {p(x) ∈ K[x] : deg(p(x)) = n}, es decir, Pn es
el conjunto de todos los polinomios de grado n con coeficientes en K. Pn es un
K-espacio vectorial?

5. Consideremos el R-espacio vectorial R3 . Ahora consideremos un plano en R3 , por


ejemplo, P = {(x, y, z) ∈ R3 : 2x + y − z = 1}. Es P un R- espacio vectorial?

6. Sea V un K-espacio vectorial. Demuestre que W ⊂ V es un subespacio vectorial


si y sólo si cu + v ∈ W para todo c ∈ K, u, v ∈ V .
2.4. EJERCICIOS 27

7. Verifique las propiedades del producto interno definido en el Ejemplo 16.

8. Dado U ⊂ K n un subconjunto (no tiene que ser subespacio), demuestre que U ⊥


definido como

U ⊥ = {v ∈ K n : v · u = 0 para todo u ∈ U },

es un subespacio vectorial.

9. Considere el espacio vectorial Znp .

Dados (a1 , . . . , an ), (b1 , . . . , bn ) ∈ Znp , demuestre que si (a1 , . . . , an ) = (b1 , . . . , bn ),


entonces p|(a1 + · · · + an ) si y sólo si p|(b1 + · · · + bn )

Demuestre que el subconjunto W = {(a1 , . . . , an ) ∈ Znp : p|(a1 + · · · + an )}


es un subespacio vectorial.

10. Demuestre que el subconjunto del Ejemplo 17, no es un subespacio vectorial.

11. Demuestre la Observación 8.

12. Demuestre que en Zp , se satisface la ecuación (x + y)p = xp + y p .


28 CAPÍTULO 2. ESPACIOS VECTORIALES
Capítulo 3

Bases y dimensión

3.1. Conjuntos linealmente independientes y linealmente


dependientes

Dados vectores v1 , . . . , vn de un K- espacio vectorial V , definimos una combinación


lineal de estos vectores, simplemente como una expresión de la forma

a1 v1 + · · · + an vn ,

con a1 , . . . , an ∈ K.
Consideremos
\
T = W,
v1 ,...,vn ∈W ⊂V

la intersección de todos los subespacios de V que contienen a v1 , . . . , vn .


De la Observación 8, sabemos que T es un subespacio de V . Note que T es el subespacio
más pequeño que contiene a los vectores v1 , . . . , vn , ya que dado cualquier otro subespacio
W 0 conteniendo a v1 , . . . , vn , tenemos que T ⊂ W 0 .

Proposición 8. El subespacio T definido arriba, coincide con el conjunto

hv1 , . . . , vn i = {v = a1 v1 + · · · + an vn : a1 , . . . , an ∈ K}.

29
30 CAPÍTULO 3. BASES Y DIMENSIÓN

El conjunto hv1 , . . . , vn i es llamado el subespacio generado por los vectores v1 , . . . , vn .

Demostración. Note primero que todo, que hv1 , . . . , vn i es el conjunto de todas las posi-
bles combinaciones lineales de los vectores v1 , . . . , vn .
Veamos que T = hv1 , . . . , vn i.
Comencemos demostrando que hv1 , . . . , vn i es un subespacio vectorial. Claramente hv1 , . . . , vn i ⊂
V . Consideremos c ∈ K y tomemos v = a1 v1 + · · · + an vn , v 0 = b1 v1 + · · · + bn vn ∈
hv1 , . . . , vn i. Entonces, cv + v 0 = (ca1 + b1 )v1 + · · · + (can + bn )vn ∈ hv1 , . . . , vn i, lo que
muestra que hv1 , . . . , vn i es un subespacio vectorial.
Ahora, note que v1 , . . . , vn ∈ hv1 , . . . , vn i, por lo tanto de la definición de T se sigue que
T ⊂ hv1 , . . . , vn i.
Reciprocamente, si W ⊂ V es un subespacio tal que v1 , . . . , vn ∈ W , de la definición de
subespacio se tiene que cualquier combinación lineal a1 v1 +· · ·+an vn ∈ W . Esto muestra
que hv1 , . . . , vn i ⊂ W . En otras palabras, todo subespacio W que contenga v1 , . . . , vn ,
contiene a hv1 , . . . , vn i. Por lo tanto, hv1 , . . . , vn i ⊂ T .

Ejemplo 22. Consideremos el espacio vectorial R3 . Si consideramos los vectores v1 =


(1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1), y v4 = (0, 1, 1), no es difícil ver que hv1 , v2 , v3 , v4 i =
R3 , en otras palabras, R3 es generado por los vectores v1 , v2 , v3 y v4 . Sin embargo, note
que el vector v4 = v2 + v3 , y por lo tanto cualquier combinación lineal de los vectores
v1 , v2 , v3 y v4 , se puede convertir en una combinación lineal de los vectores v1 , v2 y v3 ,
en otras palabras, hv1 , v2 , v3 , v4 i = hv1 , v2 , v3 i = R3 .

Del ejemplo anterior, surge la siguiente pregunta: dado W ⊂ V un subespacio vecto-


rial generado por los vectores v1 , . . . , vn , cómo saber si este conjunto de generadores se
puede reducir a un conjunto más pequeño?, más aún, cómo encontrar el mínimo número
de generadores?
Para responder estas preguntas, es necesario definir la noción de independencia lineal.

Definición 10. Sea V un K-espacio vectorial. Decimos que un conjunto de vectores


3.1. CONJUNTOS LINEALMENTE INDEPENDIENTES Y LINEALMENTE DEPENDIENTES31

{v1 , . . . , vn } ⊂ V es linealmente independiente, si cada vez que se tenga una combinación


lineal a1 v1 + · · · + an vn = 0, se tiene que a1 = a2 = · · · = an = 0.
Decimos que {v1 , . . . , vn } es linealmente dependiente, si existen escalares a1 , . . . , an no
todos nulos tales que a1 v1 + · · · + an vn = 0.
i
Ejemplo 23. Consideremos el K-espacio vectorial K n y definamos ei = (0, 0, . . . , 0, 1, 0, . . . , 0),
como el vector en K n que tiene ceros en todas las entradas excepto en la i-ésima donde
tiene un 1. Veamos que el conjunto de vectores B = {e1 , e2 , . . . , en } es linealmente inde-
pendiente.
En efecto, supongamos que tenemos una combinación lineal a1 e1 + · · · + an en = 0, donde
ai ∈ K. Como a1 e1 + · · · + an en = (a1 , . . . , an ), tenemos que (a1 , . . . , an ) = (0, . . . , 0), lo
que implica que ai = 0 para todo i = 1, 2, . . . , n.

Ejemplo 24. Consideremos el espacio vectorial

Pn = {p(x) ∈ K[x] : deg(p(x)) ≤ n} ∪ {0}

Veamos que S = {1, x, x2 , . . . , xn } es linealmente independiente y que Pn = h1, x, x2 , . . . , xn i.


Claramente es linealmente independiente, ya que a0 +a1 x+a2 x2 +· · ·+an xn ≡ 0 implica
que ai = 0 para todo i = 0, 1, . . . , n, puesto que dos polinomios son iguales si y sólo si
son iguales término a término. Por otro lado, cualquier elemento de Pn tiene la forma
p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 y por lo tanto p(x) es una combinación lineal
de los vectores 1, x, x2 , . . . , xn , es decir, p(x) ∈ h1, x, . . . , xn i.

Ejemplo 25. En el espacio vectorial de funciones S = {f : R → R : f es función},


consideremos el subconjunto W = {ex , e−x }. Este conjunto es linealmente independiente,
ya que si αex + βe−x ≡ 0 entonces por ejemplo para x = 0 tenemos que α + β = 0,
pero para x = 1 tenemos que αe + β 1e = 0 lo que implica que αe2 + β = 0. Como de la
primera ecuación tenemos que β = −α, entonces αe2 − α = 0, de donde α(e2 − 1) = 0,
y por lo tanto α = 0. Claramente α = 0 implica β = 0.
Por otro lado, note que hex , e−x i ( S, ya que por ejemplo la función constante f (x) ≡ 1
32 CAPÍTULO 3. BASES Y DIMENSIÓN

no pertenece a hex , e−x i, porque si αex + βe−x ≡ 1 entonces con x = 1 tenemos que
αe + β 1e = 1 y con x = −1 tenemos que α 1e + βe = 1, y por lo tanto αe2 + β = e y
α + βe2 = e. Así, αe2 + β = α + βe2 , luego e2 (α − β) = α − β. Note que si α 6= β,
entonces la última ecuación implica que e2 = 1, lo cual es una contradicción. Si α = β
entonces αex + αe−x ≡ 1, de donde con x = 0 se tiene que α = 12 . Luego 12 ex + 12 e−x ≡ 1,
1
y esto implica con x = 0 que e + e = 2, de donde e2 + 1 = 2e que equivale a decir que
e2 − 2e + 1 = 0, lo que implica que (e − 1)2 = 0, y así e = 1, lo cual es una contradicción.

Ejemplo 26. En el espacio vectorial M2 (K) de matrices 2 × 2, el conjunto


       
 1 0

0 1 0 0 0 0 

, , ,
       
 
 0 0

0 0 1 0 0 1 

es linealmente independiente. Más aún,


       
* +
 1 0   0 1   0 0   0 0 
 , , ,  = M2 (K)
0 0 0 0 1 0 0 1
Ejemplo 27. Consideremos los siguientes vectores en R3 , v1 = (1, −1, 3), v2 = (2, −1, 1)
y v3 = (0, 1, −5). Veamos si el conjunto {v1 , v2 , v3 } es o no linealmente independiente.
Supongamos que tenemos una combinación lineal de estos tres vectores que da cero, es
decir,
a1 v1 + a2 v2 + a3 v3 = 0 (3.1)

que escrito de otra forma es


       
 1   2   0   0 
       
a1  −1  + a2  −1  + a3  1  =  0 
       
       
       
3 1 −5 0
Una forma de resolver este problema, es considerar todas las tripletas (a1 , a2 , a3 ) que
satisfacen 3.1, es decir, resolver el sistema de ecuaciones lineales

x + 2y = 0






−x − y + z = 0 (3.2)





 3x + y − 5z = 0
3.1. CONJUNTOS LINEALMENTE INDEPENDIENTES Y LINEALMENTE DEPENDIENTES33

Este sistema lineal 3,2 se puede reescribir en forma matricial como:


    
 1 2 0  x   0 
    
 −1 −1  y = 0 
    
 1 
   
    
3 1 −5 z 0

Este sistema matricial usando Eliminación de Gauss se puede llevar al siguiente sistema
equivalente:
    
 1 2 0  x   0 
    
 0 1 1  y  =  0 
    
    
    
0 0 0 z 0

donde la forma que tiene la última matriz se conoce como forma escalonada.
Este último sistema se puede ver que tiene infinitas soluciones, ya que escrito en forma
de ecuaciones lineales es

 x + 2y = 0

 y+z =0

Por lo tanto y = −z y x = −2y = 2z. en otras palabras, todas las soluciones de este
sistema son de la forma:
   
 x   2 
   
 y  =  −1  z
   
   
   
z 1

Por cada valor de z tenemos una solución. Luego, si tomamos por ejemplo z = 1, tenemos
que con a1 = 2, a2 = −1 y a3 = 1, a1 v1 + a2 v2 + a3 v3 = 0. Esto muestra que el conjunto
{v1 , v2 , v3 } es linealmente dependiente.

El ejemplo anterior motiva discutir más a fondo, como solucionar en general sistemas
de ecuaciones lineales.
34 CAPÍTULO 3. BASES Y DIMENSIÓN

3.2. Sistemas de ecuaciones lineales

Consideremos




 a11 x1 + a12 x2 + · · · + a1n xn = b1 (R1 )




 a21 x1 + a22 x2 + · · · + a2n xn = b2 (R2 )
E= .. (3.3)
.







 a x + a x + ··· + a x = b

m1 1 m2 2 mn n m (Rm )

un sistema lineal de m-ecuaciones R1 , R2 , . . . , Rm y n-incongnitas x1 , x2 , . . . , xn .


El sistema lineal anterior se puede reescribir como:




 a11 x1 + a12 x2 + · · · + a1n xn − b1 = 0 (R1 )




 a21 x1 + a22 x2 + · · · + a2n xn − b2 = 0 (R2 )
E= .. (3.4)
.







 a x + a x + · · · + a x − b = 0 (R )

m1 1 m2 2 mn n m m

Definición 11. Una solución al sistema E, es una n-tupla (c1 , c2 , . . . , cn ) ∈ Rn que


satisface cada una de las ecuaciones Ri , i = 1, 2, . . . , m.

Notación: Escribiremos Ri (c1 , . . . , cn ) = 0 para referirnos a que (c1 , . . . , cn ) satisface


la ecuación Ri , es decir,

ai1 c1 + ai2 c2 + · · · + ain cn − bi = 0

Por lo tanto, con esta notación, (c1 , . . . , cn ) ∈ Rn es solución del sistema E si y sólo si
Ri (c1 , . . . , cn ) = 0 para todo i = 1, 2, . . . , m.

Definición 12. Decimos que dos sistemas lineales E1 y E2 son equivalentes, si y sólo si
tienen exactamente las mismas soluciones.

3.2.1. Operaciones fila elementales

Dado un sistema lineal E, definimos tres operaciones que llamaremos operaciones fila
elementales.
3.2. SISTEMAS DE ECUACIONES LINEALES 35

Ri ↔ Rj : Esta operación intercambia la ecuación Ri con la ecuación Rj

Ri → cRi : Multiplicar la ecuación Ri por un escalar no nulo, es decir, si Ri es la ecuación

ai1 x1 + ai2 x2 + · · · + ain xn − bi = 0,

entonces esta operación la cambia por la ecuación cRi ,

cai1 x1 + cai2 x2 + · · · + cain xn − cbi = 0

Ri → Ri + cRj : Si la ecuación Ri es

ai1 x1 + ai2 x2 + · · · + ain xn − bi = 0

y la ecuación Rj es

aj1 x1 + aj2 x2 + · · · + ajn xn − bj = 0,

esta operación cambia la ecuación Ri por la ecuación Ri + cRj ,

(ai1 + caj1 )x1 + · · · + (ain + cajn )xn − (bi + cbj ) = 0.

Proposición 9. Dado un sistema lineal E, aplicarle operaciones fila elementales produce


un sistema lineal E 0 equivalente a E, es decir, con las mismas soluciones.

Demostración. Verifiquemos que aplicar cada una de las operaciones fila elementales
definidas anteriormente, produce un nuevo sistema lineal con exactamente las mismas
soluciones.
36 CAPÍTULO 3. BASES Y DIMENSIÓN

Supongamos que tenemos el sistema lineal





 R1






 R2


 ..
.








 Ri

E= ..
.











 Rj
..



.








 R
m

como en 3.4.
Al aplicarle la operación Ri ↔ Rj obtenemos el nuevo sistema lineal





 R1






 R2


 ..
.








 Rj

0
E =
 ..




.






 Ri
.


 ..








 R
m

Claramente (c1 , . . . , cn ) es solución de E si y sólo si (c1 , . . . , cn ) es solución de E 0 . Por lo


tanto E es equivalente a E 0 .
Al aplicarle la operación Ri → cRi al sistema lineal E, obtenemos un nuevo sistema
3.2. SISTEMAS DE ECUACIONES LINEALES 37

lineal E 0 dado por:






 R1






 R2


 ..
.








 cRi

0
E = ..
.











 Rj
..



.








 R
m

Claramente Ri (c1 , . . . , cn ) = 0 ⇔ cRi (c1 , . . . , cn ) = 0 para c 6= 0. Esto muestra que el


sistema lineal E es equivalente al sistema E 0 .
Finalmente, al aplicarle la operación Ri → Ri +cRj al sistema lineal E produce un nuevo
sistema lineal E 0 dado por:




 R1






 R2


 ..
.








 Ri + cRj

0
E = ..
.











 Rj
..



.








 R m

Si (c1 , . . . , cn ) es solución de E, entonces Rk (c1 , . . . , cn ) = 0 para todo k = 1, 2, . . . , m y


por lo tanto (Ri +cRj )(c1 , . . . , cn ) = Ri (c1 , . . . , cn )+cRj (c1 , . . . , cn ) = 0. Esto implica que
(c1 , . . . , cn ) es solución de E 0 . Recíprocamente, si (c1 , . . . , cn ) es solución de E 0 entonces
Rk (c1 , . . . , cn ) = 0 para todo k 6= i y (Ri + cRj )(c1 , . . . , cn ) = 0. Como Rj (c1 , . . . , cn ) = 0
y (Ri + cRj )(c1 , . . . , cn ) = Ri (c1 , . . . , cn ) + cRj (c1 , . . . , cn ) = 0, entonces Ri (c1 , . . . , cn ) =
0. Esto muestra que (c1 , . . . , cn ) es solución de E. Así, el sistema lineal E es equivalente
38 CAPÍTULO 3. BASES Y DIMENSIÓN

al sistema lineal E 0 .

La proposición anterior nos muestra que aplicarle operaciones fila elementales a un


sistema lineal, produce un sistema lineal equivalente.
Ahora, el sistema lineal E descrito en 3.3, se puede reescribir en forma matricial de la
siguiente forma:
    
 a11 a12 ··· a1n   x1   b1 
    
 a
 21 a22 ··· a2n 
 x2   b 
  2 
= (3.5)
 . .. .. ..   . 
  
 .. .. 
  .. 
 . . . 
 .   
    
am1 am2 · · · amn xn bm

Denotemos
   
 a11 a12 ··· a1n   b1 
   
 a
 21 a22 ··· a2n 

 b 
 2 
A=
 . .. .. ..
 y b=
 . 

 ..  .. 

 . . . 
  
   
am1 am2 · · · amn bm

y consideremos la matriz aumentada asociada al sistema lineal E,

 
 a11 a12 ··· a1n | b1 
 
 a
 21 a22 ··· a2n | b2 

[A|b] = 
 . .. .. ..

 ..

 . . | . 

 
am1 am2 · · · amn | bm

Es fácil ver que las operaciones fila elementales definidas anteriormente, corresponden a
las siguientes operaciones fila aplicadas a la matriz aumentada [A|b]
3.2. SISTEMAS DE ECUACIONES LINEALES 39

Ri ↔ Rj : intercambia la fila i-ésima por la fila j-ésima de la matriz [A|b]


   
 a11 a12 ··· a1n | b1   a11 a12 ··· a1n | b1 
 .. .. .. ..  .. .. .. ..
   
 
 .
 . . | . 

 .
 . . | . 

   
 ai1 ai2 ··· ain | bi  aj1 aj2 ··· ajn | bj
   
 
   
 . .. .. ..
 ..  →  ... .. .. ..
  
 . . | .   . . | . 

   
   
 aj1
 aj2 ajn | bj 

 ai1
 ai2 ain | bi 

 . .. .. ..   . .. .. .. 
 .  .
| |
 
 . . . .   . . . . 
   
   
am1 am2 · · · amn | bm am1 am2 · · · amn | bm

Ri → cRi : Multiplica las entradas de la fila i-ésima por c, c 6= 0


   
 a11 a12 ··· a1n | b1   a11 a12 ··· a1n | b1 
   
 a21 a22 ··· a2n | b2  a21 a22 ··· a2n | b2
   
 
   
 . .. .. ..  . .. .. ..
 .  .
 
 . . . | . 
  . . . | . 

 → 
   
 ai1
 ai2 ··· ain | bi 

 cai1
 cai2 · · · cain | cbi 

 .. .. .. ..  .. .. .. .
   
| ..
 
 .
 . . | . 

 .
 . . 

   
am1 am2 · · · amn | bm am1 am2 · · · amn | bm

Ri → Ri + cRj : Cambia la fila i-ésima por la fila i-ésima más c veces la fila j-ésima
   
 a11 a12 ··· a1n | b1   a11 a12 ··· a1n | b1 
 .. .. .. .. .. .. .. ..
   
  
 .
 . . | . 


 . . . | . 

   
 ai1 ai2 ··· ain | bi  ai1 + caj1 ai2 + caj2 · · · ain + cajn | bi + cbj 
   

   
 . .. .. .. .. .. .. ..
 ..
  
. . | . → . . . | . 
   
   
   
 aj1
 aj2 ajn | bj 


 aj1 aj2 ajn | bj 

 . .. .. ..   .. .. .. .. 
 .
| |
  
 . . . .   . . . . 
   
   
am1 am2 · · · amn | bm am1 am2 ··· amn | bm

Definimos como operaciones fila elementales para matrices, a estas tres operaciones, es
decir, intercambiar dos filas de la matriz, cambiar una fila por un múltiplo no nulo de
40 CAPÍTULO 3. BASES Y DIMENSIÓN

ella y cambiar una fila por ella más un múltiplo de otra fila.
Lo que vamos a ver a continuación, es que usando solamente estas tres operaciones
elementales un número finito de veces, cualquier matriz se puede llevar a una forma
escalonada.

Definición 13. Decimos que una matriz A = [aij ]m×n está en la forma escalonada si:

Por debajo de la primera entrada no nula de cada fila hay ceros.

Si i < k, entonces si aij es la primer entrada no nula de la fila i-ésima y akl es la


primer entrada no nula de la fila k-ésima, entonces j < l.

Por debajo de cada fila nula hay ceros.

Ejemplo 28. La matriz  


 2 3 0 
 
A= 0 0 1 
 
 
 
0 0 0
está en forma escalonada, mientras que la matriz
 
 0 1 0 
 
A= 1 0
 
 1 

 
0 0 1

no está en forma escalonada.

Observación 10. Dada una matriz A en forma escalonada, las primeras entradas no
nulas de cada fila reciben el nombre de pivotes de la matriz A.

Teorema 3. Dada una matriz A ∈ Mm×n (K), un número finito de operaciones fila
elementales aplicado a la matriz A, produce una matriz escalonada.

Demostración. Sea A = [aij ]m×n . Vamos a hacer la prueba por inducción sobre m.
Claramente el resultado es trivial para m = 1.
3.2. SISTEMAS DE ECUACIONES LINEALES 41

Supongamos que es cierto para k = m − 1. Consideremos la entrada de A, aks 6= 0 con s


minimal, es decir, toda entrada aij con j < s es cero. Por lo tanto, todas las columnas
a la izquierda de la columna s-ésima, son nulas. Aplicándole a A la operación elemental
R1 ↔ Rk , obtenemos una nueva matriz B cuya entrada b1s = aks es no nula. Aplicándole
la operación R1 → b−1
1s R1 obtenemos una nueva matriz C cuya entrada c1s = 1, y por

medio de la tercer operación elemental podemos cancelar todos los términos no nulos de
la primer columna que están por debajo de c1s . De esta manera obtenemos una matriz
que tiene la forma
 
 0 ··· 0 1 c12 c13 ··· c1n 
 

 0 ··· 0 0 c22 c23 ··· c2n 


 .. .. .. .. .. .. ..

 (3.6)

 . . . . . . ··· . 

 
0 ··· 0 0 cm2 cm3 · · · cmn
Por la hipótesis inductiva, el resultado es cierto para la matriz
 
 c22 c23 ··· c2n 
 
 c
 32 c33 ··· c3n 
C0 = 

 . .. ..

 ..

 . ··· . 

 
cm1 cm2 · · · cmn
(m−1)×n

es decir, por medio de operaciones elementales fila, se puede llevar la matriz C 0 a una
forma escalonada. Ahora, note que aplicarle cualquier operación elemental que no in-
volucre la primer fila, a la matriz 3.6, es equivalente a aplicarle la respectiva operación
elemental a la matriz C 0 .
Esto muestra que las operaciones que llevan a C 0 a la forma escalonada, aplicadas a la
matriz 3.6, producen una matriz escalonada.

Ejemplo 29. Por medio de operaciones elementales fila, lleve la matriz


 
 0 −2 3 
 
A =  1 −1 0 
 
 
 
2 0 1
42 CAPÍTULO 3. BASES Y DIMENSIÓN

a la forma escalonada.
Siguiendo el algoritmo anterior, aplicamos la operación R1 ↔ R2 y obtenemos la matriz
 
 1 −1 0 
 
−2 3 
 
 0
 
 
2 0 1

Luego la tercer operación elemental, R3 → R3 − 2R1 , produce la matriz


 
 1 −1 0 
 
 0 −2 3 
 
 
 
0 2 1

Luego, repetimos el mismo procedimiento con la matriz


 
 −2 3 
 
2 1

La operación R1 → − 21 R1 produce la matriz


 
 1 −3/2 
 
2 1
y la operación R2 → R2 − 2R1 produce la matriz
 
 1 −3/2 
 
0 4

y finalmente la operación R3 → 14 R2 produce


 
 1 −3/2 
 
0 1
Concluimos entonces, que la matriz A se puede llevar por medio de operaciones elemen-
tales fila, a la forma escalonada
 
 1 −1 0
 
−3/2 
 
 0 1
 
 
0 0 1
3.2. SISTEMAS DE ECUACIONES LINEALES 43

Ejemplo 30. Consideremos v1 = (1, −1, 1, 1), v2 = (2, 1, 3, 1), v3 = (1, 0, −1, 1) y v4 =
(−1, 2, 1, 1). Demuestre que el vector v = (10, −5, 9, 1) pertenece a hv1 , v2 , v3 , v4 i.
Queremos ver que v = av1 + bv2 + cv3 + dv4 , es decir, queremos resolver el sistema lineal
         
 1   2   1   −1   10 
         
 −1   1   0   2   −5 
         
x

+y
 
+z
 
+w
 
=
 


 1   3   −1   1   9 
         
         
1 1 1 1 1

que es escrito en forma matricial es


    
 1 2 1 −1   x   10 
    
 −1 1 0  y 
2   −5 
    
  = 
    
 1 3
 −1 1  z   9 
   

    
1 1 1 1 w 1

Consideremos la matriz aumentada asociada a este sistema lineal


 
 1 2 1 −1 | 10 
 
 −1 1 0 2 | −5 


 
 
 1 3
 −1 1 | 9 

 
1 1 1 1 | 1

Las operaciones elementales R2 → R2 + R1 , R3 → R3 − R1 , y R4 → R4 − R1 , producen


un sistema lineal equivalente con matriz aumentada asociada
 
 1 2 1 −1 | 10 
 
 0

3 1 1 | 5 

 
 
 0
 1 −2 2 | −1 

 
0 −1 0 2 | −9

Ahora, permutando la fila R2 ↔ R3 obtenemos un sistema lineal equivalente con matriz


44 CAPÍTULO 3. BASES Y DIMENSIÓN

aumentada  
 1 2 1 −1 | 10 
 
 0

1 −2 2 | −1 

 
 
 0
 3 1 1 | 5 

 
0 −1 0 2 | −9
Con las operaciones R3 → R3 − 3R2 y R4 → R4 + R2 , obtenemos un sistema equivalente
con matriz aumentada  
 1 2 1 −1 | 10 
 
 0 1

−2 2 | −1 

 
 
 0 0
 7 −5 | 8 

 
0 0 −2 4 | −10

Multiplicando la fila R4 por − 21 obtenemos un sistema lineal equivalente con matriz


aumentada  
 1 2 1 −1 | 10 
 
 0 1

−2 2 | −1 

 
 
 0 0
 7 −5 | 8 

 
0 0 1 −2 | 5
y permutando la fila R3 ↔ R4 obtenemos
 
 1 2 1 −1 | 10 
 
 0 1

−2 2 | −1 

 
 
 0 0
 1 −2 | 5 

 
0 0 7 −5 | 8

Con la operación R4 → R4 − 7R3 obtenemos un sistema equivalente con matriz aumen-


tada  
 1 2 1 −1 | 10 
 
 0 1

−2 2 | −1 

 
 
 0 0
 1 −2 | 5 

 
0 0 0 9 | −27
3.3. BASES PARA ESPACIOS VECTORIALES 45

y finalmente con la operación R4 → 91 R4 , obtenemos un sistema equivalente con matriz


aumentada escalonada  
 1 2 1 −1 | 10 
 
 0 1

−2 2 | −1 

 
 
 0 0
 1 −2 | 5 

 
0 0 0 1 | −3

Note que esta matriz aumentada final, representa el siguiente sistema lineal:




 w = −3




 z − 2w = 5
y − 2z + 2w = −1







 x + 2y + z − w = 10

que claramente tiene una única solución que es w = −3, z = −1, y = 3 y x = 2.


Esto nos permite concluir que v = 2v1 + 3v2 − v3 − 3v4 , y por lo tanto, v ∈ hv1 , v2 , v3 , v4 i.

Este método para escalonar matrices, es conocido con el nombre de Eliminación de


Gauss.
Una generalización de este método, conocida con el nombre de Eliminación de Gauss-
Jordan, permite hallar la inversa de una matriz invertible. Más adelante discutiremos
este método.

3.3. Bases para espacios vectoriales

En esta sección definimos lo que significa una base para un espacio vectorial, concepto
que permite definir la dimensión de un espacio vectorial.
Cuando definimos el subespacio vectorial generado por finitos vectores, v1 , . . . , vn ∈ V , lo
definimos como la intersección de todos los subespacios de V conteniendo a los vectores
v1 , . . . , vn , y lo denotamos por hv1 , . . . , vn i.
De manera más general, dado un subconjunto S ⊂ V de un espacio vectorial V , definimos
46 CAPÍTULO 3. BASES Y DIMENSIÓN

el subespacio vectorial generado por S, como


\
hSi = W,
S⊂W ⊂V

es decir, como la intersección de todos los subespacios de V que contienen a S.


Claramente hSi es un subespacio de V , ya que intersección de subespacios es subespacio,
y además hSi es el subespacio más pequeño de V que contiene a S.
De igual manera a como vimos en el caso finito, se puede demostrar que

hSi = {v ∈ V : v = a1 s1 + · · · + an sn con s1 , . . . , sn ∈ S y a1 , . . . , an ∈ K},

es decir, hSi es el conjunto de todas las combinaciones lineales finitas de elementos de


S. La prueba se deja como ejercicio para el lector.
Cuando pensamos en el espacio vectorial Rn , sabemos que Rn = he1 , e2 , . . . , en i. Esto no
es cierto en general, es decir, existen espacios vectoriales que no se pueden generar con
finitos elementos, como los ejemplos a continuación.

Ejemplo 31. Definamos R∞ como el conjunto de tuplas infinitas que son cero a partir
de un punto, es decir,

R∞ = {(a1 , a2 , . . . , aj , . . . ) : ai = 0 para todo i ≥ n, para cierto n ∈ N}

Es fácil verificar que R∞ es un R- espacio vectorial.


Veamos que R∞ no se puede generar con finitos vectores. Supongamos por el absurdo
que R∞ = hv1 , . . . , vn i. Recordemos que cada vi es un vector infinito con solo un número
finito de entradas no nulas. Para cada vi definimos mi como la entrada más grande
donde vi tiene una entrada no nula, es decir, vi = (a1 , . . . , ami , 0, 0, . . . ) con ami 6= 0. Sea
m+1
m = max{m1 , . . . , mn } y consideremos el elemento v = (0, 0, . . . , 0, 1 , 0, 0, . . . ) que
tiene todas la entradas nulas, excepto la entrada m + 1, donde tiene un 1. Claramente
v ∈ R∞ , pero v ∈
/ hv1 , . . . , vn i, ya que si v = a1 v1 + · · · + an vn , entonces 1 = 0.

Más adelante veremos que R∞ si se puede generar, pero con un conjunto infinito de
vectores.
3.3. BASES PARA ESPACIOS VECTORIALES 47

Ejemplo 32. Consideremos el espacio vectorial

V = {f : R → R : f (x) = 0 ∀x ≥ N, para cierto N ∈ N}

Como vimos anterioremente en un ejemplo, V es un espacio vectorial. Veamos que V no


se puede generar con finitos vectores.
Supongamos por el absurdo que existen finitas funciones f1 , . . . , fn que generan a V , es
decir, V = hf1 , . . . , fn i. Como cada fi ∈ V , entonces para cada fi existe un Ni ∈ N tal
que fi (x) = 0 para todo x ≥ Ni . Tomemos N = max{N1 , . . . , Nn } y consideremos la
función 
 1 si

x<N +1
f (x) =
 0 si x≥N +1

Claramente f ∈ V , pero f ∈
/ hf1 , . . . , fn i, ya que si f = a1 f1 + · · · + an fn , como para
cada i = 1, . . . , n fi (x) = 0 para todo x ≥ N , entonces se tendría que 1 = f (N ) =
a1 f1 (N ) + · · · + an fn (N ) = 0, lo cual es absurdo.

Ejemplo 33. K[x] es un espacio vectorial que no puede ser generado por finitos poli-
nomios.
Supongamos que K[x] = hp1 (x), . . . , pm (x)i, donde cada pi (x) es un polinomio de grado
ni . Si tomamos N = max{n1 , . . . , nm }, entonces el polinomio xN +1 ∈ K[x] no pertenece
a hp1 (x), . . . , pm (x)i. Esto muestra que K[x] no se puede generar con finitos polinomios.

Anteriormente definimos cuando un conjunto finito de vectores {v1 , . . . , vn } de un


espacio vectorial V es linealmente independiente.
De manera más general, dado un subconjunto S ⊂ V , no necesariamente finito, decimos
que S es linealmente independiente, si cada combinación lineal finita a1 s1 +· · ·+an sn = 0,
con s1 , . . . , sn ∈ S implica que a1 = a2 = · · · = an = 0.

Ejemplo 34. En R∞ , definido anteriormente, consideremos el subconjunto S = {e1 , e2 , . . . , en , . . . },


i
donde ei = (0, 0, . . . , 0, 1, 0, 0, . . . ), es el vector con todas las entradas nulas, excepto la
entrada i-ésima donde tiene un 1.
48 CAPÍTULO 3. BASES Y DIMENSIÓN

S es un subconjunto infinito, pero veamos que S es linealmente independiente.


En efecto, supongamos que tenemos una combinación lineal a1 ei1 + a2 ei2 + · · · + an ein =
(0, 0, . . . , 0, 0, . . . ). La igualdad anterior, es precisamente la igualdad

i1 i2 in
(0, . . . , 0, ai1 , 0, . . . , ai2 , 0, . . . , ain , 0, . . . ) = (0, 0, . . . , 0, . . . )

que implica que aij = 0 para i = 1, . . . , n.

Ejemplo 35. En K[x], el subconjunto S = {1, x, x2 , . . . , xn , . . . } es linealmente inde-


pendiente.

Definición 14. Sea V un espacio vectorial. Decimos que B ⊂ V es una base para V , si
hBi = V y B es linealmente independiente.

Algunos ejemplos de bases son los siguientes:

Ejemplo 36. En Rn , B = {e1 , . . . , en } es una base para Rn .

Ejemplo 37. Si V = {p(x) ∈ K[x] : deg(p(x)) ≤ n} ∪ {0}, V es un espacio vectorial y


B = {1, x, x2 , . . . , xn } es una base para V .

Ejemplo 38. Si V = R∞ , B = {e1 , e2 , . . . , en , . . . } es una base para V .

Ejemplo 39. Si V = K[x], entonces B = {1, x, x2 , . . . , xn , . . . } es una base para V

Observación 11. Dado un espacio vectorial V , note de los ejemplos anteriores, que en
algunos casos V tiene una base finita y en otros casos infinita.

No es claro que todo espacio vectorial necesariamente tenga una base. Sin embargo,
como una consecuencia del Lema de Zorn, todo espacio vectorial tiene una base.

3.3.1. Ordenes parciales, totales y el Lema de Zorn

Definición 15. Una relación de orden parcial ≤ en un conjunto S, es una relación


binaria que satisface las siguientes propiedades:
3.3. BASES PARA ESPACIOS VECTORIALES 49

a ≤ a (Reflexiva)

a ≤ b y b ≤ a implica a = b (Antisimétrica)

a ≤ b y b ≤ c entonces a ≤ c (Transitiva)

Un conjunto S junto con una relación de orde parcial ≤, se llama un conjunto par-
cialmente ordenado. Decimos que (S, ≤) es un conjunto parcialmente ordenado.
Si la relación ≤, además de las propiedades anteriores, satisface que para todo par de
elementos a, b ∈ S se tiene que a ≤ b o b ≤ a, entonces decimos que la relación es de
orden total, y decimos que (S, ≤) es un conjunto totalmente ordenado.

Ejemplo 40. Dado un conjunto S, consideremos el conjunto de todos los subconjuntos


de S, que usualmente se denota por P(S) y recibe el nombre de partes de S. En P(S)
podemos definir la siguiente relación: dados A, B ⊂ S, es decir, A, B ∈ P(S), A ≤ B si
A ⊆ B, en otras palabras, A está relacionado con B si y sólo si A está contenido en B.
No es difícil demostrar que esta es una relación de orden parcial, y por lo tanto P(S)
con esta relación es un conjunto parcialmente ordenado.

Definición 16. Dado un conjunto parcialmente ordenado (S, ≤), definimos una cadena
de S, como un subconjunto de S que con esta relación es totalmente ordenado.

Ejemplo 41. Sabemos que los números reales R son un campo ordenado, es decir, en R
existe una relación de orden total, que acostumbramos denotar por ≤. En otras palabras,
(R, ≤) es un conjunto totalmente ordenado.
Ahora, si consideramos el campo de los números complejos C, los complejos con la
relación de orden de los números reales es un conjunto parcialmente ordenado, es decir,
(C, ≤) es un conjunto parcialmente ordenado.
Si consideramos R ⊂ C, tenemos entonces que R es una cadena en C.

Definición 17. Sea (S, ≤) un conjunto parcialmente ordenado. Dado un subconjunto


A ⊂ S, decimos que A tiene una cota superior, si existe un elemento s ∈ S tal que a ≤ s
para todo a ∈ A.
50 CAPÍTULO 3. BASES Y DIMENSIÓN

Ejemplo 42. Consideremos el conjunto P(N), el conjunto de todos los subconjuntos


de N, conocido como partes de N. Si definimos la relación A ≤ B si A ⊆ B, entonces
(P(N), ≤) es un conjunto parcialmente ordenado.
Consideremos el subconjunto de P(N), que consiste de los subconjuntos

{0} ⊂ {0, 1} ⊂ {0, 1, 2} ⊂ · · · ⊂ {0, 1, 2, . . . , n} ⊂ · · ·

Este subconjunto es una cadena que además tiene una cota superior, que es precisamente
el conjunto N.

El lema de Zorn afirma lo siguiente:

Lema 1 (Lema de Zorn). Si (A, ≤) es un conjunto no vacio parcialmente ordenado, tal


que toda cadena de A tiene una cota superior, entonces A tiene un elemento maximal.

Usando el lema anterior, podemos demostrar que todo espacio vectorial tiene una
base.

Teorema 4. Todo espacio vectorial V tiene una base.

Demostración. Notemos que si V = {0}, entonces ∅ es una base para V .


Ahora supongamos que V es un espacio vectorial no nulo, es decir, V 6= {0}. Definamos
F = {S ⊂ V : S es linealmente independiente}. F 6= ∅, ya que como V 6= {0}, existe
a ∈ V , a 6= 0, y claramente {a} es linealmente independiente, y así {a} ∈ F.
Definamos en F la relación S ≤ T si S ⊆ T . Esta es una relación de orden parcial, y por
lo tanto (F, ≤) es un conjunto parcialmente ordenado.
Veamos que toda cadena de F tiene una cota superior. En efecto, si A es una cadena
de F, si consideramos C = entonces C es una cota superior de A, ya que cla-
S
A∈A A,

ramente todo elemento A ∈ A cumple que A ⊆ C y C es un subconjunto linealmente


independiente de V , ya que dada una combinación lineal r1 c1 + r2 c2 + · · · + rn cn = 0, con
ci ∈ C, entonces ci ∈ Ai para cierto Ai ∈ A y como A es una cadena, entonces todos sus
elementos son comparables. Por lo tanto, sin pérdida de generalidad podemos suponer
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 51

que A1 ⊂ A2 ⊂ · · · ⊂ An . De esta forma, tenemos que c1 , c2 , . . . , cn ∈ An y así tenemos


una combinación lineal r1 c1 + · · · + rn cn = 0 donde ci ∈ An . Como An es linealmente
independiente, se sigue que r1 = r2 = · · · = rn = 0. Esto muestra que C ∈ F y por lo
tanto C es una cota superior de A.
Del Lema de Zorn, concluimos que F tiene un elemento maximal, es decir, existe un
subconjunto B ∈ F tal que S ⊆ B para todo S ∈ F.
Veamos que B es una base para V . Como B ∈ F, entonces B es un subconjunto lineal-
mente independiente. Nos falta entonces demostrar que hBi = V . Supongamos por el
absurdo que hBi ( V , por lo tanto existe v ∈ V tal que v ∈
/ hBi. Pero esto implica que el
conjunto B ∪ {v} es linealmente independiente, ya que si existe una combinación lineal
r1 b1 + · · · + rn bn + rv = 0 con b1 , . . . , bn ∈ B, donde algún ri 6= 0, entonces r 6= 0 pues
r = 0 implica tener una combinación r1 b1 + · · · + rn bn = 0 con algún ri 6= 0, lo que
contradice que B es linealmente independiente. Como r 6= 0, entonces v ∈ hBi ya que

r1 rn
v = (− )b1 + · · · + (− )bn
r r

lo cual es absurdo. Por lo tanto B ∪ {v} es linealmente independiente, y por lo tanto


B ∪ {v} ∈ F. Pero B es maximal en F y B ⊂ B ∪ {v}, absurdo.
Concluimos entonces que hBi = V y por lo tanto B es una base para V .

3.4. Dimensión de un espacio vectorial

En esta sección vamos a ver como por medio de la noción de base para un espacio
vectorial, es posible definir la dimensión de un espacio vectorial.
Comenzaremos obsevando que, si V tiene una base finita B = {v1 , . . . , vn }, entonces
cualquier otra base para V tiene n elementos.

Proposición 10. Sea V un espacio vectorial, y supongamos que B = {v1 , . . . , vn } es una


base para V . Entonces si m > n, cualquier subconjunto de vectores de V , {w1 , . . . , wm },
es linealmente dependiente.
52 CAPÍTULO 3. BASES Y DIMENSIÓN

Demostración. Primero que todo, podemos suponer que wi 6= 0 para todo i = 1, 2, . . . , n,


ya que si algún wi = 0 entonces claramente el conjunto {w1 , . . . , wm } es linealmente
dependiente.
Como w1 ∈ V y V = hv1 , . . . , vn i, entonces w1 = r1 v1 + r2 v2 + · · · + rn vn para ciertos
ri ∈ K, y como w1 6= 0 entonces algún ri 6= 0. Supongamos sin pérdida de generalidad
que r1 6= 0. Luego tenemos que

1 r2 rn
v1 = w1 + (− )v2 + · · · + (− )vn
r1 r1 r1

Así, v1 ∈ hw1 , v2 , v3 , . . . , vn i, y por lo tanto, hw1 , v2 , v3 , . . . , vn i = V ya que v1 , . . . , vn ∈


hw1 , v2 , v3 , . . . , vn i
Ahora, w2 ∈ V = hw1 , v2 , . . . , vn i, de donde w2 = r1 w1 + r2 v2 + · · · + rn vn para ciertos
ri ∈ K. Si r2 = r3 = · · · = rn = 0 entonces tenemos que w2 = r1 w1 y terminamos ya
que {w1 , w2 } sería linealmente dependiente y por lo tanto {w1 , . . . , wm } también sería
linealmente dependiente. Podemos entonces suponer que algún ri 6= 0, con i = 2, 3, . . . , n.
Sin pérdida de generalidad supongamos que r2 6= 0. Despejando v2 obtenemos que

r1 1 r3 rn
v2 = (− )w1 + w2 + (− )v3 + · · · + (− )vn
r2 r2 r2 r2

Esto muestra que v2 ∈ hw1 , w2 , v3 , . . . , vn i y por lo tanto V = hw1 , w2 , v3 , . . . , vn i ya que


v1 , v2 , . . . , vn ∈ hw1 , w2 , v3 , . . . , vn i.
Continuando recursivamente, obtenemos que v1 , . . . , vn−1 ∈ hw1 , . . . , wn−1 , vn i y por lo
tanto hw1 , . . . , wn−1 , vn i = V .
Finalmente como vn ∈ V = hw1 , . . . , wn−1 , vn i, entonces wn = r1 w1 + · · · + rn−1 wn−1 +
rn vn para ciertos ri ∈ K. Como wn 6= 0 entonces algún ri 6= 0 para i = 1, 2, . . . , n, pero
rn = 0 implica que wn = r1 w1 + · · · rn−1 wn−1 , de donde, {w1 , . . . , wn } es linealmen-
te dependiente y por lo tanto {w1 , . . . , wm } es linealmente dependiente. Por lo tanto,
podemos asumir que rn 6= 0. Despejando vn obtenemos que

r1 r2 rn−1 1
vn = (− )w1 + (− )w2 + · · · + (− )wn−1 + wn
rn rn rn rn
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 53

Así, vn ∈ hw1 , . . . , wn i y como v1 , . . . , vn−1 ∈ hw1 , . . . , wn−1 , vn i, entonces v1 , . . . , vn ∈


hw1 , . . . , wn i. Lo que prueba que hw1 , . . . , wn i = V .
Como wn+1 ∈ V , tenemos que wn+1 ∈ hw1 , . . . , wn i, lo que prueba que {w1 , . . . , wn , wn+1 }
es linealmente dependiente, y por lo tanto {w1 , . . . , wm } es linealmente dependiente.

Ejemplo 43. Sabemos que B = {e1 , e2 , e3 } con e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 =


(0, 0, 1) es una base para R3 . De la proposición anterior, tenemos que cualquier subcon-
junto de R3 con más de 3 vectores tiene que ser linealmente dependiente.
Por ejemplo el conjunto {v1 , v2 , v3 , v4 } con v1 = (1, 2, 0), v2 = (−1, 1, 1), v3 = (0, 1, −1)
y v4 = (1, 2, −1) es linealmente dependiente.

Ejemplo 44. B = {1, x, x2 } es una base para el espacio vectorial

V = {p(x) ∈ R[x] : deg(p(x)) ≤ 2} ∪ {0}

De la proposición anterior se sigue que el conjunto {1, x, x2 + 1, x2 + x − 1} es linealmente


dependiente.

Como una consecuencia inmediata de la última proposición, tenemos el siguiente


corolario:

Corolario 2. Sea V un espacio vectorial. Si B = {v1 , . . . , vn } y B 0 = {w1 , . . . , wm } son


dos bases para V , entonces n = m.

Demostración. Supongamos por el absurdo que n 6= m. Sin pérdida de generalidad


supongamos que n < m. Por la Proposición anterior, el conjunto B 0 = {w1 , . . . , wm } es
linealmente dependiente, lo cual es una contradicción ya que B 0 es una base para V .

Este Corolario nos permite definir la dimensión de un espacio vectorial.

Definición 18. Sea V un K-espacio vectorial. Si V tiene una base finita, definimos la
dimensión de V como K-espacio vectorial, como el cardinal de cualquier base para V , y
la denotamos por dimK (V ).
54 CAPÍTULO 3. BASES Y DIMENSIÓN

Si V no tiene una base finita, decimos que dimK (V ) = ∞.


Cuando este claro el campo sobre el cual se está trabajando, escribiremos simplemente
dim(V ).

Observación 12. Si V = {0}, es decir, V es el espacio vectorial nulo, ∅ es una base


para V , y en este caso decimos que dimK V = 0.

Ejemplo 45. Dado un campo K, K es claramente un K-espacio vectorial. Note que


B = {1} es una base para K, y por lo tanto dimK (K) = 1.

Ejemplo 46. Del ejemplo anterior se sigue que C como C-espacio vectorial tiene dimen-
sión dimC C = 1.
Ahora, si vemos a C como R-espacio vectorial, en este caso B = {1, i} es una base. Por
lo tanto, dimR C = 2.

Ejemplo 47. K n como K-espacio vectorial tiene dimensión n, ya que B = {e1 , . . . , en }


es una base.

Ejemplo 48. P≤n = {p(x) ∈ K[x] : deg(p(x)) ≤ n} ∪ {0}, es un K-espacio vectorial


de dimensión n + 1, ya que B = {1, x, x2 , . . . , xn } es una base para Pn .

Ejemplo 49. Mn (K) el espacio vectorial de las matrices n × n, es un espacio vectorial


de dimensión n2 , ya que B = {[eij ] i, j = 1, 2, . . . , n} es una base, donde [eij ] es la matriz
cuya entrada (i, j) es 1 y el resto de entradas son ceros.

Ejemplo 50. El K-espacio vectorial K[x] tiene dimensión infinita.

Ejemplo 51. R∞ es un R-espacio vectorial de dimensión infinita.

La siguiente proposición nos muestra que si dimK V = n y S = {v1 , . . . , vn } es un


subconjunto linealmente independiente, entonces S es una base para V .

Proposición 11. Sea V un espacio vectorial (posiblemente de dimensión infinita) .


Si S ⊂ V es un conjunto linealmente independiente maximal, es decir, cualquier otro
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 55

subconjunto de V conteniendo a S es linealmente dependiente, entonces S es una base


para V .

Demostración. Veamos que hSi = V . Supongamos por el absurdo que hSi ( V , luego
existe v ∈ V tal que v ∈
/ hSi. En particular v ∈
/ S. Luego S ∪ {v} es un conjunto
linealmente dependiente y por lo tanto existe una combinación lineal α1 v1 + · · · + αn vn +
αv = 0, con vi ∈ S, i = 1, . . . , n y donde algún αi 6= 0 o α 6= 0. Note que si α = 0
entonces α1 v1 + · · · + αn vn = 0 pero S es linealmente independiente y por lo tanto
αi = 0 para todo i = 1, . . . , n, contradiciendo el hecho de que algún escalar era diferente
de cero. Por lo tanto α 6= 0, de donde tenemos que

−α1 −αn
v=( )v1 + · · · + ( )vn ,
α α

lo que implica que v ∈ hSi, lo cual es un absurdo.


Concluimos que hSi = V , lo que prueba que S es una base para V .

Observación 13. Note que en el caso en que V sea de dimensión finita, digamos
dimK V = n, la proposición anterior implica que todo subconjunto linealmente inde-
pendiente con n vectores {v1 , . . . , vn }, es una base para V .

Proposición 12. Sea V un K-espacio vectorial de dimensión n. Todo subconjunto li-


nealmente independiente S = {v1 , . . . , vk }, con k < n, se puede completar a una base, es
decir, existen vectores vk+1 , . . . , vn ∈ V tales que {v1 , . . . , vk , vk+1 , . . . , vn } es una base
para V .

Demostración. Como k < n, entonces hv1 , . . . , vk i ( V , ya que hv1 , . . . , vk i = V implica


que {v1 , . . . , vk } es una base para V , y por lo tanto k = n, absurdo.
Tomemos vk+1 ∈ V tal que vk+1 ∈
/ hv1 , . . . , vk i. Como {v1 , . . . , vk } es linealmente inde-
pendiente y vk+1 ∈
/ hv1 , . . . , vk i, entonces {v1 , . . . , vk , vk+1 } es linealmente independiente.
Si k + 1 = n, terminamos ya que {v1 , . . . , vk , vk+1 } sería una base para V .
Si k + 1 < n, repetimos el mismo procedimiento, es decir, hv1 , . . . , vk , vk+1 i ( V y por
56 CAPÍTULO 3. BASES Y DIMENSIÓN

lo tanto podemos tomar vk+2 ∈ V tal que vk+2 ∈


/ hv1 , . . . , vk , vk+1 i. Así tenemos que
{v1 , . . . , vk , vk+1 , vk+2 } es linealmente independiente.
Aplicamos este procedimiento (n − k)-veces, obteniendo vectores vk+1 , vk+2 , . . . , vn tales
que {v1 , . . . , vk , vk+1 , . . . , vn } es linealmente independiente, y como es máximal con la
propiedad de ser linealmente independiente, concluimos que {v1 , . . . , vk , vk+1 , . . . , vn } es
una base para V .

Ejemplo 52. En R3 , es fácil ver que el subconjunto S = {(1, −2, 1), (0, 1, 1)} es lineal-
mente independiente. Como dimR R3 = 3, por la proposición anterior, el conjunto S se
puede completar hasta obtener una base para V , es decir, existe un vector (a, b, c) ∈ R3
tal que B = {(1, −2, 1), (0, 1, 1), (a, b, c)} es una base para R3 . Si obsevamos la prueba de
esta última proposición, notamos que basta escoger (a, b, c) ∈
/ h(1, 2, −1), (0, 1, 1)i. Note
que (a, b, c) = (0, 0, 1) ∈
/ h(1, 2, −1), (0, 1, 1)i, ya que (0, 0, 1) = α(1, 2, −1) + β(0, 1, 1)
implica que 0 = α, 0 = 2α + β y 1 = −α + β, de donde α = 0 y β = 0, pero la última
ecuación implica que 1 = 0, absurdo. Por lo tanto B = {(1, 2, −1), (0, 1, 1), (0, 0, 1)} es
una base para R3 .
Más adelante veremos que, escogiendo el vector (a, b, c) en el complemento ortogonal del
subespacio W = h(1, 2, −1), (0, 1, 1)i, siempre se obtiene que h(1, 2, −1), (0, 1, 1), (a, b, c)i
es una base para R3 .

3.4.1. Dimensión de subespacios vectoriales

Supongamos que tenemos V un espacio vectorial de dimensión finita, digamos dimV =


n. Queremos analizar que dimensiones pueden tener los diferentes subespacios vectoriales
de V .

Proposición 13. Sea V un K-espacio vectorial de dimension finita, dimK V = n, y sea


W ⊂ V un subespacio de V . Entonces dimK W ≤ n.

Demostración. Primero que todo note que W tiene que tener dimensión finita, ya que
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 57

si dimK W = ∞, entonces W tendría un subconjunto linealmente independiente S de


vectores de V , infinito. Como S es infinto, podríamos tomar (n + 1)-vectores distintos
de S, digamos v1 , . . . , vn+1 , pero este subconjunto {v1 , . . . , vn+1 } sería linealmente inde-
pendiente, lo cual es absurdo ya que dimK V = n y por la Proposición 10 se tiene que
{v1 , . . . , vn+1 } es linealmente dependiente.
Así, todo subespacio de un espacio vectorial de dimensión finita, tiene que tener dimen-
sión finita.
Supongamos que dimK W = k, esto implica que existen vectores w1 , . . . , wk ∈ W ⊂ V
tales que {w1 , . . . , wk } es linealmente independiente, pero este subconjunto también es
un subconjunto linealmente independiente de vectores de V . Luego, por la Proposición
10, k ≤ n.
Note que si k = n, entonces W = V .

Ejemplo 53. Consideremos el espacio vectorial P≤n = {p(x) ∈ K[x] : deg(p(x)) ≤


n} ∪ {0}. Ya hemos visto que este espacio vectorial tiene dimensión n + 1.
Si W = {p(x) ∈ P≤n : p(0) = 0}, entonces W es un subespacio vectorial de P≤n .
Por la Proposición anterior sabemos que dimW ≤ n. Ahora, note que en este caso,
B = {x, x2 , . . . , xn } es una base para W , por lo tanto dimW = n.

3.4.2. Dimensión de una suma de espacios vectoriales

Vamos a mostrar como se puede calcular la dimensión de la suma de dos subespacios


vectoriales.

Teorema 5. Sea V un espacio vectorial y sean W1 , W2 ⊂ V dos subespacios de dimen-


sión finita. Entonces

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 )

Demostración. Supongamos que dimW1 = k y dimW2 = n. Como W1 ∩ W2 es un subes-


pacio de W1 y de W2 , entonces dim(W1 ∩ W2 ) ≤ k y dim(W1 ∩ W2 ) ≤ n. Digamos que
58 CAPÍTULO 3. BASES Y DIMENSIÓN

dim(W1 ∩W2 ) = s. Tomemos B = {v1 , . . . , vs } una base para W1 ∩W2 . De la Proposición


12 sabemos que B se puede completar a una base para W1 y a una base para W2 , es decir,
existen vectores us+1 , . . . , uk en W1 tales que C = {v1 , . . . , vs , us+1 , . . . , uk } es una base
para W1 , y existen vectores ws+1 , . . . , wn en W2 tales que D = {v1 , . . . , vs , ws+1 , . . . , wn }
es una base para W2 .
Veamos que E = {v1 , . . . , vs , us+1 , . . . , uk , ws+1 , . . . , wn } es una base para W1 + W2 .
Es fácil ver que E genera a W1 +W2 , ya que dado cualquier vector v ∈ W1 +W2 , v = u+w
con u ∈ W1 , w ∈ W2 . Como C y D son bases para W1 y W2 respectivamente, entonces
u = a1 v1 +· · ·+as vs +as+1 us+1 +· · ·+ak uk y w = b1 v1 +· · ·+bs vs +bs+1 ws+1 +· · ·+bn wn .
Por lo tanto, v = u+w = (a1 +b1 )v1 +· · ·+(as +bs )vs +as+1 us+1 +· · ·+ak uk +bs+1 ws+1 +
· · · + bn wn , lo que muestra que E genera a W1 + W2 .
Ahora veamos que E es linealmente independiente. Supongamos que tenemos una com-
binación lineal

a1 v1 + · · · + as vs + bs+1 us+1 + · · · + bk uk + cs+1 ws+1 + · · · + cn wn = 0. (3.7)

De esta igualdad tenemos que

bs+1 us+1 + · · · + bk uk = (−a1 )v1 + · · · + (−as )vs + (−cs+1 )ws+1 + · · · + (−cn )wn

y esto implica que bs+1 us+1 +· · ·+bk uk ∈ W2 , pero claramente bs+1 us+1 +· · ·+bk uk ∈ W1 ,
por lo tanto bs+1 us+1 +· · ·+bk uk ∈ W1 ∩W2 . Como B es una base para W1 ∩W2 , tenemos
que
bs+1 us+1 + · · · + bk uk = r1 v1 + · · · + rs vs

de donde
bs+1 us+1 + · · · + bk uk + (−r1 )v1 + · · · + (−rs )vs = 0

y como C es linealmente independiente ya que es una base, entonces bs+1 = bs+2 = · · · =


bk = 0. Así, en la ecuación 3.7 tenemos que

a1 v1 + · · · + as vs + cs+1 ws+1 + · · · + cn wn = 0
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 59

y como D es linealmente independiente ya que es base, concluimos que a1 = a2 = · · · =


as = 0 y cs+1 = cs+2 = · · · = cn = 0.
Concluimos entonces que E es una base para W1 + W2 .
Finalmente note que E tiene s + (k − s) + (n − s) vectores, y por lo tanto dim(W1 + W2 ) =
k + n − s = dimW1 + dimW2 − dim(W1 ∩ W2 ).

Ejemplo 54. Por ejemplo en R3 , consideremos los siguientes subespacios:

W1 = {(x, y, z) ∈ R3 : 2x − y + z = 0}

W2 = {(x, y, z) ∈ R3 : x + y − z = 0}

Más adelante veremos que estos subespacios corresponden a planos en R3 que pasan por
el origen.
Supongamos que queremos calcular la dimensión del subespacio W1 + W2 . Del Teorema
anterior sabemos que dim(W1 + W2 ) = k + n − s = dimW1 + dimW2 − dim(W1 ∩ W2 ).
Calculemos primero la dimensión de W1 y W2 .
Como los vectores (x, y, z) de W1 satisfacen que 2x − y + z = 0, entonces tenemos
1
que x = 2y − 21 z, de donde (x, y, z) = (1/2, 1, 0)y + (−1/2, 0, 1)z. Esto muestra que
W1 = h(1/2, 1, 0), (−1/2, 0, 1)i y es fácil ver que {(1/2, 1, 0), (−1/2, 0, 1)} es linealmente
independiente, por lo tanto {(1/2, 1, 0), (−1/2, 0, 1)} es una base para W1 . Así, dimW1 =
2.
De igual forma se ve que dimW2 = 2.
Por otro lado, W1 ∩ W2 = {(x, y, z) ∈ R3 : 2x − y + z = 0 y x + y − z = 0}. Note que
los puntos de W1 ∩ W2 son precisamente las soluciones del sistema de ecuaciones lineales
   
 x   0 
 
 2 1 −1     
 y  =  0 
   

1 1 −1    
   
z 0
60 CAPÍTULO 3. BASES Y DIMENSIÓN

que con operaciones elementales fila se puede convertir en el siguiente sistema equiva-
lente:    
 x   0 
 
 1 1 −1  
   
 y  =  0 
  

0 1 −1    
   
z 0
que implica que y − z = 0 y x + y − z = 0, de donde y = z y x = 0. Por lo tanto las
soluciones de este sistema lineal son todos los vectores de la forma
   
 x   0 
   
 y  =  1 z
   
   
   
z 1

Esto muestra que W1 ∩ W2 = h(0, 1, 1)i, es decir, dim(W1 ∩ W2 ) = 1.


Concluimos entonces que dim(W1 +W2 ) = 2+2−1 = 3 y como W1 +W2 es un subespacio
de R3 de dimensión 3, entonces W1 + W2 = R3 .

3.5. Suma directa de subespacios vectoriales

Sea V un espacio vectorial. Dados subespacios vectoriales U, W ⊂ V , ya vimos que


W1 + W2 es un subespacio vectorial de V . Cuando los subespacios W1 y W2 solo tienen
en común el vector 0, se dice que la suma es directa.

Definición 19. Sea V un espacio vectorial y sean U, W ⊂ V subespacios vectoriales.


Decimos que V es la suma directa de U y W si:

V =U +W

Para todo v ∈ V existen únicos elementos u ∈ U y w ∈ W tales que v = u + w.

Cuando V es la suma directa de U y W , escribimos V = U ⊕ W .

Proposición 14. Sea V un espacio vectorial y sean U, W ⊂ V subespacios vectoriales.


V = U ⊕ W si y sólo si V = U + W y U ∩ W = {0}.
3.5. SUMA DIRECTA DE SUBESPACIOS VECTORIALES 61

Demostración. Supongamos que V = U ⊕ W y veamos que U ∩ W = {0}. En efecto, si


v ∈ U ∩ W , entonces v = v + 0 con v ∈ U y v = 0 + v con v ∈ W . Pero de la definición
de suma directa, la escritura de v es única, por lo tanto v = 0.
Reciprocamente, si V = U + W y U ∩ W = {0}, supogamos que para v ∈ V se tienen
dos escrituras, v = u + w con u ∈ U , w ∈ W , y v = u0 + w0 con u0 ∈ U , w0 ∈ W . Por lo
tanto, 0 = v − v = (u − u0 ) + (w − w0 ), esto implica que w − w0 = u0 − u, pero w − w0 ∈ W
y w − w0 = u0 − u ∈ U . Así, w − w0 ∈ U ∩ W = {0}. Luego w − w0 = 0, de donde w = w0 .
Claramente si w = w0 entonces u = u0 . Esto muestra que la escritura es única, de donde
concluimos que V = U ⊕ W .

Ejemplo 55. Consideremos en R2 , los subespacios vectoriales R×{0} = {(a, 0) : a ∈ R}


y {0} × R = {(0, b) : b ∈ R}. Note que (R × {0}) ∩ ({0} × R) = {(0, 0)}, y claramente
R2 = (R × {0}) + ({0} × R), ya que todo elemento (a, b) ∈ R2 se puede escribir como
(a, b) = (a, 0) + (0, b).
Esto muestra que R2 = (R × {0}) ⊕ ({0} × R).

Proposición 15. Sea V un espacio vectorial y sean U, W ⊂ V subespacios vectoriales


tales que V = U ⊕ W . Si B es una base para U y C es una base para W , entonces B ∪ C
es una base para V = U ⊕ W .

Demostración. Claramente hB∪Ci = V , ya que dado v ∈ V , v = u+w con u ∈ U , w ∈ W ,


y como B es una base para U y C es una base para W , entonces u = a1 u1 + · · · + an un ,
para ciertos ui ∈ B, y w = b1 w1 + · · · bk wk , para ciertos wj ∈ C, de donde, v = u + w =
a1 u1 + · · · + an un + b1 w1 + · · · bk wk .
Veamos que B ∪C es linealmente independiente. Supongamos que existe una combinación
lineal a1 u1 + · · · + an un + b1 w1 + · · · + bk wk = 0, donde ui ∈ B y wj ∈ C. Entonces
a1 u1 +· · ·+an un = (−b1 )w1 +· · ·+(−bk )wk , lo que implica que a1 u1 +· · ·+an un ∈ U ∩W ,
pero por hipótesis U ∩ W = {0}, por lo tanto a1 u1 + · · · + an un = 0 y como B es base,
entonces a1 = a2 = · · · = an = 0. De aquí se sigue que b1 w1 + · · · + bk wk = 0 y como C
62 CAPÍTULO 3. BASES Y DIMENSIÓN

es una base, entonces b1 = b2 = · · · = bk = 0.


Esto muestra que B ∪ C es una base para V = U ⊕ W .

Ejemplo 56. En R3 , consideremos los subespacios U = {(x, y, z) ∈ R3 : x−2y+3z = 0}


y W = {(t, 0, t) : t ∈ R}. U y W son subespacios de R2 . Veamos que U ∩ W = {0}.
En efecto, si (x, y, z) ∈ R3 es tal que x − 2y + 3z = 0 y (x, y, z) = (t, 0, t) para cierto t,
entonces x = t, y = 0 y z = t, lo que implica que x − 2y + 3z = t + 3t = 0, de donde
t = 0, es decir (x, y, z) = (0, 0, 0). Esto muestra que U ∩ W = {0}.
Una base para U es fácil ver que es {(2, 1, 0), (−3, 0, 1)}, y una base para W es {(1, 0, 1)}.
De la proposición anterior tenemos que una base para U ⊕W es {(2, 1, 0), (−3, 0, 1), (1, 0, 1)}.
Como consecuencia de esto, U ⊕ W = R3 .

Proposición 16. Sea V un espacio vectorial y sean U, W ⊂ V subespacios vectoriales


tales que V = U ⊕ W . Entonces dim(V ) = dim(U ⊕ W ) = dim(U ) + dim(W ).

Demostración. Si dim(V ) = ∞, entonces de la Proposición 15, U tiene dimensión infinita


o W tiene dimensión infinita. Por lo tanto dim(V ) = dim(U ) + dim(W ).
Si dim(V ) = n, como V = U ⊕ W , entonces en particular V = U + W , y el Teorema 5
implica que dim(V ) = dim(U ) + dim(W ) − dim(U ∩ W ). Como U ∩ W = {0}, entonces
dim(U ∩ W ) = 0. Así, dim(V ) = dim(U ⊕ W ) = dim(U ) + dim(W ).

Ejemplo 57. Consideremos el espacio vectorial Mn de las matrices n × n, y considere-


mos los subespacios Sn = {A ∈ Mn AT = A} y An = {A ∈ Mn AT = −A}.
Un ejercicio interesante, es demostar que toda matriz cuadrada n × n, se puede escribir
de manera única, como la suma de una matriz simétrica y una antisimétrica. En este
ejemplo mostramos que Mn = Sn ⊕ An , por medio de las dimensiones de los subespacios.
Note que Sn ∩ An = {0}, ya que si AT = A y AT = −A entonces A = −A, lo que implica
que 2A = 0, de donde A = 0 es la matriz cero.
n(n+1) n(n−1)
Sabemos que dim(Mn ) = n2 . Además, dim(Sn ) = 2 y dim(An ) = 2 (Ejerci-
cio).
3.5. SUMA DIRECTA DE SUBESPACIOS VECTORIALES 63

n(n+1)
Por la proposición anterior, dim(Sn ⊕ An ) = 2 + n(n−1)
2 = n2 . Por lo tanto, Sn ⊕ An
es un subespacio de Mn de dimensión n2 , lo que implica que Sn ⊕ An = Mn .

Teorema 6. Sea V un espacio vectorial de dimensión finita. Dado un subespacio U ⊂ V ,


existe un subespacio W ⊂ V tal que V = U ⊕ W

Demostración. Sea {u1 , . . . , uk } una base para U . Como vimos antes, existen vecto-
res w1 , . . . , wn tales que {u1 , . . . , uk , w1 , . . . , wn } es una base para V . Definamos W =
hw1 , . . . , wn i. Es claro que V = U +W . Ahora notemos que U ∩W = {0}, ya que si existe
un x ∈ U ∩ W , entonces x = a1 u1 + · · · + ak uk , y x = b1 w1 + · · · + bn wn , de donde se sigue
que 0 = a1 u1 + · · · + ak uk + (−b1 )w1 + · · · + (−bn )wn , y como {u1 , . . . , uk , w1 , . . . , wn }
es una base, entonces a1 = a2 = · · · = ak = 0, lo que implica que x = 0.
Concluimos entonces que V = U ⊕ W .

El siguiente ejemplo, muestra que el subespacio W del teorema anterior, puede ser
escogido de muchas formas distintas, es decir, dado U ⊂ V un subespacio vectorial de V ,
es posible encontrat W1 , W2 ⊂ V , con W1 6= W2 , tales que V = U ⊕ W1 y V = U ⊕ W2 .

Ejemplo 58. En R3 , consideremos el subespacio U = {(0, 0, z) : z ∈ R}. Claramente


{(0, 0, 1)} es una base para U . Esta base se puede completar a una base para R3 , sim-
plemente escogiendo los vectores (1, 0, 0) y (0, 1, 0), es decir, {(0, 0, 1), (1, 0, 0), (0, 1, 0)}
es una base para R3 . Por lo tanto, del Teorema 6 se sigue que W1 = h(1, 0, 0), (0, 1, 0)i es
un subespacio tal que R3 = U ⊕ W1 . Note que W1 es precisamente el plano xy, es decir,
W1 = {(x, y, 0) : x, y ∈ R}.
Por otro lado, el conjunto {(0, 0, 1)} se puede completar a una base para R3 de muchas
maneras distintas, por ejemplo {(0, 0, 1), (1, 0, 0), (1, 1, 1)} también es una base para R3 ,
por lo tanto, nuevamente por el Teorema 6 se sigue que W2 = h(1, 0, 0), (1, 1, 1)i es un
subespacio que satisface que R3 = U ⊕ W2 y claramente W1 6= W2 .
64 CAPÍTULO 3. BASES Y DIMENSIÓN

3.6. Espacios vectoriales con producto interno

En esta sección, trabajaremos con K-espacios vectoriales, donde K = R o K = C.

Definición 20. Sea V un K-espacio vectorial. Definimos un producto interno en V ,


como una función h·, ·i : V × V → K que satisface las siguientes propiedades:

1. hx, yi = hy, xi para todo x, y ∈ V

2. hx + y, zi = hx, zi + hy, zi para todo x, y, z ∈ V

3. hαx, yi = αhx, yi para todo α ∈ K, para todo x, y ∈ V

4. hx, xi ≥ 0 para todo x ∈ V

5. hx, xi = 0 si y sólo si x = 0

En la definición anterior, la barra hx, yi denota el conjugado del número complejo


hx, yi.
Recuerde que dado un número complejo z = a + bi, el conjugado de z se define como
z = a − bi.
Un K-espacio vectorial con un producto interno h·, ·i se llama un espacio vectorial con
producto interno.

Ejemplo 59. En el espacio vectorial Rn , el producto h(a1 , . . . , an ), (b1 , . . . , bn )i = a1 b1 , . . . , an bn ,


es un producto interno.

Ejemplo 60. Considere el espacio vectorial V = {f : [0, 1] → R / f continua}. Defina-


mos el siguiente producto:
Z 1
hf, gi = f (x)g(x)dx
0

Este producto resulta ser un producto interno para V .


3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 65

Ejemplo 61. En Cn , dados dos vectores a = (a1 , . . . , an ) y b = (b1 , . . . , bn ), definamos


el producto ha, bi = a · b = a1 b1 + · · · + an bn , donde bi denota el conjugado de bi . Este
producto resulta ser un producto interno.

Los espacios vectoriales con producto interno, tienen propiedades importantes que
no tienen en general todos los espacios vectoriales. Por ejemplo, en ellos es posible definir
el complemento ortogonal de un subespacio vectorial, se puede hablar de ortogonalidad
entre vectores del espacio vectorial, lo que permite a su vez tener una versión del Teorema
de Pitágoras, también es posible definir la noción de bases ortogonales, etc. Todas estas
nociones vienen motivadas por lo que ocurre en el espacio vectorial Rn . Por esta razón,
a continuación haremos una pequeña disgresión para recordar propiedades del espacio
vectorial Rn .

3.6.1. Vectores en Rn

En muchos casos, por ejemplo en problemas relacionados con física, es más útil ver

los puntos de Rn como vectores, donde un vector P Q, se define como el segmento de
recta dirigido que une los puntos P y Q,

es decir, como el conjunto

{(x1 , . . . , xn ) = (1 − t)P + tQ : t ∈ [0, 1]}.

Denotemos el conjunto de todos estos segmentos de recta dirigidos, como Vect(Rn ).


→ →
A cada vector P Q le asociamos una magnitud y una dirección. La magnitud de P Q la
definimos simplemente como la distancia del punto P al punto Q, es decir,

→ q
||P Q|| = (b1 − a1 )2 + · · · + (bn − cn )2
66 CAPÍTULO 3. BASES Y DIMENSIÓN

y la dirección como los ángulos que forma el vector con los ejes coordenados.

−−→
Dado un vector P Q, una cantidad que determina la magnitud y dirección es Q − P .
−−→
Recordemos que P Q = {X = (1 − t)P + tQ : t ∈ [0, 1]}, que escrito de otra forma es

−−→
P Q = {X = t(Q − P ) + P : t ∈ [0, 1]}

−−→ −−−−−−−→
Note que el vector P Q y el vector O(Q − P ) están ambos determinados por el punto
Q − P , y por lo tanto tiene la misma magnitud.

−−→ −−−−−−−→
P Q = {X = t(Q − P ) + P : t ∈ [0, 1]} y O(Q − P ) = {X = t(Q − P ) : t ∈ [0, 1]}

Consideremos la siguiente relación, definida en el conjunto Vect(Rn ). Diremos que


→ →
P Q ∼ RS si Q − P = S − R. No es difícil ver que esta es una relación de equivalencia,
→ −−−−−−−→
y que el vector P Q está en la misma clase de equivalencia del vector O(Q − P ). Esto

permite identificar cada clase de equivalencia [P Q] con el punto Q−P ∈ Rn . El conjunto
Vect(Rn )/ ∼ es un espacio vectorial con la suma y el producto escalar definidos de la
siguiente forma:

→ → → →
Dados dos vectores [P Q] y [RS], definimos la suma [P Q] + [RS] por medio de la
regla del palalelogramo, como se muestra en la siguiente figura:

T S

→ →
[P Q] + [RS]
Q R

→ → → → → →
donde, [P Q] + [RS] = [P Q] + [QT ], ya que [RS] = [QT ], y por lo tanto,

→ → →
[P Q] + [RS] = [P T ]
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 67


Por otro lado, dado un escalar α ∈ R definimos α[P Q] como la clase de equivalencia
−−−−−−−→
[(αP )(αQ)], es decir, la clase de equivalencia del vector que comienza en el punto αP y
termina en el punto αQ.
Con estas dos operaciones, el conjunto Vect(Rn )/ ∼ tiene estructura de espacio vectorial.
→ −−−−−−−→
Más aún, ya que cada vector P Q está en la clase de equivalencia del vector O(Q − P ),
el espacio vectorial Vect(Rn )/ ∼ se puede identificar con el espacio vectorial Rn , simple-

mente bajo la correspondencia [P Q] ↔ Q − P .
Esta correspondencia no es solo una biyección, tiene además la propiedad de enviar la
suma y el producto escalar de Vect(Rn )/ ∼ a la suma y el producto escalar de Rn . En
−−→ −→ −−→
otras palabras, [P Q] + [RS] = (Q − P ) + (S − R), y c(P Q) = c(Q − P ).

Analicemos lo anterior, en los casos particulares de R2 y R3 .



Por ejemplo en R2 , consideremos un vector P Q, con P = (a1 , a2 ) y Q = (b1 , b2 ). En
el vértice P , dibujemos ejes paralelos a los ejes coordenados. Consideremos el ángulo
α ∈ [0, 2π] que se forma entre el eje x positivo y el vector, en el sentido contrario a las
manecillas del reloj.

Q
α
P


Definimos la dirección del vector P Q, como este ángulo α.

−−−−−−−→ →
Note que el vector O(Q − P ) tiene la misma magnitud y dirección que el vector P Q
68 CAPÍTULO 3. BASES Y DIMENSIÓN

Q-P
α
P
α
O


Luego, dado un vector [P Q] lo podemos identificar con el punto Q − P .

Si P = (a, b) ∈ R2 , entonces usando trigonometría sabemos que a = a2 + b2 cosα y

b = a2 + b2 senα

P = (a, b)

β a
α


es decir, si P = (a, b), entonces ||P || = a2 + b2 , y si α es la dirección del vector

OP , tenemos que P = ||P ||(cosα, senα).
π
Por otro lado, si β = 2 − α, sabemos que cosβ = cos(π/2 − α) = senα. Por lo tanto,

P = ||P ||(cosα, cosβ)


En R3 , la dirección de un vector P Q se define como una terna de ángulos (α, β, γ),
como se muestra en la siguiente figura:
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 69

γ Q
β
P
α

→ −−−−−−−→
El vector P Q está en la clase de equivalencia del vector O(Q − P ), lo que permite

identificar el vector [P Q] con el punto Q − P ∈ R3 .
−−→
Dado el vector OP con dirección (α, β, γ), donde P = (a, b, c), como se muestra en la
gráfica

γ P = (a, b, c)
β
O S
α
R

tenemos tres triángulos rectángulos

P P P
||P || ||P || ||P ||

α β γ
O R O S O T
a b c


donde ||P || = a2 + b2 + c2 .
−−→
Por lo tanto, a = ||P ||cosα, b = ||P ||cosβ y c = ||P ||cosγ. En resumen, si el vector OP
tiene dirección (α, β, γ), entonces P = ||P ||(cosα, cosβ, cosγ).
70 CAPÍTULO 3. BASES Y DIMENSIÓN

De la última igualdad tenemos que

q
||P || = ||P ||||(cosα, cosβ, cosγ)|| = ||P || cos2 α + cos2 β + cos2 γ) ,

lo que implica que

cos2 α + cos2 β + cos2 γ = 1

Note que la última igualdad no es una identidad trigonométrica, es decir, existen ángulos
α, β y γ tales que cos2 α+cos2 β +cos2 γ 6= 1. Por ejemplo, si α = π/6, β = π/3 y γ = π/4,
entonces

cos2 (π/6) + cos2 (π/3) + cos2 (π/4) 6= 1

En otras palabras, no existe un vector en R3 con dirección (π/6, π/3, π/4).

3.6.2. Producto interno entre vectores de Rn


−−→
De ahora en adelante, cuando nos refiramos a un vector P Q en Rn , estamos hablando
−−→
de la clase de equivalencia del vector P Q, es decir, del conjunto de vectores que tiene la
−−→
misma magnitud y dirección que el vector P Q, y este conjunto de clases de equivalencias
lo denotaremos por Vect(Rn )

Recordemos que en Rn tenemos un producto interno definido como

h(a1 , . . . , an ), (b1 , . . . , bn )i = a1 b1 + · · · + an bn

La identificación entre los espacios vectoriales Vect(Rn ) y Rn permite trasladar este


producto interno a Vect(Rn ), de la siguiente forma:
−−→ −→ −−→ −→
Dados vectores P Q y RS, definimos hP Q, RSi = hQ − P, S − Ri. Este es un producto
interno h·, ·i : Vect(Rn ) × Vect(Rn ) → R.

−−→ −→
Ejemplo 62. Consideremos los vectores en R2 , P Q y RS, donde P = (−1, 1), Q = (1, 2),
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 71

R = (1, −1) y S = (3, 1).

Q S−R
Q−P
P S

−−→ −→
El producto interno hP Q, RSi = hQ − P, S − Ri = h(2, 1), (2, 2)i = 2 · 2 + 1 · 2 = 4 + 2 = 6.

−−→ −→
Dados dos vectores P Q y RS, definimos el ángulo entre ellos, como el ángulo α ∈ [0, π]
que forman los dos vectores, como se muestra en la siguiente figura:

Q
α
P S

−→ −→
donde note que el vector RS está en la clase de equivalencia del vector P T .

−−→ −→
Definición 21. Decimos que dos vectores P Q y RS son ortogonales o perpendiculares,
si el ángulo entre ellos es π/2.
−−→ −→
Decimos que dos vectores P Q y RS son paralelos si el ángulo entre ellos es 0 o π.

Recordemos que dado un punto P = (a1 , . . . , an ) ∈ Rn ,

hP, P i = a21 + · · · + a2n = ||P ||2


72 CAPÍTULO 3. BASES Y DIMENSIÓN

Supongamos que tenemos dos puntos en Rn , digamos P y Q, y supongamos que el


−−→ −−→
ángulo entre los vectores OP y OQ es α. Entonces,

hP, Qi = ||P || · ||Q||cosα

Lo anterior es una consecuencia de la ley de cosenos, ya que si observamos la siguiente


gráfica,
Q

||Q|| ||Q − P ||

P
α
||P ||

la ley de cosenos implica que

||Q − P ||2 = ||P ||2 + ||Q||2 − 2||P || · ||Q||cosα,

pero ||Q − P ||2 = hQ − P, Q − P i = hQ, Qi + hP, P i − 2hP, Qi, por lo tanto

||P ||2 + ||Q||2 − 2hP, Qi = ||P ||2 + ||Q||2 − 2||P || · ||Q||cosα,

de donde
hP, Qi = ||P || · ||Q||cosα

De lo anterior tenemos que el producto interno de dos vectores, está determinado por
−−→
sus magnitudes y por el coseno del ángulo entre ellos, es decir, dados dos vectores P Q y
−→ −−−−−−−→
RS, considerando los respectivos vectores en el origen, es decir, los vectores O(Q − P )
−−−−−−→
y O(S − R), tenemos de lo anterior que

hQ − P, S − Ri = ||Q − P || · ||S − R||cosα,


−−−−−−−→ −−−−−−→
donde α es el ángulo entre los vectores O(Q − P ) y O(S − R), en otras palabras,

−−→ −→ −−→ −→
hP Q, RSi = ||P Q|| · ||RS||cosα,
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 73

−−→ −→
donde α es el ángulo entre los vectores P Q y RS.
Lo anterior implica la siguiente proposición.

−−→ −→ −−→ −→
Proposición 17. i) P Q y RS son ortogonales si y sólo si hP Q, RSi = 0.

−−→ −→ −−→ −→
ii) P Q y RS son paralelos si y sólo si P Q = c(RS) para cierto c ∈ R.

Demostración. Ejercicio.

Esta última proposición, motiva la definición de ortogonalidad en un espacio vectorial


arbitrario con producto interno, ya que aunque V puede ser un espacio vectorial con
producto interno en el cual no tenga sentido hablar de ángulos, si tiene sentido decir que
hu, vi = 0 para vectores u, v ∈ V .

3.6.3. Proyección ortogonal y el teorema de Pitágoras


−−→ −−→
Sean P y Q puntos de Rn . Veamos que si consideramos los vectores OP y OQ, es
−−→ −−→ −→ −−→ −−→ −→
posible definir un vector OR tal que OR + RP = OP con OR perpendicular a RP .

R
O

−−→ −−→
Para encontrar el vector OR con las propiedades anteriores, note que OR tiene que
−−→ −−→ −−→
ser paralelo al vector OQ, es decir, OR = c(OQ), esto implica que R − O = c(Q − O),
−−→ −→
así R = cQ. Por otro lado, como queremos que OR sea perpendicular a RP , entonces
−−→ −→
hOQ, RP i = 0 y por lo tanto hQ, P − Ri = 0, y como R = cQ entonces hP − cQ, Qi = 0.
hP,Qi
Esto implica que hP, Qi − chQ, Qi = 0. Luego, c = hQ,Qi .
hP,Qi
Por lo tanto, R = hQ,Qi Q.
−−→ −−→ −−→
El vector OR recibe el nombre de proyección ortogonal de OP sobre OQ, y en general
74 CAPÍTULO 3. BASES Y DIMENSIÓN

−−→ −−→
se escribe OR = proy−→ OP , o lo que es equivalente, R = proyQ P .

OQ
−−→ −→ −−→
En general, dados dos vectores P Q y RS, definimos proy− → P Q = proy(S−R) (Q − P ), o
RS

lo que es equivalente,
−−→ −→
−−→ hP Q, RSi −→
proy−→ P Q = −→ −→ RS
RS
hRS, RSi

Teorema 7 (Teorema de Pitágoras). Sean P, Q ∈ Rn vectores no paralelos. Sea R =


−−→
proyQ P . Entonces hR, P − Ri = 0, o lo que es equivalente, el vector OR es perpendicular
−→
al vector RP .
P

R
O

−−→ hQ,P i
Demostración. Por la forma como se construyo el vector OR, tenemos que R = hQ,Qi Q.

Por lo tanto,

hP, Qi hP, Qi hP, Qi


hR, P − Ri = hR, P i − hR, Ri = h Q, P i − h Q, Qi
hQ, Qi hQ, Qi hQ, Qi
hP, Qi hP, Qi hP, Qi
= hP, Qi − hQ, Qi
hQ, Qi hQ, Qi hQ, Qi
hP, QihP, Qi hP, QihP, Qi
= − =0
hQ, Qi hQ, Qi

−−→ −→
De manera más general, el teorema anterior nos dice que dados vectores P Q y RS,
−→ −−→ −→ −→ −−→
si U T es la proyección del vector P Q sobre el vector RS, es decir, U T = proy−→ P Q,
RS

entonces
−→ −−→ −→
hU T , P Q − U T i = 0

Veamos que esta versión del Teorema de Pitágoras coincide con la versión tradicional
para triángulos rectángulos.
En efecto, supongamos que tenemos un triángulo rectángulo cuyos vértices son los puntos
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 75

P, Q, S ∈ Rn y que el triángulo es rectángulo con ángulo de π/2 en el vértice S, como


muestra la figura.
Q

||Q − P ||

||Q − S||

P
||S − P ||
S

Veamos que
||Q − P ||2 = ||S − P ||2 + ||Q − S||2 , (3.8)

es decir, que el cuadrado de la hipotenusa es la suma de los cuadrados de los catetos.


−→
En efecto, si pensamos en vectores, tenemos que el vector P S es la proyección del vector
−−→ −→
P Q sobre el vector P S, por lo tanto

−→ −−→ −→
hP S, P Q − P Si = 0

−−→ −→ −→
Ahora, note que P Q − P S = SQ, por lo tanto tenemos que

−→ −→
hP S, SQi = 0

que es equivalente a decir que

hS − P, Q − Si = 0

Por otro lado, la ecuacion 3.8 es equivalente a la ecuación

hQ − P, Q − P i = hS − P, S − P i + hQ − S, Q − Si

que por la linealidad del producto interno se traduce en la ecuación

hQ, Qi − 2hP, Qi + hP, P i = hS, Si − 2hP, Si + hP, P i + hQ, Qi − 2hQ, Si + hS, Si


76 CAPÍTULO 3. BASES Y DIMENSIÓN

y simplificando tenemos que es equivalente a la ecuación

hP, Qi = −hS, Si + hP, Si + hQ, Si

y esta última ecuación note que es equivalente a

hS − P, Q − Si = 0

Así, hemos mostrado un prueba vectorial del Teorema de Pitágoras.

Teorema 8 (Desigualdad de Cauchy-Schwarz). Dados dos vectores P, Q ∈ Rn ,


|hP, Qi| ≤ ||P || · ||Q||

Demostración. Supongamos primero que ||P || = 1 = ||Q||, es decir, que P y Q son vec-
tores unitarios. Veamos que |hP, Qi| ≤ 1.
En efecto, por propiedades del producto interno sabemos que hP − Q, P − Qi ≥ 0 y
hP + Q, P + Qi ≥ 0. Por lo tanto hP, P i − 2hP, Qi + hQ, Qi ≥ 0 y como hP, P i = ||P ||2
y hQ, Qi = ||Q||2 , se sigue que 2 − 2hP, Qi ≥ 0, de donde hP, Qi ≤ 1.
De igual forma, hP +Q, P +Qi = hP, P i+2hP, Qi+hQ, Qi ≥ 0, de donde, 2+2hP, Qi ≥ 0.
Por lo tanto, hP, Qi ≥ −1.
Así, −1 ≤ hP, Qi ≤ 1. Esto muestra que |hP, Qi| ≤ 1.
En el caso general, cuando P y Q no son unitarios, es decir, no tienen norma 1, note
primero que todo que la desigualdad es trivial si P = O o Q = O. Por lo tanto podemos
suponer que P y Q son vectores no nulos y podemos demostrar la desigualdad norma-
P Q
lizando los vectores, es decir, dividiendo por su norma. En otras palabras, ||P || y ||Q||

tienen norma 1, entonces por el caso anterior tenemos que

P Q
|h , i| ≤ 1
||P || ||Q||

Pero por propiedades del producto interno,

P Q 1 1
h , i= hP, Qi
||P || ||Q|| ||P || ||Q||
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 77

lo que implica que


1 1
|hP, Qi| ≤ 1
||P || ||Q||
y así,
|hP, Qi| ≤ ||P || · ||Q||

La desigualdad de Cuachy-Schwarz permite demostrar la desigualdad triangular, que


afirma que en un triángulo la longitud de un lado siempre es menor o igual que la suma
de las longitudes de los otros dos lados.

Teorema 9. Sean P, Q ∈ Rn . Entonces ||P + Q|| ≤ ||P || + ||Q||.

P
||P + Q|| ||P ||

||Q||
O

Demostración.

||P + Q||2 = hP + Q, P + Qi = hP, P i + 2hP, Qi + hQ, Qi

= ||P ||2 + 2hP, Qi + ||Q||2

≤ ||P ||2 + 2||P || · ||Q|| + ||Q||2 = (||P || + ||Q||)2

Así, ||P + Q||2 ≤ (||P || + ||Q||)2 y por lo tanto ||P + Q|| ≤ ||P || + ||Q||.

Para terminar la discusión sobre el espacio vectorial Rn , definamos las nociones de


rectas y planos.

Recordemos que en R2 , una recta simplemente es el conjunto de puntos {(x, mx+b) :


x ∈ R}, donde m se denota la pendiente de la recta y b es el intersecto de la recta con
78 CAPÍTULO 3. BASES Y DIMENSIÓN

el eje y.
Esta definición permite generalizar la noción de recta a cualquier Rn , teniendo en cuenta
que ya en vez de pendiente podemos hablar de vector director de la recta, y en vez del
intersecto podemos hablar de un punto sobre la recta.
−−→
Supongamos que tenemos un vector P Q en Rn y un punto R ∈ Rn , y queremos construir
−−→
una recta que vaya en la misma dirección del vector P Q y que pase por R.

Q
L

P
R

−−→
Para que el punto X este sobre la recta L, es necesario que el vector RX sea paralelo
−−→ −−→ −−→
al vector P Q, es decir, RX = t(P Q) para cierto t ∈ R. Por lo tanto, X − R = t(Q − P ),
de donde X = t(Q − P ) + R.
−−→
Definición 22. Dado un punto R ∈ Rn y un vector P Q, definimos la recta con vector
−−→
director P Q que pasa por el punto R, como el conjunto de puntos

L = {X ∈ Rn : X = t(Q − P ) + R, t ∈ R}

Ejemplo 63. Halle la ecuación de la recta L en R3 que pasa por los puntos P = (−1, 0, 3)
y Q = (1, 2, −1).
−−→
Note que al pasar la recta por los puntos P y Q, el vector P Q es un vector director de
la recta L. Por lo tanto, la recta L es el conjunto de puntos

L = {X = t(Q − P ) + P : t ∈ R},
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 79

es decir, son los puntos de la forma (x, y, z) = t(2, 2, −4)+(−1, 0, 3) = (2t−1, 2t, −4t+3).
En este caso que el vector director (2, 2, −4) no tiene entradas nulas, podemos describir
los puntos de la recta L como los puntos (x, y, z) tales que:

x+1 y 3−z
= = ,
2 2 4

x+1 y 3−z
ya que t = 2 , t = 2 y t = 4 . Estas ecuaciones se conocen como las ecuaciones
simétricas de la recta L.

−−→
Definición 23. Sea R ∈ Rn y sea P Q un vector en Rn . Definimos el plano P en Rn que
−−→ −−→
pasa por R y tiene vector normal P Q, como el conjunto de puntos X ∈ Rn tales que XR
−−→
es perpendicular a P Q, es decir, todos los puntos X ∈ Rn tales que hX − R, Q − P i = 0.
En otras palabras,

P = {X ∈ Rn : hX − R, Q − P i = 0}

X
P

Ejemplo 64. En R3 por ejemplo, la ecuación de un plano P que pase por el punto
80 CAPÍTULO 3. BASES Y DIMENSIÓN

R = (x0 , y0 , z0 ) y tenga vector normal N = (a, b, c), está dada por:

P = {(x, y, z) ∈ R3 : h(x, y, z) − (x0 , y0 , z0 ), (a, b, c)i = 0},

que es lo mismo que

P = {(x, y, z) ∈ R3 : a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0}

Es decir, los planos en R3 corresponden a el conjunto de puntos que satisfacen una


ecuación de la forma

a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0,

donde (a, b, c) es el vector normal al plano y el plano pasa por el punto (x0 , y0 , z0 )

Volvamos a los espacios vectoriales con producto interno. Todo lo que discutimos
anteriormente sobre Rn , se puede generalizar a cualquier espacio vectorial con producto
interno.

Definición 24. Sea V un espacio vectorial con producto interno h·, ·i.

Decimos que dos vectores v1 , v2 ∈ V son ortogonales, si hv1 , v2 i = 0.

Dados dos vectores u, v ∈ V , v 6= 0, definimos la proyección ortogonal de u sobre


v, como
hu, vi
proyv u = v
hv, vi

Igual a como se vió en el caso de Rn , el vector proyv u es ortogonal al vector u−proyv u,


que era lo que se había enunciado en el caso de Rn como el teorema de Pitágoras.

Definición 25. Sea V un K- espacio vectorial, donde K = R o K = C. Una norma en


V , es una función ρ : V → K tal que:

1. ρ(a · v) = |a|ρ(v)
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 81

2. ρ(u + v) ≤ ρ(u) + ρ(v)

3. ρ(v) = 0 ⇒ v = 0

Se puede deducir fácilmente de la definición de norma, que ρ(0) = 0 y ρ(v) ≥ 0.


El producto interno de V , induce una norma en V , dada por:
q
||v|| = hv, vi

Demostrar que satisface la propiedad 1 y 3 es fácil, se sigue simplemente de las


propiedades del producto interno. Para demostrar la propiedad 2, conocida como la de-
sigualdad triangular, es necesario demostrar primero la desigualdad de Cauchy-Schwarz,
que queda como ejercicio para el lector, ya que sigue las mismas lineas de la prueba que
se hizo para el caso de Rn .

Proposición 18 (Desigualdad de Cauchy-Schwarz). Sea V un espacio vectorial


con producto interno h·, ·i y || · || la norma inducida por este producto interno. Entonces

|hu, vi| ≤ ||u|| · ||v||

Como una consecuencia de la desigualdad de Cauchy-Schwarz, se tiene la desigualdad


triangular

Proposición 19. Sea V un espacio vectorial con producto interno h·, ·i y || · || la norma
inducida por este producto interno. Entonces

||u + v|| ≤ ||u|| + ||v||

3.6.4. Complemento Ortogonal y proceso de ortogonalización de Gram-


Schmidt

Sea V un espacio vectorial con producto interno. Dado un subespacio W ⊂ V , es


posible definir otro subespacio de V tal que todos sus elementos son ortogonales a los
elementos de W . Este subespacio se llama el complemento ortogonal de W .
82 CAPÍTULO 3. BASES Y DIMENSIÓN

Definición 26. Sea W ⊂ V un subespacio vectorial. Definimos el complemento ortogo-


nal de W como
W ⊥ = {v ∈ V : hv, wi = 0 ∀w ∈ W }

El conjunto W ⊥ resulta ser un subespacio vectorial.


Varias secciones atrás, habíamos visto que dado V un espacio vectorial de dimensión
finita, para cada subespacio vectorial W ⊂ V , era posible encontrar otro subespacio W 0
tal que V = W ⊕ W 0 , y que W 0 no era único, realmente se puede escoger de infintas
formas. Lo que vamos a ver a continuación, es que cuando V es un espacio vectorial con
producto interno, es posible descomponer V como

V = W ⊕ W⊥

Para esto, introducimos el proceso de ortogonalización de Gram-Schimidt.

Teorema 10 (Proceso de ortogonalización de Gram-Schmidt). Sea V un espacio


vectorial con producto interno, dimV < ∞. Sea B = {v1 , . . . , vk } una base para V . A
partir de la base B es posible construir otra base C = {u1 , . . . , uk } tal que hui , uj i = 0
para i 6= j.

Demostración. Definamos u1 = v1 , u2 = v2 − proyu1 v2 , u3 = v3 − proyu1 v3 − proyu2 v3 .


En general,
j−1
X
uj = vj − proyui vj
i=1
Veamos que hui , uj i = 0 para todo i 6= j.
Primero veamos que hu1 , ui i = 0 para i = 2, . . . , k.
En efecto, hu1 , u2 i = hu1 , v2 − proyu1 v2 i = 0. Ahora,

hu1 , u3 i = hu1 , v3 − proyu1 v3 − proyu2 v3 i

= hu1 , v3 − proyu1 v3 i − hu1 , proyu2 v3 i

Como hu1 , u2 i = 0 entonces hu1 , proyu2 v3 i = 0, y sabemos que hu1 , v3 − proyu1 v3 i = 0.


Por lo tanto hu1 , u3 i = 0.
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 83

Recursivamente, supongamos que hu1 , ui i = 0 para i = 2, . . . , s − 1, y veamos que


hu1 , us i = 0.

s−1
X
hu1 , us i = hu1 , vs − proyui vs i
i=1
s−1
X
= hu1 , vs − proyu1 vs i − hu1 , proyui vs i
i=2

=0

Esto muestra que hu1 , ui i = 0 para i = 2, . . . , k.


De igual forma, hu2 , u1 i = 0 implica que hu2 , u3 i = 0, ya que hu2 , u3 i = hu2 , v3 −
proyu2 v2 i − hu2 , proyu1 v3 i. De manera recursiva, si suponemos que hu2 , ui i = 0 para
i = 3, . . . , s − 1, entonces hu2 , us i = 0, ya que

s−1
X
hu2 , us i = hu2 , vs − proyui vs i
i=1
s−1
X
= hu2 , vs − proyu2 vs i − hu2 , proyui vs i
i=1,i6=2

=0

En general, podemos hacer la prueba de manera recursiva. Supongamos que dado s ∈


{1, . . . , l − 1} se tiene que hus , ui i = 0 para todo i 6= s, y veamos que hul , ui i = 0 para
todo i 6= l.
Analicemos primero el caso i < l. En este caso,

l−1
X
hul , ui i = hvl − proyuj vl , ui i
j=1
l−1
X
= hvl − proyui vl , ui i − hproyuj vl , ui i
j=1,j6=i

=0
84 CAPÍTULO 3. BASES Y DIMENSIÓN

Por otro lado, veamos que hul , ul+j i = 0 para j = 1, . . . , k − l.


l
X
hul , ul+1 i = hul , vl − proyuj vl+1 i
j=1
l−1
X
= hul , vl+1 − proyul vl+1 i − hul , proyuj vl+1 i
j=1

=0

Supongamos que hul , ul+j i = 0 y veamos que hul , ul+j+1 i = 0.


l+j
X
hul , ul+j+1 i = hul , vl+j+1 − proyui vl+j+1 i
i=1
l+j
X
= hul , vl+j+1 − proyul vl+j+1 i − hul , proyui vl+j+1 i
i=1,i6=l

=0

Así concluimos que hul , ui i = 0 para todo i 6= l.


Esto muestra que hui , uj i = 0 para todo i 6= j.
Para terminar la prueba, resta mostrar que C = {u1 , . . . , uk } es una base para V .
Como estamos suponiendo que la dimensión de V es k, es suficiente demostrar que
C = {u1 , . . . , uk } es un conjunto linealmente independiente. Esta prueba queda como
ejercicio para el lector.

Observación 14. Sea V un espacio vectorial con producto interno, dim(V ) < ∞ y sea
W ⊂ V un subespacio vectorial. Consideremos B = {w1 , . . . , wk } una base para W . Por
el teorema anterior, sabemos que es posible ortogonalizar esta base, es decir, tomando
u1 = w1 , u2 = w2 − proyu1 w2 , . . . y en general
i−1
X
ui = wi − proyuj wi
j=1

obtenemos un conjunto de vectores {u1 , . . . , uk } que son mutuamente ortogonales, es


decir, hui , uj i = 0 para i 6= j.
Observe que ui ∈ W para i = 1, 2, . . . , k, y como {u1 , . . . , uk } es linealmente indepen-
diente (ejercicio), entonces C = {u1 , . . . , uk } es una base para W .
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 85

Una base B = {u1 , . . . , uk } con la propiedad de que hui , uj i = 0 para i 6= j, se llama


una base ortogonal.

Ejemplo 65. En Rn , B = {e1 , . . . , en } es una base ortogonal.

Ejemplo 66. En R3 , consideremos el subespacio W = h(1, 0, −1), (2, 1, 1)i. Sabemos


que este subespacio corresponde a un plano que pasa por el origen. Como el conjunto
(1, 0, −1), (2, 1, 1) es linealmente independiente, entonces B = {(1, 0, −1), (2, 1, 1)} es
una base para W . Encontremos una base ortogonal para W . Denotemos w1 = (1, 0, −1)
hw2 ,u1 i
y w2 = (2, 1, 1). Consideremos u1 = w1 y u2 = w2 − proyu1 w2 = w2 − hu1 ,u1 i u1 =
(2, 1, 1) − 21 (1, 0, −1) = (3/2, 1, 3/2).
Así, C = {(1, 0, −1), (3/2, 1, 3/2)} es una base ortogonal para W .

Teorema 11. Sea V un espacio vectorial de dimensión finita con producto interno y
sea W ⊂ V un subespacio vectorial. Entonces V = W ⊕ W ⊥ .

Demostración. Sea B = {w1 , . . . , wk } una base ortogonal para W . Dado v ∈ V , podemos


escribir
k
X k
X
v = (v − proywi v) + proywi v
i=1 i=1
Como cada vector proywi v es paralelo a wi , es decir, es un escalar por wi , entonces se
Pk
sigue que i=1 proywi v ∈ W.
Pk
Veamos que v − i=1 proywi v ∈ W ⊥ . Por un ejercicio, es suficiente probar que
Pk
hv − i=1 proywi v, wj i = 0 para todo j = 1, . . . , k. En efecto,
k
X k
X
hv − proywi v, wj i = hv, wj i − hproywi v, wj i
i=1 i=1

= hv, wj i − hproywj v, wj i
hv, wj i
= hv, wj i − hwj , wj i
hwj , wj i

=0

ya que hwi , wj i = 0 para todo i 6= j.


Pk
Esto muestra que v − i=1 proywi v ∈ W ⊥ . Por lo tanto V = W + W ⊥ .
86 CAPÍTULO 3. BASES Y DIMENSIÓN

Finalmente veamos que W ∩ W ⊥ = {0}. En efecto, si v ∈ W ∩ W ⊥ , entonces hv, vi = 0,


lo que implica que v = 0.
Concluimos entonces que V = W ⊕ W ⊥ .

El teorema anterior muestra que cuando V es un espacio vectorial de dimensión finita


con producto interno, V = W ⊕ W ⊥ para cualquier subespacio W ⊂ V . Un problema
diferente, es dado un subespacio W ⊂ V , cómo computar su complemento ortogonal
W ⊥.

Observación 15. Sea V un espacio vectorial de dimensión finita con producto interno
y sea W ⊂ V un subespacio. Si B = {w1 , . . . , wk } es una base ortogonal para W ,
sabemos que esta base se puede completar hasta obtener una base para V . Tomemos
Pk
v1 ∈
/ hw1 , . . . , wk i = W y consideremos u1 = v1 − j=1 proywj v1 . Note que u1 ∈
/ W , ya
Pk
que j=1 proywj v1 ∈ W . Por lo tanto tenemos un conjunto linealmente independiente
{w1 , . . . , wk , u1 }, donde hu1 , wj i = 0 para todo j = 1, . . . , k. Continuamos de esta ma-
Pk
nera, es decir, tomamos v2 ∈
/ hw1 , . . . , wk , u1 i y consideramos u2 = v2 − j=1 proywj v2 .

Note que hu2 , wi i = 0 para todo i = 1, . . . , k y u2 ∈


/ hw1 , . . . , wk , u1 i. De esta forma,
encontramos vectores u1 , . . . , us tales que hui , wj i = 0 para todo i = 1, . . . , s, para todo
j = 1, . . . , k. Por lo tanto, si consideramos el subespacio vectorial H = hu1 , . . . , us i, se
sigue que H = W ⊥ .

Ejemplo 67. En R3 , consideremos el subespacio W = h(1, 0, −1), (1, 2, 1)i, que corres-
ponde a un plano que pasa por el origen, ya que {(1, 0, −1), (1, 2, 1)} es linealmente
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 87

independiente.

(1, 2, 1)

(1, 0, −1)

Encontremos W ⊥ . Antes de computarlo, notemos que como sabemos que R3 = W ⊕


W ⊥ entonces dim(W ⊥ ) = 1, por lo tanto W ⊥ corresponde a una recta que pasa por
el origen. Encontremos primero una base ortogonal para W . Llamemos u = (1, 0, −1) y
w = (1, 2, 1). Usando el proceso de ortogonalización de Gram-Schmidt, sea w1 = u =
(1, 0, −1) y w2 = w − proyu w = w − hw,ui
hu,ui u, pero note que hw, ui = 0, es decir, u y w son

ortogonales, por lo tanto {(1, 0, −1), (1, 2, 1)} ya es una base ortogonal para W . Ahora
completemos esta base hasta obtener una base para R3 . Recordemos que esto se logra
escogiendo un vector ∈ R3 que no pertenezca a W = h(1, 0, −1), (1, 2, 1)i, es decir, un
vector v = (a, b, c) tal que (a, b, c) 6= x(1, 0, −1) + y(1, 2, 1) para todo x, y ∈ R. Esto es
equivalente a escoger a, b, c ∈ R tales que el sistema lineal
   
 1 1   a 
 
  x  
= b 
    
 0 2  
 y
   
  
−1 1 c
sea inconsistente.
Considerando la matriz aumentada asociada a este sistema y luego escalonándola por
medio de operaciones elementales fila, obtenemos
   
 1 1 | a   1 1 | a 
   
2 | → 0 2 |
   
 0
 b 
  b 

   
−1 1 | c 0 0 | a+c−b
88 CAPÍTULO 3. BASES Y DIMENSIÓN

donde estas dos matrices aumentadas representan sistemas lineales equivalentes, y el


sistema de la derecha es inconsistente precisamente cuando a + c − b 6= 0. Por lo tanto, si
escogemos v = (a, b, c) con a + c − b 6= 0, tenemos que v ∈
/ W = h(1, 0, −1), (1, 2, 1)i. Por
ejemplo escojamos v = (1, 1, 1). Así tenemos que {u, w, v} = {(1, 0, −1), (1, 2, 1), (1, 1, 1)}
es una base para R3 . Ahora, definamos v 0 = v − proyu v − proyw v. Note que u y v ya son
ortogonales, por lo tanto v 0 = v − proyw v = (1/3, −1/3, 1/3). De esta forma, el vector
v 0 = (1/3, −1/3, 1/3) es ortogonal a los vectores u y w, de donde v 0 es ortogonal a todo
elemento de W = hu, wi. Luego, W ⊥ = h(1/3, −1/3, 1/3)i = h(1, −1, 1)i.

W⊥ (1, −1, 1) (1, 2, 1)

(1, 0, −1)

3.7. Ejercicios

1. Sea A ∈ Mn×n una matriz cuadrada. Demuestre que si al aplicarle una operación
elemental fila a la matriz A, obtenemos una matriz B, entonces al aplicarle la mis-
ma operación elemental fila a la matriz identidad, se obtiene una matriz E, tal que
EA = B.
Definimos una matriz elemental, simplemente como una matriz cuadrada n × n
que se obtiene al aplicarle una operación elemental a la matriz identidad In .
Este ejercicio muestra, que escalonar una matriz cuadrada A, corresponde a mul-
tiplicar por la izquierda la matriz A por matrices elementales.

2. Demuestre que si A es una matriz, tal que las entradas de cada columna suman
3.7. EJERCICIOS 89

cero, entonces existe una forma escalonada de A con una fila de ceros.

3. Sean v1 , . . . , vr vectores en Rn , r ≤ n, tales que son mutuamente perpendiculares,


es decir vi · vj = 0 para todo i 6= j. Demuestre que {v1 , . . . , vr } es linealmente
independiente.

4. Sean u = (a, b) y v = (c, d) vectores en R2 . Pruebe que si ad − bc = 0 entonces


{u, v} es linealmente dependiente, y muestre que si ad − bc 6= 0 entonces {u, v} es
linealmente independiente.

5. Dado V un espacio vectorial y S ⊂ V un subconjunto, demuestre que

hSi = {v ∈ V : v = a1 s1 + · · · + an sn con s1 , . . . , sn ∈ S y a1 , . . . , an ∈ K}

6. Sea S un subconjunto del espacio vectorial V . Demuestre que si 0 ∈ S entonces S


es linealmente dependiente.

7. Sea V un K-espacio vectorial. Demuestre que S = {u, v} ⊂ V es linealmente


independiente, si y sólo si, u 6= αv para todo α ∈ K.

8. Sea V un espacio vectorial y sea S ⊂ V un subespacio. Demuestre que si v1 , . . . , vk ∈


hSi, entonces hv1 , . . . , vk i ⊂ hSi.

9. Demuestre que si B es una base para un espacio vectorial V , entonces cada v ∈ V


tiene una escritura única v = a1 v1 + · · · + an vn , con v1 , . . . , vn ∈ B.

10. Sea V un espacio vectorial. Si {v1 , . . . , vk } es un subconjunto linealmente inde-


pendiente, demuestre que {v1 , . . . , vk , v} es linealmente dependiente, si y sólo si
v ∈ hv1 , . . . , vk i.

11. Demuestre que la relación definida en el Ejemplo 40 es una relación de orden


parcial, y muestre que no es de orden total.
90 CAPÍTULO 3. BASES Y DIMENSIÓN

12. Dada una matriz A = [aij ], definimos su transpuesta AT = [aji ]. Decimos que una
matriz cuadrada A es simétrica, si AT = A, y decimos que es antisimétrica, si
AT = −A.

a. Demuestre que toda matriz antisimétrica, tiene ceros en su diagonal.

b. Demuestre que (A + B)T = AT + B T

c. Si A y B son matrices cuadradas, demuestre que (AB)T = B T AT

d. Considere el espacio vectorial Mn (K) de matrices n × n. Demuestre que W =


{A ∈ Mn : A es simétrica} es un subespacio vectorial.

e. Encuentre una base para el espacio vectorial de las matrices simétricas W , en


el caso 2 × 2.

f. Considere el espacio vectorial Mn (K) de matrices n × n. Demuestre que V =


{A ∈ Mn : A es antisimétrica} es un subespacio vectorial.

g. Encuentre una base para el espacio vectorial de las matrices antisimétricas V ,


en el caso 2 × 2.

13. Encuentre la dimensión del espacio vectorial de las matrices simétricas n × n.

14. Encuentre la dimensión del espacio vectorial de las matrices antisimétricas n × n.

15. Use el hecho de que R no es contable y Qn es contable, para demostrar que dimQ R =
∞.

16. Sea W = {(a1 , . . . , an ) ∈ Znp : p|a1 +· · ·+an }. W ⊂ Znp es un subespacio vectorial.


Encuentre una base para W .

17. En ejemplo 57 vimos que toda matriz A ∈ Mn se puede escribir como A = B + C,


donde B es simétrica y C es antisimétrica. Dada la matriz A = [aij ] encuentre las
matrices B y C.

18. Demuestre que de la definición 20, se sigue que:


3.7. EJERCICIOS 91

hx, y + zi = hx, yi + hx, zi para todo x, y, z ∈ V

hx, αyi = αhx, yi para todo α ∈ K, para todo x, y ∈ V

19. Demuestre que el producto definido en el ejemplo 59, es un producto interno.

20. Demuestre que el producto definido en el ejemplo 60, es un producto interno.

21. Demuestre que el conjunto Vect(Rn )/ ∼ con la suma y el producto escalar definidos
en esta sección, es un espacio vectorial.

22. Demuestre que la correspondencia biyectiva entre Vect(Rn )/ ∼ y Rn , envía la suma


y el producto escalar de Vect(Rn )/ ∼ en la suma y el producto escalar de Rn , es
decir,
−−→ −→
[P Q] + [RS] → (Q − P ) + (S − R)

y
−−→
α · [P Q] → α · (Q − P )

−−→ −−→ −−→


23. Demuestre que dado el vector [P Q], el vector −[P Q] = [QP ].

24. Demuestre la Proposición 17.

25. Demuestre que toda recta L en Rn que pase por el origen, es un subespacio vectorial
generado por un solo vector hP i. Concluya que las rectas que pasa por el origen
son subespacios vectoriales de dimensión 1.

26. Distancia de un punto a una recta


Considere L una recta en Rn y sea R ∈ Rn un punto por fuera de la recta L.
Definimos la distancia de R a L como la menor distancia de R a los puntos de L.
Demuestre que esta distancia coincide con trazar una recta L0 que pase por R y
sea perpendicular a L, luego hallar el punto de intersección de L y L0 , digamos Q,
y luego calcular la distancia de R a Q.
92 CAPÍTULO 3. BASES Y DIMENSIÓN

27. Con la misma notación del ejercicio anterior, demuestre que la distancia de R a
la recta L, se puede calcular de la siguiente forma: tome P, S ∈ L y considere los
−→ −→
vectores P R y P S, que se pueden identificar con los puntos R − P y S − P . La
distancia de R a la recta L es precisamente

||(R − P ) − proy(S−P ) (R − P )||

28. Demuestre que todo plano P en Rn que pase por el origen, es un subespacio vec-
torial generado por dos vectores linealmente independientes P = hR, Si. Concluya
que los planos que pasan por el origen son subespacios vectoriales de dimensión 2.

29. Distancia de un punto a un plano


La distancia de un punto R a un plano P en Rn , se define como la distancia de R
a Q, donde Q es la intersección de la recta que es perpendicular al plano P y pasa
por R, con el plano P.
Sea P un plano en Rn con vector normal N ∈ Rn . Demuestre que dado un punto
R∈
/ P, la distancia de R a P está dada por

||proyN (R − Q)||

donde Q es un punto del plano P.

30. Demuestre que si ρ : V → K es una norma en V , entonces ρ(0) = 0 y ρ(v) ≥ 0


para todo v ∈ V .

31. Demuestre la Proposición 18.

32. Demuestre la Proposición 19.

33. Sea V un espacio vectorial con producto interno, y sea W ⊂ V un subespacio


vectorial. Demuestre que W ⊥ es un subespacio vectorial.
3.7. EJERCICIOS 93

34. Sea V un espacio vectorial con producto interno. Demuestre que si {v1 , . . . , vn }
es un conjunto ortogonal de vectores no nulos, es decir, hvi , vj i = 0 para i 6= j,
entonces {v1 , . . . , vn } es linealmente independiente.

35. Sea V un espacio vectorial con producto interno y sea W un subespacio vectorial
de V . Supongamos que B = {w1 , . . . , wk } es una base para W . Demuestre que si
v ∈ V es tal que hv, wi i = 0 para i = 1, . . . , k, entonces v ∈ W ⊥ .

36. Sea V un espacio vectorial de dimensión finita con producto interno. Sea W ⊂ V un
subespacio vectorial. Si B = {w1 , . . . , wk } es una base ortogonal para W , sabemos
que existen vectories v1 , . . . , vs ∈ V tales que C = {w1 , . . . , wk , v1 , . . . , vs } es una
Pk
base para V . Defina para i = 1, . . . , s, ui = vi − j=1 proywj vi . Demuestre que
{w1 , . . . , wk , u1 , . . . , us } es una base para V , y que hu1 , . . . , us i = W ⊥ .

P∞
37. Demuestre que en R∞ , (ai )∞ ∞
i=1 ·(bi )i=1 = i=1 ai bi es un producto interno. Recuerde
que un elemento (ai )∞
i=1 = (a1 , a2 , . . . ) ∈ R
∞ si a 6= 0 solo para finitos i’s.
i

38. En R4 , encuentre el complemento ortogonal del subespacio W = h(1, 0, 0, 1)i.

39. Sea V un espacio vectorial de dimensión finita con producto interno h·, ·i. Demues-
tre que
||u + v||2 + ||u − v||2 = 2(||u||2 + ||v||2 )

para todo u, v ∈ V . Esta es conocida como la ley del paralelogramo.

40. Sea V un espacio vectorial de dimensión finita con producto interno y sea W ⊂ V
un subespacio. Demuestre que (W ⊥ )⊥ = W .

41. De un ejemplo para mostrar que en general, no es cierto que en un espacio vectorial
de dimensión finita con producto interno, si W1 y W2 son subespacios vectoriales
con W1 ∩ W2 = {0}, entonces W1⊥ ∩ W2⊥ = {0}.
94 CAPÍTULO 3. BASES Y DIMENSIÓN
Capítulo 4

Matrices, bases ordenadas y


transformaciones lineales

En este capítulo hablaremos solo de matrices cuadradas, es decir, matrices que tiene
igual número de filas que de columnas.

4.1. Matrices

Recordemos que una matriz n × n con coeficientes en un campo K, es un objeto de


la forma
 
 a11 a12 ··· a1n 
 
 a
 21 a22 ··· a2n 

 . .. ..
 
 ..

 . ··· . 

 
an1 an2 · · · ann

donde aij ∈ K para todo i, j = 1, . . . , n. Por comodidad, denotaremos las matrices por
[aij ], y como vamos a trabajar solo con matrices cuadradas, queda claro en la notación
que i, j = 1, 2, . . . , n.
El conjunto de matrices n × n con coeficientes en K, será denotado por Mn (K), y como

95
96CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

vimos anteriormente, este conjunto es un espacio vectorial con las operaciones suma:

[aij ] + [bij ] = [aij + bij ]

es decir, dos matrices se suman componente a componente, y producto escalar:

α[aij ] = [αaij ]

Más aún, sabemos que Mn (K) es un espacio vectorial de dimensión n2 , donde la base
canónica para Mn (K) está dada por las matrices ekl = [aij ] donde aij = 0 si i 6= k y
j 6= l y akl = 1, es decir, es la matriz que tiene un 1 en la posición kl y cero en las demás
entradas.
El conjunto Mn (K) además de la estructura de espacio vectorial, tiene una estructura
de anillo, es decir, se puede definir en Mn (K) una multiplicación de matrices, inducida
por el producto interno entre vectores.
Dada una matriz
 
 b1 
 
 b2 
 ∈ Kn
 
A = [aij ] ∈ Mn (K) y un vector b = 
 .. 

 . 

 
bn

definimos
    
 a11 a12 ··· a1n   b1   a11 b1 + a12 b2 + · · · + a1n bn 
    
 a
 21 a22 ··· a2n 
 b2   a b + a b + ··· + a b
  21 1 22 2 2n n


A·b=
 . .. ..

..
=
.
 (4.1)
 .. ..
   
 . ··· . 
 .  
 


    
an1 an2 · · · ann bn an1 b1 + an2 b2 + · · · + ann bn

que corresponde a hacer el producto punto de las filas de A con el vector b.


Este producto anterior induce un producto matricial de la siguiente forma:
Dadas matrices [aij ], [bij ] ∈ Mn (K), definimos

[aij ][bij ] = [cij ]


4.1. MATRICES 97

donde la entrada cij corresponde al producto punto entre la fila i-ésima de [aij ] con la
columna j-ésima de [bij ], es decir,

cij = (ai1 , ai2 , . . . , ain ) · (b1j , b2j , . . . , bnj ) = ai1 b1j + ai2 b2j + · · · + ain bnj

y por comodidad es común representar este producto como


 
 b1j 
 
  b 
 2j 
cij = ai1 ai2 · · · ain 
 .

 ..


 
 
bnj

Es importante recordar que esta multiplicación de matrices no es conmutativa.

Ejemplo 68. Consideremos en M2 (R) la matrices


   
 1 −1   0 1 
A=  yB= 
0 1 1 1

Note que     
 1 −1   0 1   −1 0 
AB =   = 
0 1 1 1 1 1
y     
 0 1   1 −1   0 1 
BA =   = 
1 1 0 1 1 0
Por lo tanto AB 6= BA.

La siguiente proposición muestra algunas propiedades importantes del producto ma-


tricial:

Proposición 20. Sean A, B, C ∈ Mn (K) y v, w ∈ K n . Entonces:

A(BC) = (AB)C

(A + B)C = (AC) + (BC)


98CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

(AB) · v = A · (B · v)

A · (v + w) = (A · v) + (A · w)

Demostración. Ejercicio

Definición 27. Decimos que una matriz A ∈ Mn (K) es invertible, si existe una matriz
B ∈ Mn (K) tal que
AB = In y BA = In ,

donde In ∈ Mn (K) denota la matriz identidad, es decir, la matriz


 
 1 0 ··· 0 
 

 0 1 ··· 0 

In = 
 .. .. . . ..



 . . . . 

 
0 0 ··· 1

Observación 16. Más adelante veremos que dada una matriz A ∈ Mn (K), si existe
una matriz B ∈ Mn (K) tal que AB = In , entonces también se tiene que BA = In . Esto
muestra que en la definición de matriz invertible, basta con pedir que AB = In .

Recordemos que anteriormente habíamos visto que toda matriz A ∈ Mn (K), se puede
llevar a una forma escalonada por medio de operaciones elementales fila.

Lema 2. Si U ∈ Mn (K) es una matriz triangular superior, con las entradas de la


diagonal principal no nulas, es decir,
 
 b11 b12 b13 · · · b1n 
 
 0 b22 b23 · · · b2n 
 
 
 
U =
 0 0 b33 · · · b3n 

 .. .. .. .. .. 
 
 .
 . . . . 

 
0 0 0 ··· bnn

con bii 6= 0 para todo i = 1, 2, . . . , n, entonces U se puede llevar por medio de operaciones
elementales fila a la matriz identidad In .
4.1. MATRICES 99

Demostración. Ejercicio.

La siguiente proposición, resume algunas propiedades de las matrices invertibles.

Proposición 21. a) Si A, B ∈ Mn (K) son matrices invertibles, entonces AB es in-


vertible y (AB)−1 = B −1 A−1

b) A ∈ Mn (K) es invertible si y sólo si el sistema lineal Ax = b tiene solución única


para todo b ∈ Rn

c) A ∈ Mn (K) es invertible si y sólo si las columnas C1 , . . . , Cn de A son linealmente


independientes.

Demostración. Probemos a): Note que (AB)(B −1 A−1 ) = A(BB −1 )A−1 = A(In )A−1 =
AA−1 = In . Esto muestra que AB es invertible y que (AB)−1 = B −1 A−1 .
Probemos b): Supongamos que A es invertible. Entonces multiplicando la ecuación Ax =
b por A−1 a ambos lados, obtenemos que A−1 (Ax) = A−1 b, lo que implica que In · x =
A−1 b, de donde x = A−1 b es la única solución del sistema.
Recíprocamente, si Ax = b tiene solución única para todo b ∈ Rn , entonces en particular
Ax = 0 tiene solución única. Por medio de operaciones elementales fila, sabemos que es
posible llevar la matriz A a una matriz escalonada U , y que además el sistema Ax = 0 es
equivalente al sistema U x = 0, por lo tanto U x = 0 también tiene como única solución
al vector (0, 0, . . . , 0).
Veamos que U es una matriz triangular superior con las entradas de la diagonal principal
no nulas, es decir,  
 b11 b12 b13 · · · b1n 
 
 0 b22 b23 · · · b2n 
 
 
 
U =
 0 0 b33 · · · b3n 

 .. .. .. .. .. 
 
 .
 . . . . 

 
0 0 0 ··· bnn
con bii 6= 0 para todo i = 1, 2, . . . , n
100CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

El siguiente corolario muestra que para que una matriz sea invertible, es suficiente
con que tenga inversa a un lado.

Corolario 3. Sea A ∈ Mn (K) una matriz tal que existe una matriz B ∈ Mn (K) con
AB = In . Entonces BA = In y por lo tanto A es invertible.

Demostración. Supongamos que AB = In . Consideremos el sistema lineal homogeneo


B ·x = 0. Note que este sistema tiene solución única, ya que multiplicando a ambos lados
por la matriz A obtenemos que A(B · x) = A · 0, es decir, x = 0 es la única solución.
De la proposición anterior se sigue entonces que B es invertible, y por lo tanto existe
una matriz C ∈ Mn (K) tal que BC = In . Multiplicando a ambos lados por la matriz
A, tenemos A(BC) = AIn que implica que (AB)C = A, pero AB = In , así C = A.
Concluimos entonces que BC = BA = In .

En el espacio de matrices existen dos funciones escalares que juegan un papel muy
importante en el álgebra lineal, la función determinante y la función traza. Más adelante
hablaremos en detalle de estas funciones, sin embargo introduciremos la función traza en
este capítulo, ya que su definición no requiere de ninguna herramienta sofisticada, pero
esta función permite definir un producto interno en el espacio vectorial Mn (K).

Definición 28. Dada una matriz A = [aij ] ∈ Mn (K), definimos su traza que denotare-
mos por tr(A) como

tr(A) = a11 + a22 + · · · + ann ,

es decir, la traza de una matriz es simplemente la suma de las entradas de su diagonal


principal.

Proposición 22. Sean A, B ∈ Mn (K), entonces:

tr(A + B) = tr(A) + tr(B)

tr(cA) = ctr(A), para c ∈ K


4.1. MATRICES 101

tr(AT ) = tr(A)

tr(AB) = tr(BA)

Demostración. Ejercicio.

Definición 29. Dada una matriz A ∈ Mn (C), definimos la transpuesta hermitiana de


A como

A∗ = (A)T

en otras palabras, si A = [aij ] entonces A∗ = [aij ]T , donde aij denota el conjugado de


aij .

Note que en Mn (R), la transpuesta hermitiana es simplemente la transpuesta, ya que


el conjugado de un número real es el mismo número.

En Mn (C) podemos definir el siguiente producto interno.


Dadas A, B ∈ Mn (C), definimos hA, Bi = tr(B ∗ A).
Se deja como ejercicio para el lector, demostrar que en efecto este es un producto interno.

Dada una matriz A ∈ Mm×n (K), asociados a ella hay dos subespacios, el espacio
nulo o kernel de A y el espacio columna o imagen de A. Estos dos subespacios se definen
de la siguiente manera:

Definición 30. Sea A ∈ Mm×n (K). Definimos el espacio nulo o kernel de A como

ker(A) = {v ∈ K n : A · v = 0}

y el espacio columna o imagen de A como

im(A) = hC1 , . . . , Cn i,

donde C1 , . . . , Cn son las columnas de A.


102CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Note que ker(A) es el conjunto de soluciones del sistema linea homogeneo A · x = 0, e


im(A) es la imagen de la matriz A, es decir, im(A) = {w ∈ K m : w = A·v para cierto v ∈
K n }.

Proposición 23. Sea A ∈ Mm×n (K), entonces ker(A) ⊂ K n es un subespacio vectorial


y im(A) ⊂ K m es un subespacio vectorial.

Demostración. Si v1 , v2 ∈ ker(A) y si α ∈ K, entonces A · v1 = 0 y A · v2 = 0. Por lo


tanto A · (αv1 + v2 ) = αA · v1 + A · v2 = 0. Esto muestra que αv1 + v2 ∈ ker(A), de donde
concluimos que ker(A) ⊂ K n es un subespacio.
Por otro lado, im(A) ⊂ K m es un subespacio ya que es precisamente el generado por los
vectores C1 , . . . , Cn ∈ K m que corresponden a las columnas de A.

Ejemplo 69. Consideremos la matriz


 
 3 2 0 
 
A =  −1 1 2 
 
 
 
1 4 4

Hallemos los subespacios ker(A) e im(A).


Sabemos que el subespacio ker(A) corresponde a las soluciones del sistema lineal homo-
geneo     
 3 2 0  x   0 
    
 −1 1 2   y  =  0 
    
    
    
1 4 4 z 0

y este sistema lo podemos resolver escalonando por medio de operaciones elementales


fila, la matriz A
       
 3 2 0   1 4 4   1 4 4   1 4 4 
       
 −1 1 2  →  −1 1 2  →  0 → 0 5
       
     5 6   6 

       
1 4 4 3 2 0 0 −10 −12 0 0 0
4.1. MATRICES 103

obteniendo el sistema lineal equivalente


    
 1 4 4  x   0 
    
 0 5 6  y  =  0 
    
    
    
0 0 0 z 0

Por lo tanto, si v = (x, y, z) ∈ ker(A) entonces x + 4y + 4z = 0 y 5y + 6z = 0, lo que


implica que y = − 65 z y x = 24
5 z − 4z = 45 z, es decir,
   
 x   4/5 
   
 y  =  −6/5  z
   
   
   
z 1

Esto muestra que ker(A) = h(4/5, −6/5, 1)i. Por lo tanto dim(ker(A)) = 1.
Por otro lado, im(A) = h(3, −1, 1), (2, 1, 4), (0, 2, 4)i. Computemos la dimensión del
subespacio im(A). Si suponemos que
       
 3   2   0   0 
       
 −1  x +  1  y +  2  z =  0  ,
       
       
       
1 4 4 0

esto es equivalente a decir que


    
 3 2 0  x   0 
    
 −1 1 2   y  =  0 
    
    
    
1 4 4 z 0

Como vimos anteriormente, este sistema es equivalente al sistema


    
 1 4 4  x   0 
    
=
    
 0 5
 6  y   0 
   

    
0 0 0 z 0

que tiene como soluciones todos los múltiplos del vector (4/5, −6/5, 1). Esto muestra por
104CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

ejemplo que        
 3   2   0   0 
 4  6    
 −1  −  1  +  2  =  0  ,
       
 5  5    
       
1 4 4 0

de donde concluimos que (0, 2, 4) ∈ h(3, −1, 1), (2, 1, 4)i. De aquí se sigue que im(A) =
h(3, −1, 1), (2, 1, 4)i y como {(3, −1, 1), (2, 1, 4)} es linealmente independiente, entonces
dim(im(A)) = 2.
Por un ejercicio, dim(im(A)) es el número de pivotes de una forma escalonada para A,
en este caso, una forma escalonada para A vimos que es
 
 1 4 4 
 
 
 0 5 6 
 
 
0 0 0

que claramente se ve que tiene 2 pivotes.

4.2. Bases ordenadas

En esta sección, introducimos la noción de base ordenada para un espacio vectorial.


Antes ya habíamos hablado de la noción de base para un espacio vectorial V , que era
simplemente un subconjunto de V linealmente independiente que genera a V , pero no
habíamos hecho ningún enfasis en la importancia de ordenar los elementos de la base.

Ejemplo 70. Consideremos el espacio vectorial R3 . Sabemos que una base para R3
es por ejemplo B = {e1 , e2 , e3 }. Dado cualquier vector v = (a, b, c) ∈ R3 , (a, b, c) =
ae1 + be2 + ce3 . Más adelante denotaremos el elemento (a, b, c) como las coordenadas del
vector v = (a, b, c) en la base B = {e1 , e2 , e3 }. Si consideramos la base B 0 = {e2 , e3 , e1 },
claramente sigue siendo base para R3 , pero ya el vector v = (a, b, c) se escribe en términos
de esta base como v = be2 + ce3 + ae1 , es decir, el vector de coordenadas de v en esta
base es (b, c, a).
4.2. BASES ORDENADAS 105

Definición 31. Sea V un espacio vectorial de dimensión finita. Definimos una base
ordenada para V , como un subconjunto B = {v1 , v2 , . . . , vn }, donde los elementos de la
base están ordenados.

Ejemplo 71. En R3 , si consideramos la base ordenada B = {e1 , e2 , e3 }, entonces esta


base ordenada es diferente a la base ordenada B 0 = {e2 , e3 , e1 }.

4.2.1. Coordenadas

Sea V un espacio vectorial de dimensión finita y sea B = {v1 , . . . , vn } una base


ordenada para V .
Dado un vector v ∈ V , definimos las coordenadas de v respecto a la base ordenada B
como la n-tupla (a1 , . . . , an ) ∈ K n tal que

v = a1 v1 + a2 v2 + · · · + an vn

Usaremos la notación

[v]B = (a1 , . . . , an )

Recuerde que de la definicón de base, se sigue que la escritura de v en la base B es única,


es decir, si v = a1 v1 + · · · + an vn y v = b1 v1 + · · · + bn vn , entonces 0 = (a1 − b1 )v1 + · · · +
(an − bn )vn y por ser B linealmente independiente se sigue que a1 = b1 , . . . , an = bn .

Ejemplo 72. Consideremos el espacio vectorial P3 = {p(x) ∈ R[x] : deg(p(x)) ≤


3} ∪ {0}. Consideremos las sguientes bases ordenadas para P3 :

B = {1, x, x2 , x3 } y C = {2, 3 − x, x2 + 1, 1 − x3 }

Es fácil ver que en efecto estas son bases para P3 .


Ahora, tomemos p(x) = 3 − x + 2x2 − x3 ∈ P3 y hallemos las coordenadas de p(x) en B
y en C, es decir, hallemos [p(x)]B y [p(x)]C .
Note que [p(x)]B = (3, −1, 2, −1) ∈ R4 .
106CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Por otro lado, si p(x) = 3 − x + 2x2 − x3 = a · 2 + b · (3 − x) + c · (x2 + 1) + d · (1 − x3 ),


entonces
3 − x + 2x2 − x3 = (2a + 3b + c + d) − bx + cx2 − dx3

lo que implica que 2a + 3b + c + d = 3, −b = −1, c = 2 y −d = −1. Resolviendo


estas ecuaciones obtenemos que b = 1, c = 2, d = 1 y a = −3/2. Por lo tanto [p(x)]C =
(−3/2, 1, 2, 1) ∈ R4 .

4.2.2. Matrices de cambio de base

Sea V un espacio vectorial de dimensión finita y sean B = {v1 , . . . , vn } y C =


{w1 , . . . , wn } bases ordenadas para V .
Vamos a definir la matriz de cambio de base, de la base B a la base C de la siguiente
forma:
Cada elemento de la base B lo escribimos en términos de la base C, es decir, como
hw1 , . . . , wn i = V , entonces para i = 1, . . . , n se tiene que

vi = a1i w1 + a2i w2 · · · + ani wn

para ciertos a1i , . . . , ani ∈ K, en otras palabras

[vi ]C = (a1i , . . . , ani ) ∈ K n

Consideremos la siguiente matriz que denotaremos por [Id]C,B y que será llamada la
matriz de cambio de base de la base B a la base C:
 
 a11 a12 ··· a1n 
 
 a
 21 a22 ··· a2n 

[Id]C,B = 
 . .. ..

 ..

 . ··· . 

 
an1 an2 · · · ann

Ejemplo 73. En R3 consideremos las bases ordenadas B = {(1, 0, 1), (2, 1, 0), (0, 1, 1)}
y C = {(1, 0, 0), (0, 1, 0), (1, 0, 1)}. Hallemos la matriz de cambio de base [Id]C,B .
4.2. BASES ORDENADAS 107

Cada vector de la base B lo escribimos en términos de la base C,

(1, 0, 1) = 0 · (1, 0, 0) + 0 · (0, 1, 0) + 1 · (1, 0, 1)

(2, 1, 0) = 2 · (1, 0, 0) + 1 · (0, 1, 0) + 0 · (1, 0, 1)

(0, 1, 1) = −1 · (1, 0, 0) + 1 · (0, 1, 0) + 1 · (1, 0, 1)

Por lo tanto  
 0 2 −1 
 
[Id]C,B =  0 1
 
 1 

 
1 0 1

El siguiente teorema motiva de donde viene el nombre de matriz de cambio de base.

Teorema 12. Sea V un espacio vectorial de dimensión finita y sea B = {v1 , . . . , vn } y


C = {w1 , . . . , wn } bases ordenadas para V . Para todo v ∈ V ,

[v]B = [Id]B,C · [v]C

donde el producto de la derecha corresponde a el producto de una matriz n × n por un


vector columna n × 1 definido en 4.1. Más aún, [Id]B,C es la única matriz que satisface
esta propiedad.

Demostración. Supongamos que [v]C = (c1 , . . . , cn ), es decir, v = c1 w1 + · · · + cn wn . Por


otro lado, cada wi se puede escribir como

wi = a1i v1 + · · · ani vn

para i = 1, 2, . . . , n. Por lo tanto reemplazando obtenemos que


n
X n
X n
X
v = c1 aj1 vj + c2 aj2 vj + · · · + cn ajn vj
j=1 j=1 j=1

y reagrupando términos
n n n
! ! !
X X X
v= ci a1i v1 + ci a2i v2 + · · · + ci ani vn
i=1 i=1 i=1
108CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Por lo tanto, si [v]B = (b1 , . . . , bn ), es decir, v = b1 v1 + · · · bn vn , entonces

n
X
bj = ci aji
i=1

para todo j = 1, 2, . . . , n.
Así,
  P
 
n
 b1   i=1 ci a1i 
   P 
 b   n
i=1 ci a2i

 2   
[v]B =  .  = 
  
..

 ..  

   . 

   
Pn
bn i=1 ci ani

Por otro lado, si cada wi = a1i v1 + · · · ani vn para i = 1, 2, . . . , n, entonces


 
 a11 a12 ··· a1n 
 
 a
 21 a22 ··· a2n 

[Id]B,C = 
 . .. ..

 ..

 . ··· . 

 
an1 an2 · · · ann

y por lo tanto tenemos que


   P  
n
 a11 a12 ··· a1n   c1   i=1 a1i ci 
    P 
n
 a
 21 a22 ···   c2  
a2n    
i=1 a2i ci


[Id]B,C · [v]C = 
 . .. .. 
 =
 .   ..

 ..  .  

 . ···  .  
.  . 

    
Pn
an1 an2 · · · ann cn i=1 ani ci

Esto muestra que

[v]B = [Id]B,C · [v]C

La unicidad de la matriz [Id]B,C se deja como ejercicio para el lector.

Ejemplo 74. Consideremos R2 con el sistema de coordenadas estandar, es decir, con


la base ordenada B = {e1 , e2 } y el sistema coordenado correspondiente a la base C =
4.2. BASES ORDENADAS 109

{(1, 1), (−1, 2)}, como se muestra en la figura

(−1, 2)

(0, 1)
(1, 1)

(1, 0)

Tomemos un vector v = (v1 , v2 ) ∈ R2 . Es claro que [v]B = (v1 , v2 ). Veamos cuales son
las coordenadas de v en la base C, es decir, encontremos [v]C .
Sabemos que

[v]C = [Id]CB · [v]B

y además sabemos que para contruir la matriz [Id]CB necesitamos escribir los vectores
de B en términos de la base C. Note que
     
 1  2  1  1  −1 
=  − 
3 3
 
0 1 2

y
     
 0  1  1  1  −1 
=  + 
3 3
 
1 1 2

Por lo tanto,
 
 2/3 1/3 
[Id]CB =  
−1/3 1/3

Concluimos entonces que


  
 2/3 1/3   v1 
[v]C =   
−1/3 1/3 v2
110CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

es decir, las coordenadas de v en la base C son


 
2 1
3 v1 + 3 v2
[v]C = 
 

− 13 v1 + 1
3 v2

La siguiente proposición muestra una serie de propiedades de las matrices de cambio


de base.

Proposición 24. Sea V un espacio vectorial de dimensión finita y sean A, B y C bases


ordenadas para V . Entonces:

i) [Id]B,B = In

ii) [Id]C,A = [Id]C,B · [Id]B,A

iii) La matriz [Id]B,A es invertible y [Id]−1


B,A = [Id]A,B

Demostración. Note que i) es trivial, ya que si B = {v1 , . . . , vn }, entonces vi en términos


de la base B se escribe como

vi = 0 · v1 + · · · + 0 · · · vi−1 + 1 · vi + 0 · vi+1 + · · · + 0 · vn ,

para todo i = 1, . . . , n, lo que muestra que la columna i-ésima de la matriz [Id]B,B es


precisamente el vector ei . Por lo tanto [Id]B,B = In .
Para demostrar ii), usaremos el siguiente hecho que se deja como ejercicio al lector, y es
que dos matrices A, B ∈ Mn (K) son iguales si y sólo si A · v = B · v para todo vector
v ∈ K n.
Veamos que se tiene la igualdad de matrices

[Id]C,A = [Id]C,B · [Id]B,A

Sea v = (c1 , . . . , cn ) ∈ K n un vector cualquiera. Mostrar la igualdad anterior es equiva-


lente a demostrar que
[Id]C,A · v = [Id]C,B · [Id]B,A · v
4.3. TRANSFORMACIONES LINEALES 111

Note que v = [w]A para cierto w ∈ V , ya que si A = {w1 , . . . , wn }, entonces considerando


w = c1 w1 + · · · + cn wn tenemos que [w]A = v.
Por otro lado, del Teorema 12 sabemos que [Id]C,A · [w]A = [w]C , y

([Id]C,B · [Id]B,A ) · [w]A = [Id]C,B ([Id]B,A · [w]A ) = [Id]C,B · [w]B = [w]C

Así, tenemos que


[Id]C,A = [Id]C,B · [Id]B,A

La prueba de iii) se sigue de ii) y de i), ya que demostrar iii) es equivalente a probar
que
[Id]B,A · [Id]A,B = In

y que
[Id]A,B · [Id]B,A = In

pero
[Id]B,A · [Id]A,B = [Id]B,B = In

y
[Id]A,B · [Id]B,A = [Id]A,A = In

4.3. Transformaciones lineales

En esta sección queremos definir funciones entre espacios vectoriales, que respeten las
operaciones de suma y producto escalar. Funciones con estas propiedades serán llamadas
transformaciones lineales

Definición 32. Sean V y W K-espacios vectoriales. Decimos que una función T : V →


W es una transformación lineal, si cumple

T (v1 + v2 ) = T (v1 ) + T (v2 ) para todo v1 , v2 ∈ V


112CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

T (λv) = λT (v) para todo λ ∈ K, v ∈ V

Observación 17. Note que en la definición anterior, es necesario distinguir la


operación de suma y de producto escalar de V , con la operación de suma y de
producto escalar en W . En las igualdades de la definición anterior, las operacio-
nes del lado izquierdo de las igualdades, son operaciones en V , mientras que las
operaciones del lado derecho de las igualdades corresponden a operaciones en W .

De la definición anterior se sigue que T (0V ) = 0W , es decir, si T es lineal, entonces


T envía el cero de V en el cero de W

También se sigue de la definición, que si T es lineal, entonces

T (λ1 v1 + λ2 v2 + · · · + λn vn ) = λ1 T (v1 ) + λ2 T (v2 ) + · · · + λn T (vn )

donde λ1 , . . . , λn ∈ K, v1 , . . . , vn ∈ V

Ejemplo 75. Consideremos la función T : R2 → R3 definida por T (x, y) = (x + y, 0, x −


y). Veamos que T es una transformación lineal.
En efecto,

T ((x1 , y1 ) + (x2 , y2 )) = T ((x1 + x2 , y1 + y2 )) = (x1 + x2 + y1 + y2 , 0, x1 + x2 − y1 − y2 )

= (x1 + y1 , 0, x1 − y1 ) + (x2 + y2 , 0, x2 − y2 )

= T ((x1 , y1 )) + T ((x2 , y2 ))
y
T (λ(x, y)) = T ((λx, λy)) = (λx + λy, 0, λx − λy)

= λ(x + y, 0, x − y) = λT (x, y)

Ejemplo 76. Consideremos T : Pn → R, definida como T (p(x)) = p(0). Recordemos


que Pn es el espacio vectorial de todos los polinomios con coeficientes en R de grado
menor o igual a n, junto con el polinomio 0. Veamos que T es una transformación lineal.
En efecto,
T (p(x) + q(x)) = p(0) + q(0) = T (p(x)) + T (q(x))
4.3. TRANSFORMACIONES LINEALES 113

y
T (λp(x)) = λp(0) = λT (p(x))

Ejemplo 77. T : R2 → R definida como T (x, y) = xy no es lineal, ya que

T (λ(x, y)) = λxλy = λ2 xy 6= λxy = λT (x, y)

cuando λ2 6= λ y xy 6= 0.

Ejemplo 78. Sea A ∈ Mm×n (K) una matriz. Consideremos la funciíon T : K n → K m


definida por T (v) = A · v, es decir, T está dada por multiplicación por la matriz A.
T es una transformación lineal.

4.3.1. Kernel e imagen de una transformación lineal

Dada una transformación lineal T : V → W , queremos definir ker(T ) e im(T ), dos


subespacios de V y W respectivamente, que están relacionados con el kernel y la imagen
de una matriz.

Definición 33. Sea T : V → W una transformación lineal. Definimos el kernel y la


imagen de T de la siguiente forma:

i) ker(T ) = {v ∈ V : T (v) = 0}

ii) im(T ) = {w ∈ W : existe v ∈ V tal que T (v) = w}

Proposición 25. Sea T : V → W una transformación lineal. Entonces ker(T ) ⊂ V es


un subespacio vectorial e im(T ) ⊂ W es un subespacio vectorial

Demostración. Ejercicio

Observación 18. Recordemos que dada una función f : A → B, decimos que f es


inyectiva si f (a1 ) = f (a2 ) implica que a1 = a2 .
Y decimos que f es sobreyectiva si im(f ) = B
114CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Proposición 26. Sea T : V → W una transformación lineal. T es inyectiva si y sólo si


ker(T ) = {0}.

Demostración. Supongamos que T es inyectiva. Si v ∈ ker(T ), entonces T (v) = 0, pero


sabemos que T (0) = 0, por lo tanto T (v) = T (0) y por la inyectividad de T tenemos que
v = 0. Esto muestra que ker(T ) = {0}.
Recíprocamente, si ker(T ) = {0}, entonces T (v1 ) = T (v2 ) implica por la linealidad que
T (v1 − v2 ) = 0, es decir, v1 − v2 ∈ ker(T ) = {0}. Así, v1 − v2 = 0, es decir, v1 = v2 . Esto
muestra que T es inyectiva.

Ejemplo 79. Consideremos T : R2 → R2 definida como T (x, y) = (x + 2y, −x + y). Es


fácil ver que T es una transformación lineal, más aún, note que
    
 x   1 2  x 
T   =   
y −1 1 y

y por lo tanto es lineal.


Veamos que T es inyectiva. Para esto calculemos ker(T ).

ker(T ) = {(x, y) ∈ R2 : T (x, y) = (0, 0)}

Note que T (x, y) = (0, 0) es equivalente a decir que


    
 1 2  x   0 
  = 
−1 1 y 0

Sabemos que este sistema lineal se puede resolver escalonando la matriz


   
 1 2   1 2 
 → 
−1 1 0 3

obteniendo un sistema lineal equivalente


    
 1 2  x   0 
  = 
0 3 y 0
4.3. TRANSFORMACIONES LINEALES 115

que se observa fácilmente que tiene como única solución al vector (0, 0). Esto muestra
que ker(T ) = {(0, 0)} y por la Proposición anterior T es inyectiva.

Ejemplo 80. La transformación lineal T : R3 → R2 definida como T (x, y, z) = (x − y +


z, −x + y + z), es sobreyectiva. Para ver que es sobreyectiva computemos el subespacio
im(T ).
Si (a, b) ∈ im(T ), entonces es porque existe (x, y, z) ∈ R3 tal que T (x, y, z) = (a, b), es
decir, tal que x − y + z = a y −x + y + z = b. Resolvamos este sistema de ecuaciones
lineales, que podemos escribir en forma matricial como
 
 x 
  
 1 −1 1     a 
 
  y  =  
−1 1 1   b
 
z

y que podemos resolver escalonando la matriz aumentada


 
 1 −1 1 | a 
 
−1 1 1 | b

Escalonando esta matriz obtenemos


 
 1 −1 1 | a 
 
0 0 2 | b
b
que representa el sistema lineal equivalente 2z = b y x − y + z = a, es decir, z = 2 y
x − y = a − 2b . Esto muestra que para todo (a, b) ∈ R2 , existe (x, y, z) ∈ R3 tal que
T (x, y, z) = (a, b), ya que basta tomar z = 2b , y = 0 y x = a − 2b . Concluimos entonces
que im(T ) = R2 , y por lo tanto T es sobreyectiva.

Definición 34. Sea T : V → W una transformación lineal. Decimos que T es un


isomorfismo de espacios vectoriales, si T es inyectiva y sobreyectiva, es decir, si y sólo si
ker(T ) = {0} e im(T ) = W .
Cuando existe un isomorfismo de espacios vectoriales T : V → W , decimos que V es
isomorfo como espacio vectorial a W , y escribimos V ∼
= W.
116CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Ejemplo 81. T : R2 → R2 dada por T (x, y) = (y, −x) es un isomorfismo de espacios


vectoriales.

Teorema 13. Sean V y W K-espacios vectoriales de dimensión finita, digamos que


dim(V ) = n y dim(W ) = m. Sea T : V → W una transformación lineal. Entonces

dim(V ) = dim(ker(T )) + dim(im(T ))

Demostración. Como ker(T ) ⊂ V es un subespacio, entonces dim(ker(T )) ≤ dim(V ).


Supongamos que {v1 , . . . , vk } es una base para ker(T ). Sabemos que esta base se puede
completar hasta obtener una base para V , es decir, existen vectores u1 , . . . , us ∈ V tales
que {v1 , . . . , vk , u1 , . . . , us } es una base para V .
Veamos que s = dim(im(T )), lo que mostraría el teorema ya que k + s = n = dim(V ).
Consideremos los vectores T (u1 ), . . . , T (us ) ∈ W . Veamos que {T (u1 ), . . . , T (us )} es una
base para im(T ). Supongamos primero que a1 T (u1 ) + · · · + as T (us ) = 0. De la linealidad
de T se sigue que T (a1 u1 + · · · + as us ) = 0, lo que implica que a1 u1 + · · · + as us ∈ ker(T ),
pero {v1 , . . . , vk } es una base para ker(T ) y por lo tanto a1 u1 + · · · + as us = b1 v1 +
· · · + bk vk lo que implica que a1 u1 + · · · + as us + (−b1 )v1 + · · · + (−bk )vk = 0, y como
{v1 , . . . , vk , u1 , . . . , us } es una base para V , se tiene que a1 = a2 = · · · = as = 0. Esto
muestra que {T (u1 ), . . . , T (us )} es linealmente independiente.
Finalmente veamos que hT (u1 ), . . . , T (us )i = im(T ). Para ver esto, tomemos w ∈ im(T ).
Luego existe v ∈ V tal que w = T (v). Pero como {v1 , . . . , vk , u1 , . . . , us } es una base
para V , se tiene que v = a1 v1 + · · · ak vk + b1 u1 + · · · bs us , por lo tanto aplicando T se
sigue que

w = T (v) = T (a1 v1 +· · · ak vk +b1 u1 +· · · bs us ) = a1 T (v1 )+· · · ak T (vk )+b1 T (u1 )+· · ·+bs T (us ),

pero T (vi ) = 0 para todo i = 1, . . . , k ya que v1 , . . . , vk ∈ ker(T ). Así concluimos que

w = T (v) = b1 T (u1 ) + · · · + bs T (us )


4.3. TRANSFORMACIONES LINEALES 117

lo que muestra que im(T ) = hT (u1 ), . . . , T (us )i. Por lo tanto {T (u1 ), . . . , T (us )} es una
base para im(T ).
Tenemos entonces que dim(V ) = k + s = dim(ker(T )) + dim(im(T )).

Corolario 4. Sean V y W subespacios vectoriales de dimensión n y sea T : V → W


una transformación lineal. Entonces T es inyectiva si y sólo si es sobreyectiva.

Demostración. Ejercicio.

Teorema 14. Sea V un K-espacio vectorial de dimensión n. Entonces V ∼


= K n.

Demostración. Sea B = {v1 , . . . , vn } una base ordenada para V . Definamos la función


T : V → K n como T (v) = [v]B , es decir, T es la función que envía cada vector en sus
coordenadas en la base B.
Recordemos que si v ∈ V entonces v = a1 v1 + · · · + an vn , donde la escritura es única, y
(a1 , . . . , an ) = [v]B .
Ver que T es lineal se deja como ejercicio para el lector.
Por el Corolario anterior, basta probar que T es inyectiva o que T es sobreyectiva.
Claramente T es sobreyectiva ya que dado un vector (a1 , . . . , an ) ∈ K n , el vector
v = a1 v1 +· · ·+an vn es tal que [v]B = (a1 , . . . , an ), en otras palabras, T (v) = (a1 , . . . , an ).
Como T es sobreyectiva y V y K n tienen la misma dimensión, entonces T es un isomor-
fismo. Así, V ∼
= K n.

El teorema anterior nos dice que el estudio de K-espacios vectoriales de dimensión


finita, se reduce a estudiar los espacios vectoriales K n .

Ejemplo 82. Consideremos el espacio vectorial Pn . Como Pn es un espacio vectorial


de dimensión n + 1, entonces Pn ∼
= Rn+1 , y un isomorfismo entre estos dos espacios
vectoriales puede ser construido tomando B = {1, x, x2 , . . . , xn } base ordenada para Pn ,
y definidiendo T : Pn → Rn+1 como T (a0 + a1 x + · · · + an xn ) = (a0 , a1 , . . . , an ), es decir,
T (p(x)) = [p(x)]B .
118CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

4.3.2. Operaciones entre transformaciones lineales

Sean T : V → W y S : V → W transformaciones lineal. Podemos definir T + S y


T − S como

(T + S)(v) = T (v) + S(v)

(T − S)(v) = T (v) − S(v)

Es fácil ver que T + S y T − S son nuevamente transformaciones lineales.


Por otro lado, dadas transformaciones lineales T : U → V y S : V → W , podemos definir
la compuesta de S con T de la siguiente forma:

S ◦ T (u) = S(T (u))

No es difícil demostrar que S ◦ T es una transformación lineal.


Ahora, dada una transformación lineal T : V → W , decimos que T es invertible si existe
S : W → V transformación lineal, tal que

T ◦ S = IdW y S ◦ T = IdV

La función S se denota por T −1 . De aquí se puede concluir que T es inyectiva, es decir,


ker(T ) = {0}, ya que si v ∈ ker(T ) entonces T (v) = 0 y por lo tanto 0 = S(T (v)) = v.
Además T es sobreyectiva, ya que si w ∈ W , entonces si tomamos S(w) ∈ V , tenemos
que T (S(w)) = w. Así concluimos que T es un isomorfismo.
Tenemos entonces que T : V → W es invertible si y sólo si T es un isomorfismo.

Ejemplo 83. Considere la transformación lineal T : R2 → R2 definida como T (x, y) =


(y, −x). Ya vimos anteriormente que T es un isomorfismo. Computemos T −1 . Como
sabemos que T ◦ T −1 = Id, entonces T −1 (T (x, y)) = (x, y), es decir, T −1 (y, −x) = (x, y).
De esta igualdad se puede deducir que T −1 : R2 → R2 está dada por T −1 (x, y) = (−y, x).
4.3. TRANSFORMACIONES LINEALES 119

4.3.3. Matriz asociada a una transformación lineal

Supongamos que V es un K-espacio vectorial de dimensión n y que B = {v1 , . . . , vn }


es una base para V . Ya vimos anteriormente que V ∼
= K n y que un isomorfismo está
dado por

ϕVB : V → Kn
v 7→ [v]B

es decir, envía el vector v en sus coordenadas en la base B.


Por otro lado, si A ∈ Mm×n (K), A induce una transformación lineal que denotaremos
también por A:

A : Kn → Km
v 7→ A · v

Dada una transformación lineal T : V → W entre espacios vectoriales de dimensión


finita, y dadas bases B y C para V y W respectivamente, queremos ver que es posible
asociarle a esta transformación lineal una matriz [T ]C,B tal que el diagrama conmuta:

V
T /W

ϕV
B ϕW
C
 [T ]C,B 
Kn / Km

es decir, ϕW V
C ◦ T = [T ]C,B ◦ ϕB .

Esta ecuación si la evaluamos en un vector v ∈ V , nos dice que

[T (v)]C = [T ]C,B · [v]B

Construyamos la matriz [T ]C,B de la siguiente forma: supongamos que B = {v1 , . . . , vn }


y que C = {w1 , . . . , wm }. Escribamos cada vector T (vi ) en términos de la base C, es decir,
hallemos las coordenadas de T (vi ) en la base C, que denotamos por [T (vi )]C . Si asumimos
que [T (vi )]C = (a1i , a2i , . . . , ami ) ∈ K m , es decir, T (vi ) = a1i w1 + a2i w2 + · · · + ami wm
120CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

para todo i = 1, 2, . . . , n, entonces definamos la matriz [T ]C,B como


 
 a11 a12 a13 ··· a1n 
 
 a
 21 a22 a23 ··· a2n 

[T ]C,B = 
 . .. .. ..

 ..

 . . ··· . 

 
am1 am2 am3 · · · amn

Veamos que esta matriz satisface la igualdad

[T (v)]C = [T ]C,B · [v]B

Por un lado note que si [v]B = (b1 , . . . , bn ), es decir, v = b1 v1 + · · · + bn vn , entonces


 
Pn
 j=1 a1j bj 
 .. 
.
 
 
 
 P 
[T ]C,B · [v]B =  n
j=1 aij bj

 
..
 
 

 . 

 P 
n
j=1 amj bj

Por otro lado,

T (v) = T (b1 v1 + · · · + bn vn ) = b1 T (v1 ) + · · · + bn T (vn )

pero
m
X
T (vi ) = aji wj
j=1

para i = 1, 2, . . . , n, así reemplazando tenemos que


m
X m
X m
X
T (v) = b1 aj1 wj + b2 aj2 wj + · · · + bn ajn wj
j=1 j=1 j=1

y agrupando términos semejantes


     
n
X n
X n
X
T (v) =  a1j bj  w1 +  a2j bj  w2 + · · · +  amj bj  wm
j=1 j=1 j=1
4.3. TRANSFORMACIONES LINEALES 121

lo que muestra que


 
Pn
 j=1 a1j bj 
 .. 
.
 
 
 
 P 
[T (v)]C =  n
j=1 aij bj

 
..
 
 

 . 

 P 
n
j=1 amj bj

Concluimos entonces que la matriz [T ]C,B construida de esta manera, satisface que

[T (v)]C = [T ]C,B · [v]B

para todo vector v ∈ V .

Ejemplo 84. Sea v = (v1 , v2 ) ∈ K 2 un vector fijo. Consideremos la transformación


2
lineal Tv : M
2 (K) →K definida  Tv (A)
 por  = A · v. No
 es difícil ver que Tv es lineal.
 1 0
  0 1   0 0   0 0 
 

Sea B =  , , ,  la base ordenada canónica de

 0 0

0 0 1 0 0 1 

M2 (K),
 denotemos
  a los elementos de esta base por [e1 ], [e2 ], [e3 ] y [e4 ]; y tomemos

 1   0 

 

C=  ,  la base ordenada canónica para K 2 . Hallemos la matriz asociada
 0

1 

a T en estas bases, es decir, [T ]C,B .


Note que T ([e1 ]) = (v1 , 0), T ([e2 ]) = (v2 , 0), T ([e3 ]) = (0, v1 ) y T ([e4 ]) = (0, v2 ), y las
coordenadas de cada uno de estos vectores con respecto a las base C son los mismos
vectores. Por lo tanto
 
 v1 v2 0 0 
[T ]C,B =  
0 0 v1 v2

 
 a b 
Esto quiere decir que si A =   ∈ M2 (K), entonces como A = a[e1 ] + b[e2 ] +
c d
c[e3 ] + d[e4 ], se sigue que [A]B = (a, b, c, d) y por otro lado T (A) = (av1 + bv2 , cv1 + dv2 ),
122CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

de donde tenemos que [T (A)]C = (av1 + bv2 , cv1 + dv2 ). Por lo tanto
 
a 
   
 
 av1 + bv2   v1 v2 0  b 
0  
[T (A)]C =  = 



cv1 + dv2 0 0 v1 v2  c 


 
d

Una de las razones por las cuales es importante asociarle a una transformación lineal
una matriz, es que la matriz y la transformación lineal comparten propiedades similares.

Teorema 15. Sea T : V → W una transformación lineal entre espacios vectoriales de


dimensión finita. Entonces:

i) v ∈ ker(T ) si y sólo si para toda base ordenada B de V y toda base ordenada C de


W , [v]B ∈ ker([T ]C,B )

ii) w ∈ im(T ) si y sólo si para toda base ordenada B de V y toda base ordenada C de
W , [w]C ∈ im([T ]C,B )

iii) T es invertible si y sólo si para toda base ordenada B de V y toda base ordenada C
de W , la matriz [T ]C,B es invertible. Más aún,

[T −1 ]B,C = ([T ]C,B )−1

es decir, la matriz asociada a T −1 en las bases C y B es la inversa de la matriz


asociada a T en las bases B y C.

Demostración. i) Supongamos que v ∈ ker(T ), por lo tanto T (v) = 0. Si B y C son


bases ordenadas para V y W respectivamente, entonces sabemos que

[T (v)]C = [T ]C,B · [v]B

pero como T (v) = 0 entonces [T (v)]C = 0. Luego [T ]C,B · [v]B = 0 lo que implica
que [v]B ∈ ker([T ]C,B ).
4.3. TRANSFORMACIONES LINEALES 123

Recíprocamente, si [v]B ∈ ker([T ]C,B ) entonces [T ]C,B · [v]B = 0 y por lo tanto


[T (v)]C = 0, pero si las coordenadas de T (v) en la base C son cero, se sigue que
T (v) = 0 y por lo tanto v ∈ ker(T ).

ii) Supongamos que w ∈ im(T ), entonces existe v ∈ V tal que T (v) = w. Si B y C son
bases ordenadas para V y W respectivamente, sabemos que

[w]C = [T (v)]C = [T ]C,B · [v]B

lo que muestra que [w]C ∈ im([T ]C,B ).


Recíprocamente, si [w]C ∈ im([T ]C,B ), entonces [w]c = [T ]C,B · [v]B , esto ya que todo
vector en K n se puede ver como [v]B para cierto v ∈ V . Por lo tanto [w]C = [T (v)]C .
Pero si w y T (v) tienen las mismas coordenadas en la base C, es porque w = T (v),
lo que muestra que w ∈ im(T ).

iii) Supongamos que T es invertible. Ya vimos que esto implica que T es un isomorfis-
mo y por lo tanto dim(V ) = dim(W ). Si B y C son bases ordenadas para V y W
respectivamente, note que la matriz [T ]C,B es una matriz cuadrada. Además como
T es inyectiva entonces ker(T ) = {0} y de la parte i) se sigue que ker([T ]C,B ) = {0}.
Es decir, el sistema homogeneo [T ]C,B · x = 0 tiene solución única. Por un teorema
visto anteriormente, esto implica que la matriz [T ]C,B es invertible.
Recíprocamente, si [T ]C,B es invertible entonces [T ]C,B tiene que ser una matriz cua-
drada y por lo tanto dim(V ) = dim(W ). Además, ker([T ]C,B ) = {0} y nuevamente
por la parte i) tenemos que ker(T ) = {0}. Esto implica que T es un isomorfismo.
Finalmente, demostremos que si T es invertible, entonces

[T −1 ]B,C = ([T ]C,B )−1

Sabemos que

[T −1 (w)]B = [T −1 ]B,C · [w]C


124CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

[T (v)]C = [T ]C,B · [v]B

Tomando en la primera ecuación [w]C = [T (v)]C obtenemos que

[v]B = [T −1 ◦ T (v)]B = [T −1 ]B,C · [T (v)]C ,

y reemplazando la segunda ecuación se tiene que

[v]B = [T −1 ]B,C · [T ]C,B · [v]B

y como eso es para todo v ∈ V , entonces

[T −1 ]B,C · [T ]C,B = Id

Esto muestra que [T −1 ]B,C = ([T ]C,B )−1 .

Observación 19. 1. Del teorema anterior se puede concluir que una transformación
lineal T : V → W es inyectiva, si y sólo si la matriz asociada [T ]C,B tiene kernel
cero, donde B y C son bases ordenadas para V y W respectivamente; y T : V → W
es sobreyectiva si y sólo si im([T ]C,B ) = W .

2. Si T : V → W es una transformación linea entre espacios vectoriales de dimensión


finita, entonces dim(im(T )) = rk([T ]C,B ), donde B y C son bases ordenadas para V
y W respectivamente. Recordemos que dada una matriz A ∈ Mm×n (K), rk(A) =
dim(im(A)), que coincide con el número de pivotes de cualquier forma escalonada
de A.
También dim(ker(T )) = dim(ker([T ]C,B )).

3. Dada T : V → W una transformación lineal, y dadas bases ordenadas B =


{v1 , . . . , vn } y C = {w1 , . . . , wm } para V y W respectivamente, si conocemos la
matriz asociada [T ]C,B , por medio de esta matriz podemos leer lo que hace la
4.3. TRANSFORMACIONES LINEALES 125

transformación T , ya que dado v ∈ V , si [v]B = (α1 , . . . , αn ) y si [T ]C,B = [aij ]m×n ,


entonces como

[T (v)]C = [T ]C,B · [v]B ,

tenemos que
  
 a11 a12 a13 ··· a1n   α1 
  
 a
 21 a22 a23 ··· a2n 
 α2 

[T (v)]C = 
 . .. .. ..

..

 ..
 
 . . ··· . 
 . 

  
am1 am2 am3 · · · amn αn

es decir,
 P 
n
 j=1 a1j αj 
 P 
n
j=1 a2j αj
 
 
[T (v)]C = 

..



 . 

 
Pn
j=1 amj αj

Por lo tanto
     
n
X n
X n
X
T (v) =  a1j αj  w1 +  a2j αj  w2 + · · · +  amj αj  wm
j=1 j=1 j=1

Ejemplo 85. Considere la función T : P3 → P3 dada por T (p(x)) = (xp(x))0 = xp0 (x) +
p(x). No es difícil ver que T es una transformación lineal. Veamos que T es invertible y
hallemos su inversa T −1 .
Para ver que T es invertible, basta ver que T es inyectiva. Para esto podemos tomar la
base canónica de P3 , B = {1, x, x2 , x3 }. Calculemos la matriz asociada a T en esta base,
es decir [T ]B,B . Note que T (1) = 1, T (x) = 2x, T (x2 ) = 3x2 y T (x3 ) = 4x3 . Por lo tanto
 
 1 0 0 0 
 
 0 2 0 0 


[T ]B,B = 



 0 0 3 0 
 
 
0 0 0 4
126CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Como esta matriz es invertible ya que sus columnas son linealmente independientes,
entonces ker([T ]B,B ) = {(0, 0, 0, 0)}, y por lo tanto ker(T ) = {0}. Esto muestra que T
es una transformación lineal inyectiva de un espacio en si mismo, y por lo tanto es un
isomorfismo. Luego T es invertible. Por el teorema anterior, sabemos que [T −1 ]B,B =
([T ]B,B )−1 , pero es fácil ver que la inversa de [T ]B,B es
 
 1 0 0 0 
 
1
 0 0 0 

−1 2 
[T ]B,B =  
1
 
 0 0 0 
 3 
 
1
0 0 0 4

Esta matriz nos permite decir explícitamente quien es la transformación lineal T −1 :


P3 → P3 ya que
[T −1 (p(x))]B = [T −1 ]B,B · [p(x)]B

Por lo tanto, si p(x) = a + bx + cx2 + dx3 , entonces [p(x)]B = (a, b, c, d), luego
  
 1 0 0 0  a 
  
1
 0 0  b 
0 
  
−1 2
[T (p(x))]B =   
1
  
 0
 0 3 0  c 
 

  
1
0 0 0 4 d

es decir, [T −1 (p(x))]B = (a, 2b , 3c , d4 ). Esto muestra que

b c d
T −1 (p(x)) = a + x + x2 + x3 .
2 3 4

Note que
1
Z
−1
T (p(x)) = p(x)dx
x
Proposición 27. Sean T : U → V y S : V → W transformaciones lineales entre
espacios vectoriales finito dimensionales. Sean B, C y D bases ordenadas para U , V y W
respectivamente. Entonces

[S ◦ T ]D,B = [S]D,C · [T ]C,B


4.3. TRANSFORMACIONES LINEALES 127

Demostración. Supongamos que dim(U ) = n, dim(V ) = k y dim(W ) = m. Tomemos


cualquier vector (α1 , . . . , αn ) ∈ K n . Claramente si u = α1 u1 + · · · + αn un , donde B =
{u1 , . . . , un }, entonces (α1 , . . . , αn ) = [u]B .
Note que ([S]D,C · [T ]C,B ) · [u]B = [S]D,C · [T (u)]C = [S(T (u))]D .
Por otro lado, [S ◦ T ]D,B · [u]B = [S ◦ T (u)]D .
Esto muestra que
[S ◦ T ]D,B · [u]B = ([S]D,C [T ]C,B ) · [u]B

Como esta igualdad se tiene para todo [u]B , se sigue la igualdad de matrices

[S ◦ T ]D,B = [S]D,C [T ]C,B

4.3.4. Isometrías lineales

En esta parte hablaremos de ciertas transformaciones lineales que preservan el pro-


ducto interno, es decir, preservan las distancias. Un ejemplo de estas transformaciones
corresponde a las rotaciones en Rn .

Definición 35. Sean V y W espacios vectoriales con producto interno, digamos h·, ·iV
y h·, ·iW sus respectivos productos internos. Decimos que una transformación lineal T :
V → W es una isometría, si

hT (v1 ), T (v2 )iW = hv1 , v2 iV

para todo v1 , v2 ∈ V .

Observación 20. Recordemos que dado un espacio vectorial V con producto interno
p
h·, ·iV , este producto interno induce una norma en V dada por || · ||V = h·, ·iV .
Por lo tanto, si T : V → W es una isometría, entonces

||T (v)||W = ||v||V ,

es decir, T preserva distancias.


128CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Ejemplo 86. Consideremos la transformación lineal T : R2 → R3 dada por T (x, y) =


p
(x, y, 0). Note que T es una isometría, ya que ||(x, y)|| = x2 + y 2 = ||(x, y, 0)||.

Ejemplo 87. En R2 consideremos la transformación lineal que corresponde a rotar


θ-grados en el sentido antihorario, es decir, T : R2 → R2 dada por
    
 x   cosθ −senθ   x 
T   =   
y senθ cosθ y

T es una isometría, ya que si denotamos A a esta matriz de rotación, note que las
columnas de A son ortonormales, es decir, si las columnas de A las nombramos A1 y A2 ,
entonces A1 · A2 = 0 y Ai · Ai = 1 para i = 1, 2. Por lo tanto,

hT (x1 , y1 ), T (x2 , y2 )i = hA1 x1 + A2 y1 , A1 x2 + A2 y2 i

= x1 x2 + y1 y2 = h(x1 , y1 ), (x2 , y2 )i

Que T sea una isometría se sigue del hecho de que A es una matriz ortonormal. Esto
no es una coincidencia, se puede demostrar que toda transformación lineal entre espa-
cios vectoriales con producto interno que esté dada por una matriz ortonormal es una
isometría. El recíproco también es cierto. (Ejercicio).

4.4. Función Determinante

En esta sección mostraremos que para cada natural n ∈ N, existe una única función
F : K n × · · · × K n → K, multilineal, alternante y tal que F (e1 , . . . , en ) = 1. Esta única
n−veces
función recibe el nombre de función determinante.

Definición 36. Decimos que una función F : K n × · · · × K n → K es multilineal, si para


n−veces
todo i = 1, . . . , n se tiene que

i) F (A1 , . . . , Ai + B i , . . . , An ) = F (A1 , . . . , Ai , . . . , An ) + F (A1 , . . . , B i , . . . , An )

ii) F (A1 , . . . , λAi , . . . , An ) = λF (A1 , . . . , Ai , . . . , An )


4.4. FUNCIÓN DETERMINANTE 129

Es decir, F es lineal en cada componente.

Definición 37. Decimos que una función F : K n × · · · × K n → K es alternante, si


n−veces

F (A1 , . . . , A, . . . , A, . . . , An ) = 0,

es decir, la función es cero cada vez que dos entradas distintas son iguales.

Proposición 28. Sea F : K n × · · · × K n → K una función multilineal y alternante.


n−veces
Entonces

F (A1 , . . . , Ai , . . . , Aj , . . . , An ) = −F (A1 , . . . , Aj , . . . , Ai , . . . , An ),

es decir, al intercambiar dos entradas cambia el signo de la función.

Demostración. Como F es alternante entonces

F (A1 , . . . , Ai + Aj , . . . , Ai + Aj , . . . , An ) = 0

Ahora, como F es multilineal tenemos que

F (A1 , . . . , Ai + Aj , . . . , Ai + Aj , . . . , An ) = F (A1 , . . . , Ai , . . . , Ai + Aj , . . . , An )+

+ F (A1 , . . . , Aj , . . . , Ai + Aj , . . . , An )

= F (A1 , . . . , Ai , . . . , Ai , . . . , An ) + F (A1 , . . . , Ai , . . . , Aj , . . . , An )

+ F (A1 , . . . , Aj , . . . , Ai , . . . , An ) + F (A1 , . . . , Aj , . . . , Aj , . . . , An )

= F (A1 , . . . , Ai , . . . , Aj , . . . , An ) + F (A1 , . . . , Aj , . . . , Ai , . . . , An )

Esto muestra que

F (A1 , . . . , Ai , . . . , Aj , . . . , An ) = −F (A1 , . . . , Aj , . . . , Ai , . . . , An )

Observación 21. Dada una función F : K n × · · · × K n → K multilineal, alternante y


n−veces
tal que F (e1 , . . . , en ) = 1, donde ei = (0, . . . , 1, 0, . . . , 0), la función F puede ser vista
i
130CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

como una función que va del espacio de matrices n × n al campo K, F : Mn (K) →


K, tal que si A ∈ Mn (K) es una matriz con columnas A1 , . . . , An , entonces F (A) =
F (A1 , . . . , An ).

Existencia de la función determinante


Veamos como construir para cada n ∈ N, una función multilineal, alternante F :
K n × · · · × K n → K con F (e1 , . . . , en ) = 1.
n−veces
Vamos a construir la función por recurrencia.
Para n = 2, definamos det : K 2 × K 2 → K como
   
 a   c 
det  ,  = ad − bc
b d

Es fácil ver que esta función es multilineal, alternante y det(e1 , e2 ) = 1 (Ejercicio).


Usando la existencia de la función determinante para n = 2, definimos la función deter-
minante para n = 3 de la siguiente forma:
     
 a11   a12   a13 
       
 a22   a23   a21   a23 
     
det  a21  ,  a22  ,  a23  = a11 · det  ,  − a12 · det  ,  +
     
a32 a33 a31 a33
     
     
a31 a32 a33
   
 a21   a22 
+ a13 · det  , 
a31 a32

Supongamos que ya hemos construido la función determinante para n < s, enton-


ces recursivamente definimos la función determinante para n = s, como sigue: Sean
A1 , . . . , As ∈ K s , digamos que
 
 a1i 
 
 a 
i
 2i 
A =
 .
,
 ..


 
 
asi
4.4. FUNCIÓN DETERMINANTE 131

y denotemos para cada i = 1, . . . , s por Ai− , a los siguientes vectores

 
 a2i 
 
 a 
3i
Ai− = 
 
 . ,

 .. 
 
 
asi

es decir, Ai− ∈ K s−1 es el vector Ai removiéndole la primera entrada.

Entonces definimos

s
(−1)1+i a1i · det(A1− , · · · , Ai−1 i+1
X
det(A1 , · · · , As ) = i s
− , A− , A− , · · · , A− ),
d
i=1

donde el símbolo b significa que se está removiendo el vector que se encuentra en esa
posición.

Se deja como ejercicio para el lector, demostrar que esta función es multilineal, al-
ternante y que det(e1 , . . . , es ) = 1.

Ejemplo 88. Consideremos la matriz

 
 0 1 0 2 
 
 1 0 1 0 


A=



 −1 2 0 3 
 
 
1 1 0 1

Hallemos el determinante de A.
132CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Por la formula de recurrencia de arriba, sabemos que


   
 0 1 0   1 1 0 
   
det(A) = (−1)2 · 0 · det  2 0 3  + (−1)3 · 1 · det  −1 0 3  +
   
   
   
1 0 1 1 0 1
   
 1 0 0   1 0 1 
   
+ (−1)4 · 0 · det  −1 2 3  + (−1)5 · 2 · det  −1 2 0 
   
   
   
1 1 1 1 1 0
      
 0 3   −1 3   −1 0 
= − (−1)2 · 1 · det  3
 + (−1) · 1 · det 
4
 + (−1) · 0 · det   +

0 1 1 1 1 0
      
 2 0   −1 0   −1 2 
+ −2 (−1)2 · 1 · det  3
 + (−1) · 0 · det 
4
 + (−1) · 1 · det 


1 0 1 0 1 1

= −(0 − (−1 − 3)) − 2(0 + (−1 − 2))

= −4 + 6 = 2

Unicidad
Vamos a demostrar que para cada natural n ∈ N, existe una única función F : K n × · · · × K n →
n−veces
K, multilineal, alternante con F (e1 , . . . , en ) = 1.
Para esto es necesario hacer una pequeña introducción sobre permutaciones.

4.4.1. Permutaciones

Sea A un conjunto finito. Definamos SA = {σ : A → A : σ biyectiva}. SA es llamado


el conjunto de permutaciones de A.
En SA hay una permutación en particular que no hace nada, es decir, que envía cada
elemento en si mismo, esta permutación la denotaremos por id : A → A, que llamaremos
la permutación identidad.
4.4. FUNCIÓN DETERMINANTE 133

Note también, que dada una permutación σ ∈ SA , podemos definir su inversa σ −1 : A →


A simplemente como σ(a) = b si σ(b) = a. σ −1 es nuevamente una permutación, es decir,
σ −1 ∈ SA .
En SA podemos definir una operación, que es simplemente la composición de funciones.
Es claro que si σ, γ ∈ SA , entonces σ ◦ γ ∈ SA .
En particular, cuando A = {1, 2, . . . , n} ⊂ N, SA lo denotaremos por Sn .

Definición 38. Sea A un conjunto finito. Decimos que τ ∈ SA es una transposición, si


existe a ∈ A tal que τ (a) = a0 , a 6= a0 y τ (a0 ) = a; y τ (x) = x para todo x 6= a, a0 .
Es usual escribir las transposiciones como τ = (a a0 ), que significa que τ envía a en a0 ,
a0 en a, y lo demás lo deja fijo.

Observación 22. Note que si τ ∈ SA es una transposición, entonces τ ◦ τ = id, lo que


implica que τ −1 = τ .

Proposición 29. Sea A un conjunto finito. Toda permutación σ ∈ SA , se puede escribir


como una compuesta de transposiciones.

Demostración. Vamos a razonar por inducción sobre n = número de elementos de A.


Si A tiene 2 elementos, es decir, A = {a, a0 }, las únicas permutaciones que existen en SA
son id y σ = (a a0 ). Claramente σ es una transposición y por otro lado id = σ ◦ σ, que
es una compuesta de transposiciones.
Supongamos que el resultado es cierto para n = k, es decir, cuando A tiene k elementos,
y veamos que es cierto para n = k + 1.
Supongamos que A = {a1 , . . . , ak+1 }. Sea σ ∈ SA . Si σ = id, entonces como vimos
anteriormente, σ = τ ◦ τ , donde τ = (a1 a2 ).
Si σ 6= id, entonces σ(ai ) = aj con ai 6= aj . Definamos τ = (aj ai ), entonces τ ◦ σ(ai ) =
τ (aj ) = ai , es decir, τ ◦ σ deja fijo al elemento ai . Por lo tanto podemos pensar que la
permutación τ ◦ σ vive en A0 = {a1 , . . . , ai−1 , ai+1 , . . . , ak+1 }. Como el conjunto A0 tiene
134CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

k elementos, por la hipótesis de inducción, tenemos que

τ ◦ σ = τ1 ◦ τ2 ◦ · · · ◦ τs ,

donde τl ∈ SA0 para l = 1, . . . , s. Note que si definimos τl (ai ) = ai , entonces τl ∈ SA .


Así tenemos que
σ = τ ◦ τ1 ◦ · · · ◦ τs ,

lo que muestra el resultado.

Observación 23. Note que claramente la escritura de una permutación en términos


de transposiciones, no es única. Por ejemplo, id ∈ S3 se puede descomponer como id =
(1 3) ◦ (1 3) y también como id = (1 2) ◦ (1 2).

Lo que vamos a hacer a continuación, es definir el signo de una permutación, en tér-


minos del número de transposiciones que aparecen en su descomposición como producto
de transposiciones.

Volvamos a la función determinante det que definimos anteriormente. Sea σ ∈ Sn


una permutación. De la Proposición 28, se sigue que dados vectores A1 , . . . , An ∈ K n ,

det(Aσ(1) , Aσ(2) , . . . , Aσ(n) ) = ±det(A1 , . . . , An ),

y note que el signo no depende de los vectores A1 , . . . , An , es decir, si σ ∈ Sn es una


permutación, entonces si det(Aσ(1) , Aσ(2) , . . . , Aσ(n) ) = λdet(A1 , . . . , An ) donde λ = ±1,
se tiene que det(B σ(1) , B σ(2) , . . . , B σ(n) ) = λdet(B 1 , . . . , B n ).
Esto nos permite definir el signo de una permutación σ ∈ Sn como

det(Aσ(1) , . . . , Aσ(n) )
(σ) = ,
det(A1 , . . . , An )

donde A1 , . . . , An ∈ K n son vectores tales que det(A1 , . . . , An ) 6= 0.

Proposición 30.  : Sn → {1, −1} es una función tal que si τ ∈ Sn es una transposición,
entonces (τ ) = −1, y dadas σ, γ ∈ Sn , (σ ◦ γ) = (σ)(γ)
4.4. FUNCIÓN DETERMINANTE 135

Demostración. Note que  : Sn → {1, −1} está bien definida, ya que dada una permuta-
ción σ ∈ Sn ,
det(Aσ(1) , . . . , Aσ(n) ) = (σ)det(A1 , . . . , An ),

sin importar cuales sean los vectores A1 , . . . , An ∈ K n .


Ahora, dada τ ∈ Sn una transposición, digamos que τ = (i j), de la Proposición 28 se
tiene que

det(Aτ (1) , . . . , Aτ (i) , . . . , Aτ (j) , · · · , Aτ (n) ) = det(A1 , . . . , Aj , . . . , Ai , . . . , An )

= −det(A1 , . . . , Ai , . . . , Aj , . . . , An ),

lo que muestra que (τ ) = −1.


Finalmente, veamos que (σ ◦ γ) = (σ)(γ). En efecto, sabemos que

det(Aσ◦γ(1) , . . . , Aσ◦γ(n) ) = (σ ◦ γ)det(A1 , . . . , An ).

Por otro lado,

det(Aσ(γ(1)) , . . . , Aσ(γ(n)) ) = (σ)det(Aγ(1) , . . . , Aγ(n) )

= (σ)(γ)det(A1 , . . . , An ).

Así, (σ ◦ γ) = (σ)(γ).

De la proposición anterior, note que dada σ ∈ Sn una permutación, si

σ = τ1 ◦ τ2 ◦ · · · ◦ τs

es una descomposición de σ como producto de transposiciones, entonces

(σ) = (τ1 )(τ2 ) · · · (τs ) = (−1)s .

Por lo tanto el signo de σ es tal que:



 1

si s es par
(σ) =
 −1 si

s es impar
136CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Lo prueba de la siguiente proposición se deja como ejercicio para el lector, sin embargo
mostraremos su prueba en el caso n = 2 y n = 3.

Proposición 31. Sea F : K n × · · · × K n → K multilineal, alternante con F (e1 , . . . , en ) =


n−veces
1. Fijemos vectores X , . . . , X n ∈ K n,
1 y tomemos combinaciones lineales de ellos,

A1 = a11 X 1 + a21 X 2 · · · + an1 X n


A2 = a12 X 1 + a22 X 2 + · · · + an2 X n
..
.
Ai = a1i X 1 + a2i X 2 + · · · + ani X n
..
.
An = a1n X 1 + a2n X 2 + · · · + ann X n

entonces

X
F (A1 , . . . , An ) = (σ)aσ(1)1 aσ(2)2 · · · aσ(n)n F (X 1 , . . . , X n )
σ∈Sn

En particular, si tomamos X 1 = e1 , . . . , X n = en tenemos que

X
F (A1 , . . . , An ) = (σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .
σ∈Sn

Demostración. (Ejercicio)

La proposición anterior muestra que dada cualquier función F : K n × · · · × K n → K


n−veces
multilineal, alternante con F (e1 , . . . , en ) = 1, si A1 , . . . , An ∈ K n y
 
 a1i 
 
 a 
2i
Ai = 
 
 . ,

 .. 
 
 
ani

entonces
X
F (A1 , . . . , An ) = (σ)aσ(1)1 aσ(2)2 · · · aσ(n)n ,
σ∈Sn
4.5. VALORES Y VECTORES PROPIOS 137

lo que muestra que existe una única función F multilineal, alternante con F (e1 , . . . , en ) =
1.

A continuación enunciamos algunas propiedades importantes de la funciíon determi-


nante.

Proposición 32. i) Sea A ∈ Mn (K), det(AT ) = det(A)

ii) Sean A, B ∈ Mn (K), entonces det(AB) = det(A)det(B)

iii) A ∈ Mn (K) es invertible si y sólo si det(A) 6= 0

4.5. Valores y vectores propios

En esta sección trabajaremos con transformaciones lineales entres espacios vectoriales


sobre los números complejos. Dada una transformación lineal T : V → V donde V es un
espacio vectorial complejo de dimensión finita, queremos encontrar subespacios W ⊂ V
que sean invariantes bajo la transformación lineal T , es decir, tales que T (W ) = W .
Supongamos que tenemos W = hv1 , . . . , vk i un subespacio vectorial de V con la propie-
dad de que T (vi ) = λvi para todo i = 1, 2, . . . , k, para cierto λ ∈ C, λ 6= 0. Note que en
este caso, T (W ) = W , es decir, W es un subespacio invariante bajo la acción de T . Este
elemento λ es lo que se conoce como un valor propio de T .

4.5.1. Valores propios

Definición 39. Sea T : V → V una transformación lineal, donde V es un espacio


vectorial complejo de dimensión finita. Decimos que λ ∈ C es un valor propio de T , si
existe un vector v ∈ V , v 6= 0 tal que T (v) = λv.

Lo primero que debemos notar, es que para entender los valores propios de transfor-
maciones lineales, basta saber entender los valores propios de matrices, ya que dada una
transformación lineal T : V → V , si fijamos una base ordenada B = {v1 , . . . , vn } para
138CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

V , entonces al considerar la matriz [T ]B,B asociada a T en esta base, tenemos que λ ∈ C


es un valor propio de T , si y sólo si [T ]B,B · [v]B = λ · [v]B , es decir, si y sólo si λ es valor
propio de la matriz [T ]B,B . Esto se sigue del siguiente diagrama conmutativo:

V
T /V
ϕB ϕB
 [T ]B,B 
C n / Cn

es decir,

ϕB ◦ T = [T ]B,B ◦ ϕB

donde ϕB (v) = [v]B .

Definición 40. Sea A ∈ Mn (C). Decimos que λ ∈ C es un valor propio de A, si existe


v ∈ Cn , v 6= 0 tal que A · v = λ · v.

Note que en la definición anterior, A·v = λ·v es equivalente a decir que (λI −A)·v = 0
para cierto v 6= 0. Y esto equivale a decir que la matriz λI − A no es invertible, en otras
palabras, det(λI − A) = 0.
Esta última observación, nos da un método para encontrar los valores propios de una
matriz A, que consiste simplemente en encontrar las raices del polinomio PA (x) =
det(xI − A).

Definición 41. Sea A ∈ Mn (C). Definimos el polinomio característico de A como

PA (x) = det(xI − A)

Observación 24. Si A ∈ Mn (C), entonces PA (x) = det(xI −A) es un polinomio mónico


de grado n, es decir, PA (x) = xn + an−1 xn−1 + · · · + a1 x + a0 .

Ejemplo 89. Considere la transformación lineal T : C2 → C2 dada por

T (x, y) = (y, −x)


4.5. VALORES Y VECTORES PROPIOS 139

(x, y)

T (x, y) = (y, −x)

A esta transformación lineal le podemos asociar la matriz


 
 0 1 
A= 
−1 0

que corresponde a la matriz [T ]B,B donde B es la base ordenada canónica de C2 .


Encontremos los valores propios de T , o equivalentemente, los valores propios de A.
Note que  
 x −1 
xI − A =  
1 x
y por lo tanto
PA (x) = det(xI − A) = x2 + 1

Tenemos entonces que los valores propios de A son x = i y x = −i, que son precisamente
las raices del polinomio característico PA (x).

4.5.2. Vectores propios

Dado un valor propio λ ∈ C de una transformación lineal T : V → V , tiene sentido


preguntarse por el conjunto de todos los vectores v ∈ V tales que T (v) = λ · v. Este
conjunto resulta ser un espacio vectorial, y sus vectores son llamados vectores propios
asociados al valor propio λ.

Definición 42. Sea λ ∈ C un valor propio de T : V → V . Decimos que v ∈ V es un


vector propio asociado a λ, si T (v) = λ · v.
140CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Proposición 33. Sea λ ∈ C un valor propio de T : V → T . Definamos Eλ = {v ∈


V : T (v) = λ · v}, que será llamado el espacio propio asociado a λ. Entonces Eλ es un
espacio vectorial.

Demostración. Para ver que Eλ es un espacio vectorial, veamos que Eλ es un subespacio


vectorial de V .
En efecto, sean v1 , v2 ∈ Eλ , entonces T (v1 ) = λ · v1 y T (v2 ) = λ · v2 . Luego, T (v1 + cv2 ) =
T (v1 ) + cT (v2 ) = λ · v1 + cλ · v2 = λ · (v1 + cv2 ). Esto muestra que Eλ es un subespacio
vectorial de V .

Nuevamente por lo que dijimos anteriormente, podemos pensar más bien en encontrar
vectores propios y subespacios propios de matrices.
Dada una matriz A ∈ Mn (C), si v ∈ Cn es un vector propio asociado a un valor propio
λ, entonces A · v = λ · v, o de manera equivalente, (λI − A) · v = 0. Por lo tanto
Eλ = {v ∈ Cn : A · v = λ · v} = ker(λI − A). Esta observación nos muestra como
computar los subespacios propios de una matriz.

2 2
Ejemplo 90. Consideremos  anterior, T : C → C la transformación lineal
 el ejemplo
 01 
definida por la matriz A =  .
−1 0
Ya vimos que los valores propios de A son x = i y x = −i.
Calculemos los subespacios propios Ei y E−i .
De lo anterior sabemos que Ei = ker(iI − A), pero
 
 i −1 
iI − A =  .
1 i

Escalonando esta matriz, obtenemos la matriz


 
 i −1 
 
0 0
4.5. VALORES Y VECTORES PROPIOS 141

lo que muestra que

ker(iI − A) = {(x, y) ∈ C2 : ix − y = 0}.

De aquí se sigue que  


* +
 −i 
Ei =  
1

De igual forma, E−i = ker(−iI − A), pero


 
 −i −1 
−iI − A =  .
1 −i

Escalonando esta matriz, obtenemos la matriz


 
 −i −1 
 
0 0

lo que muestra que

ker(iI − A) = {(x, y) ∈ C2 : − ix − y = 0}.

De aquí se sigue que  


* +
 i 
E−i =  
1

Ejemplo 91. Consideremos la transformación lineal T : R2 → R2 definida por T (x, y) =


(y, x). Si consideramos la base ordenada canónica de R2 , B = {e1 , e2 } tenemos que la
matriz asociada a T en esta base es
 
 0 1 
A = [T ]B,B =  
1 0

Luego, PA (x) = det(xI − A), es decir, PA (x) = x2 − 1 = (x − 1)(x + 1).


Esto muestra que los valores propios de T o de A son x = 1 y x = −1.
Encontremos los subespacios propios E1 y E−1 .
142CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
 
 1 −1 
E1 = ker(I − A), pero I − A =   que escalonándola se obtiene la matriz
−1 1
 
 1 −1 
 .
0 0
 
* +
 1 
Así, E1 =  
1
 
 −1 −1 
De igual forma, E−1 = ker(−I − A), pero −I − A =   que escalonándola se
−1 −1
 
 −1 −1 
obtiene la matriz  .
0 0
 
* +
 −1 
Así, E−1 =  
1
Estos dos subespacios son invariantes bajo T , es decir, T (E1 ) = E1 y T (E−1 ) = E−1 .

E1 (1, 2) E1

(2, 1)
T

E−1 E−1

Un resultado interesante acerca de vectores propios, es que vectores propios asociados


a valores propios distintos forman conjuntos linealmente independientes.

Proposición 34. Sea A ∈ Mn (K) y supongamos que λ1 , . . . , λk son valores propios


distintos de A. Si v1 , . . . , vk son vectores propios asociados a λ1 , . . . , λk respectivamente,
entonces el conjunto {v1 , . . . , vk } es linealmente independiente.

Demostración. Una prueba de este hecho se sigue por inducción sobre k. (Ejercicio para
4.5. VALORES Y VECTORES PROPIOS 143

el lector).

4.5.3. Diagonalización

Note que las matrices diagonales son en general muy fáciles de manipular, esto hace
importante estudiar matrices que sean semejantes a matrices diagonales. Vamos a ver
a continuación, que para ciertas transformaciones lineales T : V → V donde V es un
espacio vectorial real de dimensión finita, es posible encontrar una base ordenada B de
V tal que la matriz asociada a T en esta base, [T ]B,B , sea una matriz diagonal. Cuando
esto sea posible, diremos que T es diagonalizable.

Definición 43. Sean A, B ∈ Mn (K). Decimos que A y B son matrices semejantes, si


existe un matriz invertible C ∈ Mn (K) tal que A = CBC −1 , o equivalentemente, si
AC = CB.

Ejemplo 92. Consideremos el producto de matrices:


   −1
 1 1  1 1  1 1 
   
0 1 2 −1 0 1
Es fácil ver que
 −1  
 1 1   1 −1 
  = 
0 1 0 1
Resolviendo el producto tenemos que
   −1  
 1 1  1 1  1 1   3 −3 
    = 
0 1 2 −1 0 1 2 −3
   
 1 1   3 −3 
De la definición tenemos que las matrices  y  son semejantes.
2 −1 2 −3
Una forma natural en que surgen matrices semejantes, es cuando tenemos una trans-
formación lineal T : V → V donde V es un espacio vectorial de dimensión n, y consi-
deramos dos bases ordenadas B y C para V . Las matrices [T ]B,B y [T ]C,C resultan ser
semenjantes. En otras palabras, cambios de bases producen matrices semejantes.
144CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Teorema 16. Sea T : V → V una transformación lineal, donde V es un K- espacio


vectorial de dimensión n. Sean B y C bases ordenadas para V , entonces [T ]B,B y [T ]C,C
son matrices semenjantes.

Demostración. La prueba se sigue al observar el siguiente diagrama

[T ]B,B
Kn / Kn

[Id]C,B [Id]C,B
 [T ]C,C 
Rn / Kn

que es conmutativo, es decir,

[T ]C,C [Id]C,B = [Id]C,B [T ]B,B

En el conjunto de matrices Mn (K), ser semejantes define una relación de equivalen-


cia. Esta relación de equivalencia preserva objetos importantes asociados a las matrices,
por ejemplo el polinomio característico, los valores propios, el determinante, la traza,
entre otros.

Proposición 35. Sean A, B ∈ Mn (K) matrices semejantes. Entonces PA (x) = PB (x),


es decir, A y B tienen el mismo polinomio característico.

Demostración. Como A y B son semejantes, entonces existe un matriz invertible C ∈


Mn (K) tal que A = CBC −1 . Ahora, por definición, PA (x) = det(xI − A), luego re-
emplazando tenemos que PA (x) = det(xI − CBC −1 ) = det(C(xI − B)C −1 ). Ya que el
determinante distribuye con productos de matrices, se sigue que

PA (x) = det(C)det(xI − B)det(C)−1 = PB (x).

Observación 25. De la Proposición anterior se sigue que matrices semejantes tienen


valores propios iguales y por lo tanto el mismo determinante, ya que el determinante
4.5. VALORES Y VECTORES PROPIOS 145

coincide con el término independiente del polinomio característico. Se puede ver (ejerci-
cio), que la traza de una matriz coincide con el negativo del coeficiente del término xn−1
del polinomio caracterísitico. Por lo tanto, matrices semejantes tienen igual traza.

Como dijimos anteriormente, tener matrices semejantes a matrices diagonales puede


ser muy útil, ya que las matrices diagonales son muy fáciles de manipular. Cuando una
matriz A ∈ Mn (K) es semejante a una matriz diagonal D ∈ Mn (K), decimos que A es
diagonalizable.

Definición 44. Sea A ∈ Mn (K). Decimos que A es diagonalizable, si existe una matriz
diagonal D ∈ Mn (K) tal que A es semejante a D, es decir, existe una matriz invertible
C ∈ Mn (K) tal que A = CDC −1 .

Una pequeña motivación al estudio de matrices diagonalizables es la siguiente. Su-


pongamos que tenemos la matriz
 
 1 4 
A= 
1 1

y que por alguna razón necesitamos elevar esta matriz a una potencia muy alta (esto
es necesario por ejemplo cuando se define la exponencial de una matriz), por decir algo,
queremos hallar A2017 . Claramente efectuar el producto de A con A 2017 veces no parece
una opción viable. Sin embargo, si A es diagonalizable que en este caso lo es, aunque aún
no lo hemos verificado, resulta muy sencillo computar A2017 , esto ya que si A = CDC −1
donde D es una matriz diagonal, entonces A2017 = CD2017 C −1 . Además, como D es
diagonal, D2017 es simplemente la matriz cuyas entradas de la diagonal son las potencias
2017 de las entradas de la diagonal de D.
Más adelante mostraremos que si los valores propios de A son todos distintos y no se
repiten, entonces A es diagonalizable. Note que PA (x) = det(xI − A) = (x + 1)(x − 3) y
por lo tanto los valores propios de A son x = −1 y x = 3, que son todos distintos y sin
repeticiones, así A es diagonalizable.
146CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

Para ver como diagonaliza A, encontremos los espacios propios asociados a los valores
propios de A.  
* +
 −2 
E−1 = Ker(−I − A) y haciendo las cuentas necesarias obtenemos que E−1 =  
1
 
* +
 2 
De igual forma, E3 = Ker(3I − A), de donde E3 =   .
1
 
 −2 2 
Consideremos C =  , que es la matriz cuyas columnas corresponden a los
1 1
espacios propios de A. Como el determinante de esta matriz es −4 6= 0 entonces es
invertible. Es fácil ver que

A = CDC −1
 
 −1 0 
donde D =  .
0 3
   
2017
 (−1) 0  −1 0
De aquí se sigue que A2017 = CD2017 C −1 , y D2017 =  = .
 
0 0 32017 32017
Implicitamente en el ejemplo anterior, hay un método para determinar cuando una ma-
triz es diagonalizable, y si es diagonalizable encontrar su diagonalización. A continuación,
mostramos un criterio para determinar cuando una matriz diagonaliza.

Teorema 17. Sea A ∈ Mn (K) y supongamos que λ1 , . . . , λk son los distintos valores
propios de A. Denotemos por Eλ1 , . . . , Eλk a los espacios propios asociados a los distintos
valores propios λ1 , . . . , λk de A, en ese orden. Supongamos que cada Eλi = hvi1 , . . . , vini i,
para i = 1, 2, . . . , k.
Entonces A es diagonalizable si y sólo si el conjunto

B = {v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk }

forma una base para K n , en otras palabras, si y sólo si K n tiene una base de vectores
propios de A.
4.5. VALORES Y VECTORES PROPIOS 147

Demostración. Supongamos que B es una base para K n , por lo tanto B consiste de n


vectores de K n . Consideremos la matriz C cuyas columnas son los vectores de B en ese
orden y consideremos la matriz diagonal
 
 λ1 0 ··· 0 
 
0 λ1 · · · 0
 
 
 
 .. .. . . .. 

 . . . .


 
 

 0 0 ··· λ1 

 
···
 

 λ2 0 0 

 

 0 λ2 · · · 0 

 
 .. .. . . .. 
D=
 . . . . 

 
 

 0 0 ··· λ2 


.. 
.
 
 
 
 

 λk 0 ··· 0 

 
 

 0 λk · · · 0 

 .. .. . . .. 
.
 

 . . . 

 
0 0 ··· λk

donde el primer bloque es de tamaño n1 × n1 , el segundo de tamaño n2 × n2 y así suce-


sivamente hasta el último bloque que es de tamaño nk × nk .
Veamos que AC = CD, lo que mostraría que A es semejante a D y por lo tanto diago-
nalizable. Para mostrar esto, basta mostrar que AC · el = CD · el , para todo vector el
de la base canónica de K n . Sabemos que AC · el = A(C · el ), pero C · el = vij donde vij
es el l-ésimo vector de B. Luego AC · el = A · vij y como vij es un vector propio de A
asociado al valor propio λi , entonces A · vij = λi vij . Así, AC · el = λi vij .
Por otro lado, CD·el = C(D·el ), pero D·el = λi el , por lo tanto CD·el = λi C ·el = λi vij .
Concluimos entonces que AC = CD y por lo tanto A es diagonalizable.
Recíprocamente, supongamos que A es diagonalizable, es decir, existe una matriz inver-
tible C ∈ Mn (K) y una matriz diagonal D ∈ Mn (K) tal que AC = CD. Consideremos
148CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

B = {C1 , . . . , Cn } donde C1 , . . . , Cn ∈ K n son las columnas de C. Como C es invertible,


entonces claramente B es una base para K n . Veamos que C1 , . . . , Cn son vectores pro-
pios de A. Para esto, tomemos ei el i-ésimo vector de la base canónica ordenada de K n .
Entonces como AC = CD tenemos que AC · ei = CD · ei , de donde A · Ci = C · λei ,
donde λ es la i-ésima entrada de la diagonal de D. Por lo tanto, ACi = λCi , que por
definición significa que Ci es un vector propio de A asociado al valor propio λ. De esta
forma, tenemos que las columnas de C forman una base de vectores propios de A para
K n.

Note que la prueba anterior, muestra en el caso en que una matriz A es diagonali-
zable, como construir la matriz invertible C y la matriz diagonal D tal que A = CDC −1 .

Para concluir esta sección, diagonalización en términos de transformaciones lineales,


quiere decir en pocas palabras, poder encontrar una base en la que la matriz asociada
a dicha transformacion lineal sea diagonal, es decir, si V es un K-espacio vectorial de
dimensión n y T : V → V es una transformación lineal, entonces T es diagonalizable si
existe una base ordenada B de V tal que [T ]B,B es una matriz diagonal.

4.6. Ejercicios

1. Demuestre que en Mn (K), las matrices que conmutan con todas, tienen la forma
cIn , es decir, los múltiplos de la identidad, en otras palabras

{A ∈ Mn (K) : AB = BA para toda B ∈ Mn (K)} = {cIn : c ∈ K}

2. Demuestre la Proposición 22.

3. Sean A, B ∈ Mn (C).

a) Demuestre que (A∗ )∗ = A


4.6. EJERCICIOS 149

b) Pruebe que tr(A∗ ) = tr(A)

c) Defina hA, Bi = tr(B ∗ A). Demuetre que este es un producto interno para
Mn (C).

4. Demuestre que dos matrices A, B ∈ Mn (K) son iguales si y sólo si A · v = B · v


para todo v ∈ K n .

5. Demuestre la Proposición 20.

6. Demuestre que A ∈ Mn (K) es invertible si y sólo si AT es invertible. Más aún,


(AT )−1 = (A−1 )T

7. Sea A ∈ Mm×n (K). Demuestre que

im(A) = {w ∈ K m : w = A · v para cierto v ∈ K n }

8. Sea A ∈ Mn (K) y suponga que C1 , . . . , Cn son las columnas de A y R1 , . . . , Rn son


las filas de A. Demuestre que dim(hC1 , . . . , Cn i) = dim(hR1 , . . . , Rn i)

9. Sea A ∈ Mn (K). Demuestre que dim(im(A)) = rk(A). Recuerde que im(A) es el


subespacio generado por las columnas de A, y rk(A) es el número de pivotes de
cualquier forma escalonada de A.

10. Demostrar la unicidad en el Teorema 12, es decir, si A ∈ Mn (K) es otra matriz tal
que para todo vector v ∈ V ,
[v]B = A · [v]C ,

entonces A = [Id]B,C

11. Demuestre que si T : V → W es una transformación lineal, entonces T (hv1 , . . . , vn i) ⊂


hT (v1 ), . . . , T (vn )i

12. Sea A ∈ Mm×n (K). Defina T : K n → K m como T (v) = A · v. Demuestre que T es


una transformación lineal.
150CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

13. Demuestre la Proposición 25.

14. Sea V un K-espacio vectorial con base ordenada B = {v1 , . . . , vn }. Demuestre que
T : V → K n definida como T (v) = [v]B , es una transformación lineal.

15. Demuestre el Corolario 4.

16. Demuestre que una transformación lineal T : R2 → R3 no puede ser sobreyectiva.

17. Demuestre que en Cn , el producto

h(a1 , . . . , an ), (b1 , . . . , bn )i = a1 b1 + · · · + an bn

es un producto interno.

18. Sea T : V → W una transformación lineal entre espacios vectoriales finito dimen-
sionales. Demuestre que si T es una isometría, entonces T es inyectiva.

19. Sea T : V → W una transformación lineal entre espacios vectoriales finito dimen-
sionales. Demuestre que T es una isometría si y sólo si para cualquier par de bases
ordenadas ortonormales B y C para V y W respectivamente, la matriz [T ]C,B es
ortonormal.

20. Demuestre que la función det definida anteriormente en el caso n = 2, es multilineal


y alternante.

21. Demuestre en general, que la función determinante, det, definida anteriormente es


multilineal, alternante y det(e1 , . . . , en ) = 1.

22. Demuestre que Sn tiene n! elementos, donde recuerde que n! = 123 · · · (n − 1)n.

23. Demuestre que si σ ∈ Sn , entonces σ ◦ σ −1 = id y σ −1 ◦ σ = id.

24. Demuestre que si σ ∈ Sn es una permutación, entonces si det(Aσ(1) , Aσ(2) , . . . , Aσ(n) ) =


λdet(A1 , . . . , An ) donde λ = ±1, se tiene que det(B σ(1) , B σ(2) , . . . , B σ(n) ) = λdet(B 1 , . . . , B n ).
4.6. EJERCICIOS 151

25. Demuestre que dada una permutación σ ∈ Sn , si σ = τ1 ◦ · · · ◦ τs y σ = τ10 ◦ · · · ◦ τk0


son dos descomposiciones de σ como compuesta de transposiciones, entonces s + k
es par, es decir, s y k son pares o s y k son impares.

26. Demuestre la Proposición 31.

27. Demuestre que si A ∈ Mn (K) es una matriz tal que sus columnas son linealmente
dependientes, entonces det(A) = 0.

28. Demuestre que si Q ∈ Mn (K) es una matriz ortonormal, entonces Q es invertible


y Q−1 = QT .

29. Demuestre que si Q es una matriz ortonormal, entonces det(Q) = ±1.

30. Sea T : R2 → R2 una transformación lineal distinta de la identidad. Demuestre


que si W ⊂ R2 es un subespacio no trivial invariante bajo T , es decir, T (W ) = W
y W 6= {0}, entonces W = Eλ , donde λ es un valor propio no nulo de T .

31. Demuestre que si A es una matriz triangular superior, es decir


 
 a11 a12 a13 · · · a1n 
 
 0 a22 a23 · · · a2n 
 
 
 
A=
 0 0 a33 · · · ,
a3n 
 .. .. .. .. .. 
 
 .
 . . . . 

 
0 0 0 ··· ann

entonces PA (x) = (x − a11 )(x − a22 ) · · · (x − ann ). Por lo tanto los valores propios
de A son a11 , a22 , . . . , ann .

32. Muestre con un contraejemplo, que en general det(A + B) 6= det(A) + det(B).

33. Demuestre que si A = [aij ] es una matriz n × n con valores propios λ1 , . . . , λn ,


entonces
PA (x) = xn + bn−1 xn−1 + · · · + b1 x + b0 ,
152CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES

donde bn−1 = −(λ1 + · · · + λn ). Muestre además que tr(A) = a11 + a22 + · · · + ann =
−bn−1 .

34. Sea T : V → V una transformación lineal, donde V es un espacio vectorial de


dimensión finita. Considere B y C bases ordenadas para V . Demuestre que las
matrices [T ]B,B y [T ]C,C son semejantes.

35. Sea A ∈ Mn (R). Demuestre que si todos los valores propios de A son distintos,
entonces A es diagonalizable.
Muestre con un ejemplo que el recíproco no es cierto, es decir, que existen matrices
diagonalizables con valores propios repetidos.

36. Demuestre que si A ∈ Mn (K) es invertible, entonces

1
A−1 = adj(A)
det(A)

37. Cuántos subespacios de dimensión k hay en Znp ?

You might also like