Professional Documents
Culture Documents
Raul Bravo F.
) I
Profesor de Matemáticas
Uni-versidad de Chile Santiago
ASESOR LINGÚISTICO
Dr. Carlos Vega
Profesor de Filologia española
Algebra Lineal
É
.
I
I
_
Ei Qf
KENNETH HOFFMAN
Professor of Mathematics
Massachusetts Institute of Technology
RAY KUNZE
Professor of Mathematics
University of California. lrvine
TRADUCCION Y ADAPTACION
HUGO E. FINSTERBUSCH
Escuela de Graduados, Courant Institute
of Mathematical Science.
Master of Science en Matemáticas de la Universidad de N.Y.
Quimico. Instituto Politécnico de la Universidad
Católica de Chile
Profesor Asociado, Departamento de Matemáticas Puras
y Aplicadas, Instituto de Matemáticas,
Universidad Católica de Chile
(U
7*
El
“fi
os ”
PRENTICE-HALL HISPANOAMERICANA, S. A.
México n Englewood Cllffs 1 Londres 1 Sydney n Toronto n
Nueva Delhi n Tokio u Singapur 1 Rio de Janeiro
ALGEBRA LINEAL
U
Í MAR V
É ü
PREAMBULO
KENNETH HOFFMAN
Prólogo
Nuestro propósito original al escribir este libro fue proporcionar un texto para el curso
universitario de álgebra lineal en el Instituto Tecnológico de Massachusetts. Este curso
fue diseñado para.. la especialidad de matemática en el nivel medio, aun cuando tres cuartas
partes de los estudiantes eran de otras disciplinas científicas y tecnológicas que iban desde
el primer año universitario hasta estudiantes avanzados. Esta descripción del auditorio
del MIT para el texto se conserva, en general, hasta el presente exacta. Los diez años trans-
curridos desde la primera edición han visto la proliferación de cursos de álgebra lineal a
través del país, y han brindado a uno de los autores la oportunidad de enseñar la materia
básica a una variedad de grupos en la Universidad de Brandeis, Universidad de Washington
(St. Louis) y en la Universidad de California (Irvine).
Nuestro principal propósito al revisar el Algebra Lineal ha sido incrementar la variedad
de cursos que pueden ser dictados con ella. Por un lado hemos estructurado los capítulos,
especialmente los más difíciles, de modo que haya varios puntos terminales a lo largo del
desarrollo, permitiendo al profesor en un curso de un cuatrimestre o de un semestre ejer-
citar una cantidad considerable de posibilidades en la elección del tema. Bor otra parte
hemos aumentado la cantidad de material en el texto, de modo que pueda usarse para un
curso anual intensivo en álgebra lineal e incluso como libro de referencia para matemáticos.
Los mayores cambios se han hecho en el tratamiento de las formas canónicas y de los
espacios con producto intemo. En el capítulo 6 ya no se comienza con la teoría general
que fundamenta la teoría de las formas canónicas. Primero se tratan los valores propios
en relación con los teoremas de triangulación y diagonalización, y luego se prepara el ca-
mino hacia la teoría general. El capitulo 8 se ha dividido .de modo que el material básico
de espacios con producto intemo y diagonalización unitaria sea seguido por el capítulo 9
que trata de las formas sesquilineales y de las propiedades más complicadas de los opera-
dores normales, incluyendo operadores normales en espacios reales con producto interno.
Se ha hecho también un número de pequeños cambios y perfeeeionamientos de la pri-
mera edición. Pero la doctrina básica que la inspira no ha cambiado.
No hemos concedido atención particular al hecho de que la mayoría de los' estudiantes
no esten primariamentc interesados en matemática, pues creemos que un curso de esta
ilisciplinzi no debe ulihorrair de téeniezis :il estudiante de ciencia, ingeniería 0 ciencias so-
cizilcs, sino pri›eui';i|'lc la cmnpre|isii'›n dc los conceptos inalermìlicos básicos.
i›ii`i' Prólogo
Por otro lado. somos conscientes del amplio campo de conocimientos previos que los
estudiantes debieran tener y, en particular, del hecho de que los estudiantes han tenido
muy poca experiencia con el razonamiento matemático abstracto. Por esta razón se ha
evitado introducir demasiadas ideas abstractas muy al comienzo del libro. Además se ha
añadido un Apéndice que introduce o analiza ideas básicas tales como las de conjunto,
funciones y relación de equivalencia. Hallamos de mayor utilidad tratar de estas ideas en
forma independiente, pero acoìisejando a los estudiantes leer el Apéndice cuando ellas
aparezcan.
A lo largo del libro se ha incluido una gran variedad de ejemplos de los conceptos im-
portantes que aparecen. El estudio de todos los ejemplos es de fundamental importancia
y tiende a minimizar el número de estudiantes que repiten definiciones, teoremas y demos-
traciones en orden lógico sin comprender el significado de los conceptos abstractos. Este
libro contiene también una amplia variedad de ejercicios graduados (alrededor de seis-
cientos) que varian desde aplicaciones rutinarias hasta otros dirigidos a los mejores es-
tudiantes. Estos ejercicios pretenden ser una parte importante del texto.
[il capítulo 1 se refiere a los sistemas de ecuaciones y sus soluciones mediante operaciones
elementales por filas de las matrices. Ha sido nuestra práctica dedicar alrededor de seis
clases a esta materia. Ello muestra a los estudiantes un bosquejo de los orígenes del álgebra
lineal y una técnica de cálculo necesaria para comprender los ejemplos de las ideas abstractas
que aparecen en los capítulos posteriores. El capítulo 2 se refiere a los espacios vectoriales,
siihcspacios, bases y dimensión. El capítulo 3 trata las transformaciones lineales, su ál-
gehra y su representación por medio de matrices, como también, del isomorfismo, de fun-
ciones lineales y de espacios duales. El-capítulo 4 define el álgebra de los polinomios sobre
un cuerpo. los ideales en tal álgebra y la factorización prima de un polinomio. También
trata sobre raices, fórmula de Taylor y fórmula de interpelación de Lagrange. El capítulo 5
desarrolla los determinantes de matrices cuadradas y el determinante visto como una fun-
cion alternada n-lineal de las filas de una matriz, para seguir con las funciones multilineales
en módulos como el anillo de Grassman. Lo referente a módulos coloca el concepto de
.leterminantc en un marco más amplio y completo que el que 'usualmente se encuentra en
textos elementales. Los capítulos 6 y 7 contienen un estudio de los conceptos que son básicos
para el análisis de una transformación lineal en un espacio vectorial de dimensión finita,
cl .iualisis de valores propios, las transformaciones triangulabl_es y diagonalizables, los
i.-ouceptos de las partes diagonalizables y nilpotentes de una transformación general y las
formas canónicas racional y de Jordan. Los teoremas de descomposición primaria y cíclica
niegan un papel central; a la última se llega a través del estudio de los subespacios admi-
sililcs. lil capítulo 7 incluye un análisis de las matrices sobre un dominio polinomial, el
cillculo de factores invariantes y divisores elementales de una matriz, y el desarrollo de la
torina cimónica dc Smith. El capitulo termina con un estudio sobre los operadores semi-
simples. para completar el análisis del caso de un operador. El capitulo 8 trata con algún
detalle los espacios con producto interno de dimensión finita y cubre la geometría básica.
relacionando la ortogonalización con la idea de la «mejor aproximación a un vector» y
con los conceptos de proyección ortogonal de un vector sobre un subespacio y el com-
plcinento ortogonal de un subespacio. También trata de los operadores unitarios,
y i-uliiiina con la diagonalización de operadores autoadjuntos y normales. El capi-
tiilo 9 introduce las formas sesquilineales, las relaciona con los operadores positivos y
autoadjuntos cn un espacio con- producto intemo, sigue con la teoría espectral de opera-
dores normales y Iuego en resultados más complejos relativos a operadores normales en
espacios reales o compleios con producto intemo. El capitulo Il) examina las formas bi-
luiciilcs. insistiendo en las formas canónicas para las formas simétrica y aiitisimétrica. asi
como en los grupos que prescrvan formas no-degencradas. especialmente los grupos orto»
gouiil, unitario, sçudo-iii-togiiiiiil y de l_orent1
Prólogo ix
Se estima que cualquier curso que use este texto deberá cubrir completamente los ca-
pítulos 1, 2 y 3 con posible excepción de las secciones 3.6 y 3.7 que se refieren al doble dual
y a la traspuesta de una trasformación lineal. Los capítulos 4 y 5, sobre polinomios y de-
terminantes, pueden tratarse con grados diversos de minuciosidad. En efecto, los ideales
de polinomios y las propiedades básicas de los determinantes pueden cubrirse en forma
bastante esquemática sin afectar el desarrollo lógico del texto; sin embargo, nos inclinamos
a tratar estos capítulos cuidadosamente (excepto los resultados referente a módulos), porque
la materia ilustra muy bien las ideas básicas del álgebra lineal. Un curso elemental puede
ser ahora concluido elegantemente con las cuatro primeras secciones del capítulo 6, junto
con el capítulo 8 (nuevo). Si las formas racional y de Jordan han de ser incluidas, es nece-
`-sario abarcar una extensión mayor del capítulo 6.
Quedamos muy reconocidos a todos aquéllos que contribuyeron a la primera edición,
especialmente a los profesores señores Harry Furstenberg, Louis Howard, Daniel Kan y
Edward Thorp, a las señoras Judith Bowers, Betty Ann (Sargent) Rose y ala señorita Phyllis
Ruby. Queremos además dar las gracias a los numerosos estudiantes y colegas cuyos pene-
trantes comentarios llevaron a esta revision, y al personal de Prentice-Hall por su paciencia
para tratar con dos aut rfs atrapados en los laberintos de la administración académica.
Finalmente, gratitud espïcial debemos a la señora Sophia Koulouras por su pericia y ago-
tador esfuerzo en escribir tp máquina el manuscrito revisado.
K. HOFFMAN y R. KUNZE
Tabla de materias
Prólogo vii
Apéndice 379
Bibliografia 393
Indice 395
1. Ecuaciones lineales
1.1 . Cuerpos
o sea, xl = -x3. Así, se concluye que si (xl, xz, x3) es una solución entonces
x, = x2 == -x3. A la inversa, se puede fácilmente verificar que toda tema
de esa forma es una solución. Así, el conjunto de soluciones consta de todas
las temas (-a, -a, a).
Se han encontrado las soluciones de este sistema de ecuaciones «eliminan-
do incógnitas», esto es, multiplicando las ecuaciones por escalares y sumándo-
las luego para producir ecuaciones en las cuales algunas de las x¡ no están pre-
sentes. Deseairto§__formali_zar ligeramente este proceso d_e mgc_l_q _que se pueda
entender por qué opera y para así poder llevar a cabo los cálculos necesarios
para resolver un sistema de manera sistemática.
Para el sistema general (1-1), supóngase que seleccionamos m escalares
cl, . _ . , cm, que se multiplica la j-ésima ecuación por c¡ y que luego se suma.
Se obtiene la ecuación
(C1/111 “I” ° ' ' + CmAm1)-T1 "I" ' ° ° -I- (C1A1n "I" ' ' ' -I' CmÁf,in)$n
= ct;/1+ + cm;/,_.
\ tal ecuación se la llama combinación lineal de las ecuaciones (1-1). Evidente-
nente, cualquier solución de todo el sistema de ecuaciones (1-1) será también
iolución de esta nueva ecuación. Esta es la idea fundamental del proceso de
iliminación. Si se tiene otro sistema de ecuaciones lineales
en que cada una de las K ecuaciones sea combinación lineal de las ecuaciones
de (1-1), entonces toda solución de (1-1) es solución de este nuevo sistema.
Evidentemente puede suceder que algunas soluciones de (1-2) no sean solucio-
ies de (1-1). Esto, claro está, no sucede si cada ecuación en el sistema original
›s combinación lineal de lasecuaciones en el nuevo sistema. Se dirá que dos
iistemas de ecuaciones lineales son equivalentes si cada ecuación de cada sis-
tema es combinación lineal de las ecuaciones del otro sistema. Podemos en-
tonces establecer formalmente estas .observaciones como sigue
Iii 'NUi'lnIlr'\' llmwlr '.\ 1
Ejercicios
333
__
5. Sea F un conjunto que contiene exactamente dos elementos, 0 y 1. Se define una adición
y multiplicación por las tablas:
+01 -O1
001 O00
110 '101
A= É É
A-m1"'Amn
X=lïily rlïìli
A se llama matriz de los coeficientes del sistema. Estrictamente hablando. la
disposición rectangular expuesta no es una matriz, smo una representacion
de una matriz. Una matriz m x n sobre el cuerpo F es una función A del con-
junto de los pares de enteros (i, j), 1 5 i 5 m, 1 5 j 5 n, en el cuerpo F.
Los elementos de la matriz A son los escalares A(i, j) = A¡¡, y,. con frecuen-
cia, suele ser más conveniente describir la matriz disponiendo sus elemen-
tos en un arreglo rectangular con m filas y n columnas, como antes. Así,
X (anteriormente) es, o define, una matriz n x 1, e Y una matriz m x 1.
Por el momento, AX = Y no es más que una notación abreviada del sistema
de ecuaciones lineales. Más adelante, cuando se haya definido una multipli-
cación de matrices, querrá decir que Y es el producto de A y X.
Deseamos ahora considerar operaciones sobre las filas-de la matriz A que
correspondan a la formación de combinaciones lineales de las ecuaciones del
sistema AX = Y. Se limitará nuestra atención a tres operaciones elementales
de filas en una matriz m x n, sobre el cuerpo F :
1. Multiplicación de una fila de A por un escalar c no nulo;
2. Remplazo de la r-ésima fila de A por la fila r más c veces la fila s, don-
dc c es cualquier escalar y r =;'= s;
3. Intercambio de dos filas de A.
Una operación elemental de filas es, pues, un_t1po especial de función (regla)
0 que asocia a cada -matriz m x n, A, una matriz m x n, e(A). Se puede des-
cribir e en forma precisa en los tres casos como sigue:
1. 1 r, 3 cArj.
A -ÍA0'_›AlZ›"°"_'›Ak:-B.
Basta demostrar que los sistemas A¡X = 0 y A¡HX = 0 tienen las mismas
soluciones, es decir, que una operación elemental por filas no altera el conjun-
to de soluciones.
Así. supóngase que B se obtiene de A por una sola operación elemental
de filas. Sin que importe cuál de los tres tipos (1), (2) o (3) de operaciones sea 9
H /l l¡:i'l›m llnml
-1 -9 3 4
4 0 - 4 0 -i la
/'\ sv
6 -i 6 -i 5
-9 -9
4 0 - 4 le É
-2 -1 1 ul-IQOQ t›¦›l~1›-på
-9 0 mk
0 - 0 I" D-I \/
1 - - 1
0 _- 0 :c'wi7-1›'°l3
__ _?-
o›-c>o›-c>o›- isa-to
0
1
-
G0
00wn- [01-INI-'l\?0O _ Qu-iQO›-~O ›-O[\)i-IO
0
1 GIwiwi-I-[I\ç) i-I “ii
ii 1»
É av
001---
“C
<'».1n._-=›?o-°l”o:›-i ›Éo›i>-`i›- i=- lelels
le
° <=ri-|_-i ¬iï¬ 't-I
010- w|ui°'l~i
-it o2+t 0 1 oi
-t3i2l.03+2ti*l,o3+2t.92.0o-
12 1 2 1 2 io
Con lo que el sistema de ecuaciones
_2U1+¶:¶J2=0
-'l:IlJ1+'3íC2=0
íCi+2fU2=0
tiene solamente la solución trivial xl = x2 = 0.
1 0 0 0 0 2 1
0 1 -1 0 › 1 0 -3 -
0 0 1 0 0 0 0
Ejercicios
1. Hallar todas las soluciones del sistema de ecuaciones
(l - í)x¡ - ixz = 0
2.111 + * 1:)I2 = 0.
2. Si
3 -1 2
A = [2 1 1]
1 -3 0
hallar todas las soluciones de AX = 0 reduciendo A por filas.
3. Si
A=[ -14 _
6 _.
cio» QJCOmi
Erum iiiiws llnmlrs ll
t -(1+z') 0
A= 1 -2 1 -
1 21' -1
5. Demostrar que las siguientes dos matrices no son equivalentes por filas
-1 0 › -2 0 -1 -
|~iatol
) ffiO O
C/O Q 1-*
l-I OQ
U-I U1[O
lg
6. Sea
A = [0". b
d
:I
una matriz 2 x 2 con elementos complejos. Supóngase que A es reducida por filas y tam-
bién que a + b + c + d = 0. Demostrar que existen exactamente tres de estas matrices.
7. Demostrar que el intercambio de dos filas en una matriz puede hacerse por medio
de un número finito de operaciones elementales con filas de los otros dos tipos.
8. Considerar el sistema de ecuaciones AX = 0, donde
a b
A " le dl
es una matriz 2 x 2 sobre el cuerpo F. Demostrar lo siguiente:
(a) Si todo elemento de A es O, entonces cada par (x,, x2) es una solución de AX = 0.
' _ (b) Si ad - bc =,\'= 0, el sistema AX = O tiene solamente la solución trivial xl = x2 = 0.'
(c) Si ad -- bc = 0 y algún elemento de A es diferente de 0, entonces existe una solu-
ción (xf, xg) tal que (x1, x2) es una solución si, y solo si, existe un escalar y tal que xl =
yx?, X2 = yx?-
(c) si las filas l, . . . , r son las _/ilus no nulas de R. _t' si cl primer clcnimn›
no nulo de laƒila ¡está en la columnak,-,i = l, . . _ , r, entocesk, < kz < - - - < k,.
Se puede describir también una matriz escalón R reducida por filas como
sigue. Todo elemento de R es 0, o existe un número positivo r, l 5 r S m, y
r enteros positivos kl, ..., k, con l 5 k¡ 5 n y
(a)R¡,-=0parai>r,yR¡¡=0sij<k¡.
(b)R¿,,j=5¡¡,lSi$r,1SjSr.
(c)k1<°"<k¡.
7l._'I'
(1-3) É É
íCk,+ _ E C"u-=0.
r: .1
2=1
Preguntémonos ahora qué operaciones elementales de fila hay que hacer para
resolver un sistema de ecuaciones lineales AX = Y no homogéneo. De entrada
cabe observar una diferencia básica con el caso homogéneo; y es que mien-
tras el sistema homogéneo siempre tiene la solución trivial xl = - - - = x,, = 0,
un sistema no homogéneo no tiene necesariamente solución.
Se construye la matriz aumentada A' del sistema AX = Y. Esta es la matriz
m x (n + l) cuyas primeras n columnas son las columnas de A y cuya última
columna es Y; más precisamente,
I 0 o
AU = A,-,-, si _; É n
Ai(n+i› = yt-
I4 Algebra llnvul
0. = zm
1 -2 1 'yi 1 _ lll _
0 5 -1 (Z/2 _-22/1) [0 '_' %(y2 "' 2!/1)
_0 0 0 (ya _ yz + 22/1) 0 Qi-Il@ Quit-Il-I /'\ 'â '“ “$ 'l' 2!/1)
“ 'ií(!/i + 2?/2)
0 1 - š:(@I2 - 22/1)
Q
i-I O ©0\l›-law (ya "“ 2/2 + 2!/1)
lu 'tmi'lt›m'.\' llm'uli'.\' I ,S
v si los escalares dados y, satisfacen esta condición, todas las soluciones se ob-
tienen asignando un valor c a x3, y calculando luego
171 = -gc + '.%(Z/i + 21/2)
O
$2 = ic + É@/2 _ 21/1)-
Una observación final respecto al sistema AX = Y. Supóngase que los ele-
mentos de la matriz A y los escalares yl, _ _ _ , _v,,, pertenecen a un subcuerpo
1-', del cuerpo F. Si el sistema de ecuaciones AX = Y tiene una solución con
\,_ _ _ _ _ x,, en F, tiene también una solución con xl, _ _ _ _ x,, en F1. En efecto,
sobre cualquier cuerpo, la condición para que el sistema tenga una solución
es que se cumplan ciertas relaciones entre los yl, _ _ _ , y,, en F1 (las relaciones
, 4: 0 para i > r anteriores). Por ejemplo, si AX = Y es un sistema de ecua-
ciones lineales, en el cual los escalares yk y AU- son núnieros reales, y si existe
una solución en que xl, _ _ _ _ x,, son números complejos, entonces existe una
solución en que los xl, _. _ , x,, son números reaLes.
lzfiercicios
I. Ilallar, mediante reducción por filas de la matriz de coeficientes todas las soluciones
del siguiente sistema de ecuaciones:
2. Hallar una matriz escalón reducida por filas que sea equivalente a
1 -'i
A= 2 2 -
i l-I-'i
$1 “_ $2 -I- 213 = 1
2I1 -I- 2223 = 1
$1 __ 32:2 + 4223 = 2.
A-.=
¿Para cuál (yl, yz, y3, y4) tiene solución el sistema de ecuaciones AX = Y?
10. Supóngase que R y R' son matrices escalón 2 x 3 reducidas por filas y que los sis-
temas RX = 0 y R'X = 0 tienen exactamente las mismas soluciones. Demostrar que R = R'.
Las filas de C quedan determinadas por los mn escalares Ai,-, que son los ele-
mentos de una matriz m x n, A. Si se desarrolla (1-4)
Ctj = š A,-,Bf
r=l r
l'_`| 'ttm'lnm'.\' llm'uli'.\ I7
Delìnieión. Seu A una matriz ni x n sobre cl cuerpo I" v .veu B una matriz
n x p sobre I". lil producto AB es la matriz m x p, C, cuyos eli-nwntos i, /` son
c_,= ÉA-B
ir rj-
r-1
ts] = ti ata
Donde
la 1;]-[nin 4
(e) L2 4][_â] = [10]
_ 34
=0 0 0
` OO'-' OOO -_ 0 0
-5 1 0
SL3 00 =0 2 0
¢.Ol\Di-'OOO -1 OOO Qøri-10301-1 C0OOO
1-l=~l\D ki-1-IL-±n1_±1J NJ
OOO 9 O
Ejemplo 11.
(a) Si I es la matriz identidad m x m y A es una matriz m x n, IA = A.
(b) Si I es la matriz identidad n x n y A es una matriz m x n, Al = A.
(c) Si 0'°"" es la matriz nulak x m, O“"' = U“""A. En forma similar. A0""' = 0"-"_
Ejemplo 12. Sea A una matriz m x n sobre F. La representación abre-
viada anterior AX_ = Y, para sistemas de ecuaciones lineales, es compatible con
la definición de productos de matrices. Así, si
¿Ci
X = $2
¿Cn
B",-
La matriz B es la sucesión de estas columnas:
B= |:B1,...,Bp].
t4wC›1.-,- = t(AB›C1_-,-
|›.u.i todos los i, /'_ Por definición
[A (BC)]='f = 2 Á.--(BC)f¡
= E Braco;
¬M
*M
¬ uM'P
:WÍ9
ff*."
-M ¬L~4 Ef*2°@Í@
= 2 Ai:-Brs)Caj
= 2 (AB)iaCaj
= [(ÁB)C]¢ƒ.
Si A es una matriz (cuadrada) n x n, el producto AA está definido. Esta
niatri/ se representa por A2. Por el Teorema 8, (AA)/l = A(AA) o AZA = AA2,
.lr modo que el producto AAA está definido sin ambigüedad. Este producto
se representa por A3. En general, el producto AA - - A (k veces) está defini-
do sin ambigüedad, y se representará por A'°_
()bsérvese que la relación A(BC) = (AB)C implica, entre otras cosas, que
combinaciones lineales de combinaciones lineales de filas de C son otra vez
ioiiibinaciones lineales de filas de C_
Si B es una matriz y C se obtiene a partir de B por medio de una operación
elemental de filas, entonces toda fila de C es combinación lineal de las filas de
H, y, por tanto, existe una matriz A tal que AB = C. En general, existen muchas
de estas matrices A, y entre todas ellas es conveniente y posible escoger una que
it-aga algunas propiedades especiales. Antes de ver esto se necesita introducir
una clase de matrices.
[3 ï:|› c 7€ 0, 2} c 7! 0.
Etk-{5†1¢+05sk, Í=1`-
Luego
_ '" ,_ __ Áçk, T
(EA)*”' _ Ã, b"'°A'" “ l/1,, + ¢A_,-, t = 1-.
Es decir, EA = e(A). I
Ejercicios `
l. Sean
4 Sean
l -1
A = [2 2], B = [ji
l 0
fï
C = [ai az]
C C
B = BI = B(AC) = (BA)C = IC = C. I
22 A lgehm lineal
Ejemplo -14.
it ¿H? ¿J
tz, fr - ii :fi
(d) Cuando c #= 0,
ti '2H-± $1
[23 ïl1=[å`* ll Y [Fi 'ìlrlå É--l'
Teorema 12. Si A es una matriz n x n, los siguientes enunciados son equi-
valentes_ °
(i) A es inversible.
(ii) A es equivalente por filas a la matriz identidad n x n
(iii) A es un producto de matrices elementales.
I-i mwimn-.s lineales 23
Teorema 13. Para una matriz n x n, las siguientes afirmaciones son equi-
i-ulentes_
(i) A es inversible.
tii) El sistema homogéneo AX = 0 tiene solo la solución trivial X = 0.
(iii) El sistema de ecuaciones AX = Y tiene una solución X para cada matriz
it X 1, Y.
al
trar que la última fila de R no es 0 (idénticamente)_ Sea
Corolario. Sea A = A,A2 - -~A,,, donde A1, _ _ _ , A,, son matrices (cua-
dradas) n x n. Entonces A es inversible si, y solo si, cada AJ- es inversible.
Demostración. Se ha visto que el producto de dos matrices inversibles
es inversible. De lo cual es fácil deducir que si cada AJ- es inversible entonces
A es inversible.
Supóngase ahora que A es inversible. Se demostrará primero que A,, es
inversible. Supóngase que X es una matnz n x 1 y que A,,X = 0. Entonces
AX = (A1, _ _ _ , A,,_¡)A,,X = 0. Como A es inversible se debe tener que X = 0.
El sistema deecuaciones A,,X = 0 no tiene, pues, solución no trivial, y así A,, es
inversible. Pero ahora A, - - - A,,_1 = AA,,_1 es inversible. Por lo dicho antes,
Ah-, es inversible. Continuando en esta fonna se concluye que todo AJ- es in-
versible_ I
Así
[2 -1 y1il_tIì)›[1 3
A-tf *ii
y2]_(ï)_›[l 3 yg
1 3 ji/2 2 -1 y1 0 _7 2/1-22/2
[1 3 yr 0 4<y_+sy_›]
0 1 '1r(22/2- 3/1) 0 1 '1r(22/2 _ 2/1)
lim|i'|um'.\ l|m'itlt'\ 25
A=l Si UH-iht-*wi-I
- - 1 0
- - - 0 1
- - - 0 0
- - 0
rle _ _- 1
rie _-
ir-¿__›-__ __ 0
- - 0
rle ' _" 1
iáïï -1
- - 0
- 12
30 -180
_ _ 60 _
|- 192 -
Qi©:l"'
NH@,i›-i».ncm4-if¡u-¢iI¡t. ci-- - 180 180
0 -36
1 -36 -
0 l-wIiln-¡oitcj©wmi-lu@¡n-1i› -wiI©@ ñuwcå
hlwu Gäicgali-img--It-Icm-im-Ii-I _ i-tb-I 00@ON gg@
OO
OHO HO HO 8
l©<:,_.Q|›-liQ©©i-ø©©.i-rm-«u_n-itI.l ||"
"|'_|__
iwí›||i-un-ïl||-I
El lector se habrá percatado que se ha hecho un largo estudio sobre las filas
de una matriz y no se ha dicho casi nada de las columnas. Se ha concentrado
la atención en las filas por parecer ello más natural desde el punto de vista de
las ecuaciones lineales. Dado que, obviamente, no hay ningún privilegio con
respecto a las filas, lo tratado en la última sección pudo haberse hecho usando
columnas en vez de filas. Si se define una operación elemental de columna y
equivalencia por columna, es claro que toda matriz m x n será equivalente
26 A l_eehm lineal
por columnas a una matriz «escalón reducida por columnas». Así cada opera-
ción elemental de columna será de la forma A -›AE, donde E es una matriz
elemental n x n, y así sucesivamente.
Ejercicios
1. Sea
1 2 1 0
A= -1 0 3 5-
1 -2 1 1
Hallar una matriz escalón reducida por filas R que sea equivalente a A, y una matriz in-
versible 3 x 3, P, tal que R = PA.
2. Repetir el Ejercicio l, pero con
2 0 i
A = 1 -3 -i -
i 1 1
3. Para cada una de las dos matrices
2 5 -1 1 -1 2
4 -1 2 › 3 2 4
6 4 1 0 1 -2
A = Ii
tt. Sea
a b
A _ [c (lil.
I›emostrar_ usando operaciones elementales de fila, que A es inversible si, y solo si,
llul -_ hf) =',¿
0. Una matriz n x n, A, se llama triangular superior si A¡¡ = 0 para i > j; esto es. si
todo elemento por debajo de la diagonal principal es 0. Demostrar que una matriz (cua-
drada) triangular superior es inversible si, y solo si, cada elemento de su diagonal principal
es diferente de 0.
lll. Demostrar la siguiente generalización del Ejercicio 6. Si A es una matriz m x n, B
es una matriz n x m y n < m, entonces AB no es inversible.
Il. Sea A una matriz m x n. Hacer ver que por medio de un número finito de operacio-
nes elementales de fila y/o de columna se puede pasar de A a la matriz R que es simultá-
neamente «escalón reducida por filas» y «escalón reducida por columnas››; es decir, RU-= 0
si i 9€ j, R,-¡ = l, l § i 5 r, Rü = 0 si i> r. Demostrar que R = PAQ, donde P es una
iiiatriz inversible m x m y Q es una matriz inversible n x n.
l2. El resultado del Ejemplo 16 sugiere que tal vez la matriz
1 1 1
2 n
1 1 _1__
A: 2 3 n-I-1
1 ___1 ____1
n n -I- 1 2n-1
1. un cuerpo F de escalares;
2. un conjunto V de objetos llamados vectores;
3. una regla (u operación) llamada adición, que asocia a cada par de vecto-
res ot, li de V un vector ot + li de V, que se llama suma de ot y Ii, de tal modo que:
(a) la adición es conmutativa, oz + [3 = [3 + ot;
(b) la adición es asociativa, ot + ([3 + 'y) = (ot + Ii) + y;
28
l"\'poem.s vectoriales
(c) e.ri_\-le un único vector 0 de V, llamado vector nulo, tal que oc + 0 = oc,
para todo ot (lc V;
(d) puro cada vector ot de V, existe un único vector -ot de V, tal que
I. i (_ OC) = 0;
4. una regla (u operación), llamada multiplicación escalar, que asocia a cada
escolar c de F y cada vector ot de V a un vector con en V, llamado producto de c y
1. de tal modo que:
(a) lot = ot para todo oz de V;
(b) (c1cz)oc = c,(czot);
(c) c(ot + Ii) = ca + cfi;
(d) (c, + cz)ot = clon + czot_
(2-1) a+B=(rvi+y1,:v2+z/2,-..,a:..+z/__).
El producto de un escalar c y el vector ot se define por
\
32 /I Igr-lira lmcul
fl fl
C 2 0101;' = 2 (00ì')0l¢-
¡-1 ¿-1
/'
, 0 _, _,
FIGURA l
Ejercicios
I. Si F `es un cuerpo, verificar que F" (como se definió en el Ejemplo l) es un espacio vec-
torial sobre el cuerpo F.
2. Si V es un espacio vectorial sobre el cuerpo F, verificar que
Las operaciones del segundo miembro son las usuales. ¿Qué axiomas de espacio vectorial
se cumplen para (R", GB, -)?
6. Sea V el conjunto de todas las funciones que tienen valor complejo sobre el eje real,
tales que (para todo t de R)
f(-i) = TÚ)-
La barra indica conjugación compleja. Demostrar que V. con las operaciones
2.2. Subespacios
En esta sección se introducirán algunos de los conceptos básicos en el es-
tudio de los espacios vectoriales.
qm- «fx + /l pertenezca a W para todos los vectores ot, B de W y todos los esca-
lmvs r dc I-'_ Como W no es vacio, existe un vector p en W, y, por tanto, (-1)p +
,› U está en W. Ahora bien, si ot es cualquier vector de W y c cualquier escalar,
rl vector ca = ca + 0 está en W. En particular, (- l)a = -ot está en W. Final-
mcmc, si ot y [3 están en W, entonces ot + B = loz + [3 está en W. Así, W es un
'illlicspalciø de V.
Recíprocamente, si W es un subespacio de V, oz y B están en W y c es un es-
mlm, ciertamente ca + B está en W. I
lijemplo 6.
(a) Si V es cualquier espacio vectorial, V es un subespacio de V; el sub-
toujunto que consta solo del vector nulo es un subespacio vectorial de V, lla-
mado subespacio nulo de V*.
(b) En F", el conjunto de los n-tuples (xl, _ _ _ , x,,) con xl = 0 es un sub-
espacio, pero el conjunto de los n-tuples con x, = l + xz no es un subespa-
uo (n 2 2).
(c) El espacio de las funciones polinomios sobre el cuerpo F es un subes-
pacio del espacio de todas las funciones de F en F.
td) Una matriz (cuadrada) n x n, sobre el cuerpo F es simétrica si AU- = A¡¡
para todo i y j. Las matrices simétricas forman un subespacio del espacio de
las matrices n x n sobre F.
(e) Una matriz (cuadrada) n x n, A, sobre el cuerpo C de los números
complejos es hennítica (o autoadjtmta) si
Afg =
"' Nota del traductor: Estos subespacios se llaman comúnmente los subespacios triviales de V.
30 A I_r'cl›ru lincul
= d É Áa=Bt=¡ + E Á¢iCi,'
k
= d(AB)='¡ + (ÁC)='¡
= [d(AB) + Ácler- I
«lc vectores al, az, _ _ _ , oz,,, de S pertenece evidentemente a W. Así que W con-
tiene el conjunto L de todas las combinaciones lineales de vectores de S. El
ionjunto L, por otra parte, contiene a S y no es, pues, vacío. Si ot, B pertene-
.-cn ri L, entonces oz es una combinación lineal,
01 =3710f1†íl720f2+ +25mO¢m
«lc vectores oz, de S, y B es una combinación lineal,
6 = "° +ynBn
«le rectores ot, de S, se llama suma de los subconjuntos S1, Sz, _ _ _ , Sk y se repre-
it-uta por __
S1+S2+...+Sk
opor
tr
E SE;
¡=1
W=Wr+W»+ +W›.
como es fácil ver, es un subespacio de V que contiene cada uno de los subes-
pacios W¡. De esto se sigue, como en la demostración del Teorema 3, que W
es el subespacio generado por la unión de Wz, Wz, _ _ _ , W,,.
38 A lgebra lineal
r if
z 0
donde x, y, z son escalares arbitrarios de F. Por último, sea Wz el subconjunto
de V que consta de todas las matrices de la forma
_ [3 Z] '
donde x e y son escalares arbitrarios de F. Entonces W, y Wz son subespacios
de V. También
V=Wi+Wz
porque
a b a b 0 0
[C dj " [C 0] "` [0 dj'
El subespacio W1 H Wz consta de todas las matrices de la forma
[at 0]_
0 0
l¡.\¡›m^tus mwtorlalrs 39
I-`.jemplo 10. Sea A una matriz m x n sobre el cuerpo F. Los vectores fila
tlf -1 son los vectores de F' dados por ot, = (An, _ _ _ , A¡,,), i -~= 1, _ _ _ , m. El
mln-spacio de P' generado por los vectores fila se llama el espacio de filas de A.
l-l subespacio considerado en el Ejemplo 8 es el espacio de filas de la matriz
12030
A=00l40-
00001
l-. también el espacio de filas de la matriz
B=
OON Om-oo
- ›l=-OOH -3 i-OI-O -3 OI-OO
I-Íjemplo ll. Sea V el espacio de todas las funciones polinomios sobre F.
Si-tu S el subconjunto de V que consta de las funciones polinomios fo, fl, fz, _ _ _
tlrliriido por
ƒ,,(x)=:c", n=O,1,2,....
I utonces V es el subespacio generado por el conjunto S.
l;'¡'erciei0s
21:1- x2+§-:z:¡-- x4 =0
271 + šílïa _” $5 = 0
I 9x1 - 32:2 + 62:; - 31:4 - 3x; = 0.
I-ncontrar un conjunto finito de vectores que genera W.
40 A Igchra lineal
OI
a1 = -3)
N xv
ÍÍ Ã -2)
(X4: /¬/N/N/` .!°_ “>_!'*$-° 1)
son linealmente dependientes, pues
2¢11+20f2-0fs+0°0¢4=0.
I os vectores
fl = (lt 0:
52 = (Oi li 0)
fa = (0, 0, 1)
mn linealmente independientes.
e,,=(0,0,0,.._,l).
I-sto muestra que e,, _ _ _, en generan F”. Como oz=0 si, y solo si, x, =xz = _ _ _=
\',, = 0, los vectores el, ..., en son linealmente independientes. El conjunto
42 A lgehru llm-ul
S = {e1, _ _ _ , e,,} es, por tanto, una base de F". Esta base particular se llamará
base canónìca de F".
Ejemplo 14. Sea P una matriz n x n inversible con elementos en el cuer-
po F_ Entonces P,, _ _ _ , P,,, las columnas de P, forman una base del espacio
de las matrices columnas F” 1. Eso se verá como sigue. Si X es una matriz co-
lumna, entonces
PX=2U1P1+"°+íCflP,¡. `
1Uk,+§0ffl›'=0
donde los cü- son ciertos escalares. Todas las soluciones se obtienen asignando
(arbitrariamente) valores a aquellos xj con j en J y calculando los correspon-
dientes valores de xz,, _ _ _ , xz,. Para cada j de J, sea E¡ la solución obtenida al
hacer xj = 1 y x, = 0, para todos los otros i de J. Se afirma que los (n - r)
vectores E1-, con j en J, forman una base para el espacio solución.
Como la matriz columna Ej tiene un l en la fila j y ceros en las restantes
filas, las razones dadas en el Ejemplo 13 permiten concluir que el conjunto
de estos vectores es linealmente independiente. Por esta razón ese espacio ge-
nera el espacio solución. Si la matriz columna T, con elementos t,, _ _ _ , t,,, per-
tenece al espacio solución, la matriz
N = É GEJ
_:
pertenece también al espacio solución, y es una solución tal que x¡ = tj para
cada j de J. La solución con esta propiedad es única; luego N = T y T perte-
neee al espacio generado por los vectores E¡_
Il' tjnlrttøs' l't't'It›rltIlt'.\' 4,)
ši Gif'
tt-0
en este ejemplo, debe estudiarlo cuidadosamente de nuevo. Si con ello no se
lc aclara todavía, debe limitar su atención, de ahora en adelante, a espacios
de dimensión finita.
Teorema 4. Sea V un espacio vectorial generado por un conjunto finito de
vectores ji 1, flz, _ _ _ , Bm. Entonces todo conjunto independiente de vectores de
V es finito y no contiene más de m elementos.
44 .'Il_ucl›ra lineal
Off = É Áfffif-
1`==l
= š 23;' 25 Árjfia
¡-1 ¿-1
= É _§ (A.-,fea
1-1 s-1
= _É _ Át¡$')flt-
-7
¡_ 1 ¡=- 1
Como n > m, el Teorema 6 del Capítulo l implica que existen escalares xl,
xz, ___, x,,, no todos 0, tales que
il A.-,wi = 0,
32
1 s t 5 m.
Luego xlotl + xzotz + + x,,ot,, = 0. Ello demuestra que S es un conjunto
linealmente dependiente. I
(li) nitretiu sul›conjtmto «lc V que contenga menos de n vectores puede ge-
nerar |'.
B= (-%)¢11+ +(-%')a,..
€¿=šB--a-
__ un 1<í<n
__ _
J-1
donde {e¡, ez, _ _ _ , e,,} es la base canónìca de F”. Así, para la matriz B de ele-
mentos Bü se tiene
BA=1_ |
Teorema 6. Si W, y Wz son subespacios de dimensión finita de un espacio
vectorial, entonces W, + Wz es de dimensión finita y
dim W, + dim Wz = dim (W, H Wz) + dim (W + Wz)_
Demostracion. Por el Teorema 5 v sus corolarios, W, H Wz tiene una
base finita {ot,, , ot,,} que es parte de la base
y parte de la base
{ot1, _ _ _ , ak, yz, ___, y,,} para Wz_
El subespacio W, + Wz es generado por los vectores
a1,oon,ah Bbuoø,B¶n, Yl,ooo,Yn
Ilíijutclos vei'torlaIc.s- 47
Así, si oiz, _ _ _ , oi,, son linealmente independientes, todos son distintos, y se pue-
de hablar del conjunto {oi1, _ _ _, oi,,} sabiendo que tiene n vectores. Así, evi-
dentemente, ninguna confusión surgirá en el estudio de bases y dimensión.
La dimensión de un espacio V de dimensión finita es el mayor n, tal que un
43 »I l_r'i'l›ra lineal
Ejercicios
1. Demostrar que si dos vectores son linealmente dependientes, uno de ellos es un múlti-
plo escalar del otro.
2. ¿Son los vectores
forman una base para R3. Expresar cada uno de los vectores de la base canónìca como
combinación lineal de az, az y az.
5. Hallar tres vectores de R3 que sean linealmente dependientes y tales que dos cuales-
quiera de ellos sean linealmente independientes. O
[“ `“]
y z
I \¡Iiti'tit.\' |'i'i'lut'titli'.\' 4')
2.4. Coordenadas
esta expresión. Desde este punto de vista, se puede decir cual es la i-ésima coor-
denada, porque se tiene un orden «natural›› de los vectores de la base canónìca,
esto es, se tiene una regla para determinar cuál es el «primer›› vector en la base,
cuál es el «segundo›› vector, y asi sucesivamente. Si (B es una base arbitraria
del espacio V de dimensión n. no se tendrá probablemente. un orden natural
de los vectores de (B, y, por tanto, será necesario imponer algún orden a estos
vectores antes que se pueda definir la «i-ésima coordenada de oz respecto a G3».
Para plantearlo de otra forma, se definirán las coordenadas respecto a una
sucesión de vectores y no de un conjunto de vectores.
(B= {a1,...,a;;}
Si
Ú = 2] yaa;
entonces
G + Ú = 311 (Ii + 3/¡)¢1¡
I- \¡›m'iu.\ t'¢'¢'l¢›rtult'.\' 5/
-It- modo que la i-ésima coordenada de (oz + B) en esta base ordenada es (x¡ + yi).
I u forma análoga, la i-ésima coordenada de (ca) es cx;. Debe observarse tam-
Im-n que. cada n-tuple (x,, . . . , x,,) de F" es el n-tuple de coordenadas de algún
nf;-tor de V, a saber, el vector
E ílïiag.
¡-1
X=[31]
rn vez del n-tuple (xl, . . . , x,,) de coordenadas. Para indicar la dependencia
dt- esta matriz de coordenadas respecto de la base se usará el símbolo
[ale
|›.1r:t la matriz de coordenadas del vector ot respecto a la base ordenada (B. Esta
notación será particularmente útil cuando procedamos ahora a describir qué
It- sucede a las coordenadas de un vector oz cuando se cambia de una base orde-
u.tda a otra.
Supóngase, entonces, que V es de dimensión n y que
(B={a1,...,0fi»} y (B'={0¢i,...,0lit}
(2-13) a; = ã P--«-
1'-1
U 1; 1 <1' < n.
_ ._
Scan x1, . . . , xj, las coordenadas de un vector dado ot en la base ordenada (BC
I'nt0nces
52 /fl,g'¢'I›ru lineal
= 33; Ptjüi
¡=1 sfil
= 3: $5 (P.-,-x;›a
1-li-1
= Pifílïi) Oft-
z-1 1-1
Como las coordenadas xl, xz, . _ ., x,, de oz en la base ordenada (B están uní-
vocamente determinadas, se sigue de (2-14) que
[ala = P lala'
[ala = P`1[°=]oa-
Con lo que lo anterior puede resumirse así.
o te = Pm .
to t«1§ = P¬f3«1@
para todo vector oz de V. Las columnas de P están dadas por
jï1,...,n.
l*'\¡uu tu t' |°t't'turiult'.\' 53
/\~.|, solo se necesita demostrar que los vectores ot}, definidos por estas igual-
tt.tttcs, forman una base. Sea Q = P"1. Entonces
Í; Q,-avi; = Qƒkf; Pajflt
1 1 I
= -PijQjlc ai
J Í
=
?(.Epi;Q*)°'
5 1'
= ak.
[ala =
In
Ejemplo 19. Sea R el cuerpo de los números reales y sea 0 un número real
dudo. La matriz
P = [cos 6 -senâ]
senâ oos6
52 /Ilgrltru lineal
= _Zl=v}<1§
JI
fl I fl
= 2 $1 2 Pijfla
¡=1 ¡-1
= â É (P¢¡íl7i)€!¿
5-1;-1
= 2 (2 Pii35i)C!¡-
i=l j-=l
(2-14) a= É'1
I
1
O
-1
P.--$5) a.-.
,
Como las coordenadas xl, xz, . _ . , x,, de oz en la base ordenada (B están uní-
vocamente determinadas, se sigue de (2-14) que
[ala = P [0=]ai'
[a]¢3› = P`1[a]¢g.
Con lo que lo anterior puede resumirse así.
秛
(11)
vi@ = Pins
[ot]¿B. = P"'[oz]¿B
para todo vector oz de V. Las columnas de P están dadas por
_]--Í1,...,n.
l"\¡mcIt›s t'¢'t°tnriuI¢-s .U
Demostración. Sea (B, que consta de los vectores al, ..., ot,,. Si (B' =
ÍÍ
_
í̀
.| , ot,',} es una base ordenada de V, para la cual se tiene (i), es claro que
1 0 I
fi
I
ay = E P¡,'d.¡.
¡-1
Asi. solo se necesita demostrar que los vectores ot;-, definidos por estas igual-
tlatles, forman una base. Sea Q = P”1. Entonces
2 Qfkai = 23 Qfk Z P-'fat'
J -7 1
= E E P='ƒQ¡k Off
1 .-
= ? (É P*fQf*)
= ak.
[ala =
xa
Ejemplo 19. Sea R el cuerpo de los números reales y sea 0 un número real
t|;ldO. La matriz
P = [eos 0 -sen 0]
sen 0 eos 0
54 .4 Igchra lineal
forman una base (B' de F3. Las coordenadas x1, xå, xf, del vector oz = (xl, xz, x3)
en la base (B' vienen dadas por
:ví -:t:¡ + 21:2 + -1311:; -1 2 -131 x1
xå = åxg -I- ¬¡§'¡a:; = 0 -}
íöá ïiííïïa Í-¿_-'I © © jo É?|._†_.|
anti- L_ì.| S*
En particular
(3, 2, -8) = -l0aÍ - åaå - aš.
Ejercicios
1. Demostrar que los vectores
al = (ls lt Or 0)) a2 = (0: 01 lr
a3 = (lr 0: Or 4): ai = (0› Oi Or 2)
forman una base de R4. Hallar las coordenadas de cada uno de los vectores de la base ca-
nónìca respecto de la base ordenada {a¡, az, a3, a4}.
l iptti 'ms' t't't°tm'lttlr'.\' 55
1 Ilallar la matril de coordenadas del vector (I, 0, I) en la base de C3 formada por los
tutores t2i, I, 0), (2, -I, I). (0, 1 + i, 1 - i), en ese orden.
1 Sea (B = {oz,, az, oz3} la base ordenada de R3 formada por
,_t 'nales son las coordenadas del vector (a, b, c) en la base ordenada (B?
-I Sea W el subespacio de C3 generado por ot, = (1, 0, i) y az = (1 + i, 1, -1).
ta) Demostrar que al y 0:2 forman una base de W..
th) Demostrar que los vectores B, = (1. 1. O) y B2 = (1, i, 1 + i) pertenecen a W
v lorman otra base de W.
tel ¿Cuáles son las coordenadas de al y az en la base ordenada {fl,, B2} de W?
1. Sean fx = (x1, x2) y B = (yl, y¡) dos vectores de R2 tales que
rm/1+r›:/2=0, x'ï'+rš=z/i+yš= 1.
li.-mostrar que (B = {oz, B} es una base de R2. Hallar las coordenadas del vector (a, b) en
la base ordenada (B = {a, fl}. (Las condiciones impuestas a ot y B dicen, geométricamente,
que ot y B son perpendiculares y de longitud 1.)
tt. Sea V el espacio vectorial sobre los números complejos de todas las funciones de R
en (`; es decir, el espacio de todas las funciones sobre el eje real a valor complejo. Sea
I,t\l = l, f2(x) = e”, f3(x) = e_”'.
ta) Demostrar que fl, fl y f, son linealmente independientes.
th) Sea g,(x) = 1, g2(x) = cos x, g3(x) = sen x. Hallar una matriz inversible 3 x 3, P.
htl que
a
9:' = 2 Perfi-
¡-1
7. Sea V el espacio vectorial (real) de todas las funciones polinomios de R en R de grado
.' o menor; es decir, el espacio de todas las funciones de la forma
f(x) = co + cia: + c¢:t:*.
.St-.t t un número real fijo y definase
a›(w) = 1, a=(=v) = fr +1, a«(2=) = (I + 0'-
lh-mostrar que (B = {g,, gz, g3} es una base de V. Si
Teorema 10. Sea R una matriz escalón no nula reducida por filas. Enton-
ces los vectores fila no nulos de R forman una base del espacio de filas de R.
Demostración. Sean pl, . . . , p, los vectores fila no nulos de R
= E 01-511;
i==l
= Cj.
Í? Ú = -Él bh,-pi.
/\~.|. pues, cada vector B está determinado si se conocen las coordenadas bh,
I I, _ _ _ , r. Por ejemplo, ps es el vector único de W que tiene la k,-ésima coor-
«It-nada 1 y las ki-ésimas coordenadas 0 para `i'=/= s.
Supóngase que B pertenece a W y que B =/= 0. Se afirma que la primera coor-
tlt-nada no nula de B está en una de las columnas ks_ Como
B = Él bem;
y /J =|= 0 se puede escribir
l›e las condiciones (2-18) se tiene R¡¡ = 0 si i > s y j 2 k_,. Con lo que
B=(0,__.,0, b¡,_,._.,b,,), b¡,,;=f0
v la primera coordenada no nula de B está en la columna k,_ Obsérvese también
que para cada ks, s = 1, _ _ _ , r, existe un vector en W que tiene su k,-ésima
coordenada no nula, a saber ps. '
Ahora es claro que R está determinada unívocamente por W. La descrip-
ción de R en terminos de W es como sigue. Se consideran todos los vectores
/t = (bl, _ _ _ , b,,) en W. Si B 7€ 0, entonces la primera coordenada no nula debe
estar en alguna columna t:
B=(0,...,0, b,,__.,b,_), b,.¢0_
Sean kl, _ _ _ , k, aquellos enteros positivos t tales que existe algún B 7€ 0 en W,
58 A ¡gt-bra lineal
== É C¡(R¡|, . . . , Rin).
¡-1
I a¬- coordenadas bl, _ _ _ _ b,, de tal vector B, son entonces
¶'
completa libertad para elegir las coordenadas b,,; esto es, si cl, _ _ _ , c, son r es-
calares cualesquiera, existe un vector B de W y solo uno que tiene c, como su
k,--ésima coordenada.
Lo significativo, aquí, es que: dados los vectores oq, la reducción por fila
es un método directo para determinar los enteros r, k 1, _ _ _ , k, y los escalares
RU- que dan la descripción (2-25) del subespacio generado por al, _ _ _ , ot,,,_ Debe-
mos observar, como hicimos en el Teorema ll, que todo subespacio W de F”
tiene _una descripción del tipo (2-25). También debemos hacer notar algunos
aspectos respecto a la pregunta (2). Se ha determinado, en la Sección 1.4, cómo
se puede hallar una matriz inversible m x m, P, tal que R = PA. El conoci-
miento de P permite encontrar los escalares xl, _ _ _ , x,,, tales que
fi=371Of1+ +$m0fm
cuando ello es posible. En efecto, los vectores fila de R están dados por
Pi = š Paja;
j=l
B = E bkifli
a-1
= bh. Piƒflj
1-1 ¡-1
= J-lí=1
É É b,,.P--_»
_ 1 ¡J J
_š1A¡¡Z¡=b¡, j=1,...,1L
tiene solución y cuáles son las soluciones. La matriz coeficiente de este sistema
es la matriz n x m, B, con vectores columna al, _ _ _ , am. En el Capítulo 1 se
estudió el uso de las operaciones elementales por fila para resolver un sistema
de ecuaciones BX = Y. Consideremos un ejemplo en el cual adoptamos ambos
puntos de vista para responder preguntas respecto a subespacios de F"_
Ejemplo 21. Consideremos el siguiente problema. Sea W el subespacio
de R4 generado por los vectores
a1==
a2== I-¡F-5
^_@_¢=
\-/\-/
ta) Demostrar que oq, ozz, oz, forman una base de W, es decir, que estos
tt-etores son linealmente independientes.
th) Sea B = (b,, bz, bz, b4) un vector de W. ¿Cuáles son las coordenadas
tle B respecto a la base ordenada {ot1, az, oz3}'?
tc) Sean
ai = (1, 0 2 0)
Q Y
acá = (0, 2 0, 1)
9
aå = (0 0 0 3).
Q Q ¶
12 21] [1020
02 o1_›R=o1oo
-20-43 0001
[100 6-oo
o1o_›Q=%-2 5-1
ooij 4-42 -
(a) Evidentemente R es de rango 3, con lo que oq, az, az son .indepen-
dientes.
tb) ¿Qué vectores B = (bl, bz, bz, b4) pertenecen a W? Se tiene la base
de W dada por pl, pz, pz, que son los vectores fila de R. A la vista está que el
espacio generado por pl, pz, pz consta de los vectores B para los que bz = 2b1_
Para un B tal, se tiene
B = btpr + bzpz + b4P3
= |.b1› be, b4]R_
= ba b4]QA
= 23101 + 172012 + 223013
Ia = _ tlrbz + šba-
(c) Los vectores ozj, ozz, oz¿Í, son todos de la forma (yz, yz, yz, y4) con yz = 2y,,
y, por tanto, pertenecen a W. Es evidente que son linealmente independientes.
62 /I let-bra lineal
I1 = l - %(0) + %(0) = 1
332 -I + %(0) - š(0) -1
223 = - %(0) + %(0) = 0.
Con lo que oz; = oz, - az. En forma semejante, se obtiene az = ozz y ozz =
2oz1 - 2ozz + az. Luego
1 0 2
P =-11-2-
001
Ahora se verá cómo se responden las preguntas por el segundo método des-
crito_ Se forma la matriz 4 x 3, B, con vectores columna oil, az, otz:
10 -2
B
2o_
-4
Htúw t-O OQ
Inquirimos para cuáles yl, yz, yz, y4 el sistema BX = Y tiene una solución.
1 0 2 ll/1 0 2 y¡
2 2 0 yz 2 4 2/2'” 2y1 __›
I-Ä *G co © 3/3_2?/1
t-*IO t-*O OQ 3/ O
OI-^ t-t UIQ 3/4 3/1
-1 -1
A=
t-›
OIOGI-*I-* OtåOt\Dl\D O
Qt-si-I C»
OO›-P› ›-t-OOO
y los siguientes problemas concernientes a A.
I \¡uu'lus t~ct-tnriules t'›,i
ta) llallar una matriz inversible P, tal que PA sea una matriz escalón
tetlucida por filas R.
tb) Hallar una base para ei espacio de filas W de A.
te) Determinar qué vectores (bl, bz, bz, b_.,, bz) están en W.
td) Hallar la matriz de coordenadas de cada vector (bl, bz, bz, b4, bz)
de W en la base ordenada elegida en (b).
te) Escribir cada vector (bl, bz, bz, b4, bz) de W como una combinación
lnteatl de las filas de A.
tf) Dar una descripción explícita del espacio vectorial V de todas las ma-
tnees columnas de 5 x l, X, tales que AX = 0.
tg) Hallar una base de V.
th) ¿Para qué matriz columna 5 x 1, Y, la ecuación AX = Y tiene so-
luciones X?
Para resolver estos problemas se forma la matriz aumentada A' del sis-
tema AX = Y y efectuando una sucesión apropiada de operaciones por filas
ttulìre A'Z
l 2 'S
I - - _ _ _!/1 + ya
U __* Í/3 --›
_' 1/1
U yt _ I/2
0 -yi+y2+y3 --›
0 -31/1 + yo + yt
t› OwtOOOONDäclø OOOHO OOOi-bw t-si-*OOOOEFÄHOO °$
yr
2/1 _ 3/2
ya
_!/1 + 2/2 + ya
OOOOI-'* OOOON OOOHO OOOt-bw OO›-OO _3?l1 + ya + ya _ ya
ta) Si
?/1
3/1 _ 3/2
PY = yr,
_?/1 + ya + ya
_3?/1 + ya + ?/4 _ ya
para todo Y, entonces
P=
donde cz, cz, cz son escalares arbitrarios. Así, (bz, bz, bz, b4, bz) pertenece a W
si y, solo si.
(bt, bz, bs, ba, bs) = (7101 + bath + baba
lo que es cierto si y, solo st,
bg = 1
b4 = 3b1 + 4b3.
Estas ecuaciones son casos particulares del sistema general (2-25), que se puede
usar para ver- inmediatamente si un vector dado pertenece a W. Así, (-5, -10
1, -11, 20) es una combinación lineal de las filas de A, pero (1, 2, 3, 4, 5) `no lo es
(d) La matriz de coordenadas del vector (bl, 2b1, bz, 3b1 + 4bz, bz) en
la base p, pz, pz es evidentemente
bi
lil
(e) Hay varias maneras de escribir los vectores de W como combinacio
nes lineales de las filas de A. Tal vez el método más fácil es seguir el primer pro
cedimiento del Ejemplo 21 anterior
B (bli 2b1› b3› 3b1 + 4b3› bñ)
[bb b3› bb: Oi R
[bla b3› bb: Or -PA
[Q '-3
B=(_4›_1›O›O› N) C )
t-I
©l\9©t-*'- tú
O›l>~O Or-*t- *CD OOt-t=~t-Im ›-It-*OOO
$2
X = -4224
¿C4
i 0 j
tlontle xz y x4 son arbitrarios.
tv) Las columnas
lot man una base para V. Este es un ejemplo de la base descrita en el Ejemplo
th) La' ecuación AX = Y tiene las soluciones X si y, solo st,
_!/1 +1/2+?/s 0
-31/1 +1/2+:/4-yt 0
I-.`¡m-cicios
I. Sea s < n y A una matriz s x n con elementos en el cuerpo F. Usando el Teorema 4
tno su demostración), demostrar que existe un X no nulo en F"*1 tal que AX = 0
2. Sean
al= (111›_2s1)› a2 = (3: Oi 4: "'1)› a3 = (_1› 2
V SOLID
a = (41-51 9› _7): B = _,
1 -'41 4)› 7 = (1›1
_
ta) ¿Cuál de los vectores ot. B, y pertenece al subespacio R4 generado por los ot,`7
tb) ¿Cuáles de los vectores ot, B, y están en el subespacio de C4 generado por los ot,
tc) ¿Sugiere esto algún teorema?
64 .4 lgebru linertl
J
1 2
0 0 40
R=
Estas ecuaciones son casos particulares del sistema general (2-25), que se puede
usar para ver› inmediatamente si un vector dado-pertenece a W. Así, (-5, -10
1, - ll, 20) es una combinación lineal de l`as filas de A, pero (1, 2, 3, 4, 5) `no lo es
(d) La matriz de coordenadas del vector (bz, 2bz, bz, 3bz + 4bz, bz) en
tt
la base pz pz, pz es evidentemente
br
ba
(e) Hay varias maneras de escribir los vectores de W como combinacio-
nes lineales de las filas de A. Tal vez el método más fácil es seguir el primer pro-
cedimiento del Ejemplo 21 anterior
B (bl) 2b1) bli; 3bl + 4b3)
í-
C9)-\©›-It-I Oi-*OOO t-LOOOO t-Oi-OO
j l-Il
332
X = _42D4 C'
174
0
donde xz y x4 son arbitrarios.
tg) Las columnas
O t-›
OOi-N l._ ._ _ | t'__"'“_"l ›-POGQl._ ._ _ |
O
lot man una base para V. Este es un ejemplo de la base descrita en el Ejemplo
th) La' ecuación AX = Y tiene las soluciones X si y, solo si,
líicrcicios
I. Sea s < n y A una matriz s x n con elementos en el cuerpo F. Usando el Teorema 4
tno su demostración), demostrar que existe un X no nulo en F"“ tal que AX = 0
2. Sean
al = (1111 -21 1); a2 = (31 0: 4: _1)› a3 = (_1› 2»
y scan
ta) ¿Cuál de los vectores ot, B, )› pertenece al subespacio R4 generado por los ot,'7
th) ¿Cuáles de los vectores ot, B, y están en el subespacio de C4 generado por los ot,
tc) ¿Sugiere esto algún teorema?
00 A Igrhru littertl
Hallar un sistema de ecuaciones lineales homogéneas para las que el espacio de las solu-
ciones sea exactamente el subespacio de R4 generado por los tres vectores dados.
4. En C3, sean
al = (1, O, -í), ag = (1 + í, 1 - iz 1), 0:3 = ('tÍ,^í, í).
Demostrar que estos vectores forman una base de C3. ¿Cuáles son las coordenadas del
vector (a, b, c) en esta base?
5. Dar una descripción explícita del tipo (2-25) para los vectores
B = (bl: bìr b3r bli
A=
1. I. Transformaciones lineales
T(ca + 3) = Ctra) + To
¡wm todos los vectores ot _v B de V y todos los escalares c de F.
` f(35)=0o+C1íU+"'+C¡¢$".
Vil
(mm=fima
Entonces T es una transformación lineal de V en V. La función Tf no solo es
continua, sino que también tiene primera derivada continua. La linealidad de la
integración es una de sus propiedades fundamentales.
El lector no tendrá dificultades en verificar que las transformaciones de-
finidas en los Ejemplos 1, 2, 3 y 5 son transformaciones lineales. La lista de
ejemplos se ampliará considerablemente cuando se estudien más aspectos de
las transformaciones lineales.
Es importante observar que si T es una transformación lineal de V en W,
entonces T(0) = 0: lo que se ve por la misma definición, pues
T(0) = T(0 + 0) = T(0) + T(0)-
Este punto es a menudo motivo de confusión para quien estudia álgebra lineal
por primera vez. ya que probablemente haya tenido una visión un poco dife-
rente del uso del término «función lineal». Un breve comentario al respecto
podria aclarar esa confusión. Supóngase que V es el espacio vectorial R'. Una
transformación lineal de V en V es entonces un tipo especial de función real
en el eje real. En un curso de cálculo es probable que se diga que tal función
es función lineal si su grafo es una recta. Una transformación lineal de R1 en R'.
de acuerdo con la definición, será una función de R en R cuyo grafo es una recta
que pasa por el origen.
A más de la propiedad T(0) = 0 indiquemos otra propiedad general de la
transformación lineal T. Tal transformación «preserva›› las combinaciones linea-
les; esto es, si ozz, _ _ _ , oz, son vectores de Vy cz, _ _ _ , c,, son escalares, entonces
T(crar + '- ' + cuan) = cr(Tai) + - - - + C»(T0r._)-
Ello resulta directamente en forma en forma directa de la definición. Por ejemplo,
7-'(0101 + Cgag) = C1(TC!1) + T(C2a2)
= C1(T(!1) + C2(T(l2).
`IiomIornm¢'ionc.r It`m'ales O9
Y ttst
Ttca + ti) = c(Ta) + To.
Si U es una transformación lineal de V en W con Uotz- = B¡_ j = 1, _ _ _ _ n,
entonces para el vector a = 2) xfa.- se tiene
i-=1
Ua = U ( É: ;t_a_~)
i=l
fl
= E íU¡(U0la)
Í=l
= E Itfif
i-1
con lo que U es exactamente la misma correspondencia T que se definió antes,
lo que demuestra que la transformación lineal T con Taj = B¡_ es única. I
70 Algebra lineal
a2 = (3)
son linealmente independientes y, por tanto, forman una base de R2. De acuer-
do con el Teorema 1, existe una única transformación lineal de R2 en R2 tal qu
Ta, = (3,2, 1) `
TG2 = (6, 5,
De ser así, se debe poder encontrar T(ez). Encontrados los escalares cz, cz talest
que ez = czotz + czaz, se sabe entonces que Tez = czTozz + czTotz. Si (1, 0) =†
cz(l, 2) + cz(3, 4), entonces cz = -2 y cz = 1. Con lo que
= (0, 1,2).
Ejemplo 7. Sea T una transformación lineal del espacio de los m-tuples
F"' en el espacio de los n-tuples F". El Teorema 1 dice que T está unívocamente
determinado por la sucesión de vectores Bz, _ _ _ _ B,,,, donde
B¡=T6¡, 1:=1,...,m.
Si B es la matriz m x n que tiene por filas los vectores Bz, _ _ _ _ B,,,, esto quiere
decir que
Tot = otB.
T(xl›°°°›xfl)=[x1°°'xfil E E '
Bml ° ' ° Bmn
= CBI + Bb
É C,-(Ta,-) = 0.
Í-k+1
T( É Cgdi) = 0
i-lt:-1-l
72 ›'| l_g't'l)rtt lineal
_
y en consecuencia, el vector a =
~ _
E+1Ct<1a pertenece al espacio nulo de T.)
J
¢=1=
Como ozz, _ _ _, az, forman una base de N, deben existir escalares bz, _ _ _ , bz,
tales que
1;
a = E bidi-
¡-1
Con lo que
lo 1; t
Ebia¡"" 2 Cjd¡=0 *
¡-1 5-1=+1 |
y como ozz,- _ _ _ _ ot,, son linealmente independientes, se debe tener l
b1:...=-.bk=ck+1-:ø-.=cn=.0. L
I;}c'rcicios
T(íl7¡, $2, 173) = ($1 _ 172 + 213, 2171 + $2, _íl71 _ 2172 + 2173).
T(A) = AB - BA
iomprobar que T es una transformación lineal de V en V.
Ill. Sea V el conjunto de todos los números complejos considerado como un espacio
vt-ttorial sobre el cuerpo de los números reales (con las operaciones usuales). Hallar una
Innt-ton de V en V que sea una transformación lineal en dicho espacio vectorial, pero que
no sea una transformación lineal en C1; es decir, que no sea lineal compleja.
II. Sea V el espacio de las matrices n x 1 sobre F y sea W el espacio de las matrices m x 1
sobre F_ Sea A una matriz m x n dada y sea Tla transformación lineal de V en W, definida
74 Algebra lineal
por T(X) = AX. Demostrar que T es la transformación cero si, y solo si, A es la matriz
cero.
12. Sea V un espacio vectorial Vde dimensión n sobre el cuerpo F y sea T una transforma-
ción lineal de V en V tal que la imagen y el espacio nulo de T sean idénticos. Demostrar
que n es par. (¿.Se puede dar un ejemplo de tal transformación lineal T?)
13. Sea V un espacio vectorial y T una transformación lineal de V en V. Demostrar que
las dos afirmaciones siguientes sobre T son equivalentes.
(a) La intersección de la imagen de T y el espacio nulo de T es el subespacio cero de V.
(b) Si T(Tot) = 0, entonces Ta = 0.
EP›Q(a.) 1- {g, sl Z ¢ q
3 rr Si 7: = q
= 6,-zzB,,_
tu t) Ta,-= É: A,,o,.
p-1
la-_›) T = ii É A,,,E»-«
p-lq-l
76 A l_et'l›ra lineal ¿
= gl AMB?
p-=l
= Tdj
y en consecuencia U = T_ Pero como (3-2) dice que los EM' generan L(V, W)
debemos demostrar que son independientes. Pero esto queda claro con lo ex-
puesto anteriormente; en efecto, si la transformación
U = 2 2 A,,,E»-«
P 9
2 Arƒflr = 0
11-1
It- puede componer 'I' con 'I'_ usara para ello la notación T2 = TT, y en ge-
twml 1'" 1'- - - 7' tn veces) para n = l, 2, 3, _ __ Se define T0 = I si T =)ë O.
(Tf)(2=) = 1=f(=v)-
78 /l l¡¿t'brtt lineal
Estos n2 operadores lineales forman una base del espacio de los operadores
lineales sobre V. ¿Qué es EP-°E"“? Se tiene
(EP-°E'-')(w) = E”-°(ö.-.«f)
-; 6'-,EP-Q((xr)
= ô¡¡ô,q0¡,.
Luego
f _ __ 0, si r af q
EME _ le» -° _ si q = r.
Sea T un operador lineal sobre V. Se probó en la demostración del Teore-
ma 5 que si
Ar = [T0f1'l<B
A = |:A1,...,An]
entonces
T= m
'GM -=M
si
U = 2 2 B,,L~--
es otro operador lineal en V, entonces el lema anterior dice que
TU = A MEP-°)(2) 2 B,,E'-')
= A,,B__EME†-»_
ietd *IM
^BM:Ej -M
Como observamos, los únicos términos que quedan en esta considerable suma
son los términos con q = r, y como E”"E'-S = EM, se tiene
TU = E E A-prBra)Ep'8
p a r
= 2 2 (AB)_,_Ef›-«_
p s
Sea az = T_ ' Bz, i = 1, 2; esto es, sea az el único vector de V, tal que Tozz = Bz_
t 'onto T es lineal,
T(Cd1 + G2) = CTQ1 + Tag
= C51 + 32-
Asl, cotz + az es el único vector de V que es aplicado por T en cBz + Bz, y así
T“¡(Cflr 'l' ('32) = C01 + 02
= C(T_3fi1) '+' TTIB2
v ¡T1 es lineal. I
entonces
T(C1(11 -I- ' ° ' + Ckak) = 0
y como T es no singular
6101+ +Ck0U.==0
Ejemplo 12. Sea F un cuerpo y sea T el operador lineal sobre F2 definido por
Í(Ío't'¢'Í('Í()S
en F""" definida por T(X) = AX. Hacer ver que, si m < n, puede suceder que T sea sol
breyectiva sin ser no singular. En forma semejante hacer ver que si m > n puede tomand
T no singular, pero no sobreyectiva. ,
ll. Sea V un espacio vectorial de dimensión finita y sea T un operador lineal sobre
Supóngase que el rango (T2) = rango (T). Demostrar que la imagen y el espacio nulo
T son disjuntos, es decir, tienen solo el vector nulo en común.
12. Sean p. m y n enteros positivos y F un cuerpo. Sean V el espacio de las matrices m x
sobre F y W el espacio de las matrices p x n sobre F. Sea B una matriz p x m dada y
T la transformación lineal de V en W definida por T(A) = BA. Demostrar que Tes inve
sible si, y solo si, p = m y B es una matriz m x m inversible.
3.3. lsomorfismo
:c,,.
Por este isomorfismo, el primer espacio solución de A es aplicado sobre el
u~¢m|tlo espacio solución. Estos espacios tienen la misma dimensión, y así,
ut ui- quiere demostrar un teorema respecto a la dimensión del espacio solución,
tm importa qué espacio se elija para analizar. En realidad, el lector no se sor-
¡tn-miei-ú si decidimos identificar F" con el espacio de las matrices n x 1. Esto
cv I|.tr;'\ cuando sea conveniente, y cuando no sea conveniente no se hará.
IJa'rt'it'i(›s
I .Sra l' el conjunto de los números complejos y sea F el cuerpo de los números reales.
0 "tt las operaciones usuales V es un espacio vectorial sobre F. Describir explícitamente
mi |«.¢›mor|ismo de este espacio sobre R2.
I .Sra V un espacio vectorial sobre el cuerpo de los números complejos y supóngase que
»¡~.t«- un isomorfismo T de V sobre C2. Sean oq, az, a3, a4 vectores en V tales que
Tal = (lr 0; 22)) Ta? = (_2› ii 0):
Ta, = (-1,1, 1), Ta, = (x/2,1', 3).
(nl ¿ Está ot, en el subespacio generado por al y a3?
(lv) Sea W, el subespacio generado por ot, y :x2 y sea W2 el subespacio generado por ot¿,
y -, ¿Cuál es la intersección de W, y W2?
(t I llallar una base del subespacio de V generado por los cuatro vectores oz,.
\ Si-a W el conjunto de todas las matrices hermíticas 2 x 2. esto es, el conjunto de las matri-
(vn rumplejas 2 x 2, A, tales que AU = A_¡, (la barra indica conjugación compleja). Como se
u. n.il.iha en el Ejemplo 6 del Capítulo 2, W es un espacio vectorial sobre el cuerpo de los
tmtut-ros reales con las operaciones usuales. Verificar que
t D
(I.y.2,¢)-›|:+“Í É/+22]
111 - zz t - a:
en un isomorfismo de R4 sobre W.
-I Demostrar que F""“' es isomorfo a F""'.
86 .-I ¡gr-bra lineal
5. Sea V el conjunto de los números complejos considerados como espacio vectorial sobre
el cuerpo de los números reales (Ejercicio l). Se define como sigue una función T de V en.
el espacio de las matrices reales 2 x 2. Si z = x + iy, con x e y números reales, entonces
_ :tt-l-7y 52/]
T(Z)_i:-10y :z:-71/2
de los /i,-. los escalares AU, . _ _ , AW- son las coordenadas de Tcx, en la base or-
denada 03'. Por consiguiente, la transformación T está determinada por los
mn escalares AU- mediante la expresión (3-3). La matriz m x n, A, definida
por A(i, 1') = A ,-,- se llama matriz de T respecto al par de bases ordenadas G3 y 63'.
La tarea inmediata es comprender claramente cómo la matriz A determina la
transformación lineal T.
Si oc = xlcxl + ' ' ° + x,,oc,, es un vector de V, entonces
Ta = 1',-aj)
j=l
= _ El :B-(Ta-)
1 1
J=-l
= gl 37:' gl Afjfir
.í==l ¡-1
"I 11
= r=1
2 (2
¡=1 Ai.-,f»,«) ra..
Si X es la matriz'de las coordenadas de cx en la base orden-ada,(B. entonces el
cálculo anterior muestra que AX es la matriz de las coordenadas del xectm la
en la base ordenada G3', ya que el escalar
lhmi/ru mm mm-s lnnwlr-.v R7
fl
2 A-710;'
¡-1
rw t-I elemento de la i-ésima fila de la matriz columna AX. Obsérvese también
qm- -it _-I es cualquier matriz m x n sobre el cuergfo F, entonces
= [(CT + Ulflfflav-
base ordenada. esto es, hacer G3 = G3', y se dirá simplemente que la matriz
que la representa es la matriz de T respecto a la base ordenada G3. Como este
concepto será muy importante para este estudio. repasaremos su definición.
Si T es un operador lineal sobre un espacio vectorial V de dimensión finita,
y G3 = {a,, _ . . , a,,} es una base ordenada de V, la matriz de T respecto a G3 (0.
la matriz de T en la base ordenada G3) es la matriz n x n. A. cuyos elementos
A,_,- están definidos por las ecuaciones Í
11
Se debe recordar siempre que esta matriz que representa a T depende de la basì
ordenada G3, y que existe una matriz que representa a T en cada base ordenad
para V. (En transformaciones de un espacio en otro la matriz depende de do
bases ordenadas, una de V y otra de W.) Para no olvidar esta dependencia
usará la notación
[Th
para la matriz del operador lineal T en la base ordenada G3. La manera cómo
esta matriz y la base ordenada describen a T, es que para cada ot de V
[Tala = [T]o[«]@-
Ejemplo 13. Sea V el espacio de las matrices columnas n x I sobre e
cuerpo F; sea W el espacio de las matrices m x l sobre F y sea A una mat '
m x n dada fija sobre F. Sea T la transformación lineal de V en W definid
por T(X) = AX. Sea (B la base ordenada para V, análoga a la base canóni
de F": es decir, el i-ésimo vector de G3 en la matriz n x I, X, tiene un l en l
fila i y todos los demás elementos 0. Sea G3' la correspondiente base ordenad
de W; o sea, el ¡'-ésimo vector de (B' es la matriz rn x l, Y,-, que tiene, un l e
la fila j y todos los demás elementos 0. Entonces la matriz de T respecto al pa
G3, G3' es la misma matriz A. Ello es evidente, pues la matriz AXJ- es la i-ési
columna de A. L
Ejemplo 14. Sea F un cuerpo y sea T el operador en F2 definido por
T(l`1, 332) = (171, 0).
Es fácil ver que T es un operador lineal en F2. Sea (B la base ordenada canó-
nìca de F2, G3 = {e,. e2}. Entonces
Tr, = T(1,o) = (1, 0) = 1€, + of, '
Tr, = T(o, 1) = (0, 0) = or, + of, l
con lo que la matriz de Ten la base ordenada G3 es
tm =
Ejemplo 15. Sea V el espacio de todas las funciones polinomios de R en
R de la forma
f(x) = co + cn: + c2:z:2 + caxa
Inmflmwmnmwshmwks S9
.tito cs, cl espacio ilc las lìiiicioiies poliiioiiiios de grado tres o menor. El opera-
iliii ilcrivación, del liicniplo 2, aplica V eii l', ya que I) «decrece el grado». Sea
Ill I.i base ordenada de V que consta de las cuatro funciones ƒj, fz, f_,,, ƒ,`, de-
lliiiiliis por _/,(.\') = .\¬¡ 1. Entonces
[D]o =
0 (2 0]
OOOO OO
›- OO
O Ow
O
llcmos visto lo que les sucede a las matrices representantes cuando las trans-
liiiiiiaciones se suman. y es que las matrices se suman. Cabe ahora preguntar
ipii- sucede cuando se componen transformaciones. En forma más precisa,
ii-mi I'. W y Z espacios vectoriales sobre el cuerpo F de dimensiones n. m y p,
ii-›.pt-ctivamente. Sea T una transformación lineal de V en W y U una transfor-
iiiiii ion lineal de W en Z. Supóngase que se tienen las bases ordenadas
(B: {a1,...,an}, (B'= {fl1,...,fim}, (BN: {'Y1,...,")'¡,}
[(UT)(<1)]cs~ = BA [alo
= É? At=›'(UÚi=)
k=l
m r
= 2 Akj 2 Buríïi'
k=1 i=1
iv m
= 2 (2 Bu=Ak¡) 'Yi'
~i=l k=l
90 A I,i¦eI›m lineal
dos bases ordenadas para V. ¿De qué manera están relacionadas las matrice
[T](B y [T](B.? Como se observó en el Capítulo 2, existe una matriz (inversible
n x n, P, única tal que
(3-7) [alas = Plain'
him i/in n|iti'ii›t|i'.\' lu|i1|li'\ Vl
piiiii cada vector ot eii V. lis la matriz I' |P,, _ _ . , P,,] con P, =_[al]
1 (B . Por
ili'Iil!|t'tUn
M H) [Tala = [T]o[0=]o-
Apliviiiido (3-7) al vector Tot, tenemos
(lt ti) [Ta]¢, == P[Ta]@›.
i oiiihiiiando (3-7), (3-8) y (3-9) se obtiene
[T]cBP[°f]cB' = P[T0f]cii'
P_1[T]<sP[0f]ai' = [T0f]cii'
ioii lo que se debe tener que
l -iii- operador U es inversible, ya que aplica una base de V sobre una base de
I I ii matriz P (anteriormente citada) es precisamente la del operador U en la
liii-iv ordenada G3. En efecto, P está definida por
n.
Of; = 2 Paja;
¡-1
[Tias = P`1[T]caP-
¡Ii otra manera, si U es el operador lineal sobre V definido por Uotj = ot;-. 1' =
l, . . . , n, entonces
Ejemplo 16. Sea T el operador lineal sobre R2 definido por T(x,, xz) =
(xl, 0). En el Ejemplo 14 se vio que la matriz de T en la base ordenada canó-
nìca G3 = {e,, e2} es
[Tim = 0 0'
l1°l
Supóngase que G3' es la base ordenada de R2, que consta de los vectores ej = (1, l),
ej = (2, 1). Entonces
61+¢2
(H .M'.'."¬ 261 + G2
de modo que P es la matriz
[1 21
P
1 1
Después de un breve cálculo se obtiene
Con lo que
P
-1-ri :ii
[Tlof = P*1[T]oP
i1 1
i-IO lil Fil i-i- I'-*NJmi
l 1 2]
il í 2 D
la base ordenada de V definida por f(x) = x¡"'. Sea t un número real y de-
finase g,(x) = (x + t)¡_1, esto es,
gi fi
G2 ¿fi +f2
ya ¿2f1 + 25]-2 +fa
94 lafi -lr 3É2f2 + 3¿fa + fi-
Como la matriz
¿2 ¿a
P
l ©©©l-^ ©©F-*em
2t
1
0
3t2
3t
1
Irun i/in niiirtotti-s lun-iilini 4).!
ur --true que G3' = {g,, gl, g3, g4} es una base ordenada de V. En el Ejemplo 15
iii i-iirontró que la matriz de D en la base ordenada es
I-1-
[D]a = ui
o _o
la iiiatriz de D en la base ordenada G3' es, pues,
M U
_ -zi se 2i 3:2
F-^es 22Q.
0 1 cwcc oooi- ©©l-'es 0 1
- '“^o' oo 2: se
_ -2i se
22°"°*oo oo??
$3'-*ei.@$l-'eu 0 1 ooico o -OøoøH comoo oi- Q QH omo@
comoocw 0
DQ2 = 91
DQ3 = 2gg
DQ4 = 3g3.
ai = É Prim-
i=1
Entonces la matriz de T en la base ordenada (B' será B.
Así la afirmación de que B es semejante a A quiere decir que en cada es-
pacio de dimensión n sobre F las matrices A y B representan la misma trans-
formación lineal en las dos (posibles) bases ordenadas diferentes.
Obsén/ese que toda matriz n x n, A, es semejante a sí misma, tomando
P = I; si B es semejante a A, entonces A es semejante a B, ya que B'= P"AP
implica que A = (P*')"'BP"'; si B es semejante a A y C es semejante a B,
entonces C es semejante a A, pues B = P“'AP y C = Q"*BQ implica que
C = (PQ)"'A(PQ). Así, pues, la semejanza es una relación de equivalencia
en el conjunto de las matrices n x n sobre el cuerpo F. Obsérvese también que
la única matriz semejante a la matriz identidad I es I y que la única matriz se-
mejante a la matriz nula es la misma matriz nuia.
Ejercicios
I. Sea T el operador lineal sobre C2 definido por T(x,, xz) = (x,, 0). Sea (B la base or-
denada canónìca de C2 y sea (B' = {a,, ot2} la base ordenada definida por ot, = (l, i),
az = (-i, 2).
(a) ¿Cuál es la matriz de T respecto al par (B, (B"?
(b) ¿Cuál es la matriz de T respecto al par (B', CB?
(c) ¿Cuál es la matriz de T en la base ordenada (B".'
(d) ¿Cuál es la matriz de T en la base ordenada {a,, a,¦'?
2. Sea T la transformación lineal de R3 cn R2 definida por
T($i, 272, $3) = ($1 -l- 232, 2x; - xi).
(a) Si (B es la base ordenada canónìca de R3 y (B' es la base ordenada canónìca de R2,
¿cuál es la matriz de T respecto al par (B, (B"?
(b) Si (B = ¦ot,, az, ot3¦ y G3' = {[i,, /t2}, donde
ai = (1,0, -I), 01;» = (l, 1,1), ag = (I,0, 0), fi¡ = (O, 1), (32 = (1, 0)
¿Cuál es la matriz de T respecto al par (B, 03"?
3. Sea T un operador lineal sobre F", sea A la matriz de T en la base ordenada canónìca
para F" y sea W el subespacio de F" generado por los vectores columna de A. ¿Que rela-
ción existe entre W y T?
4. Sea V un espacio vectorial bidimensional sobre el cuerpo F y sea (B una base ordenada
de V. Si T es un operador lineal en V y
b
[Tias = [Í d]
demostrar que T2 --` (a + d)T + (ad - bc)I = 0.
Ítiimlm mui Iumti ltmwlizi 95
I, *ini I el opeiatlor lineal sobre R" cuya iiialn/ eii la base canónìca es
1 2 l
A = 0 l 1 -
-1 3 4
liiiiiiiiiai una base de la imagen de Ty una base del espacio nulo de T.
li Si-ii I el operador lineal sobre R2 definido por
` T(.r,, 1:2) = (-1:2, xl).
t.il ¿,(`uál es la matriz de T en la base ordenada canónìca de R2?
(hi ,'(`uál es la matriz de T en la base ordenada (B = {ot,, cx2}, donde ot, = (1, 2) y
0, ll. -U?
(ir) Demostrar que para cada número real c el operador (T -- cl) es inversible.
(il) Demostrar que si (B es cualquier base ordenada para R2 y [T]¿B = A, entonces
I, |,, ± 0.
l Sea Tel operador lineal en R3 definido por
T(x¡, $2, T3) = (3111 + 173, _2¦ìÍ1 + $2, "-$1 + 2222 + 4113).
ic) Demostrar que T es inversible y dar una expresión de Ti' tal como la que de-
lt|i|ii al T.
ll Sea 0 un número real. Demostrar que las dos matrices siguientes son similares sobre
il iiierpo de los números complejos:
cos 0 -Scn 0], ei” 0
sen 0 cos 0 0 e¬'°
i\iir-ereiiciu: Sea T el operador lineal sobre C2 representado por la primera matriz en la
|i.i-.c ordenada canónìca. Encontrar entonces vectores oi, y az tales que Ta, = c¡a,, Tai, =
i 'x, y ¦ot,. fx2¦ sea una base.)
'I Sea V un espacio vectorial de dimensión finita sobre el cuerpo F y sean S y T opera-
.loics lineales sobre V. Se pregunta: ¿cuándo existen dos bases ordenadas (B y (B' de V
i.iIi-s que [SLR = [T],B.'.' Demostrar que tales bases existen si, y solo si, existe un ope-
| iilor lineal inversible U en l tal que T = USU _ '_ (lì`squemu de la demu.i'tract`ón: Si [S]¿B =
| I |,,,_ sea U el operador que aplica (B sobre (B' y demostrar que S = UTU _ '_ Recípro-
iamcnte. si T = US U _' para algún U inversible, sea (B cualquier base ordenada para
I v sea (B' su imagen por U_ Demostrar entonces que [S](B = [T](B,_)
It). sabe que cl operador lineal T sobre R2 definido por T(x,, xz) = (.\',, U) esta repre-
sentado, en la base ordenada canónìca. por la matriz
A-ti si
I -le operador cum P le T2 = I. Demostrar q ue si S es un o Pe rador lineal sobre R2 tal q ue
S" = S, entoncm S = 0, o S = I, o existe una base ordenada (B de R2 tal que [S](B = A
(anteriormente).
96 /1 l,L't'l›t'tt linvttl
ll. Sea W el espacio de todas las matrices columna n x l sobre el cuerpo F. Si A es unit
matriz n x n sobre F. entonces A define un operador lineal LA sobre W por la multiplica-
ción a la izquierda L_,,(X) = AX. Demostrar que cada operador lineal sobre W es el pro-
ducto a la izquierda de alguna matriz n x n; es decir, es LA para algún A.
Ahora supóngase que V es un espacio vectorial de dimensión n sobre el cuerpo F y que
(B es una base ordenada de V. Para cada oz de V se define Ua = [a]¿B. Demostrar que U es
un isomorfismo de V sobre W. Si T es un operador lineal sobre V, entonces UTU " 1 es un
operador lineal sobre W. Por tanto, UTU "" es el producto a la izquierda por alguna matriz
n x n, A. ¿Cuál es A?
12. Sea V un espacio vectorial de dimensión n sobre el cuerpo F y sea (B = ¦ot,, _ _ _ , ot,,}
una base ordenada de V.
(a) Conforme al Teorema l existe un operador lineal único T sobre V tal que
Ta,-=a,-+1, _7=1,...,n-1, Ta,,=0. {
¿Cuál es la matriz A de T en la base ordenada (B?
(b) Demostrar que T" = 0, pero que T"" =)l= 0.
(c) Sea S cualquier operador lineal en V tal que S" = 0, pero con S""" =)é 0. Demos-1
trar que existe una base ordenada (B' de V tal que la matriz de S en la base ordenada (B'\
es la matriz A de la ¡'¬rte (a).
(d) Demostrar que si M y N son matrices n x n sobre F tales que M" = N" = 0, co
M"_1 =/= 0 =¡l= N"_'. entonces M y N son semejantes. 01
13. Sean V y W espacios vectoriales de dimensión finita sobre el cuerpo F y sea T unal
transformación lineal de V en W. Si I
4
<B={a,,...,a,,} y (B'=(fi,,...,B,,.} l
l
son bases ordenadas de V y W, respectivamente, definase la transformación lineal EN@
como en la demostración del Teorema 5: E"°""(o:,-) = ö,,,/lp. Entonces, los EM, l 5 p 5 m,
l 5 q 5 n, forman una base de L(l', W), y así -
mi fl
T = 2 2 APQENI
p=lq=l
I-¡cmplo l8. Sea I" un cuerpo y seaii a,, . . . , a,, escalares pertenecientes
ii I l)el`inase una función f en F" por
_f<ÍlÍ], . . . , 17") = -(11171 + ° ° ° + anxn-
Ioilo funcional lineal sobre F" es de esta forma para ciertos escalares al, . . . , a,,.
I Ilo se sigue de la definición de funcional lineal, ya que definimos aj = f(e¡)
i empleando la linealidad
= C š Ai'¡+ šlBi°¡
i'=-1 ¿=-
= ctrA -I-trB.
l-Íjemplo 20. Sea V el espacio de todas las funciones polinomios del cuer-
po I" en si mismo. Sea t tin elemento de F. Si se define
Lt(p) = pa)
I-Ljemplo 21. Este puede ser el funcional lineal más importante en mate-
iiiiitica. Sea [a, b] un intervalo cerrado del eje real y sea C([a, b]) el espacio de
I.i-. funciones reales continuas sobre [a, b]. Entonces
Lo) = [,fg<i›d¢
ili-tine tin funcional lineal L en C([a, b]).
98 A I_t¦i-bm lineal
= Cj.
ts-mi f = É _/tw
i-1
Demostración. Se ha visto antes que existe una base única que es «dual››
de G3. Si ƒ es un funcional lineal sobre V, entonces _f es una combinación lineal
l 1 mii/orn|m'mni'i' l|m'uli'.i 99
H- I2) de los _/,I y, como observamos después de (3-12), los escalares c¡ vienen
ilailos por e, = _/(ot,-). En forma análoga, si
fl
Gr = É Iwli
i=1
i-›. iiii vector de V, entonces
f¡(0=) = å§l$¿fi'(0=›')
fl
= É Iröiƒ
1'-l
ile modo que la expresión única para oz, como combinación lineal de los ot,-, es
a = fi(0=)ai- I
1-l
\
Estas funciones polinomios son, como se ve bien fácilmente,
( _ ¿2)( '" ta)
“(2) Si (ii 4 iatii - ti)
_ ( _ t1)( _ ta)
Mx) (ii -ìi›(fi - ts)
(1 ¬!1)($ '“f2)_.
M” m-mm-M
La base {p,, pz, p3} para V es interesante, ya que de acuerdo con (3-14) se tiene
para cada p en V
z†==vUòvi+-vüavii-vuavs \
Con lo que, si c,, cz y ca son números reales cualesquiera, existe exactamente
una función polinomio p sobre R que tiene grado alo más 2 y satisface a p(t,) = c,-,
j = 1, 2, 3. Esta función polinomio es p = clpl + c,_p2 + capa.
Sea estudiar ahora la relación entre los funcionales lineales y los subespa-
cios. Si f es un funcional lineal no nulo, entonces el rango de f es 1, ya que la
imagen de f es un subespacio no nulo del cuerpo escalar y debe ser (por tanto)
el cuerpo escalar. Si el espacio de referencia V es de dimensión finita, el rango
más la nulidad (Teorema 2) nos dice que el espacio nulo N, tiene dimensión
mmM=dmV-1
En un espacio vectorial de dimensión n, un subespacio de dimensión n - 1
se llama un hiperespacio. Tales espacios se llaman también a veces hiperplanos
o subespacios de codimensión 1. ¿Es todo hiperespacio el espacio nulo de un
funcional lineal? Se ve fácilmente que la respuesta es sí. No es mucho más difi-
cil demostrar que todo subespacio de dimensión d es la intersección de los es-
pacios nulos de (n - d) funciones lineales (Teorema 16, más adelante).
l)ebería ser claro para el lector que S" es un subespacio de V*, sea o no
S tin subespacio de V. Si S es el conjunto que consta del solo vector cero, en-
toiiees S0 = V*_ Si S = V, entonces S0 es el subespacio cero de V*. (Esto es
Iàicil de ver cuando V es de dimensión finita.)
yö,,-=0sii2k+1yj5k;deestosesigueque,parai2k+ l,_ƒ,`(ot)=0
sieinpre queasea una combinación lineal de al, _ _ _ , a,,. Los funcionales j§,+,, _ _ _ ,
/,, son independientes, de modo que todo lo que se debe demostrar es que ge-
neran W°_ Supóngase que f está en V*. Entonces
f=âmm
de modo que si f está en W° se tiene f(a,) = 0 para i S k y
f= É sam.
i=k-I-1
y que se desea hallar el anulador del subespacio generado por estos vectores.
Como un funcional lineal típico sobre F" tiene la forma
ƒ(xl;- - -yxn) = clx1+ '°' +cnxn
šA¡¡'C¡=0, 2:-`=1,...,7ì'l.
j-1
esto es, que (c,_ _ _ _ _ c,,) sea una solución del sistema AX = 0. Desde este punto
de vista. la reducción por filas da un método sistemático para hallar el anula-
dor del subespacio generado por un conjunto finito de vectores de F".
A 2 -_ __ _- ]--D R = [ -
Oi-IN) r-*[000
jã}lA,-,~c,- = 0, IS i S-4.
listo es equivalente a
R,,-¢=,=o, tgigs
_1=l
o
C1'-C2-C4=0
Ca+2C4=0
c5=0_
¡U4 A lgr-bra lineal
Ejercicios
I. En R-3, S63. ot¡ = (1, 0, 1), 0:2 =.(0, 1, -2), 0:3 = (_-1, -1, 0)
(a) Si f es un funcional lineal sobre R3 tal que
f.<i›› = L' po) dx. fio) = L” i›<=¢› dx, fio) = L" iio) dx.
Demostrar que {_f,, fz, f3} es una base de V*, presentando la base de V de la cual ésta
es dual.
5. Si A y B son matrices complejas n x n, hacer ver que es imposible que AB - BA = I.
I`run.\_'/urnmi'times lineales 10.5
o. Sean ni y n enteros positivos y F un cuerpo. Sean fl, _ _ _ ,f,,, funcionales lineales en F"_
Para oz eii F" define
Ta = (ƒ1(a)i - - - ;ƒm(a))-
Demostrar que T es una transformación lineal de F" en F"'. Demostrar luego que toda
transformación lineal de F" en F"' es de la forma anterior para ciertos fii . _ _ , _f,,,_
7_ Sga al = (1, 0, _ 1, 2) y az = (2, 3, 1, 1) y sea W el subespacio de R4 generado por
1, y otz. ¿Qué funcionales lineales fr
f(I1, $2, Ia, $4) = 01211 + 62252 + Caflïa + 04%;
están en el anulador de W?
8. Sea W el subespacio de R5 generado por los vectores
ai=ei+2e2+¢¢, a2=e2+3ei+3¢i+ei
0¢z=€1+4€2+6€a+4€4+€s-
llallar una base de WB.
9. Sea V el espacio vectorial de todas las matrices 2 x 2 sobre el cuerpo de los números
reales, y sea
2 -2
B ` [-1 1]'
Sea W el subespacio de V que consta de todas las A tales que AB = 0. Sea f un funcional
lineal sobre V que está en el anulador de W. Supóngase que f(I) = 0 y f((') = 3, donde
I cs la matriz identidad 2 x 2 y
O O
C"B J'
nanrflai
I0. Sea F un subcuerpo de los números complejos. Se definen n funcionales lineales en
F" (n 2 2) por
ƒ,,(:i:¡, _ _ _ , :t:,,) = Él (lc - _7):t:,-, 1 S ¡G S fl-
,_
¿Cuál es la dimensión del subespacio anulado por fi. _ _ _, _f,,?
II. Sean W, y W2 subespacios de un espacio vectorial V de dimensión finita.
(a) Demostrar que (W, + W2)° = WP (j
(b) Demostrar que (W, O W2)° = W? + Wf.
l2_ Sea V un espacio vectorial de dimensión finita sobre el cuerpo F y sea W un subespa-
cio de V. Si _f es un funcional lineal sobre W, demostrar que existe un funcional lineal g
sobre V tal que g(a) = f(a) para todo ot del subespacio W.
I3. Sea F un subcuerpo del cuerpo de los números complejos y sea V cualquier espacio
vectorial sobre F. Supóngase que f y g son funcionales lineales sobre V tales que la función
Ii definida por h(a) = f(ot)g(ot) sea también un funcional lineal sobre V. Demostrar que
_ƒ=0og=U_
I4_ Sea F un cuerpo de característica cero y sea V un espacio vectorial de dimensión finita
sobre F. Si 01,, _ _ _ , fz,, son un número finito de vectores de V, distintos del vector nulo, de-
mostrar que existe un funcional lineal f sobre V tal que
ƒ((I¡)_7¿0, 1:=l,...,m.
"M Álflrlirtt ltmwl
15. De acuerdo con el Ejercicio 3, las matrices semejantes tienen la inisma traia. lïntoiicesi
se puede definir la traza de un operador lineal en un espacio de diniensioii linita como Iii
traza de cualquier matriz que represente al operador en una base ordenada. Esta está hieti
definida, ya que todas las matrices que representan un operador son semejantes.
Sea ahora V el espacio de todas las matrices 2 x 2 sobre el cuerpo F y sea P una matrir
2 x 2 dada. Sea T el operador lineal sobre V definido por T(A) = PA _ Demostrar que
traza (T) = 2 traza (P).
16. Demostrar que el funcional traza de una matriz n x n es único en el siguieiite sentido.
Si W es el espacio de las matrices n x n sobre el cuerpo F y si f es un funcional lineal sobre
W tal que f(AB) = f(BA) para todo A y B de W, entonces f es un múltiplo escalar de la
función traza. Si además f(I) = n, entonces f es la función traza.
17. Sea W el espacio de las matrices n x n sobre el cuerpo F y sea Wo el subespacio ge-
nerado por las matrices C de la forma C = AB - BA. Demostrar que WO es exactamente
el subespacio de las matrices que tienen traza cero. (Indicación: ¿Cuál es la dimensión del
espacio de las matrices de traza cero? Considerar las matrices «básicas››, es decir, las ma-
trices que tienen solo un elemento no nulo, para construir suficientes matrices linealmente
independientes de la forma AB - BA.)
LU) = f(01)
para l`0d0 f de V*.
Li(f¡) = 515-
Por el corolario anterior, para todo i existe un vector oz, de V tal que
L-=(ƒ) = f(a.-)
para todo f de V*; es decir, tal que L, = Lai. Se sigue inmediatamente que
{a,, _ _ _, oz,,} es una base de V y que (B* es la dual de esta base. I
obsen/ado que cada subespacio W está determinado por su anulador W”. ¿Cómo
está determinado? La respuesta es que W es el subespacio anulado por todos
los f de WO; esto es, la intersección de los espacios nulos de todos los _/ en Wo.
Con nuestra actual nomenclatura para anuladores, la respuesta puede escri-
birse en forma muy simple: W = (W°)°_
Los resultados de esta sección son válidos para espacios vectoriales arbi-
trarios; sin embargo, las demostraciones requieren el uso del llamado axioma
de elección. Queremos evitar enredarnos en una larga discusión de ese axioma,
de modo que no se abordarán los anuladores en espacios vectoriales generales.
Pero hay dos resultados respecto a funcionales lineales en espacios vectoriales
arbitrarios, tan fundamentales, que se daran a continuación.
Sea V un espacio vectorial. Queremos definir hiperespacios en V. A menos
que V sea de dimensión finita, no se puede hacer eso considerando la dimensión
del hiperespacio. Pero se puede expresar la idea de que un espacio N tiene apenas
una dimensión menos que V, de la siguiente forma:
1. N es un subespacio propio de V;
2. si W es un subespacio de V que contiene a N, entonces W = N o
W = V.
Las condiciones (1) y (2) en conjunto dicen que N es un subespacio propio y
que no existe un subespacio propio mayor; vale decir, N es un subespacio pro-
pio maximal_
5*' *|°'““-`““'irá que todo vector de V está en el subespacio generado por Nƒ y ot.
¡W *"h°`f¬`Patcio consta de todos los vectores
'y+cot, yen N¡,cen F.
Seu /l cn V/_ Se define
_ aa
3° " f<«›
*|"*f` tiene Sientido porque f(ot) 9€ 0. Entonces el vector y = ,6 ~ ca pertenece
ii N¡, ya qlue
flfi=fiB-M)
= {)(i6) _ 0ƒ(a)
= M.
° f<«›
El funcimial lineal h = g - cf es 0 sobre Nƒ, ya que tanto f como g son ahí 0
Y Ma) = êg(ot) - cf(a) = 0. Así h es 0 en el subespacio generado por N, y ot
`"Y ese Slubespacio es V. Se concluye que h = 0; es decir, que g = cf.
Con lo que h es un funcional lineal en V y (3-16) dice que h(ot) = 0 para todo
oi en N,,. Por el lema anterior h es un múltiplo escalar de /¿_ Si h = c,,j§,, entonces
g = râtciƒi-2 I
Ejercicios
l. Sean un entero positivoy Fun cuerpo. Sea Wel conjunto de todos los vectores (x,, _ _ _ ,x,,)
de F" tales que xl +--' +x,,=0_
(a) Demostrar que W° consta de todos los funcionales lineales f de la forma
fl
(b) Hacer ver que el espacio dual W* de W puede identificarse «naturalmente›› con
los funcionales lineales
¢ o u ,x¶¡,) 2 --O + cnxn
W == .ñl Nm-
sión (m - r). Por la primera afirmación de este teorema la nulidad de T' debe
ser (m «- r). Pero entonces, como T' es una transformación lineal en un espacio
de dimensión m, el rango de T' es m - (m _ r) = r, y así Ty T' tienen el mismo
rango. Para (ii): Sea N el espacio nulo de T. Todo funcional en la imagen de
T' está en el anulador de N; en efecto, supóngase que f = T'g para algún g
en W*; entonces, si oc está en N
f(0=) = (T'9)(°=) = 9(T0=) = 91(0) = '0-
Ahora bien, la imagen de T' es un subespacio del espacio NO, y
dim No = n - dim N = rango (T) = rango (T')
con lo que la imagen de T' debe ser, exactamente, N°. I
Demostración. Sea
(B: {a1;---;an}› (B': {Bl›°°'›B1"}r
(B* = {ƒl› ~ ~ - ›ƒfl}› al* = {gl› ~ ° ° › gM}°
Por definición,
Taj: ï`¡A.,'¡fl¡, j=l,...,7l
¡-1
T'9›' = Bfifo Í = 1, - - - › m-
Por otro lado, 'cl
(T'a,-)(a-) = Q,-(Ta.-)
= ¶1'( § Ákifik)
it=1
= ini AH!h'(5k)
tt-1
= gl Ákiöƒk
tt-1
= Ají.
f.= f<«t›f.».
Si se aplica esta fórmula al funcional f = T g_,- y se considera que (T'g¡)(a¡) = A¡,-,
se tiene
T'9f = Él A1'-'ff
T(xl›---txn) = (Í/lt---:Í/fu)
donde
n
2/í = E Á¡¡Z¡.
ƒI=l
Ejemplo 25. Este ejemplò será de carácter general; más bien una discu-
sión que un ejemplo. Sea V un espacio vectorial de dimensión n sobre el cuer-
po F y sea T un operador lineal sobre V. Supóngase que G3 = {a,, .. . , a,,}
es una base ordenada de V. La matriz de T en la base ordenada G3 está definida
como la matriz n x n, A, tal que
Taj: _ É; A..a.
:J 1
1-1
o sea, que AU- es la i-ésima coordenada del vector Taj en la base ordenada G3.
Si {ƒ1, . . _ , fi,} es la base dual de G3, esto puede enunciarse simplemente
Ai; = f='(T<1f)-
I 14 /I lg:-hru Itm-al
= [U`1]<BlT]rB[U]m'
= [U]<š`[T]a[U]a
lo que, precisamente, es la fórmula para el cambio de base ya conocida.
Ejercicios
l. Sea F un cuerpo y sea I el funcional lineal cn F2 definido por _/'(.\',. tz) = ax, + h_\'¿.
Para cada uno de los siguientes operadores T. hágase g = T'/' y hállcse _2(.\',. xz).
(11) T(fin, 12) = (rn. 0);
(b) T(331, $2) = (""332› 331);
(C) T(I¡, Ig) = ($1 _' $2, $1 + $2).
2. Sea V el espacio vectorial de todas las funciones polinomios sobre cl cuerpo dc los nú-
meros reales. Sean a y b dos números reales fijos y sea f el funcional lineal cn I' definido por
t›
ƒ(z›) = L z›(r)dr.
Si D es el operador derivación sobre V. ¿qué es Df/"P
3. Sea V el espacio de las matrices n x n sobre el cuerpo F y sea B una matri? n ›< n dada.
S1 Tes un operador lineal sobre V definido por T(Al = AB - BA y si _/ es la función tra/a.
¿qué es T'j`?
4. Sea V el espacio vectorial de dimensión finita sobre cl cuerpo F y sea T un operador
lineal sobre V. Sea c un escalar y supóngase que existe un xcctor no nulo x cn l` tal que
Tot = ca. Demostrar que existe un funcional lineal no nulo /' en I' tal que T't = t-/_
5. Sea A una matriz m ›< n de elementos reales. Demostrar que A = 0 si. _\ solo si.
traza (A'A) = 0.
I tutt.\lm'ntm'lumti ltm-ul:-.i I1S
ti. Sea n un entero positivo y sea V el espacio de las funciones polinomios sobre el cuerpo
-lt- los números reales que tienen grado n a lo más; es decir, funciones de la forma
f(2=)=¢r›+c1z+ +¢=.2=”.
\t-;| I D el operador derivación sobre V. Hallar una base del espacio nulo del operador trans-
pitvslo D'.
7. Sea V un espacio vectorial de dimensión finita sobre el cuerpo F. Demostrar que T-› T'
es un isomorfismo de L(V, V) sobre L(V*, V*).
H. Sea V el espacio vectorial de las matrices n x n sobre el cuerpo F.
la) Si B es una matriz n x n dada, se define una función fa sobre V por fB(A) = tra-
/.: (B'A). Demostrar que f, es un funcional lineal en V.
lb) Demostrar que todo funcional lineal sobre V es de la forma anterior, es decir, es
tu para algún B.
lc) Demostrar que B-›fB es un isomorfismo de V sobre V*.
4. Polinomios
4.1 . Algebras
Iló
['t›Itnuntm.s I I7
= ftgi-¡hn-s
1-0J=0
n n-j
= ¡go fi ¿E0 gihn-1'-j
ƒ = ¢=o
§ ft-w* y 9 = ¡-0
E ¿WI
Entonces de (4-7) se tiene
donde la suma se extiende sobre todos los pares de enteros i, j tales que
0$iSm'y0SjSn.
entonces
B = [-1 2]
a+t-; si-ts; si
(c) Si G es el álgebra de todos los operadores lineales en C3 y T es el ele-
mento de (1 dado por
T(c¡, c2, ca) = (í\/ã ct, cg, ca)
I'ulmutntm I JI
f= i=0
Ef.-w* y g= j=0
Earri-
Por (4- l 0),
f9 = ffyĒvifi
Y | uegó Por ',
(1) (ƒgxa) = "J
ƒigjam
= f-“*)gf“f)
= f(«›g<«›. I
lzjercicios
3. Sea A una matriz diagonal n x n sobre el cuerpo F, es decir. una matriz para la cual
Aü- = 0 para i =¡ë j. Sea f el polinomio sobre F definido por
f= UI- An) ($- Am)-
¿Cuál es la matriz ƒ(A)?
4. Si f y g son polinomios independientes sobre el cuerpo F y h es un polinomio no nulo
sobre F. Demostrar que fh y gh son independientes.
5. Si F es un cuerpo, demostrar que el producto de dos elementos no nulos de F°° es
no nulo.
6. Sea S un conjunto de polinomios no nulos sobre el cuerpo F. Si no hay dos elementos
de S que tengan el mismo grado, demostrar que S es un conjunto independiente de F[x].
7. Si a y b son elementos de un cuerpo F y a =,¿ O, demostrar que los polinomios 1, ax + b.
(ax + b)2, (ax -i- b)3, . . . forman una base de F[x].
8. Si F es un cuerpo y h es un polinomio sobre F de grado 21, demostrar que la aplica-
ción f -› f(h) es una transformación lineal inyectiva de F[x] en F Demostrar que
esta transformación es un isomorfismo de F[x] sobre F[x] si, y solo si, grd h = 1.
9. Sea F un subcuerpo de los números complejos y sean T, D las transformaciones sobre
F[x] definidas por
T( š 61.-) š __fi_ xau
¿-0 ' ¡-0 1 + 'Í
Y
1% _ fl . _
D(2 c,-ra) = Z zc¡:c'“1.
¡-0 ¿-1
(a) Demostrar que T es un operador lineal no singular sobre F Demostrar también
que T no es inversible.
(b) Demostrar que D es un operador lineal sobre F[x] y determinar su espacio nulo.
(c) Demostrar que DT = I y que TD =ƒ= I.
(d) Demostrar que T[(Tf)g] = (Tƒ)(Tg) - Tj(Tg) para todo f, g en F[x].
(e) Formular y demostrar una ley para D análoga a la dada para T en (d).
(f) Supóngase que V es un subespacio no nulo F[x] tal que Tf pertenezca a V para
todo f de V. Demostrar que V no es de dimensión finita.
(g) Supóngase que V es un subespacio de dimensión finita de F[x]. Demostrar que
existe un entero m 2 0 tal que D"'f = 0 para todo f en V.
Por supuesto, que, para que sea así, es suficiente (en referencia al Teorema 15
del Capitulo 3) que {L0, L1, . . . , L,,} sea el dual de una base {P0, Pl, . . . , P,,}
de V. A lo más existe una de.tales bases y si existe está caracterizada por
(4-ll) L¡(P¢) = Piar) = 5o'-
l.os polinomios
_ se-r»›---tx-tf-›<xc-tf››--~e-ra
(442) P' <r.›-tt) a.- - i.-.l›(¢. -rifa) (it-1,.)
__ x _"
¡gi (ir _ ti
son de grado n, luego pertenecen a V, y por el Teorema 2 satisfacen (4-11).
Si f = c¡P,, entonces para todo j,
(4-13) fat) = 0¢P='(¿¡) = 01'-
Como el polinomio 0 tiene la propiedad que 0(t) = 0 para todo t en F, se sigue
de (4-13) que los polinomios PO, PI, . . . , P, son linealmente independientes.
Los polinomios 1, x, . . . , x" forman una base de V y, por tanto, la dimensión
de V es (n + l). Asi el conjunto independiente {P0, Pl, . . . , P,,} tiene que ser
también una base de V. Con lo que para todo ƒ de V
(4-14) f = _f:of(¢t›Pt.
La expresión (4- 14) se llama la fórmula de interpelación de Lagrange. Poniendo
f = xl en (4-14), se tiene
xr = ã <¢t›fP.-.
1'-0
1t..t2---tt:
es inversible. La matriz en (4-15) se llama una matriz de Vandermonde; es un
ejercicio interesante demostrar en forma directa que tal matriz es inversible
cuando to, tl, . . . , t,, son n + l elementos distintos de F.
Si f es cualquier polinomio sobre F, en el presente tratamiento se represen-
tará por f" la función polinomio de F en F que aplica todo t de F en f(t). Por
definición (véase Ejemplo 4, Capítulo 2), toda función polinomio surge de esta
forma; sin embargo, puede suceder que f" = g` para dos polinomios f y g
tales que f =¡ë g. Afortunadamente, como se verá, esta situación poco placen-
tera solo sucede en el caso en que F es un cuerpo que tiene un número finito
de elementos distintos. Para describir en forma precisa` la relación entre poli-
nomios y funciones polinomios, se necesita definir el producto de dos funcio-
I)-I .-llgchru lun-al
f= šC¡íC¡ _
a=o
con coeficientes c,- en F. Entonces
flw=šaw
e-o
y como T-› [T]¿B es una aplicación lineal,
tfwn@ = t-o
55 C.-[Usa
Ahora, del hecho adicional que
[T|T2]m = [T1]<s[T2]m
para todo T1, T2 en L(V, V), se sigue que
Ejercicios
l. Usando la fórmula de interpolación de Lagrange, hallar un polinomio f, con coeficien-
tes reales, tal que f tenga grado 53 y que f(- l) = -6, f(O) = 2. f(l) = -2, j`(2) = 6.
2. Sean oz, B, y, ô números reales. Se pregunta, ¿cuándo es posible hallar un polinomio
fsobre R, de grado no mayor que 2, tal que f(-l) = ot, fll) = Il, _/'(3) = 'y y f(O) = 6'?
Demostrar que ello solo es posible si. y solo si
3a + 66 - 'r - 85 = 0~
A-l
3. Sea F el cuerpo de los números reales,
5. Sea n un entero positivo y F un cuerpo. Supóngase que A es una matriz n x n sobre I-` y
P una matriz n x n inversible sobre F. Si f es cualquier polinomio sobre F, demostrar que
ƒ(P`1AP) = P“1ƒ(A)P.
6. Sea F un cuerpo. Se han considerado ciertos funcionales lineales especiales en F[xl
obtenidos por «evaluación en t››: _
LU) = f(t)-
Tales funcionales no son solo lineales, sino que también tienen la propiedad _de que L(fg) =
L(f)L(g). Demostrar que si L es cualquier funcional lineal sobre F[x] tal que
L(f¶) = L(ƒ)L(0)
para todo f y g, entonces L = 0, o existe un t en F tal que L(_ƒ) = f(t) para todo f.
d=b»$"+ E biílïi 1
1'-0
Entonces m 2 n, y
Usando este lema se puede ver ahora que el proceso familiar de división
de polinomios con coeficientes reales o complejos puede hacerse sobre cual-
quier cuerpo.
es el polinomio
ƒ' = ct + 2c2a: + - -- + nc,,:t:"“1.
f = k=550 (9,-P
-
(olx - cr.
Demostración. La fórmula de Taylor es una consecuencia del teorema
del binomio y la linealidad de los operadores D, D2, . . . , D". El teorema del
binomio es fácilmente demostrable por inducción y dice que
(a + b)m = g am-lt bh
donde k=°
(tn) ml __ m(m - l)_- - - (rn + 1))
lc kl(m-k)l 1-2---lc
son los conocidos coeficientes binomiales que dan el número de combinacio-
nes de m objetos tomados de k en k. Por el teorema del binomio
w” = [C + (w - ¢)]"'
= É) c"'*"(:c - c)'°
k==0
ƒ= E a,,,a:"'
m=0
CÍIIOIICCS
D'*f(C) = 23 ¢1››»(D'°=v"')(C)
Y
= Eamx”
118
=f- I
Í 'nltmmtln \ 1:9
(`omo hay solo una manera de escribir f como combinación lineal de las po-
tencias (x - c)" (0 5 k 5 n), se sigue que
0si0SkSr-1
(D'“ƒ)(Q =
la D'°"'g(¢)
Fm si r S lc S n.
Ejercicios
l. Sea Q el cuerpo de los números racionales. Determinar cuáles de los siguientes subcon-
juntos de Q[x] son ideales. Cuando el conjunto es un ideal, encontrar su generador mónico.
(a) todos los f de grado par;
(b) todos los f de grado 25;
(c) todos los f tales que f(O) = 0;
(d) todos los f tales que f(2) = f(4) = 0;
(e) todos los f en la imagen del operador lineal T definido por
fl fl _
T( '_ i) = _ C' i+1_
tšo C x tšo 2 + 1 x
3. Sea A una matriz n x n sobre el cuerpo F. Demostrar que el conjunto de todos los poli-
nomios f en F[x], tales que f(A) = 0, es un ideal.
l 't rltnonttos l 33
A _ [01 -2
3].
I-ncontrar el generador mónico de ideal de todos los polinomios f en F[x] tales que
/(A) = 0.
S. PSea F un cuerpo. Demostrar que la intersección de cualquier número de ideales en
I-'[x] es un ideal.
ti. Sea F un cuerpo. Demostrar que el ideal generado por un número finito de polinomios
/',, _ . . , f, en F[x] es la intersección de todos los ideales que contienen a f,, _ _ _ , jÍ,.
7. Sea K un subcuerpo de un cuerpo F y supóngase que f, g son polinomios en K[x]. Sea
.MK el ideal generado por f y g en K[x] y MF el ideal que ellos generan en F [x]. Demos-
trar que MK y MF tienen el mismo generador mónico.
donde pl, _ _ _ , p,,, y q,, _ _ _ , q,, son primos mónicos de F[x]. Entonces pm divide
al producto ql - - - q,,. Por el corolario anterior. p,,, debe dividir a algún q,_ Como
q, y pm son ambos primos mónicos, ello quiere decir que
(4-16) Q@ = P-›~
Por (4-l6) se ve que m = n --= l si ni = l o n = l. En efecto,
l n este caso no hay más que demostrar, así que se puede suponer que m > 1
t n .“› I. Rcordenando los q se puede suponer entonces que pm = q,, y que
pl ' ° ' pm-lpm = ql ' ' ' qu-lpnv
se ve que pk debe dividir pkƒi. Por tanto, p, divide a f o a p,f. Pero p, no divide
a fi, pues los p,, _ _ _ , pk son distintos. Así pi divide a p,f. Ello no es posible, pues
p,f tiene un grado menor que el grado de p¿. Concluimos que ningún primo di-
vide a f y a f', o que f y f' son primos relativos. |
Definicióii. El cuerpo F se llama algebraicamente cerrado si todo polinomio
primo sobre F tiene grado l.
Para decir que F es algebraicamente cerrado, todo polinomio mónico irredu-
cìble no escalar sobre F debe ser de la forma (x - c). Ya hemos observado
que todo polinomio de éstos es irreducìble para cualquier F. En consecuencia,
una definición equivalente de un cuerpo algebraicamente cerrado es la de cuer-
po F tal que cada polinomio no escalar f en F[x] puede ser expresado en la
forma
.f = ¢(rv - ¢i)"' (Iv - 00""
donde c es un escalar, cl, _ _ _ , ck son elementos distintos de F, y nl, _ _ _ , nk son
enteros positivos. Otra formulación es que si f es un polinomio no escalar sobre
F, entonces existe un elemento c en F tal que f(c) = 0.
El cuerpo R de los números reales no es algebraicamente cerrado, pues el
polinomio (x2 + 1) es irreducìble sobre R, pero no es de grado 1, o porque
no existe número real c tal que cz + 1 = 0. El llamado teorema fundamental
del álgebra dice que el cuerpo C de los números complejos es algebraicamente
cerrado. No se demostrará este teorema; sin embargo, se lo usará más adelante
l'nlnn›n|h›.s I _! 7
Ejercicios
1. Sea p un polinomio mónico sobre el cuerpo F y sean f y g polinomios primos relativos
sobre F. Demostrar que el m.c.d. de pf y pg es p.
2. Suponiendo demostrado el teorema fundamental del álgebra, demostrar lo siguiente.
Si f y g son polinomios sobre el cuerpo de los complejos. entonces el m.c.d. (f, g) = l si.
y solo si. f y g no tienen raíces en común.
3. Sea D el operador de la derivación en el espacio de los polinomios sobre el cuerpo de
los números complejos. Sea f un polinomio mónico sobre el cuerpo de los números com-
plejos. Demostrar que
f= (w-ci) (I-ci)
donde c,, _ _ . , ch son números complejos distintos si, y solo si, f y Df son primos relativos.
En otras palabras, f no tiene raíces repetidas sino si, y solo si, f y Df no tienen raíces co-
munes. (Supóngase el teorema fundamental del álgebra.)
4. Demostrar la siguiente generalización de la fórmula de Taylor. Sean f, g y h polinomios
sobre un subcuerpo de los números complejos, con grdf 5 n. Entonces
11
fa) = k=ok.
2 l,f<*>(h›<g - W.
(Aquí f(g) representa «f de g››.)
Para el resto de los ejercicios se necesita la siguiente definición. Si f, g y p son polino-
mios sobre el cuerpo F con p qé 0, se dice que f es congruente con g módulo p si (f - g) es
divisible por p. Si f es congruente con g módulo p. se escribe
E 2 mód p.
138 A Igrbru llnruf
5. Demostrar que para todo polinomio no nulo p, la congruencia módulo p es una rc-
lación de equivalencia. Es decir:
(a) Es reflexiva; f E f mód p.
(b) Es simétrica; si f E g mód p, entonces g E f mód p.
(c) Es transitiva; si f 2 g mód p y g E h mód p. entonces ƒ 2 h mód p.
6. Supóngase que f 5 g mód p y fl E gl mód p.
(a) Demostrar que f + f, _=.. g + g, mód p.
(b) Demostrar que _[f¡ E gg, mód p.
7. Usando el Ejercicio 7, demostrar lo que sigue. Si f, g, h y p son polinomios sobre el
cuerpo Fy p =¡L 0 y si f E g mód p, entonces h(f) E h(g) mód p.
8. Si p es un polinomio irreducìble y fg E 0 mód p, demostrar que f E 0 mód p 0
g E 0 mód p. Dar un ejemplo que muestre que esto es falso si p no es irreducìble.
5. Determinantes
I39
HU .-I l_rn'Iu-u lmvul
D1(A) = An/122
= -"A12A21.
Por el lema anterior, D es una función 2-lineal. El lector que haya tenido alguna
experiencia con los determinantes, no se sorprenderá de este resultado, ya que
I )¢'la'rn|h|unh'.\ I4_!
Demostraremos más adelante que toda función n-lineal D que cumple (a),
automáticamente cumple (b). Hemos puesto las dos condiciones en la defini-
ción n-lineal alternada por razones de conveniencia. El lector probablemente
observará que si D satisface (b) y A es una matriz con dos filas iguales, entonces
D(A) = -D(A). Es tentador concluir que D satisface también la condición (a).
Esto es cierto, por ejemplo, si K es un cuerpo en el que 1 + l =,é 0, pero en ge-
neral (a) no es consecuencia de (b).
Si D es alternada, entonces
Lema. Sea D una función 2-lineal con la propiedad de que D(A) = 0 para
todas las matrices 2 x 2, A, sobre K que tienen filas iguales. Entonces D es al-
ternada.
Demostración. Lo que hay que demostrar es que si A es una matriz 2 x 2
y si A' se obtiene intercambiando las filas de A, entonces D(A') = -D(A).
Si las filas de A son oz y B, ello quiere decir que se debe demostrar que D(B, ot) =
-D(a, B). Como D es 2-lineal,
= BUBQQ * BQBQ1.
l Aiƒ _ A2:
Au A-13
A + Aa Aa
A-12 A-13
Aa ¡A 32 Aaa /123
i/121 Aa A An
r A-13 _A32 All Ala'
(5'7) E2(A) = _/112 + 22ÍA3l
Aa Aa Aa A21 Aa
Ati A-ii An Am :A 11 A 12.
(5'8) Ea(A) = A13 _' Aaa -I-Aaa
_A31 A32 ¿A 31 Aa Am A-22;
Se sigue del Teorema 1 que E1, E2, E3 son funciones determinantes. En reali-
dad, como se verá más adelante, E1 = E2 = E3, pero esto no se ve, incluso
en este caso sencillo. Se podria, sin embargo, comprobar en forma directa desarro-
llando cada una de las expresiones anteriores. En vez de hacerlo se dan algunos
ejemplos concretos.
I -' n tonces
E,<A›=e-1›“";2 xì3|=<x-1›(±-2)@-3)
E,(A)= -3,-ig xì3|+(;i;-2)xB.1 xï3`
= (w = l)(=v - 2)(=v - 3)
y
E3(Á)=x8 _ -xšl É -I-(22-3)xB-1 $232!
'o 1«
I i
lzjercicios
I. Cada una de las siguientes expresiones define una función D sobre el conjunto de las
matrices 3 x 3 sobre el cuerpo de los números reales. ¿En qué casos es D una función
l-lineal?
(3) D(A) = An 'l' Aaa 'l' Aaa;
(b) D(A) = (/111)* + 3A¡¡A2-¿;
(C) D(A) = AnA12/ist;
(Ó) D(A) = At:/122-422 'l' 5/112A22/1:2;
(0) D(A) = 0;
(f) D(A) = 1.
2. Verificar directamente que las tres funciones E1, E2, E3 definidas por (5-6), (5-7) y (5-8)
mn idénticas.
4. Sea A una matriz 2 x 2 sobre un cuerpo F. Demostrar que A es inversible si, y solo si,
det A ql= 0. Si A es inversible, dar una fórmula para A".
5. Sea A una matriz 2 x 2 sobre un cuerpo F y supóngase que A2 = 0. Demostrar que
para todo escalar c, det (cl - A) = cz.
6. Sea K un subcuerpo de los números complejos y n un entero positivo. Sean _¡`,, . . . _ /,,
y k 1, . . . , k,, enteros positivos no mayores que n. Para una matriz n x n sobre K se delìne
D(A) = A(J'i. k›)A(1'2,kz) A(1'»,k»)-
Demostrar que D es n-lineal si, y solo si, los enteros j,, . . . , j,, son distintos.
7. Sea K un anillo conmutativo con unidad. Demostrar que la función determinante
sobre las matrices 2 x 2, A, sobre K es alternada y 2-lineal como función de las colum-
nas de A.
8. Sea K un anillo conmutativo con unidad. Se define una función D sobre las matrices
3 x 3 sobre K por la regla
1_›<A›=A,,det[Aï
A
Ai]-A.,aa[A:;
A A
A:J+A.,da[A§:
A A A
Demostrar que
(a) rango (A) = 2 si, y solo si, (c¡, cz, c3) =# 0;
(b) si A tiene rango 2, entonces (c,, cz, c¿,) es una base para el espacio de las solucio-
nes del sistema de ecuaciones AX = 0.
ll. Sea K un anillo conmutativo con unidad y sea D una función altemada 2-lineal sobre
las matrices 2 x 2 sobre K. Demostrar que D(A) = (det A )D(l) para toda A. Usar este
resultado (no son lícitos cálculos con los coeficientes) para demostrar que det (AB) =-
(det A)(det B) para cualesquiera matrices 2 x 2, A y B, sobre K.
12. Sea F un cuerpo y D una función sobre las matrices n x n sobre F (con valores en F).
Supóngase que D(AB) = D(A)D(B) para todo A, B. Demostrar que D(A) = 0 para toda
A, o bien D(l) = l. En este último caso demostrar que D(A) =;ë 0 si A es inversible-
13. Sea R el cuerpo de los números reales y sea D una función sobre las matrices 2 x 2
sobre R, con valores en R, tales que D(AB) = D(A)D(B) para cualesquiera A, B. Supón-
gase que, además,
O 1 1 O
D(|:1 0:i)¢D([0
I li 'ti'rntlnmttes 149
I)t-mostrar que
(a) I)(0) = 0;
th) D(A) = 0 si/12 = 0;
(e) D(AB) = -D(A) si B se obtiene por intercambio de las filas (o columnas) de A;
(d) D(A) = 0 si una fila (o columna) de A es 0;
(e) D(A) = 0 si A es singular.
I-1. Sea A una matriz 2 x 2 sobre el cuerpo F. Entonces el conjunto de todas las matri-
ces de la forma f(A), donde f es un polinomio sobre F, es un anillo conmutativo con uni-
dad K. Si B es una matriz 2 x 2 sobre K, el determinante de B es entonces una matriz 2 x 2
sobre F, de la forma f(A). Supóngase que I es la matriz unidad 2 x 2 sobre F y que B es
I.i matriz 2 x 2 sobre K
B = [A - A111 -A121
-A211 A - A-¿J
Demostrar que det B = f(A), donde f = x2 - (An + A22)x + det A y también que
/(A) = 0.
Así, pues,
D(A) = A(l,j)A(2, k)D(e,-, ek, . . . , an).
2.
I-`n D(e,-, ek, . . _ , ak) se remplaza ahora oz, por 2 A(3_, 1)e¡ y asi sucesivamente.
Finalmente, se obtiene una expresión complicada, pero teóricamente impor-
tante de D(A), a saber,
,./
(5-10) D(A) =
E A(l, lc¡)A (2, kg) - - - A('n, lc,,)D(e¡,,, ¢¡,,, . . . , e¡,,,).
ki. ka. . . . . kn
¡S0 .-1 l,t.'c'hrn llmïll
En (5-10) la suma se extiende sobre todas las sucesiones (kk. k 2, _ _ _ _ k,,) de en-
teros positivos no mayores que n. Esto demuestra que D es una suma linila
_de funciones del tipo descrito en (5-2). Debe observarse que (5-10) es una con-
secuencia directa de la suposición de que D es n-lineal, y que un caso particular
de (5-10) se obtuvo en el Ejemplo 2. Como D es alternada,
y por (5-11)
esto es, el número (-l)'" debe ser el valor de D sobre la matriz de filas
6,1, _ ._ , e,,,,_ Si
D(¿¢l› - - ° t Gm) = la
IS2 fi l,l¦t'l›t'u lltwul
Así se tendrá que sgn (ar) = (sgn a)(sgn 1), una vez demostrado el siguiente
teorema.
Teorema 3. Sea K un anillo conmutativo con unidad y sean A y B matri-
ces n x n sobre K. Entonces
det (AB) = (det A)(det B).
Demostración. Sea B una matriz n x n dada sobre K, y para cada matriz
n x n, A, definase D(A) = det (AB). Si se designan las-filas de A por ak, _ _ _ _ ak,
entonces
D(C!1, . . . , (In) = (1813 ((!1B, . . . , (1nB).
y det es n-lineal; es fácil ver que D es n-lineal. Si oz, = or,-, entonces <x¡B = oz,-B,
y como det es alternada
D((11,...,a1¡)=O.
Ejercicios
I. Si K es un anillo conmutativo con unidad y A es la matriz sobre K dada por
O a b
A = -a O c
-b -c O
Demostrar que det A = 0.
2. Demostrar que el determinante de la matriz de Vandermonde
1 a a*
[1 _ M]
es (b - a)(c - a)(c - b). 1 C cz
154 A Levitra ltnrall
3. Escribir explícitamente las seis permutaciones de grado 3, decir cuáles son imparta
y cuáles son pares y usar esto para dar la fórmula completa (5-IS) del determinante de unn
matriz 3 x 3.
4. Sean 0 y 1: las permutaciones de grado 4 definidas por al = 2, 02 = 3, 03 = 4, a4 ¬-¬ I.
1:1=3,1:2=1, 1:3=2, 't:4=4_
(a) ¿Es 0 impar o par? ¿Es 1: impar o par?
(b) Hallar 01: y 1:0.
5. Si A es una matriz n x n inversible sobre un cuerpo, demostrar que det A 7€ 0.
6. Sea A una matriz 2 x 2 sobre un cuerpo. Demostrar que det (I + Al = 1 + det A
si, y solo si, traza (A) = 0.
7. Una matriz n x n, A, se llama triangular si AU = O, siempre que i > j 0 si A,-¡ =- ll
siempre que i < j. Demostrar que el determinante de una matriz triangular es el producto
A “An - = - A,,,, de los elementos de su diagonal.
8. Sea A una matriz 3 x 3 sobre el cuerpo de los números complejos. Formamos la matri?
xl - A con elementos polinomiales, siendo el elemento i, j de esta matriz el polinomio
6,,-x - A,-¡_ Si f = det (xl - A), demostrar que f es un polinomio mónico de grado 3.
Si se escribe
f = (15 _ C1)(1? _ 02)@ '_ Ca)
con números complejos cl, cz y ek, demostrar que
= det A
que demuestra (5-17).
En ciertas ocasiones se necesita calcular determinantes dados. Cuando ello
es necesario, suele ser útil aprovechar la siguiente propiedad. Si B se obtiene
de A por la adición de un múltiplo de una fila de A a otra (o un múltiplo de una
columna a otra), entonces
(5-is) deis = dem.
I50 A lgi-bm ¡tm-al
A: __.
- -4
E5ee
OOO'-* C»0CJ'tl-Pl- I-*¢D|-PN) -3
que según (5-18) tiene la misma matriz que A. Si se resta É veces la fila 2 de la
fila 3 y luego se resta % veces la fila 2 de la fila 4. se tiene
B= _
C-'i = (“1)i+id0l1A(í|_Í)
entonces la expresión anterior dice que para cada j
detA = É A¡'C¿~
J J
¡=1
0 -= detB
B'_1 1 x ix -_ 2].
1 2
A"i3 -tj'
Entonces det A = -2 y
_ 4 -2
”'d1A”|:-3 1j`
Asi que A no es inversible como matriz sobre el anillo de los enteros; sin em-
bargo, se puede también considerar A como matriz sobre el anillo de los nú-
meros racionales_ En tal caso A es inversible y
MU .-l l_ei-bm lineal
:fi-tf; 11
En relación con matrices inversibles queremos mencionar otro hecho ele-
mental. Las matrices semejantes tienen el mismo determinante; esto es, si I' es
inversible sobre K y'B = P_1AP, entonces det B = det A. Esto es claro, pues
det (P“1AP) = (det P*1) (det A)(det P) = det A.
Esta simple observación permite definir el determinante de un operador lineal
sobre un espacio vectorial de dimensión finita. Si T es un operador lineal sobre
V, se define el determinante de T como el determinante de cualquier matri/
ri x n que representa a T en una base ordenada de V. Como todas esas matri-
ces son semejantes, todas tienen el mismo determinante y la definición tiene
sentido. Referente a esto véase el Ejercicio 11 de la Sección 5.3.
Se va a estudiar ahora la regla de Cramer para resolver sistemas de ecua-
ciones lineales. Supóngase que A es una matriz n x n sobre el cuerpo F y que
se desea resolver el sistema de ecuaciones lineales AX = Y para algún n-tuple
(yk, _ , y,,). Si AX = Y, entonces
(adj A)AX = (adj A)Y
y asi
(det A)X = (adj A)Y.
Con lo que n
(detA)f¢_- = 1=l
_ 2 (2-di A) 1 '
fl
x- = ---det
Bis j = 1 n
' detA ""'
donde B¡ es la matriz n x n que se obtiene de A remplazando la columna j de
A por Y.
Al concluir este capítulo deseamos hacer algunos comentarios que sirvan
para ubicar los determinantes en lo que se cree que es la perspectiva adecuada.
De vez en cuando es necesario calcular determinantes, y esta sección se dedicó par-
cialmente a métodos que facilitan tal trabajo. Pero el papel principal de los deter-
minantes en este libro es teórico. No se disputa la belleza de cuestiones como
la regla de Cramer. Pero la regla de Cramer es un instrumento ineficaz para
resolver sistemas de ecuaciones lineales, sobre todo porque supone demasia-
dos cálculos. Por tanto, uno debe concentrarse en lo que dice la regla de Cramer,
I ti-m'ntt'nunta'.r ¡M
mas bien que en cómo calcular con ella. Ciertamente, cuando refl6XÍ0f1am0S
sobre este capitulo, esperamos que el lector insista más en entender qué es la
Iimción determinante y cómo se comporta que en cómo se calculan delfifmi-
nantes de matrices dadas.
lzjercicios
I. Usar la expresión de la adjunta para calcular la inversa de cada una de 125 SÍÉUÍCUWS
matrices 3 x 3.
-2 3 2 eos 0 0 -sen 0
6 0 3 › 0 1 O
4 1 -1 sen 0 0 eos 0
2. Usar la regla de Cramer para resolver los siguientes sistemas de ecuaci0fl¢S 1ÍI1C3|€S
sobre el cuerpo de los racionales.
(a) :z:+ y+ z=l1
2:z:-6y- z= O
3x+4y+2z= O.
(b)3:z:-23,/= 7
33,/-2z= 6
32--2:¡:=-1.
3. Una matriz n x n, A, sobre un cuerpo F es antisimétrica si A' = -A. Si Á GS Uflfl ma-
triz n x n antisimétrica con elementos complejos y n es impar, demostrar qufi del A = 0.
4. Una matriz n x n, A, sobre el cuerpo F se dice ortogonal si A A' = I. Si A es 0fÍ080f13-1,
demostrar que det A = ±l Dar un ejemplo de una matriz ortogonal Paffi ¡H CU211
det A = -l.
5. Una matriz n x n, A, sobre el cuerpo de los números complejos se dic@ unitaria si
AA* = I (A* denota la transpuesta conjugada de A )_ Si A es unitaria. d€m0SU'3f QUC
|det A| = l.
6. Sean T y U dos operadores lineales sobre el espacio vectorial V de dim¢f1SÍÓfl fiflila-
Demostrar que
(a) det (TU) = (det T)(dCt U )_
(b) T es inversible si, y solo si, det T =/= 0.
7. Sea A una matriz n x n sobre K un anillo conmutativo con unidad. Sllpóflgasfi que
A tiene la forma bloque:
Al O ... 0
A=9 *_4:"'9
0 O Ah
donde las A_¡ son matrices rj x r¡. Demostrar que
un.
[62 _-I lgrhru ¡tm-al
(cic2)0¢ = Ci(02a)
la = a.
I)eterminantes I63
II*
Por consiguiente, det A 9€ 0. Pero como m < n, al menos una fila de A tiene
todos los elementos 0. Esta contradicción muestra que al, _ _ _, oc,,, no gene-
ran K". I
L(oz1,._.,coz,--l-B¡,_..,a,)=cL(a1,__.,oz¿,...,oz,-I-
L((X1,...,B¡,...,a,-).
Una función multilineal en V' se llama también forma r-lineal sobre V o forma
multilineal de grado r sobre V. Tales funciones se llaman r-tensores sobre V.
1);-temmnnm-.s ¡(53
l_a colección de todas las funciones multilineales sobre V' se denotará M'(V).
Si L y /ll pertenecen a M'(V), entonces la suma L + M:
(L -I- llÍ)(a1, _ _ _ ,a,) = L(a1, _ _ _ ,a,) -I- M(a¡, _ _ _ ,a,)
En (5-26) hay un término por cada n-tuple J = (jl, _ . . , j,) de enteros positi-
vos entre 1 y n. Hay n' de tales r-tuples. Así, pues, L está completamente deter-
minada por (5-26) y los valores particulares
CJ = L(f.1'u - ° ° 2 eiv)
asignados a los n' elementos (e,-1, . . _ , eh). Es también fácil ver que si para cada
r-tuple J se elige un elemento c¡ de K, entonces
(5-27) L(a1, . . . , af) = ã A(1,j¡) - - - Á(¶',j,)CJ
(L®M)®N=L®(M®N)-
Ello es inmediato por ser la multiplicación en K asociativa. Por tanto, si L1,
L2, . . . , L,, son funciones multilineales sobre V", . . _ , V"', entonces el producto
tensorial
L=L1®"°®L¡¢
l)¢'I¢'rtnhun|I¢'.s' I67
está definido, en forma inequívoca, como función multilineal sobre V', donde
r = rl + - - - + r,,. Se mencionó ya un caso particular al respecto. Si fl, _ . _ , f,
son funciones lineales sobre V, entonces el producto tensorial
L = fl ® ' ' ' ®ff
viene dado por
Í/(ax, - - - › af) = f1(0f1) ' ' ' ff(0ff)-
En otras palabras,
(5-31) L = ã CJEJ.
E.r(13~'»---›fi¡.) ={?'
Es decir, si se transponen dos de los vectores (con indices diferentes) del r-tuple
(oq, _ _ _ , a,), el valor asociado de L cambia de signo. Como toda permutación
a es un producto de transposiciones, se ve que L(a,,1, am) = (sgn 0)
L(ot¡, _ _ _ , ot,).
Se designa por A'(V) la colección de todas las formas r-lineales sobre V.
Es fácil ver que /\'(V) es un submódulo de M'(V)._
Ejemplo 12. Al comienzo de este capítulo se vio que sobre el módulo K"
existe precisamente una forma alternada n-lineal D con la propiedad de que
D(e1, _ _ _ , e,,) = 1. También se demostró. en el Teorema 2, que si L es cual-
quier forma de /\"(K"), entonces
L = L(G1, . . . , €,¡)D.
donde fl, _ _ _ , f,, son las funciones coordenadas canónicas sobre K" y la suma
se extiende sobre las n! permutaciones diferentes o del conjunto {l, _ _ _, n}.
Si escribimos el determinante de una matriz A como
detA = 2).(sgn a) A(al, 1) - - - A(on, n)
Hay un método general para asociar una forma alternada a una forma mul-
tilineal. Si L es una forma r-lineal sobre un módulo V y si o es una permutación
de {l, ___, r}, se tiene otra función r-lineal L, definiendo
L,(a1, _ _ . , 01,) = L(a,1, _ _ _ , an).
esto es.
(5-36) (1r,L) (a1, _ _ _ , a,) = Z (Sgn 0) L(a.¡, _ _ _ , a,,)_
Como o recorre (una vez) todas las permutaciones de {l, _ _ _ _ r}, también lo
hace ro. Por tanto,
(1r,L)(a,1, _ _ _ , a,,) = (sgn r)(1r,L)(a1, _ _ _ , a,).
Demostración. Sea {/31, _ _ _, /3,,} una base ordenada de V con base dual
{f1, f,,}_ Si L pertenece a M'(V), se tiene
L(B;'., - - - , B1.) = 0
siempre que dos de los índices ii sean iguales. Si r > n, entonces en cada r-tuple J
algún entero debe estar repetido. Con lo cual /\'(V) = {0} si r > n.
170 Algrlrra lllwal
para todo L de A'( V). La aserción es que las formas DJ constituyen una-
base de /\'(V). Hemos visto que generan /\'(V) y es fácil ver que son independien-
tes. Si I = (il, _ _ _, i,)' y J = (jl, _ _ _ , j,) son combinaciones, entonces
1, 1 = J_
DJ(Bíu ° ° ° 7 Bír) = I ;¿ J
define una forma n-lineal alternada LT. Sea M un generador para el rango 1
módulo /\"(V)_ Todo L en /\"(V) es unívocamente expresable como L = aM
para algún a en K. En particular, MT = cM para un cierto c. Para L = aM
se tiene
L1' = (aM)r
= GM1'
= a(vM)
= c(aM)
= cL. I
Naturalmente, el elemento c del último corolario es llamado el determinante
de T_ De (5-39), para el caso r = n (cuando hay solo una combinación J =
(1, _ _ _ _ n)), se ve que el determinante de T es el determinante de la matriz que
representa T en cualquier base ordenada {B,, _ _ _ , B,,}_ Veamos por qué. La
matriz representante tiene i, j elementos
Ao' = f¡(TB.~)
de modo que
DJ(TB1, _ . . , = E (sgn 0') 01) ° ° 9 A_(n, Un)
= det A.
Por otro lado,
DJ(TB1› ° - - › = (det T) 1)-¡(61.1 - ° ° 1 Bu)
= det T.
La razón de estas observaciones es que, por medio del Teorema 7 y su corolario,
se obtiene una definición del determinante de un operador lineal que no supone
el conocimiento de los determinantes de matrices. Los determinantes de ma-
trices pueden ser definidos en términos de determinantes de operadores, en vez
de al contrario.
Queremos decir algo más con respecto a las formas especiales r-lineales
alternadas D, que se asociaron a una base {f,, _ _ _ , _fl,} de V* en (5-39). Es im-
portante entender que D,__(a1, _ _ _ , fz,) es el determinante de cierta matriz r x r. Si
Á¿¡=f_i(0fi)› 1Í'¿Í†›1Í_7-57%
esto es, si
0f¢=Á¢1fi1+"'+As'-›5a› 1-<-¿$7
y J es la combinación r-aria (jl, __., j,), entonces
DJ(al› - - › 1 af) = 2 (sgn 0) .l-01) ' ' ' A-(ns jvfl)
Asi que I)_,(a,_ _ _ _ _ cx,) es el determinante de la matriz r >< r formada por las
eoliunuas ¡,, _ _ _ _ 1', de la matriz r ›< n que tiene (los n-tuples coordenados de)
al, _ _ _ _ oz, como sus filas. Otra notación que se usa a veces para este determi-
nante es
¡, _ __ ô(a¡, _ , a,)_
DJ(al, - . Q , ar) Si ô(B_Íu ° ° ° › BL)
I-Lu esta notación la demostración del Teorema 7 muestra que toda forma r-lineal
alternada L puede expresarse respecto a una base {[š,, _ _ _ , /3,,} por la igualdad
5_ 7. El anillo de Grassman
todo lo cual parece muy prometedor. Pero hay un inconveniente. A pesar del
cálculo que se ha hecho, la supuesta multiplicación de (5-45) no es asociativa.
En efecto. si l es un índice distinto de los i, j, k, entonces se puede calcular que
Por tanto,
¿<-~<¿<¿<~-<¿
I74 .4l,udIru lineal
y, portanto, (LAM)AN=LA(MAN)_ I
Volvamos ahora al caso general en el que solo se supone que K es un anillo
conmutativo con unidad. El primer problema es remplazar (5-47) por una de-
finición equivalente que opere en general. Si L y M son formas multilineales
alternadas de grado r y s, respectivamente, se construirá una forma canónìca
multilineal alternada L A M de grado r + s tal que
r!s!(L A M) = 1r,+,(L ® M).
Recordemos cómo se define 1r,+s(L ® M). A cada permutación o de {l, _ _ _ ,
r + s} se asocia la función multilineal
(5-48) (Sen 0) (L Q) M)_
donde
(L ® M)¢(al› ~ ~ - 1 af-H) = ® M)(a¢l› - - ° 1 a0(r-l-0)
y se suman las funciones (5-48) sobre todas las permutaciones a. Hay (r + s)!
permutaciones; pero como L y M son altemadas, muchas de las funciones
(5-48) son una misma. En realidad, hay a lo más
(r+s)!
rlsl
funciones (5-48) distintas. Veamos por qué. Sea SH, el conjunto de las permu-
taciones de {l, _ _ _ , r + s}, es decir, sea SH, el grupo simétrico de grado r + s.
Como en la demostración de (5-46), se distingue el subconjunto G que consta
de las permutaciones a que permutan los conjuntos {l, _ _ _ , r} y {r + 1, _ _ _ ,
r + s} sobre sí mismos. En otras palabras, 0 pertenece a G si 1 S oi S. r para
todo i entre 1 y r. (Necesariamente se sigue que r + l S oi 5 r + s para todo
j entre r + 1 y r + s.) Ahora G es un subgrupo de S,+,, esto es, si a y 1 están
en G, entonces ar” está en G. Evidentemente, G tiene r!s! elementos.
Se tiene una aplicación
definida por
s___ i› Mf+-(V)
-M0) = (Sen 0) (L O_O M)«.
Como L y M son alternadas
Mfi=L®M
para todo 'y en G. Luego, como (Na): = Nm para cualquier forma (r + s)-
lineal N sobre V, se tiene
Esto dice que la aplicación il/ es una constante sobre cada clase lateral (a la
izquierda) IG del subgrupo G. Si 1', y 12 están en S,,_S, las clases laterales r,G y
r2G son idénticas o disjuntas_ Cada clase lateral tiene r!s! elementos; luego, hay
iii!
r!s!
clases laterales distintas. Si S,+,/G representa la colección de todas las clases
laterales, entonces il/ define una función en S,+,/G; es decir, por lo que se ha
visto, hay una función il/ sobre ese conjunto, de modo que
~P(†) = $(†G)
para todo r de S,+s_ _Si H es una clase lateral a la izquierda de G, entonces
i/7(H) = i//(1) para todo I de H.
Se define ahora el producto exterior de las formas multilineales alternadas
L y M de grados r y s haciendo
(5-49) L A M = šø (H)
donde H varía sobre SH,/G. Otro modo de expresar la definición de L A M es
la siguiente. Sea S cualquier conjunto de permutaciones de {l, __., r + s}
que contenga exactamente un elemento de cada clase lateral a la izquierda de
G. Entonces
(5-50) L A M = 2: (sgn <†)(L QO M).
donde o varía sobre S. Claro es que
r!s! L A M = 1r,+,(L ® M)
con lo que la nueva definición es equivalente a (5-47) si K es un cuerpo de ca-
racterística cero.
Teorema 9. Sea K un anillo conmutativo con unidad y sea V un módulo
sobre K. Entonces el producto exterior es una operación asociativa sobre las for-
mas multilineales alternadas sobre V. En otras palabras, si L, M y N son formas
multilineales alternadas sobre V de grados r, s y t, respectivamente, entonces
(LAM)AN=LA(MAN)_
Demostración. Aunque la demostración del Teorema 8 no se aplica aquí,
sí sugiere cómo tratar el caso general. Sea G(r, s, t) el subgrupo de S,+,+, que
consta de las permutaciones que permutan los conjuntos
{1,___,r}, {r+1,___,r-I-s}, {r+s-I-1,___,r+s+t}
sobre sí mismos. Entonces (sgn u)(L ® M ® N),, es la misma función multi-
lineal para todos los u de una clase lateral a la izquierda dada de G(r, s, t). Se
escoge' un elemento de cada clase lateral a la izquierda de G(r, s, t) y sea E la
suma de los correspondientes términos (sgn u)(L ® M ® N),,_ Entonces E es
independiente de cómo se hayan elegido los representantes ,u, y
r!s!t! E = 1r,+,+,(L QO M ® N).
D|'tcrnu'mmIt'.\° I 77
Luego
(LA M)_ AN= 2sgn(ra)(L()_OM()_ON),,.
donde la suma se toma sobre una colección de o, una de cada clase lateral de G.
Por tanto,
(L A M›"(«_, _ . _ _ «__› = NQ «_ Le»,-__ . . . _ «_-_›M<«___ . . ._«._.›
donde
¿J = (_. 1).i1+ - - - +_i¢+(f(r-1)/2)
kg = t7(T +
En otras palabras,
Am °" As.- Ak__f+1 '° ' Am»
¿gt A _.: 2 CJ : : : :
' _ _ . < °,
"< J A¡._1 ''' Am Á1=__f+1 ''' Aka»
Este es un desarrollo de Laplace. Se pueden obtener otros remplazando los
l)i'ti'rml›mnt¢-s l 79
Am = Mtv) ea en'-tv)
es válida en el sentido corriente. Como A'(V) es un K-módulo de rango
se ve que A(V) es un K-módulo libre y
rango A(V) = šo
= 2".
6.1 _ Introducción
Se-ha dicho antes que nuestro objetivo principal es el estudio de las trans-
formaciones lineales sobre un espacio vectorial de dimensión finita. Hasta
ahora se han dado ejemplos específicos de transformaciones lineales y se han
demostrado algunos teoremas respecto a las transformaciones lineales generales.
En el caso de dimensión finita se han empleado bases ordenadas para representar
tales transformaciones por medio de matrices; y esta representación ha ayu-
dado a la comprensión de cómo operan. Se ha explorado el espacio vectorial
L( V, W), que consta de las transformaciones lineales de un espacio en otro,
y el álgebra lineal L( V, V) que consiste en las transformaciones lineales de un
espacio en sí mismo.
En los dos capitulos siguientes se estudiarán los operadores lineales. Nues-
tro programa se propone seleccionar un operador lineal T sobre un espacio
dedimensión finita V y «separarlo para ver qué es lo que lo hace importante».
En esta primera etapa es más sencillo para nuestro propósito usar el lenguaje
matricial. Vale decir. dado un operador lineal T, encontrar una base ordenada
de V en la que la matriz de T tome una forma especialmente simple.
He aquí una ilustración de lo que se intenta. Probablemente las matrices
más sencillas de manejar, fuera de los múltiplos escalares de la matriz unidad,
son las diagonales
C1 0 0 °°' 0
O cg O O
D= 0 0 C3 ..._0 _
(.)(.)O---c,_
180
l*nrnm.\ nuuinnus ¢'Ít'nt¢'nIuh'.\ ¡HI
la imagen será el subespacio generado por aquellos oq, para los que c,, gh 0, y
el espacio nulo será generado por los restantes ak. En efecto. parece justo decir
que si se conoce una base G3 y una matriz diagonal D para la cual [T](B = D,
se podrá responder sin dificultad cualquier pregunta que surja con respecto a T.
¿Se puede representar todo operador lineal T por medio de una matriz
diagonal con respecto a alguna base ordenada? Si no, ¿para qué operadores
F existe una base semejante? ¿Cómo se puede encontrar tal base si existe? Si
tal base no existe, ¿cuál es el tipo más sencillo de matriz por la cual puede re-
presentarse T? Estas son algunas de las preguntas a que se debe responder en
este (y en el siguiente) capítulo. El tratamiento se hará más complicado a medi-
da que se vaya viendo cuáles son las dificultades.
(b) lu colección de todos los oz tales que Tot = coa se llama espacio propio
asociado a c.
0 --1
A ` [1 0]'
I-'armas t'am›nt¢'u.\ ¢'lt'nn'ntulr.\ I-V3
El polinomio característico de T (o de A) es
Como este polinomio tiene dos raíces no reales, T no tiene valores propios.
Si U es el operador lineal definido sobre C2 y representado por A en la base
ordenada canónìca, entonces U sí tiene dos valores propios, i y -i en C.
3 1 -1
2 2 -1 -
2 2 0
:c-3 -1 1
-2 :i:-2 1=:1:'-5x'-I-8:1:-4=(x-l)(:z:-2)”.
-2 -2 x
Con lo que los valores propios de A son 1 y 2..
Supóngase que T es el operador lineal sobre R3 representado por A en la
base canónìca. I-Iállense los vectores propios de T asociados a los valores pro-
pios 1 y 2. Ahora '
2 1 -1
A-I= 2 1 -1-
2 2 -l
1 1 --1
A-2I= 2 0 -1-
2 2 -2
C1 0 "' 0
0
[T]@= . “E” 9-
0 0 cn
Por cierto no se requiere que los escalares cl, . . . , c,, sean distintos, incluso
pueden ser todos iguales (cuando T es un múltiplo escalar del operador identidad).
Se podría también definir T como diagonalizable cuando los vectores pro-
pios de T generan V. Esto es solo en apariencia distinto a la definición dada.
ya que se puede formar una base tomándola de cualquier conjunto generador
de vectores.
En los Ejemplos l y 2 se han elegido a propósito operadores lineales T sobre
R" que no son diagonalizables. En el Ejemplo 1 se tiene un operador lineal
sobre R2 que no es diagonalizable, porque no tiene valores propios. En el Ejem-
plo 2 el operador lineal T tiene valores propios; en efecto, el polinomio carac-
terístico de T se pudo factorizar completamente sobre el cuerpo de los números
reales: f = (x - l)(›t - 2)2. Sin embargo, T no es diagonalizable, pues existe
solo un espacio unidimensional de vectores propios asociados a cada valor
propio de T. Por tanto, no es posible formar una base de R3 con vectores pro-
pios de T.
Supóngase que T es un operador lineal diagonalizable. Sean cl, . . . , ek los
valores propios distintos de T. Entonces existe una base ordenada CB con res-
pecto a la cual T está representado por una matriz diagonal; es decir, los ele-
mentos de la diagonal son los escalares c,-. cada uno de los cuales se repite un
cierto número de veces. Si c,- aparece repetida d,- veces, entonces (se puede dis-
poner así) la matriz tiene la forma de bloque
C111 0 ° ° 0
donde ll- es la matriz unidad dj ›< dj. De esta matriz se observan dos cosas.
Primero, el polinomio característico de T es producto de factores lineales (posi-
blemente repetidos):
rización. Lo segundo que se observa de (6-3) es que d,, el número de veces que
c, se repite como raíz de f, es igual a la dimensión del espacio de los vectores
propios asociados al valor propio c,. Ello es así porque la nulidad de una matriz
diagonal es igual al número de ceros que tiene en la diagonal principal, y la
matriz [T - c,l](B tiene d, ceros en su diagonal principal. Esta relación entre
la dimensión del espacio propio y la multiplicidad de los valores propios. como
una raíz de jfi no parece ser importante al comienzo; sin embargo, proveerá
de un medio simple para determinar cuándo un operador dado es diagona-
lizable.
En efecto, si (B, es una base ordenada de W,, entonces G3 = ((B,, . . ._, (B,,) es una
base ordenada de W.
Demostración. El espacio W = W, + - - ~ + W,, es el subespacio genera-
do por todos los vectores propios de T. Normalmente, cuando se forma la suma
W de los subespacios W,, se expresa que dim W < dim W, + ' ' ' + dim W,,,
por las relaciones lineales que pueden existir entre los vectores de los diferentes
espacios. Este lema afirma que los espacios propios asociados a los diferentes
valores propios son independientes uno de otro.
Supóngase que (para cada i) se tenga un vector li, en W, y supóngase que
li', + ' - ~ + B, = 0. Se demostrará que li, = 0 para cada i. Sea f un polinomio.
Como TB, = c, 13,, el lema anterior dice que
Entonces
0 = ff(T)0 = 2 5-'ifif
J
= 5;-
Ahora sea (B, una base ordenada de W, y sea (B la sucesión (B = ((B,, . _ _ , (B,,).
Entonces (B genera el subespacio W = W, + + W,,. Tambien (B es una
180 Algi-bm lineal
y sea (B, una base ordenada de W,. Las bases (B,, . . . , (B, se juntan para formar
la sucesión de columnas de una matriz P:
P= [P1,P2,...] = ((B1,...,(B¡¢).
La matriz A es semejante sobre F a una matriz diagonal si, y solo si, P es una
matriz cuadrada. Cuando P es cuadrada, P es inversible y P"AP es diagonal.
5 -6 -6
A = -1 4 2 -
3 -6 -4
:iz--5 6 6 zz:-5 O
1 x-4 -2 = 1 :t:-2 -
-3 6 :t:+4 -3 2-:c si ›t=›
x-5 cn
=(:¡:-2) I-5 -2
-3 - """°+t~:c» x+4
x-5 O 6
=(:z:-2) 1 1 -2
-2 0 :¡:+2
= (zz:-2)(:¡:'-3x+2)
= (as-2)*(:c - 1).
¿Cuáles son las dimensiones de los espacios de los vectores propios asociados
con los dos valores propios? Se tiene
4 -6 --6
A -I = --1 3 2
3 -6 -5
3 -6 --6
A - 2I = -1 2 2 -
3 -6 -6
322
P=-11o--
301
además, AP = PD, con lo que
P-IAP = D.
Ejercicios
I. En cada uno de los siguientes casos, sea Tel operador lineal sobre R2 representado por
la matriz A en la base ordenada canónìca de R2 y sea U el operador lineal en C2 repre-
sentado por A en la base ordenada canónìca. Encontrar el polinomio característico de
T y de U. hallar los valores propios de cada operador y para cada uno de tales valores pro-
pios c hallar una base para el correspondiente espacio de vectores característicos.
Demostrar que T es diagonalizable construyendo una base para R3, cada vector de la cual
es un vector propio de T.
5. Sea
6 -3 -2
A = 4 -1 -2 -
10 -5 -3
¿Es A semejante, sobre el cuerpo R, a una matriz diagonal? ¿Es A semejante, sobre el cuer-
po C, a una matriz diagonal?
6. Sea T el operador lineal sobre R4 representado en la base ordenada canónìca por la
matriz
7. Sea 'I' un operador lineal sobre el espacio vectorial V de dimensión n y supóngase que
T tiene n valores propios distintos. Demostrar que T es diagonalizable.
8. Sean A y B matrices n ›< n sobre el cuerpo F. Demostrar que si (I - AB) es inversible,
entonces I - BA es inversible y que
(1 - BA)-1 = I + Bu - AB)-IA.
9. Usar el resultado del Ejercicio 8 para demostrar que si A y B son matrices n ›< n sobre
el cuerpo F, entonces AB y BA tienen los mismos valores propios en F.
10. Supóngase que A es una matriz 2 ›< 2 con elementos reales, simétrica (A' = A). Demos-
trar que A es semejante, sobre R, a una matriz diagonal.
ll. Sea N una matriz compleja 2 x 2 tal que N2 = 0. Demostrar que N = 0 0 N es se-
mejante, sobre C, a
[O O:|_
1 O
I2. Usar el resultado del Ejercicio ll para demostrar lo siguiente: Si A es una matriz
2 ›< 2 de elementos complejos, entonces A es semejante, sobre C, a una matriz de uno 'de
los dos tipos siguientes:
r °1 r °1-
0 b 1 a
donde los c,, . . . , c,, son distintos. Sea V°el espacio de las matrices n ›< n, B, tales que
AB = BA. Demostrar que la dimensión de V es df + - ~ - + df.
15. Sea V el espacio de las matrices n ›< n sobre F. Sea A una matriz n ›< n dada sobre F_
Sea Tel operador lineal «multiplicación a la izquierda por A» en V. ¿Tienen A y T los mis-
mos valores propios?.
entonces f(A) = 0 dice simplemente que tenemos una relación lineal entre
potencias de A:
(6-5) A* + a,,_1A'°-1 + - - - + a¡A + ao] = O.
El grado del polinomio minimal es el menor entero positivo k tal que existe
una relación lineal de la forma (6-5) entre las potencias de I, A, _ _ _ , A". Más
aún. por la unicidad del polinomio minimal, existe para aquel k una, y solo una,
relación de la forma (6-5); es decir, una vez que el minimal k está determinado,
existen escalares únicos ao, _ _ _ , a,,_, en F para los que es válido (6-5). Son los
coeficientes del polinomio minimal.
Ahora (para cada k) se tiene en (6-5) un sistema de nz ecuaciones lineales
para las «incógnitas›› ao, _ _ _ , a,,_,. Como los elementos de A están en F, los
coeficientes del sistema de ecuaciones (6-5) están en F. Por tanto, si el sistema
tiene una solución con los ao, _ _ . , a,,_ , en F,, tiene una solución con los ao, _ _ _ ,
a,,_, en F. (Véase el final de la Sección 1.4.) Está claro ahora que los dos poli-
nomios minimales son los mismos.
¿Qué es lo que se sabe hasta ahora con respecto al polinomio minimal de
un operador lineal en un espacio de dimensión n? Solo que su grado no excede
de 112. Pero ésta es una estimación poco aproximada, ya que el grado no puede
exceder a n. Se demostrará en breve que el operador es anulado por su poli-
nomio característico. Pero antes queremos observar algo más elemental.
Sea T un operador lineal diagonalizable y sean c,, _ _ _, c,, ¡os valores pro-
pios distintos de T_ Entonces es fácil ver que el polinomio minimal de T es el
polinomio
p= (rc-ci) (x-ct).
Si ot es un vector propio, entonces uno de los operadores T - c,1, ,
T - c,,l aplica ot en 0. Por tanto,
(T-c1I)(T-c¡,I)a=0
para todo vector propio ot. Existe una base para el espacio soporte que consta
de los vectores propios de T; luego
p(T) = (T- c1I)(T.- cil) = 0.
21-1 ii-1
(A-I)(A-2I)= 2 1 -1 2 0 __,
2 2 -1 2 2 -2
2 0 -1
= 2 0 -1 _
4 0 -2
(`on lo que el polinomio minimal tiene a lo menos grado 3_ Luego Se puede
Pmbaf (X _ 1)2(X _ 2) 0 (X -' lllx _ 2)2- C0mo el segundo es el polinomio
característico, parece ser una elección menos el eZar_ Se puede en ¡eafidad
Calcular que (A _ ¡ll/4 -' 21 l2 = 0- con ¡O que el polinomio minimal de T es
su polinomio característico.
En el Ejemplo 1 se estudió el operador linee| T sobre R2 representado en
la base canónìca por la matriz
0 -1
A ` [1 0]'
. . I , . 2 . '
El polinomio característico es x + l, que no (rene rarees rea1es_ Para derer-
minar el polinomio minimal hay que olvidarse de T y ¿render a A_ Como una
matriz compleja 2 x 2, A tiene los valores propios ¡y _¡_ Ambas raíees deben
figurar en el polinomio minimal. Así el polinomio mm¡ma| es d¡v¡S¡b|e por
X
2 + - - -
ES Íflvlal VCl`lfiCaI` qu@ A
2 + 1_ _ _ _ _
- 0. C01] lo qu@ gl pohngnfno m¡n¡-
mal es x2 + 1.
escalar. Elijamos una base ordenada {oz,. __ _ _ a,,} para V, y sea A la matri/_
que representa a T en esa base dada. Entonces
fl
Cuando n = 2
B_[T-A@ -ma ]
" -ma T-Aa'
Y
det B = (T ”“ A11Í)(T '_ A221) -' Á1zA2iÍ
= T2 '_ (An 'l' Án)T 'l' (Á1iA22 _ Ai:/Í2i)I
= f(T)
donde f es el polinomio característico:
f= x2 - (traza A)x + det A.
Para el caso n > 2, es también claro que
detB = ƒ(T)
ya que f es el determinante de la matriz xl - A cuyos elementos son los po-
linomios
(II _ A)¡¡ = ôgjílï _ A¡¡.
Queremos demostrar que f(T) = 0. Para que f(T) sea el operador cero es
necesario y suficiente que (det B)a,, = O para k = l, _ _ _ _ n. Por la definición
de B. los vectores oq, _ _ _ , ot, satisfacen las ecuaciones
wm Ép%m=0,
12
igtgn.
Cuando n = 2, se sugiere escribir (6-6) en la forma
¿=[T-AM ma
mJ T-A@
I-`orma.i nntmm'a.i eli-nientuli-.s 195
Y
_ deis o
EB _ [0 det B:j°
Luego. se tiene
M [21] = ea [21]
= E (B[::])
e = [Sl
En el caso general, sea B = adj B. Entonces por (6'-6)
fl
2 É|=iB¡¡¢1¡ = 0
¡-1
0 = i š É|=iBi¡f1¡
¡-if-1
= â ÉHBG) 0,".
Í-1 Í=-1
Por tanto,
0 = _2l ö¡¡(deÍ› B)d¡
31
A = [
I-*Or-*O OI-*OP-* t-Qi-Q QI'-^©l"'*
-i i
Las potencias de A son fácilmente calculables'
-i i t-IÄOI-F~OQt\'JQt\'J
males son: p, x(x + 2), x(x - 2), xl - 4. Los tres polinomios cuadráticos
pueden ser eliminados, ya que es inmediatamente obvio que A2 =)é -2A,A2 qé 2A,
A2 qé 41. Por tanto, p es el polinomio minimal de A. En particular, 0, 2 y -2
son los valores propios de A. Uno de los factores x, x - 2, x + 2, debe repe-
tirse dos veces en el polinomio característico. Evidentemente, rango (A) = 2.
En consecuencia, existe un espacio de vectores propios de dimensión dos aso-
ciado al valor característico 0. Por el Teorema 2 queda ahora claro que el poli-
nomio característico es x2(x2 - 4) y que A es semejante a la matriz sobre el
cuerpo de los números racionales.
Ejercicios
1. Sea V un espacio vectorial de dimensión finita. ¿Cuál es el polinomio minimal para
el operador identidad sobre V? ¿Cuál es el polinomio minimal para el operador cero?
2. Sean a. b y c elementos de un cuerpo F y sea A la siguiente matriz 3 x 3 sobre F:
0 0 c
A = 1 0 b -
0 1 a
l"nrma.\ runónit'u.\ ¢'li°nn'ntuI¢°\ l97
A___
Ta'
1 = _ É Agflg.
1
1=l
Como Wes invariante por T, el vector Tot, pertenece a Wparaj S r. Esto quiere
decir que .
(59) Tai = É Áajda, S 1'.
¡-1
1-'armas eamlnicas elenuwtalc-s ¡W
(6-10) A = [ff
donde B es una matriz r x r, C es una matriz r x (n - r) y D es una matriz
(n - r) x (n - r). El lector deberá observar que, conforme a (6-9), la matriz
B es precisamente la matriz del operador inducido TW en la base ordenada 03'.
Muy a menudo se razonará respecto a T y TW sin hacer uso de la forma
bloque de la matriz A en (6-10). Pero deberá observarse cómo surgen ciertas
relaciones entre TW y T de esa forma bloque.
_ 3" Ch
Ak"[o Di]
donde Cr es alguna matriz r x (n - r). Por tanto, cualquier polinomio que
anule a A también anula a B (y también a D). Así, el polinomio minimal de
B divide al polinomio minimal de A. I
donde (.',, ._ _ _ 1,)-= .lc,. c,, _ _ _ , tr. . _ , ek. ek. ck) con c, repetidos
dim W, veces.
Ahora Wes invariante por T, ya que para cada ot en W tiene
0!=27i¢11"l' +$f0lf
T0! = 5117101 + ' ° ' 'l' tfílïfdf-
Eligiendo otros vectores ot,+,, _ _ _, ot,, en V tales que G3 = {ot,, _. _, ot,,¦ sea
una base para V. La matriz de T, respecto de (B, tiene la forma bloque (6-lll),
y la matriz del operador restricción TW, respecto de la base (B' es
t10 0
B=(.)?"`(.)-
0 0 ' ° ' tf
ò ò ò a,
Ahora (6-ll) solo dice que
(5-12) Tai = 011011 'l' ' ' ° + 0¡›'¢!¡› 1 S .Í S tt
esto es, Tot, está en el subespacio generado por ar, __ _ _ ot,-_ Para determinar
los otk, _. _, ot,,, se comienza aplicando el lema al subespacio W = {0}, para
obtener el vector ot,_ Entonces aplicando el lema a W,, el espacio generado por
ot,, se obtiene ot2_ A continuación se aplica el lema a W2, el espacio generado
por ot, y ak. Se continúa de este modo. Un punto se merece comentario especial.
Después que se hayan determinado los ot,, _ _ _, ot,, son las relaciones del tipo
triangular (6-12) para j = 1. _ _ _ , i las que aseguran que el subespacio generado
por ot,, _ _ _ _ ot, es invariante por T.
Si T es triangulable, es evidente que el polinomio característico de T tiene
la forma
ƒ = (x - cr)¿' - - - (x - c;_)¿*, c,- en F.
Basta observar la matriz triangular (6-ll). Los elementos de la diagonal
an, _ _ _, a,,,, son los valores propios, con c, repetidos d, veces. Pero si f puede
ser así factorizado, también puede serlo el polinomio minimal, ya que divi-
deaf_ I
0 = p(T)@ = (T - 0,-1)¢1(T)«
el vector q(T)a está en W. Por tanto, q(c,)ot está en W. Como ot no está en W,
se tiene q(c¡) = 0. Lo cual contradice el hecho de que p tiene raíces distintas. I
l;]`ercicios
I. Sea 'I' el operador lineal sobre R2 cuya matri/_ eii la base ordenada canónìca es
A =
[2 2]
1 -1
-
(a) Demostrar que los únicos subespacios de R2 invariantes por T son R2 y el subes-
pacio nulo.
(b) Si U es el operador lineal en C2, cuya matriz en la base ordenada canónìca es _-l.
demostrar que U tiene un subespacio unidimensional invariante.
2. Sea W un subespacio invariante para T. Demostrar, sin referirse a las matrices. que
el polinomio minimal para el operador restricción TW divide al polinomio minimal de 7'.
3. San c un valor propio de T y sea W el espacio de los vectores propios asociados al valor
propio c. ¿Cuál es el operador restricción TW?
4. Sea
0 l 0
A = 2 -2 2 -
2 -3 2
¿Es A semejante, sobre el cuerpo de los números reales, a una matriz triangular? Si es así,
hallar tal matriz triangular.
5. Cada matriz A tal que A2 = A es semejante a una matriz diagonal.
6. Sea T un operador lineal diagonalizable sobre un espacio vectorial V de dimensión
n y sea W un subespacio invariante por T. Demostrar que el operador restricción TW es
diagonalizable.
7. Sei T un operador lineal sobre un espacio vectorial de dimensión finita sobre el cuerpo
de los números complejos. Demostrar que T es diagonalizable si, y solo si, T es anulado
por algún polinomio sobre C que tiene raíces distintas.
8. Sea T un operador lineal sobre V. Si todo subespacio de V es invariante por T, enton-
ces T es un múltiplo escalar del operador identidad.
9. Sea T el 'operador integración indefinida
<mw=fma
sobre el espacio de las funciones continuas en el intervalo [0, 1]. ¿Es el espacio de las_fun-
ciones polinomios invariantes por T? ¿El espacio de las funciones diferenciables? ¿El es-
pacio de las funciones que se anulan para x = %?
10. Sea A una matriz 3 x 3 de elementos reales. Demostrar que si A no es semejante so-
bre R a una matriz triangular. entonces A es semejante sobre C a una matriz diagonal.
ll. ¿Es verdadero o falso que si una matriz triangular A es semejante a una matriz dia-
gonal, entonces A es diagonal?
l2_ Sea T un operador' lineal sobre un espacio vectorial de dimensión finita sobre un cuer-
po F algebraicamente cerrado. Sea f un polinomio sobre F. Demostrar que c es un valor
propio de f(T) si, y solo si, c = _ƒ(t), donde t es un valor propio de T.
I-`urn|u.s mnnrnrus rlrnwnlult-.s 205
I3. Sea I' el espacio dc las matrices n x n sobre F. Sea A una matri? n x n dada, sobre F.
Sean Ty U los operadores lineales sobre V definidos por
T(B) = AB
U(B) = AB - BA.
(al ¿Es verdadero o falso que si A es diagonalizable (sobre F), entonces T es diagona-
lizable?
(h) ¿Es verdadero o falso que si A es diagonalizable, entonces U es diagonalizable?
(á) oc no pertenece a W ;
(b) para cada T en fr', el rector Ta está en el subespacio generado por oc y W.
que IV. Además, V1 es invariante por fi. por tal razón si 'l' conmuta con l`,,
entonces
(Ti _ CJ)('l'B) = T(7'i - ¢J)l3-
Si /l está en V,. entonces (T1 - c¡l)B está en W. Como W es invariante por toda
7' de ff. se tiene que T(T¡ - ell)/i está en W; es decir. TB en V,. para todo /l
en V, y todo T en SF.
Ahora W es un subespacio propio de V¡. Sea U2 el operador lineal en V,
que se obtiene restringiendo T2 al subespacio V1. El polinomio minimal dc
Uz divide al polinomio minimal de T2. Por tanto, se puede aplicar el lema am-
tcrior al Teorema 5 a tal operador y al subespacio invariante W. Se obtiene
un vector /iz en V, (no en W) y un escalar cz tal que (T2 - e2l)fi2 está en W.
(_)bsérvese que
ta) B2 no está en W.
(b) (T1 - e¡I)fi2 está en W.
(c) (T2 - c2I)fi2 está en W.
Sea V2 el conjunto de todos los vectores B en V, tal que (T2 - c2I)/i está
cn W. Entonces V2 es invariante por SF. Aplíquese el lema anterior al Teore-
ma 5 a U3, restricción de T3 a V2. Si se sigue así se llega a obtenerun vector
oz = /i, (no en W) tal que (T¡ - cl-I)a está en W,j=1, r. I
.,,
Teorema 7. Sea V un espacio vectorial de dimensión finita sobre el cuer-
po F. Sea SF una familia conmutativa de operadores lineales triangulables sobre
V. Existe una base ordenada de V tal que todo operador de fr' está representado
por una matriz triangular en esa base.
Demostración. Dado el lema recién demostrado, este teorema tiene la
misma demostración que la dada para el Teorema 5, si se remplaza T por SF. I
Ejercicios
I. Hallar una matriz real inversible P tal que P`1AP y P`*BP sean ambas diagonales,
donde A y B son las matrices reales
(a) A = L1) B = [3 Í]
E _ [CA D:|.
B
tro propósito como sigue: descomponer el cspm.-m Imsc V en una suina de sub-
espacios invariantes para T tal que los operadores restricción 11 esos subespatcios
sean simples.
0f1"l""'+01;-1-l'.(“"0!)+0+'°'+0=0
y como W¡, ..., W,, son independientes, debe tenerse que al = 12-- - =
aj_l ï a 1 0.
0=a,+---+a,-_ f1,-=#0-
Así, oc,-= -al -----cx,-_,, es un vector no nulo en W,-(HW, + + W,-_1)_
Ahora que sabemos que (a) y (b) son equivalentes, veamos por qué (a) y (c)
son equivalentes. Supóngase (a). Sea Q, una base para Wi, 1 5 i 3 k, y sea
Q = (Q`,, _ _ _, Q,,)_ Cualquier relación lineal entre los vectores de Q tendrá
la forma
B1+"°+Bk=0
donde B, es cierta combinación lineal de los vectores en Q,_ Como WI, _ _ _ , W,,
son independientes, cada B, es 0. Como cada Q, es independiente, la relación
que tenemos entre los vectores en Q es la relación trivial.
Se deja la demostración que (c) implica (a) para los ejercicios (Ejercicio 2)- I
Si cualquiera (y, por tanto, todas) de las condiciones del último lema se
cumple, se dice que la suma W = W, ,+ ' " + W,, es directa o que W es la
suma directa de Wl, _ _ _, W,,, y se escribe
W: W,@_..@W,_
En la literatura pertinente el lector puede encontrar esta suma directa como
suma independiente o suma directa interna de WI, ___, W,,_
Supóngase que E sea una proyección. Sea R la imagen de 1;' y sea N el es-
pacio nulo de E.
l. El vector B está en la imagen R si, y solo si, EB = B. Si B = Ea, en-
tonces EB = Eza = Ea = B. Recíprocamente, si B = EB, entonces (natural-
mente) B está en la imagen de E.
2. V = R ® N.
3. La expresión única de ot, como suma de vectores en R y en N, es
a=Ea+(a-Ea).
De (1), (2) y (3) es fácil ver lo siguiente. Si R y N son subespacios de V tales
que V = R ® N, existe un, y solo un, operador proyección E que tiene por
imagen R y por espacio nulo N. Este operador se llama proyección sobre R según
o paralelamente a N.
Cualquier proyección E es (trivialmente) diagonalizable. Si {a,, ___, a,}
es una base de R y {a,+,, ..., a,,} es una base de N, entonces la base
Q = {a¡, , oz,,} diagonaliza a E:
[Elm =
donde I es la matriz unidad r ›< r. Esto ayudará a explicar parte de la termino-
logía relacionada con las proyecciones. El lector deberá ver las diferentes si-
tuaciones en el plano R2 (o el espacio tridimensional, R3), para eonvencerse
de que la proyección en R, según N, aplica todo vector en R por proyección
paralela a N.
Las proyecciones pueden ser empleadas para describir las descomposició-
nes en suma directa del espacio V. En efecto, supóngase que V = W, GB - - - EB W,,.
Para todojsedefine un operador Ej sobre V. Seaaen V, v. g., oz = al + - ° ' + ak,
con oz, en W,. Defïnase E,-a = oz,-_ Entonces E¡ es una ley bien definida. Es fácil
ver que Ej es lineal, que la imagen de E¡ es W, y que Ef = E¡_ El espacio nulo
de EJ- es el subespacio
en efecto, la afirmación de que E¡oz = 0 solo dice que a,- = 0; es decir, que oz es
efectivamente una suma directa de vectores de los espacios W,, con i =;ê j. En
términos de las proyecciones E¡, se tiene
= E335
= Effif
= a,-_
Ejercicios
I. Sea V un espacio vectorial de dimensión finita y sea W, un subespacio de V. Demos-
trar que existe un subespacio W, de V tal que V = W, G3 W,.
2. Sea V un espacio vectorial de dimensión finita y sean W,, _ _ _ , Wk subespacios de V
tales que
V=W1+'°°+Wk y
3. IlaII:u una proyeccion I-_' que provccle R3 sobre el subespacio generando por (I, I)
segun el subespacio generado por (l, 2).
4. Si la', y l:`¿ son proyecciones sobre subespacios independientes. entonces If, fl I-_', es
una proyeccion. ¿lis verdadero o falso?
5. Si l;` es una proyección y _/' un polino1nio_ entonces /(E) = al + bli. ¿Que son u y lv
cn terminos de los coeficientes de /'_'
6. Si un operador diagonalizable tiene solo los valores propios 0 y l es una proyeccion
,'_l-._s o no cierto?
Teorema 10. Sea Tun operador lineal sobre el espacio V y sean W,, _ _ _ , W, y
E,, _ _ _ , E, como en el Teorema 9. Entonces una condición necesaria y suficiente
para que cada subespacio W, sea invariante por T es que T conmute con cada una
de las proyecciones E,-: es decir,
TE,=E,T_ i=l__.__k_
Demostración. Supóngase que T conmute con cada E,_ Sea a en W,-_ Enton-
ces E¡oz = oz. y `
Ta = T(E_,-oz)
= EÁTOI)
que muestra que Ta está en la imagen de E1-, es decir, que W, es invariante por T.
Supóngase ahora que todo W, es invariante por T. Se ha de demostrar que
TE, = E,-T. Sea a cualquier vector de V. Entonces
a= E¡a-I- -I-Eka
Ta = TE1a -I- - -- -I- TE;,a_
Como E,-oc está en W,, que es invariante por T, se debe tener que T(E,a) = E,-B,
para cierto vector B,. Entonces
E¡TE¿a = EjE¿fi¿
= {0, si i ;-fj
Ejfij, Si 1: =
214 .il lga-lvru lmcitl
Con lo que
E¡Ta = E¡TE1a + ° ° ' + 1!.l¡TÍ'i¡,a
= E1131'
= TE¡a.
Sean E,, _ _ _, E,, las proyecciones asociadas con esta descomposición, como
en el Teorema 9. Entonces (ii), (iii), (iv) y (v) se cumplen_ Para verificar (i) se
procede como sigue. Para cada a en V,
G=E1a+ "' "l'I$,¡¢(X
yasí,
T0l= TE10l-l' -l-TEka
= C1E1(I+ -I-0kE¡(l.
luego
(C, - ¢;,)_E',-a = 0 para cada j
y entonces
E%a'==0, _f7¿i.
lr
= E ¿Ef
t'=l
I:
= E CiEi-
t=1
Ílô .-ll_i¦rl›m ltm-ul
I l lector debe comparar esto con gt.-I). donde _-I es una matri/ diagonal; en ese
caso gl.-ll es simplemente la matri/ diagonal cuyos elementos de la diagonal
son ,el/lil). _ _ _ _ _i,'(A,,,,)_
Querriamos en particular hacer notar que pasa cuando sc aplican los poli-
nomios de Lagrangc correspondientes a los escalares c,_ c,,;
_ = (rc - c.)_
s
= Ej.
Así las proyecciones E, no solo conmutan con T. sino que también son poli-
nomios en T.
lales cálculos con los polinomios en T pueden ser usados para dar otra
demostración del Teorema 6 que caracteriza los operadores diagonalizables
en terminos de sus polinomios minimales. La demostración es enteramente
independiente de la anterior.
Si T es diagonalizable. I' = c,-E, + ' ' ' + c,,E,,_ entonces
9(T) = 9(C1)E1 + ' ° ' "l" 9(C1=)EI=
para todo polinomio g. Así g(T) = 0 si, y solo si, g(c,) = 0. para todo ¡_ En par-
ticular, el polinomio minimal de T es
P=(fC-C1)'°'(fC-CI=)-
Ahora supóngase que T sea un operador lineal con polinomio minimal
¡› = (x ~ c,) - - - (x - c,,), donde c,, _ _ _ , c,, son elementos distintos del cuer-
po escalar_ Se forman los polinomios de Lagrange
___ (17 _ C1)
pj gj (C¡' _ Ci)
, I =E1+"°+Ek
T = C1E1 + ' ° ° + Cklflk.
l"nrnm.\ mnonn-us' clctm'tmtl¢'.s 217
Debemos notar un aspecto más. a saber, que E, 9': 0, para todo i. Esto es
porque p es el polinomio minimal de T y así no podemos tener que p,(T) = 0,
ya que p, es de grado menor que el grado de p. Este último comentario, junto
COU (Ó-16), (Ó-17) Y Cl heCh0 de que ¡OS C.- son distintos, permite aplicar el Teo-
rema ll para concluir que T es diagonalizable. I
Ejercicios
l. Sea E una proyección de V y sea T un operador lineal sobre V. Demostrar que la ima-
gen de E es invariante por T si, y solo si. ETE = TE. Demostrar que ambos, la imagen
y el espacio nulo de E, son invariantes por T si, 'y solo si, ET = TE.
2. Sea T el operador lineal sobre R2, cuya matriz en la base ordenada canónìca es
[2 1'
0 2_ '
Sea W, el subespacio de R2 generado por el vector e, = (1_ 0)_
(a) Demostrar que W, es invariante por T,
(b) Demostrar que no existe un subespacio W, que es invariante por T y que es
complementario de W,:
R2 = W, Et) W2.
(Comparar con el Ejercicio 1 de la Sección 6_5)_
3. Sea T un operador lineal sobre un 'espacio vectorial de dimensión finita. Sea R la ima-
gen de Ty sea N el espacio nulo de T. Demostrar que R y N son independientes si, y solo
si. V = R EB N.
4. Sea T un operador lineal sobre V. Supóngase que V = W, (9 - - - G9 W,_ donde cada
W, es invariante por T. Sea T, el operador inducido (restricción) sobre W,.
(a) Demostrar que det (T) = det (T,)- - ~ det (T,,)_
(b) Demostrar que el polinomio característico de T es producto de los polinomios
característicos de T,, _ _ _ , 7),.
(c) Demostrar que el polinomio minimal de T es el mínimo común múltiplo de los
p0lin0miOS minimales de T,, _ _ _ , Th. (sugerettcirrg Demostrar y emplear el hecho correg-
pondiente para sumas directas de matrices.)
5. Sea T el operador lineal diagonalizable sobre R2 que se examinó en el Ejemplo 3 de
la Sección 6.2. Usar los polinomios de Lagrange para escribir la matriz representante A
en la forma A = E, + 2E2, E, + E2 = I, E,E2 = 0.
6. Sea A la matriz 4 ›< 4 del Ejemplo 6 de la sección 6.3. Hallar las matrices E,, E2, E,
dc modo que A = c,E, + ¢-¿E2 + c3E¿,, E, + E2 + E_, = I y E,-E, = 0, i+ ¡_
7. En los Ejercicios 5 y 6, obsérvese que (para todo i) el espacio de vectores propios asocia-
dos con el valor propio c, es generado por los vectores columna de las matrices E, con i ql= i.
¿_ Es una coincidencia?
2 IN Á ¡gi-hm Ilmwl
8. Sea I' un operador lineal sobre V que conmuta con todo operador proyección sobre V.
¿Que se puede decir de T?
9. Sea V el espacio vectorial de las funciones reales continuas sobre el intervalo [~ l. I]
del eje real. Sea W', el subespacio de las funciones pares, f(-x) = f(x), y sea W, el subes-
pacio de las funciones impares, f(-x) = --f(x).
(a) Demostrar que V = W', EB W,.
(b) Si T es el operador integración indefinida
<mw=fme
¿son WP y W, invariantes por T?
20 O
A=l2 O-
OO-1
donde cl, . . . , c,, son elementos distintos de F, entonces se verá que el espacio
V es suma directa de los espacios nulos de (T - c,.I)", i = 1, . . . , k. La hipó-
I-'ormus mmonirus ¢'l¢'tm'ntul¢'.r -fl"
tesis para p es equivalente al hecho que T es triangulable (Teorema 5); sin em-
bargo, ese conocimiento no va a ayudar.
El teorema que se probará es más general de lo que se ha dicho, ya que es
aplicable para la descomposición prima del polinomio minimal, sean o no sean
de primer grado todos los factores primos. Le será de provecho al lector pensar
en el caso especial cuando los factores primos son de grado 1, y aún más par-
ticularmente pensar en la demostración del tipo proyección del Teorema 6,
un caso especial de este teorema.
exactannente el subespacio ll',-_ lis claro que cada vector de la imagen de I-Q, está
cn ll'¡; en efecto. si 1 esta en la imagen de l;`,. entonces oz == l'.`,oi y asi
imWw=pMwma
= I'-('1')"f»-('l')s/.-(T)a
0
pues p"_/gg, es divisible por el polinomio minimal p. Recíprocamente, supóngase
que fx está en el espacio nulo de p,(T)". Si j = i, entonces _/Q-gj es divisible por
pj', con lo que _/,-(T)g¡(T)oi = 0, es decir, E,-cx = 0 para j =# i. Pero entonces
es inmediato que E,-cx = cx, es decir, que -cx está en la imagen de E,-_ Esto com-
pleta la demostración de la parte (i) de la tesis.
lis claro que los subespacios W, son invariantes por T. Si T, es el operador
inducido en W, por T, entonces evidentemente p¿(T,-)"' = O, ya que, por defini-
ción, p,.(T)" = 0 en el subespacio W,-. Esto muestra-que el polinomio minimal
de I`,- divide a p{". Recíprocamente, sea g cualquier polinomio tal que g(T,~) = O.
I íntonccs g(T)f¿(T) = 0. Con lo que gf¡ es divisible por el polinomio minimal p
de 1'; es decir, p{'f divide a gƒi. Es fácil ver que p,ï' divide a g. Luego el polino-
mio minimal de T,- es pff. I
y. en general, que
N' = (T - ¢i1>†1›u + + (T - aim.
Cuando r 2 ri para cada i, se tendrá que N' = 0. ya que el operador (T- e,.l)'
será entonces 0 en el recorrido de E,-_
Definición. Sea N un operador lineal sobre el espacio rectoría/ V. Se dice
que N es nilpotente si existe un entero positiro r tal que N' = 0.
l"m'tmt.\ i'utmIln'u.\' t'lt'tm'tthtli'.\ 22'
m)DN==ND.
El operador diagonalizable D y el operador nilpotente N están unívocamente
determinados por (i) y (ii ), y cada uno de ellos es un polinomio de T.
Demostración. Acabamos de observar que se puede escribir T = D + N.
donde D es diagonalizable y N nilpotente, y donde D y N no solo conmutan,
sino que son polinomios de T. Supóngase ahora que también tenemos T = D' +
N ', donde D' es diagonalizable, N' nilpotente y D'N' = N 'D'. Demostrare-
mos que D = D' y N= N'.
Como D' y N' conmutan entre sí y T = D' + N', se ve que D' y N' con-
mutan con T. Así, D' y N' conmutan con cualquier polinomio de T; luego
conmutan con D y con N. Ahora tenemos
o+N=U+N'
0
D-o=M-N
y todos estos cuatro operadores conmutan entre si. Como D y D' son ambos
diagonalizables y conmutan, son simultáneamente diagonalizables, y D - D' es
diagonalizable. Como N y N' son nilpotentes y conmutan, el operador (N' - N)
es nilpotente; en efecto, como N y N' conmutan
I-Ésta reducción se ha efectuado por los métodos generales del álgebra lineal,
es decir, por el teorema de descomposición prima.
Para describir el espacio de soluciones de (6-19), se debe conocer algo res-
pecto a las ecuaciones diferenciales; esto es, se debe conocer algo respecto a
D. además del hecho de que es un operador lineal. Es muy fácil demostrar,
por inducción sobre r, que si f está en C,, entonces
(D - 0137 = ¢°'D'(0"“f)
esto es,
- cf(t) = e°'åi-¿ (e-°'f), ete.
Asi, (D - cl)'f = 0 si, y solo si, D"(e"“ƒ) = 0. Una función g tal que D'g = 0,
es decir, d'g/dt' = 0, debe ser una función polinomio de grado (r - 1) o menor
g(Z) = bo 'l' bit “l” ° ° ' + bf_~1É'"1-
Así que f satisface (6-I9) si, y solo si, tiene la forma
= €“(b0 + b1Í« + ° ° ' + b,-_1t'_l).
Ejercicios
y polinomio minimal
P =_- (x -_ cl)1'1 .. . (x -_ ck)Tb_
ll. ¿Cuál cs el error en la siguiente demostración del Teorema l3'? Supóngase que el po-
linomio minimal de 7' sea un producto de factores lineales. Entonces, por el Teorema 5,
T es triangulable. Sea CB una base ordenada tal que A = [T](B es triangular superior. Sea
D la matriz diagonal con elementos en la diagonal principal a, 1, . . . , a,,,,. Entonces A ==
D + N, donde N es estrictamente triangular superior. Evidentemente, N es nilpotente.
12. Si se meditó en el Ejercicio ll, pensar nuevamente en él, después de observar qué
dice el Teorema 7 respecto a las partes diagonalizable y nilpotente de T.
13. Sea T un operador lineal V con polinomio minimal de la forma p" con p irreducìble
sobre el cuerpo de los escalares. Demostrar que existe un vector oi en V tal que el T-anu-
lador de oi es p". A
I4. Usar el teorema de descomposición prima y el resultado del Ejercicio 13 para demos-
trar lo siguiente. Si T es cualquier operador lineal sobre un espacio V de dimensión finita.
entonces existe un vector cx en V con T-anulador igual al polinomio minimal de T.
IS. Si N es un operador lineal nilpotente sobre un espacio de dimensión n, entonces el
polinomio característico de N es x".
7. Las formas racional
y de Jordan
226
lot humor nntonol t «li .lonlon JJ'
identidad no tiene vector cíclico. lln ejemplo de operador que tiene un vector
ciclico es el operador lineal I sobre lfi que esta representado en la base orde-
utda canonica por la matri/
0 0
1 0
\quí cl xcctor cíclico (un vector cíclico) es e,; en efecto, si /i = (a, b), entonces
con _e = a + /›_\' se tiene /i = _e(T)e¡_ Para este mismo operador el subespacio
ciclico generado por ez es el espacio unidimensional generado por ez. pues el
es un vector propio de T.
Para cualquier T y oz sean las relaciones lineales
Cr›a+CiTa+---+ci-T*a=0
entre los vectores T'1. esto es. se consideran los polinomios g = co + c¡.\' + - - -
r c,_.\* que tienen la propiedad de qtte g(T)ot = 0. El conjunto de todos los
n I~`[_\'] tales que _e(T)1 = tl es claramente un ideal en F[x]. Es también un
/2 C
donde r : 0 o grd tr) < grd tp,) = If. El polinomio p,q esta en el T-anula-
dor dc 1. y asi
g(T)ot = r(T)a.
(omo r : ll o grd tr) < lr, el vector r(T)1 es combinación lineal de los vecto-
res 1. lu. _ _ _ T* '1_ 3 como _qt7`)7. es un vector tipico en ¿(11 T). esto muestra
que cstos k vectores generan Ztai; T). Estos vectores son. en efecto. linealmente
independientes- ya que cualquier relación lineal no trivial entre ellos dará un
,','.'¡' 'I ll!a'IIl U Illlflll
polinomio g no nulo lul que _t'(l`)az . 0 y prd (g) p-_rd (¡›,). que es ;ih.~.urdo.
I-.slo demuestra (i) y (ii).
Sea L' el operador lineal en Kia: I`) que sc obtiene por reslricci<'›n de I` al
ese subespacio. Si g es un polinomio sobre I", entonces
z›..(U)9(T)« = zh-(T)9(T)«
= a(T)P«(T)a
= 9(T)0
= 0.
Así, el operador p,,( U ) aplica cada vector de Z(oz; T) en 0 y es el operador cero
en /I(oz; T). Además, si h es un polinomio de grado menor que k, no se puede
tener h(U) = 0; en efecto, entonces h(U)oz = h(T)a = 0, que contradice la
delìnición de pa. Esto demuestra que pa es el polinomio minimal de U. I
«lc H' cn lu que U este rcprc.s'e¡mulu por lu matri: asociada al polinomio mini-
mal de U.
I)en1o.vn-ación. Antes se observó que si U tiene un vector cíclico, entonces
existe tal base ordenada de W. Recíprocamente_ si se tiene una base ordenada
{oi¡, . _ _ _ cx,,} de W en la que U esté representada por la matriz asociada a su
polinomio minimal, es obvio que oc, es un vector cíclico de U. I
Ejercicios
I. Sea T un operador lineal sobre F2. Demostrar que un vector no nulo, que no es un
vector propio de T. es un vector cíclico de T. Demostrar luego que o T tiene un vector cí-
clico o T es un múltiplo escalar del operador identidad.
2. Sea T el operador lineal sobre R3 representado en la base ordenada canónìca por la
matriz
2 0 0
0 2 0 -
0 0 -1
Demostrar que T no tiene vector cíclico. ¿Cuál es el subespacio T-cíclico generado por el
vector (l, -1, 3)?
3. Sea T el operador lineal sobre C3 representado en la base ordenada canónìca por la
matriz
1 í 0
-l 2 --i -
0 l 1
Hallar el T-anulador del vector (I, 0, 0). Hallar el T-anulador de (I, 0, i).
4. Demostrar que si T2 tiene un vector cíclico, entonces T tiene un vector cíclico. ¿Es
verdadero el recíproco?
5. Sea V un espacio vectorial de dimensión n sobre el cuerpo F y sea N un operador lineal
-' ill A lm-Im: lmml
nilpotente sobre I', Supóngase que N" ' ql: 0 y of un vector cualquiera de I' de modo
que N" 'oz =¡ë 0. Demostrar que oz es un vector cíclico de N. ¿Cuál es exactamente la matri?
dc N en la base ordenada {a, Nor, _ _ . , N""oc}'?
Como W y W ' son invariantes por T, el vector ƒ(T)y está en W y f(T)'y' está
en W'_ Por tanto, f(T)/i está en W si, y solo si, f(T)¬y' = 0. Lo que interesa es
el hecho, aparentemente sin importancia, de que si f(T)B está en W, enton-
CCS f(T)/f = f(T)?-
Definición. Sea T un operador lineal sobre un espacio vectorial V y sea W un
subespacio de V. Se dice que W es T-admisible si
(i) W es invariante por T;
(ii) si f(T)[3 está en W, existe un vector y en W tal que f(T)[3 = f(T)'y_
Como acabamos de mostrar, si W es invariante y tiene un subespacio in-
variante complementario, entonces W es admisible. Una de las consecuencias
del Teorema 3 será el recíproco, de modo que la admisibilidad caracterizará
aquellos subespacios invariantes que tienen subespacios invariantes comple-
mentarios_
Indiquemos cómo la propiedad de la admisibilidad está implicada en la
intención de obtener una descomposición
V = z(«1; T) (9 (9z(a,; T).
El método básico para llegar a tal descomposición será seleccionar los vec-
tores oil, _ _ _ , oz, por inducción. Supóngase que, por un proceso u otro, se hayan
seleccionado oq, ___, oc,-, y que
Wf = Z(a1; T) + + Z(a,-; T)
sea un subespacio propio. Se desea encontrar un vector no nulo ozj + l tal que
Wi fl Z(¢1¡+1; T) = {9}
porque el subespacio I/V,-+1 = EB Z(oi¡,,; T) será entonces al menos una
dimensión más cercana al espacio V que se descompone. Pero ¿por qué debe
existir tal vector oi,-+1? Si oil, _ _ _, oi,-, han sido elegidos de modo que WJ- sea
un subespacio T-admisible, entonces es relativamente fácil ver que se puede
encontrar un oz,-H adecuado. Esto es lo que hará posible la demostración del
Teorema 3, aun cuando no expresemos así el razonamiento fraseado_
Sea W un subespacio propio invariante por T. Se desea encontrar un vec-
tor or, no nulo, tal que
(7-3) W Ñ Z(a; T) = {0}.
Se puede elegir un vector /Í que no está en W. Considérese el T-conductor Si/i; W),
que consta de todos los polinomios g tales que g(T)[3 está en W. Se recuerda
que el polinomio mónico f = s([3; W) que genera el ideal S(fi; W) es llamado
también el T-conductor de /3 en W. El vector f(T)[3 está en W. Ahora, si W es
T-admisible, existe un "y en W con f(T)[3 = f(T)¬,'. Sea oz = /i - y y sea g un
polinomio cualquiera. Como /3 - 3» está en W, g(T)[3 estará en W si, y solo si,
g(T)ot está en W; en otras palabras, S(ot; W) = S([3; W). Con lo que el poli-
nomio f es también el T-conductor de oi en W. Pero f(T)a = 0. Ello dice que
g(T)ot está en W si, y solo si, g(T)ot = 0; es decir, los subespacios Z(oz; T) y W son
linealmente independientes (7-3) y f es el T-anulador de oz.
:Ji illtt ln tt ltm ul
y .sc puede elegir un vector /1 de modo que grd s(/f; W) alcance tal máximo. El
subespacio W + Zlƒì; T) es entonces invariante por T y tiene dimensión mayor
que dim W. Aplicando este proceso a W = WO se tiene /il. Si W, = WO +
¿(/f,; T) es aún propio, entonces aplicando el proceso a W, se obtiene /iz. Se
continúa de esta forma. Como dim Wk > dim W,,_,, se debe alcanzar W, = V
cn no más de dim V etapas.
Parte 2. Sean fil, _ _ _, B, rectores no nulos que satisjfitcen las condiciones
(a) y (b) de la parte l. Se fi/'a k, l 5 k 5 r. Sea fl un vector cualquiera de V y
seu = S(,8; Wk_¡)_ Si
entonces f divide a cada polinomio g,- _r /io = f¬,-'0, donde "yo está en WO.
Si k = 1, ello es justamente la afirmación de que WO es T-admisible. Para
demostrar la afirmación para k > 1, se aplica el algoritmo de la división:
(7-4) g, = fl1,- + r¡, r,- = 0 o grd r,- < grd f
Queremos mostrar que -r,- = 0 para todo ¡_ Sea
I .as /ot'nut.\ rmional r de .Ionlun 233
Supóngase que algún r,- es distinto de 0. Se llegará a una contradicción. Sea /' el
mayor indice i para el que ri =;é 0. Entonces
J'
CH) .H=m+2ms
1
n†0 y wmrqwfl
Sea p _- s(¬,': W,-_ , )_ Como W,,_, contiene a W,-_ 1, el conductor _/` = s(y; Wk_ ,)
debe dividir a p:
tv = fa-
Aplicando g(T) a ambos miembros de (7-7):
(7-8) 227 = 9f'Y = 97331 -l' .(130 +l<2< _ 9'¡'i_5¡-
_¡ 2
Por definición_ p¬,' está en W,--_ 1, y los dos últimos términos del segundo miem-
bro de (7-8) están en W,-_,_ Por tanto_ grjflj está en W,-_ ¡_ Ahora. por la condi-
ción (b) de la parte l:
grd (gr,-l 2 grd -\`(Íi,-â W,--1)
= grd p,-
2 grd s(}'; W,-_¡)
= grd P
= grd (fs)-
Con lo que grd r_¡ > grd f, y ello contradice la elección de _¡'. Se sabe ahora que
f divide a cada g, y luego que /30 = _ƒ;'_ Como WO es T-admisible, B0 = fyo,
donde yo está en WO. De paso notamos que la parte 2 es una reafirmación de
la observación de que cada uno de los subespacios Wl, W2, _ _ _ , W, es T-ad-
misible_
Parte 3. Existen rectores no nulos oq, _ _ _ _ oc, en V que satisfacen las con-
diciones (i) _1' (ii) del Teorema 3.
Se comienza con los vectores [ì,_ ._ _ _ [ì,_ como en la parte l. Fijo k,
l 5 k 5 r, se aplica la parte 2 al vector B = /ik y al T-conductor f = pk.
Obtenemos _-
(7"9) Pkfik = PIKYO 'l' É Pklì-¿Ús
l$í<k
B = Úo+fi'Y1'l- 'l“fs'Y›_~
y asi,
yil-3 = ,flifio “l” 217 šliffïi-
Como cada g,- divide a gl, se tiene que gkyk == 0 para todo iy gk/f = .Hi/io está
en WO. Con lo que g, está en S(V: WO). Como g, es el polinomio mónico de
menor grado que aplica ',', en WO. se ve que gk es el polinomio mónico de menor
grado en el ideal S( V1 Wo). Por el mismo razonamiento, pk es el generador
de tal ideal, con lo que pk = g,_
Ítt\ /tHHht\ titttttttitl I til' .Inti/tttt .i
Hemos usado los hechos ll) y (2) anteriores y el hecho de que p¿:x,- = O,
iz 2. Como se sabe que p, = g.. (3), anteriormente mencionado, dice que
Ztpzatkç T) ya /(pl-;,_ T) tienen la misma dimensión. Luego se desprende de
(7-I4) que
dim Z(p2'y,-; T) = 0, 1,' 2 2.
(7-18) V=V1(-B---(Bm
las /ortttni tttcnntal r de Jorilint 2.77
y _/k" es el polinomio minimal del operador Tk_ obtenido por restricción dc 'I' al
subespacio (invariante) Vi. Se aplica la parte (ii) del presente teorema al opera-
dor Tk_ Como su polinomio minimal es una potencia del primo _/,Í_ el polinomio
característico de T, tiene la forma _/ku', donde dk 2 r,-_ Evidentemente
d_ :__ dim Vk
' grd .fi
y (casi por definición) dim Vk = nulidad fi(T)'*_ Como T es la suma directa de
los operadores Tk, Tk_ el polinomio característico f es el producto
fï-ƒtfloulƒík. I
para Z(ot,-; T). Aquí kk representa la dimensión de Z(ot,-; T), esto es, el grado
del anulador pk. La matriz del operador inducido T,- en la base ordenada 03, es
la matriz asociada del polinomio p,-_ Así, si se hace que 03 sea la base ordenada
de V que es la unión de las 03,- dispuestas en el orden 03k, _ _ _ _ 03,, entonces la
matriz de T en la base ordenada 03 será
(Hg) A: 0 A2 0
ò Ó jkk
donde A ¡ es la kk x kk matriz asociada de pk. De una matriz n >< n, A, que es
la suma directa (7-l9) de matrices asociadas de polinomios mónicos no esca-
lares pk, _ _ _, p,_ tales que pk-kk divide a pk- para i= 1, _ _ _ _ r - l, se dice que
está en forma racional. El teorema de descomposición cíclica dice lo siguiente
respecto a las matrices.
poliiioiiiios mónicos ek, _ _ _ _ _'¬'_-- tal que _e,, k divide a _i,', para i = I, _ _ _ . s - I,
eiitoiiccs es cvideiitc que sc ticiieii vectores /ik, _ _ _, /ik, no nulos, en V con T-
aiiuladorcs _ek_ _ _ __ gk. tales que
V = Z(fli; T) C43 ~ -~ C-BZ(B.; T)-
Pero por la unicidad del teorema de descomposición cíclica, los polinomios
gk soii idénticos a los polinomios pk que definen la matriz A. Así, C = A. I
Los polinomios pk, _ _ _ _ p, son llamados los factores invariantes de la matriz
B. En la Sección 7.4 se describirá un algoritmo para calcular los factores inva-
riantes de una matriz dada B. El que sea posible calcular estos polinomios por
iiicdio de un número finito de operaciones racionales en los elementos de B,
es la razón por la cual la forma racional recibe ese nombre.
Ejemplo 2. Supóngase que V es un espacio vectorial bidimensional sobre
cl cuerpo F, y T sea un operador lineal sobre V. Las posibilidades de descom-
posición cíelica en subespacios para T son muy limitadas. En efecto, si el poli-
nomio minimal de T es de grado 2, es igual al polinomio característico de T.
y T tiene un vector cíclico. Así que existe cierta base ordenada de V en la que
T está representado por la matriz asociada de su polinomio característico. Si,
por otro lado, el polinomio niinimal de Tes de grado l_ Tes un múltiplo escalar
del operador identidad. Si T= cl, entonces para dos vectores linealmente
iiidependientes cualesquiera. ock y ak. en V, se tiene
V = Z(<11; T) ®Z(<12; T)
pl = [72 = IU _' C.
Para matrices, este análisis dice que toda matriz 2 x 2 sobre el cuerpo F es
semejante sobre F exactamente a una matriz de los tipos
Ejemplo 3.
r 01 r ni
0 C , 1 "'01
esto es, que T está representado por B en alguna base ordenada. ¿Cómo se
pueden encontrar los vectores adecuados ak y ak? Bien, sabemos que cualquier
vector que genera un subespacio T-cíclico de dimensión 2 es un vector ade-
cuado xk_ De modo que sea ek. Tenemos
Tel = (5, -1, 3)
que no es un múltiplo escalar de ek; luego Z(ek; T) tiene dimensión 2. Este
espacio consta de todos los vectores aek + b(Tek):
a(l, 0, O) + b(5, -1, 3) = (a + 5b, -b, 3b)
o todos los vectores (xk, xk, xk) que satisfacen x3 = -3x2. Ahora lo que se
desea es un vector ock tal que Tot, = Zozk y Z(ot2; T) es disjunto de Z(ock; T).
Como az es un vector característico para T, el espacio Z(ot2; T) será simplemente
el espacio unidimensional generado por ak, y así, lo que se requiere es que ock
no esté en Z(oik; T). Si oi = (xk, xk, xk), se puede fácilmente calcular que
Tot = 2a si, y solo si, xk = 2x2 + 2x3. Así, ak = (2, 1, O) satisface Toik = 2oi2
y genera un subespacio T-cíclico disjunto de Z(ozk; T). El lector podrá verificar
directamente que la matriz de T en la base ordenada
Se tiene
V = Z(a1; T) 0') ' " ÉBZ(0ff; T)
pues cada /ik pertenece a uno, y solo a uno, de los subespacios Z(ock; T), _ _ _ _
/(fx,; T), y 03 = (03k, _ _ _, 03k) es una base ordenada de V. Por (7-23), pk-kk
divide a pk.
Ejercicios
Sea W el espacio nulo de T - 21. Demostrar que W no tiene subespacio T-invariante com-
plementario. (Sugerencia: Sea It = ek y obsérvese que (T - 21)/t está en W. Demostrar
que no existe of en W con (T - 21)/i = (T - 21)ot_)
-I. Sea T el operador lineal sobre F4 representado en la base ordenada canónìca por la
iiiatriz
Im Iortttiti mctottul i' «lc _lonlnn 24l
ƒV =fVi€)'“ €)fV›_.
6. Sean T, V y F como en el Ejercicio 5. Supóngase que cx y B son vectores en V que tienen
el mismo T-anulador. Demostrar que, para cualquier polinomio f, los vectores fa y ffi
tienen el mismo T-anulador.
7. Hallar los polinomios minimales y las formas racionales de cada una de las siguientes
matrices reales
0-1-1 c0-1
io o› oc 1. |ï°°S6S°“0:|.
-1 0 0 -11 C "me °°S6
8. Sea T el o Pe rador lineal sobre R3 reP resentado en la base ordenada canónìca P0 r
3 --4 -4
-l 3 2 -
2 -4 -3
Hallar los vectores no nulos ozk, _ _ _ _ oz, que satisfacen las condiciones del Teorema 3.
9. Sea A la matriz real
1 3 3
A = 3 1 3
-3 -3 -5
Hallar una matriz real 0, inversible, tal que P_1AP esté en la forma racional
10. Sea F un subcuerpo de los números complejos y sea T el operador lineal sobre F4
representado en la base ordenada canónìca por la matriz
ll. Demostrar que si A y B son matrices 3 x 3 sobre el cuerpo F, una condición nece-
saria y suficiente para que A y B sean semejantes sobre F es que tengan el mismo polinomio
.'40 _-lliga-lito lineal
di 21 _ _
|-jl Sub@-Spaçio ¢í¢1¡¢0 Z(otk; T) es el subespacio generado por los vectores /tk,
k;u¿md0 ¡ desçribe 105 indices para los cuales dk 2 /'_ El T-anulador de ock es
(7-23) Pi = H (33 _ Cd- 2
¿¢21`
Se üene
V = Z(ai; T)® ®Z(<1f; T)
mms Cada pj pertenem a uno, y solo a uno, de los subespacios Z(oik; T), _ _ _ _
¿(0kr¿ T), y (B = (631, __ _, 03k) es una base ordenada de V. Por (7-23), pkkk
divide a pk.
Ejercicios
Sea W ei espagio nu|0 de T ~ 21. Demostrar que W no tiene subespacio T-invariante com-
piekkkekkkk-kk¡0_ kgugekkkkk-¡(,; Sea fi = ek y obsérvese que (T - 21)/ƒ está en W. Demostrar
que no existe ot en W con (T _ Zllfi = (T _ 2¡)0f-)
4. Sea T el operador lineal sobre F4 representado en la base ordenada canónica por la
iiiatriz
Im Inrmm rm-luna! r dr .Innlfm .'41
ll. Demostrar que si A y B son matrices 3 >< 3 sobre el cuerpo F, una condición nece-
saria y suficiente para que A y B sean semejantes sobre F es que tengan el mismo polinomio
.'-l.' Hifi /Im /mi ul
t'.ii';iriei|stico x el mismo polinomio niiii|m.il. Dai un e|ein|\lo que niuestic que esto es |.iIso
|›.n.| msilriccs 4 ›< ~l.
I2. Sea I- nn subcuerpo del cuerpo de los numeros complejos _\ sean I _\ If m.iiiiees n - n
sohre la lìeinostrar que si .4 y B soii semejantes sohre el ctierpo de los mmieios eompleios.
soii seiiiejaiitcs sobre I-` l.S`ugi-i-mi-iii: Demostrar que la forma racional de I es la mism.i
si se considera -I como iiiatri/ sobre I-' o como matri/ sobre (`: lo iiusmo para Bi.
I3. Sea .-I una matri/ n x n de eleinentos complejos. Demostrar que si todo \aIor propio
tle .l es real. A es seinejantc a una matriz de elementos reales.
I-I. Sea T tin operador lineal sobre el espacio l'de dimension lìnita. l)emostr;ir que existe
nn vector 1 eii I' con esta propiedad: Si fes un polinomio y /(Tn = U. entonces /(T1 : 0
l l.iI sector 1 se llama un vector separador para el álgebra de los polinoinios en I Il (`uando
I tiene tm vector cielico. dai' una demostración directa de que cualt|uicr sector cíclico cs
tin vector separador para el algebra de los polinomios en 7'.
IS. Sea Fun subcuerpo del cuerpo de los números complejos 3 sea _-l una matri/ u ›< u
solue I-`. Sea ¡› el polinomio minimal para A. Si se considera a .4 coiiio matri/ sobre ( `. enton-
ces -I tiene un polinomio ininimal I eonio inatriz n ›< n sobre (Í Usar un teorema sohre
eciiaeioiies lineales para demostrar que p =_/1 ¿Se puede ter también como se deduce
esto del teorema de descomposición cíclica?
Io. Sea A una niatriz n ›< n con elementos reales tal que .41 + I 1 0 Deniostrar que
n es par y. si n = ZA-. entonces A es semejante sobre el cuerpo de los ntimeros reales a una
niatri/ de l`orma bloque
P fi
1- 0
I8. Si' I' es un operador lineal diagoiiali7abIe- eiitoiices cada subespacio imaruinte por I
ticiic un subespacio eoniplenientario in\'ai'iante por T.
I9. Sea T un operador lineal sobre el espacio I' de dimension linita. l)emostrar que I
tiene tin vector cíclico si. y solo si. es cierto lo siguiente: cada operador lineal ( que coninu
ta con T es un polinomio en T.
20. Sea I' un espacio vectorial de dimension limia sohre el cuerpo I- s sea I un operado:
liiieal eii |`. Se pregunta cuando se verilìca que cada xcctor no nulo de I es tin xector ci~
clico para T. Demostrar que este es el caso si. ) solo si_ el polinomio c;ir;icteristieo para
I es irreducìble sobre I-`.
2I. Sea A tiiia matriz n ›< n con elementos rm/vs Sea I' el operador lineal sohre R" ie
prescntado por A cn la base ordeiiada canónìca 3 sea ( el operador lineal sohre ('” rcpre
sentado por A en la base ordenada canonica. l'sai' el resultado del l-.icrcicio IU para de
mostrar lo siguiente: si los únicos subespacios inxariantcs por I son R" _\ el sul¬esp;ieio
cero. entonces L' es diagonalivahle.
I.u\ /urnun rmimml i' di- .hirdun 243
V = Z(ai;N)G9--- (¬9Z(0ff;N)
y p,-H divide a pi para i = 1, . . _ , r - I. Como N es nilpotente, el polinomio
mininial es xk para algún k 5 n. Así, todo p, es de la forma p¡ = xk y la condición
de divisibilidad simplemente dice que
¡fii2k22 Zkf.
Por supuesto. k, = k y k, 2 l. La matriz asociada de xk* es la matriz k,- ›< kí.
0 0 0 0
I O 0 0
(7“24) Ai = 0 1 Q 0 -
I Ó I O
U Q I I
I I Q I
00...1()
= (IlÍf¡)(I¿.
Asi. -\j/,- es divisible por x'*, y como grd l/,ïl - A',-. ello quiere decir que
fl = (.l_¿.k.-i
que muestra que los vectores (7-25) forman una base para el espacio iiiilo de N.
lil lector puede observar que este hecho es taiiibicii claro desde el punto de
vista inatricial.
Lo que se desea hacer ahora es combinar lo establecido para operadores
o matrices nilpotentes con el teorema de descomposición prima del Capítulo 6.
La situación es la siguiente: supóngase que T es un operador lineal sobre I' y
que el polinomio característico de T se puede factorizar sobre F como sigue
f = (zi: - c1)d' - -- (zi: - ci)d*
donde los cl, . . . , c,, son elementos distintos de F y dí 2 1. Entonces el poli-
nomio minimal de T será
iv = (iv - 01)" (af - Cr-)'*
donde l 5 ri 5 di. Si W,- es el espacio nulo de (T - c,-I)"', entonces el teorema
de descomposición prima dice que
V=W1®°°'®Wk
donde cada Ji" es la matriz elemental de Jordan con valor propio ci. También
en cada Ai la dimensión de las matrices Ji" decrece cuando j crece. Se dirá que
una matriz n ›< n, A, que satisface todas las condiciones descritas hasta ahora
(para escalares distintos ci, -.., cii) está en forma de Jordan.
Hemos observado que si T es un operador lineal cuyo polinomio caracte-
rístico se puede factorizar completamente sobre el cuerpo escalar, entonces
existe una base ordenada de V, en la cual T está en forma de Jordan. Deseamos
mostrar ahora que esta matriz es algo unívocamente asociado con T, salvo
el orden en que se escriben los valores propios de T. Es decir, si dos matrices
están en forma de Jordan y son semejantes, entonces difieren solo en la orde-
nación de los escalares ci.
La unicidad se ve como sigue. Supóngase que existe una base ordenada
de V en la cual T está representado por la matriz de Jordan A, descrita ante-
riormente. Si Ai es una matriz di ›< di, entonces di es claramente la multiplicidad
de ci como raíz de polinomio característico de A o de T. En otras palabras,
el polinomio característico de T es
2 0 0
1 2 0
0 0 --1
2 0 0
0 2 0 -
-'\h0l`2l 0 0 _1
0 0 0
(A - 2I)(A + I) = 3a 0 0
ac 0 0
-i
Ejemplo 7. Sea
g.ï+a,__ig1_-lf+
ax" d:c"“1
---+aifi+a«›ƒ=0.
da:
p=:r"+-~-+ai:v+ai›
¿Cuál es la forma de Jordaii para el operador derivación sobre V?
Sean ci, ci las raíces complejas distintas de pz
p = (1: - c1)“ - - - (x c;,)".
Sea Vi el espacio nulo de (D - ciI)"', esto es, el conjunto de las soluciones de
la ecuación diferencial
(D '_ C¡I)Tff = 0.
l"sto da
Ng = (T - 1):'tt'_2h
lijercicios
¿Cuál es la forma de Jordan para esta matriz? (F un subespacio de los números complejos.)
6. Sea A la matriz compleja
Im /mmm mrmmil r «Ir Jurilun _'-IU
0 0 0 0 0
2 0
f = tx - cadi tx - «ad-
¿euál es la traza de A?
8. Clasificar, por semejanza, todas las matrices complejas 3 x 3, A, tales que A3 = I.
9. Clasificar, por seinejanza, todas las matrices complejas n x n, A, tales que A" = I.
10. Sea n un entero positivo, n 2 2, y sea N una matriz n x n sobre el cuerpo F tal que
N" = 0, pero N""' 9€ 0. Demostrar que N no tiene raíz cuadrada; es decir, que no existe
una matriz n x n, A, tal que A2 = N.
ll. Sean Ni y NZ matrices nilpotentes 6 x 6 sobre el cuerpo F. Supóngase que Ni y N,
tienen el mismo polinomio minimal y la misma nulidad. Demostrar que N, y N2 son se-
mejantes. Demostrar que esto no es cierto para matrices nilpotentes 7 x 7.
12. Usar el resultado del Ejercicio ll y de la forma de Jordan para demostrar lo siguiente.
Sean A y B matrices n x n sobre el cuerpo F que tienen el mismo polinomio característico
y el mismo polinomio minimal. Supóngase que también para todo i los espacios solución
de (A - cil) y (B - cil) tienen la misma dimensión. Si ningún di es mayor que 6. entonces
A y B son semejantes.
x 0 0 0 co
*I IU 0 °" 0 C1
:cf-A= -i 0 C2
0 00--- Á; ¢,`_,
0 0 0 -1 x+¢,..i
Se suma x veces la fila n a la fila (n - 1), con lo que se quita x del lugar
(n - 1, n - l) sin cambiar el valor del determinante. Después se suma x veces
la nueva fila n - 1 a la fila n _ 2. Se continúa sucesivamente este proceso hasta
que todas las x de la diagonal principal hayan desaparecido. El resultado es
la matriz
0 0 0 0 x"+---+c1x+c0
--1 0 0 -- 0 :c""1+---+c2x+c1
0 -1 0 -- 0 :c""2+---+c3:c+c2
Q 0 0 0 o
I O 0 O 0
Q 0 Q I I
0 0 0 0 :i:2+c,.._1:i:+c,._.2
0 0 0 -1 x+c»_i
000-- 0p
-i 00-- 00
0-10-- 00
000-- 00
000----10
Lema. Sea M una matriz de F[x]""*" que tiene algunos elementos no ni.ili›.s-
cn su primera columna, y sea p el máximo común divisor de los elementos-de la
columna l de M. Entonces M es equivalente por filas a la matriz N que tiene
Sea j un índice tal que grd = I(Mi)_ Para precisar, sea j el menor índice
i para el que grd fi = l(Mi ). Para dividir cada ji por fi se hace
(7-30) fi = fi-gi + ri, ri = 0 o grd ri < grd
Para cada i diferente de_i, se remplaza la fila í de M por la fila i menos gi veces
la fila f. Se multiplica la fila j por el inverso del coeficiente dominante de y
Í un /n¡'Imt.\ |'m'n›m|l I' :lr .lmïlull 253
L-
T2
(7-31) Mí = 73'" .
T1
†f+1
Tm
(i) P es inversible.
( ii) El determinante de P es un polinomio escalar no nulo.
254 .llgvlvm lmml
(1-32) Q = Í? B
O
que es equivalente por filas a P. Una operación elemental de fila altera el de-
terminante de una matriz por (a lo más) un factor escalar no nulo. Así, det Q
es un polinomio escalar no nulo. Evidentemente, la matriz (m -- 1) >< (m - 1), B,
en (7-32) tiene el mismo determinante que Q. Por tanto, se aplica el lema ante-
rior a B. Si se continúa de esta manera por m etapas, se obtiene la matriz trian-
gular superior
1 az ... am-I
R: 9 % ... (fm
0 0 --- 1
que es equivalente por filas a R. Obviamente, R es equivalente por filas a la
matriz unidad m x m. I
tr- que se pilctle olitenci :il hacer una operación elemental por columna en la
main/ unitlail es la misma que la clase obtenida al usar una sola operación
ilvliictllall Por lllil.
M:
talla una dt las cuales es una operación elemental de fila o una operacio'n elemental
¡lt ittllllllllll.
1---0
.Í O
un G
un
O. os 1
356 .llgrlvra lineal
(7-36) (Í S
O
que es equivalente a M(0). Empezamos por aplicar a la matriz Mm' el proce-
dimiento del lema anterior al Teorema 6, procedimiento que se llamará PL6.
Resulta una matriz
Í-U-Y /Urtttm m|~|`nttttl I' ala' .luttltttt 2.57
p a ... b
(7_37) Mu):
oe---f
Si los elementos a, _ _ _ , b son todos nulos, bien. Si no, se usa el análogo de PL6
para la primera fila, procedimiento que se llamará PL6'. El resultado es una
matriz
q O O
(7-ss) M<2›= '_' fl *É
bt dt fr
se debe llegar a una matriz M“' que tiene la forma (7-36), ya que en cada etapa
sucesiva se tiene que l(M"**") < l(M“"). Se designa el proceso que se acaba
de definir por P7-36:
Mm) P7-36 Mu).
Queremos hacer ver que la forma normal asociada a una matriz M es única.
Se vieron dos cosas que dan la clave de cómo los polinomios f,, _ _ _ , f, en el
Teorema 9 están determinados unívocamente por M. Primera, las operaciones
elementales de fila y de columna no cambian el valor del determinante de una
matriz cuadrada en más que un factor escalar no nulo. Segunda, las operaciones
elementales de fila y de columna no cambian el máximo común divisor de cada
elemento de una matriz.
J=(.7'1›--››.7'k)› 1S.7-1<"'<.7'kÉfl
y se observa la matriz formada por esas filas y columnas de M. Estamos inte-
resados en los determinantes
Íllaf. ''' Miu.
(7-39) Dr.J(M) = det- 2 E -
Míuji ° ' ° Illinjb
= cD¡_¡(M);
D¡'J(6(i1l[)) -'= DJ(0¿¿¡, . . . , 01,- + gas, _ . . , an)
Para las operaciones del tipo (a) es claro que cualquier f que divide a D,_,(M )
también divide a D,__,(e(M)). Para el caso de la operación del tipo (b) obsér-
vese que
D_r(0a-., - - - , 01,, . . . , af.) = 0, si s = il- para algúnj
D_r(0f»i.›- - - › Of., _ _ , , añ) -.= ±Dr'._r(-W), si s =# i¡ para todo j.
I.a I' en la última ecuación es el k-tuple (i,, _ _ , s, _ _ _ , ik) ordenado en orden
creciente. Ahora es evidente que, si f divide cada D,__,(M), entonces f divide
a cada D,__,(e(M))_
Las operaciones del tipo (c) pueden tratarse más o menos por el mismo
razonamiento dado, o usando el hecho de que tal operación puede ser efec-
tuada por una sucesión de operaciones de los tipos (a) y (b). I
Corolario. Toda matriz M de F[x]""”' es equivalente precisamente a una
matriz N que está en forma normal. Los polinomios f,, . _ _ , fi, que aparecen
en la diagonal principal de N son
5 (M)
f=-_-'í-i, lSkSmin(m,n)
*mmm
donde, por conveniencia, se define ò`0(M ) = 1.
Demostración. Si N está en forma normal con elementos en la diagonal
fl, _ _ _, j,, es muy fácil ver que
mM=m~n.|
Por supuesto que la matriz N en este último corolario se llama la forma
normal de M. Los polinomios f¡, _ _ _ , f, son llamados a menudo los factores
invariantes de M.
Supóngase que A es una matriz n x n con elementos en F, y sean p,, _ _ _ , p,
los factores invariantes de A. Se ve ahora que la forma normal de la matriz
xl - A tiene en la diagonal los elementos 1, 1, _ _ _, 1, p,, _ _ _, pl. El último
corolario dice qué son pl, _ _ _, p,, en términos de las submatrices de xI - A.
El número n - r es el mayor k tal que ö,_(xI - A) -= l. El polinomio minimal
p, es el polinomio característico de A dividido por el máximo común divisor
de los determinantes de todas las submatrices (n - 1) x (n - 1) de xl - A, etc.
Ejercicios
I. ¿ Es verdadero o falso que toda matriz de F[x]"”" es equivalente por filas a una matriz
triangular superior?
2. Sea T un operador lineal sobre un espacio vectorial de dimensión finita y sea A la matriz
dc T en una base ordenada. Entonces Ttiene un vector cíclico si, y solo si, los determinantes
de las submatrices (n - 1) x (n - I) de xl - A son pìimos relativos.
3. Sea A una matriz n x n con elementos en el cuerpo F y sean fi» _ _ _ , _f,, los elementos
de la diagonal de la forma normal de xl - A. ¿Para qué matrices A es fl #= I?
--'UU Ilgrlii-ii litiml
4. Coiistruir un operador lineal I' con poliiioinio iniiiiinal _\'1(.\' - 1)* y polinomio carac-
terístico .r-'(.\ - |)'*_ l)escrihir la descoinposición prima del espacio vectorial por Ty hallar
las proyecciones sobre los componentes primos. Hallar una base en la cual la matriz de
'I' este en l`orma de Jordan. Hallar también una descomposición explícita en suma directa
del espacio subespacios T-cíclicos, como en el Teorema 3 y dar los factores invariantes.
5. Sea T el operador lineal sobre R8 representado en la base canónìca por la matriz
A-_=
O O O OI-* Qi-¢i-›Qi-›O i- ©›-al-I©I- ©©I-I Oi- i-^O O›-^ OI-*I-*I-*O OI-^ O HO O I-* OHO O OP- Qi- i- Oi-l Ii- I
Uai=aƒ+1› j=l:'~'›n_l
Uan í ._ __ ..' -_ c¶¿_1a¶¡¢
l-tt\' /t›t'ttttt.\' t'm'tuttttl I' ali' .lurtlutt QÚÍ
I-` I efecto de U sobre esta base es entonces trasladar cada oz¡ al siguiente vector
fz,,-+1, con excepción de que Uot,, es una combinación lineal preestablecida de
los vectores de la base. Como el operador lineal general T es suma directa de
un número finito de tales operadores U, se obtuvo una descripción explícita
y razonablemente elemental del efecto de T.
A continuación se aplicó el teorema de descomposición cíclica a operadores
nilpotentes. Para el caso de un cuerpo escalar algebraicamente cerrado, se com-
binó esto con el teorema de descomposición prima para obtener la forma de
.lordan. La forma de Jordan da una base {ot¡, _ _ _ , ot,,} del espacio V tal que,
para todo j, o bien Taj es un múltiplo escalar de ot,-, o bien Tot¡ = cot¡ + ay-+1.
Tal base describe ciertamente el efecto de T de modo explícito y elemental.
La importancia de la forma racional (o de la forma de Jordan) proviene
de que existe, más bien que del hecho que se pueda calcular en casos determi-
nados. Claro está que si se tiene un operador lineal específico Ty se puede calcu-
lar su forma cíclica o de Jordan, es lo que hay que hacer, pues, teniendo ›¿--zi
forma, se puede deducir una gran cantidad de información acerca de T. Dos
tipos diferentes de dificultades surgen en el cálculo de esas formas canónicas.
Una es desde luego lo largo de los cálculos. Otra, que puede no haber un me-
todo para hacer los cálculos, incluso si se tienen el tiempo y la paciencia ne-
cesarios. La segunda dificultad surge, por ejemplo, al tratar de hallar la forma
de Jordan de una matriz compleja. Sencillamente no hay un método bien de-
finido para factorizar el polinomio característico, y asi uno queda detenido al
empezar. La forma racional no presenta esta dificultad. Como se vio en la Sec-
ción 7.4, hay un método bien definido para hallar la forma racional de una
matriz n x n dada; con todo, los cálculos son por lo general extremadamente
largos.
En el resumen de los resultados de estos dos últimos capítulos no se ha men-
cionado aún uno de los teoremas que se demostraron. Es el teorema que dice
que si T es un operador lineal sobre un espacio vectorial de dimensión finita
sobre un cuerpo algebraicamente cerrado, T se expresa unívocamente como
suma de un operador diagonalizable y de un operador nilpotente que conmutan.
Esto se demostró con el teorema de descomposición prima y con cierta infor-
mación sobre los operadores diagonalizables. No es este un teorema tan pro-
fundo como el de la descomposición cíclica o el de la existencia de la forma
de Jordan, pero si tiene aplicaciones importantes y útiles en algunas partes de
la matemática. Para concluir este capítulo demostraremos un teorema análogo
sin suponer que el cuerpo escalar es algebraicamente cerrado. Comenzaremos
definiendo los operadores que desempeñan el papel de los operadores diago-
nalizables_
W=(WÑW1)€B"'€B(WÑWi_)
Demostración. Para la demostración se necesita recordar un corolario de
la demostración del teorema de descomposición prima, en la Sección 6.8. Si
E,, _ _ _ , E,, son las proyecciones asociadas a la descomposición V = W¡ G9 - - - EB
Wk, entonces cada EJ- es un polinomio en T. Esto es, existen polinomios 11,, _ _ _ , hk
tales que EJ- = h)-(T).
Sea ahora W el subespacio que es invariante por T. Si ot es un vector cual-
quiera de W, entonces oz = al + ' '° + ak, con otj en Ahora otj = E141 =
h¡(T)ot, y como W es invariante bajo T, cada 1,- está también en W. Así cada
vectorotde Wes dela formaot = ot, + - ' ' + ot,,_con otj en la intersección WH W,-_
Esta expresión es única, ya que V = W, EB - - - EB Wk. Po; tanto,
W=(Wf)Wi)®---®(WñlVt)› I
Lema. Sea T un operador lineal sobre V _i° supóngase que el polinomio mi-
nimal de T es irreducìble sobre el cuerpo escalar' F_ Entonces T es semisimple.
Demostración. Sea W un subespacio de V invariante por T. Se debe de-
mostrar que W tiene un subespacio complementario T-invariante. De acuerdo
con el corolario del Teorema 3, será suficiente demostrar que si f es un poli-
nomio y fi es un vector de V tal que f(T)/3 está en W. entonces existe un vector
ot en W con ƒ(T)B = f(T)oc. Asi. pues, supóngase que /t está en V y que f es un
polinomio tal que f(T)B está en W. Si f(T)B = 0, se hace oz = 0 y entonces 1
es un vector en W con f(T)/i = ƒ(T)ot_ Si f(T)[ì qé 0, el polinomio f no es di-
visible por el polinomio minimal p del operador T. Como p es primo, eso quiere
decir que f y p son primos relativos y existen polinomios g y li tales que fg +
ph = 1. Como p(T) = 0 se tiene entonces que f(T)g(T) == 1. De esto se sigue
que el vector [3 debe estar en el subespacio W; en efecto,
B = ¶(T)f(T)B
= a(T)(ƒ(T)B)
cuando f(T)B está en W y W es invariante por T. Se hace ot = /t. I
El lector deberá ver que, como la sustitución y derivación son procesos lineales,
solo se necesita demostrar la fórmula cuando f = xk. La fórmula para
f = kg) c,_x" se deduce por combinación lineal. En el caso f = x", con
=o
k í n, la fórmula dice que
a"= [h+(ø-h)]'°- I
Lema. Sea F un subcuerpo de los números complejos, sea f un polinomio
sobre F y sea f' la derivada de f Las siguientes afirmaciones son equivalentes:
(a) f es el producto de polinomios irreducibles distintos sobre F.
(b) f y f' son primos relativos.
las /nrnnii' i'm'uit|ul i' tlt' .lurilittt 265
f(T)' = 0-
Se construirá una sucesión de polinomios go, gk, gz, tal que
f(a= - 2 Q,-ff)
J=U
donde b es cierto polinomio. Por hipótesis, f(h) = qf". Así se ve que para ob-
tener que f(h - g,,f") sea divisible por f"*' se necesita solo elegir g,, de tal
modo que (q - g,,f') sea divisible por f. Esto puede hacerse, ya que _/ no tiene
factores primos repetidos, con lo que f y f' son primos relativos. Si a y e son
polinomios tales que af + ef' = l y si se hace g,, = eq, entonces q - gmf' es
divisible por f.
Se tiene ahora una sucesión go, gk, _ _ _ tal que ƒ"“ divide a
ƒ - g,-fi), Tomemos n = r - 1, y entonces, como f(T)' = 0,
J -
í
O
las li›rma_s ruruinal i' de Jordan 267
'r-l
f(1' - ,go g,~<'r›f<T›f) = 0.
Seu
lzjercicios
en R3 es el número real
(alli) = 11312/1 + 332?/2 'l' 1132/3-
268
l-\'pm-tus i-mi prmlurui lnti-mu 209
l)cbe observarse que las condiciones (a), (b) y (c) implican que
= %¬4x1'?/i-
ã
=
--M-M a-Ma-[4
EePJ`¡<BJ'¡¢°
Ejemplo 4. Sea F"" 1 el espacio de las matrices (columnas) n ›< 1 sobre F,
y sea Q una matriz inversible n x n sobre F. Para X, Y en F""' se hace
(XI Y) = Y"'Q*QX-
Se identifica la matriz 1 ›< l del segundo miembro con su solo elemento. Cuan-
do Q es la matriz unidad, este producto interno es esencialmente el mismo del
Ejemplo 1; se llama el producto intemo eanónico sobre F'“' '_ El lector deberá
observar que la terminología de «producto intemo eanónico» se usa en dos
contextos especiales. Para un espacio vectorial general de dimensión finita
sobre F no hay un producto interno obvio que se pueda llamar eanónico.
ma=fiflwoa
El lector está probablemente más familiarizado con el espacio de las funciones
de valor real en el intervalo unitario, y para este espacio la conjugación com-
pleja puede omitirse.
Ejemplo 6 Este es en realidad un conjunto de eje1nplos_ Por el siguien-
te método se pueden construir nuevos productos internos a partir de uno dado.
Sean V y W espacios vectoriales sobre F y supóngase que ( | ) es un producto
interno sobre W. Si T es una transformación lineal no singular de V en W, en-
tonces la igualdad
PT(0f, B) = (TUITB)
define un producto interno pk sobre V. El producto interno del Ejemplo 4 es
un caso especial de esta situación. También lo son los siguientes:
(a) Sea V un espacio vectorial de dimensión finita y sea
(B = {(!1,...,(X,k}
una base ordenada de V. Sean ek, _ _ _ , e,, los vectores de la base canónìca en
F" y sea T la transformación lineal de V en F" tal que Totk- = ek, j = 1, _ _ _ , ii.
En otras palabras, sea T el isomorfismo «natural›› de V sobre el producto in-
terno eanónico sobre F", entonces
c
L
I-.`\¡nn'tt›.\ nm producto interno 27!
tft@;
¿Gian 2
k
Z/kai) = j Si
== l
$1371-
A-ki. para cada base para V existe un producto interno sobre V con la propiedad
de que (ak-otk) == ök-k; en efecto, es fácil ver que existe exactamente uno solo
de tales productos internos. Más adelante se verá que cada producto interno
sohre I" está determinado por alguna base (B en la forma anterior.
(li) Volvamos nuevamente al Ejemplo 5 y tomemos V = W, el espacio
dr las funciones continuas en el intervalo unitario. Sea T el operador lineal
«multiplicación por t››, esto es, (Tf)(t) = tf(t), 0 5 t 5 1. Es fácil ver que
I' es lineal. También Tes no singular; en efecto, supóngase que Tf = 0. Enton-
res 1/'(1) = 0 para 0 S t S 1; luego f(t) = 0 para t > 0. Como f es continua,
se tiene también que f(O) = 0, o f = 0. Ahora, usando el producto interno
del Ejemplo 5, se construye un producto interno nuevo sobre V haciendo
= É íUi¢(0fiklfi)
= É ¿Uk Ú1'(0fkl0fi')
k 1
= 2 Úfiikilïk
¡tk
= Y*GX
donde X, Y son las matrices de coordenadas de oz y Ii en la base ordenada (B,
y G es la matriz con elementos Gkk = (otklotk-)_ Se llama a G la matriz del producto
iiiterno en la base ordenada (B. Se sigue de (8-5) que G es hermítiea, es decir,
que G = G *; sin embargo, G es una clase de matriz hermítiea más bien especial.
En efecto, G debe satisfacer, además, la condición
(8-6) X*GX > 0, X ¢ 0.
En particular, G debe ser inversible. Ya que en caso contrario existe una X =¡é 0
tal que GX = 0, y para toda tal X, (8-6) es imposible. En forma más explícita.
(8-6) dice que para los escalares xk. _ _ _ , x,,, no todos nulos,
(8'7) iii,-Gjieítïit > 0.
J.
l-.`\¡›m-mi run pmdm tu tntri-mi 273
Ejercicios
<§«n§aw›pšj+k+l
. i 1; = _0'1`b*
define un producto interno sobre el espacio R[x] de los polinomios sobre el cuerpo R. Sea
W el subespacio de los polinomios de grado menor 0 igual que n. Restringir el producto
intemo anterior a W y hallar la matriz de este producto intemo sobre W respecto a la base
ordenada {l, x, . . . , x"}. (Sugerencia: Para mostrar que la fórmula define un producto
interno, obsérvese que
Um=LMwww
y operar con la integral.)
l2. Sea V un espacio vectorial de dimensión finita y sea CB = {a,. . _ . , a,,¦- una base de V.
Sea ( | ) un producto interno sobre V. Si c,, _ _ _ , c,, son n escalares arbitrarios, demostrar
que existe exactamente un vector oz en V tal que (oz|oz)) = c-J-, ¡' = l, . . ., n.
I3. Sea V un espacio vectorial complejo. Una función J de V en V se llama
si .Ita + B) = Jtoz) + .¡(/i), J(coz) = c.I(oz) y .¡(J(oz)) = oz para todo r y todo oz, [f en V. Si
.I es una conjugación, demostrar que
(a) El conjunto W de todos los oz en V tales que .Ia = oz es un espacio vectorial sobre
R con respecto a las operaciones definidas en V.
tb) Para cada oz en V existen vectores únicos /3, ¬,~ en W tales que oz = li + i¬,'.
14. Sean V un espacio vectorial complejo y W un subconjunto de V con las siguientes
propiedades :
(a) W es un espacio vectorial real con respecto a las operaciones definidas en V.
(b) Para cada oz en V existen vectores únicos /i, 3' en W tales que oz = [3 + iy. Demos-
trar que la ecuación .Ia = /3 - ig- define una conjugación en V tal que .loz = oz si, y solo si,
cx pertenece a W y mostrar también que J es la única conjugación en V con esta propiedad.
15. Hallar todas las conjugaciones en C' y C2.
16. Sea W un subespacio real de dimensión finita de un espacio vectorial complejo V.
Demostrar que W satisface la condición (bl del Ejercicio I4 sii y solo si, cada base de W es
también una base de V.
l7. Sean V un espacio vectorial complejo. J una conjugación sobre V, W el conjunto
de los 1 de V tales que .laz = oz y _/` un producto interno sobre W. Demostrar que:
(a) Existe un producto interno único g en V tal que gta, li) = f(oz, /3) para todo
zx. Ii en W.
(b) g(J:x. JB) = g([ì. oz) para todo oz, Ii en V.
¿Qué dice la parte (a) respecto a la relación entre los productos internos canónicos sobre
R1 y C' o sobre R" y C`"'?
'y = fi - -
5 a.
I-ntonces (y|ot) = 0 y
Os ll~†ll2= (B-Í-ftffiaiø-ï¡-¶¡9¡š«)
=elfl›--%§f;@
,_ _ lola a
“““” l|«l|=
luego |(oz|B)|2 5 ||oc||2||B||2. Ahora usando (c) se tiene que
:Aid
H l|«|l2'
Í 7(› .-l /gt 'llïtt llmwl
Asi, la igualdad se tiene en (iii) si, y solo si, ot y B son linealmente dependientes.
¦I. /,_ ig., _/`2 , g 2 , _ . .'1 es un eon_iunto inlinito ortonormal. En cl caso com le'o
se pueden lormar tambien las combinaciones lineales
1 .
_@(ƒn+zgn)› n=l,2,....
lle este modo se tiene un nuevo conjunto ortonormal S que consta de todas
las funciones de la forma
= 0f(0fi¡l°fk)
J
= C¡.;((I¡¢l(X¡¢).
(H-3) (mae)
5 = 2 ?-ak.
I==1 llaklla
Este corolario se desprende de la demostración del teorema. Hay otro co-
rolario que mencionar que es también obvio. Si {oc,, . . _ , ot,,,} es un conjunto
ortogonal de vectores no nulos en un espacio con producto interno de dimen-
sión finita V, entonces m S dim V. Esto dice que el número de direcciones
mutuamente perpendiculares en V no pueden exceder la dimensión algebraica-
278 .-llgeltru Inn al
Teorema 3. Sea V un espacio con producto interno y sean B1, . . . , B,, vec-
tores independientes cualesquiera de V. Entonces se pueden construir vectores
ortogonales oil, . . . , og, en V tales que para cada k = 1, 2, . . . , n el conjunto
{0<l¬ ---,Ollal
sea una base del subespacio generado por B1, . . . , B,,.
Demostración. Los vectores oq, . . _, a,, se obtendrán por medio de una
construcción conocida como proceso de ortogonalización de Gram-Schmidt.
Primero, sea ot, = B1. Los otros vectores están entonces dados inductivamente
de la siguiente forma: supóngase que oil, . . . , am (1 S m S n) hayan sido ele-
gidos de modo que para cada k
{ot1,.._.,a¡¢}, lšlcšm
es una base ortogonal para el subespacio de V que es generado por B1, . . _ , B,,.
Para construir el siguiente vector oc,,,+1, sea
m . a
(8“9) 0fm+1 = ¡3-m+1 _' 2 íêüllzi) ak.
I==1 llakll
Entonces oc,,,+¡ ak 0. En efecto, ya que en caso contrario a,,,+, es una combi-
nación lineal de los al, . . . . ot,,, y luego una combinación lineal de los a,, . . _ , a,,,.
Además, si l 3 j 5 m. entonces
(flzlai)
012 = B2 _ wz' 011
(8-IO)
Corolario. Todo espacio con producto interno de dimensión finita tiene una
Imse nrtomwnuil.
Demostración. Sean V un espacio con producto interior de dimensión
Imitu y { B1, _ _ _ , B,,} una base para V. Aplicando el proceso de Gram-Schmidt,
se construye una base ortogonal {oc1, _ _ _ , ot,,}_ Entonces, para obtener una base
ortonormal. se remplaza simplemente cada vector oc,, por og,/||ot,,||_ I
Una de las ventajas principales que tienen las bases ortonormales sobre
Las bases arbitrarias es que los cálculos en que entran coordenadas son más
simples. Para indicar en términos generales por qué es así, supóngase que V es
nn espacio con producto interior de dimensión finita. Entonces, como en la
ultima sección, se puede usar (8-5) para asociar la matriz G con cada base orde-
nada CB = {oc,, ._ _ , oc,,} de V. Usando esta matriz
Gjk = (ak|aJ`)›
se puede calcular el producto interno en términos de las coordenadas. Si G3 es
una base ortonormal, entonces G es la matriz unidad, y para cualesquiera
escalares xj e yk
(2 1010;@ Z/wi) = 2 ¡Billi-
J J
Ba = (2, 9» 11)
en R3 con el producto interno eanónico. Aplicando el proceso de Gram-Schmidt
a los B1, B2, B3, se obtienen los siguientes vectores
(11 = (3, 0,
-4 3
f2(1U1› 1U2›$a) c 32;- xa
(11 = (G,
Í \['m un rml ptmlln ltl Nllflmt :dll
= (ed) - <a,b)
cblš - döa dãa - cãl)
_ (IGI2 + lblz' lali + IW)
dfit A ( 5, ã).
i lar + lbr
Almra la teoría general dice que ot, qé 0 si, y solo si, B1, B2 son linealmente
independientes. Por otro lado, la fórmula para oc, muestra que este es el caso
si, y solo si, det A 7€ 0.
En esencia, el proceso de Gram-Schmidt consiste en la aplicación repetida
«le una operación geométrica básica llamada proyección ortogonal, y se le en~
tiende mejor desde este punto de vista. El método de la proyección ortogonal
lnmbién aparece en forma natural en la solución de un importante problema
«lc aproximación.
Supóngase que W es un subespacio de un espacio con producto interno V,
_v sea B un vector arbitrario en V. El problema consiste en hallar una mejor
aproximación posible a B por vectores de W. 'Esto quiere decir que se desea
encontrar un vector ot para el que B-- oc|| sea lo más pequeño posible, sujeto
al la restricción de que ot debe pertenecer a W. Precisemos lo dicho.
Una mejor aproximación a B por vectores de W es un vector oc de W tal que
k Il@ llz
k
____(fi † “le _ W) O, _
'c lla-«lr ( '”'
Entonces, la desigualdad se reduce a la afimiación
para cada y en S, así con + B también está-en Sl. En el Teorema 4,.la propie-
dad característica del vector oz es que es el único vector de W tal que B - ot per-
lcnece a Wi
(a,a,«;_)-›(3”*+;5,f”
'2 -
$3) (3,12,-1).
.'84 .-l l_t3¢'l›t'u llmwl
si, y solo si, 3x, + 12x2 = x3 = 0. Este es el caso si. y solo si, (xl, xz, x3) está
en Wi. Por tanto, W* es el espacio nulo de E, y dim (WL) = 2. Calculando
12 - .
(xl) 172» 173) El (3xl 15:2 xa) (3) 12; _`1)
1-åz (145x¡ - 36:z:2 -I- 31:3, -36x1 -l- l0.v2 + 12112;, 32:1 + 121122 -I- 153x3)_
Además, (I - E)B = 0 si, y solo si, B = EB, y este es el caso si, y solo si, B está
en W. Por tanto, W es el subespacio nulo de I - E. I
2 ~lifilakllz
RHMP --_ -_ S B 2
HH
l' la desigualdad vale si, y solo si,
(lijar)
= 2 --_ _
B k llakllz ak
Demostración. Sea y = Z [(B|o¢,,)/||ot,,||2] ak. Entonces B = 1' + 5, donde
k
(¬,›|ö) = 0. Luego
mW=MW+Mm
Es ahora suficiente demostrar que
2 = l(fl|€!k)|2
___.
É “ak"2
3; lel«)_)r s llølr.
286 fllgelvra lineal
B = 21 (filflk) «It
o si, y solo si, la desigualdad de Bessel es efectivamente una igualdad. Por cier-
to que en el caso en que V sea de dimensión finita y {a,, _ _ _ _ oc,,} es una base
ortogonal de V, la fórmula anterior rige para todo vector B en V. En otras pa-
labras; si {a,, _ _ _ _ oc,,} es una base ortonormal de V, la k-ésima coordenada
de B en la base ordenada {oz,, _ _ _ , ot,,} es (B|ot,,)_
Ejercicios
I. Considerar R4, con el producto interno eanónico. Sea W el subespacio de R4 que consta
de todos los vectores ortogonales a ot = (1, O, - l, l) y B = (2, 3, - l, 2). Hallar una base
de W.
2. Aplicar el proceso de Gram-Schmidt a los vectores B, = (l, 0, l), B2 = (l, 0, -I),
B3 = (0, 3, 4) para obtener una base ortogonal para R3 con el producto interno eanónico.
3. Considerar C3 con el producto interno eanónico. Hallar una base ortonormal para
el subespacio generado por B, = (1, 0, i) y B2 = (2, l, l + i).
4. Sea V un espacio producto interno. La distancia entre los vectores fx y B en V está de-
finida por
d(a› = lla _
Demostrar que
(al d(°f¬ li) 2 0;
(b) d(a, B) = 0 si. y solo si, ot = B;
(c) d(a, B) -= d(B, a);
td) d(°f. li) S d(0=¬ 1') + d()'. li).
5. Sea V un espacio producto intemo y sean ot, B vectores de V. Demostrar que a = B
si, y solo si, (a|)') = (B|y) para todo 1' de V.
l.'.\¡nn'|ltI.\ (ml /It'mlm'It› Itllrrmt 2.37
ti. Sea ll' el sulwspalcin de R2 generado por el vector (3, 4). Usando el producto interno
t-,nu'mico, sea I. la proyección ortogonal de R* sobre W. Hallar
la) una fórmula para I:`(.\',, xz);
lb) la matri/ de 1:' en la base ordenada canónica;
lv) W L:
(d) una base ortonormal en que E está representada por la matriz
lá 3]-
7. Sea V el espacio producto interno que consta de R2 y el producto intemo cuya forma
cuadrática está definida por
"(211, $2|l2 = ($1 '“ $2)2 + 323%-
Sea L` la proyección ortogonal de V sobre el subespacio W generado por el vector (3, 4).
Responder ahora las cuatro preguntas del Ejercicio 6.
ll. Hallar un producto interno sobre R2 tal que (c,, ez) = 2.
9. Sea V el subespacio de polinomios R[x] con grado a lo más 3. Dótese V con el pro-
ducto interno
I
mo=jnmwa
(a) Hallar el complemento ortogonal del subespacio de polinomios escalares;
(b) Aplicar el proceso de Gram-Schmidt a la base {l, x, xl, x3}.
I0. Sea V el espacio vectorial de todas las matrices n ›< n sobre C, con el producto inter-
no (A|B) = tr (AB*). Hallar el complemento ortogonal del subespacio de matrices dia-
gonales_
II. Sea V un espacio producto interno 'de dimensión finita y sea {a,, . _ _ , a,,} una base or-
tonormal de V. Demostrar que para vectores cz, B cualesquiera de V
wm=É¡do@ãt
I2. Sea W un subespacio de dimensión finita de un espacio producto interno V y sea E
la proyección ortogonal de V sobre W. Demostrar que (Ea|B)_= (a|EB) para todo ot, B en V.
I3. Sea S un subconjunto de un espacio producto interno V. Demostrar que (S L)* con-
tiene al subespacio generado por S. Cuando V es de dimensión finita, mostrar que (S 1)*
es el subespacio generado por S.
I4_ Sea V un espacio producto interno de dimensión finita y sea (B = {a,, _ _ _ , a,,} una
base ortonormal de V. Sea T un operador lineal sobre V y A la matriz de T en la base or-
denada (B. Demostrar que
Á,-¡ = (T(I¡|(I¡).
yeeción ortogonal sobre W, tiene la propiedad de que "Ea" 5 ||a|| para todo ot de V. Dc-
mostrar que si E es una proyección con imagen W, tal que S ||a|| para todo a de V,
entonces E es la proyección ortogonal sobre W.
17. Sea V el espacio prodiicto interno real que consta del espacio de las funciones conti-
nuas de valor real en el intervalo -1 5 t 5 1, con el producto interno.
(8 13) B _2}1ƒ(a,-)a,-
,=
(`omo esto es cierto para todo ocj, se sigue que f = jj. Ahora supóngase que
j- es un vector de V para el que (a|B) = (oz ¬,') para todo oz. Entonces (B - y|B -
;'l = O y B = y. Así existe exactamente un vector B que determina al funcional
lineal f en la forma establecida. I
para escalares fijos c,_ c,, determinados por la base. Ciertamente, c,- =
/(fz,). Si se desea encontrar un vector B en V tal que (oc|B) = f(oc) para todo ot, en-
tonces es evidente que las coordenadas yj de B deben satisfacer y, = c, o yj =
/(ot,-)_ Por consiguiente,
B = ƒ(a1)«-vi + +)Éa,_
es el vector que se desea.
Unos comentarios al respecto. La demostración del Teorema 6 que se ha
dado es muy breve, pero no resalta el hecho geométrico esencial de que B está
en el complemento ortogonal del espacio nulo de f. Sea W el espacio nulo de f.
Iintonces V = W + Wi y f está completamente determinado por sus valores
en Wi. En efecto, si P es la proyección ortogonal de V sobre Wi, entonces
f(a) = f(Pa)
para todo oc de V. Supóngase que f 0. Entonces f es el rango 1 y dim (Wi) = 1.
Si ¬,› es otro vector no nulo cualquiera de Wi, se sigue que
10-@
a _ Hill* 7
para todo ot en V. Así,
.l-(U)
= ( a IV) .lll
“WIP
fe) = j'f<t)ã<T) dt
para todo f. Sea h = x - z, de modo que para cualquier ƒ se tenga que (hf) = 0.
Entonces
0 = ji h<t)f<t)`š<T) dt
para todo f. En particular, esto rige cuando f = hg, con lo que
ji lh<¢)l2lg(l)l* dl = 0
y asi hg = 0. Como h =/= 0, debe tenerse que g = 0. Pero L no es el funcional
eero_; luego no existe tal g.
Se puede generalizar algo el ejemplo para el caso donde L sea combinación
lineal de evaluaciones puntuales. Supóngase que se eligen números complejos
fijos z,, ..., 2,, y escalares c,, __., c,,, y sea
B' = T*ø.
Se tiene (8-14), pero se debe verificar también que T* es un operador lineal.
Sean B, ¬,' en V y sea c un escalar. Entonces para cualquier oz,
l\¡›m tm um ¡multa to mterno .'01
a = 2 (a|oz¡,)a¡,_
l¢=l
t¢=1
y 001110
fl
Au = (Tai-Im.)
Bkj = (T*(XjI(Xk).
Bgj = (T*(!¡|Cl¡,)
= (¢YklT*¢*›')
= (Tflklaƒ)
:A1 |
.'92 .-ll_i¦el›ra lineal
1 9 36 -3
A=¬ 36 144 -12
154 -3 -12 1
es la matriz de E en la base ortonormal canónìca. Como E = E *, A es tam-
bién la matriz de E *, y como A = A* esto no contradice el corolario anterior.
Por otro lado, supóngase que
(11 = 0,
lil lector debe eonvencerse por sí mismo de que esto es realmente un caso es-
pecial del último corolario.
Ejemplo 19. Este es semejante al Ejemplo 18. Sea V = C"“" con el pro-
ducto interno (A|B) = tr (B*A)_ Sea M una matriz n x n dada sobre C. El
adjunto de la multiplicacióna la izquierda por M es multiplicación a la izq aler-
da por M*. Naturalmente, «multiplicación a la izquierda por M» es el ope-
rador lineal LM definido por LM(A) = MA.
(LM(A)IB) = tr (B*(M-4))
= tr (MAB*)
= tr (AB*M)
= tr (A (M*B)*)
= (AILM*(B))-
Así (LM-)* = LM.. En el cálculo anterior se usó dos veces la propiedad carac-
terística de la función traza: tr (AB) = tr (BA).
Ejemplo 20._ Sea V el espacio de los polinomios sobre el cuerpo de los nú-
meros complejos con el producto interno
1' =l=
lzjercicios
I. Sea V el espacio C2 dotado del producto intemo eanónico. Sea T el operador lineal
delìnido por Te, = (l. 2), Te, = (i. -- I). Si ot = (x,, xz), hallar T*a.
2. Sea T el operador lineal en C2 definido por Te, = (1 + i, 2), Te, = (i, i). Usando el
producto interno eanónico, hallar la matriz de T* en la base ordenada canónìca. ¿Conmuta
I' con T*'?
3. Sea V = C3 con el producto interno eanónico. Sea T el operador lineal sobre V cuya
matriz en la base ordenada canónìca está definida por
An = íi+'°› (iz = -1)-
ll.-illar una base para el espacio nulo de T*_
206 A l,t'eln'u lineal
(alli) = 2 ïlïƒlly'
_1=1
= É :l2,¶7¡,(Ta,-|Ta¡,)
.7
n 1
= Z 21'?/1'
:=l
y así, pues, T preserva los productos internos. |
298 .4 l_g'c'lu it lineal
[fly] = L'f(¢›y(¢)r*d¢.
Sea W el mismo espacio vectorial con el producto interno
mo=fiflmwu
Sea T la transformación lineal de V en W dada por
(7'f)(i) = ¿f(t)-
Intonces (Tf|Tg) = [f|g], y así T preserva los productos internos; sin em-
hargo, T no es un isomorfismo de V sobre W, ya que la imagen de Tno es todo W_
Por supuesto, esto sucede porque el espacio vectorial básico no es de dimen-
sión finita.
(A *AM = ¿ik
O
en
Él A.,-_,-A.,-¡¢ - ôjk.
_._ 1 d b_
At-_Al_ad-bcji-c a]
El determinante de una matriz ortogonal es, como fácilmente se ve, ± I. Así
A es ortogonal si, y solo si,
a b
A _ [-b 0]
O
a b
A _ [b -0]
302 _-I l_L'i'ln'it Íimwl
r 1---1td*
5 d ad - bc -c a
El determinante de una matriz unitaria tiene valor absoluto I y es, por tanto_
un número complejo de la forma e'°, H real. Así A es unitaria si. y solo si,
Teorema 14. Para toda matriz compleja n x n, inversible, B, existe una úni-
ca matriz triangular inferior M, con elementos positii¬os en la diagonal principal,
de modo que MB es unitaria.
Demostración. Las filas B,, ___, B,, de B forman una base de C"_ Sean
oq, _ _ _ , fx, los vectores que se obtienen de B1, _ _ _ , B" por el proceso de Gram-
Schmidt. Entonces, para 1 5 k 5 n, {a¡, __ _, cx,,} es una base ortogonal del
subespacio generado por {B,, _ _ _ _ B,,}, y
_ (fiklaƒ)
“* " B* '
I-.spin-uis mn ¡mnlurm nm-nm ill]
Mkj = 1 _ _ __
está en U(n). Por otro lado, aun' cuando no es enteramente obvio, T*(n) es tam-
bién un grupo para la multiplicación matricial. Un modo de verlo es consi-
derar las propiedades geométricas de las transformaciones lineales
X -› MX, (M en T+(n))
sobre el espacio de las matrices columnas. Así M; 1, M,M§ ' y (M,M; 1)"
están todas en T+(nl. Pero, como M,M¿" está en U(n), (M,M2")`1=
(M1M§ ')*. La transpuesta o la conjugada transpuesta de cualquier matriz
triangular inferior es una matriz triangular superior. Por tanto, M1M; 1 es
simultáneamente triangular superior e inferior, es decir, diagonal. Una matriz
diagonal es unitaria si. y solo si, cada uno de sus elementos de la diagonal prin-
cipal tiene valor absoluto I; si los elementos de la diagonal son todos positivos,
deben ser iguales a 1. Luego M,M;1 == I, con lo que M, = M2. I
Sea GL(n) el conjunto de todas las matrices complejas n x n e inversibles.
Entonces GL(n) -es también un grupo para la multiplicación matricial. Este
grupo. se llama el -grupo lineal generaI.'El Teorema 14 es equivalente al siguien-
te resultado.
,NH /I l_t_{i'lu'u lineal
a1 = (x1, x2, 0)
G2 = (0› 1› 0) _ I2(íU1› $2, 0)
= íE1(-1112, $1, 0)
O13 = (0, 0,
$1 ¿C1
0 0 1 0 0 1 0 0 1
Ahora, multiplicando por la inversa de
100
M= -9-lo
$1321
001
se tiene que
:cl :122 0 1 0 0 xl 11:2 0
0 1 0 = $2 $1 0 _' $2 $1 0
0 0 1 0 0 1 0 0 1
para todo oz en V. Si U es el operador lineal único sobre V definido por Uaj = a,f,
entonces P es la matriz de U en la base ordenada G3;
fl
r
ak = -El P¡ka¡_
1= -
(`omo (B y G3' son bases ortonormales, U es un operador unitario y P es una
matriz unitaria. Si T es un operador lineal cualquiera sobre V, entonces
Ejercicios
l. Hallar una matriz unitaria que no sea ortogonal y encontrar una matriz ortogonal
que no sea unitaria.
2. Sea Vel espacio de las matrices complejas n x ncon producto interno (A|B) = tr (AB*).
Para cada M en V, sea TM el operador lineal definido por TM(A) = MA. Demostrar que
TM es unitario si, y solo si, M es una matriz unitaria.
3. Sea V el conjunto de los números complejos considerados como espacio vec'torial real.
(a) Demostrar que (a|/3) = Re (all) define un producto interno sobre V.
(b) Mostrar un isomorfismo (de espacio producto interno) de V sobre R2 con el pro-
ducto interno eanónico.
(c) Para cada 'y de V, sea M, el operador lineal sobre V definido por M,(a) = ya. De-
mostrar que (M,)* = M,-_
(d) ¿Para qué números complejos y es M, autoadjunto?
(e) ¿Para cuáles ji es M, unitario?
(f) ¿Para cuáles y es M, positivo?
(g) ¿Cuál es det (M,)?
(h) Hallar la matriz de M, en la base {l, i}.
(i) Si T es un operador lineal en V, hallar condiciones necesarias y suficientes para T
para que sea un M,.
(j ) Encontrar un operador unitario sobre V que no sea un M,.
,wn .~l lgclira lineal
para algún real 0. 0 S. 0 S 2. Sea U9 el operador lineal que corresponde a la primera ma-
triz; es decir, U, es una rotación de ángulo 0. Ahora observar que todo operador unitario
sobre V es una rotación o una simetría en torno al eje Sl seguida de una rotación.
(a) ¿Qué es U,U¢?
(b) Demostrar que U2' = U0.
(c) Sea çb un número real fijo y sea (B = {a¡, a2} la base ortonornal obtenida por ro-
tación de {e,, e,} en el ángulo gb; es decir. or, = U4,e,-_ Si 6 es otro número real. ¿cuál es la
matriz de U9 en la base ordenada G3?
8. Si 6 es un número real, demostrar que las siguientes matrices son equivalentes uni-
tariamente
[eosö - sen 0] [effi O
sen 0 eos 6 ' 0 e¬'”
I0. Sea V un espacio producto interno de dimensión finita. Para cada oi, B en V, sea T,,_ ¡,
cl operador lineal en V definido por T,_¡,(^,') = (1-|[ï)a. Demostrar que
(a) T;'f¡, = T¡¡_,,.
(b) traza (-7:,_,,) = (alli).
(Cl Ta_flTv.ô = Taxfllviø-
(d) ¿En qué condiciones es TM, autoadjunto?
II. Sea V un espacio producto interno de dimensión finita sobre el cuerpo F y sea L(V, V)
el espacio de los operadores lineales sobre V. Demostrar que existe un producto interno
unico sobre L(V, V) con la propiedad de que ||T,_¡,||2 = ||a||2||B||2 para todo a, /i de V
tl`,_¡, es el operador definido en el Ejercicio 10). Hallar un isomorfismo entre L(V, V), con
este producto interno, y el espacio de las matrices n x n sobre F, con el producto interno
(113) = ir (AB*).
I2. Sea V un espacio producto interno de dimensión finita. En el Ejercicio 6 mostramos
como construir operadores lineales sobre V que son autoadjuntos y unitarios a la vez. De-
mostrar ahora que no hay otros, es decir, que todo operador autoadjunto y unitario surge
de cierto subespacio W como se describió en el Ejercicio 6.
l3. Sean V y W espacios producto interno de dimensión finita que tienen la misma di-
mensión. Sea U un isomorfismo de V sobre W. Demostrar que
(a) La aplicación T-› UTU” es un isomorfismo del espacio vectorial L( V, V) sobre
el espacio vectorial L(W, W).
(b) traza (UTU_') = traza (T) para todo T de L(V, V).
(c) U7§,_ ,U _1'= TU,_U,, (TM, definido en el Ejercicio lO).
(d) (UTU"')* = UT*U"
(e) Si se dota L( V. V) del producto interno (T¡|T2) = traza (T1 Tf), y análogamente
para L(W, W), entonces T-› UTU” es un isomorfismo de espacios producto interno.
I4_ Si V es un espacio producto interno, un movimiento rigido es cierta función T de V en
I (no necesariamente lineal) tal que ||Ta _ Tfi|| = ||a - para todo a, ll de V. Ejemplo
de movimiento rígido es un operador lineal unitario. Otro ejemplo es la traslación de vec-
tor dado 'yz
T-,(a) = of -l- 'Y
(a) Sea V - R2, con el producto interno eanónico. Supóngase que T es un movimiento
rígido de V y que T(0) = 0. Demostrar que T es operador lineal y unitario.
(b) Usar el resultado de la parte (a) para demostrar que todo movimiento rígido de
R2 está compuesto de una traslación, seguida de un operador unitario.
(c) Demostrar ahora que un movimiento rígido de R2 es una traslación seguida de
una rotación. o una traslación seguida de una simetría seguida de una rotación.
IS. Un operador unitario sobre R4 (dotado del producto interno eanónico) es simplemen-
te un operador lineal que preserva la forma cuadrática,
ii(xi ya zi = t2 _ $2 _ ya _ 22°
Lorentz» (en la que no entraremos). Por esa razón un operador lineal T sobre R4 tal que
||Ta||f = para todo ot de R4, se llama transformación de Lorentz.
(a) Demostrar que la función U definida por
von/_z, 0 = Í Í, l§Í
es un isomorfismo de R4 sobre el espacio vectorial real H de las matrices complejas 2 x 2
autoadjuntas.
(b) Demostrar que = det (Uot).
(c) Supóngase que T es un operador lineal (real) sobre el espacio H de las matrices
2 x 2 autoadjuntas. Demostrar que L = U "TU es un operador lineal sobre R4.
(d) Sea M una matriz compleja 2 x 2 cualquiera. Mostrar que TM(A) = M *AM de-
fine un operador lineal TM sobre H (asegurarse de que TM aplica H en H).
(e) Si M es una matriz 2 x 2 tal que |det MI = l, demostrar que LM = U"TMU es
una transformación de Lorentz en R4.
(f) Hallar una transformación de Lorentz que no sea un LM.
vector propio de T con valor propio c si, y solo si, ot es un vector propio para T-*
con valor propio E.
Demostración. Supóngase que U sea un operador normal en V. Entonces
|| Ua|| = ||U*a||. En efecto, usando la condición de que UU * = U*U se tiene que
T*0¿1 = (A*)¡10f_¬-
J
= Ã1¡aj.
.7
Por tanto, A1, = 0, para todo ¡` > l. En particular A1, = 0, y como A es trian-
gular superior, se sigue que
Tag = 14.2202.
Corolario. Para toda matriz normal A existe una matriz unitaria P tal que
I' ii ¡AP es una matriz diagonal.
lzjercicios
I. Para cada una de las siguientes matrices simétricas reales. A. hallar una matriz orto-
vonal real P tal que P'AP sea diagonal.
1 1] 1 2] cos0 Sen 0]
[1 1' 2 1' seno -coso
2. ¿Es una matriz simétrica compleja autoadjunta? ¿Es normal?
3. Para
123
A=234
345
314 /l /gt-lira lineal
hay una matriz ortogonal real P tal que P 'AP = D sea diagonal. Hallar tal matriz dia-
gonal D.
4. Sea V = C2, con el producto interno eanónico. Sea T el operador lineal sobre V re-
presentado en la base canónìca por la matriz
1 i
A " lt 1]'
Demostrar que T es normal y hallar una base ortogonal de V que consista en vectores pro-
pios de T.
S. Dar un ejemplo de una matriz 2 x 2, A, tal que A2 sea normal, pero que A no lo sea.
6. Sea T un operador normal sobre un espacio producto interno complejo de dimensión
finita. Demostrar que T es autoadjunto, positivo, o unitario según que todos los valores
propios de T sean reales, positivos o de valor absoluto igual a 1. (Usar el Teorema 22 para
reducir el problema a uno similar respecto a matrices diagonales.)
7. Sea T un operador lineal sobre el espacio producto interno de dimensión finita V y
supóngase que T es positivo y unitario. Demostrar que T = I. '
8. Demostrar que T es normal si, y solo si, T = T, + iT¡, donde T, y T2 son operado-
res autoadjuntos que conmutan.
9. Demostrar que una matriz simétrica real tiene una raiz cúbica simétrica; es decir, si
A es simétrica real, existe una simétrica real B tal que B3 = A.
I0. Demostrar que toda matriz positiva es cuadrado de una matriz positiva.
ll. Demostrar que un operador normal y nilpotente es el operador cero.
12. Si T es un operador ngrmal, demostrar que los vectores propios de T, asociados a
distintos valores propios, son ortogonales. ` '
13. Sea T un operador normal sobre un espacio producto interno complejo de dimensión
finita. Demostrar que existe un polinomio _/, con coeficientes complejos, tal que T* = f(T).
(Representar T por medio de una matriz diagonal y ver que debe ser f.)
I4. Si dos operadores normales conmutan, demostrar que su producto es normal.
9; Operadores sobre espacios
producto interno
9. I_ Introducción
315
3 lo .-1 /gt-lira Iim'al
.l-(ai =
Asi, una forma sesquilineal es una función sobre V x V tal que _/(ot, B)
es una función lineal de ot para B fijo y una función lineal-conjugada de B para
cx fijo. En el caso real, ƒ(ot, B) es una función lineal de cada argumento; o sea
que ƒ es una fonna bilineal. En el caso complejo, la forma sesquilineal ƒ no
es bilineal, a menos que ƒ = 0. En el resto de este capitulo se omitirá el adjetivo
«sesquilineal››, salvo que sea importante tenerlo en cuenta.
Si ƒ y g son formas sobre V y c es un escalar, es fácil probar que cf + g es
también una forma. De esto se concluye que toda combinación lineal de formas
sobre V es a su vez una forma. Así, el conjunto de todas las formas sobre V
es un subespacio del espacio vectorial de las funciones escalares sobre V x V.
f(<1, B) = (T0fi|lï)
para cualesquiera ot, B de V, y la aplicación f -› T es un isomorƒismo del espacio
de las formas sobre L(V, V).
Demostración. Fijado el vector B en V, entonces ot-› ƒta, B) es una fun-
ción lineal sobre V. Por el Teorema 6 existe un vector único B' de V tal que
f(a, B) = (a|B') para todo ot. Se define una función U de Ven V haciendo UB = B'.
Entonces
Um-nulorc.s sobre cijiiii-tos ¡mnlurto interno .U7
para todo cx y B; con lo que Ta = T'a para todo ot. Así, para cada forma ƒ existe
un único operador lineal Tf tal que
f(a, B) = (Tfalfi)
para todo ot, B de V. Si ƒ y g son formas y c un escalar, entonces
Corolario. La ecuación
tflsl = ff (TfT¿'ì)
define un producto interno sobre el espacio de las formas con la propiedad de que
(fly) = tr (TfTã)
es un producto interno. Supongamos ahora que A y B son las matrices de Tf y
T9 en la base ortonormal (B -_- {ot¡, _ _ _, a,,}_ Entonces
y B,-R =-(Tga,,|a,-) = g(a,,, or,-)_ Como AB* es la matriz de T¡T,,* en la base G3,
se .sigue que
Íflgl = tf (AB*) = ¡H Aiuãju- Í
,_ Definición. 'Si f es una forma y (B == {oz¡, _ _ _, ot,,} una ¿gases ordenada ar-
bitraria de V, la matriz A de elementos
_ Ajh' -= ƒ(ak› dj)
ai = _2>lP-_-«.~_ (1 si s n)
está dada por la ecuación
(9-2) A' =` P*AP.
En efecto, , I
Air = f(0fk› ai)
= Pskan 2 Prjar)
= 2 ÉAr:Pak
¶',I
= (P*A P) ,-1..
para todo ot y B en V.
entonces _-ƒ(B, ot) == (a|TB) == (T*a|B); así que_f es hermítiea si, y solo si, T es
autoadjunto.
Cuando ƒ es hermítiea, ƒ(a, ot) es real para todo ot, y en los espacios com-
plejos esta propiedad caracteriza a las formas hermíticas.
para todo ot y B; luego 'l` = T*_ Por el Teorema 18 del Capitulo 8. existe una
base ortonormal de V formada por los vectores característicos para T. Supón-
gase que {a1, oc,,} es una base ortonormal y que
_ Ta; = c,-a,-
para 1 515 n. Entonces
f(Ofk› Off) = (TOfklOff) = ökivk
y por el Teorema 15 del Capítulo 8, todo c,, es real. I
Corolario. En las condiciones anteriores
Ejercicios
1. ¿Cuáles de las siguientes funciones ƒ' definidas para los vectores ot = (xl, xz) y
B = (yl, yz) de C2 son formas (sesquilineales) sobre C2?
(H) f(Of›B) = 1-
(b) f(Of› B) = ($1 _ Ú1)2 + 152%-
(0) f(0f› B) = (11 + 171)” "' ($1 _ 1702-
(d) f(0f› B) = QIIÚ2 _ ï52Z/1-
2. Sea f la forma sobre R2 definida por
f*=l_ì- él
y sea g la forma (en el espacio de las matrices complejas 2 x I) definida por g(X, Y) =
l'*AX_ ¿Es g un producto interior?
4. Sea V un espacio vectorial complejo y sea f una forma (sesquilineal) simletrica sobre V:
f(Of- If) = ftlf- Ol- ¿Qué ¢S f7
5. Sea ƒ la forma sobre R2 dada por
= H tÍk.f(Ofi› Ofk)
= Akjxjlïk.
al-[4al-bd
gmHM
\
Así, pues, se ve que cf es no negativa si, y solo si,
A = A*
Y
(9-3) Z Z Ak,-x,-2,, 2 0 para todos los escalares xl, _ , x,,_
j lt
Para que f sea positiva, la desigualdad (9-3) debe ser estricta para todo
(xl, _ _ _ _ x,,) 51: 0. Las condiciones deducidas dicen que f es una forma positiva
en V si, y solo si, la función
g(X, Y) = Y*AX
es una forma positiva en el espacio F"” 1 si, y solo si, existe una matriz inversi-
ble P, con elementos en F, tal que A = P*P_
Demostración. Para cualquier matriz n x n, A, la función g de (9-4) es
una forma en el espacio de las matrices columnas. Se demostrará que g es po-
sitiva si, y solo si, A = P*P_ Primeramente, supóngase que A = P*P_ Enton-
ces g es hermítiea y
g(X, X) = X*P*PX
= (PX)*PX
2 0.
Si P es inversible y X qé 0, entonces (PX)*PX > 0. Ahora supóngase que g
es una forma positiva en el espacio de las matrices columnas. Entonces es un
producto interno y, por tanto, existen matrices columnas QI, _ _ _ , Q,, tales que
¿ik = 9(Qf› Qi)
= QÉ`AQ¡-
Pero esto dice, justamente, que si Q es la matriz con columnas Q,, __ _, Q",
entonces Q*AQ = I. Como {Q¡, ___, Q,,} es una base, Q es inversible. Con
P = Q” se tiene A = P*P_ I
Ari Ark
A,,(A)=da 1 : _ 15k-sn.
Ari Ara
Ahora bien, B es triangular inferior siempre que B,-,, = 0 para j < k. Así, pues,
B será triangular inferior si, y solo si,
1;-1
(9-5) É Affpfk = *Am 1 S .Í S ¡C _ 1
"* agkga
Con lo que vemos que la afirmación (a) del lema es equivalente a la afirmación
de que existen escalares P,,,, 1 5 r 5 k, 1 ;<_ k 5 n, que satisfacen (9-5) y
P,,,,=l,l$kSn_
En (9-5), para todo k > 1 tenemos un sistema de k - 1 ecuaciones lineales
para las incógnitas PM, PM, _ _ _ , P,,_ ,_,,. La matriz de coeficientes de ese sis-
tema es
An ' ' ' Ara;-1
Para verificar (9-6), sean A1, _ _ _ , A,, y B1, _ _ _ , B,, las columnas de A y B, res-
pectivamente. Entonces
B1=/11
(9-7 ) Bfi_äPMM+A"
f- r>1_
F
Se deja fijo k, 1 5 k 5 n. Por (9-7) se ve que la r-ésima columna de la matriz
An Ao
Au °°' Akk
324 Á ljteltru litwul
Ofi = Z Pirat-
1`=l_
Air Ari
A., A._.__
Como consecuencia del Teorema 5 se observó que la positividad de la forma
implica que el determinante de cualq_uier_mat'riz que la represente es positiva. I
Up:-rmlort-s sohn- t-ipm tm ¡umlurm um-rno 325
Ejercicios
1. Sea V = C2. con el producto interno eanónico. ¿Para cuáles vectores oz de V hay un
operador lineal positivo T tal que -at = Te,'?
2. Sea V = R2, con el producto interno eanónico. Si 0 es un número real, sea Tel ope-
rador lincal «rotación t)››,_
T,,(_\-,_ xz) = tx, cos 0 - _\-2 sen 6, x, sen 0 + xz cos 0).
¿Para qué valores de 0 es T0 un operador positivo?
3. Sea V el espacio de las matrices n x I sobre C, con el producto interno (X | Y) == Y*GX
(donde G es una matriz n x n tal que este sea un producto interno). Sean A una matriz
n ›: n y T un operador lineal T(X) = AX. Hallar T*. Si Y es un elemento fijo de Y, hallar
el elemento Z de V que determina el funcional lineal X -› Y*X. En otras palabras, hallar
Z tal que Y*X = (X|Z) para todo X de V.
4. Sea V un espacio producto interno de dimensión finita. Si T y U son operadores linea-
les positivos sobre V, demostrar que (T + U) es positivo. Dar un ejemplo que muestre
que TU no tiene que ser positivo necesariamente.
5. Sea A =
X - ri X - t°1~
definida por
1 0 7 2 _ 1
tt 21» t_±_1tt1› lg ; _
1 -1 1 1 1
7. Dar un ejemplo de una matriz n x n que tenga todos sus menores principales positi-
vos, pero que no sea una matriz positiva.
8. ¿Define ((x,, x2)|(y,, y2)) = xƒ, + 2x,_)7, + 2x,,t72 + xl?, un producto interno so-
hre C2?
9. Demostrar que todo elemento de la diagonal principal de una matriz positiva es po-
›lliVO_
I0. Sea V un espacio producto interno de dimensión finita. Si T y U son operadores linea-
les sobre V, se escribe T < U si U - T es un operador positivo. Demostrar lo siguiente:
(a) T < U y U < T es imposible.
(b) Si T< U y U< S, entonces T< S.
(c) Si T < U y 0 < S, no es necesariamente ST < SU.
II. Sean V un espacio producto interno de dimensión finita y E la proyección ortogonal
de V sobre algún subespacio.
(a) Demostrar que, para cualquier número positivo c, el operador el + E es positivo.
(b) Expresar por E un operador lineal autoadjunto T tal que T2 = I + E.
I2. Sea n un entero positivo y A la matriz n x n
1 1 1 1
2 3 n
1 1 1 __ _._1__
A=2 3 4 n-l-1
1
n n+ 1 n+2 2n - 1
Esta sección contiene dos resultados que dan información más detallada
acerca de formas (sesquilineales).
y W' el conjunto de todos los vectores B de V tales que f(a B) = 0 para todo ot
de W. Entonces W' es un subespacio de V y W H W' = 0¡ st, y solo st, MA es
inversible. Si este es el caso, V = W + W '
Demostración. Si B y :y son vectores de W' y c es un escalar, entonces para
todo ot en W
f(Of, CB + 1) = ï>f(Of, B) + f(Of, 1)
=0_
Luego, W' es un subespacio de V.
T T
f(0f› B) = Ú¡M¡kIk
t.¡¢
= É ?¡Mfl=)$t=-
Se sigue de esto que W H W' qé {0} si, y solo si, el sistema homogeneo
,_fila,-M,-,_ = 0, 1 gkgf
tiene una solución no trivial (y,, _ _ _, ,v,). Luego WH W = {0} si y solo sr,
M* es inversible. Pero ser M* inversible es equivalente a ser M inversible
Supóngase que M es inversible y sea
A = (Mx)-1 = (M-1)#_
= C § A,-tftat, tv + §A_››_f<«.._ 1)
=- vs,-(B) + 91(1)-
Luego toda gi es una función lineal sobre V. Asi, pues, se puede definir un ope-
rador lineal E sobre V haciendo
EB = 9i(5)Of¡-
2=1
Como
9¡(O››') = É A¡t=f(Ofk› On)
= É A¡k(M*)±»
= 5,.,
t)p¢'rudurr_r solm' i-.sjuutm ¡nmlurto intemo _ J29
se sigue que E(ot,,) = fz,, para l 3 n 5 r. Esto implica que Ea = rx para todo
»x de W. Por tanto_ E aplica V sobre W y E2 = E. Si B es un vector arbitrario
de V, entonces
.l-(am = ƒ (am gi(B)a.t`)
= (am
ai)
= ft@-._ B)-
lìsto implica f(a, EB) = f(a, B) para todo ot de W. Luego,
ƒ(a. B - EB) = 0
para todo a de W y todo B de V. Asi, I - E aplica V en W'. La igualdad
B = EB + (I - E)B
muestra que V = W + W'. Es de mencionar un último punto. Como WH
W' = {0}, todo vector de V es suma única de un vector de W y un vector de
W'_ Si B está en W' se sigue que EB = 0. Luego I - E aplica V sobre W'. I
tal que A*P es triangular inferior. Por tanto, P*A = (A*P)* es triangular su-
perior. Como el producto de las matrices triangulares superiores es también
triangular superior, se sigue que P*AP es triangular superior. Esto muestra
la existencia, pero no la unicidad de P. Sin embargo, hay otro razonamiento,
más geométrico, que puede usarse para demostrar la existencia y unicidad de P.
Sean W, el subespacio generado por fz,, _ _ _ , ot, y W; el conjunto de todos
los B de V tales que f(ot, B) = 0 para todo ot de W,. Como A,,(A) =/= 0, la ma-
triz k x k, M, de elementos
Mii = f(Ofƒ› Off) = Ao'
(1 5 i, j 5 k) es inversible. Por el Teorema 7
V = W., Q) Wi.
Sea E,, la proyección de V sobre W, determinada por esta descomposición, y
sea E,, = 0. Sea
B; = ai. - E¿_¡a¡,, (1 É lc S n).
Entonces B, = ot, y E,,_,ot,, pertenece a W,.., para k > l. Asi, cuando k > l,
existen escalares únicos P,-,, tales que
ti-1
Ei;-rat; = _ 211 Pikaf-
1%
-Haciendo PM, = 1 y P,-,, = 0 para j > k, se tiene entonces una matriz n ›< n
triangular superior P con PM, = 1 y
1;
fik = _E Pjttflj
1=l
con lo que BM = 0 cuando k > i. Asi B es triangular superior. Por otro lado,
B = P*AP.
Recíprocamente, supóngase que P es una matriz triangular superior con
PM, = 1 tal que P*AP es triangular superior. Se hace
fi¡¢=2_:PJ`|¢a:'›
1
Entonces {B,, _ _ _ , B,,} es evidentemente una base de W,. Supóngase que k > l.
Entonces {B,, _ _ _, B,_,} es una base para W,,_,, y como f(B,-, B,,) = 0 cuando
i < k, se ve que B, es un vector de W,{_,_ La ecuación que define B, implica
lt;-I
fltt = "_ (21 Pjttúfƒ) + Bn-
,=
lìpt-rtuloriis xolirr r.I¡uu'lo.\- ¡irmlin-tu interno JJ]
R-I
Ahora bien, 2 P,,,a¡ pertenece a W,,_ , y B, está en W,{_,_ Por tanto_ P,,,, _ _ _ , P,,_ ,,,
¡=I= '
son los únicos escalares tales que
I:-1
Eh-lab = _ E Pjkaj
¡-1
con lo que P es la matriz construida anteriormente. I
°°°+TE¡
=C1E1'l' 'l'CtiEi=- I
,
f = n=0
E a¬.:t="
Se ÍICHC
fm = guar-
bj-i 5° Ma-
= n=0 i=l C?-Ej
k f
= ¡=1
2 (E 0.15-')Ei
n=0
t
= ,lil f(0¡)E¡-
ul espectro de 'I', que tenga valores en el cuerpo de los escalares. Entonces el ope-
rador lineal f( T) está definido por la igualdad
= §f(C›')E›'O
= 2 t›E,~a.
Luego 2
no-=åpau
es la descomposición espectral de f(T).
334 Algebra ¡im-al
= U (2f(Ct)E¡) U"
= Uf(T)U-*_ |
Pensando en el análisis anterior, es importante tener presente que el es-
pectro del operador nonnal T es el conjunto
S= {C1,...,Ck}
de valores propios distintos. Cuando T está representado por una matriz dia-
gonal en una base de vectores propios es necesario repetir cada valor c,- tantas
veces como la dimensión del correspondiente espacio de vectores propios.
Esta es la razón del cambio de notación en el siguiente resultado.
Corolario. Con las hipótesis del Teorema 10, supóngase que T está repre-
sentado en la base ordenada CB = {ot,, _ _ _ , ot, por la matriz diagonal D de ele-
mentos d,, _ _ _ , d,,. Entonces, en la `base CB, f(T) está representada por la matriz
diagonal f(D) de elementos f(d,), _ _ _ , f(d,,). Si CB' = {ot¶, _ _ _ , a,',} es otra base
ordenada cualquiera y P es la matri: tal que
“É = P P-'ta-'
entonces P' 1f(D)P es la matri: de f(T) en la base (B'.
Demostración. Para cada índice i existe un único j tal que 1 Sj S k,
ot, pertenece a E¡(V) y d, = c_¡_ Luego _/`(T)ot, = f(d,)a,, para todo i, y
f(T)Ofi' = 2 P-'ff(T)Off
= diptjat
= 2 (DP)-'›'Of='
= Z (DPMP Pišilai
= 23 (P_1Dl))k¡a¡2. '
()¡›crmlnn'.s' .mlm' t'.\¡uu-tm ¡mulurtu interno .U5
Teorema ll. Sean A una matriz normal y cl, . . . , c,, las distintas raíces
complejas' de det (xl - A). Sea
x - c.
ei 1- n '”'i"`_¿
Hi Ci _ C1
y E,- = e¡(A) (1 _<_ i 5 k). Entonces E¡E¡ = 0 cuando i.qt= j, Ef = E¡, E¡* = E,-, y
I=E, +"-+E,,.
Si f es una función compleja cuyo dominio fncluye a cl, . . . , c,,, entonces
f(A) = f(f'i)E1 + ' " + f(f'›.)Et;
en particular, A = c¡E, -+ - ~ ' -¦- c,¢E¡.
Valiéndose de que E,-Ej = 0 para i =;é j y de que ningún EJ- es el operador cero,
336 .4 lg:-l›ru lim-al
= Cj(IfjQ|E¿G)
`¡ 1
=' E 0f||E›fl|l”-
Hemos usado el hecho de que (EJ-a|E¡a) = 0 para i qe j. De esto resulta que
la condición (Toc|a) 2 0 se satisface si, y solo si, c¡ 2 0 para todo j. Para dis-
tinguir los operadores unitarios obsérvese que
TT* = C1C1E1 + ' ' ° + CkCkEk
Si-TT*'= I', entonces I'= |c,|2E¡ + -~ - -¦- |c,,-|2E,,, y operando con Ej,
Ef = |0¡|2E¡-
Como EJ: qé 0, se tiene que |c¡|2 = 1, o |c¡| = 1. Recíprocamente, si |c¡|2 = 1
para cada j, es evidente que TT* = I. I
_../o un número finito de raices. Si r,.-. _ _ _ r,, son las raices distintas dc SF, cntoncc.s'
Supóngase que I.. _ _ _ _ Í... Son los índices para los que Ii = EU-,E21-2 - - - Em]-m #= 0.
Sea
B1' = Enj.) a-
na-fiz
T = É b,-T..
I'=-1
\si T5 = 2 b,.T,.p
= b.'Ci) B-
1
La función T-› Z b¡c,- es evidentemente una de las raíces, por ejemplo, r, de EF,
\ /t está en V(r,-). Por tanto. cada término no nulo en (9-13) pertenece a uno
de los espacios V(r, ), . . . , V(r,,l. Se sigue que I' es la suma directa ortogonal
de l"(r¡), V(rkl_ I
[ïP¡+°"+Pk,
l-lll -I ligclrra lntcal
.l
(9-15) T = ,I
xl ftp;
T* = Í-1 ëfpf
.'l
›
TU = ¿_ ad,-P,1>,
1.:
= Cjdjpj
J
= UT.
Asi que G es un álgebra autoadjunta conmutativa que contiene a 5 y al opc-
rador identidad. Por tanto, G contiene a (ì.
Ahora sean r,, . . _ _ r,, todas las raíces de 5. Entonces, para todo par de
indices (i, n) con i =;é n, existe un operador T¡,, en SF tal que r¡(T¡,,) qé r,,(T,-,,).
Sea a¡,, = r,-(T¡,,) - r,,(T¡,,) y bm = r,,(T¿,,)_ Entonces el operador lineal
Qi = atÍtl(T.'a _ bol)
Corolario. Con las hipótesis del teorema existe un operador T en G, tal que
todo elemento de G, es un polinomio en T.
k _ _
Demostración. Sea = 2 ¿jpj con t¡, _ _ _ , tk son escalares distintos. Entonces
J
.=l k n
T" = E tj Pi
_1`_=l
paran: 1, 2, S1
ƒ= E aux"
n=l
se sigue que
8 a k
f(T) = n=¡
2 a,,T" = nzljgl
2 E anl¿epJ
¡F s
_ 2 J-
1=1
342 .-I lecltru lmcal
Dado un k
U = É GP1'
›=1
arbitrario en (i. existe un polinomio f tal que f(t¡) = cj (1 S i 5 k) y, para
cualquier tal ƒ, U = f(T). I
Ejercicios
l. Dar una definición razonable de una matriz n ›< n no negativa y demostrar luego que
tal matriz tiene una única raiz cuadrada no negativa.
2. Sea A una matriz n ›< n con elementos complejos tal que A* = -A y sea B = e"'.
Demostrar que
(a) det B = e"^;
lb) B* = e "':
te) B es unitaria.
3. Si U y T son operadores normales que conmutan. demostrar que L' + T y UT son
normales.
4. Sea T un operador lineal sobre un espacio producto interno de dimensión finita V.
Demostrar que las diez siguientes afirmaciones respecto a T son equivalentes:
(a) T es normal.
tb) ||T:x|| = ||T*1|| para todo 1 en I".
lc) T: T, + iT,. donde T, y T, son autoadjuntos y T,T¿ = T¿T,.
(d) Si rx es un vector y c un escalar de modo que Ta = crx, entonces T*1 = Ea.
te) Existe una base ortonormal de V formada por vectores propios para T.
(f) Existe una base ortonormal (B tal que [T](B es diagonal.
tg) Existe un polinomio g con coeficientes complejos tal que T* = _t¬'(T)_
(h) Todo subespacio invariante por T es también invariante por T*.
(il T = NU. donde N es no negativo. U es unitario, y N conmuta con U.
(j) T= c¡T, + + c,E,, donde l= El + + E,,. E,-E_¡ = 0 para i=# 1'. y =
Ej = Ef.
5. Usar el Ejercicio 3 para mostrar que cualquier familia conmutativa de operadores nor-
males (no necesariamente diagonalizables) en un espacio producto interno de dimensión
finita genera un álgebra autoadjunta conmutativa de operadores normales.
6. Sean V un espacio producto interno complejo de dimensión finita y L` un operador
unitario sobre l' tal que U1 = 1 implique rx = 0. Sea
7. Sea I" el espacio de las matrices complejas n ›< ii con el producto interno
(A|B) = tr (AB*).
Si B es un elemento de V. sean LB, RB y TB los operadores lineales sobre V definidos por
(a) LB(A) = BA.
(b) RB(A) = AB.
(c) TB(A) = BA - AB.
(`onsiderar las tres familias de operadores que se obtienen al hacer variar B sobre todas
las matrices diagonales. Demostrar que cada una de estas familias es un álgebra autoadjunta
conmutativa y hallar sus descomposiciones espeetrales.
8. Si B es un elemento del espacio producto interno del Ejercicio 7, hacer ver que IB es equi-
valente unitariamente a R,,_
9. Sean V el espacio producto interno del Ejercicio 7 y G el grupo de matrices unitarias
de V. Si B esta en G. sea CB el operador lineal sobre V definido por
CB(A) = 3143'*-
l)emostrar que
(al CB es un operador unitario en V;
(b) (`,,,B2 = (.`,,l(`B,:
tc) no existe una transl`ormación unitaria U en V tal que
ULBU"' = CB
para todo B de G.
I0. Sean SF una familia cualquiera de operadores lineales sobre un espacio producto in-
terno de dimensión finita V y (i el álgebra autoadjunta generada por SF. Demostrar que
(a) toda raíz de (i define una raiz de SF;
(b) toda raíz r de (i es una función lineal multiplicativa sobre A. es decir,
r(TU) = r(T)r(U)
r(cT -I- U) = cr(T) -l- r(U)
para todo T y U de (ì y todo escalar c-
II. Sea SF una familia coiiinutativa de operadores diagonalizables normales sobre un
espacio producto interno de dimensión finita V y sea (i el álgebra autoadjunta generada
por SF y el operador identidad I. Demostrar que toda raiz de (i es distinta de 0 y que para
toda raíz r de SF existe una raíz única s de (i tal que s(T) = r(T) para todo T de SF.
I2. Sean SF una familia conmutativa de operadores diagonalizables normales en un es-
pacio producto interno de dimensión finita V y (io el álgebra autoadjunta generada por SF.
Sea (i el álgebra autoadjunta generada por SF y el operador identidad I. Demostrar que
(a) (i es el conjunto de todos los operadores sobre V de la forma cl + T. donde c es
nn escalar y T un operador en (io.
(b) Existe a lo más una raíz r de (i tal que r(T) = 0 para todo T de (io.
(cl Si una de las raíces de (i es 0 sobre (io, las proyecciones P,, _ _ _ , Ph en la descom-
posición de la identidad definida por SF pueden ser rotuladas mediante índices de tal modo
que (io conste de todos los operadores sobre V de la forma
lc
T= _ E c-P-
1 1
1=2
donde cz, c,, son escalares arbitrarios.
344 _-I lei'l›i'ii lineal
(d) (1 = (io si, y solo si, para cada raíz r de (1 existe un operadoi I' eii G., tal que
r(T) # 0.
Sea ahora = p/pj. Entonces. como _/j, _ _ _ _ _/jj soii primos relativos. exis-
ten polinomios gj con coeficientes en el cuerpo de los escalares tales que
(9-lo i = sf,-Q..
J
1 - E,-at está en VV,-i. Se deduce ahora. del Teorema 4 del Capítulo 8. que I;j es
la proyección ortogonal de V sobre W,-_ I
p = (x - a)2 + bz
.H-\' .4l_¡:¢-hru Inn-al
donde a y b son reales y b 9€ 0. Entonces existe un entero s > 0 tal que p" es el
polinomio propio de T y existen subespacios V,. _ . . , V, de I-' tales que
(i) VJ- es ortogonal a Vi cuando i † j;
un v= me---ea Vs;
(111) cada VJ- tiene una base ortonormal {oz¡, /$1-} con la propiedad de que
Taj -_-= (laj +
l',. _ . . , V,. Veremos que W = V. Supóngase que éste no sea el caso. Enton-
ces W* 9€ -{0}. Más aún, como (iii) y (9-18) implican que W es invariante por
Ty T*, se sigue que W* es invariante por T* y T = T**. Sea S = b- 1(T- al).
Entonces S* = b_1(T* - al). S*S = SS* y Wi es invariante por S y S*.
Como (T - al )2 + bz! = 0. se sigue que S2 + I = 0. Sea oz cualquier vector
de norma l en Wi y sea /f = Sa. Entonces /i está en W* y S/f = -oz. Como
T = al = hS, esto implica que
Ta = aa -I- bfi
TÚ = -ba -I- (LB.
con lo que U(W¡) es un subconjunto de Wj. Sean TJ- y U1- las restricciones de
Ty Ua Supóngase que 11- es el operador identidad sobre Wj. Entonces U,-
conmuta con TJ-, y si TJ- = c¡I¡ es claro que también conmuta con Tj.* = êj-I]-.
.ÍÃU /I l_\f|'l›t'tt ltm 'ul
Por otro lado, si TJ- no es un múltiplo escalar dc ¡J-_ entonces TJ- es inversible y
existen números reales aJ- y bJ- tales que
T; = (ai + b;**)T;`
Como UJ-TJ '= TJUJ- se sigue que TJ-"'UJ- = UJ-TJ-1. Por tanto, UJ- conmuta con
TJ-* en ambos casos. Ahora T* también conmuta con EJ- y, por tanto, es in-
variante por T*. Además. para todo fx y /i de WJ.
(T,-«Im = (Tale) = («|T*fi) = (aim).
Como T*(WJ-) está contenido en WJ-, esto implica que TJ-* es la restricción de
T* a WJ-_ Así que
UT*d¡ = T*U(X¡
para todo ocJ- de WJ-_ Como V es la suma de W,, _ _ _ _ Wk, se sigue que
UT*a = T*Ua
para todo oi de V y, por tanto, que U conmuta con T*.
Supóngase ahora que W es un subespacio de V invariante por T y sea ZJ- =
WH WJ-_ Por el corolario del Teorema I7, W = Z ZJ-_ Así que es suficiente
I
demostrar que todo ZJ- es invariante por Esto es obvio si = cJ-I. Cuando
éste no es el caso, TJ- es inversible y aplica ZJ- en. y en consecuencia sobre, ZJ-_
Así, TJ-“'(ZJ-) = Z¡. y como
Ti = (aii -I- bi)Tf_l-
se concluye que T*(ZJ-) está contenido en ZJ-, para todo j. I
Se sigue que dos matrices A y B son equivalentes unitariamente si. y solo si,
tienen la misma forma racional; A y B son equivalentes ortogonalmente si
tienen elementos reales y la misma forma racional.
Por otro lado, hay un criterio más simple que la equivalencia unitaria de
las matrices normales y los operadores normales.
Tai = gi Ax,-Cra
k=1
se ve que
T'aj- = UTa,-
= š:Ak¡Udk
= E Akjälc
k
Luego [T](B = A = [Tl]¿B-_
Recíprocamente, supóngase que existen una base ortonormal (B de V y una
base ortonormal (B' de V' tales que
[Tica = [T']<B'
y sea A = [T]¿B. Supóngase que (B = ¦fx,. _ _ _, fx,,¦ y que (B' = ¦fx§_ _ _ _. 1,,
Sea Uuna transformación lineal de Ven V' tal que Uoc_¡ =“xJ- (1 5 _¡ 5 n). Enton-
ces U es una transformación unitaria de V sobre V', y
UTU-la; = Um,-
= U ã Akjfiïk
= E Akjalií-
lt
35." llaga-ln n /mr-al
Por tanto, UTU_'ozJ'- = l"aJ (I 5 /` '_<_ n). y esto implica que UTU" == 1". I
f = f=1
ii det(x1-~
'
T,-)_
Sea pJ- el polinomio minimal de TJ-_ Si pJ- = x - cJ. es evidente que
353
354 .iltgt-lira lt'm^ul
ƒ,t_(X, Y) = X'AY
= E E Áeƒíöillƒ-
i J'
Mostraremos ahora que toda forma bilineal sobre el espacio de las matrices
m x I es de este tipo; es decir, es /j, para cierta matriz m x m, A.
I-'armas lilllnmlrt 355
.f(a› = -f xïaír
= 1?¡f(0f¢› 5)
= 1?-tf(f1›'› If/1011")
= xr?/J`ƒ(aí› ai)-
Í- 1
f(Of, B) = 2_3A='1f-'!/f
=X'AY
donde X e Y son las matrices de coordenadas de oc y B en la base ordenada (B.
Así toda forma bilineal en V es del tipo
me f@m=@mm@
,Uh _1I_tgt'I›ra lun-al
Sea f cualquier forma bilineal sobre V y sea A la matriz de ƒ' en la base or-
denada O3. Entonces
f(a› : A-U'-til/J'
1-J
Está ahora claro que las nz formas f¿J- constituyen una base de L(V, V, F). I
[alo = ¡'[0¢]et'
para todo at en V. En otras palabras. se define P por
af = 2 Í),-Ja,-_
¿-1
Para vectores fx, /1* cualesquiera en V
f(a, Í3) = iflliitlflmifilm
= (¡'[0¢]ttt')'[fl«ttl'll3l<B'
= [a]iw(l" [f]ttsl') [Blur-
Por la definición y unicidad de la matriz representante de f en la base orde-
nada 03'. debemos tener que
l 1 _i/
fm'/3) Z U” "'21 it ti it/-1-ii
y asi la matriz de _/` en la base ordenada canónica (B -= {e,_ e2} es
J [fica =
Sea G3' = {ej_ e§,¦ la base ordenada definida por e; = (l. -l), ef, = (1, l).
En este caso, la matriz P que cambia las coordenadas de G3' a (B es
1 1
P " [-1 1]'
358 .-1 lgclrra lim-al
ASÍ
[flow = P'[f]cBl'
=[3 'il'
Esto quiere decir que si se expresan los vectores oc y B por medio de sus coorde-
nadas en la base (B', por ejemplo,
J-(az =
de que el rango de fila de una matriz es igual al rango de columna (Sección 3.7).
Así que se dará aquí una demostración que consiste en elegir un sistema de
coordenadas (base) y entonces usar el teorema de «rango de fila igual a rango
de columna».
Para demostrar que rango (LJ-) = rango (RJ-) es suficiente demostrar que
LJ- y RJ tienen la misma nulidad. Sea (B una base ordenada para Vy sea A = mm.
Si oc y B son vectores en V, con matrices de coordenadas X e Y en la base orde-
nada (B, entonces f(oz, B) = XTA Y. Ahora, RJ(B) = 0 quiere decir que f(oz, B)= 0
para todo oc en V, es decir, que X'A Y = 0 para toda matriz n x 1, X_ Esta úl-
tima condición dice que A Y = 0. La nulidad de RJ es, por tanto, igual a la
dimensión del espacio solución de A Y = 0.
Similarmente, L¡(oc) = 0 si, y solo si, X'A Y = 0 para toda matriz n x 1, Y.
Así oc está en el espacio nulo de LJ- si, y solo si, X'A = 0 es decir, A'X = 0. La
nulidad de LJ es, por tanto, igual a la dimensión del espacio solución de A'X = 0.
Como las matrices A y A' tienen el mismo rango columna, vemos que
nulidad (LJ) = nulidad (RJ). I
Definición. Si f es una forma bilineal sobre un espacio de dimensión finita
V, el rango de f es el entero r = rango (LJ) = rango (RJ).
I::¡'ercici0s
I. ;_C`uáles de las siguientes funciones] definidas para vectores 1 = (x,. xz) y B = (r,. 1:2)
dc R2 son formas bilineales?
(11) f(¢1.B) = 1-
(l›) f(a, B' = (rr - z/t)'2 + ra/2.
(cl .l-(05 = (1't+ ?/1): “(171 __?]i)2-
(dl f(0¿› ta) = T1!/2 _ -T2?Ie-
2. Sea _/ la forma bilineal sobre R2 definida por
f((-F1, '_'/1)» (12, 2/2)) = ft!/1 -lr I-:.'/-±-
Hallar la matriz de ƒ en cada una de las siguientes bases
{(l,0),(0.1)¦-, {(t, -1), (1, 1):-, {(1,2), t:;,¬t);.
3. Sea V el espacio de todas las matrices 2 x 3 sobre R y sea I la forma hilincal sobre
I' definida por _/(X, Y) = traza (X'A Y). donde
l 2
A = -
3 4
llallar la matriz de _/ en la base ordenada
{E11J E12, E13, E21, E22, E23:
te en todas las matrices A tal que traza (A) = 0 y A* = -A (A* es la transpuesta conju-
gada de A)- Desígnese por _/'Z la restricción de f a V2. Mostrar que _/`2 es negativamente de-
tìnida: es decir. que _/¿(A_ A) < 0 para cada A no nulo en V2.
9. Sea _/ la forma bilineal definida en el Ejercicio 6. Sea W el conjunto de todas las matri-
ces A en V tales que _/(A _ B) = 0 para todo B. Demostrar que W es un subespacio de V.
Describir W explícitamente y hallar su dimensión.
I0. Sea /' cualquier forma bilineal sobre un espacio vectorial de dimensión finita V. Sea
ll' el subespacio de todos los B tales que _/(ot, B) = 0 para todo ot. Mostrar que
rango _/' = dim V - dim W.
Usar este resultado y el del Ejercicio 9 para calcular el rango de la fonna bilineal defini-
da en el Ejercicio 6.
ll. Sea _/` una forma bilineal sobre un espacio vectorial de dimensión finita V. Supón-
gase que V, es un subespacio de V con la propiedad de que la restricción.de I a V, es no
degenerada. Demostrar que rango f 2 dim VJ.
I2. Sean f, g formas bilineales sobre un espacio vectorial de dimensión finita V. Supón-
gase que g es no singular. Demostrar que existen operadores lineales únicos T1, T2 sobre
I' tales que
f(¢1,B) = 9(T›¢r,t5) = g(a, Tzfi)
para todo zx, B.
13. Demostrar que el resultado dado en el Ejercicio 12 no necesita ser cierto si g es
singular.
I4_ Sea _/' una forma bilineal sobre un espacio vectorial de dimensión finita V. Demos-
trar que f puede expresarse como producto de dos funcionales lineales (es decir, f(a, B) =
L¡(a)L¿(B) para L,, L2 en V*) si, y solo si, _/` tiene rango l.
es simétrica. Esto sucede si, y solo si, X'A Y == Y'AX para todas las matrices
columnas X e Y. Como X'A Y es una matriz 1 x l, se tiene que X'A Y = Y'A'.\'.
Así, pues, f es simétrica si, y solo si, Y'A'X = Y'AX para todo X, Y. Evidente-
mente esto quiere decir que A = A'. En particular, debe observarse que si existe
una base ordenada para V en la que f está representada por una matriz diago-
nal, entonces f es simétrica, ya que ,cualquier matriz diagonal es una matri:
simétrica.
Si f es una forma bilineal simétrica, la forma cuadrática asociada con f es
la función q de V en F definida por
¶(a) = f(a, «)-
Si F es un subconjunto de los números complejos, la forma bilineal simétrica
está completamente determinada por su forma cuadrática asociada. de acuer-
do con la identidad de polarización
Haciendo al = ot, se obtiene una base {oc1, _ _ _, oc,,} de V tal que f(oc¡, otJ-) = 0
para i=,éj_ I
Comof tiene rango r_ también lo tendrá su matriz en la base ordenada { oz, , _ _ _ , ot,, }_
Entonces debemos tener que ƒ(otJ-, otJ-) =;é 0 para r valores de /` precisamente. Reor-
denando los vectores ocJ, se puede suponer que
f(aJ`›a_1')5¿0› Í-:lt-°~›T~
Se usa ahora el hecho de que el cuerpo de los escalares es el cuerpo de los nú-
meros complejos. Si _/f(otJ-, ozJ-) representa cualquier raíz cuadrada compleja
de f(aJ-, ocJ-), y si se hace
---i---oz
`/”"'“"_" it j-"-1
_' 1--~› 1'
B; = f(0=;'› Off)
aii > T
f(0fif›0¢¡)?f0› ÍÉJST
J-(ah a1) = O1 > T-
Sea
BJ' = |ƒ(aJ'› aJ`)i_l/2aJ'› 1 S S T
fií = aii Í > T-
0 = f(0¢, 0) + f(<1,B)
0 = f(B, 6') + f(¢1, B)
Luego f(oz, ot) = f(B, B). Como ƒ(¿1, oc) 2 0 y f(B, B) < 0, se sigue que
mensión de W no puede exceder la dimension de l ' '_ Si (B, es otra base orde-
nada dc V que satisface las condiciones del teorema, se tendrán los correspon-
dientes subespacios V,i , V," y V,i; y el razonamiento anterior mues_tra que
dim V,* 5 dim V *_ lnvirtiéndolo, se obtiene que dim V* 5 dim V,* y, por
tanto,
dim V* = dim VT. I
Varios comentarios habría que hacer respecto a la base {B,, _ _ . , finl del Teo-
rema 5 y de los subespacios asociados V*, V" y Vi. Primero obsén/ese que
Vi es exactamente el subespacio de los vectores que son «ortogonales›› a todos
los de V. Se observó anteriormente que Vi está contenido en este subespacio; pero
dim Vi = dim V - (dim V* + dim V`) = dim V - rango f
de modo que todo vector oc tal que f(oz, B) = 0 para todo B debe estar en Vi.
Así que el subespacio Vi es único. Los subespacios V* y V" no son únicos;
sin embargo, sus dimensiones son únicas. La demostración del Teorema 5 mues-
tra que V* es la mayor dimensión posible de cualquier subespacio en el que f
es positivamente definida. En forma análoga, dim V* es la mayor dimensión
de cualquier subespacio en el que f es negativamente definida. Por cierto
dim V* -l dim V- = rango f.
El número
dim V* - dim V `
V = V1€-)V2Gl)V3_
Supóngase que f, es un producto interno sobre V, y f2 es un producto interno
sobre V2. Se puede entonces definir una forma bilineal simétrica f sobre V del
siguiente modo: si oz, B son vectores de V, entonces se puede escribir
0f='11†a2+as Y ll=›61+li2+li3
Ejercicios
1. Las siguientes expresiones definen formas cuadráticas q sobre R2. Hallar la forma
bilineal simétrica f correspondiente a cada q.
Generalizar el método usado en el Ejercicio 7 para demostrar que existe un operador lineal
inversible U sobre R" tal que
(U†q)(<›;,, _ _ _ , en = t=l
É: cas?
donde c, es 1, -1, 00, i= 1, ___, n.
9. Sea f una forma bilineal simétrica sobre R". Usando el resultado del Ejercicio 8, de-
mostrar que existe una base ordenada (B tal que [f]¿B es diagonal.
I0. Sea V el espacio vectorial real de todas las matrices (complejas) hermíticas 2 x 2,
esto es, matrices complejas 2 x 2, A, que cumplen A,-J = ÃJ-,_
(a) Demostrar que la igualdad q(A) = det A define una forma cuadrática q sobre V.
(b) Sea W el subespacio de V de las matrices de traza 0. Demostrar que la forma bili-
neal f determinada por q es negativamente definida en el espacio W
ll. Sean V un espacio vectorial de dimensión finita y f una forma bilineal simétrica no
degenerada sobre V. Demostrar que, para todo operador lineal T sobre V, existe un único
operador T' sobre V tal que f(Ta, B) = f(cx, T'B) para todo oz, B de V. Demostrar tam-
bién que
(T1T2)' = TÉTÍ
(c¡T¡ -I- c2T2)' = c,T{ + c2T§
(T')' = T.
l4. Sean V, f, (B y (B' como en el Ejercicio 13. Supóngase que T es un operador lineal
sobre V y que T' es el operador que ƒ asocia a T como en el Ejercicio 11. Demostrar que
I5_ Scan V, _/, (B y (B' como en el Ejercicio 13. Supóngase que [j]¿B = A. l)emostrar que
Gi = É (A_i)fi'0fi1 = E (A`i)ffa;-
2 1
I6. Sean F un cuerpo y V el espacio de las matrices n x 1 sobre F. Supóngase qm; A ,_-__,
una matriz n x n inversible y simétrica sobre F y que f es la forma bilineal sobre V d,;_-¡¡n¡-
da por f(X, Y) = X'A Y. Sean P una matriz inversible n x n sobre F y (B la base de V que
consiste en las columnas de P. Hacer ver que la base (B' del Ejercicio 13 consta de las eo-
lumnas de la matriz A`i(P')"i_
17. Sean V un espacio vectorial de dimensión finita sobre un cuerpo F y f la forma b¡|¡-
neal simétrica sobre V. Para cada subespacio W de V, sea Wi el conjunto de todos los vw-
tores ot de V de modo que ƒ(ot, B) = 0 para todo B de W. Demostrar que
(a) Wi es un subespacio.
(b) V = {0}i_
(c) Vi = {0} si, y solo si, f es no degenerada.
(d) rango f = dim V - dim Vi
(e) Si dim V = n ydim W = m, entonces dim Wi 2 n - m. (Sugerencia: Sea {B,, _ _ _ ,
B,,} una base de W y considérese la aplicación
01 -> (f(a. B1). - - - ,f(¢1.B».))
de V en F"').
(f) La restricción de f a W es no degenerada si, y solo si,
W F) Wi = {0}_
(gl V = W E9 Wi si, y solo si, la restriccion de f a W es no degenerada_
18. Sean V un espacio vectorial de dimensión finita sobre C y f una forma bilineal sime-
trica no degenerada sobre V. Demostrar que existe una base G3 de V tal que (B' = (]3_ (V¿¿,,,,,.
Ejercicio 13 para la definición de 03'.)
es una base ordenada de V. Por (a), (b) y (c) es inmediato que la matriz de / en
la base ordenada 03 es suma directa de la matriz cero (n - 2k) x (n - 2It) y
k matrices 2 ›< 2 iguales a
(10-8) L?
Además, es claro que el rango de esta matriz y, por tanto, el de f es 2k_ I
que «prcscrvan›.› f_ El conjunto de todas las matrices [7']w. donde Tes un upc-
rador lineal que preserva _/Q será grupo para la multiplicación matricial. Ilzty
otra descripción de este grupo de matrices, y es la siguiente. Sea A = [J/"jm,
dc modo que si cx y ¡B son vectores de V con las respectivas matrices de coordcs
nadas X e Y respecto de G3, se tendrá que
f(a, B) = X'AY-
Sea T cualquier operador lineal sobre V y M = [T]¿B. Entonces
f(Ta, TI3) = (MX)'A(MY)
= X'(M'AM)Y.
Por tanto, Tpreservaf si, y solo si, M'AM = A. Entonces, en lenguaje matricial,
el Teorema 7 dice lo siguiente: si A es una matriz n ›< n inversible, el conjunto
de todas las matrices n ›< n, M, tales que M'AM = A es grupo para la multi-
plicación matricial. Si A = entonces M está en este grupo de matrices
si, y solo si, M = [T]¿B, donde T es un operador lineal que preserva ƒl
Antes de ver algunos ejemplos queremos hacer una observación más. Supón-
gase que ƒ es una forma bilineal simétrica. Un operador lineal T preserva f
si, y solo si, T presen/a la forma cuadrática
= ƒ(a› O5)
lijcmplo 7. Sea _/` la forma bilineal simétrica sobre R" con forma cua-
tlrzitica
p n
q(x1¶ - - ° › 1:11) : E _* 2 -Íš-
.i=1 J'=z›+l
<r›e~,y,z,¢›=['+'Í` -"+"^*]
y-zz t-.12
define un isomorfismo (D de R4 sobre el espacio H. Por este isomorfismo la
forma cuadrática 0 se aplica sobre la función determinante, esto es
_ t+:t: y+-iz]
q(x›y›z› t_x
O
TM = 4»-1U,,,<1›.
Como (D es un isomorfismo, TM es un operador lineal sobre R4. También, TM es
una transformación de Lorentz; en efecto,
<1(TMa) = q(<I>-'UM<I>a)
= (IGÍJ (q>(I)_1[¡¡j¡q3(l)
= (let (U,-,¡<I>a)
= det ($01)
= q(a)
y-de este modo TM preserva la forma cuadrática q. Utilizando matrices 2 x 2, M,
específicas, se puede emplear el método anterior para calcular transformaciones
de Lorentz especificas. Dos comentarios al respecto, que no son difíciles de
verificar.
(1) Si M1 y M2 son matrices 2 x 2, inversibles con elementos comple-
jos, entonces UM, =` UM, si, y solo si, M2 es un múltiplo escalar de M ,. Asi,
todo lo de las transformaciones de Lorentz vistas anteriormente se puede obte-
ner de las matrices unimodulares M, esto es, de matrices M que satisfacen
I"nrmu.s l›il:m'uli's 3 77
Ejercicios
I. Sea M un elemento del grupo ortogonal complejo Otn.C l. Mostrar que M'.
M y M* = .-fl' también pertenecen a Oln. C).
2. Supóngase que M pertenece a O(n, C ) y que M' es semejante a M. ¿Pertenece .lI` tam-
bién a O(n. C )?
3. Sea
fl
?/1': 2 Íllikílfk
k=l
2w=Efi-
1 1
4. Sea M una matri¿ n x n sobre C" con columnas M ,, M2, . _ _ . M,,. Demostrar que M
pertenece a O(n, C ) si. y solo si,
= ôjk.
5. Sea X una matriz n x l sobre C_ ¿, En que condiciones Oln. (`) contiene una matriz
l-I cuya primera columna es X?
6. Hallar una matriz en O(3. C) cuya primera fila es (2i, 2i, 3).
7. Scan V el espacio de todas las matrices n x l sobre C y _/' la forma bilineal sobre V
dada por f(X, Y) = X' Y. Sea M perteneciente a O(n, C). ¿Cuál es la matriz de _/` en la base
de V formada por las columnas M¡, M2, M,, de M'.'
8. Sean X una matriz n x l sobre C tal que X'X = l e Y_¡ la j-ésima columna de la matriz
unidad. Demostrar que existe una matriz M en O(n, C ) tal que MX = I]-. Si X tiene ele-
mentos reales, mostrar que hay una M en O(n. C ) con la propiedad de que MX = I_¡.
9. Sean V el espacio de todas las matrices n x 1 sobre C, A una matriz n x n sobre C y
/` la forma bilineal sobre V dada por _/IX. Y) = X'A Y. Demostrar que /` es invariante por
Otn. Cl; es decir, _/`(MX, MY) = _/'(X, Y) para todo X, Y de lr' y M en O(n, C) si, y solo si,
A conmuta con cada elemento de O(n, C ).
I0. Sean S cualquier conjunto de matrices n x n sobre C y S' el conjunto de todas las
matrices n x n sobre C que conmutan con cada elemento de S. Demostrar que S' es un
álgebra sobre C_
ll. Sean F un subcuerpo de C, V un espacio vectorial de dimensión finita sobre F y _/ una
forma bilineal no singular sobre V. Si T es un operador lineal sobre V que preserva _/L de-
mostrar que det T = ± l.
I2. Sean F un subcuerpo de C, V el espacio de las matrices n x 1 sobre F, A una matriz
n x n inversible sobre Fy /' una forma bilineal sobre Vdada por f(X, Y) = X'A Y. Si M es
una matriz n x n sobre F, demostrar que M preserva f si, y solo si, A" 'M'A = M '_
J 'N /I l_|:¢'l›m ltm-ul
I3. Sea g una forma bilineal no singular sobre un espacio vectorial dc dimensión finita
l`. Supóngase que T es un operador lineal inversible sobre V y que _/ cs. la forma bilineal
sobre V dada por f(ot_ li) = g(oz, Tlf). Si U es un operador lineal sobre V, hallar condicio-
nes necesarias y suficientes de U para preservar jl
I4_ Sea T un operador lineal sobre C2 que preserva la forma cuadrática xf - xš. Demos-
trar que
(a) det (T) = ±l.
(bl Si M es la matriz de Ten la base canónìca, entonces M22 = ±M,,, M2, = ±M,2,
I1Iãl`_ 1 1.
1
,+1c ,,_1c
1 '
c- c~l-1
C C
1 c c
M = - °
2 ._¿ + __1 _c _ 1
c c
A _ [_10 0].
1 9
11 =
A B
I [0 D]
con A. B, C, D matrices n ›< n sobre C. Hallar condiciones necesarias y suficientes de A,
B, C, D para que M'JM = J.
I7. Hallar todas las formas bilineales sobre el espacio de las matrices n x I sobre R que
son invariantes por O(n, R).
18. Hallar todas las formas bilineales sobre el espacio de las matrices n ›< l, sobre C que
son invariantes por O(n, C).
Apéndice
379
f-'1'U .-1 l_i:¢'l›rn linml
A . I. Conjuntos
S : {.E1, . . . ,.lI,,}.
juntos. Si S1, _ _ . , S,, son conjuntos, su unión es el conjunto U S,- que consta
j'- l
de todos los x que son elementos de al menos uno de los conjuntos S,, _ . _ , S,,.
U
Su intersección es el conjunto (W SJ- que consta de todos los x que son elementos
j= 1
de cada uno de los conjuntos S1. . _ . , S,,_ En unas pocas ocasiones tendremos
que ver con la unión o intersección de una colección infinita de conjuntos. Debería
quedar claro cómo tales uniones e intcrsecciones están definidas. El siguiente
ejemplo aclarará estas definiciones y una notación para ellas.
Ejemplo 1. Sea R el conjunto de todos los números reales (el eje real).
Si t está en R, se asocia con t un subconjunto S, de R definido de la siguiente
forma: S, consta de todos los números reales x que no son menores que I.
(a) Sn U Su = S,, donde 1 es el menor entre 1, y 12.
(b) Su H SU = S,, donde t es el mayor entre 1, y 12.
.-I¡›¢"mln'¢- ISI
UIS: = S0
Ñ, S, = S1.
A .2. Funciones
(d) Sea X el conjunto de los números reales y sea Y el conjunto de los nú-
meros reales positivos. Se define una función ƒ de X en Y por f(x) = e". Enton-
ces f es una función de X sobre Y.
(e) Sean X el conjunto de los números reales positivos e Y el conjunto
de los números reales. Sea ƒ la función logaritmo natural, esto es, la función
definida por f(x) = log x = ln x. Aquí también f es sobreyectiva, es decir,
todo número real es el logaritmo natural de algún número positivo.
(3 ° f)(X) = 3(f(X))-
Como un ejemplo simple, sea X = Y = Z el conjunto de los números reales,
sean ƒ, g, h las funciones de X en Y definidas por
l.a l`unción _/` obviaincnte no es inyectiva. vgr., lt- l) = _/'(0). Pero _/ es inyec
tiva en X0, conjunto de los números reales no negativos, ya que la derivada
de _/` es positiva para x > 0. Cuando x recorre todos los números no negativos.
f(x) recorre todos los números reales _r tales que _r 2 1. Si se hace que Y,, sea
cl conjunto de todos los __r 2 I y que jj, sea la función de X0 en YO. delìnida
por _ƒ¿,(x) = f(x), entonces fo es una función inyectiva dc X0 sobre YO. Con-
secuentemente, _/Q, tiene una función recíproca _/¿,' de YO en X0. Cualquier
fórmula para f0"'(_v) es bastante complicada.
(c) Sea otra vez X el conjunto de los números reales y sea ƒ la función
seno, esto es, la función de X en X definida por f(x) = sen x. La imagen de
f es el conjunto de todos los y tales que -l 5 _r S I: luego f no es sobreyec-
tiva. Como _/'tx + 21:) = f(x), vemos que _/` no es inyectiva. Si se hace que X,,
sea el intervalo *ir/2 5 x S rc/2. entonces _/` es inyectiva en X0. Sea YO el in-
tervalo -l 5 j' S l y sea _/0 la función de X0 en YO definida por ƒ¿(x) = sen -\'.
Entonces _/¿ es una restricción de _ƒ' en el intervalo X0 y jj, es inyectiva y sobre-
yectiva. Esta es otra forma de decir que. en el intervalo de -rc/2 a n 2, la función
seno toma todo valor entre -l y l exactamente una vez. `La función _/Q' es
la función recíproca del seno:
no es simetr1ca_
(c) Sea E el plano euclidiano y sea X el conjunto de todos-los triángulos
del plano E. Entonces la congruencia es una relación de equivalencia en X;
esto es, «T1 2 T2» (T, es congruente con T2) es una relación de equivalencia
en el conjunto de todos los triángulos en el plano.
(d) Sea X el conjunto de todos los enteros
_,-2,-1,0,1,2,.__.
Sea n un entero positivo fijo. Se define una relación R,, en X por: xR,,y si, y solo si 1
cuando (-\~ - _i') es divisible por n. Para cada entero positivo n. la congruencia
módulo n es una relación de equivalencia en el conjunto de los enteros.
(e) Sean X e Y conjuntos y _ƒ` una función de X en Y. Se define una rela-
ción R en X por: x¡Rx2 si, y solo si, _/`(x,) = _/(xz). Es fácil verificar que R es
una relación de equivalencia en el conjunto X_ Como se verá, este ejemplo par-
ticular comprende en realidad todas las relaciones de equivalencia.
Supóngase que R es una relación de equivalencia en el conjunto X. Si x
es el elemento de X. Etx; R) representa el conjunto de todos los elementos y
de X tales que xR_r. Este conjunto E(x; R) se llama la clase de equivalencia de
x (para la relación de equivalencia R). Como R es una relación de equivalencia,
las clases de equivalencia tienen las siguientes propiedades:
“Ó :Í lj{t'lN'tl llllful
(I) Todo l;`(x; R) es no vacío; en cI`ccto, como \°R \', el elemento x perte-
nece a E(x; R).
(2) Sean x e y elementos de X_ Como R es simétrica, y pertenece a E(x: R)
si. y solo si, x pertenece a E(y; R).
(3) Si x e y son elementos de X, las clases de equivalencia E(x; R) y E(y; R)
o son idénticas o no tienen elementos en común. Primero supóngase que xRy_
Sea z cualquier elemento de E(x; R), es decir, un elemento de X tal que xR:.
Como R es simétrica, se tiene que zRx. Por hipótesis, xRy, y puesto que R es
transitiva, se tiene zRy o yRz. Esto muestra que todo elemento de E(x; R) es
elemento de E( y; R). Por la simetría de R, del mismo modo podemos ver que
todo elemento de E(y; R) es elemento de E(x; R): luego E(x: R) = E(_v: R).
Ahora bien, se afirma que si la relación xRy no es válida, entonces E(x; R) (W
E(y; R) es vacío. En efecto, si z está en ambas de estas clases de equivalencia
tenemos que xRz e _vRz, o sea xRz y zR__v_ luego xR_v.
Si ff representa una familia de clases de equivalencia para la relación de
equivalencia R, vemos que: (1) todo conjunto de la familia SF es no vacio, (2) todo
elemento x de X pertenece a uno, y solo uno, de los conjuntos de la familia SF,
(3) xRy si, y solo si, x e y pertenecen al mismo conjunto en la familia ff. En re-
sumen, la relación de equivalencia R subdivide a X en la unión de una familia
de subconjuntos (no vacios) que no se solapan_ El razonamiento es también
válido a la inversa. Supóngase que SF es una familia de subconjuntos de X que
satisfacen las condiciones (1) y (2) anteriores. Si se define una relación R por (3),
entonces R es una relación de equivalencia sobre X y SF es la familia de clases de
equivalencia segun R.
Ejemplo 6. Veamos cuáles son las clases de equivalencia según las rela-
ciones de equivalencia en el Ejemplo 5.
(a) Si R es la igualdad en el conjunto X- entonces la clase de equivalencia
del elemento x es simplemente el conjunto {x}, cuyo único elemento es x.
~ (b) Si X es el conjunto de todos los triángulos en el plano y R es la relación
de congruencia, todo lo que se puede decir en principio es que la clase de equiva-
lencia del triángulo Tconsta de todos los triángulos que son congruentes con T.
Uno de los objetivos de la geometría plana es dar otras descripciones de estas
clases de equivalencia.
(c) Si X es el conjunto de los enteros y R,, es la relación «congruencia mó-
dulo n››, entonces hay precisamente n clases de equivalencia. Cada entero x se
puede expresar unívocamente en la forma x = qn + r, donde q y r son enteros
y 0 5 r S n - l. Esto muestra que cada x es congruente módulo n a uno pre-
cisamente de los n enteros 0, 1, 2, _ _ _ , n - I. Las clases de equivalencia son
E,,_,={_._,n-1-2n,n-1-n,n-1,n-1+n,
n-1+2n,_..}.
.~I¡n'mll¢ 't' -M' 7
(<1+W)+(B+W)=(a+B)+W
aa + W) = tea) + W.
En otras palabras, la suma de la clase lateral de ot y la clase lateral de B es la clase
lateral de (ot + B) y el producto del escalar c y de la clase lateral de ot es la clase
lateral del vector ca. Ahora bien, muchos vectores diferentes de V tendrán la
misma clase lateral con respecto a W y, por tanto, se debe verificar que la suma
y el producto anterior dependen solo de las clases laterales que intervienen.
Lo que esto quiere decir es que debemos demostrar lo siguiente: `
(a) Si ot E ot', mód W y B E B', mód W, entonces
ot+/iša'+B', mód W.
.4¡n"mll`¢ 1' .WW
Se puede ver esto del teorema anterior. Tal vez es- más fácil observar que lo que
esta fórmula dimensional dice es que
nulidad (Q) + rango (Q) = dim V.
No es nuestro propósito hacer aquí un tratamiento detallado de los espa-
cios cocientes. Pero hay un resultado fundamental que se demostrará.
Teorema. Sean V _r Z espacios vectoriales sobre el cuerpo F_ Supóngase
que T es una transformación lineal de V sobre Z. Si W es el espai-io nulo de T,
entonces Z es isomorfo a V/ W.
Demostración. Definimos una transformación U de V/ W en Z por
U(oz + W) = Ta. Debemos verificar que U está bien definida, es decir, que
si oz + W = B + W, entonces Toz = TB. Esto se desprende del hecho de que
W es el espacio nulo de T; en efecto, oz + W = B + W quiere decir que oz - B
está en W, y esto sucede si, y solo si, T(oc - B) = 0. Esto muestra no solo que
U está definida, sino que también U es inyectiva.
Es ahora fácil comprobar que U es lineal y aplica V/ W sobre Z, pues T es
una transformación lineal de V sobre Z. I
puede elegir un elemento de cada conjunto. Para ser más precisos, supóngase
que se tenga un conjunto de índices A y que para cada oz de A se tenga un conjunto
asociado Sa no vacío. El «elegir›› o «seleccionar›› un elemento de cada Sa quiere
decir dar una regla f que asocie a cada oz un elemento f(oz) en el conjunto Sa.
El axioma de elección dice que esto es posible; es decir, dada la familia de con-
juntos {S,,}, existe una función f de A en
S U S..
tal que f(a) está en Sa para todo oz. Este principio es aceptado por la mayoría
de los matemáticos, pese a que surgen muchas situaciones en las que está lejos
de ser claro cómo se pueda hallar una función explícita f.
El axioma de elección tiene consecuencias sorprendentes. La mayoría de
las cuales tienen poca o ninguna influencia en el material de este libro; sin em-
bargo, es digna de mencionar una: todo espacio vectorial tiene una base. Por
ejemplo, el cuerpo de los números reales tiene una base, considerado como
espacio vectorial sobre el cuerpo de los racionales. Es decir, existe un subconjun-
to S de R que es linealmente independiente sobre el cuerpo de los racionales
y tiene la propiedad de que cada número real es una combinación lineal racional
de un número finito de elementos de S. No nos detendremos aquí a derivar
este espacio vectorial que resulta de la aplicación del axioma de elección. Para
una demostración, el lector puede consultar el libro de Kelley citado en la bi-
bliografía.
Bibliografía
393
Indice
395
.Wo lmlire'
Fila: Identidad:
matriz escalón reducida por, 11, 56 de polarización, 272, 362
matriz reducida por, 9 elemento, 16, 139
operaciones de, 6, 251 función, 382
rango de, 56, 72, 113 matriz, 9
vector, 38 resolución de la, 332, 340
Forma: Imagen, 71
alternada, 168 Independencia lineal, 40, 47
bilineal, 165, 316, 353 Independiente:
cuadrática, 271, 362 linealmente, 40, 47
hermítiea, 319 subespacio, 208
matriz de la, 318 Interpolación, 122
multilineal, 164 Intersección, 380
no-degenerada (Ej. 6), 320 de subespacios, 36
no negativa, 321 Invariante:
normal, 257, 261 factores, de una matriz, 238, 259
positiva, 321, 324 subconjunto, 384
racional, 237 subespacios, 197, 205, 310
sesquilineal, 316 suma directa, 213
Fórmula de Taylor, 128, 264 Inversa:
Función, 382 a la derecha, 21
determinante, 143 a la izquierda, 21
identidad, 382 de una matriz, 21, 158
imagen de la, 381 por ambos lados, 21
inversible, 382 Inversible:
lineal, 67, 96, 288 función, 383
multilineal, 164 transformación lineal, 79
n-lineal, 141 matriz, 21, 158
polinomio, 30 Irreducible, polinomio, 133
recíproca, 383-84 lsomorfismo:
restricción de una, 384 de espacios producto interno, 296
Función lineal, 96 de espacios vectoriales, 84
Matriz: No degenerada:
aumentada, 14 forma (Ej. 6), 320
autoadjunta (hermítiea), 35, 319 forma bilineal, 359
coeficiente, 6 No negativa:
cofactores de, 157 forma, 321
coordenadas, 51 operador, 325, 337
de la forma bilineal, 356 No singular:
de la transformación lineal, 86, 87 forma (véase No degenerada)
de una forma, 318 transformación lineal, 79
de Vandermonde, 123 Norma, 271
del producto intemo, 272 Normal:
elemental. 19, 251 forma, 256, 259
elemental de Jordan, 244 matriz, 312
escalón reducida por filas, 11, 56 operador, 309
factores invariantes de la, 238, 259 n-tuple, 29
forma de Jordan de la, 245 Nulidad de la transformación lineal, 71
forma racional de la, 237 Nulo, espacio, 71
inversa de la, 21, 158 Números:
inversible, 21, 158 complejos, 2
nilpotente, 243 racionales, 3
nonnal, 312 reales, 2
nula, 12
ortogonal (Ej. 4), 161, 374 Operador semisimple, 260
polinomio minimal de la, 190 Operador lineal, 76
positiva, 325 Ordenada, base, 50
producto de, 17, 89 Ortogonal:
rango de la, 113 complemento, 282
rango de fila de la, 56, 72, 113 conjunto, 276
reducida por filas, 9 equivalencia, 305
semejante, 93 grupo, 374
simétrica, 35, 209 matriz (Ej. 4), 161, 374
transpuesta de la, 113 proyección, 283
traza de la, 97 _ transformación lineal, 301
triangular, 154 Ortogonales, vectores, 276. 362
triangular superior, 27 Ortonormal:
unidad, 9 base. 279
unitaria (Ej. 5), 161, 300 conjunto, 276
Máximo común divisor (m.c.d.), 132
Minimal, polinomio, 190 Paralelogramo, ley del (Ej. 9), 273
Módulo, 162 Permutación, 150
base para el, 163 impar, par, 151
dual, 164 producto de, 152
finitamente generado, 163 signo de una, 151
libre. 163 Polar, descomposición, 338
rango del, 163 Polarización, identidad de, 272, 362
Mónico, polinomio, 119 Polinomio, 116
Movimiento rígido (Ej. 14), 307 característico, 182
Multilineal, función (forma). 164-65 cero del, 127
grado de la, 164 coeficientes del, 119
Multiplicidad, 129 derivado del ,_ 127, 264
descomposición prima del, 135
Nilpotente: escalar, 119
matriz, 243 factorización prima del, 135
operador, 221 función, 30
n-lineal, función, 141 grado del. 118
alternada, 143, 168 ineducible (primo), 133
lmlit 't' JW)
. 0
Q
D
__Ó QQQ Ó
I
- 01. I UU
_