You are on page 1of 131

Apuntes de Álgebra III

Versión Corregida

Dr. Carlos Lizama


Universidad de Santiago de Chile
Facultad de Ciencias
Departamento de Matemática y C.C.
Introducción

El presente texto de apuntes de Álgebra III (o Álgebra Lineal II) tiene


el objetivo de servir de apoyo y guı́a de estudios para el estudiante de las
carreras de Licenciatura en Matemática y Computación y Licenciatura en
Matemática de la Universidad de Santiago de Chile. El contenido está basa-
do en el respectivo programa de estudios, que constituye la continuación de
la clásica asignatura de Álgebra Lineal, y fué desarrollado mientras el autor
impartió el curso durante el primer y segundo sementre del año 2000. Ver-
siones corregidas y mejoradas han sido utilizadas desde entonces tanto por
el autor como otros académicos de la USACH para dictar esta asignatura.

La presente versión, recoge las sugerencias dadas por los profesores que
han impartido esta cátedra. Se espera que el texto siga siendo perfeccionado
durante el transcurso de los periodos lectivos siguientes, y desde ya el autor
agradece a quienes deseen hacer sugerencias y aportes para este fin.

El texto consta de tres capı́tulos, divididos en secciones. El primer


capı́tulo está orientado a dar al lector el material básico concerniente a espa-
cios vectoriales con producto interno. La mayorı́a de este capı́tulo, ası́ como
la primera parte del segundo, son materia conocida del curso de Álgebra Li -
neal y como tal debe ser abordado por el profesor de cátedra a fin de conciliar
lo aprendido por el estudiante con los nuevos conceptos. En este sentido, el
presente texto de apuntes no es autocontenido y requiere del manejo preciso
que de él pueda hacer el catedrático a cargo del curso.

El concepto más importante del primer capı́tulo es el Teorema de re -


presentación de Riesz (Teorema 10). Es muy necesario aquı́, como en va -
rios resultados posteriores, remarcar que éstos son válidos en dimensión no

2
necesariamente finita, de manera de preparar y orientar al estudiante a un
curso superior (Análisis Funcional, Análisis Armónico, Análisis Numérico,
Ecuaciones Diferenciales) y justificar ası́, debidamente, el análisis de una
variedad de conceptos que en principio pueden parecer meramente abstrac-
ción matemática.

Varios resultados del primer capı́tulo son claramente ejercitables de ma -


nera fácil y entretenida. Por ejemplo, el valor del determinante se explaya a
través de la definición de ángulos, volumenes y finalmente como una elegante
forma de definir el producto cruz de vectores en dimensión tres.

El capı́tulo II, que es la parte central de estos apuntes, está dedicado a


un estudio exhaustivo de trasformaciones lineales, o matrices en el caso de
dimensión finita. El concepto principal, en el contexto de espacios vectoriales
normados, es el de transformación lineal acotada. A este universo de opera -
dores se analizan sus partes: Transformación lineal autoadjunta, Normales,
Antisimétricas, Proyecciones e Isometrı́as. La herramienta principal es el
concepto de adjunto de un operador. Asimismo se estudia un isomorfismo
fundamental: la correspondencia lineal y biyectiva entre transformaciones
lineales y bilineales a través de una transformación canónica, definida en la
sección 2.2.3 y que es fundamental en el estudio de formas cuadráticas en la
última sección del capı́tulo.

También, para una mayor y mejor comprensión del capı́tulo II, es fun-
damental aprender las formas canónicas que adquieren, bajo un cambio de
base apropiado, los diferentes tipos de transformaciones lineales en el caso de
dimensión finita. El Teorema 49 del capı́tulo II en este sentido es uno de los
principales de este texto. La elegante demostración basada en aspectos tanto
algebraicos como analı́ticos corresponde al libro de W. H. Greub citado en

3
la bibliografı́a. Por otra parte, las formas canónicas de los diferentes tipos
de transformaciones lineales son fácilmente asimilables por medio de la com-
paración con el cuerpo de los números complejos. Ası́, si z ∈ C representa
una transformación lineal y z, el conjugado de z, la transformación adjunta,
entonces una transformación lineal autoadjunta significa z = z y, luego, se
podrı́a representar como los elementos del eje real del plano complejo.

Una función (o forma) cuadrática ψ se puede también entender muy


fácilmente viendo su representación geométrica en R2 y R3 . Ası́, por ejemplo,
la ecuación :
ψ(x, y) = 1

representa una elipse (o cı́rculo) o hipérbola en el plano. De esta manera,


la signatura resulta ser un invariante geométrico y, el proceso de diagona -
lización, un método de llevar formas cuadráticas en formas estándar.

Finalmente, el capı́tulo III cierra estos apuntes mostrando que cualquier


forma multilineal puede ser considerada como una transformación lineal, me-
diante un isomorfismo apropiado. Para este fin, resulta fundamental el con-
cepto de producto tensorial de espacios vectoriales, que en este texto sólo se
aborda en su definición y análisis de propiedades básicas.

Dr. Carlos Lizama

Noviembre de 2000

4
Prólogo a la versión corregida

Esta versión introduce varias modificaciones al texto que han sido su -


geridas al autor, por profesores de la cátedra, en el transcurso de dos an̂os
de dictar la asignatura a través de estos apuntes .

El cambio más importante se refiere a la introducción de una gran canti-


dad de ejercicios propuestos en los capı́tulos 1, 2 y 3. La mayorı́a de estos ejer-
cicios corresponde a problemas planteados en pruebas y controles de cátedra.

También se agrega al final del tercer capı́tulo una sección correspondiente


a la noción de producto exterior, a fin de completar las ideas involucradas
en los capı́tulos precedentes y dar las herramientas necesarias para un curso
posterior donde se requiera utilizar formas diferenciales.

Mis agradecimientos a Verónica Poblete por sugerir varios de los cambios


realizados en el texto y aportar con una gran cantidad de ejercicios. También
mis agradecimientos a Maricel Cáceres que escribió estos apuntes en Latex
y les dió un formato más agradable para su lectura.

Dr. Carlos Lizama

Octubre de 2002

5
Índice General

1 Espacios con producto interno 8


1.1 El producto interno . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1 Espacios Duales . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1 Transformaciones Ortogonales . . . . . . . . . . . . . . 20
1.3 Función Determinante . . . . . . . . . . . . . . . . . . . . . . 23
1.3.1 Funciones Determinantes Duales . . . . . . . . . . . . . 26
1.3.2 Funciones Determinantes Normadas . . . . . . . . . . 29
1.3.3 Ángulos en el plano orientado . . . . . . . . . . . . . . 30
1.3.4 El determinante de Gram . . . . . . . . . . . . . . . . 31
1.3.5 El volumen de un paralelepı́pedo . . . . . . . . . . . . 33
1.3.6 Producto cruz . . . . . . . . . . . . . . . . . . . . . . . 34
1.4 Ejercicios de recapitulación . . . . . . . . . . . . . . . . . . . . 40

2 Transformaciones lineales 46
2.1 Espacios vectoriales normados . . . . . . . . . . . . . . . . . . 46
2.1.1 Transformaciones lineales acotadas . . . . . . . . . . . 47
2.2 Transformaciones lineales en espacios con producto interno . . 50
2.2.1 Transformación adjunta . . . . . . . . . . . . . . . . . 50
2.2.2 Transformación lineal adjunta . . . . . . . . . . . . . . 51

6
7

2.2.3 La relación entre transformaciones lineales y funciones


bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.4 Transformaciones normales . . . . . . . . . . . . . . . . 54
2.2.5 Transformaciones autoadjuntas . . . . . . . . . . . . . 55
2.2.6 Vectores propios de funciones bilineales . . . . . . . . . 60
2.2.7 Proyecciones ortogonales . . . . . . . . . . . . . . . . . 61
2.2.8 Suma de dos proyecciones . . . . . . . . . . . . . . . . 63
2.3 Isometrı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.3.1 Comparación con matrices . . . . . . . . . . . . . . . . 71
2.3.2 Aspectos geométricos . . . . . . . . . . . . . . . . . . . 73
2.3.3 Transformaciones antisimétricas . . . . . . . . . . . . . 80
2.3.4 Forma matricial (o canónica) de una transformación
antisimétrica . . . . . . . . . . . . . . . . . . . . . . . 82
2.3.5 Funciones bilineales simétricas . . . . . . . . . . . . . . 86
2.3.6 El caso de dimensión finita; forma diagonal de una fun-
ción cuadrática . . . . . . . . . . . . . . . . . . . . . . 91
2.4 Ejercicios de Recapitulación . . . . . . . . . . . . . . . . . . . 99

3 Producto tensorial 106


3.1 Transformaciones multilineales . . . . . . . . . . . . . . . . . . 106
3.1.1 Propiedades del producto tensorial . . . . . . . . . . . 112
3.1.2 Producto tensorial de transformaciones lineales . . . . 121
3.1.3 Transformaciones Multilineales . . . . . . . . . . . . . 122
3.1.4 Producto Exterior . . . . . . . . . . . . . . . . . . . . . 127
Capı́tulo 1

Espacios con producto interno

1.1 El producto interno

Definición 1 Sean E y F espacios vectoriales. Una función φ : E×F −→ R


se dice bilineal si:

φ(λx1 + µx2 , y) = λφ(x1 , y) + µφ(x2 , y) ; x1 , x2 ∈ E ; y ∈ F

y
φ(x, λy1 + µy2 ) = λφ(x, y1 ) + µφ(x, y2 ) ; x ∈ E ; y1 , y2 ∈ F.

Definición 2 Un producto interno en un espacio vectorial E es una función


bilineal h, i que tiene las siguientes propiedades :
(i) Simetrı́a : hx, yi = hy, xi.
(ii) Positiva definida : hx, xi ≥ 0 y hx, xi = 0 sólo para x = 0.

Un espacio vectorial en el cual se define un producto interno (p.i.) se llama


un espacio producto interno (e.p.i.).
Un espacio producto interno de dimensión finita se llama Espacio Euclidiano.

8
1.1. EL PRODUCTO INTERNO 9

La norma kxk de un vector x ∈ E se define como :


p
kxk = hx, xi.

Un vector unitario es un vector con norma 1. El conjunto de todos los


vectores unitarios es llamado la esfera unitaria. Se sigue de la bilinealidad
del producto interno que :

kx + yk2 = kxk2 + 2hx, yi + kyk2

de donde
1
hx, yi = (kx + yk2 − kxk2 − kyk2 ).
2
Esta ecuación muestra que el producto interno puede ser expresado en términos
de la norma. La restricción de la función bilineal h, i a un subespacio E1 ⊆ E
tiene otra vez las propiedades (i) y (ii) y, luego, cada subespacio de un e.p.i.
es en si mismo un e.p.i.

X
Ejemplo :Rn es un e.p.i. con hx, yi = xi yi , donde x = (x1 , . . . , xn );
i
y = (y1 , . . . , yn ).

Definición 3 Dos vectores x ∈ E, y ∈ E; x 6= y se dicen ortogonales si


hx, yi = 0.

Observación : Sólo el vector cero es ortogonal a si mismo : En efecto,


hx, xi = 0 si y sólo si x = 0.

Proposición 4 Un conjunto de n vectores xj 6= 0 en donde cualesquiera dos


vectores xi y xj (i 6= j) son ortogonales, es linealmente independiente.

P
Demostración. Si i αi xi = 0 entonces αj hxj , xj i = 0 para j = 1, 2, . . . , n.
Luego αj = 0 para j = 1, 2, . . . , n.
10 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Dos subespacios E1 ⊆ E y E2 ⊆ E se llaman ortogonales, lo cual se denota


E1 ⊥E2 , si cualesquiera dos vectores x1 ∈ E1 y x2 ∈ E2 son ortogonales.

Teorema 5 (Desigualdad de Schwarz) Sean x, y ∈ E. Entonces

hx, yi2 ≤ kxk2 kyk2 .

Además, la igualdad vale si y sólo si los vectores son linealmente dependien-


tes.

Demostración. Consideremos la función f (λ) = kx + λyk2 ; λ ∈ R. Como


el p.i. es positivo definido se tiene que f (λ) ≥ 0 para λ ∈ R. Por otra parte,

f (λ) = λ2 kyk2 + 2λhx, yi + kxk2 ≥ 0

de donde se deduce que el discriminante de la expresión cuadrática anterior


es ≤ 0. Luego, hx, yi2 ≤ kyk2 kxk2 . Ahora supongamos que vale hx, yi2 =
kyk2 kxk2 . Entonces el discriminante de la ecuación

f (λ) = λ2 kyk2 + 2λhx, yi + kxk2 = 0 (1.1)

−hx,yi
es cero; luego, la ecuación (1.1) tiene una solución real λ0 (= kyk2
); esto es :
f (λ0 ) = kx + λ0 yk2 = 0. Por lo tanto, x + λ0 y = 0, es decir, x e y son L.D.
Recı́procamente, si x e y son L.D. entonces x = αy. Luego, hx, yi = αhy, yi =
αkyk2 y kxk2 kyk2 = α2 kyk2 obteniendose la igualdad.

Dados x 6= 0, y 6= 0; por la desigualdad de Schwarz :

hx, yi
−1 ≤ ≤1
kxk kyk

hx, yi
entonces, existe ω; 0 ≤ ω ≤ π tal que cos ω = .
kxk kyk
Definición 6 El número ω se llama el ángulo entre los vectores x e y.
1.1. EL PRODUCTO INTERNO 11

Observaciones:
π
1) Si x e y son ortogonales, entonces cos ω = 0 luego ω =
.
2
2) Supongamos que x e y son L.D. Entonces, y = λx. Luego :

λ  1, si λ > 0
cos ω = =
|λ|  −1, si λ < 0

Por lo tanto,

 0, si λ > 0
ω= .
 π, si λ < 0

hx, yi
3) Ya que cos ω = entonces, de la fórmula
kxk kyk

kx − yk2 = kxk2 − 2hx, yi + kyk2

obtenemos :
kx − yk2 = kxk2 + kyk2 − 2kxk kyk cos ω

ecuación conocida como Teorema de los Cosenos.


4) Si x e y son ortogonales, entonces el teorema anterior se reduce a :

kx − yk2 = kxk2 + kyk2

conocida como Teorema de Pitágoras.

Teorema 7 (Desigualdad Triangular) Sean x e y ∈ E. Entonces

kx + yk ≤ kxk + kyk

donde la igualdad vale si y sólo si x = λy; λ ≥ 0


12 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Demostración. Se sigue de la desigualdad de Schwarz que :

kx + yk2 = kxk2 + 2hx, yi + kyk2 ≤ kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 .

La igualdad vale si y sólo si x = λy; λ ≥ 0. En efecto : Supongamos que


kx + yk = kxk + kyk entonces kxk2 + 2hx, yi + kyk2 = kxk2 + 2kxk kyk + kyk2
, de esta manera
hx, yi = kxk kyk (1.2)

Luego por Teorema 5, los vectores x e y deben ser L.D., esto es :

x = λy (1.3)

reemplazando (1.3) en (1.2) se obtiene :

λkyk2 = |λ| kyk2

luego λ = |λ| ≥ 0.
Recı́procamente; supongamos que x = λy, λ ≥ 0. Entonces

kx + yk = k(λ + 1)yk = (λ + 1)kyk = λkyk + kyk = kxk + kyk.

Dados tres vectores x, y,z; la desigualdad triangular se puede escribir


como
kx − yk ≤ kx − zk + kz − yk (1.4)

pues kx − yk = kx − z + z − yk ≤ kx − zk + kz − yk. Una generalización de


lo anterior es el siguiente :

Teorema 8 (Desigualdad de Ptolemy) Sean x, y, z ∈ E. Entonces

kx − yk kzk ≤ ky − zk kxk + kz − xk kyk (1.5)


1.1. EL PRODUCTO INTERNO 13

Demostración. La desigualdad es claramente válida si uno de los tres vec-


tores es cero. Luego, podemos asumir x 6= 0,y 6= 0, z 6= 0. Se definen vectores
x0 , y 0 , z 0 por:
x y z
x0 = 2
; y0 = 2
; z0 = .
kxk kyk kzk2
Entonces

kx0 − y 0 k2 = kx0 k2 − 2hx0 , y 0 i + ky 0 k2


1 2hx, yi 1
= 2
− 2 2
+
kxk kxk kyk kyk2
kxk2 − 2hx, yi + kyk2
=
kxk2 kyk2
kx − yk2
= ,
kxk2 kyk2

kx − yk
esto es, kx0 − y 0 k = . Aplicando (1.4) a los vectores x0 , y 0 , z 0 se
kxk kyk
obtiene :
kx0 − y 0 k ≤ kx0 − z 0 k + kz 0 − y 0 k

o equivalentemente,

kx − yk kx − zk kz − yk
≤ + .
kxk kyk kxk kzk kzk kyk

Multiplicando esta última desigualdad por kxk kyk kzk se obtiene (1.5).

Ejercicio: Sea X := C[0, 1] = {f : [0, 1] −→ R / f es continua }. De-


muestre que
Z 1
hf, gi = f (t)g(t)dt
0

es un producto interno en X.
14 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

1.1.1 Espacios Duales

Sean E, E ∗ espacios vectoriales. Supongamos que existe una función bilineal


h, i definida en E ∗ × E tal que satisface lo siguiente:
1) hf, xi = 0 para todo x implica f = 0
2) hf, xi = 0 para todo f implica x = 0 (en tal caso la función bilineal se
dice no degenerada ).
Entonces E y E ∗ se llaman duales con respecto a la función bilineal h, i. El
número hx∗ , xi se llama el producto escalar de x∗ y x. La función bilineal h, i
se llama el producto escalar entre E ∗ y E.

Ejemplos
1) Si h, i es un producto interno, entonces es una función bilineal no dege-
nerada.
2) Sea E = E ∗ = R. Se define :

hλ, µi = λµ ; λ, µ ∈ R.

Claramente la forma es bilineal y no degenerada pues hλ, µi = 0 ∀µ implica λ =


0. Análogamente hλ, µi = 0 ∀λ implica µ = 0. De esta manera se dice que
el dual de R es R; o que R es auto-dual o es dual a sı́ mismo.
3) Sea E = E ∗ = Rn y definamos :
X
hx∗ , xi = x∗i xi ;
i

donde x∗ = (x∗1 , . . . , x∗n ) y x = (x1 , . . . , xn ). Claramente la forma bilineal es


no degenerada por Ejemplo 1. Luego Rn es dual a sı́ mismo.
Recordemos que L(E) := {f : E −→ R / f es lineal }.

Proposición 9 Si E tiene dimensión finita, con producto interno h, i; en-


tonces existe un isomorfismo τ : E −→ L(E).
1.1. EL PRODUCTO INTERNO 15

Demostración. Se define

τ (x)(y) := hx, yi ; x ∈ E , y ∈ E.

(a) τ es lineal : Para cada y ∈ E

τ (λx1 + x2 )(y) = hλx1 + x2 , yi = λhx1 , yi + hx2 , yi


= λτ (x1 )(y) + τ (x2 )(y) = (λτ (x1 ) + τ (x2 ))(y).

Luego, τ (λx1 + x2 ) = λτ (x1 ) + τ (x2 ).

(b) τ es inyectiva : Sea x ∈ E tal que τ (x) = 0. Entonces τ (x)(y) = 0


para cada y ∈ E, esto es, hx, yi = 0 para cada y ∈ E. Ya que h, i es no
degenerada, lo anterior implica que x = 0.

(c) Veamos ahora que el hecho de poseer E dimensión finita implica que
τ es sobreyectiva. Para esto vamos a probar que dim L(E) = dim E, lo cual
prueba la sobreyectividad (Ejercicio).
Sea {x1 , x2 , . . . , xn } base de E. Definimos en L(E) las funciones :

 1, si i = j
f j (xi ) = δij = ; j = 1, 2, . . . , n
 0, si i 6= j

Entonces {f 1 , f 2 , . . . , f n } es una base de L(E). En efecto : Supongamos que

α1 f 1 + α2 f 2 + · · · + αn f n = 0

entonces α1 f 1 (x1 ) + · · · + αn f n (x1 ) = 0 implica, por definición, α1 = 0.


Análogamente, α1 f 2 (x2 ) + · · · + αn f n (x2 ) = 0 implica α2 = 0. Deducimos
ası́ que α3 = 0, . . . , αn = 0. Esto prueba que el conjunto es L.I.
Sea ahora f ∈ L(E). Entonces

f (x) = f (α1 x1 + · · · + αn xn ) = α1 f (x1 ) + · · · + αn f (xn ).


16 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Notar que

f 1 (x) = f 1 (α1 x1 + · · · + αn xn ) = α1
f 2 (x) = α2
..
.
f n (x) = αn .

Luego :

f (x) = f 1 (x)f (x1 ) + · · · + f n (x)f (xn )


X
= βi f i (x)

donde βi = f (xi ). Esto prueba que L(E) es generado por el conjunto


{f 1 , . . . , f n } y por lo tanto es una base. En particular, dim L(E) = dim E.

Observación : La base {f 1 , . . . , f n } de L(E) definida en la demostración


del teorema anterior es llamada base dual.

El resultado más importante de esta sección es el siguiente.

Teorema 10 (Teorema de Riesz) Si E es un espacio con producto inter-


no h, i de dimensión finita y f : E −→ R es una función lineal, entonces
existe un único vector a ∈ E tal que

f (x) = ha, xi ∀ x ∈ E.

Demostración. Por hipótesis f ∈ L(E). Como E es de dimensión finita, E


y L(E) son isomorfos vı́a
τ (x)(y) = hx, yi.

En particular, τ es sobreyectiva o sea existe un único a ∈ E tal que

τ (a) = f.
1.2. BASES ORTONORMALES 17

Luego f (x) = τ (a)(x) = ha, xi ∀ x ∈ E.

Ejercicios
1. Sea φ : R2 × R2 → R definida por φ((x1 , y1 ), (x2 , y2 )) = x1 x2 − y1 x2 −
x1 y2 + 3y1 y2 . Demuestre que φ es bilineal y definida positiva.
P P
2. Sea l2 := {(x1 , x2 , . . .) / i x2i < ∞}. Demuestre que i xi yi con-
verge y que la función bilineal
X
φ(x, y) = xi yi
i

donde x = (x1 , x2 , . . .), y = (y1 , y2 , . . .); es un producto interno en l2 .

3. Sean E1 , E2 espacios con producto interno. Demuestre que se puede


definir un producto interno en : E1 × E2 por

h(x1 , x2 ), (y1 , y2 )i = hx1 , y1 i + hx2 , y2 i ; x1 , y1 ∈ E1 , x2 , y2 ∈ E2 .

4. Sea E espacio vectorial y E ∗ = L(E) = {f : E −→ R / f es lineal }.


Definamos:
hf, xi := f (x) ; f ∈ L(E), x ∈ E.

Pruebe que es un forma bilineal. Además, es no degenerada. (Esto


prueba que el dual de E es L(E). )

1.2 Bases Ortonormales

Definición 11 Sea E e.p.i. de dimensión n. Sea {e1 , . . . , en } base de E. La


base {ei } es llamada ortonormal si los vectores ei (i = 1, . . . , n) son mutua-
18 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

mente ortogonales y tienen norma 1; esto es :

hei , ej i = δij ∀ i, j = 1, . . . , n.

Proposición 12 Sea E e.p.i. de dimensión n y sea {e1 , . . . , en } base ortonor-


mal de E. Entonces para cada x, y ∈ E :
P
hx, yi = i xi yi (Igualdad de Parseval)

P P
donde x = i xi ei , y = i yi ei .

Demostración.
X X XX XX X
hx, yi = h xi e i , yj e j i = xi yj hei , ej i = xi yj δij = xi yi .
i j i j i j i

Corolario 13 Si E es un e.p.i. de dimensión finita y {ei } es base ortonor-


mal de E entonces para cada x ∈ E
P
kxk2 = i x2i (Igualdad de Bessel).

Demostración. Tomar y = x en la proposición anterior.

Corolario 14 Si E es un e.p.i. de dimensión finita y {ei } es base ortonor-


mal de E entonces, para cada x ∈ E

hx, ei i = xi ; i = 1, . . . , n (Coeficientes de Fourier).

Demostración. Tomar y = ej en la proposición anterior.

Corolario 15 Si E es un e.p.i. de dimensión finita y {ei } es base ortonor-


mal de E entonces para cada x ∈ E, el ángulo θi entre x y ei es :
xi
cos θi = (i = 1, 2, . . . , n).
kxk
1.2. BASES ORTONORMALES 19

hx, ei i
Demostración. Por Definición 7 y Corolario 14 tenemos : cos θi = =
kxk kei k
xi
.
kxk

Observación : En particular, si kxk = 1, entonces cos θi = xi .

Teorema 16 (Proceso de Ortogonalización de Gram-Schmidt) Sea E


e.p.i. de dimensión finita. Entonces E siempre posee una base ortonormal.

Demostración. Sea {a1 , . . . , an } base de E. Vamos a construir una nueva


base {b1 , . . . , bn } cuyos vectores son mutuamente ortogonales. Sea b1 = a1 y
definamos b2 = a2 + λb1 donde λ es un escalar que se determina de manera
tal que hb1 , b2 i = 0. Con esto se obtiene :

0 = ha1 , a2 + λb1 i = ha1 , a2 i + λha1 , b1 i = ha1 , a2 i + λha1 , a1 i.

−ha1 , a2 i
Como a1 6= 0 , se tiene que λ = . Notar que b2 6= 0 (si no α2 =
ha1 , a1 i
−λa1 y a2 son L.I. lo que es una contradicción). Para obtener b3 , definimos
b3 = a3 + µb1 + νb2 donde µ y ν se determinan de manera que

hb1 , b3 i = 0 y hb2 , b3 i = 0.

Con esto se tiene que

0 = hb1 , a3 + µb1 + νb2 i = hb1 , a3 i + µhb1 , b1 i

0 = hb2 , a3 + µb1 + νb2 i = hb2 , a3 i + νhb2 , b2 i

ya que b1 6= 0 y b2 6= 0, estas ecuaciones se pueden resolver con respecto a µ


−hb1 , a3 i −hb2 , a3 i
y ν. Más precisamente, µ = , ν= .
hb1 , b1 i hb2 , b2 i
La independencia lineal de a1 , a2 , a3 implica que b3 6= 0.
20 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Continuando de esta manera se obtiene finalmente un sistema de n vectores


bj 6= 0; j = 1, . . . , n tal que

hbi , bj i = 0 ∀ i 6= j.

En particular, {bi } son L.I. y luego forman una base para E. En consecuencia
los vectores
bi
ei = i = 1, . . . , n
kbi k
forman una base ortonormal.

1.2.1 Transformaciones Ortogonales

En esta sección queremos responder a la pregunta: Si tenemos dos bases


ortonormales, ¿cómo se relacionan entre ellas?.
A fin de dar una respuesta, requerimos recordar la siguiente definición:

Definición 17 Sea A = (αij ) una matriz de n × n. A se dice ortogonal si


AAT = I.

Finalmente, la relación entre matrices ortogonales y bases ortonormales


está indicada en el siguiente resultado.

Proposición 18 Sean {xi } y {xj } bases ortonormales de E. Entonces existe


P
una matriz ortogonal (αij ) tal que xi = j αij xj . Recı́procamente, si {xi }
es una base ortonormal de E y (αij ) es una matriz ortogonal, entonces xj =
P
i αji xi es también una base ortonormal de E.
1.2. BASES ORTONORMALES 21

Demostración. Ya que {xj } es base, para cada xi existen escalares αij , (j =


P
1, ..., n) tales que xi = j αij xj . Veamos que (αij ) es una matriz ortogonal.
En efecto : Como hxi , xj i = δij y hxi , xj i = δij entonces
X X
δij = hxi , xj i = h αip xp , αjq xq i
p q
XX
= αip αjq hxp , xq i
p q
X
= αip αjp
p

lo cual muestra que (αij ) es ortogonal. Inversamente, si {xi } es base ortonor-


mal de E y (αij ) es matriz ortogonal, entonces
X X
hxi , xj i = h αip xp , αjq xq i
p q
XX
= αip αjq hxp , xq i
p q
X
= αip αjp
p
= δij

lo que indica que {xi } es base ortonormal.

Definición 19 Sea E e.p.i. y E1 un subespacio de E. El conjunto

E1⊥ := {x ∈ E / hx, yi = 0 ∀ y ∈ E1 }

es llamado el complemento ortogonal de E1 .

Observaciones:
1) E1⊥ es un subespacio de E.
2) E1⊥ ∩ E1 = {0}.
3) Si E tiene dimensión finita :

dim E1 + dim E1⊥ = dim E


22 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

en particular,
E = E1 ⊕ E1⊥ . (1.6)

En efecto: Sea {yk }m


k=1 una base ortonormal de E1 . Entonces existen vectores
{ym+1 , ..., yn } tal que {yk }nk=1 es una base ortonormal de E (completación de
la base). Entonces {yk }nk=m+1 es una base de E1⊥ y luego cada x ∈ E se
escribe como m n
X X
x= hx, yk iyk + hx, yk iyk ,
k=1 k=m+1

lo cual muestra que la suma es directa .

Definición 20 Sea x ∈ E. Sea {yk }k=m


k=1 base ortonormal de E1 . El vector
m
X
p= hx, yk iyk
k=1

se llama la proyección ortogonal de x sobre E1 .

Observaciones :
1) La idea en la definición anterior es la siguiente : Si x ∈ E entonces por
(1.6)
x = p + h; p ∈ E1 , h ∈ E1⊥ . (1.7)

Como {yk }m
k=1 es base de E1 y p ∈ E1 :
m
X
p= αk yk .
k=1

Notar que :
m
X m
X
hp, yj i = αk hyk , yj i = αk δkj = αj
k=1 k=1

hp, yj i = hx − h, yj i = hx, yj i
1.3. FUNCIÓN DETERMINANTE 23

luego
m
X
p= hx, yk iyk .
k=1

2) De (1.7) obtenemos kxk2 = hx, xi = hp + h, p + hi = kpk2 + khk2 . En


particular : kpk ≤ kxk; esto es,
m
X
| hx, yk iyk | ≤ kxk
k=1

llamada desigualdad de Bessel.


Notar que la igualdad vale si y sólo si khk2 = 0 i.e. h = 0; esto es, si y
sólo si x ∈ E1 (lo cual se sigue de (1.7)). El número khk se llama la distancia
a x desde el subespacio E1 .

Ejercicios
1. Dada la base {(1, 0, 1), (2, 1, −3), (−1, 1, 0)}, construir una base ortonor-
mal por el proceso de ortogonalización de Gram-Schmidt.

2. (dificil) Sea E = C[0, 1] con el producto interno


Z 1
hf, gi = f (t)g(t)dt.
0

Sea E1 = C 1 [0, 1] subespacio de E. Demuestre que E1⊥ = {0}.

1.3 Función Determinante

Definición 21 Sea E e.v. de dimensión n. Una función determinante es


una función ∆ : E · · · E} −→ R tal que
| ×{z
n−veces
24 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

(a) ∆ es lineal con respecto a cada argumento (multilineal), esto es :

∆(x1 , . . . , λxi + µyi , . . . , xn ) = λ∆(x1 , . . . , xi , . . . , xn ) + µ∆(y1 , . . . , yi , . . . , yn )

con i = 1, 2, . . . , n.

(b) ∆ es antisimétrica con respecto a todos sus argumentos, más precisa-


mente
∆(xσ(1) , . . . , xσ(n) ) = ²σ ∆(x1 , . . . , xn )

donde (
1 para una permutación σ par
²σ =
−1 para una permutación σ impar

Observación : Ya que el intercambio de dos números (ij) es una per-


mutación impar, se obtiene de la propiedad (b) :

∆(x1 , . . . , xi , . . . , xj , . . . , xn ) = −∆(x1 , . . . , xj , . . . , xi , . . . , xn ).

En particular, si xi = xj = x ;

∆(x1 , . . . , x, . . . , x, . . . , xn ) = 0 (1.8)

Esto es, una función determinante asume el valor cero siempre que dos de
sus argumentos coinciden. Más generalmente :

Proposición 22 Si dos argumentos de una función determinante son L.D.


entonces ∆(x1 , x2 , . . . , xn ) = 0.

Demostración. Sin pérdida de generalidad, supongamos que xn es L.D. con


respecto a x1 , . . . , xn−1 . Entonces
n−1
X
xn = αi xi .
i=1
1.3. FUNCIÓN DETERMINANTE 25

Luego, por (1.8) :


n−1
X
∆(x1 , x2 , . . . , xn ) = αi ∆(x1 , x2 , . . . , xi , . . . , xn−1 , xi ) = 0.
i=1

Observación : Observemos que el valor de una función determinante no


cambia si un múltiplo de un argumento xj se suma a otro argumento xi ,
(i 6= j). En efecto : Por (1.8) (si i < j)

∆(x1 , . . . , xi + λxj , . . . , xj , . . . , xn ) = ∆(x1 , . . . , xi , . . . , xj , . . . , xn )


+ λ ∆(x1 , . . . , xj , . . . , xj , . . . , xn )
| {z }
=0
= ∆(x1 , . . . , xn ).

Los ejemplos anteriores nos muestran existencia de funciones determi-


nantes en un espacio E. Qué hay con respecto a la unicidad ? En efecto,
note que en un espacio vectorial E se podrı́an, eventualmente, definir más de
una función determinante.

Proposición 23 Sean ∆ y ∆1 dos funciones determinantes en E, ∆1 6= 0.


Entonces existe λ ∈ R tal que ∆ = λ∆1 .

Demostración. Sea {ei }ni=1 base ortonormal de E. Entonces, dado (x1 , x2 , . . . , xn ) ∈


E × E · · · × E =: E n se tiene que cada xi se escribe como
Xn
xi = αij ej .
j=1

Luego:
X X X
∆(x1 , . . . , xn ) = ∆( α1j1 ej1 , α2j2 ej2 , . . . , αnjn ejn )
j1 =1 j2 =1 jn
XX X
= ... α1j1 α2j2 . . . αnjn ∆(ej1 , ej2 , . . . , ejn )
j1 =1 j2 =1 jn =1
X
= ∆(e1 , . . . , en ) ²σ α1σ(1) . . . αnσ(n) .
σ
26 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Análogamente,
X
∆1 (x1 , . . . , xn ) = ∆1 (e1 , . . . , en ) ²σ α1σ(1) . . . αnσ(n) .
σ

∆(e1 , . . . , en )
Sea λ := entonces
∆1 (e1 , . . . , en )
∆(x1 , . . . , xn ) = λ∆1 (x1 , . . . , xn )

lo que prueba la proposición.

Ejercicios
1. Sea E = R2 y ∆ : R2 × R2 −→ R definida por :
à !
x1 x 2
∆((x1 , y1 ), (x2 , y2 )) = x1 y2 − x2 y1 = det .
y1 y2

Pruebe que ∆ es multilineal(bilineal en este caso) y antisimétrica con


respecto a sus argumentos.

2. Sea E = R3 y ∆ : R3 × R3 × R3 −→ R definida por :


 
x1 x2 x3
 

∆((x1 , y1 , z1 ), (x2 , y2 , z2 ), (x3 , y3 , z3 )) = det  y1 y2 y3 
.
z1 z2 z3

Pruebe que ∆ es trilineal y verifica la propiedad (b).

1.3.1 Funciones Determinantes Duales

Proposición 24 Sean E ∗ y E un par de espacios vectoriales duales con di-


mensión n (i.e. existe una función bilineal no degenerada h, i definida en
1.3. FUNCIÓN DETERMINANTE 27

E ∗ × E). Sean ∆∗ 6= 0 y ∆ 6= 0 funciones determinantes en E ∗ y E respec-


tivamente. Entonces
 
hf1 , x1 i . . . hf1 , xn i
 .. .. 
∆∗ (f1 , . . . , fn )∆(x1 , . . . , xn ) = α det 
 . . ;
 (1.9)
hfn , x1 i . . . hfn , xn i

donde fi ∈ E ∗ , xi ∈ E y α ∈ R.


Demostración. Sea Ω : E · · × E}∗ × E
| × ·{z | × ·{z
· · × E} −→ R definida por:
n n
 
hf1 , x1 i . . . hf1 , xn i
 .. .. 
Ω(f1 , . . . , fn , x1 , . . . , xn ) = det 
 . . .

hfn , x1 i . . . hfn , xn i

Es claro que Ω es lineal con respecto a cada argumento. También es claro que
Ω es antisimétrica con respecto a los vectores fi y con respecto a los vectores
xi (i = 1, . . . , n). Luego, Ω es una función determinante y, por unicidad (con
respecto a los argumentos x1 , . . . , xn ; dejando f1 , . . . , fn fijos)

Ω(f1 , . . . , fn , x1 , . . . , xn ) = α(f1 , . . . , fn )∆(x1 , . . . , xn ). (∗)

Esta relación muestra que α(f1 , . . . , fn ) es lineal con respecto a cada ar-
gumento y antisimétrica. En efecto ; por ejemplo con respecto al primer
argumento tenemos

Ω(λf1 + g1 , . . . , fn , x1 , . . . , xn ) = α(λf1 + g1 , . . . , fn )∆(x1 , . . . , xn )

o equivalentemente

λΩ(f1 , . . . , fn , x1 , . . . , xn ) + Ω(g1 , . . . , fn , x1 , . . . , xn )
= α(λf1 + g1 , . . . , fn )∆(x1 , . . . , xn )
28 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

esto es,

λα(f1 , . . . , fn )∆(x1 , . . . , xn ) + α(g1 , . . . , fn )∆(x1 , . . . , xn )


= α(λf1 + g1 , . . . , fn )∆(x1 , . . . , xn ).

como ∆ 6= 0 obtenemos

λα(f1 , . . . , fn ) + α(g1 , . . . , fn ) = α(λf1 + g1 , . . . , fn )

lo que prueba que α es lineal con respecto al primer argumento.


Veamos que es antisimétrica : De (*) obtenemos:

Ω(fσ(1) , ..., fσ(n) , x1 , ..., xn ) = α(fσ(1) , ..., fσ(n) )∆(x1 , ..., xn ).

Equivalentemente, puesto que Ω es una función determinante:

²σ (f1 , ..., fn , x1 , ..., xn ) = α(fσ(1) , ..., fσ(n) )∆(x1 , ..., xn ).

Aplicando (*) otra vez al lado izquierdo obtenemos:

²σ α(f1 , ..., fn )∆(x1 , ..., xn ) = α(fσ(1) , ..., fσ(n) )∆(x1 , ..., xn ).

Finalmente, dividiendo por ∆ se obtiene:

²σ α(f1 , ..., fn ) = α(fσ(1) , ..., fσ(n) ).

Luego, otra vez por unicidad : existe β ∈ R tal que

α(f1 , . . . , fn ) = β∆∗ (f1 , . . . , fn ).

Combinando se obtiene :

Ω(f1 , . . . , fn , x1 , . . . , xn ) = β∆∗ (f1 , . . . , fn )∆(x1 , . . . , xn ). (1.10)


1.3. FUNCIÓN DETERMINANTE 29

Sean ahora {fi∗ } y {ei } bases duales en E ∗ y E respectivamente, esto es


hfi∗ , ej i = δij ; entonces

β∆∗ (f1∗ , . . . , fn∗ )∆(e1 , . . . , en ) = Ω(f1∗ , . . . , fn∗ , e1 , . . . , en )


 
1 0 ... 0
 
 0 1 ... 0 
 
= det  . . . =1
 .. .. .. 
 
0 0 ... 1

pues hfi∗ , ej i = δij por definición. Luego, β 6= 0 . Sea ahora α := β −1


entonces, de (1.10) se obtiene la relación (1.9) que queriamos probar.

Definición 25 La funciones determinantes ∆∗ y ∆ se llaman duales si el


factor α en (1.9) es igual a 1, esto es :

∆∗ (f1∗ , . . . , fn∗ )∆(x1 , . . . , xn ) = det((hfi , xj i)ij ).

1.3.2 Funciones Determinantes Normadas

Sea E e.v. con producto interno h, i, de dimensión n. Como E es dual a


si mismo con respecto al producto interno, entonces, si ∆0 es una función
determinante en E se obtiene por (1.9) :
 
hx1 , y1 i . . . hx1 , yn i
 .. .. 
∆0 (x1 , . . . , xn )∆0 (y1 , . . . , yn ) = α det 
 . . ;

hxn , y1 i . . . hxn , yn i
donde α ∈ R.
Si hacemos xi = yi = ei , donde {ei } es base ortonormal de E, se obtiene :

∆0 (e1 , . . . , en )2 = α.
30 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Luego, α > 0. Se define


∆0
∆ := ± √ (1.11)
α
Entonces
 
hx1 , y1 i . . . hx1 , yn i
 .. .. 
∆(x1 , . . . , xn )∆(y1 , . . . , yn ) = det 
 . . .
 (1.12)
hxn , y1 i . . . hxn , yn i

Definición 26 Una función determinante en un espacio con producto inter-


no que satisface (1.12) se llama una función determinante normada.

Observaciones:
1) De (1.11) concluimos que existen exactamente dos funciones determinantes
normadas ∆ y −∆ en un e.v. E.
2) Si se define una orientación en E, entonces una de las funciones ∆ y
−∆ representa la orientación. En consecuencia, en un e.v. con p.i. orientado
existe una única función determinante normada que representa la orientación.

1.3.3 Ángulos en el plano orientado

Con ayuda de una función determinante normada es posible dar un signo


al ángulo entre dos vectores de un espacio con producto interno, orienta-
do, de dimensión 2. Consideremos la función determinante normada ∆ que
representa la orientación dada. De la identidad

∆(x1 , . . . , xn )∆(y1 , . . . , yn ) = det(hxi , yi i)

obtenemos, usando (1.12), que para cada x, y ∈ E, con dimE = 2:

kxk2 kyk2 − hx, yi2 = ∆(x, y)2 . (1.13)


1.3. FUNCIÓN DETERMINANTE 31

Supongamos ahora que x 6= 0 e y 6= 0. Dividiendo (1.13) por kxk2 kyk2


obtenemos:
hx, yi2 ∆(x, y)2
+ =1
kxk2 kyk2 kxk2 kyk2
ó µ ¶2 µ ¶2
hx, yi ∆(x, y)
+ =1
kxk kyk kxk kyk
ya que cos2 θ + sin2 θ = 1, se concluye que existe un único θ ∈ (−π, π) tal que

hx, yi ∆(x, y)
cos θ = , sin θ = . (1.14)
kxk kyk kxk kyk

Definición 27 El número θ(= θ(x, y)) se llama el ángulo orientado entre x


e y.

Observación : Si se cambia la orientación, ∆ se reemplaza por −∆ y luego


θ cambia por −θ. (Ejercicio).

1.3.4 El determinante de Gram

Definición 28 Dados p vectores x1 , . . . , xp en un espacio con producto in-


terno E, el determinante de Gram G(x1 , . . . , xp ) se define por
 
hx1 , x1 i . . . hx1 , xp i
 .. .. 
G(x1 , . . . , xp ) = det 
 . . .

hxp , x1 i . . . hxp , xp i

Proposición 29 G(x1 , . . . , xp ) ≥ 0 y la igualdad vale si y sólo si los vectores


{x1 , . . . , xp } son linealmente dependientes.
32 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Demostración.

Caso 1 : Los vectores {x1 , . . . , xp } son L.D. Entonces existen escalares α1 , ..., αn
no todos cero tales que α1 x1 + ... + αn xn = 0. Luego, para cada i = 1, ..., n
se tiene:

0 = hxi , α1 x1 + ... + αn xn i = α1 hxi , x1 i + ... + αn hxi , xn i.

Entonces las filas de la matriz


 
hx1 , x1 i . . . hx1 , xp i
 .. .. 
 . . 
 
hxp , x1 i . . . hxp , xp i
son también L.D.; luego, G(x1 , . . . , xp ) = 0.

Caso 2 : Los vectores {x1 , . . . , xp } son L.I. Sea E1 el subespacio generado por
x1 , . . . , xp con el producto interno de E. Sea ∆1 una función determinante
normada en E1 . Entonces de (1.13)

∆1 (x1 , . . . , xp )2 = G(x1 , . . . , xp ).

La independencia lineal de x1 , . . . , xp implica que ∆1 6= 0. Luego

G(x1 , . . . , xp ) > 0.

Esto prueba G(x1 , . . . , xp ) ≥ 0.


Además, por lo anterior, es claro que, si {x1 , . . . , xp } son L.D. entonces
G(x1 , . . . , xp ) = 0 y, si G(x1 , . . . , xp ) = 0 entonces, si se supone por ab-
surdo que {x1 , . . . , xp } es L.I. se tiene, por caso 2, que G(x1 , . . . , xp ) > 0 en
contradicción.
Observación : Si p = 2, se deduce de la proposición anterior la desigualdad
de Schwarz (i.e. la Proposición 29 es una generalización del Teorema 6).
1.3. FUNCIÓN DETERMINANTE 33

1.3.5 El volumen de un paralelepı́pedo

Definición 30 Sea {a1 , . . . , ap } un conjunto de p-vectores L.I. en un espacio


vectorial E. El conjunto
( p )
X
P = αi ai / 0 ≤ αi ≤ 1
i=1

se llama paralelepı́pedo p-dimensional generado por los vectores {a1 , . . . , ap }.

Ejemplo: Si p = 2 entonces

P = {αa + βb : 0 ≤ α ≤ 1, 0 ≤ β ≤ 1}.

Definición 31 El volumen V (a1 , . . . , ap ) del paralelepı́pedo se define como:

V (a1 , . . . , ap ) = |∆1 (a1 , . . . , ap )| (1.15)

donde ∆1 es una función determinante normada definida en el subespacio


generado por los vectores {a1 , . . . , ap }.

Observaciones :
1) En vista de la identidad
 
hx1 , x1 i . . . hx1 , xp i
 .. .. 
∆2 (x1 , . . . , xp ) = det 
 . . 

hxp , x1 i . . . hxp , xp i

se tiene que el volumen de un paralelepı́pedo se puede también escribir como:


 
ha1 , a1 i . . . ha1 , ap i
 .. .. 
V (a1 , . . . , ap )2 = det 
 . . 
 (1.16)
hap , a1 i . . . hap , ap i
34 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

2) Si p = 2, se obtiene de (1.16):

V (a1 , a2 )2 = ka1 k2 ka2 k2 − ha1 , a2 i2 .

Ahora, si θ denota el ángulo entre a1 y a2 entonces


ha1 , a2 i
cos θ =
ka1 k ka2 k
luego
ha1 , a2 i2
cos2 θ =
ka1 k2 ka2 k2
ha1 , a2 i2
pero cos2 θ + sin2 θ = 1, de donde 1 − sin2 θ = luego:
ka1 k2 ka2 k2
ha1 , a2 i2 ka1 k2 ka2 k2 − ha1 , a2 i2
sin2 θ = 1 − =
ka1 k2 ka2 k2 ka1 k2 ka2 k2
lo que implica que

ka1 k2 ka2 k2 sin2 θ = ka1 k2 ka2 k2 − ha1 , a2 i2

de aquı́ se obtiene, finalmente:

V (a1 , a2 )2 = ka1 k2 ka2 k2 sin2 θ

o sea,
V (a1 , a2 ) = ka1 k ka2 k sin θ
que es una fórmula conocida para calcular el área de un paralelógramo.

1.3.6 Producto cruz

Sea E un espacio con producto vectorial de dimensión 3, orientado, y sea ∆


la función determinante normada que representa la orientación. Sean x ∈ E,
y ∈ E y consideremos la función

f : E −→ R (1.17)
1.3. FUNCIÓN DETERMINANTE 35

definida por f (z) = ∆(x, y, z).


Claramente f es lineal, esto es, f ∈ L(E). En vista del Teorema de Repre-
sentación de Riesz (Teorema 10), existe un único vector u ∈ E tal que

f (z) = hu, zi. (1.18)

Definición 32 El vector u obtenido anteriormente se llama el producto cruz


de x e y y se denota x×y := u. En vista de (1.17) y (1.18) se tiene la relación

hx × y, zi = ∆(x, y, z) (1.19)

Observación: El producto cruz depende claramente de la orientación de E.


Si la orientación es cambiada (i.e. ∆ por −∆), entonces el producto cruz
cambia de signo.

En lo que sigue veremos algunas propiedades del producto cruz.

Proposición 33 El producto cruz es distributivo:


(i) (λx1 + x2 ) × y = λx1 × y + x2 × y.
(ii) x × (λy1 + y2 ) = λx × y1 + x × y2 .

Demostración. Para cada z ∈ E se tiene:

h(λx1 + x2 ) × y, zi = ∆(λx1 + x2 , y, z)
= λ∆(x1 , y, z) + ∆(x2 , y, z)
= λhx1 × y, zi + hx2 × y, zi
= hλ(x1 × y) + x2 × y, zi
36 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Luego, como el producto interno es no degenerado; se obtiene (i).


Análogamente, para cada z ∈ E se tiene:

hx × (λy1 + y2 ), zi = ∆(x, λy1 + y2 , z)


= λ∆(x, y1 , z) + ∆(x, y2 , z)
= λhx × y1 , zi + hx × y2 , zi
= hλ(x × y1 ) + x × y2 , zi

lo cual prueba (ii).

Proposición 34

(a) x × y = −y × x

(b) hx × y, xi = 0, hx × y, yi = 0.

(c) x × y 6= 0 si y sólo si x e y son L.I.

Demostración.

(a) Sea z ∈ E:

hx × y, zi = ∆(x, y, z) = −∆(y, x, z) = −hy × x, zi = h−y × x, zi

(b) hx × y, xi = ∆(x, y, x) = 0 ; hx × y, yi = ∆(x, y, y) = 0

(c) Supongamos que x × y 6= 0. Entonces, si suponemos por absurdo que x


e y son L.D. tenemos:

x = λy ; λ ∈ R ; λ 6= 0.
1.3. FUNCIÓN DETERMINANTE 37

Luego, por (a) se tiene que

x × y = λy × y = λ(y × y)

−y × x = −y × λy = −λ(y × y)

lo que implica que y×y = −y×y. Luego y×y = 0, lo que es una contradicción
pues 0 6= x × y = λ(y × y). Inversamente, supongamos que x e y son L.I.
Sea z ∈ E tal que {x, y, z} es base de E. Entonces

hx × y, zi = ∆(x, y, z) 6= 0.

Luego, x × y 6= 0.

Proposición 35

hx1 × x2 , y1 × y2 i = hx1 , y1 ihx2 , y2 i − hx1 , y2 ihx2 , y1 i.

Demostración. Sin pérdida de generalidad, podemos suponer que x1 y x2


son L.I. (de otro modo el lado izquierdo es cero por (c) de la proposición
anterior, lo mismo que el lado derecho).
Se tienen las relaciones:

hx1 × x2 , x3 i = ∆(x1 , x2 , x3 ) ; x3 ∈ E

hy1 × y2 , y3 i = ∆(y1 , y2 , y3 ) ; y3 ∈ E.

Como ∆ es una función determinante normada se tiene:

hx1 × x2 , x3 ihy1 × y2 , y3 i = ∆(x1 , x2 , x3 )∆(y1 , y2 , y3 )


 
hx1 , y1 i hx1 , y2 i hx1 , y3 i
 
= det 
 hx2 , y1 i hx2 , y2 i hx2 , y3 i
.

hx3 , y1 i hx3 , y2 i hx3 , y3 i
38 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Sea y3 := x1 × x2 . Note que por proposición 34 parte (b) tenemos hx2 , y3 i = 0


y hx1 , y3 i = 0. Si calculemos ahora el determinante derecho por la última
columna, obtenemos:
à !
hx1 , y1 i hx1 , y2 i
hx1 × x2 , x3 ihy1 × y2 , x1 × x2 i = hx3 , y3 i det
hx2 , y1 i hx2 , y2 i

Luego,

hx1 × x2 , x3 ihy1 × y2 , x1 × x2 i = hx3 , x1 × x2 i[hx1 , y1 ihx2 , y2 i − hx2 , y1 ihx1 , y2 i].


(1.20)
Como x1 y x2 son L.I. se tiene que x1 × x2 6= 0. Luego, se puede elegir x3 tal
que hx1 × x2 , x3 i 6= 0. Simplificando este término en ambos lados de (1.20)
se obtiene la proposición.

Corolario 36 kx × yk2 = kxk2 kyk2 − hx, yi2 .

Demostración. Tomar x1 = y1 = x y x2 = y2 = y en la proposición anterior.

Observación: Si θ es el ángulo entre x e y se puede reescribir el corolario


anterior como
kx × yk = kxk kyk sin θ.

Proposición 37 Sea {e1 , e2 , e3 } una base ortonormal positiva de E (i.e.


∆(e1 , e2 , e3 ) > 0). Entonces

e1 × e2 = e3 ; e2 × e3 = e1 ; e3 × e1 = e2 .

Demostración. Por (b) de la Proposición 35:

he1 × e2 , e1 i = 0 , he1 × e2 , e2 i = 0
1.3. FUNCIÓN DETERMINANTE 39

i.e. e1 × e2 es ortogonal a e1 y e2 por lo que se obtiene: e1 × e2 = λe3 . Luego,

∆(e1 , e2 , e3 ) = he1 × e2 , e3 i = λhe3 , e3 i = λ.

Pero:
   
he1 , e1 i he1 , e2 i he1 , e3 i 1 0 0
   
∆(e1 , e2 , e3 )2 = det 
 he2 , e 1 i he 2 , e 2 i he 2 , e 3 i  = det  0 1 0  = 1.
  
he3 , e1 i he3 , e2 i he3 , e3 i 0 0 1

Con lo que λ = 1, pues ∆(e1 , e2 , e3 ) > 0.


Análogamente se prueban los otros dos casos.

3
X 3
X
Corolario 38 Si x = αi ei , y = βi ei ; entonces
i=1 i=1

x × y = (α2 β3 − α3 β2 )e1 + (α3 β1 − α1 β3 )e2 + (α1 β2 − α2 β1 )e3 .

Demostración.
à 3 ! à 3 !
X X
x×y = αi ei × βj ej
i=1 j=1
3 X
X 3
= αi βj ei × ej
i=1 j=1
= α1 β1 e1 × e1 + α1 β2 e1 × e2 + α1 β3 e1 × e3
+ α2 β1 e2 × e1 + α2 β2 e2 × e2 + α2 β3 e2 × e3
+ α3 β1 e3 × e1 + α3 β2 e3 × e2 + α3 β3 e3 × e3
= (α1 β2 − α2 β1 )e1 × e2 + (α1 β3 − α3 β1 )e1 × e3 + (α2 β3 − α3 β2 )e2 × e3
= (α1 β2 − α2 β1 )e3 − (α1 β3 − α3 β1 )e2 + (α2 β3 − α3 β2 )e1
40 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

Observación: La anterior se toma a veces como definición del producto


cruz en R3 donde e1 = i, e2 = j, e3 = k.

Observación : El resultado anterior también se escribe:


¯ ¯
¯ ¯
¯ e1 e2 e3 ¯
¯ ¯
x × y = ¯¯ α1 α2 α3 ¯¯
¯ ¯
¯ β1 β2 β3 ¯

como una manera nemotécnica de recordar la fórmula del Corolario 39.

1.4 Ejercicios de recapitulación

1. Sea V un espacio vectorial sobre R. Demuestre que la suma de dos


productos internos sobre V es un producto interno sobre V . ¿ Es la
diferencia de dos productos internos un producto interno? Mostrar que
un múltiplo positivo de un producto interno es un producto interno.

2. Dados los vectores α = (x1 , x2 ) y β = (y1 , y2 ) ∈ R2 se define

hα, βi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2 .

(a) Demuestre que h, i es un producto interno en R2 .

(b) Pruebe que

|x1 y1 −x2 y1 −x1 y2 +4x2 y2 | ≤ ((x1 −x2 )2 +3x2 )1/2 ((y1 −y2 )2 +3y 2 )1/2 .

(c) Muestre que en R2 con este producto interno los vectores (x, y)
1 √
y (−y, x) son ortogonales si y sólo si y = (−3 ± 13)x .
2
1.4. EJERCICIOS DE RECAPITULACIÓN 41

3. Suponga que h, i es un produnto interno sobre R3 . Sea T : R3 → R3


una transformación lineal definida por

T (x, y, z) = (3x + z, −2x + y, −x + 2y + 4z) .

(a) Demuestre que T es invertible.


(b) Demuestre que pT ((x, y, z), (x1 , y1 , z1 )) = hT (x, y, z), T (x1 , y1 , z1 )i
es un producto interno sobre R3 .
(c) Considere h, i el producto interno usual en R3 . Con respecto
al producto interno pT dado en (a), calcule el ángulo entre los

vectores (−1, 0, 2) y (0, 3, 3).

4. Demuestre que, un conjunto de n vectores xj 6= 0 donde cualesquiera


dos vectores xi y xj (i 6= j) son ortogonales, es linealmente indepen-
diente.

5. Sean V y W espacios vectoriales sobre R y suponga que h, i es un


produnto interno sobre W . Si T es una transformación lineal invert-
ible de V en W entonces pT (α, β) = hT (α), T (β)i es un producto
interno sobre V .

6. Sea B = {(1, −4, 2), (0, 3, 7), (−1, 0, 5) } base de R3 . A partir de B


encontrar una base ortonormal de R3 .

7. Sea A una matriz de 2 × 2 con coeficientes en R . Considere X e Y


en M (2 × 1 , R) , se define

hX, Y iA = Y t AX

(a) Demostrar que h, iA es un producto interno en M (2 × 1 , R) si


y sólo si A = At , a11 > 0 , a22 > 0 y det(A) > 0 .
à ! à ! à !
1 −1 4 1
(b) Calcular el ángulo entre y para A =
2 1 1 2
42 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

8. Sea E un espacio vectorial de dimensión finita con producto interno


h, i. Se define T : E → L(E) como:

T (y)(x) = hy, xi.

a) Demuestre que T es lineal.


b) Demuestre que T es inyectiva.
c) Demuestre que T es sobreyectiva.

9. Sea E un espacio vectorial con producto interno h, i. Sean x, y ∈ E.


a) Demuestre que kx + yk ≤ kxk + kyk.
b) Demuestre que kx + yk = kxk + kyk si y sólo si x = αy, α ≥ 0.

10. Se define la función h, i : R2 × R2 → R como

h(x1 , x2 ), (y1 , y2 )i = x1 y1 + 3x2 y2 .

(a) Demuestre que h, i es un producto interno para R2 .


(b) Con respecto al producto interno en a), calcule el ángulo entre

los vectores (0, 2) y (3, 3).
(c) Con respecto al producto interno en a), calcule el ángulo orientado

entre los vectores (0, 2) y (3, 3).
(d) Con respecto al producto interno en a), encuentre una base
ortonormal para R2 .

11. Pruebe que (a × b) × c =< a, c > b − < b, c > a .

12. Sea P2 [0, 1] = { p : [0, 1] → R : p(x) = a + bx + cx2 ; a, b, c ∈ R } .


Considere el producto interno definido por
Z 1
hp, qi = p(x) q(x) dx
0
1.4. EJERCICIOS DE RECAPITULACIÓN 43

(a) Calcular el volumen del paralelepı́pedo: V (1, x) .


(b) Sea E = h{1, 2x + 3}i , calcular E ⊥ .
(c) Dados x1 = 3 + x2 , x2 = 1 − x , x3 = 1 + x + x2 , x4 = x + 4x2 ,
en P2 [0, 1] , hallar el determinante de Gram G(x1 , x2 , x3 , x4 ) .

13. Sea B una función bilineal con la propiedad que B(A) = 0 para todas
las matrices A ∈ M (2 × 2, R) que tienen filas iguales. Demuestre que
B es antisimétrica.

14. Sea T un operador lineal sobre Rn . Defina

DT (α1 , . . . , αn ) = det(T (α1 ), . . . , T (αn ))

(a) Demostrar que DT es una función determinante.


(b) Si c = det(T (e1 ), . . . , T (en )) demostrar que para n vectores
α1 , . . . , αn arbitrarios se tiene det(T (α1 ), . . . , T (αn )) = c det(α1 , . . . , αn ) .

15. Sean {xi } y {x̂j } bases ortonormales de un espacio vectorial E, con


producto interno y de dimensión n. Demuestre que existe una matriz
X
ortogonal A = (aij ) tal que x̂i = aij xj .
j

16. Sean ∆ y ∆1 dos funciones determinantes en un espacio vectorial E,


∆1 6= 0. Demuestre que existe λ ∈ R tal que ∆ = λ∆1 .

17. Demuestre que el determinante de Gram de un conjunto de vectores


{x1 , x2 , ..., xn } es cero si y sólo si el conjunto {x1 , x2 , ..., xn } es lineal-
mente dependiente.

18. Una forma bilineal φ : E × E → R se dice antisimétrica si φ(x, y) =


−φ(y, x) para cada (x, y) ∈ E × E. Demostrar que cualquier forma
bilineal φ : E × E −→ R es la suma de una forma bilineal simétrica y
una forma bilineal antisimétrica.
44 CAPÍTULO 1. ESPACIOS CON PRODUCTO INTERNO

19. Sea ∆((x1 , y1 ), (x2 , y2 )) = x2 y1 − x1 y2 .

(a) Demuestre que ∆ es una función determinante.


(b) Sean x = (1, 1), y = (−1, 0). Encuentre el ángulo orientado entre
x e y.

20. Sean x = (1, 1, 1, 1), y = (−1, 1, −1, 1) dos vectores en R4 .

(a) Calcule el ángulo entre x e y.


(b) Encuentre la proyección ortogonal de R4 sobre E1 , el subespacio
generado por {(0, 1, 0, 0), (0, 0, 1, 0)}.
(c) Encuentre E1⊥ .
T
(d) Verifique que E1⊥ E1 = {0}

21. Considere el espacio vectorial R3 con el producto interno usual.

(a) Demuestre que hu × v, wi = hu, v × wi.


(b) Calcule el volumen del paralelepipedo determinado por los vec-
tores e1 + e2 , 3e1 − 2e3 , −7e2 + 3e3 .

22. Sea P1 [0, 1] = {p : [0, 1] → R : p(x) = a + bx; a, b ∈ R}. Dados los


vectores {1, x} en P1 [0, 1] , construir una base ortonormal para P1 [0, 1]
con el producto interno definido por
a1 b2 + b1 a2 b1 b2
hp, qi = a1 a2 + + ,
2 3
donde p(x) = a1 + b1 x y q(x) = a2 + b2 x.

23. Sea T : P1 [0, 1] → R tal que T (p) = 2a + b; donde p(x) = a + bx. Sea
h, i el producto interno para P1 [0, 1] definido en el problema anterior.
Encuentre q ∈ P1 [0, 1] tal que:

T (p) = hq, pi para cada p ∈ P1 [0, 1].


1.4. EJERCICIOS DE RECAPITULACIÓN 45

24. Sea E un e.v.p.i. Sean x, y, z ∈ E. Demuestre que

kx − ykkzk ≤ ky − zkkxk + kz − xkkyk.

25. Calcule el volumen del paralelepipedo generado por los vectores {(−5, 6), (1, 7)}.
Capı́tulo 2

Transformaciones lineales

2.1 Espacios vectoriales normados

Definiremos por medio de tres axiomas lo que entenderemos por una norma,
concepto ya conocido.

Definición 39 Sea E e.v. sobre R de dimensión finita o infinita. Una nor-


ma en E es una función k · k : E −→ R con las siguientes propiedades :

N 1 : kxk ≥ 0 ∀x ∈ E y kxk = 0 ssi x = 0

N 2 : kx + yk ≤ kxk + kyk

N 3 : kλxk = |λ| kxk.

Un e.v. donde se define una norma se llama e.v normado. La distancia entre
dos vectores x e y en un e.v. normado se define por

d(x, y) = kx − yk.

46
2.1. ESPACIOS VECTORIALES NORMADOS 47

Observación : N 1, N 2 y N 3 implican, respectivamente :

d(x, y) > 0 si x 6= y

d(x, y) ≤ d(x, z) + d(z, y) (Desigualdad triangular)

d(x, y) = d(y, x).

Esto dice que d es una métrica en E y define una topologı́a en E.

Ejemplos

1) Cada espacio producto interno es un espacio normado, con la norma defini-


da por
p
kxk = hx, xi.
2) Si C = C[0, 1] entonces una norma se define por

kf k := sup |f (t)|.
t∈[0,1]

3) Sea E e.v. de dimensión n. Sea {en } base de E. Se define la norma de un


P
vector x = ni=1 αi ei por
X
kxk = |αi |.
i

2.1.1 Transformaciones lineales acotadas

Definición 40 Sea E e.v. normado. Una transformación lineal ϕ : E −→ E


se llama acotada si existe un número M tal que

kϕ(x)k ≤ M kxk ; para cada x ∈ E.


48 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Proposición 41 Una transformación lineal es acotada si y sólo si es con-


tinua.

Demostración. Sea T : E −→ E una transformación lineal. Supongamos


que T es acotada.
Sea xn −→ x entonces kT (xn ) − T (x)k = kT (xn − x)k ≤ M kxn − xk −→ 0.
Por lo tanto, T es continua.

Reciprocamente, supongamos que T es continua. Entonces para ² = 1 existe


δ > 0 tal que si kxk < δ entonces kT (x)k < 1.
y δ
Sea y ∈ E. Entonces para x := se tiene que kxk < δ. Luego
kyk 2
° µ ¶°
° 2kyk ° 2kyk 2
kT (y)k = °
°T x °
° ≤ kT (x)k ≤ kyk = M kyk.
δ δ δ
Por lo tanto, T es acotada.

Observación : Se define el conjunto

B(E, E) := {T : E −→ E / T es lineal y acotado },

el cual es un subespacio de L(E; E) := {L : E −→ E / T es lineal }.

Sea ϕ ∈ B(E, E). Entonces el conjunto

{kϕ(x)k : kxk = 1}

es acotado. Denotemos :

kϕk = sup kϕ(x)k.


kxk=1

Notar que kϕ(x)k ≤ kϕk kxk.

Proposición 42 k · k es una norma en B(E, E).


2.1. ESPACIOS VECTORIALES NORMADOS 49

Demostración.

N 1 : kϕk ≥ 0 es obvio por definición. Si kϕk = 0 entonces sup kϕ(x)k = 0,


kxk=1
esto implica que ϕ(x) = 0 para todo x, kxk = 1. Luego, ϕ ≡ 0 (Ejercicio).
Inversamente, si ϕ ≡ 0 entonces kϕk = 0 evidentemente.

N 3 : kλϕk = sup |λϕ(x)| = |λ| sup |ϕ(x)| = |λ| kϕk.


kxk=1 kxk=1

N 2 : Para cada x ∈ E,

k(ϕ + ψ)(x)k = kϕ(x) + ψ(x)k ≤ kϕ(x)k + kψ(x)k ≤ (kϕk + kψk)kxk;

por lo tanto,kϕ + ψk ≤ kϕk + kψk.

Observación : k · k tiene la propiedad adicional :

kψ ◦ ϕk ≤ kψk kϕk.

Ejercicios
1. Una sucesión infinita de vectores (xn ) en un e.v. normado E se dice
convergente a x si : ∀ ² > 0 ∃ N tal que kxn − xk < ² ∀ n > N

(a) Demuestre que cada sucesión convergente satisface el siguiente


criterio de Cauchy : ∀ ² > 0 ∃ N tal que kxn − xm k < ² si n > N ,
m > M.
(b) Demuestre que cada sucesión de Cauchy en un e.v. normado de
dimensión finita es convergente.
(c) De un ejemplo que muestre que (b) no es cierto si la dimensión
es infinita.
50 CAPÍTULO 2. TRANSFORMACIONES LINEALES

2. Un e.n. se llama completo si cada sucesión de Cauchy es convergente.


Sea E e.n. completo y ϕ : E −→ E una transformación lineal tal que
P∞ n
kϕk ≤ 1. Demuestre que la serie n=0 ϕ es convergente y que la
transformación lineal ∞
X
ψ= ϕn
n=0

tiene las siguientes propiedades :

(a) (1 − ϕ) ◦ ψ = ψ ◦ (1 − ϕ) = 1
1
(b) kϕk ≤ .
1 − kϕk

2.2 Transformaciones lineales en espacios con


producto interno

En todo lo que sigue se supone que los espacios vectoriales son de dimensión
finita.

2.2.1 Transformación adjunta

Sean E, F e.v. Sea ϕ : E −→ F lineal. Sean E ∗ , F ∗ e.v. duales de E y


F respectivamente. Entonces ϕ induce ϕ∗ : F ∗ −→ E ∗ una transformación
lineal definida por

hϕ∗ (y ∗ ), xi = hy ∗ , ϕ(x)i ; x ∈ E , y ∗ ∈ F ∗ .

En el sentido anterior ϕ∗ y ϕ se llaman duales.


2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO51

Definición 43 ϕ∗ se llama la transformación adjunta.

Si E y F son e.v. con producto interno; reemplazando la dualidad h, i por el


producto interno, se obtiene la relación

hϕ(x), yiF = hx, ϕ∗ (y)iE ;x ∈ E , y ∈ F (2.1)

de esta manera cada ϕ : E −→ F determina una transformación lineal


ϕ∗ : F −→ E.

Observación : (ϕ∗ )∗ = ϕ.

Demostración. ϕ∗ y (ϕ∗ )∗ están relacionadas por :

hϕ∗ (y), xi = hy, (ϕ∗ )∗ (x)i (2.2)

luego, de (2.1) y (2.2) se tiene que

hϕ(x), yi = h(ϕ∗ )∗ (x), yi ∀y ∈ F , x ∈ E

con lo que ϕ∗ ∗ = ϕ.

Ejercicio : Mostrar que, con respecto a bases ortonormales, la matriz de


una transformación adjunta corresponde a la matriz traspuesta.

2.2.2 Transformación lineal adjunta

Sea E e.v. con producto interno y consideremos el caso F = E. Entonces a


cada transformación lineal ϕ : E −→ E le corresponde una transformación
52 CAPÍTULO 2. TRANSFORMACIONES LINEALES

lineal adjunta ϕ∗ : E −→ E. Si e y ee son vectores propios de ϕ y ϕ∗


respectivamente. Entonces
ϕ(e) = λe

y
ϕ∗ (e
e) = µe
e.

Pero, por definición


hϕ(e), eei = hλe, eei = λhe, eei

y
he, ϕ∗ (e
e)i = he, µe
ei = µhe, eei

lo que implica que λ = µ si he, eei 6= 0. Por lo tanto, si ϕ(e) = λe entonces


ϕ∗ (e
e) = λe
e.

2.2.3 La relación entre transformaciones lineales y fun-


ciones bilineales

Sea ϕ : E −→ E una transformación lineal. Sea E e.v. con producto interno


h, i. Entonces se puede definir una forma bilineal :

φ(x, y) := hϕ(x), yi.

De esta manera es posible definir una función

ρ : L(E; E) −→ B(E × E) = {b : E × E −→ R / b es bilineal }

por ρ(ϕ) = φ. Esto es, ρ(ϕ)(x, y) = hϕ(x), yi, para cada x, y ∈ E.

Teorema 44 L(E; E) ∼
= B(E × E).
2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO53

Demostración. Probaremos que ρ es un isomorfismo.

1) ρ es lineal : Para cada (x, y) ∈ E × E,

ρ(λϕ + ψ)(x, y) = h(λϕ + ψ)(x), yi


= hλϕ(x), yi + hψ(x), yi
= λρ(ϕ)(x, y) + ρ(ψ)(x, y)
= (λρ(ϕ) + ρ(ψ))(x, y).

2) ρ es 1-1 :
Si ρ(ϕ) = 0 entonces ρ(ϕ)(x, y) = 0 ∀ x, ∀ y. Luego, hϕ(x), yi = 0 ∀ x, ∀ y.
De esta manera ϕ(x) = 0 ∀ x. Por lo tanto, ϕ ≡ 0.

3) ρ es sobreyectiva :
Sea φ ∈ B(E × E). Sea x ∈ E fijo y definamos fx : E −→ R por
fx (y) := φ(x, y) entonces fx ∈ L(E).
Por Teorema de Representación de Riesz (Teorema 11), existe un único ax
en E tal que
fx (y) = hax , yi ∀ y ∈ E.

Sea ϕ : E −→ E definida por : ϕ(x) = ax . Entonces ϕ es lineal (Ejercicio) y

hϕ(x), yi = hax , yi = fx (y) = φ(x, y)

o sea
ρ(ϕ)(x, y) = φ(x, y) ó ρ(ϕ) = φ

con lo que se prueba el teorema.

Ası́, existe una correspondencia inyectiva entre las funciones lineales y


las bilineales en E. En particular, la identidad (en L(E; E)) corresponde al
producto interno (en B(E × E)).
54 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Nota : Se tienen las correspondencias siguientes :


ρ
L(E; E) ←→ B(E × E)
I ←→ h, i
ϕ ←→ ρ(ϕ) := φ
ϕ∗ ←→ ρ(ϕ∗ )

Sea φe la función bilineal que corresponde a la transformación adjunta. En-


tonces

e y) = hϕ∗ (x), yi
φ(x,
= hx, ϕ(y)i
= hϕ(y), xi
= φ(y, x).

Luego, φe es igual a φ pero intercambiando los argumentos (esto es, simétrica,


lo cual será estudiado en detalle posteriormente.)

2.2.4 Transformaciones normales

Definición 45 Una transformación lineal ϕ : E −→ E se dice normal si


ϕ∗ ◦ ϕ = ϕ ◦ ϕ∗ .

Proposición 46 Son equivalentes :

(a) ϕ es normal

(b) hϕ(x), ϕ(y)i = hϕ∗ (x), ϕ∗ (y)i ∀ x, y ∈ E.


2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO55

Demostración. Si ϕ es normal se tiene que

hϕ(x), ϕ(y)i = hx, (ϕ∗ ◦ ϕ)(y)i


= hx, (ϕ ◦ ϕ∗ )(y)i
= hϕ∗ (x), ϕ∗ (y)i.

Recı́procamente, supongamos que (b) vale, entonces :

hy, (ϕ∗ ◦ ϕ)(x)i = hϕ(y), ϕ(x)i = hϕ∗ (y), ϕ∗ (x)i = hy, (ϕ ◦ ϕ∗ )(x)i ∀ y.

Luego, (ϕ∗ ◦ ϕ)(x) = (ϕ ◦ ϕ∗ )(x) ∀ x. Por lo tanto, ϕ∗ ◦ ϕ = ϕ ◦ ϕ∗ .

Corolario 47 Si ϕ es normal, entonces kϕ(x)k = kϕ∗ (x)k para cada x ∈ E.

Demostración.

kϕ(x)k2 = hϕ(x), ϕ(x)i = hϕ∗ (x), ϕ∗ (x)i = kϕ∗ (x)k2 .

Ejercicio: Suponga que E es un espacio vectorial con producto interno.


Pruebe que si kϕ(x)k = kϕ∗ (x)k ∀ x ∈ E, entonces ϕ es normal.

2.2.5 Transformaciones autoadjuntas

Definición 48 Una transformación lineal ϕ : E −→ E se dice autoadjunta


si ϕ∗ = ϕ.

Teorema 49 Sea E e.v. con producto interno de dimensión finita. Sea


ϕ : E −→ E autoadjunta. Entonces E posee una base ortonormal de vectores
propios.
56 CAPÍTULO 2. TRANSFORMACIONES LINEALES

hx, ϕ(x)i
Demostración. Sea F : E −→ R definida por F (x) = , x 6= 0.
kxk2
Claramente F es continua. Como {x ∈ E / kxk = 1} es un subconjunto
cerrado y acotado de E, se tiene que inf F (x) se alcanza en el subconjunto,
kxk=1
esto es, existe e1 ∈ E, ke1 k = 1 tal que

F (e1 ) = inf F (x). (2.3)


kxk=1

Luego : F (e1 ) ≤ F (y) para cada y ∈ E, kyk = 1. Más aún

F (e1 ) ≤ F (x) ∀ x ∈ E. (2.4)


x
En efecto : Si x ∈ E, x 6= 0 y se define y := , entonces kyk = 1 y luego
kxk
por (2.3) :

F (e1 ) ≤ F (y) = hy, ϕ(y)i


¿ À
x x
= , ϕ( )
kxk kxk
hx, ϕ(x)i
=
kxk2
= F (x).

Afirmación : e1 es un vector propio de ϕ.

Más aún, probaremos que el valor propio es he1 , ϕ(e1 )i. Esto es :

ϕ(e1 ) = he1 , ϕ(e1 )ie1 . (2.5)

En efecto: Sea y ∈ E. Definamos f : R −→ R por

f (t) = F (e1 + ty).

De (2.4), f (0) = F (e1 ) ≤ F (x) ∀ x ∈ E. En particular, para cada e1 +ty ∈ E.


Esto es :
f (0) ≤ F (e1 + ty) = f (t) ∀ t ∈ R.
2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO57

Esto dice que f (0) es un mı́nimo de f (recuerde que f 0 (x) = 0 si y sólo si x


es punto critico, esto es máximo o minimo, de f ) . Luego :

f 0 (0) = 0 (2.6)

De la definición de F obtenemos :
he1 + ty, ϕ(e1 + ty)i
f (t) = F (e1 + ty) =
he1 + ty, e1 + tyi
he1 + ty, ϕ(e1 ) + tϕ(y)i
= .
he1 + ty, e1 + tyi

Derivando esta función y evaluando en t = 0 se obtiene :

f 0 (0) = he1 , ϕ(y)i + hy, ϕ(e1 )i − 2he1 , ϕ(e1 )ihe1 , yi (2.7)

En efecto: Se tiene la igualdad :

he1 + ty, e1 + tyif (t) = he1 + ty, ϕ(e1 ) + tϕ(y)i

o equivalentemente

(1+2thy, e1 i+t2 hy, yi)f (t) = he1 , ϕ(e1 )i+the1 , ϕ(y)i+thy, ϕ(e1 )i+t2 hy, ϕ(y)i.

Derivando con respecto a t, obtenemos

(2hy, e1 i + 2thy, yi)f (t) + (1 + 2thy, e1 i + t2 hy, yi)f 0 (t)


= he1 , ϕ(y)i + hy, ϕ(e1 )i + 2thy, ϕ(y)i.

Evaluando en t = 0 :

2hy, e1 if (0) + f 0 (0) = he1 , ϕ(y)i + hy, ϕ(e1 )i.

Notar que f (0) = F (e1 ) = he1 , ϕ(e1 )i luego,

f 0 (0) = he1 , ϕ(y)i + hy, ϕ(e1 )i − 2hy, e1 ihe1 , ϕ(e1 )i


58 CAPÍTULO 2. TRANSFORMACIONES LINEALES

lo cual prueba (2.7).

Teniendo probado (2.7) y usando el hecho que ϕ es autoadjunta se tiene:

f 0 (0) = 2hϕ(e1 ), yi − 2he1 , ϕ(e1 )ihe1 , yi.

Usando ahora (2.6) da:

hϕ(e1 ), yi = he1 , ϕ(e1 )ihe1 , yi


= he1 he1 , ϕ(e1 )i, yi

de esta manera

hϕ(e1 ) − he1 , ϕ(e1 )ie1 , yi = 0 ∀ y ∈ E.

Por lo tanto,
ϕ(e1 ) = he1 , ϕ(e1 )ie1 .
Esto prueba la afirmación.

Veamos ahora como se construye una base de vectores ortonormales.


Sea F1 := he1 i el subespacio (de dimensión 1) generado por e1 . Entonces
ϕ(F1 ) ⊆ F1 pues ϕ(e1 ) = λe1 . Esto, y el hecho que ϕ es autoadjunta, implica
que ϕ(F1⊥ ) ⊆ F1⊥ . (En efecto: Sea y ∈ F1⊥ entonces < y, f >= 0 para cada
f ∈ F1 . Luego, para cada g ∈ F1 se tiene < ϕ(y), g >=< y, ϕ(g) >= 0 donde
ϕ(g) ∈ F1 . Esto implica que ϕ(y) ∈ F1⊥ ).
Sea ϕ1 : F1⊥ −→ F1⊥ definida como la restricción de ϕ a F1⊥ . Claramente
ϕ1 es autoadjunta y luego se puede aplicar la construcción anterior para
obtener un vector e2 ∈ F1⊥ . Ası́ he2 , e1 i = 0. Continuando de esta manera se
obtiene un sistema de n vectores e1 , e2 , . . . , en tales que

hei , ej i = δij .

estos vectores {ei } forman una base ortonormal de E. En esta base, la


aplicación ϕ toma la forma :

ϕ(ei ) = λi ei
2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO59

donde λi es el valor propio de ei . Esto prueba el teorema.

Definición 50 Sea λ un valor propio de una transformación lineal ϕ : E −→


E. Se define el espacio propio correspondiente al valor propio λ como el
conjunto
E(λ) := {x ∈ E / ϕ(x) = λx}.

Proposición 51 Sean λ1 y λ2 valores propios de una transformación lin-


eal autoadjunta. Si λ1 6= λ2 entonces E(λ1 )⊥E(λ2 ) (i.e. espacios propios
correspondientes a valores propios diferentes de una transformación lineal
autoadjunta, son ortogonales).

Demostración. Sea e1 ∈ E(λ1 ) y e2 ∈ E(λ2 ). Entonces ϕ(e1 ) = λ1 e1 ,


ϕ(e2 ) = λ2 e2 . Luego :

(λ1 − λ2 )he1 , e2 i = hλ1 e1 , e2 i − he1 , λ2 e2 i


= hϕ(e1 ), e2 i − he1 , ϕ(e2 )i
= hϕ(e1 ), e2 i − hϕ(e1 ), e2 i
= 0

como λ1 6= λ2 entonces he1 , e2 i = 0.

Proposición 52 Sean {λ1 , . . . , λr } los valores propios diferentes de ϕ (au-


toadjunta) entonces E = E(λ1 ) ⊕ · · · ⊕ E(λr ).

Demostración. Claramente E(λi ) ∩ E(λj ) = {0} (pues E(λi )⊥E(λj )) ∀ i 6=


j. Por otra parte, si x ∈ E; como existe una base ortonormal de vectores
propios, digamos {ei }, se tiene :

x = hx, e1 ie1 + · · · + hx, en ien


| {z } | {z }
∈E(λ1 ) ∈E(λr )
60 CAPÍTULO 2. TRANSFORMACIONES LINEALES

esto prueba la proposición.

2.2.6 Vectores propios de funciones bilineales

Recordemos que L(E; E) := {ϕ : E −→ E / ϕ es lineal}. Vimos que


L(E; E) ∼
= B(E × E) siendo el isomorfismo explı́citamente dado como ρ :
L(E; E) −→ B(E × E) tal que

ρ(ϕ)(x, y) = hϕ(x), yi.

En particular, a cada función bilineal b ∈ B(E × E) le corresponde ϕ ∈


L(E; E) tal que se verifica la siguiente relación

hϕ(x), yi = b(x, y) ∀ x, y ∈ E.

Usando esta relación se definen vectores y valores propios para b ∈ B(E × E)


como los que corresponden a ϕ. En otras palabras : λ ∈ C es un valor propio
para b si lo es para ϕ, donde ϕ es la única transformación lineal tal que

hϕ(x), yi = b(x, y).

Análogamente se pueden definir vectores propios (Ejercicio).

Como una aplicación de lo anterior se tiene el siguiente resultado.

Teorema 53 Sea b una función bilineal simétrica (i.e. b(x, y) = b(y, x)) en
E × E. Entonces existe una base ortonormal {en } de E tal que b tiene una
forma diagonal. Esto es, existen escalares {λi } en C tal que

b(ei , ej ) = λi δij .
2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO61

Demostración. Sea b bilineal. Entonces existe una única ϕ en L(E) tal que
b(x, y) = hϕ(x), yi. Como b(x, y) = b(y, x), entonces hϕ(x), yi = hx, ϕ(y)i.
Luego; ϕ = ϕ∗ (i.e. ϕ es autoadjunta). Por lo tanto, existe una base {en }
de E que consiste de vectores propios de E. Sean {λn } los correspondientes
valores propios. Entonces ϕ(en ) = λn en . Luego :

b(ei , ej ) = hϕ(ei ), ej i
= hλi ei , ej i
= λi hei , ej i
= λi δij .

2.2.7 Proyecciones ortogonales

Sea E un e.v. con producto interno h, i, no necesariamente de dimensión


finita. La siguiente definición generaliza el concepto de proyección.

Definición 54 Una transformación lineal π : E −→ E se dice una proyec-


ción ortogonal si es autoadjunta y satisface π 2 = π.

Ejemplo. Sea e ∈ E tal que ||e|| = 1. Se define P : E → h{e}i =: E1 tal


que P (x) = hx, eie. Es claro que P es autoadjunta pues:

hP (x), yi = hhx, eie, yi = hx, eihe, yi


= hy, eihx, ei = hx, hy, eiei = hx, P (y)i.

Además, P 2 = P pues:

P (P (x)) = P (hx, eie) = hx, eiP (e) = hx, eihe, eie = hx, eie = P (x).
62 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Proposición 55 Si π es una proyección ortogonal entonces E = ker π⊕imπ.

Demostración. Sea x ∈ ker π ∩ imπ. Entonces π(x) = 0 y existe z en E


tal que x = π(z). Luego, 0 = π(x) = π 2 (z) = π(z) = x. Por lo tanto,
ker π ∩ imπ = {0}.

Por otra parte, dado x ∈ E escribimos :

x = (x − π(x)) + π(x).

Entonces x−π(x) ∈ ker π pues π(x−π(x)) = π(x)−π 2 (x) = π(x)−π(x) = 0


y π(x) ∈ imπ por definición. Hemos probado la proposición.

Observación : La restricción de π a im π es la identidad, esto es : ∀ y ∈


im π ; π(y) = y. En efecto : Si y ∈ im π entonces y = π(x), x ∈ E. Luego,
π(y) = π 2 (x) = π(x) = y.

Proposición 56 Sea E1 un subespacio de E. Entonces existe una única


proyección ortogonal π : E −→ E tal que imπ = E1 .

Demostración. Se define
(
y si y ∈ E1
π(y) =
0 si y ∈ E1⊥

y es fácil verificar que π 2 = π y π ∗ = π (Ejercicio).


2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO63

2.2.8 Suma de dos proyecciones

Sean π1 : E −→ E1 , π2 : E −→ E2 proyecciones ortogonales (i.e. E1 = imπ1 ,


E2 = imπ2 ). Queremos saber si la suma π1 + π2 es una proyección ortogonal.
Como una preparación para el resultado que nos da la respuesta, veamos la
siguiente :

Proposición 57 Sean E1 , E2 subespacios de E y sean π1 : E −→ E1 y


π2 : E −→ E2 las proyecciones ortogonales. Entonces π2 ◦ π1 = 0 si y sólo si
E1 ⊥E2 .

Demostración. Si E1 ⊥E2 entonces dado x ∈ E se tiene que hy, π1 (x)i = 0


para todo y en E2 . Luego, π1 (x) ∈ E2⊥ .
Notar que π2 (z) = 0 si z ∈ E2⊥ . En efecto: kπ2 (z)k2 = hπ2 (z), π2 (z)i =
hz, π22 (z)i = hz, π2 (z)i = 0. Esto implica que π2 ◦ π1 (x) = 0.

Inversamente, si π2 ◦ π1 = 0 entonces π1 x ∈ E2⊥ para todo x en E. En


efecto: Si π2 (π1 (x)) = 0 entonces π1 (x) ∈ ker π2 . Como E = ker π2 ⊕ im π2
se deduce que E2⊥ = (im π2 )⊥ = ker π2 . Ası́, π1 (x) ∈ E2⊥ .
Luego, E1 ⊂ E2⊥ . En efecto: Si z ∈ E1 = im π1 entonces z = π1 (x), x ∈ E,
luego z ∈ E2⊥ .
Sean ahora x1 ∈ E1 (luego, x1 ∈ E2⊥ ,) y x2 ∈ E2 . Entonces hx1 , x2 i = 0. Por
lo tanto, E1 ⊥E2 .

Teorema 58 π1 + π2 es una proyección sobre E1 ⊕ E2 si y sólo si E1 ⊥E2 .

Demostración. Sea π := π1 + π2 . Vamos a ver que π es la proyección de E


sobre E1 ⊕ E2 .
Claramente π es lineal, pues es la suma de transformaciones lineales. También
π es autoadjunta, por lo mismo. Resta ver que π 2 = π. Para esto, vamos a
64 CAPÍTULO 2. TRANSFORMACIONES LINEALES

ver que π(x1 + x2 ) = x1 + x2 en E1 ⊕ E2 y π(x) = 0 en (E1 ⊕ E2 )⊥ . Esto


probará que π es la proyección de E sobre E1 ⊕ E2 .
En efecto: Por linealidad, si x1 + x2 ∈ E1 ⊕ E2 se tiene:

π(x1 + x2 ) = π(x1 ) + π(x2 )


= (π1 + π2 )(x1 ) + (π1 + π2 )(x2 )
= π1 (x1 ) + (π1 + π2 )(x2 )
= π1 (x1 ) + π2 (x2 )
= x1 + π2 (x2 )
= x1 + x2 .

Por otra parte, observemos que:

(E1 ⊕ E2 )⊥ = E1⊥ ∩ E2⊥ (∗)

Luego: Si x ∈ (E1 ⊕ E2 )⊥ entonces x ∈ E1⊥ y x ∈ E2⊥ , de esta manera


x ∈ ker π1 y x ∈ ker π2 . Por lo tanto, π(x) = π1 (x) + π2 (x) = 0 + 0 = 0.

Verifiquemos (*) :
Sea x ∈ (E1 ⊕ E2 )⊥ entonces hx, x1 + x2 i = 0 ∀ x1 ∈ E1 , x2 ∈ E2 . Luego,
hx, x1 i = 0 (con x2 = 0) y hx, x2 i = 0 (con x1 = 0) lo que implica que x ∈ E1⊥
y x ∈ E2⊥ . Por lo tanto, x ∈ E1⊥ ∩ E2⊥ .
Inversamente, sea x ∈ E1⊥ ∩ E2⊥ . Entonces hx, x1 i = 0 ∀ x1 ∈ E1 , hx, x2 i =
0 ∀ x2 ∈ E2 . Sea y ∈ E1 ⊕ E2 . Entonces y = y1 + y2 ; y1 ∈ E1 , y2 ∈ E2 .
Luego: hx, yi = hx, y1 i + hx, y2 i = 0 + 0 = 0. Ası́ x ∈ (E1 ⊕ E2 )⊥ . De esta
manera, hemos probado que π1 + π2 es una proyección sobre E1 ⊕ E2 .

Supongamos ahora que π1 + π2 es una proyección ortogonal. Vamos a probar


que E1 ⊥E2 . Para esto probaremos, equivalentemente por Proposición 58,
que π1 ◦ π2 = 0. En efecto: Por hipótesis,

(π1 + π2 )2 = π1 + π2
2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO65

o equivalentemente

(π1 + π2 ) ◦ (π1 + π2 ) = π1 + π2

o sea,
π12 + π1 ◦ π2 + π2 ◦ π1 + π22 = π1 + π2

lo que es equivalente a

π1 + π1 ◦ π2 + π2 ◦ π1 + π2 = π1 + π2

de esta manera,
π1 ◦ π2 + π2 ◦ π1 = 0 (2.8)

componiendo por π1 a la derecha tenemos:

π1 ◦ π2 ◦ π1 + π2 ◦ π1 = 0 (2.9)

y componiendo en (2.8) por π1 a la izquierda tenemos :

π1 ◦ π2 + π1 ◦ π2 ◦ π1 = 0.

Luego, sumando las expresiones anteriores da :

π1 ◦ π2 ◦ π1 + π2 ◦ π1 + π1 ◦ π2 +π1 ◦ π2 ◦ π1 = 0
| {z }
=0 por (2.8)

ası́,
π1 ◦ π2 ◦ π1 = 0

y reemplazando esto último en (2.9) obtenemos :

π2 ◦ π1 = 0

esto prueba el teorema.

Lema 59 Si π : E −→ E1 es una proyección entonces I − π es proyección


sobre E1⊥ .
66 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Demostración. Sea ψ := I − π. Es claramente autoadjunta y

ψ 2 = (I − π)2 = I − 2π + π 2 = I − 2π + π = I − π = ψ.

Resta ver que im ψ = E1⊥ .


Sea x ∈ im ψ = im (I − π) entonces x = y − π(y). Sea z ∈ E1 = im π
entonces z = π(w) y:

hx, zi = hy − π(y), zi
= hy − π(y), π(w)i
= hπ(y) − π 2 (y), wi
= hπ(y) − π(y), wi
= 0

esto implica que x ∈ E1⊥ .

Inversamente queremos probar : E1⊥ ⊆ im ψ, equivalentemente:

(im ψ)⊥ ⊆ E1

esto es
ker ψ ⊆ E1 .

En efecto: Sea x ∈ ker ψ entonces ψ(x) = 0 esto es, (I − π)(x) = 0 o sea,


π(x) = x. Por lo tanto, x ∈ im π = E1 , lo cual prueba el lema.

Teorema 60 π1 − π2 es una proyección si y sólo si E2 ⊆ E1 .


2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO67

Demostración.

E2 ⊆ E1 ⇐⇒ E1⊥ ⊆ E2⊥
⇐⇒ E1⊥ ⊥E2 (Ejercicio)
⇐⇒ (I − π1 ) + π2 =: ϕ es proyección (Teorema 59 y Lema 60)
⇐⇒ I − (π1 − π2 ) =: ϕ es proyección
(∗)
⇐⇒ π1 − π2 es proyección .

(*) Si ϕ es proyección, entonces I − ϕ = π1 − π2 es proyección. Inversamente,


si π1 − π2 es proyección entonces I − (π1 − π2 ) =: ϕ lo es (por Lema 60).

Veamos ahora el comportamiento del producto de proyecciones.

Teorema 61 Sean π1 : E −→ E1 y π2 : E −→ E2 dos proyecciones or-


togonales. Entonces π2 ◦ π1 es una proyección sobre E1 ∩ E2 si y sólo si
π2 ◦ π1 = π1 ◦ π2 .

Demostración. Supongamos que π2 ◦ π1 = π1 ◦ π2 .


Vamos a ver que π2 ◦ π1 : E −→ E1 ∩ E2 es una proyección mostrando que:
(a) (π2 ◦ π1 )(x) = x para cada x ∈ E1 ∩ E2 .
(b) (π2 ◦ π1 )(x) = 0 para cada x ∈ (E1 ∩ E2 )⊥ .

En efecto:
(a) Sea x ∈ E1 ∩ E2 entonces

π2 (π1 (x)) = π2 (x) pues x ∈ E1


= x pues x ∈ E2 .

(b) Primero observamos que (E1 ∩ E2 )⊥ = E1⊥ + E2⊥ (Ejercicio). Luego,


si x ∈ (E1 ∩ E2 )⊥ entonces x = x1 + x2 ; x1 ∈ E1⊥ , x2 ∈ E2⊥ .
68 CAPÍTULO 2. TRANSFORMACIONES LINEALES

En consecuencia

π2 (π1 (x)) = π2 (π1 (x1 )) + π2 (π1 (x2 ))


= π2 (0) + π1 (π2 (x2 ))
= 0 + π1 (0)
= 0.

Supongamos ahora que π2 ◦ π1 es una proyección. Entonces

π2 ◦ π1 = (π2 ◦ π1 )∗ = π1∗ ◦ π2∗ = π1 ◦ π2

esto prueba el teorema.

2.3 Isometrı́as

Definición 62 Sean E, F e.v. con producto interno. Una transformación


lineal ϕ : E −→ F es llamada isometrı́a (o unitaria) si

hϕ(x1 ), ϕ(x2 )i = hx1 , x2 i ; x1 , x2 ∈ E.

Una caracterización la tenemos en el siguiente resultado.

Proposición 63 ϕ es una isometrı́a si y sólo si kϕ(x)k = kxk para cada


x ∈ E.

Demostración.
(i) Suponer que ϕ es una isometrı́a y tomar x1 = x2 = x.

(ii) 2hϕ(x1 ), ϕ(x2 )i = kϕ(x1 + x2 )k2 − kϕ(x1 )k2 − kϕ(x2 )k2


2.3. ISOMETRÍAS 69

= kx1 + x2 k2 − kx1 k2 − kx2 k2

= 2hx1 , x2 i.

Observación : Si ϕ es una isometrı́a, entonces ϕ es inyectiva.

Proposición 64 Supongamos dim E < ∞ y sea ϕ : E −→ E una isometrı́a.


Entonces ϕ es un isomorfismo.

Demostración. Es claro que ϕ es inyectiva. Para ver que es sobreyectiva,


notar que
dim(im ϕ) + dim(ker ϕ) = dim E

luego, im ϕ = E pues ϕ es inyectiva. (Teorema de dimensión).

Observación : En particular, en las condiciones anteriores, existe ϕ−1 .

Proposición 65 Sea dim E < ∞ y ϕ : E −→ E. Entonces ϕ es una


isometrı́a si y sólo si ϕ−1 = ϕ∗ .

Demostración.

(i) Sean x ∈ E, y ∈ E. Si ϕ es una isometrı́a entonces hϕ(x), ϕ(y)i = hx, yi.


Sea z = ϕ(x) entonces ϕ−1 (z) = x. Por lo tanto, hz, ϕ(y)i = hϕ−1 (z), yi
luego, hϕ∗ (z), yi = hϕ−1 (z), yi ∀ y. De esta manera, ϕ∗ = ϕ−1 .

(ii) Supongamos que ϕ∗ = ϕ−1 . Entonces, para cada x ∈ E, y ∈ E:

hϕ(x), ϕ(y)i = hx, ϕ∗ ϕ(y)i = hx, ϕ−1 ϕ(y)i = hx, yi.


70 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Definición 66 Una isometrı́a ϕ : E −→ E, donde dim E < ∞, se llama


una rotación.

Recordemos que si φ : E → E es una transformación lineal, donde E


es un espacio de dimensión finita, entonces la matriz de φ con respecto a
cualquier base de E tiene el mismo valor del determinante. De esta manera,
convenimos en denotar detφ a ese valor, y lo llamaremos el determinante de
la función φ.

Observación : En vista de la fórmula ϕ∗ = ϕ−1 , esto es, ϕϕ∗ = 1, se


tiene
(det ϕ)2 = 1

esto es, det ϕ = ±1.

Definición 67 Una rotación se llama propia si det ϕ = 1, e impropia si


det ϕ = −1.

Proposición 68 Sea E un e.v. sobre R. Los valores propios de una rotación


son +1 ó -1 .

Demostración. Sea λ valor propio de una rotación ϕ : E −→ E con vector


propio e. Entonces
ϕ(e) = λe.

Luego kϕ(e)k = |λ|kek pero, como ϕ es una isometrı́a, se tiene que kek =
|λ|kek. De esta manera, λ = ±1.

Proposición 69 El producto de rotaciones es una rotación.

Demostración. Ejercicio.

Proposición 70 La inversa de una rotación es una rotación.


2.3. ISOMETRÍAS 71

Demostración. Ejercicio.

2.3.1 Comparación con matrices

Si Q es una matriz correspondiente a una rotación ϕ : E −→ E; entonces la


condición ϕ∗ = ϕ−1 es equivalente a decir que Q es invertible y

Q−1 = QT

donde QT es la matriz traspuesta (suponiendo coefientes reales, de otra ma-


T
nera, Q∗ = Q ). Este tipo de matrices se llaman también ortogonales.

El siguiente resultado nos indica como construir matrices ortogonales (o


rotaciones).

Teorema 71 Una matriz Q de n × n es ortogonal si y sólo si las columnas


de Q forman una base ortonormal para Rn .

Demostración.
   
a11 a12 · · · a1n a a ··· an1
   11 21 
 a21 a22 · · · a2n   a12 a22 · · · an2 
   
Sea Q =  .. . Entonces QT =  . .
 .   .. 
   
an1 an2 · · · ann a1n a2n · · · ann

Sea B = (bij ) = QT Q; entonces


n
X
bij = a1i a1j + a2i a2j + · · · + ani anj = api apj
p=1
= h(a1i , a2i , . . . , ani ), (a1j , a2j , . . . , anj )i (∗)
72 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Si las columnas de Q son ortogonales :


(
0 si i 6= j
bij = (2.10)
1 si i = j

es decir, B = I.

inversamente, si QT = Q−1 , entonces QT Q = I = B, de manera que vale


(2.10) y (*) muestra que las columnas son ortonormales.

Ejemplos
√ √ √ √ √
1) Es fácil ver que los vectores (1/ 2, 1/ 2, 0), (−1/ 6, 1/ 6, 2/ 6),
√ √ √
(1/ 3, −1/ 3, 1/ 3) forman una base ortonormal en R3 . Ası́, la matriz
 √ √ √ 
1/ 2 −1/ 6 1/ 3
 √ √ √ 
 1/ 2 1/ 6 −1/ 3 
 √ √ 
0 2/ 6 1/ 3

es ortogonal.
à √ √ !
1/ 2 1/ 2
2) La matriz √ √ es ortogonal.
1/ 2 −1/ 2

Ejercicios
 
2/3 1/3 2/3
 
1. Demuestre que Q =  1/3 2/3 −2/3 

 es ortogonal. Halle la
−2/3 2/3 1/3
3 3
rotación ϕ : R −→ R asociada.

2. Sea ϕ1 : R2 −→ R2 definida por ϕ1 (x, y) = ( √12 x − √1 y, √1 x


2 2
+ √1 y)
2
y
√ √
8 8
2 2
ϕ2 : R −→ R definida por ( 13 x − 3
y, 3
x + 1
3
y)
2.3. ISOMETRÍAS 73

(a) Verifique que ϕ1 y ϕ2 son rotaciones.

(b) Verifique que ϕ1 ◦ ϕ2 es una rotación.

3. Demuestre que para cada t ∈ R, la matriz


à !
sin t cos t
A=
cos t − sin t

es ortogonal. Halle la transformación de rotación asociada.

4. Sea Q una matriz ortogonal y v, w ∈ Rn . Demuestre que

](v, w) = ](Qv, Qw).

2.3.2 Aspectos geométricos

(a) R2 .
Sea {e1 , e2 } la base canónica de R2

Y
6

e2 •

• -X
e1
Si se rotan los ejes en un ángulo θ en sentido positivo alrededor del origen,
entonces e1 rota a un vector v1 y e2 rota a un vector v2 tal que {v1 , v2 } es
una base ortonormal para R2 .
74 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Y
6

v2 e2 • v1 = (x, y)
@
I
@ µ
¡
¡
@ ¡
@ ¡
@¡ θ • -X
e1

Sea T : R2 −→ R2 tal que T (e1 ) = v1 , T (e2 ) = v2 . Entonces T es una


rotación pues la matriz correspondiente es ortogonal ya que {v1 , v2 } son las
columnas de la matriz
à y forman! unaÃbase ortonormal.
!
cos θ − sin θ
Notemos que v1 = , v2 = .
sin θ cos θ
En efecto :

(a, b) • b
@
I
@

@
¾ • @
a
Note que

v1 = (x, y) = (r cos θ, r sin θ) donde r = 1


cat. adj. x cat. op. y
(ó se puede ver como: cos θ = = , sin θ = = ).
hip. 1 hip. 1

cat. adj. cat. op.


Análogamente cos θ = = b , sin θ = = −a luego
hip. hip.
v2 = (a, b) = (− sin θ, cos θ).
2.3. ISOMETRÍAS 75

Luego: T (e1 ) = (cos θ, sin θ) , T (e2 ) = (− sin θ, cos θ). Por lo tanto,
à !
cos θ − sin θ
[T ] = .
sin θ cos θ

(b) R3 .
En R3 se puede rotar en sentido positivo alrededor del eje x, eje y o eje z
(ası́, los ejes x, y y z forman un sistema coordenado de la mano derecha).

Ejercicios

1. Una rotación positiva en un ángulo θ alrededor del eje z producirá una


base {v, w, e3 } donde v es vector obtenido al rotar e1 y w es el vector
obtenido al rotar e2 . Demuestre que
   
cos θ − sin θ
   
v=  
 sin θ  , w =  cos θ
.

0 0

Encuentre Y : R3 −→ R3 la rotación correspondiente.

2. Una rotación positiva en un ángulo α alrededor del eje x producirá


una base {e1 , v, w} donde v es el vector obtenido al rotar e2 y w es el
vector obtenido al rotar e3 . Demuestre que
   
0 0
   

v =  cos α  , w =  − sin α 

 .
sin α cos α

Encuentre R : R3 −→ R3 la rotación correspondiente.


76 CAPÍTULO 2. TRANSFORMACIONES LINEALES

3. Una rotación positiva en un ángulo ϕ alrededor del eje y producirá


una base {v, e2 , w} donde v es el vector obtenido al rotar e1 y w es el
vector obtenido al rotar e3 . Demuestre que
   
cos ϕ sin ϕ
   
v=  0  , w= 0
 
.

− sin ϕ cos ϕ

Encuentre P : R3 −→ R3 la rotación correspondiente.

Sean Y , R y P las transformaciones de rotación de los ejercicios 1, 2 y 3.


Las matrices Y , R y P para cualesquiera tres ángulos tienen interpretaciones
geométricas similares a la de una matriz de rotación en R2 .
Sea M cualesquiera de estas matrices de rotación. Sea u = ae1 +be2 +ce3 ∈
3
R . Entonces r = M u dará las coordenadas del vector obtenido al rotar el
vector u.
Por ejemplo : Y R(u) representa una rotación positiva en un ángulo α
alrededor del eje x seguida de una rotación positiva en un ángulo θ alrededor
del eje z.

Recordemos que E1 se dice un subespacio estable de E si ϕ(E1 ) ⊆ E1 .

El principal resultado que caracteriza las rotaciones es el siguiente:

Teorema 72 Sea ϕ una rotación. Entonces existe una descomposición de


E en subespacios estables de dimensión 1 y 2 . Esto es,

E = E1 ⊕ E2 ⊕ · · · Er
Pr
donde dim Ei = 1 ó 2 ∀ i = 1, . . . , r y i=1 dim Ei = dim E.

La demostración de este teorema se hará en pasos sucesivos:


2.3. ISOMETRÍAS 77

Proposición 73 Sea p : E −→ E una rotación. E espacio vectorial sobre


R. Sean E1 y E2 los espacios correspondientes a los valores propios 1 y -1
respectivamente. Entonces E1 ⊥E2 .

Demostración. Sea x1 ∈ E1 y sea x2 ∈ E2 . Entonces ϕ(x1 ) = x1 y ϕ(x2 ) =


−x2 . Luego,

hx1 , x2 i = hϕ(x1 ), ϕ(x2 )i pues ϕ es isometrı́a (rotación)


= hx1 , −x2 i
= −hx1 , x2 i.

Por lo tanto, hx1 , x2 i = 0.

Notar que, en particular, E1 ∩E2 = {0} pues si x ∈ E1 y x ∈ E2 , entonces


−x = ϕ(x) = x, lo que implica que x = 0.
Consideremos la suma (directa, ya que E1 ∩ E2 = {0}) de E1 y E2 :

E1 ⊕ E2 ,

entonces E1 ⊕ E2 es estable bajo ϕ. En efecto : Si x ∈ ϕ(E1 ⊕ E2 ) entonces

x = ϕ(x1 + x2 ) ; x1 ∈ E1 , x2 ∈ E2
= ϕ(x1 ) + ϕ(x2 )
= x 1 − x2 ∈ E 1 ⊕ E 2 .

Por lo tanto, ϕ(E1 ⊕ E2 ) ⊆ E1 ⊕ E2 .


Note que E1 = E11 ⊕ · · · ⊕ Ep1 donde p es la multiplicidad del valor propio
1; y E2 = E12 ⊕ · · · ⊕ Eq2 donde q es la multiplicidad del valor propio -1.
Además, dim Eij = 1 ∀ j = 1, 2; para cada i (Ejercicio).

Proposición 74 Sea ϕ : E −→ E una rotación. Si F es estable bajo ϕ,


entonces F ⊥ es estable bajo ϕ.
78 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Demostración. Queremos probar: ϕ(F ⊥ ) ⊆ F ⊥ . Sea x ∈ F ⊥ . Entonces,


para y ∈ F :
hϕ(x), yi = hx, ϕ∗ (y)i = hx, ϕ−1 (y)i.

Notar que ϕ−1 (y) ∈ F pues ϕ(F ) ⊆ F . En efecto: ϕ : F → F implica que


ϕ−1 : F → F . Luego, hϕ(x), yi = 0, por lo tanto, ϕ(x) ∈ F ⊥ .
En particular, concluimos que, si F := (E1 ⊕E2 )⊥ , entonces F ⊥ = E1 ⊕E2
es estable bajo ϕ (por lo visto antes), luego:

ϕ(F ) ⊆ F ( pues F ⊥⊥ = F ).

En lo que sigue, denotaremos F := (E1 ⊕ E2 )⊥ .

Proposición 75 La dimensión de F es par.

Demostración. Supongamos que dim F es impar.


Notemos que ϕ : F −→ F sigue siendo una rotación (por la Proposición 76).
Consideremosla como una matriz. Entonces cuando calculamos los valores
propios de ϕ debemos calcular las raı́ces del polinomio p(λ) = det(ϕ − λI) =
0.
Ahora, si el espacio vectorial es sobre R, entonces en dimensión impar hay
que ver si un polinomio de grado impar tiene o no raı́ces en R. Pero sabemos
que tal polinomio tiene al menos una raı́z, digamos λ0 y λ0 = ±1 pues ϕ es
rotación. Sea e0 ∈ F el vector propio asociado, esto es :

ϕ(e0 ) = λ0 e0 , e0 6= 0. (2.11)

Notar que e0 ∈ F = (E1 ⊕ E2 )⊥ . Pero, por (2.11), e0 ∈ E1 ó e0 ∈ E2 ; lo que


es una contradicción. Por lo tanto, la dimensión de F es par.

En particular, note que ϕ no tiene vectores propios en F .


2.3. ISOMETRÍAS 79

Consideremos ahora la transformación :

ψ = ϕ + ϕ∗ = ϕ + ϕ−1 : F −→ F.

Notar que ψ es autoadjunta : ψ ∗ = ϕ∗ + ϕ∗ ∗ = ϕ∗ + ϕ = ψ.


Luego, existe un vector propio para ψ. Sea λ el correspondiente valor
propio, entonces ψ(e) = λe, e ∈ F, e 6= 0, esto es :

ϕ(e) + ϕ−1 (e) = λe , e ∈ F.

Luego, multiplicando por ϕ, se tiene

ϕ2 (e) = −e + λϕ(e) , e ∈ F. (2.12)

Ya que ϕ no tiene vectores propios en F , entonces {e, ϕ(e)} es L.I. En efecto :


Si fueran L.D. entonces e = αϕ(e) esto implica que ϕ2 (e) = −αϕ(e)+λϕ(e) =
(λ − α)ϕ(e). Luego, ϕ(ϕ(e)) = (λ − α)ϕ(e). Por lo tanto, ϕ(e) es vector pro-
pio de ϕ en F .

Sea F1 := subespacio generado por {e, ϕ(e)} =: h{e, ϕ(e)}i. Claramente,


dim F1 = 2.

Proposición 76 ϕ(F1 ) ⊆ F1 .

Demostración. Sea x ∈ F1 entonces x = αe + βϕ(e). De esta manera,

ϕ(x) = αϕ(e) + βϕ2 (e)


= αϕ(e) + β[−e + λϕ(e)] por (2.12)
= αϕ(e) + (−βe) + βλϕ(e)
= (α + βλ)ϕ(e) − βe ∈ h{e, ϕ(e)}i = F1 .

Luego, se puede definir ϕ : F1 −→ F1 . Claramente ϕ es otra vez una


isometrı́a.
Ası́, ϕ(F1⊥ ) ⊆ F1⊥ y se puede repetir la construcción para F1⊥ .
80 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Continuando de esta manera, se puede finalmente obtener una descom-


posición ortogonal de F en subespacios estables mutuamente ortogonales,
esto es:
X
F = F1 ⊕ F2 ⊕ · · · ⊕ Fr y dim Fj = dim F = par .

Luego,

E = E1 ⊕ E2 ⊕ F (F = (E1 ⊕ E2 )⊥ )
= E1 ⊕ E2 ⊕ F1 · · · ⊕ Fr .

Claramente dim Fi = 2 ∀ i = 1, . . . , r y E1 = E11 ⊕ E21 ⊕ · · · Ep1 ; dim Ei1 =


1 , i = 1, . . . , p , E2 = E12 ⊕ E22 ⊕ · · · ⊕ Eq2 ; dim Ej2 = 1 , j = 1, . . . , q.
Esto prueba el teorema.

Observación : La matriz de rotación tiene la forma canónica (en gener-


al)
 
ε1
 .. 
 . 
 
 
 εp 0 
 
 cos θ1 sin θ1 
 
  ; con εi = ±1.
 − sin θ1 cos θ1 
 
 .. 
 0 . 
 
 
 cos θn sin θn 
− sin θn cos θn

2.3.3 Transformaciones antisimétricas

Definición 77 Una transformación lineal ψ : E −→ E se llama anti-


simétrica si ψ ∗ = −ψ.
2.3. ISOMETRÍAS 81

Proposición 78 ψ es antisimétrica si y sólo si hψ(x), yi + hx, ψ(y)i = 0


para todo x, y ∈ E.

Demostración.
=⇒)hψ(x), yi+hx, ψ(y)i = hx, ψ ∗ (y)i+hx, ψ(y)i = hx, −ψ(y)i+hx, ψ(y)i = 0.

⇐=)h(ψ ∗ + ψ)(x), yi = hψ ∗ (x), yi + hψ(x), yi = hx, ψ(y)i + hψ(x), yi = 0


para todo y. Esto implica que (ψ ∗ + ψ)(x) = 0 para todo x. Por lo tanto,
ψ ∗ = −ψ.

Proposición 79 ψ es antisimétrica si y sólo si hx, ψ(x)i = 0 para todo x.

Demostración.
=⇒) Tomar x = y en la proposición anterior. De esta manera, se obtiene
hψ(x), xi + hx, ψ(x)i = 0; esto es, hx, ψ(x)i = 0.

⇐=) Reemplazando x por x + y, obtenemos hx + y, ψ(x + y)i = 0 esto


es:
hx, ψ(x)i +hx, ψ(y)i + hy, ψ(x)i + hy, ψ(y)i = 0,
| {z } | {z }
=0 =0

luego hx, ψ(y)i + hy, ψ(x)i = 0. Por lo tanto, ψ es antisimétrica por proposi-
ción anterior.

La siguiente proposición nos dice acerca de los valores propios de una


transformación lineal antisimétrica.

Proposición 80 Si ψ es antisimétrica y λ es valor propio de ψ entonces


λ = 0.
82 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Demostración. Sea λ valor propio de ψ. Sea e 6= 0 tal que ψ(e) = λe,


entonces
0 = he, ψ(e)i = he, λei = λhe, ei.

Por lo tanto, λ = 0.

En la siguiente proposición dim E < ∞.

Proposición 81 Si ψ es antisimétrica entonces det ψ = (−1)n det ψ.

Demostración. Como ψ ∗ = −ψ entonces det ψ ∗ = (−1)n det ψ. Luego


det ψ = (−1)n det ψ.

Corolario 82 Si ψ es antisimétrica y dim E es impar, entonces det ψ = 0.

Proposición 83 Si ψ es antisimétrica entonces ψ es normal.

Demostración. ψ ∗ ψ = −ψψ = ψ(−ψ) = ψψ ∗ .

2.3.4 Forma matricial (o canónica) de una transforma-


ción antisimétrica

Sea ϕ := ψ 2 , donde ψ es una transformación antisimétrica. Entonces ϕ∗ =


(ψ 2 )∗ = ψ ∗ ψ ∗ = −ψ(−ψ) = ψ 2 = ϕ; esto es, ϕ es autoadjunta. Luego, existe
una base ortonormal {en } de E que consiste de vectores propios, digamos
{λn }, de ϕ. Ası́:
ϕ(en ) = λn en .
2.3. ISOMETRÍAS 83

Más precisamente, ϕ tiene forma matricial diagonal:


 
λ1 0
 
 λ2 
 
 .. .
 . 
 
0 λn

Veamos ahora que en este caso especial (ϕ := ψ 2 con ψ antisimétrica), se


tiene:
λi ≤ 0 ∀ i.

En efecto:

λi = hei , λi ei i = hei , ϕ(ei )i


= hei , ψ 2 (ei )i
= hψ ∗ (ei ), ψ(ei )i
= h−ψ(ei ), ψ(ei )i
= −hψ(ei ), ψ(ei )i ≤ 0.

Reordenemos ahora los vectores {ei } con i = 1, 2, . . . , n, de manera tal que:

λi < 0 (i = 1, 2, . . . , p) y λi = 0 (i = p + 1, . . . , n).

Observación: p debe ser par. (Ejercicio).

Definamos una nueva base {an } en E como sigue:

1
a1 = e1 , a2 = √ ψ(e1 ) , a3 = e2 ,
−λ1
1
a4 = √ ψ(e2 ) , . . . , ap+1 = ep+1 , ap+2 = ep+2 , . . .
−λ2
84 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Entonces {ai } es una base ortonormal (Ejercicio), además

p
ψ(a1 ) = ψ(e1 ) = −λ1 a2
1 1 λ1 p p
ψ(a2 ) = √ ψ 2 (e1 ) = √ ϕ(e1 ) = √ e1 = − −λ1 e1 = − −λ1 a1
−λ1 −λ1 −λ1
p
ψ(a3 ) = ψ(e2 ) = −λ2 a4
1 1 λ2 p p
ψ(a4 ) = √ ψ 2 (e2 ) = √ ϕ(e2 ) = √ e2 = − −λ2 e2 = − −λ2 a3
−λ2 −λ2 −λ2
..
.

Por lo tanto, la matriz toma la forma:


 √ 
0 − −λ1 0 0 ··· 0
 √ 
 −λ1 0 0 0 
 √ 
 
 0 0 0 − −λ2 
 √ 
 0 0 −λ2 0 
 
 .. .. .. 
 . . 0 0 . 
 
0 0 0 0 0 0

p
o, si definimos Kj := −λj :

 
0 −K1 0 0
 
 K1 0 0 0 
 
 
 0 0 0 −K2 
 
 0 0 K2 0 
 
 .. 
 . .
 
 
 0 −Kp 
 
 Kp 0 
 
 .. 
 . 
 
0
2.3. ISOMETRÍAS 85

Ejercicios
1. Sea ψ una transformación antisimétrica. Sea

ϕ = (ψ + I) ◦ (ψ − I)−1 .

(a) Demuestre que ϕ es una rotación.


(b) Demuestre que -1 no es un valor propio de ϕ.

2. Suponga que ϕ es una rotación y que -1 no es valor propio de ϕ.


Demuestre que
ψ = (ϕ − I) ◦ (ϕ + I)−1

es antisimétrica.

3. Sea ϕ : R2 −→ R2 una transformación normal. Muestre que existe


λ > 0 y ψ rotación tal que
ϕ = λψ.

4. Sea ϕ una rotación. Demuestre que existe una familia continua ϕt


(0 ≤ t ≤ 1) de rotaciones tales que ϕ0 = I y ϕ1 = ϕ.

5. Sea p(λ) el polinomio caracterı́stico de una rotación propia. Demuestre


que
p(λ) = (−λ)n p(λ−1 ) ; λ ∈ R.

6. Sea ϕ : R2 −→ R2 antisimétrica. Muestre que

hϕ(x), ϕ(y)i = det ϕ · hx, yi.

7. Sea ϕ : E −→ E una transformación lineal. Demuestre que

ϕ = ψ1 + iψ2

donde ψ1 y ψ2 son autoadjuntas.


86 CAPÍTULO 2. TRANSFORMACIONES LINEALES

8. Sea ϕ : E −→ E una transformación lineal que satisface ϕ∗ = λϕ,


λ ∈ R. Demuestre que ϕ es autoadjunta o antisimétrica.

2.3.5 Funciones bilineales simétricas

Definición 84 Sea E e.v. sobre R y φ : E × E −→ R una función bilineal.


φ se dice simétrica si

φ(x, y) = φ(y, x) ∀ x, y ∈ E.

Proposición 85 Sea φ bilineal simétrica. Se define la función ψ : E −→ R


(no lineal) por :
ψ(x) = φ(x, x).

Entonces ψ satisface la identidad del paralelogramo :

ψ(x + y) + ψ(x − y) = 2(ψ(x) + ψ(y)).

Demostración.

ψ(x + y) = φ(x + y, x + y) = φ(x, x) + φ(x, y) + φ(y, x) + φ(y, y)


= φ(x, x) + 2φ(x, y) + φ(y, y) pues φ es simétrica
= ψ(x) + 2φ(x, y) + ψ(y)

ψ(x − y) = φ(x − y, x − y) = φ(x, x) − φ(y, x) − φ(x, y) + φ(y, y)


= φ(x, x) − 2φ(x, y) + φ(y, y)
= ψ(x) − 2φ(x, y) + ψ(y).

Sumando obtenemos : ψ(x + y) + ψ(x − y) = 2(ψ(x) + ψ(y)).


2.3. ISOMETRÍAS 87

Definición 86 Una función ψ : E −→ R continua que satisface la identidad


del paralelógramo se llama una función cuadrática.

Cada función bilineal simétrica da origen a una función cuadrática (toman-


do x = y). Veremos que, inversamente, cada función cuadrática puede ser
obtenida de esta forma.

Teorema 87 Sea ψ : E −→ R una función cuadrática. Entonces existe una


función bilineal simétrica φ : E × E −→ R tal que

ψ(x) = φ(x, x).

Demostración. Sea
1
φ(x, y) := {ψ(x + y) − ψ(x) − ψ(y)}. (2.13)
2
Probaremos que φ es bilineal y simétrica. Luego a fin de ver que ψ(x) =
φ(x, x), definimos ψ1 (x) := φ(x, x) y se tiene:

ψ1 (x + y) = φ(x + y, x + y)
= φ(x, x) + 2φ(x, y) + φ(y, y)
= ψ1 (x) + 2φ(x, y) + ψ1 (y).

Luego, φ(x, y) = 12 {ψ1 (x + y) − ψ1 (x) − ψ1 (y)}. De esta manera, por (2.13)

ψ1 (x + y) − ψ1 (x) − ψ1 (y) = ψ(x + y) − ψ(x) − ψ(y) ∀ x , ∀ y.

Además, con x = −y tenemos

ψ1 (0) − ψ1 (x) − ψ1 (−x) = ψ(0) − ψ(x) − ψ(−x) (∗)

pero ψ(0) = 0 y ψ1 (0) = 0 ya que ψ y ψ1 satisfacen la identidad del parale-


lógramo . En efecto,

ψ(x + y) + ψ(x − y) = 2(ψ(x) + ψ(y))


88 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Sea x = y = 0 entonces 2ψ(0) = 2(2ψ(0)) = 4ψ(0) luego, 2ψ(0) = 0. Por lo


tanto, ψ(0) = 0.
Luego, ya que
ψ(x + y) + ψ(x − y) = 2(ψ(x) + ψ(y))

con x = 0 se tiene

ψ(y) + ψ(−y) = 2(ψ(0) + ψ(y))


ψ(y) + ψ(−y) = 2ψ(y)
ψ(−y) = ψ(y).

Ası́ concluimos de (*) que 2ψ1 (x) = 2ψ(x), esto es, ψ1 (x) = ψ(x). Esto
prueba que : φ(x, x) = ψ(x).

Resta ver que φ es bilineal y simétrica.


(a) Simetrı́a.
1 1
φ(y, x) = {ψ(y + x) − ψ(y) − ψ(x)} = {ψ(x + y) − ψ(x) − ψ(y)} = φ(x, y).
2 2

(b) φ(x1 + x2 , y) = φ(x1 , y) + φ(x2 , y).


En efecto, de (2.13) :

2φ(x1 + x2 , y) = ψ(x1 + x2 + y) − ψ(x1 + x2 ) − ψ(y)


2φ(x1 , y) = ψ(x1 + y) − ψ(x1 ) − ψ(y)
2φ(x2 , y) = ψ(x2 + y) − ψ(x2 ) − ψ(y).

Luego,

2{φ(x1 + x2 , y) − φ(x1 , y) − φ(x2 , y)}


(∗)
= {ψ(x1 + x2 + y) + ψ(y)} − {ψ(x1 + y) + ψ(x2 + y)}
− {ψ(x1 + x2 ) − ψ(x1 ) − ψ(x2 )}
2.3. ISOMETRÍAS 89

Como φ satisface la identidad del paralelogramo, por hipótesis, se tiene:


1
ψ(x1 +x2 +y)+ψ(y) = {ψ(x1 +x2 +2y)+ψ(x1 +x2 )} ( con x = x1 +x2 +y , y = y)
2
(2.14)
y
1
ψ(x1 +y)+ψ(x2 +y) = {ψ(x1 +x2 +2y)+ψ(x1 −x2 )} ( con x = x1 +y , y = x2 +y).
2
(2.15)
Restando (2.14) y (2.15) se obtiene; usando otra vez identidad del parale-
lógramo:

{ψ(x1 + x2 + y) + ψ(y)} − {ψ(x1 + y) + ψ(x2 + y)}


1
= {ψ(x1 + x2 ) − ψ(x1 − x2 )}
2
1
= {ψ(x1 + x2 ) − [2(ψ(x1 ) + ψ(x2 )) − ψ(x1 + x2 )]}
2
1
= {2ψ(x1 + x2 ) − 2ψ(x1 ) − 2ψ(x2 )}
2
= ψ(x1 + x2 ) − ψ(x1 ) − ψ(x2 ).

esto es,

{ψ(x1 +x2 +y)+ψ(y)}−{ψ(x1 +y)+ψ(x2 +y)} = ψ(x1 +x2 )−ψ(x1 )−ψ(x2 ).


(2.16)
Si ponemos (2.16) en (*) obtenemos : φ(x1 + x2 , y) − φ(x1 , y) − φ(x2 , y) = 0
lo cual verifica (b).

(c) φ(λx, y) = λφ(x, y); λ ∈ R.


En efecto : Colocando en (b) x1 = x y x2 = −x se obtiene:

φ(0, y) = φ(x, y) + φ(−x, y)

pero, φ(0, y) = 12 {ψ(y) − ψ(0) − ψ(y)} = 12 {ψ(0)} = 0 (pues ψ cuadrática


implica ψ(0) = 0). Luego,

φ(−x, y) = −φ(x, y). (2.17)


90 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Concluimos que:

φ(−kx, y) = −kφ(x, y) ∀ k ∈ Z+ . (2.18)

En efecto : de (2.17) y (b) :

φ(−2x, y) = φ(−x−x, y) = φ(−x, y)+φ(−x, y) = −φ(x, y)−φ(x, y) = −2φ(x, y).

Por inducción se obtiene (2.18) (Ejercicio).


Análogamente concluimos que

φ(kx, y) = kφ(x, y) ∀ k ∈ Z. (2.19)

Sea λ ∈ Q. Entonces λ = pq , p y q enteros. Entonces

p p
qφ( x, y) = φ(q · x, y) = φ(px, y) = pφ(x, y).
q q

Luego,
p p
φ( x, y) = φ(x, y). (2.20)
q q
Sea λ ∈ R. Entonces existe una sucesión λn en Q tal que λn → λ.
Ahora notamos que como ψ es continua entonces φ es continua y, luego, como

φ(λn x, y) = λn φ(x, y) por (2.20)

se obtiene, haciendo n → ∞, que φ(λx, y) = λφ(x, y). Esto prueba el teore-


ma.

Observación: De esta manera probamos que hay una correspondencia in-


yectiva entre funciones bilineales simétricas y funciones cuadráticas.
2.3. ISOMETRÍAS 91

2.3.6 El caso de dimensión finita; forma diagonal de


una función cuadrática

Sea E e.v. de dimensión finita y φ : E × E −→ R una función bilineal


simétrica. Sea {ei } una base de E. Entonces, dados x, y ∈ E:
X X
x= xi ei , y= yj e j .

Luego:
XX
φ(x, y) = xi yj φ(ei , ej ).
i j

Si ponemos x = y obtenemos la función cuadrática:


XX
ψ(x) = xi xj φ(ei , ej ) (2.21)
i j

lo cual se puede reescribir como:


  
³ ´  φ(e1 , e1 ) · · · φ(e1 , en ) x1
 . 
.. ..
ψ(x) = x1 · · · xn  . .   ..  .
 
φ(en , e1 ) · · · φ(en , en ) xn

Esta última representación de ψ se llama forma cuadrática (en dimensión


finita). Nótese que, como φ es simétrica, entonces la matriz
 
φ(e1 , e1 ) · · · φ(e1 , en )
 .. .. 
A= . . 

φ(en , e1 ) · · · φ(en , en )

es autoadjunta (pues φ(ei , ej ) = φ(ej , ei ) por definición de bilineal simétrica).


Recordemos ahora que, para funciones bilineales simétricas, existe una
base ortogonal {vn } de E tal que φ tiene forma diagonal, esto es:

φ(ei , ej ) = λi δij
92 CAPÍTULO 2. TRANSFORMACIONES LINEALES


 1 si i = j
donde δij = .
 0 si i 6= j
En consecuencia: Existe una base ortonormal {vn } de E donde
 
λ1 0
 ... 
A=

.

0 λn

En tal caso, se escribe:


  
³ ´ λ1 0 x1
..  . 
ψ(x) = x1 · · · xn 
 .   .. 
 
0 λn xn
= λ1 x21 + λ2 x22 + · · · + λn x2x .

esto es, el polinomio cuadrático que representa a ψ no tiene ”términos mix-


tos”. Además, cualquier forma cuadrática tiene una representación diagonal
de esta forma.

Ejemplo: Consideremos la siguiente forma cuadrática sobre R2 :

ψ(x1 , x2 ) = 2x21 − 12x1 x2 + 5x22 .

Entonces à !à !
³ ´ 2 −6 x1
ψ(x1 , x2 ) = x1 x2
−6 5 x2
à !
2 −6
donde A = = (aij ).
−6 5

Una forma de diagonalizar ψ, esto es, escribirlo como polinomio sin


términos mixtos, es la siguiente:
2.3. ISOMETRÍAS 93

Caso 1. Si a11 6= 0 hacemos la sustitución:


1
x1 = y1 − (a12 y2 + · · · + a1n yn )
a11
x2 = y2
..
.
xn = yn

lo que lleva a la ecuación

ψ(x1 , . . . , xn ) = a11 y12 + ψ1 (y2 , . . . , yn )

donde ψ1 es también un polinomio cuadrático.

Caso 2. Si a11 = 0 pero, por ejemplo, a12 6= 0, hacemos la sustitución

x1 = y1 + y2 , x2 = y1 − y2 , x3 = y3 , . . . , xn = yn

lo cual lleva a la ecuación


X
ψ(x1 , . . . , xn ) = bij yi yj (∗)

donde (b11 , b22 ) 6= (0, 0) y se puede aplicar el caso 1. (Note que puede ser
aún b11 = 0).

Caso 3. Para realizar un cambio en el caso a11 = 0, pero aij 6= 0 con


i 6= j, se hace

xi = y i + y j
xj = yi − yj
xp = yp si p 6= i , p 6= j

Esto lleva a una forma como (*) con (bii , bjj ) 6= (0, 0) ( o sea bii 6= 0 o
bjj 6= 0).
94 CAPÍTULO 2. TRANSFORMACIONES LINEALES

à ! à !
a11 a12 2 −6
Usemos este método en el ejemplo anterior: Allı́ = ,
a21 a22 −6 5
luego hacemos la sustitución
1
x1 = y1 − ((−6)y2 ) = y1 + 3y2
2
x2 = y 2 ,

obtenemos

ψ(x1 , x2 ) = 2(y1 + 3y2 )2 − 12(y1 + 3y2 )y2 + 5y22


= 2[y12 + 6y1 y2 + 9y22 ] − 12y1 y2 − 36y22 + 5y22
= 2y12 + 12y1 y2 + 18y22 − 12y1 y2 − 36y22 + 5y22
= 2y12 − 13y22

que es la forma diagonal pedida.

Veamos otro ejemplo:


Sea ψ(x1 , x2 , x3 ) = 2x21 − 8x1 x2 + x22 − 16x1 x3 + 14x2 x3 + 5x23 entonces la
matriz simétrica perteneciente a la forma cuadrática anterior es:
   
2 −4 −8 a11 a12 a13
   
A=  −4 1 7  
 =  a21 a22 a23 
.
−8 7 5 a31 a32 a33

La idea para obtener A es la siguiente: La matriz autoadjunta A = (aij ) que


representa a ψ(x1 , x2 , x3 ) tiene las componentes aii de la diagonal iguales a
los coeficientes de x2i y las componentes aij y aji iguales cada una a la mitad
del coeficiente xi xj .
Diagonalizemos ahora a ψ: Como a11 6= 0 hacemos la sustitución:
1
x1 = y1 − ((−4)y2 + (−8)y3 ) = y1 + 2y2 + 4y3
2
x2 = y 2
x3 = y 3 .
2.3. ISOMETRÍAS 95

Luego:

ψ(x1 , x2 , x3 ) = 2(y1 + 2y2 + 4y3 )2 − 8(y1 + 2y2 + 4y3 )y2 + y22


− 16(y1 + 2y2 + 4y3 )y3 + 14y2 y3 + 5y32
= (y1 + 2y2 + 4y3 )[2y1 + 4y2 + 8y3 − 8y2 − 16y3 ]
+ y22 + 14y2 y3 + 5y32
= (y1 + 2y2 + 4y3 )(2y1 − 4y2 − 8y3 ) + y22 + 14y2 y3 + 5y32
= 2y12 − 4y1 y2 − 8y1 y3 + 4y1 y2 − 8y22 − 16y2 y3
+ 8y1 y3 − 16y2 y3 − 32y32 + y22 + 14y2 y3 + 5y32
= 2y12 − 7y22 − 18y2 y3 − 27y32

esto es: ψ(x1 , x2 , x3 ) = 2y11 − (7y22 + 18y2 y3 + 27y32 ) = 2y12 − ψ1 (y2 , y3 ) donde
ψ1 (y2 , y3 ) = 7y22 + 18y2 y3 + 27y32 es un polinomio cuadrático donde volvemos
a aplicar la sustitución. Aquı́

à !
7 9
A1 =
9 27

luego, sea

y1 = z1
1 9
y2 = z2 − (9z3 ) = z2 − z3
7 7
y3 = z3
96 CAPÍTULO 2. TRANSFORMACIONES LINEALES

entonces
9 9
ψ1 (y2 , y3 ) = 7(z2 − z3 )2 + 18(z2 − z3 )z3 + 27z32
7 7
9
= (z2 − z3 )[7z2 − 9z3 + 18z3 ] + 27z32
7
9
= (z2 − z3 )(7z2 + 9z3 ) + 27z32
7
1
= (7z2 − 9z3 )(7z2 + 9z3 ) + 27z32
7
1
= (49z22 − 81z32 ) + 27z32
7
81 81
= 7z22 + z32 + 27z32 = 7z22 + ( + 27)z32 .
7 7
Por lo tanto, ψ(x1 , x2 , x3 ) = 2z12 − 7z22 − ( 81
7
+ 27)z32 es la forma diagonal
pedida.

El siguiente resultado es fundamental para la próxima definición.

Teorema 88 Sea φ una forma bilineal simétrica en E. Entonces existe una


base de E en la cual φ se representa por una matriz diagonal. Además,
cualquier otra matriz diagonal tiene el mismo número P de componentes
positivas y el mismo número N de componentes negativas.

Demostración. Sabemos, por teorema anterior, que existe una base


{u1 , . . . , un } de E en la cual φ se representa por una matriz diagonal, por
ejemplo, con P y N componentes positivas y negativas respectivamente.
Supongamos ahora que {w1 , . . . , wn } es otra base de E en la cual φ se re-
presenta también por una matriz diagonal, por ejemplo, con P 0 y N 0 com-
ponentes positivas y negativas respectivamente. Sin pérdida de generalidad,
podemos suponer que en cada matriz aparecen primero las componentes pos-
itivas. Como P + N = P 0 + N 0 (dim(ran φ)) es suficiente probar que P = P 0 .
Sea U := subespacio generado por {u1 , . . . , up } y W := subespacio generado
por {wP 0 +1 , . . . , wn }. Entonces : φ(v, v) > 0 para todo v ∈ U y φ(v, v) ≤ 0
2.3. ISOMETRÍAS 97

para todo v ∈ W , con v 6= 0.


Note que : U ∩ W = {0} y observemos que dim U = P y dim W = n − P 0 .
Luego,

dim(U + W ) = dim U + dim W − dim(U ∩ W ) (Teorema de dimensión)


= P + (n − P 0 ) − 0
= P − P 0 + n.

Pero : dim(U + W ) ≤ dim E = n; luego P − P 0 + n ≤ n ó P ≤ P 0 .


Similarmente, P 0 ≤ P (intercambiando el rol de P por P 0 en el argumento
anterior). Luego, P = P 0 .

Corolario 89 Cualquier forma cuadrática (real) ψ tiene una representación


única en la forma

ψ(x1 , . . . , xn ) = x21 + · · · + x2s − x2s+1 − · · · − x2r .

Observación: El resultado anterior a veces se enuncia como la Ley de Inercia


o el teorema de Sylvester.

Definición 90 La signatura de una forma cuadrática es el número de com-


ponentes positivas menos el número de componentes negativas.

Definición 91 Una forma bilineal simétrica φ se llama semidefinida no ne-


gativa si
ψ(x) = φ(x, x) ≥ 0 ∀ x ∈ E

y se dice que es definida positiva si

ψ(x) = φ(x, x) > 0 ∀ x ∈ E, x 6= 0.


98 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Ejemplos
1) La forma bilineal ψ(x1 , x2 ) = 2x21 − 12x1 x2 + 5x22 se escribe en forma
diagonal como
ψ(x1 , x2 ) = 2y12 − 13y22 ;

luego P = 1 y N = 1. Por lo tanto, S = 0.


2) La forma bilineal ψ(x1 , x2 , x3 ) = 2x21 − 8x1 x2 + x22 − 16x1 x3 + 14x2 x3 + 5x23
se escribe en forma diagonal como
81
ψ(x1 , x2 , x3 ) = 2z12 − 7z22 − ( + 27)z32
7
luego P = 1 y N = 2. Ası́, S = −1.
3) Hallar una transformación de coordenadas que diagonalice la forma cuadrática

ψ(x1 , x2 ) = 2x21 − 4x1 x2 + 5x22 .


à !
2 −2
La matriz simétrica que representa a ψ es A = .
−2 5
Método 1. Hacemos la sustitución

1
x1 = y1 − (−2y2 ) = y1 + y2
2
x2 = y2 .

Luego:

ψ(x1 , x2 ) = 2(y1 + y2 )2 − 4(y1 + y2 )y2 + 5y22


= 2[y12 + 2y1 y2 + y22 ] − 4y1 y2 − 4y22 + 5y22
= 2y12 + 4y1 y2 + 2y22 − 4y1 y2 − y22
= 2y12 + y22 .

Ası́, P = 2 y luego, S = 2.
2.4. EJERCICIOS DE RECAPITULACIÓN 99

Método 2. Buscamos los valores propios de la matriz A :


à !
λ−2 2
p(λ) = det(λI − A) = det
2 λ−5
= (λ − 2)(λ − 5) − 4
= λ2 − 7λ + 6
= (λ − 6)(λ − 1).

Los valores propios son λ = 6 y λ =Ã1. Como


! son diferentes, se tiene que
6 0
existe P invertible tal que P −1 AP = . Más precisamente:
0 1

ψ(z1 , z2 ) = 6z12 + z22 .

De esta manera, S = 2.
Nótese que el cambio de coordenadas con respecto al método 1 es diferente.

2.4 Ejercicios de Recapitulación

1. Sea E un espacio vectorial con producto interno h , i. Recuerde que


L(E; E) = {f : E → E : f es lineal } y B(E × E) = {b : E × E → R :
b es bilineal }. Sea ρ : L(E; E) → B(E × E) definida como

ρ(φ)(x, y) = hφ(x), yi.

a) Demuestre que ρ es lineal.


b) Demuestre que ρ es inyectiva.
c) Demuestre que ρ es sobreyectiva.

2. Sea φ : E → E una transformación lineal autoadjunta. Sean λ1 , λ2 val-


ores propios de φ. Suponga que λ1 6= λ2 . Demuestre que E(λ1 )⊥E(λ2 ).
100 CAPÍTULO 2. TRANSFORMACIONES LINEALES

3. Sea π una proyección ortogonal definida en un espacio con producto


interno (E, h , i). Demuestre que E = Kerπ ⊕ Imπ.

4. Sea ϕ : R3 → R3 una transformación lineal cuya representación ma-


tricial es R , con

  
cos(135◦ ) sen(135◦ ) 0 cos(30◦ ) 0 sen(30◦ )
  
R=
 −sen(135◦
) cos(135 ◦
) 0 
 0 1 0 

◦ ◦
0 0 1 −sen(30 ) 0 cos(30 )

Demuestre que ϕ es una rotación. Interprete esta rotación geométricamente.

5. Sea π : R2 → R2 definida por φ(x, y) = ( √12 x − √1 y, √1 x


2 2
+ √1 y).
2
Demuestre que φ es una rotación.

6. Sean E un espacio vectorial de dimensión finita y ϕ : E → E una


transformación lineal.

(a) Demuestre que (Ker(ϕ∗ ))⊥ = Im(ϕ) . Concluya que


M
E = Im(ϕ) Ker(ϕ∗ ).

(b) Si ϕ es normal entonces Ker(ϕ) = Ker(ϕ∗ ) . Concluya que


M
E = Im(ϕ) Ker(ϕ).

(c) Si ϕ es normal y v es un vector tal que ϕ2 (v) = 0 entonces


ϕ(v) = 0 .

7. Sea φ : E → E una transformación lineal definida en un espacio E


con producto interno.

(a) Suponga que φ es normal. Demuestre que φ − λI es también


normal.
2.4. EJERCICIOS DE RECAPITULACIÓN 101

(b) Demuestre que (kerφ∗ ) = (Imφ)⊥ .

(c) Demuestre que Imφ∗ ⊆ (kerφ)⊥ .

8. Sea φ : R2 → R2 una transformación normal. Demuestre que existe


λ > 0 y una rotación ψ tal que φ = λψ .

9. Sea E = C con el producto interno hz, wi = Rez w̄ . Sea z ∈ C y


Mz : C → C definido por Mz (w) = zw

(a) Verifique que Mz es lineal.

(b) Demuestre que (Mz )∗ = Mz̄ .

(c) Para qué números complejos z es Mz autoadjunto?

(d) Para cuales z es Mz una rotación?

(e) Para cuales z es Mz antisimétrica?

10. Sea T : C2 → C2 definida por T (e1 ) = (1+i, 2) , T (e2 ) = (i, i) , donde


{e1 , e2 } es la base canónica de C2 . Hallar T ∗ . ¿ Es T normal ? ¿ Es
T autoadjunta ?

11. Sea E espacio vectorial con producto interno, dim E = n. Sea ϕ :


E −→ E. Demuestre que las siguientes afirmaciones son equivalentes:

(i) ϕ es autoadjunta y hϕ(x), xi ≥ 0 ∀ x ∈ E.

(ii) ϕ = ψ 2 , para algún ψ : E −→ E autoadjunto.

12. Sea T : R2 → R2 definida por T (x, y) = (x + 2y, 2x − y). Calcule kT k.

13. Sea T : E → E una transformación lineal, demuestre que T = R + iS


donde S y R son autoadjuntas.

14. Sea E espacio vectorial de dimensión n sobre R. Demuestre que el poli-


nomio caracterı́stico, p(λ), de una transformación lineal antisimétrica
102 CAPÍTULO 2. TRANSFORMACIONES LINEALES

satisface la ecuación:

p(−λ) = (−1)n p(λ).

15. Sea E espacio vectorial sobre C, con producto interno. Sea ϕ : E −→ E


normal.

(a) Sea x ∈ E. Demuestre que ϕ(x) = 0 si y sólo si ϕ∗ (x) = 0 .


(b) Demuestre que ϕ − λI es normal (λ ∈ C).
(c) Demuestre que cada vector propio de ϕ es un vector propio de
ϕ∗ .

16. Suponga que E es un espacio vectorial con producto interno h, i .


Demuestre que una transformación lineal T : E → E es normal si y
sólo si kT (x)k = kT ∗ (x)k para cada x ∈ E .

17. Sea φ : E → E . Suponga que φ2 = φ . Demuestre que φ es autoad-


junta si y sólo si φ es normal.

18. Sea T : C2 → C2 definida por T (e1 ) = (1, 2), T (e2 ) = (i, −1) , donde
{e1 , e2 } es la base canónica de C2 . Hallar T ∗ (x, y) .

19. Sea T : C2 → C2 definida por T (e1 ) = (1 + i, 2), T (e2 ) = (i, i). Hallar
T ∗ . ¿Es T normal ?

20. Sea E un espacio vectorial sobre C con producto interno. Sea φ :


E → E una transformación lineal autoadjunta.

(a) Demuestre que kx + iφ(x)k = kx − iφ(x)k para cada x ∈ E.


(b) Demuestre que x + iφ(x) = y + iφ(y) si y sólo si x = y .
(c) Demuestre que −1 no es valor propio de I + iφ .
(d) Demuestre que −1 no es valor propio de I − iφ .
2.4. EJERCICIOS DE RECAPITULACIÓN 103

(e) Demuestre que ψ := (I − iφ)(I + iφ)−1 es una rotación.

21. Sea E un espacio vectorial con producto interno h , i . Sea T : E → E


una transformación lineal. Entonces ρ(x, y) := hT (x), yi es también
un producto interno en E . Sea U : E → E un operador lineal y
U ∗ : E → E su adjunto con respecto a h , i.

(a) Suponga que U es una rotación con respecto a ρ . Demuestre


que T = U ∗ T U .

(b) Suponga que T = U ∗ T U . Demuestre que U es una rotación con


respecto a ρ .

22. Sea E = R4 y E1 = subespacio generado por {(1, 0, 0, 0), (0, 0, 1, 0)}.


Encuentre P : E → E proyección ortogonal tal que ImP = E1 .

23. Sea E espacio vectorial con producto interno. Sean P , Q : E →


E proyecciones ortogonales. Demuestre que P ◦ Q = 0 si y sólo si
ImP ⊥ImQ .

24. Sea E un espacio vectorial con producto interno. Sea π : E −→ E1


una proyección ortogonal y J ⊆ E un subespacio.

(a) Suponga que J es estable bajo π (esto es, π(J) ⊆ J). Demuestre
que
J = J ∩ E1 ⊕ J ∩ E1⊥ .

(b) Suponga que J = J ∩ E1 ⊕ J ∩ E1⊥ . Demuestre que J es estable


bajo π .

25. Si π : E → Imπ es una proyección, demuestre que I − π es una


proyección sobre (Imπ)⊥ .
104 CAPÍTULO 2. TRANSFORMACIONES LINEALES

26. Sea Q : R2 → R2 definida por Q(x, y) = (ax + by, cx + dy). Suponga


que Q es una rotación. Demuestre que b = ±c .

27. Sea T : C2 → C2 definida por T (z, w) = (z + iw, z − iw).

(a) Hallar T ∗ .

(b) Demuestre que T ∗ T = T T ∗ = 2I.

(c) Encuentre explicitamente T1 y T2 operadores autoadjuntos tales


que T = T1 + iT2 .

(d) Demuestre que, en general, un operador lineal T es normal si y


sólo si T1 T2 = T2 T1 .

28. Una forma bilineal φ : E × E −→ R se dice antisimétrica si

φ(x, y) = −φ(y, x) ∀ x, y ∈ E.

Demuestre que φ es antisimétrica si y sólo si φ(x, x) = 0 ∀ x ∈ E .

29. Mostrar que cualquier forma bilineal φ : E × E −→ R es la suma de


una forma bilineal simétrica y una forma bilineal antisimétrica.

30. Hallar la matriz autoadjunta y la signatura que corresponden a la


forma cuadrática: ψ(x1 , x2 , x3 ) = x1 x2 + x2 x3 .

31. Sea a ∈ R y sea b : R2 → R2 la función bilineal simétrica definida


como
b((x1 , y1 ), (x2 , y2 )) = x1 x2 + ay1 x2 + y1 y2 .

Demuestre que b es definida positiva si |a| < 2 .

32. Demuestre que una función bilineal simétrica b : E ×E → R es definida


positiva si y sólo si el operador lineal autoadjunto T asociado a b tiene
sólo valores propios positivos.
2.4. EJERCICIOS DE RECAPITULACIÓN 105

33. Sea b(x, y) = 5x2 + 6xy + 4y 2 . Encuentre T ∈ L(R2 ; R2 ) tal que


ρ(T ) = b, donde ρ es el isomorfismo entre L(R2 ; R2 ) y B(R2 × R2 ) .

34. Encuentre la signatura de la forma cuadrática definida por T (x, y) =


2x2 − 12xy + 5y 2 .

35. Hallar la matriz simétrica que corresponde a cada una de las siguientes
formas cuadráticas.

(a) ψ(x, y) = 4x2 − 6xy − 7y 2 .


(b) ψ(x, y) = xy + y 2 .
(c) ψ(x, y, z) = 3x2 + 4xy − y 2 + 8xz − 6yz + z 2 .
(d) ψ(x, y, z) = x2 − 2yz + xz.

36. Hallar la signatura de la función bilineal simétrica asociada a la forma


cuadrática definida por medio de la matriz
 
0 1 1
 
A=  1 −2 2 .

1 2 −1
Idea: Aplicar el cambio de variables

x1 = y 1 + y 3
x2 = y 2
x3 = y1 − y3 .

37. Sea φ la forma bilineal simétrica asociada con la forma cuadrática


ψ(x1 , x2 ) = ax21 + bx1 x2 + cx22 . Demuestre que φ es definida positiva si
y sólo si a > 0 y b2 − 4ac < 0 .

38. Hallar la matriz simétrica y la signatura perteneciente a la forma


cuadrática ψ(x1 , x2 , x3 ) = x1 x2 + x2 x3 .
Capı́tulo 3

Producto tensorial

3.1 Transformaciones multilineales

Definición 92 Sean E, F y G tres espacios vectoriales. Una transformación


ϕ : E × F −→ G se llama bilineal si satisface las siguientes condiciones:

ϕ(λx1 + x2 , y) = λϕ(x1 , y) + ϕ(x2 , y) ; x1 , x2 ∈ E, y ∈ F ; λ ∈ R ó C

ϕ(x, λy1 + y2 ) = λϕ(x, y1 ) + ϕ(x, y2 ) ; y1 , y2 ∈ F, x ∈ E; λ ∈ R ó C.

Observación: Si G = R ó C, ϕ se llama una función bilineal.

Sea ϕ(E × F ) := {z ∈ G / z = ϕ(x, y) ; x ∈ E , y ∈ F }. Entonces


ϕ(E × F ) no es necesariamente un subespacio de G. Por lo tanto denotamos:

im ϕ = hϕ(E × F )i ≡ subespacio generado por ϕ(E × F ).

Además, denotamos

B(E, F ; G) := {ϕ : E × F −→ G / ϕ es transformación bilineal }.

Si definimos

(ϕ1 + ϕ2 )(x, y) = ϕ1 (x, y) + ϕ2 (x, y) ; x ∈ E, y ∈ F

106
3.1. TRANSFORMACIONES MULTILINEALES 107

(λϕ)(x, y) = λϕ(x, y) ; x ∈ E, y ∈ F, λ ∈ R ó C.
Entonces B(E, F ; G) es un espacio vectorial.

Observación: Si G = R ó C, B(E, F ; G) ≡ B(E × F ) es el espacio de


todas las funciones bilineales de E × F en R ó C.

Definición 93 Sean E, F y G espacios vectoriales y sea ϕ : E × F −→ G


una transformación bilineal. El par (G, ϕ) se llama un producto tensorial
para E y F si se satisfacen las condiciones siguientes:

⊗1 : im ϕ = G.

⊗2 : Si ψ : E ×F −→ H es una transformación bilineal de E ×F en cualquier


espacio vectorial H, entonces existe una transformación lineal f : G −→ H
tal que ψ = f ◦ ϕ (Propiedad de factorización).

Observación: En forma de diagrama, ⊗2 dice que el diagrama:


ψ
E × F −→ H
ϕ ↓
G
puede siempre completarse a un diagrama conmutativo:
ψ
E × F −→ H
ϕ ↓ %f .
G
Proposición 94 Las condiciones ⊗1 y ⊗2 son equivalentes a la condición :

⊗: Si ψ : E × F −→ H es una transformación bilineal en cualquier espacio


vectorial H, entonces existe una única transformación lineal f : G −→ H tal
que ψ = f ◦ ϕ (propiedad de factorización única).
108 CAPÍTULO 3. PRODUCTO TENSORIAL

Demostración.
(i) Sea ψ : E × F −→ H y supongamos que existen dos transformaciones
lineales f1 : G −→ H y f2 : G −→ H tales que

ψ = f1 ◦ ϕ y ψ = f2 ◦ ϕ.

Entonces
(f1 − f2 ) ◦ ϕ = 0.

Lo cual implica que f1 = f2 . En efecto: Sea x ∈ G. Por ⊗1 , x ∈ hϕ(E × F )i,


P
esto es, x = λi ϕ(xi , yi ); donde xi ∈ E, yi ∈ F . Luego:
X X
(f1 − f2 )(x) = λi (f1 ◦ ϕ)(xi , yi ) − λi (f2 ◦ ϕ)(xi , yi )
X X
= λi ψ(xi , yi ) − λi ψ(xi , yi )
= 0.

(ii) Supongamos que el par (G, ϕ) satisface ⊗. Entonces ⊗2 se cumple.


Debemos probar ⊗1 . En efecto: se define la aplicación bilineal ϕ∗ : E ×F −→
im ϕ por
ϕ∗ (x, y) = ϕ(x, y)

(esto es, tomamos H = im ϕ)

ϕ∗
E × F −→ im ϕ
ϕ ↓ .
G %f

Por hipótesis existe f : G −→ im ϕ tal que f ◦ ϕ = ϕ∗ .


Sea j : im ϕ −→ G la inclusión canónica (i.e. j(x) = x ∀ x, pues im ϕ es un
subespacio de G). Entonces j ◦ ϕ∗ = ϕ. Además,

(j ◦ f ) ◦ ϕ = j ◦ (f ◦ ϕ) = j ◦ ϕ∗ = ϕ.
3.1. TRANSFORMACIONES MULTILINEALES 109

Pero, por otra parte, i ◦ ϕ = ϕ, donde i : G −→ G es la identidad (i.e.


i(x) = x ∀ x). Luego, por unicidad, se debe tener:

j ◦ f = i.

Esto implica que j : im ϕ −→ G es sobreyectiva (En efecto: Si z ∈ G entonces


existe f (z) en im ϕ tal que j(f (z)) = i(z) = z). Por lo tanto, im ϕ = G.

Notación: Si el par (G, ϕ) es un producto tensorial para E y F , escribimos


G como E ⊗ F y ϕ(x, y) como x ⊗ y. Luego, la bilinealidad se expresa en la
siguiente forma:

(λx1 + x2 ) ⊗ y = λx1 ⊗ y + x2 ⊗ y ; x1 , x2 ∈ E, y ∈ F

x ⊗ (λy1 + y2 ) = λx ⊗ y1 + x ⊗ y2 ; x ∈ E, y1 , y2 ∈ F, λ ∈ R ó C.

Ejemplos

1) Sea E u e.v. sobre R y se define una transformación bilineal ⊗ : R×E −→


E como
λ ⊗ x = λx.

Entonces el par (E, ⊗) es un producto tensorial de R y E.


En efecto: Veamos ⊗1 : ⊗(R ⊗ E) = R · E = E, luego, es claro que im ⊗ = E.
Veamos ⊗2 : Sea ψ : R × E −→ H bilineal y definamos f : E −→ H como
f (x) := ψ(1, x) y tal que
ψ
R × E −→ H
⊗ ↓ .
E %f

Entonces f (λ ⊗ x) = f (λx) = ψ(1, λx) = λψ(1, x) = ψ(λ, x); esto es,


f ◦ ⊗ = ψ. Esto prueba ⊗2 .
110 CAPÍTULO 3. PRODUCTO TENSORIAL

Concluimos que el par (E, ⊗) es un producto tensorial de R y E. Esto es:


R ⊗ E = E. En particular Γ ⊗ Γ = Γ con λ ⊗ µ = µ.

2) Sea β : Rn × Rm −→ Mn×m (R) definida por


 
x1 y 1 · · · x1 ym
 . .. 
β((x1 , . . . , xn ), (y1 , . . . , ym )) = 
 .
. .   .
xn y 1 · · · xn y m
n×m

Probaremos que (Mn×m (R), β) es un producto tensorial para Rn y Rm (luego,


Rn ⊗ Rm = Mn×m (R)).
En efecto: Veamos ⊗1 : hβ(Rn × m
R )i = Mn×m (R). Sea A ∈ Mn×m (R) tal
α α12 · · · α1m
 11 
 α21 α22 · · · α2m 
 
que A =  . . .  entonces
 .. .. .. 
 
αn1 αn2 · · · αnm

β((α11 , α21 , . . . , αn1 ), (1, 0, 0, . . .)) + β((α12 , α22 , . . . , αn2 ), (0, 1, 0, . . .))
+ · · · + β((α1m , α2m , . . . , αnm ), (0, 0, . . . , 1))
     
α11 0 · · · 0 0 α12 0 · · · 0 ··· 0 α1m
     
 α21 0 · · · 0   0 α22 0 · · ·   0 ··· 0 α2m 
     
=  . .. ..  +  + ··· +  
 .. . .   ... ..
.
..
.   ..
.
..
.
..
. 
     
αn1 0 · · · 0 0 αn2 0 · · · 0 ··· 0 αnm
 
α11 · · · α1m
 . .. 
= 
 .
. .  
αn1 · · · αnm

o sea: Dado A ∈ Mn×m (R), existen xi ∈ Rn , yi ∈ Rm tales que


X
A= β(xi , yi ).
3.1. TRANSFORMACIONES MULTILINEALES 111

Por lo tanto A ∈ hβ(Rn × Rm )i.


Veamos ahora ⊗2 : Sea ψ : Rn × Rm −→ H bilineal.

ψ
Rn × Rm −→ H
β ↓ %f .
Mn×m (R)

Por ejemplo: con n = m = 2, definamos:

à !
a b
f = ψ((1, 0), (a, b)) + ψ((0, 1), (c, d)).
c d

Entonces f lineal:
à à ! à !! à !
a1 b1 a 2 b2 λa1 + a2 λb1 + b2
f λ + =f
c1 d 1 c2 d2 λc1 + c2 λd1 + d2

= ψ((1, 0), (λa1 + a2 , λb1 + b2 )) + ψ((0, 1), (λc1 + c2 , λd1 + d2 ))

= ψ((1, 0), λ(a1 , b1 ) + (a2 , b2 )) + ψ((0, 1), λ(c1 , d1 ) + (c2 , d2 ))

= λψ((1, 0), (a1 , b1 ))+ψ((1, 0), (a2 , b2 ))+λψ((0, 1), (c1 , d1 ))+ψ((0, 1), (c2 , d2 ))

= λ[ψ((1, 0), (a1 , b1 ))+ψ((0, 1), (c1 , d1 ))]+[ψ((1, 0), (a2 , b2 ))+ψ((0, 1), (c2 , d2 ))]
à ! à !
a1 b1 a2 b2
= λf +f
c1 d1 c2 d2

Finalmente,
112 CAPÍTULO 3. PRODUCTO TENSORIAL

à !
x1 y1 x1 y2
(f ◦ β)((x1 , x2 ), (y1 , y2 )) = f
x2 y1 x2 y2

= ψ((1, 0), (x1 y1 , x1 y2 )) + ψ((0, 1), (x2 y1 , x2 y2 ))


= ψ((1, 0), x1 (y1 , y2 )) + ψ((0, 1), x2 (y1 , y2 ))
= x1 ψ((1, 0), (y1 , y2 )) + x2 ψ((0, 1), (y1 , y2 ))
= ψ(x1 (1, 0), (y1 , y2 )) + ψ(x2 (0, 1), (y1 , y2 ))
= ψ((x1 , 0), (y1 , y2 )) + ψ((0, x2 ), (y1 , y2 ))
= ψ((x1 , 0) + (0, x2 ), (y1 , y2 ))
= ψ((x1 , x2 ), (y1 , y2 )).

Luego, f ◦ β = ψ.

La generalización se deja como ejercicio.

3.1.1 Propiedades del producto tensorial

1.- a ⊗ b 6= 0 si a 6= 0 y b 6= 0.

Demostración. Si a 6= 0 y b 6= 0, existen f : E −→ R lineal y g : F −→ R


lineal respectivamente tales que f (a) 6= 0 y g(b) 6= 0 (sino: f (a) = 0 ∀ f ∈ E ∗
entonces a = 0 pues la forma bilineal hf, ai es no degenerada).

Consideremos ahora la función bilineal p : E ×F −→ R definida por p(x, y) =


f (x)g(y).
p
E × F −→ R
⊗↓ %h .
E⊗F
3.1. TRANSFORMACIONES MULTILINEALES 113

En vista de ⊗2 , existe una función lineal h : E ⊗ F −→ R tal que h ◦ ⊗ = p


esto es,
h(x ⊗ y) = f (x)g(y) para cada (x, y) ∈ E × F .
Luego: h(a ⊗ b) = f (a)g(b) 6= 0. Por lo tanto, a ⊗ b 6= 0.
P
2.- Sea z ∈ E ⊗ F , z 6= 0; entonces z = ri=1 xi ⊗ yi donde {xi } y {yi } son
L.I.

Pr Pr
Demostración. Sea z ∈ E ⊗ F entonces z = i=1 λi wi ⊗ yi = i=1 xi ⊗ y i
donde xi ≡ λi wi ∀ i y r es el mínimo de manera que la descomposición
anterior se cumple.
Si r = 1 entonces x1 6= 0 y y1 6= 0 (por la Propiedad 1), en consecuencia {x1 }
y {y1 } son dos conjuntos de vectores L.I. cada uno.
Supongamos que {xi }ri=1 son L.D. entonces, sin pérdida de generalidad,
r−1
X
xr = λ i xi
i=1

luego,
r−1
X r−1
X r−1
X
z = xi ⊗ yi + xr ⊗ yr = xi ⊗ y i + ( λi xi ) ⊗ yr
i=1 i=1 i=1
r−1
X r−1
X
= xi ⊗ yi + λi (xi ⊗ yr )
i=1 i=1
r−1
X
= xi ⊗ (yi + λi yr )
i=1
r−1
X
= xi ⊗ yei
i=1

lo cual contradice la minimalidad de r. En la misma forma se puede mostrar


que los vectores {yi }ri=1 son L.I. Esto prueba la propiedad.
3.- Sean {aj }rj=1 ⊆ E y {bj }rj=1 un subconjunto de vectores L.I. de F . En-
P
tonces la ecuación rj=1 aj ⊗ bj = 0 implica que aj = 0 ∀ j = 1, . . . , r.
114 CAPÍTULO 3. PRODUCTO TENSORIAL

Demostración. Ya que {bj } es un conjunto L.I. de vectores en F , se pueden


definir g1 , . . . , gr : F −→ R funciones lineales tales que:

gi (bj ) = δij

P
(e.g.: ge : h{b1 , . . . , br }i −→ R tal(que g1 (x) = g1 ( ri=1 λi bi ) = λ1 . Luego:
ge1 (x) , x ∈ h{b1 , . . . , br }i
Sea g1 : F −→ R tal que g1 (x) =
0 , otro caso
entonces g1 (b1 ) = 1 y g1 (bj ) = 0 ∀ j = 2, . . . , r. )

Consideremos ahora la función bilineal


X
F (x, y) = fi (x)gi (y)
i

donde fi : E −→ R son funciones lineales (cualesquiera) en E.

E × F −→ R
⊗↓ %h .
E⊗F

Por ⊗2 , existe h : E ⊗ F −→ R lineal tal que:


X
h(x ⊗ y) = F (x, y) = fi (x)gi (y)
i

luego,

Xr X
h( aj ⊗ bj ) = h(aj ⊗ bj )
j=1 j
XX
= fi (aj )gi (bj )
j i
r
X
= fi (ai ).
i=1
3.1. TRANSFORMACIONES MULTILINEALES 115

Pr Pr
Ahora, por hipótesis: j=1 aj ⊗ bj = 0; por lo tanto, i=1 fi (ai ) = 0.
Como los fi son cualesquiera, elegimos fi ≡ 0 para cada i 6= k (por cada
k = 1, . . . , r fijo), esto da:
fk (ak ) = 0.

Como fn sigue siendo arbitrario, se tiene que ak = 0 (k = 1, . . . , r).

Corolario 95 Si E y F tienen dimensión 1, entonces E ⊗F tiene dimensión


1.

Demostración. Ejercicio.

4.- E ⊗ F ∼
= F ⊗ E (conmutatividad del producto tensorial).

Demostración.
ϕ2
E × F −→ F ⊗ E
ϕ1 ↓ %f
E⊗F
esto es: ϕ1 (x, y) =: x ⊗ y y ϕ2 (x, y) =: y ⊗ x. Luego, debemos demostrar que
ϕ1 = ϕ2 .
Ya que ϕ2 es bilineal, existe f : E ⊗ F −→ F ⊗ E lineal tal que

f ◦ ϕ1 = ϕ2 .

Esto es: f (x ⊗ y) = y ⊗ x.
De la misma forma
ϕ1
E × F −→ E ⊗ F
ϕ2 ↓ %g
F ⊗E
existe g : F ⊗ E −→ E ⊗ F tal que g ◦ ϕ2 = ϕ1 ; esto es:

g(y ⊗ x) = x ⊗ y.
116 CAPÍTULO 3. PRODUCTO TENSORIAL

Entonces:

g ◦ f ◦ ϕ1 = g ◦ ϕ2 = ϕ1 y f ◦ g ◦ ϕ2 = f ◦ ϕ1 = ϕ2

esto es:
g ◦ f ◦ ϕ1 = ϕ1 y f ◦ g ◦ ϕ2 = ϕ2

o equivalentemente:

(g ◦ f )(x ⊗ y) |{z}
= (x ⊗ y) y (f ◦ g)(y ⊗ x) = (y ⊗ x).
(1)

Como im ϕ1 = E ⊗ F se tiene que g ◦ f = I. En efecto: Sea v ∈ E ⊗ F .


P
Entonces v = λi xi ⊗ yi , luego:
X
(g ◦ f )(v) = (g ◦ f )( λ i xi ⊗ y i )
X
= λi (g ◦ f )(xi ⊗ yi )
X
= λi (xi ⊗ yi ) de (1)
= v.

Análogamente: f ◦ g = I. Esto prueba que f (ó g) es 1-1 y sobreyectiva. Por


lo tanto, E ⊗ F ∼
= F ⊗ E.

5.- Unicidad del producto tensorial.


Supongamos que E ⊗F y E ⊗F e son productos tensoriales de E y F . Entonces
E⊗F ∼ = F ⊗ E.

Demostración.
ϕ2
e
E × F −→ E ⊗F
ϕ1 ↓ %f
E⊗F
3.1. TRANSFORMACIONES MULTILINEALES 117

e
luego, ϕ1 (x, y) = x ⊗ y y ϕ2 (x, y) = x⊗y.
Ya que ϕ2 es bilineal, la propiedad de factorización implica que existe f :
e lineal tal que:
E ⊗ F −→ E ⊗F

f ◦ ϕ1 = ϕ2 .

Análogamente:
ϕ1
E × F −→ E ⊗ F
ϕ2↓ %g
e
E ⊗F
e −→ E ⊗F tal que g ◦ϕ2 = ϕ1 . Combinando ambas relaciones
existe g : E ⊗F
se obtiene:

(g ◦ f )(x ⊗ y) = x ⊗ y y e = x⊗y.
(f ◦ g)(x⊗y) e

e se obtiene que f ◦ g = i
Nuevamente, como im ϕ1 = E ⊗ F y im ϕ2 = E ⊗F
y g ◦ f = i, de donde sigue el resultado.

6.- Asociatividad del producto tensorial: (E ⊗ F ) ⊗ G ∼


= E ⊗ (F ⊗ G).

Demostración. Sea z ∈ G fijo. Definamos βz : E × F → E ⊗ (F ⊗ G) por


βz (x, y) = x ⊗ (y ⊗ z). Es claro que βz es bilineal: En efecto,

βz (λx1 + x2 , y) = (λx1 + x2 ) ⊗ (y ⊗ z)
= λx1 ⊗ (y ⊗ z) + x2 ⊗ (y ⊗ z)
= λβz (x1 , y) + βz (x2 , y)
βz (x, λy1 + y2 ) = x ⊗ (λy1 + y2 ⊗ z)
= x ⊗ [λy1 ⊗ z + y2 ⊗ z]
= x ⊗ (λy1 ⊗ z) + x ⊗ (y2 ⊗ z)
= λx ⊗ (y1 ⊗ z) + x ⊗ (y2 ⊗ z)
= λβz (x, y1 ) + βz (x, y2 )
118 CAPÍTULO 3. PRODUCTO TENSORIAL

Por definición de producto tensorial, el siguiente diagrama es conmutativo:

βz
E × F −→ E ⊗ (F ⊗ G)
⊗ ↓ %hz
E⊗F
esto es, existe una única transformación lineal hz : E ⊗ F → E ⊗ (F ⊗ G)
tal que hz ◦ ⊗ = βz , esto es:

hz (x ⊗ y) = βz (x, y) = x ⊗ (y ⊗ z) ∀ x ∈ E, y ∈ F.

Sea ψ : (E ⊗ F ) × G → E ⊗ (F ⊗ G) definida por:

ψ(x ⊗ y, z) = hz (x ⊗ y).

Entonces ψ es bilineal: En efecto,

ψ(λ(x1 ⊗ y1 ) + (x2 ⊗ y2 ), z) = hz (λ(x1 ⊗ y1 ) + (x2 ⊗ y2 ))


= λhz (x1 ⊗ y1 ) + hz (x2 ⊗ y2 )
= λψ(x1 ⊗ y1 , z) + ψ(x2 ⊗ y2 , z)

Además, por unicidad, hλz1 +z2 = λhz1 + hz2 de donde sigue la linealidad en
la segunda componente (Ejercicio).
Ası́, el siguiente diagrama es conmutativo:
ψ
(E ⊗ F ) × G −→ E ⊗ (F ⊗ G)
⊗ ↓ %g
(E ⊗ F ) ⊗ G

esto es, existe una única transformación lineal g : (E ⊗F )⊗G → E ⊗(F ⊗G)
tal que g ◦ ⊗ = ψ, esto es:

g((x ⊗ y) ⊗ z) = ψ(x ⊗ y, z) = hz (x ⊗ y) = x ⊗ (y ⊗ z) (3.1)


3.1. TRANSFORMACIONES MULTILINEALES 119

Sea ahora x ∈ E fijo. Definamos αx : F × G → (E ⊗ F ) ⊗ G por αx (y, z) =


(x ⊗ y) ⊗ z. Claramente αx es bilineal. El siguiente diagrama es ahora
conmutativo:
x α
F × G −→ (E ⊗ F ) ⊗ G
⊗ ↓ %bhx
F ⊗G

esto es, existe una transformación lineal b


hx : F ⊗ G → (E ⊗ F ) ⊗ G tal que
b
hx ◦ ⊗ = αx esto es:

b
hx (y ⊗ z) = αx (y, z) = (x ⊗ y) ⊗ z.

Sea ψb : E × (F ⊗ G) → (E ⊗ F ) ⊗ G definida por

b y ⊗ z) = αx (y ⊗ z).
ψ(x,

Entonces ψb es bilineal y el siguiente diagrama es conmutativo:


b
ψ
E × (F ⊗ G) −→ (E ⊗ F ) ⊗ G
⊗ ↓ % gb
E ⊗ (F ⊗ G)

b
esto es, existe una única gb : E ⊗ (F ⊗ G) → (E ⊗ F ) ⊗ G tal que: gb ◦ ⊗ = ψ,
esto es:
b y ⊗ z) = (x ⊗ y) ⊗ z.
gb(x ⊗ (y ⊗ z)) = ψ(x, (3.2)

Luego, de (3.1) y (3.2) :

(g ◦ gb)(x ⊗ (y ⊗ z)) = g((x ⊗ y) ⊗ z) = x ⊗ (y ⊗ z)

y
(b
g ◦ g)((x ⊗ y) ⊗ z) = gb(x ⊗ (y ⊗ z)) = (x ⊗ y) ⊗ z.

Por lo tanto, g ◦ gb = id y gb ◦ g = id, luego g es un isomorfismo y, por lo tanto,


(E ⊗ F ) ⊗ G ∼= E ⊗ (F ⊗ G).
120 CAPÍTULO 3. PRODUCTO TENSORIAL

Teorema 96 (Reducción de transformaciones bilineales a lineales).


Sean E y F e.v. y E ⊗ F un producto tensorial. Entonces

L(E ⊗ F ; G) ∼
= B(E, F ; G)

para cada espacio vectorial G.

Demostración. Se define φ : L(E ⊗ F ; G) −→ B(E, F ; G) como:

φ(f ) := f ◦ ⊗ ∀ f ∈ L(E ⊗ F ; G)

i.e. φ(f ) : E × F −→ G tal que φ(f )(x, y) = f (x ⊗ y).

Claramente φ es lineal:

φ(λf1 + f2 )(x, y) = (λf1 + f2 )(x ⊗ y)


= λf1 (x ⊗ y) + f2 (x ⊗ y)
= λφ(f1 )(x, y) + φ(f2 )(x, y)
= (λφ(f1 ) + φ(f2 ))(x, y).

i) φ es sobreyectiva.

Sea b ∈ B(E, F ; G), entonces b : E × F −→ G es bilineal. Luego, por ⊗2 ,


existe f : E ⊗ F −→ G tal que es lineal y f ◦ ⊗ = b, esto es, φ(f ) = b.

ii) φ es inyectiva.

Como φ es lineal basta ver que φ(f ) = 0 implica f = 0. En efecto: Sea


φ(f ) = 0, entonces (f ◦ ⊗)(x, y) = 0 ∀ x ∈ E, y ∈ F , esto es: f (x ⊗ y) =
P
0 ∀x ∈ E, y ∈ F . Sea z ∈ E ⊗ F . Entonces z = xi ⊗ yi . Luego:
P
f (z) = f (xi ⊗ yi ) = 0. Por lo tanto, f ≡ 0.
3.1. TRANSFORMACIONES MULTILINEALES 121

Ejercicios
1. Suponga que a ⊗ b 6= 0. Demuestre que a ⊗ b = a0 ⊗ b0 si y sólo si
a0 = λa y b0 = λ−1 b; λ ∈ R, λ 6= 0.

2. Sea (G, ϕ) un producto tensorial de E y F . Sean E1 ≤ E, F1 ≤ F . Sea


ϕ1 : E1 × F1 −→ G la restricción de ϕ a E1 × F1 . Entonces (im ϕ1 , ϕ1 )
es un producto tensorial para E1 y F1 .

3. Sean {ai } y {bi } bases de E y F respectivamente. Entonces {ai ⊗ bj }


es una base de E ⊗ F .

4. Demuestre que

dim B(E, F ; G) = dim E dim F dim G.

5. Sean E1 y E2 subespacios de E. Sea F e.v. de dimensión finita


entonces
(E1 ⊗ F ) ∩ (E2 ⊗ F ) = (E1 ∩ E2 ) ⊗ F.

6. Sea E = E1 ⊕ E2 y F = F1 ⊕ F2 . Entonces

E ⊗ F = E1 ⊗ F1 ⊕ E1 ⊗ F2 ⊕ E2 ⊗ F1 ⊕ E2 ⊗ F2 .

3.1.2 Producto tensorial de transformaciones lineales

Sean E, E 0 , F , F 0 cuatro espacios vectoriales.

Consideremos dos transformaciones lineales :

ϕ : E → E0 ; ψ : F → F 0.
122 CAPÍTULO 3. PRODUCTO TENSORIAL

Queremos definir una transformación lineal

ϕ ⊗ ψ : E ⊗ F → E0 ⊗ F 0

para esto procedemos como ilustra el siguiente diagrama:


p
E × F −→ H
⊗ ↓ %f .
E⊗F
Dados E y F , existe el producto tensorial E ⊗ F . Por definición, sabemos
que dada cualquier función bilineal p : E × F → H, H cualquier espacio
vectorial, existe una única f : E ⊗ F → H tal que f ◦ ⊗ = p (propiedad de
factorización única). Escojamos

p : E × F → E0 ⊗ F 0

definida por p(x, y) = ϕ(x) ⊗ ψ(y).

Claramente p es bilineal. Luego, existe una única función lineal γ : E ⊗ F →


E 0 ⊗ F 0 tal que γ(x ⊗ y) = p(x, y).

Se define: γ ≡ ϕ ⊗ ψ. Luego, por definición:

(ϕ ⊗ ψ)(x ⊗ y) = ϕ(x) ⊗ ψ(y)

y se llama el producto tensorial de las transformaciones lineales ϕ y ψ.

3.1.3 Transformaciones Multilineales

Sea E un espacio vectorial y consideremos

T k (E) := {f : E
| × ·{z
· · × E} → R / F es multilineal }
k−veces
3.1. TRANSFORMACIONES MULTILINEALES 123

el conjunto de todas las funciones que son multilineales. Los elementos de


T k (E) los llamaremos tensores de orden k.

Problema: Definir un producto en T k (E) y estudiar este espacio.


Recordemos el isomorfismo:

T k (E) ∼
= L(⊗k E; R)

definido en la sección anterior. Aquı́, ⊗k = E {z· · · ⊗ E}.


| ⊗E⊗
k−veces
Consideremos ahora dos transformaciones lineales:

T : ⊗k E → R S : ⊗l E → R.

De acuerdo a la sección anterior, podemos definir una única transformación


lineal T ⊗ S : ⊗k E ⊗ ⊗l E → R ⊗ R, esto es:

T ⊗ S : ⊗k+l E → R,

tal que (T ⊗ S)(x ⊗ y) = T (x)S(y). Notar que T (x) ⊗ T (y) = T (x)T (y) pues
se trata del producto tensorial en R y R ⊗ R ∼
= R.
Más precisamente,

(T ⊗ S)(x1 ⊗ · · · ⊗ xk ⊗ y1 ⊗ · · · ⊗ yl ) = T (x1 ⊗ · · · ⊗ xk )S(y1 ⊗ · · · ⊗ yl )

donde T ⊗ S ∈ L(⊗k+l E; R).


Ya que L(⊗k+l E; R) ∼
= T k+l (E), lo anterior se puede traducir en términos
de funciones multilineales, esto es, se puede definir un (único) producto de
funciones multilineales (o tensores de orden k).
Más precisamente, si T ∈ T k (E) y S ∈ T l (E), entonces la definición

(T ⊗ S)(x1 , . . . , xk , y1 , . . . , yl ) = T (x1 , . . . , xk )S(y1 , . . . , yl ) (∗)

produce una función T ⊗S ∈ T k+l (E) llamada el producto de tensores T y S .


124 CAPÍTULO 3. PRODUCTO TENSORIAL

Ejemplos de Tensores
1. Una función determinante es un tensor.
En efecto, basta recordar la definición de la sección 1.3: Es una función
∆ : E × · · · × E → R multilineal y antisimétrica.
2. Un producto interior es un tensor de orden 2.
En efecto: Recordemos de la sección 1.1 que un producto interior en una fun-
ción h, i : E × E → R bilineal, que es además simétrica y definida positiva.

Proposición 97 (Propiedades del producto de Tensores)

a) (S1 + S2 ) ⊗ T = S1 ⊗ T + S2 ⊗ T
b) S ⊗ (T1 + T2 ) = S ⊗ T1 + S ⊗ T2
c) (aS) ⊗ T = S ⊗ (aT ) = a(S ⊗ T )
d) (S ⊗ T ) ⊗ U = S ⊗ (T ⊗ U )

Demostración. Usando la definición (∗), se probará (a). Las partes (b), (c)
y (d) quedan de ejercicio.

[(S1 + S2 ) ⊗ T ](x1 , x2 , . . . , xk , y1 , y2 , . . . , yl )
= (S1 + S2 )(x1 , . . . , xk )T (y1 , . . . , yl )
= [S1 (x1 , . . . , xk ) + S2 (x1 , . . . , xk )]T (y1 , . . . , yl )
= S1 (x1 , . . . , xk )T (y1 , . . . , yl ) + S2 (x1 , . . . , xk )T (y1 , . . . , yl )
= (S1 ⊗ T )(x1 , . . . , xk , y1 , . . . , yl ) + (S2 ⊗ T )(x1 , . . . , xk , y1 , . . . , yl )
= [(S1 ⊗ T ) + (S2 ⊗ T )](x1 , . . . , xk , y1 , . . . , yl )

Supongamos que E tiene dimensión finita. El siguiente resultado nos dice


como es T k (E) internamente:
3.1. TRANSFORMACIONES MULTILINEALES 125

Teorema 98 Sea {e1 , . . . , en } base de E y sea {f1 , . . . , fn } la base dual (esto


es, la base de L(E; R), que verifica fi (ej ) = δij ). Entonces el conjunto de
todos los productos tensoriales de k-factores:

fi1 ⊗ fi2 ⊗ · · · ⊗ fik ; 1 ≤ i1 , . . . , ik ≤ n

es una base de T k (E), que además tiene dimensión nk .

Demostración. Es claro que, por definición

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik )(x1 , . . . , xk ) = fi1 (x1 )fi2 (x2 ) · · · fik (xk )

es una función k-lineal, esto es, un elemento de T k (E).


Además

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik )(ej1 , ej2 , . . . , ejk ) = fi1 (ej1 )fi2 (ej2 ) · · · fik (ejk )
= δi1 ,j1 δi2 ,j2 · · · δik ,jk
(
1 si j1 = i1 , j2 = i2 , . . . , jk = ik ,
= (∗)
0 otro caso

Veamos que el conjunto de vectores genera T k (E). Sea T ∈ T k (E). Entonces


T : E × · · · × E → R es multilineal. Sean w1 , . . . , wk ∈ E; entonces para
cada wj :
n
X
wi = aij ej (∗∗).
j=1

Luego :
n
X n
X
T (w1 , . . . , wk ) = T ( a1j1 ej1 , . . . , akjk ejk )
j1 =1 jk =1
n
X
= a1j1 · · · akjk T (ej1 , . . . , ejk ) (∗ ∗ ∗)
j1 ,··· ,jk =1

Ahora, de (∗) y (∗∗) notemos que:

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik )(w1 , . . . , wk ) = fi1 (w1 ) · · · fik (wk )


126 CAPÍTULO 3. PRODUCTO TENSORIAL

donde, por ejemplo,

Xn n
X
fi1 (w1 ) = fi1 ( a1j ej ) = a1j fi1 (ej ) = a1i1 .
j=1 j=1

Ası́,
(fi1 ⊗ fi2 ⊗ · · · ⊗ fik )(w1 , . . . , wk ) = a1i1 a2i2 · · · akik ;

por lo tanto insertando esto en (∗ ∗ ∗) se obtiene:


n
X
T (w1 , . . . , wk ) = T (ei1 , . . . , eik )(fi1 ⊗ fi2 ⊗ · · · ⊗ fik )(w1 , . . . , wk )
i1 ,...,ik =1

luego ,
n
X
T = T (ei1 , . . . , eik )(fi1 ⊗ fi2 ⊗ · · · ⊗ fik ).
i1 ,...,ik =1

Esto prueba que el conjunto genera T k (E).


Veamos ahora que el conjunto es L.I.
Supongamos que existen escalares ai1 ai2 · · · aik tales que
n
X
ai1 ai2 · · · aik (fi1 ⊗ fi2 ⊗ · · · ⊗ fik ) = 0.
i1 ,...,ik =1

Aplicando el vector de la base (ej1 , . . . , ejk ) se obtiene de (∗) que todos los
elementos de la suma son cero excepto cuando j1 = i1 , j2 = i2 , . . . , jk = ik ,
esto es:
aj1 , aj2 , . . . , ajk = 0.

Esto prueba que el conjunto es L.I.


Se deja como ejercicio para el lector probar que esta base tiene nk ele-
mentos.
3.1. TRANSFORMACIONES MULTILINEALES 127

3.1.4 Producto Exterior

Consideremos el tensor ”determinante”∆ ∈ T k (E). Este tensor es impor-


tante pues, como vimos, permite entre otros definir el producto cruz en es-
pacios de dimensión 3 y la noción de orientación de un espacio de dimensión
finita.
Recordemos que, por definición, un determinante no sólo es una función
multilineal, sino también alternada. Consideremos el conjunto (de todos los
determinantes)

Λk (E) = {f : E × E × · · · × E → R / f es multilineal y alternada }.

Es claro que Λk (E) es un subespacio de T k (E). A fin de estudiar de mejor


manera esta parte de T k (E) se define la siguiente función:

Alt : T k (E) → T k (E)

como
1 X
Alt(T )(v1 , . . . , vk ) = sgn σT (vσ(1) , . . . , vσ(k) )
k! σ∈S
k

donde sgn σ es +1 si la permutación σ es par y es −1 si es impar. Además, Sk


es el conjunto de todas las permutaciones del conjunto de números {1, 2, . . . , k}.

Teorema 99
(1) Si T ∈ T k (E) entonces Alt(T ) ∈ Λk (E).
(2) Si w ∈ Λk (E) entonces Alt(w) = w.
(3) Si T ∈ T k (E) entonces Alt(Alt(T )) = Alt(T ).

A fin de tener una mejor visualización del Teorema anterior, consideremos el


caso k = 1 y k = 2.
Para k = 1 se tiene: Alt : T 1 (E) → T 1 (E) tal que Alt(T )(v) = T (v); esto
es,
Alt(T ) = T o Alt ≡ Id.
128 CAPÍTULO 3. PRODUCTO TENSORIAL

Para k = 2 se tiene: Alt : T 2 (E) → T 2 (E) tal que

1
Alt(T )(v1 , v2 ) = [T (v1 , v2 ) − T (v2 , v1 )].
2
En lo que sigue probaremos el teorema en el caso k = 2. El caso general
queda de ejercicio para el lector.
(1) Sea T ∈ T 2 (E) entonces es claro que Alt(T ) está en T 2 (E) (i.e. es
bilineal) pues, por ejemplo,

1
Alt(T )(λv1 + w1 , v2 ) = [T (λv1 + w1 , v2 ) − T (v2 , λv1 + w1 )]
2
1
= [λT (v1 , v2 ) + T (w1 , v2 ) − λT (v2 , v1 ) + T (v2 , w1 )]
2
1 1
= λ [T (v1 , v2 ) − T (v2 , v1 )] + [T (w1 , v2 ) − T (v2 , w1 )]
2 2
= λAlt(T )(v1 , v2 ) + Alt(T )(w1 , v2 )

Veamos que además es alternada: Alt(T )(v1 , v2 ) = −Alt(T )(v2 , v1 ).


En efecto:
1
Alt(T )(v2 , v1 ) = [T (v2 , v1 ) − T (v1 , v2 )]
2
1
= − [T (v1 , v2 ) − T (v2 , v1 )] = −Alt(T )(v1 , v2 ).
2
(2) Sea w ∈ Λ2 (E). Entonces

1
Alt(T )(w)(v1 , v2 ) = [w(v1 , v2 ) − w(v2 , v1 )]
2
1
= [2w(v1 , v2 )] pues w es alternada ssi w(v1 , v2 ) = −w(v2 , v1 )
2
= w(v1 , v2 ).
Por lo tanto, Alt(w) = w.

(3) Sea T ∈ T 2 (E). Entonces por (1) w := Alt(T ) ∈ Λ2 (E). Luego, por (2):

Alt(Alt(T )) = Alt(w) = w = Alt(T ).


3.1. TRANSFORMACIONES MULTILINEALES 129

El problema siguiente es determinar la dimensión de Λk (E). Para ello se


necesitará un teorema análogo al visto para el caso T k (E). Por esto, necesi-
tamos definir un producto en Λk (E), el cual llamaremos producto exterior, y
que se define como sigue:
Dados w ∈ Λk (E) y η ∈ Λl (E), se define ω ∧ η ∈ Λk+l (E) como:

(k + l)!
ω ∧ η := Alt(ω ⊗ η).
k!l!
Observaciones:
1) Note que, efectivamente, ω ∧ η ∈ Λk+l (E) gracias a que por el Teorema
anterior parte (1), si ω ⊗ η ∈ T k+l (E) entonces Alt(ω ⊗ η) ∈ Λk+l (E).
2) El producto ω ⊗ η no sirve pues no está en Λk+l (E) necesariamente.

Proposición 100 (Propiedades del Producto Exterior)

a) (ω1 + ω2 ) ∧ η = ω1 ∧ η + ω2 ∧ η
b) ω ∧ (η1 + η2 ) = ω ∧ η1 + ω ∧ η2
c) aω ∧ η = ω ∧ aη = a(ω ∧ η)
d) ω ∧ η = (−1)kl η ∧ ω.

Probaremos la propiedad (a), el resto queda de ejercicio.

(k + l)!
(ω1 + ω2 ) ∧ η = Alt((ω1 + ω2 ) ⊗ η)
k!l!
(k + l)!
= Alt(ω1 ⊗ η + ω2 ⊗ η)
k!l!
(k + l)! (k + l)!
= Alt(ω1 ⊗ η) + Alt(ω2 ⊗ η) (Ejercicio)
k!l! k!l!
= ω1 ∧ η + ω2 ∧ η.
130 CAPÍTULO 3. PRODUCTO TENSORIAL

Teorema 101
(1) Si S ∈ T k (E), T ∈ T l (E) y Alt(S) = 0, entonces

Alt(S ⊗ T ) = Alt(T ⊗ S) = 0.

(2) Alt(Alt(ω ⊗ η) ⊗ θ) = Alt(ω ⊗ η ⊗ θ) = Alt(ω ⊗ Alt(η ⊗ θ))


(3) Si ω ∈ Λk (E), η ∈ Λl (E) y θ ∈ Λm (E) entonces

(k + l + m)!
(ω ∧ η) ∧ θ = ω ∧ (η ∧ θ) = Alt(ω ⊗ η ⊗ θ)
k!l!m!

Demostración. Veámoslo para el caso k = l = 1


(1)
1
Alt(S ⊗ T )(v1 , v2 ) = [(S ⊗ T )(v1 , v2 ) − (S ⊗ T )(v2 , v1 )]
2
1
= [S(v1 )T (v2 ) − S(v2 )T (v1 )]
2
Como, Alt(S)(v) = S(v) = 0 se obtiene que Alt(S⊗T )(v1 , v2 ) = 0. Análogamente
se demuestra que Alt(T ⊗ S) = 0.
Las partes (2) y (3) quedan de ejercicio para el lector.

Teorema 102 Sea {e1 , . . . , en } base de E y {f1 , . . . , fn } base dual. El con-


junto
fi1 ∧ fi2 ∧ · · · ∧ fik 1 ≤ i1 < i2 < · · · < ik ≤ n

es una base para Λk (E), que tiene dimensión:


à !
n n!
= .
k k!(n − k)!

Demostración. Ejercicio.
Bibliografı́a

[1] W. H. Greub, Linear Algebra, Springer-Verlag, vol. 97, Berlin-


Heidelberg, 1967.

[2] W. H. Greub, Multilinear Algebra, Springer-Verlag, vol.136, Berlin-


Heidelberg, 1967.

131

You might also like