Professional Documents
Culture Documents
Giuseppe i Piero
20-2-2005
2
Índice general
3. Aplicaciones de la teorı́a 65
3.1. Sistemas de ecuaciones lineales. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . 65
3.2. Máximos y mı́nimos bajo condiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3. Longitudes, áreas y volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.4. Ejemplos en Fı́sica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3
4 ÍNDICE GENERAL
Capı́tulo 1
5
6 Capı́tulo 1. Álgebra Lineal Tensorial
Misión cumplida”.
1.1 Si establecemos en Z la relación de equivalencia n ≡ m si y sólo si n − m es múltiplo de 5,
tendremos que n̄ = m̄ si y sólo n − m es múltiplo de 5. Si identificamos en Z cada entero con sus
equivalentes, tenemos sólo cinco elementos distintos, es decir, Z̄ = {0̄, 1̄ . . . , 4̄}.
1.2 Sea A un anillo. Dado un ideal I ⊂ A, establezcamos la siguiente relación de equivalencia:
a ∈ A es equivalente a a0 ∈ A si y sólo si a − a0 ∈ I, es decir, si y sólo si existe algún i ∈ I de modo
que a = a0 + i. En este caso, Ā := {ā, a ∈ A, de modo que ā = ā0 si y sólo si a − a0 ∈ I} se denota
A/I. Resulta que A/I tiene una estructura natural de anillo, definiendo la suma y el producto como
sigue
ā + b̄ := a + b ā · b̄ := a · b
el elemento neutro para la suma es 0̄ y para el producto 1̄.
2. Dado el semianillo de números naturales N, definamos o construyamos el anillo de los número
enteros Z. Para ello, en Matemáticas, no podremos hablar de grados bajo cero ni de deudas como se
hace con los niños pequeños. Antes de empezar a construir Z, cualquiera que sea su construcción o
definición, sabrı́amos decir si n − m es igual a n0 − m0 (para n, m, n0 , m0 ∈ N), sabrı́amos sumar,
multiplicar etc. Basta con saber esto, es decir, en saber cómo se comporta Z, para que un matemático
sepa ya definirlos, gracias a la palabra sea: “Sea Z el conjunto de parejas de números naturales (n, m),
que preferimos denotar n−m, donde diremos que n−m es igual a n0 −m0 si n+m0 = m+n0 (observemos
que con esta definición n − m = n − m, que si n − m = n0 − m0 entonces n0 − m0 = n − m, y que si
n − m = n0 − m0 y n0 − m0 = n00 − m00 entonces n − m = n00 − m00 ). Definido queda Z, ¿cómo definimos
la suma? (n − m) + (n0 − m0 ) := (n + n0 ) − (m + m0 ). Defina el lector el producto”. Más ejemplos.
3. Hemos definido ya el anillo de los números enteros Z, definamos el cuerpo de los números
racionales Q. En Matemáticas no podemos hablar de pasteles y porciones de pasteles, como a los niños.
n n0 0 0
Pero antes de empezar a construir Q, sabrı́amos decir cuándo m es igual a m 0 (n, m, n , m ∈ Z) y
sabemos sumar número racionales y multiplicarlos. No necesitamos nada más, salvo la palabra “sea”:
n
Sea Q el conjunto de parejas de números enteros (n, m), que preferimos denotar m , donde diremos
n0 0 0
que m es igual a m0 si existen r, r0 6= 0 tales que rm y r0 m0 tienen el mismo numerador y denominador
n rn r n
n n n n0 n0 n n n0 n0 n00
(observemos que m = m , que si m = m 0 entonces m0 = m , y que si m = m0 y m0 = m00 entonces
n n00 n n0 m0 n+mn0
m = m00 ). Definido queda Q ¿cómo definimos la suma? m + m0 := mm0 . Defina el lector el
producto. Más ejemplos.
3.1 Sea A un anillo y S ⊂ A, un subconjunto que cumpla 1 ∈ S y si s, s0 ∈ S entonces s · s0 ∈ S.
Queremos definir el anillo (que denotaremos por AS ) formado por las fracciones a/s, a ∈ A, s ∈ S.
Obviamente, queremos que se cumpla que as = ta ts , para todo t ∈ S. No hay mayor problema, digamos
que son equivalentes y a los equivalentes hagámoslos iguales:
a a a0
AS := { , con a ∈ A y s ∈ S | = 0 si existen t, t0 ∈ S tales que las fracciones
s s s
ta t0 a0
y 0 0 tienen el mismo numerador y denominador }
ts ts
¿Cómo definimos la suma? as + bt := at+bs st ¿Y el producto? as · bt := ab
st .
4. Hemos definido Q, definamos ahora R. Aquı́ a los niños se les habla de los números reales
de un modo muy aproximado a lo que hacemos en Matemáticas (la construcción de número real en
Matemáticas es la objetivación formal de la experiencia fı́sica de aproximación (interminable)). Se les
dice algo ası́ como: Vamos a ver cuánto mide media circunferencia. Mido y veo que es casi 3, pero si
preciso más es 3, 1, si preciso más es 3, 14 y ası́ sucesivamente nos va saliendo que mide 3, 141592... con
infinitas cifras infinitesimales. Ası́, nos decı́an que los números reales son los números con infinitas
1.2. Espacios vectoriales. Espacio vectorial dual 7
cifras decimales (después nos decı́an que 0, 999999999.... era el mismo número que 1 ¡Identificábamos
dos números equivalentes!). La construcción que damos en Matemáticas de los números reales es esen-
cialmente la misma que la que damos para completar cualquier espacio métrico (como la construcción
de Q a partir de Z, es la misma esencialmente que la que damos para construir AS a partir de A y
S). Tenemos claro cuando una sucesión de números racionales se aproximan a algo 1 , es decir, defin-
imos primero qué es una sucesión de Cauchy. Tenemos claro también, cuándo dos aproximaciones
son iguales o equivalentes (cuando la diferencia de las dos sucesiones de Cauchy se aproximen a 0).
Ası́ pues, dar un número real equivale a dar las aproximaciones a él, siempre que identifiquemos estas
aproximaciones. Nos basta con esto para definir R, salvo la palabra sea: “Sea R el conjunto de todas las
sucesiones de Cauchy, donde diremos que dos sucesiones de Cauchy son iguales si son equivalentes”.
Definido queda R.
2. λ · (e + v) = λ · e + λ · v, ∀λ ∈ k, e, v ∈ E
3. (λ + µ) · e = λ · e + µ · e ∀λ, µ ∈ k, e ∈ E
4. (λ · µ) · e = λ · (µ · e), ∀λ, µ ∈ k, e ∈ E
5. 1 · e = e, ∀e ∈ E.
se aproximen a algo realmente existente es otra cuestión. Ese algo es una abstracción, sin embargo suele pensarse que
este algo es muy real y la aproximación una abstracción matemática, pero esto es otro tema...
8 Capı́tulo 1. Álgebra Lineal Tensorial
Las aplicaciones que conservan la estructura de espacio vectorial (“los morfismos de la categorı́a
de k-espacios vectoriales”) son las aplicaciones lineales. Con precisión: Sean E, E 0 dos k-espacios
vectoriales,
2. Definición : Una aplicación T : E → E 0 es un morfismo de k-espacios vectoriales (o aplicación
k-lineal ) si
T (e + v) = T (e) + T (v) y T (λ · e) = λ · T (e)
para cualesquiera e, v ∈ E, λ ∈ k.
Es claro que la composición T1 ◦ T2 : E → G de dos aplicaciones lineales T2 : E → F , T1 : F → G,
es una aplicación lineal.
3. Definición : Una aplicación lineal T : E → E 0 es un isomorfismo si existe otra aplicación lineal
S : E 0 → E tal que T ◦ S = IdE 0 , S ◦ T = IdE .
T es un isomorfismo de espacios vectoriales si y sólo si es una aplicación biyectiva (lineal).
4. Definición : Decimos que F ⊂ E es un subespacio vectorial de E si f + f 0 ∈ F y λ · f ∈ F , para
todo f, f 0 ∈ F y λ ∈ k.
F con la suma y producto por escalares es un espacio vectorial y la inclusión F ⊂ E es una
aplicación k-lineal. Si Fi son subespacios vectoriales de E entonces ∩i Fi es un subespacio vectorial de
E.
Sea E un espacio vectorial y F ⊂ E un subespacio vectorial. Consideremos la relación de equiva-
lencia que dice que dos vectores e1 , e2 ∈ E son equivalentes si y sólo si difieren en un vector de F (los
vectores de F son equivalentes a 0). Si identificamos cada vector de E con sus equivalentes, obtenemos
el conjunto que denotamos E/F , que es el siguiente
Es fácil comprobar que Ker T es un subespacio vectorial de E. T (e) = T (v) si y sólo si T (e) − T (v) =
T (e − v) = 0, es decir, e − v ∈ Ker T . Es decir, T (e) = T (v) si y sólo si existe un e0 ∈ Ker T tal que
v = e + e0 . Por tanto, T es inyectiva si y sólo si Ker T = 0.
La aplicación T̄ : E/ Ker T → E 0 , T̄ (ē) := T (e), está bien definida, pues si ē = v̄ existe un
e ∈ Ker T tal que v = e + e0 y T (v) = T (e) + T (e0 ) = T (e) (luego T̄ (v̄) = T̄ (ē), como ha ser si
0
Im T := T (E) := {T (e) ∈ E 0 , e ∈ E}
T / E0 / T (e)
E O _e O
π i
_
E/ Ker T
T̄ / Im? T ē / T̄ (ē) = T (e)
∼
hCi = {e ∈ E | e = λ1 · c1 + · · · + λn cn , ci ∈ C, λi ∈ k, n ∈ N}
Demostración. Voy a suponer que E es finito generado, para no embarullar al lector con la teorı́a de
cardinales, lema de Zorn, etc.
Supongamos, pues, que E = he1 , . . . , en i. Sea I ⊂ {1, . . . , n} un subconjunto máximo con la
condición de que los vectores {ei }i∈I sean linealmente independientes. Obviamente I 6= ∅, pues si I = ∅
entonces ei = 0 para todo i y E = 0. Veamos que los vectores {ei }i∈I forman una base de E. Tenemos
que probar que hei ii∈I = E. DadoPej , 1 ≤ j ≤ n, si ej ∈ / hei ii∈I entonces {ej , ei }i∈I serı́an linealmente
independientes, pues si λj · ej + i λi ei = 0 entonces: 1. Si λj 6= 0 tendremos que ej = − i λλji · ei
P
P
y ej ∈ hei ii∈I , contradicción. 2. Si λj = 0, entonces i λi ei = 0 y entonces λi = 0, para todo
i ∈ I, pues los vectores {ei }i∈I son linealmente independientes. En conclusión, λj = λi = 0 para
todo i, luego {ej , ei }i∈I son linealmente independientes. Ahora bien, por la maximalidad de I, esto es
contradictorio. En conclusión, ej ∈ hei ii∈I , para todo 1 ≤ j ≤ n. Por tanto, E = he1 , . . . , en i ⊆ hei ii∈I
y E = hei ii∈I .
Veamos que todas las bases tienen el mismo número de vectores. Sea n el número de vectores de
una base (hay muchas) con el mı́nimo número de vectores. Voy a proceder por inducción sobre n. Si
n = 1, entonces E = hei para cierto vector no nulo e. Dados dos vectores no nulos cualesquiera e01 , e02
tendremos que e01 = λ1 · e y e02 = λ2 · e, con λ1 , λ2 6= 0, entonces λ11 · e1 + −1 λ2 · e2 = e − e = 0, luego e1
0
y e02 no son linealmente independientes. En conclusión, las bases de E han de estar formadas todas
por un único vector.
Supongamos que el teorema es cierto hasta n − 1 ≤ 1, veamos que P es cierto para n. Sea aho-
ra {e1 , . . . , en } y {e01 , . . . , e0m } dos bases de E. Tenemos que e1 = 0
i λi ei , reordenando la base
{e01 , . . . , e0m }, podemos suponer que λ1 6= 0. Pruebe el lector que {ē2 , . . . , ēn } y {ē02 , . . . , ē0m } son
bases de E/he1 i (le costará un poco más ver que la segunda lo es). Obviamente, el número de vectores
10 Capı́tulo 1. Álgebra Lineal Tensorial
de una base de E/he1 i con el número mı́nimo de vectores es menor que n. Por inducción sobre n,
tendremos que n − 1 = m − 1, luego n = m.
Si k es un anillo (y no un cuerpo) no es cierto en general que los k-módulos tengan bases. Por
ejemplo el Z-módulo Z/5Z no tiene bases, pues para todo n̄ ∈ Z/5Z, 5 · n̄ = 0. Los k-módulos que
tienen bases se denominan k-módulos libres. k n es un k-módulo libre y una base de él es la base
estándar.
Si {ei }i∈I son linealmente independientes y {ēj }j∈J es una base P de E/heP i ii∈I entonces {ei , ej }i∈I,j∈J
es una base de E: Son linealmente independientes, pues si i λi e i + j λj ej = 0 entonces 0 =
P P P P
i λi ei + j λj ej = j λj ēj , luego λj = 0, paraP todo j, luego P i λi ei = 0 y λi = 0 para todo i.
0 0
Generan, pues dado e ∈ E, tendremos que ē = j λ j ē j , luego e = j λj ej + e , con e ∈ hei ii∈I , es
0
P P P
decir, e = i λi ei y e = j λj ej + i λi ei .
Como consecuencias tenemos que si F es un subespacio vectorial de E entonces dim E = dim F +
dim E/F , y todo sistema de vectores linealmente independiente se puede ampliar a un sistema de
vectores que formen base. Q
Dado un conjunto de espacios vectoriales {Ei }i∈I , el conjunto i∈I Ei es de modo natural un
espacio vectorial:
(ei )i∈I + (e0i )i∈I := (ei + e0i )i∈I λ · (ei )i∈I := (λ · ei )i∈I
Q
Diremos que i Ei es el producto directo de los espacios vectoriales Ei .
Definimos la suma directa de los espacios vectoriales Ei , que denotamos ⊕i∈I Ei , como
Y
⊕i∈I Ei = {(ei )i∈I ∈ Ei : todos los ei salvo un número finito son nulos}
i∈I
es epiyectivo; son linealmente independientes si y sólo si es inyectivo, y son una base si y sólo si es un
isomorfismo. Por tanto, todo espacio vectorial es isomorfo
Q a un ⊕i∈I k, pues siempre existen bases.
Observemos que si #I < ∞ entonces ⊕i∈I Ei = i∈I Ei .
Si F, F 0 son dos subespacios vectoriales de E se denota F +F 0 como el mı́nimo subespacio vectorial
que contiene a F y F 0 . Es fácil probar que
F + F 0 = {f + f 0 ∈ E, f ∈ F, f 0 ∈ F 0 }
El morfismo natural F ⊕ F 0 → F + F 0 , (f, f 0 ) 7→ f + f 0 es epiyectivo y es inyectivo si y sólo si
F ∩ F 0 = 0. Se dice que E es la suma directa de dos subespacios F, F 0 si y sólo si F ∩ F 0 = 0 y
F + F 0 = E, es decir, el morfismo F ⊕ F 0 → E, (f, f 0 ) 7→ f + f 0 es un isomorfismo, es decir, todo
vector e ∈ E se escribe de modo único como suma de un vector f ∈ F y otro vector f 0 ∈ F 0 .
Sea Homk (E, E 0 ) el conjunto de aplicaciones lineales de E en E 0 , que es un espacio vectorial de
modo natural, con la suma y producto por escalares siguientes:
(T + T 0 )(e) := T (e) + T 0 (e) y (λ · T )(e) := λ · T (e)
Se cumple que el morfismo
Y Y
Homk (E, Ei0 ) → Homk (E, Ei0 ), (Ti )i∈I 7→ T, T (e) := (Ti (e))i∈I
i∈I i
1.2. Espacios vectoriales. Espacio vectorial dual 11
es un isomorfismo de morfismo inverso T 7→ (πi ◦ T )i∈I , con πi : j Ej0 → Ei0 , πi ((e0j )j∈I ) := e0i .
Q
Se cumple que el morfismo
Y X
Homk (Ei , E 0 ) → Homk (⊕i∈I Ei , E 0 ), (Ti )i∈I 7→ T, T ((ei )i∈I ) := Ti (ei )
i i
i
es isomorfismo de morfismo inverso T 7→ (Ti )i∈I , Ti (ei ) := T ((0, . . . , ei , . . . , 0)).
0
Sea {ei }i∈I una base de E. Toda aplicación Plineal T : E → EP, está determinada por los valores
T (ei ), i ∈ I, pues dado e ∈ E entonces e = i λi ei y T (e) = P i λi T (ei ). Recı́procamente, dados
vi ∈ E 0 , i ∈ I, la aplicación lineal S : E → E 0 definida por S(e) := i λi vi , para e = i λi ei , cumple
P
que S(ei ) = vi . Formalmente,
Y Y
Homk (E, E 0 ) = Homk (⊕i∈I k, E 0 ) = Homk (k, E 0 ) = E 0 , T 7→ (T (ei ))i∈I
i∈I i∈I
{e0j } 0 0
P
Si es una base de E , entonces T (ei ) = para ciertos λij ∈ k (fijado i, todos los
j λji ej ,
λji son nulos salvo un número finito) y existe una correspondencia biunı́voca entre T y las uplas de
escalares (λji )(i,j)∈I×J , “caja” de números que es denominada matriz asociada a T en las bases {ei }
y {e0j } de E y E 0 respectivamente.
“Ası́ pues, T , que es una transformación de un espacio en otro que supera fácilmente nuestra
capacidad de ideación geométrica, está determinada por unos cuantos escalares λij ∈ k, que pueden
ser mecánicamente tratados”.
Fijada una base P {e1 , . . . , en } (por sencillez digamos que n < ∞) de un espacio vectorial E, dado
un vector e = i λi ei suele escribirse de modo abreviado e = (λ1 , . . . , λn ) (es decir, tenemos un
0 0 0
isomorfismo E = k n ). Igualmente, dada P una base P {e1 , . . . , em }Pde EP, escribiremos P TP(e) = e0 =
0 0 0 0
(λ1 , . . . , λmP), ahora bien, T (e) = T ( i λi ei ) = i λi T (ei ) = i λi ( j λji ej ) = j( i λji λi )ej ,
0
luego λj = i λji λi , para todo j. Ecuaciones que escribimos de modo abreviado
0
λ1 λ11 · · · λ1n λ1
.. .. .. · ..
=
. . . .
λ0m λm1 ··· λmn λn
0
o de modo mucho más abreviado e = T (e).
Si T : E → E 0 es una aplicación lineal de matriz asociada (λji ), entonces la matriz asociada a λ · T
es (λ · λji ). Escribiremos
λ · (λji ) = (λ · λji )
y diremos que es el producto de una matriz por un escalar.
Si T, T 0 : E → E 0 son dos aplicaciones lineales de matrices asociadas (λji ) y (λ0ji ) entonces la
matriz asociada a T + T 0 es (λji + λ0ji ). Escribiremos
(λji ) + (λ0ji ) = (λji + λ0ji )
y diremos que es la suma de matrices.
Sea T : E → E 0 y S : E 0 → E 00 dos aplicaciones lineales. Sea {ei }i∈I , {e0j }j∈J y {e00k }k∈K bases de
E, E 0 y E 00 respectivamente. Sea P (λji ) 0y (µkj
P) las matrices respectivas
P de T 00y S. Calculemos la matriz
0 00
P P P
(cki ) de S ◦ T : (S ◦ T )(e
Pi ) = S( λ
j ji je ) = λ
j ji S(e j ) = λ
j ji · ( µ e
k kj k ) = k ( j kj · λji ) · ek .
µ
En conclusión, cki = j µkj · λji . Seguiremos la notación,
(µkj ) ◦ (λji ) = (cki )
y diremos que (cki ) es el producto de las matrices (µkj ) y (λji ).
12 Capı́tulo 1. Álgebra Lineal Tensorial
6. Proposición : Una aplicación lineal T : E → E 0 es inyectiva si y sólo si aplica una (o toda) base
en un sistema de vectores linealmente independientes. T es epiyectiva si y sólo si aplica una base (o
toda) en un sistema generador. T es un isomorfismo si y sólo si aplica una base (o toda) en una base.
7. Definición : El espacio vectorial formado por el conjunto de aplicaciones lineales de un k-espacio
vectorial E en k se denomina espacio vectorial dual de E y se denota E ∗ , es decir,
E ∗ := Homk (E, k)
Demostración. Sea {e1 , . . . , en } una base de E y {w1 , . . . , wn } la base dual. Es inmediato que {ẽ1 , . . . , ẽn }
es la base dual de {w1 , . . . , wn }. La aplicación canónica aplica la base {e1 , . . . , en } en la base {ẽ1 , . . . , ẽn }
y es un isomorfismo.
Si {e1 , . . . , en } y {e01 , . . . , e0m } son bases de E y E 0 y (λji ) es la matriz asociada a T en estas P bases,
calculemos la matriz (λ∗ij ) de T ∗ , en las bases duales {w1 , . . . , wn }, {w10 , . . . , wm 0
}: T ∗ (wj0 ) = i λ∗ij wi .
Entonces,
X
λ∗ij = T ∗ (wj0 )(ei ) = wj0 (T (ei )) = wj0 ( λki e0k ) = λji
k
∗
que se expresa diciendo que la matriz de T es la transpuesta de la matriz de T .
(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0
λe ⊗ e0 = e ⊗ λe0
e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02
y no quiero imponer ninguna condición más (salvo las que se deriven de estas condiciones). Esto es
muy fácil, con la palabra sea.
Hablemos con todo rigor.
Sean E y E 0 dos k-espacios vectoriales. Sea M el Z-módulo libre de base {e ⊗ e0 }e∈E,e0 ∈E 0 . Es
decir,
M := ⊕ Z · e ⊗ e0
e∈E,e0 ∈E 0
las igualdades
(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0
e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02 (∗)
λe ⊗ e0 = e ⊗ λe0
Calculemos las aplicaciones lineales de E ⊗ E 0 en otro espacio vectorial V . Como E ⊗ E 0 = M/N ,
dar una aplicación lineal ϕ : E⊗E 0 → V equivale a dar una aplicación lineal φ : M → V que se anule en
N (de modo que ϕ(e⊗e0 ) = φ(e ⊗ e0 )). Ahora bien, M es un Z-módulo libre de base {e ⊗ e0 }e∈E,e0 ∈E 0 ,
ası́ pues, φ está determinado por φ(e ⊗ e0 ) (variando e ∈ E, e0 ∈ E 0 ) y se anula en N si y sólo si
(De un modo más elegante, esta conclusión se expresa en los textos diciendo que se tiene la igualdad
Homk (E ⊗k E 0 , V ) = Bilk (E, E 0 ; V )).
Dadas dos aplicaciones lineales T : E → V , T 0 : E 0 → V 0 podemos definir el morfismo E ⊗ E 0 →
V ⊗ V 0 , e ⊗ e0 7→ T (e) ⊗ T 0 (e0 ), morfismo que lo denotaremos por T ⊗ T 0 .
3. Proposición : 1. E ⊗k E 0 = E 0 ⊗k E.
2. (E ⊕ E 0 ) ⊗k V = (E ⊗k V ) ⊕ (E 0 ⊗k V ).
3. ( ⊕ Ei ) ⊗k V = ⊕(Ei ⊗ V ).
i∈I i
4. k ⊗k E = E.
Del mismo modo que hemos definido el producto tensorial de dos espacios vectoriales podrı́amos
haber definido el producto tensorial de tres espacios vectoriales, e igualmente dar una aplicación lineal
φ : E1 ⊗k E2 ⊗k E3 → V equivale a definir los φ(e1 ⊗ e2 ⊗ e3 ), para todo e1 ∈ E1 , e2 ∈ E2 , e3 ∈ E3 ,
de modo que sea k-lineal en cada uno de los tres factores, es decir, Homk (E1 ⊗k E2 ⊗k E3 , V ) =
Multilin(E1 × E2 × E3 , V ). Igualmente podemos definir el producto tensorial de n-espacios vectoriales.
5. Proposición : Homk (E ⊗k E 0 , E 00 ) = Homk (E, Homk (E 0 , E 00 )).
Demostración. Sea
definido por φ(e1 ⊗ · · · ⊗ en )(e01 ⊗ · · · ⊗ e0m ) := e1 ⊗ · · · ⊗ en ⊗ e01 ⊗ · · · ⊗ e0m . Por la proposición anterior
tenemos el morfismo (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em 0
) → E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em 0
,
0 0 0 0
definido por (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) 7→ e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em .
El morfismo E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em 0
→ (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em 0
),
0 0 0 0
e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em 7→ (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) es el morfismo inverso.
Hemos demostrado, además, la propiedad asociativa del producto tensorial, pues fácilmente ten-
emos que
E1 ⊗k (E2 ⊗k E3 ) = E1 ⊗k E2 ⊗k E3 = (E1 ⊗k E2 ) ⊗k E3
7. Teorema : Sean Ei k-espacios vectoriales de dimensión finita. La aplicación lineal
φ
E1∗ ⊗k . . . ⊗k En∗ → (E1 ⊗k · · · ⊗k En )∗ = Multilink (E1 × · · · × En , k)
w1 ⊗ · · · ⊗ wn 7→ w1 ⊗ · ˜· · ⊗ wn
E 0∗ ⊗k E = Homk (E 0 , E)
e1 ⊗ · · · ⊗ ej−1 ⊗ e ⊗ · · · ⊗ ek−1 ⊗ e ⊗ · · · ⊗ en
variando ei , e, j, k.
16 Capı́tulo 1. Álgebra Lineal Tensorial
P
e1 ∧ e2 ∧ · · · ∧ en = e1 ∧ · · · ∧ ei−1 ∧ ( λj ej ) ∧ ei+1 ∧ · · · ∧ en
j6=i
P
= λj e1 ∧ · · · ∧ ei−1 ∧ ej ∧ ei+1 ∧ · · · ∧ en = 0
j6=i
Como 0 = e1 ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧
· · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en + e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧
e ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e0 ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en
obtenemos que
e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en = −e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en
j k j k
P
Se cumple que 0 = w( λi1 ,i2 ,··· ,ir ei1 ∧ · · · ∧ eir ) = λ1,2,··· ,r .
1≤i1 <i2 <···<ir ≤n
P
v1 ∧ · · · ∧ vn = (λ11 e1 + · · · + λ1n en ) ∧ · · · ∧ (λn1 e1 + · · · + λnn en ) = λ1i1 · · · λnin ei1 ∧ · · · ∧ ein
i1 6=···6=in
P P
= λ1σ(1) · · · λnσ(n) · eσ(1) ∧ · · · ∧ eσ(n) = ( signo(σ)λ1σ(1) · · · λnσ(n) ) · e1 ∧ · · · ∧ en
σ∈Sn σ∈Sn
10. Definición : Dada una matriz A = (aij ) llamaremos menor pq de la matriz, que denotaremos
por Aqp , al determinante de la matriz que se obtiene suprimiendo en (aij ) la columna p y la fila q.
11. Proposición : det(aij ) = (−1)q a1q Aq1 .
P
q
18 Capı́tulo 1. Álgebra Lineal Tensorial
y hemos concluido.
Sea T : E → E un isomorfismo lineal y sea A = (aij ) la matriz de T en una base {ej } de E.
Calculemos la matriz B = (bij ) de T −1 : T −1 (ei ) = bij ej , luego
P
j
Aplicando Λn T , obtenemos
Aij
bij = (−1)i+j
det(aij )
Hablemos, primero sin rigor, de orientación de un R-espacio vectorial, para ligar la intuición vaga
que tenemos de orientación con la definición matemática de orientación que daremos más adelante.
“Decimos que un espacio vectorial E de dimensión 1 (una recta) lo tenemos orientado, si sabemos
decir qué está a la derecha del cero y qué está a la izquierda del cero. Para esto es necesario y suficiente
con que tengamos un vector no nulo e ∈ E, de modo que diremos que un punto e0 ∈ E distinto de 0,
está a la derecha de 0 si e0 = λ · e, con λ > 0, diremos que está a la izquierda si λ < 0. Otro vector, v
define la misma orientación que e si y sólo si v = µe, con µ > 0. En conclusión, dar una orientación
en E, equivale a dar un e ∈ E (o cualquier otro λe, con λ > 0).
Sea ahora E un plano. Decimos que en el plano E estamos orientados, si siempre que tengamos
una recta (pongamos que pasa por el origen) orientada sabemos decir qué está a la derecha de la recta
o qué está a la izquierda de la recta. Ası́ si tenemos una recta orientada r = hei ⊂ E (donde e orienta
la recta), dado e0 (que no yazca en la recta) sabemos decir si está a la derecha o a la izquierda de la
recta. Además, si e0 está a la derecha de la recta, entonces los puntos de la derecha son de la forma
λe + µe0 , con µ > 0. Ası́ si fijamos la recta orientada r = hei y decimos que e0 está a la derecha de
r, definamos e ∧ e0 que es una base de Λ2 E, entonces v = αe + βe0 está a la derecha de r, si y sólo si
e ∧ v = β · e ∧ e0 con β > 0. En conclusión, dada una dos coforma c2 ∈ Λ2 E, tenemos una orientación
en E: Dada una recta orientada r = hei (donde e, o λe con λ > 0, orienta la recta) diremos que e0
está a la derecha de la recta r, si e ∧ e0 = β · c2 , con β > 0. Ası́ pues, dar una orientación en E, es dar
una c2 ∈ Λ2 E (o cualquier otra λ · c2 , con λ > 0).
Sea ahora E un R-espacio vectorial de dimensión 3. Decimos que estamos orientados en E, si dado
un plano orientado sabemos decir qué está a su derecha y qué está a su izquierda. Dar un plano V ⊂ E
orientado, es dar una dos coforma c2 ∈ Λ2 V (o cualquier otra λc2 , con λ > 0). Ası́ si tengo, una tres
coforma c3 ∈ Λ3 E (o cualquier otra λ · c3 , con λ > 0), dado e0 ∈ E, diré que está a la derecha de V
1.4. Álgebra exterior n-ésima de un espacio vectorial 19
si c2 ∧ e0 = α · c3 , con α > 0. Observemos, que si e00 = µe0 + v, con µ > 0 y con v ∈ V , entonces
c2 ∧ e00 = µ · c2 ∧ e0 = µλc3 . En conclusión, dar una orientación en E, es dar una c3 ∈ Λ3 E (o cualquier
otra λ · c3 , con λ > 0)”.
12. Definición : Dar una orientación en un R-espacio vectorial E de dimensión n, es dar una n-
coforma no nula cn ∈ Λn E. Decimos que dos orientaciones cn y c0n son iguales si cn = λ · c0n , con
λ > 0.
Como Λn E ' R, en E sólo podemos dar dos orientaciones, “una y su opuesta”.
Dada una orientación cn ∈ Λn E existe una única wn ∈ Λn E ∗ , salvo un factor multiplicativo positi-
vo, de modo que wn (cn ) ≥ 0. Equivalentemente, dada una n-forma wn , salvo un factor multiplicativo
positivo, tenemos definida una orientación.
Sea E un R-espacio vectorial de dimensión n orientado, y e1 ∧ . . . ∧ en ∈ Λn E una n-coforma que
orienta E (o equivalentemente una n-forma wn que orienta E).
13. Definición : Diremos que una base ordenada {e01 , . . . , e0n } está positivamente ordenada si e01 ∧
· · · ∧ e0n = λ · e1 ∧ · · · ∧ en , con λ > 0 (o equivalentemente si wn (e01 , . . . , e0n ) > 0).
14. Proposición : Sea e0i = λij ej . Entonces {e01 , . . . , e0n } está positivamente ordenada si y sólo si
P
j
det(λij ) > 0.
Λm E ∗ = (Λm E)∗
φ
Demostración. La aplicación, Λm E ∗ → (Λm E)∗ , ω1 ∧ · · · ∧ ωm 7→ ω1 ∧ · ·˜· ∧ ωm , donde
X
ω1 ∧ · ·˜· ∧ ωm (v1 ∧ · · · ∧ vm ) := signo(σ) · ω1 (vσ(1) ) · · · ωm (vσ(m) )
σ∈Sm
20 Capı́tulo 1. Álgebra Lineal Tensorial
es un isomorfismo lineal.
Sea E un R-espacio vectorial de dimensión n, con una orientación. La función F : E × · · · × E → R
que asigna a n-vectores el volumen del parelelepı́pedo definido por los n-vectores, multiplicado por
(−1) si los n vectores no están positivamente orientados, es una función hemisimétrica. Por tanto,
podemos definir F : Λn E → R, que asigna a e1 ∧ · · · ∧ en el volumen del paralelepı́pedo definido por
e1 , . . . , en (multiplicado por (−1) si los n vectores no están positivamente orientados). Si e0i = λij ej ,
P
j
como e01 ∧ · · · ∧ e0n = det(λij ) · e1 ∧ · · · ∧ en , tendremos que
En conclusión, el volumen del paralelepı́pedo definido por los vectores e01 , · · · , e0n es | det(λij )| por
el volumen del paralelepı́pedo definido por los vectores e1 , . . . , en .
Λn E ∗ = hF i. Al hablar de volumen hemos cometido un error. Debemos fijar una unidad de
volumen. Debemos decir que cierto paralelepı́pedo tiene volumen 1. Debemos fijar un generador de
Λn E ∗ . A los vectores de Λn E ∗ se les llama formas de volumen.
1.5. Métricas
Uno de los conceptos difı́ciles de definir en la enseñanza básica es la noción de ángulo. Se dice
algo ası́ como que el ángulo entre dos semirectas concurrentes es (el área de) la región que hay entre
las dos rectas. ¿Qué es la región? Como se dice que una región es mayor que otra ¿es un número?
¡Pero la región es muy grande! Intentemos asignar a cada par de semirectas concurrentes un número:
“Consideremos un vector de módulo uno sobre cada semirecta. Midamos la longitud de la proyección
ortonormal de un vector de una recta en la otra. Esta medida, éste número, nos dará una idea exacta
del ángulo. Esta asignación de un número a cada par de semirectas concurrentes, puede extenderse
a una asignación de un número a cada par de vectores. En efecto, dados dos vectores e1 , e2 sean |e1 |
y |e2 | sus módulos y consideremos e01 = |ee11 | y e02 = |ee22 | . Sea N (e1 , e2 ) el número que se obtiene de
multiplicar la longitud de la proyección de e01 sobre e02 por |e1 | y |e2 |”. Resulta que N : E × E → R,
(e1 , e2 ) 7→ N (e1 , e2 ) es una aplicación bilineal. En conclusión, la noción de ángulo en un espacio
euclı́deo está estrechamente relacionada con la noción de aplicación bilineal. Veamos como a partir de
una aplicación bilineal definimos lo que es espacio euclı́deo, ángulo y módulo.
1.5. Métricas 21
X
T2 (e, e0 ) = λij wi (e) · wj (e0 )
i,j
En particular, T2 (ei ) = λij wj , luego la matriz de T2 es (λij ). Observemos que T2 (e)(e0 ) = T2 (e, e0 ).
P
j
Recı́procamente, dado una aplicación lineal T2 : E → E ∗ , podemos definir una aplicación bilineal
que seguimos denotando T2 , T2 (e, e0 ) := T2 (e)(e0 ).
1. Definición : Se dice que T2 es no singular si det(λij ) 6= 0, es decir, T2 : E → E ∗ es un isomorfismo.
Si T2 : E → E ∗ es un isomorfismo, entonces T 2 := (T2 )−1 : E ∗ → E es un isomorfismo. Por tanto,
2 ∗ ∗ ∗
T define una aplicación bilineal
P en E (pues E = (E ) 2). Si la matriz de T2 es (λij ) la matriz de T 2
ij −1 ij
es (λ ) := (λij ) . Si T2 = ij λij wi ⊗ wj , entonces T = λ ei ⊗ ej . Por último observemos que si
w = T2 (e) y w0 = T2 (e0 ) entonces
T 2 (w, w0 ) = T 2 (w)(w0 ) = T 2 (T2 (e))(T2 (e0 )) = e(T2 (e0 )) = T2 (e0 )(e) = T2 (e0 , e)
2. Definición : Se dice que T2 es una métrica simétrica si T2 (e, e0 ) = T2 (e0 , e), para todo e, e0 ∈ E.
Si T2 es simétrica entonces λij = T2 (ei , ej ) = T2 (ej , ei ) = λji . Recı́procamente, si λij = λji , para
todo i, j, entonces T2 (e, e0 ) = T2 (e0 , e) para todo e, e0 ∈ E. Es decir, T2 es simétrica si y sólo si la
polaridad T2 coincide con su morfismo transpuesto T2∗ .
Supongamos a partir de ahora que T2 es simétrica. Se dice que e es ortogonal a e0 (respecto de T2 )
si T2 (e, e0 ) = 0. Se dice que dos subespacios E 0 , E 00 de E son ortogonales si T2 (e0 , e00 ) = 0 para todo
e0 ∈ E 0 y e00 ∈ E 00 . Se dice que E es la suma ortogonal de dos subespacios E 0 y E 00 si son ortogonales
y E es la suma directa de los dos subespacios. En este caso escribiremos E = E 0 ⊥E 00 . Observemos
que
T2 (e01 + e001 , e02 + e002 ) = T2 (e01 , e02 ) + T2 (e001 , e002 )
para todo e01 , e02 ∈ E 0 y e001 , e002 ∈ E 00 .
Si E 0 y E 00 son dos espacios vectoriales con sendas métricas T20 y T200 entonces podemos definir en
E = E 0 ⊕ E 00 la métrica
0 0 ±1
Demostración. Veamos en primer lugar que si T2 (e, e) = 0 para todo e ∈ E entonces T2 = 0: Sean
e, e0 ∈ E, 0 = T2 (e + e0 , e + e0 ) = T2 (e, e) + T2 (e, e0 ) + T2 (e0 , e) + T2 (e, e0 ) = 2T2 (e, e0 ), luego T2 = 0.
Sea, pues, e ∈ E tal que T2 (e, e) 6= 0. Sea E 0 = hei⊥ . Se tiene que hei∩E 0 = 0, por tanto, por dimen-
siones, E = hei⊥E 0 . La restricción de T2 a E 0 es no singular, pues 0 = Rad T2 = Rad T2|hei ⊕Rad T2|E 0 .
Por inducción sobre la dimensión, existe una base ortonormal {e2 , . . . , en } en E 0 . Si consideramos
e1 = √ 1 · e tenemos que {e1 , . . . , en } es una base ortonormal de E.
|T2 (e,e)|
7. Definición : Se dice que E con la métrica simétrica T2 es un espacio euclı́deo si T2 (e, e) > 0 para
todo vector no nulo de E.
1.5. Métricas 23
Veamos que el número r no depende de la base escogida: para todo e ∈ E 0 = he1 , . . . , er i, no nulo,
se tiene que T2 (e, e) > 0; del mismo modo para todo e ∈ E 00 = her+1 , . . . en i no nulo se cumple que
T2 (e, e) < 0. Supongamos que existe un subespacio vectorial V tal que para todo v ∈ V no nulo
T2 (v, v) > 0. Obviamente V ∩ E 00 = 0, luego dim V ≤ dim E − dim E 00 = dim E 0 = r. En conclusión,
r es la dimensión máxima de los subespacios euclı́deos de E.
p
8. Definición : Se define el módulo de un vector e como |T2 (e, e)|. Supongamos que E es euclı́deo,
se define el ángulo entre dos vectores no nulos e, e0 como el número 0 ≤ α < π tal que cosα = T2 (e, e0 ).
Por ejemplo, dos vectores (no nulos) son perpendiculares si y sólo si el ángulo entre ellos es π/2.
Toda métrica en E extiende de modo natural a Λm E: Dar una métrica T2 en E, equivale a definir
“la polaridad” T2 : E → E ∗ , T2 (e)(e0 ) := T2 (e, e0 ). La polaridad T2 define el morfismo, Λm T2 : Λm E →
Λm E ∗ , e1 ∧ · · · ∧ em 7→ T2 (e1 ) ∧ · · · ∧ T2 (em ). Ahora bien, Λm E ∗ = (Λm E)∗ , luego tengo un morfismo
Λm E → (Λm E)∗ , luego una métrica Λm T2 en Λm E definida por
1
q
wE = p · w1 ∧ · · · ∧ wn = | det(λij )| · w1 ∧ · · · ∧ wn
| det(λij )|
24 Capı́tulo 1. Álgebra Lineal Tensorial
T2 (v1 × v2 , e) = w3 (v1 , v2 , e)
Observemos que v1 ×v2 es ortogonal a v1 y v2 . El producto vectorial, ×, es multilineal hemisimétri-
co. Si v1 y v2 son linealmente independientes entonces v1 , v2 , v1 × v2 es una base positivamente orien-
tada, pues 0 < λ = T2 (v1 ×v2 , v1 ×v2 ) = w3 (v1 , v2 , v1 ×v2 ). Si v1 y v2 son ortogonales, entonces v1 ×v2
es el vector ortonormal a v1 y v2 , de módulo el producto de los módulos de v1 y v2 , de modo que
v1 , v2 , v1 × v2 están positivamente orientados: por la multilinealidad del producto vectorial podemos
suponer que v1 y v2 son de módulo 1. Sea v3 , tal que v1 , v2 , v3 sea una base ortonormal positivamente
orientada. Entonces, e1 ∧ e2 ∧ e3 = v1 ∧ v2 ∧ v3 y T2 (v1 × v2 , v3 ) = w3 (v1 , v2 , v3 ) = w3 (e1 , e2 , e3 ) = 1.
Por tanto, v1 × v2 = v3 y hemos terminado.
P
Observemos que si vi = λij ej , entonces T2 (v1 × v2 , v3 ) = det(λij ), pues v1 ∧ v2 ∧ v3 = det(λij ) ·
j
e1 ∧ e2 ∧ e3 y T2 (v1 × v2 , v3 ) = w3 (v1 , v2 , v3 ) = det(λij ).
que llamaremos contracción interior hemisimétrica, que es la suma de la contracción interior por w
en cada factor afectada de un signo.
n
T E := k ⊕ E ⊕ (E ⊗ E) ⊕ · · · ⊕ (E ⊗ · · · ⊗ E) ⊗ . . ., con la suma, +, y con el producto, ⊗, se
dice que es el álgebra tensorial asociada a E. ΛE := k ⊕ E ⊕ (Λ2 E) ⊕ · · · ⊕ (Λn E) ⊗ . . ., con la suma,
+, y con el producto, ∧, se dice que es el álgebra exterior asociada a E. El epimorfismo T E → ΛE,
e1 ⊗ · · · ⊗ en 7→ e1 ∧ · · · ∧ en es un morfismo de álgebras (= de anillos).
2. Proposición : La contracción interior hemisimétrica es una antiderivación del álgebra tensorial,
n m
es decir, dadas Tn ∈ (E ⊗ · · · ⊗ E) y Tm ∈ (E ⊗ · · · ⊗ E), entonces
La contracción interior hemisimétrica en el álgebra tensorial define por paso al cociente un apli-
cación lineal que denominaremos “la contracción interior” en el álgebra exterior. En efecto, si vi = vj
(i < j) entonces
îw (v1 ⊗ · · · ⊗ vr ) =
= (−1)i−1 w(vi ) · v1 ∧ · · · ∧ v̂i ∧ · · · ∧ vj ∧ · · · ∧ vr + (−1)j−1 w(vj ) · v1 ∧ · · · ∧ vi ∧ · · · ∧ v̂j ∧ · · · ∧ vr
= ((−1)i−1 + (−1)j−1 · (−1)j−i−1 )w(vi )v1 ∧ · · · ∧ v̂i ∧ · · · ∧ vj ∧ · · · ∧ vr = 0
3. Corolario : La contracción interior es una antiderivación del álgebra exterior, es decir, dadas
Ωn ∈ Λn E y Ωm ∈ Λm E, entonces
Las n-formas se identifican con las aplicaciones hemisimétricas de orden n. Veamos qué es la
contracción interior por un vector de una aplicación hemisimétrica: Sea e ∈ E y Ωn = w1 ∧ · · · ∧ wn ∈
Λn E ∗ = Hemk (E × . n. . × E, k) entonces
1
= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.
26 Capı́tulo 1. Álgebra Lineal Tensorial
2
= Si definimos τi ∈ Sn , la permutación ` que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n},
entonces signo(τ ) = (−1)i−1 y Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones
`
que transforman el 1 en el i).
Para los ejercicios que siguen observemos que dado un subespacio vectorial V ⊆ E, tomando
duales tenemos el morfismo “de restricción” E ∗ → V ∗ , w 7→ w|V (w|V (v) := w(v), para toda v ∈ V ),
tenemos pues morfismos Λi E ∗ → Λi V ∗ , w1 ∧ · · · ∧ wi 7→ (w1 ∧ · · · ∧ wi )|V := w1|V ∧ · · · ∧ wi|V .
4. Ejercicio : Sea E un espacio euclı́deo orientado de dimensión n y E 0 ⊆ E un hiperplano. Sea N
un vector normal a E 0 de módulo 1. Sea wE la forma de volumen de E.
1. Probar que iN wE restringida a E 0 es igual a la forma de volumen wE 0 de E 0 que lo orienta, de
modo que si e2 , . . . , en es una base positivamente orientada de E 0 entonces N, e2 , . . . , en es una
base positivamente orientada de E.
2. Dado e ∈ E, (ie wE )|E 0 = T2 (e, N ) · wE 0 .
5. Ejercicio : Sea (E, T2 ) un espacio vectorial euclı́deo y R ⊂ E un subespacio vectorial de dimensión
1. Sea r un vector de R de módulo 1 que oriente a R y sea wR la forma de “longitud” de R. Dado
e ∈ E probar que (ie T2 )|R = T2 (e, r) · wR .
variando ei , j, k.
1. Definición : Llamaremos álgebra exterior n de E, que denotaremos por S n E, a
n
S n E := (E ⊗k · · · ⊗ E)/V
n
2. Notación: Denotaremos e1 ⊗ · · · ⊗ en ∈ (E ⊗k · · · ⊗ E)/V = S n E por e1 · · · en .
Observemos que · además de las propiedades multilineales heredadas de ⊗, cumple que
e1 · · · en = eσ(1) · · · eσ(n)
para todo σ ∈ Sn .
n
3. Como S n E = (E ⊗ · · · ⊗ E)/V , dar un morfismo lineal φ : S n E → F equivale a dar un morfismo
n
E ⊗ · · · ⊗ E → F que se anule en V , es decir, equivale a definir φ(e1 · · · en ) (para todo e1 , . . . , en ∈ E)
que sea k-lineal en cada factor y de modo que φ(e1 · · · en ) = φ(eσ(1) · · · eσ(n) ) para todo σ ∈ Sn . Es
decir,
n
Homk (S n E, F ) = {T ∈ M ultk (E × · · · × E, F ) | T (e1 , · · · , en ) = T (eσ(1) , · · · , eσ(n) ), ∀σ ∈ Sn }
n
= Aplic. n-mult. simétricas de E en F =: Simk (E × · · · × E, F )
4. Teorema : Sea E un espacio de base {e1 , . . . , en }. Entonces {ei1 · · · eir }1≤i1 ≤···≤ir ≤n es una base
de S r E.
1.7. Álgebra tensorial simétrica 27
r
Demostración. Sabemos que {ei1 ⊗· · ·⊗eir }1≤ij ≤n es una base de E⊗· · ·⊗E. Por tanto, tomando clases
tenemos que {ei1 · · · eir }1≤ij ≤n es un sistema generador de S r E. Como ei1 · · · eir = eiσ(1) · · · eiσ(r) para
todo σ ∈ Sr , tendremos que {ei1 · · · eir }1≤i1 ≤···≤ir ≤n es un sistema generador de S r E.
P
Nos falta probar que son linealmente independientes. Sea t = λi1 ,...,ir ei1 · · · eir = 0.
1≤i1 ≤···≤ir ≤n
Sea {w1 , . . . , wn } la base dual de {e1 , . . . , en }. Dado i1 ≤ · · · ≤ ir sea J el conjunto de todas las
wj1 ⊗ · · · ⊗ wjr ∈ Homk (S r E, k).
P
combinaciones con repetición de este conjunto y w =
{j1 ,...,jr }∈J
Entonces,
λi1 ,...,ir = w(t) = 0
n
Sn opera de modo natural en E ⊗ · · · ⊗ E permutando los factores: dada σ ∈ Sn y e1 ⊗ · · · ⊗ en ,
σ(e1 ⊗ · · · ⊗ en ) := eσ(1) ⊗ · · · ⊗ eσ(n) . Sea
n n
(E ⊗ · · · ⊗ E)Sn := {T ∈ E ⊗ · · · ⊗ E | σ(T ) = T para todo σ ∈ Sn }
El morfismo composición
n m n+m
(E ⊗ · · · ⊗ E) ⊗ (E ⊗ · · · ⊗ E) = E ⊗ · · · ⊗ E → S n+m E
(e1 ⊗ · · · ⊗ en ) ⊗ (en+1 ⊗ · · · ⊗ en+m ) 7→ e1 · · · en+m
n n−1 X
ĩw : E ⊗ · · · ⊗ E → E ⊗ · · · ⊗ E, ĩw (e1 ⊗ · · · ⊗ en ) := w(ei ) · e1 ⊗ · · · ⊗ êi ⊗ · · · ⊗ en
i
contracción interior simétrica, que es la suma de la contracción interior por w en cada factor.
6. Proposición : La contracción interior simétrica es una derivación del álgebra tensorial, es decir,
n m
dadas Tn ∈ (E ⊗ · · · ⊗ E) y Tm ∈ (E ⊗ · · · ⊗ E), entonces
La contracción interior simétrica en el álgebra tensorial define por paso al cociente un aplicación
lineal que denominaremos “la contracción interior” en el álgebra simétrica. En efecto, el morfismo
X
iw : S r E → S r−1 E, iw (v1 · · · vr ) := w(vi ) · v1 · · · v̂i · · · vr
i
En caracterı́stica cero, los tensores simétricos de orden n se identifican con las aplicaciones simétri-
cas de orden n. Veamos qué es la contracción interior por un vector de una aplicación simétrica: Sea
e ∈ E y Tn = w1 · · · wn ∈ S n E ∗ = Simk (E × . n. . × E, k) entonces
1
= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.
2
= Si definimos τi ∈` ` permutación que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n},
Sn , la
entonces Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones que transforman el
1 en el i).
1. D es un morfismo de k-módulos.
Observemos que D(1) = D(1 · 1) = 1D(1) + 1D(1) = 2D(1), luego D(1) = 0. Además, dado λ ∈ k,
D(λ) = λD(1) = 0.
El conjunto de todas las k-derivaciones de A en M se denota por Derk (A, M ). Si definimos
El morfismo natural d : A → ΩA/k , a 7→ da, es una derivación, es decir, verifica que d(a + a0 ) =
da + da0 , d(ab) = adb + bda. Además d se anula sobre k.
Sea A = k[x1 , . . . , xn ] el anillo de polinomios y M un A-módulo. Si una k-derivación
D : k[x1 , . . . , xn ] → M
se anula sobre los xi entonces D = 0: Por linealidad basta probar que es nula sobre los monomios xα
y para ello procedamos por inducción sobre |α| = α1 + . . . + αn . Supongamos α1 6= 0, sea β, tal que
β1 = α1 −1 y βi = αi , para i > 1 (luego |β| < |α|), entonces D(xα ) = D(x1 ·xβ ) = xβ ·Dx1 +x1 ·Dxβ =
0 + 0 = 0.
Dado m ∈ M , sea m ∂x ∂
i
∂
la derivación definida por m ∂x i
(p(x)) := ∂p(x)
∂xi · m. Dada una derivación D
∂
P
entonces D = (Dxi ) · ∂xi , pues la diferencia entre los dos términos de la igualdad es una derivación
i
que se anula en todos los xi . Ahora ya es claro el teorema siguiente.
∂
5. Teorema : Derk (k[x1 , . . . , xn ], M ) = M ∂x 1
⊕ · · · ⊕ M ∂x∂n .
6. Corolario : Ωk[x1 ,...,xn ]/k = k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn .
30 Capı́tulo 1. Álgebra Lineal Tensorial
∂
P
Demostración. La diferencial d : k[x1 , . . . , xn ] → Ωk[x1 ,...,xn ]/k es una derivación, luego d = i dxi · ∂x i
P ∂p(x)
por el teorema anterior y dp(x) = ∂xi · dxi . Por tanto, dx 1 , . . . dxn es un sistema generador de
i
Ωk[x1 ,...,xn ]/k . Por otra parte, el morfismo Ωk[x1 ,...,xn ]/k → k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn ,
dp(x) 7→ ∂p(x)
P
∂xi · dxi , está bien definido, lo que muestra que dx1 , . . . dxn es una base.
i
Otro método de demostración estándar en Matemáticas, que esencialmente hemos seguido, dice:
de la igualdad (funtorial) para todo M , de los dos extremos de las igualdades,
∂ ∂
Homk[x1 ,...,xn ] (Ωk[x1 ,...,xn ]/k , M ) = Derk[x1 ,...,xn ] (k[x1 , . . . , xn ], M ) = M ⊕ ··· ⊕ M
∂x1 ∂xn
= Homk[x1 ,...,xn ] (k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn , M )
Sea mα ⊂ A un ideal maximal tal que A/mα = k como k-álgebras. Dado a ∈ A, denotemos
a(α) = ā ∈ k = A/mα . La aplicación
dα : A → mα /m2α , dα a := a − a(α)
Demostración. El morfismo ΩA/k (α) → mα /m2α , adb 7→ a(α)dα b está bien definido y el morfismo
inverso es mα /m2α → ΩA/k (α), b̄ 7→ db.
Demostración. Homk (mα /m2α , N ) = HomA (mα /m2α , N ) = HomA (ΩA/k (α), N ) = HomA (ΩA/k , N ) =
Derk (A, N ).
Demostración. Estamos obligados a definir d1 : ΩA/k → Λ2 ΩA/k , adb 7→ da∧db (que está bien definida)
y en general dn (w1 ∧ · · · ∧ wn ) := (−1)i−1 · w1 ∧ · · · ∧ d1 (wi ) ∧ · · · wn .
P
i
Obsérvese que dn (adb1 ∧ · · · ∧ dbn ) = da ∧ db1 ∧ · · · ∧ dbn , luego di+1 ◦ di = 0.
4. Proposición : DL ◦ d = d ◦ DL .
Demostración. Por ser DL una derivación de grado cero y iD0 una antiderivación de grado −1. entonces
DL ◦ iD0 − iD0 ◦ DL es una antiderivación de grado −1, que estará determinada por lo que vale sobre
∗
ΩA/k , que es i[D,D0 ] , por =.
6. Fórmula de Cartan : Dada w ∈ ΩA/k entonces
Demostración. dw(D, D0 ) = iD0 (iD dw) = iD0 ((DL − d ◦ iD )(w)) = (DL ◦ iD0 − i[D,D0 ] )w − D0 w(D) =
D(w(D0 )) − w([D, D0 ]) − D0 w(D).
wi ⊗ wj 7→ wi ∧ wj
Se cumple que d(wi ∧ wj ) = dwi ∧ wj + (−1)i wi ∧ dwj . Dado D ∈ Derk (A, A), sea iD : M ⊗Ω· →
M ⊗Ω· , iD (m⊗Ωi ) = m⊗iD Ωi . Obviamente, iD (wi ∧ wj ) = iD wi ∧ wj + (−1)i wi ∧ iD wj . Definamos
DL := iD ◦ d + d ◦ iD , que resulta ser una derivación, es decir
DL (wi ∧ wj ) = DL wi ∧ wj + wi ∧ DL wj
Si tenemos dos módulos M, N con sendas diferenciales, podemos definir una diferencial en HomA (M, N ):
d(T )(m) := d(T (m)) − (T ⊗ 1)(dm). Como sabemos esta diferencial extiende a HomA (M, N ) ⊗ Ω· .
Se cumple que dado T ∈ HomA (M, N ) ⊗ Ωn = HomA (M, N ⊗ Ωn ) su diferencial como elemento de
HomA (M, N ) ⊗ Ω· coincide con la diferencial de T pensado como elemento de HomA (M, N ⊗ Ωn ).
Un morfismo T : M → N de A-módulos diremos que es diferencial si dT = 0, es decir, d ◦ T =
T ◦ d. Si el morfismo T es diferencial, entonces T : M ⊗ Ω· → M 0 ⊗ Ω· conmuta con d, iD , DL y
(T ⊗ T )(w ∧ w0 ) = T (w) ∧ T (w0 ). El morfismo HomA (M, N ) ⊗ M → N , φ ⊗ m 7→ φ(m), resulta ser
diferencial. Cuando tengamos una n-forma wn valorada en HomA (M, N ) y otra m-forma wm valorada
en N , entendemos vı́a este morfismo que wn ∧ wm es una n + m-forma valorada en N .
4. Definición : El morfismo A-lineal d2 : M → M ⊗ Ω2 diremos que es el tensor de curvatura.
5. Proposición : d2 (m)(D1 , D2 ) = D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m.
Demostración. iD2 (iD1 d2 m) = iD2 (D1L dm−diD1 dm) = D1L (iD2 (dm))−dm([D1 , D2 ])−(dD1∇ m)(D2 ) =
D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m.
Si ΩA/k es un A-módulo libre finito generado, entonces HomA (M, M ⊗ Ω2 ) = EndA M ⊗ Ω2 .
Denotaré por R ∈ EndA (M ) ⊗ Ω2 al tensor correspondiente a d2 . Observemos que R(D1 , D2 , m) =
D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m.
6. Proposición : Dada w ∈ M ⊗ Ωi , entonces
d2 w = R ∧ w
34 Capı́tulo 1. Álgebra Lineal Tensorial
M
d2 / M ⊗ Ω2
d d
/ M ⊗ Ω3
2
d
M ⊗Ω
es conmutativo.
8. Definición : Una conexión sobre M = Derk (A, A) se llama conexión lineal.
Supongamos que ΩA/k es un A-módulo libre finito generado y que tenemos una conexión lineal.
Pensemos Id ∈ HomA (ΩA/k , ΩA/k ) = Derk (A, A) ⊗ Ω como una 1-forma valorada (no como endomor-
fismo). Denotemos d Id = Tor∇ ∈ Derk (A, A) ⊗ Ω2 y calculemos
Tor∇ (D1 , D2 ) = D1∇ (Id(D2 )) − D2 (Id(D1 )) − Id([D1 , D2 ]) = D1∇ D2 − D2∇ D1 − [D1 , D2 ]
Supongamos que ∇ es una conexión lineal simétrica, es decir, Tor∇ = 0. Entonces, 0 = d2 (Id) =
R ∧ Id.
9. Identidad lineal de Bianchi : Si ∇ es una conexión lineal simétrica entonces
R ∧ Id = 0
Interpretemos esta igualdad: 0 = R ∧ Id(D1 , D2 , D3 ) = (iD1 (R ∧ Id))(D2 , D3 ) = (iD1 R) ∧ Id +R ∧
iD1 Id)(D2 , D3 ) = R(D1 , D2 )(Id(D3 )) − R(D1 , D3 )(Id(D2 )) + R(D2 , D3 )(Id(D1 )). Luego,
10. Proposición: Sea ∇ una conexión lineal, d : Ω → Ω⊗Ω la diferencial definida por ∇ y π : Ω⊗Ω →
Ω2 el morfismo natural de paso al cociente. Sea dC la diferencial de Cartan. Se cumple que
para todo a1 , . . . , an ∈ A y n ∈ N .
Las derivaciones son operadores diferenciales de orden 1.
2. Proposición : F : N → M es un operador diferencial de orden n > 0 si y sólo si [F, a] :=
F ◦ a · − a · F es un operador diferencial de orden n − 1 para todo a ∈ A.
3. Proposición : La composición de un operador diferencial de orden r con uno de orden s es un
operador diferencial de orden r + s.
Demostración. Sea F : N → M un operador diferencial de orden r y G : M → M 0 un operador
diferencial de orden s. Procedamos por inducción sobre r + s. Por hipótesis de inducción
[a, G ◦ F ] = a · G ◦ F − G ◦ F ◦ a· = (a ◦ G ◦ F − G ◦ a · ◦F ) + (G ◦ a · ◦F − G ◦ a · ◦F ) = [a, G] ◦ F + G ◦ [a, F ]
es un operador diferencial de orden r + s − 1, luego G ◦ F es un operador diferencial de orden r + s.
Explı́citamente, a D ∈ Diff nk (N, M ) le asignamos D̃ ∈ HomA (N, Diff nk (A, M )), definido por D̃(n)(a) :=
D(an) (Diff nk (A, M ) lo consideramos A-módulo por la “derecha” D · a = D ◦ a·).
n n n
Dado el morfismo Id : JN/k → JN/k , tendremos que j : N → JN/k , n 7→ 1 ⊗ n es un operador
diferencial de orden n y todo operador diferencial de orden n, F : N → N 0 , es igual a la composición
de j y un morfismo de A-módulos f : JN/k n
→ N 0.
La composición,
jJ r
jN
r N/k
N → JN/k → JJs r s
= JA/k r
⊗A JA/k ⊗A N
N/k
r+s s r
es un operador diferencial de orden r+s, luego tenemos un morfismo natural JN/k → JA/k ⊗A JN/k , que
dualmente es el morfismo natural Diff sk (N, Diff rk (A, M )) → Diff r+s
k (N, M ), D 7→ D̃, D̃(n) := D(n)(1).
Tenemos la cadena de inclusiones (en Homk (A, A))
φn φn−1
0 / SnΩ / A ⊕ Ω ⊕ · · · ⊕ SnΩ / A ⊕ Ω ⊕ · · · ⊕ S n−1 Ω /0
son conmutativos.
n i
ds f
12. Corolario : El morfismo A/mn+1 → k ⊕ mx /m2x ⊕ · · · ⊕ mnx /mn+1 , f¯ →
P
x x 7 i! (x), es un isomor-
i=0
fismo de k-álgebras.
d2s f
Se dice que 2 (x) es el Hessiano de f en x.
13. Teorema : Sea ds la diferencial simétrica asociada a una conexión lineal simétrica. Entonces,
dns a
S · Derk (A, A) = Diff k (A, A), ϕ(D1 · · · Dn )(a) :=
ϕ
(D1 , . . . , Dn )
n!
y se tiene el diagrama conmutativo
/ ⊕ S i Derk (A, A)
n−1 n
0 / ⊕ S i Derk (A, A) / S n Derk (A, A) /0
i=0 i=0
ϕ ϕ Id
X
ϕ(D1 · · · Dn )(a · b) = ϕ(Di1 · · · Dir )(a) · ϕ(Dj1 · · · Djn−r )(b)
{i1 ,...,ir }∪{j1 ,...,jn−r }={1,...,n}
ϕ(D1 · · · Dn ) ∗ ϕ(D10 · · · Dm
0
) := ϕ(D1 · · · Dn · D10 · · · Dm
0
)
{Conexiones lineales simétricas} = {s ∈ HomA (S 2 Der(A, A), Diff 2+ (A, A)) : simb2 ◦s = Id}
Demostración. Dada una conexión lineal simétrica, ∇, definimos s : S 2 Der(A, A) → Diff 2+ (A, A) por
s(D1 · D2 ) := D1 ◦ D2 − D1∇ D2 . Recı́procamente, dado s definimos D1∇ D2 := D1 ◦ D2 − s(D1 · D2 ),
que como pertenece al núcleo de simb2 , pertenece a Derk (A, A).
En Diff k (A, A) existe una conexión canónica: D∇ F := D ◦ F , para todo F ∈ Diff k (A, A) y
D ∈ Derk (A, A). Por tanto, existe una diferencial canónica d : Diff k (A, A) ⊗ ΩA,k , que extiende a
una diferencial en el complejo Diff k (A, A) ⊗ Ω·A,k . Observemos que R = d2 = 0, porque R(D1 , D2 ) =
D1 ◦ D2 ◦ −D2 ◦ D1 ◦ −[D1 , D2 ]◦ = 0. Por tanto, Diff k (A, A) ⊗ Ω·A,k es un complejo diferencial.
Sea E un A-módulos finito generado libre. Sea K = S · E ⊗ Λ· E ∗ el complejo cuya diferencial d es
tensorializar por Id, es decir, si {e1 , . . . , en } es una base de E y {w1 , . . . , wn } es la base dual, entonces
X
d(si ⊗ Ωj ) = si · er ⊗ wr ∧ Ωj =: Id ∧(si ⊗ Ωj )
r
15. Lema :
0 si i 6= n
H i (K) =
Λn E ∗ si i = n
16. Teorema de Takens: Se cumple que
0 si i 6= n
H (Diff k (A, A) ⊗A Ω·A,k ) =
i
ΩnA,k si i = n
T2 : Derk (A, A) → Ω.
Sea ds : Ω → S 2 Ω, ds (w) := T 2 (w)L T2 . Tenemos pues definida una conexión lineal simétrica en
Derk (A, A), denominada conexión de Levi-Civita asociada a T2 .
Capı́tulo 2
F (x) F 0 (x)
medio lı́mx→0 G(x) = lı́mx→0 G0 (x) .
39
40 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
pertenece a C n−1 (U ).
n
ai xi , con ai = 1 i)
podemos suponer que f (0) = f 0 (0) =
P
Considerando en vez de f , f − i! f (0),
i=1
. . . = f n) (0) = 0.
Tenemos que probar que h0 = f 0 /x − f /x2 ∈ C n−2 (U ). Por inducción sobre n, podemos suponer
que f 0 /x ∈ C n−2 (U ). Tenemos que probar que f /x2 ∈ C n−2 (U ). Probemos que si f (0) = f 0 (0) =
. . . = f n) (0) = 0 entonces f /x2 ∈ C n−2 (U ). Observemos que f /x2 es continua pues por L’Hopital
lı́mx7→0 f /x2 = f 00 (0)/2. Tenemos que probar que (f /x2 )0 = f 0 /x2 − f /2x3 ∈ C n−3 (U ). Por inducción
sobre n, podemos suponer que f 0 /x2 ∈ C n−3 (U ). Tenemos que probar que f /x3 ∈ C n−3 (U ). Argu-
mentando ası́ sucesivamente llegaremos a que tenemos que probar que f /xn ∈ C 0 (U ), lo cual es cierto
porque aplicando L’Hopital sucesivamente tenemos que lı́mx7→0 f /xn = f n) (0)/n!.
2. Corolario : Si f (x) ∈ C ∞ (U ) cumple que f (0) = 0, entonces existe h(x) ∈ C ∞ (U ) tal que
f (x) = h(x) · x. Entonces, por cambio de variable x̄ = x − α, tendremos que si α ∈ U y f (α) = 0
entonces existe h(x) ∈ C ∞ (U ) de modo que f (x) = h(x) · (x − α).
Ası́ dada f (x) ∈ C n (U ), entonces f (x) − f (α) = g(x) · (x − α) con g(x) ∈ C n−1 (U ). Luego
f (x) = f (α) + (x − α) · g(x). Repitiendo el argumento con g(x), tendremos que f (x) = f (α) + (x − α) ·
(g(α) + (x − α) · h(x)) = f (α) + g(α)(x − α) + h(x)(x − α)2 , (con h(x) ∈ C n−2 (U )). Ası́ sucesivamente,
tendremos que
P P
f (x)−f (α)− i ai (xi −αi ) f (x)−f (a1 ,x2 ,...,xn )+f (a1 ,x2 ,...,xn )−f (α)− i ai (xi −αi )
lı́mx→α ||x−α|| = lı́mx→α ||x−α||
P
(f (ξ,x ,...,xn )−a1 )(x1 −α1 )+f (α1 ,x2 ,...,xn )−f (α)− i>1 ai (xi −αi )
= lı́mx→α x1 2 ||x−α|| P
(f (ξ,x ,...,xn )−a1 )(x1 −α1 ) f (α1 ,x2 ,...,xn )−f (α)− i>1 ai (xi −αi )
= lı́mx→α x1 2 ||x−α|| + lı́mx→α ||x−α||
que es igual a cero, por inducción sobre n (observando que ||(x − α)|| es mayor que |x1 − α1 | y que
||(x2 , . . . , xn ) − (α2 , . . . , αn )||).
2.2. Espacio tangente en un punto 41
2
R
v F F'(a)(v)
a F(a)
1. Teorema : Sea M tal que Nul(M ) = 0 (por ejemplo si M es un módulo libre). Entonces,
∂ ∂
DerR (C ∞ (U ), M ) = M · ⊕ .m. . ⊕ M ·
∂x1 ∂xm
Demostración.
Por tanto,
Λn Ω̃C ∞ (U )/R = ⊕ C ∞ (U ) · dxi1 ∧ · · · ∧ dxin
1≤i1 <···<in ≤m
es un isomorfismo.
Todo morfismo de k-álgebras f : A → B induce el morfismo ΩA/k → ΩB/k , adb 7→ f (a)df (b). Sean
U ⊆ Rm , V ⊆ RN sendos abiertos. Dado un morfismo F : U → V diferenciable, tenemos el morfismo
de anillos F ∗ : C ∞ (V ) → C ∞ (U ), F ∗ (g) = g ◦ F , que induce el morfismo
F ∗ : ΩV → ΩU , F ∗ (gdh) = (g ◦ F )d(h ◦ F )
que induce el morfismo mF (α) /m2F (α) = ΩRm (F (α)) → ΩRn (α) = mα /m2α , ya conocido. Tomando
álgebras exteriores tenemos un morfismo natural F ∗ : ΩrV → ΩrU
4. Lema de Poincaré : Una r-forma diferenciable wr ∈ ΩrRn es cerrada, es decir, cumple que
dwr = 0 si y sólo si es exacta, es decir, existe una r − 1-forma diferenciable wr−1 ∈ Ωr−1
Rn tal que
wr = dwr−1 .
44 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
Z 0 Z 0 Z 0
wr = wr (0) − wr (−∞) = wr (t)0 · dt = (DL wr )(t) · dt = (iD ◦ d + d ◦ iD )wr (t) · dt
−∞ −∞ −∞
Z 0 Z 0
= d ◦ iD wr (t) · dt = d iD wr (t) · dt = dwr−1
−∞ −∞
{d(0, F (s)) | s ∈ Sn } que es mayor estricto que cero porque d(0, F (Sn )) es un compacto (imagen de
compacto) de R+ que no contiene a 0. Sea B 0 una bola centrada en F (0) de radio m/2. Basta que
probemos que B 0 ⊆ F (B).
Sea y ∈ B 0 y g(x) := d(F (x), y) que la definimos sobre B̄. La función continua g alcanza un mı́nimo
sobre B̄, que no yace en Sn , puesto que d(F (s), y)+m/2 ≥ d(F (s), y)+d(F (0), y) ≥ d(F (0), F (s)) ≥ m,
luego d(F (s), y) ≥ m/2 ≥ d(F (0), y). Ası́ pues, la función, g 2 = (F (x) − y) · (F (x) − y) alcanza un
mı́nimo en B. Si c ∈ B es tal que g 2 (c) es mı́nimo, entonces 0 = (g 2 )0 (c) = 2(F (c) − y) · F 0 (c). Por
tanto, F (c) = y y B 0 ⊆ F (B).
3. La aplicación F : F −1 (B 0 ) → B 0 es un homeomorfismo: Es biyectiva y continua. Dado un cerrado
C ⊂ F −1 (B 0 ) ⊂ B, tenemos que F (C) = F (C̄) ∩ B 0 es un cerrado porque C̄ es compacto, luego F (C̄)
es un cerrado. En conclusión, F es homeomorfismo.
4. Aconsejamos al lector que rescriba este apartado suponiendo n = 1, luego F = f (x) es una
función real en una sóla variable.
Supongamos ya que tenemos un homeomorfismo F : U → V . Reduciendo U , podemos suponer
que Ū y V̄ son compactos, que F : Ū → V̄ es homeomorfismo. Recordemos que F (x0 ) − F (x) =
H(x, x0 ) · (x0 − x). Podemos suponer también, que det(H(x, x0 )) 6= 0 y2 ||H(x, x0 )−1 || ≤ m (para cierto
m > 0) para todo x, x0 ∈ U . En particular, ||(H(x, x)−1 = (F 0 (x))−1 || ≤ m.
Veamos que G = F −1 es diferenciable de clase n.
||G(y 0 )−G(y)−(F 0 (x))−1 ·h||
Dado y = F (x), probemos que la matriz (F 0 (x))−1 cumple que lı́m 0 ||y 0 −y|| = 0.
y →y
Sea x0 tal que F (x0 ) = y 0 , entonces
||G(y 0 )−G(y)−(F 0 (x))−1 ·(y 0 −y)|| ||G(F (x0 ))−G(F (x))−(F 0 (x))−1 ·(F (x0 )−F (x))||
lı́m ||y 0 −y|| = lı́m ||F (x0 )−F (x)||
y 0 →y 0
x →x
0 0 −1 0
||(F (x)) ·[(F 0 (x))·(x0 −x)−(F (x0 )−F (x))]||
0 −1
= lı́m ||(x −x)−(F (x)) ·(F (x )−F (x))||
||F (x0 )−F (x)|| = lı́m ||F (x0 )−F (x)||
x0 →x x0 →x
||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| ||x0 −x||
≤ m · lı́m
0 ||F (x 0 )−F (x)|| = m · lı́m
0 ||x 0 −x|| · ||F (x 0 )−F (x)||
x →x x →x
2 ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))||
≤ m · lı́m ||x0 −x|| =0
x0 →x
C ∞ (Y ) = C ∞ (Rn )/I
donde C ∞ (Y ) es el anillo de funciones diferenciables de Y e I es el ideal de las funciones diferenciables
de Rn que se anulan en Y .
Demostración. Sea f : Y → R una función diferenciable. Existen abiertos {Ui } y funciones fi ∈
C ∞ (Ui ) de modo que {Ui ∩ Y } recubren Y y f|Ui ∩Y ) = f|Ui ∩Y .
Sea {φi , φ} una partición de la unidad subordinada al recubrimiento {Ui , Rn − Y }. Prolongando
por 0 el producto φi fi en el complementario de Ui , se obtiene una función diferenciable
P y la familia
de soportes de tales funciones es localmente finita. Luego, la suma F = φ f
i i i es una función
diferenciable en Rn . La restricción de F a Y es f , pues dado y ∈ Y
X X
F (y) = φi (y)fi (y) = φi (y)f (y) = f (y)
i i
φ−1
i f|U
Vi ' Ui →i R
son diferenciables. Una aplicación continua entre variedades diferenciables f : X → X 0 se dice que es
diferenciable si localmente lo es, es decir, las composiciones
φ−1 f φ0j
φi (Ui ∩ f −1 (Uj0 )) →
i
Ui ∩ f −1 (Uj0 ) → Uj0 → Vj0
son diferenciables. Resulta que f es diferenciable si y sólo si para toda función diferenciable g : X 0 → R,
entonces g ◦ f : X → R es diferenciable.
Veamos la estructura de “haz” de DerX :
Dada una derivación D ∈ DerX y f ∈ C ∞ (X) si f es nula en un entorno abierto U de un punto
α ∈ X entonces Df también es nula en dicho entorno: Basta ver que (Df )(α) = 0. Sea h ∈ C ∞ (X)
2.4. Variedades diferenciables. Haces 47
donde (D|U f )(α) := D(F )(α), siendo F ∈ C ∞ (X) cualquier función que es igual a f en un entorno
abierto de α.
1. Si Ui es un recubrimiento por abiertos de X y D|Ui = 0 para todo i entonces D = 0, pues
(Df )|Ui = D|Ui f|Ui = 0, para todo i, luego Df = 0 y D = 0. Por tanto, D = D0 si y sólo si
0
D|Ui = D|U i
para todo i.
2. Por otra parte, si tenemos para cada i, una derivación Di ∈ DerUi de modo que (Di )|Ui ∩Uj =
(Dj )|Ui ∩Uj , para todo i, j, entonces podemos definir una D ∈ DerX , tal que D|Ui = Di , para todo i:
D(f ) se define como la función que cumple que (Df )|Ui = Di f|Ui .
Las propiedades 1. y 2. se expresan diciendo que DerX es un haz. Por ejemplo, C ∞ (X) también
es un haz. Igualmente Der∗X es un haz (el C ∞ (X)-módulo de las aplicaciones n-multilineales es un
haz):
Dado w ∈ Der∗X y D ∈ DerX , si D|U = 0 entonces w(D)|U = 0. En efecto, dada α ∈ U basta
probar que w(D)(α) = 0. Sea h nula en X − U e igual a 1 en un entorno de α). Entonces 0 = h · D
y 0 = w(h · D) = h · w(D), luego 0 = h(α) · w(D)(α) = w(D)(α). Por tanto si D = D0 en un entorno
abierto de α entonces w(D) = w(D0 ) en dicho entorno. Tenemos un morfismo natural
donde (w|U (D))(α) := w(D̃)(α), donde D̃ ∈ DerX es cualquier derivación que coincide con D en un
entorno de α.
1. Si Ui es un recubrimiento por abiertos de X y w|Ui = 0 para todo i entonces w = 0, pues para
todo D, (w(D))|Ui = w|Ui (D|Ui ) = 0, para todo i, luego w(D) = 0 y w = 0. Por tanto, w = w0 si y
0
sólo si w|Ui = w|U i
para todo i.
2. Por otra parte, si tenemos para cada i, una wi ∈ Der∗Ui de modo que (wi )|Ui ∩Uj = (wj )|Ui ∩Uj ,
para todo i, j, entonces podemos definir una w ∈ Der∗X , tal que w|Ui = wi , para todo i: w(D) se
define como la función que cumple que (w(D))|Ui = wi (D|Ui ).
Sea mx ⊂ C ∞ (X) el ideal de funciones de X que se anulan en x y m0x ⊂ C ∞ (U ) el ideal de
2
funciones de U que se anulan en x. El morfismo natural π : mx /m2x → m0x /m0 x , π(f¯) = f|U es un
∞
isomorfismo: sea h ∈ C (X) igual a 1 en un entorno abierto de x y nula en un entorno de X − U ,
2
entonces el morfismo m0x /m0 x → mx /m2x , f¯ 7→ hf es el morfismo inverso.
Dada una 1-forma diferencial w ∈ ΩX , si 0 = w(x) = w̄ ∈ ΩX (x) = mx /m2x , para todo x ∈ X,
entonces w ∈ Nul(ΩX ) = 0. Sea {Ui } un recubrimiento por abiertos de X, si w|Ui = 0 para todo i,
0
entonces w(x) = 0 para todo x ∈ X y w = 0. (∗) Por tanto, si w|Ui = w|U i
para todo i, entonces
0
w=w.
Consideremos X como subvariedad cerrada de un Rn . ΩX es cociente del C ∞ (Rn )-módulo ΩRn , que
está generado por dx1 , . . . , dxn , por tanto, ΩX es un C ∞ (X)-módulo generado por dx1|X , . . . , dxn|X ,
luego es finito generado.
Sea dim X = r. Dadas w1 , . . . , wr ∈ ΩX sea U = {y ∈ Y tales que {wi (y) = w̄i ∈ ΩX (y) = my /m2y }
sea una base de my /m2y }. Se cumple que U es un abierto de X y que ΩU es un C ∞ (U )-módulo libre
de base {wi|U }:
Sea y1 , . . . , yr un sistema de coordenadas en un entorno abierto Vy de y. Tendremos que wi = fij dyj
(en tal entorno Vy ). Entonces {wi (y)} es una base de my /m2y si y sólo si det(fij (y)) 6= 0. Es claro que
48 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
Como Nul(C ∞ (X)) = 0 todo submódulo M de un C ∞ (X)-módulo libre cumple que Nul(M ) = 0.
El producto tensorial de módulos proyectivos es proyectivo: si P ⊕ P 0 = An , Q ⊕ Q0 = Am entonces
A nm
= An ⊗A Am = (P ⊕ P 0 ) ⊗A (Q ⊕ Q0 ) = (P ⊗ Q) ⊕ (P ⊗ Q0 ) ⊕ (P 0 ⊗ Q) ⊕ (P 0 ⊗ Q0 ), luego P ⊗ P 0
es proyectivo.
∗
Si P es proyectivo entonces P ∗ es proyectivo, pues si P ⊕P 0 = An entonces P ∗ ⊕P 0 = (P ⊕P 0 )∗ =
(An )∗ = An . Si P es un A-módulo proyectivo finito generado entonces P = P ∗∗ , como se deduce del
diagrama conmutativo
P ⊕ P0 An
∗∗
(P ⊕ P )∗∗ = P ∗∗ ⊕ P 0 (An )∗∗
identidad.
2.5. Anillo de funciones diferenciables 49
En conclusión, Λr ΩX =: ΩrX y Ω∗X = DerX , etc., son C ∞ (X)-módulos finito generados proyec-
tivos, Nul(ΩrX ) = Nul(DerX ) = 0, Der∗X = Ω∗∗X = ΩX , etc.
Con los mismos argumentos que para ΩX
Todas las proposiciones de las secciones 1.9 y 1.10 son igualmente válidas sustituyendo A por
C ∞ (X) y Ωi por ΩiX .
X 1 dkŪi
d= ·
i
2i 1 + dkŪ
i
Si en C ∞ (U ) consideramos la topologı́a menos fina que contiene a las topologı́as definidas por las
distancias dkK , para todo compacto K y k ∈ N, entonces esta topologı́a coincide con la topologı́a
definida por
X 1 diŪi
d= ·
i
2i 1 + diŪ
i
Demostración. Sea {fi }i∈N una sucesión de Cauchy. Para todo α ≤ K, {Dα fi }i∈N es una sucesión de
Cauchy en C 0 (U ), para el que suponemos bien conocido que es completo. Sean fα ∈ C 0 (U ) el lı́mite
50 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
de la sucesión {Dα fi }i∈N . Basta probar que Dα f0 existe y coincide con fα para todo α, con |α| ≤ k.
∂f
Si α = (β1 , . . . , βj + 1, . . . , βn ), basta probar que ∂xβj = fα .
Por el teorema del valor medio, dado a ∈ U , Dβ fi (x) − Dβ fi (a) = Dα fi (ξi )(xj − aj ), con x =
(a1 , . . . , xj , . . . , an ) y ξi en el segmento que une a y x. Existe una subsucesión {ik } de modo que
{ξik } converge a un ξ (perteneciente al segmento que une a y x). Tomando lı́mite cuando ik → ∞
obtenemos
fβ (x) − fβ (a) = fα (ξ) · (xj − aj ) = fα (a) · (xj − aj ) + o(xj − aj )
∂fβ
donde o(xj − aj )/xj − aj tiende a cero cuando xj → aj . Por tanto, ∂xj (a) existe y coincide con fα (a).
Veamos ahora que el morfismo C ∞ (Rn ) → R[[x1 , . . . , xn ]] que asigna a cada función diferenciable
su desarrollo de Taylor infinito, en un punto α ∈ Rn cualquiera, es epiyectivo (sorprendentemente a
primera vista).
2. Lema : Sea f ∈ C ∞ (Rn ), tal que Dα (f )(0) = 0, para todo α, con |α| ≤ m. Dado > 0 existe
g ∈ C ∞ (Rn ), que se anula en un entorno abierto de 0 tal que
||f − g||m <
con ||f − g||m := sup{|Dα (f − g)(a)|, a ∈ Rn , |α| ≤ m}.
Demostración. Sea η(x) ∈ C ∞ (Rn ), tal que η(x) = 0, si ||x|| ≤ 1/2 y η(x) = 1 si ||x|| ≥ 1. Para δ > 0,
definamos
x
gδ (x) = η( ) · f (x)
δ
Claramente gδ ∈ C ∞ (Rn ) y se anula en un entorno abierto de 0. Calculemos ||f − gδ ||m .
Tenemos que f − gδ = f · (1 − η(x/δ)) que es nula para ||x|| > δ y ||η(x)||m < ∞. Observemos que
por las hipótesis lı́mx→0 Dα f (x)/||x||m−|α| = 0, luego
X α
α α
|D (f − gδ )| = |D f · (1 − η(x/δ)) + · Dβ f · δ −(|α|−|β|) · Dα−β η(x/δ)| ≤
β
0≤β<α
C ∞ (U ) = C ∞ (X)U
con C ∞ (X)U := C ∞ (X)S , donde S es el conjunto de las funciones que no se anulan en ningún punto
de U .
2.6. Localización en el álgebra tensorial diferencial 51
∂ |α|
donde Dα = α αn
∂x11 ···∂x
y |α| = α1 + · · · + αn . Las series
n
∞ ∞
X 1 f φi X 1 φi
g= i
; h=
i=1
2 1 + λi + µi i=1
2i 1 + λi + µi
que se prueba, sumergiendo E en un fibrado vectorial trivial, considerando un fibrado vectorial suplementario y re-
duciendo, pues, el teorema al caso de fibrado vectoriales triviales.
52 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
Demostración. Sea N tal que M ⊕ N = An . Es fácil comprobar que ((An )S )∗ = ((An )∗ )S . Del
diagrama conmutativo
(M ∗ )S ⊕ (N ∗ )S = (M ∗ ⊕ N ∗ )S ((An )∗ )S
(MS )∗ ⊕ (NS )∗ = (MS ⊕ NS )∗ ((An )S )∗
es una aplicación multilineal alternada (al lector) y como sobre la base estándar de Rn vale 1, tenemos
que V = w1 ∧ · · · ∧ wn . Diremos que V (v1 , . . . , vn ) es el volumen (afectado de signo) del paralelepı́pedo
generado por v1 , . . . , vn .
Consideremos ahora una aplicación lineal T : Rn → Rn . Obviamente T transforma el paralelepı́pe-
do generado por v1 , . . . , vn en el paralelepı́pedo generado por T (v1 ), . . . , T (vn ) y
V (T (v1 ), . . . , T (vn )) = w1 ∧· · ·∧wn (T (v1 )∧· · ·∧T (vn )) = wn (det(T )·v1 ∧· · ·∧vn ) = det(T )V (v1 , . . . , vn )
H(y 0 , y) − H(y, y). Como G(y, y) = 0 entonces ||G(y, y)||∞ = 0 y dado δ > 0 existe un de modo que
para ||y 0 − y||∞ < entonces ||G(y 0 , y)||∞ < δ, es decir, G(y 0 , y) · Cλ ⊆ Cδ·λ . Por tanto,
√
con δ 0 = δ · n (la longitud de la diagonal del cubo Cδ ). Por tanto,
Por tanto,
∂Ti−1
Z Z Z
f (x) · dx1 · · · dxn = g(T −1 (x)) · | det( )| · dx1 · · · dxn ≥ g(y) · dy1 · · · dyn
U U ∂xj U0
f (T (y)) · | det( ∂T
R R
y concluimos que U
f (x) · dx1 · · · dxn = U0 ∂yj )| · dy1 · · · dyn .
i
Integración de formas.
Sea U ⊂ Rn un abierto, con la orientación dx1 ∧ . . . ∧ dxn . Sea w = f · dx1 ∧ . . . ∧ dxn ∈ ΩnU y
supongamos que sop f es compacto.
R R
2. Definición : Se define U w := U f · dx1 · · · dxn .
Sea U 0 ⊂ Rn un abierto y escribamos ahora las coordenadas y1 , . . . , yn . Si ϕ : U 0 → U es un
difeomorfismo que conserve la orientación, entonces el teorema del cambio de variables en integración
∗
(=, más abajo) implica que Z Z
∗
ϕ w= w
U 0 =ϕ−1 U U
∂ϕ1 P ∂ϕn
En efecto, ϕ∗ w = f (ϕ1 , . . . , ϕn ) · dϕ1 ∧ · · · ∧ dϕn = f (ϕ1 , . . . , ϕn ) · ( i
P
∂yi dyi ) ∧ · · · ∧ ( i ∂yi dyi ) =
f (ϕ1 , . . . , ϕn ) · det( ∂ϕ
∂yj ) · dy1 ∧ · · · ∧ dyn y
i
Z Z Z Z
∂ϕi ∗
ϕ∗ w = f (ϕ1 , . . . , ϕn ) · det( ) · dy1 · · · dyn = f (x1 , . . . , xn ) · dx1 · · · dxn = w
U 0 =ϕ−1 U U0 ∂yj U U
Sea X una variedad diferenciable orientada de dimensión n. Dada w una r-forma definimos sop w =
{x ∈ X tales que wx 6= 0}. Sea w una n-forma diferenciable y supongamos que sop w es compacto.
Supongamos que existe un difeomorfismo φ : X → U 0 ⊆ Rn orientado. Tenemos pues un difeomorfismo
φ∗ : C ∞ (U 0 ) → C ∞ (X), f 7→ f ◦ φ = f (φ1 , . . . , φn ). Entonces existe una n-forma diferenciable en U 0 ,
w0 = f (x1 , . . . , xn ) · dx1 ∧ · ∧ dxn , tal que φ∗ w0 = w (luego, w = f (φ1 , . . . , φn ) · dφ1 ∧ · · · ∧ dφn ) y
definimos Z Z Z Z
w= φ∗ w0 := w0 := f (x1 , . . . , xn ) · dx1 · · · dxn
X φ−1 (U 0 ) U0 U0
54 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
Veamos que la definición no depende del φ considerado. Sea φ00 : X → U 00 ⊆ Rn otro difeomorfismo
−1
orientado, entonces ϕ = φ0 ◦ φ00 : U 00 → U 0 , y 7→ (ϕ1 (y), . . . , ϕn (y) es un difeomorfismo orientado.
∗ ∗ ∗
Definamos w = ϕ w , que cumple que φ00 (w00 ) = φ00 ϕ∗ w0 = φ0 w0 = w. Por tanto,
00 ∗ 0
Z Z Z Z Z
vı́a φ00 00 ∗ 0 0 vı́a φ
0
w = w = ϕ w = w = w
X U 00 ϕ−1 (U 0 ) U0 X
Esta definición no depende del recubrimiento ni de la partición: Sea {V1 , . . . , Vm } abiertos coordenados
que recubran sop w y {g1 , . . . , gm , g} una partición de la unidad subordinada a {V1 , . . . , Vm , X −sop w}.
Entonces
Xn Z X n Z Xm Xn Xm Z n X
X m Z
fi w = fi gj w = fi gj w = fi gj w
i=1 Ui i=1 Ui j=1 i=1 j=1 Ui ∩Vj i=1 j=1 Vj
Xm Z Xn Xm Z
= fi gj w = gj w
j=1 Vj i=1 j=1 Vj
Fórmula de Stokes.
R 1. Si x ∈
Demostración.
R / B, tómese U = X − B. Si w tiene soporte compacto contenido en U entonces
B
dw = 0 = ∂B
w.
0 0
2. Si x ∈ B, sea U , u1 , . . . , un un entorno coordenado de x, contenido en B, isomorfo a un cubo,
es decir, tenemos
(u1 ,...,un )
U −→ Ū ⊂ Rn ,
Ū = (a1 , b1 ) × . . . × (an , bn )
∼
R
R w es una n − 1 forma con soporte compacto incluido en U entonces ∂B w = 0. Veamos que
Si
B
dw = 0: Por la linealidad de la integral podemos suponer que w = f du2 ∧ · · · ∧ dun . Entonces
Z Z Z Z bn Z b1
∂f ∂f
dw = d(f du2 ∧ · · · ∧ dun ) = · du1 ∧ · · · ∧ dun = ··· · du1 · · · dun
B U U ∂u1 an a1 ∂u1
Z bn Z b2 Z b1
∂f
= ··· ( du1 ) · du2 · · · dun
an a2 a1 ∂u1
Z bn Z b2
= ··· (f (b1 , u2 , . . . , un ) − f (a1 , u2 , . . . , un )) · du2 · · · dun = 0
an a2
5. Teorema de Stokes: Sea w una n − 1-forma de soporte compacto sobre X. Se cumple que
Z Z
dw = w
B ∂B
Demostración. Sea {U1 , . . . , Un } abiertos coordenados que recubran el soporte de w y que satisfagan
el lema anterior. Sea f1 , . . . , fn , f una partición de la unidad subordinada a {U1 , . . . , Un , X − B}.
Entonces
Z Z X XZ XZ Z Z
dw = d( fi w) = d(fi wi ) = fi wi = fi wi = w
B B i i B i ∂B ∂B B
X
T2 (D1 , D2 ) = aij wi (D1 ) · wj (D2 )
ij
P
T2 induce la polaridad, T2 : DerRn → ΩRn , T2 (D) := iD T2 = aij wi (D) · wj . Supongamos que
ij
la polaridad T2 es un isomorfismo. Denotemos por T 2 el morfismo inverso de T2 .
1. Definición : Dada f ∈ C ∞ (Rn ) se define grad f = T 2 (df ).
2. Proposición : Se cumple que
1. grad(λf ) = λ grad f , λ ∈ R, f ∈ C ∞ (Rn ).
2. grad(f + g) = grad(f ) + grad g, f, g ∈ C ∞ (Rn ).
3. grad(f g) = f grad g + g grad f .
Interpretación geométrica de las diferenciales, campos, gradiente,.....
Fijemos “una forma de volumen” wX ∈ ΩnRn de modo que Ωn = C ∞ (Rn ) · wX . Observemos que
n+1
ΩRn = 0 y por tanto, dwX = 0.
3. Definición : Dado D ∈ DerRn se define la divergencia de D, que denotaremos por div D, como
la función que cumple
DL wX = (div D) · wX
diD wX = (div D) · wX
4 Podrı́amos desarrollar la teorı́a correspondiente considerando una k-álgebra A tal que Ω
A/k fuese un A-módulo
finito generado localmente libre...
2.9. Apéndice 1. Normas 57
4. Teorema de la divergencia: Sea B ⊂ X una subvariedad con borde compacta. Sea wX una
forma de volumen en X, N un campo normal al borde ∂B de módulo 1 y w∂B la forma de volumen
en ∂B. Sea D un campo diferencial de vectores en X. Entonces por el teorema de Stokes
Z Z Z
(div D) · wX = iD wX = (D · N ) · w∂B
B ∂B ∂B
Consideremos ahora el C ∞ (R3 )-módulo libre de rango 3, ΩR3 . Sea T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 +
dx3 ⊗ dx3 y wR3 = dx1 ∧ dx2 ∧ dx3 la forma diferencial de volumen de R3 . El morfismo DerR3 → Ω2R3 ,
D0 7→ iD0 wR3 es un isomorfismo de C ∞ (R3 )-módulos.
6. Definición : Dado D ∈ DerR3 se define el rotacional de D, que denotamos por rot D, como el
campo que cumple que
irot D wR3 = diD T2
Demostración. rot D = 0 ⇐⇒ 0 = irot D wR3 = d(T2 (D)) ⇐⇒ T2 (D) = df , para cierta f ∈ C ∞ (R3 )
⇐⇒ D = T 2 (df ) = grad f para cierta f ∈ C ∞ (R3 ).
Demostración. div(D0 ) = 0 ⇐⇒ 0 = div(D0 ) · wR3 = d(iD0 wR3 ) ⇐⇒ Existe w ∈ ΩR3 tal que
iD0 wR3 = dw. Ahora bien, para toda w ∈ ΩR3 existe una (única) derivación D tal que w = T2 (D).
Por tanto, div(D0 ) = 0 ⇐⇒ Existe D tal que iD0 wR3 = dT2 (D) ⇐⇒ D0 = rot D, para cierto D.
1. ||e|| = 0 ⇐⇒ e = 0.
Sea E, || || un espacio vectorial normado de dimensión finita. Podemos definir una norma en Endk E
del siguiente modo: Dado T ∈ Endk E, ||T || := máx{||T (e)|| : ||e|| = 1}. Por tanto, ||T (e)|| ≤ ||T ||·||e||,
para todo e ∈ E.
Dar una solución de este sistema de ecuaciones diferenciales con condiciones iniciales a1 (λ), . . . , an (λ)
es dar funciones φi (t, λ) tales que dφ dt = fi (φ1 , . . . , φn ) y φi (t0 , λ) = ai (λ).
i
y φ(t0 , λ) = a(λ).
El sistema de ecuaciones diferenciales (con condición inicial a(λ)) es equivalente a la ecuación
Z t
x = a(λ) + F (x) · dt
t0
Rt
Dada ϕ si denotamos ϕ = a(λ) + 0 F (ϕ) · dt, buscamos φ tal que φ = φ∗ .
∗
Vamos a ver que bajo ciertas condiciones, si consideramos una ϕ cualquiera y tomamos ∗ infinitas
veces obtenemos una φ tal que al tomar ∗ una vez más obtenemos φ, es decir, φ∗ = φ. Ası́ de-
mostraremos que el sistema de ecuaciones diferenciales anterior tiene solución.
1. Lema : Sea X, d un espacio métrico completo y T : X → X una aplicación contractiva, es decir,
tal que exista una constante 0 ≤ c < 1 tal que d(T (x), T (y)) ≤ c · d(x, y), para todo x, y ∈ X. Entonces
existe un único punto p ∈ X tal que T (p) = p.
Demostración. Sea x ∈ X un punto cualquiera. La sucesión {xn := T n (x)} es una sucesión de Cauchy:
Sea a = d(x, T (x)) entonces d(T n (x), T n+1 (x)) ≤ c · d(T n−1 (x), T n (x)) ≤ · · · ≤ cn · d(x, T (x)) = cn · a.
Entonces, dado n ≥ m se cumple que
d(T m (x), T n (x)) ≤ d(T m (x), T m+1 (x)) + d(T m+1 (x), T m+2 (x)) + · · · + d(T n−1 (x), T n (x))
cm − cn a
≤ cm · a + cm+1 · a + . . . + cn−1 · a = a · ≤ cm ·
1−c 1−c
que es todo lo pequeño que se quiera para n, m grandes.
Por tanto, la sucesión converge a un punto p. Por ser T contractiva es continua, luego T (p) =
T (lı́mn→∞ xn ) = lı́mn→∞ T (xn ) = lı́mn→∞ xn+1 = p.
Si T (p0 ) = p0 entonces d(p, p0 ) = d(T (p), T (p0 )) ≤ c · d(p, p0 ), luego d(p, p0 ) = 0 y p0 = p.
Ası́ pues, por el lema existe una única φ ∈ E, tal que T (φ) = φ, es decir una única φ ∈ E solución
del sistema de ecuaciones diferenciable con condición inicial φ(t0 , t1 , . . . , tm ) = a(t1 , . . . , tm ).
Si existiese otra φ0 ∈ C 0 ((t0 − , t0 + ) × U, Rn ) solución del sistema, entonces reduciendo (todo
lo poco que se quiera) los cubos (t0 − , t0 + ) y U , se cumplirá que φ0 es acotada, luego habrá de
coincidir con φ. En conclusión φ0 = φ.
Como U es una cubo abierto, todo lo grande que se quiera, existe una única φ ∈ C 0 ((t0 − , t0 +
) × Rm , Rn ) solución del sistema con condiciones iniciales φ(t0 , t) = a(t).
Sea ahora t00 = t0 + /2. Del mismo modo dado el sistema dx dt = F (x) con condición inicial
x(t0 ) = φ(t00 ), existe un única solución φ0 ∈ C 0 ((t00 − , t00 + ) × Rm , Rn ). Ahora bien las restricciones
0
de φ y φ0 a (t00 − /2, t00 + /2) × Rm son soluciones del sistema en este abierto, luego coinciden. Luego
tenemos una solución φ00 ∈ C 0 ((t0 − , t0 + 1,5 · ) × Rm , Rn ) del sistema de ecuaciones, con condición
inicial x(t0 ) = a(t), que es única porque cualquier otra sobre (t0 − , t0 + ) × Rm coincide con φ y
por tanto sobre (t00 − /2, t00 + /2) × Rm con φ0 . Argumentando ası́ sucesivamente, demostramos que
existe una única φ ∈ C 0 (R × Rm , Rn ) solución del sistema con condiciones iniciales x(t0 ) = a(t).
1. ||G(xj,β ) − G(y j,β )||∞ ≤ K · ||(xj,β ) − (y j,β )||∞ , para todo (xj,β ) y (y j,β ) tales que ||(xj,β )||∞ ,
||(y j,β )||∞ < K 0
2. ||G(xj,β )||∞ < K, para todo (xj,β ) tal que ||(xj,β )||∞ < K 0 .
En tal caso, ||F (ϕ) − F (ϕ0 )|| < K · ||ϕ − ϕ0 || y ||F (ϕ)|| < K · ||ϕ||, si ||ϕ|| y ||ϕ0 || < K 0 . Sea
1
Rt
= 2K . La aplicación T : E → E, T (ϕ) = a(t1 , . . . , tn ) + t0 F (ϕ(s, t1 , . . . , tn )) · ds está bien definida
y es contractiva. Veamos que T (ϕ) ∈ E:
Z t Z t Z t
0 0
||T (ϕ)|| ≤ ||a|| + || F (ϕ) · ds|| ≤ K + | ||F (ϕ)|| · ds| ≤ K + | K · ds| ≤ K 0 + K · 2 · = 2K 0
t0 t0 t0
τ : R × Rn → Rn , (t, x) 7→ τ (t, x)
∂
tal que τ∗ (( ∂t )(t,x) ) = Dτ (t,x) y τ (0, x) = x.
∂
)(t,x) ) = ( i ∂τ
P i ∂ ∂
Si escribimos τ = (τ1 , . . . , τn ), sabemos que τ∗ (( ∂t ∂t ∂xi )τ (t,x) . Por tanto, τ∗ (( ∂t )(t,x) ) =
Dτ (t,x) si y sólo si ∂τ
∂t = fi (τ ). Si escribimos F = (f1 , . . . , fn ) entonces τ es justamente la solución del
i
σx : U −→ Rn , σx (t) = τ (t, x)
62 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial
τt∗ (wr ) − wr
DL wr = lı́m
t→0 t
φ: V, {x1 , . . . , xr } → U, {z1 , . . . , zn }
p = (p1 , . . . , pr ) 7→ φ(p) = (p1 , . . . , pr , 0, . . . , 0)
Recı́procamente, si existen sistemas de coordenadas en los que φ se expresa de este modo entonces φ
es una inmersión local.
2. Definición : Sea φ : Y → X una aplicación diferenciable entre dos variedades. Se dice que φ es
una inmersión si φ es inyectiva e inmersión local an cada punto.
A pesar del nombre, puede ocurrir que la imagen de Y no se identifica con una subvariedad de
X, como sucede con el “ocho” en el plano, parametrizado convenientemente. Ahora bien, si además
φ : Y → φ(Y ) es un homeomorfismo entonces φ(Y ) es una subvariedad diferenciable de X y además
φ : Y → φ(Y ) es un difeomorfismo.
3. Observación : Si Y es compacta, entonces φ : Y → φ(Y ) es un homeomorfismo, y, por tanto, φ(Y )
es una subvariedad de X.
Sea X una variedad diferenciable compacta. Queremos encontrar una inmersión
φ = (f1 , . . . , fm ) : X → Rm ,
Aplicaciones de la teorı́a
Sea T : Rn → Rm la aplicación lineal de matriz asociada (λij ) en las bases estándar y e0 = (b1 , . . . , bm ).
Las soluciones del sistema de ecuaciones lineales se corresponden con los vectores e = (x1 , . . . , xn ) ∈ Rn
tales que T (e) = e0 .
Sea T : E → E 0 una aplicación k-lineal entre k-espacios vectoriales de dimensión finita.
1. Definición : Se llama rango de T , que denotaremos rango T , a la dimensión de Im T .
Como E/ Ker T = Im T , ē 7→ T (e), se tiene que rango T = dim Im T = dim E − dim Ker T .
Si {e1 , . . . , en } es una base de E, entonces Im T = hT (e1 ), . . . , T (en )i y hemos definido rango T
como el número máximo de T (ei ) que son linealmente independientes entre sı́. Si (λij ) es una matriz
asociada a T entonces rango T es el número máximo de columnas Plinealmente independientes entre sı́.
Sea {v1 , . . . , vn } una base de un espacio vectorial V y ui = j λij vj , 1 ≤ i ≤ s. Tendremos que
X
u1 ∧ · · · ∧ us = λj1 ,...,js vj1 ∧ · · · ∧ vjs
Calculemos λj1 ,...,js . Sea i : hu1 , . . . , us i ,→ V , la inclusión y π : V → hvj1 , . . . , vjs i tal que π(vj ) = 0
si j 6= {j1 , . . . , js } y π(vji ) = vji , para 1 ≤ i ≤ s. Entonces
En conclusión,
65
66 Capı́tulo 3. Aplicaciones de la teorı́a
Demostración. Sea {e1 , . . . , en } una base de E y {e01 , . . . , e0m } una base de E 0 de modo que T (ei ) =
0
P
j λij ej . El rango de T es el número máximo de los T (e1 ), . . . , T (en ) linealmente independientes.
P P
bj1 − i0 ∈{i bj1 − i0 ∈{i
x i1 / 1 ,...,ir } λi j1 xi x i1 / 1 ,...,ir } λi j1 xi
0 0 0 0
M · ... = .. . −1 ..
⇒ .. = M ·
P . P .
x ir bjr − i0 ∈{i
/ 1 ,...,ir } λi jr xi
0 0 xir bjr − i0 ∈{i
/ 1 ,...,ir } λi jr xi
0 0
Demostración. En efecto, tenemos que f (x) = f (a) + h(x) · (x − a), donde h(x) ∈ C(U ) y h(a) = f 0 (a).
Si h(a) > 0 entonces en un entorno (a − , a + ) la función h(x) será estrictamente mayor que cero,
entonces f (x) > f (a) para x ∈ (a, a + ) (y f (x) < f (a) para x ∈ (a − , a)). Llegamos a contradicción.
Del mismo modo se llega a contradicción si h(a) < 0.
3. Proposición: Supongamos ahora que f (x) ∈ C 2 (U ) y que da f = 0. Tenemos que f (x) = f (a)+(x−
2
a) · H(x) · (x − a)t , siendo H(x) una matriz simétrica (de funciones continuas) y H(a) = ( ∂x∂i ∂x
f
j
(a)).
Si H(a) es una matriz no singular entonces
3.3. Longitudes, áreas y volúmenes 67
2
1. f (x) alcanza un máximo relativo en a si y sólo si ( ∂x∂i ∂x
f
j
(a)) es definida negativa.
2
2. f (x) alcanza un mı́nimo relativo en a si y sólo si ( ∂x∂i ∂x
f
j
(a)) es definida positiva.
Demostración. H(a) es una matriz definida positiva si y sólo si para todo v ∈ S n , v · H(a) · v t > 0. Si
H(a) es definida positiva entonces H(x) es definida positiva en un entorno de a, y por tanto en ese
entorno f (x) > f (a), para x 6= a, y a es un mı́nimo relativo. Del mismo modo se razona si H(a) es
definida negativa.
Nos falta ver que si H(a) no es definida positiva ni negativa entonces a no es mı́nimo ni máximo
t
relativo. Existen v, v 0 ∈ S n de modo que v · H(a) · v t < 0 y v 0 · H(a) · v 0 > 0. Existe un entorno
t 0 0t
abierto V de a, de modo que v · H(x) · v < 0 y v · H(x) · v > 0, para todo x ∈ V . Por tanto, para
0
x = a + nv , para todo n >> 0, se tiene que f (x) < f (a) y para x = a + vn , para todo n >> 0, se tiene
que f (x) > f (a).
Sea ahora Y ⊂ Rn una subvariedad diferenciable. Dada una función f (x1 , . . . , xn ) nos planteamos
si f|Y alcanza un máximo (o un mı́nimo) relativo en a ∈ Y .
Recordemos que podemos identificar (localmente) Y con un abierto de Rn−r y por tanto podemos
aplicar la teorı́a recién desarrollada. En efecto, sea un abierto U ⊂ Rn y un sistema de coordenadas
y1 , . . . , yn en U de modo que U ∩ Y ≡ y1 = . . . = yr = 0. Tenemos que f (x1 , . . . , xn ) = g(y1 , . . . , yn )
y f|Y = g(0, . . . , 0, yr+1 , . . . , yn ). Es decir, podemos considerar f|Y como una función diferenciable
en las variables yr+1 , . . . , yn . Por tanto si a es un máximo o un mı́nimo relativo de f|Y entonces
0 = da f|Y ∈ m̄a /m̄2a , donde m̄a es el ideal de todas las funciones diferenciables de Y que se anulan
en a. Observemos que dimR m̄α /m̄2a = n − r. El epimorfismo natural ma → m̄a , h 7→ h|Y , define el
epimorfismo
π : ma /m2a → m̄a /m̄2a , π(h̄) = h̄|Y
Por tanto, da f|Y = 0 si y sólo si da f ∈ Ker π. Ker π contiene a da y1 = ȳ1 , . . . , da yr = ȳr . Por
dimensiones, Ker π = hda y1 , . . . , da yr i. En conclusión, si a es un máximo o mı́nimo relativo de f|Y
entonces da f es combinación lineal de da y1 , . . . , da yr .
Las funciones yr+1 , . . . , yn son un sistema de coordenadas en a de Y . Por tanto, si la matriz
∂2f 2
|Y
( ∂yi ∂y j
(a))i,j>r = ( ∂y∂i ∂y
f
j
(a))i,j>r es no singular, entonces a es un máximo relativo en Y de f|Y si es
2
definida negativa. El problema que nos planteamos es como calcular ∂y∂i ∂y
f
j
, suponiendo que conocemos
∂
P ∂yj ∂
las funciones y en términos de las x. Tenemos que ∂xi = j ∂xi · ∂yj , es decir,
∂ ∂ ∂ ∂
∂x1 ∂y1 ∂y1 ∂x1
.. ∂yj . ∂yj −1 .
. =( ) · .. ⇒ ... = ( ) · ..
∂
∂x i ∂
∂x ∂ i ∂
∂xn ∂yn ∂yn ∂xn
Sea R → Rn , σ(t) = (x1 (t), . . . , xn (t)) una curva. Rn es una variedad riemanniana con la métrica
T2 = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn . La curva σ con la métrica T2σ es una variedad riemanniana.
X
T2σ = dx1 (t) ⊗ dx1 (t) + · · · + dxn (t) ⊗ dxn (t) = x0 i (t)2 · dt ⊗ dt
i
pP
La forma de longitud de σ, wσ en la coordenada t es wσ = i x0 i (t)2 · dt
Z t1 sX
Longitud de σ entre t0 y t1 := x0 i (t)2 · dt
t0 i
y Z t1 q
Longitud de σ entre t0 y t1 = ρ0 2 + ρ2 · θ0 2 · dt
t0
3. Supongamos ahora que la curva viene dada en implı́citas C ≡ p(x, y) = 0 (x, y las coordenadas
∂ ∂
cartesianas de R2 ). Un campo normal a la curva es D = T 2 (dp(x, y)) = px · ∂x + py · ∂y . Sea N =
q
px ·dy−py ·dx
D/ px + py . Por tanto, la forma de longitud de C es wC = iN (dx ∧ dy) = √ 2 2 . Supongamos
2 2
px +py
que x, p(x, y) forman un sistema de coordenadas, entonces en C, 0 = dp(x, y) = px dx + py dy y
dy = − ppxy · dx. En conclusión si parametrizamos C por x, tenemos que
Z x1 s
px · dy − py · d p2
Z
Longitud de σ entre x0 y x1 = q = ... = 1 + x2 · dx
C p2 + p2 x0 py
x y
que coincide con el cálculo de 1., si consideramos la parametrización x 7→ (x, y(x)) (y es función de x
en en C), y recordamos que yx = − ppxy en C.
El área de la región del plano limitada por la gráficaRde una función y = f (x) (supongamos
f (x) ≥ 0 y coordenadas cartesianas x, y) , es por definición A dx ∧ dy, donde A es la región del plano
3.3. Longitudes, áreas y volúmenes 69
limitada por la gráfica L1 = {(x, f (x)) | a ≤ x ≤ b}, el eje OY, L2 {y = 0, a ≤ x ≤ b} y las rectas
L3 = {x = a, 0 ≤ y ≤ f (a)}, L4 = {x = b, 0 ≤ y ≤ f (b)} (no me preocupo por las orientaciones, pero
sı́ del resultado final). Por el teorema de Stokes
Z Z Z Z b
dx ∧ dy = y · dx = y · dx = f (x) · dx
A L1 ∪···∪L4 L1 a
2. Calculemos el área del triángulo T limitado por la gráfica de una función (dada en polares)
ρ = ρ(θ) y el origen:
θ1
ρ2 ρ(θ)2
Z p Z Z Z
Área del triángulo T = |T2 | · dρ ∧ dθ = ρ · dρ ∧ dθ = · dθ = · dθ
T T ∂T 2 θ0 2
3. Calculemos el área de la superficie S que se obtiene al girar la gráfica de la función f (x) alrededor
del eje OX.
Consideremos coordenadas cilı́ndricas en R3 , x, ρ, θ, es decir, x = x, y = ρ sen θ, z = ρ cos θ. En
estas coordenadas S = {ρ = f (x), a ≤ x ≤ b, 0 ≤ θ ≤ 2π}, x, θ son un sistema de coordenadas en S y
dρ = df (x) = f 0 dx en S.
2
T2 = dx ⊗ dx + dρ ⊗ dρ + ρ2 dθ ⊗ dθ en coordenadas cilı́ndricas. Por tanto, T2|S = (1 + f 0 ) · dx ⊗
2
dx + f · dθ ⊗ dθ y
Z q Z q Z b p
Área de S = |T2|S | · dx ∧ dθ = 1 + f 0 2 · f · dx ∧ dθ = 2πf (x) 1 + f 0 (x)2 · dx
S S a
Igualmente se tiene que el área de la superficie S que se obtiene al girar la curva plana parametrizada
(x1 (t), x2 (t)) alrededor del eje OX1 es
Z t1 q
2π · x2 (t) · x01 (t)2 + x02 (t)2 · dt (∗)
t0
El área de la superficie tórica que se obtiene al girar la circunferencia {(r · cos t, a + r · sen t)}, a ≥ r
alrededor del eje 0X1 es
Z 2π √
2π · (a + r · sen t) · r2 · dt = 4 · π 2 · a · r
0
Veamos que la fórmula (∗) está diciendo que el área de una superficie de revolución es la longitud de
una sección por el perı́metro de la circunferencia que describe el centro de gravedad de una sección: Si
tenemos dos masas m y m0 en los puntos del plano x = (x1 , x2 ) y x0 = (x01 , x02 ) el centro de gravedad
0
·m0
de ambas masas es x·m+x m+m0 . Si tenemos una curva (homogénea) en el plano, que troceamos en
70 Capı́tulo 3. Aplicaciones de la teorı́a
P
xi ·∆i
incrementos ∆i , el centro de gravedad de la curva es P es decir, el centro de gravedad de la
p ∆i
curva C ≡ {(x1 (t), x2 (t)}, de forma de longitud wC = x01 (t)2
+ x02 (t)2 · dt es
R R R
C
x · wC ( C x1 · wC , C x2 · wC )
R =
w
C C
Long. C
El perı́metro de la circunferencia (alrededor del eje OX1 ) que describe el centro de gravedad es
R
x2 wC
2π · C
Long. C
Por tanto, R t1
x2 · w C
Z q
C
2π · · Long. C = 2π · x2 (t) · x01 (t)2 + x02 (t)2 · dt
Long. C t0
Volúmenes
1. Consideremos en el plano una región A y sea V ⊂ R3 el cuerpo de revolución obtenido al
girar la región S alrededor del eje OX1 . Sean x1 , x2 , x3 coordenadas cartesianas y x1 , ρ, θ coordenadas
cilı́ndricas, es decir, x1 = x1 , x2 = ρ · sen θ, x3 = ρ · cos θ. Un punto (x1 , x2 , x3 ) ∈ V ⇐⇒ (x1 , ρ) ∈ A
y θ ∈ [0, 2π]. Por tanto, el volumen del cuerpo revolución es
Z Z Z Z
dx1 ∧ dx2 ∧ dx3 = ρ · dx1 ∧ dρ ∧ dθ = 2πρ · dx1 ∧ dρ = 2πx2 · wA
V A×[0,2π] A A
Z Z Z r
Vol. T oro = 2π · x2 · wC = 2π(a + ρ cos θ) · ρ · dρ ∧ dθ = 4π 2 · a · ρ · dρ = 2 · π 2 · a · r2
C [0,r]×[0,2π] 0
Calculemos el volumen del cuerpo de revolución obtenido al girar alrededor del eje OX el triángulo
T de vértice el origen y lado opuesto un arco de curva ρ = ρ(θ) (en coordenadas polares).
Z Z Z θ1
2π
Vol. T = 2πx2 wT = 2π · ρ · sen θ · ρ · dρ ∧ dθ = · ρ(θ)3 · sen θ · dθ
T 0<ρ≤ρ(θ),θ∈[θ0 ,θ1 ] θ0 3
2. Calculemos el volumen del cuerpo de revolución V obtenido al girar alrededor del origen, pasando
por el eje OZ cada punto del triángulo de vértice el origen y lado opuesto un arco de curva ρ = f (θ)
Rβ
es 43 α f 3 (θ) dθ. Consideremos coordenadas esféricas ρ, θ, φ, es decir,
La esfera de radio r se obtiene al girar la curva ρ = r (con θ ∈ [0, π]) alrededor del origen, luego su
volumen es 43 πr3 .
Hipervolumen
Calculemos el volumen de la bola de radio r, B = {(x1 , . . . , x4 ) | x21 + . . . + x24 ≤ r2 }, de R4 .
Consideremos coordenadas hiperesféricas ρ, θ, φ, ϕ, es decir,
x1 = ρ cos θ cos φ cos ϕ, x2 = ρ sen θ cos φ cos ϕ, x3 = ρ sen φ cos ϕ, x4 = ρ sen ϕ
B = {0 < ρ ≤ r, 0 ≤ θ < 2π, −π/2 ≤ φ ≤ π/2, −π/2 ≤ ϕ ≤ π/2} y dx1 ∧ · · · ∧ dx4 = ρ3 cos φ cos2 ϕ ·
dρ ∧ dθ ∧ dφ ∧ dϕ y
π2 r4
Z
Vol. B. = ρ3 cos φ cos2 ϕ · dρ ∧ dθ ∧ dφ ∧ dϕ =
[0,r]×[0,2π]×[−π/2,π/2]×[−π/2,π/2] 2
0 0 0 0
y Ec = rad T2