You are on page 1of 71

Álgebra tensorial y diferencial

Giuseppe i Piero

20-2-2005
2
Índice general

1. Álgebra Lineal Tensorial 5


1.1. Definiciones. Construcciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Espacios vectoriales. Espacio vectorial dual . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3. Producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Álgebra exterior n-ésima de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 15
1.5. Métricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6. Producto exterior y contracción interior . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7. Álgebra tensorial simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.8. Módulo de diferenciales. Derivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9. Diferencial, contracción por un campo, derivada de Lie . . . . . . . . . . . . . . . . . . 31
1.10. Cálculo valorado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.11. Módules de jets y operadores diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 35

2. Cálculo Tensorial en Geometrı́a Diferencial 39


2.1. Desarrollo de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2. Espacio tangente en un punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3. Derivaciones. Módulo de diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4. Variedades diferenciables. Haces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5. Anillo de funciones diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.6. Localización en el álgebra tensorial diferencial . . . . . . . . . . . . . . . . . . . . . . . 50
2.7. Integración. Fórmula de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.8. Gradiente, divergencia y rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.9. Apéndice 1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.10. Apéndice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales . 58
2.11. Apéndice 3. Inmersión de variedades compactas . . . . . . . . . . . . . . . . . . . . . . 63

3. Aplicaciones de la teorı́a 65
3.1. Sistemas de ecuaciones lineales. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . 65
3.2. Máximos y mı́nimos bajo condiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3. Longitudes, áreas y volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.4. Ejemplos en Fı́sica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3
4 ÍNDICE GENERAL
Capı́tulo 1

Álgebra Lineal Tensorial

Estas notas son provisionales. El capı́tulo 2 todavı́a no es lógicamente consistente (y


puede contener erratas).
El cálculo diferencial tensorial es una de las teorı́as más hermosas que aparecen en toda la
Matemática. En ella conviven en perfecta armonı́a el Álgebra, el Análisis, la Geometrı́a Diferencial y
la Fı́sica.
El ochenta por ciento de lo que aquı́ se dice debiera constituir los conocimientos básicos (¡junto
con otros!) de todo matemático. Alguna vez he caı́do en la tentación de detenerme en ciertas cues-
tiones algebraicas que me preocupaban y que al lector quizás no le interesen tanto. El que escribe
es de formación algebraica y aunque pueda parecer lo contrario ha renunciado muchas veces a una
profundización mayor (y compresión más clara) de los conceptos desarrollados. Por ejemplo, no he
escrito las propiedades universales del álgebra exterior y simétrica de un espacio vectorial y no sé si
perdonármelo. En los nuevos planes de estudios que se están perfilando no aparecen las palabras: pro-
ducto tensorial, tensores, formas diferenciales, etc. Este hecho por sı́ solo califica a toda la comunidad
matemática española.

1.1. Definiciones. Construcciones


1. Comentario: El punto de partida de las Matemáticas son los números naturales, a partir de
ellos vamos definiendo y construyendo toda la Matemática, “Dios nos dio los números naturales, el
resto de las Matemáticas la hicimos los hombres” (creo que dijo Kronecker). La piedra clave de las
definiciones y construcciones es la palabra “sea”, y a los matemáticos nos parece bien (¡como en el
Génesis!). Demos algunos ejemplos.
1. Los matemáticos sabemos sustituir con todo rigor la palabra equivalente por la palabra igual,
sabemos identificar una cosa con sus equivalentes. En efecto, consideremos una relación de equiva-
lencia en un conjunto X. Un punto de X y todos sus equivalentes, los podemos identificar, hacerlos
todos una misma cosa, diciendo simplemente: “Sea el subconjunto de X formado por un punto x y
todos sus equivalentes. Denotemos este subconjunto por x̄. Del mismo modo dado un punto y ∈ X y
todos sus equivalentes, sea el subconjunto de X formado por y y todos sus equivalentes y denotemos
este subconjunto ȳ. Ahora tendremos que x es equivalente a y si y sólo si x̄ es igual a ȳ. Llamemos
X̄ el conjunto que se obtiene al identificar en X cada elemento con sus equivalentes, es decir,

X̄ := {x̄, x ∈ X, donde x̄ = x̄0 si y sólo si x es equivalente a x0 }

5
6 Capı́tulo 1. Álgebra Lineal Tensorial

Misión cumplida”.
1.1 Si establecemos en Z la relación de equivalencia n ≡ m si y sólo si n − m es múltiplo de 5,
tendremos que n̄ = m̄ si y sólo n − m es múltiplo de 5. Si identificamos en Z cada entero con sus
equivalentes, tenemos sólo cinco elementos distintos, es decir, Z̄ = {0̄, 1̄ . . . , 4̄}.
1.2 Sea A un anillo. Dado un ideal I ⊂ A, establezcamos la siguiente relación de equivalencia:
a ∈ A es equivalente a a0 ∈ A si y sólo si a − a0 ∈ I, es decir, si y sólo si existe algún i ∈ I de modo
que a = a0 + i. En este caso, Ā := {ā, a ∈ A, de modo que ā = ā0 si y sólo si a − a0 ∈ I} se denota
A/I. Resulta que A/I tiene una estructura natural de anillo, definiendo la suma y el producto como
sigue
ā + b̄ := a + b ā · b̄ := a · b
el elemento neutro para la suma es 0̄ y para el producto 1̄.
2. Dado el semianillo de números naturales N, definamos o construyamos el anillo de los número
enteros Z. Para ello, en Matemáticas, no podremos hablar de grados bajo cero ni de deudas como se
hace con los niños pequeños. Antes de empezar a construir Z, cualquiera que sea su construcción o
definición, sabrı́amos decir si n − m es igual a n0 − m0 (para n, m, n0 , m0 ∈ N), sabrı́amos sumar,
multiplicar etc. Basta con saber esto, es decir, en saber cómo se comporta Z, para que un matemático
sepa ya definirlos, gracias a la palabra sea: “Sea Z el conjunto de parejas de números naturales (n, m),
que preferimos denotar n−m, donde diremos que n−m es igual a n0 −m0 si n+m0 = m+n0 (observemos
que con esta definición n − m = n − m, que si n − m = n0 − m0 entonces n0 − m0 = n − m, y que si
n − m = n0 − m0 y n0 − m0 = n00 − m00 entonces n − m = n00 − m00 ). Definido queda Z, ¿cómo definimos
la suma? (n − m) + (n0 − m0 ) := (n + n0 ) − (m + m0 ). Defina el lector el producto”. Más ejemplos.
3. Hemos definido ya el anillo de los números enteros Z, definamos el cuerpo de los números
racionales Q. En Matemáticas no podemos hablar de pasteles y porciones de pasteles, como a los niños.
n n0 0 0
Pero antes de empezar a construir Q, sabrı́amos decir cuándo m es igual a m 0 (n, m, n , m ∈ Z) y

sabemos sumar número racionales y multiplicarlos. No necesitamos nada más, salvo la palabra “sea”:
n
Sea Q el conjunto de parejas de números enteros (n, m), que preferimos denotar m , donde diremos
n0 0 0
que m es igual a m0 si existen r, r0 6= 0 tales que rm y r0 m0 tienen el mismo numerador y denominador
n rn r n

n n n n0 n0 n n n0 n0 n00
(observemos que m = m , que si m = m 0 entonces m0 = m , y que si m = m0 y m0 = m00 entonces
n n00 n n0 m0 n+mn0
m = m00 ). Definido queda Q ¿cómo definimos la suma? m + m0 := mm0 . Defina el lector el
producto. Más ejemplos.
3.1 Sea A un anillo y S ⊂ A, un subconjunto que cumpla 1 ∈ S y si s, s0 ∈ S entonces s · s0 ∈ S.
Queremos definir el anillo (que denotaremos por AS ) formado por las fracciones a/s, a ∈ A, s ∈ S.
Obviamente, queremos que se cumpla que as = ta ts , para todo t ∈ S. No hay mayor problema, digamos
que son equivalentes y a los equivalentes hagámoslos iguales:

a a a0
AS := { , con a ∈ A y s ∈ S | = 0 si existen t, t0 ∈ S tales que las fracciones
s s s
ta t0 a0
y 0 0 tienen el mismo numerador y denominador }
ts ts
¿Cómo definimos la suma? as + bt := at+bs st ¿Y el producto? as · bt := ab
st .
4. Hemos definido Q, definamos ahora R. Aquı́ a los niños se les habla de los números reales
de un modo muy aproximado a lo que hacemos en Matemáticas (la construcción de número real en
Matemáticas es la objetivación formal de la experiencia fı́sica de aproximación (interminable)). Se les
dice algo ası́ como: Vamos a ver cuánto mide media circunferencia. Mido y veo que es casi 3, pero si
preciso más es 3, 1, si preciso más es 3, 14 y ası́ sucesivamente nos va saliendo que mide 3, 141592... con
infinitas cifras infinitesimales. Ası́, nos decı́an que los números reales son los números con infinitas
1.2. Espacios vectoriales. Espacio vectorial dual 7

cifras decimales (después nos decı́an que 0, 999999999.... era el mismo número que 1 ¡Identificábamos
dos números equivalentes!). La construcción que damos en Matemáticas de los números reales es esen-
cialmente la misma que la que damos para completar cualquier espacio métrico (como la construcción
de Q a partir de Z, es la misma esencialmente que la que damos para construir AS a partir de A y
S). Tenemos claro cuando una sucesión de números racionales se aproximan a algo 1 , es decir, defin-
imos primero qué es una sucesión de Cauchy. Tenemos claro también, cuándo dos aproximaciones
son iguales o equivalentes (cuando la diferencia de las dos sucesiones de Cauchy se aproximen a 0).
Ası́ pues, dar un número real equivale a dar las aproximaciones a él, siempre que identifiquemos estas
aproximaciones. Nos basta con esto para definir R, salvo la palabra sea: “Sea R el conjunto de todas las
sucesiones de Cauchy, donde diremos que dos sucesiones de Cauchy son iguales si son equivalentes”.
Definido queda R.

1.2. Espacios vectoriales. Espacio vectorial dual


“Un espacio vectorial es un conjunto en el que podemos sumar sus elementos y multiplicar cada
elemento por un escalar, y estas operaciones cumplen propiedades muy naturales”.
Sea k un cuerpo (ejemplos: k = Q, R ó C).
1. Definición : Un k-espacio vectorial es un conjunto, E, dotado de dos operaciones, una llamada
suma E × E → E y se escribe (e, e0 ) 7→ e + e0 , y otra llamada producto por escalares k × E → E y se
escribe (λ, e) 7→ λ · e, verificando:

1. (E, +) es un grupo abeliano, es decir,

a) e + (e0 + e00 ) = (e + e0 ) + e00 , para todo e, e0 , e00 ∈ E.


b) Existe un elemento que denotamos por 0 tal que 0 + e = e + 0 = e, para todo e ∈ E.
c) Para cada e ∈ E existe otro elemento que denotamos −e tal que e + (−e) = 0.
d ) e + e0 = e0 + e, para todo e, e0 ∈ E.

2. λ · (e + v) = λ · e + λ · v, ∀λ ∈ k, e, v ∈ E

3. (λ + µ) · e = λ · e + µ · e ∀λ, µ ∈ k, e ∈ E

4. (λ · µ) · e = λ · (µ · e), ∀λ, µ ∈ k, e ∈ E

5. 1 · e = e, ∀e ∈ E.

Los elementos de un espacio vectorial se denominan vectores y los de k escalares. Si k es un anillo


y no un cuerpo (ejemplo: k = Z) se dice que E es un k-módulo.
k n , con la suma (λi )+(µi ) := (λi +µi ) y el producto por escalares λ·(λi ) := (λ·λi ) es un k-espacio
vectorial. R3 que es el espacio en el que pensamos que vivimos es un ejemplo de R-espacio vectorial.
Sea X un conjunto y C(X) = Aplic(X, k). C(X) con la suma estándar de funciones (f + g)(x) :=
f (x) + g(x) y producto estándar por escalares (λ · f )(x) := λ · f (x) es un k-espacio vectorial.
Observemos que 0 · e = (0 + 0) · e = 0 · e + 0 · e y por tanto 0 · e = 0. Observemos que si e + e0 = 0
sumando −e, obtenemos que e0 = −e. Como 0 = (1 − 1) · e = e + (−1) · e, tenemos que (−1) · e = −e.
1 Aunque ese algo no sea un número racional. En realidad, lo real, real de verdad son las aproximaciones, que éstas

se aproximen a algo realmente existente es otra cuestión. Ese algo es una abstracción, sin embargo suele pensarse que
este algo es muy real y la aproximación una abstracción matemática, pero esto es otro tema...
8 Capı́tulo 1. Álgebra Lineal Tensorial

Las aplicaciones que conservan la estructura de espacio vectorial (“los morfismos de la categorı́a
de k-espacios vectoriales”) son las aplicaciones lineales. Con precisión: Sean E, E 0 dos k-espacios
vectoriales,
2. Definición : Una aplicación T : E → E 0 es un morfismo de k-espacios vectoriales (o aplicación
k-lineal ) si
T (e + v) = T (e) + T (v) y T (λ · e) = λ · T (e)

para cualesquiera e, v ∈ E, λ ∈ k.
Es claro que la composición T1 ◦ T2 : E → G de dos aplicaciones lineales T2 : E → F , T1 : F → G,
es una aplicación lineal.
3. Definición : Una aplicación lineal T : E → E 0 es un isomorfismo si existe otra aplicación lineal
S : E 0 → E tal que T ◦ S = IdE 0 , S ◦ T = IdE .
T es un isomorfismo de espacios vectoriales si y sólo si es una aplicación biyectiva (lineal).
4. Definición : Decimos que F ⊂ E es un subespacio vectorial de E si f + f 0 ∈ F y λ · f ∈ F , para
todo f, f 0 ∈ F y λ ∈ k.
F con la suma y producto por escalares es un espacio vectorial y la inclusión F ⊂ E es una
aplicación k-lineal. Si Fi son subespacios vectoriales de E entonces ∩i Fi es un subespacio vectorial de
E.
Sea E un espacio vectorial y F ⊂ E un subespacio vectorial. Consideremos la relación de equiva-
lencia que dice que dos vectores e1 , e2 ∈ E son equivalentes si y sólo si difieren en un vector de F (los
vectores de F son equivalentes a 0). Si identificamos cada vector de E con sus equivalentes, obtenemos
el conjunto que denotamos E/F , que es el siguiente

E/F := {ē | e ∈ E, de modo que ē1 = ē2 ⇐⇒ e1 − e2 ∈ F }

Observemos que ē = 0 si y sólo si e ∈ F y que ē = v̄ si y sólo si existe un vector e0 ∈ F tal que


v = e + e0 .
E/F es de modo natural un espacio vectorial: ē + v̄ := e + v y λ · ē := λ · e. El morfismo natural
π : E → E/F , π(e) := ē es una aplicación lineal epiyectiva.
Dada una aplicación lineal T : E → E 0 , se denomina núcleo de la aplicación lineal T , que denotamos
por Ker T , a
Ker T := T −1 (0) := {e ∈ E | T (e) = 0}

Es fácil comprobar que Ker T es un subespacio vectorial de E. T (e) = T (v) si y sólo si T (e) − T (v) =
T (e − v) = 0, es decir, e − v ∈ Ker T . Es decir, T (e) = T (v) si y sólo si existe un e0 ∈ Ker T tal que
v = e + e0 . Por tanto, T es inyectiva si y sólo si Ker T = 0.
La aplicación T̄ : E/ Ker T → E 0 , T̄ (ē) := T (e), está bien definida, pues si ē = v̄ existe un
e ∈ Ker T tal que v = e + e0 y T (v) = T (e) + T (e0 ) = T (e) (luego T̄ (v̄) = T̄ (ē), como ha ser si
0

hablamos con sentido). Además, la aplicación T̄ : E/ Ker T → E 0 es inyectiva: 0 = T̄ (ē) = T (e) si y


sólo si e ∈ Ker T , es decir, si y sólo si ē = 0.
Definimos la imagen de T , que denotamos por Im T como

Im T := T (E) := {T (e) ∈ E 0 , e ∈ E}

Es fácil comprobar que Im T es un subespacio de E 0 .


1.2. Espacios vectoriales. Espacio vectorial dual 9

Se tiene el siguiente diagrama conmutativo

T / E0  / T (e)
E O _e O
π i
    _
E/ Ker T
T̄ / Im? T ē / T̄ (ē) = T (e)

Donde la flecha horizontal inferior es isomorfismo porque es epiyectiva e inyectiva.


Si C = {ci }i∈I , con ci ∈ E. Llamamos subespacio vectorial de E generado por C al mı́nimo
subespacio vectorial de E que contiene a C, y lo denotamos hCi. Es fácil probar que

hCi = {e ∈ E | e = λ1 · c1 + · · · + λn cn , ci ∈ C, λi ∈ k, n ∈ N}

Si C = {e1 , . . . , er } entonces denotamos he1 , . . . , er i = hCi y se cumple que he1 , . . . , er i = {λ1 · e1 +


· · · + λr er , λi ∈ k}.
Se dice que los vectores de C son un sistema generador de E si hCi = E. Decimos que un espacio
vectorial E es finito generado si existen e1 , . . . , er ∈ E de modo que he1 , . . . , er i = E. Se dice que los
vectores de C son linealmente independientes si λ1 · c1 + · · · + λn · cn 6= 0 si algún λi 6= 0, para todo n
y {c1 , . . . , cn } ⊂ C. Se dice que los vectores de C forman una base de E si son un sistema generador
de E y son linealmente independientes.
Los vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0. . . . , 1) forman una base de k n , denominada “base
estándar” de k n .
5. Teorema de la base: Todo espacio vectorial E 6= 0 contiene alguna base. Todas las bases de E
tienen el mismo número de vectores, tal número se dice que es la dimensión de E y se denota dimk E.

Demostración. Voy a suponer que E es finito generado, para no embarullar al lector con la teorı́a de
cardinales, lema de Zorn, etc.
Supongamos, pues, que E = he1 , . . . , en i. Sea I ⊂ {1, . . . , n} un subconjunto máximo con la
condición de que los vectores {ei }i∈I sean linealmente independientes. Obviamente I 6= ∅, pues si I = ∅
entonces ei = 0 para todo i y E = 0. Veamos que los vectores {ei }i∈I forman una base de E. Tenemos
que probar que hei ii∈I = E. DadoPej , 1 ≤ j ≤ n, si ej ∈ / hei ii∈I entonces {ej , ei }i∈I serı́an linealmente
independientes, pues si λj · ej + i λi ei = 0 entonces: 1. Si λj 6= 0 tendremos que ej = − i λλji · ei
P
P
y ej ∈ hei ii∈I , contradicción. 2. Si λj = 0, entonces i λi ei = 0 y entonces λi = 0, para todo
i ∈ I, pues los vectores {ei }i∈I son linealmente independientes. En conclusión, λj = λi = 0 para
todo i, luego {ej , ei }i∈I son linealmente independientes. Ahora bien, por la maximalidad de I, esto es
contradictorio. En conclusión, ej ∈ hei ii∈I , para todo 1 ≤ j ≤ n. Por tanto, E = he1 , . . . , en i ⊆ hei ii∈I
y E = hei ii∈I .
Veamos que todas las bases tienen el mismo número de vectores. Sea n el número de vectores de
una base (hay muchas) con el mı́nimo número de vectores. Voy a proceder por inducción sobre n. Si
n = 1, entonces E = hei para cierto vector no nulo e. Dados dos vectores no nulos cualesquiera e01 , e02
tendremos que e01 = λ1 · e y e02 = λ2 · e, con λ1 , λ2 6= 0, entonces λ11 · e1 + −1 λ2 · e2 = e − e = 0, luego e1
0

y e02 no son linealmente independientes. En conclusión, las bases de E han de estar formadas todas
por un único vector.
Supongamos que el teorema es cierto hasta n − 1 ≤ 1, veamos que P es cierto para n. Sea aho-
ra {e1 , . . . , en } y {e01 , . . . , e0m } dos bases de E. Tenemos que e1 = 0
i λi ei , reordenando la base
{e01 , . . . , e0m }, podemos suponer que λ1 6= 0. Pruebe el lector que {ē2 , . . . , ēn } y {ē02 , . . . , ē0m } son
bases de E/he1 i (le costará un poco más ver que la segunda lo es). Obviamente, el número de vectores
10 Capı́tulo 1. Álgebra Lineal Tensorial

de una base de E/he1 i con el número mı́nimo de vectores es menor que n. Por inducción sobre n,
tendremos que n − 1 = m − 1, luego n = m.

Si k es un anillo (y no un cuerpo) no es cierto en general que los k-módulos tengan bases. Por
ejemplo el Z-módulo Z/5Z no tiene bases, pues para todo n̄ ∈ Z/5Z, 5 · n̄ = 0. Los k-módulos que
tienen bases se denominan k-módulos libres. k n es un k-módulo libre y una base de él es la base
estándar.
Si {ei }i∈I son linealmente independientes y {ēj }j∈J es una base P de E/heP i ii∈I entonces {ei , ej }i∈I,j∈J
es una base de E: Son linealmente independientes, pues si i λi e i + j λj ej = 0 entonces 0 =
P P P P
i λi ei + j λj ej = j λj ēj , luego λj = 0, paraP todo j, luego P i λi ei = 0 y λi = 0 para todo i.
0 0
Generan, pues dado e ∈ E, tendremos que ē = j λ j ē j , luego e = j λj ej + e , con e ∈ hei ii∈I , es
0
P P P
decir, e = i λi ei y e = j λj ej + i λi ei .
Como consecuencias tenemos que si F es un subespacio vectorial de E entonces dim E = dim F +
dim E/F , y todo sistema de vectores linealmente independiente se puede ampliar a un sistema de
vectores que formen base. Q
Dado un conjunto de espacios vectoriales {Ei }i∈I , el conjunto i∈I Ei es de modo natural un
espacio vectorial:
(ei )i∈I + (e0i )i∈I := (ei + e0i )i∈I λ · (ei )i∈I := (λ · ei )i∈I
Q
Diremos que i Ei es el producto directo de los espacios vectoriales Ei .
Definimos la suma directa de los espacios vectoriales Ei , que denotamos ⊕i∈I Ei , como
Y
⊕i∈I Ei = {(ei )i∈I ∈ Ei : todos los ei salvo un número finito son nulos}
i∈I

{ei }i∈I es un sistema generador de E si y sólo si el morfismo


X
⊕i∈I k → E, (λi )i∈I 7→ λi · ei
i

es epiyectivo; son linealmente independientes si y sólo si es inyectivo, y son una base si y sólo si es un
isomorfismo. Por tanto, todo espacio vectorial es isomorfo
Q a un ⊕i∈I k, pues siempre existen bases.
Observemos que si #I < ∞ entonces ⊕i∈I Ei = i∈I Ei .
Si F, F 0 son dos subespacios vectoriales de E se denota F +F 0 como el mı́nimo subespacio vectorial
que contiene a F y F 0 . Es fácil probar que
F + F 0 = {f + f 0 ∈ E, f ∈ F, f 0 ∈ F 0 }
El morfismo natural F ⊕ F 0 → F + F 0 , (f, f 0 ) 7→ f + f 0 es epiyectivo y es inyectivo si y sólo si
F ∩ F 0 = 0. Se dice que E es la suma directa de dos subespacios F, F 0 si y sólo si F ∩ F 0 = 0 y
F + F 0 = E, es decir, el morfismo F ⊕ F 0 → E, (f, f 0 ) 7→ f + f 0 es un isomorfismo, es decir, todo
vector e ∈ E se escribe de modo único como suma de un vector f ∈ F y otro vector f 0 ∈ F 0 .
Sea Homk (E, E 0 ) el conjunto de aplicaciones lineales de E en E 0 , que es un espacio vectorial de
modo natural, con la suma y producto por escalares siguientes:
(T + T 0 )(e) := T (e) + T 0 (e) y (λ · T )(e) := λ · T (e)
Se cumple que el morfismo
Y Y
Homk (E, Ei0 ) → Homk (E, Ei0 ), (Ti )i∈I 7→ T, T (e) := (Ti (e))i∈I
i∈I i
1.2. Espacios vectoriales. Espacio vectorial dual 11

es un isomorfismo de morfismo inverso T 7→ (πi ◦ T )i∈I , con πi : j Ej0 → Ei0 , πi ((e0j )j∈I ) := e0i .
Q
Se cumple que el morfismo
Y X
Homk (Ei , E 0 ) → Homk (⊕i∈I Ei , E 0 ), (Ti )i∈I 7→ T, T ((ei )i∈I ) := Ti (ei )
i i

i
es isomorfismo de morfismo inverso T 7→ (Ti )i∈I , Ti (ei ) := T ((0, . . . , ei , . . . , 0)).
0
Sea {ei }i∈I una base de E. Toda aplicación Plineal T : E → EP, está determinada por los valores
T (ei ), i ∈ I, pues dado e ∈ E entonces e = i λi ei y T (e) = P i λi T (ei ). Recı́procamente, dados
vi ∈ E 0 , i ∈ I, la aplicación lineal S : E → E 0 definida por S(e) := i λi vi , para e = i λi ei , cumple
P
que S(ei ) = vi . Formalmente,
Y Y
Homk (E, E 0 ) = Homk (⊕i∈I k, E 0 ) = Homk (k, E 0 ) = E 0 , T 7→ (T (ei ))i∈I
i∈I i∈I

{e0j } 0 0
P
Si es una base de E , entonces T (ei ) = para ciertos λij ∈ k (fijado i, todos los
j λji ej ,
λji son nulos salvo un número finito) y existe una correspondencia biunı́voca entre T y las uplas de
escalares (λji )(i,j)∈I×J , “caja” de números que es denominada matriz asociada a T en las bases {ei }
y {e0j } de E y E 0 respectivamente.
“Ası́ pues, T , que es una transformación de un espacio en otro que supera fácilmente nuestra
capacidad de ideación geométrica, está determinada por unos cuantos escalares λij ∈ k, que pueden
ser mecánicamente tratados”.
Fijada una base P {e1 , . . . , en } (por sencillez digamos que n < ∞) de un espacio vectorial E, dado
un vector e = i λi ei suele escribirse de modo abreviado e = (λ1 , . . . , λn ) (es decir, tenemos un
0 0 0
isomorfismo E = k n ). Igualmente, dada P una base P {e1 , . . . , em }Pde EP, escribiremos P TP(e) = e0 =
0 0 0 0
(λ1 , . . . , λmP), ahora bien, T (e) = T ( i λi ei ) = i λi T (ei ) = i λi ( j λji ej ) = j( i λji λi )ej ,
0
luego λj = i λji λi , para todo j. Ecuaciones que escribimos de modo abreviado
 0    
λ1 λ11 · · · λ1n λ1
 ..   .. ..  ·  .. 
=
 .   . .   . 
λ0m λm1 ··· λmn λn
0
o de modo mucho más abreviado e = T (e).
Si T : E → E 0 es una aplicación lineal de matriz asociada (λji ), entonces la matriz asociada a λ · T
es (λ · λji ). Escribiremos
λ · (λji ) = (λ · λji )
y diremos que es el producto de una matriz por un escalar.
Si T, T 0 : E → E 0 son dos aplicaciones lineales de matrices asociadas (λji ) y (λ0ji ) entonces la
matriz asociada a T + T 0 es (λji + λ0ji ). Escribiremos
(λji ) + (λ0ji ) = (λji + λ0ji )
y diremos que es la suma de matrices.
Sea T : E → E 0 y S : E 0 → E 00 dos aplicaciones lineales. Sea {ei }i∈I , {e0j }j∈J y {e00k }k∈K bases de
E, E 0 y E 00 respectivamente. Sea P (λji ) 0y (µkj
P) las matrices respectivas
P de T 00y S. Calculemos la matriz
0 00
P P P
(cki ) de S ◦ T : (S ◦ T )(e
Pi ) = S( λ
j ji je ) = λ
j ji S(e j ) = λ
j ji · ( µ e
k kj k ) = k ( j kj · λji ) · ek .
µ
En conclusión, cki = j µkj · λji . Seguiremos la notación,
(µkj ) ◦ (λji ) = (cki )
y diremos que (cki ) es el producto de las matrices (µkj ) y (λji ).
12 Capı́tulo 1. Álgebra Lineal Tensorial

6. Proposición : Una aplicación lineal T : E → E 0 es inyectiva si y sólo si aplica una (o toda) base
en un sistema de vectores linealmente independientes. T es epiyectiva si y sólo si aplica una base (o
toda) en un sistema generador. T es un isomorfismo si y sólo si aplica una base (o toda) en una base.
7. Definición : El espacio vectorial formado por el conjunto de aplicaciones lineales de un k-espacio
vectorial E en k se denomina espacio vectorial dual de E y se denota E ∗ , es decir,

E ∗ := Homk (E, k)

Los vectores w ∈ E ∗ se denominan formas lineales.


8. Proposición : Si E es un espacio vectorial de dimensión finita, de base {e1 , . . . , en } entonces las
formas lineales {w1 , . . . , wn }, determinadas por wi (ej ) = δij forman una base de E ∗ . Se dice que
{w1 , . . . , wn } es la base dual de {e1 , . . . , en }.

Demostración. Dada w ∈ E ∗ se tiene que w = w(e1P )·w1 +. . .+w(en )·wn , porque


P ambas formas lineales
coinciden sobre los vectores ei de la base de E. Si i λi wi = 0 entonces 0 = ( i λi wi )(ej ) = λj , para
todo j. En conclusión, {w1 , . . . , wn } son un sistema generador de E ∗ y son linealmente independientes,
es decir, son una base.

9. Teorema de reflexividad: Sea E un espacio vectorial de dimensión finita. La aplicación lineal


canónica
E → (E ∗ )∗ , e 7→ ẽ, ẽ(w) := w(e)
es un isomorfismo.

Demostración. Sea {e1 , . . . , en } una base de E y {w1 , . . . , wn } la base dual. Es inmediato que {ẽ1 , . . . , ẽn }
es la base dual de {w1 , . . . , wn }. La aplicación canónica aplica la base {e1 , . . . , en } en la base {ẽ1 , . . . , ẽn }
y es un isomorfismo.

Será usual escribir E = (E ∗ )∗ y e = ẽ.


Dada una aplicación lineal T : E → E 0 sea T ∗ : E 0∗ → E ∗ la aplicación lineal definida por T ∗ (w0 ) :=
w ◦ T . Se dice que T ∗ es el morfismo transpuesto de T .
0

Si {e1 , . . . , en } y {e01 , . . . , e0m } son bases de E y E 0 y (λji ) es la matriz asociada a T en estas P bases,
calculemos la matriz (λ∗ij ) de T ∗ , en las bases duales {w1 , . . . , wn }, {w10 , . . . , wm 0
}: T ∗ (wj0 ) = i λ∗ij wi .
Entonces,
X
λ∗ij = T ∗ (wj0 )(ei ) = wj0 (T (ei )) = wj0 ( λki e0k ) = λji
k

que se expresa diciendo que la matriz de T es la transpuesta de la matriz de T .

1.3. Producto tensorial


Queremos definir o construir el producto tensorial de dos espacios vectoriales E, E 0 . Veamos
qué cosas queremos y cómo queremos que operen.
Quiero un “producto” que denotaré ⊗, entre los vectores de E (que escribiré en primer lugar) y
los de E 0 (en segundo lugar). Dados e ∈ E y e0 ∈ E 0 , quiero construir e ⊗ e0 . Quiero sumar cosas de
éstas, quiero cosas de la forma e1 ⊗ e01 + · · · + en ⊗ e0n , con ei ∈ E y e0i ∈ E 0 . Por último quiero que el
producto verifique las siguientes propiedades (lineales):
1.3. Producto tensorial 13

(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0
λe ⊗ e0 = e ⊗ λe0
e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02
y no quiero imponer ninguna condición más (salvo las que se deriven de estas condiciones). Esto es
muy fácil, con la palabra sea.
Hablemos con todo rigor.
Sean E y E 0 dos k-espacios vectoriales. Sea M el Z-módulo libre de base {e ⊗ e0 }e∈E,e0 ∈E 0 . Es
decir,
M := ⊕ Z · e ⊗ e0
e∈E,e0 ∈E 0

es mera notación, que conviene”. M es un k-espacio vectorial: λ· i ni ·ei ⊗ e0i :=


P
“lo
P escrito en negrita
0
i ni (λei ⊗ ei ).
“Queremos identificar (e1 + e2 ) ⊗ e0 con e1 ⊗ e0 + e2 ⊗ e0 ; λe ⊗ e0 con e ⊗ λe0 ; y e ⊗ (e01 + e02 ) con
e ⊗ e01 + e ⊗ e02 .”
Sea N el subespacio vectorial de M , generado por los elementos, (e1 + e2 ) ⊗ e0 − e1 ⊗ e0 − e2 ⊗ e0 ,
λe ⊗ e0 − e ⊗ λe0 , y e ⊗ (e01 + e02 ) − e ⊗ e01 − e ⊗ e02 , es decir,
 (e1 + e2 ) ⊗ e0 − e1 ⊗ e0 − e2 ⊗ e0 
N := e ⊗ (e01 + e02 ) − e ⊗ e01 − e ⊗ e02 (∗)
λe ⊗ e0 − e ⊗ λe0 e,e1 ,e2 ∈E,e0 ,e01 e02 ∈E 0 ,λ∈k

1. Definición : Llamaremos producto tensorial de E por E 0 , que denotaremos por E ⊗k E 0 , a


E ⊗k E 0 := M/N
2. Notación: Dado e ⊗ e0 ∈ M , denotaremos e ⊗ e0 ∈ M/N = E ⊗ E 0 por e ⊗ e0 .
Pues bien, E ⊗ E 0 es un espacio vectorial y está generado por los vectores e ⊗ e0 , variando e ∈ E
y e ∈ E 0 (porque los vectores e ⊗ e0 generan M y E ⊗ E 0 = M/N ). Tomando clases en (∗) se tienen
0

las igualdades

(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0
e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02 (∗)
λe ⊗ e0 = e ⊗ λe0
Calculemos las aplicaciones lineales de E ⊗ E 0 en otro espacio vectorial V . Como E ⊗ E 0 = M/N ,
dar una aplicación lineal ϕ : E⊗E 0 → V equivale a dar una aplicación lineal φ : M → V que se anule en
N (de modo que ϕ(e⊗e0 ) = φ(e ⊗ e0 )). Ahora bien, M es un Z-módulo libre de base {e ⊗ e0 }e∈E,e0 ∈E 0 ,
ası́ pues, φ está determinado por φ(e ⊗ e0 ) (variando e ∈ E, e0 ∈ E 0 ) y se anula en N si y sólo si

φ((e1 + e2 ) ⊗ e0 ) = φ(e1 ⊗ e0 ) + φ(e2 ⊗ e0 )


φ(λe ⊗ e0 ) = φ(e ⊗ λe0 ))
φ(e ⊗ (e01 + e02 )) = φ(e ⊗ e01 ) + φ(e ⊗ e02 )
Además, ϕ es k-lineal si y sólo si φ(λe ⊗ e0 ) = λφ(e ⊗ e0 ).
En conclusión, dar una aplicación k-lineal ϕ : E ⊗k E 0 → V , equivale a definir ϕ(e ⊗ e0 ) (para todo
e ∈ E, e0 ∈ E 0 ) de modo que se cumpla
ϕ((e1 + e2 ) ⊗ e0 ) = ϕ(e1 ⊗ e0 ) + ϕ(e2 ⊗ e0 )
ϕ(λe ⊗ e0 ) = ϕ(e ⊗ λe0 ) = λϕ(e ⊗ e0 )
ϕ(e ⊗ (e01 + e02 )) = ϕ(e ⊗ e01 ) + ϕ(e ⊗ e02 )
14 Capı́tulo 1. Álgebra Lineal Tensorial

(De un modo más elegante, esta conclusión se expresa en los textos diciendo que se tiene la igualdad
Homk (E ⊗k E 0 , V ) = Bilk (E, E 0 ; V )).
Dadas dos aplicaciones lineales T : E → V , T 0 : E 0 → V 0 podemos definir el morfismo E ⊗ E 0 →
V ⊗ V 0 , e ⊗ e0 7→ T (e) ⊗ T 0 (e0 ), morfismo que lo denotaremos por T ⊗ T 0 .
3. Proposición : 1. E ⊗k E 0 = E 0 ⊗k E.

2. (E ⊕ E 0 ) ⊗k V = (E ⊗k V ) ⊕ (E 0 ⊗k V ).

3. ( ⊕ Ei ) ⊗k V = ⊕(Ei ⊗ V ).
i∈I i

4. k ⊗k E = E.

Demostración. 1. Tenemos el morfismo E ⊗E 0 → E 0 ⊗E, e⊗e0 7→ e0 ⊗e y su inverso E 0 ⊗E → E ⊗E 0 ,


e0 ⊗ e 7→ e ⊗ e0 .
2. Tenemos el morfismo (E ⊕ E 0 ) ⊗ V → (E ⊗ V ) ⊕ (E 0 ⊗ V ), (e, e0 ) ⊗ v 7→ (e ⊗ v, e0 ⊗ v) y el
inverso (E ⊗ V ) ⊕ (E 0 ⊗ V ) → (E ⊕ E 0 ) ⊗ V , (e ⊗ v, e0 ⊗ v 0 ) 7→ (e, 0) ⊗ v + (0, e0 ) ⊗ v 0 .
3. Idem que 2.
4. Tenemos el morfismo k ⊗ E → E, λ ⊗ e 7→ λe y el inverso E → k ⊗ E, e 7→ 1 ⊗ e.

4. Teorema : Si E es un espacio vectorial de base {e1 , . . . , en } y E 0 es un espacio vectorial de base


{e01 , . . . , e0m } entonces E ⊗k E 0 es un espacio vectorial de base {ei ⊗ e0j }1≤i≤n,1≤j≤m .

Demostración. E ⊗k E 0 = he ⊗ e0 ie∈E,e0 ∈E 0 . Dados e ∈ E y e0 ∈ E 0 entonces e = λi ei y e0 = λ0j e0j


P P
i j
y
X X X
e ⊗ e0 = ( λi ei ) ⊗ ( λj e0j ) = λi λ0j · ei ⊗ e0j
i j i,j

Por tanto, E ⊗ E 0 = hei ⊗ e0j i1≤i≤n,1≤j≤m .


m m
Además, E ⊗ E 0 = k n ⊗ k m = (k ⊗ k m ) ⊕ · · · ⊗ (k ⊗ k m ) = k m ⊕ · · · ⊕ k m = k nm , luego E ⊗ E 0
es un espacio vectorial de dimensión nm, de base {ei ⊗ e0j }1≤i≤n,1≤j≤m (de hecho puede comprobar
el lector que esta base se aplica vı́a las igualdades en la base estándar de k nm ).

Del mismo modo que hemos definido el producto tensorial de dos espacios vectoriales podrı́amos
haber definido el producto tensorial de tres espacios vectoriales, e igualmente dar una aplicación lineal
φ : E1 ⊗k E2 ⊗k E3 → V equivale a definir los φ(e1 ⊗ e2 ⊗ e3 ), para todo e1 ∈ E1 , e2 ∈ E2 , e3 ∈ E3 ,
de modo que sea k-lineal en cada uno de los tres factores, es decir, Homk (E1 ⊗k E2 ⊗k E3 , V ) =
Multilin(E1 × E2 × E3 , V ). Igualmente podemos definir el producto tensorial de n-espacios vectoriales.
5. Proposición : Homk (E ⊗k E 0 , E 00 ) = Homk (E, Homk (E 0 , E 00 )).

Demostración. Asignamos a φ ∈ Homk (E ⊗k E 0 , E 00 ), φ̃ ∈ Homk (E, Homk (E 0 , E 00 )), definido por


φ̃(e) := φ(e ⊗ −), donde φ(e ⊗ −)(e0 ) := φ(e ⊗ e0 ). Recı́procamente, asignamos al morfismo ϕ ∈
Homk (E, Homk (E 0 , E 00 )), ϕ̃ ∈ Homk (E ⊗k E 0 , E 00 ), definido por ϕ̃(e ⊗ e0 ) := (ϕ(e))(e0 ).

6. Proposición : (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em


0
) = E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em
0
.
1.4. Álgebra exterior n-ésima de un espacio vectorial 15

Demostración. Sea

φ ∈ Homk (E1 ⊗k · · · ⊗k En , Homk (E10 ⊗k · · · ⊗k Em


0
, E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em
0
))

definido por φ(e1 ⊗ · · · ⊗ en )(e01 ⊗ · · · ⊗ e0m ) := e1 ⊗ · · · ⊗ en ⊗ e01 ⊗ · · · ⊗ e0m . Por la proposición anterior
tenemos el morfismo (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em 0
) → E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em 0
,
0 0 0 0
definido por (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) 7→ e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em .
El morfismo E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em 0
→ (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em 0
),
0 0 0 0
e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em 7→ (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) es el morfismo inverso.

Hemos demostrado, además, la propiedad asociativa del producto tensorial, pues fácilmente ten-
emos que
E1 ⊗k (E2 ⊗k E3 ) = E1 ⊗k E2 ⊗k E3 = (E1 ⊗k E2 ) ⊗k E3
7. Teorema : Sean Ei k-espacios vectoriales de dimensión finita. La aplicación lineal
φ
E1∗ ⊗k . . . ⊗k En∗ → (E1 ⊗k · · · ⊗k En )∗ = Multilink (E1 × · · · × En , k)
w1 ⊗ · · · ⊗ wn 7→ w1 ⊗ · ˜· · ⊗ wn

con w1 ⊗ · ˜· · ⊗ wn (e1 ⊗ · · · ⊗ en ) := w1 (e1 ) · · · wn (en ), es un isomorfismo lineal.


Demostración. Sea {eij }i una base de Ej y {wij }i la base dual. Por tanto, una base de E1∗ ⊗k · · ·⊗k En∗
es {wi1 1 ⊗ · · · ⊗ win n }i1 ,...,in , que resulta ser vı́a φ la base dual de la base {ei1 1 ⊗ · · · ⊗ ein n }i1 ,...,in de
E1 ⊗k · · · ⊗k En .

8. Notación: Por abuso de notación suele denotarse w1 ⊗ · ˜· · ⊗ wn por w1 ⊗· · ·⊗wn . Recı́procamente,


w1 ⊗ · · · ⊗ wn suele pensarse como la aplicación multilineal w1 ⊗ · ˜· · ⊗ wn .
Otra fórmula importante es:
9. Proposición : Sea E 0 un k-espacio vectorial de dimensión finita. Entonces

E 0∗ ⊗k E = Homk (E 0 , E)

Demostración. Si E 0 = k es obvio. En general, E 0 = k n . Como Homk (−, E) y − ⊗k E conmutan con


sumas directas finitas, hemos concluido.
Explı́citamente, el morfismo E 0∗ ⊗k E → Homk (E 0 , E), w ⊗e 7→ w ⊗ ˜ e(e0 ) := w(e0 )·e,
˜ e, donde w ⊗
es un isomorfismo canónico.

1.4. Álgebra exterior n-ésima de un espacio vectorial


“Queremos definir ahora un producto ∧, con las propiedades multilineales de ⊗ y de modo que
v1 ∧ · · · ∧ vr sea cero si y sólo v1 , . . . , vn ∈ E no son linealmente dependientes. Basta imponer sólo que
v1 ∧ . . . ∧ vr es nulo si dos de los vi son iguales”.
n
Sea V el k-subespacio vectorial de E ⊗k · · · ⊗k E, generado por los vectores

e1 ⊗ · · · ⊗ ej−1 ⊗ e ⊗ · · · ⊗ ek−1 ⊗ e ⊗ · · · ⊗ en

variando ei , e, j, k.
16 Capı́tulo 1. Álgebra Lineal Tensorial

1. Definición : Llamaremos álgebra exterior n de E, que denotaremos por Λn E, a


n
Λn E := (E ⊗k · · · ⊗k E)/V
n
2. Notación: Denotaremos e1 ⊗ e2 ⊗ · · · ⊗ en ∈ (E ⊗k · · · ⊗k E)/V = Λn E por e1 ∧ e2 ∧ · · · ∧ en .
Observemos que ∧ además de las propiedades de multilinealidad heredadas de ⊗, cumple que
e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en = 0. Si ei es combinación lineal de los {ej }j6=i , entonces e1 ∧ e2 ∧ · · · ∧
P
ei ∧ · · · ∧ en = 0: ei = λj ej , luego
j6=i

P
e1 ∧ e2 ∧ · · · ∧ en = e1 ∧ · · · ∧ ei−1 ∧ ( λj ej ) ∧ ei+1 ∧ · · · ∧ en
j6=i
P
= λj e1 ∧ · · · ∧ ei−1 ∧ ej ∧ ei+1 ∧ · · · ∧ en = 0
j6=i

Como 0 = e1 ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧
· · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en + e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧
e ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e0 ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en
obtenemos que

e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en = −e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en
j k j k

Recordemos que toda permutación es producto de transposiciones y que el signo de la permutación es


igual a −1 elevado al número de las transposiciones. Por tanto, dada una permutación σ, de {1, . . . , n},
tenemos que

eσ(1) ∧ eσ(2) ∧ · · · ∧ eσ(n) = signo(σ) · e1 ∧ e2 ∧ · · · ∧ en


n
3. Como Λn E = (E ⊗ · · · ⊗ E)/V , dar un morfismo lineal φ : Λn E → F equivale a dar un morfismo
n
E⊗ · · ·⊗E → F , que se anule en V , es decir, equivale a definir φ(e1 ∧· · ·∧en ) (para todo e1 , . . . , en ∈ E)
que sea k-lineal en cada factor y de modo que φ(e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en ) = 0.
Dada una aplicación lineal T : E → E 0 induce el morfismo Λn T : Λn E → Λn E 0 , definido por
n
Λ T (e1 ∧ · · · ∧ en ) := T (e1 ) ∧ · · · ∧ T (en ).
4. Notación: Diremos que Λ0 E = k y que Λ1 E = E.
5. Teorema: Sea E un espacio vectorial de base {e1 , . . . , en }. Entonces {ei1 ∧· · ·∧eir }1≤i1 <i2 <···<ir ≤n
es una base de Λr E.
r
Demostración. Sabemos que {ei1 ⊗ · · · ⊗ eir }1≤ij ≤n es una base de E ⊗ · · · ⊗ E. Por tanto, tomando
clases tenemos que {ei1 ∧ · · · ∧ eir }1≤ij ≤n es un sistema generador de Λr E. Si en el producto exterior
de r-vectores aparecen vectores repetidos entonces es nulo. Además

eσ(1) ∧ eσ(2) ∧ · · · ∧ eσ(r) = signo(σ) · e1 ∧ e2 ∧ · · · ∧ er

Por tanto, {ei1 ∧ · · · ∧ eir }1≤i1 <i2 <···<ir ≤n es un sistema generador de Λr E.


P
Supongamos que existe una combinación lineal λi1 ,i2 ,··· ,ir ei1 ∧ · · · ∧ eir = 0, con
1≤i1 <i2 <···<ir ≤n
algún λi1 ,i2 ,··· ,ir 6= 0. Reordenando la base, podemos suponer que λ1,2,··· ,r 6= 0.
1.4. Álgebra exterior n-ésima de un espacio vectorial 17

Sea {wi } la base dual de {ei }. Consideremos la aplicación lineal


X
w : Λr E → k, v1 ∧ · · · ∧ vr 7→ signo(σ) · w1 (vσ(1) ) · · · wr (vσ(r) )
σ

P
Se cumple que 0 = w( λi1 ,i2 ,··· ,ir ei1 ∧ · · · ∧ eir ) = λ1,2,··· ,r .
1≤i1 <i2 <···<ir ≤n

6. Corolario : v1 , . . . , vn ∈ E son linealmente independientes si y sólo si v1 ∧ · · · ∧ vn 6= 0.

Demostración. Si v1 , . . . , vn ∈ E son linealmente independientes entonces forman parte de una base,


luego v1 ∧ · · · ∧ vn forma parte de una base de Λn E y es distinto de cero.

Si E es un espacio vectorial de dimensión n y base {e1 , . . . , en } entonces Λn E es un espacio vectorial


P
de dimensión 1 de base e1 ∧ · · · ∧ en . Dados v1 , · · · , vn ∈ E, con vi = λij ej , tendremos que
j

P
v1 ∧ · · · ∧ vn = (λ11 e1 + · · · + λ1n en ) ∧ · · · ∧ (λn1 e1 + · · · + λnn en ) = λ1i1 · · · λnin ei1 ∧ · · · ∧ ein
i1 6=···6=in
P P
= λ1σ(1) · · · λnσ(n) · eσ(1) ∧ · · · ∧ eσ(n) = ( signo(σ)λ1σ(1) · · · λnσ(n) ) · e1 ∧ · · · ∧ en
σ∈Sn σ∈Sn

7. Definición : Sea E un espacio vectorial de dimensión n y T : E → E un endomorfismo lineal.


Entonces Λn E = k y Λn T : Λn E → Λn E es la homotecia por cierto escalar de k, que llamaremos
determinante de T y denotaremos det(T ).
Si {e1 , . . . , en } es una base de E y la matriz de T en esa base es (λij ), entonces T (e1 )∧· · ·∧T (en ) =
P P
( signo(σ)λ1σ(1) · · · λnσ(n) ) · e1 ∧ · · · ∧ en , luego det(T ) = signo(σ)λ1σ(1) · · · λnσ(n) .
σ∈Sn σ∈Sn
8. Proposición : Sea E un espacio vectorial de dimensión finita. T : E → E es un isomorfismo si y
sólo si det(T ) 6= 0.

Demostración. Sea {e1 , . . . , en } una base de E. T es un isomorfismo ⇐⇒ T (e1 ), . . . , T (en ) son


linealmente independientes ⇐⇒ T (e1 ) ∧ · · · ∧ T (en ) 6= 0 ⇐⇒ det(T ) 6= 0.

9. Teorema : det(T ◦ T 0 ) = det(T ) · det(T 0 ).

Demostración. Se verifica que Λn (T ) ◦ Λn (T 0 ) = Λn (T ◦ T 0 ): (Λn (T ) ◦ Λn (T 0 ))(e1 ∧ · · · ∧ en ) =


Λn (T )(T 0 (e1 ) ∧ · · · ∧ T 0 (en )) = (T ◦ T 0 )(e1 ) ∧ · · · ∧ (T ◦ T 0 )(en ) = Λn (T ◦ T 0 )(e1 ∧ · · · ∧ en ).
Por tanto, multiplicar (en Λn E = k) por det(T 0 ) y después multiplicar por det(T ) es igual a
multiplicar por det(T ◦ T 0 ). Es decir, det(T ◦ T 0 ) = det(T ) · det(T 0 ).

10. Definición : Dada una matriz A = (aij ) llamaremos menor pq de la matriz, que denotaremos
por Aqp , al determinante de la matriz que se obtiene suprimiendo en (aij ) la columna p y la fila q.
11. Proposición : det(aij ) = (−1)q a1q Aq1 .
P
q
18 Capı́tulo 1. Álgebra Lineal Tensorial

Demostración. Sea {ei } una base. Entonces


P P P P P
det(aij )e1 ∧ · · · ∧ en = ( a1j ej ) ∧ · · · ∧ ( anj ej ) = a1k ek ∧ ( a2j ej ) ∧ · · · ∧ ( anj ej )
j j k j j
P P P P
= a11 e1 ∧ ( a2j ej ) ∧ · · · ∧ ( anj ej ) + · · · + a1n en ∧ ( a2j ej ) ∧ · · · ∧ ( anj ej )
j6=1 j6=1 j6=n j6=n
= a11 A11 · e1 ∧ · · · ∧ en + · · · + a1n An1 · en ∧ e1 ∧ · · · ∧ en−1
= ( (−1)j a1j Aj1 ) · e1 ∧ · · · ∧ en
P
j

y hemos concluido.
Sea T : E → E un isomorfismo lineal y sea A = (aij ) la matriz de T en una base {ej } de E.
Calculemos la matriz B = (bij ) de T −1 : T −1 (ei ) = bij ej , luego
P
j

T −1 (ei ) ∧ e1 ∧ · · · ∧ êj ∧ · · · ∧ en = bij ej ∧ e1 ∧ · · · ∧ êj ∧ · · · ∧ en = (−1)j bij e1 ∧ · · · ∧ en

Aplicando Λn T , obtenemos

ei ∧ T (e1 ) ∧ · · · ∧ êj ∧ · · · ∧ T (en ) = bij (−1)j det(T )e1 ∧ · · · ∧ en

Como ei ∧ T (e1 ) ∧ · · · ∧ êj ∧ · · · ∧ T (en ) = Aij · (−1)i e1 ∧ · · · ∧ en , entonces

Aij
bij = (−1)i+j
det(aij )

Hablemos, primero sin rigor, de orientación de un R-espacio vectorial, para ligar la intuición vaga
que tenemos de orientación con la definición matemática de orientación que daremos más adelante.
“Decimos que un espacio vectorial E de dimensión 1 (una recta) lo tenemos orientado, si sabemos
decir qué está a la derecha del cero y qué está a la izquierda del cero. Para esto es necesario y suficiente
con que tengamos un vector no nulo e ∈ E, de modo que diremos que un punto e0 ∈ E distinto de 0,
está a la derecha de 0 si e0 = λ · e, con λ > 0, diremos que está a la izquierda si λ < 0. Otro vector, v
define la misma orientación que e si y sólo si v = µe, con µ > 0. En conclusión, dar una orientación
en E, equivale a dar un e ∈ E (o cualquier otro λe, con λ > 0).
Sea ahora E un plano. Decimos que en el plano E estamos orientados, si siempre que tengamos
una recta (pongamos que pasa por el origen) orientada sabemos decir qué está a la derecha de la recta
o qué está a la izquierda de la recta. Ası́ si tenemos una recta orientada r = hei ⊂ E (donde e orienta
la recta), dado e0 (que no yazca en la recta) sabemos decir si está a la derecha o a la izquierda de la
recta. Además, si e0 está a la derecha de la recta, entonces los puntos de la derecha son de la forma
λe + µe0 , con µ > 0. Ası́ si fijamos la recta orientada r = hei y decimos que e0 está a la derecha de
r, definamos e ∧ e0 que es una base de Λ2 E, entonces v = αe + βe0 está a la derecha de r, si y sólo si
e ∧ v = β · e ∧ e0 con β > 0. En conclusión, dada una dos coforma c2 ∈ Λ2 E, tenemos una orientación
en E: Dada una recta orientada r = hei (donde e, o λe con λ > 0, orienta la recta) diremos que e0
está a la derecha de la recta r, si e ∧ e0 = β · c2 , con β > 0. Ası́ pues, dar una orientación en E, es dar
una c2 ∈ Λ2 E (o cualquier otra λ · c2 , con λ > 0).
Sea ahora E un R-espacio vectorial de dimensión 3. Decimos que estamos orientados en E, si dado
un plano orientado sabemos decir qué está a su derecha y qué está a su izquierda. Dar un plano V ⊂ E
orientado, es dar una dos coforma c2 ∈ Λ2 V (o cualquier otra λc2 , con λ > 0). Ası́ si tengo, una tres
coforma c3 ∈ Λ3 E (o cualquier otra λ · c3 , con λ > 0), dado e0 ∈ E, diré que está a la derecha de V
1.4. Álgebra exterior n-ésima de un espacio vectorial 19

si c2 ∧ e0 = α · c3 , con α > 0. Observemos, que si e00 = µe0 + v, con µ > 0 y con v ∈ V , entonces
c2 ∧ e00 = µ · c2 ∧ e0 = µλc3 . En conclusión, dar una orientación en E, es dar una c3 ∈ Λ3 E (o cualquier
otra λ · c3 , con λ > 0)”.
12. Definición : Dar una orientación en un R-espacio vectorial E de dimensión n, es dar una n-
coforma no nula cn ∈ Λn E. Decimos que dos orientaciones cn y c0n son iguales si cn = λ · c0n , con
λ > 0.
Como Λn E ' R, en E sólo podemos dar dos orientaciones, “una y su opuesta”.
Dada una orientación cn ∈ Λn E existe una única wn ∈ Λn E ∗ , salvo un factor multiplicativo positi-
vo, de modo que wn (cn ) ≥ 0. Equivalentemente, dada una n-forma wn , salvo un factor multiplicativo
positivo, tenemos definida una orientación.
Sea E un R-espacio vectorial de dimensión n orientado, y e1 ∧ . . . ∧ en ∈ Λn E una n-coforma que
orienta E (o equivalentemente una n-forma wn que orienta E).
13. Definición : Diremos que una base ordenada {e01 , . . . , e0n } está positivamente ordenada si e01 ∧
· · · ∧ e0n = λ · e1 ∧ · · · ∧ en , con λ > 0 (o equivalentemente si wn (e01 , . . . , e0n ) > 0).
14. Proposición : Sea e0i = λij ej . Entonces {e01 , . . . , e0n } está positivamente ordenada si y sólo si
P
j
det(λij ) > 0.

Demostración. e01 ∧ · · · ∧ e0n = det(λij ) · e1 ∧ · · · ∧ en .

15. Definición : Una aplicación multilineal H : E × . . . × E → V es una aplicación hemisimétrica si


H(e1 , · · · , en ) = 0 si ei = ej , para un i 6= j.
Observemos que si ei es combinación lineal de los demás ej , por la multilinealidad y hemisimetrı́a
de H, se cumple que H(e1 , . . . , en ) = 0. Por otra parte,

0 = H(e1 , · · · , e + v, · · · , e + v, · · · , en ) = H(e1 , · · · , e, · · · , v, · · · , en ) + H(e1 , · · · , v, · · · , e, · · · , en )

Luego H(e1 , · · · , e, · · · , v, · · · , en ) = −H(e1 , · · · , v, · · · , e, · · · , en ) y en general

H(e1 , · · · , · · · , en ) = signo(σ) · H(eσ(1) , · · · , eσ(n) )

Denotemos Hemk (E × · · · × E, V ), el conjunto de aplicaciones hemisimétricas de E × · · · × E en


V.
m
16. Proposición : Hemk (E × · · · × E, k) = (Λm E)∗ .
m
Demostración. Estamos repitiendo 1.4.3. Toda aplicación hemisimétrica H : E × · · · × E → k, define
la aplicación H̃ : E ⊗ .m. . ⊗ E → k, H̃(e1 ⊗ · · · ⊗ em ) = H(e1 , . . . , em ), que factoriza vı́a Λm E → k,
e1 ∧ · · · ∧ em 7→ H(e1 , . . . , em ). Recı́procamente, dada una aplicación lineal, Λm E → k, la composición
m
E × · · · × E → Λm E → k es hemisimétrica.

17. Proposición : Sea E un espacio vectorial de dimensión finita. Entonces,

Λm E ∗ = (Λm E)∗
φ
Demostración. La aplicación, Λm E ∗ → (Λm E)∗ , ω1 ∧ · · · ∧ ωm 7→ ω1 ∧ · ·˜· ∧ ωm , donde
X
ω1 ∧ · ·˜· ∧ ωm (v1 ∧ · · · ∧ vm ) := signo(σ) · ω1 (vσ(1) ) · · · ωm (vσ(m) )
σ∈Sm
20 Capı́tulo 1. Álgebra Lineal Tensorial

es un isomorfismo. Porque si e1 , . . . , en es una base de E y w1 , . . . , wn la base dual, entonces φ aplica


la base {wi1 ∧ · · · ∧ wim }i1 <···<im de Λm E ∗ en la base dual de la base {ei1 ∧ · · · ∧ eim }i1 <···<im de
Λm E.

Con las dos proposiciones anteriores obtenemos la siguiente proposición.


18. Proposición : Sea E un espacio vectorial de dimensión finita. Entonces
m
Λm E ∗ = Hemk (E × · · · × E, k)

Explı́citamente, Λm E ∗ → Hemk (E × · · · × E, k), w1 ∧ · · · ∧ wm 7→ w1 ∧ · ·˜· ∧ wm , donde


X
w1 ∧ · ·˜· ∧ wm (e1 , . . . , em ) := w1 ∧ · ·˜· ∧ wm (e1 ∧ . . . ∧ em ) = signo(σ) · w1 (eσ(1) ) · · · wm (eσ(m) )
σ∈Sm

es un isomorfismo lineal.
Sea E un R-espacio vectorial de dimensión n, con una orientación. La función F : E × · · · × E → R
que asigna a n-vectores el volumen del parelelepı́pedo definido por los n-vectores, multiplicado por
(−1) si los n vectores no están positivamente orientados, es una función hemisimétrica. Por tanto,
podemos definir F : Λn E → R, que asigna a e1 ∧ · · · ∧ en el volumen del paralelepı́pedo definido por
e1 , . . . , en (multiplicado por (−1) si los n vectores no están positivamente orientados). Si e0i = λij ej ,
P
j
como e01 ∧ · · · ∧ e0n = det(λij ) · e1 ∧ · · · ∧ en , tendremos que

F (e01 ∧ · · · ∧ e0n ) = F (det(λij ) · e1 ∧ · · · ∧ en ) = det(λij )F (e1 ∧ · · · ∧ en )

En conclusión, el volumen del paralelepı́pedo definido por los vectores e01 , · · · , e0n es | det(λij )| por
el volumen del paralelepı́pedo definido por los vectores e1 , . . . , en .
Λn E ∗ = hF i. Al hablar de volumen hemos cometido un error. Debemos fijar una unidad de
volumen. Debemos decir que cierto paralelepı́pedo tiene volumen 1. Debemos fijar un generador de
Λn E ∗ . A los vectores de Λn E ∗ se les llama formas de volumen.

1.5. Métricas
Uno de los conceptos difı́ciles de definir en la enseñanza básica es la noción de ángulo. Se dice
algo ası́ como que el ángulo entre dos semirectas concurrentes es (el área de) la región que hay entre
las dos rectas. ¿Qué es la región? Como se dice que una región es mayor que otra ¿es un número?
¡Pero la región es muy grande! Intentemos asignar a cada par de semirectas concurrentes un número:
“Consideremos un vector de módulo uno sobre cada semirecta. Midamos la longitud de la proyección
ortonormal de un vector de una recta en la otra. Esta medida, éste número, nos dará una idea exacta
del ángulo. Esta asignación de un número a cada par de semirectas concurrentes, puede extenderse
a una asignación de un número a cada par de vectores. En efecto, dados dos vectores e1 , e2 sean |e1 |
y |e2 | sus módulos y consideremos e01 = |ee11 | y e02 = |ee22 | . Sea N (e1 , e2 ) el número que se obtiene de
multiplicar la longitud de la proyección de e01 sobre e02 por |e1 | y |e2 |”. Resulta que N : E × E → R,
(e1 , e2 ) 7→ N (e1 , e2 ) es una aplicación bilineal. En conclusión, la noción de ángulo en un espacio
euclı́deo está estrechamente relacionada con la noción de aplicación bilineal. Veamos como a partir de
una aplicación bilineal definimos lo que es espacio euclı́deo, ángulo y módulo.
1.5. Métricas 21

Sea E un k-espacio vectorial de dimensión finita. Sea e1 , . . . , en una base de E y w1 , . . . , wn ∈ E ∗


la base dual. Sabemos que
Bilk (E × E, k) = E ∗ ⊗k E ∗
Una base de E ∗ ⊗k E ∗ es {wi ⊗ wj }. Ası́ pues, dada una aplicación bilineal T2 ∈ Bilk (E × E, k),
P
tendremos que T2 = λij wi ⊗ wj y
i,j

X
T2 (e, e0 ) = λij wi (e) · wj (e0 )
i,j

En particular, T2 (ei , ej ) = λij .


Por otra parte, E ∗ ⊗ E ∗ = Homk (E, E ∗ ). Explı́citamente, dada T2 = λij wi ⊗ wj tenemos un
P
i,j
morfismo, denominado la polaridad asociada a T2 y que denotamos también T2 , T2 : E → E ∗ definido
por
X
T2 (e) := λij · wi (e) · wj
ij

En particular, T2 (ei ) = λij wj , luego la matriz de T2 es (λij ). Observemos que T2 (e)(e0 ) = T2 (e, e0 ).
P
j
Recı́procamente, dado una aplicación lineal T2 : E → E ∗ , podemos definir una aplicación bilineal
que seguimos denotando T2 , T2 (e, e0 ) := T2 (e)(e0 ).
1. Definición : Se dice que T2 es no singular si det(λij ) 6= 0, es decir, T2 : E → E ∗ es un isomorfismo.
Si T2 : E → E ∗ es un isomorfismo, entonces T 2 := (T2 )−1 : E ∗ → E es un isomorfismo. Por tanto,
2 ∗ ∗ ∗
T define una aplicación bilineal
P en E (pues E = (E ) 2). Si la matriz de T2 es (λij ) la matriz de T 2
ij −1 ij
es (λ ) := (λij ) . Si T2 = ij λij wi ⊗ wj , entonces T = λ ei ⊗ ej . Por último observemos que si
w = T2 (e) y w0 = T2 (e0 ) entonces

T 2 (w, w0 ) = T 2 (w)(w0 ) = T 2 (T2 (e))(T2 (e0 )) = e(T2 (e0 )) = T2 (e0 )(e) = T2 (e0 , e)

2. Definición : Se dice que T2 es una métrica simétrica si T2 (e, e0 ) = T2 (e0 , e), para todo e, e0 ∈ E.
Si T2 es simétrica entonces λij = T2 (ei , ej ) = T2 (ej , ei ) = λji . Recı́procamente, si λij = λji , para
todo i, j, entonces T2 (e, e0 ) = T2 (e0 , e) para todo e, e0 ∈ E. Es decir, T2 es simétrica si y sólo si la
polaridad T2 coincide con su morfismo transpuesto T2∗ .
Supongamos a partir de ahora que T2 es simétrica. Se dice que e es ortogonal a e0 (respecto de T2 )
si T2 (e, e0 ) = 0. Se dice que dos subespacios E 0 , E 00 de E son ortogonales si T2 (e0 , e00 ) = 0 para todo
e0 ∈ E 0 y e00 ∈ E 00 . Se dice que E es la suma ortogonal de dos subespacios E 0 y E 00 si son ortogonales
y E es la suma directa de los dos subespacios. En este caso escribiremos E = E 0 ⊥E 00 . Observemos
que
T2 (e01 + e001 , e02 + e002 ) = T2 (e01 , e02 ) + T2 (e001 , e002 )
para todo e01 , e02 ∈ E 0 y e001 , e002 ∈ E 00 .
Si E 0 y E 00 son dos espacios vectoriales con sendas métricas T20 y T200 entonces podemos definir en
E = E 0 ⊕ E 00 la métrica

T2 (e0 + e00 , v 0 + v 00 ) := T20 (e0 , v 0 ) + T200 (e00 , v 00 )

Obviamente, E es la suma ortogonal de E 0 y E 00 .


22 Capı́tulo 1. Álgebra Lineal Tensorial

3. Definición : Se denomina radical de T2 , que denotaremos Rad T2 , al núcleo de la polaridad T2 , es


decir,
Rad T2 := {e ∈ E | T2 (e, e0 ) = 0 para todo e0 ∈ E}
Si E 0 es cualquier subespacio suplementario de Rad T2 entonces E = Rad T2 ⊥E 0 . La restricción
de T2 a Rad T2 es la métrica nula. La restricción de la métrica T2 a E 0 es no singular, porque dado
e0 ∈ E 0 si T2 (e0 , v) = 0 para todo v ∈ E 0 , entonces T2 (e0 , e) = 0 para todo e ∈ E y tendrı́amos que
e0 ∈ Rad T2 y por tanto e0 = 0. En general, si E = E 0 ⊥E 00 entonces Rad T2 = Rad T2|E 0 ⊕ Rad T2|E 00 .
Dado un subespacio V ⊆ E diremos que V ⊥ := {e ∈ E | T2 (v, e) = 0 para todo v ∈ V } es el
espacio ortogonal de V .
Dado un subespacio vectorial V ⊆ E diremos que V 0 := {w ∈ E ∗ | w(v) = 0 para todo v ∈ V } es
el subespacio (de E ∗ ) incidente de V . Si tomamos una base {e1 , . . . , er } de V y la ampliamos a una
base {e1 , . . . , en } de E y consideramos la base de E ∗ dual {w1 , . . . , wn } entonces {wr+1 , . . . , wn } es
una base de V 0 . Por tanto, dim V 0 = dim E − dim V .
Vı́a el teorema de reflexividad, dado W ⊂ E ∗ se tiene que W 0 = {e ∈ E | w(e) = 0 para todo
w ∈ W }. Dado V ⊆ E se tiene que

V ⊥ = {e ∈ E | 0 = T2 (v, e) = T2 (v)(e) para todo v ∈ V } = T2 (V )0

“Si dado un subespacio W ⊂ E ∗ pensamos de modo inmediato en W 0 , entonces podremos decir


que la polaridad T2 aplica cada subespacio vectorial de E en su ortogonal´´
4. Proposición : Si T2 es una métrica simétrica no singular de un espacio vectorial de dimensión
finita E y V ⊆ E es un subespacio vectorial entonces dim V ⊥ = dim E − dim V . Además, (V ⊥ )⊥ = V .

Demostración. dim V ⊥ = dim T2 (V )0 = dim E ∗ − dim T2 (V ) = dim E − dim V .


(V ⊥ )⊥ = V . Si v 0 ∈ V ⊥ entonces T2 (v 0 , v) = 0 para todo v ∈ V . Por tanto, V ⊆ (V ⊥ )⊥ . Por
otra parte, dim(V ⊥ )⊥ = dim E − dim V ⊥ = dim E − (dim E − dim V ) = dim V . Por dimensiones,
(V ⊥ )⊥ = V .

5. Definición : Se dice que una base {e1 , . . . , en } de E es ortonormal si T2 (ei , ej ) = 0 si i 6= j y


T2 (ei , ei ) = ±1.
6. Teorema: Sea E un R-espacio vectorial de dimensión finita y T2 una métrica simétrica no singular
en E. Entonces existe una base ortonormal {e1 , . . . , en } de E, luego matriz asociada a T2 en esta base
es  
±1 0 0
 0 ... 0 
 

0 0 ±1

Demostración. Veamos en primer lugar que si T2 (e, e) = 0 para todo e ∈ E entonces T2 = 0: Sean
e, e0 ∈ E, 0 = T2 (e + e0 , e + e0 ) = T2 (e, e) + T2 (e, e0 ) + T2 (e0 , e) + T2 (e, e0 ) = 2T2 (e, e0 ), luego T2 = 0.
Sea, pues, e ∈ E tal que T2 (e, e) 6= 0. Sea E 0 = hei⊥ . Se tiene que hei∩E 0 = 0, por tanto, por dimen-
siones, E = hei⊥E 0 . La restricción de T2 a E 0 es no singular, pues 0 = Rad T2 = Rad T2|hei ⊕Rad T2|E 0 .
Por inducción sobre la dimensión, existe una base ortonormal {e2 , . . . , en } en E 0 . Si consideramos
e1 = √ 1 · e tenemos que {e1 , . . . , en } es una base ortonormal de E.
|T2 (e,e)|

7. Definición : Se dice que E con la métrica simétrica T2 es un espacio euclı́deo si T2 (e, e) > 0 para
todo vector no nulo de E.
1.5. Métricas 23

En particular, en los espacios euclı́deos, T2 es no singular.


Reordenando la base, podemos suponer en el teorema anterior que
 
1
 r 

 . .. 

 
T2 ≡ 
 1 


 −1 

 .. 
 . 
−1

Veamos que el número r no depende de la base escogida: para todo e ∈ E 0 = he1 , . . . , er i, no nulo,
se tiene que T2 (e, e) > 0; del mismo modo para todo e ∈ E 00 = her+1 , . . . en i no nulo se cumple que
T2 (e, e) < 0. Supongamos que existe un subespacio vectorial V tal que para todo v ∈ V no nulo
T2 (v, v) > 0. Obviamente V ∩ E 00 = 0, luego dim V ≤ dim E − dim E 00 = dim E 0 = r. En conclusión,
r es la dimensión máxima de los subespacios euclı́deos de E.
p
8. Definición : Se define el módulo de un vector e como |T2 (e, e)|. Supongamos que E es euclı́deo,
se define el ángulo entre dos vectores no nulos e, e0 como el número 0 ≤ α < π tal que cosα = T2 (e, e0 ).
Por ejemplo, dos vectores (no nulos) son perpendiculares si y sólo si el ángulo entre ellos es π/2.
Toda métrica en E extiende de modo natural a Λm E: Dar una métrica T2 en E, equivale a definir
“la polaridad” T2 : E → E ∗ , T2 (e)(e0 ) := T2 (e, e0 ). La polaridad T2 define el morfismo, Λm T2 : Λm E →
Λm E ∗ , e1 ∧ · · · ∧ em 7→ T2 (e1 ) ∧ · · · ∧ T2 (em ). Ahora bien, Λm E ∗ = (Λm E)∗ , luego tengo un morfismo
Λm E → (Λm E)∗ , luego una métrica Λm T2 en Λm E definida por

Λm T2 (e1 ∧ · · · ∧ em , e01 ∧ · · · ∧ e0m ) = (T2 (e1 ) ∧ · · · ∧ T2 (em ))(e01 ∧ · · · ∧ e0m )


X
= signo(σ) · T2 (e1 )(e0σ(1) ) · · · T2 (em )(e0σ(m) )
σ∈Sm
X
= signo(σ) · T2 (e1 , e0σ(1) ) · · · T2 (em , e0σ(m) )
σ∈Sm

Si T2 es una métrica simétrica en E, entonces Λm T2 también lo es, porque (Λm T2 )∗ = Λm T2∗ =


m
Λ T2 .
Si e1 , . . . , en es una base ortonormal de E entonces {ei1 ∧ · · · ∧ eim }i1 <···<im es una base ortonor-
mal de Λm E. Si S : E → E es una isometrı́a, entonces det(S) = ±1: S(e1 ), . . . , S(en ) es una base
ortonormal de E y S(e1 ) ∧ · · · ∧ S(en ) = det(S) · e1 ∧ · · · ∧ en tiene módulo 1, luego det(S) = ±1.
Si E es un R-espacio vectorial de dimensión n, entonces Λn E es un R-espacio vectorial de dimensión
1. Si T2 es una métrica simétrica no singular de E, existe salvo signo una única forma de volumen de
módulo 1. Si {e1 , . . . , en } es una base de E y T2 ≡ (λij ). Entonces,

Λn T2 (e1 ∧ · · · ∧ en , e1 ∧ · · · ∧ en ) = (T2 (e1 ) ∧ · · · ∧ T2 (en ))(e1 ∧ · · · ∧ en )


= det(λij ) · w1 ∧ · · · ∧ wn (e1 ∧ · · · ∧ en ) = det(λij )
1
Ası́ pues, la coforma de volumen es √ · e1 ∧ · · · ∧ en . Igualmente, la forma de volumen es
| det(λij )|

1
q
wE = p · w1 ∧ · · · ∧ wn = | det(λij )| · w1 ∧ · · · ∧ wn
| det(λij )|
24 Capı́tulo 1. Álgebra Lineal Tensorial

Observemos que si e1 , . . . , en es una base ortonormal de E entonces wE = ± · w1 ∧ · · · ∧ wn y


wE (e1 , . . . , en ) = ±1.
Sea E un R-espacio vectorial euclı́deo de dimensión 3 orientado. Sea w3 ∈ Λ3 E ∗ la única 3-forma
que sobre una base ortonormal e1 , e2 , e3 positivamente orientada, vale w3 (e1 , e2 , e3 ) = 1. Es decir, si
w1 , w2 , w3 es la base dual de e1 , e2 , e3 entonces w3 = w1 ∧ w2 ∧ w3 (que con la métrica inducida por
la métrica de E ∗ , w3 es de módulo 1 y w3 define la orientación dada en E).
Dados dos vectores v1 , v2 ∈ E, llamamos producto vectorial de v1 por v2 , que denotamos por
v1 × v2 , al vector determinado por

T2 (v1 × v2 , e) = w3 (v1 , v2 , e)
Observemos que v1 ×v2 es ortogonal a v1 y v2 . El producto vectorial, ×, es multilineal hemisimétri-
co. Si v1 y v2 son linealmente independientes entonces v1 , v2 , v1 × v2 es una base positivamente orien-
tada, pues 0 < λ = T2 (v1 ×v2 , v1 ×v2 ) = w3 (v1 , v2 , v1 ×v2 ). Si v1 y v2 son ortogonales, entonces v1 ×v2
es el vector ortonormal a v1 y v2 , de módulo el producto de los módulos de v1 y v2 , de modo que
v1 , v2 , v1 × v2 están positivamente orientados: por la multilinealidad del producto vectorial podemos
suponer que v1 y v2 son de módulo 1. Sea v3 , tal que v1 , v2 , v3 sea una base ortonormal positivamente
orientada. Entonces, e1 ∧ e2 ∧ e3 = v1 ∧ v2 ∧ v3 y T2 (v1 × v2 , v3 ) = w3 (v1 , v2 , v3 ) = w3 (e1 , e2 , e3 ) = 1.
Por tanto, v1 × v2 = v3 y hemos terminado.
P
Observemos que si vi = λij ej , entonces T2 (v1 × v2 , v3 ) = det(λij ), pues v1 ∧ v2 ∧ v3 = det(λij ) ·
j
e1 ∧ e2 ∧ e3 y T2 (v1 × v2 , v3 ) = w3 (v1 , v2 , v3 ) = det(λij ).

1.6. Producto exterior y contracción interior


Si un morfismo φ : E ⊗ E 0 → E 00 se anula sobre los elementos e ⊗ e0 para todo e ∈ V ⊂ E y e0 ∈ E 0
entonces factoriza vı́a el morfismo φ̄ : (E/V ) ⊗ E 0 → E 00 , φ̄(ē ⊗ e0 ) := φ(e ⊗ e0 ).
El morfismo composición
n m n+m
(E ⊗ · · · ⊗ E) ⊗ (E ⊗ · · · ⊗ E) = E ⊗ · · · ⊗ E → Λn+m E
(e1 ⊗ · · · ⊗ en ) ⊗ (en+1 ⊗ · · · ⊗ en+m ) 7→ e1 ∧ · · · ∧ en+m
factoriza vı́a el morfismo, que llamaremos producto exterior de formas, Λn E ⊗ Λm E → Λn+m E,
(e1 ∧ · · · ∧ en ) ⊗ (en+1 ∧ · · · ∧ en+m ) 7→ e1 ∧ · · · ∧ en+m .
1. Proposición : El producto exterior de formas es asociativo: (Ωn ∧ Ωm ) ∧ Ωr = Ωn ∧ (Ωm ∧ Ωr ),
con Ωi ∈ Λi E.
El producto exterior de formas es anticonmutativo: Ωn ∧ Ωm = (−1)n·m Ωm ∧ Ωn , para toda Ωn ∈
Λ E y Ωm ∈ Λm E.
n

Demostración. La asociatividad es clara, en cuanto a la anticonmutatividad digamos sólo que


(e1 ∧ · · · ∧ en ) ∧ (en+1 ∧ · · · ∧ en+m ) = (−1)n·m (en+1 ∧ · · · ∧ en+m ) ∧ (e1 ∧ · · · ∧ en )

Dado w ∈ E ∗ y E ⊗ E 0 consideremos el morfismo “de contracción interior por w en el primer


n
factor” i1w : E ⊗ E 0 → E 0 , i1w (e ⊗ e0 ) := w(e) · e0 . Por otra parte, sea en E ⊗ · · · ⊗ E
n n−1 X
îw : E ⊗ · · · ⊗ E → E ⊗ · · · ⊗ E, îw (e1 ⊗ · · · ⊗ en ) := (−1)i−1 · w(ei ) · e1 ⊗ · · · ⊗ êi ⊗ · · · ⊗ en
i
1.6. Producto exterior y contracción interior 25

que llamaremos contracción interior hemisimétrica, que es la suma de la contracción interior por w
en cada factor afectada de un signo.
n
T E := k ⊕ E ⊕ (E ⊗ E) ⊕ · · · ⊕ (E ⊗ · · · ⊗ E) ⊗ . . ., con la suma, +, y con el producto, ⊗, se
dice que es el álgebra tensorial asociada a E. ΛE := k ⊕ E ⊕ (Λ2 E) ⊕ · · · ⊕ (Λn E) ⊗ . . ., con la suma,
+, y con el producto, ∧, se dice que es el álgebra exterior asociada a E. El epimorfismo T E → ΛE,
e1 ⊗ · · · ⊗ en 7→ e1 ∧ · · · ∧ en es un morfismo de álgebras (= de anillos).
2. Proposición : La contracción interior hemisimétrica es una antiderivación del álgebra tensorial,
n m
es decir, dadas Tn ∈ (E ⊗ · · · ⊗ E) y Tm ∈ (E ⊗ · · · ⊗ E), entonces

îw (Tn ⊗ Tm ) = (îw Tn ) ⊗ Tm + (−1)n Tn ⊗ (îw Tm )

Demostración. Basta demostrar la proposición para Tn = e1 ⊗ · · · ⊗ en y Tm = e01 ⊗ · · · ⊗ e0m . Ahora


bien, la suma de las contracciones interiores por w en cada factor (afectado por un signo) es contraer
primero en los n-primeros factores más contraer después en los últimos m factores. La cuestión del
signo se la dejamos al lector.

La contracción interior hemisimétrica en el álgebra tensorial define por paso al cociente un apli-
cación lineal que denominaremos “la contracción interior” en el álgebra exterior. En efecto, si vi = vj
(i < j) entonces

îw (v1 ⊗ · · · ⊗ vr ) =
= (−1)i−1 w(vi ) · v1 ∧ · · · ∧ v̂i ∧ · · · ∧ vj ∧ · · · ∧ vr + (−1)j−1 w(vj ) · v1 ∧ · · · ∧ vi ∧ · · · ∧ v̂j ∧ · · · ∧ vr
= ((−1)i−1 + (−1)j−1 · (−1)j−i−1 )w(vi )v1 ∧ · · · ∧ v̂i ∧ · · · ∧ vj ∧ · · · ∧ vr = 0

Tenemos pues el morfismo


X
iw : Λr E → Λr−1 E, iw (v1 ∧ · · · ∧ vr ) := îw (v1 ⊗ · · · ⊗ vr ) = (−1)i−1 w(vi ) · v1 ∧ · · · ∧ v̂i ∧ · · · ∧ vr
i

3. Corolario : La contracción interior es una antiderivación del álgebra exterior, es decir, dadas
Ωn ∈ Λn E y Ωm ∈ Λm E, entonces

iw (Ωn ∧ Ωm ) = (iw Ωn ) ∧ Ωm + (−1)n Ωn ∧ (iw Ωm )

Las n-formas se identifican con las aplicaciones hemisimétricas de orden n. Veamos qué es la
contracción interior por un vector de una aplicación hemisimétrica: Sea e ∈ E y Ωn = w1 ∧ · · · ∧ wn ∈
Λn E ∗ = Hemk (E × . n. . × E, k) entonces

(ie1 Ωn )(e2 , . . . , en ) = (ie (w1 ∧ · · · ∧ wn ))(e2 , . . . , en )


X
= ( (−1)i−1 wi (e1 )w1 ∧ · · · ∧ ŵi ∧ · · · ∧ wn ))(e2 , . . . , en )
i
1
X X
= (−1)i−1 signo(σ)w1 (eσ(2) ) · · · wi (e1 ) · · · wn (eσ(n) )
i σ∈Sn−1
2
= w1 ∧ · · · ∧ wn (e1 , e2 , . . . , en ) = Ωn (e1 , e2 , . . . , en )

1
= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.
26 Capı́tulo 1. Álgebra Lineal Tensorial

2
= Si definimos τi ∈ Sn , la permutación ` que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n},
entonces signo(τ ) = (−1)i−1 y Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones
`
que transforman el 1 en el i).
Para los ejercicios que siguen observemos que dado un subespacio vectorial V ⊆ E, tomando
duales tenemos el morfismo “de restricción” E ∗ → V ∗ , w 7→ w|V (w|V (v) := w(v), para toda v ∈ V ),
tenemos pues morfismos Λi E ∗ → Λi V ∗ , w1 ∧ · · · ∧ wi 7→ (w1 ∧ · · · ∧ wi )|V := w1|V ∧ · · · ∧ wi|V .
4. Ejercicio : Sea E un espacio euclı́deo orientado de dimensión n y E 0 ⊆ E un hiperplano. Sea N
un vector normal a E 0 de módulo 1. Sea wE la forma de volumen de E.
1. Probar que iN wE restringida a E 0 es igual a la forma de volumen wE 0 de E 0 que lo orienta, de
modo que si e2 , . . . , en es una base positivamente orientada de E 0 entonces N, e2 , . . . , en es una
base positivamente orientada de E.
2. Dado e ∈ E, (ie wE )|E 0 = T2 (e, N ) · wE 0 .
5. Ejercicio : Sea (E, T2 ) un espacio vectorial euclı́deo y R ⊂ E un subespacio vectorial de dimensión
1. Sea r un vector de R de módulo 1 que oriente a R y sea wR la forma de “longitud” de R. Dado
e ∈ E probar que (ie T2 )|R = T2 (e, r) · wR .

1.7. Álgebra tensorial simétrica


“Queremos definir ahora un producto conmutativo, con las propiedades multilineales de ⊗”.
n
Sea V el k-subespacio vectorial de E ⊗ · · · ⊗ E, generado por los vectores
j j
e1 ⊗ · · · ⊗ ej ⊗ · · · ⊗ ek ⊗ · · · ⊗ en − e1 ⊗ · · · ⊗ ek ⊗ · · · ⊗ ej ⊗ · · · ⊗ en

variando ei , j, k.
1. Definición : Llamaremos álgebra exterior n de E, que denotaremos por S n E, a
n
S n E := (E ⊗k · · · ⊗ E)/V
n
2. Notación: Denotaremos e1 ⊗ · · · ⊗ en ∈ (E ⊗k · · · ⊗ E)/V = S n E por e1 · · · en .
Observemos que · además de las propiedades multilineales heredadas de ⊗, cumple que

e1 · · · en = eσ(1) · · · eσ(n)

para todo σ ∈ Sn .
n
3. Como S n E = (E ⊗ · · · ⊗ E)/V , dar un morfismo lineal φ : S n E → F equivale a dar un morfismo
n
E ⊗ · · · ⊗ E → F que se anule en V , es decir, equivale a definir φ(e1 · · · en ) (para todo e1 , . . . , en ∈ E)
que sea k-lineal en cada factor y de modo que φ(e1 · · · en ) = φ(eσ(1) · · · eσ(n) ) para todo σ ∈ Sn . Es
decir,

n
Homk (S n E, F ) = {T ∈ M ultk (E × · · · × E, F ) | T (e1 , · · · , en ) = T (eσ(1) , · · · , eσ(n) ), ∀σ ∈ Sn }
n
= Aplic. n-mult. simétricas de E en F =: Simk (E × · · · × E, F )

4. Teorema : Sea E un espacio de base {e1 , . . . , en }. Entonces {ei1 · · · eir }1≤i1 ≤···≤ir ≤n es una base
de S r E.
1.7. Álgebra tensorial simétrica 27

r
Demostración. Sabemos que {ei1 ⊗· · ·⊗eir }1≤ij ≤n es una base de E⊗· · ·⊗E. Por tanto, tomando clases
tenemos que {ei1 · · · eir }1≤ij ≤n es un sistema generador de S r E. Como ei1 · · · eir = eiσ(1) · · · eiσ(r) para
todo σ ∈ Sr , tendremos que {ei1 · · · eir }1≤i1 ≤···≤ir ≤n es un sistema generador de S r E.
P
Nos falta probar que son linealmente independientes. Sea t = λi1 ,...,ir ei1 · · · eir = 0.
1≤i1 ≤···≤ir ≤n
Sea {w1 , . . . , wn } la base dual de {e1 , . . . , en }. Dado i1 ≤ · · · ≤ ir sea J el conjunto de todas las
wj1 ⊗ · · · ⊗ wjr ∈ Homk (S r E, k).
P
combinaciones con repetición de este conjunto y w =
{j1 ,...,jr }∈J
Entonces,
λi1 ,...,ir = w(t) = 0

n
Sn opera de modo natural en E ⊗ · · · ⊗ E permutando los factores: dada σ ∈ Sn y e1 ⊗ · · · ⊗ en ,
σ(e1 ⊗ · · · ⊗ en ) := eσ(1) ⊗ · · · ⊗ eσ(n) . Sea

n n
(E ⊗ · · · ⊗ E)Sn := {T ∈ E ⊗ · · · ⊗ E | σ(T ) = T para todo σ ∈ Sn }

El morfismo composición
n m n+m
(E ⊗ · · · ⊗ E) ⊗ (E ⊗ · · · ⊗ E) = E ⊗ · · · ⊗ E → S n+m E
(e1 ⊗ · · · ⊗ en ) ⊗ (en+1 ⊗ · · · ⊗ en+m ) 7→ e1 · · · en+m

factoriza vı́a el morfismo, que llamaremos producto simétrico de tensores simétricos, S n E ⊗ S m E →


S n+m E, (e1 · · · en ) ⊗ (en+1 · · · en+m ) 7→ e1 · · · en+m =: (e1 · · · en ) · (en+1 · · · en+m ).
5. Proposición : El producto simétrico de tensores simétricos es asociativo: (Tn · Tm ) · Tr = Tn · (Tm ·
Tr ), con Ti ∈ S i E.
El producto simétrico de tensores simétricos es conmutativo: Tn ·Tm = Tm ·Tn , para toda Tn ∈ S n E
y Tm ∈ S m E.
S · E := k ⊕ E ⊕ (S 2 E) ⊕ · · · ⊕ (S n E) ⊗ . . ., con la suma, +, y con el producto, ·, se dice que es el
álgebra simétrica asociada a E. El epimorfismo T E → S · E, e ⊗ · · · ⊗ e 7→ e · · · e es un morfismo
1 n 1 n
de álgebras (= de anillos). Denotaremos S 0 E = k y S 1 E = E.
Sea w ∈ E ∗ , llamaremos al morfismo

n n−1 X
ĩw : E ⊗ · · · ⊗ E → E ⊗ · · · ⊗ E, ĩw (e1 ⊗ · · · ⊗ en ) := w(ei ) · e1 ⊗ · · · ⊗ êi ⊗ · · · ⊗ en
i

contracción interior simétrica, que es la suma de la contracción interior por w en cada factor.
6. Proposición : La contracción interior simétrica es una derivación del álgebra tensorial, es decir,
n m
dadas Tn ∈ (E ⊗ · · · ⊗ E) y Tm ∈ (E ⊗ · · · ⊗ E), entonces

ĩw (Tn ⊗ Tm ) = (ĩw Tn ) ⊗ Tm + Tn ⊗ (ĩw Tm )

Demostración. Basta demostrar la proposición para Tn = e1 ⊗ · · · ⊗ en y Tm = e01 ⊗ · · · ⊗ e0m . Ahora


bien, la suma de las contracciones interiores por w en cada factor es contraer primero en los n-primeros
factores más contraer después en los últimos m factores.
28 Capı́tulo 1. Álgebra Lineal Tensorial

La contracción interior simétrica en el álgebra tensorial define por paso al cociente un aplicación
lineal que denominaremos “la contracción interior” en el álgebra simétrica. En efecto, el morfismo
X
iw : S r E → S r−1 E, iw (v1 · · · vr ) := w(vi ) · v1 · · · v̂i · · · vr
i

está bien definido.


7. Corolario : La contracción interior es una derivación del álgebra simétrica, es decir, dadas Tn ∈
S n E y Tm ∈ S m E, entonces

iw (Tn · Tm ) = (iw Tn ) · Tm + Tn · (iw Tm )


n
Sea E un espacio vectorial de dimensión finita. Vı́a el isomorfismo lineal E ⊗ · · ·⊗E ' M ultk (E ∗ ×
n n n
· · · × E ∗ , k), tenemos que (E ⊗ · · · ⊗ E)Sn = Simk (E ∗ × · · · × E ∗ , k).
8. Proposición : Supongamos que la caracterı́stica de k es primo con n!. El morfismo S : S n E →
n n
E ⊗ · · · ⊗ E, S(e1 · · · en ) = σ∈Sn eσ(1) · · · eσ(n) establece un isomorfismo entre S n E y (E ⊗ · · · ⊗ E)Sn
P
1 n
(cuyo morfismo inverso es precisamente n! · π, donde π : E ⊗ · · · ⊗ E → S n E es el morfismo natural
de paso a cociente).

Demostración. Es una comprobación inmediata.

En caracterı́stica cero, los tensores simétricos de orden n se identifican con las aplicaciones simétri-
cas de orden n. Veamos qué es la contracción interior por un vector de una aplicación simétrica: Sea
e ∈ E y Tn = w1 · · · wn ∈ S n E ∗ = Simk (E × . n. . × E, k) entonces

(ie1 Tn )(e2 , . . . , en ) = (ie (w1 · · · wn ))(e2 , . . . , en )


X
= ( wi (e1 ) · w1 · · · ŵi · · · wn )(e2 , . . . , en )
i
1
X X
= w1 (eσ(2) ) · · · wi (e1 ) · · · wn (eσ(n) )
i σ∈Sn−1
2
= w1 · · · wn (e1 , e2 , . . . , en ) = Tn (e1 , e2 , . . . , en )

1
= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.
2
= Si definimos τi ∈` ` permutación que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n},
Sn , la
entonces Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones que transforman el
1 en el i).

1.8. Módulo de diferenciales. Derivaciones


Sea k un cuerpo, A un anillo y k ,→ A un morfismo de anillos (en este caso se dice que A es
una k-álgebra y escribiremos λ 7→ λ). Sea E el A-módulo libre de base {db, para todo b ∈ A},
P
es decir, E es el A-módulo formado por las sumas formales finitas ab db (ab ∈ A y casi todos
b∈A
nulos). Sea E 0 el A-submódulo de E generado por los elementos d(b + b0 ) − db − db0 , d(λb) − λdb
y d(bb0 ) − b0 db − bdb0 (para todo b, b0 ∈ A y λ ∈ k).
1.8. Módulo de diferenciales. Derivaciones 29

1. Definición : Llamaremos A-módulo de diferenciales de Kahler de A sobre k, que denotaremos por


ΩA/k , a
ΩA/k := E/E 0

2. Notación:: Denotaremos adb por adb.


Observemos que d(b + b0 ) = db + db0 , dλb = λdb y d(bb0 ) = b0 db + bdb0 .
Dar un morfismo de A-módulos φ : ΩA/k → M , equivale a dar un morfismo de A-módulos E → M ,
que se anule sobre E 0 , es decir, equivale a dar φ(db), para todo b ∈ A, de modo que φ(d(b + b0 )) =
φ(db) + φ(db0 ), φ(dλb)) = λφ(db) y φ(dbb0 ) = b0 φ(db) + bφ(db0 ).
3. Definición : Sea A una k-álgebra y M un A-módulo. Diremos que una aplicación D : A → M es
una k-derivación si verifica las siguientes condiciones:

1. D es un morfismo de k-módulos.

2. D(ab) = bD(a) + aD(b) para todo a, b ∈ B.

Observemos que D(1) = D(1 · 1) = 1D(1) + 1D(1) = 2D(1), luego D(1) = 0. Además, dado λ ∈ k,
D(λ) = λD(1) = 0.
El conjunto de todas las k-derivaciones de A en M se denota por Derk (A, M ). Si definimos

(D + D0 )(a) := D(a) + D0 (a) (aD)(b) := aDb

tenemos que el conjunto de todas las k-derivaciones de A en M tiene estructura de A-módulo.


4. Proposición : Sea A una k-álgebra y M un A-módulo. Se cumple que

HomA (ΩA/k , M ) = Derk (A, M )

Demostración. Dado un morfismo de A-módulos T : ΩA/k → M consideremos la derivación DT : A →


M , DT (a) := T (da). Recı́procamente, dada una derivación D : A → M , consideremos el morfismo
de A-módulos TD : ΩA/k → M , TD (db) = Db. Las asignaciones D TD , T DT son inversas entre
sı́.

El morfismo natural d : A → ΩA/k , a 7→ da, es una derivación, es decir, verifica que d(a + a0 ) =
da + da0 , d(ab) = adb + bda. Además d se anula sobre k.
Sea A = k[x1 , . . . , xn ] el anillo de polinomios y M un A-módulo. Si una k-derivación

D : k[x1 , . . . , xn ] → M

se anula sobre los xi entonces D = 0: Por linealidad basta probar que es nula sobre los monomios xα
y para ello procedamos por inducción sobre |α| = α1 + . . . + αn . Supongamos α1 6= 0, sea β, tal que
β1 = α1 −1 y βi = αi , para i > 1 (luego |β| < |α|), entonces D(xα ) = D(x1 ·xβ ) = xβ ·Dx1 +x1 ·Dxβ =
0 + 0 = 0.
Dado m ∈ M , sea m ∂x ∂
i

la derivación definida por m ∂x i
(p(x)) := ∂p(x)
∂xi · m. Dada una derivación D

P
entonces D = (Dxi ) · ∂xi , pues la diferencia entre los dos términos de la igualdad es una derivación
i
que se anula en todos los xi . Ahora ya es claro el teorema siguiente.

5. Teorema : Derk (k[x1 , . . . , xn ], M ) = M ∂x 1
⊕ · · · ⊕ M ∂x∂n .
6. Corolario : Ωk[x1 ,...,xn ]/k = k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn .
30 Capı́tulo 1. Álgebra Lineal Tensorial


P
Demostración. La diferencial d : k[x1 , . . . , xn ] → Ωk[x1 ,...,xn ]/k es una derivación, luego d = i dxi · ∂x i
P ∂p(x)
por el teorema anterior y dp(x) = ∂xi · dxi . Por tanto, dx 1 , . . . dxn es un sistema generador de
i
Ωk[x1 ,...,xn ]/k . Por otra parte, el morfismo Ωk[x1 ,...,xn ]/k → k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn ,
dp(x) 7→ ∂p(x)
P
∂xi · dxi , está bien definido, lo que muestra que dx1 , . . . dxn es una base.
i
Otro método de demostración estándar en Matemáticas, que esencialmente hemos seguido, dice:
de la igualdad (funtorial) para todo M , de los dos extremos de las igualdades,

∂ ∂
Homk[x1 ,...,xn ] (Ωk[x1 ,...,xn ]/k , M ) = Derk[x1 ,...,xn ] (k[x1 , . . . , xn ], M ) = M ⊕ ··· ⊕ M
∂x1 ∂xn
= Homk[x1 ,...,xn ] (k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn , M )

se deduce que Ωk[x1 ,...,xn ]/k = k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn .

Sea mα ⊂ A un ideal maximal tal que A/mα = k como k-álgebras. Dado a ∈ A, denotemos
a(α) = ā ∈ k = A/mα . La aplicación

dα : A → mα /m2α , dα a := a − a(α)

es una k-derivación: Observemos que mα /m2α es un A-módulo, a · m̄ := am = a(α) · m̄ (porque


(a − a(α)) · m ∈ m2α ). Ahora ya,

dα (a · b) = a · b − a(α) · b(α) = a · (b − b(α)) + b(α) · (a − a(α)) = a(α) · dα b + b(α) · dα a

Dado un A-módulo M , denotemos M (α) = M/mα · M .


7. Teorema : ΩA/k (α) = mα /m2α .

Demostración. El morfismo ΩA/k (α) → mα /m2α , adb 7→ a(α)dα b está bien definido y el morfismo
inverso es mα /m2α → ΩA/k (α), b̄ 7→ db.

Dado α ∈ k n , el núcleo del morfismo k[x1 , . . . , xn ] → k, p(x1 , . . . , xn ) 7→ p(α), es el ideal maximal


mα = (x1 − α1 , . . . , xn − αn ). El morfismo natural, Ωk[x1 ,...,xn ]/k (α) = mα /m2α , asigna dp 7→ dα p =
P ∂p P ∂p
p(x) − p(α). Como dp = i ∂x i
dxi entonces dα p = i ∂x i
(α) · dα xi .
Si M es un A-módulo e I ⊂ A un ideal entonces ΛrA M/I · ΛrA M = ΛA/I (M/I · M ), pues los
morfismos m1 ∧ · · · ∧ mr 7→ m̄1 ∧ · · · ∧ m̄r , m̄1 ∧ · · · ∧ m̄r 7→ m1 ∧ · · · ∧ mr son inversos entre sı́. Por
lo tanto,

(ΛrA ΩA/k )(α) = Λrk mα /m2α


Si N es un A-módulo anulado por un ideal I, en particular es un A/I-módulo, ā · n := a · n.
Recı́procamente, si N es un A/I-módulo es en particular un A-módulo a · n := ¯·n. Si N 0 es otro A/I-
módulo entonces HomA (N, N 0 ) = HomA/I (N, N 0 ). Si M y N son A-módulos y N es un A-módulo
anulado por un ideal I, entonces todo morfismo de A-módulos f : M → N se anula en I · M , luego
podemos definir f¯: M/I · M → N , m̄ 7→ f (m) y f = f¯ ◦ π, donde π : M → M/I · M , π(m) := m̄.
Tenemos HomA (M, N ) = HomA (M/I · M, N ), f 7→ f¯.
8. Teorema : Sea N un A-módulo anulado por mα (es decir, un A/mα -módulo). Entonces,

Homk (mα /m2α , N ) = Derk (A, N )


1.9. Diferencial, contracción por un campo, derivada de Lie 31

Demostración. Homk (mα /m2α , N ) = HomA (mα /m2α , N ) = HomA (ΩA/k (α), N ) = HomA (ΩA/k , N ) =
Derk (A, N ).

Explı́citamente, dado f : mα /m2α → N tenemos f ◦ dα : A → N ; dado D : A → N , tenemos


mα /m2α → N , dα b 7→ Db.

1.9. Diferencial, contracción por un campo, derivada de Lie


1. Teorema : El morfismo natural d : A → ΩA/k extiende de modo único a una antiderivación de gra-
do 1 del álgebra exterior de ΩA/k de cuadrado nulo, es decir, existen morfismos únicos di : Λi ΩA/k →
Λi+1 ΩA/k , de modo que d0 = d, di+1 ◦ di = 0 y

dn+m (Ωn ∧ Ωm ) = (dn Ωn ) ∧ Ωm + (−1)n Ωn ∧ (dm Ωm )

Demostración. Estamos obligados a definir d1 : ΩA/k → Λ2 ΩA/k , adb 7→ da∧db (que está bien definida)
y en general dn (w1 ∧ · · · ∧ wn ) := (−1)i−1 · w1 ∧ · · · ∧ d1 (wi ) ∧ · · · wn .
P
i
Obsérvese que dn (adb1 ∧ · · · ∧ dbn ) = da ∧ db1 ∧ · · · ∧ dbn , luego di+1 ◦ di = 0.

2. Notación: Denotaremos dn = d, si no induce a equivocación, Ωi = Λi ΩA/k , siendo Ω0 = A.



Denotaremos Ω· = ⊕ Ωi . Ω· , con el producto exterior es un álgebra “anticonmutativa”.
i=0
3. Proposición : Sea D ∈ Derk (A, A) = HomA (ΩA/k , A). Entonces DL := iD ◦ d + d ◦ iD es una
derivación de grado cero de Ω· , que sobre A es D (sobrentendemos que iD sobre A es nulo).

Demostración. Por ser iD y d antiderivaciones de grado −1 y 1 respectivamente entonces DL es una


derivación de grado cero (compruébese).

4. Proposición : DL ◦ d = d ◦ DL .

Demostración. DL ◦ d = (iD ◦ d + d ◦ iD ) ◦ d = d ◦ iD ◦ d. d ◦ DL = d ◦ (iD ◦ d + d ◦ iD ) = d ◦ iD ◦ d.

Por tanto, DL (adb1 ∧ · · · ∧ dbn ) = Da · db1 ∧ · · · ∧ dbn +


P
adb1 ∧ · · · ∧ d(Dbi ) ∧ · · · ∧ dbn .
i
Dadas D, D0 ∈ Derk (A, A), definamos [D, D0 ] := D ◦ D0 − D0 ◦ D que resulta ser una derivación de
A. Por otra parte, la derivación DL sobre ΩA/k induce de modo natural una derivación, denotémosla

también DL , sobre Derk (A, A) = HomA (ΩA/k , A): Dada D0 definimos DL D como sigue, (DL D0 )(w) :=
0 L 0 L 0 0
D(w(D )) − (D w)(D ), para cada w ∈ ΩA/k . Se cumple que D D = [D, D ]: basta comprobar la
igualdad para w = db,

[D, D0 ](db) = (D ◦ D0 − D0 ◦ D)(b)


(DL D0 )(db) = D(db(D0 )) − (DL (db))(D0 ) = D(D0 b) − (dDb)(D0 ) = D(D0 b) − D0 (Db)

De hecho, podrı́amos haber definido DL D0 := [D, D0 ], después podrı́amos haber definido DL w,


para toda w ∈ ΩA/k (suponiendo que ΩA/k = Derk (A, A)∗ ) y después podrı́amos haber extendido
DL como antiderivación sobre el álgebra exterior de ΩA/k . Por último, nos quedarı́a probar que
DL = iD ◦ d + d ◦ iD .
32 Capı́tulo 1. Álgebra Lineal Tensorial

5. Proposición : Sean D, D0 ∈ Derk (A, A) dos derivaciones. Entonces

DL ◦ iD0 − iD0 ◦ DL = i[D,D0 ]

Demostración. Por ser DL una derivación de grado cero y iD0 una antiderivación de grado −1. entonces
DL ◦ iD0 − iD0 ◦ DL es una antiderivación de grado −1, que estará determinada por lo que vale sobre

ΩA/k , que es i[D,D0 ] , por =.
6. Fórmula de Cartan : Dada w ∈ ΩA/k entonces

dw(D, D0 ) = D(w(D0 )) − D0 (w(D)) − w([D, D0 ])

Demostración. dw(D, D0 ) = iD0 (iD dw) = iD0 ((DL − d ◦ iD )(w)) = (DL ◦ iD0 − i[D,D0 ] )w − D0 w(D) =
D(w(D0 )) − w([D, D0 ]) − D0 w(D).

1.10. Cálculo valorado


1. Definición : Una aplicación d : M → M ⊗A ΩA/k diremos que es una diferencial en M , si
1. d(m + m0 ) = dm + dm0 .
2. d(am) = adm + m ⊗ da.
La diferencial d : M → M ⊗ΩA/k extiende a M ⊗Ω·A/k : d(m⊗Ωi ) := dm∧Ωi +m⊗dΩi (observemos
P P
que dm = mj ⊗ wj , con wj ∈ ΩA/k y denotamos dm ∧ ωi = mj ⊗ wj ∧ Ωi ). Los elementos de
j j
M ⊗ Ωi los llamaremos i-formas valoradas en M .
Dada otra diferencial d : M 0 → M 0 ⊗ΩA/k , tenemos la diferencial d : M ⊗A M 0 → M ⊗A M 0 ⊗A ΩA/k ,
d(m⊗m0 ) := dm⊗m0 +m⊗dm0 (reordenando en el primer sumando los factores del producto tensorial
para que todo tenga sentido).
Dadas m ⊗ Ωi ∈ M ⊗ Ωi y m0 ⊗ Ωj denotemos (m ⊗ Ωi ) ∧ (m0 ⊗ Ωj ) := m ⊗ m0 ⊗ Ωi ∧ Ωj ∈
M ⊗ M 0 ⊗ Ωi+j . Tenemos un morfismo
(M ⊗ Ω· ) ⊗ (M 0 ⊗ Ω· ) → M ⊗ M 0 ⊗ Ω·

wi ⊗ wj 7→ wi ∧ wj

Se cumple que d(wi ∧ wj ) = dwi ∧ wj + (−1)i wi ∧ dwj . Dado D ∈ Derk (A, A), sea iD : M ⊗Ω· →
M ⊗Ω· , iD (m⊗Ωi ) = m⊗iD Ωi . Obviamente, iD (wi ∧ wj ) = iD wi ∧ wj + (−1)i wi ∧ iD wj . Definamos
DL := iD ◦ d + d ◦ iD , que resulta ser una derivación, es decir

DL (wi ∧ wj ) = DL wi ∧ wj + wi ∧ DL wj

Denotaremos DL m = iD dm =: D∇ m. Es sencillo comprobar que

DL ◦ iD0 − iD0 ◦ DL = i[D,D0 ]

Dada una 1-forma valorada w ∈ M ⊗ Ω, tenemos que


dw(D1 , D2 ) = iD2 (iD1 dw) = iD2 (−d(w(D1 )) + D1L w) = −D2∇ (w(D1 )) + D1∇ (w(D2 )) − w([D1 , D2 ])
1.10. Cálculo valorado 33

2. Definición : Una conexión ∇ en un A-módulo M es una aplicación Derk (A, A) × M → M , donde


seguimos la notación (D, m) 7→ D∇ m, cumpliendo

1. (D + D0 )∇ m = (D∇ m) + (D0 m).
2. (aD)∇ m = a(D∇ m).
3. D∇ (am) = (Da) · m + aD∇ m.
4. D∇ (m + m0 ) = D∇ m + D∇ m0 .
Para todo a ∈ A, m, m0 ∈ M , D, D0 ∈ Derk (A, A).
Toda diferencial d : M → M ⊗A ΩA/k , define la conexión ∇ dada por D∇ m := iD (dm), que cumple
que D∇ (am) = iD (d(am)) = iD (m ⊗ da + adm) = (Da)m + aiD dm = (Da)m + aD∇ m y las demás
propiedades exigidas a las conexiones.
A partir de ahora supondremos que ΩA/k es un A-módulo libre finito generado
Derk (A, A) es un A-módulo libre finito generado y ΩA/k y Derk (A, A) son duales entre sı́. Además,
M ⊗A ΩA/k = HomA (Derk (A, A), M ), m ⊗ w pensado en HomA (Derk (A, A), M ) es la aplicación lineal
(m ⊗ w)(D) := w(D)m.
3. Proposición : Supongamos que ΩA/k es un A-módulo libre finito generado. Existe una correspon-
dencia biunı́voca entre conexiones en M y diferenciales de M .
Demostración. A cada diferencial le hemos asignado ya una conexión lineal. Recı́procamente, dada la
conexión ∇ sea d(m), tal que dm(D) = D∇ m.

Si tenemos dos módulos M, N con sendas diferenciales, podemos definir una diferencial en HomA (M, N ):

d : HomA (M, N ) → HomA (M, N ) ⊗ ΩA/k = HomA (M, N ⊗ ΩA/k )

d(T )(m) := d(T (m)) − (T ⊗ 1)(dm). Como sabemos esta diferencial extiende a HomA (M, N ) ⊗ Ω· .
Se cumple que dado T ∈ HomA (M, N ) ⊗ Ωn = HomA (M, N ⊗ Ωn ) su diferencial como elemento de
HomA (M, N ) ⊗ Ω· coincide con la diferencial de T pensado como elemento de HomA (M, N ⊗ Ωn ).
Un morfismo T : M → N de A-módulos diremos que es diferencial si dT = 0, es decir, d ◦ T =
T ◦ d. Si el morfismo T es diferencial, entonces T : M ⊗ Ω· → M 0 ⊗ Ω· conmuta con d, iD , DL y
(T ⊗ T )(w ∧ w0 ) = T (w) ∧ T (w0 ). El morfismo HomA (M, N ) ⊗ M → N , φ ⊗ m 7→ φ(m), resulta ser
diferencial. Cuando tengamos una n-forma wn valorada en HomA (M, N ) y otra m-forma wm valorada
en N , entendemos vı́a este morfismo que wn ∧ wm es una n + m-forma valorada en N .
4. Definición : El morfismo A-lineal d2 : M → M ⊗ Ω2 diremos que es el tensor de curvatura.
5. Proposición : d2 (m)(D1 , D2 ) = D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m.
Demostración. iD2 (iD1 d2 m) = iD2 (D1L dm−diD1 dm) = D1L (iD2 (dm))−dm([D1 , D2 ])−(dD1∇ m)(D2 ) =
D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m.
Si ΩA/k es un A-módulo libre finito generado, entonces HomA (M, M ⊗ Ω2 ) = EndA M ⊗ Ω2 .
Denotaré por R ∈ EndA (M ) ⊗ Ω2 al tensor correspondiente a d2 . Observemos que R(D1 , D2 , m) =
D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m.
6. Proposición : Dada w ∈ M ⊗ Ωi , entonces

d2 w = R ∧ w
34 Capı́tulo 1. Álgebra Lineal Tensorial

Demostración. Escribamos w = m ⊗ Ωi . Entonces, d2 (m ⊗ Ωi ) = d(dm ⊗ Ωi + m ⊗ dΩi ) = d2 m ⊗ Ωi −


dm ⊗ dΩi + dm ⊗ dΩi + m ⊗ d2 Ωi ) = d2 m ⊗ Ωi = R ∧ w.
7. Identidad diferencial de Bianchi : dR = 0.
d2
Demostración. La diferencial del morfismo M → M ⊗ Ω2 es nula ya que el cuadrado

M
d2 / M ⊗ Ω2

d d
 
/ M ⊗ Ω3
2
d
M ⊗Ω
es conmutativo.
8. Definición : Una conexión sobre M = Derk (A, A) se llama conexión lineal.
Supongamos que ΩA/k es un A-módulo libre finito generado y que tenemos una conexión lineal.
Pensemos Id ∈ HomA (ΩA/k , ΩA/k ) = Derk (A, A) ⊗ Ω como una 1-forma valorada (no como endomor-
fismo). Denotemos d Id = Tor∇ ∈ Derk (A, A) ⊗ Ω2 y calculemos
Tor∇ (D1 , D2 ) = D1∇ (Id(D2 )) − D2 (Id(D1 )) − Id([D1 , D2 ]) = D1∇ D2 − D2∇ D1 − [D1 , D2 ]
Supongamos que ∇ es una conexión lineal simétrica, es decir, Tor∇ = 0. Entonces, 0 = d2 (Id) =
R ∧ Id.
9. Identidad lineal de Bianchi : Si ∇ es una conexión lineal simétrica entonces
R ∧ Id = 0
Interpretemos esta igualdad: 0 = R ∧ Id(D1 , D2 , D3 ) = (iD1 (R ∧ Id))(D2 , D3 ) = (iD1 R) ∧ Id +R ∧
iD1 Id)(D2 , D3 ) = R(D1 , D2 )(Id(D3 )) − R(D1 , D3 )(Id(D2 )) + R(D2 , D3 )(Id(D1 )). Luego,

R(D1 , D2 )(D3 ) + R(D3 , D1 )(D2 ) + R(D2 , D3 )(D1 ) = 0

10. Proposición: Sea ∇ una conexión lineal, d : Ω → Ω⊗Ω la diferencial definida por ∇ y π : Ω⊗Ω →
Ω2 el morfismo natural de paso al cociente. Sea dC la diferencial de Cartan. Se cumple que

π ◦ d − dC = Tor∇ ∈ Derk (A, A) ⊗ Ω2


Una conexión lineal es simétrica si y sólo si π ◦ d = dC
Demostración. π(d(w))(D1 , D2 ) = D1∇ w(D2 ) − D2∇ w(D1 ) = D1 (w(D2 )) − w(D1∇ D2 ) − D2 (w(D1 )) +
w(D2∇ D1 ). Por la fórmula de Cartan, dC (w)(D1 , D2 ) = D1 (w(D2 )) − D2 (w(D1 )) − w([D1 , D2 ]). Por
tanto, (π ◦ d − dC )(w, D1 , D2 ) = Tor∇ (w, D1 , D2 ).
0
Si definimos D∇ D0 = D∇ D − 21 Tor∇ (D, D0 ), se tiene que ∇0 es simétrica.
Consideremos los morfismos canónicos π1 : Ω ⊗ Ω → Ω2 , π2 : Ω ⊗ Ω → S 2 Ω. Consideremos el
isomorfismo φ : Ω ⊗ Ω = Λ2 Ω ⊕ S 2 Ω, φ(w) = (π1 (w), π2 (w)). Dada una conexión lineal simétrica y
el morfismo diferencial d : Ω → Ω ⊗ Ω, tenemos que π1 ◦ d = dC y π2 ◦ d = ds , con ds (w)(D1 , D2 ) =
(D1∇ w)(D2 ) + (D2∇ w)(D1 ). Se cumple que ds es k-lineal y ds (f · w) = (df ) · w + f · ds w y diremos que
ds es una diferencial simétrica.
Dar la conexión lineal simétrica ∇ equivale aPdar la diferencial simétrica ds : Ω → S 2 Ω.
Sea ds : S m Ω → S m+1 Ω, ds (w1 · · · wm ) := i w1 · · · wi−1 · ds wi · · · wm . Para m = 0 definimos
ds = d.
1.11. Módules de jets y operadores diferenciales 35

1.11. Módules de jets y operadores diferenciales


Sean M y N dos A-módulos. Se dice que F : N → M es un operador diferencial de orden 0 si
F (an) = a · F (n), para todo a ∈ A y n ∈ N , es decir, si F es un morfismo de A-módulos.
1. Definición : Una aplicación k-lineal F : N → M se dice que es un operador diferencial de orden
n − 1 si
X
(−1)r ai1 · · · air · F (aj1 · · · ajn−r · n) = 0
{i1 ,...,ir }∪{j1 ,...,jn−r }={1,...,n}

para todo a1 , . . . , an ∈ A y n ∈ N .
Las derivaciones son operadores diferenciales de orden 1.
2. Proposición : F : N → M es un operador diferencial de orden n > 0 si y sólo si [F, a] :=
F ◦ a · − a · F es un operador diferencial de orden n − 1 para todo a ∈ A.
3. Proposición : La composición de un operador diferencial de orden r con uno de orden s es un
operador diferencial de orden r + s.
Demostración. Sea F : N → M un operador diferencial de orden r y G : M → M 0 un operador
diferencial de orden s. Procedamos por inducción sobre r + s. Por hipótesis de inducción
[a, G ◦ F ] = a · G ◦ F − G ◦ F ◦ a· = (a ◦ G ◦ F − G ◦ a · ◦F ) + (G ◦ a · ◦F − G ◦ a · ◦F ) = [a, G] ◦ F + G ◦ [a, F ]
es un operador diferencial de orden r + s − 1, luego G ◦ F es un operador diferencial de orden r + s.

4. Notación : Diff nk (N, M ) denota el conjunto de opradores diferenciales de N en M de orden N .


5. Proposición : Sea m ⊂ A un ideal tal que A/m = k. Supongamos que M es un A/m-módulo.
Entonces,
Diff nk (N, M ) = Homk (N/mn+1 · N, M )
Demostración. Todo aplicación k-lineal F : N/mn+1 · N → M es un operador diferencial de orden n:
Si a ∈ m entonces [F, a] se anula en mn · N̄ ⊂ N/mn+1 , es decir, tenemos [F, a] : N/mn · N → M , que
es un operador diferencial de orden n − 1, por hipótesis de inducción. Si a ∈ k entonces [F, a] = 0. En
conclusión, [F, a] es un operador diferencial de orden n − 1 y F es un operador diferencial de orden n.
Por tanto, si π : N → N/mn+1 · N es el morfismo de paso al cociente F ◦ π : N → M es un operador
diferencial de orden n.
Todo operador diferencial F : N → M de orden n se anula en mn+1 ·N (recordemos que m·M = 0),
por la definición de operador diferencial de orden n. Por tanto, F factoriza vı́a N/mn+1 · N .

6. Definición : Sea M un A-módulo. Diremos que Jkn M := (A ⊗k A/∆n+1 ) ⊗A M es el módulo de


r-jets de N .
7. Proposición : HomA (Jkn N, M ) = Diff nk (N, M ). En particular, HomA (JA/k
n
, A) = Diff nk (A, A).
Demostración. Consideremos A ⊗k N como A ⊗ A-módulo, A ⊗k A como A-álgebra, A → A ⊗k A,
a 7→ a ⊗ 1 y M es un A ⊗k A/∆-módulo. Diff nk (N, M ) = Diff nA (A ⊗k N, M ), D 7→ Id ⊗D, luego
Diff nk (N, M ) = Diff nA (A ⊗k N, M ) = HomA ((A ⊗k N )/(∆n+1 · (A ⊗k N )), M )
= HomA ((A ⊗k A/∆n+1 ) ⊗A N, M ) = HomA (Jkn N, M )
36 Capı́tulo 1. Álgebra Lineal Tensorial

8. Proposición : Sea m ⊂ A un ideal tal que A/m = k y sea M un A-módulo. Entonces

(Jkn M ) ⊗A A/m = M/mn · M


9. Observación :

Diff nk (N, M ) = HomA (JN/k


n n
, M ) = HomA (N, HomA (JA/k , M )) = HomA (N, Diff nk (A, M ))

Explı́citamente, a D ∈ Diff nk (N, M ) le asignamos D̃ ∈ HomA (N, Diff nk (A, M )), definido por D̃(n)(a) :=
D(an) (Diff nk (A, M ) lo consideramos A-módulo por la “derecha” D · a = D ◦ a·).
n n n
Dado el morfismo Id : JN/k → JN/k , tendremos que j : N → JN/k , n 7→ 1 ⊗ n es un operador
diferencial de orden n y todo operador diferencial de orden n, F : N → N 0 , es igual a la composición
de j y un morfismo de A-módulos f : JN/k n
→ N 0.
La composición,
jJ r
jN
r N/k
N → JN/k → JJs r s
= JA/k r
⊗A JA/k ⊗A N
N/k

r+s s r
es un operador diferencial de orden r+s, luego tenemos un morfismo natural JN/k → JA/k ⊗A JN/k , que
dualmente es el morfismo natural Diff sk (N, Diff rk (A, M )) → Diff r+s
k (N, M ), D 7→ D̃, D̃(n) := D(n)(1).
Tenemos la cadena de inclusiones (en Homk (A, A))

Diff 1k (A, A) ,→ Diff 2k (A, A) ,→ · · · ,→ Diff nk (A, A) ,→ · · ·

El dual de la sucesión exacta 0 → S n Ω → (A ⊗ A)/∆n+1 → (A ⊗ A)/∆n → 0 es


simb
0 → Diff n−1
k (A, A) → Diff nk (A, A) → n S n Derk (A, A) → 0
Se dice que simbn (F ) es el sı́mbolo del operador F .

10. Definición : Diff k (A, A) = ∪ Diff ik (A, A).
i=0
Supongamos que A es una k-álgebra lisa, es decir, el morfismo natural S n Ω → ∆n /∆n+1 es un
isomorfismo, para todo n.
11. Teorema: Sea ds la diferencial simétrica asociada a una conexión lineal simétrica. Los morfismos
φn
(A ⊗ A)/∆n+1 → A ⊕ Ω ⊕ · · · ⊕ S n Ω, a ⊗ b 7→ a · (b, db, d2s b/2, . . . , dns b/n!)

son isomorfismos de A-álgebras y los diagramas

0 / ∆n /∆n+1 / (A ⊗ A)/∆n+1 / (A ⊗ A)/∆n /0

φn φn−1
 
0 / SnΩ / A ⊕ Ω ⊕ · · · ⊕ SnΩ / A ⊕ Ω ⊕ · · · ⊕ S n−1 Ω /0

son conmutativos.

Demostración. Es fácil comprobar que φn es un morfismo de A-álgebras. Obviamente φn (a ⊗ 1 − 1 ⊗ a) =


(0, da, −, ..., −), luego, φn es la identidad sobre ∆n /∆n+1 . Ahora es fácil ver que el diagrama es con-
mutativo y demostrar por inducción sobre n que los φn son isomorfismos.
1.11. Módules de jets y operadores diferenciales 37

n i
ds f
12. Corolario : El morfismo A/mn+1 → k ⊕ mx /m2x ⊕ · · · ⊕ mnx /mn+1 , f¯ →
P
x x 7 i! (x), es un isomor-
i=0
fismo de k-álgebras.
d2s f
Se dice que 2 (x) es el Hessiano de f en x.
13. Teorema : Sea ds la diferencial simétrica asociada a una conexión lineal simétrica. Entonces,

dns a
S · Derk (A, A) = Diff k (A, A), ϕ(D1 · · · Dn )(a) :=
ϕ
(D1 , . . . , Dn )
n!
y se tiene el diagrama conmutativo

/ ⊕ S i Derk (A, A)  
n−1 n
0 / ⊕ S i Derk (A, A) / S n Derk (A, A) /0
i=0 i=0

ϕ ϕ Id

0 / Diff n−1 (A, A)   / Diff nk (A, A) / S n Derk (A, A) /0


k

Además se cumple la “fórmula de Leibnitz”

X
ϕ(D1 · · · Dn )(a · b) = ϕ(Di1 · · · Dir )(a) · ϕ(Dj1 · · · Djn−r )(b)
{i1 ,...,ir }∪{j1 ,...,jn−r }={1,...,n}

Ahora, Diff k (A, A) vı́a ϕ, tiene estructura de álgebra conmutativa graduada:

ϕ(D1 · · · Dn ) ∗ ϕ(D10 · · · Dm
0
) := ϕ(D1 · · · Dn · D10 · · · Dm
0
)

Sea Diff r+ (A, A) := {D ∈ Diff rk (A, A) : D(1) = 0}.


14. Proposición :

{Conexiones lineales simétricas} = {s ∈ HomA (S 2 Der(A, A), Diff 2+ (A, A)) : simb2 ◦s = Id}

Demostración. Dada una conexión lineal simétrica, ∇, definimos s : S 2 Der(A, A) → Diff 2+ (A, A) por
s(D1 · D2 ) := D1 ◦ D2 − D1∇ D2 . Recı́procamente, dado s definimos D1∇ D2 := D1 ◦ D2 − s(D1 · D2 ),
que como pertenece al núcleo de simb2 , pertenece a Derk (A, A).

En Diff k (A, A) existe una conexión canónica: D∇ F := D ◦ F , para todo F ∈ Diff k (A, A) y
D ∈ Derk (A, A). Por tanto, existe una diferencial canónica d : Diff k (A, A) ⊗ ΩA,k , que extiende a
una diferencial en el complejo Diff k (A, A) ⊗ Ω·A,k . Observemos que R = d2 = 0, porque R(D1 , D2 ) =
D1 ◦ D2 ◦ −D2 ◦ D1 ◦ −[D1 , D2 ]◦ = 0. Por tanto, Diff k (A, A) ⊗ Ω·A,k es un complejo diferencial.
Sea E un A-módulos finito generado libre. Sea K = S · E ⊗ Λ· E ∗ el complejo cuya diferencial d es
tensorializar por Id, es decir, si {e1 , . . . , en } es una base de E y {w1 , . . . , wn } es la base dual, entonces
X
d(si ⊗ Ωj ) = si · er ⊗ wr ∧ Ωj =: Id ∧(si ⊗ Ωj )
r

Obviamente, d2 = 0. Graduemos K = ⊕r Kr , donde Kr := S · E ⊗ Λr E ∗ . Obviamente d(Kr ) ⊂ Kr+1 .


38 Capı́tulo 1. Álgebra Lineal Tensorial

15. Lema : 
0 si i 6= n
H i (K) =
Λn E ∗ si i = n
16. Teorema de Takens: Se cumple que

0 si i 6= n
H (Diff k (A, A) ⊗A Ω·A,k ) =
i
ΩnA,k si i = n

Sea T2 ∈ Ω ⊗ Ω una métrica simétrica no singular y denotemos la polaridad también por

T2 : Derk (A, A) → Ω.

Sea ds : Ω → S 2 Ω, ds (w) := T 2 (w)L T2 . Tenemos pues definida una conexión lineal simétrica en
Derk (A, A), denominada conexión de Levi-Civita asociada a T2 .
Capı́tulo 2

Cálculo Tensorial en Geometrı́a


Diferencial

2.1. Desarrollo de Taylor


El teorema de Bolzano afirma que si f es una función continua en [a, b] tal que f (a) > 0 y f (b) < 0
(o al revés) entonces existe un ξ ∈ (a, b) tal que f (ξ) = 0 (la ξ se obtiene por el método de bisección).
Si f 0 (c) > 0 para un c ∈ (a, b), entonces existe un c > 0 de modo que f (c + t) > f (c) y
f (c) > f (c − t), para todo 0 ≤ t < c . Si f 0 > 0 en (a, b) entonces f es creciente en (a, b). Como
consecuencia se obtiene el teorema de Rolle que dice que si f es una función continua en [a, b], derivable
en (a, b) y f (a) = f (b), entonces existe c ∈ (a, b) tal que f 0 (c) = 0: Si f 0 > 0 en (a, b) entonces f serı́a
creciente y f (a) < f (b), si f 0 < 0 en (a, b) entonces f serı́a decreciente y f (a) > f (b). Por tanto, f 0 es
negativa en algún punto y positiva en algún otro, por Bolzano f 0 se anula en algún punto intermedio.
Recordemos el Teorema del valor medio: si f (x), g(x) son funciones derivables en (a, b) y continuas
en [a, b], dados a < b existe ξ ∈ (a, b) tal que (f (b) − f (a))g 0 (ξ) − (g(b) − g(a))f 0 (ξ) = 0 (si g 0 (ξ) 6= 0
y g(b) − g(a) 6= 0, habrı́amos escrito (f (b) − f (a))/(g(b) − g(a)) = f 0 (ξ)/g 0 (ξ)): Sea H(x) = (f (b) −
f (a))g(x) − (g(b) − g(a))f (x), como H(a) = H(b), entonces existe un ξ ∈ (a, b) tal que H 0 (ξ) = 0.
En particular, si f 0 (x) existe para todo x 6= a y existe lı́mx→a f 0 (x), entonces f 0 (a) existe y coincide
con este lı́mite : f 0 (a) = lı́mx→a f (x)−f
x−a
(a)
= lı́mx→a f 0 (ξ) = lı́mx→a f 0 (x).
Lema de L’Hôpital: Si F, G son funciones diferenciables tales que F (0) = G(0) = 0, G0 no se
F 0 (x)
anule en un entorno de 0 (salvo quizás en 0), y lı́mx→0 G 0 (x) existe, entonces por el Teorema del valor

F (x) F 0 (x)
medio lı́mx→0 G(x) = lı́mx→0 G0 (x) .

Sea C n (U ) el anillo de las funciones n veces derivables de derivadas continuas en un abierto


0 ∈ U ⊂ R.
1. Lema fundamental: Dada f (x) ∈ C n (U ), si f (0) = 0, entonces existe h(x) ∈ C n−1 (U ), tal que
f (x) = x · h(x).1
Demostración. Demos una demostración con el mı́nimo de conocimientos de Análisis de Funciones.
La función, h(x) = f (x) 0
x (donde h(0) := f (0)) es una función continua, que tenemos que probar que
1 Hay una demostración maravillosa de este teorema, pero que hace uso de ciertos resultados de Análisis: Derivemos

e integremos y ¡saquemos algo! f (x) = f (x) − f (0) = 01 ∂t f (tx) · dt = 01 f 0 (tx) · x · dt = x · 01 f 0 (tx)dt


R ∂ R R

39
40 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

pertenece a C n−1 (U ).
n
ai xi , con ai = 1 i)
podemos suponer que f (0) = f 0 (0) =
P
Considerando en vez de f , f − i! f (0),
i=1
. . . = f n) (0) = 0.
Tenemos que probar que h0 = f 0 /x − f /x2 ∈ C n−2 (U ). Por inducción sobre n, podemos suponer
que f 0 /x ∈ C n−2 (U ). Tenemos que probar que f /x2 ∈ C n−2 (U ). Probemos que si f (0) = f 0 (0) =
. . . = f n) (0) = 0 entonces f /x2 ∈ C n−2 (U ). Observemos que f /x2 es continua pues por L’Hopital
lı́mx7→0 f /x2 = f 00 (0)/2. Tenemos que probar que (f /x2 )0 = f 0 /x2 − f /2x3 ∈ C n−3 (U ). Por inducción
sobre n, podemos suponer que f 0 /x2 ∈ C n−3 (U ). Tenemos que probar que f /x3 ∈ C n−3 (U ). Argu-
mentando ası́ sucesivamente llegaremos a que tenemos que probar que f /xn ∈ C 0 (U ), lo cual es cierto
porque aplicando L’Hopital sucesivamente tenemos que lı́mx7→0 f /xn = f n) (0)/n!.

2. Corolario : Si f (x) ∈ C ∞ (U ) cumple que f (0) = 0, entonces existe h(x) ∈ C ∞ (U ) tal que
f (x) = h(x) · x. Entonces, por cambio de variable x̄ = x − α, tendremos que si α ∈ U y f (α) = 0
entonces existe h(x) ∈ C ∞ (U ) de modo que f (x) = h(x) · (x − α).
Ası́ dada f (x) ∈ C n (U ), entonces f (x) − f (α) = g(x) · (x − α) con g(x) ∈ C n−1 (U ). Luego
f (x) = f (α) + (x − α) · g(x). Repitiendo el argumento con g(x), tendremos que f (x) = f (α) + (x − α) ·
(g(α) + (x − α) · h(x)) = f (α) + g(α)(x − α) + h(x)(x − α)2 , (con h(x) ∈ C n−2 (U )). Ası́ sucesivamente,
tendremos que

f (x) = a0 + a1 (x − α) + · · · + an−1 (x − α)n−1 + z(x) · (x − α)n


i−1
aj (x−α)j
P
f (x)−
0 j=0 f (i (α)
ai ∈ R, z(x) ∈ C (U ). Además, ai = lı́mx→α (x−α)i = i! .
Ahora en varias variables.
3. Definición : Se dice que una función real f definida en un entorno de un punto α ∈ Rn es
diferenciable en α si existe una matriz A = (a1 , . . . , an ) de modo que

f (x) − f (α) − A · (x − α)t


lı́m =0
x→α ||x − α||

Observemos que en tal caso, tomando x = (x1 + h, α2 , . . . , αn ) tenemos que

f (α1 + h, α2 , . . . , αn ) − f (α) − A · (h, 0, . . . , 0)t f (α1 + h, α2 , . . . , αn ) − f (α) − a1 · h


0 = lı́m = lı́m
h→0 |h| h→0 |h|

Luego, lı́mh→0 f (α1 +h,α2 ,...,αhn )−f (α)−a1 ·h = 0 y a1 = ∂x


∂f
1
∂f
(α). Igualmente, ai = ∂x i
(α). Si las derivadas
∂f ∂f
parciales existen en un entorno de α y son continuas entonces f es derivable, con A = ( ∂x 1
(α), . . . , ∂x n
(α)):

P P
f (x)−f (α)− i ai (xi −αi ) f (x)−f (a1 ,x2 ,...,xn )+f (a1 ,x2 ,...,xn )−f (α)− i ai (xi −αi )
lı́mx→α ||x−α|| = lı́mx→α ||x−α||
P
(f (ξ,x ,...,xn )−a1 )(x1 −α1 )+f (α1 ,x2 ,...,xn )−f (α)− i>1 ai (xi −αi )
= lı́mx→α x1 2 ||x−α|| P
(f (ξ,x ,...,xn )−a1 )(x1 −α1 ) f (α1 ,x2 ,...,xn )−f (α)− i>1 ai (xi −αi )
= lı́mx→α x1 2 ||x−α|| + lı́mx→α ||x−α||

que es igual a cero, por inducción sobre n (observando que ||(x − α)|| es mayor que |x1 − α1 | y que
||(x2 , . . . , xn ) − (α2 , . . . , αn )||).
2.2. Espacio tangente en un punto 41

Es obvio quer si f es derivable en α entonces es continua en α. Se dice que f es de clase r en un


abierto si ∂ m x1 ∂···∂fmn xn son continuas en el abierto para todo m1 + · · · + mn = r.
1
2 2
∂ f ∂ f
Sea U un entorno abierto de α y f ∈ C 2 (U ). Se verifica que ∂y∂x (α) = ∂x∂y (α): Por cambio de
variable podemos suponer que α = (0, 0). Sustituyendo f (x, y), por f (x, y)−f (0, y), podemos suponer
que f (0, y) = 0.
f (x,y) f (x,0)
∂ f (x, y) lı́mx→0 x − lı́mx→0 x
fxy (0, 0) = ( lı́m )(y = 0) = lı́m
∂y x→0 x y→0 y
f (x,y)−f (x,0)
lı́mx→0 x fy (x, ξ) · y
= lı́m = lı́m lı́m = fyx (0, 0)
y→0 y y→0 x→0 xy
Por simplificar notaciones supongamos que α = 0. De nuevo, dada f (x, y) ∈ C n (U ) si f (0, y) = 0
entonces fx ∈ C n−1 (U ). Ası́, dada f ∈ C n (U ), tendremos que f (x, y) = f (0, y) + x · g(x, y), con
g(x, y) ∈ C n−1 (U ). Por tanto, si f (0, 0) = 0, entonces f (0, y) = y · h(y), con h(y) ∈ C n−1 (U ), en
conclusión f (x, y) = x · h1 + yh2 , con h1 , h2 ∈ C n−1 (U ).
P Proposición : Sea U ⊆n−1
4. Rm un abierto y f (x1 , . . . , xm ) ∈ C n (U ). Si f (α) = 0, entonces f =
i hi · (xi − αi ) con hi ∈ C (U ).
5. Corolario : Dada f (x1 , . . . , xm ) ∈ C n (U ) y b ∈ U entonces
X X
f =( aα · (x − b)α ) + hα · (x − b)α
|α|<r |α|=r
|α|
1 ∂ f
donde hα ∈ C n−r (U ) y aα = α! · ∂ α1 x1 ···∂ αn xn (b).

2.2. Espacio tangente en un punto


Sea U ⊆ Rm un abierto.
1. Corolario : El ideal mα ⊂ C ∞ (U ) de todas las funciones que se anulan en α ∈ U está generado
por x1 − α1 , . . . , xm − αm , es decir,
mα = (x1 − α1 , . . . , xm − αm )
2. Corolario : Una base de mα /m2α es dα x1 = x1 − α1 , . . . , dα xm = xm − αm .
Por el teorema 1.8.8 se tiene que DerR (C ∞ (U ), R) = HomR (mα /m2α , R) =: (mα /m2α )∗ . Explı́ci-
tamente, dada D ∈ DerR (C ∞ (U ), R) y λdα f entonces D(λdα f ) = λ · Df . Denotemos por D =
P ∂
P ∂f
i λ i ( ∂xi ) α la derivación definida por Df := i λ i ∂xi (α). La base dual de dα x1 , . . . , dα xm es
∂ ∂
( ∂x 1
) α , . . . , ( )
∂xm α .

P
Geométricamente, la derivación i λi ( ∂x i
)α se interpreta como el vector (λ1 , . . . , λn ) en el punto
α ∈ U y se dice que DerR (C (U ), R) = (mα /m2α )∗ es el espacio tangente (intrı́nseco)

a U ⊆ Rm en
2 m
P
α. Se dice que mα /mα es el espacio cotangente (intrı́nseco) a R en α. Ası́, i λi dα xi se interpreta
como el plano de Rm que pasa por α de ecuaciones
λ1 · (x1 − α1 ) + · · · + λm · (xm − αm ) = 0
P ∂f
Dada f ∈ C ∞ (Rm ) entonces f = f (α) + i ∂x
P
i
(α)(xi − αi ) + ij fij (x)(xi − αi ) · (xj − α). El plano
P ∂f
tangente a la superficie de U , f − f (α) = 0, en α es claramente i ∂x i
(α)(xi − αi ) = 0, es decir, el
plano correspondiente a dα f ∈ mα /m2α .
42 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

Sean U ⊆ Rm , V ⊆ Rn sendos abiertos.


3. Definición : Una aplicación F : U → V se dice que es diferenciable en α ∈ U si existe una matriz
F 0 (α) = (aij ) de m-columnas y n-filas tal que
||F (x) − F (α) − F 0 (α) · (x − α)t ||
lı́m =0
x→α ||x − α||
Es fácil ver que F = (f1 , . . . , fn ) es diferenciable si y sólo si f1 , . . . , fn son diferenciables y que
∂fi
A = ( ∂x j
(α)).
Desarrollando por Taylor, tenemos que F (x) = F (α)+F 0 (α)·(x−α)t + ij Gij (x)(xi −αi )·(xj −αj ).
P
Consideremos la recta {α + tv, t ∈ R} que pasa por α y de vector director v, entonces F (α + tv) =
F (α) + F 0 (α)(tv) + t2 · H(t, v). Para t pequeño F (α + tv) es aproximadamente F (α) + F 0 (α)(tv). Es
decir, F aplica el vector infinitesimal tv, de origen α, en el vector infinitesimal F 0 (α)(tv) de origen
F (α).

2
R
v F F'(a)(v)

a F(a)

Por otra parte, el morfismo F induce en los anillos el morfismo de anillos F ∗ : C ∞ (V ) → C ∞ (U ),



F (g) := g ◦ F y por tanto el morfismo mF (α) → mα , g 7→ (g ◦ F ). En conclusión, tenemos el morfismo
(intrı́nseco)
F ∗ : mF (α) /m2F (α) → mα /m2α , dF (α) g 7→ dα (g ◦ F )
P ∂fi
F ∗ (dF (α) xi ) = dα (xi ◦ F ) = j ∂x j
(α) · dα xj . Por tanto, la matriz del morfismo F ∗ : mF (α) /m2F (α) →
∂fi
mα /m2α es ( ∂x j
(α)). Tomando duales tenemos “la aplicación lineal tangente en α asociada a F ”
(intrı́nseca)
F∗ : (mα /mα )∗ = DerR (C ∞ (U ), R) → DerR (C ∞ (V ), R) = (mF (α) /m2F (α) )∗
que aplica (como puede comprobarse) cada derivación D en F∗ (D) definida por F∗ (D)(g) = D(F ∗ (g)) =
∂fi
D(g ◦ F ). Directamente, o por dualidad, tenemos que la matriz de F∗ es F 0 (α) = ( ∂x j
(α)). Geométri-
camente, F∗ aplica en el vector tangente v = (λ1 , . . . , λn ) en α en el vector tangente en F (α), F 0 (α)·v.

2.3. Derivaciones. Módulo de diferenciales


Sea U ⊆ Rm un abierto y Ω = ΩC ∞ (U )/R . Dada w ∈ Ω desearı́a que cumpliera la propiedad de que
si w(α) = w̄ ∈ Ω/mα · Ω es nulo para todo α entonces w = 0 y que esta propiedad se mantuviera al
tomar la diferencial.
Sea M un C ∞ (U )-módulo. Denotemos Nul(M ) = ∩ mnα · M y M̃ = M/ Nul(M ). Se cumple
α∈U,n>0
˜ = M̃ . También es claro que C ∞˜(U ) = C ∞ (U ).
que M̃
2.3. Derivaciones. Módulo de diferenciales 43

1. Teorema : Sea M tal que Nul(M ) = 0 (por ejemplo si M es un módulo libre). Entonces,

∂ ∂
DerR (C ∞ (U ), M ) = M · ⊕ .m. . ⊕ M ·
∂x1 ∂xm

Demostración. Asignemos a cada derivación D ∈ DerR (C ∞ (U ), M ), i (Dxi ) · ∂x ∂


P
i
.
Veamos que esta asignación es inyectiva: Tenemos que ver que si Dxi = 0, para todo i, entonces
D = 0. Sobre los polinomios p(x1 , . . . , xm ) es fácil ver que D(p(x1 , . . . , xn )) = i ∂p(x1∂x
,...,xm )
P
i
D(xi )
n n−1
(argumentando por inducción sobre el grado del polinomio). Es claro que D(mα ) ⊆ mα · M . Toda
f ∈ C ∞ (U ) es igual a un polinomio p de grado n módulo mnα , f = p + g, g ∈ mnα . Por tanto,
D(f ) = D(p) + D(g) = 0 + D(g) ∈ mn−1 α · M , para todo n y α, luego D(f ) = 0 y D = 0.

P
La asignación es obviamente epiyectiva, porque i mi ∂x i
es la imagen de la derivación D definida
P ∂p
por D(p) := ∂xi · mi .
i

Por tanto, si Nul M = 0 entonces toda D ∈ DerR (C ∞ (U ), M ) es D = ∂


P
i Dxi · ∂xi .

2. Teorema : Ω̃C ∞ (U )/R = C ∞ (U ) · dx1 ⊕ · · · ⊕ C ∞ (U ) · dxn

Demostración.

HomC ∞ (U,R (Ω̃C ∞ (U ) , M ) = HomC ∞ (U ) (ΩC ∞ (U )/R , M ) = DerR (C ∞ (U ), M )



= M ∂x 1
⊕ · · · ⊕ M ∂x∂n = HomC ∞ (U ) (C ∞ (U )dx1 ⊕ · · · ⊕ C ∞ (U )dxn , M )

Por tanto,
Λn Ω̃C ∞ (U )/R = ⊕ C ∞ (U ) · dxi1 ∧ · · · ∧ dxin
1≤i1 <···<in ≤m

3. Notación : A partir de ahora escribiremos ΩU = Ω̃C ∞ (U )/R y ΩrU = Λr ΩU .


Observemos que ΩU (α) = ΩC ∞ (U )/R (α) = mα /m2α . En general el morfismo

ΩrU (α) → Λr (mα /m2α ), df1 ∧ · · · ∧ dfr 7→ dα f1 ∧ · · · ∧ dα fr

es un isomorfismo.
Todo morfismo de k-álgebras f : A → B induce el morfismo ΩA/k → ΩB/k , adb 7→ f (a)df (b). Sean
U ⊆ Rm , V ⊆ RN sendos abiertos. Dado un morfismo F : U → V diferenciable, tenemos el morfismo
de anillos F ∗ : C ∞ (V ) → C ∞ (U ), F ∗ (g) = g ◦ F , que induce el morfismo

F ∗ : ΩV → ΩU , F ∗ (gdh) = (g ◦ F )d(h ◦ F )

que induce el morfismo mF (α) /m2F (α) = ΩRm (F (α)) → ΩRn (α) = mα /m2α , ya conocido. Tomando
álgebras exteriores tenemos un morfismo natural F ∗ : ΩrV → ΩrU
4. Lema de Poincaré : Una r-forma diferenciable wr ∈ ΩrRn es cerrada, es decir, cumple que
dwr = 0 si y sólo si es exacta, es decir, existe una r − 1-forma diferenciable wr−1 ∈ Ωr−1
Rn tal que
wr = dwr−1 .
44 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

Demostración. Consideremos P el grupo uniparamétrico τ : R × Rn → Rn , τ ((t, x)) = et · x, cuya


derivación asociada es D = i xi · ∂xi . Sea τt (x) = τ (t, x) y denotemos τt∗ wr =: wr (t). Se cumple que

wr (t)0 = (DL wr )(t). Entonces

Z 0 Z 0 Z 0
wr = wr (0) − wr (−∞) = wr (t)0 · dt = (DL wr )(t) · dt = (iD ◦ d + d ◦ iD )wr (t) · dt
−∞ −∞ −∞
Z 0 Z 0
= d ◦ iD wr (t) · dt = d iD wr (t) · dt = dwr−1
−∞ −∞

2.4. Variedades diferenciables. Haces


1. Definición : Sean f1 , . . . , fn ∈ C n (U ), U ⊆ Rn abierto. Se dice que f1 , . . . , fn es un sistema de
coordenadas en U , si la aplicación

F : U → Rn , F (x) := (f1 (x), . . . , fn (x))

cumple que F (U ) = V es un abierto, F establece un homeomorfismo entre U y V , y la aplicación


inversa de F es diferenciable de clase n, es decir, F es un difeomorfismo de clase n.
En tal caso, el morfismo de anillos F ∗ : C n (V ) → C n (U ), F ∗ (g) = g ◦ F es un isomorfismo,
luego para cada función diferenciable g en U existe una (única) función diferenciable h(y1 , . . . , yn ) ∈
C n (V ) de modo que g(x) = h(f1 (x), . . . , fn (x)) (“las funciones diferenciables en U son las funciones
diferenciables en las coordenadas f1 , . . . , fn ”).
2. Definición : Se dice que f1 , . . . , fn son un sistema de coordenadas en un punto x, si existe un
entorno de x en el que f1 , . . . , fn son un sistema de coordenadas.
∂fi
Dado F = (f1 , . . . , fn ) denotemos por F 0 = ( ∂xj
).
3. Teorema de la función inversa: Sean U, V sendos abiertos de Rn y F : U → V un morfismo de
clase n. Dado α ∈ U , si det(F 0 (α)) 6= 0, entonces F es un difeomorfismo de clase n en un entorno
de α.
Con otras palabras, si f1 , . . . , fn son funciones diferenciables de clase n en un entorno de α ∈ Rn .
Entonces, f1 , . . . , fn es un sistema de coordenadas en α si y sólo si dα f1 , . . . , dα fn son linealmente
∂fi
independientes, es decir, det( ∂x j
(α))) 6= 0.

Demostración. Sin pérdida de generalidad podemos suponer que α = 0.


1. Probemos que la aplicación F = P (f1 , . . . , fn ) : U → Rn en un entorno abierto pequeño U de (0) es
inyectiva: Tenemos que fi (x)−fi (y) = P j Hij (x, y)·(xj −yj ), pues en general si g(x1 , . . . , xr , 0, . . . , 0) =
0 para todo x1 , . . . , xr entonces g = j gr+j · xr+j . Escribamos de forma reducida F (x) − F (y) =
H(x, y)·(x−y), donde H(x, y) es la matriz (Hij (x, y)) y (x−y) el vector (x1 −y1 , . . . , xn −yn ). Observe-
∂fi
mos que H(0, 0) = ( ∂x j
(0)). Consideremos un entorno V de 0, de modo que para todo (x, y) ∈ V × V ,
det(H(x, y)) 6= 0. Si 0 = F (x) − F (y) = H(x, y) · (x − y), para algún (x, y) ∈ V × V , entonces x − y = 0
y x = y.
2. F (U ) es un entorno de F (0): Reduciendo U , podemos suponer que F es inyectiva en U y
que det(F 0 (x)) 6= 0 para todo x ∈ U . Sea B una bola centrada en el origen, tal que su cierre
esté incluido en U , y sea Sn el borde. Por ser F inyectiva F (Sn ) no contiene a F (0). Sea m = ı́nfimo
2.4. Variedades diferenciables. Haces 45

{d(0, F (s)) | s ∈ Sn } que es mayor estricto que cero porque d(0, F (Sn )) es un compacto (imagen de
compacto) de R+ que no contiene a 0. Sea B 0 una bola centrada en F (0) de radio m/2. Basta que
probemos que B 0 ⊆ F (B).
Sea y ∈ B 0 y g(x) := d(F (x), y) que la definimos sobre B̄. La función continua g alcanza un mı́nimo
sobre B̄, que no yace en Sn , puesto que d(F (s), y)+m/2 ≥ d(F (s), y)+d(F (0), y) ≥ d(F (0), F (s)) ≥ m,
luego d(F (s), y) ≥ m/2 ≥ d(F (0), y). Ası́ pues, la función, g 2 = (F (x) − y) · (F (x) − y) alcanza un
mı́nimo en B. Si c ∈ B es tal que g 2 (c) es mı́nimo, entonces 0 = (g 2 )0 (c) = 2(F (c) − y) · F 0 (c). Por
tanto, F (c) = y y B 0 ⊆ F (B).
3. La aplicación F : F −1 (B 0 ) → B 0 es un homeomorfismo: Es biyectiva y continua. Dado un cerrado
C ⊂ F −1 (B 0 ) ⊂ B, tenemos que F (C) = F (C̄) ∩ B 0 es un cerrado porque C̄ es compacto, luego F (C̄)
es un cerrado. En conclusión, F es homeomorfismo.
4. Aconsejamos al lector que rescriba este apartado suponiendo n = 1, luego F = f (x) es una
función real en una sóla variable.
Supongamos ya que tenemos un homeomorfismo F : U → V . Reduciendo U , podemos suponer
que Ū y V̄ son compactos, que F : Ū → V̄ es homeomorfismo. Recordemos que F (x0 ) − F (x) =
H(x, x0 ) · (x0 − x). Podemos suponer también, que det(H(x, x0 )) 6= 0 y2 ||H(x, x0 )−1 || ≤ m (para cierto
m > 0) para todo x, x0 ∈ U . En particular, ||(H(x, x)−1 = (F 0 (x))−1 || ≤ m.
Veamos que G = F −1 es diferenciable de clase n.
||G(y 0 )−G(y)−(F 0 (x))−1 ·h||
Dado y = F (x), probemos que la matriz (F 0 (x))−1 cumple que lı́m 0 ||y 0 −y|| = 0.
y →y
Sea x0 tal que F (x0 ) = y 0 , entonces

||G(y 0 )−G(y)−(F 0 (x))−1 ·(y 0 −y)|| ||G(F (x0 ))−G(F (x))−(F 0 (x))−1 ·(F (x0 )−F (x))||
lı́m ||y 0 −y|| = lı́m ||F (x0 )−F (x)||
y 0 →y 0
x →x
0 0 −1 0
||(F (x)) ·[(F 0 (x))·(x0 −x)−(F (x0 )−F (x))]||
0 −1
= lı́m ||(x −x)−(F (x)) ·(F (x )−F (x))||
||F (x0 )−F (x)|| = lı́m ||F (x0 )−F (x)||
x0 →x x0 →x
||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| ||x0 −x||
≤ m · lı́m
0 ||F (x 0 )−F (x)|| = m · lı́m
0 ||x 0 −x|| · ||F (x 0 )−F (x)||
x →x x →x
2 ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))||
≤ m · lı́m ||x0 −x|| =0
x0 →x

Por tanto, G0 (y) = (F 0 (x))−1 y G es derivable. Como G0 (y) := (F 0 (x))−1 = (F 0 (G(y)))−1 es


continua ⇒ G es C 1 ⇒ G0 (y) es C 1 ⇒ G(y) es C 2 , etc.

Veamos que la esfera unidad S 2 ≡ x2 + y 2 + z 2 = 1 localmente es “difeomorfa” a abiertos de R2 :


Sea α = (α1 , α2 , α3 ) ∈ S 2 , supongamos α1 6= 0. Las funciones f1 = x2 + y 2 + z 2 − 1, f2 = y, f3 = z
forman un sistema de coordenadas en α, por el teorema de la función inversa. Existe un entorno abierto
U ⊂ R3 de α, y un abierto V ⊆ R3 de modo que la aplicación F : U → V , F (x) = (f1 (x), f2 (x), f3 (x)))
es un homeomorfismo. Vı́a F , U ∩ S 2 es homeomorfo a V ∩ (0 × R2 ) = 0 × V 0 , (para el correspondiente
abierto V 0 ⊂ R2 ). Tenemos pues el homeomorfismo

U ∩ S2 → V 0, x 7→ (f2 (x), f3 (x))

“Se dice que la restricción de f2 y f3 a U ∩ S 2 es un sistema de coordenadas en U ∩ S 2 ”.


4. Definición : Un cerrado Y ⊆ Rn se dice que es una subvariedad diferenciable de dimensión m de
Rn , si para cada punto y ∈ Y existe un sistema de coordenadas f1 , . . . , fn de en un entorno U ⊂ Rn
en y, de modo que U ∩ Y = {x ∈ U tales que f1 (x) = . . . = fn−m (x) = 0}.
2 Dada una aplicación lineal T : Rn → Rn , se define ||T || := sup{||T (e)||, para todo e ∈ Rn tal que ||e|| = 1}
46 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

5. Definición : Sea Y ⊆ Rn un cerrado. Se dice que una función f : Y → R es diferenciable si


para cada y ∈ Y existe un entorno abierto U ⊆ Rn de y y una función F ∈ C ∞ (U ) de modo que
F|Y ∩U = f|Y ∩U .
6. Proposición : Toda función diferenciable sobre un subespacio cerrado Y ⊆ Rn es la restricción a
dicho cerrado de una función diferenciable de Rn . Es decir,

C ∞ (Y ) = C ∞ (Rn )/I
donde C ∞ (Y ) es el anillo de funciones diferenciables de Y e I es el ideal de las funciones diferenciables
de Rn que se anulan en Y .
Demostración. Sea f : Y → R una función diferenciable. Existen abiertos {Ui } y funciones fi ∈
C ∞ (Ui ) de modo que {Ui ∩ Y } recubren Y y f|Ui ∩Y ) = f|Ui ∩Y .
Sea {φi , φ} una partición de la unidad subordinada al recubrimiento {Ui , Rn − Y }. Prolongando
por 0 el producto φi fi en el complementario de Ui , se obtiene una función diferenciable
P y la familia
de soportes de tales funciones es localmente finita. Luego, la suma F = φ f
i i i es una función
diferenciable en Rn . La restricción de F a Y es f , pues dado y ∈ Y
X X
F (y) = φi (y)fi (y) = φi (y)f (y) = f (y)
i i

7. Definición : Se define variedad diferenciable como las subvariedades diferenciables de los Rn .


Puede darse una definición en principio más general de variedad diferenciable (el teorema de Whit-
ney afirma que es equivalente a la anterior): Un espacio topológico X se dice que es una variedad
diferenciable de dimensión m si existe un recubrimiento por abiertos {Ui } de X y homeomorfismos
φi : Ui → Vi (Vi abierto de Rm ) de modo que los homeomorfismos (“de cambio de sistema de coorde-
nadas”)
φj ◦ φ−1
j : φi (Ui ∩ Uj ) → φj (Ui ∩ Uj )

son aplicaciones diferenciables (entre abiertos de Rm ).


El lector, al pensar en la variedad X, debe identificar Ui con Vi . Debe pensar que un espacio
topológico X es una variedad diferenciable si y sólo si localmente es difeomorfo a abiertos de Rn .
Una aplicación continua f : X → R se dice que es diferenciable si localmente lo es, es decir, con
rigor, f se dice que es diferenciable si las composiciones

φ−1
i f|U
Vi ' Ui →i R

son diferenciables. Una aplicación continua entre variedades diferenciables f : X → X 0 se dice que es
diferenciable si localmente lo es, es decir, las composiciones

φ−1 f φ0j
φi (Ui ∩ f −1 (Uj0 )) →
i
Ui ∩ f −1 (Uj0 ) → Uj0 → Vj0

son diferenciables. Resulta que f es diferenciable si y sólo si para toda función diferenciable g : X 0 → R,
entonces g ◦ f : X → R es diferenciable.
Veamos la estructura de “haz” de DerX :
Dada una derivación D ∈ DerX y f ∈ C ∞ (X) si f es nula en un entorno abierto U de un punto
α ∈ X entonces Df también es nula en dicho entorno: Basta ver que (Df )(α) = 0. Sea h ∈ C ∞ (X)
2.4. Variedades diferenciables. Haces 47

nula en X − U e igual a 1 en un entorno de α. Entonces 0 = h · f y 0 = f · Dh + h · Df , luego


0 = f (α) · (Dh)(α) + h(α) · (Df )(α) = (Df )(α). Por tanto, si f = g en un entorno de α entonces
D(f ) = D(g) en ese entorno. Tenemos un morfismo natural

DerX → DerU , D 7→ D|U

donde (D|U f )(α) := D(F )(α), siendo F ∈ C ∞ (X) cualquier función que es igual a f en un entorno
abierto de α.
1. Si Ui es un recubrimiento por abiertos de X y D|Ui = 0 para todo i entonces D = 0, pues
(Df )|Ui = D|Ui f|Ui = 0, para todo i, luego Df = 0 y D = 0. Por tanto, D = D0 si y sólo si
0
D|Ui = D|U i
para todo i.
2. Por otra parte, si tenemos para cada i, una derivación Di ∈ DerUi de modo que (Di )|Ui ∩Uj =
(Dj )|Ui ∩Uj , para todo i, j, entonces podemos definir una D ∈ DerX , tal que D|Ui = Di , para todo i:
D(f ) se define como la función que cumple que (Df )|Ui = Di f|Ui .
Las propiedades 1. y 2. se expresan diciendo que DerX es un haz. Por ejemplo, C ∞ (X) también
es un haz. Igualmente Der∗X es un haz (el C ∞ (X)-módulo de las aplicaciones n-multilineales es un
haz):
Dado w ∈ Der∗X y D ∈ DerX , si D|U = 0 entonces w(D)|U = 0. En efecto, dada α ∈ U basta
probar que w(D)(α) = 0. Sea h nula en X − U e igual a 1 en un entorno de α). Entonces 0 = h · D
y 0 = w(h · D) = h · w(D), luego 0 = h(α) · w(D)(α) = w(D)(α). Por tanto si D = D0 en un entorno
abierto de α entonces w(D) = w(D0 ) en dicho entorno. Tenemos un morfismo natural

Der∗X → Der∗U , w 7→ w|U

donde (w|U (D))(α) := w(D̃)(α), donde D̃ ∈ DerX es cualquier derivación que coincide con D en un
entorno de α.
1. Si Ui es un recubrimiento por abiertos de X y w|Ui = 0 para todo i entonces w = 0, pues para
todo D, (w(D))|Ui = w|Ui (D|Ui ) = 0, para todo i, luego w(D) = 0 y w = 0. Por tanto, w = w0 si y
0
sólo si w|Ui = w|U i
para todo i.
2. Por otra parte, si tenemos para cada i, una wi ∈ Der∗Ui de modo que (wi )|Ui ∩Uj = (wj )|Ui ∩Uj ,
para todo i, j, entonces podemos definir una w ∈ Der∗X , tal que w|Ui = wi , para todo i: w(D) se
define como la función que cumple que (w(D))|Ui = wi (D|Ui ).
Sea mx ⊂ C ∞ (X) el ideal de funciones de X que se anulan en x y m0x ⊂ C ∞ (U ) el ideal de
2
funciones de U que se anulan en x. El morfismo natural π : mx /m2x → m0x /m0 x , π(f¯) = f|U es un

isomorfismo: sea h ∈ C (X) igual a 1 en un entorno abierto de x y nula en un entorno de X − U ,
2
entonces el morfismo m0x /m0 x → mx /m2x , f¯ 7→ hf es el morfismo inverso.
Dada una 1-forma diferencial w ∈ ΩX , si 0 = w(x) = w̄ ∈ ΩX (x) = mx /m2x , para todo x ∈ X,
entonces w ∈ Nul(ΩX ) = 0. Sea {Ui } un recubrimiento por abiertos de X, si w|Ui = 0 para todo i,
0
entonces w(x) = 0 para todo x ∈ X y w = 0. (∗) Por tanto, si w|Ui = w|U i
para todo i, entonces
0
w=w.
Consideremos X como subvariedad cerrada de un Rn . ΩX es cociente del C ∞ (Rn )-módulo ΩRn , que
está generado por dx1 , . . . , dxn , por tanto, ΩX es un C ∞ (X)-módulo generado por dx1|X , . . . , dxn|X ,
luego es finito generado.
Sea dim X = r. Dadas w1 , . . . , wr ∈ ΩX sea U = {y ∈ Y tales que {wi (y) = w̄i ∈ ΩX (y) = my /m2y }
sea una base de my /m2y }. Se cumple que U es un abierto de X y que ΩU es un C ∞ (U )-módulo libre
de base {wi|U }:
Sea y1 , . . . , yr un sistema de coordenadas en un entorno abierto Vy de y. Tendremos que wi = fij dyj
(en tal entorno Vy ). Entonces {wi (y)} es una base de my /m2y si y sólo si det(fij (y)) 6= 0. Es claro que
48 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

P{wi } y es fácil probar


U es un abierto. Además, en Vy podemos despejar las dyj en función de los que
en Vy las {wi } son base. Por tanto, dada w ∈ ΩU , tendremos que w|Vy = i gi · wi ,Ppara gi ∈ C ∞ (Vy )
únicas. Por ser C ∞ (U ) un haz, existen Gi ∈ C ∞ (U ) únicas de modo que w = i Gi wi|U , lo que
muestra que {wi|U } son una base.
8. Lema : Sea π : M → N un epimorfismo de A-módulos. Si s : N → M es una sección de π, es
decir, π ◦ s = Id, entonces M ' Ker π ⊕ N .

Demostración. El morfismo N ⊕ Ker π → M , (n, n0 ) 7→ s(n) + n0 es un isomorfismo: Es inyectiva,


porque si s(n) + n0 = 0, aplicando π tenemos que n = 0 y por tanto n0 = 0. Es epiyectiva, porque
dado m, tenemos que m − s(π(m)) ∈ Ker π y m = s(π(m)) + (m − s(π(m))).

Si M = M 0 ⊕M 00 y M es un A-módulo finito generado entonces M 0 es un A-módulo finito generado:


Consideremos la inclusión M 00 ,→ M , m00 7→ (0, m00 ) y denotemos la imagen de esta inclusión M 00 . El
morfismo M 0 → M/M 00 , m0 7→ (m0 , 0) es un isomorfismo. M/M 00 es finito generado porque lo es M ,
entonces M 0 es finito generado.
9. Definición : Se dice que un A-módulo P es proyectivo si es sumando directo de un A-módulo
libre.
Si P es un A-módulo proyectivo entonces tenemos un isomorfismo P ⊕ P 0 = An . En tal caso
el epimorfismo An → P , (p, p0 ) 7→ p, tiene sección (p 7→ (p, 0)). Recı́procamente si un epimorfismo
π : An → P tiene sección entonces P es proyectivo porque An = P ⊕ Ker π.
10. Proposición : ΩX es un es un C ∞ (X)-módulo finito generado proyectivo.

Demostración. Consideremos de nuevo el epimorfismo π : C ∞ (X) · dx1 ⊕ · · · ⊕ C ∞ (X) · dxn → ΩX .


Dado α = {i1 , . . . , ir } ⊂ {1, . . . , n} sea Uα = {y ∈ X | dy xi1 , . . . , dy xir sea una base de my /m2y }. Sea
{φα } una partición de la unidad subordinada al recubrimiento de X, {Uα }#α=r . Sea sα la composición
de los morfismos
φα ·
ΩX → ΩUα = C ∞ (Uα ) · dxi1 ⊕ · · · ⊕ C ∞ (Uα ) · dxir −→ C ∞ (X) · dxi1 ⊕ · · · ⊕ C ∞ (X) · dxir
P
se tiene que s = α sα es una sección del epimorfismo π.

Como Nul(C ∞ (X)) = 0 todo submódulo M de un C ∞ (X)-módulo libre cumple que Nul(M ) = 0.
El producto tensorial de módulos proyectivos es proyectivo: si P ⊕ P 0 = An , Q ⊕ Q0 = Am entonces
A nm
= An ⊗A Am = (P ⊕ P 0 ) ⊗A (Q ⊕ Q0 ) = (P ⊗ Q) ⊕ (P ⊗ Q0 ) ⊕ (P 0 ⊗ Q) ⊕ (P 0 ⊗ Q0 ), luego P ⊗ P 0
es proyectivo.

Si P es proyectivo entonces P ∗ es proyectivo, pues si P ⊕P 0 = An entonces P ∗ ⊕P 0 = (P ⊕P 0 )∗ =
(An )∗ = An . Si P es un A-módulo proyectivo finito generado entonces P = P ∗∗ , como se deduce del
diagrama conmutativo
P ⊕ P0 An


∗∗
(P ⊕ P )∗∗ = P ∗∗ ⊕ P 0 (An )∗∗

Igualmente, si P es un A-módulo proyectivo finito generado P ∗ ⊗A M = HomA (P, M ).


Si P es proyectivo entonces Λr P es proyectivo: Si la composición de dos morfismos de A-módulos
n
P → An → P es el morfismo identidad, entonces la composición Λr P → Λr An = A( r ) → Λr P es la
s π

identidad.
2.5. Anillo de funciones diferenciables 49

En conclusión, Λr ΩX =: ΩrX y Ω∗X = DerX , etc., son C ∞ (X)-módulos finito generados proyec-
tivos, Nul(ΩrX ) = Nul(DerX ) = 0, Der∗X = Ω∗∗X = ΩX , etc.
Con los mismos argumentos que para ΩX
Todas las proposiciones de las secciones 1.9 y 1.10 son igualmente válidas sustituyendo A por
C ∞ (X) y Ωi por ΩiX .

2.5. Anillo de funciones diferenciables


Sea (X, d) un espacio métrico. Si F : R+ → R+ es una función estrictamente creciente y de
crecimiento cada vez más pequeño (F 0 > 0 y F 00 ≤ 0) y F (0) = 0 entonces d0 = F ◦ d es una distancia
d(p,q)
y (X, d0 ) es homeomorfo a (X, d). Consideremos F = 1+x x
, en este caso d0 (p, q) = 1+d(p,q) y d0 (p, q) < 1
para todo p, q ∈ X.
Sean ahora dos distancias d1 , d2 en X y consideremos en X la topologı́a menos fina que contenga
a las topologı́as definidas por d1 y d2 , que es justamente la topologı́a definida por d1 + d2 . Como
la topologı́a definida por una distancia d es la misma que la definida por λ · d, λ > 0, entonces la
topologı́a definida por d1 + d2 es la misma que la definida por λ1 · d1 + λ2 · d2 , λ1 , λ2 > 0.
Sea ahora un conjunto numerable {di }i∈N de distancias en X y supongamos (como podemos) que
di ≤ 1/2i , para cada i ∈ N. La topologı́a menos fina que contiene P a las topologı́as definidas por todos
los di coincide con la topologı́a definida por la distancia d := i di .
Sea U ⊆ Rn un abierto y {U1 , U2 , . . .} abiertos tales que sus cierres cumplen que Ūi ⊂ Ui+1 y son
compactos, y tales que ∪i Ui = U .
Sea C k (U ) las funciones en U de clase k. Para cada compacto K ⊆ U sea dK : C k (U ) → R la
distancia definida por

dkK (f, g) := máx{|Dα (f − g)(x)|, |α| ≤ k, x ∈ K}


∂ |α|
donde Dα = α αn
∂x11 ···∂x
y |α| = α1 + · · · + αn .
n
k
Consideremos C (U ) la topologı́a menos fina que contiene a las topologı́as definidas por las dis-
tancias dkK , para todo compacto K. Esta topologı́a es igual a la topologı́a menos fina que contiene a
dk
las topologı́as definidas por dkŪi (o Ū
1+dk
i
), i = 1, 2, . . ., que coincide con la topologı́a definida por
Ū i

X 1 dkŪi
d= ·
i
2i 1 + dkŪ
i

Si en C ∞ (U ) consideramos la topologı́a menos fina que contiene a las topologı́as definidas por las
distancias dkK , para todo compacto K y k ∈ N, entonces esta topologı́a coincide con la topologı́a
definida por

X 1 diŪi
d= ·
i
2i 1 + diŪ
i

1. Teorema : C k (U ) es un espacio métrico completo para toda 0 ≤ k ≤ ∞.

Demostración. Sea {fi }i∈N una sucesión de Cauchy. Para todo α ≤ K, {Dα fi }i∈N es una sucesión de
Cauchy en C 0 (U ), para el que suponemos bien conocido que es completo. Sean fα ∈ C 0 (U ) el lı́mite
50 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

de la sucesión {Dα fi }i∈N . Basta probar que Dα f0 existe y coincide con fα para todo α, con |α| ≤ k.
∂f
Si α = (β1 , . . . , βj + 1, . . . , βn ), basta probar que ∂xβj = fα .
Por el teorema del valor medio, dado a ∈ U , Dβ fi (x) − Dβ fi (a) = Dα fi (ξi )(xj − aj ), con x =
(a1 , . . . , xj , . . . , an ) y ξi en el segmento que une a y x. Existe una subsucesión {ik } de modo que
{ξik } converge a un ξ (perteneciente al segmento que une a y x). Tomando lı́mite cuando ik → ∞
obtenemos
fβ (x) − fβ (a) = fα (ξ) · (xj − aj ) = fα (a) · (xj − aj ) + o(xj − aj )
∂fβ
donde o(xj − aj )/xj − aj tiende a cero cuando xj → aj . Por tanto, ∂xj (a) existe y coincide con fα (a).

Veamos ahora que el morfismo C ∞ (Rn ) → R[[x1 , . . . , xn ]] que asigna a cada función diferenciable
su desarrollo de Taylor infinito, en un punto α ∈ Rn cualquiera, es epiyectivo (sorprendentemente a
primera vista).
2. Lema : Sea f ∈ C ∞ (Rn ), tal que Dα (f )(0) = 0, para todo α, con |α| ≤ m. Dado  > 0 existe
g ∈ C ∞ (Rn ), que se anula en un entorno abierto de 0 tal que
||f − g||m < 
con ||f − g||m := sup{|Dα (f − g)(a)|, a ∈ Rn , |α| ≤ m}.
Demostración. Sea η(x) ∈ C ∞ (Rn ), tal que η(x) = 0, si ||x|| ≤ 1/2 y η(x) = 1 si ||x|| ≥ 1. Para δ > 0,
definamos
x
gδ (x) = η( ) · f (x)
δ
Claramente gδ ∈ C ∞ (Rn ) y se anula en un entorno abierto de 0. Calculemos ||f − gδ ||m .
Tenemos que f − gδ = f · (1 − η(x/δ)) que es nula para ||x|| > δ y ||η(x)||m < ∞. Observemos que
por las hipótesis lı́mx→0 Dα f (x)/||x||m−|α| = 0, luego
X α 
α α
|D (f − gδ )| = |D f · (1 − η(x/δ)) + · Dβ f · δ −(|α|−|β|) · Dα−β η(x/δ)| ≤ 
β
0≤β<α

para todo x, cuando δ es pequeño. En conclusión, ||f − gδ ||m ≤ , para δ pequeño.

3. Teorema de Borel sobre los desarrollos de Taylor: El morfismo C ∞ (Rn ) → R[[x1 , . . . , xn ]]


que asigna a cada función diferenciable su desarrollo de Taylor infinito en 0 ∈ Rn es epiyectivo.
Demostración. Sea α cα xα ∈ R[[x1 , . . . , xn ]]. Sea Tm = |α|=m+1 cα xα y gm ∈ C ∞ (Rn ) tal que se
P P

anule en un entorno abierto de 0 y tal que ||Tm − gm ||m ≤ 1/2m .


Entonces f = c0 + m (Tm − gm ) ∈ C ∞ (Rn ) y el desarrollo de Taylor de f en el 0 es α cα xα .
P P

2.6. Localización en el álgebra tensorial diferencial


1. Teorema : Sea X una variedad diferenciable y U ⊆ X un abierto. Se cumple que

C ∞ (U ) = C ∞ (X)U

con C ∞ (X)U := C ∞ (X)S , donde S es el conjunto de las funciones que no se anulan en ningún punto
de U .
2.6. Localización en el álgebra tensorial diferencial 51

Demostración. 1. Supongamos que X = Rn . Sea {U1 , U2 , . . .} un recubrimiento de U por cubos


abiertos cuyas adherencias estén contenidas en U . Sean φi : Rn → R funciones diferenciables positivas
sobre Ui y nulas en el complementario. Dada f ∈ C ∞ (U ) sea

λi = sup |{Dα (f φi )}|, µi = sup |{Dα (φi )}|


|α|≤i |α|≤i

∂ |α|
donde Dα = α αn
∂x11 ···∂x
y |α| = α1 + · · · + αn . Las series
n

∞ ∞
X 1 f φi X 1 φi
g= i
; h=
i=1
2 1 + λi + µi i=1
2i 1 + λi + µi

son funciones diferenciables, por el teorema anterior. Es evidente que f = g/h.


2. Caso general. Sumérjase X como subvariedad cerrada de un Rm . Sea V un abierto de Rm tal
que V ∩ X = U y F ∈ C ∞ (V ) su restricción a V ∩ X = U sea f . Sean G, H ∈ C ∞ (Rm ), tal que H no
se anule en ningún punto de V y G/H coincida con F sobre V . Las restricciones de G y H a X, g y
h respectivamente, cumplen que h no se anula en ningún punto de U y f = g/h en U .

2. Observación : La función h construida en la primera parte de la demostración es positiva sobre


U y nula en el complementario. Por tanto, usando el teorema de inmersión de Whitney, concluimos
que todo cerrado de una variedad son los ceros de una función diferenciable.
Igualmente se puede probar que C k (U ) = C k (X)U .
3
3. Corolario : Sea X una variedad diferenciable y U ⊆ X un abierto. Entonces

(ΩX )U = ΩU , (ΩrX )U = ΩrU

Demostración. Sea A una k-álgebra y S ⊂ A un sistema multiplicativamente cerrado. El morfismo


A → AS , a 7→ a1 , induce el morfismo ΩA/k → ΩAS /k , adb 7→ a1 d 1b , que induce el morfismo (ΩA/k )S →
ΩAS /k , da 1 a a da ads
s 7→ s · d 1 . El morfismo inverso es ΩAS /k → (ΩA/k )S , d s 7→ s − s2 . Por tanto, (ΩA/k )S =
ΩAS /k , luego (ΩX )U = ΩU , dfs 7→ s−1|U · df|U .
Ahora ya,
(ΩrX )U = (ΛrC ∞ (X) ΩX )U = ΛrC ∞ (U ) ΩU = ΩrU

4. Lema : Si M es un A-módulo proyectivo finito generado entonces (M ∗ )S = (MS )∗ (denoto


(MS )∗ = HomAS (MS , AS )).
3 Este corolario es un caso particular de un teorema de la teorı́a de fibrados vectoriales: Sea X 0 → X un morfismo

entre variedades diferenciables y E → X un fibrado vectorial. Se cumple que

HomX 0 (X 0 , E ×X X 0 ) = C ∞ (X 0 ) ⊗C ∞ (X) HomX (X, E)

que se prueba, sumergiendo E en un fibrado vectorial trivial, considerando un fibrado vectorial suplementario y re-
duciendo, pues, el teorema al caso de fibrado vectoriales triviales.
52 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

Demostración. Sea N tal que M ⊕ N = An . Es fácil comprobar que ((An )S )∗ = ((An )∗ )S . Del
diagrama conmutativo

(M ∗ )S ⊕ (N ∗ )S = (M ∗ ⊕ N ∗ )S ((An )∗ )S


(MS )∗ ⊕ (NS )∗ = (MS ⊕ NS )∗ ((An )S )∗

se deduce que (M ∗ )S = (MS )∗ .

5. Proposición : (DerX )U = DerU .

2.7. Integración. Fórmula de Stokes


Fórmula de cambio de variable en integración.
Sea e1 , . . . , en ∈ Rn la base estándar de Rn y w1 , . . . , wn la base dual. Supongamos Rn orientado
con la orientación estándar w1 ∧ · · · ∧ wn .
Dados n-vectores v1 , .P . . , vn ∈ Rn , llamamos palelepı́pedo generado por v1 , . . . , vn al subconjunto
n
de R , P (v1 , . . . , vn ) = { i λi vi , 0 < λi < 1}. La aplicación V : Rn × . n. . × Rn → R
( R
PR(v1 ,...,vn )
dx1 · · · dxn si v1 , . . . , vn está positivamente orientada
V (v1 , . . . , vn ) :=
− P (v1 ,...,vn ) dx1 · · · dxn si v1 , . . . , vn está negativamente orientada

es una aplicación multilineal alternada (al lector) y como sobre la base estándar de Rn vale 1, tenemos
que V = w1 ∧ · · · ∧ wn . Diremos que V (v1 , . . . , vn ) es el volumen (afectado de signo) del paralelepı́pedo
generado por v1 , . . . , vn .
Consideremos ahora una aplicación lineal T : Rn → Rn . Obviamente T transforma el paralelepı́pe-
do generado por v1 , . . . , vn en el paralelepı́pedo generado por T (v1 ), . . . , T (vn ) y

V (T (v1 ), . . . , T (vn )) = w1 ∧· · ·∧wn (T (v1 )∧· · ·∧T (vn )) = wn (det(T )·v1 ∧· · ·∧vn ) = det(T )V (v1 , . . . , vn )

1. Teorema : Sean U y U 0 abiertos de Rn y T : U 0 → U , T (y) = (T1 (y), . . . , Tn (y)) un difeomorfismo


de clase C 1 . Sea f (x) ∈ C 0 (U ) de soporte compacto. Entonces,
Z Z
∂Ti
f (x) · dx1 · · · dxn = f (T (y)) · | det( )| · dy1 · · · dyn
U U0 ∂yj
Demostración. Podemos suponer que f ≥ 0.
Consideremos un cubo cerrado C que contenga a U 0 y sea l la longitud de los lados de C. Sea
n
C = [−, ] × · · · × [−, ] y supongamos que l es un múltiplo entero de . Sean yk puntos de C, de
modo que C = ∪k (yk + C ) y los cubos yk + C sean de interiores disjuntos.
T (y 0 ) − T (y) = H(y 0 , y) · (y 0 − y) para cierta matriz de funciones continuas H. Recordemos que
H(y, y) = ( ∂T 0 0 0 0 0
∂yj ). Ası́ pues, T (y ) = T (y) + H(y, y)(y − y) + (H(y , y) − H(y, y))(y − y). Sea G(y , y) =
i

H(y 0 , y) − H(y, y). Como G(y, y) = 0 entonces ||G(y, y)||∞ = 0 y dado δ > 0 existe un  de modo que
para ||y 0 − y||∞ <  entonces ||G(y 0 , y)||∞ < δ, es decir, G(y 0 , y) · Cλ ⊆ Cδ·λ . Por tanto,

T (y + C ) ⊆ T (y) + H(y, y) · C + Cδ· ⊆ T (y) + H(y, y) · C·(1+δ0 )


2.7. Integración. Fórmula de Stokes 53


con δ 0 = δ · n (la longitud de la diagonal del cubo Cδ ). Por tanto,

Vol(T (y + C )) ≤ Vol(H(y, y) · C·(1+δ0 ) ) = det(H(y, y)) · Vol(C·(1+δ0 ) )


= det(H(y, y)) · Vol(C ) · (1 + δ 0 )n

Por tanto,

f (T (y)) · | det( ∂T )| · dy1 · · · dyn = lı́m→0 k f (T (yk )) · | det( ∂T


R P
∂yj (yk ))| · Vol(C )
i i
C ∂yj
≥ lı́m→0 k f (T (yk )) · Vol(T (yk + C )) · (1 + δ 0 )−n = T (C) f (x) · dx1 · · · dxn · (1 + δ 0 )−n
P R

Por tanto, U 0 f (T (y)) · | det( ∂T


R R
∂yj )| · dy1 · · · dyn ≥ U f (x) · dx1 · · · dxn .
i

Si consideramos el morfismo inverso T −1 : U 0 → U y como función continua g(y) = f (T (y)) ·


∂Ti−1
| det( ∂T
∂yj )|, entonces, f (x) = g(T
i −1
(x)) · | det( ∂xj )| y

∂Ti−1
Z Z Z
f (x) · dx1 · · · dxn = g(T −1 (x)) · | det( )| · dx1 · · · dxn ≥ g(y) · dy1 · · · dyn
U U ∂xj U0

f (T (y)) · | det( ∂T
R R
y concluimos que U
f (x) · dx1 · · · dxn = U0 ∂yj )| · dy1 · · · dyn .
i

Integración de formas.
Sea U ⊂ Rn un abierto, con la orientación dx1 ∧ . . . ∧ dxn . Sea w = f · dx1 ∧ . . . ∧ dxn ∈ ΩnU y
supongamos que sop f es compacto.
R R
2. Definición : Se define U w := U f · dx1 · · · dxn .
Sea U 0 ⊂ Rn un abierto y escribamos ahora las coordenadas y1 , . . . , yn . Si ϕ : U 0 → U es un
difeomorfismo que conserve la orientación, entonces el teorema del cambio de variables en integración

(=, más abajo) implica que Z Z

ϕ w= w
U 0 =ϕ−1 U U
∂ϕ1 P ∂ϕn
En efecto, ϕ∗ w = f (ϕ1 , . . . , ϕn ) · dϕ1 ∧ · · · ∧ dϕn = f (ϕ1 , . . . , ϕn ) · ( i
P
∂yi dyi ) ∧ · · · ∧ ( i ∂yi dyi ) =
f (ϕ1 , . . . , ϕn ) · det( ∂ϕ
∂yj ) · dy1 ∧ · · · ∧ dyn y
i

Z Z Z Z
∂ϕi ∗
ϕ∗ w = f (ϕ1 , . . . , ϕn ) · det( ) · dy1 · · · dyn = f (x1 , . . . , xn ) · dx1 · · · dxn = w
U 0 =ϕ−1 U U0 ∂yj U U

Sea X una variedad diferenciable orientada de dimensión n. Dada w una r-forma definimos sop w =
{x ∈ X tales que wx 6= 0}. Sea w una n-forma diferenciable y supongamos que sop w es compacto.
Supongamos que existe un difeomorfismo φ : X → U 0 ⊆ Rn orientado. Tenemos pues un difeomorfismo
φ∗ : C ∞ (U 0 ) → C ∞ (X), f 7→ f ◦ φ = f (φ1 , . . . , φn ). Entonces existe una n-forma diferenciable en U 0 ,
w0 = f (x1 , . . . , xn ) · dx1 ∧ · ∧ dxn , tal que φ∗ w0 = w (luego, w = f (φ1 , . . . , φn ) · dφ1 ∧ · · · ∧ dφn ) y
definimos Z Z Z Z
w= φ∗ w0 := w0 := f (x1 , . . . , xn ) · dx1 · · · dxn
X φ−1 (U 0 ) U0 U0
54 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

Veamos que la definición no depende del φ considerado. Sea φ00 : X → U 00 ⊆ Rn otro difeomorfismo
−1
orientado, entonces ϕ = φ0 ◦ φ00 : U 00 → U 0 , y 7→ (ϕ1 (y), . . . , ϕn (y) es un difeomorfismo orientado.
∗ ∗ ∗
Definamos w = ϕ w , que cumple que φ00 (w00 ) = φ00 ϕ∗ w0 = φ0 w0 = w. Por tanto,
00 ∗ 0

Z Z Z Z Z
vı́a φ00 00 ∗ 0 0 vı́a φ
0
w = w = ϕ w = w = w
X U 00 ϕ−1 (U 0 ) U0 X

Sea X una variedad diferenciable de dimensión n orientada y w una n-forma diferenciable de


soporte compacto. Sea un número finito de abiertos coordenados U1 , . . . , Un que recubran sop w y
consideremos el recubrimiento de X, {U1 , . . . , Un , X − sop w}. Sea {f1 , . . . , fn , f } una partición de la
unidad subordinada al recubrimiento. Observemos que w = f1 · w + · · · + fn w (y f · w = 0) y que
sop fi · w ⊂ Ui . Definimos Z Z Z
w := f1 w + · · · + fn w
X U1 Un

Esta definición no depende del recubrimiento ni de la partición: Sea {V1 , . . . , Vm } abiertos coordenados
que recubran sop w y {g1 , . . . , gm , g} una partición de la unidad subordinada a {V1 , . . . , Vm , X −sop w}.
Entonces
Xn Z X n Z Xm Xn Xm Z n X
X m Z
fi w = fi gj w = fi gj w = fi gj w
i=1 Ui i=1 Ui j=1 i=1 j=1 Ui ∩Vj i=1 j=1 Vj

Xm Z Xn Xm Z
= fi gj w = gj w
j=1 Vj i=1 j=1 Vj

Dejamos ya que el lector pruebe:


R P P R
1. Si w1 , . . . , wr son n-formas con soporte compacto entonces X i wi = i wi .
2. Si φ : X → X 0 es un difeomorfismo orientado entre variedades diferenciables orientadas entonces
para toda n-forma diferenciable w0 de X 0 de soporte compacto se satisface que
Z Z
φ∗ w 0 = w0
X=φ−1 (X 0 ) X0

Fórmula de Stokes.

3. Definición : Sea X una variedad diferenciable, B ⊂ X un cerrado y ∂B el borde de B. Diremos


que B es una variedad con borde si para todo p ∈ ∂B existe un entorno coordenado U , u1 , . . . , un de
p en X de modo que B ∩ U = {x ∈ U : u1 (x) ≤ 0}.
Observemos que ∂B ∩ U ≡ u1 = 0, luego ∂B es una subvariedad diferenciable de X. Si wX es una
forma diferenciable de volumen en X que lo orienta, podemos definir una orientación en ∂B: Sea w0
una n − 1-forma diferenciable en U tal que du1 ∧ w0 = wX , entonces w|∂B∩U 0
define una orientación
0 0
en ∂B ∩ U . Observemos que i∂u1 wX = w − du1 ∧ i∂u1 wX , luego w|∂B∩U = (i∂u1 wX )|∂B∩U . Sólo
tenemos que probar que esta orientación no depende de la u1 escogida: Si B ∩ U ≡ v1 ≤ 0 entonces
v1 = u1 · F con F > 0 en B ∩ U (F 6= 0 incluso en ∂B ∩ U , porque dv1 = F du1 + u1 dF es no nula
en todo punto). Sea w00 tal que dv1 ∧ w00 = wX . La n − 1 forma w|∂B∩U 0
coincide con la restricción de
i∂u1 wX = i∂u1 (dv1 ∧ w00 ) = (F + u1 · ∂u
∂F
) · w 00
+ v 1 · i w 00
a ∂B, que coincide 00
con F · w|partialB∩U .
R 1 R∂u1
Nota: Cuando escribamos B w querremos decir 0 w.
B
2.7. Integración. Fórmula de Stokes 55

4. Lema : Sea X una variedad diferenciable orientada de dimensión n y B ⊂ X una variedad


con borde. Para cada x ∈ X existe un entorno abierto U de x de modo que para toda n − 1-forma
diferenciable w sobre X de soporte compacto contenido en U se cumple que
Z Z
dw = w
B ∂B

R 1. Si x ∈
Demostración.
R / B, tómese U = X − B. Si w tiene soporte compacto contenido en U entonces
B
dw = 0 = ∂B
w.
0 0
2. Si x ∈ B, sea U , u1 , . . . , un un entorno coordenado de x, contenido en B, isomorfo a un cubo,
es decir, tenemos
(u1 ,...,un )
U −→ Ū ⊂ Rn ,
Ū = (a1 , b1 ) × . . . × (an , bn )

R
R w es una n − 1 forma con soporte compacto incluido en U entonces ∂B w = 0. Veamos que
Si
B
dw = 0: Por la linealidad de la integral podemos suponer que w = f du2 ∧ · · · ∧ dun . Entonces
Z Z Z Z bn Z b1
∂f ∂f
dw = d(f du2 ∧ · · · ∧ dun ) = · du1 ∧ · · · ∧ dun = ··· · du1 · · · dun
B U U ∂u1 an a1 ∂u1
Z bn Z b2 Z b1
∂f
= ··· ( du1 ) · du2 · · · dun
an a2 a1 ∂u1
Z bn Z b2
= ··· (f (b1 , u2 , . . . , un ) − f (a1 , u2 , . . . , un )) · du2 · · · dun = 0
an a2

porque w es nula sobre los hiperplanos u1 = a1 , u1 = b1 .


3. Si x ∈ ∂B sea U, u1 , . . . , un un entorno coordenado de x tal que B ∩ U ≡ u1 ≤ 0 y de modo que
U sea isomorfo a un cubo (a1 , b1 ) × · · · × (an , bn ), como en el caso anterior. Observemos que ∂B ∩ U
está coordenado por u2 , . . . , un y es difeomorfo al cubo (a2 , b2 ) × · · · × (an , bn ). Consideremos una
n − 1-forma diferenciable
P con soporteˆcompacto incluido en U .
Escribamos w = i fi du1 ∧ · · · ∧ du i ∧ · · · ∧ dun . Entonces, w|∂B = f1 (0, u2 , . . . , un )du2 ∧ · · · ∧ dun
y
Z Z Z
w= = f1 (0, u2 , . . . , un ) · du2 · · · dun
∂B ∂B∩U (a2 ,b2 )×···×(an ,bn )

Por otra parte,


Z Z Z u1 =0 Z u2 =b2 Z un =bn X ∂fi
dw = dw = ··· (−1)i−1 du1 · · · dun
B B∩U u1 =a1 u2 =a2 un =an i
∂ui
Z u1 =0 Z u2 =b2 Z un =bn
∂f1
= ··· du1 · · · dun
u1 =a1 u2 =a2 un =an ∂u1
∂fi
pues, ∂ui du1 · · · dun son formas como en 2. nulas sobre los hiperplanos ui = ai , ui = bi . Por tanto,

Z Z u2 =b2 Z un =bn Z 0 Z u2 =b2 Z un =bn


∂f1
dw = ··· ( ) · du1 · · · dun = ··· f1 (0, u2 , . . . , un ) · du2 · · · dun
B u2 =a2 un =an a1 ∂u1 u2 =a2 un =an
56 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

5. Teorema de Stokes: Sea w una n − 1-forma de soporte compacto sobre X. Se cumple que
Z Z
dw = w
B ∂B

Demostración. Sea {U1 , . . . , Un } abiertos coordenados que recubran el soporte de w y que satisfagan
el lema anterior. Sea f1 , . . . , fn , f una partición de la unidad subordinada a {U1 , . . . , Un , X − B}.
Entonces
Z Z X XZ XZ Z Z
dw = d( fi w) = d(fi wi ) = fi wi = fi wi = w
B B i i B i ∂B ∂B B

2.8. Gradiente, divergencia y rotacional


Vayamos con el ejemplo fundamental. Consideremos el anillo C ∞ (Rn ) y el C ∞ (Rn )-módulo libre
de rango n, ΩRn . 4 DerRn es el C ∞ (Rn )-módulo dual de ΩRn .
Sea T2 : DerRn × DerRn → C ∞ (Rn ) una aplicación C ∞ (Rn )-bilineal. Sea w1 , . . . , wn una base de
ΩRn . Sabemos que T2 = aij · wi ⊗ wj , aij ∈ C ∞ (Rn ), de modo que
P
ij

X
T2 (D1 , D2 ) = aij wi (D1 ) · wj (D2 )
ij

P
T2 induce la polaridad, T2 : DerRn → ΩRn , T2 (D) := iD T2 = aij wi (D) · wj . Supongamos que
ij
la polaridad T2 es un isomorfismo. Denotemos por T 2 el morfismo inverso de T2 .
1. Definición : Dada f ∈ C ∞ (Rn ) se define grad f = T 2 (df ).
2. Proposición : Se cumple que
1. grad(λf ) = λ grad f , λ ∈ R, f ∈ C ∞ (Rn ).
2. grad(f + g) = grad(f ) + grad g, f, g ∈ C ∞ (Rn ).
3. grad(f g) = f grad g + g grad f .
Interpretación geométrica de las diferenciales, campos, gradiente,.....
Fijemos “una forma de volumen” wX ∈ ΩnRn de modo que Ωn = C ∞ (Rn ) · wX . Observemos que
n+1
ΩRn = 0 y por tanto, dwX = 0.
3. Definición : Dado D ∈ DerRn se define la divergencia de D, que denotaremos por div D, como
la función que cumple
DL wX = (div D) · wX

Observemos que DL wX = (diD + iD d)wX = diD wX . Ası́ pues,

diD wX = (div D) · wX
4 Podrı́amos desarrollar la teorı́a correspondiente considerando una k-álgebra A tal que Ω
A/k fuese un A-módulo
finito generado localmente libre...
2.9. Apéndice 1. Normas 57

4. Teorema de la divergencia: Sea B ⊂ X una subvariedad con borde compacta. Sea wX una
forma de volumen en X, N un campo normal al borde ∂B de módulo 1 y w∂B la forma de volumen
en ∂B. Sea D un campo diferencial de vectores en X. Entonces por el teorema de Stokes
Z Z Z
(div D) · wX = iD wX = (D · N ) · w∂B
B ∂B ∂B

5. Proposición : div(f D) = f · div D + Df .

Demostración. div(f D) · wX = (f D)L wX = (dif D )wX = dif D wX = d(f · iD wX ) = df ∧ iD wX +


f diD wX = −iD (df ∧ wX ) + iD df ∧ wX + f DL wX = Df · wX + f div D · wX .

Consideremos ahora el C ∞ (R3 )-módulo libre de rango 3, ΩR3 . Sea T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 +
dx3 ⊗ dx3 y wR3 = dx1 ∧ dx2 ∧ dx3 la forma diferencial de volumen de R3 . El morfismo DerR3 → Ω2R3 ,
D0 7→ iD0 wR3 es un isomorfismo de C ∞ (R3 )-módulos.
6. Definición : Dado D ∈ DerR3 se define el rotacional de D, que denotamos por rot D, como el
campo que cumple que
irot D wR3 = diD T2

7. Teorema : Sea S una subvariedad diferenciable compacta de R3 de dimensión 2, y N un vector


normal a S de módulo 1. Sea B ⊂ S una subvariedad con borde y sea T un vector tangente a ∂B de
módulo 1. Sea D un campo diferencial de vectores en R3 . Entonces por el teorema de Stokes
Z Z Z Z
((rot D) · N ) · wB = irot D wR3 = iD T2 = (D · T ) · w∂B
B B ∂B ∂B

8. Teorema : rot(D) = 0 ⇐⇒ Existe una función f ∈ C ∞ (R3 ) tal que D = grad f .

Demostración. rot D = 0 ⇐⇒ 0 = irot D wR3 = d(T2 (D)) ⇐⇒ T2 (D) = df , para cierta f ∈ C ∞ (R3 )
⇐⇒ D = T 2 (df ) = grad f para cierta f ∈ C ∞ (R3 ).

“Un campo de fuerzas es conservativo si y sólo si es un gradiente”


9. Teorema : div D0 = 0 ⇐⇒ Existe una derivación D tal que D0 = rot D.

Demostración. div(D0 ) = 0 ⇐⇒ 0 = div(D0 ) · wR3 = d(iD0 wR3 ) ⇐⇒ Existe w ∈ ΩR3 tal que
iD0 wR3 = dw. Ahora bien, para toda w ∈ ΩR3 existe una (única) derivación D tal que w = T2 (D).
Por tanto, div(D0 ) = 0 ⇐⇒ Existe D tal que iD0 wR3 = dT2 (D) ⇐⇒ D0 = rot D, para cierto D.

10. Ejercicio : rot f D = f · rot D + grad(f ) × D.

2.9. Apéndice 1. Normas


Not.
1. Definición : Sea E un R-espacio vectorial. Una norma es una aplicación E → R+ , e 7→ ||e|| que
cumple

1. ||e|| = 0 ⇐⇒ e = 0.

2. ||λ · e|| = |λ| · ||e||, para todo λ ∈ R y e ∈ E.

3. ||e + e0 || ≤ ||e|| + ||e0 ||, para todo e, e0 ∈ E.


58 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

2. Ejemplo : Supongamos E = Rn y consideremos la norma || ||1 definida por ||(λ1 , · · · , λn )||1 :=


n
|x
p1 | + · · · + |x2 | Otra norma que podemos definir en R es || ||2 definida por ||(λ1 , · · · , λn )||2 :=
2 2 n
λ1 + . . . + λn . Otra norma que podemos definir en R es || ||∞ definida por ||(λ1 , · · · , λn )||∞ :=
máx{|x1 |, . . . , |xn |}.
E, || || se dice que es un espacio normado. La norma || || define en E una distancia, d, d(e, e0 ) :=
||e − e0 || que cumple que d(e, e0 ) = 0 ⇐⇒ e = e0 (por la propiedad 1.), que d(e, e0 ) = d(e0 , e) (por la
propiedad 2.) y que d(e, e00 ) ≤ d(e, e0 ) + d(e0 , e00 ) (por la propiedad 3.). Luego || || define una topologı́a
en E, para la cual una base de entornos de cada punto e ∈ E es

B(e, δ) := {e0 ∈ E : d(e0 , e) < δ} = {e0 ∈ E : ||e − e0 || < δ}

3. Teorema : Si E es un R espacio vectorial de dimensión finita entonces todas las normas de E


definen la misma topologı́a.
Demostración. Podemos suponer que E = Rn y que e1 , . . . P , en es la base estándar. Sea || ||P
una norma
en
P E y M = máx{||e
P 1 ||, . . . , ||e n ||}. Entonces, dado e = λ
i i ie tenemos que ||e|| = || i λi ei || ≤
i |λ i |||e i || ≤ i |λ i | · M = M · ||e|| 1 . Por tanto, || || ≤ M · || ||1 .
Consideremos en Rn la topologı́a estándar definida por || ||1 (que es la misma que la definida por
|| ||2 ). La norma Rn → R, e 7→ ||e|| es una aplicación continua, pues

| ||e|| − ||e0 || | ≤ ||e − e0 || ≤ M · ||e − e0 ||1

Sea m el mı́nimo de || || sobre el compacto K = {e ∈ Rn : ||e||1 = 1}. Por tanto, || || ≥ m · || ||1 .


En conclusión, la topologı́a definida por || || es la misma que la definida por || ||1 .

Sea E, || || un espacio vectorial normado de dimensión finita. Podemos definir una norma en Endk E
del siguiente modo: Dado T ∈ Endk E, ||T || := máx{||T (e)|| : ||e|| = 1}. Por tanto, ||T (e)|| ≤ ||T ||·||e||,
para todo e ∈ E.

2.10. Apéndice 2. Teorema de existencia y unicidad en sis-


temas de ecuaciones diferenciales
Consideremos el sistema de ecuaciones diferenciales
dx1
dt = f1 (x1 , . . . , xn )
...
dxn
dt = fn (x1 , . . . , xn )

Dar una solución de este sistema de ecuaciones diferenciales con condiciones iniciales a1 (λ), . . . , an (λ)
es dar funciones φi (t, λ) tales que dφ dt = fi (φ1 , . . . , φn ) y φi (t0 , λ) = ai (λ).
i

Si escribimos x = (x1 , . . . , xn ) y F = (f1 , . . . , fn ) podemos escribir de modo reducido el sistema


anterior como
dx
= F (x)
dt
y dada la condición inicial a(λ) = (a1 (λ), . . . , an (λ)), buscamos φ(t, λ) = (φ1 (t, λ), . . . , φn (t, λ)) tal
que

= F (φ)
dt
2.10. Apéndice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 59

y φ(t0 , λ) = a(λ).
El sistema de ecuaciones diferenciales (con condición inicial a(λ)) es equivalente a la ecuación
Z t
x = a(λ) + F (x) · dt
t0
Rt
Dada ϕ si denotamos ϕ = a(λ) + 0 F (ϕ) · dt, buscamos φ tal que φ = φ∗ .

Vamos a ver que bajo ciertas condiciones, si consideramos una ϕ cualquiera y tomamos ∗ infinitas
veces obtenemos una φ tal que al tomar ∗ una vez más obtenemos φ, es decir, φ∗ = φ. Ası́ de-
mostraremos que el sistema de ecuaciones diferenciales anterior tiene solución.
1. Lema : Sea X, d un espacio métrico completo y T : X → X una aplicación contractiva, es decir,
tal que exista una constante 0 ≤ c < 1 tal que d(T (x), T (y)) ≤ c · d(x, y), para todo x, y ∈ X. Entonces
existe un único punto p ∈ X tal que T (p) = p.
Demostración. Sea x ∈ X un punto cualquiera. La sucesión {xn := T n (x)} es una sucesión de Cauchy:
Sea a = d(x, T (x)) entonces d(T n (x), T n+1 (x)) ≤ c · d(T n−1 (x), T n (x)) ≤ · · · ≤ cn · d(x, T (x)) = cn · a.
Entonces, dado n ≥ m se cumple que

d(T m (x), T n (x)) ≤ d(T m (x), T m+1 (x)) + d(T m+1 (x), T m+2 (x)) + · · · + d(T n−1 (x), T n (x))
cm − cn a
≤ cm · a + cm+1 · a + . . . + cn−1 · a = a · ≤ cm ·
1−c 1−c
que es todo lo pequeño que se quiera para n, m grandes.
Por tanto, la sucesión converge a un punto p. Por ser T contractiva es continua, luego T (p) =
T (lı́mn→∞ xn ) = lı́mn→∞ T (xn ) = lı́mn→∞ xn+1 = p.
Si T (p0 ) = p0 entonces d(p, p0 ) = d(T (p), T (p0 )) ≤ c · d(p, p0 ), luego d(p, p0 ) = 0 y p0 = p.

2. Teorema : Sea F ∈ C 1 (Rn , Rn ) con soporte compacto y a(t1 , . . . , tm ) ∈ C 0 (Rm , Rn ). Entonces


existe una única solución φ(t, t1 , . . . , tm ) ∈ C 0 (R × Rm , Rn ) (derivable en t) del sistema de ecuaciones
diferenciales
dx
= F (x)
dt
con condiciones iniciales, para t = t0 , φ(t0 , t1 , . . . , tm ) = a(t1 , . . . , tm ).
Demostración. Sea U un cubo abierto de Rm y E = {ϕ = (ϕ1 , . . . , ϕn ) ∈ C 0 ((t0 − , t0 + ) × U, Rn ),
ϕj acotadas, para todo j}.
Dada una función real acotada g denoto por ||g||∞ como el supremo de g en su dominio de
definición. Defino en E la norma ||ϕ||∞ := máx{||ϕj ||∞ , para todo j}. E, || ||∞ es un espacio normado
completo.
F (x) − F (y) = H(x, y) · (x − y), siendo H(x, y) una matriz de funciones continuas con soportes
compacto. Sea K = máx{||H(x, y)||∞ , x, y ∈ Rn }. Por tanto, ||F (ϕ) − F (ϕ0 )||∞ ≤ K · ||ϕ − ϕ0 ||∞ .
Tomemos  = 1/2K (que depende sólo de F , y no de quien sea t0 ni a(t1 , . . . , tm )).
Rt
La aplicación T : E → E, T (ϕ) := a(t1 , . . . , tm ) + t0 F (ϕ(s, t1 , . . . , tm )) · ds es contractiva, pues
Z t Z t
0
||T (ϕ) − T (ϕ )||∞ = || F (ϕ) − F (ϕ) ds||∞ ≤ | ||F (ϕ) − F (ϕ0 )||∞ ds|
t0 t0
Z t
1
≤| K · ||ϕ − ϕ0 ||∞ ds| ≤  · K · ||ϕ − ϕ0 ||∞ = ||ϕ − ϕ0 ||∞
t0 2
60 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

Ası́ pues, por el lema existe una única φ ∈ E, tal que T (φ) = φ, es decir una única φ ∈ E solución
del sistema de ecuaciones diferenciable con condición inicial φ(t0 , t1 , . . . , tm ) = a(t1 , . . . , tm ).
Si existiese otra φ0 ∈ C 0 ((t0 − , t0 + ) × U, Rn ) solución del sistema, entonces reduciendo (todo
lo poco que se quiera) los cubos (t0 − , t0 + ) y U , se cumplirá que φ0 es acotada, luego habrá de
coincidir con φ. En conclusión φ0 = φ.
Como U es una cubo abierto, todo lo grande que se quiera, existe una única φ ∈ C 0 ((t0 − , t0 +
) × Rm , Rn ) solución del sistema con condiciones iniciales φ(t0 , t) = a(t).
Sea ahora t00 = t0 + /2. Del mismo modo dado el sistema dx dt = F (x) con condición inicial
x(t0 ) = φ(t00 ), existe un única solución φ0 ∈ C 0 ((t00 − , t00 + ) × Rm , Rn ). Ahora bien las restricciones
0

de φ y φ0 a (t00 − /2, t00 + /2) × Rm son soluciones del sistema en este abierto, luego coinciden. Luego
tenemos una solución φ00 ∈ C 0 ((t0 − , t0 + 1,5 · ) × Rm , Rn ) del sistema de ecuaciones, con condición
inicial x(t0 ) = a(t), que es única porque cualquier otra sobre (t0 − , t0 + ) × Rm coincide con φ y
por tanto sobre (t00 − /2, t00 + /2) × Rm con φ0 . Argumentando ası́ sucesivamente, demostramos que
existe una única φ ∈ C 0 (R × Rm , Rn ) solución del sistema con condiciones iniciales x(t0 ) = a(t).

Como habrá podido observar el lector la existencia y unicidad de la solución es un problema


esencialmente local.
3. Teorema : Sea F ∈ C 1 (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C 0 (Rm , Rn ). Dado b = (b0 , b1 , . . . , bm ) ∈ Rm+1 ,
existe un entorno abierto conexo V de b y una única solución φ(t, t1 , . . . , tm ) ∈ C 0 (V, Rn ) (derivable
en t) del sistema de ecuaciones diferenciales
dx
= F (x)
dt
con condiciones iniciales, para t = b0 , φ(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ).
Demostración. Sea U un entorno abierto de a(b1 , . . . , bm ) ∈ Rn y H ∈ C ∞ (U ) con soporte compacto
en U y que en un entorno más pequeño U 0 de a(b1 , . . . , bm ) es H|U 0 = 1.
Sea F̃ = H · F y φ̃ la única solución de la ecuación diferencial dx dt = F̃ (x), con condición inicial
φ̃(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). Sea V ⊂ φ̃−1 (U 0 ) un entorno abierto conexo de b. Es claro que
φ := φ̃|V es una solución del sistema dx dt = F (x), con condición inicial φ(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ).
−1
Además si φ es otra solución sobre V , entonces es también solución sobre V ∩ φ0 (U ), del sistema
0
dx
dt = F̃ (x) luego ha de coincidir (como vimos en la demostración del teorema anterior) con φ̃|V , sobre
−1
la componente conexa de V ∩ φ0 (U ) que contenga a b. Los puntos donde coinciden φ0 y φ̃|V es un
−1
cerrado, luego V ∩ φ0 (U ) = V y φ0 = φ̃|V .

Dependencia diferenciable de las condiciones iniciales:


Si F ∈ C k+1 (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C k (Rm , Rn ) entonces la solución φ también es de clase k:
Es un problema local. Veamos que podemos proceder como en el teorema 2.10.2.
Sea U un cubo abierto de Rm y U = (t0 − , t0 + ). Dada una función g(t, t1 , . . . , tm ) ∈ C k (U ×
∂αg
U, Rn ), denotemos gα = ∂ α0 t···∂ αm t
m
. Dada ϕ = (ϕ1 , . . . , ϕn ) ∈ C k (U × U, Rn ) definamos ||ϕ|| :=
máx{||ϕj,α ||∞ , para todo j y |α| ≤ k}. Sea K 0 = ||a|U ×U ||.
Sea E = {ϕ ∈ C k (U × U, Rn ), tales que ||ϕ|| ≤ 2K 0 }, que es un espacio métrico completo.
Dada α, con |α| ≤ k, tendremos que Fi (ϕ1 , . . . , ϕn )α = Gi,α (ϕj,β )j,|β|≤k , para cierta función
Gi,α ∈ C 0 (RN , Rn ), con N = n · #{β : |β| ≤ k}, que no depende de ϕ. Sea G = (Gj,β )j,|β|≤k . Dado
K 0 > 0, existe una constante K, tal que
2.10. Apéndice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 61

1. ||G(xj,β ) − G(y j,β )||∞ ≤ K · ||(xj,β ) − (y j,β )||∞ , para todo (xj,β ) y (y j,β ) tales que ||(xj,β )||∞ ,
||(y j,β )||∞ < K 0
2. ||G(xj,β )||∞ < K, para todo (xj,β ) tal que ||(xj,β )||∞ < K 0 .
En tal caso, ||F (ϕ) − F (ϕ0 )|| < K · ||ϕ − ϕ0 || y ||F (ϕ)|| < K · ||ϕ||, si ||ϕ|| y ||ϕ0 || < K 0 . Sea
1
Rt
 = 2K . La aplicación T : E → E, T (ϕ) = a(t1 , . . . , tn ) + t0 F (ϕ(s, t1 , . . . , tn )) · ds está bien definida
y es contractiva. Veamos que T (ϕ) ∈ E:

Z t Z t Z t
0 0
||T (ϕ)|| ≤ ||a|| + || F (ϕ) · ds|| ≤ K + | ||F (ϕ)|| · ds| ≤ K + | K · ds| ≤ K 0 + K · 2 ·  = 2K 0
t0 t0 t0

Veamos que T es contractiva:


Z t Z t
0
||T (ϕ) − T (ϕ )|| = || F (ϕ) − F (ϕ) ds|| ≤ | ||F (ϕ) − F (ϕ0 )|| · ds|
t0 t0
Z t
1
≤| K · ||ϕ − ϕ0 || · ds| ≤  · K · ||ϕ − ϕ0 || = ||ϕ − ϕ0 ||
t0 2
Por tanto, existe φ ∈ E tal que T (φ) = φ, que es la solución local del sistema de ecuaciones
diferenciales.
Curvas integrales de un campo

P
Sea D = i fi · ∂x i
∈ DerRn . Nos planteamos la existencia (local) de una aplicación diferenciable

τ : R × Rn → Rn , (t, x) 7→ τ (t, x)

tal que τ∗ (( ∂t )(t,x) ) = Dτ (t,x) y τ (0, x) = x.

)(t,x) ) = ( i ∂τ
P i ∂ ∂
Si escribimos τ = (τ1 , . . . , τn ), sabemos que τ∗ (( ∂t ∂t ∂xi )τ (t,x) . Por tanto, τ∗ (( ∂t )(t,x) ) =
Dτ (t,x) si y sólo si ∂τ
∂t = fi (τ ). Si escribimos F = (f1 , . . . , fn ) entonces τ es justamente la solución del
i

sistema de ecuaciones diferenciales



= F (τ )
dt
con condiciones iniciales τ (0, x) = x. Si D es un campo con soporte compacto sabemos que existe una
única τ “global”. En general, para cada x ∈ Rn existe un entorno abierto Ux de x, un x ) ∈ R y una

única aplicación diferenciable τ : Ux × Ux → Rn , de modo que τ∗ ( ∂t (t,x)
) = Dτ (t,x) y τ (0, x) = x.
n
Por tanto, si W = ∪x∈Rn Ux × Ux ⊂ R × R tenemos definida una única aplicación diferenciable

τ : W → Rn , de modo que τ∗ ( ∂t (t,x)
) = Dτ (t,x) y τ (0, x) = x.
n
Denotemos τt : U → R , τt (x) = τ (t, x). Se cumple que τt ◦ τs = τt+s (donde todo esté definido).
En efecto, cumplen el mismo sistema de ecuaciones diferenciales
dτ (t, τ (s, x)) dτ (t + s, x)
= F (τ (t, τ (s, x))), = F (τ (t + s, x))
dt dt
y cumplen las mismas condiciones iniciales τ (0, τ (s, x)) = τ (s, x) = τ (0 + s, x). Se dice que τt (x) es el
“grupo uniparamétrico” asociado a D.
Observemos que si fijamos un x ∈ Rn , obtenemos una curva

σx : U −→ Rn , σx (t) = τ (t, x)
62 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

en Rn cuyo campo tangente en σx (t) = τ (t, x) es σx,∗ (( ∂t ∂


)t ) = i τi (t,x) ∂
P
dt ( ∂xi )σx (t) = Dσx (t) . Se dice
que σx es la curva integral de D en x.
Sea W ⊂ R×Rn un abierto conexo máximo, que contenga a 0×Rn y para el que existe τ : W → Rn

una (única) aplicación diferenciable tal que τ∗ ( ∂t (t,x)
) = Dτ (t,x) y τ (0, x) = x. Sean y = (t, x) ∈ W ,
U = (, ), Uy entorno abierto de y y τ : U × Uy → Rn . Si Ux es un entorno abierto conexo de x tal
que τt (Ux ) ⊆ Uy , entonces la aplicación τ̃ : (t − , t + ) × Ux → Rn , τ̃ ((t0 , x0 )) := τt0 −t (τt (x0 )), coincide
con τ : W → Rn sobre W ∩ ((t − , t + ) × Ux ). Por tanto, (t − , t + ) × Ux ⊆ W . Es fácil concluir
τ
que, dado x ∈ Rn entonces (R × x) ∩ W → Rn es la curva integral máxima de D que pasa por x.
Reducción local de un campo a forma canónica
Si F : U → V es un difeomorfismo entre abiertos de Rn , “entonces todo lo que digamos en U
podemos traducirlo a V ”. Dada una función en g en U , tenemos la correspondiente función en V :
g ◦ F −1 . Dada una derivación D en U , tenemos la derivación F (D) en V , determinada por el diagrama
conmutativo
F ∗−1
C ∞ (U ) C ∞ (V )
D F (D)
 
F ∗−1
C ∞ (U ) C ∞ (V )

Es decir, F (D)g := D(g◦F )◦F −1 . Puede comprobarse que F (D)F (α) = F∗ Dα . D = ∂x ∂


1
en un sistema

de coordenadas x1 , . . . , xn si y sólo si F (D) = ∂y1 en el sistema de coordenadas y1 = x1 ◦ F, . . . , yn =
xn ◦ F .
Sigamos las notaciones del apartado anterior. Supongamos que Dp 6= 0, por tanto fi (p) 6= 0 para
algún i. No hay pérdida de generalidad si suponemos que f1 (p) 6= 0. Sea V = {(y1 , y2 , . . . , yn ) ∈ Rn
tales que (y1 , x1 (p), y2 , . . . , yn ) ∈ U × U } y consideremos la composición de morfismos
i τ
V ,→ U × U → Rn
(y1 , y2 , . . . , yn ) 7→ (y1 , x1 (p), y2 , . . . , yn )

A nivel tangente tenemos


∂ i∗ ∂ ∂ τ ∗
∂y1 7→ ∂t ∂t 7→ D
i∗ ∂ τ∗ P ∂τj (0,x) ∂ ∂

7→ ∂ ( ∂x )0,q 7→ ( j · ∂xj )q = ( ∂x )q
∂yi ∂xi , i>1 i ∂xi i

En conclusión, la matriz de (τ ◦ i)∗ en el punto (0, p2 , . . . , pn ) es


 
f1 (p) 0 . . . 0
 f2 (p) 1 . . . 0
 
 .. .. .. 
 . . .
fn (p) 0 ... 1

Luego τ ◦ i es un difeomorfismo de un entorno abierto V 0 de (0, p2 , . . . , pn ) con un entorno abierto U


de p y tenemos
V0 ' U

∂y1 ↔ D

y en las coordenadas z1 = y1 ◦ (τ ◦ i)−1 , . . . , zn = yn ◦ (τ ◦ i)−1 , D = ∂


∂z1 .
2.11. Apéndice 3. Inmersión de variedades compactas 63

Sea wr una r-forma diferencial en un abierto U ⊂ Rn y D una derivación. Veamos que

τt∗ (wr ) − wr
DL wr = lı́m
t→0 t

Si Dp 6= 0 entonces en un entorno V de p, D = ∂z∂ 1 en cierto sistema de coordenadas z1 , . . . , zn .


Entonces
P τt ((z1 , . . . , zn )) = (z1 + t, z2 , . . . , zn ), como es de comprobación inmediata. Escribamos wr =
fi1 ...ir · dzi1 ∧ · · · ∧ dzir , entonces en V

τt∗ (wr ) − wr X ∂fi ...i


lı́m = 1 r
· dzi1 ∧ · · · ∧ dzir = DL wr
t→0 t ∂z1

Si D = 0 en un entorno abierto V de p entonces τt (x) = x para todo x ∈ V , como es de


τ ∗ (w )−w
comprobación inmediata. Entonces en V , DL wr = 0 = lı́mt→0 t rt r .

τ (w )−w
En conclusión, DL wr = lı́mt→0 t rt r en un abierto denso de puntos de U , luego son iguales.

2.11. Apéndice 3. Inmersión de variedades compactas


1. Definición : Sea φ : Y → X una aplicación diferenciable entre dos variedades. Se dice que φ es
una inmersión local en y ∈ Y si la aplicación lineal tangente en y es inyectiva.
Obviamente φ es una inmersión local en y si y sólo si la aplicación lineal cotangente φ∗ : mφ(y) /m2φ(y)
→ my /m2y es epiyectiva. En este caso, si dφ(y) x1 , . . . , dφ(y) xn es una base de mφ(y) /m2φ(y) , reordenando
la base, podemos suponer que dy (x1 ◦ φ), . . . , dy (xr ◦ φ) es una base de my /m2y . Sea V un entorno
abierto de y en el que y1 = x1 ◦ φ, . . . , yr = xr ◦ φ sean un sistema de coordenadas. Por tanto,
para j > r, xj ◦ φ = fj (x1 ◦ φ, . . . , xr ◦ φ), para ciertas funciones diferenciables fj . Las funciones
z1 = x1 , . . . , zr = xr , zr+1 = xr+1 − fr+1 (x1 , . . . , xr ), . . . , zn = xn − fn (x1 , . . . , xr ) son un sistema de
coordenadas en un entorno U de φ(y). Reduciendo V si es preciso para que φ(V ) ⊂ U , tenemos

φ: V, {x1 , . . . , xr } → U, {z1 , . . . , zn }
p = (p1 , . . . , pr ) 7→ φ(p) = (p1 , . . . , pr , 0, . . . , 0)

Recı́procamente, si existen sistemas de coordenadas en los que φ se expresa de este modo entonces φ
es una inmersión local.
2. Definición : Sea φ : Y → X una aplicación diferenciable entre dos variedades. Se dice que φ es
una inmersión si φ es inyectiva e inmersión local an cada punto.
A pesar del nombre, puede ocurrir que la imagen de Y no se identifica con una subvariedad de
X, como sucede con el “ocho” en el plano, parametrizado convenientemente. Ahora bien, si además
φ : Y → φ(Y ) es un homeomorfismo entonces φ(Y ) es una subvariedad diferenciable de X y además
φ : Y → φ(Y ) es un difeomorfismo.
3. Observación : Si Y es compacta, entonces φ : Y → φ(Y ) es un homeomorfismo, y, por tanto, φ(Y )
es una subvariedad de X.
Sea X una variedad diferenciable compacta. Queremos encontrar una inmersión

φ = (f1 , . . . , fm ) : X → Rm ,

con lo cual, tendremos identificada la variedad X con una subvariedad de Rm .


64 Capı́tulo 2. Cálculo Tensorial en Geometrı́a Diferencial

4. Proposición : Sea φ = (f1 , . . . , fm ) : X → Rm una aplicación diferenciable. Entonces, φ es una


inmersión si y sólo si las funciones f1 , . . . , fm separan puntos de X y separan vectores tangentes de
X.
(Separan puntos si, para cualesquiera x, x0 ∈ X entonces fi (x) = fi (x0 ) para todo i, si y sólo
si x = x0 . Separan vectores tangentes si, para todo punto x ∈ X y todo par de vectores tangentes
Dx , Dx0 ∈ Tx X se cumple que si dx fi (Dx ) = dx fi (Dx0 ), para todo i, entonces Dx = Dx0 ).
Demostración. Que separe puntos equivale a que φ sea inyectiva. Que separe vectores tangentes equiv-
ale a que la aplicación lineal tangente sea inyectiva en todo punto.
5. Teorema de inmersión en el caso compacto: Toda variedad diferenciable compacta es difeo-
morfa a una subvariedad diferenciable de algún Rm .
Demostración. Buscamos funciones f1 , . . . , fm que separen puntos y separen vectores tangentes.
Sea U1 , . . . , Ur un recubrimiento finito por abiertos coordenados de X y {ui1 , . . . , uin } el sistema de

coordenadas en P Ui . Sea {f1 , . . . , fr } ⊂ C (X) una partición de la unidad subordinada al recubrimiento
(sop fi ⊂ Ui , i fi = 1). Consideremos ahora la siguiente colección de funciones {fi , fi · uik }i,k , todas
definidas en X, si extendemos fi · uik por cero fuera del abierto Ui .
Comprobemos que esta colección separa puntos y vectores tangentes, y con ello habremos acabado
la demostración.
Separan puntos: dados dos puntos x, x0 ∈ X, para algún j se cumple fj (x) 6= 0. Si 0 6= fj (x) =
fj (x0 ) entonces x, x0 ∈ Uj . Ahora ya, si fj (x) · ujk (x) = fj (x0 ) · ujk (x0 ) para todo k, entonces ujk (x) =
ujk (x0 ) y x = x0 .
Separan vectores tangentes: Dados dos vectores tangentes Dx , Dx0 ∈ Tx X, existe i tal que fi (x) 6= 0.
Si dx fi (Dx ) = dx fi (Dx0 ) y dx (fi · uik )(Dx ) = dx (fi · uik )(Dx0 ) para todo k, entonces fi (x)dx uik (Dx ) =
fi (x)dx uik (Dx0 ) para todo k. Por tanto, dx uik (Dx ) = dx uik (Dx0 ) para todo k y Dx = Dx0 .
Capı́tulo 3

Aplicaciones de la teorı́a

3.1. Sistemas de ecuaciones lineales. Regla de Cramer


Consideremos el sistema de ecuaciones lineales
λ11 x1 + ··· +λn1 xn = b1
...
λ1m x1 + ··· +λnm xn = bm

Sea T : Rn → Rm la aplicación lineal de matriz asociada (λij ) en las bases estándar y e0 = (b1 , . . . , bm ).
Las soluciones del sistema de ecuaciones lineales se corresponden con los vectores e = (x1 , . . . , xn ) ∈ Rn
tales que T (e) = e0 .
Sea T : E → E 0 una aplicación k-lineal entre k-espacios vectoriales de dimensión finita.
1. Definición : Se llama rango de T , que denotaremos rango T , a la dimensión de Im T .
Como E/ Ker T = Im T , ē 7→ T (e), se tiene que rango T = dim Im T = dim E − dim Ker T .
Si {e1 , . . . , en } es una base de E, entonces Im T = hT (e1 ), . . . , T (en )i y hemos definido rango T
como el número máximo de T (ei ) que son linealmente independientes entre sı́. Si (λij ) es una matriz
asociada a T entonces rango T es el número máximo de columnas Plinealmente independientes entre sı́.
Sea {v1 , . . . , vn } una base de un espacio vectorial V y ui = j λij vj , 1 ≤ i ≤ s. Tendremos que
X
u1 ∧ · · · ∧ us = λj1 ,...,js vj1 ∧ · · · ∧ vjs

Calculemos λj1 ,...,js . Sea i : hu1 , . . . , us i ,→ V , la inclusión y π : V → hvj1 , . . . , vjs i tal que π(vj ) = 0
si j 6= {j1 , . . . , js } y π(vji ) = vji , para 1 ≤ i ≤ s. Entonces

det(π ◦ i) · vj1 ∧ . . . ∧ vjs = Λs (π ◦ i)(u1 ∧ · · · ∧ us ) = Λs (π)(u1 ∧ · · · ∧ us )


X
= Λs π( λj10 ,...,js0 vj10 ∧ · · · ∧ vjs0 ) = λj1 ,...,js vj1 ∧ · · · ∧ vjs

En conclusión,

λj1 ,...,js = det( (λij )j∈{j1 ,...,js } )


Recordemos que u1 , · · · , us son linealmente independientes si y sólo u1 ∧ · · · ∧ us 6= 0, luego u1 , . . . , us
son linealmente independientes si y sólo si algún λj1 ,...,js 6= 0.

65
66 Capı́tulo 3. Aplicaciones de la teorı́a

2. Proposición : Sea (λij ) una matriz asociada a T : E → E 0 . El rango de T es el máximo de los


órdenes de los menores de la matriz (λij ) de determinante no nulo.

Demostración. Sea {e1 , . . . , en } una base de E y {e01 , . . . , e0m } una base de E 0 de modo que T (ei ) =
0
P
j λij ej . El rango de T es el número máximo de los T (e1 ), . . . , T (en ) linealmente independientes.

3. Corolario : El número máximo de columnas linealmente independientes de una matriz coincide


con el número máximo de filas linealmente independientes.
Dada una aplicación lineal T : E → E 0 , e0 ∈ E 0 cumple que e0 ∈ Im T si y sólo si dim Im T =
0
Ası́ pues, si {e1 , . . . , en } es una base de E, {e01 , . . . , e0m } es una base de E 0 , T (ei ) =
P Im T0 + he0 i. P
dim
0 0
j λij ej y e = j bj ej , tendremos que e ∈ Im T si y sólo si el rango de la matriz (λij ) es igual al
rango de la matriz (λij ) ampliada por la columna (b1 , . . . , bm ).
Supongamos que el sistema de ecuaciones lineales

λ11 x1 + ··· +λn1 xn = b1


...
λ1m x1 + ··· +λnm xn = bm
tiene solución. Supongamos que el menor M obtenido de las columnas {i1 , . . . , ir } y filas {j1 , . . . , jr }
de la matriz (λij ) es de determinante no nulo (r = rango T ). Por tanto, las filas j 0 ∈ / {j1 , . . . , jr }
dependen linealmente de las filas j1 , . . . , jr y para calcular las soluciones del sistema las podemos
quitar. Pasemos las variables xi0 , con i0 ∈/ {i1 , . . . , ir } al otro lado de la igualdad. Tendremos que

P P
bj1 − i0 ∈{i bj1 − i0 ∈{i
       
x i1 / 1 ,...,ir } λi j1 xi x i1 / 1 ,...,ir } λi j1 xi
0 0 0 0

M ·  ...  =  ..  .  −1  ..
 ⇒  ..  = M · 
    
P . P . 
x ir bjr − i0 ∈{i
/ 1 ,...,ir } λi jr xi
0 0 xir bjr − i0 ∈{i
/ 1 ,...,ir } λi jr xi
0 0

3.2. Máximos y mı́nimos bajo condiciones


Sea U un entorno abierto de a ∈ R y f (x) ∈ C 1 (U ).
1. Proposición : Si f (x) alcanza un máximo relativo en a (es decir, f (a) ≥ f (x), para todo x ∈ V ,
para cierto entorno abierto V de a, V ⊂ U ) entonces f 0 (a) = 0.

Demostración. En efecto, tenemos que f (x) = f (a) + h(x) · (x − a), donde h(x) ∈ C(U ) y h(a) = f 0 (a).
Si h(a) > 0 entonces en un entorno (a − , a + ) la función h(x) será estrictamente mayor que cero,
entonces f (x) > f (a) para x ∈ (a, a + ) (y f (x) < f (a) para x ∈ (a − , a)). Llegamos a contradicción.
Del mismo modo se llega a contradicción si h(a) < 0.

Sea ahora U un entorno abierto de a ∈ Rn y f (x) ∈ C 1 (U ).


2. Proposición : Si f (x) alcanza un máximo relativo en a entonces da f = 0.
∂f
Demostración. Por la proposición anterior ∂xi (a) = 0 para todo xi (considerando f como función en
la variable xi ).

3. Proposición: Supongamos ahora que f (x) ∈ C 2 (U ) y que da f = 0. Tenemos que f (x) = f (a)+(x−
2
a) · H(x) · (x − a)t , siendo H(x) una matriz simétrica (de funciones continuas) y H(a) = ( ∂x∂i ∂x
f
j
(a)).
Si H(a) es una matriz no singular entonces
3.3. Longitudes, áreas y volúmenes 67

2
1. f (x) alcanza un máximo relativo en a si y sólo si ( ∂x∂i ∂x
f
j
(a)) es definida negativa.
2
2. f (x) alcanza un mı́nimo relativo en a si y sólo si ( ∂x∂i ∂x
f
j
(a)) es definida positiva.

Demostración. H(a) es una matriz definida positiva si y sólo si para todo v ∈ S n , v · H(a) · v t > 0. Si
H(a) es definida positiva entonces H(x) es definida positiva en un entorno de a, y por tanto en ese
entorno f (x) > f (a), para x 6= a, y a es un mı́nimo relativo. Del mismo modo se razona si H(a) es
definida negativa.
Nos falta ver que si H(a) no es definida positiva ni negativa entonces a no es mı́nimo ni máximo
t
relativo. Existen v, v 0 ∈ S n de modo que v · H(a) · v t < 0 y v 0 · H(a) · v 0 > 0. Existe un entorno
t 0 0t
abierto V de a, de modo que v · H(x) · v < 0 y v · H(x) · v > 0, para todo x ∈ V . Por tanto, para
0
x = a + nv , para todo n >> 0, se tiene que f (x) < f (a) y para x = a + vn , para todo n >> 0, se tiene
que f (x) > f (a).

Sea ahora Y ⊂ Rn una subvariedad diferenciable. Dada una función f (x1 , . . . , xn ) nos planteamos
si f|Y alcanza un máximo (o un mı́nimo) relativo en a ∈ Y .
Recordemos que podemos identificar (localmente) Y con un abierto de Rn−r y por tanto podemos
aplicar la teorı́a recién desarrollada. En efecto, sea un abierto U ⊂ Rn y un sistema de coordenadas
y1 , . . . , yn en U de modo que U ∩ Y ≡ y1 = . . . = yr = 0. Tenemos que f (x1 , . . . , xn ) = g(y1 , . . . , yn )
y f|Y = g(0, . . . , 0, yr+1 , . . . , yn ). Es decir, podemos considerar f|Y como una función diferenciable
en las variables yr+1 , . . . , yn . Por tanto si a es un máximo o un mı́nimo relativo de f|Y entonces
0 = da f|Y ∈ m̄a /m̄2a , donde m̄a es el ideal de todas las funciones diferenciables de Y que se anulan
en a. Observemos que dimR m̄α /m̄2a = n − r. El epimorfismo natural ma → m̄a , h 7→ h|Y , define el
epimorfismo
π : ma /m2a → m̄a /m̄2a , π(h̄) = h̄|Y
Por tanto, da f|Y = 0 si y sólo si da f ∈ Ker π. Ker π contiene a da y1 = ȳ1 , . . . , da yr = ȳr . Por
dimensiones, Ker π = hda y1 , . . . , da yr i. En conclusión, si a es un máximo o mı́nimo relativo de f|Y
entonces da f es combinación lineal de da y1 , . . . , da yr .
Las funciones yr+1 , . . . , yn son un sistema de coordenadas en a de Y . Por tanto, si la matriz
∂2f 2
|Y
( ∂yi ∂y j
(a))i,j>r = ( ∂y∂i ∂y
f
j
(a))i,j>r es no singular, entonces a es un máximo relativo en Y de f|Y si es
2
definida negativa. El problema que nos planteamos es como calcular ∂y∂i ∂y
f
j
, suponiendo que conocemos

P ∂yj ∂
las funciones y en términos de las x. Tenemos que ∂xi = j ∂xi · ∂yj , es decir,
 ∂   ∂   ∂   ∂ 
∂x1 ∂y1 ∂y1 ∂x1
 ..  ∂yj  .  ∂yj −1  . 
 . =( ) ·  ..  ⇒  ...  = ( ) ·  .. 
 

∂x i ∂
∂x ∂ i ∂
∂xn ∂yn ∂yn ∂xn

3.3. Longitudes, áreas y volúmenes


El volumen (en dimensión dos área, en dimensión uno longitud) de una variedad diferenciable
riemanniana es la integral de su forma de volumen.
Longitud de una curva
1. Calculemos la longitud de una curva dada en cartesianas.
68 Capı́tulo 3. Aplicaciones de la teorı́a

Sea R → Rn , σ(t) = (x1 (t), . . . , xn (t)) una curva. Rn es una variedad riemanniana con la métrica
T2 = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn . La curva σ con la métrica T2σ es una variedad riemanniana.
X
T2σ = dx1 (t) ⊗ dx1 (t) + · · · + dxn (t) ⊗ dxn (t) = x0 i (t)2 · dt ⊗ dt
i
pP
La forma de longitud de σ, wσ en la coordenada t es wσ = i x0 i (t)2 · dt
Z t1 sX
Longitud de σ entre t0 y t1 := x0 i (t)2 · dt
t0 i

2. Ahora calculemos la longitud de una curva plana dada en coordenadas polares ρ, θ.


Sea σ : R − {0} → R × S 1 , σ(t) = (ρ(t), θ(t)). Recordemos que la relación entre las coordenadas
cartesianas y las polares es x1 = ρ · cos θ, x2 = ρ · sen θ. Luego,

dx1 = cos θ · dρ − ρ · sen θ · dθ


dx2 = sen θ · dρ + ρ · cos θ · dθ

y T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 = . . . = dρ ⊗ dρ + ρ2 dθ ⊗ dθ. Ahora ya,


2 2
T2|σ(t) = (ρ0 + ρ2 · θ0 ) · dt ⊗ dt

y Z t1 q
Longitud de σ entre t0 y t1 = ρ0 2 + ρ2 · θ0 2 · dt
t0

3. Supongamos ahora que la curva viene dada en implı́citas C ≡ p(x, y) = 0 (x, y las coordenadas
∂ ∂
cartesianas de R2 ). Un campo normal a la curva es D = T 2 (dp(x, y)) = px · ∂x + py · ∂y . Sea N =
q
px ·dy−py ·dx
D/ px + py . Por tanto, la forma de longitud de C es wC = iN (dx ∧ dy) = √ 2 2 . Supongamos
2 2
px +py
que x, p(x, y) forman un sistema de coordenadas, entonces en C, 0 = dp(x, y) = px dx + py dy y
dy = − ppxy · dx. En conclusión si parametrizamos C por x, tenemos que
Z x1 s
px · dy − py · d p2
Z
Longitud de σ entre x0 y x1 = q = ... = 1 + x2 · dx
C p2 + p2 x0 py
x y

que coincide con el cálculo de 1., si consideramos la parametrización x 7→ (x, y(x)) (y es función de x
en en C), y recordamos que yx = − ppxy en C.

Área de una superficie


1. El área del cı́rculo de radio r, que en coordenadas polares es la región C ≡ {0 < ρ ≤ r, 0 < θ ≤
2π}, es igual a
Z p Z Z r
|T2 | · dρ ∧ dθ = 0 < ρ ≤ r ρ · dρ · dθ = 2π · ρdρ = π · ρ2 |r0 = π · r2
C 0
0 < θ ≤ 2π

El área de la región del plano limitada por la gráficaRde una función y = f (x) (supongamos
f (x) ≥ 0 y coordenadas cartesianas x, y) , es por definición A dx ∧ dy, donde A es la región del plano
3.3. Longitudes, áreas y volúmenes 69

limitada por la gráfica L1 = {(x, f (x)) | a ≤ x ≤ b}, el eje OY, L2 {y = 0, a ≤ x ≤ b} y las rectas
L3 = {x = a, 0 ≤ y ≤ f (a)}, L4 = {x = b, 0 ≤ y ≤ f (b)} (no me preocupo por las orientaciones, pero
sı́ del resultado final). Por el teorema de Stokes
Z Z Z Z b
dx ∧ dy = y · dx = y · dx = f (x) · dx
A L1 ∪···∪L4 L1 a

2. Calculemos el área del triángulo T limitado por la gráfica de una función (dada en polares)
ρ = ρ(θ) y el origen:

θ1
ρ2 ρ(θ)2
Z p Z Z Z
Área del triángulo T = |T2 | · dρ ∧ dθ = ρ · dρ ∧ dθ = · dθ = · dθ
T T ∂T 2 θ0 2

3. Calculemos el área de la superficie S que se obtiene al girar la gráfica de la función f (x) alrededor
del eje OX.
Consideremos coordenadas cilı́ndricas en R3 , x, ρ, θ, es decir, x = x, y = ρ sen θ, z = ρ cos θ. En
estas coordenadas S = {ρ = f (x), a ≤ x ≤ b, 0 ≤ θ ≤ 2π}, x, θ son un sistema de coordenadas en S y
dρ = df (x) = f 0 dx en S.
2
T2 = dx ⊗ dx + dρ ⊗ dρ + ρ2 dθ ⊗ dθ en coordenadas cilı́ndricas. Por tanto, T2|S = (1 + f 0 ) · dx ⊗
2
dx + f · dθ ⊗ dθ y

Z q Z q Z b p
Área de S = |T2|S | · dx ∧ dθ = 1 + f 0 2 · f · dx ∧ dθ = 2πf (x) 1 + f 0 (x)2 · dx
S S a

Igualmente se tiene que el área de la superficie S que se obtiene al girar la curva plana parametrizada
(x1 (t), x2 (t)) alrededor del eje OX1 es
Z t1 q
2π · x2 (t) · x01 (t)2 + x02 (t)2 · dt (∗)
t0

El área de la superficie de la esfera (que se obtiene al girar la semicircunferencia {(r · cos t, r ·


sen t), 0 ≤ t ≤ π} alrededor del eje OX1 ) es
Z π √
2π · r · sen t · r2 · dt = 4 · π · r2
0

El área de la superficie tórica que se obtiene al girar la circunferencia {(r · cos t, a + r · sen t)}, a ≥ r
alrededor del eje 0X1 es
Z 2π √
2π · (a + r · sen t) · r2 · dt = 4 · π 2 · a · r
0

Veamos que la fórmula (∗) está diciendo que el área de una superficie de revolución es la longitud de
una sección por el perı́metro de la circunferencia que describe el centro de gravedad de una sección: Si
tenemos dos masas m y m0 en los puntos del plano x = (x1 , x2 ) y x0 = (x01 , x02 ) el centro de gravedad
0
·m0
de ambas masas es x·m+x m+m0 . Si tenemos una curva (homogénea) en el plano, que troceamos en
70 Capı́tulo 3. Aplicaciones de la teorı́a

P
xi ·∆i
incrementos ∆i , el centro de gravedad de la curva es P es decir, el centro de gravedad de la
p ∆i
curva C ≡ {(x1 (t), x2 (t)}, de forma de longitud wC = x01 (t)2
+ x02 (t)2 · dt es
R R R
C
x · wC ( C x1 · wC , C x2 · wC )
R =
w
C C
Long. C

El perı́metro de la circunferencia (alrededor del eje OX1 ) que describe el centro de gravedad es
R
x2 wC
2π · C
Long. C

Por tanto, R t1
x2 · w C
Z q
C
2π · · Long. C = 2π · x2 (t) · x01 (t)2 + x02 (t)2 · dt
Long. C t0

Volúmenes
1. Consideremos en el plano una región A y sea V ⊂ R3 el cuerpo de revolución obtenido al
girar la región S alrededor del eje OX1 . Sean x1 , x2 , x3 coordenadas cartesianas y x1 , ρ, θ coordenadas
cilı́ndricas, es decir, x1 = x1 , x2 = ρ · sen θ, x3 = ρ · cos θ. Un punto (x1 , x2 , x3 ) ∈ V ⇐⇒ (x1 , ρ) ∈ A
y θ ∈ [0, 2π]. Por tanto, el volumen del cuerpo revolución es
Z Z Z Z
dx1 ∧ dx2 ∧ dx3 = ρ · dx1 ∧ dρ ∧ dθ = 2πρ · dx1 ∧ dρ = 2πx2 · wA
V A×[0,2π] A A

donde wA es la forma de área de A y la última igualdad es un simple cambio de notación. Argumen-


tando como más arriba el lector puede probar que el volumen de un cuerpo de revolución es el es el
área de una sección por el perı́metro de la circunferencia que describe el centro de gravedad de la
sección.
Calculemos el volumen del toro “macizo”, T oro, que se obtiene al girar el cı́rculo C de radio
r y centrado en (0, a) alrededor del eje OX1 . Consideremos en el plano las coordenadas ρ, θ, con
x1 = ρ sen θ y x2 = a + ρ cos θ, entonces

Z Z Z r
Vol. T oro = 2π · x2 · wC = 2π(a + ρ cos θ) · ρ · dρ ∧ dθ = 4π 2 · a · ρ · dρ = 2 · π 2 · a · r2
C [0,r]×[0,2π] 0

Calculemos el volumen del cuerpo de revolución obtenido al girar alrededor del eje OX el triángulo
T de vértice el origen y lado opuesto un arco de curva ρ = ρ(θ) (en coordenadas polares).

Z Z Z θ1

Vol. T = 2πx2 wT = 2π · ρ · sen θ · ρ · dρ ∧ dθ = · ρ(θ)3 · sen θ · dθ
T 0<ρ≤ρ(θ),θ∈[θ0 ,θ1 ] θ0 3

2. Calculemos el volumen del cuerpo de revolución V obtenido al girar alrededor del origen, pasando
por el eje OZ cada punto del triángulo de vértice el origen y lado opuesto un arco de curva ρ = f (θ)

es 43 α f 3 (θ) dθ. Consideremos coordenadas esféricas ρ, θ, φ, es decir,

x1 = ρ cos θ cos φ, x2 = ρ sen θ cos φ, x3 = ρ sen φ


3.4. Ejemplos en Fı́sica 71

Entonces (x1 , x2 , x3 ) ∈ V ⇐⇒ θ0 ≤ θ ≤ θ1 , 0 ≤ φ ≤ 2π y 0 < ρ ≤ ρ(θ) y


4 θ1
Z Z Z Z
Vol. V = dx1 ∧ dx2 ∧ dx3 = ρ2 | cos φ| · dρ ∧ dθ ∧ dφ = 4ρ2 · dρ ∧ dθ = ρ(θ)3 · dθ
V 3 θ0

La esfera de radio r se obtiene al girar la curva ρ = r (con θ ∈ [0, π]) alrededor del origen, luego su
volumen es 43 πr3 .
Hipervolumen
Calculemos el volumen de la bola de radio r, B = {(x1 , . . . , x4 ) | x21 + . . . + x24 ≤ r2 }, de R4 .
Consideremos coordenadas hiperesféricas ρ, θ, φ, ϕ, es decir,
x1 = ρ cos θ cos φ cos ϕ, x2 = ρ sen θ cos φ cos ϕ, x3 = ρ sen φ cos ϕ, x4 = ρ sen ϕ
B = {0 < ρ ≤ r, 0 ≤ θ < 2π, −π/2 ≤ φ ≤ π/2, −π/2 ≤ ϕ ≤ π/2} y dx1 ∧ · · · ∧ dx4 = ρ3 cos φ cos2 ϕ ·
dρ ∧ dθ ∧ dφ ∧ dϕ y
π2 r4
Z
Vol. B. = ρ3 cos φ cos2 ϕ · dρ ∧ dθ ∧ dφ ∧ dϕ =
[0,r]×[0,2π]×[−π/2,π/2]×[−π/2,π/2] 2

3.4. Ejemplos en Fı́sica


Quiero establecer justificadamente los principios mı́nimos o básicos de la fı́sica Newtoniana y la
Relativista.
“Todo individuo tiene conocimiento sólo de un entorno relativamente pequeño (infinitesimal) suyo.
En cada instante de tiempo y lugar el individuo observará un tiempo y un espacio”. El espacio fı́sico X
en una variedad diferenciable de dimensión cuatro (infinitesimalmente Tx X = R4 ). Dar un individuo-
observador es dar una curva C ,→ X (curva espacio-temporal) y un punto c ∈ C digamos que es el
individuo en un instante y lugar determinados.
“Cada individuo infinitesimalmente tiene una concepción de tiempo y espacio, romperá su realidad
observada en dos bien diferenciadas: tiempo y espacio. Además suponemos que cada individuo le puede
comunicar a uno cercano qué hora tiene y qué lugar ocupa. Infinitesimalmente el individuo rompe su
realidad fı́sica en tiempo y espacio y lo puede comunicar”. Es decir, Tc X = Tc C ⊕ Ec , donde diremos
que Tc C es el tiempo infinitesimal del individuo-observador C en c y Ec es el espacio del observador
C en c. La condición de comunicabilidad (que no hemos expresado o detallado con rigor) se traduce
en que Tc X sucede una de las dos posibilidades siguientes:
1. Existe una métrica simétrica (de Lorentz) que en una base ortogonal es de la forma
 
1 0 0 0
0 −1 0 0
 
0 0 −1 0 
0 0 0 −1
y Ec = Tc C ⊥ .
2. Existe una métrica simétrica que en una base ortogonal es de la forma
 
1 0 0 0
0 0 0 0
T2 ≡ 
0 0 0 0

0 0 0 0
y Ec = rad T2

You might also like