You are on page 1of 338

arXiv:1103.2387v2 [physics.

class-ph] 25 Aug 2013

UNIVERSIDAD AUTONOMA
METROPOLITANA
UNIDAD CUAJIMALPA

DEPARTAMENTO DE MATEMATICAS
APLICADAS Y SISTEMAS

FUNCIONES ESPECIALES Y TRANSFORMADAS


INTEGRALES

CON APLICACIONES A LA MECANICA


CUANTICA
Y

ELECTRODINAMICA

JUAN MANUEL ROMERO SANPEDRO


jromero@correo.cua.uam.mx

Indice general
0.1. Introduccion

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

1. La Convenci
on de Suma de Einstein, el Tensor de Levi-Civita
y las Ecuaciones de Maxwell
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Producto escalar y la delta de Kronecker . . . . . . . . . . . . .
1.3. Producto vectorial y el tensor de Levi-Civita . . . . . . . . . . .
1.4. El tensor de Levi-Civita y las matrices . . . . . . . . . . . . . .
1.4.1. El tensor de Levi-Civita y las matrices antisimetricas . .
1.4.2. El tensor de Levi-Civita y las matrices simetricas . . . .
1.4.3. Conservacion de carga . . . . . . . . . . . . . . . . . . .
1.5. Triple producto escalar . . . . . . . . . . . . . . . . . . . . . . .
1.6. Aplicaciones del triple producto escalar . . . . . . . . . . . . . .
1.6.1. Energa cinetica . . . . . . . . . . . . . . . . . . . . . . .
1.6.2. Conservacion de la energa . . . . . . . . . . . . . . . . .
1.7. Contraccion de dos tensores de Levi-Civita . . . . . . . . . . . .
1.8. Triple producto vectorial I . . . . . . . . . . . . . . . . . . . . .
1.9. Conservacion del momento . . . . . . . . . . . . . . . . . . . . .
1.9.1. Conservacion del momento angular . . . . . . . . . . . .
1.10. Triple producto vectorial II . . . . . . . . . . . . . . . . . . . .
1.10.1. Ecuacion de onda . . . . . . . . . . . . . . . . . . . . . .
1.11. Libertad de norma . . . . . . . . . . . . . . . . . . . . . . . . .
1.12. Representacion compleja de las ecuaciones de Maxwell . . . . .
1.13. Otros resultados de calculo vectorial . . . . . . . . . . . . . . . .

11
11
13
16
19
20
20
22
22
23
24
24
25
27
28
31
32
33
33
36
38

2. Operadores en Coordenadas Curvilneas


2.1. Interpretacion geometrica de operaciones vectoriales
2.2. Operadores en coordenadas cartesianas . . . . . . .
2.2.1. Coordenadas esfericas . . . . . . . . . . . .
2.2.2. Coordenadas cilndricas . . . . . . . . . . .
2.3. Coordenadas curvilneas ortogonales . . . . . . . . .

40
40
41
43
45
46

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

2.3.1. Gradiente en coordenadas curvilneas .


2.3.2. Divergencia en coordenadas curvilneas
2.3.3. Laplaciano en coordenadas curvilneas
2.3.4. Rotacional en coordenadas curvilneas
2.4. Operador momento angular . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

47
48
49
50
52

3. El Factorial y la Funci
on Gamma
56
3.1. Funcion Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4. Repaso de Ecuaciones Diferenciales Ordinarias
4.1. Teorema de existencia y unicidad . . . . . . . .
4.2. El Wronskiano . . . . . . . . . . . . . . . . . . .
4.3. Independencia lineal . . . . . . . . . . . . . . .
4.4. Los ceros de las soluciones . . . . . . . . . . . .
4.4.1. Forma normal . . . . . . . . . . . . . . .
4.5. Teorema de comparacion de Sturm . . . . . . .
4.6. Problema de Sturm-Liuoville . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

61
61
61
62
63
64
67
69

5. Funciones de Bessel
5.1. Ecuacion de Bessel . . . . . . . . . . . . . . . . . .
5.2. Funcion generatriz . . . . . . . . . . . . . . . . . .
5.3. Relaciones de recurrencia . . . . . . . . . . . . . . .
5.4. Funciones de Bessel de orden n + 21 . . . . . . . .
5.5. Ortonormalidad . . . . . . . . . . . . . . . . . . . .
5.6. La ecuacion de Laplace en coordenadas cilndricas
5.6.1. Ejemplo . . . . . . . . . . . . . . . . . . . .
5.7. Ecuaciones tipo Bessel . . . . . . . . . . . . . . . .
5.7.1. Partcula cuantica en una fuerza constante
5.8. Mecanica cuantica conforme . . . . . . . . . . . . .
5.9. Ecuacion de Fick-Jacobs . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

72
72
76
78
80
83
85
88
90
92
93
93

6. Elementos de Algebra
Lineal
6.1. Espacios vectoriales . . . . . .
6.2. Ejemplos . . . . . . . . . . . .
6.2.1. Cn . . . . . . . . . . .
6.2.2. Sucesiones . . . . . . .
6.2.3. Matrices . . . . . . .
6.2.4. Funciones . . . . . . .
6.3. Producto escalar . . . . . . .
6.4. Ejemplos de producto escalar
6.4.1. Producto escalar en Cn

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

96
96
97
97
97
98
98
99
100
100

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

6.4.2. Sucesiones . . . . . . . . . . . . . . . . . . .
6.4.3. Matrices . . . . . . . . . . . . . . . . . . . .
6.4.4. Funciones . . . . . . . . . . . . . . . . . . .
6.5. Ortonormalidad e independencia lineal . . . . . . .
6.6. Teorema de Pitagoras . . . . . . . . . . . . . . . . .
6.6.1. Desigualdad de Bessel . . . . . . . . . . . .
6.6.2. Desigualdad de Schwarz . . . . . . . . . . .
6.6.3. Desigualdad del triangulo . . . . . . . . . .
6.7. Espacios normados . . . . . . . . . . . . . . . . . .
6.7.1. Espacios metricos . . . . . . . . . . . . . . .
6.8. Ejemplos de bases ortonormales . . . . . . . . . . .
6.8.1. Exponencial compleja . . . . . . . . . . . . .
6.8.2. Ecuaciones tipo Sturm-Liouville . . . . . . .
6.8.3. Ecuacion de Schrodinger en una dimension .
6.8.4. Ecuacion de Schrodinger en tres dimensiones
6.8.5. Armonicos esfericos . . . . . . . . . . . . . .
6.9. Polinomios trigonometricos . . . . . . . . . . . . . .
6.10. Espacios completos . . . . . . . . . . . . . . . . . .
6.11. Operadores lineales . . . . . . . . . . . . . . . . . .
6.12. Operador adjunto . . . . . . . . . . . . . . . . . . .
6.12.1. Matrices . . . . . . . . . . . . . . . . . . . .
6.12.2. Derivada . . . . . . . . . . . . . . . . . . . .
6.12.3. Derivada con peso . . . . . . . . . . . . . .
6.12.4. Propiedades del operador adjunto . . . . . .
6.13. Operadores Hermticos . . . . . . . . . . . . . . . .
6.13.1. Ejemplos de matrices Hemticas . . . . . .
6.13.2. Ejemplos de operadores Hermticos . . . . .
6.14. Conmutador . . . . . . . . . . . . . . . . . . . . . .
6.14.1. Propiedades de los conmutadores . . . . . .
6.14.2. Ejercicio . . . . . . . . . . . . . . . . . . . .
6.15. Conmutadores y la derivada . . . . . . . . . . . . .
6.16. Vectores propios . . . . . . . . . . . . . . . . . . . .
6.16.1. Espectro de operadores Hermticos . . . . .
6.16.2. Operadores que conmutan . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

101
101
102
103
104
106
106
106
107
108
109
109
109
111
111
113
115
117
118
120
121
121
122
123
123
124
124
125
127
128
130
132
132
133

7. Prueba de Feynman de las Ecuaciones de Maxwell


134
7.1. Fuerza de Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.2. Inexistencia de monopolos magneticos . . . . . . . . . . . . . . . 136
7.3. Ley de Faraday . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

8. Series de Fourier
8.1. Funciones trigonometricas . . . . . . . . . . . . . . . . . . . .
8.2. Relaciones de ortonormalidad . . . . . . . . . . . . . . . . . .
8.2.1. Series de Fourier . . . . . . . . . . . . . . . . . . . . .
8.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1. Caso f (x) = x . . . . . . . . . . . . . . . . . . . . . . .
8.3.2. Caso f (x) = x2 . . . . . . . . . . . . . . . . . . . . . .
8.3.3. Caso f (x) = cos(x) . . . . . . . . . . . . . . . . . . .
8.3.4. Funcion f (x) = ex . . . . . . . . . . . . . . . . . . . .
8.4. Serie tipo coseno . . . . . . . . . . . . . . . . . . . . . . . . .
8.5. Serie tipo seno . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6. Intervalo arbitrario . . . . . . . . . . . . . . . . . . . . . . . .
8.6.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . .
8.7. Serie coseno en el intervalo [0, L] . . . . . . . . . . . . . . . . .
8.7.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . .
8.8. Serie seno en el intervalo [0, L] . . . . . . . . . . . . . . . . . .
8.8.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . .
8.9. Representacion compleja . . . . . . . . . . . . . . . . . . . . .
8.9.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . .
8.10. Ecuacion de Laplace en dos dimensiones . . . . . . . . . . . .
8.10.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . .
8.11. Ecuacion de Poisson en dos dimensiones con coordenas polares
8.11.1. Formula de Poisson en dos dimensiones . . . . . . . . .
8.11.2. Cilindro infinito . . . . . . . . . . . . . . . . . . . . .
8.12. Ecuacion de Schrodinger en una dimension . . . . . . . . . .
8.12.1. Pozo infinito . . . . . . . . . . . . . . . . . . . . . . . .
8.13. Ecuacion de Onda . . . . . . . . . . . . . . . . . . . . . . . . .
8.13.1. Cuerda con extremos fijos . . . . . . . . . . . . . . . .
8.13.2. Condiciones iniciales . . . . . . . . . . . . . . . . . . .
8.13.3. Energa . . . . . . . . . . . . . . . . . . . . . . . . . .

138
. 138
. 140
. 141
. 142
. 142
. 143
. 144
. 146
. 147
. 149
. 150
. 151
. 152
. 153
. 153
. 154
. 155
. 155
. 156
. 157
. 161
. 163
. 166
. 168
. 169
. 170
. 171
. 171
. 172

9. El Oscilador Arm
onico y los Polinomios de Hermite
9.1. Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . .
9.1.1. Ortonormalidad . . . . . . . . . . . . . . . . . .
9.2. Operadores de acenso y decenso . . . . . . . . . . . . .
9.3. Estado base y ortonormalidad . . . . . . . . . . . . . .
9.4. Polinomios de Hermite . . . . . . . . . . . . . . . . . .
9.5. Funcion generadora . . . . . . . . . . . . . . . . . . . .
9.5.1. Ecuacion de Hermite . . . . . . . . . . . . . . .
9.6. Metodo tradicional . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

174
174
175
176
180
183
186
189
190

9.7. Oscilador en campo electrico constante . . . . . . . . . . . . . .


9.8. Suma de osciladores y el oscilador en D dimensiones . . . . . .
9.8.1. Cadena de osciladores . . . . . . . . . . . . . . . . . . .
9.8.2. Oscilador en D dimensiones . . . . . . . . . . . . . . . .
9.9. Niveles de Landau, partcula en un campo magnetico constante
9.10. Ecuacion de Fokker-Planck, caso libre y homogeneo . . . . . . .
10.El Grupo de Rotaciones y los Arm
onicos Esf
ericos
10.1. Transformaciones de coordenadas lineales . . . . . . . . . . .
10.2. Laplaciano y elemento de lnea . . . . . . . . . . . . . . . .
10.3. Grupo de transformaciones . . . . . . . . . . . . . . . . . . .
10.4. El grupo de rotaciones . . . . . . . . . . . . . . . . . . . . .
10.4.1. Transformaciones infinitesimales . . . . . . . . . . . .
10.5. Armonicos esfericos . . . . . . . . . . . . . . . . . . . . . . .
10.6. Reglas de conmutacion del momento angular . . . . . . . . .
10.7. Ecuacion de valores propios de L2 . . . . . . . . . . . . . . .
10.8. Relaciones de ortonormalidad . . . . . . . . . . . . . . . . .
10.9. Operadores escalera y espectro de L2 . . . . . . . . . . . . .
10.10.Resultados preliminares . . . . . . . . . . . . . . . . . . . .
10.10.1.Constante y reglas de recurrencia . . . . . . . . . .
10.10.2.Relaciones de recurrencia de L . . . . . . . . . . . .
10.11.El armonico esferico Yll (, ) . . . . . . . . . . . . . . . . . .
10.12.Forma explcita de los armonicos esfericos . . . . . . . . . .
10.13.Polinomios de Legendre y polinomios asociados de Legendre
10.14.Propiedades de los polinomios de Legendre . . . . . . . . . .
10.14.1.Funcion generadora . . . . . . . . . . . . . . . . . . .
10.14.2.Relaciones de recurrencia . . . . . . . . . . . . . . . .
10.15.Relacion de completez de los armonicos esfericos . . . . . . .
10.16.Teorema de adicion de los armonicos esfericos . . . . . . . .
10.16.1.Implicaciones del teorema de adicion . . . . . . . . .
10.17.L2 y el Laplaciano . . . . . . . . . . . . . . . . . . . . . . .
10.18.Paridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.Ecuaci
on de Laplace en Coordenadas esf
ericas
11.1. Solucion general . . . . . . . . . . . . . . . . . .
11.1.1. Problema de la esfera . . . . . . . . . . .
11.1.2. Formula de Poisson . . . . . . . . . . . .
11.1.3. Esfera partida . . . . . . . . . . . . . . .
11.2. Esfera a potencial cero . . . . . . . . . . . . . .
11.2.1. Plano con protuberancia esferica . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

193
194
196
198
198
201

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

204
. 204
. 206
. 208
. 209
. 213
. 218
. 220
. 221
. 222
. 224
. 228
. 228
. 229
. 231
. 233
. 234
. 237
. 239
. 241
. 244
. 245
. 250
. 251
. 252

.
.
.
.
.
.

254
. 254
. 256
. 257
. 259
. 261
. 262

11.3. Problemas con simetra azimutal . . . . .


11.3.1. Esfera con condiciones especiales
11.3.2. Potencial de un anillo circular . .
11.3.3. Esfera con hueco . . . . . . . . .
11.4. Disco a potencial constante . . . . . . .
11.5. Distribucion de carga continua . . . . . .
11.5.1. Esfera cargada . . . . . . . . . .
11.6. Problemas en magnetismo . . . . . . . .
11.6.1. Esfera rotante . . . . . . . . . . .
11.6.2. Anillo de corriente I . . . . . . .
11.6.3. Anillo de corriente II . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

263
263
264
266
268
270
272
273
274
276
278

12.Los Polinomio de Laguerre y el


atomo de hidr
ogeno
284

12.1. Atomo de hidrogeno . . . . . . . . . . . . . . . . . . . . . . . . 284


12.2. Funcion de onda . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
13. Ecuaci
on de Helmholtz
13.1. El origen de la ecuacion Helmholtz . . . .
13.2. Ecuacion de Helmholtz en dos dimensiones
13.3. Ecuacion de Helmholtz en tres dimensiones
13.4. Aplicaciones . . . . . . . . . . . . . . . . .
13.5. Desarrollo en ondas parciales . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

14. Transformada de Fourier


14.1. Definicion de transforma de Fourier . . . . . . . .
14.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . .
14.2.1. Funcion Gaussiana . . . . . . . . . . . . .
14.2.2. Funcion e|x| . . . . . . . . . . . . . . . .
14.3. Teorema de la convolucion . . . . . . . . . . . . .
14.4. Transformada inversa de Fourier . . . . . . . . . .
14.5. Ejemplos de la transformada inversa de Fourier .
14.6. Transfomada de Fourier de la derivada . . . . . .
14.7. Ecuacion de calor y ecuacion de Schrodinger libre
14.7.1. Ecuacion de Schrodinger libre . . . . . . .
14.8. Ecuacion ordinaria de segundo orden . . . . . . .
14.8.1. Ecuacion de Laplace en dos dimensiones .
14.9. Ecuacion de Black-Scholes . . . . . . . . . . . . .
14.10.Delta de Dirac . . . . . . . . . . . . . . . . . . . .
14.10.1. La funcion de Heaviside . . . . . . . . . .
14.11.Norma de una funcion . . . . . . . . . . . . . . .
14.12.Transformada de Fourier en d dimensiones . . . .
7

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

295
295
296
298
300
301

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

305
. 305
. 305
. 306
. 306
. 307
. 307
. 310
. 311
. 311
. 312
. 313
. 314
. 315
. 318
. 321
. 321
. 322

14.13.Funcion de Green . . . . . . . . . . . . . . . .
14.13.1. Funcion de Green y funciones propias
14.14.Ecuacion de Laplace en dos dimensiones . . .
14.15.Resultados de variable compleja . . . . . . . .
14.16.Ecuacion de Poisson . . . . . . . . . . . . . .
14.17.Funcion de Green de la ecuacion Helmholtz . .
14.17.1.Ecuacion de Lippman-Schwinger . . . .
14.18.Funcion de Green de la ecuacion de onda . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

322
323
324
326
326
330
331
332

0.1.

Introducci
on

Deca Galileo que los secretos de la naturaleza estan escritos en el lenguaje


de las matematicas. I. Newton tambien se dio cuenta de este hecho e invento el
calculo infinitesimal para entender el movimiento de los planetas. Al ser estudiados los fenomenos electricos y magneticos surgieron nuevas matematicas.
Ahora esta parte de la naturaleza se expreso en terminos de campos vectoriales y ecuaciones diferenciales parciales, las cuales se resumen en las ecuaciones
de Maxwell. Al resolver las ecuaciones de Maxwell surgieron funciones con
caractersticas especiales, por ello se les llama funciones especiales. Para la
electrodinamia, dentro de esas funciones especiales, de notable importancia
son las funciones de Bessel, los polinomios de Legendre, as como las llamadas
series de Fourier. Las cantidades importantes de la electrodinamica se expresan
en terminos de estas funciones. Despues de mucho esfuerzo los matematicos se
dieron cuentas que estas funciones forman espacios vectoriales con dimension
infinita, lo que hoy se conoce como espacios de Hilbert. Textos clasicos sobre
electrodinanica se pueden ver en [1, 2] y referencias sobre espacios de Hilbert
se pueden ver en [3, 4].
Por otra parte, en un inicio nadie entenda los fenomenos cuanticos y como expresarlos matematicamente. Sin embargo, al proponer Schrodinger su
ecuacion de onda las cosas se entendieron un poco mas. Sorprendentemente al resolver la ecuacion de Schrodinger surgieron funciones especiales, como
los polinomios de Hermite y los polinomios de Laguerre. As, los matematicos de la epoca se dieron cuenta que estaban frente a una nueva aplicacion
de los espacios de Hilbert. Dos excelentes referencias sobre mecanica cuantica
se pueden ver [5, 6]. Ademas, se encontro que una generalizacion de las series Fourier, la transformada de Fourier, es de vital importancia para entender
diversos fenomenos cuanticos. La transformada de Fourier es un caso particular de las transformadas integrales, un texto sobre este tema se puede ver en [7].
Cabe se
nalar que en un inicio las ecuaciones diferenciales que surgan en
la electrodinamica y en la mecanica cuantica se resolvan mediante series de
potencial, ese es el metodo tradicional [8, 9, 10]. Sin embargo, el matematicos
frances Jean Gaston Darboux se dio cuenta que muchas de esas ecuaciones se
pueden resolver con lo que hoy se llama el metodo de Factorizacion. Al ser
aplicado este metodo en mecanica cuantica mostro su gran potencia. Referencias sobre este u
ltimo metodo se pueden ver en [11, 12]. Otra aportacion
importante fue dada por el matematico frances Sophus Lie, quien mostro que
la teora de grupos es de gran ayuda para encontrar soluciones de las ecuacio9

nes diferenciales. Posteriormente, Pauli mostro que usando teora de grupos


poda obtener los estados cuanticos de varios sistemas fsicos. As, pocos se
sorprendieron cuando se encontro una relacion entre algunos grupos, como el
grupo de rotaciones, y algunas funciones especiales, como los polinomios de
Legendre. Con el tiempo la teora de grupos se convirto en una herramienta
fundamental en varias areas de la fsica teorica. Textos sobre aplicaciones de
la teora de grupos a las ecuaciones diferenciales se pueden ver [13, 14].
Notablemente, recientemente se ha encontrado que herramientas de la mecanica cuantica se pueden aplicar para abordar problemas de otras disciplinas. Por
ejemplo, en estudios de las Finanzas [15] .
En este libro, se busca introducir al estudiante en las funciones especiales y
las transformadas integrales junto con sus aplicaciones en la electrodinamica y
en la mecanica cuantica. El objetivo principal de este texto es dar al estudiante
las herramientas basicas para que aborde sin dificultad problemas avanzados
a nivel licenciatura. Para que el lector tenga una vision de los objetos matematicos que se estudian, se da una introduccion a los espacios de Hilbert. En
el libro se usan tres diferentes metodos para obtener las funciones especiales.
Se usan la series de potencia para obtener las funciones de Bessel. Se usa el
metodo de factorizacion para obtener los polinomios de Hermite y se usa el
grupo de rotaciones para obtener los polinomios de Legendre y los armonicos
esfericos.
A lo largo del texto, se realizan varios ejercicios para mostrar como se
usan las funciones especiales. As, se encuentran soluciones a ecuaciones como
la ecuacion de Laplace, de onda, de Helmholtz, de calor, de Schrodinger. En
particular se obtienen los estados para el oscilador armonico y del atomo de
Hidrogeno. Tambien se obtienen las funciones de Green de la ecuacion de Laplace, de la ecuacion de Helmholtz y la ecuacion de onda.
El material de este texto ha sido utilizado en cursos para estudiantes de las
carreras de Fsica y Matematicas de la UNAM y de Matematicas Aplicadas
de la UAM-Cuajimalpa. Normalmente los fsicos se muestran mas interesados
en los aspectos formales, mientras que los matematicos se interesan mas en las
aplicaciones. Se trato de tener un punto de equilibrio para que las dos clases
de estudiantes logren obtener fundamentos solidos y al mismo tiempo sean
capaces de abordar problemas sofisticados.

10

Captulo 1
La Convenci
on de Suma de
Einstein, el Tensor de
Levi-Civita y las Ecuaciones de
Maxwell
Le calcul tensoriel sait mieux la physique que le physicien lui-meme
( El calculo tensorial sabe mas fsica que los mismos fsicos)
Paul Langevin 1964.

1.1.

Introducci
on

En este captulo veremos algunas herramientas matematicas que facilitan


la manipulacion de operaciones vectoriales. Para ver la eficacia de estas herramientas las aplicaremos a las ecuaciones de Maxwell y a la fuerza de Lorentz.
En particular, ocupando estas herramientas, obtendremos las cantidades conservadas que implican las ecuaciones de Maxwell.
Las ecuaciones de Maxwell son
~ E
~ = 4,

~
~ E
~ = 1 B ,

c t
~
~
B = 0,

~
~ B
~ = 4 J~ + 1 E .

c
c t
11

(1.1)
(1.2)
(1.3)
(1.4)

Donde es la densidad volumetrica de carga y J~ es la densidad de corriente


electrica. De forma generica J~ se puede escribir como J~ = (~x, t)~v (~x, t), con
~v(~x, t) la velocidad de las partculas cargadas en el punto ~x al tiempo t.
La ley de Gauss Eq. (1.1) relaciona la densidad de carga electrica con el
campo electrico. La ley de Faraday Eq. (1.2) nos dice que un campo magnetico
que varia en el tiempo produce un campo electrico. La ecuacion Eq. (1.3) nos
dice que no existen cargas magneticas. La ley de Amp`ere Eq. (1.4) nos dice
dos cosas, la primera es que la corriente electrica produce campo magnetico
y la segunda es que la variacion temporal del campo electrico produce campo
magnetico. Como se puede ver todas estas ecuaciones son lineales.
Ademas, la fuerza de Lorentz nos dice que una partcula de masa m y carga
~ y magnetico B
~ siente la fuerza
q en un campo electrico E
~ + q ~v B.
~
m~a = F~ = q E
c

(1.5)

Esta fuerza se puede obtener de las ecuaciones de Maxwell, sin embargo para
interpretar los resultados que obtendremos la supondremos independiente.
Las ecuaciones de Maxwell Eqs. (1.1)-(1.4) tambien se pueden escribir de
forma integral. Para ver esto, recordemos el teorema de Gauss y el teorema de
Stokes. Supongamos que tenemos una region de volumen V cuya frontera es la
superficie S. Entonces, el Teorema de Gauss nos dice que, si F~ es un campo
vectorial suave definido en V, se cumple
Z
I
Z
~ F~ dV =

F~ d~a =
F~ n
da,
(1.6)
V

aqu d~a es el elemento de area de S y n


representa la normal exterior a esta
superficie.
Ahora, supongamos que tenemos una superficie S cuya frontera esta dada
por la curva . Entonces, el Teorema de Stokes nos dice que si F~ es un
campo regular sobre S, se cumple
Z
Z
~
~
( F ) n
da = F~ d~l.
(1.7)
S

donde ~l es el vector tangente a y gira en el sentido opuesto a las manecillas


del reloj.

12

As, ocupando el teorema de Gauss


ecuaciones de Maxwell toman la forma
Z
~ n
E
da =
V
Z
~ d~l =
E
S
Z
~ n
B
da =
V
Z
~ d~l =
B
S

Eq. (1.6) y de Stokes Eq. (1.7), las


4QT ,

(1.8)

1 dm
,
c dt

(1.9)

0,

(1.10)

1 de
4
I+
.
c
c dt

(1.11)

Donde
QT =

dv

(1.12)

es la carga total contenida en el volumen V. Mientras que


Z
Z
~
~ n
m =
Bn
da,
e =
E
da
S

(1.13)

son, respectivamente, el flujo magnetico y electrico que pasa por la superficie


S. Adicionalmente
Z
I=
J~ n
da
(1.14)
S

representa la corriente total que pasa por la superficie S.

1.2.

Producto escalar y la delta de Kronecker

Recordemos que un vector tridimensional se define como


~ = (Ax , Ay , Az ) = (A1 , A2 , A3 ),
A

(1.15)

tambien lo podemos representar como Ai con i = 1, 2, 3, es decir, Ai es la


componente i-esima.
Una operacion importante entre vectores es el producto escalar. Si tenemos
~yB
~ = (B 1 , B 2 , B 3 ), el producto escalar se define como
los vectores A
~B
~ = A1 B 1 + A2 B 2 + A3 B 3 =
A
13

3
X
i=1

Ai B i .

(1.16)

Por simplicidad es com


un escribir
~B
~ = Ai B i ,
A

(1.17)

donde se entiende que los ndices repetidos se suman, a esta regla se le llama
convencion de Einstein. Cuando dos ndices estan repetidos se dice que estan
contraidos. Por ejemplo, si
~r = (x, y, z) = (x1 , x2 , x3 )

(1.18)

es el vector posicion, entonces el cuadrado de la distancia es


r 2 = ~r ~r = xi xi = x1 x1 + x2 x2 + x3 x3 = x2 + y 2 + z 2 .
Ahora, definamos la delta de Kronecker como el smbolo tal que

1 si i = j,
ij =
0 si i 6= j.

(1.19)

(1.20)

En realidad se esta definiendo una matriz, la matriz identidad I, pues,

11 12 13
1 0 0
ij = 21 22 23 = 0 1 0 = I.
(1.21)
31 32 33
0 0 1
Con la delta de Kronecker y la convencion de Einstein se tiene
1j Aj =

3
X

1j Aj = A1 ,

2j Aj = A2

3j Aj = A3 ,

(1.22)

j=1

es decir
ij Aj = Ai .

(1.23)

Por lo que, el producto escalar se puede escribir como


~ B.
~
Ai ij B j = Ai B i = A

(1.24)

Ademas, con la convencion de Einstein el smbolo ii significa


ii =

3
X

ii = 11 + 22 + 33 = 3.

i=1

14

(1.25)

Un vector importante es el gradiente, el cual se define como



 


~ =
=

, ,
,
,
.
x y z
x1 x2 x3

(1.26)

Por simplicidad, en algunos casos solo escribiremos

Veamos que significa

 
~ = = i ,

xi
i

i = 1, 2, 3.

xj
= i xj ,
xi

(1.27)

(1.28)

para cada valor de i y j se tiene un valor de i xj por lo que se tiene la matriz

x1 x2 x3
1
0
0
1
1
1
j
x
x
x
x
x21 x22 x23 = 0 1 0 = ij .
(1.29)
=
x
x
x
xi
x2
x3
x1
0 0 1
3
3
3
x

Ahora, considerando que r = xi xi , se tiene



i
xi xi
1 (xi xi )
1 xi i
r
i x
=
=
=
x +x j
xj
xj
2r xj
x
2 xi xi xj
 xj
1
ij xi + xi ij = .
=
2r
r

(1.30)

De donde

r
xj
= ,
j
x
r

~ = ~r = r.
r
r

(1.31)

Si f (r) es una funcion que solo depende de r se tiene


f (r)
f (r) r
f (r) xi
=
=
,
i
i
x
r x
r r

~ (r) = f (r) ~r = f (r) r.


f
r r
r

(1.32)

Veamos otro ejemplo, consideremos la funcion


(~r) =

P~ ~r
,
r3

15

(1.33)

con P~ un vector constante, entonces


!
!
 
(~r)
P~ ~r

1
P~ ~r 1
~
=
=
+ P ~r i
i
i
3
i
3
x
x
r
x
r
x r 3


1 r
Pj xj 1
3P~ ~r 4 i
=
i
3
x
r
r x
1 xi
Pj xj
= 3 i 3P~ ~r 4
r x
r r
Pj ij
x
Pi
xi
i
=
3P~ ~r 5 = 3 3P~ ~r 5
3
r
r
r
r
2
~
Pi r 3P ~rxi
=
,
r5
de donde


!
~ r 2 3 P~ ~r ~r
P
~
~ P ~r =

.
r3
r5

(1.34)

~ se puede escribir
Note que con esta notacion la divergencia de un vector E
como
~ E
~ = Ex + Ey + Ez = E1 + E2 + E3

x
y
z
x1
x2
x3
3
X
Ei
Ei
=
= i Ei .
(1.35)
=
xi
xi
i=1

Tambien se puede probar la identidad




 
 


~
~
~
~
~
~
~
~
f g A = g f A + f g A + f g A .

En efecto
~ (f g A)
~ = i (f gAi ) = (i f ) gAi + f (i g) Ai + f g (i Ai )

 
 


~
~
~
~
~
~
= g f A + f g A + f g A .

1.3.

(1.36)

(1.37)

Producto vectorial y el tensor de LeviCivita

Otra operacion importante



i
j k


~
~
A B = A1 A2 A3
B1 B2 B3

entre vectores es el producto vectorial:






(1.38)


16


= (A2 B3 A3 B2 ) i + (A3 B1 A1 B3 ) j + (A1 B2 A2 B1 ) k,
es decir


~
~
AB
= (A2 B3 A3 B2 ),

1
~B
~
A
= (A3 B1 A1 B3 ),

2
~B
~
A
= (A1 B2 A2 B1 ).

(1.39)
(1.40)
(1.41)



~B
~ no esta A1 ni B1 . De hecho, esto tamNote que en la componente A
1


~B
~
bien ocurre para las demas componentes, es decir, en la componente A
i
no esta la componente Ai ni la componente Bi .
Anteriormente vimos que el producto escalar se puede escribir en terminos
de una matriz, veamos si con el producto vectorial ocurre lo mismo. Consideremos la matriz antisimetrica


0 1
.
(1.42)
ij =
1 0
Con esta matriz, las igualdades Eqs. (1.39)-(1.41) se pueden





B2
0 1
~
~
A2 A3
AB
=
B3
1 0
1
= ab Aa Bb , a, b = 2, 3,





0 1
B3
~
~
A3 A1
AB
=
1 0
B1
2
= cd Ac Bd , c, d = 3, 1,





0 1
B1
~
~
A1 A2
AB
=
1 0
B2
3
= ef Ae Bf , e, f = 1, 2.

escribir como


(1.43)




(1.44)

(1.45)

Note que la matriz Eq. (1.42) esta en dos dimensiones, mientras que el espacio
es tridimensional. As es mas conveniente ocupar una generalizacion de Eq.
(1.42) en tres dimensiones, la cual denotaremos con
ijk ,

i, j, k = 1, 2, 3.

(1.46)

En principio, para reproducir el productor vectorial basta que ijk sea anti~B
~ no
simetrico en las dos u
ltimas entradas. Sin embargo, como en A
i

17

esta Ai ni Bi , pediremos que ijk sea antisimetrico tambien en las dos primeras
entradas. Es decir, pediremos las propiedades
ijk = ikj ,

ijk = jik ,

123 = 1.

(1.47)

Note que esto implica que, para cualquier i y k, se cumpla


iik = iik = 0,

(1.48)

iki = kii = 0.

(1.49)

de donde

Es decir, las componentes de ijk con dos ndices repetidos tienen valor cero. Por
lo tanto, las componentes de ijk no nulas tienen todos los ndices diferentes.
Ocupando las propiedades de ijk Eq. (1.47) se puede ver que
123
132
213
231
312
321

=
=
=
=
=
=

1,
123
123
213
132
312

= 1,
= 1,
= 1,
= 1,
= 1.

(1.50)
(1.51)
(1.52)
(1.53)
(1.54)
(1.55)

Claramente, todos estos valores se obtienen de permutar los ndices de 123 .


Al smbolo Eq. (1.46) se le llama tensor de Levi-Civita. Ahora veremos que
este tensor es u
til para expresar el producto vectorial. Definamos
3
3 X


X
~
~
ijk Aj Bk = ijk Aj Bk .
AB =
i

(1.56)

j=1 k=1

Veamos que esta igualdad es correcta, para la primera componente tenemos




~
~
AB

3 X
3
X
j=1 k=1

3
X

1jk Aj Bk =

3
X

(11k A1 Bk + 12k A2 Bk + 13k A3 Bk )

k=1

(12k A2 Bk + 13k A3 Bk )

(1.57)

= 121 A2 B1 + 122 A2 B2 + 123 A2 B3


+131 A3 B1 + 132 A3 B2 + 133 A3 B3
= 123 A2 B3 + 132 A3 B2
= A2 B3 A3 B2 .

(1.58)
(1.59)
(1.60)
(1.61)

k=1

18

Este calculo es mas facil si se ocupan las propiedades de ijk . En efecto, si se


tiene 1jk , los u
nicos valores que puede tomar j son 2 o 3 y k solo puede tomar
los valores 3 o 2. Por lo que,
3 X
3


X
~B
~
A
=
1jk Aj Bk = 123 A2 B3 + 132 A3 B2
1

j=1 k=1

= A2 B3 A3 B2 .

Para las demas componentes tenemos


3 X
3


X
~
~
AB
=
2jk Aj Bk = 213 A1 B3 + 231 A3 B1
2



~B
~
A

(1.62)

j=1 k=1

= A3 B1 A1 B3 ,
3
3 X
X
3jk Aj Bk = 312 A1 B2 + 321 A2 B1
=

(1.63)

j=1 k=1

= A1 B2 A2 B1 .

(1.64)

Como podemos ver, la definicion de producto vectorial Eq. (1.56) coincide con
Eq. (1.38).
Con el smbolo ijk es mas economico escribir un producto vectorial. Por
ejemplo el momento angular se puede escribir como
Li = (~r p~)i = ijk rj pk .
Mientras que el rotacional se puede escribir como


~
~
A = ijk j Ak .
i


~ = i~ ~r
~ , se escribe
Ademas el momento angular cuantico, L
Li = i~ijk rj k .

(1.65)

(1.66)

(1.67)

El tensor de Levi-Civita no es solo otra forma de expresar el producto vectorial,


tambien es u
til para simplificar los calculos.

1.4.

El tensor de Levi-Civita y las matrices

Vimos que con el tensor de Levi-Civita se puede expresar el producto vectorial de forma sencilla. Este tensor tambien se puede relacionar con las matrices.
Se tienen resultados particularmente interesantes con matrices antisimetricas
y simetricas.
19

1.4.1.

El tensor de Levi-Civita y las matrices antisim


etricas

Cualquier matriz antimetrica de 3 3 se puede escribir como

0
B3 B2
0
B1 .
Mij = B3
B2 B1
0

(1.68)

~ =
Con las componentes no nulas de esta matriz se puede formar el vector B
(B1 , B2 , B3 ). Note que si hacemos la contraccion de ijk con Bi se tiene ijk Bk
que es un objeto con dos ndices libres, es decir es una matriz. Considerando
las propiedades Eq. (1.47) se tiene

0 123 B3 132 B2
0
B3 B2
0 231 B1 = B3
0
B1 = Mij .
ijk Bk = 213 B3
312 B2 321 B1
0
B2 B1
0
Por lo tanto, cualquier matriz antisimetrica M de 3 3 se puede poner en
termino del tensor de Levi-Civita y un vector B:
Mij = ijk Bk .

1.4.2.

(1.69)

El tensor de Levi-Civita y las matrices sim


etricas

Hasta aqu hemos ocupado ijk con vectores. Pero tambien lo podemos
emplear con matrices de 3 3. En efecto, dada la matriz Mij podemos definir
Vi =

3 X
3
X

ijk Mjk = ijk Mjk .

(1.70)

j=1 k=1

Para evitar confusiones notemos que la contraccion de los ndices de ijk se


puede escribir de diferentes forma. Por ejemplo,
Vi =

3 X
3
X

ijk Mjk =

j=1 k=1

3 X
3
X

ikj Mkj .

(1.71)

k=1 j=1

Esta igualdad no se obtiene por un intercambio de ndices en ijk . Se obtiene


por renombrar al mismo tiempo los dos u
ltimos ndices de rst y los dos ndices
de Mab . Con la convecion de Einstein esta igualdad se escribe como
Vi = ijk Mjk = ikj Mkj .
20

(1.72)

Un resultado de este hecho trivial es que si Mij es una matriz simetrica entonces
la contraccion con ijk es cero, es decir,
Mij = Mji

ijk Mjk = 0.

(1.73)

Esto se debe a que


ijk Mjk = ikj Mjk = ikj Mkj = ijk Mjk .

(1.74)

En la primera igualdad, se empleo que ijk es antisimetrico, en la segunda que Mjk es simetrica, en la tercera la igualdad Eq. (1.72). Por lo tanto,
ijk Mjk = ijk Mjk y se cumple Eq. (1.73).
Por ejemplo, con cualquier vector Ai se puede forma la matriz Mij = Ai Aj .
Esta matriz es simetrica, pues

A1 A1 A1 A2 A1 A3
A1 A1 A2 A1 A3 A1
Mij = A2 A1 A2 A2 A2 A3 = A1 A2 A2 A2 A3 A2 .
(1.75)
A3 A1 A3 A2 A3 A3
A1 A3 A2 A3 A3 A3
Esto implica que

~A
~ = 0.
A

(1.76)

En efecto, ocupando la definicion de producto vectorial y que la matriz


Mij = Ai Aj
es simetrica se cumple
~ A)
~ i.
0 = ijk Aj Ak = (A
Otra matriz simetrica esta dada por Mij = i j . Esto implica que


~
~

= 0.

(1.77)

(1.78)

Pues,

 
~ )
~ i = ijk j
~
(
= ijk j k = 0.

(1.79)

~ (
~ A)
~ = 0.

(1.80)

Tambien se puede mostrar la identidad

En efecto, como Mij = i j es simetrica se llega a




~
~
~
~
~
( A) = i A = i (ijk j Ak ) = ijk i j Ak
i

= kij i j Ak = 0.

Esta identidad tiene implicaciones en las ecuaciones de Maxwell.


21

(1.81)

1.4.3.

Conservaci
on de carga

Un hecho experimental bien conocido es que la carga electrica se conserva.


Veamos si las ecuaciones de Maxwell son compatibles con este resultado. Para
esto ocuparemos la ley de Gauss Eq. (1.1) y la ley de Ampere Eq. (1.4). De la
ley de Gauss obtenemos
~

1 ~ E

=
t
4
t

(1.82)

y ocupando la ley de Amp`ere se tiene





~
~
~
~
= BJ .
t

(1.83)

~ ~
+ J = 0,
t

(1.84)

~ (
~ B)
~ = 0, de donde
Ahora, considerando Eq. (1.80) tenemos que

que es la llamada ecuacion de continuidad. Integrando sobre un volumen V la


expresion Eq. (1.84) y ocupando el teorema de Gauss Eq. (1.6) se encuentra
Z
 Z
Z
Z

d
dQT
~ J~ =
dV = dV
=
= dV
daJ~ n
. (1.85)
dt
dt
t
V
Si el volumen de integracion es suficientemente grande, de tal forma que en su
frontera no haya corriente, el u
ltimo termino de Eq. (1.85) es cero y se obtiene
dQT
= 0,
dt

(1.86)

es decir, la carga total se conserva en el tiempo.

1.5.

Triple producto escalar

Algunas identidades vectoriales son faciles de demostrar con la convencion


de Einstein y el smbolo de Levi-Civita. Por ejemplo el triple producto escalar






~
~
~
~
~
~
~
~
~
A BC =C AB =B C A ,
(1.87)

22

que se demuestra simplemente de la forma






~
~
~
~
~
A BC
= Ai B C = Ai ijk Bj Ck = Ck (kij Ai Bj )

i


~
~
~ A
~B
~ ,
= Ck A B = C



k
~ B
~ C
~
~ C
~ = Ai ijk Bj Ck = Bj jik Ai Ck
A
= Ai B
i




~ A
~ =B
~ C
~ A
~ . (1.88)
= Bj jki Ck Ai = Bj C
j

Por lo tanto, se cumple Eq. (1.87). Note que ocupando la regla del triple
~ A
~ = 0, se encuentra
producto escalar y la igualdad A




~ A
~C
~ =C
~ A
~A
~ = 0.
A
(1.89)
~ se tiene el operador ,
~ la identidad del
Si en lugar del vector constante C
triple producto escalar ya no es valido. En este caso se cumple la identidad



 

~ A
~ B
~ =
~ A
~B
~ +
~ B
~ A.
~

(1.90)

En efecto,




~
~
~
~
~
A B = A Bi = (ijk j Ak ) Bi = ijk (j Ak ) Bi
i

= ijk [j (Ak Bi ) Ak j Bi ] = j (jki Ak Bi ) + (kji j Bi ) Ak



 

~ A
~B
~ +
~ B
~ A.
~
=
(1.91)

Otra identidad que se puede mostrar ocupando solo las propiedades del tensor
de Levi-Civita es
 
~
~ =
~ A
~ +
~ A.
~
A
(1.92)

Pues

 
~ A
~

 
~ = ijk j (Ak ) = ijk (j ) Ak + ijk j Ak
= ijk j A

k 

~ A
~ +
~ A
~ .
=
(1.93)
i

En la proxima seccion veremos implicaciones de estas propiedades vectoriales.

1.6.

Aplicaciones del triple producto escalar

Las identidades de la seccion anterior tienen consecuencias importantes


para las ecuaciones de Maxwell, veamos cuales son.
23

1.6.1.

Energa cin
etica

Ocupando Eq. (1.89) en la fuerza de Lorentz se encuentra




~ + q ~v B
~ ~v = q E
~ ~v ,
F~ ~v = q E
c

(1.94)

este resultado nos indica que el campo magnetico no hace trabajo.


Ahora, recordemos que la derivada temporal de la energa cinetica es
d~v
d  m 2
~v = m ~v = m~a ~v = F~ ~v .
(1.95)
Ecin =
dt 2
dt

Para el caso particular de la fuerza de Lorentz se tiene




~v
~
~ ~v.

~
~
Ecin = F ~v = q E + B ~v = q E
c

(1.96)

Ademas, suponiendo que no tenemos una carga si no una distribucion de cargas


en un volumen V , como dq = d3 x,
~ ~v = E
~ (~v )dx3 = E
~ Jdx
~ 3.
dq E

(1.97)

Por lo tanto
Ecin =

~ J~dx3 .
E

(1.98)

Para este razonamiento solo hemos ocupado la fuerza de Lorentz. Posteriormente veremos lo que dicen las ecuaciones de Maxwell respecto a la energa.

1.6.2.

Conservaci
on de la energa

Veamos que implicaciones tiene Eq. (1.91) en las ecuaciones de Maxwell.


Para esto consideremos la ley de Faraday Eq. (1.2) y de Amp`ere Eq. (1.4).
~ con la ley de Faraday encontramos que
Haciendo el producto escalar de B


~
~2
~ E
~ B
~ = 1 B B
~ = 1 B .

c t
2c t

(1.99)

~ con la ley de Amp`ere se llega a


Si hacemos el producto escalar de E



~
~2
~ + 1 E E
~ + 1 E .
~ = 4 J~ E
~
~
~ = 4 J~ E
B E
c
c t
c
2c t
24

(1.100)

Restando estas dos ecuaciones y ocupando la identidad Eq. (1.91) se obtiene


1  ~ 2 ~ 2
~ + c (
~ B)
~ E
~ c (
~ E)
~ B
~
= J~ E
E +B
8 t
4
4


~ c
~ E
~ B
~ .
= J~ E
(1.101)
4

Al vector


c ~
~
~
E B
S=
4

(1.102)

se le llama vector de Poynting. Ahora, integrando Eq. (1.101) sobre un volumen


V y ocupando la teorema de Gauss Eq. (1.6) se encuentra
Z
I
d
3 ~
~
~ n
(Eem + Ecin ) =
d x S =
S
da,
(1.103)
dt
V
V
donde
Eem

1
=
8



~2 + B
~2 .
d3 x E

(1.104)

Como podemos ver, ademas de la energa cinetica, las ecuaciones de Maxwell nos dicen que hay otra energa. Esta nueva energa se debe a los campos
electricos y magneticos dada por Eem , a esta energa se le llama energa electromagnetica. El termino
I
~ n
S
da
V

se interpreta como flujo de energa. Si el volumen es suficientemente grande de


tal forma que no haya flujo de energa en su frontera, Eq. (1.103) implica
ET = Eem + Ecin = constante,

(1.105)

es decir, la energa total se conserva.

1.7.

Contracci
on de dos tensores de Levi-Civita

El tensor ij es simetrico mientras que ijk es totalmente antisimetrico. Sin


embargo estos dos tensores estan relacionados. Primero notemos que en dos
dimensiones se cumple





0 1
0 1
1 0
ik kj =
=
= ij .
(1.106)
1 0
1 0
0 1
25

En tres dimensiones se cumple la identidad


3
X
k=1

ijk klm = ijk klm = il jm im jl .

(1.107)

Para mostrar esto definamos el smbolo


Mijlm = il jm im jl .

(1.108)

Debido a que ab es un tensor simetrico, se cumple


Mijlm = Mjilm = Mijml ,

(1.109)

en efecto
Mjilm = jl im jm il = (il jm im jl ) = Mijlm ,
Mijml = im jl il jm = (il jm im jl ) = Mijlm .

(1.110)
(1.111)

En particular se tiene Miilm = Mijmm = 0. Tambien se puede observar que


ijk klm es antisimetrico si hacemos una permutacion en (ij) o (lm), es decir
ijk klm = jik klm = ijk kml .

(1.112)

Las igualdades Eqs. (1.109)-(1.112) nos indican que si Eq. (1.107) se cumple
para una cuarteta ordenada (ijml), tambien se cumple para las cuartetas ordenadas (jilm), (ijml).
Note si i = j, Eq. (1.107) toma la forma 0 = 0. As, los valores que falta por
probar son i 6= j. De la definicion Eq. (1.108) es claro que Mijlm es diferente
de cero solo si i = l, j = m o i = m, j = l, que son las cuartetas ordenadas
(ijij) y (ijji). Esta propiedad tambien la tiene la cantidad ijk klm . En efecto,
recordemos que los ndices i, j, k, l, m solo pueden tomar los valores (1, 2, 3),
ademas en la suma ijk klm los u
nicos terminos que contribuyen son tales que
i 6= j, i 6= k, j 6= k y k 6= l, k 6= m, l 6= m. Estas condiciones implican que
i = m, l = j o i = l, j = m. Es decir las u
nica cuartetas ordenadas que dan
resultados no nulos en ijk klm son (ijij) y (ijji).
Como probar Eq. (1.107) para el caso (ijij) es equivalente a probarla para
el caso (ijji), solo probaremos los caso (ijij) = (1212), (1313), (2323).
Si (ijij) = (1212), se tiene
12k k12 = 123 312 = 1,

M1212 = 11 22 12 21 = 1.
26

(1.113)

Por lo tanto, Eq. (1.107) se cumple.


Si (ijij) = (1313), se encuentra
13k k13 = 132 213 = 1,

M1313 = 11 33 13 23 = 1.

(1.114)

Por lo tanto, Eq. (1.107) se cumple.


Si (ijij) = (2323), se llega a
23k k23 = 231 123 = 1,

M2323 = 22 33 23 32 = 1.

(1.115)

Por lo tanto, Eq. (1.107) se cumple.


En conclusion la igualdad Eq. (1.107) es valida para cualquier ijlm. Una
implicacion de Eq. (1.107) es
ilm mjs + sim mjl = ijm mls .

(1.116)

En efecto ocupando Eq. (1.107) se tiene


ilm mjs + sim mjl = (ij ls is lj ) + (sj il sl ij )
= il sj is lj = ijm mls .

(1.117)

En la proxima seccion veremos la importancia de la igualdad Eq. (1.107).

1.8.

Triple producto vectorial I

Ocupando Eq. (1.107), se puede probar el llamado triple producto vectorial


~ (B
~ C)
~ = B(
~ A
~ C)
~ C(
~ A
~ B),
~
A

(1.118)

pues
h
i
~
~
~
A (B C)

= ijk Aj

~ C
~
B

= ijk Aj (klm Bl Cm )

= ijk klm Aj Bl Cm = (il jm im jl ) Aj Bl Cm


= (Am Cm )Bi Ci (Al Bl )
~ C)B
~ i (A
~ B)C
~ i.
= (A
(1.119)

27

~ la identidad Eq.
Si en lugar de un vector constante se tiene el operador ,
~
~
~ A,
~
(1.118) ya no es validad. Por ejemplo, si en lugar de B C se considera
ahora se cumple


h
i
1
2
~ A)A
~ i.
~
~
~
(1.120)
( A) A
= j Ai Aj ij A (
2
i

En efecto,

h
i
~
~
~
( A) A

~ A)
~ j Ak = ijk (jlm l Am )Ak
= ijk (
= ikj jlm (l Am )Ak
= (il km im kl ) (l Am )Ak
= Al l Ai Am i Am
1
= l (Ai Al ) Ai l Al i (Am Am )

 2
1
~ A.
~
= l Ai Al il A2 Ai
2

(1.121)

Con esta identidad posteriormente veremos que se conserva el momento.

1.9.

Conservaci
on del momento

Para estudiar la conservacion del momento veamos de nuevo la fuerza de


Lorentz, la cual se puede escribir como


~
v
dP~cin
~ + B
~ .
= m~a = F~ = q E
(1.122)
dt
c
Si tenemos una distribucion de carga, un elemento de carga esta dado por
dq = d3 x y el elemento de fuerza es


~
v
~ d3 x = Fd
~ 3 x,
~+
B
(1.123)
dF~ = E
c
con
~
~ = E
~ + J B
~
F
c
la densidad de fuerza mecanica. As, la fuerza total mecanica es
!
Z
~
dP~cin
J
~ + B
~ d3 x.
= F~ =
E
dt
c
V
28

(1.124)

(1.125)

En este resultado solo se ocupo la fuerza de Lorentz. Veamos que dicen las
ecuaciones de Maxwell.
~ con la ley de Faraday Eq. (1.2) se
Si hacemos el producto vectorial de E
tiene
!


~
1

B
~ E
~ E
~ =
~

E.
(1.126)
c t

~ con la ley de Amp`ere Eq. (1.4) enconSi hacemos el producto vectorial de B


tramos
!


~
1

E
4
~
~ B
~ B
~ =
J~ +
B
(1.127)

c
c t

~
4 ~ ~ 1 E
~
J B+
B.
(1.128)
c
c t
Sumando estas dos ecuaciones y considerando


~
~
E B
~
~
E
~ +E
~ B ,
=
B
(1.129)
t
t
t
se llega a
!




~
~
1

E
4
~+
~
~
~ E
~ E
~+
~ B
~ B
~ =
J~ B
B
E

c
c t
t
!
~
~
4 ~ ~ 1 E

B
~ +E
~
=
J B+
B
c
c t
t


~
~
4 ~ ~ 1 E B
=
J B+
.
(1.130)
c
c
t
Ademas, tomando en cuenta Eq. (1.120), la ley de Gauss Eq. (1.1) y la ley de
inexistencia de monopolos magneticos Eq. (1.3), se tiene





1
2
~ E
~ E
~
~ E)E
~ i

= j Ei Ej ij E (
(1.131)
2
i


1
2
(1.132)
= j Ei Ej ij E 4Ei ,
2





1
2
~
~
~
~ B)B
~ i
B B
= j Bi Bj ij B (
(1.133)
i
2


1
2
(1.134)
= j Bi Bj ij B .
2
=

29

Introduciendo estos resultados en Eq. (1.130) se llega a





ij
2
2
j Ei Ej + Bi Bj
E +B
2


1 ~
1~ ~
~
~
EB
.
= 4 E + J B +
c
4c t
i

(1.135)

Antes de continuar definamos la densidad de momento electromagnetico como


~ = 1 E
~ B
~ = 1S
~
P
4c
c2
y el tensor de esfuerzos de Maxwell como



ij
1
2
2
Ei Ej + Bi Bj
.
E +B
ij =
4
2

(1.136)

(1.137)

Entonces, la igualdad Eq. (1.135) toma la forma


Pi
+ Fi = j ji .
t

(1.138)

Integrando esta ecuacion sobre un volumen V se tiene


Z
 Z


Z
Z
d
Pi
3
3
3
dx Pi +
dx Fi =
dx3 j ji
+ Fi
=
dx
t
dt
V
V
V
V
I
ij nj da.
(1.139)
=
V

Definiremos el momento electromagnetico como


Z
1
~
~ B,
~
Pem =
dx3 E
4c V
entonces, considerando Eq. (1.125) se encuentra que
I

d ~
Pem + P~cin =
ij nj da
dt
i
V

(1.140)

(1.141)

Como podemos ver, ademas del momento cinetico, las ecuaciones de Maxwell
implican el momento electromagnetico P~em que solo depende de los campos.
Tambien podemos ver que
I
ij nj da

30

es un termino de fuerza y ij nj es una presion. De hecho, si definimos


I
P~T = P~cin + P~em , Fi =
ij nj da
(1.142)
V

se tiene la segunda ley de Newton


dP~T
= F~ .
dt

(1.143)

Ahora, si el volumen de integracion es suficientemente grande de tal forma que


el termino de la derecha sea nulo, la ecuacion Eq. (1.141) implica
(Pcin + Pem )i = constante

(1.144)

que significa que el momento total se conserva.

1.9.1.

Conservaci
on del momento angular

Tomando en cuenta la ecuacion Eq. (1.138) se encuentra


ijk xj

Pk
+ ijk xj Fi = ijk xj l lk .
t

(1.145)

Considerando que t xj = 0 y que lk es simetrico se llega a





~
(ijk xj Pk ) + ~x F
=
t
i
=
=
=

ijk (l (xj lk ) lk l xj )
ijk (l (xj lk ) lk lj )
l (ijk xj lk ) ijk jk
l (ijk xj lk ) .

Definamos el momento angular electromagnetico como


Z
~
~
Lem =
dx3~x P.

(1.146)

(1.147)

~ es una densidad de fuerza, ~x F


~ es una densidad
Ademas, note que, como F
de torca. Por lo que, la torca, que es la deriva temporal del momento angular
cinetico, es
~ cin
dL
=
dt

~
dx3~x F.
31

(1.148)

As, integrando Eq. (1.146) sobre un volumen V y ocupando el teorema de


Gauss, se tiene
I

d ~
~
Lem + Lcin =
(ijk xj lk )nl da.
(1.149)
dt
i
V
Si V es suficientemente grande de tal forma que no haya campo electromagnetico en su frontera se tiene

d ~
~ cin = 0.
Lem + L
(1.150)
dt
i
Es decir, el momento angular total se conserva.

1.10.

Triple producto vectorial II

Hay otra versiones del triple producto escalar, una de ellas es la identidad




~
~
~
~
~
~
~
A = A 2 A.
(1.151)

Esta propiedad se demuestra de la siguiente forma


h

i


~
~
~
~
~
A
= ijk j A = ijk j (klm l Am ) = ijk klm j l Am
i

= (il jm im jl ) j l Am = i (j Aj ) j j Ai


~ A
~ 2 Ai .
= i
(1.152)

Con esta identidas porteriomente mostraremos que de las ecuaciones de Maxwell se puede obtener la ecuacion de onda.
Otro tipo de triple producto escalar es






~ A
~B
~ =B
~
~A
~+A
~
~ B
~ A
~ B
~ B
~
~ A
~ .

(1.153)

Que se demuestra de la siguiente forma







~ A
~B
~
~B
~ = ijk j klm (Al Bm )

= ijk j A
i

= ijk klm j (Al Bm )


= (il jm im jl ) (Bm j Al + Al j Bm )
= il jm Bm j Al + il jm Al j Bm
(im jl Bm j Al + im jl Al j Bm )
= Bj j Ai + Ai j Bj Bi j Aj Aj j Bi



 



~
~
~
~
~
~
~
~
~
~
~
~
=
B A+A B A BB A
,
i

32

que es la prueba de Eq. (1.153).

1.10.1.

Ecuaci
on de onda

Con la identidad Eq. (1.152) se puede probar que las ecuaciones de Maxwell
implican la ecuacion de onda. Por simplicidad veremos solo el caso donde no
hay fuentes, por lo que las ecuaciones de Maxwell toman la forma
~ E
~ = 0,

(1.154)

~
~ E
~ = 1 B ,

c t
~ B
~ = 0,

~
~ B
~ = 1 E .

c t
De la ley de Faraday Eq. (1.155) se obtiene

(1.155)
(1.156)
(1.157)

~
~
~ (
~ E)
~ = 1 ( B) ,

(1.158)
c
t
ocupando la ley de Amp`ere sin fuentes Eq. (1.157) y la identidad Eq. (1.152)
se llega a


1 2 ~
2
(1.159)
2 2 E = 0.
c t
Analogamente, aplicando el operador rotacional a la ley de Amp`ere Eq. (1.157)
sin fuentes y ocupando la ley de Faraday Eq. (1.155) se obtiene


1 2 ~
2
2 2 B = 0.
(1.160)
c t
Por lo tanto, en el vaco los campos electrico y magnetico satisfacen la ecuacion
de onda.

1.11.

Libertad de norma

Recordemos dos teoremas de calculo vectorial, el teorema de la divergencia


y teorema del rotacional. El teorema de la divergencia nos dice que si ~a es un
campo vectorial tal que
~ ~a = 0

~b

tal que
33

~ ~b,
~a =

(1.161)

donde ~b es un campo vectorial. Mientras que el teorema del rotacional establece


que si f~ es un campo vectorial tal que
~ ~c = 0

tal que

~
~c = h,

(1.162)

donde h es un campo escalar.


De la ley de inexistencia de monopolos magneticos Eq. (1.3) y del teorema
~ tal que
de la divergencia Eq. (1.161) se infiere que existe un campo vectorial A
~ =
~ A.
~
B

(1.163)

Sustituyendo este resultado en la ley de Faraday Eq. (1.2) obtenemos que


!
~
1

A
~ E
~+

= 0.
(1.164)
c t
Ahora, por el teorema del rotacional Eq. (1.162) se concluye que existe un
campo escalar tal que
~
~
~ + 1 A = .
E
c t

(1.165)

Por lo tanto podemos decir que la inexistencia de monopolos magneticos y la


~ y tal que
ley de Faraday implican que existen los campos A
!
~

A
1
~ =
~ A,
~
~ =
~ +
.
(1.166)
B
E
c t
~ B
~ los campos
Este es un resultado importante. Note que dados los campos E,
~ y no son u
A
nicos. En efecto, sea = (~x, t) un campo escalar arbitrario y
definamos
~ = A
~ + ,
~
A

1
.
c t

(1.167)

Entonces Eq. (1.166) implica


~ = B,
~
B

~ = E,
~
E

(1.168)

es decir los campos electrico y magnetico no cambian bajo las transformaciones


Eq. (1.167). Debido a que depende del espacio y del tiempo, se dice que las
transformaciones Eq. (1.167) son locales y se les suele llamar transformaciones
34

de norma.
Ahora, definamos U = ei , entonces Eq. (1.167) se puede escribir como




1

1 ~

1
~
~
i
A =U
A + i U,
=U
U.
(1.169)
c t

Esto es interesantes pues el conjunto de todas las funciones


U = ei ,

(1.170)

forman un crculo de tama


no unitario y cumple las propiedades algebraica del
grupo llamado U(1) [16]. Por lo que, se dice que el grupo de norma de la electrodinamica es U(1).
El resto de las ecuaciones de Maxwell, la ley de Gauss Eq. (1.1) y la ley
~ En efecto, si
de Ampere Eq. (1.4), nos dan la dinamica de los campos y A.
sustituimos Eq. (1.166) en Eqs. (1.1,1.4) se obtiene
~ A
~
1
2
= 4,
c t




2
1

4
~
~ .
~
~ A
~ =
J~

+
A

c
c
t
c t2

(1.171)
(1.172)

Ocupamos la identidad Eq. (1.152) se encuentra

~ A
~
1
= 4,
2
c
t




1 2 ~ ~ ~ ~ 1
4 ~
2
2 2 A+ A+
= J.
c t
c t
c

(1.173)
(1.174)

~ no son u
Debido a que los campos de norma y A
nicos, para trabajar con estos
debemos elegir un par de ellos de un n
umero infinito de posibilidades. Para
hacer esto se suele imponer condiciones sobre los campos de norma, una de las
condiciones mas recurridas es la norma de Lorentz que pide que se cumpla la
condicion
~ A
~ + 1 = 0.

(1.175)
c t
En este caso Eqs. (1.173-1.174) toman la forma


1 2
2
2 2 = 4,
(1.176)
c t


4 ~
1 2 ~
2
(1.177)
2 2 A = J.
c t
c
35

Que son ecuaciones de onda con fuentes.


Otra condicion de norma que se puede ocupar es la llamada condicion de
Coulomb
~ A
~ = 0.

(1.178)

En este caso las Eqs.(1.173)-(1.174) toman la forma


2 = 4,


1 ~
4
1 2 ~
2
.
2 2 A = J~ +
c t
c
c t

(1.179)
(1.180)

Un estudio mas detallado sobre las posibles condiciones de norma de la electrodinamica se puede ver en [16].

1.12.

Representaci
on compleja de las ecuaciones de Maxwell

Cuando no hay fuentes, = 0 y J~ = 0, las ecuaciones de Maxwell toman


la forma
~ E
~ = 0,

~
~ E
~ = 1 B ,

c t
~ B
~ = 0,

~
~ B
~ = 1 E .

c t

(1.181)
(1.182)
(1.183)
(1.184)

~ + iB,
~ donde i2 = 1. Por lo que
En este caso podemos definir el vector E~ = E
las ecuaciones de Maxwell se pueden escribir como
~ E~ = 0,

~
~ E~ = i E .

c t

Claramente estas ecuaciones son invariantes bajo la transformacion




~
~ + iB
~ = ei E,
E~ E~ = E
= constante.
36

(1.185)

(1.186)

Esta transformacion explcitamente toma la forma





~
~
~
~ cos B
~ sin ) + i(B
~ cos + E
~ sin ),
E = E + iB = ei E~ = (E
que se puede expresar como

  
~
E
cos sin
~ = sin cos
B

~
E
~
B

(1.187)

Si hay fuentes, las ecuaciones de Maxwell no son invariantes bajo estas transformaciones. Para mantener esta invariancia, en 1931 P. A. M Dirac propuso la
existencia de cargas y corrientes magneticas. En este caso se pueden proponer
la ecuaciones de Maxwell generalizadas:
~ E
~ = 4e ,

~ E
~ =

~
4 ~
1 B
Jm +
c
c t

(1.188)
!

~ B
~ = 4m ,

~
~ B
~ = 4 J~e + 1 E .

c
c t

(1.189)
(1.190)
(1.191)

Definamos = e + im y ~J = J~e + iJ~m , entonces las ecuaciones de Maxwell


con monopolos magneticos toman la forma
!
~
1
~ E~ = 4,
~ E~ = i 4 ~J + E .
(1.192)

c
c t
Estas ecuaciones de Maxwell son invariantes bajo las transformaciones
E~

~J

~ cos B
~ sin ) + i(B
~ cos + E
~ sin ), (1.193)
ei E~ = (E
ei = (e cos m sin ) + i(m cos + e sin ), (1.194)
ei~J = (J~e cos J~m sin ) + i(J~m cos + J~e sin ).(1.195)

La fuerza de Lorentz con monopolos magneticos toma la forma


~ + qm B
~ + qe ~v B
~ qm ~v E.
~
F~ = qe E
c
c

37

(1.196)

1.13.

Otros resultados de c
alculo vectorial

Antes de finalizar este captulo veamos otros resultados de calculo vectorial


que ocuparemos posteriormente.
Ahora, demostraremos los siguientes lemas.
~ es un campo vectorial suave sobre una region de
Lema de Gauss: Si B
volumen V y frontera V, se cumple
Z 
I 


~
~
~
B dv =
d~a B .
(1.197)
V

Para probar esta afirmacion ocuparemos el teorema de Gauss Eq. (1.6), el


cual es es valido para cualquier campo vectorial suave F~ . En particular, si
~ C,
~ el teorema de Gauss Eq. (1.6) implica
F~ = B
Z
I 



~
~
~
~ C
~ n
B C dv =
B
da.
(1.198)
V

Ademas ocupando la identidad del triple producto escalar Eq. (1.87) se tiene
I 
I 


~
~
~
~
BC n
da =
n
B Cda.
(1.199)
V

~ es un vector constante, se encuentra


Para el caso en que C
I 
I 


~
~
~
~ da.
BC n
da = C
n
B
V

(1.200)

~ es constante, se cumple
Ademas, si C




~
~
~
~
~
B C = i B C = i (ijk Bj Ck ) = Ck ijk i Bj
i


~
~ B
~ .
= Ck kij i Bj = C
~ es constante
Por lo tanto, si C
Z
Z




~
~
~
~
~
~
B C dv = C
dv B .
V

(1.201)

~ constante se llega
As, igualando Eq. (1.198) con Eq. (1.201) para el caso C
Z 
I 


~
~
~
~
~ ,
C
B dv = C
d~a B
V

38

es decir
~
C

Z 
V

I

~
~
B dv



~
d~a B
= 0.

~ constante, por lo tanto se debe


Esta igualdad es valida para cualquier vector C
cumplir Eq. (1.197), que es el llamado lema de Gauss.
Lema de Stokes: Si es un campo escalar que toma valores sobre una
superficie S cuya frontera es , entonces
Z 
I

~
(1.202)
n

da = d~l.
S

~ es un vector constant, entonces


Probemos esta igualdad, supongamos que A
de (1.92) se llega a
~ (A)
~ = (
~ A).
~

Ocupando este resultado y la identidad del triple producto escalar Eq. (1.87),
se encuentra
Z 
Z 
Z 
 


~
~
~
~
~
~
A n
da =
A n
da =
n

Ada
S
S Z
S


~
~
= A
n

da.
(1.203)
S

Ademas, de acuerdo al teorema de Stokes Eq. (1.7), se llega a


Z 
I  
I
 
~
~
~
~
~
A n
da =
A dl = A d~l.
S

(1.204)

Por lo tanto, igualando Eq. (1.203) con Eq. (1.204) se tiene


Z 
I

~
~
~ d~l.
A
n

da = A
S

~ es un vector arbitrario constante, se cumple el lema de Stokes Eq.


Como A
(1.202).

39

Captulo 2
Operadores en Coordenadas
Curvilneas
En este captulo veremos la expresion de los operadores gradiente, Laplaciano y rotacional en terminos de coordenadas curvilneas. Primero recordaremos algunos resultados de calculo vectorial en coordenadas cartesianas y
despues veremos el caso general en coordenadas curvilneas.

2.1.

Interpretaci
on geom
etrica de operaciones
vectoriales

~ yB
~ con magnitudes A y B. ReSupongamos que tenemos los vectores A
cordemos que cualquiera dos vectores los podemos poner en un plano, por lo
~ = A(cos 1 , sin 1 ), B
~ =
que, sin perdida de generalidad, podemos tomar A
B(cos 2 , sin 2 ). Entonces,
~B
~ = AB(cos 1 cos 2 + sin 1 sin 2 ) = AB cos(1 2 ).
A
~ y B,
~ se tiene
Es decir, como = 1 2 es el angulo entre los vectores A
~B
~ = AB cos .
A

(2.1)

~ y B,
~ siempre se puede construir
Tambien recordemos que dados los vectores A
un paralelogramo. El area de un paralelogramos es simplemente el producto
de la base por la altura h, en este caso es [17]
a = hA = AB sin .

40

~ B.
~ Primero notemos que ocupando
Esta cantidad se puede relacionar con A
el triple producto escalar Eq. (1.87), el triple producto vectorial Eq. (1.118) y
el producto escalar Eq. (2.1), se encuentra

2

 




~
~
~
~
~
~
~
~
~
~
AB
= AB AB = B AB A



~ A
~ A
~ B
~
= B
 


2~
~
~
~
= B A A B A B

2
~B
= A2 B 2 A
= A2 B 2 A2 B 2 cos2
= A2 B 2 sin2 = a2 .

~yB
~ esta dada por
Entonces, el area del paralelogramo que forman A
~ B|.
~
a = AB sin = |A
~B
~ se le suele llamar vector area. Note que este vector es
Por esta razon a A
normal al paralelogramo.
Otro resultado que es conveniente tener presente es que si tenemos tres
~ B,
~ C
~ con ellos podemos formar un paraleleppedo. El volumen de
vectores A,
un paraleleppedo esta dado por el producto de la altura con el area de su base
[17]
V = ha.
~ con la normal de la base del
Donde h = C cos , con el angulo que hace C
~
~
~ B|,
~ de donde
paraleleppedo, es decir con A B. Ademas, a = |A


~

~
~
~
~
V = C cos |A B| = C A B .

2.2.

Operadores en coordenadas cartesianas

Un vector tridimensional ~r = (x, y, z) se puede escribir en diferentes coordenadas. En la base Euclidiana tenemos

~r = xi + yj + z k,

(2.2)

con
i = (1, 0, 0),

j = (0, 1, 0),
41

k = (0, 0, 1).

(2.3)

Para estos vectores el producto escalar es


i i = j j = k k = 1,
i j = k i = j k = 0.
Otro vector que se puede construir es

d~r = dxi + dyj + dz k,

(2.4)

que nos da el elemento de lnea


ds2 = d~r d~r = dx2 + dy 2 + dz 2 .

(2.5)

Note que la energa cinetica esta dada por


 2

m ds
m 2
m d~r d~r
T =
x + y 2 + z 2 .

=
=
2 dt
2 dt dt
2
En esta base se tiene los productos vectoriales

i j = k,

k i = j,

j k = i.

As, se pueden plantear los elementos de area





d~axy = d~rx d~ry = dxi dyj = dxdy k,




d~ayz = d~ry d~rz = dyj dz k = dydzi,



d~azx = d~rz d~rx = dz k dxi = dzdxj,


que forman el vector

d~a = dydzi + dzdxj + dxdy k.

(2.6)

Mientras que el elemento de volumen se plantea como


dV = d~rz (d~rx d~ry ) = dxdydz.

(2.7)

En este caso el operador gradiente es

~ = i + j + k.

x
y
z

(2.8)

Por lo que un elemento de se puede escribir como


d =

~ d~r.
dx +
dy +
dz =
x
y
z
42

(2.9)

Ademas, la divergencia es
~ A
~ = Ax + Ay + Az ,

x
y
z

(2.10)

~ =
~ se obtiene el Laplaciano:
tomando el caso A

2
2
2
~
~ = 2 = + + .

x2
y 2
z 2

(2.11)

Mientras que el rotacional es








Ay
Ax Az
Ay Ax
Az
~
~
k. (2.12)

i+
j+
A=
y
z
z
x
x
y
Estos resultados los ocuparemos para construir la version del gradiente, divergencia, Laplaciano y rotacional en coordenadas curvilneas.

2.2.1.

Coordenadas esf
ericas

Antes de estudiar las coordenadas curvilneas en general veremos dos casos


particulares.
Primero veamos las coordenadas esfericas:
x = r cos sin ,

y = r sin sin ,

z = r cos ,

(2.13)

es decir
~r = r(cos sin , sin sin , cos )

= r(cos sin i + sin sin j + cos k).

(2.14)

As,
d~r = er dr + r
e d + r sin
e d,

(2.15)

con
er = (cos sin , sin sin , cos )

= cos sin i + sin sin j + cos k,

er
e =
= (cos cos , sin cos , sin ),

= cos cos i + sin cos j + sin k,


1
er
e =
= ( sin , cos )
sin
= sin i + cos j.
43

(2.16)

(2.17)

(2.18)

Los vectores er , e , e cumplen


er er = e e = e e = 1,
er e = er e = e e = 0,

(2.19)
(2.20)

por lo que forman una base ortonormal.


Esto implica que el elemento de lnea toma la forma
ds2 = d~r d~r = dr 2 + r 2 d2 + r 2 sin2 d2

= dr 2 + r 2 d2 + sin2 d2 ,

mientras que la energa cinetica es


 2


m ds
m 2
T =
r + r 2 2 + sin2 2 .
=
2 dt
2

(2.21)

(2.22)

Con el producto vectorial se tiene


er e = e ,

e er = e ,

e e = er .

(2.23)

Por lo que los elementos de area son


d~ar = d~rr d~r = (
er dr r
e d) = rdrd
e ,
d~ar = d~r d~rr = (r sin
e d er dr) = r sin drd
e ,
2
d~a = d~r d~r = (r
e d r sin
e d) = r sin dd
er ,

(2.24)
(2.25)
(2.26)

que forman el vector


d~a = r 2 sin dd
er + r sin drd
e + rdrd
e .

(2.27)

Para este caso el elemento de volumen es


dV = d~rr (d~r d~r ) = r 2 sin drdd = r 2 drd,

d = sin dd, (2.28)

a d se le llama elemento de angulo solido.


Ademas ocupando Eqs. (2.16)-(2.18) se encuentra
i = cos sin
er + cos cos
e sin
e ,
j = sin sin
er + sin cos
e + cos
e ,
k = cos
er sin
e .
44

(2.29)
(2.30)
(2.31)

2.2.2.

Coordenadas cilndricas

Ahora veamos la transformacion de coordenadas cilndricas


x = cos ,

y = sin ,

z = z,

(2.32)

es decir,
~r = ( cos , sin , z)

= cos i + sin j + z k.

(2.33)

d~r = e d +
e d + ez dz,

(2.34)

De donde,
con
e = (cos , sin , 0) = cos i + sin j,

= ( sin , cos , 0) = sin i + cos k,


e =

ez = (0, 0, 1) = k.

(2.35)
(2.36)
(2.37)

Estos vectores son ortonormales, pues cumplen

que implica

e e = e e = ez ez = 1,
e e = e ez = e ez = 0,

(2.38)
(2.39)

ds2 = d~r d~r = d2 + 2 d2 + dz 2 .

(2.40)

As, la energa cinetica toma la forma


 2

m ds
m 2
+ 2 2 + z 2 .
T =
=
2 dt
2
Con el producto vectorial tenemos
e ez = e ,

e e = ez ,

Por lo que los elementos de area son

ez e = e .

(2.41)

(2.42)

d~a = d~r d~r = dd


ez ,
d~az = d~rz d~r = dzd
e ,
d~az = d~r d~rz = ddz
e ,

que definen el vector elemento area

d~a = ddz
e + dzd
e + dd
ez .

(2.43)

Mientras que el elemento de volumen esta dado por


dV = d~rz (d~r d~r ) = dddz.
45

(2.44)

2.3.

Coordenadas curvilneas ortogonales

Ya hemos practicado suficiente, ahora veamos el caso general. Supongamos


que tenemos el cambio de coordenadas
x = f1 (u1 , u2, u3 ) ,

y = f2 (u1 , u2 , u3 ) ,

z = f3 (u1 , u2 , u3 ) ,

(2.45)

es decir
~r = (f1 (u1 , u2, u3 ) , f2 (u1 , u2 , u3) , f3 (u1 , u2, u3 )) .

(2.46)

d~r = h1 e1 du1 + h2 e2 du2 + h2 e3 du3 ,

(2.47)

De donde,

con
1 ~r
1 ~r
1 ~r
, e2 =
, e3 =
,
1
2
h1 u
h2 u
h3 u3
~r
~r
~r






= 1 , h2 = 2 , h3 = 3 .
u
u
u

e1 =

(2.48)

h1

(2.49)

Claramente los vectores e1 , e2 , e3 son unitarios. Supondremos que la base e1 , e2 , e3


forma una base ortonormal
e1 e1 = e2 e2 = e3 e3 = 1,
e1 e2 = e1 e3 = e2 e3 = 0.

(2.50)
(2.51)

Esto implica que el elemento de lnea


ds2 = d~r d~r = (h1 )2 (du1 )2 + (h2 )2 (du2)2 + (h3 )2 (du3 )2 ,
por lo que la energa cinetica toma forma
 2

m ds
m
T =
(h1 )2 u 21 + (h2 )2 u 22 + (h3 )2 u 23 .
=
2 dt
2

(2.52)

(2.53)

Tambien supondremos que e1 , e2 , e3 forman una base derecha, es decir


e1 e2 = e3 ,

e2 e3 = e1 ,

e3 e1 = e2 ,

(2.54)

que implica los elementos de area


d~a12 = d~r1 d~r2 = h1 h2 (
e1 e2 ) du1 du2 = h1 h2 du1du2 e3 ,
d~a23 = d~r2 d~r3 = h2 h3 (
e2 e3 ) du2 du3 = h2 h3 du2du3 e1 ,
d~a31 = d~r1 d~r2 = h3 h1 (
e3 e1 ) du3 du1 = h3 h1 du3du1 e2 ,
46

(2.55)
(2.56)
(2.57)

con el cual se forma el vector


d~a = h2 h3 du2du3 e1 + h3 h1 du3du1 e2 + h1 h2 du1 du2e3 .

(2.58)

Ademas, el elemento de volumen esta dado por


dV

= d~r1 (d~r2 ~r3 ) = h1 du(1) e1 h2 du(2) e2 h3 du(3) e3


= h1 h2 h3 du(1) du(2) du(3) .

(2.59)

Estas cantidades son de gran utilidad para construir operadores diferenciales


en coordenadas curvilneas.

2.3.1.

Gradiente en coordenadas curvilneas

~ se puede escribir en
Como e1 , e2 , e3 forma una base, cualquier vector A
terminos de ella, es decir,
~ = A1 e1 + A
A
e2 + A3 e3 .

(2.60)

En particular, el gradiente se debe escribir como


~ = () e1 + () e2 + () e3 .

1
2
3

(2.61)

De donde, considerando Eq. (2.9), se tiene


~ d~r
d =


 
1
2
3
=
()1 e1 + ()2 e2 + ()3 e3 h1 e1 du + h2 e2 du + h2 e3 du

= ()1 h1 du1 + ()2 h2 du2 + ()3 h3 du3 .

(2.62)

Esta cantidad tiene el mismo valor independientemente de las coordenadas en


que se calcule. Ademas en las variables u1 , u2 , u3 se encuentra
d(u1 , u2, u3 ) =

du + 2 du2 + 3 du3 .
1
u
u
u

(2.63)

Por lo tanto, como las variables u1 , u2 , u3 son idependientes, igualando Eq.


(2.63) con Eq. (2.62) se llega a
()1 h1 =

,
u1

()2 h2 =

,
u2

,
u3

(2.64)

1
.
h3 u3

(2.65)

()3 h3 =

es decir,
()1 =

1
,
h1 u1

()2 =

1
,
h2 u2
47

()3 =

As, el gradiente en coordenadas curvilneas es


~ = 1 e1 + 1 e1 + 1 e3 .

h1 u1
h2 u2
h3 u3

(2.66)

En particular el gradiente en coordenadas esfericas es


~ = er + 1 e + 1 e .

r
r
r sin

(2.67)

Mientras que en coordenadas cilndricas tenemos


~ = e + 1 e + ez .

2.3.2.

(2.68)

Divergencia en coordenadas curvilneas

Para obtener la divergencia en coordenadas curvilneas ocuparemos el teorema de Gauss Eq. (1.6). Note que usando los elementos de area Eq. (2.6) y
volumen Eq. (2.7) en coordenadas cartesianas, este teorema se puede escribir
como

I
Z 
Ax Ay Az
dxdydz =
(Ax dydz + Ay dzdx + Az dxdy) . (2.69)
+
+
x
y
z
V
V
Con el elemento de volumen Eq. (2.59) en coordenadas curvilneas se tiene
Z
Z 

~
~
~ A
~ h1 h2 h3 du(1) du(2) du(3) .
Adv =

(2.70)
V

~ y el elemento de area en coordenadas curvilneas,


Mientras que ocupando A
Eq. (2.60) y Eq. (2.58), se encuentra

I
I 
~
A d~a =
A1 e1 + A2 e2 + A3 e3
V
V


(2)
(3)
(3)
(1)
(1)
(2)
h2 h3 e1 du du + h3 h1 e2 du du + h1 h2 e3 du du

I 
(3)
(2)
(3)
(1)
(1)
(2)
=
A1 h3 h1 du du + A2 h3 h1 du du + A3 h1 h2 du du .
V

Por lo tanto, definiendo


Ax = A1 h2 h3 ,
Ay = A2 h3 h1 ,
Az = A3 h1 h2 ,
d
x = du(1) , d
y = du(2) , d
z = du(3) .
48

y considerando la igualdad Eq. (2.69) se llega a



I
I 
~ d~a =
A
Ax zd
y + Ay d
z d
x + Az d
xd
y.
V
V

Z 
Ax Ay Az
=
d
xd
y d
z,
+
+
x
y
z
V


Z
(A2 h3 h1 ) (A3 h1 h2 )
(1)
(2)
(3) (A1 h2 h3 )
+
+
. (2.71)
=
du du du
u(1)
u(2)
u(3)
V
As, igualando Eq. (2.70) con Eq. (2.71) se llega a




(A
h
h
)
(A
h
h
)
(A
h
h
)
2
3
1
3
1
2
1
2
3
~ A
~ h1 h2 h3 =

+
+
,
u(1)
u(2)
u(3)
c
es decir


~
~
A =
c



1
(A1 h2 h3 ) (A2 h3 h1 ) (A3 h1 h2 )
+
+
.
h1 h2 h3
u(1)
u(2)
u(3)

(2.72)

(2.73)

Esta es la expresion de la divergencia en coordenadas curvilneas. Para coordenadas esfericas obtenemos



~ A
~ = 1 r 2 Ar + 1 (sin A ) + 1 A .

r 2 r
r sin

r sin

(2.74)

Mientras que en coordenadas cilndricas se llega a

~ A
~ = 1 (A ) + 1 A + Az .

2.3.3.

(2.75)

Laplaciano en coordenadas curvilneas

~ en
La expresion Eq. (2.73) es valida para cualquier campo vectorial A,
particular si es el gradiente de un campo escalar :
~ =
~ = 1 e1 + 1 e1 + 1 e3 .
A
h1 u1
h2 u2
h3 u3
~ A
~ = 2 , de donde
En este caso






1
h2 h3
h3 h1
2
+ (2)
=
h1 h2 h3 u(1)
h1 u(1)
u
h2 u(2)


h1 h2

.
+ (3)
u
h3 u(3)
49

(2.76)

Para coordenadas esfericas se tiene






2
1

1
1

2
2
r
sin
+ 2 2
= 2
+ 2
,
r r
r
r sin

r sin 2

(2.77)

tambien se puede ocupar


1
r 2 r



1 2
2
r
=
(r).
r
r r 2

Mientras que en coordenadas cilndricas se encuentra





1 2 2
1
2

+ 2 2 + 2.
=

2.3.4.

(2.78)

(2.79)

Rotacional en coordenadas curvilneas

El rotacional es un vector, por lo que se debe poder escribir de la forma



 





~ A
~ =
~ A
~ e1 +
~ A
~ e2 +
~ A
~ e3 .

(2.80)
1
2
3


~ A
~ , notemos que el teorema de Stokes
Para encontrar los coeficientes
i

Eq. (1.7) en coordenadas cartesianas toma la forma


Z 
Z 




~
~
~
~
~
~
A d~a =
A dydz + A dzdx
x
y
S
S



~ A
~ dxdy
+
z



Z 
Ax Az
Az Ay
dydz +
dxdy +

=
y
z
z
x
S



Ay Ax
dxdy

x
y
Z
Z
~ d~r =
=
A
(Ax , Ay , Az ) (dx, dy, dz)
S
S
Z
=
(Ax dx + Ay dy + Az dz).
(2.81)
S

~ y d~r en coordenadas generalizadas, Eq. (2.60) y Eq.


Ahora, considerando A
(2.47), tenemos
Z
Z

~ d~r =
A
(A1 e1 + A2 e2 + A3 e3 ) h1 e1 du(1) + h2 e2 du(2) + h3 e3 du(3)
S
ZS

=
A1 h1 du(1) + A2 h2 du(2) + A3 h3 du(3) .
S

50

Por lo que definiendo


(Ax , Ay , Az ) = (A1 h1 , A2 h2 , A3 h3 ),

(dx , dy , dz ) = (du(1) , du(2) , du(3) )

y ocupando el teorema de Stokes Eq. (2.81), se llega a


Z
Z

~ d~r =
A
Ax dx + Ay dy + Az dz
S



ZS 
Az Ay
Ax Az

=
dy dz +
dx dy +

y
z
z
x
S



Ay Ax

dx dy
x
y

Z 
(A3 h3 ) (A2 h2 )

du(2) du(3)
=
(2)
(3)
u
u
S


(A1 h1 ) (A3 h3 )
+
du(1) du(3)

u(3)
u(1)



(A2 h2 ) (A1 h1 )
(1)
(2)
(2.82)
du du .

+
u(1)
u(2)


~ A
~ en coordenadas generalizadas,
Ademas, usando el elemento de area y
Eq. (2.58) y Eq. (2.80), tenemos
Z 
Z 





 
~ A
~ d~a =
~ A
~ e1 +
~ A
~ e2 +
~ A
~ e3

1
2
3
S
S


2
3
3
1
1
2
h2 h3 du du e1 + h3 h1 du du e2 + h1 h2 du du e3
Z 



~ A
~ h2 h3 du2du3 +
~ A
~ h3 h1 du3 du1
=

1
2
S



~ A
~ h1 h2 du1 du2 ,
+
(2.83)
3

igualando Eq. (2.82) con Eq. (2.83) se obtiene






(A
h
)
(A
h
)
2
2
3
3
~ A
~ h2 h3 =

u(2)
u(3)
1




(A1 h1 ) (A3 h3 )
~
~
A h3 h1 =

,
2
u(3)
u(1)




(A2 h2 ) (A1 h1 )
~
~
.

A h1 h2 =
u(1)
u(2)
3
51

(2.84)

Es decir,


~
~
A





~
~
A


~ A
~



(A3 h3 ) (A2 h2 )
1
=

,
h2 h3
u(2)
u(3)


(A1 h1 ) (A3 h3 )
1

,
=
h3 h1
u(3)
u(1)


1
(A2 h2 ) (A1 h1 )
=
,

h1 h2
u(1)
u(2)

(2.85)

que son las componentes del rotacional en coordenadas generalizadas.


En particular para coordenas esfericas tenemos




1
(sin
A
)
1

(rA
)
A
1
(rA
)

~ A
~ =
er +
e +

r sin

r sin
r


1 (rA ) Ar
e .
(2.86)

r
r

Mientras que en coordenadas cilndricas se llega a






Ar Az
1 Az A
~
~
e +
e +

A =

z
z



1 (A ) Ar
ez .

2.4.

(2.87)

Operador momento angular

Para obtener mayor practica en el manejo de vectores veamos el operador




~ = i ~r
~ .
L
(2.88)

Este operador surge de manera natural en mecanica cuantica, pero tambien


es importante en la teora del potencial, en el grupo de rotaciones y para el
estudio de las ondas electromagneticas.
En coordenadas cartesianas, usando Eq. (2.2) y Eq. (2.8), se encuentra
~ = L
xi + L
y j + L
z k
L




 

~
i + j + k
= i ~r = i xi + yj + z k
x
y
z
52


 
 
 
 
ij +x
ik +y
ji +y
jk
= i x
y
z
x
z

 
 
+z
ki +z
kj
x
y


 





z
x
y
k .
i+ z
j+ x
= i y
z
y
x
z
y
x
Por lo que,







, Ly = i z
, Lz = i x
. (2.89)
z
x
y
Lx = i y
z
y
x
z
y
x
En coordenadas esfericas, considerando Eq. (2.14) y Eq. (2.67), se llega a





1
1

~
~
L = i ~r = i (r
er ) er
+ e
+ e
r
r
r sin


1

+ (
er e )
= i (
er e )

sin


1

,
e
= i e

sin
es decir


~ = i e e 1
L

sin

(2.90)

x, L
y, L
z en coordenadas esfericas. En
De esta expresion se puede obtener L
efecto, utilizando Eqs. (2.16)-(2.18), en (2.90) se obtiene


~

L = i sin i + cos j


 
1

cos cos i + cos sin j sin k

sin



cos

cos
i
= i sin

sin





cos


+ cos
sin
k ,
j+

sin

por lo que,



,
Lx = i sin + cot cos

53

(2.91)




,
Ly = i cos cot sin

z = i .
L

(2.92)
(2.93)

Un operador importante es
~ L
~ =L
2 + L
2 + L
2.
L2 = L
x
y
z

(2.94)

Este operador es mas sugerente en coordenadas esfericas, usando Eq. (2.90) se


encuentra



2
= L
~ L
~ = i e
~
L
L
e

sin
!
~
~
L
e L
= i e
.
(2.95)

sin
~yB
~ dependen de la variable u, entonces
Antes de continuar notemos que si A


~B
~
A
~
~
A
~ +A
~ B ,
=
B
(2.96)
u
u
u
ademas de Eqs. (2.16)-(2.17) se llega a

= ( cos sin , cos cos , 0) = cos ( sin , cos , 0) = cos


e ,

Tomando en cuenta esta dos ultimas igualdades, las expresiones Eqs. (2.90),
(2.16)-(2.18), se tiene


~
e L
~
2
L
=
= i 2
(2.97)
e

 


~
e L
~
1
L
(
e ) ~

~
i
cos
e L
e
=

L=

sin


1 2

= i
+ cos
sin 2

Sustituyendo estos resultado en Eq. (2.95) se consigue



 2
cos
1 2

,
+
+
L =
2
sin sin2 2
54

ademas utilizando la igualdad




1

2
cos
sin
= 2+
sin

sin

(2.98)

se llega a
2 =
L

1
sin





1 2
sin
+
.

sin2 2

(2.99)

Note que con este resultado el Laplaciano en coordenadas esfericas Eq. (2.78)
se puede escribir como

 2
L
1
2
2
r
2 .
(2.100)
= 2
r r
r
r
Esta version del Laplaciano es de gran utilidad para resolver la ecuacion de
Laplace,2 = 0, en coordenadas esfericas. Este problema lo estudiaremos en
otro captulo.

55

Captulo 3
El Factorial y la Funci
on
Gamma
En este captulo veremos una funcion que generaliza el factorial de un
n
umero natural, que es la funcion Gamma. El estudio de este tema no es
exhaustivo pero es suficiente para resolver diferentes problemas interesantes.

3.1.

Funci
on Gamma

Dado un n
umero natural, n, se define el factorial como
n! = n (n 1) (n 2) 2 1.

(3.1)

Tambien se puede definir un producto similar para los primeros n n


umeros
pares mediante
(2n)!! = (2n) 2(n 1) 2(n 2) 6 4 2,

(3.2)

factorizando un 2 de cada termino se encuentra


(2n)!! = 2n (n (n 1) (n 2) 2 1) = 2n n!,

(3.3)

(2n)!! = 2n n!.

(3.4)

es decir

Ademas, el producto de los primeros (n + 1) n


umeros impares es
(2n + 1)!! = (2n + 1) (2n 1) (2n 3) 5 3 1.
56

(3.5)

Ahora, multiplicando y dividiendo este n


umero por (2n)!! se encuentra
(2n + 1) (2n) (2n 1) 2(n 1) (5) (4) (3) (2) (1)
(2n) 2(n 1) (4) (2)
(2n + 1)!
(2n + 1)!
=
,
=
(2n)!!
2n n!

(2n + 1)!! =

es decir
(2n + 1)!
.
2n n!

(2n + 1)!! =

(3.6)

Adicionalmente se puede definir el factorial para cualquier n


umero real o
complejo. Para hacer esa definicion ocuparemos la funcion Gamma
Z
(z) =
et tz1 dt,
Re(z) > 0.
(3.7)
0

Primero veamos dos valores de esta funcion. Notemos que si z = 1, se tiene


Z


(1) =
et dt = et = 1,
0

mientras que si z = 12 , con el cambio de variable u = t1/2 , se encuentra


 
Z
Z
Z
1
2
t 1/2
u2
=
e t
dt = 2
e du =
eu du

2
0
0

Z
 21
Z
2
2
=
eu du
ev dv

Z

(u2 +v2 )

dudve

()
2
2

der
dr
dr

 21

!1/2

Z

r 2

drre

1/2

es decir,
 

1
= .

(3.8)

La funcion (z) tiene las mismas propiedades que el factorial, en efecto observemos que se cumple
et tz = ztz1 et
57

d t z 
e t ,
dt

(3.9)

que implica
(z + 1) =

t z

e t dt = z

tz1 et = z(z),

(3.10)

es decir
(z + 1) = z(z).

(3.11)

Usando de forma reiterada (3.11) se encuentra


(z + 1) = z(z) = z(z 1)(z 1) = z(z 1)(z 2)(z 2)
= z(z 1)(z 2) (z k)(z k), Re(z k) > 0.(3.12)
En particular si z es un natural, n, el maximo valor que puede tomar k es
n 1, por lo que
(n + 1) = n(n 1)(n 2) (n (n 1))(1) = n(n 1)(n 2) 2 1
= n!,
entonces
(n + 1) = n!.

(3.13)

As, para cualquier n


umero complejo con Re(z k) > 0, definiremos el factorial
como
z! = (z + 1) = z(z 1)(z 2) (z k)(z k),

Re(z k) > 0. (3.14)

Por ejemplo,
 


 
1

1
1
1
!=
=
+1 =
.
(3.15)
2
2
2
2
2

Si queremos saber cuanto vale n + 12 ! debemos ocupar la definicion (3.14).
Para este caso es claro que el maximo valor que puede tomar k es n, de donde






   
1
1
1
3
1
1
n+
! =
n+
n
n

2
2
2
2
2
2
(2n + 1) (2n 1) (2n 3)
1
=

2 2
2
2
(2n + 1)!!
(2n + 1)!
=
,
=
2n+1
22n+1 n!
58

por lo que



(2n + 1)!
1
n+
!=
.
2
22n+1 n!
De este resultado se tiene





1
(2(n 1) + 1)!
(2n 1)!
1
n
! =
n1+
! = 2(n1)+1
= 2n1
2
2
2
(n 1)!
2
(n 1)!

(2n 1)!(2n)
(2n)!
= 2n1
=
,
2
(n 1)!(2n)
22n n!
de donde




1
(2n)!
n
!=
.
2
22n n!

Tambien se puede calcular el factorial para n


umeros negativos, por ejemplo
 


 

1
1
1
(3.16)
! = 1
=
= .
2
2
2
De hecho, ocupando que la ecuacion (3.11) implica
(z) =

(z + 1)
,
z

(3.17)

se puede definir (z) para n


umeros negativos. Por ejemplo, si z = 12 , se
encuentra

 
 

1 12
1
1
 = 2
=
= 2 .
(3.18)

1
2
2
2

Similarmente, si 0 < < 1, podemos definir


() =

(1 )
.

(3.19)

La parte derecha de esta igualdad tiene sentido pues (1 ) > 0, as la parte


izquierda tiene sentido.
Ocupando de forma reiterada (3.17) se llega a
(z + 1)
(z + 2)
(z + 3)
=
=
= =
z
z(z + 1)
z(z + 1)(z + 2)
(z + k)
.
=
z(z + 1)(z + 2)(z + 3) (z + (k 1))

(z) =

59

(3.20)

Si z + k > 0 la parte derecha de esta igualdad tiene sentido, por lo tanto la


parte izquierda esta bien definida, a
un si z < 0. Por ejemplo, si z es de la
forma z = n + , con n un natural y (0, 1), tomando k = n se cumple
z + k > 0 y la cantidad
(z) = (n + )
=

()
(n + )((n 1) + )((n 2) + ) (1 + )

(3.21)

esta bien definida.


Ahora, es claro que
lm(n + )((n 1) + )((n 2) + ) (1 + ) = ()n n!.
0

(3.22)

Mientras que de la integral (3.7) se tiene (0+ ) = y de (3.19) se encuentra


(0 ) = . Por lo tanto, si n es un natural se cumple
(n ) = ()n (),

(3.23)

1
= 0.
(n)

(3.24)

en ambos caso

Existen mas propiedades de la funcion (z), pero las que hemos visto nos
bastan para estudiar las funciones de Bessel.

60

Captulo 4
Repaso de Ecuaciones
Diferenciales Ordinarias
En este captulo veremos una serie de resultado sobre ecuaciones diferenciales que aplicaremos posteriormente.

4.1.

Teorema de existencia y unicidad

El primer resultado es sobre la existencia y unicidad de las soluciones de


ecuaciones diferenciales de la forma
d2 Y (x)
dY (x)
+ P (x)
+ Q(x)Y (x) = R(x).
2
dx
dx

(4.1)

Si P (x), Q(x) y R(x) son funciones continuas en el intervalo [a, b] y x0 [a, b],
entonces existe una u
nica solucion de Eq. (4.1) que cumple las condiciones
iniciales
dY (x)
Y (x0 ) = a1 ,
(4.2)
= a2 ,
dx x0

donde a1 y a2 son constantes. Este resultado lo usaremos sin demostrar, la


demostracion se puede ver en [18].

4.2.

El Wronskiano

Un concepto de mucha utilidad en el estudio de la independencia de las


soluciones de las ecuaciones diferenciales es el Wronskiano. Supongamos que

61

tenemos dos funciones f y g, el Wronskiano se define como




f g
dg(x) df (x)

g(x),
W (f, g)(x) = df dg (x) = f (x)
dx
dx
dx

(4.3)

dx

note que

dW (f, g)(x)
d2 g(x) d2 f (x)
= f (x)

g(x).
dx
dx2
dx2

4.3.

(4.4)

Independencia lineal

Ahora, si Y1 (x) y Y2 (x) son soluciones de la ecuacion diferencial


d2 Y (x)
dY (x)
+ P (x)
+ Q(x)Y (x) = 0,
2
dx
dx

(4.5)

es decir, si se cumple
dY1(x)
d2 Y1 (x)
+
P
(x)
+ Q(x)Y1 (x) = 0,
dx2
dx
dY2 (x)
d2 Y2 (x)
+ P (x)
+ Q(x)Y2 (x) = 0,
2
dx
dx

(4.6)
(4.7)

se obtiene
d2 Y1 (x)
dY1 (x)
+ P (x)Y2 (x)
+ Q(x)Y2 (x)Y1 (x) = 0,
2
dx
dx
dY2 (x)
d2 Y2 (x)
+ P (x)Y1 (x)
+ Q(x)Y1 (x)Y2 (x) = 0.
Y1 (x)
2
dx
dx

Y2 (x)

(4.8)
(4.9)

Al restar estas ecuaciones se llega a




dY1 (x)
dY1 (x)
dY1 (x)
d2 Y1 (x)
= 0,
Y2 (x)
+ P (x) Y1 (x)
Y2 (x)
Y2 (x)
dx2
dx
dx
dx
esta u
ltima ecuacion se puede escribir como
dW (Y1, Y2 )(x)
+ P (x)W (Y1 , Y2)(x) = 0,
dx

(4.10)

cuya solucion es
W (Y1, Y2 )(x) = Ce

P (x)dx

62

C = constante.

(4.11)

Como la funcion exponencial nunca se anula, si el Wronskiano es cero en un


punto, implica que C = 0. Por lo tanto, si el Wronskiano es cero en un punto,
es cero en cualquier otro punto. Claramente tambien es cierto que si el Wronskiano es diferente de cero en un punto, es diferentes de cero en cualquier otro
punto. Ademas, si el Wronskiano es diferente de cero no puede cambiar de
signo, pues de lo contrario tendra que pasar por cero.
Con el Wronskiano se puede obtener informacion sobre Y1 (x) y Y2 (x). En
efecto, si W (Y1 , Y2)(x) = 0, entonces el sistema de ecuaciones lineales

  

Y1 (x) Y2 (x)
0
a1
(4.12)
=
dY1 (x)
dY2 (x)
0
a2
dx
dx
tiene solucion no trivial y las funciones Y1 (x), Y2 (x) son linealmente dependientes. Ahora, si W (Y1, Y2 )(x) 6= 0, la u
nica solucion a (4.12) es la trivial y
por lo tanto, Y1 (x) y Y2 (x) son linealmente independientes.
Supongamos que Y1 (x) y Y2 (x) son soluciones linealmente independientes de Eq. (4.5), entonces podemos afirmar que estas funciones no se pueden anular en un mismo punto. Esto es verdad, pues si existe x0 tal que
Y1 (x0 ) = Y2 (x0 ) = 0, entonces W (Y1, Y2 )(x0 ) = 0, que no puede ser posible pues Y1 (x) y Y2 (x) son linealmente independientes.

4.4.

Los ceros de las soluciones

Diremos que a1 y a2 son ceros sucesivos de Y1 (x), si para toda x en el intervalo (a1 , a2 ) se cumple Y1 (x) 6= 0 y Y1 (a1 ) = Y1 (a2 ) = 0.
El Wronskiano nos da informacion sobre los puntos donde se anulan las
soluciones linealmente independientes de Eq. (4.5). En efecto, supongamos
que Y1 (x) y Y2 (x) son soluciones linealmente independientes de Eq. (4.5) y que
a1 y a2 son ceros sucesivos de Y1 (x), entonces podemos afirmar que Y2 (x) tiene
un cero en el intervalo (a1 , a2 ). Para probar esta afirmacion, notemos que la
derivada de Y1 (x) no puede tener el mismo signo en a1 y a2 , ademas
dY1 (x)
W (Y1 , Y2)(a1 ) =
Y1 (a1 ),
dx a1
dY1 (x)
W (Y1 , Y2)(a2 ) =
Y1 (a2 ).
dx a2
63

(4.13)
(4.14)

Ahora como

dY1 (x)
dx
a2

tiene signo diferente a

dY1 (x)
dx
a1

y el Wronskiano no cam-

bia de signo, entonces Y2 (a1 ) y Y2 (a2 ) tienen signos diferentes. Como Y2 (x)
es continua, existe un punto a3 (a1 , a2 ) tal que Y2 (a3 ) = 0, que es lo que
queramos demostrar.
De hecho, podemos afirmar que si Y1 (x) y Y2 (x) son soluciones linealmente
independientes de Eq. (4.5), Y2 (x) tiene un u
nico cero entre dos ceros sucesivos
de Y1 (x).

4.4.1.

Forma normal

Para poder estudiar la ecuacion diferencial Eq. (4.5) en muchos caso es


mejor expresarla en una forma mas conveniente. Por ejemplo, supongamos que
Y (x) = u(x)v(x), de donde
dY (x)
du(x)
dv(x)
=
v(x) + u(x)
,
dx
dx
dx
d2 u(x)
du(x) dv(x)
d2 v(x)
d2 Y (x)
=
v(x)
+
2
+
u(x)
,
dx2
dx2
dx dx
dx2
por lo que Eq. (4.5) se puede escribir como


d2 u(x)
dv(x)
du(x)
v(x) + 2
+ P (x)v(x)
2
dx
dx
dx

 2
dv(x)
d v(x)
+ P (x)
+ Q(x)v(x) u(x) = 0.
+
2
dx
dx

(4.15)
(4.16)

(4.17)

Si pedimos que
2

dv(x)
+ P (x)v(x) = 0,
dx

(4.18)

se obtiene,
P (x)v(x)
dv(x)
=
,
dx
2

d2 v(x)
=
dx2



1 dP (x) P 2 (x)
v(x).

+
2 dx
4

Sustituyendo estos resultados en Eq. (4.17) se llega a




d2 u(x)
P 2(x) 1 dP (x)
u(x) = 0.
+ Q(x)

dx2
4
2 dx
64

(4.19)

(4.20)

A esta ecuacion se le llama forma norma de Eq. (4.5). Note que la solucion de
Eq. (4.18) es
1

v(x) = ce 2

dxP (x)

c = constante

(4.21)

y esta funcion nunca se anula. As la informacion de los ceros de Y (x) esta contenida en u(x). Por lo tanto, para estudiar los ceros de las soluciones de Eq.
(4.5) es mas conveniente estudiar su forma normal (4.20) .
Notablemente la ecuacion normal Eq. (4.20) es un caso particular de
d2 Y (x)
+ q(x)Y (x) = 0.
dx2

(4.22)

Por lo tanto, para estudiar los ceros de las soluciones de la ecuacion diferencial
Eq. (4.5) basta estudiar los ceros de la ecuacion diferencial Eq. (4.22). Antes de
entrar en detalles formales observemos que Eq. (4.22) se puede escribir como
d2 Y (x)
= q(x)Y (x)
dx2

(4.23)

que se puede ver como la segunda ley de Newton donde Y (x) representa la
posicion de una partcula y q(x) una fuerza que cambia punto a punto.
Primero veamos un caso sencillo. Supongamos que q(x) = , con una
constante, en este caso Eq. (4.23) toma la forma
d2 Y (x)
= Y (x),
dx2

(4.24)

que es la segunda ley de Newton con una fuerza constante centrada en el origen. Si > 0, la fuerza es atractiva y una partcula bajo su influencia pasa
una cantidad infinita de veces por el cero. Es decir, si > 0 las soluciones de
Eq. (4.24) tienen un n
umero infinito de ceros. Ahora, si < 0 tenemos una
fuerza repulsiva y una partcula bajo su influencia a lo mas puede pasar una
vez por el cero. Por lo tanto podemos, afirmar que, si < 0 las soluciones de
Eq. (4.24) tienen a lo mas un cero.
Ahora veamos un caso mas general donde q(x) tiene signo definido. Primero supongamos que q(x) < 0 para cualquier x positiva. Entonces afirmamos
que la soluciones de Eq. (4.22) a lo mas tienen un cero. Para demostrar esta
afirmacion, primero notemos que, desde el punto de vista fsico Eq. (4.23) representa una partcula bajo una fuerza repulsiva. Por lo que, si existe x0 tal
65

que Y (x0 ) = 0, la partcula no puede regresar a la posicion Y (x0 ) = 0. Por lo


tanto, si q(x) < 0 las soluciones de Eq. (4.22) a lo mas tienen un cero.
Si q(x) > 0, podemos afirmar que la soluciones de Eq. (4.22) tiene un
n
umero infinito de ceros. Primero notemos que, desde el punto de vista fsico, la ecuacion Eq. (4.23) representa una partcula bajo una fuerza atractiva.
Supongamos que Y (x) es una solucion con un n
umero finito de cero. Si es
el maximo de los ceros, entonces si x > la posicion Y (x) debe tener signo
defindio. Ahora, como la fuerza es tractiva, la partcula debe regresar de nuevo
a la posicion que tena en , es decir debe regresar a cero. Esto implica que
debe existir x1 > donde Y (x1 ) = 0. Por lo tanto, no es el maximo de los
ceros de Y (x) y esta funcion no puede tener un n
umero finito de ceros.
Otra forma de mostrar esta afirmacion es la siguiente, como es el maximo
de los ceros de Y (x), entonces si x > , la funcion Y (x) tiene signo definido.
De Eq. (4.23) se puede observar que si Y (x) > 0, entonces la segunda derivada
es negativa, lo que quiere decir que la taza de crecimiento disminuye, es decir
Y (x) decrece y eventualmente llega a cero. Que contradice el hecho de que
sea el maximo de los ceros de Y (x). Ahora si Y (x) < 0, entonces de Eq. (4.23)
se puede observar que la segunda derivada es positiva, lo que quiere decir que
la taza de crecimiento aumenta. Por lo tanto, Y (x) crece y eventualmente llega a cero. Esto contradice el hecho de que sea el maximo de los cero de Y (x).
Tambien podemos afirmar que en un intervalo cerrado y acotado las soluciones de Eq. (4.23) solo pueden tener un n
umero finito de ceros. Para probar
esta afirmacion recordemos el principio de Weierstrass, el cual no dice que una
sucesion acotada de n
umeros reales tiene una subsucesion convergente. Ahora, supongamos que Y (x) es solucion no trivial de Eq. (4.23) y que tiene un
n
umero infinito de ceros en el intervalo [a, b]. Con ese conjunto infinito de ceros se puede formar una sucesion acotada. Por lo que existe una subsucesion,
{xi }
i=0 , de ceros de Y (x) que converge en un punto x0 de [a, b]. Como Y (x) es
continua, se debe cumplir Y (x0 ) = 0, ademas
dY (x)
00
Y (xi ) Y (x0 )
= lm
= 0.
= lm
i
i
dx x0
xi x0
xi x0

(4.25)



As, tenemos una solucion de Eq. (4.23) que cumple Y (x0 ) = 0, dYdx(x)

x0

= 0,

por el teorema de unicidad, este resultado implica que Y (x) = 0. Esto es absurdo, pues supusimos que Y (x) es una solucion no trivial de Eq. (4.23). As,
en un intervalo cerrado y acotado las soluciones de Eq. (4.23) solo puede tener
66

un n
umero finito de ceros, que implica que los ceros de Y (x) deben formar un
conjunto numerable.

4.5.

Teorema de comparaci
on de Sturm

Ahora, supongamos que q(x) < q(x) y que Y (x) y Y (x) son soluciones de
las ecuaciones
d2 Y (x)
+ q(x)Y (x) = 0,
dx2
d2 Y (x)
+ q(x)Y (x) = 0.
dx2

(4.26)
(4.27)

Entonces se puede afirmar que Y (x) tiene un cero entre dos cero consecutivos
de Y (x). A esta afirmacion se le llama el Teorema de Comparaci
on de
Sturm, para su demostracion ocuparemos el Wronskiano
dY (x) dY (x)
Y (x).

W (Y, Y )(x) = Y (x)


dx
dx

(4.28)

Se puede probar que considerando Eq. (4.26) y Eq. (4.27) se encuentra


dW (Y, Y )(x)
d2 Y (x) d2 Y (x)
= Y (x)

Y (x) = (q(x) q(x)) Y (x)Y (x).(4.29)


dx
dx2
dx2
Ahora, supongamos que a1 , a2 son ceros consecutivos de Y (x). Sin perdida de
generalidad, podemos suponer que Y (x) > 0 en (a1 , a2 ), esto implica

Tambien se cumple

dY (x)
>0
dx a1

W (Y, Y )(a1 ) = Y (a1 )

dY (x)
,
dx a1

dY (x)
< 0.
dx a2
W (Y, Y )(a2 ) = Y (a2 )

(4.30)

dY (x)
. (4.31)
dx a2

Y )(x)
De Eq. (4.29) es claro que el signo de dW (Y,
en [a1 , a2 ] solo depende
dx
del signo de Y (x). Supongamos que Y (x) no tiene ceros en ese intervalo,
si Y (x) > 0 entonces (q(x) q(x)) Y (x)Y (x) > 0. Note que al integrar Eq.
(4.29) se encuentra que W (a2 ) > W (a1 ). Mientras que de Eq. (4.31) se tiene W (a1 ) > 0 y W (a2 ) < 0, lo cual es absurdo. As, Y (x) no puede tener

67

signo positivo en el intervalo [a1 , a2 ]. Ahora, si Y (x) < 0 en [a1 , a2 ], entonces (q(x) q(x)) Y (x)Y (x) < 0 y al integrar Eq. (4.29) se encuentra que
W (a2 ) < W (a1 ). Pero de Eq. (4.31) se tiene W (a1 ) < W (a2 ), lo cual es
absurdo. As, Y (x) no puede tener solo signo negativo en el intervalo [a1 , a2 ].
Esto implica que debe cambiar de signo en el intervalo [a1 , a2 ] y por lo tanto
debe tener un cero en ese intervalo.
Por ejemplo, supongamos que tenemos las ecuaciones
d2 Y (x)
+ q(x)Y (x) = 0,
dx2
d2 Y (x)
+ k 2 Y (x) = 0,
2
dx

(4.32)
k = constante,

(4.33)

2
y se cumple
h q(x) > ki . Como las soluciones de Eq. (4.33) tienen ceros en los
, podemos afirmar que las soluciones de Eq. (4.32) tam, (n+1)
intervalos n
k
k
bien tienen ceros en esos intervalos.

Los resultados que hemos visto nos sirven para estudiar los ceros de las
soluciones de la ecuacion de Bessel


d2 Y (x) 1 dY (x)
2
(4.34)
+
+ 1 2 Y (x) = 0,
dx2
x dx
x
a las soluciones de esta ecuacion se les llaman funciones de Bessel. En este caso
la forma normal es
d2 u(x)
+ q(x)u(x) = 0,
dx2

(4.35)

con
q(x) = 1 +

1 4 2
.
4x2

(4.36)

Note que si x > ( 4 2 1)/2, se tiene q(x) > 0. Por lo tanto, las funciones de
Bessel tienen un n
umero infinito de ceros.
Las funciones de Bessel las podemos comparar con las soluciones de la
ecuacion
d2 u(x)
+ u(x) = 0,
dx2
68

(4.37)

cuyas soluciones son {sin x, cos x}. La distancia entre dos ceros consecutivos
para estas funciones es .
Ahora, si 12 < 21 , se cumple
1 4 2
.
(4.38)
4x2
Entonces cada intervalo de longitud tiene al menos un cero de las soluciones
de la ecuacion de Bessel. Para el caso = 21 , la ecuacion normal de Bessel Eq.
(4.35) se reduce a Eq. (4.37) y la distancia entre los ceros es exactamente .
Ahora, si 21 < , se cumple
1<1+

1+

1 4 2
< 1, .
4x2

(4.39)

Esto implica que entre dos ceros sucesivos de las soluciones de Eq. (4.37) hay
a lo mas un cero de las funciones de Bessel. En efecto, supongamos que 1
y 2 son ceros sucesivos de Eq. (4.37) y que en (1 , 2 ) hay dos ceros de las
funciones de Bessel. Como se cumple Eq. (4.39), debe haber un cero de las
soluciones de Eq. (4.37), lo cual es absurdo, pues supusimos que 1 y 2 son
ceros sucesivos de las soluciones de Eq. (4.37). Por lo tanto, si 21 < , en cada
intervalo de longitud hay a lo mas un cero de las funciones de Bessel.

4.6.

Problema de Sturm-Liuoville

Una ecuacion diferencial que surge en diferentes problemas de fsica y matematicas es la ecuacion de Sturm-Liuoville:


d
d(x)
p(x)
+ (q(x) + r(x)) (x) = 0.
(4.40)
dx
dx
Donde q(x), p(x), r(x) son funciones reales, q(x) es una funcion positiva en el
intervalo (a, b) y es una constante real. El problema consiste en encontrar
las constantes y funciones (x) que resuelven Eq. (4.40).
La ecuacion Eq. (4.40) se suele resolver con las condiciones de Dirichlet
(a) = (b) = 0,

(4.41)

o las de Neumann
d(x)
d(x)
=
= 0.


dx x=a
dx x=b
69

(4.42)

Si no se cumple ninguna de estas condiciones se puede pedir que p(x) cumpla


p(a) = p(b) = 0.

(4.43)

La afirmacion importante aqu es que si 1 (x) es solucion de Eq. (4.40) con


1 y 2 (x) es solucion de Eq. (4.40) con 2 y ademas se satisfacen una de las
condiciones Eqs. (6.72)-(4.43), entonces se cumple
Z b
(1 2 )
dxq(x)2 (x)1 (x) = 0.
a

Para probar esta afirmacion ocuparemos que se satisface




d1 (x)
d
p(x)
+ (1 q(x) + r(x)) 1 (x) = 0,
dx
dx


d
d2 (x)
p(x)
+ (2 q(x) + r(x)) 2 (x) = 0.
dx
dx
El complejo conjugado de la segunda ecuacion es


d2 (x)
d
p(x)
+ (2 q(x) + r(x)) 2 (x) = 0.
dx
dx

(4.44)

(4.45)

Ademas, multiplicando 2 (x) por Eq. (4.44) y 1 (x) por Eq. (4.45) se llega
a


d
d1 (x)

2 (x)
p(x)
+ (1 q(x) + r(x)) 2 (x)1 (x) = 0,
dx
dx


d2 (x)
d
p(x)
+ (2 q(x) + r(x)) 1 (x)2 (x) = 0.
1 (x)
dx
dx
Adicionalmente, considerando
f (x)

dg(x)
df (x)g(x) df (x)
=

g(x)
dx
dx
dx

se encuentra


d (x) d1 (x)
d
d1 (x)

p(x)2 (x)
p(x) 2
dx
dx
dx
dx


+ 1 q(x) + r(x) 2 (x)1 (x) = 0,


d2 (x)
d1 (x) d2 (x)
d
p(x)1 (x)
p(x)
dx
dx
dx
dx


+ 2 q(x) + r(x) 2 (x)1 (x) = 0.
70

Restando estas dos u


ltimas ecuaciones se llega a



d2 (x)
d1 (x)
d

p(x) 2 (x)
1 (x)
dx
dx
dx

+ (1 2 ) q(x)2 (x)1 (x) = 0.


Integrando esta ecuacion en el intervalo [a, b], se obtiene


 b

d2 (x)
d1 (x)


p(x) 2 (x)
1 (x)

dx
dx
a
Z b
+ (1 2 )
dxq(x)2 (x)1 (x) = 0.
a

Suponiendo que las soluciones satisfacen las condiciones de Dirichlet, de Neumann o bien que p(x) se anule en la frontera, se consigue
Z b
(1 2 )
dxq(x)2 (x)1 (x) = 0,
a

que es lo que queriamos probar.


En particular note que si 1 6= 2 se infiere que
Z b
dxq(x)2 (x)1 (x) = 0,

(4.46)

Ademas, se puede ver que la integral


Z b
dxq(x)1 (x)1 (x) = ,

(4.47)

es positiva, es decir > 0. Por lo que, si < , el conjunto de funciones


(x)

(4.48)

cumplen
Z

dxq(x)1 (x)2 (x) = 1 2 .

(4.49)

Se dice que las soluciones de Eq. (4.40) que satisfacen alguna de las condiciones Eqs. (6.72)-(4.43) son un conjunto de funciones ortonormales con funcion
de peso q(x). En los proximos captulos veremos varias aplicaciones de este
resultado.
71

Captulo 5
Funciones de Bessel
En este captulo estudiaremos la ecuacion de Bessel y sus soluciones, las
cuales se llaman funciones de Bessel. Las funciones de Bessel tienen aplicaciones en diversos problemas de mecanica cuantica, electrodinamica y otras
disciplinas.

5.1.

Ecuaci
on de Bessel

La ecuacion de Bessel es


2
d2 R(z) 1 dR(z)
+
+ 1 2 R(z) = 0,
dz 2
z dz
z

(5.1)

que se puede escribir de la forma


z2


d2 R(z)
dR(z)
2
2
+
z
+
z

R(z) = 0.
dz 2
dz

(5.2)

Para resolver esta ecuacion ocuparemos el Metodo de Frobenius [18], es decir


propondremos soluciones de la forma
X
X
R(z) = z m
an z n =
an z n+m ,
a0 =
6 0.
(5.3)
n0

n0

De donde
2 R(z) =

X
n0

z 2 R(z) = z 2

2 an z n+m = 2 a0 z m 2 a1 z m+1

X
n0

an z n+m =

an z n+m+2 =

n0

72

X
n2

2 an z n+m ,

n2

an2 z n+m ,

X
X
dR(z)
= z
(n + m)an z n+m1 =
(n + m)an z n+m
dz
n0
n0
X
= ma0 z m + (m + 1)a1 z m+1 +
(n + m)an z n+m ,
n2

z2

X
d R(z)
2
=
z
(n + m)(n + m 1)an z n+m2
dz 2
n0
X
=
(n + m)(n + m 1)an z n+m
n0

= m(m 1)a0 z m + (m + 1)ma1 z m+1


X
+
(n + m)(n + m 1)an z n+m .
n2

Considerando estas cuatro igualdades en Eq. (5.2) y tomando en cuenta que


(n + m)(n + m 1) + (n + m) = (n + m)2 ,
se tiene
2


dR(z)
R(z)
2
2
+
z
+
z

R(z) =
dz 2
dz


= a0 2 + m + m(m 1) z m + a1 2 + (m + 1) + (m + 1)m z m+1
i
Xh

2
+
(n + m)(n + m 1) + (n + m) an + an2 z n+m
z

2d

n2



= a0 m2 2 z m + a1 (m + 1)2 2 z m+1
X
 
+
an2 + (n + m)2 2 an z n+m = 0,

(5.4)

n2

que se debe cumplir para cualquier z. Esto implica


a0 (m2 2 ) = 0,

a1 (1 + m)2 2 = 0,

an2 + an (n + m)2 2 = 0.

(5.5)
(5.6)
(5.7)

Como a0 6= 0, Eq. (5.5) induce

m2 = 2 ,

m = ,

(5.8)

introduciendo este resultado en Eq. (5.6) se llega a


a1 = 0.
73

(5.9)

Ademas, considerando
(n + m)2 2 = (n )2 2 = n2 2n + 2 2 = n(n 2) (5.10)
en Eq. (5.7) obtiene
an =

an2
.
n(n 2)

(5.11)

Apartir de esta igualdad y ocupando Eq. (5.9) se infiere que a3 = 0, que a


su vez implica a5 = 0. Es claro que en general a2n+1 = 0. As, los u
nicos an
diferentes de cero son de la forma
a2n =

a2(n1)
()
= 2
a2(n1) .
2n(2n 2)
2 n(n )

(5.12)

Note que hay un problema si es un natural y se considera el signo negativo


en (5.12), despues trataremos esta cuestion. Observe que Eq. (5.12) se puede
escribir como
a2n =
=
=
=
=
..
.
=

()
()(n 1)!(n 1 )!
a2(n1) =
a2(n1)
)
22 n!(n )!



()(n 2)!(n 2 )!
()(n 1)!(n 1 )!
a2(n2)
22 n!(n )!
22 (n 1)!(n 1 )!


()2 (n 2)!(n 2 )!
a2(n2)
222 n!(n )!



()(n 3)!(n 3 )!
()2 (n 2)!(n 2 )!
a2(n3)
222 n!(n )!
2(n 2)!(n 2 )!


()3 (n 3)!(n 3 )!
a2(n3)
223 n!(n )!
22 n(n

()k (n k)!(n k )!
22k n!(n )!

a2(nk) .

(5.13)

El maximo valor que puede tomar k en la expresion anterior es n, entonces


a2n =

()n ()!
a0 ,
22n n!(n )!

(5.14)

tomando
a0 =

1
2 ()!
74

(5.15)

se tiene
a2n =

()n
.
22n n!(n )!

(5.16)

Sustituyendo este resultado en Eq. (5.3) se encuentra


R(z) = z

X
n0

X ()n  z 2n
()n
2n
z
=
,
22n n!(n )!
n!(n

)!
2
n0

(5.17)

que son las llamadas funciones de Bessel. Se puede observar que ocupando la
funcion Gamma, (z), las funciones de Bessel se pueden escribir como
 z 2n
 z  X
(1)n
,
(5.18)
J (z) =
2 n0 (n + 1)(n + + 1) 2
 z  X
 z 2n
(1)n
J (z) =
.
(5.19)
2
(n + 1)(n + 1) 2
n0
Note que si > 0, se cumple J (0) = 0 y J (0) = .
Ahora, para el caso en que es un natural, = m, probaremos que se
cumple
Jm (z) = ()m Jm (z).

(5.20)

Primero notemos que Jm (z) esta bien definida y recordemos que si l es un


natural 1/(l) = 0. Por lo que, el termino 1/(nm+1) es nulo si nm+1 <
0, entonces
 z 2nm
X
(1)n
Jm (z) =
(n + 1)(n m + 1) 2
n0
 z 2nm
X
(1)n
=
(n + 1)(n m + 1) 2
nm
 z 2(n+m)m
X
(1)n+m
=
(n + m + 1)(n + m m + 1) 2
n0
 z 2n+m
X
(1)n
= ()m
(n + m + 1)(n + 1) 2
n0
= ()m Jm (z),

(5.21)

que es lo que queriamos probar. Es decir, si m es natural, Jm (z) es solucion


de la ecuacion de Bessel, pero no es linealmente independientes de Jm (z). Por
75

esta razon en lugar de usar la funciones de Bessel del tipo J (z), > 0, se
suelen ocupar las funciones de Neumman
N (z) =

J (z) cos J (z)


,
sin

(5.22)

o las funciones de Hankel


H(1,2) (z) = J (z) iN (z).

5.2.

(5.23)

Funci
on generatriz

Existe una funcion de la cual se pueden extraer todas las funciones de


Bessel de orden n. A esta funcion se le llama funcion generatriz y es:
X
z
1
e 2 (t t ) =
Jn (z)tn .
(5.24)
nZ

Para probar esta igualdad primero note que


e

zt
2

e 2t

X 1  zt k X tk  z k
=
,
=
k! 2
k! 2
k0
k0


j
X 1 z
X ()j tj  z j
=
=
,
j!
2t
j!
2
j0
j0

estas series implican


e (
z
2

t 1t

!
!
X ()j tj  z j
X tk  z k
) = e e =
k! 2
j!
2
j0
k0
X X tkj ()j  z k+j
=
.
k!j!
2
j0
zt
2

z
2t

k0

Ahora, definamos n = k j, por lo que k = n + j y k + j = 2j + n, con este


cambio de variable se llega a
X X tn ()j  z 2j+n X X ()j  z 2j+n
=
tn
j!(j
+
n)!
2
j!(j + n)! 2
j0
nZ j0
nZ
X
=
tn Jn (z).

e 2 (t t ) =
z

nZ

76

Por lo tanto, se cumple Eq. (5.24). En particular si t = ei se encuentra




z
1
t
= iz sin ,
(5.25)
2
t
de donde
eiz sin =

Jn (z)ein .

(5.26)

nZ

Adicionalmente, como sin( + 2 ) = cos y ei 2 = i, se llega a


X
eiz cos =
(i)n Jn (z)ein ,

(5.27)

nZ

esta es la lamada propiedad de Jacobi-Anger.


Ademas, considerando que si m y n son enteros se tiene
Z
deim ein = 2nm

(5.28)

y recurriendo a Eq. (5.26) se consigue


Z
Z
Z
i(z sin m)
im iz sin
de
=
de
e
=

Jn (z)

nZ

deim

deim ein =

= 2Jm (z),

Jn (z)ein

nZ

Jn (z)2nm

nZ

entonces
1
Jn (z) =
2

dei(z sin n) .

(5.29)

Tomando en cuenta la paridad de las funciones {sin u, cos u} y la formula de


Euler, esta integral toma la forma
Z
1
dei(z sin n)
Jn (z) =
2
Z
1
=
d (cos(z sin n) + i sin(z sin n))
2
Z
2
d cos(z sin n),
(5.30)
=
2 0
77

es decir
1
Jn (z) =

d cos(z sin n).

(5.31)

Esta expresion de las funciones de Bessel fue la que originalmente encontro F.


W. Bessel.

5.3.

Relaciones de recurrencia

Ahora veremos que las funciones de Bessel satisfacen las relaciones de recurrencia
d
(z J (z))
dz

d
z J (z)
 dzn
1 d
(z J (z))
z dz
n


1 d
z J (z)
z dz

= z J1 (z),

(5.32)

= z J+1 (z),

(5.33)

= z n Jn (z),

(5.34)

= ()n z (+n) J+n (z).

(5.35)

Para probar la primera identidad notemos que


z J (z) = z

X
n0

X ()n z 2(n+)
()n z 2n+
=
,
2n+
n!(n + )! 22n+
n!(n
+
)!
2
n0

entonces
X ()n 2(n + ) z 2(n+)1 X
()n
z 2n+1
d (z J (z))
=
=
z
2n+
2n+1
dz
n!(n
+
)!
2
n!(n
+

1)!
2
n0
n0


n
X
2n+1
()
z
= z
= z J1 (z),
n!(n + 1)! 2
n0
por lo tanto se cumple la identidad Eq. (5.32).
Ahora,
z J (z) = z

X
n0

X ()n
z 2n
()n z 2n+
=
,
n!(n + )! 22n+
n!(n + )! 22n+
n0
78

de donde
X ()n 2n z 2n1 X ()n 2n z 2n1
d (z J (z))
=
=
dz
n!(n + )! 22n+
n!(n + )! 22n+
n0
n1
=

X
n0

()n+1 2(n + 1)
z 2n+1
(n + 1)!(n + + 1)! 22n++2

()n
z 2n++1
z
n!(n + + 1)! 22n++1
n0
 z 2n++1
X
()n
= ()z
n!(n + + 1)! 2
n0
= ()

= ()z J+1 (z),

as, se cumple la identidad Eq. (5.33).


Para probar las identidades Eqs. (5.34)-(5.35) ocuparemos induccion. Primero haremos la prueba de Eq. (5.34). Para n = 0 esta igualdad es correcta,
por lo que la base inductiva esta demostrada. Para el paso inductivo debemos
suponer Eq. (5.34) y probar

n+1
1 d
(z J (z)) = z (n+1) J(n+1) (z).
z dz
Note que ocupando la hipotesis inductiva y Eq. (5.32) se tiene
n+1

n


1 d
1 d
1 d

(z J (z)) =
(z J (z))
z dz
z dz
z dz

1 d n
z Jn (z)
=
z dz

1 n
=
z Jn1 (z) = z (n+1) J(n+1) (z)
z

que es lo que queriamos demostrar. As, la igualdad (5.34) es correcta para


cualquier n.

Ahora probaremos Eq. (5.35). Para n = 0 esta igualdad es correcta, por lo


que la base inductiva esta demostrada. Para el paso inductivo debemos suponer
Eq. (5.35) y demostrar la igualdad
n+1


1 d
z J (z) = ()n+1 z (+n+1) J+n+1 (z).
z dz
79

Usando la hipotesis inductiva y Eq. (5.33) se encuentra



n+1

n



1 d
1 d
1 d

z J (z) =
z J (z)
z dz
z dz
z dz

1 d
()n z n J+n (z)
=
z dz

1 d (+n)
z
J+n (z)
= ()n
z dz

1
= ()n () z (+n) J+n+1 (z)
z
n+1 (+n+1)
= () z
J+n+1 (z)
esto es lo que queriamos demostrar. Por lo tanto la igualdad Eq. (5.35) es
valida para cualquier n.
Las identidades Eqs. (5.32)-(5.35) tambien se pueden escribir como
dJ (z)
+ J (z),
dz
z
dJ (z)
J (z),
J+1 (z) =
dz  z
n
1 d
n
Jn (z) = z
(z J (z)) ,
z dz
n


1 d
n +n
z J (z) .
J+n (z) = () z
z dz

(5.36)

J1 (z) =

(5.37)
(5.38)
(5.39)

Estas identidades son importantes para las aplicaciones.

5.4.

Funciones de Bessel de orden n + 12

Las funciones de Bessel de orden (n + 21 ) son particularmente importantes


para las aplicaciones, por lo que vale la pena estudiar sus propiedades. Primero
observemos que ocupando Eq. (5.18) y la serie de Taylor de la funcion sin z se
llega a
 z 2n
(1)n  z 2n  z  12 X
(1)n



=

2 n0 n! n + 12 ! 2
2 n0 n! (2n+1)!
2
22n+1 n!
  12 X
 z  12 X 2(1)n
(1)n 2n+1
2z
1
2n
z =
=
z
2 n0 (2n + 1)!

z n0 (2n + 1)!

J 1 (z) =
2

 z  12 X

80

2
z

 12 X
(1)n 2n+1
z
,
(2n + 1)!
n0

es decir
J 1 (z) =
2

2
z

1/2

sin z.

(5.40)

Ademas, considerando Eq. (5.18) y la serie de Taylor de la funcion cos z, se


obtiene
 z  21 X (1)n  z 2n  z  21 X (1)n
 z 2n



J 1 (z) =
=

2
(2n)!
2
2
2
n! n 12 ! 2
n0
n0 n!
2n
2

1
2 2 X (1)n 2n
z ,
z
(2n)!
n0

n!

(5.41)

por lo que


J 1 (z) =
2

2
z

 12

cos z.

(5.42)

Usando Eqs. (5.39)-(5.40) se encuentra


1
Jn+ 1 (z) = () z (n+ 2 )

  21 
n 

2
sin z
1 d
.

z dz
z

(5.43)

De forma analoga, apelando a (5.39)-(5.40) se llega a


J(n+ 1 )
2

1
(z) = z (n+ 2 )

  21 
n 
2
1 d
cos z 
.

z dz
z

Adicionalmente, ocupando el resultado






1
1
= 0,
sin n +
= ()n ,
cos n +
2
2
se encuentra
N(n+ 1 ) (z) =
2

1
2

J(n+ 1 ) (z)
2

sin n + 21

Jn+ 1 (z) cos n +


2

= ()n+1 J(n+ 1 ) (z),


2

81

(5.44)

(5.45)

es decir
  12 
n 
2
cos z 
1 d
.
N(n+ 1 ) (z) = ()
2

z dz
z

Las funciones de Hankel de orden n + 21 tienen la forma
n+1

(1,2)

(n+ 21 )

entonces

1
z (n+ 2 )

(z) = J(n+ 1 ) (z) iN(n+ 1 ) (z)


2
2
  21 
n 

2
1 d
sin z
n (n+ 21 )
= () z

z dz
z
  12 
n 
1
2
cos z 
1 d
i()n+1 z (n+ 2 )

z dz
z
  21 
n 

2
sin z
1 d
cos z
n (n+ 21 )
= () z
i

z dz
z
z
n 

  12 
cos z i sin z
2
1 d
n+ 12 )
n
(
= () (i)z

z dz
z

  21
n  iz 
1
1 d
2
e
= (i)()n
z (n+ 2 )
,

z dz
z

(1,2)
H n+ 1 (z)
( 2)

  21

n  iz 
2
1 d
e
n+ 12 )
n
(
= (i)()
.
z

z dz
z

Definiremos las funciones esfericas de Bessel como


  12
jl (z) =
J(l+ 1 ) (z),
2
2z
  12
nl (z) =
N(l+ 1 ) (z),
2
2z
  12
(1,2)
(1,2)
H l+ 1 (z),
hl (z) =
( 2)
2z
de donde
l 


sin z
1 d
l
,
jl (z) = (z)
z dz
z
l 

cos z 
1 d
l
,
nl (z) = (z)
z dz
z

l  iz 
1 d
e
(1,2)
l
hl (z) = (i)(z)
.
z dz
z

Estas funciones se usan en mecanica cuantica y electrodinamica.


82

(5.46)

(5.47)

(5.48)

5.5.

Ortonormalidad

En el captulo anterior vimos que cada funcion de Bessel J (z) tienen un


n
umero numerable de races, n , que satisfacen J (n ) = 0. Ocuparemos este
resultado para probar que la integral del producto de dos funciones de Bessel
satisfacen una propiedad que llamaremos de ortonormalidad.
La ecuacion


2
d2 R (x) 1 dR (x)
2
+
+ 2 R (x) = 0,
dx2
x dx
x

(5.49)

con el cambio de variable z = x se convierte en la ecuacion de Bessel Eq.


(5.1) que tiene la soluciones J (z), por lo que R (x) = J (x). Ademas, Eq.
(5.49) se puede escribir como

 

1 d
dR (x)
2
2
x
+ 2 R (x) = 0,
(5.50)
x dx
dx
x
es decir

 

dR (x)
2
d
2
x
+ x
R (x) = 0.
dx
dx
x
En particular si = n se tiene la ecuacion

 

2
d
dR (x)
2
x
+ xn
R (x) = 0,
dx
dx
x

(5.51)

(5.52)

que tiene las soluciones R (x) = J (n x). Note que esta ecuacion es del tipo
Sturm-Liuoville Eq. (4.40) y si 0, se cumplen las condiciones de borde de
Dirichlet
R (0) = R (1) = 0.

(5.53)

Por lo tanto, usando el teorema de Sturm-Liuoville, mostrado en el captulo


anterior, se llega a
Z 1
2
2
(n m )
dxxJ (n x)J (m x) = 0.
(5.54)
0

En particular si n 6= m , se debe cumplir


Z 1
dxxJ (n x)J (m x) = 0,
0

83

(5.55)

de donde
Z

dxxJ (n x)J (m x) = nm a2 ,

a = constante.

(5.56)

A esta propiedad se le llamada de ortogonalidad, se dice que las funciones de


Bessel son ortogonales con peso x.
(x)
Para calcular la constante a multilplicaremos Eq. (5.49) por 2x2 dRdx
, de
donde
2

2
 dR (x)
dR (x)
2 dR (x) d R (x)
0 = 2x
+ 2x
R (x)
+ x2 2 2 2
2
dx
dx
dx
dx

2
2

 d
dR (x)
dR (x)
2 d
(R (x))2
+ 2x
+ x2 2 2
= x
dx
dx
dx
dx

2 !
d
dR (x)
d
d
=
x2
2 (R (x))2 + x2 2 (R (x))2 ,
dx
dx
dx
dx

ocupando que
x2
se tiene
d
dx

x2


d
d
x2 (R (x))2 2x (R (x))2 ,
(R (x))2 =
dx
dx

dR (x)
dx

2

+ (x2 2 2 ) (R (x))2

22x (R (x))2 = 0. (5.57)

Por lo tanto,
22

dxx (R (x))2 =

x2

dR (x)
dx

2

!
1
+ (x2 2 2 ) (R (x))2 . (5.58)
0

En particular, como R (x) = J (x), si > 0 y = n con J (n ) = 0, se


tiene
2
2


Z 1
dJ (n x)
dJ (n x)
2
2
2
= n
2n
dxx (J (n x)) =

, (5.59)
dx
d(n x)
0
x=1
x=1
considerando la identidad Eq. (5.37) se llega a
Z 1
1
dxx (J (n x))2 = (J+1 (n ))2 .
2
0
84

(5.60)

Por lo que, si > 0 y n , m son raices de la funcion de Bessel J (z) se cumple


Z

dzzJ (n z)J (m z) =

nm
(J+1 (n ))2 .
2

(5.61)

Entonces, para cualquier funcion f (z) definida en el intervalo (0, 1) se puede


expresar en terminos de la funcion de Bessel J (n z). En efecto, supongamos
que
X
f (z) =
am J (m z),
(5.62)
m0

entonces
Z 1

dzzJ (n z)f (z) =

dzzJ (n z)

am J (m z)

m0

am

am

m0

m0

dzzJ (n z)J (m z)
0

nm
an
(J+1 (n ))2 =
(J+1 (n ))2 ,(5.63)
2
2

por lo que
2
an =
(J+1 (n ))2

dzzJ (n z)f (z).

(5.64)

En la proxima seccion veremos una aplicacion de este resultado.

5.6.

La ecuaci
on de Laplace en coordenadas
cilndricas

Ahora veremos algunas aplicaciones de las funciones de Bessel.


Primero estudiaremos las soluciones de la ecuacion de Laplace en coordenadas cilndricas


(, , z)
1 2 (, , z) 2 (, , z)
1
2

+ 2
+
= 0.
(, , z) =

2
z 2

85

Para resolver esta ecuacion propondremos (, , z) = R()()Z(z), de donde




1
R()()Z(z)
1 2 R()()Z(z)
2
(, , z) =

+ 2

2
2 R()()Z(z)
+
z 2 

()Z(z)
R()
R()Z(z) 2 ()
=

2
2
2 Z(z)
= 0,
+R()()
z 2
por lo que
1
2 (, , z)
=
(, , z)
R()



R()
1 2 ()
1 2 Z(z)

+ 2
+
= 0. (5.65)

() 2
Z(z) z 2

Entonces

2 (, , z)
(, , z)

=
z

1 2 Z(z)
Z(z) z 2

= 0,

que induce
1 2 Z(z)
= 2 ,
Z(z) z 2

2 Z(z)
= 2 Z(z),
z 2

(5.66)

la solucion general a esta ecuacion es


Z(z) = a ez + b ez .

(5.67)

Sustituyendo (5.66) en (5.65) se tiene




2 (, , z)
R()
1 2 ()
1

+ 2
=
+ 2 = 0,
2
(, , z)
R()

()
as





2

1 2 ()
2 (, , z)

=
= 0,
(, , z)
() 2

(5.68)

que implica
1 2 ()
= 2 ,
() 2

2 ()
= 2 (),
2
86

(5.69)

cuya solucion general es


() = A ei + B ei .

(5.70)

Introduciendo (5.69) en (5.65) se llega a




1
R()
2

2 + 2 = 0,
R()

es decir,
1


 

R()
2
2

+ 2 R() = 0.

Con el cambio de variable = se encuentra



 

dR()
2
1 d

+ 1 2 R() = 0,
d
d

(5.71)

que es la ecuacion de Bessel. De donde


R() = C J () + D J ().
Por lo que las soluciones de la ecuacion de Laplace en coordenadas cilndricas
son de la forma


(, , z), = a ez + b ez A ei + B ei (C J () + D J ()) .

Las constantes a , b , A , B , C , D de determina seg


un las condiciones de
borde del problema.
Por ejemplo, si en = 0 el potencial debe ser finito, como la funcion de
Bessel J () diverge en = 0, debe ocurrir que D = 0. En ese caso la
solucion es de la forma


(, , z), = a ez + b ez A ei + B ei J ().

Ademas, para muchos problemas es importante que (, , z) sea una funcion


univaluada. As, como (, , z) y (, + 2, z) representan el mismo punto, se
debe cumplir
(, + 2, z) = (, , z),

(5.72)

en consecuencia
( + 2) = A ei(+2) + B ei(+2) = () = A ei + B ei , (5.73)
87

que induce
ei2 = 1.

(5.74)

Por lo tanto, debe ser un n


umero natural n. Esto implica que R() debe ser
de la forma
R() = Cn Jn () + Dn Jn ().

(5.75)

As, para este caso se tiene las soluciones




,n (, , z) = a ez + b ez An ein + Bn ein (Cn Jn () + Dn Jn ()) .
Por lo tanto, si el potencial es univaluado y ademas finito en el origen, debe
ser una combinacion lineal de potenciales de la forma


,n (, , z) = a ez + b ez An ein + Bn ein Jn ().

5.6.1.

Ejemplo

Veamos un problema de electrostatica.


y altura h. La tapa inferior
Supongamos que tenemos un cilindro de radio R
del cilindro y la superficie lateral tiene pontencial cero, mientras que la tapa
superior tiene potencial V (, ). Calcularemos el potencial electrico en el interior del cilindro suponiendo que no hay cargas en esa region.
Por simplicidad, pondremos el eje del cilindro en el eje z y la tapa inferior
la pondremos sobre el plano x y. En este sistema las condiciones de borde
son
(, , 0) = 0,

, z) = 0,
(R,

(, , h) = V (, ).

(5.76)

Como no hay fuentes dentro del cilindro, el potencial deber ser finito en el
interior. Ademas como el potencial debe ser univaluado, este debe ser de la
forma


,n (, , z) = a ez + b ez An ein + Bn ein Jn ().
R() = Cn Jn ().

(5.77)

, z) = 0,
Adicionalmente, como se debe cumplir la condicion de borde (R,
se tiene que
= Cn Jn (R)
= 0,
R(R)
88

(5.78)

que implica
= nm ,
R

nm
.

(5.79)

Donde nm es la raz m-esima la funcion de Bessel de orden n. As, la funciones


R() son de la forma


nm
R() = Cn Jn
.
(5.80)

R
Note que Eq. (5.79) implica que Z(z) tome la forma
Z(z) = anm e

nm z

+ bnm e

nm z

(5.81)

Mientras que la condicion de borde (, , 0) = 0 implica que


Z(0) = (anm + bnm ) = 0,

(5.82)

por lo tanto,


Z(z) = anm e

nm z

z
nm

= Anm sinh

nm z

(5.83)

As, la solucion mas general de la ecuacion de Laplace que satisface las condi , z) = 0, es
ciones de borde (, , 0) = (R,

 

XX
nm z
nm
(, , z) =
sinh
Jn
(Anm cos n + Bnm sin n) .

R
R
n0 m0
Para determinar los coeficientes Anm , Bnm debemos imponer la condicion de
borde faltante:
(, , h) = V (, )

 

XX
nm h
nm
=
sinh
Jn
(Anm cos n + Bnm sin n) .

R
R
n0 m0
Ahora, se puede probar que si k y l son naturales se cumplen las integrales
Z 2
Z 2
Z 2
d cos k cos l =
d sin k sin l = kl ,
d cos k sin l = 0,
0

89

por lo que, usando Eq. (5.61), se encuentra






Z 2
Z 1  
XX
kl
nm h

d
sin kJk
V (, ) =
sinh
Bnm
d

R
R
R
0
0
n0 m0
 

Z 2
Z 1   
kl
nm

Jk
Jn

d sin k sin n
d

R
R
R
0
0








Z
1
XX
nm h
kl
nm

=
sinh
Bnm kn
Jk
Jn
d

R
R
R
R
0
n0 m0

 


Z 1   
X
kl
km

km h
Bkm
Jk
Jk
d
=
sinh

R
R
R
R
0
m0




X
km h
1
kl h
2
=
sinh
Bkm lm (Jk+1(kl ) = sinh
Bkl (Jk+1 (kl ))2 ,

2
R
R
m0
entonces
Bkl =

sinh

kl h

2


(Jk+1 (kl )2

 



kl
d
sin kJk
V (, ).

R
R

De la misma forma se obtiene




Z 2
Z 1  

2
kl


d
d
Akl =
cos kJk
V (, ).

kl h
R
R
0
sinh R (Jk+1 (kl ))2 0

5.7.

Ecuaciones tipo Bessel

Existen varias ecuaciones que se pueden reducir a la ecuacion de Bessel.


Por ejemplo, si R(z) es solucion de la ecuacion de Bessel, la funcion
u(z) = z c R(az b )
es una solucion de la ecuacion

d2 u(z)
du(z)
z2
+ (2c + 1)z
+ a2 b2 z 2b + c2 2 b2 u(z) = 0.
(5.84)
2
dz
dz
Para probar esta afirmacion tomaremos el cambio de variable w = az b , de
donde
 w  1b
,
(5.85)
z =
a
z
z 1b
dz
=
=
,
(5.86)
dw
bw
ba
R(w) = z c u(z).
90

Por lo que

w 2 2 R(w) =
dR(w)
=
dw

=
=
dR(w)
=
dw
d2 R(w)
=
dw 2

w2

d2 R(w)
=
dw 2



zc
a2 z 2b 2 z c u(z) = 2 a2 b2 z 2b 2 b2 u(z),
b
d c
dz d c
(z u(z)) =
(z u(z))
dw  
dw dz


z 1b
c1
c du(z)
cz u(z) + z
ab
dz


1
cb
cb+1 du(z)
cz u(z) + z
ab
dz




c
du(z)
zc
du(z)
z
cu(z) + z
= 2 cbu(z) + zb
b
dz
b
dz
 

1
du(z)
dz d
cz cb u(z) + z cb+1
dw dz ab
dz

du(z)
1
c(c b)z cb1 u(z) + (2c b + 1)z cb
ab
dz

2
d u(z)
+z cb+1
dz 2


2
du(z)
zc
2 d u(z)
c(c b)u(z) + (2c + 1 b)z
.
+z
b2
dz
dz 2

De donde, como R(w) satisface la ecuacion de Bessel, se encuentra


0 = w2
zc
b2
zc
+ 2
b
zc
= 2
b
=


d2 R(w)
dR(w)
2
2
+
w
+
w

R(w)
2
dw
dw

2
du(z)
2 d u(z)
c(c b)u(z) + (2c + 1 b)z
+z
dz
dz 2



zc
du(z)
+ 2 a2 b2 z 2b 2 b2 u(z)
cbu(z) + zb
dz
b


2

du(z)
2 d u(z)
2 2 2b
2
2 2
z
+ (2c + 1)z
+ a b z + c b u(z) = 0.
dz 2
dz

Lo que implica que la funcion u(z) es solucion de Eq. (5.84). Este resultado
tiene varias aplicaciones. Por ejemplo, consideremos la ecuacion de Airy
d2 u(z)
+ zu(z) = 0.
dz 2

(5.87)

Note que si
1
c= ,
2

3
b= ,
2

2
a= ,
3
91

1
3

(5.88)

Eq. (5.84) se convierte en Eq. (5.87). Por lo tanto, la solucion general de la


ecuacion de Airy es
!
!!
3
3
1
2|z| 2
2|z| 2
u(z) = |z| 2 AJ 1
+ BJ 1
,
(5.89)
3
3
3
3
con A y B constantes.

5.7.1.

Partcula cu
antica en una fuerza constante

La ecuacion de Schrodinger para una partcula en una fuerza constante, F,


es


~2 2
F x (x) = E(x).

2m x2

(5.90)

Con el cambio de variable


z=

2mF
~2


 13 
E
x+
F

E
,
F

=
x

(5.91)

se obtiene
x=z

~2
2mF

 31

2mF
~2

 31

,
x

por lo que Eq. (5.90) toma la forma


 2


+ z (z) = 0,
z 2
que es la ecuacion de Airy. Entonces, considerando (5.89), se tiene
1 
3 !
1

1

2
8mF 2
E 2
E
2mF 3
x +

1
AJ
x
+
(x) =





3
~2
F
9~2
F
3! 
1

2
8mF 2
E
+BJ 1 2 x +
3
9~
F

que es la funcion de onda del sistema.

92

(5.92)

(5.93)

(5.94)

5.8.

Mec
anica cu
antica conforme

La ecuacion de Schrodinger para la llamada cuantica conforme es [20, 21]




(x, t)
~2 2
g
i~
=

+
(x, t).
(5.95)
t
2m x2 x2
Este sistema tiene aplicaciones en diferentes areas de la fsica. En este caso
tomaremos la propuesta
Et

(x, t) = ei ~ (x),

(5.96)

de donde (5.95) toma la forma




~2 2
g
E(x) =

+
(x),
2m x2 x2
la cual se puede escribir como
 2


2mE
2mg

+
2 2
(x) = 0.
x2
~2
~x
Se puede observar que tomando las constantes
r
r
2mE
1 2mg
1
a=
,

+ 2
c = , b = 1,
2
~2
4
~
en la ecuacion (5.84) se obtiene (5.87). Por lo tanto,
!
r
1
2mE
x .
(x) = A|x| 2 Jq 1 + 2mg
~2
4
~2

(5.97)

(5.98)

(5.99)

(5.100)

con A una constante. Entonces, la funcion de onda de la mecanica cuantica


conforme es
!
r
1
2mE
i Et
(x, t) = Ae ~ |x| 2 Jq 1 + 2mg
x .
(5.101)
~2
4
~2

5.9.

Ecuaci
on de Fick-Jacobs

En diferentes sistemas es importante el estudio de difusion de partculas


en un medio. El modelo de disfusion mas simple esta dado por la ecuacion de
Fick
C(x, t)
2 C(x, t)
=D
.
t
x2
93

(5.102)

Aqu C(x, t) es la concentracion de partculas y D es el coeficiente de difusion.


Si D es una constante, la ecuacion de Fick es equivalente a la ecuacion de calor
(14.36), as la ecuacion de Fick se puede resolver con las tecnicas usadas para resolver esta u
ltima ecuacion. Mas adelante se estudiara la ecuacion de calor.
Cuando la difusion se da en canales la geometra de este es importante y la
ecuacion de Fick ya no es valida. Para el caso en que el canal tiene la forma de
una superficie de revolucion, donde el area de la seccion transversal es A(x), la
ecuacion de Fick se debe cambiar por la llamada ecuacion de Fick-Jacobs [22]



C(x, t)
C(x, t)

D(x)A(x)
.
(5.103)
=
t
x
x
A(x)
Claramente esta ecuacion es mas sofisticada que la ecuacion de Fick (5.102).
Existen caso en los cuales la ecuacion de Fick-Jacobs se puede escribir como
una ecuacion de Schrodinger. Por ejemplo, si
D(x) = D0 = constante,
usando la propuesta
C(x, t) =
se obtiene

p
A(x)(x, t)

"

2
D0
(x, t)
= D0 2 p
t
x
2 A(x) x

A(x)
p
A(x) x
1

!#

(x, t).

(5.104)

Por lo tanto proponiendo la solucion (x, t) = eEt (x), se llega a la ecuacion


de Schrodinger
E(x) = H(x),

(5.105)

con

2
D0
H = D0 2 + p
x
2 A(x) x

1 A(x)
p
A(x) x

(5.106)

Para el caso particular de canales con seccion transversal de la forma


A(x) = (a + x)2

(5.107)

el Hamiltoniano es
g
2
,
H = D0 2 +
x
(a + x)2
94

g = 2 D0 ( 1) .

(5.108)

Por lo que, usando el cambio de variable


z = a + x,

(5.109)

se llega a
H = D0 2

2
g
+ 2,
2
z
z

g = 2 D0 ( 1) .

Por lo tanto, la ecuacion a resolver es




2
g
2
+
(x),
E(x) = D0
z 2 z 2

g = 2 D0 ( 1) ,

(5.110)

(5.111)

que tiene la misma forma que la ecuacion (5.97). Entonces, usando los resultados de la seccion previa, se encuentra que concentracion de partculas esta dada
por
!
r
2+1
E
C (x, t) = BeEt (a + x) 2 J( 21 )
(a + x) , (5.112)
2
2 D0
donde B es una constante.

95

Captulo 6

Elementos de Algebra
Lineal
En este captulo veremos algunas herramientas del algebra lineal. Este
captulo es importante para entender los captulos posteriores. Tambien es importante para entender los principios de la mecanica cuantica, as como para
resolver ecuaciones diferenciales.

6.1.

Espacios vectoriales

Un espacio vectorial se define con un conjunto V, un campo K y dos


operaciones
+ : V V V,
: K V V.

(6.1)
(6.2)

Esta operaciones deben cumplir que si u, v pertenecen a V, entonces u + v


pertenece a V y si pertenece a K, entonces (, v) = v pertenece a V.
Ademas, se debe cumplir
1)
2)
3)
4)
5)
6)
7)
8)

u, v V,
u + v = v + u,
u, v, w V,
(u + v) + w = u + (v + w),
u, v V, , K, (u + v) = u + v,
v V, , K,
( + )v = v + v,
v V, , K,
()v = (v),
0 V tal que v V,
0 + v = v,
v V, v V, tal que v + (v) = 0,
v V, ev = v,

aqu e representa el neutro multiplicativo de K.

96

(6.3)
(6.4)
(6.5)
(6.6)
(6.7)
(6.8)
(6.9)
(6.10)

6.2.

Ejemplos

Ahora, veremos algunos ejemplos de espacios vectoriales. El lector puede


verificar que los siguientes espacios cumplen las reglas de espacios vectoriales.

6.2.1.

Cn

Supongamos que C es el conjunto de los n


umeros complejos. Un ejemplo
de espacio vectorial son los arreglos de la forma
Cn = {(c1 , c2 , , cn ), ci C}.

(6.11)

(c1 , c2 , , cn ),

(6.12)

Si se tienen dos vectores de Cn ,

(d1 , d2 , , dn )

la suma se define como


(c1 + d1 , c2 + d2 , , cn + dn ).

(6.13)

Mientras que si es un n
umero complejo, el producto por un escalar se define
como
(c1 , c2 , , cn ) = (c1 , c2 , , cn ).

6.2.2.

(6.14)

Sucesiones

Una generalizacion de Cn es tomar el lmite n , que nos da el espacio


de sucesiones
{an }
n=0 ,

an C.

Para este caso debemos pedir que


X
|an |2 < .

(6.15)

(6.16)

n0

As, si se tienen dos sucesiones


{an }
n=0 ,

{bn }
n=0 ,

an , bn C

(6.17)

la suma se define como


{an + bn }
n=0 .

(6.18)

Mientras que si es un n
umero complejo, el producto por un escalar se define
como

{an }
n=0 = {an }n=0 .

97

(6.19)

6.2.3.

Matrices

Otra generalizacion de Cn
complejas

M11 M12 M1m


M21 M22 M2m

M =
..
.. . .
..

.
.
.
.
Mn1 Mn2 Mnm

Si se tienen dos matrices

M =

M11 M12
M21 M22
..
..
.
.
Mn1 Mn2

es el espacio de matrices M(nm) de entradas

M1m
M2m

.. ,
..
.
.
Mnm

Mij C,

N =

i = 1, n, j = 1, , m.

N11 M12
N21 M22
..
..
.
.
Nn1 Nn2

N1m
N2m

.. ,(6.20)
..
.
.
Nnm

La suma se define como

M11 + N11 M12 + N12 M1m + N1m


M21 + N21 M22 + N22 M2m + N2m

M +N =
..
.. . .
..

.
.
.
.
Mn1 + Nn1 Mn2 + Nn2 Mnm + Nnm
Mientras que el producto por un

M11
M21

M =
..

.
Mn1

6.2.4.

escalar, C, se define como

M12 M1m
M22 M2m

.. .
.. . .
.
.
.
Mn2 Mnm

(6.21)

Funciones

Otro ejemplo de espacio vectorial es el espacio de funciones f : [a, b] C.


Supongamos que tenemos dos funciones
f : [a, b] C,

g : [a, b] C,

(6.22)

la suma se define como


f + g : [a, b] C,
98

(6.23)

con la regla de correspondencia


(f + g) (x) = f (x) + g(x),

x [a, b].

(6.24)

Mientras que el producto por un escalar, C, se define como


f : [a, b] C,

(6.25)

con la regla de correspondencia


(f ) (x) = f (x),

6.3.

x [a, b].

(6.26)

Producto escalar

Una operacion importante entre vectores es el producto escalar. Este producto manda dos vectores a un n
umero complejo
h|i : V V C,

(6.27)

y debe satisfacer los axiomas:


)
)
)
)

v V
hv|vi 0,
hv|vi = 0 v = 0,
v, u, w V
hv + u|wi = hv|wi + hu|wi ,
v, u V, C
hv|ui = hv|ui ,
v, u V,
hv|ui = (hu|vi) .

(6.28)
(6.29)
(6.30)
(6.31)

Existen diferentes implicaciones de estos axiomas. Por ejemplo, para cualquier


vector v se cumple hv|0i = 0. En efecto sabemos que v v = 0, entonces
hv|0i = hv|v vi = hv|vi hv|vi = 0.

(6.32)

Otra implicacion es que si es un n


umero complejo y v1 , v2 dos vectores,
entonces se cumple
hv1 |v2 i = hv1 |v2 i .

(6.33)

Esta igualdad es correcta pues considerando Eq. (6.30) y Eq. (6.31) se encuentra
hv1 |v2 i = (hv2 |v1 i) = ( hv2 |v1 i) = (hv2 |v1 i)
= hv1 |v2 i .
99

Ademas, si v y w son dos vectores, entonces


hv + w|v + wi + hv w|v wi = hv + w|v + wi
+ hv w|v wi
= hv|v + wi + hw|v + wi + hv|v wi hw|v wi ,
= hv|vi + hv|wi + hw|vi + hw|wi + hv|vi hv|wi
hw|vi + hw|wi
= 2 (hv|vi + hw|wi) ,
es decir
hv + w|v + wi + hv w|v wi = 2 (hv|vi + hw|wi) ,

(6.34)

que es la llamada igualdad del paralelogramo.


Antes de ver otras propiedades del producto escalar veremos algunos ejemplos de ellos.

6.4.

Ejemplos de producto escalar

6.4.1.

Producto escalar en Cn

Si tenemos dos vectores en Cn , v = (v1 , v2 , . . . , vn ) y w = (w1 , w2 , . . . , wn ),


el producto escalar se define como
hv|wi =

n
X

vi wi .

(6.35)

i=1

Note que a los vectores v y w se les puede asignar las matrices columna

v1
w1
v2
w2

v = .. ,
w = .. ,
(6.36)
.
.
vn
wn
por lo que

hv|wi = v w =

n
X

vi wi

v1

i=1

100

v2

vn

w1
w2
..
.
wn

(6.37)

6.4.2.

Sucesiones

dos
s1 = {an }
n=0 y s2 = {bn }n=0 donde an , bn C y
P Si tenemos
Psucesiones
2
2
n0 |an | < ,
n0 |bn | < , se puede definir el producto escalar como
X
hs1 |s2 i =
an bn ,
(6.38)
n0

note que este es una generalizacion del producto escalar entre vectores.

6.4.3.

Matrices

En el espacio vectorial de las matrices de entradas complejas de n n


tambien es posible definir un producto escalar. Antes de definir este producto
recordemosPque si M es una matriz de entradas Mij , la traza se define como
T r(M) = ni=1 Mii . Tambien recordemos que las entradas de la matriz transpuesta M T se definen como (M T )ij = Mji . Ademas si N es otra
Pn matriz de
n n las entradas de la matriz producto, MN, son (MN)ij = k=1 Mik Nkj .
De estas definiciones es claro que

T r M T = T r (M) , T r(M + N) = T r(M) + T r(N),
(MN)T = N T M T ,

T r(NM) = T r(MN),

en efecto
Tr M

n
X

i=1

T r(M + N) =

n
X

ii

n
X

Mii = T r (M) ,

i=1

n
X

(M + N)ii =

i=1

(Mii + Nii ) =

i=1

n
X

Mii +

i=1

n
X
i=1

= T r(M) + T r(N),
n X
n
n
n X
n
X
X
X
Nba Mab
Mab Nba =
T r (MN) =
(MN)aa =
=

a=1
n
X
b=1

(MN)

ij

Nba Mab

a=1

= (MN)ji =

n
X

k=1


T

ik

n
X

(NM)bb = T r(NM),

b=1

Mjk Nki =

n
X

Nki Mjk

k=1

k=1

n
X

a=1 b=1

a=1 b=1

n
X


T

kj

101

= NT MT

ij

Nii

Definiremos el producto escalar entre matrices como



hM|Ni = T r M T N .

(6.39)

El primer axioma se cumple, pues


hM|Mi = T r M
=

n X
n
X

M =

n
X

i=i

Mki
Mki =

n X
n
X
i=1 k=1

i=1 k=1

ii

n X
n
X

M T

i=1 k=1

ik

Mki

|Mik |2 0.

(6.40)

De donde, si hM|Mi = 0, entonces Mik = 0, es decir M = 0.


Ademas, si N1 y N2 son matrices de n n,


hM|N1 + N2 i = T r M T (N1 + N2 ) = T r M T N1 + M T N2


= T r M T N1 + T r M T N2
= hM|N1 i + hM|N2 i .
Por lo que se cumple el segundo axioma de producto escalar.
Tambien se puede observar que si es un n
umero complejo, entonces
n
n
X
 X


T
T
hM|Ni = T r M N =
M N ii =
M T N ii
i=i

= T r M

Adicionalmente, se encuentra

i=i

N = hM|Ni .

(6.41)




T 
hM|Ni = T r M T N = T r M T N
= T r NT M

 

= (hN|Mi) .
=
T r NT M
= T r N T M

Por lo tanto, (6.39) es un producto escalar para el espacio vectorial de las


matrices de n n.

6.4.4.

Funciones

Si q(x) es una funcion real, continua y positiva en el intervalo (a, b), para
el espacio vectorial de las funciones continuas, {f }, que va del intervalo [a, b]
a los complejos, tales que
Z b
dxq(x)f (x)f (x) < ,
(6.42)
a

102

se puede definir el producto escalar como


Z b
hf |gi =
dxq(x)f (x)g(x).

(6.43)

Considerando las propiedades del q(x) y f (x), el primer axioma de producto


escalar se cumple pues
Z b
Z b

hf |f i =
dxq(x)f (x)f (x) =
dxq(x)|f (x)|2 0,
a
a
Z b
Z b
hf |f i =
dxq(x)f (x)f (x) =
dxq(x)|f (x)|2 = 0 f (x) = 0.
a

El segundo axioma de producto escalar se cumple, en efecto


Z b
hf |g1 + g2 i =
dxq(x)f (x) (g1 (x) + g2 (x))
a
Z b
=
dxq(x) (f (x) g1 (x) + f (x) g2 (x))
a
Z b
Z b

=
dxq(x)f (x) g1 (x) +
dxq(x)f (x) g2 (x)
a

= hf |g1i + hf |g2i .

Los axiomas restantes tambien se cumplen, para probar esta afirmacion supongamos que es un n
umero complejo, entonces
Z b
Z b

hf |gi =
dxq(x)f (x)g(x) =
dxq(x)f (x)g(x) = hf |gi ,
a
a
Z b

Z b

hf |gi =
dxq(x)f (x)g(x) =
dx (q(x)f (x)g(x))
a
a
Z b


=
dxq(x)g (x)f (x) = (hg|f i) .
a

Por lo tanto, Eq. (6.43) es un producto escalar para el espacio vectorial de las
funciones.

6.5.

Ortonormalidad e independencia lineal

Se dice que un conjunto de vectores {vi }ni=1 = {v1 , v2 , , vn } es linealmente


independiente si cualquier combinacion lineal de la forma
n
X
ai vi ,
(6.44)
0=
i=1

103

implica ai = 0. Ademas, ee dice que un conjunto de vectores, {vi }ni=1 , es ortonormal si


hvi |vj i = ij ,

i, j = 1, 2, . . . , n.

(6.45)

Si un conjunto de vectores es ortonomal, entonces es linealmente independiente.


En efecto, supongamos que {a1 , a2 , , an } son un conjunto de escalares tales
que se cumple Eq. (6.44), entonces como los vectores son ortonormales,
+
* n
n
n
X
X
X

ai vi =
hvj |ai vi i =
ai hvj |vi i
0 = hvj |0i = vj
i=1

n
X

i=1

i=1

ai ij = aj ,

i=1

es decir ai = 0, lo que completa la prueba.


Un conjunto de vectores ornormal, {vi }ni=1 , tiene varias propiedades interesantes.P
Por ejemplo, si v es una combinacion lineal de estos vectores, es decir
si v = ni=1 ai vi , se cumple
hv|vi =

En efecto
hv|vi =
=

* n
X

i=1

|ai |2 .

(6.46)

+
n
n X
n
X
X
ai vi
aj vj =
hai vi |aj vj i

i=1
n
n
XX
i=1 j=1

6.6.

n
X

j=1

ai aj hvi |vj i =

i=1 j=1
n
n
XX
ai aj ij
i=1 j=1

n
X
i=1

|ai |2 .

(6.47)

Teorema de Pit
agoras

Supongamos que v es un vector y {vi }ni=1 es un conjunto de vectores ortonormales, entonces el vector
w1 =

n
X
i=1

es ortonormal a

w2 = v

hvi |vi vi

n
X
j=1

104

hvj |vi vj .

Esta afirmacion se satisface, pues


* n
!
!+
n
X
X
hw1 |w2 i =
hvi |vi vi | v
hvj |vi vj
i=1

n
X
i=1

n
X
i=1

=
=
=

j=1

! +

hvi |vi vi |v

n
X
i=1

i=1 j=1
n
X

i=1
n
X
i=1

n
X
j=1

hvj |vi vj

!+

hvi (hvi |vi) |vi

n X
n
X

i=1
n
X

hvi |vi vi

h(hvi |vi vi ) | (hvj |vi vj )i

hvi |vi hvi |vi

hvi |vi hvi |vi


hvi |vi hvi |vi

n X
n
X

i=1 j=1
n X
n
X

i=1 j=1
n
X
i=1

hvi |vi hvj |vi hvi |vj i


hvi |vi hvj |vi ij

hvi |vi hvi |vi = 0.

Ademas, ocupando que {vi }ni=1 es un conjunto de vectores ortonormales se


cumple
hw1 |w1i =
Adicionalmente, se puede notar que

n
X
i=1

| hvi |vi |2 .

(6.48)

v = w1 + w2 ,

(6.49)

considerando que w1 y w2 son vectores ortonormales, se puede probar que


hv|vi = hw1 |w1 i + hw2 |w2i .

(6.50)

Tomando en cuenta los resultados anteriores, claramente se cumple que si {vn }


es un conjunto de vectores ortonormales, para cualquier vector v se tiene que
*
!
!+
n
n
n
X
X
X

hv|vi =
| hvi |vi |2 +
v
. (6.51)
hvi |vi vi v
hvi |vi vi
i=1

i=1

i=1

105

6.6.1.

Desigualdad de Bessel

Note que el teorema de Pitagoras implica la desigualdad


n
X
i=1

| hvi |vi |2 hv|vi ,

(6.52)

que es la llamada desigualdad de Bessel.

6.6.2.

Desigualdad de Schwarz

Sea w un vector diferente de cero, claramente el conjunto formado por


{ w } es ortonormal. Entonces, de acuerdo a la desigualdad de Bessel Eq.
hw|wi

(6.63), para cualquier vector v se cumple


*
+ 2


w

v hv|vi , =
p

hw|wi

|hw|vi|2 hw|wi hv|vi

(6.53)

que implica

|hw|vi|

p
hw|wi hv|vi.

(6.54)

Esta es la llamada desigualdad de Schwarz.

6.6.3.

Desigualdad del tri


angulo

Sean v y w dos vectores, entonces


hv + w|v + wi =
=
=
=

hv + w|v + wi = hv|v + wi + hw|v + wi


hv|vi + hv|wi + hw|vi + hw|wi
hv|vi + hw|wi + (hw|vi + hw|vi)
hv|vi + hw|wi + 2Re (hw|vi)
hv|vi + hw|wi + 2| hw|vi |.

De donde, ocupando desigualdad de Schwarz Eq. (6.64) se tiene


p
p
hv + w|v + wi hv|vi + hw|wi + 2 hw|wi hv|vi
p
2
p
=
hw|wi + hv|vi ,

(6.55)

(6.56)

es decir

hv + w|v + wi

p

hw|wi +

esta es la llamada desigualdad del triangulo.


106

2
hv|vi

(6.57)

6.7.

Espacios normados

Sea V un espacio vectorial y || || una funcion de V en los reales. Se dice


que (V, || ||) es un espacio normado si
I)
II)
III)
IV )

||v|| 0,
||v|| = 0,

v = 0,
||v|| = ||||v||,
||v + w|| ||v|| + ||w||.

(6.58)

Note que si V es un espacio vectorial con producto escalar, entonces se


puede definir un espacio normado con la norma dada por
p
||v|| = hv|vi.
(6.59)

En efecto, las propiedades I) y II) se cumplen, pues por los axiomas de producto escalar se tiene que hv|vi 0 y hv|vi = 0 v = 0. La propiedad
III) se cumple pues, si es un escalar, se tiene
p
p
p
||v|| =
hv|vi = hv|vi = ||2 hv|vi
p
(6.60)
= || hv|vi = || ||v||.

La propiedad IV ) tambien se cumple pues, ocupando la desigualdad del triangulo se encuentra


p
2
p
||v + w||2 = hv + w|v + wi
hw|wi + hv|vi = (||w|| + ||v||)2 ,
es decir

||v + w|| ||w|| + ||v||.


Por lo tanto, un espacio vectorial
p con producto escalar es un espacio normado
con la norma dada por ||v|| = hv|vi.

Note que ocupando la notacion de espacios normados la igualdad del paralelogramos toma la forma

||v + w||2 + ||v w||2 = 2 ||v||2 + ||w||2 .
(6.61)

Mientras que, si {vi }ni=1 es un conjunto de vectores ortonormales, el teorema


de Pitagoras se puede escribir como
2

n
n


X
X



(6.62)
hvi |vi vi .
| hvi |vi |2 + v
||v||2 =


i=1

i=1

107

Ademas, la desigualdad de Bessel toma la forma


n
X

| hvi |vi |2 ||v||2,

(6.63)

|hw|vi| ||w|| ||v||.

(6.64)

i=1

y la desigualdad de Schwarz es

6.7.1.

Espacios m
etricos

Sea un conjunto M y d una funcion de M M en los reales. Se dice que


(M, d) es un espacio metrico si satisface que x, y M se cumple
A)
B)
C)
D)

d(x, y) 0,
d(x, y) = 0,

x = y,
d(x, y) = d(y, x),
d(x, z) d(x, y) + d(y, z).

(6.65)

A la funcion d se le llama distancia.


Si V es un espacio normado, entonces se tiene un espacio metrico con la
distancia definida por
d(v1 , v2 ) = ||v1 v2 ||.

(6.66)

Los dos primeros axiomas de distancia se cumplen, pues


d(v1 , v2 ) = ||v1 v2 || 0 y d(v1 , v2 ) = ||v1 v2 || = 0

v1 v2 = 0,

es decir v1 = v2 . Tambien se cumple,


d(v1 , v2 ) = ||v1 v2 || = ||()(v2 v1 )|| = |()| ||v2 v1 || = ||v2 v1 ||
= d(v2 , v1 ),
por lo tanto, se cumple el axioma C). Ademas, por la desigualdad del triangulo,
se tiene
d(v1 , v3 ) = ||v1 v3 || = ||(v1 v2 ) + (v2 v3 )|| ||v1 v2 || + ||v2 v3 ||
= d(v1 , v2 ) + d(v2 , v3 ),
de donde se cumple el axioma D).
As, un espacio normado es metrico. Lo que quiere decir que cualquier
espacio con producto escalar es normado y por lo tanto metrico.
108

6.8.

Ejemplos de bases ortonormales

En esta seccion veremos diferentes conjuntos de funciones que forman una


base ortonormal.

6.8.1.

Exponencial compleja

Sea el conjunto de funciones


ein
n () =
2

(6.67)

definidas en el intervalo [0, 2], aqu n es un n


umero entero. Este conjunto de
funciones es ortonormal. En efecto
Z 2
Z 2
1

hn ()|m ()i =
d (n ()) m () =
dei(mn) . (6.68)
2
0
0
Si m = n, es claro que
Z 2
Z 2
1
1
i(nn)
de
=
d = 1.
2 0
2 0

(6.69)

Adicionalmente, si n 6= m se tiene
Z 2
2
1
1
1

dei(mn) =
ei(mn)
2 0
2 i(n m)
0

1
1
=
(1)2(mn) 1 = 0.
2 i(m n)
Por lo tanto,

hn ()|m ()i = mn ,

(6.70)

es decir, el conjunto Eq. (6.67) es ortonormal y entonces linealmente independiente.

6.8.2.

Ecuaciones tipo Sturm-Liouville

Anteriormente vimos que si (1 (x), 1 ) , (2 (x), 2 ) son soluciones de la


ecuacion de Sturm-Liouville


d(x)
d
p(x)
+ (q(x) + r(x)) (x) = 0
(6.71)
dx
dx
109

que satisfacen la condiciones de Dirichlet


(a) = (b) = 0

(6.72)

o las de Neumann
d(x)
d(x)
=
=0


dx x=a
dx x=b

(6.73)

o bien que p(x) cumpla

p(a) = p(b) = 0,

(6.74)

se encuentra que
(1 2 )

b
a

dxq(x)2 (x)1 (x) = 0.

En particular note que si 1 6= 2 se tiene


Z b
dxq(x)2 (x)1 (x) = 0,

(6.75)

Ademas, se puede ver que la integral


Z b
dxq(x)1 (x)1 (x) = ,

(6.76)

es positiva, es decir > 0. Por lo que, si < , el conjunto de funciones


(x)

(6.77)

cumplen
Z

dxq(x)1 (x)2 (x) = 1 2 .

(6.78)

Se dice que las soluciones de Eq. (6.71) que satisfacen alguna de las condiciones
Eqs. (6.72)-(6.74) son un conjunto de funciones ortonormales con funcion de
peso q(x).

110

6.8.3.

Ecuaci
on de Schrodinger en una dimension

Supongamos que V (x) es una funcion real, la ecuacion de Schrodinger en


el intervalo [a, b] es


~2 2
+ V (x) (x) = E(x),
(6.79)
H(x) =
2m x2
donde E es una constante real a determinar y se deben satisfacer las condiciones
de borde (a) = (b) = 0. Claramente este es un problema tipo Sturm-Lioville
con condiciones de Dirichlet. Por lo que si E (x) es solucion con la constante
E y E (x) es solucion con la contante E , entonces
Z b
hE (x)|E (x)i =
(6.80)
dxE (x)E (x) = EE .
a

Por lo tanto, las soluciones de la ecuacion de Schrodinger en una dimension


forman un conjunto de funciones ortonormales.

6.8.4.

Ecuaci
on de Schrodinger en tres dimensiones

Para la ecuacion de Schrodinger en tres dimensiones se tiene el mismo


resultado. Veamos este caso, si U(x, y, z) es una funcion real, la ecuacion de
Schrodinger es


~2 2
H(x, y, z) =
+ U(x, y, z) (x, y, z) = E(x, y, z).
(6.81)
2m
Supondremos que esta ecuacion esta definida en una region de volumen V cuya
frontera es , por lo que la condicion de Dirichlet es (x, y, z)| = 0.
Si E (x, y, z) es solucion con la constante E y E (x, y, z) es solucion con
la contante E , entonces


~2 2
+ U(x, y, z) E (x, y, z) = EE (x, y, z),
(6.82)

2m


~2 2

(6.83)
+ U(x, y, z) E (x, y, z) = E E (x, y, z).
2m
El complejo conjugado de la seguda ecuacion es


~2 2
+ U(x, y, z) E (x, y, z) = E E (x, y, z),

2m
111

(6.84)

Por lo tanto, multiplicando E por Eq. (6.82) y E por Eq. (6.84) se encuentra
~2 2
E + U(x, y, z)E E = EE E ,
2m E
~2
E 2 E + U(x, y, z)E E = E E E ,

2m
Ahora, considerando la igualdad

    
~
~
~
~
f g = f
g
+ f 2 g,

(6.85)

se llega a

por lo tanto


    
~ f g
~
~
~
f 2 g =
f
g
,

(6.86)

~2  ~  ~  ~ ~ 
E E E E + UE E = EE E ,

2m

~2  ~  ~  ~
~ E + UE E = E E E ,

E E E
2m
restando estas ecuaciones se encuentra

~2 ~  ~
~ = (E E ) E .
E E E

E
E
2m
Integrando esta u
ltima ecuacion sobre el volumen V y usando el teorema de
Gauss Eq. (1.6), se tiene
I
Z


~2

~ E E
~ n
da E
(E E )
dvE E =
= 0, (6.87)
E
2m
V
es decir

(E E )

dvE E = 0.

Por lo tanto, si E 6= E , se llega a


Z
dvE (x, y, z)E (x, y, z) = 0.

(6.88)

(6.89)

R
Si la funciones de onda son tales que V dvE E = < , siempre se puede
tener un conjunto de funciones tales que
Z
(6.90)
dvE (x, y, z)E (x, y, z) = EE .
V

Por lo tanto con las soluciones de la ecuacion de Schrodinger se puede formar


un conjunto ortonormal de funciones. Este resultado es fundamental para la
mecanica cuantica.
112

6.8.5.

Arm
onicos esf
ericos

2,
Otro ejemplo esta en las funciones propias del operado L
2 Y (, ) = Y (, ),
L
que deben satisfacer




1
Y (, )
1 2 Y (, )
2

L Y (, ) =
sin
+
= Y (, ).
sin

sin 2
2
Por ahora no resolveremos esta ecuacion, pero veremos algunas de sus propiedades respecto a la ortonormalidad.
Propondremos Ym (, ) = ()(), de donde




()
() 2 ()
()
2

sin
+
= ()(),
L Y (, ) =
sin

sin 2 2
por lo que
2 Y (, )
sin2 L
Ym (, )

sin
=
()
= sin2 ,




()
1 2 ()
sin
+

() 2
(6.91)

que implica

2 Y (, )
sin2 L
Ym (, )

1 2 ()
() 2

= 0,

(6.92)

entonces
1 2 ()
= m2 = constante,
() 2

(6.93)

2 ()
= m2 ().
2

(6.94)

es decir

Sustituyendo Eq. (6.93) en Eq. (6.91), se llega a






sin
()
2

sin
m = sin2 ,
()

113

(6.95)

que se puede escribir como



 


()
m2
sin
+ sin
() = 0.

sin

(6.96)

Esta ecuacion depende de los parametros y m por lo que redefiniremos ()


como () = Pm (cos ). Note que Eq. (6.96) es tipo Sturm-Liouville con
p() = sin ,

q() = sin ,

r() =

m2
.
sin

(6.97)

Ademas como p(0)) = sin 0 = p() = sin = 0, las soluciones de Eq. (6.96)
son ortormales en el intervalo [0, ] con funcion de peso sin , es decir
Z
m = constante > 0. (6.98)
d sin Pm (cos )Pm (cos ) = m ,
0

Note que las funciones


m () = A0 eim

(6.99)

son soluciones de Eq. (6.94). En particular si todas las m son enteros el conjunto
de funciones
eim
m () =
2

(6.100)

son ortonormales en intervalo [0, 2], como fue mostrado en Eq. (6.70). As, si
el conjunto de las m esta en los enteros, las funciones
Ym (, ) =

m 2

eim Pm (cos )

(6.101)

son ortonormales. En efecto, considerando la ortonormalidad de las funciones


im
e
y Pm (cos ), se tiene
2
Z

hY m (, )|Ym (, )i = dY m (, )Ym (, )
Z 2
Z
=
d
d sin Y m (, )Ym (, )
0
0
!
Z 2
Z
1
1
im m
e
eim Pm (cos )
P (cos )
=
d
d sin
m 2
m 2
0
0
114

=
=
=
=
=

d sin


1
2

m 2
2

eim Pm (cos )

im im

de

Z

eim Pm (cos )
m 2

d sin Pm (cos )Pm (cos )

m m
0
Z 0
1

mm
d sin Pm (cos )Pm (cos )

m m
Z 0
1
mm
d sin Pm (cos )Pm (cos )

m m
0
1
mm m

m m
1
m = mm ,

m m

es decir
hY m (, )|Ym (, )i = mm .

(6.102)

A
un no sabemos cual es la forma explcita las funciones Ym (, ), pero podemos decir que son un conjunto de funciones ortornales. Posteriormente ocuparemos este hecho para encontrar la forma explcita de estas funciones. Cabe
se
nalar que las funciones Ym (, ) son importantes para diferentes areas de la
fsica, como la mecanica cuantica y la electrodinamica.

6.9.

Polinomios trigonom
etricos

Supongamos que {n (x)}


n=0 es un conjunto de funciones ortonormales en
el intervalo [a, b], es decir
Z b
hn |m i =
dxq(x)n (x)m (x) = nm ,
(6.103)
a

aqu q(x) es una funcion de peso positiva en el intervalo (a, b). Con este conjunto de funciones podemos hacer las combinaciones lineales
Tn (x) =

n
X

bi i (x),

(6.104)

i=1

las cuales llamaremos polinomios trigonometricos. Note que debido a que


{n (x)}
n=0 es un conjunto de funciones ortonormales, la norma de Tn (x) es
2

||Tn || =

n
X
i=1

115

|bi |2 .

(6.105)

Rb
Sea F (x) una funcion tal que hF |F i = ||F ||2 = a dxq(x)|F (x)|2 < , entonces definiremos los coeficientes de Fourier de F como
Z b
an = hn |F i =
dxq(x)n (x)F (x).
(6.106)
a

Ahora veremos que tanto se puede aproximar la funcion F (x) con polinomios
de la forma Tn (x). El sentido de la distancia en este espacio esta dada por la
norma de la funciones. As, el problema es encontrar los polinomios tales que
Z b
2
2
d (F, Tn ) = ||F Tn || =
dxq(x)|F (x) Tn (x)|2
(6.107)
a

es mnimo. Basicamente se trata de encontrar los coeficientes bi que hacen


mnimo (6.107). Podemos iniciar notando que
d2 (F, Tn ) = ||F Tn ||2 = hF Tn |F Tn i
= hF |F i hF |Tn i hTn |F i + hTn |Tn i
= ||F ||2 + ||Tn ||2 hF |Tn i hTn |F i
*
+
+ * n
n
X
X
= ||F ||2 + ||Tn ||2 F |
bi i
bi i |F
i=1

= ||F ||2 + ||Tn ||2

n
X
i=1

i=1

bi hF |i i

n
X
i=1

bi hi |F i ,

considerando la norma de Tn (x) y la definicion de los coeficientes de Fourier


se llega a
||F Tn ||

= ||F || +

n
X
i=1


|bi |2 bi ai bi ai .

(6.108)

Ademas, como
|bi ai |2 = (bi ai )(bi ai ) = |bi |2 + |ai |2 (bi ai + bi ai ),

(6.109)

|bi ai |2 |ai |2 = |bi |2 (bi ai + bi ai ).

(6.110)

se tiene

De donde,
||F Tn ||

= ||F || +

n
X
i=1

116

|bi ai |

n
X
i=1

|ai |2 .

(6.111)

Claramente la distancia entre esta dos funciones es mnima cuando bi = ai , es


decir, cuando el polinomio tienen los coeficientes de Fourier.
Si bi = ai se encuentra
2

||F Tn || = ||F ||

n
X
i=1

|ai |2 0.

(6.112)

Por lo que, para cualquier n


2

||Tn || =

n
X
i=1

|ai |2 ||F ||2 < .

(6.113)

Esta desigualdad
llama la desigualdad de Bessel, la cual implica que la suPse
n
2
cesion ||Tn || = i=1 |ai |2 esta acotada.

Un resultado de calculo diferencial nos dice que si una sucesion es monotona creciente y esta acotada, converge [17]. Note que la sucesion ||Tn ||2 es
monotona creciente y esta acotada, entonces converge. La pregunta es hacia
donde converge, supondremos sin demostrar que converge a ||F ||2, es decir
2

lm ||Tn || = lm

n
X
i=1

|ai |2 =

X
n0

|an |2 = ||F ||2.

(6.114)

A esta igualdad se llama igualdad de Parseval. Demostrar esta igualdad es un


problema importante [3, 4], pero altamente no trivial y rebasa el proposito de
este escrito por lo que solo tocaremos este tema en casos particulares.

6.10.

Espacios completos

Cuando se cumple la igualdad de Parseval se dice que el conjunto de funciones {n (x)}n0 es completo. En este caso cualquier funcion, F (x), con
||F || < se puede escribir como combinacion lineal de {n (x)}n0 , es decir
X
F (x) =
an n (x).
(6.115)
n0

Un resultado de calculo diferencial es que si


an 0.
117

n0

|an |2 converge, entonces

Esto tiene diferentes implicaciones fsicas. Por ejemplo, en mecanica cuantica significa que es mas probable que el sistema este en estado base. Mientras
que en electrostatica, significa que en un sistema de cargas los terminos mas importantes son el monopolo, dipolo, cuadrupolo. Posteriormente veremos ejemplos concretos de esta afirmacion.

6.11.

Operadores lineales

Sea V un espacio vectorial, una funcion O : V V es un operador lineal,


o transformacion lineal, si
v1 , v2 V, , K

O (v1 + v2 ) = O (v1 ) + O (v2 ) .

(6.116)

Por ejemplo, el operador derivada es lineal, pues

(f1 (x) + f2 (x)) = f1 (x) + f2 (x).


x
x
x

(6.117)

Usando el producto por un escalar, con una funcion f (x) podemos definir un
operador lineal, O, de la forma:
O(v1 ) = f (x)v1 ,
claramente este operador es lineal, pues
O(v1 + v2 ) = f (x)(v1 + v2 ) = f (x)v1 + f (x)v2 ) = O (v1 ) + O (v2 ) .
Dada una funcion g(k, x) se puede definir una transformacion con la integral
f(k) =

dxg(k, x)f (x).

(6.118)

Esta transformacion es lineal, pues si definimos h(x) = f1 (x) + f2 (x) se


encuentra
Z b
Z b
h(k) =
dxg(k, x)h(x) =
dxg(k, x) (f1 (x) + f2 (x))
a
a
Z b
Z b
=
dxg(k, x)f1 (x) +
dxg(k, x)f2 (x) = f1 (k) + f2 (k).
a

A Eq. (6.119) se le llama transformada integral en base g(k, x).

118

Por ejemplo, con g(k, x) = eikx se define la transformada de Fourier


Z

f (k) =
dxeikx f (x).
(6.119)

Para cada funcion, g(k, x), bien portada se puede definir una transformada
integral.
Si tenemos dos transformaciones lineales, O1 y O2 , cualquier combinacion
lineal de ellas tambien es lineal. En efecto, si a y b son dos escalares podemos
construir la combinacion lineal
O = aO1 + bO2 ,

(6.120)

entonces
O (v1 + v2 ) =
=
=
=
=
=

(aO1 + bO2 ) (v1 + v2 )


aO1 (v1 + v2 ) + bO2 (v1 + v2 )
a (O1 (v1 ) + O1 (v2 )) + b (O2 (v1 ) + O2 (v2 ))
(aO1 (v1 ) + bO2 (v1 )) + (aO1 (v2 ) + bO2 (v2 ))
(aO1 + bO2 ) (v1 ) + (aO1 + bO2 ) (v2 )
O (v1 ) + O (v2 ) .

As, cualquier combinacion lineal de dos operadores lineales nos da otro operador lineal.
Ahora veamos el productor de dos operadores lineales, definamos
O = O1 O2 ,

(6.121)

entonces
O (v1 + v2 ) =
=
=
=
=

(O1 O2 ) (v1 + v2 )
O1 (O2 (v1 + v2 )) = O1 (O2 (v1 ) + O2 (v2 ))
O1 (O2 (v1 )) + O1 (O2 (v2 ))
(O1 O2 ) (v1 ) + (O1 O2 ) (v2 )
O (v1 ) + O (v2 ) .

Por lo tanto, el producto de dos operadores lineales tambien nos da otro operador lineal. Por ejemplo, sabemos que los operadores

,
x

,
y
119

(6.122)

son lineales, entonces tambien lo son


2
,
x2

2
,
y 2

2
.
z 2

(6.123)

2
2
2
+
+
x2 y 2 z 2

(6.124)

Esto implica que el operador Laplaciano


2 =

sea lineal. Cualquier funcion V (x, y, z) como operador es lineal, entonces el


operador Hamiltoniano
H=

~2 2
+ V (x, y, z)
2m

(6.125)

es lineal, esto se debe a que es combinacion lineal de opeadores lineales. Ademas


las variables
x,

y,

(6.126)

como operadores son lineales. Entonces los operadores









, Ly = i z
, Lz = i x
,
z
x
y
Lx = i y
z
y
x
z
y
x
son lineales, puesto que son combinaciones lineales de productos de operadores
lineales. Por la misma razon el operador
L2 = L2x + L2y + L2z
es lineal.

6.12.

Operador adjunto

Dado un operador A definiremos el operador adjunto, A , como el operador


que satisface


hAv|ui = v|A u ,
(6.127)
con u y v dos vectores arbitrarios.

120

6.12.1.

Matrices

Por ejemplo, para Cn se tiene


hAv|ui = (Av)T u = v T AT u = v|A u = v T A u,

(6.128)

A = AT .

(6.129)

de donde, para una matriz cuadrada con entradas complejas la matriz adjunta
es

6.12.2.

Derivada

Para el espacio vectorial de las funciones, el adjunto de un operador depende fuertemente del dominio, las condiciones de borde que se satisfacen y
del producto escalar. En el espacio de las funciones suaves e integrables (x)
definidas en el intervalo [a, b] y que cumplen (a) = (b) = 0. se puede definir
el operador
A=

,
x

(6.130)

con un n
umero complejo. Veamos cual es el operador adjunto de este operador, para ello tomaremos el producto escalar Eq. (6.43) con funcion de peso
q(x) = 1. En este caso se puede notar que

Z b
Z b 

hA1 |2 i =
dx(A1 (x)) 2 (x) =
dx 1 (x) 2 (x)
x
a
a
Z b
(x)
2 (x)
=
dx 1
x
a

Z b 
2 (x)
(1 (x)2 (x))

1 (x)
=
dx
x
x
a
b Z b



2 (x)

= (1 (x)2 (x)) +
dx1 (x)
x
a
a


Z b

2 (x),
=
dx1 (x)
x
a
ahora


1 |A 2 =

dx1 (x)A 2 (x),

121

entonces



= .
x
x

(6.131)

Note que este resultado depende fuertemente de que se cumpla (a) = (b) =
0.

6.12.3.

Derivada con peso

Se puede observar que el adjunto del operador A = x


no esta bien definido con un producto escalar general
Z b
hf |gi =
dxq(x)f (x)g(x),
q(x) > 0.
(6.132)
a

Para este caso es mas conveniente ocupar el operador



A =
,
q(x) x

(6.133)

quien s tiene bien definido su adjunto. En efecto,


Z b
D
E
1 |2 =
1 (x)) 2 (x)
A
dxq(x)(A
a


Z b

=
dxq(x)
1 (x) 2 (x)
q(x) x
a


Z b
Z b
1 (x)

2 (x),
2 (x) =
dx1 (x)
=
dx
x
x
a
a


Z b

2 (x)
(6.134)
=
dxq(x)1 (x)
q(x) x
a
ahora
D

E Z b

1 |A 2 =
dxq(x)1 (x)A 2 (x),
a

de donde

A =
.
q(x) x

122

(6.135)

6.12.4.

Propiedades del operador adjunto

Hay dos propiedades importantes de los operadores adjuntos. La primera


propiedad esta relacionada con las suma. Si A, B son dos operadores lineales,
se tiene
D
E
h(A + B) v|ui = v| (A + B) u ,
(6.136)

pero

h(A + B) v|ui = h(Av + Bv) |ui = hAv|ui + hBv|ui


= v|A u + v|B u = v| A + B u .

Por lo tanto,


v| (A + B) |u = v| A + B u ,

este resultado es valido para cualquier par de vectores v y u, entonces


(A + B) = A + B .

(6.137)

La otra propiedad esta relacionada con el producto de dos operadores:


E


h(AB) v|ui = hA (Bv) |ui = Bv|A u = v|B A u = v| (AB) u ,

que implica

(AB) = B A .

6.13.

(6.138)

Operadores Hermticos

Una clase importante de operadores son los autoadjuntos, que satisfacen


A = A,

(6.139)

a estos operadores tambien se les llama Hermticos.


De (6.137) se puede ver que la suma de dos operadores Hermticos nos da
otro operador Hermtico. Ademas de Eq. (6.138) es claro que si A y B son
operadores Hermticos y conmutan, es decir AB = BA, entonces
(AB) = B A = BA = AB.

(6.140)

Por lo tanto, el producto de dos operadores Hermticos que conmutan es


Hermtico.

123

6.13.1.

Ejemplos de matrices Hemticas

De (6.129) se puede ver que una matriz de Cn Hermtica cumple


()T = .

(6.141)

En C2 un ejemplo trivial una matriz Hermtica es la matriz identidad




1 0
.
(6.142)
I=
0 1
En ese mismo espacio, se puede ver que las matrices de Pauli






1
0
0 i
0 1
, 3 =
, 2 =
1 =
0 1
i 0
1 0

(6.143)

son Hermticas.

6.13.2.

Ejemplos de operadores Hermticos

En el espacio de funciones, claramente cualquier funcion real f (~r) es un


operador Hermtico. De Eq. (6.131) se puede ver que si es imaginario, por
ejemplo si = i~ el operador
Px = i~

(6.144)

es Hermtico. Ademas, como Px conmuta con Px , entonces Px Px = Px2 es un


operador Hermtico. Si V (x) es un potencial real, el operador Hamiltoniano de
la mecanica cuantica
H=

1 2
P + V (x)
2m x

(6.145)

es Hermtico, pues es la suma de dos operadores Hermticos.


Claramente los operadores
Px = i~

,
x

Py = i~

,
y

Pz = i~

son Hermticos. Entonces, si V (~r) es una funcion real, el operador


H=

~2 2
1 2
P + V (~r) =
+ V (~r)
2m
2m
124

(6.146)

es Hermtico.
Si y son variables independientes, entonces definiendo
O1 = ,
se tiene
O1 O2 f = (i)

O2 = i

= (i) f = O2 O1 f,




es decir y i conmutan. As los operadores

, xpz = x(i) ,
y
z

ypx = y(i) , ypz = y(i) ,


x
z

zpx = z(i) , zpy = z(i) ,


x
y

xpy = x(i)

son Hermticos. Por lo tanto, tambien los operadores









Lx = i y
, Ly = i z
, Lz = i x
.
z
x
y
z
y
x
z
y
x
son Hermticos. Esto implica que el operador
L2 = L2x + L2y + L2z
es Hermtico.

6.14.

Conmutador

Supongamos que tenemos los operadores lineales A y B, entonces definiremos el conmutador como
[A, B] = AB BA.

(6.147)

Por ejemplo, si f es una funcion de prueba y tenemos los operadores x, y se


tiene
(xy)f = xyf = yxf = (yx)f,
125

(6.148)

de donde
(xy yx) f = 0.

(6.149)

Este resultado es valido para cualquier funcion, por lo que se suele escribir
[x, y] = 0.

(6.150)

Por lo misma razon se encuentra


[x, z] = [z, y] = 0.

(6.151)

Ademas si f es una funcion bien portada, se cumple


 2 
 2 

f=
f,
xy
xy
entonces si
px = i

,
x

py = i

,
y

(6.152)

se llega a

 2 


f = (i)(i)
f
(py px )f =
(i) (i)
y
x
xy



f = px py f,
=
(i) (i)
y
x
que implica
[px , py ] = 0.

(6.153)

[px , pz ] = [py , pz ] = 0.

(6.154)

De la misma forma se tiene

Con los operadores y, px se tiene





(yf )
(ypx)f =
y(i)
f = iy f = i
= (px y)f,
x
x
x
por lo tanto,
[y, px] = 0.
126

(6.155)

Con los mismos argumentos se encuentra


[y, pz ] = [x, py ] = [x, pz ] = [z, px ] = [z, py ] = 0.

(6.156)

Ahora, si x, px = i x
, entonces



f
(xpx )f =
x(i)
f = ix ,
x
x



(px x)f =
(i) x f = i (xf ) = if ix ,
x
x
x

es decir
(xpx px x) f = if.

(6.157)

Como este resultado es valido para cualquier funcion, se escribe


[x, px ] = i.

(6.158)

Tambien se tiene
[y, py ] = i,

[z, pz ] = i.

(6.159)

Si definimos
x1 = x,
p1

x2 = y,
x3 = z,

i
,
p2 = i
,
x1
x2

p3 = i

,
3

(6.160)

las anteriores reglas de conmutacion se pueden escribir como


[xi , xj ] = [pi , pj ] = 0

[xi , pj ] = iij .

(6.161)

Salvo un factor de ~, estas son las reglas de conmutacion que propuso Heisenberg como base de la mecanica cuantica.

6.14.1.

Propiedades de los conmutadores

Los conmutadores tiene varias propiedades algebraicas que los hacen importantes para la Fsica y las Matematicas, a continuacion veremos algunas de
ellas. Sea c un n
umero, entonces si A, B, C son operadores lineales se cumple
[A, c]
[A, B]
[A, B + C]
[A, BC]
[A, [B, C]] + [C, [A, B]] + [B, [A, C]]
127

=
=
=
=
=

0,
[B, A] ,
[A, B] + [A, C] ,
[A, B] C + B [A, C] ,
0.

(6.162)
(6.163)
(6.164)
(6.165)
(6.166)

La identidad Eq. (6.162) es valida pues c es un n


umero. La prueba de Eq.
(6.163) es
[B, A] = BA AB = (AB BA) = [A, B] .
Mientras que la prueba de Eq. (6.164) es
[A, B + C] = A (B + C) (B + C) A = (AB + AC) (BA + CA)
= (AB BA) + (AC CA) = [A, B] + [A, C] .
Ademas,
[A, BC] = A (BC) (BC) A = (ABC) (BAC) + (BAC) (BCA)
= (AB BA) C + B (AC CA) = [A, B] C + B [A, C] ,
que prueba Eq. (6.165).
Ahora tenemos que
[A, [B, C]] = [A, (BC CB)] = [A, BC] [A, CB]
= B [A, C] + [A, B] C (C [A, B] + [A, C] B)
= B (AC CA) + (AB BA) C
(C (AB BA) + (AC CA) B)
= BAC + ABC + CBA + CAB
(BCA + BAC + CAB + ACB)
= ABC + CBA (BCA + ACB) ,
de la misma forma
[C, [A, B]] = CAB + BAC (ABC + CBA) ,
[B, [C, A]] = BCA + ACB (CAB + BAC) ,
sumando estas tres igualdades se llega a Eq. (6.166).

6.14.2.

Ejercicio

Para tener un poco de practica con los conmutadoremos calcularemos las


reglas de conmutacion del momento angular Eq. (2.89), cuyas componentes se
pueden escribir como
Lx = ypz zpy ,
Ly = zpx xpz ,
Lz = xpy ypx .
128

De donde aplicando las propiedades de los conmutadores y considerando Eq.


(6.161) se llega
[Lx , Ly ] =
=
=
=

[ypz zpy , zpx xpz ] = [ypz , zpx xpz ] + [zpy , zpx xpz ]
[ypz , zpx xpz ] [zpy , zpx xpz ]
[ypz , zpx ] [ypz , xpz ] ([zpy , zpx ] [zpy , xpz ])
y [pz , zpx ] + [y, zpx ] pz y [pz , xpz ] [y, xpz ] pz
(z [py , zpx ] + [z, zpx ] py z [py , xpz ] [z, xpz ] py )
= yz [pz , px ] + y [pz , z] px + z [y, px ] pz + [y, z] px pz yx [pz , pz ]
y [pz , x] pz x [y, pz ] pz [y, x] pz pz z [py , px ] z [py , z] px
z [z, px ] py z [z, py ] px + zx [py , pz ] + z [py , x] pz
+x [z, pz ] py + [z, x] pz py
= i (xpy ypx ) = iLz
(6.167)

Ademas
[Ly , Lz ] =
=
=
[Lz , Lx ] =
=
=

[zpx xpz , xpy ypx ] = [zpx , xpy ypx ] [xpz , xpy ypx ]
[zpx , xpy ] + [xpz , ypx] = z [px , x] py + y [x, px ] pz
i (ypz zpy ) = iLx ,
[xpy ypx , ypz zpy ] = [xpy , ypz zpy ] [ypx , ypz zpy ]
[xpy , ypz ] + [ypx , zpy ] = x [py , y] pz + z [y, py ] px
i (zpx xpz ) = iLy .
(6.168)

Es decir,
[Lx , Ly ] = Lz ,

[Lz , Lx ] = iLy ,

[Ly , Lz ] = iLx .

(6.169)

Ahora, considerando L2 = L2x + L2y + L2z y Eq. (6.169) se tiene


 2


 
 
 

L , Lx , = L2x + L2y + L2z , Lx = L2x , Lx + L2y , Lx + L2z , Lx
= Ly [Ly , Lx ] + [Ly , Lx ] Ly + Lz [Lz , Lx ] + [Lz , Lx ] Lz
= iLy Lz iLz Ly + iLz Ly + iLy Lz = 0,
 2


 
 
 

L , Ly , = L2x + L2y + L2z , Ly = L2x , Ly + L2y , Ly + L2z , Ly
= Lx [Lx , Ly ] + [Lx , Ly ] Lx + Lz [Lz , Ly ] + [Lz , Ly ] Lz
= iLx Lz + iLz Lx iLz Lx iLx Lz = 0,
 2


 
 
 

L , Lz , = L2x + L2y + L2z , Lz = L2x , Lz + L2y , Lz + L2z , Lz
= Lx [Lx , Lz ] + [Lx , Lz ] Lx + Ly [Ly , Lz ] + [Ly , Lz ] Ly
= iLx Ly iLy Lx + iLy Lx + iLx Ly = 0.
129

Por lo tanto, L2 conmuta con cualquier componente del momento angular


 2
 
 

L , Lx = L2 , Ly = L2 , Lz = 0.
(6.170)

6.15.

Conmutadores y la derivada

Una de las propiedades del conmutador entre dos operadores es que en


algunos casos act
ua como derivada. En efecto supongamos que
[A, B] = ,

= constante,

entonces


A, B 2 = [A, BB] = B [A, B] + [A, B] B = B + B = 2B.

(6.171)

(6.172)

En general se cumple que

[A, B] =

[A, B n ] = nB n1 .

(6.173)

Probaremos esta afirmacion por induccion. La hipotesis de induccion ya la


hemos probado. Para probar el paso inductivo debemos mostrar que




A, B k = kB k1
=
A, B k+1 = (k + 1)B k .
(6.174)
Esta u
ltima igualdad es correcta, pues ocupando la hipotesis de induccion y
Eq. (6.164) se encuentra






A, B k+1 = A, BB k = B A, B k + [A, B] B k = kBB k1 + B k
= (k + 1)B k ,

que es lo que se queria demostrar. Por lo tanto, la propiedad (6.173) es valida


para cualquier natural n. As, en este caso el conmutador act
ua como derivada.
Para ver de forma mas explcita esta afirmacion, supongamos que tenemos
la funcion
X
f (x) =
bn xn ,
n0

con la cual podemos formar el operador


X
f (B) =
bn B n .
n0

130

De donde,
[A, f (B)] =

"

A,

bn B n =

n0

bn [A, B n ] =

n0

bn nB n1 =

n0

df (B)
.
dB

bn nB n1

n0

Por lo tanto, para cualquier funcion


[A, B] = ,

[A, f (B)] =

df (B)
.
dB

(6.175)

Por ejemplo, sabemos que con px = i x


se cumple [x, px ] = i, entonces si f
y g son dos funciones se encuentra

f (x)
,
x
g(px )
[x, g(px )] = i
.
px

[f (x), px ] = i

Estas igualdades son de gran utilidad para obtener ecuaciones de movimiento


en mecanica cuantica. En efecto, dado un Hamiltoniano H las ecuaciones de
movimiento se definen como
ix = [x, H] ,
ip = [p, H] ,

(6.176)

que son las ecuaciones de Heisenger. En particular con el Hamiltoniano


H=

1 2
p + V (x),
2m

se tiene



1 2
i
ix = [x, H] = x,
p = p,
2m
m
V (x)
ip = [p, H] = [p, V (x)] = i
,
x
es decir
x =

1
p,
m

p =
131

V (x)
.
x

(6.177)

6.16.

Vectores propios

Sea A un operador lineal, si v es un vector tal que Av = v, se dice que v


es un vector propio de A con valor propio . Al conjunto de valores propios de
A se le llama el espectro de A.
Por ejemplo, los vectores propios del operador derivada deben cumplir

f (x) = f (x),
x

(6.178)

que son las funciones de la forma f (x) = A0 ex , A0 = constante. En la fsica


matematica es importante obtener las funciones propias y valores propios de
diferentes operadores, como el momento angular Eq. (2.99)
L2 Ym = Ym ,

Lz Ym = mYm ,

y el operador Hamiltoniano


~2 2
+ V (r) (~r) = E (~r) .
H (~r) =
2m

6.16.1.

(6.179)

(6.180)

Espectro de operadores Hermticos

Los operadores Hermticos tienen valores propios reales. En efecto, si v es


un vector propio de un operador Hermtico A con valor propio , es decir
Av = v, se tiene
hAv|vi = hv|vi = hv|vi


= v|A v = hv|Avi = hv|vi = hv|vi ,

que nos conduce al resultado

= .

(6.181)

As, los valores propios de los operadores Hermticos son reales.


Como el operador H es Hermtico, la ecuacion diferencial




1 2
~2 2
H(~r) =
P + V (~r) (~r) =
+ V (~r) (~r) = E(~r)
2m
2m
solo tiene solucion si E es un valor real. Posteriormente veremos como resolver
esta ecuacion para algunos casos particulares de V (~r).

132

De la misma forma, como L2 es Hermtico, la ecuacion diferencial







1 2
1
2
sin
+
Y (, ) = Y (, )
L Y (, ) =
sin

sin 2 2
solo tiene solucion si es un n
umero real. Las soluciones de esta ecuacion se
llaman armonicos esfericos y son de suma importancia para la electrostatica y
la mecanica cuantica.

6.16.2.

Operadores que conmutan

Se dice que un operador A tiene espectro no degenerado si


Av = v

y Au = u = ,

v = u.

(6.182)

Por ejemplo, el operador derivada tiene espectro no degenerado, pues todas las
soluciones de Eq. (6.178) son de la forma ex , en particular
Lz = i

tiene espectro no degenerado.


Supongamos que A y B son dos operadores lineales que conmutan, es decir
[A, B] = 0
y que A tiene espectro no degenerado. Entonces podemos afirmar que si v es
vector propio de A, es decir Av = v, tambien lo es de B. Esta afirmacion es
correcta pues si AB = BA, entonces
ABv = BAv = B(Av) = Bv

= A(Bv) = (Bv).

(6.183)

As, (Bv) es vector propio de A con valor propio . De donde, como A tiene
espectro no degenerado, existe tal que
Bv = v.
Esto quiere decir que v es vector propio de B, lo que completa la prueba.
Por ejemplo, Lz tiene espectro no degenerado y conmuta con L2 . Por lo tanto, estos operadores comparten funciones propias. En el lenguaje de la mecanica cuantica significa que estas dos cantidades se pueden medir al mismo tiempo.

133

Captulo 7
Prueba de Feynman de las
Ecuaciones de Maxwell
Como un ejercicio para reforzar el usos de conmutadores y vectores, en este
captulo veremos la prueba de Feynman de dos ecuaciones de Maxwell.
Apesar de que las ecuaciones de Maxwell se obtienen de mediciones de la naturaleza, Feynman encontro que la ley de inexistencia de monopolos magneticos y la ley de Faraday se pueden deducir de la dinamica de una partcula. La
demostracion parte de suponer la segunda ley de Newton
m
xi = Fi (x, x,
t)

(7.1)

y las reglas de conmutacion


[xi , xj ] = 0,

m[xi , x j ] = i~ij .

(7.2)

Primero veremos como se obtiene la fuerza de Lorentz de estas hipotesis, para


despues hacer la deduccion de la ley de inexistencia de monopolos magneticos
y la ley de Faraday.

7.1.

Fuerza de Lorentz

Para iniciar, notemos que


xi xj =

d
(xi x j ) x i x j ,
dt

(7.3)

entonces,
[xi , xj ] = xi xj xj xi =

d
(xi x j ) x i x j
dt
134

d
(x j xi ) x j x i
dt

d
(xi x j x j x i ) + (x j x i x i x j )
dt
d
([xi , x j ]) + [x j , x i ] = [x j , x i ],
=
dt
=

(7.4)

es decir,
[xi , xj ] = [x j , x i ].

(7.5)

Por lo tanto, de la segunda ley de Newton Eq. (7.1) se obtiene


[xi , Fj ] = [xi , m
xj ] = m[x j , x i ].

(7.6)

Usando esta ecuacion y la propiedad antisimetrica de los conmutadores, se


llega a
[xi , Fj ] = m[x j , x i ] = m[x i , x j ] = [xj , Fi ].

(7.7)

De donde, [xi , Fj ] es una matriz antisimetrica. Ahora, sabemos que cualquier


matriz antisimetrica de 3 3 se puede escribir en terminos del tensor de LeviCivita y un vector, ver Eq. (1.69). As, sin perdida de generalidad podemos
proponer
i~
ijk Bk .
m
Note que de Eq. (7.6) y Eq. (7.8) se obtiene
[xi , Fj ] =

(7.8)

i~
ijk Bk .
(7.9)
m2
En principio Bk puede depender de la velocidad, sin embargo, por la identidad
de Jacobi
[x i , x j ] =

[xi , [x j , x k ]] + [x k , [xi , x j ]] + [x j , [x k , xi ]] = 0,

(7.10)

las reglas de conmutacion Eqs. (7.2), (7.6) y (7.8) se obtiene


i~
[xi , jkl Bl ] = 0,
(7.11)
m
por lo tanto, Bk solo depende de las coordenadas. As, la igualdad Eq. (7.8)
implica que Fi debe ser de la forma Fi = ijk x j Bk . Note que la igualdad Eq.
(7.8) se sigue cumpliendo si sumamos a Fi una funcion, Ei , que solo depende
de las coordenadas. As, la forma mas general de la fuerza es
[xi , [xj , Fk ]] =

Fi = Ei + ijk x j Bk ,
que es exactamente la fuerza de Lorentz.

135

(7.12)

7.2.

Inexistencia de monopolos magn


eticos

Ahora, veremos la ley de inexistencia de monopolos magneticos. De Eq.


(7.6) y Eq. (7.8) se obtiene


lij i~
i~
lij
ijk Bk = 2 lij ijk Bk
lij [x i , x j ] = [xi , Fj ] =
m
m
m
m
i~
i~
i~
= 2 lij jik Bk = 2 (li ik lk ii ) Bk = 2 (lk 3lk ) Bk
m
m
m
2i~
Bl ,
(7.13)
=
m2
es decir,
Bl =

im2
lij [x i , x j ].
2~

(7.14)

Ademas, notemos que con los operadores A1 , A2 , A3 la identidad de Jacobi se


puede escribir como
ijk [Ai , [Aj , Ak ]] = 0.

(7.15)

Por lo tanto, tomando Ai = x i y considerando Eq. (7.14), se tiene


0 = ijk [x i , [x j , x k ]] = [x i , ijk [x j , x k ]] =

i2~
2~ ~ ~
2~
[
x

,
B
]
=

B
=
B,
i
i
i
i
im2
im2
m2

es decir, se cumple
~ B
~ = 0.

(7.16)

Que es la ley de inexistencia de monopolos magneticos.

7.3.

Ley de Faraday

Veamos la deduccion de la ley de Faraday. Primero notemos que ocupando


las propiedades antisimetricas del tensor de Levi-Civita y del conmutador,
ademas de renombrar ndices se encuentra,
lij [x i , xj ] = lji [
xj , x i ] = lij [
xi , x j ],

(7.17)

lij [x i , xj ] = lij [
xi , x j ].

(7.18)

es decir,

136

Tambien se puede ver que se cumple


Bl
Bl
B l =
.
+ x m
t
xm

(7.19)

As, considerando Eqs. (7.14), (7.18) y (7.9) se encuentra




2
d
im
B
im2
d
B
l
l
=
+ x m
lij [x i , x j ] =
lij (x i x j x j x i )
B l =
t
xm
dt
2~
2~
dt
2
im
=
lij (
xi x j + x i xj xj x i x j xi )
2~
im
im2
lij ([
xi , x j ] + [x i , x
j ]) = lij [m
xi , x j ]
=
2~
~
im
im
= lij [Fi , x j ] = lij [Ei + irs x r Bs , x j ]
~
~
im
= lij ([Ei , x j ] + irs [x r Bs , x j ])
~
im
lji irs (x r [Bs , x j ] + [x r , x j ]Bs )
= lij j Ei +
~




im
i~
B
s
~ E
~ +
=
+ [x r , x j ]Bs
(lr js ls jr )
x r
l
~
m xj


  B
B
im
im
l
s
~ E
~ x l
x j
+
[x l , x j ]Bj
[x r , x r ]Bl
=
xs
xj
~
~
l




Bl
1
~
~
~
~
= E x l B + x m
ljr Br Bj
l
xm m


B
l
~ E
~ + x m
=
.
(7.20)
l
xm

Por lo tanto, igualando Eq. (7.19) con Eq. (7.20) se tiene


~
~ E
~ = B ,

(7.21)

que es la ley de Faraday.


Es notable que la fuerza de Lorentz y dos ecuaciones de Maxwell se puedan
obtener partiendo solo de las reglas de conmutacion y la segunda ley de Newton. Hay diversas opiniones sobre este hecho. Algunos piensan que hay algo
profundo en este resultado, el cual a
un no hemos comprendido. Pero tambien
hay quienes piensan que es un resultado sin importancia y otros que creen
tener una explicacion de esta prueba. Feynman encontro este prueba pero no
la publico, solo se la conto a algunos de sus amigos. Fue Dyson quien mando a
publicar el resultado despues de la muerte de Feynman [19].
137

Captulo 8
Series de Fourier
En este captulo mostraremos que, eligiendo de manera adecuada los parametros y el intervalo, las funciones trigonometricas sin y cos forman una base
ortonormal en el espacio de funciones. Este captulo es de especial importancia,
pues se aplican varias de las herramientas desarrolladas en el captulo 7. Al
final del captulo se muestran varios ejercicios.

8.1.

Funciones trigonom
etricas

Recordemos que las funciones trigonometrica sin y cos satisfacen


sin()
cos()
sin( + 2)
cos( + 2) = cos ,
sin n


2n + 1
sin

2
cos n


2n + 1
cos

2
Z
dx cos lx

Z
dx sin lx

= sin ,
= cos ,
= sin ,
= 0,

n = 0, 1, 2, 3, ,

(8.1)
(8.2)
(8.3)
(8.4)
(8.5)

= ()n ,

(8.6)

= ()n ,

(8.7)

= 0,
Z 2
=
dx cos lx = 0,
0
Z 2
=
dx sin lx = 0,

(8.8)

138

l = 1, 2, 3, , (8.9)
(8.10)

dx cos lx = 0

(8.11)

Tambien es u
til recordar la formula de Euler
ei = cos + i sin ,

(8.12)

ei = cos i sin ,

(8.13)

que induce

de estas dos igualdades se obtiene



1 i
e + ei ,
2

1 i
sin =
e ei .
2i

cos =

(8.14)
(8.15)

La representacion de Euler es muy u


til, pues nos permite obtener propiedades
de las funciones trigonometricas de forma sencilla. Por ejemplo, como
ei ei = ei(+) ,

(8.16)

se encuentra que
ei ei = (cos + i sin ) (cos + i sin )
= (cos cos sin sin ) + i (sin cos + cos sin )
= ei(+) = cos( + ) + i sin( + ),
(8.17)
es decir,
cos( + ) = cos cos sin sin ,
sin( + ) = sin cos + sin cos .

(8.18)
(8.19)

De estas identidades y ocupando (8.1)-(8.2) se tiene


cos( ) = cos cos + sin sin ,
sin( ) = sin cos sin cos .

(8.20)
(8.21)

Ademas, de Eqs. (8.18)-(8.21) se encuentra


1
[cos( ) + cos( + )] ,
2
1
sin() sin() =
[cos( ) cos( + )] ,
2
1
[sin( + ) + sin( )] .
sin() cos() =
2

cos() cos() =

139

(8.22)
(8.23)
(8.24)

8.2.

Relaciones de ortonormalidad

Con las funciones trigonometricas




1 cos nx sin nx
{(x)} = , ,
,

n = 1, 2, 3 ,

(8.25)

se puede construir una base de funciones ortonormal en el intervalo [, ].


Para mostrar esta afirmacion, primero notemos que
2

Z
Z
1
1
2
=
dx
dx =
= 1.
2
2
2

Ademas, considerado Eqs. (8.9)-(8.10) se encuentra


Z
Z
1 sin nx
1 cos nx

dx
=
= 0.
(8.26)
dx

2
2

Esto nos indica que la funcion constante 1/ 2 es ortogonal a las funciones


{cos nx, sin nx}.
Ahora, definamos l = n m y k = n + m, entonces considerando Eqs.
(8.22)-(8.24) y ocupando Eqs. (8.9)-(8.10) se llega a
Z
Z
sin mx cos nx
1

dx
=
dx sin mx cos nx

Z 

1
dx sin kx + sin lx = 0.
(8.27)
=
2
Para el caso en que n 6= m, usando de nuevo Eqs. (8.22)-(8.24) y ocupando
Eqs. (8.9)-(8.10), se llega a
Z
Z
cos nx cos mx
1

dx
dx cos mx cos nx
=

Z 

1
dx cos(n m)x + cos(n + m)x
=
2
Z 

1
dx cos lx + cos kx = 0,
=
2
Z
Z
sin nx sin mx
1

dx
dx sin mx sin nx
=

Z 

1
dx cos(n m)x cos(n + m)x
=
2
Z 

1
=
dx cos lx cos kx = 0.
2
140

Ademas, se cumplen
Z
Z
cos nx cos nx
1

dx cos nx cos nx
dx
=

Z 

1
=
dx cos(n n)x + cos(2n)x
2
Z
Z
1
1
dx +
dx cos(2n)x = 1,
=
2
2
Z
Z
sin nx sin nx
1

dx
=
dx sin nx sin nx

Z 

1
dx cos(n n)x cos(2n)x
=
2
Z
Z
1
1
dx
dx cos(2n)x = 1.
=
2
2
En resumen tenemos

sin mx sin nx

dx

Z
cos mx cos nx

dx

2

Z
1
dx
2

Z
sin mx cos nx

dx

Z
1 cos nx

dx

Z
1 sin nx

dx

= nm ,

(8.28)

= nm ,

(8.29)

= 1,

(8.30)

= 0,

(8.31)

= 0,

(8.32)

= 0.

(8.33)

Por lo tanto, el conjunto de funciones Eq. (8.25) son un conjunto de funciones


ortornales en el intervalo [, ].

8.2.1.

Series de Fourier

Como el conjunto de funciones Eq. (8.25) es ortornal en el intervalo [, ],


entonces dada una funcion f en dicho intervalo se puede hacer la expansion

X  cos nx
sin nx
a0
an
,
(8.34)
+ bn
f (x) = +

2 n1
141

con los coeficientes de Fourier dados por




 Z
1
1
f (x) =
a0 =
dx f (x),
2
2



Z

cos nx
cos nx
f (x) =
dx f (x),
an =



 Z


sin nx
sin nx
f (x) =
bn =
dx f (x).

8.3.

(8.35)

Ejemplos

En esta seccion veremos varios ejemplos de series de Fourier

8.3.1.

Caso f (x) = x

Consideremos la funcion f (x) = x en el intervalo [, ]. Como esta funcion


es impar, para este caso se tiene


Z
1
1
x =
dxx = 0,
a0 =
2
2


Z
cos nx
1
x =
an =
dx (cos nx) x = 0.


Ademas

bn =


Z
1
sin nx
|x =
dx (sin nx) x,

por lo que empleando el resultado




1 d
(x cos nx) cos nx ,
x sin nx =
n dx
se llega a
1
bn =
n
As,





1
2
2

x cos nx sin nx = cos n =
()n .
n
n
n

x=

X 2
n1

X ()n
sin nx
()n
=2
sin nx.
n

n
n1
142

La igualdad de Parseval Eq. (6.114) para este caso es


Z
X
2
||x|| =
x2 =
b2n ,

n1

es decir,

3
2 3 X 4
x
=
,
x2 = =
3
3
n2

n1

Z
de donde

X 1
2
=
.
n2
6
n1
Por otros metodos, este resultado fue obtenido primero por Euler.
Tambien note que
X 1
X
X
X 1
1
1
1X 1
=
+
=
+
n2
(2n)2 n1 (2n 1)2
4 n1 n2 n1 (2n 1)2
n1
n1
=

2 X
1
2
+
=
,
24 n1 (2n 1)2
6

as
X
n1

8.3.2.

1
2
=
.
(2n 1)2
8

Caso f (x) = x2

Ahora consideremos la funcion f (x) = x2 en el intervalo [, ]. Como esta


funcion es par, se encuentra


Z
sin nx 2
1
|x =
bn =
dx (sin nx) x2 = 0,




Z
1
1
2 3
2
|x =
a0 =
(8.36)
dxx2 = .
2
2
3 2
Adicionalmente, usando la igualdad




d x2 sin x
2
sin nx
2
2 d
=
x sin nx,
x cos nx = x
dx
n
dx
n
n
143

(8.37)

se encuentra
an


Z
cos nx 2
1
|x =
=
dx (cos nx) x2 ,

Z
2 2()n+1
4 ()n
2
dx (sin nx) x =
=
.
=
n
n
n
n2


Por lo tanto,
2

X 4()n cos nx
2 3 1

= +
n2

3 2 2 n1
2 X 4()n
+
cos nx.
=
3
n2
n1

Note que al evaluar esta funcion en x = 0 se tiene


0=

2 X 4()n
+
,
3
n2
n1

de donde
X ()n+1
n1

8.3.3.

n2

2
.
12

Caso f (x) = cos(x)

Ahora estudiaremos la funcion f (x) = cos(x) en el intervalo [, ]. Como


esta funcion es par, se tienen que


Z
sin nx
1
cos(x) =
bn =
dx (sin nx) cos(x) = 0,




Z
1
2 sin()
1

cos(x) =
.
dx cos(x) =
a0 =
2
2
2

Tambien se encuentra


Z
cos nx
1
cos(x) =
an =
dx (cos nx) cos(x)


Z
1
dx (cos(n + )x + cos(n )x)
=
2


sin(n + )x sin(n )x
1
+
=

2
n+
n

144

=
=
=
=



1
sin(n + ) sin(n )

+
n+
n



1
sin cos n + sin n cos sin n cos sin cos n

n+
n




n+1
n
2()
sin
1

1
() sin

n+ n

n2 2


2()n sin

.
2 n2

Por lo tanto,
X 2()n sin
2 sin 1

cos(x) =

2 2 n1
=

X ()n cos nx
1
+
22 n1 2 n2

2 sin

2 n2
!

cos nx

(8.38)

de este resultado se obtiene


cos x
1
=
sin

1 X 2()n cos nx
+
n1
2 n2

(8.39)

Para el caso particular x = , se llega a


1
cos
=
sin

2
1
+
2
n1 n2

(8.40)

2
.
2 n2

(8.41)

de donde

Ahora, note que


Z x
0

cos
1

sin

1
cos

sin

X
n1

d =
=
=
=
145


cos u 1
du

sin u u
0
Z x
d
(ln sin u ln u)
du
0


Z x
d
sin u
ln
du
u
0


sin x
.
ln
x
Z

(8.42)

Tambien se obtiene


Z xX
XZ x d
X Z x  2  d
2
2
=
d =
ln 1 2
2
2
n2 1 22
d
n
0 n1 n
n1 0
n1 0
n





x
X
X
x2
2
ln 1 2
=
ln 1 2 =
n
n
0
n1
n1


x2

= ln n=1 1 2 .
(8.43)
n
La expresion Eq. (8.41) nos indica que Eq. (8.42) debe ser igual a Eq. (8.43).
De donde se obtiene




x2
sin x

= ln n=1 1 2 ,
ln
(8.44)
x
n
es decir


sin x
x2

= n=1 1 2 .
x
n

(8.45)

Definiendo z = x, se llega a

 z 2 
sin z

= n=1 1
.
z
n

(8.46)

Esta igualdad la dedujo por primera vez Euler. Sorprendentemente Feynman


encontro que esta expresion tiene aplicaciones en mecanica cuantica [23]

8.3.4.

Funci
on f (x) = ex

Para la funcion f (x) = ex se tiene


Z
2 sinh
1
e e
=
a0 =
dxex =
.

2
2

(8.47)

Ademas
1
an =

dxe cos nx,

1
bn =

dxex sin nx,

de donde
an + ibn

1
=

1
dxe (cos nx + i sin nx) =

146

dxex(1+in)

(8.48)


1 ex(1+in)
=
1 + in

Por lo tanto,


1 in
1 e ein e ein

n
n
=
=
e
()

()
e

1 + in
(1 + n2 )
 (1 in)()n
(1 in)()n

e
=
2 sinh .
(8.49)
=
(1 + n2 )
(1 + n2 )
2()n sinh
,
an =
(1 + n2 )

bn =

2n()n+1 sinh

,
(1 + n2 )

que implican


sinh 2 sinh X ()n cos nx n()n+1 sin nx
+
+
.
e =
2
2

1
+
n
1
+
n
n1
x

(8.50)

De esta serie se encuentran las series


"
#
X  ()n cos nx n()n sin nx 
sinh

1+2
,
+
ex =
2
2

1
+
n
1
+
n
n1
"
#
n
x
x
X
() cos nx
e +e
sinh
1+2
cosh x =
=
,
2

1 + n2
n1
sinh x =

8.4.

ex ex
2 sinh X ()n+1 sin nx
=
.
2
2

1
+
n
n1

Serie tipo coseno

Para el espacio de funciones el intervalo donde estas son definidas es muy


importante. Por ejemplo, en el intervalo [0, ] el conjunto (8.25) ya no es ortonormal. En este intervalo consideraremos el conjunto de funciones
(
)
r
1
2
{(x)} = ,
cos nx .
(8.51)

Ocupando las identidades Eqs. (8.22)-(8.24), se encuentra


Z

1
dx

147

2

= 1,

(8.52)

r
2
1
cos nx = 0,
dx

0
r
Z r
2
2
cos nx
cos mx = nm .
dx

0
Z

(8.53)
(8.54)

Entonces, si f es una funcion en el intervalo [0, ], se puede expresar como


r
X
a0
2
f (x) = +
cos nx,
(8.55)
an
n1

con los coeficientes de Fourier dados por


Z
dx
f (x),
a0 =

0
Z r
2
cos nxf (x).
an =
dx

0
Por ejemplo, para la funcion f (x) = x se tienen

Z
dx
2
1 x2
x=
,
a0 =
=

2 0
2
0

ademas
an

r
Z
2
21
d
dxx sin nx
x cos nx =
=
dx

n 0
dx
r0
 r
Z 
Z
21
2 1
d
d
=
(x sin nx) sin nx =
dx
dx cos nx
2
n 0
dx
n 0
dx
r
2 1
[()n 1] ,
=
2
n
Z

de donde a2n = 0 y
r

a2n1 =

2
2
.
(2n 1)2

Por lo tanto,
x=

4 X cos(2n 1)x

.
2 n1 (2n 1)2
148

(8.56)

8.5.

Serie tipo seno

En un mismo intervalo puede haber diferentes base para el espacio de funciones. Por ejemplo, usando las identidades Eqs. (8.22)-(8.24), se puede mostrar
que se cumple
r
Z r
2
2
dx
sin nx
sin mx = nm .
(8.57)

0
Por lo tanto, el conjunto de funciones
(r
{(x)} =

)
2
sin nx

(8.58)

es ortonormal en el intervalo [0, ].


Entonces, si f es una funcion en el intervalo [0, ], se encuentra
r
X
2
f (x) =
bn
sin nx,

n1
en este caso los coeficientes de Fourier son
Z r
2
bn =
dx
sin nxf (x).

(8.59)

(8.60)

Por ejemplo, para la funcion constante f (x) = C se tienen los coeficientes de


Fourier
r
r
r Z


2
2
C 2
C
dx sin nx =
cos nx =
[()n 1] ,
bn = C
0
n
n

0
de donde b2n = 0 y

b2n1

2C
=
2n 1

2
.

As,
C=

4C X sin(2n 1)x
.
n1
2n 1
149

(8.61)

8.6.

Intervalo arbitrario

Ahora estudiaremos el espacio de funciones en el intervalo [L, L]. En este


intervalo mostraremos que el conjunto de funciones


1
1
nx 1
nx
, n = 1, 2, 3 , (8.62)
, sin
{(x)} = , cos
L
L
2L L
L
es ortonormal. Primero notemos que

2
Z L
1
dx
= 1,
2L
L
Z L
nx
1 1
= 0,
dx sin
L
2L L
L
Z L
nx
1 1
= 0.
dx cos
L
2L L
L

(8.63)
(8.64)
(8.65)

Ademas, con el cambio de variable

u=

x
L

(8.66)

se encuentra
Z

dxf

 x 
L

L
=

duf (u).

(8.67)

Para este caso es conveniente tomar las siguientes definiciones


    
Z L
   x 
x x
x
g
=
g
,
dxf
f
L
L
L
L
L
L
Z
hf (x)|g(x)i =
dxf (x)g(x).

(8.68)

Ocupando el resultado (8.67) se encuentra








1
1
1  x  1  x 

f
g
= f (u) g(u) .
L L
L

L
L

Entonces, utilizando las ecuaciones (8.28)-(8.33) se llega



 nx  1
 mx 
1

sin
sin
=
L L
L
L
L

 nx  1
 mx 
1
cos
cos
=
L L
L
L
L

 nx  1
 mx 
1

sin
cos
=
L L
L
L
L
150

(8.69)

nm ,
nm ,
0.

(8.70)

Estas ecuaciones junto con Eqs. (8.63)-(8.63) nos indican que el conjunto de
funciones Eq. (8.62) forman un conjunto de funciones ortornales en el intervalo
[L, L].
Este resultado implica que si f es una funcion continua en el intervalo
[L, L], se puede escribir como

X  an
nx
nx
a0
bn
cos
,
(8.71)
f (x) = +
+ sin
L
L
2L n1
L
L
aqu los coeficientes de Fourier son



Z L
1
1
f (x)
(8.72)
a0 =
=
dx f (x),
2L
2L
L
L


Z L
 nx 
 nx 
1
1

cos

an =
cos
f (x), (8.73)
f
(x)
=
dx
L
L
L
L
L
L


Z L
 nx 
 nx 
1
1

sin
f (x)
=
f (x). (8.74)
dx sin
bn =
L
L
L
L
L
L

8.6.1.

Delta de Dirac

Ahora veremos que las series de Fourier permiten generalizar la delta de


Kronecker, esta generalizacion se llama delta de Dirac y es de utilidad para
resolver problemas de mecanica cuantica y electromagnetismos.
Sustituyendo los coeficientes de Fourier Eqs. (8.72)-(8.74) en Eq. (8.71) se
encuentra


Z L
 nx 

X 1 Z L
nx

f (x )
cos
dx f (x ) cos
+
f (x) =
dx
2L
L L
L
L
L
n1




Z
 nx 
L
X1
nx
+
sin
,
dx f (x ) sin
L
L
L
L
n1
Z L
f (x )
=
dx
L
"L
#



 
 nx 
 nx 
1 X
nx
nx
cos
+ sin
sin
,
+
cos
2 n1
L
L
L
L
"
#
Z L
 n


f (x ) 1
+
cos
(x x ) .
(8.75)
=
dx
L
2 n1
L
L
151

En el intervalo [L, L] definiremos la delta de Dirac como


 n

1X
1

cos
+
(x x ) ,
(x x ) =
2L L n1
L

(8.76)

de donde

f (x) =

L
L

dx f (x ) (x x ) .

(8.77)

Note que, bajo una integral, la delta de Dirac cambia la variable x por x.
En ese sentido la delta de Dirac es la generalizacion continua de la delta de
Kronecker Eq. (1.20).
Ahora, recordemos la identidad trigonometrica

sin n + 21
1
,
+ cos + cos 2 + + cos n =
2
2 sin 2
por lo tanto la delta de Dirac se puede expresar como
h
i

)
sin n + 21 (xx
L
(x x ) = lm
.

)
n
2L sin (xx
2L

8.7.

(8.78)

(8.79)

Serie coseno en el intervalo [0, L]

Ahora, mostraremos que el conjunto de funciones


)
(
r
2
nx
1
, n = 1, 2, 3 ,
cos
{(x)} = ,
L
L
L

(8.80)

es ortonormal en el intervalo [0, L]. Primero notemos que con el cambio de


variable Eq. (8.67) se encuentra
Z L
 x  L Z
dxf
=
duf (u).
(8.81)
L
0
0
Por lo que
2
1
= 1,
dx
L
0
r
Z L
2
nx
1
cos
= 0,
dx
L
L L
0
r
r
Z L r
Z r
nx 2
mx
2
2
2
dx
cos
cos
=
cos nx
cos mx = nm .
dx
L
L
L
L

0
0
Z

152

As, el conjunto de funciones Eq. (8.80) forman un conjunto de funciones ortornales en el intervalo [0, L].
Entonces, si f es una funcion continua en el intervalo [0, L], se puede escribir
como
r
X
2
a0
nx
an
f (x) = +
cos
(8.82)
L
L
L n1
con los coeficientes de Fourier dados por
Z L
1
f (x),
a0 =
L
0
Z L r
 nx 
2
an =
dx
f (x).
cos
L
L
0

8.7.1.

(8.83)
(8.84)

Delta de Dirac

Sustituyendo los coeficientes de Fourier Eqs. (8.83)-(8.84) en Eq. (8.82) se


encuentra


Z L
 nx 

X 2 Z L
nx

f (x )
cos
dx f (x ) cos
+
f (x) =
dx
L
L
L
L
0
0
n1
"
#


Z L
 nx 

X
nx
f (x )
=
1+2
cos
cos
.
(8.85)
dx
L
L
L
0
n1
En el intervalo [0, L], con la base (8.80) , definiremos la delta de Dirac como


 nx 
1
nx
2X

(x x ) = +
cos
cos
,
(8.86)
L L n1
L
L
por lo tanto
f (x) =

8.8.

dx f (x ) (x x ) .

(8.87)

Serie seno en el intervalo [0, L]

Ahora estudiaremos el conjunto de funciones


(r
)
2
nx
{(x)} =
, n = 1, 2, 3 ,
sin
L
L
153

(8.88)

mostraremos que este conjunto de funciones es ortonormal en el intervalo [0, L].


Ocupando el cambio de variable Eq. (8.67) y la igualdad Eq. (8.81), se encuentra
r
r
Z L r
Z r
2
2
2
nx 2
mx
dx
sin
sin
=
sin nx
sin mx = nm .
dx
L
L
L
L

0
0
As, el conjunto de funciones Eq. (8.88) forman un conjunto de funciones ortornales en el intervalo [0, L].
Entonces, si f es una funcion continua en el intervalo [0, L], se puede escribir
como
r
X
2
nx
f (x) =
bn
sin
(8.89)
L
L
n1
con los coeficientes de Fourier dados por
Z L r
 nx 
2
f (x).
sin
bn =
dx
L
L
0

8.8.1.

(8.90)

Delta de Dirac

Sustituyendo los coeficientes de Fourier Eq. (8.90) en Eq. (8.89) se encuentra


L



 nx 
X 2 Z L
nx

f (x) =
dx f (x )
sin
dx f (x ) sin
L
L
L
0
0
n1
#
"


Z L
 nx 

X
nx
2
sin
sin
.
(8.91)
=
dx f (x )
L n1
L
L
0
Z

En el intervalo [0, L], con la base (8.88), definiremos la delta de Dirac como


 nx 
nx
2X

sin
sin
,
(8.92)
(x x ) =
L n1
L
L
por lo tanto
f (x) =

dx f (x ) (x x ) .

154

(8.93)

8.9.

Representaci
on compleja

En el intervalo [L, L] tambien podemos usar el conjunto de funciones


 i nx 
e L
{n (x)} =
,
n = 0, 1, 2, 3, .
(8.94)
2L
Note que si n 6= m
Z

dxn (x)m (x)

ei

(mn)x
L

L
ei(mn) ei(mn)
2L
i(m n)
2L
L
nm
mn
()
()
L
= 0,
(8.95)
=
i(n m)
2L
Z

si m = n se cumple
Z

dxn (x)n (x) = 1.

(8.96)

As, el conjunto de funciones Eq. (8.94) es ortonormal. Entonces, si f es una


funcion continua en el intervalo [0, L], se puede escribir como
f (x) =

nx

ei L
n
2L

(8.97)

con los coeficientes de Fourier dados por


Z L
nx
ei L
f (x).
n =
dx
2L
L

(8.98)

Note que si la funcion f es real, se cumple


n = n .

8.9.1.

(8.99)

Delta de Dirac

Sustituyendo los coeficientes de Fourier Eq. (8.98) en Eq. (8.97) se encuentra

n(xx )
Z L
Z L

X
X
n(xx )
1
ei L

f (x) =
=
dx f (x )e L
dx f (x )
.
2L
2L
L
L

155

As, la delta de Dirac en el intervalo [L, L] toma la forma

(x x ) =

n(xx )

X
ei L

2L

(8.100)

de donde
f (x) =

8.10.

L
L

dx f (x ) (x x ) .

(8.101)

Ecuaci
on de Laplace en dos dimensiones

Ahora veremos algunas aplicaciones de las series de Fourier. Primero estudiaremos problemas en dos dimensiones.
Usando coordenadas cartesianas, la ecuacion de Laplace en dos dimensiones
es
22D (x, y)

2
2
+
x2 y 2

(x, y) = 0.

(8.102)

Para resolver esta ecuacion propondremos


(x, y) = X(x)Y (y),

(8.103)

sustituyendo esta propuesta en Eq. (8.102) se encuentra


22D (x, y) = Y (y)

2 X(x)
2 Y (y)
+
X(x)
= 0,
x2
y 2

(8.104)

de donde
1 2 X(x)
1 2 Y (y)
22D (x, y)
=
+
= 0.
(x, y)
X(x) x2
Y (y) y 2

(8.105)

Por lo tanto,

22D (x, y)
(x, y)

=
x

1 2 X(x)
X(x) x2

= 0,

(8.106)

que implica
1 2 X(x)
= 2 ,
X(x) x2

2 X(x)
= 2 X(x),
x2
156

= constante.

(8.107)

Usando este resultado en Eq. (8.105) se llega a


2 +

1 2 Y (y)
= 0,
Y (y) y 2

(8.108)

es decir
2 Y (y)
= 2 Y (y).
y 2

(8.109)

Si = 0, entonces Eq. (8.107) y Eq. (8.109) toman la forma


X0 (x) = (A + Bx) ,

Y0 (y) = (C + Dy) ,

A, B, C, D = constante.

Si 6= 0 las soluciones a las ecuaciones (8.107) y (8.109) son


X (x) = (a cos x + b sin x) ,

Y (y) = c ey + d ey , a , b , c , d = constante.

As, en coordenadas cartesianas, las soluciones generales de la ecuacion de


Laplace en dos dimensiones son

8.10.1.

0 (x, y) = (A + Bx) (C + Dy) ,



(x, y) = (a cos x + b sin x) c ey + d ey .

(8.110)
(8.111)

Ejemplo

Suponga que tiene un sistema en dos dimensiones cuyo potencial electrico


satisface las condiciones de borde
(x, 0) = V,
V = constante,
(x, ) = 0,
(0, y) = (L, y) = 0.

(8.112)
(8.113)
(8.114)

Encontrar el potencial electrico en todo el espacio y mostrar que se puede


escribir como


sin 2x
2V
1
L
.
(8.115)
tan
(x, y) =

sinh y
L
Primero notemos que la condicion de borde Eq. (8.114)
0 (0, y) = A (C + Dy) = 0
157

(8.116)

implica A = 0. As, 0 (x, y) = Bx (C + Dy) . Ademas, si pedimos que


0 (L, y) = BL (C + Dy) = 0,

(8.117)

se encuentra que B = 0. Por lo tanto 0 (x, y) = 0. De las misma condicion de


borde Eq. (8.114) se puede ver que

(0, y) = a c ey + d ey = 0
(8.118)

entonces a = 0. As, (x, y) = b sin x (c ey + d ey ) . Ademas, si pedimos que



(L, y) = b sin L c ey + d ey = 0
(8.119)
se debe cumplir

sin L = 0,

(8.120)

que se satisface si
=

n
,
L

n = 1, 2, 3, .

De donde, las soluciones deben ser de la forma


r
n 
n
2
n
y

y
n (x, y) = cn e L + dn e L
sin
x.
L
L

(8.121)

(8.122)

Ahora, se puede observar que la condicion de borde Eq. (8.113) implica cn = 0.


As, las soluciones deben ser de la forma
r
2
n
y
n
n (x, y) = an e L
sin
x.
(8.123)
L
L
Por lo tanto, las solucion mas general que cumple las condiciones de borde
Eqs. (8.113)-(8.114) es
r
X
2
n
y
n
(x, y) =
an e L
sin
x.
(8.124)
L
L
n1
Para cumplir la condicion de borde Eq. (8.112) se debe pedir que
r
X
n
2
sin
x,
(x, 0) = V =
an
L
L
n1
158

(8.125)

que se cumple siempre y cuando


r Z L
r
Z L
2
2
n
n
an =
dxV sin
x=
V
x
dx sin
L 0
L
L
L
0
r
Z L
2 L
n
d
V
()
x
dx cos
=
L n
dx
L
0
r
L r
2 L
2 L
n
=
V
() cos
x =
V
() [()n 1] ,
L n
L
L n

(8.126)

de donde

a2n1 =

2 2V L
,
L (2n 1)

a2n = 0.

Sustituyendo estos resultados en Eq. (8.124), se obtiene


(2n1)
(2n 1)
4V X 1
e L y sin
x.
(x, y) =
n1 2n 1
L

(8.127)

(8.128)

Ahora, note que


(2n1)
y
L

 (2n1) (2n1) 
 (2n1)

(2n 1)

y i
x
(ixy)
L
L
L
x = Im e
sin
e
= Im e
L
 (2n1)

(2n1)

= Im ei L (x+iy) = Im ei L (x+iy)
,

por lo tanto, definiendo

= ei L (x+iy) ,
se encuentra
X 2n1
4V
(x, y) =
Im

2n 1
n1
Ahora, recordemos las series
X
1
=
n,
1
n0

X
1
=
()n n ,
1+
n0

de las cuales se deduce


Z
X n+1
X n
d
= ln(1 ) =
=
,
1
n
+
1
n
n0
n1
Z
n n+1
X
X
()
n
d
= ln(1 + ) =
=
()n+1 ,
1+
n+1
n
n0
n1
159

(8.129)

(8.130)

(8.131)

que a su vez implican




X 1 + ()n+1 n
1+
= ln(1 + ) ln(1 ) =
ln
1
n
n1
= 2

X 2n1
.
2n

1
n1

(8.132)

Entonces

 
1+
2V
.
Im ln
(x, y) =

(8.133)

Ademas, si definimos
z=
se tiene que

1+
= |z|ei ,
1

tan =

Im(z)
,
Re(z)

ln z = ln |z| + i.

(8.134)

(8.135)

As,
2V
.

Considerando la definicion de , tenemos

(8.136)

(x, y) =

1+
(1 + )(1 )
1 +
=
=
1
|1 |2
|1 |2

1 + ei L (x+iy) ei L (xiy) ei L (x+iy) ei L (xiy)


=
|1 |2
y


2
1 + e L ei L x ei L x e L
=
|1 |2

z =

1 e

2y
L

+ 2ie L sin 2x
L
,
|1 |2

entonces
y

tan =
Por lo tanto,

2e L sin 2x
L
1 e

2y
L

(8.137)

2 sin 2x
L

e L e L

2V
(x, y) =
tan1

160

sin 2x
L
sinh y
L

sin 2x
L
.
sinh y
L

(8.138)

(8.139)

8.11.

Ecuaci
on de Poisson en dos dimensiones
con coordenas polares

En coordenas polares, la ecuacion de Laplace en dos dimensiones es




1

1 2
2
2D =

+ 2 2 = 0.
(8.140)


Para resolverla propondremos (, ) = R()(), de donde


R()
R() 2 ()
()
2

+ 2
= 0,
2D =

(8.141)

que implica
2 22D

=

R()

R()

1 2 ()
= 0.
() 2

(8.142)

Por lo tanto,

2 22D

1 2 ()
() 2

= 0,

(8.143)

as
1 2 ()
= 2 ,
() 2

2 ()
= 2 (),
2

= constate.

Sustituyendo este resultado en Eq. (8.142) se llega a






R()

R()

2

= 0,

= 2 R().
R()

En consecuencia las ecuaciones a resolver son




2 ()
R()

= 2 R().
= (),

(8.144)

(8.145)

(8.146)

Si = 0, para el sector angular se tiene


() = (A + B) ,

A, B = constante.

Para la parte radial se tiene la ecuacion




R()

= 0,

161

(8.147)

(8.148)

es decir

R()
= C,

C = constante,

(8.149)

entonces
R() = C ln + D,

D = constante.

(8.150)

Por lo tanto,
0 (, ) = (A + B) (C ln + D) ,

A, B, C, D = constante.

(8.151)

Si 6= 0, la parte angular tiene como solucion


() = a cos + b sin ,

a , b = constante.

(8.152)

Para la parte radial propondremos R() = E , con E una contante. Al sustituir esta propuesta en Eq. (8.146) se encuentra 2 = 2 , es decir = . As,
la solucion radial es
R() = c + d ,

c , d = constante.

(8.153)

De donde, si 6= 0, las soluciones son



(, ) = (a cos + b sin ) c + d .

(8.154)

(, ) = (, + 2).

(8.155)

como (, ) y (, + 2) representan el mismo punto en el espacio, se debe


cumplir que

Para el caso = 0 esta condicion implica B = 0, de donde


0 (, ) = C ln + D,

C, D = constante.

(8.156)

Si 6= 0, la condicion Eq. (8.155) impone que


cos ( + 2) = cos ,

sin ( + 2) = sin ,

(8.157)

que se satisfacen si n = , con n = 1, 2, 3, . Por lo tanto, las soluciones son



n (, ) = (an cos n + bn sin n) cn n + dn n .
(8.158)

Esto nos indica que, usando coordenas polares, la solucion general a la ecuacion
de Poisson en dos dimensiones es

X  an

bn
a0
cos n + sin n cn n + dn n . (8.159)
(, ) = C ln + +

2 n1
162

8.11.1.

F
ormula de Poisson en dos dimensiones

Un cilindro infinito de radio R esta a potencial V () en su superficie.


Suponiendo que el potencial es finito en cualquier punto del espacio, muestre
que el potencial se puede escribir como
"
 2 # Z 2
1
<
d V ( )
(, ) =
1
 2 , (8.160)
 
2
>
<
0

1 2 > cos( ) + ><

con < = menor{, R} y > = mayor{, R}.

Para este caso se debe ocupar la ecuacion de Poisson en tres dimensiones


con coordenadas cilndricas. Pero en el cilindro es infinito el potencial no depende de z, por lo tanto la ecuacion que se debe satisfacer es la ecuacion de
Poisson en dos dimensiones en coordenadas polares Eq. (8.140). As, el potencial debe ser de forma Eq. (8.159). Como el potencial debe ser finito en el
interior del cilindro, en esta region debe tomar la forma
 
X  an
a0
n
bn
cos n + sin n
int (, ) = +
.
(8.161)

R
2 n1
Ahora, como el potencial debe ser finito en el exterior del cilindro, en esta
region debe tomar la forma
  n
X  An
Bn
R
A0
cos n + sin n
.
(8.162)
ext (, ) = +

2 n1
Ademas, si = R se debe cumplir

X  An
A0
Bn
cos n + sin n
V () = ext (R, ) = +

2 n1


X an
bn
a0
cos n + sin n ,
= int (R, ) = +

2 n1
que implica

an
bn

V ( )
d ,
2

Z
cos n
= An =
V ( ) d ,

sin n
= Bn =
V ( ) d.

A0 = a0 =

163

(8.163)
(8.164)
(8.165)

As, los potenciales son


X  an
a0
cos n +
int (, ) = +

2 n1
X  an
a0
cos n +
ext(, ) = +

2 n1

 
bn
n
sin n
,
R

  n
bn
R
sin n
,

estos dos potenciales se puenden escribir como


  n
X  an
a0
bn
<
cos n + sin n
(, ) = +
.

>
2 n1
Ahora, sustituyendo los coeficientes de Fourier Eq. (8.163) en Eq. (8.165) se
encuentra
Z
1
V ( )
d +
(, ) =
2 2
Z
X 1
cos n
cos n
+
d V ( ) d

n1
  n
Z

1
<

sin n

d V ( ) d
+ sin n
>

 n !
Z
X
<
1
1
=
dV ( )
(cos n cos n + sin n sin n)
+
2 n1
>

!
 n
Z

1 X <
V ( )
=
d
+
cos n( ) .

>

n1
Definamos
z=

<
>

ei( ) < 1,

(8.166)

de donde
Rez =

<
>

cos( ).

(8.167)

As,
(, ) =

( )
Re

164

1 X n
+
z
2 n1

( )
Re

X
1
1+1+
zn
=
d
2

n1
!
Z
1 X n
V ( )
=
d
Re +
z

2 n0



Z

1
1
V ( )
=
d
.
Re +

2 1+z

(8.168)

Ahora, notemos que

1
11z
1 (1 z)(1 + z )
1 1 + z z z
1
+
=
=
=
. (8.169)
2 1+z
21+z
2
|1 + z|2
2
|1 + z|2

Ademas, considerando la definicion Eq. (8.166) se tiene

1+z zz z =
1+z =
|1 + z|2 =
=

2
<
sin( )
,
1 2i
>
 

<
<

cos( ) + i
sin( )
1+
>
>

 
2  2
<
<

1+
cos( ) +
sin2 ( )
>
>
 2
 
<
<
cos( ) +
.
(8.170)
1+2
>
>


<
>


Por lo tanto

  

1
1
1
=
Re +
2 1+z
2

 2
1 <>
 2 .
 
<

1 + 2 > cos( ) + <>

Sustituyendo este resultado en Eq. (8.168) se llega a


"
 2 # Z 2
d F ( )
<
1
1
(, ) =
 2 ,
 
2
>
0
1 2 >< cos( ) + ><
que es lo que se queria demostrar.

165

(8.171)

8.11.2.

Cilindro infinito

Suponga que un cilindro infinito de radio R tiene en su superficie el potencial




V ,

  ,

V
 2 , 0 ,
V () =
(8.172)
V
 0, 2  ,

V
2 , .

Suponiendo que el potencial es finito en cual quier punto del espacio, mostrar
que el potencial en todo el espacio es
 2

<
2V
2 > sin 2
tan1
(x, y) =
(8.173)
 4 ,

1 ><
con < = menor{, R} y > = mayor{, R}.

Por las caractersticas del sistema, el potencial es de la forma Eq. (8.159)


con los coeficientes de Fourier dados por Eqs. (8.163)-(8.165). Ademas, como
V () es una funcion impar se encuentra que a0 = an = 0 y
Z
Z
2
1
dV () sin n =
dV () sin n
bn =

0
!


2
2V
2V 
n 

=
= ()n+1 1 + 2 cos
.
cos n cos n
2
n
n

0
2

= 0, se encuentra que b2n1 = 0, mientras que


Como cos (2n1)
2
2V
2V
b2n = (1 + cos n) = (1 + ()n ) ,
n
n

de donde b2(2n) = 0 y
b2(2n1) =

4V
.
(2n 1)

Por lo tanto el potencial electrico es


 2(2n1)
1
4V X <
(, ) =
sin 2(2n 1).
n1 >
2n 1
166

(8.174)

Con la definicion
=

<
>

2

ei2 ,

(8.175)

el potencial se puede escribir de la forma


X 2n1
4V X Im 2n1
4V
(, ) =
=
Im
n1 2n 1

2n 1
n1

Ademas, demas usando la serie




X 2n1
1+
=2
ln
1
2n 1
n1
se obtiene

 
2V
1+
(x, y) = Im ln
.

(8.176)

Ahora, si definimos
z=

1+
= |z|ei ,
1

tan =

Im(z)
,
Re(z)

(8.177)

se encuentra
ln z = ln |z| + i,

(8.178)

de donde
(x, y) =

2V
.

(8.179)

Ocupando la definicion de tenemos que


1+
(1 + )(1 )
1 +
=
=
1
|1 |2
|1 |2
 4
 4
 2
 2
1 >< + 2i >< sin 2
1 + 2i >< sin 2 <>
=
=
|1 |2
|1 |2

z =

entonces
2
tan =

<
>

2


167

sin 2
4 ,

<
>

(8.180)

de donde
 2

<
2V
2 > sin 2
(x, y) =
tan1
 4 ,

1 ><

(8.181)

que es lo que se queria mostrar.

8.12.

Ecuaci
on de Schrodinger en una dimensi
on

La ecuacion de Schrodinger en una dimension es


i~

(x, t)
= H(x, t),
t

H=

~2 2
+ V (x).
2m x2

(8.182)

Para resolver esta ecuacion, propondremos que (x, t) = T (t)(x), sustituyendo esta propuesta en Eq. (8.182) se encuentra
T (t)
= T (t)H(x),
t

(8.183)

1 T (t)
1
=
H(x).
T (t) t
(x)

(8.184)

i~(x)
de donde
i~
Por lo tanto,

i~
t
es decir


1 T (t)
i~
= E,
T (t) t

1 T (t)
T (t) t

i~

= 0,

T (t)
= ET (t),
t

(8.185)

E = constante,

de donde
Et

T (t) = ei ~ .

(8.186)

Sustituyendo este resultado en Eq. (8.184) se llega a


H(x) = E(x),
como H es un operador Hermtico, E debe ser una constante real.

168

(8.187)

8.12.1.

Pozo infinito

Suponga que el potencial es dado por



0
0 x L,
V (x) =
x < 0, x > L.

(8.188)

Este potencial representa una partcula encerrada en una lnea de longitud L.


Como la partcula esta encerrada, se deben cumplir las condiciones de frontera
(0) = (L) = 0, que son condiciones de Dirichlet. Por lo tanto, Eq. (8.187)
es tipo Sturm-Llioville y sus soluciones deben formar una base ortonormal.
Dentro de la lnea [0, L], se tiene la ecuacion
H(x) =

~2 2 (x)
= E(x),
2m x2

(8.189)

es decir
2 (x)
2mE
=

(x),
x2
~2

(8.190)

cuya solucion general es


r
r
2mE
2mE
x + BE cos
x, AE , BE = constante. (8.191)
(x) = AE sin
2
~
~2
La condicion de borde (0) = 0 implica BE = 0. Mientras que la condicion
(L) = 0 implica
r
2mE
sin
L = 0,
(8.192)
~2
es decir
r
2mE
L = n.
(8.193)
~2
Por lo tanto las u
nicas energas permitidas son
~2  n 2
En =
,
(8.194)
2m L
ademas las funciones de onda normalizadas son
r
2
n
n (x) =
sin
x.
(8.195)
L
L
Entonces, las funciones de onda del sistema son
r
X
En t
n
2
sin
x.
(8.196)
(x, t) =
an ei ~
L
L
n1
169

8.13.

Ecuaci
on de Onda

La ecuacion de onda en una dimension es


 2


1 2

(x, t) = 0.
x2 c2 t2

(8.197)

Para resolver esta ecuacion propondremos la funcion (x, t) = T (t)X(x), al


sustituirla en Eq. (8.197) se obtiene
T (t)

2 X(x) X(x) 2 T (t)


2
= 0,
x2
c
t2

(8.198)

que implica
1 2 X(x)
1 2 T (t)
=
,
X(x) x2
T (t)c2 t2

(8.199)

de donde

1 2 X(x)
X(x) x2

= 0,

(8.200)

es decir
1 2 X(x)
= 2 ,
X(x) x2

= constante,

(8.201)

al considerar este resultado en Eq. (8.199) se llega a


1 2 T (t)
= 2 .
T (t)c2 t2

(8.202)

Por lo tanto, las ecuaciones a resolver son


2 T (t)
= 2 c2 T (t),
t2
Si = 0, se tienen las soluciones
T (t) = (A + Bt) ,

2 X(x)
= 2 X(x).
x2

X(x) = (C + Dx) ,

(8.203)

A, B, C, D = constante,

es decir
0 (x, t) = (A + Bt) (C + Dx) .

(8.204)

Si 6= 0 se encuentra que
X(x) = (a cos x + b sin x) ,

T (t) = (c cos ct + d sin ct) ,

con a , b , c , d son constantes. De estas soluciones se tiene


(x, t) = (a cos x + b sin x) (c cos ct + d sin ct) .
170

(8.205)

8.13.1.

Cuerda con extremos fijos

Supongamos que tenemos una cuerda de longitud L con los extremos fijos. Para este caso, las soluciones de la ecuacion de onda deben satisfacer las
condiciones de borde
(0, t) = (L, t) = 0.

(8.206)

Estas condiciones implican


0 (0, t) = A(C + Dt) = 0,

(8.207)

0 (L, t) = BL(C + Dt) = 0,

(8.208)

es decir A = 0, ademas

que induce B = 0. Por lo tanto 0 (x, t) = 0. Para el caso 6= 0, se tiene


(0, t) = a (c cos ct + d sin ct) = 0,

(8.209)

es decir a = 0, ademas
(L, t) = b sin L (c cos ct + d sin ct) = 0,

(8.210)

que implica sin L = 0, por lo que L = n. De donde, en este caso las


soluciones deben ser de la forma
r




 nx  
2
nct
nct
cn cos
+ dn sin
. (8.211)
sin
n (x, t) =
L
L
L
L

As, la solucion general es


r




 nx  
X 2
nct
nct
(x, t) =
cn cos
+ dn sin
. (8.212)
sin
L
L
L
L
n1

8.13.2.

Condiciones iniciales

Supongamos que se cumplen las condiciones iniciales



(x, t)
= g(x),
(x, 0) = f (x),
t t=0

(8.213)

entonces

(x, 0) = f (x) =

X
n1

cn

171

 nx 
2
,
sin
L
L

(8.214)

por lo tanto
Z L r
Z L r
 nx 
 nx 
2
2
cn =
dx
f (x) =
(x, 0). (8.215)
dx
sin
sin
L
L
L
L
0
0
Ademas,

r

 nx 
X  nc  2
(x, t)
=
g(x)
=
d
,
sin
n
t t=0
L
L
L
n1

(8.216)

por lo tanto

L
nc

Z

 nx 
2
g(x)
sin
dx
L
L
0
Z L r

 nx  (x, t)
2
L
.
dx
sin
=
nc
L
L
t t=0
0

dn =

8.13.3.

Energa

La energa para una cuerda esta dada por


" 
2 
2 #
Z
(x, t)
1 (x, t)
1 L
dx 2
+
H=
2 0
c
t
x

(8.217)

Para calcular esta cantidad note que


r




 nx  
X 2  nc 
(x, t)
nct
nct
sin
cn sin
+ dn cos
,
=
t
L
L
L
L
L
n1
r  




 nx  
X
2 n
nct
nct
(x, t)
cos
cn cos
+ dn sin
,
=
x
L
L
L
L
L
n1
de donde
2 X X     r



 nx  r 2
1 (x, t)
n
2
l
lx
=
sin
sin
c2
t
L
L
L
L
L
L
n1 l1




 




nct
nct
lct
lct
cn sin
+ dn cos
cl sin
+ dl cos
,
L
L
L
L
2 X X     r



 nx  r 2
n
l
lx
(x, t)
2
cos
cos
=
x
L
L
L
L
L
L
n1 l1




 




nct
nct
lct
lct
cn cos
+ dn sin
cl cos
+ dl sin
,
L
L
L
L
172

ocupando las relaciones de ortormalidad se encuentra


Z

(x, t)
t

2

(x, t)
dx
x

2

1
dx 2
c







2
X  n 2 
nct
nct
cn sin
+ dn cos
=
,
L
L
L
n1



2
X  n 2 
nct
nct
cn cos
+ dn sin
=
.
L
L
L
n1

Por lo tanto, la energa es


H=


1 X  n 2 
(cn )2 + (dn )2 .
2 n1 L

173

(8.218)

Captulo 9
El Oscilador Arm
onico y los
Polinomios de Hermite
En este captulo obtendremos las funciones de onda propias del oscilador
armonico cuantico. En principio para obtener estas funciones se debe resolver una ecuacion diferencial ordinaria de segundo orden. Sin embargo, J. G.
Darboux desarollo el llamado metodo de factorizacion, el cual permite resolver
diferentes ecuaciones diferenciales de forma algebraica. Al surgir la mecanica
cuantica este metodo mostro su gran potencial, pues con el se pueden obtener
soluciones exactas de sistemas sofisticados.
El material de este captulo es importante desde el punto de vista fsico,
pues se presentan los operadores de ascenso y descenso, los cuales nos abre
una ventana que nos permite ver mas alla del oscilador armonico. Tambien es
importante como herramienta matematica, pues muestra como herramientas
algebraicas permiten resolver ecuaciones diferenciales.

9.1.

Hamiltoniano

El operador Hamiltoniano para el oscilador armonico en una dimension es


2

= 1 p2 + m x2 ,
H
x = x, p = i~ ,
2m
2
x
de donde la ecuacion de onda estacionaria es


2
2
2

m
~
2

+
x (x) = E(x).
H(x)
=
2m x2
2

(9.1)

(9.2)

Esta ecuacion esta definida en el intervalo (, ) y se debe cumplir las condiciones de Dirichlet () = () = 0. Resolver este problema equivale a
174

encontrar las funciones propias (x) y los valores propios E.


A
un sin resolver el problema sabemos que E debe ser real, pues p y x son
operadores Hermticos. Ademas para cualquier funcion f se cumple


2
0 h
pf |
pf i = f |
p pf = f |
pf ,


2
0 h
xf |
xf i = f |
x xf = f |
xf ,

por lo que

  2
 
p
m 2 2

0 hf |Hf i = f
+
x f .
2m
2

(9.3)

= E se tiene
En particular si f = y H
0 E h|i .

(9.4)

De este resultado es claro que si E < 0, entonces h|i = 0, que implica que
(x) = 0. Ademas, si h|i =
6 0, entonces E 0. Es decir, la u
nica solucion
con valor propio negativo es (x) = 0, en cualquier otro caso se debe cumplir
que E 0.

9.1.1.

Ortonormalidad

Tambien podemos ver que Eq. (9.2) es tipo Sturm-Liouville, por lo que sus
soluciones que satisfancen la condiciones de Dirichlet () = () = 0
con valores propios diferentes, son ortogonales. Es decir, si a (x) y b (x) son
soluciones de Eq. (9.2) con los valores propios Ea y Eb y ademas a () =
b () = 0, entonces se cumple
Z
(Ea Eb )
dxa (x)b (x) = 0.
(9.5)

En particular, si Ea 6= Eb , tenemos
Z
dxa (x)b (x) = 0.

(9.6)

Por lo que las funciones de onda con diferente valor propio son ortonormales.
Si Ea = Eb , entonces la integral
Z
Z

dxa (x)b (x) =


dxa (x)a (x)

175

es la norma de la funcion de onda, la cual supondremos que esta normalizada,


es decir,
Z
dx|a (x)|2 = 1.
(9.7)

Como este resultado es valido para cualquier valor propio, se encuentra


Z
ha |a i =
dxa (x)b (x) = ab .
(9.8)

Por lo tanto, las funciones de onda del oscilador armonico forman una base
ortonormal.

9.2.

Operadores de acenso y decenso

Recordemos que se cumplen la reglas de conmutacion


[
x, p] = xp px = i~,

[
x, x] = [
p, p] = 0.

(9.9)

Ahora, definamos el operador


a
=

1
(
p im x) .
2m~

(9.10)

Como p y x son operadores hermticos se tiene


a
=

1
(
p + im x) .
2m~

(9.11)

De donde
a
a
=
=
=
=
=
=
=

1
(
p + im x) (
p im x)
2m~
1
[
p (
p im x) + im x (
p im x)]
2m~

1
pp im px + im xp + m2 2xx
2m~

1
p2 + m2 2x2 + im (
xp px)
2m~

1
p2 + m2 2x2 + im[
x, p]
2m~ 

2m
1 2 m 2 2 1
p +
x ~
2m~ 2m
2
2


1
~ ,
H
~
2
176

(9.12)

por lo tanto,


1

= ~ a
.
H
a
+
2

(9.13)

Ademas, se cumple
 
a
, a
= 1,

(9.14)

en efecto, tomando en cuenta (9.9) se encuentra




 
(
p im x) (
p + im x)
1

[
p im x, p + im x]
a
, a

=
,
=
2m~
2m~
2m~
1
([
p, p + im x] im [
x, p + im x])
=
2m~
1
=
([
p, p] + im [
p, x] im ([
x, p] + im [
x, x]))
2m~
2m~
1
(im(i~) im(i~)) =
= 1.
=
2m~
2m~
Tambien se cumplen las reglas de conmutacion
h
i
h
i
a
a
H,
= ~a,
H,
= ~a ,

(9.15)

pues

 
 
h
i



 
1

H, a
= ~ a a
+
,a
= ~ a
a
, a
= ~ a
[a, a
] + a , a
a

2
 
= ~ a
,a
a
= ~a,
 
 
i
h


    
1

a, a
= ~ a
a
, a
+ a
, a a

,a
= ~ a
= ~ a a
+
H, a

2
 
= ~a a
, a
= ~a .

Estas dos igualdades se pueden escribir como

a = a
~a,
H
H
a = a
+ ~a.
H
H

(9.16)
(9.17)

Con la ayuda de estas identidades encontraremos los valores propios E y las


Primero supongamos
funciones propias (x) del operador Hamiltoniano H.

que (x) satisface la ecuacion H(x) = E(x), entonces las funciones


(1) (x) = a
(x),

+(1) (x) = a (x),


177

(9.18)

satisfacen las ecuaciones


(1) (x) = (E ~) (1) (x),
H
+(1) (x) = (E + ~) +(1) (x).
H

(9.19)
(9.20)

Para probar estas afirmaciones primero notemos que de Eq. (9.16) se obtiene


(1) (x) = H
a(x) = a
~a (x) = a

H
H
H(x)
~a(x)
= Ea(x) ~a(x) = (E ~) a
(x) = (E ~) (1) (x),

mientras que de Eq. (9.17) se encuentra





+(1) (x) = H
a (x) = a H
+ ~a (x) = a H(x)
+ ~a (x)
H

= Ea (x) + ~a (x) = (E + ~) a
(x) = (E + ~) +(1) (x).

con valor propio


Por lo tanto, la funcion (1) (x) es funcion propia de H
con valor propio E + ~.
E ~, mientras que +(1) (x) es funcion propia de H
Es decir, si es solucion de la ecuacion Schrodinger del oscilador armonico,
la funciones (1) = a y +(1) = a tambien son soluciones de esta ecuacion.
Por induccion se puede probar que las funciones
(n) (x) = (a)n (x),

+(n) (x) = a

satisfacen

n

(x),

(9.21)

(n) (x) = (E n~) (n) (x),


H
+(n) (x) = (E + n~) +(n) (x).
H

(9.22)
(9.23)

Para ambos casos la base inductiva ya esta probada, falta probar el paso inductivo. Primero probaremos el paso inductivo para las funciones (n) (x), en
este caso debemos suponer que se cumple Eq. (9.22) y probar
(n+1) (x) = [E (n + 1)~] (n+1) (x),
H
(n+1) (x) = a(n) (x) = (a)

n+1

con

(x).

Esta igualdad es cierta, pues de Eq. (9.16) y Eq. (9.22) se llega a




(n+1) (x) = H
a(n) (x) = a
~a (n) (x)
H
H
=
=
=
=

(n) (x) ~a(n) (x)


a
H
(E n~) a
(n) (x) ~a(n) (x)
(E n~ ~) a
(n) (x)
[E (n + 1)~] (n+1) (x),
178

as la igualdad Eq. (9.22) se satisface para cualquier n.


Para el caso de +n (x) debemos suponer Eq. (9.23) y probar que se cumple
+(n+1) (x) = [E + (n + 1)~] +(n+1) (x),
H
n+1
+(n+1) (x) = a +(n) (x) = a

(x).

con

(9.24)

Esta igualdad tambien es cierta, pues de Eq. (9.17) y Eq. (9.23) se encuentra


+(n+1) (x) = H
a +(n) (x) = a
+ ~a +(n) (x)
H
H
=
=
=
=

+(n) (x) + ~a +(n) (x)


a
H
(E + n~) a
+(n) (x) + ~a +(n) (x)
(E + n~ + ~) a
+(n) (x)
[E + (n + 1)~] +(n+1) (x).

Por lo tanto la igualdad Eq. (9.23) es validas para cualquier natural n.


con
Lo que hemos demostrado es que si (x) es funcion propia de H,
valor propio E, entonces, dado cualquier natural n, las funciones (a)n (x)
n
y a (x) tambien son funciones propias del mismo operador, con valores
propios E n~ y E + n~, respectivamente.
Ahora, note que para cualquier valor E existen un natural n
tal que el

valor propio En = E n
~, con funcion propia (n) (x) = (a)n (x), sa(n) = E n
tisfce E
~ < 0. Esto implica que n (x) = 0. Es decir, si (x)
existe un natural n
es una funcion propia de H
tal que (a)n (x) = 0. Note
que en realidad existe un n
umero infinito de posibles valores de n
, pues si
n

n
+1
(a) (x) = 0, entonces tambien se cumple (a) (x) = 0.
Supongamos n es el mnimo de los valores posibles de n
tal que (a)n (x) =

0 y definamos N = n 1. Entonces, la funcion 0 (x) = (a)n 1 (x) =


(a)N (x) satisface a
0 (x) = 0. Note que 0 (x) 6= 0, pues de lo contrario
n no sera el mnimo de los valores de n
, note tambien que el valor de la
energa de 0 (x) es
E0 = E N~.
As, podemos afirmar que existe una funcion, 0 (x), tal que
a
0 (x) = 0,

0 (x) 6= 0
179

(9.25)

a esta funcion le llamaremos estado base. Con el estado base se encuentra




~
1

0 (x) =
0 (x) = E0 0 (x).
(9.26)
H0 (x) = ~ a
a
+
2
2
Por lo que E0 = ~/2 es el valor propio de 0 (x), pero este valor propio debe
ser igual a E0 = E N~, de donde


1
.
(9.27)
E = EN = ~ N +
2
los valores propio E son discretos.
Como (x) es cualquier estado propio de H,
Ademas, si definimos N (x) = a

N

0 (x) y consideramos (9.23), se llega




N (x) = (E0 + N~)N (x) = ~ N + 1


H
2

N (x).

(9.28)

As, N (x) tiene el mismo valor propio que (x). Por lo tanto, (x) y N (x)
satisfacen la misma ecuacion diferencial de segundo orden con las mismas condiciones de borde, esto implica que estas funciones deben ser iguales.

9.3.

Estado base y ortonormalidad

En el caso que estamos estudiado, cualquier solucion de la ecuacion de


Schrodinger se puede expresar en terminos del estado base. Entonces, basta
conocer esta funcion para obtener todas las soluciones. El estado base lo hemos
definido como la funcion que satisface


1

1
(
p im x) 0 (x) =
i~
a
0 (x) =
imx 0 (x)
x
2m~
2m~


i~

m
=
+
x 0 (x) = 0,
~
2m~ x
es decir, el estado base debe ser solucion de la ecuacion diferencial
m
0 (x)
=
x0 (x),
x
~
cuya solucion es
0 (x) = Ae

m x2
~ 2

A = constante.
180

Para determinar la constante A pediremos


Z
dx0 (x)0 (x) = 1,

que quiere decir que el estado base tiene norma unitaria. De esta condicion
tenemos
Z
Z
Z
2

x2
m 2
m
2
dx0 (x)0 (x) =
dx Ae ~ 2
=A
dxe ~ x = 1,

entonces
1

A = qR

dxe

m 2
x
~

Ahora recordemos como calcular una integral de la forma


Z
2
I=
dxex ,
> 0, = constante.

Notablemente, es mas facil calcular I 2 , que es


Z
 Z
 Z
Z
2
2
2
x2
y 2
I =
=
dxe
dye
dx
dyex ey

Z Z
2
2
=
dx
dye(x +y ) ,

ocupando coordenadas polares tenemos


I2 =

drr

der = 2

drrer = 2

2
= er = .

De donde

I=

x2

dxe

considerando este resultado encontramos


 m 1/4
A=
.
~
181

dr



r 2
d
e
(1)
2

dr

As, el estado base normalizado es


0 (x) =

 m 1/4
~

m x2
~ 2

(9.29)

Con esta funcion y a podemos construir el resto de las funciones propias de


que tienen la forma
H,
n
n (x) = An a
0 (x),
(9.30)

donde, An es una constante de normalizacion. Antes de calcular explcitamente


las funciones de onda n (x), calcularemos la constante de normalizacion An .
Recordemos que las funciones n (x) deben tener norma unitaria, es decir,
hn (x)|n (x)i = 1.

(9.31)

Ahora,

n
n

An a
0 (x)|An a
0 (x)n

n
n

= An An a
0 (x)| a
0 (x)n

n

= An An 0 (x)|an a 0 (x)
Z
n

= An An
dx0 (x)(a)n a 0 (x).

hn |n i =

(9.32)

 

n 
n1
Como a
, a
= 1, se tiene a
, a

=n a

y entonces
(a)n a

n

0 (x) = (a)n1 a
a
=
=
=
=
=

n

0

n
n 
n
(a)n1 a
a
a a + a a 0 (x)

n 
n 
(a)n1 a
, a
+ a
a
0 (x)




n1
n

+ a
a
0 (x)
(a)n1 n a




n1
n1
n
(a)
n a

0 (x) + a
a
0 (x)

n1
n(a)n1 a
0 (x).
(9.33)

Este resultado lo podemos aplicar de forma reiterada k veces, donde k n,


por lo que
(a)n a

n

0 (x) = n(n 1)(n 2) (n (k 1))(a)nk a

nk
n!
ank a

0 (x).
=
(n k)!
182

nk

0 (x)
(9.34)

El maximo valor que puede tomar k es n, de donde


n
(a)n a 0 (x) = n!0 (x).

(9.35)

Introduciendo esta igualdad en (9.32), se obtiene


Z
2
hn (x)|n (x)i = |An | n!
0 (x)0 (x) = 1,

(9.36)

as
1
An = .
n!

(9.37)

Por lo tanto, las funciones de onda normalizadas son


n
1
n (x) =
a 0 (x).
n!

9.4.

(9.38)

Polinomios de Hermite

Veamos la forma explcita de las funciones n (x), primero consideraremos


que
 m 1/4 mx2
e 2~ ,
0 (x) =
~


1
1

a =
(
p + im x) =
i~
+ im x
x
2m~
2m~


m
i~

x ,
=
~
2m~ x
por lo que, ocupando el cambio de variable
r
m
mx2
2
=
,
=
x,
~
~

d
=
d

~ d
,
m dx

(9.39)

se tiene
0 () =

 m 1/4
~

i
a =
2

Por lo tanto, introduciendo estos resultados en Eq. (9.38) se llega a


n
 m 1/4 (i)n 
2

n () =
e 2 .
~
n!2n
183

(9.40)

Note que

 2 


d e 2
2
2
2 d
2 df

fe 2
= e2 e 2 +f
e2

d
d
d
= e

2
2

2
df 2
e 2 f e 2
d


df
f ,
d

es decir,
e

d
d



 
2
d
2
fe
f.
=
d

(9.41)

dn
d n


n
 
2
d
2
fe
f.
=
d

(9.42)

2
2

En general se cumple
e

2
2

Probaremos esta afirmacion por induccion. La base inductiva, n = 1 ya ha sido


demostrada, falta demostrar el paso inductivo. Aqu debemos suponer que se
cumple Eq. (9.42) y demostrar
e

2
2

dn+1
d n+1

 

n+1
2
d
2
=
fe

f.
d

(9.43)

Ocupando la hipotesis de induccion, se encuentra


n+1

n
 2 n 





2
d
d
d
d
d

f =
e 2 n fe 2 ,
f=
d
d
d
d
d


2
2
n
as definiendo f = e 2 dd n f e 2 y usando Eq. (9.41) se obtiene


n+1

 2 


2 d
d

e 2 f
f =e2
f =
d
d
 2 2 n 

2

d
d

= e2
e 2 e 2 n fe 2
d
d





n
n+1
2
2
2 d
2 d
d

fe 2
= e 2 n+1 f e 2 ,
= e2
d d n
d


que es lo que se queria demostrar, esto implica que Eq. (9.42) es valida para
cualquier n
umero natural n. Introduciendo el resultado Eq. (9.42) en Eq. (9.40)
184

se llega a
 m 1/4 (i)n 2 n  2 2 

e2
n () =
e 2 e 2
n
n
~

n!2
 m 1/4 (i)n
n
2
2
2

e 2 ()n e
e .
=
n
n
~

n!2

(9.44)

Definiremos el polinomio de Hermite de grado n como


Hn () = ()n e

n 2
e .
n

(9.45)

A esta expresion tambien se le llama formula de Rodrigues para los polinomios


de Hermite. En particular se tiene
H0 () = 1,

H1 () = 2,

H2 () = 2 + 4 2, .

(9.46)

Por lo tanto, la funcion de onda Eq. (9.44) se escribe como


 m 1/4 (i)n
2

e 2 Hn ()
n () =
~
n!2n

(9.47)

Debido a que las funciones de onda forman un conjunto ortonormal de funciones, ocupando el cambio de variable Eq. (9.39), tenemos
!
r
Z
Z
~
d
nl = < n (x)|l (x) >=
dxn (x)l (x) =
n ()l ()
m

r
Z

~  m 1/2 (i)n (i)l


2

=
de Hn ()Hl (),
m ~
n!2n l!2l
es decir
Z

de Hn ()Hl () =

2n n!nl .

(9.48)

De donde, los polinomios de Hermite, forman un conjunto de funciones orto2


normales con funcion de peso e .

185

9.5.

Funci
on generadora

Ahora veremos una funcion que esta intimamente relacionada con los polinomios de Hermite, la llamada funcion generadora. Primero recordemos que
cualquier funcion, f (z), bien comportada se puede expresar en su serie de
Taylor

X z n  dn f (z) 

,
(9.49)
f (z) =
n
n!
dz
z=0
n0
en particular

2tt2

W (, t) = e
Note que, como


X tn  n W (, t) 

=
.

n
n!
t
t=0
n0

(9.50)



2t t2 = t2 2t + 2 2 = (t )2 2 = (t )2 + 2 ,

entonces

n (t)
n e2tt
n e (t)
n W (, t)
2 e
=
=
=
e
.
tn
tn
tn
tn

(9.51)

Ademas, con el cambio de variable u = t se tiene

=
= () ,
t
t u
u

u|t=0 = .

(9.52)

Por lo tanto, considerando Eq. (9.45) se tiene





n (t)2
n u2
n W (, t)
2 e
2
n e


= e

= e () un
n
tn
t
t=0
t=0
u=
2

= e ()

n 2

e
n

n 2

= () e

n 2

e
n

= Hn (), (9.53)

sustituyendo este resultado en Eq. (9.50) se llega a


2

W (, t) = e2tt =

X tn
n0

n!

Hn (),

(9.54)

que es la llamada funcion generadora de los polinomios de Hermite. Con esta


funcion podemos obtener la forma explcita de las funciones Hn (). Para esto
186

recordemos los resultados


(a + b)

N
X

CkN aN k bk ,

k=0

X zN
.
=
N!
N 0

ez
Por lo tanto,
2tt2

W (, t) = e

CkN =

N!
,
k!(N k)!

N
X 1 X
X (2t t2 )N
k
CkN (2t)N k t2
=
=
N!
N!
N 0
N 0
k=0

X 1
N!
N 0
X

N
X

N 0 k=0

N
X

CkN (2)N k ()k t2k+N k

k=0

()k N
Ck (2)N k tN +k .
N!

Para hacer mar facil el calculo, definamos n = N + k, entonces N = n k y


N k = n 2k. Note que el maximo valor que puede tener k es N, es decir
N k = n 2k 0, que implica k n/2. As, si n es par, el maximo valor
que puede tomar k es n/2. Pero si n es impar, k no puede tomar el valor n/2
porque este no es un n
umero natural. En este
 n  caso el maximo valor que puede
tomar k es (n 1)/2. Definiremos como 2 como el maximo entero
  menor
o igual a n/2. Entonces, el maximo valor que puede tomar k es n2 . Por lo
tanto, si tomamos como variable de suma a n en lugar de N, se tiene
2tt2

W (, t) = e

[ n2 ]
XX
()k
Cknk (2)nkk tn
=
(n

k)!
n0 k=0

[ n2 ]
X tn X
()k n! nk
=
Ck (2)n2k
n!
(n

k)!
n0
k=0

[ n2 ]
X tn X
()k n! (n k)!
=
(2)n2k
n! k=0 (n k)! k!(n 2k)!
n0

[ n2 ]
X tn X
n0

n!

X tn
n0

n!

k=0

()k n!
(2)n2k
k!(n 2k)!

Hn ().
187

(9.55)

Entonces,

Hn () =

[ n2 ]
X
k=0

()k n!
(2)n2k .
k!(n 2k)!

(9.56)

Con la funcion generatriz se pueden probar varias propiedades de los polinomios de Hermite, por ejemplo, note que
2

W (, t) = e2()tt = e2(t)(t) = W (, t).

(9.57)

Utilizando Eq. (9.54) se tiene


W (, t) =

X tn
n0

n!

Hn () = W (, t) =

X (t)n
n0

n!

Hn () =

X tn
n0

n!

()n Hn (),

igualdando termino a termino se encuentra


Hn () = ()n Hn ().

(9.58)

Por lo tanto, los polinomios de Hermite, son pares o impares dependiendo de


su grado n. En particular H2n+1 (0) = ()2n+1 H2n+1 (0), es decir
H2n+1 (0) = 0.
Ademas,
t2

W ( = 0, t) = e

X (t2 )n
n0

W ( = 0, t) =

X tn
n0

n!

n!

Hn (0) =

X ()n t2n
n0

X H2n (0)
n0

(2n)!

n!

t2n .

Igualando termino a termino estas dos expresiones se llega a


H2n (0) = ()n

(2n)!
.
n!

Tambien se tiene el resultado


2

e2tt
W (, t)
2
=
= 2te2tt = 2tW (, t).

188

(9.59)

Adicionalmente, considerando Eq. (9.54) y que H0 () = 1 se encuentra


X tn dHn () X tn dHn ()
W (, t)
=
=
,

n! d
n! d
n0
n1
2tW (, t) = 2t

X tn

X 2tn+1

Hn ()
n!
n0
n0
X 2tn
X tn
=
Hn1 () =
2nHn1 ().
(n

1)!
n!
n1
n1
n!

Hn () =

(9.60)

De donde,
dHn ()
= 2nHn1 ().
d

9.5.1.

(9.61)

Ecuaci
on de Hermite

De la formula de Rodrguez para los polinomios de Hermite Eq. (9.45) se


tiene
!
n 2
n1 2
d
e
d
d
e
2
2
Hn () = ()n e
= ()n e
d n
d
d n1
"
!#
n1 2
d
e
d
2
2
2
e ()n1 e
= ()e
d
d n1
 2

2 d

= ()e
e Hn1 ()
d


2
2
2 dHn1 ()
= ()e
2e Hn1 () + e
d
dHn1 ()
= 2Hn1()
.
d
es decir,
Hn () = 2Hn1()

dHn1 ()
.
d

(9.62)

Derivando esta igualdad con respecto a , se llega a


dHn1 () d2 Hn1 ()
dHn ()
= 2Hn1 () + 2

.
d
d
d 2
189

(9.63)

Ademas, usando Eq. (9.61) se encuentra


2nHn1 () = 2Hn1 () + 2

dHn1 () d2 Hn1 ()

d
d 2

(9.64)

que se puede escribir como


d2 Hn ()
dHn ()
2
+ 2nHn () = 0,
2
d
d

(9.65)

esta es la llamada ecuacion de Hermite.

9.6.

M
etodo tradicional

Ahora ocuparemos el metodo tradicional para resolver la ecuacion de onda


del oscilador armonico


~2 2
m 2 2

(9.66)
+
x (x) = E(x).
2m x2
2
Con el cambio de variable Eq. (9.39) la ecuacion (9.66) toma la forma


2E
2
2
2 + () =
().
(9.67)

~
Note que en el lmite se tiene la ecuacion asintotica


2
2
2 + () 0.

(9.68)
2

Proponemos como solucion asintotica a la funcion () = e 2 , que satisface


d
= (),
d

d2
d
= (()) = () 2() 2 ()
2
d
d

Por lo tanto, si >> 1 se tiene


 2

d
2
() 0.
d 2

As, cuando las soluciones de Eq. (9.67) deben ser de la forma


2

() e 2 ,
190

(9.69)

para el caso general, propondremos como solucion


2

() = e 2 (),

(9.70)
2

con () una funcion que crece menos rapido que e 2 cuando . Para
esta propuesta se tiene


2
d()
d()
2
,
= e
() +
d
d

 2
2

d()
d2 ()
d ()
2
2
= e
2
+ 1 () .
(9.71)
d 2
d 2
d
Sustituyendo Eq. (9.71) en Eq. (9.67) se encuentra
 2

2
2

d ()
d()
2
2
2 2
()
e ()

2
+

1
()
+
e
d 2
d
2E 2 2
=
e 2 ().
~
De donde

d()
2E
d2 ()
+ 2
+ () =
(),
2
d
d
~

(9.72)

es decir
d2 ()
d()
2
+
2
d
d


2E
1 () = 0.
~

(9.73)

Para resover esta ecuacion propondremos la solucion en serie de potencia


X
() =
an n ,
(9.74)
n0

de la cual se obtiene



X  2E
2E
1 () =
1 an n ,
~
~
n0
X
X
d()
2
= 2
nan n1 =
(2n)an n ,
d
n0
n0

X
X
d2 ()
n2
=
n(n

1)a

=
n(n 1)an n2
n
d 2
n0
n2
X
=
(n + 2)(n + 1)an+2 n .
n0

191

Por lo tanto,


d()
2E
d2 ()
2
+
1 ()
d 2
d
~



X  2E
=
1 2n an + (n + 2)(n + 1)an+2 n = 0,
~
n1
de donde
an+2 =


2n 2E
1 an
~
,
(n + 2)(n + 1)

(9.75)


2n 2E
1
~
.
(n + 2)(n + 1)

(9.76)

es decir
an+2
=
an

Note que esta relacion de recurrencia P


separa los terminos
impares, por
P pares e 2n+1
2n
lo que se tendran series de la forma n0 a2n y n0 a2n+1
. Para el
caso par, si n , se tiene
a2(n+1)
4n
1

,
a2n
(2n + 2)(2n + 1)
n

(9.77)

que es el mismo comportamiento que tiene los coeficientes de Taylor de la serie


2

e =

X 2n
n0

n!

(9.78)

Por lo tanto, en este caso la solucion () tiene el mismo comportamiento


2

asintotico que e 2 . Para el caso impar, la serie tiene el mismo comportamiento


2
asintotico que e 2 . Ninguno de estos dos caso debe ocurrir, pues () debe
2

estar dominada por e 2 . El problema se resuelve si () no es una serie, sino


un polinomio. Esto se cumple si despues de cierto n
umero todos los terminos
de la serie son cero, es decir an+2 /an = 0. Lo que implica


2E
2n
1 = 0,
(9.79)
~
de donde,


1
.
E = En = ~ n +
2
192

(9.80)

Entonces la energa debe ser discreta y las funciones () son polinomios.


Sustituyendo En en Eq. (9.73) se obtiene
d()
d2 ()

2
+ 2n() = 0,
d 2
d

(9.81)

que es la ecuacion de Hermite (9.65). Por lo tanto, las funciones () son los
polinomios de Hermite.
As, las soluciones de la ecuacion de onda para el oscilador armonico son
de la forma
2

n () = An e 2 Hn (),

(9.82)

con Hn () el polinomio de Hermite de grado n.

9.7.

Oscilador en campo el
ectrico constante

Ahora veamos como se resuelve el problema de un oscilador armonico en


un campo electrico constante.
El operador Hamiltoniano para un oscilador en un campo magnetico constante, E, es
2
= 1 p2 + m x2 qE x,
H
2m
2

(9.83)

note que este operador se puede escribir como




2
2qE
m
1
2
2
=
x
p +
x ,
H
2m
2
m 2

2 
2 !

qE
qE
qE
x2 2
x +

m 2
m 2
m 2

2
qE
q2E 2
1 2 m 2
x
p +
(9.84)

=
2m
2
m 2
2m 2
1 2 m 2
=
p +
2m
2

Por lo que, con el cambio de variable = x

qE
,
m 2

se tiene

2
2 2
= 1 p2 + m 2 q E .
H
2m
2
2m 2

193

(9.85)

Entones, la ecuacion de valores propios




2
1
m
2
2

H(x)
=
p +
x qEx (x) = E(x)
2m
2

(9.86)

se puede escribir como




1 2 m 2 2
q2E 2

H() =
p +

() = E(),
2m
2
2m 2

(9.87)

de donde





q2E 2
1 2 m 2 2
p +
() = E +
().
2m
2
2m 2

(9.88)

Esta u
ltima ecuacion es la ecuacion del oscilador armonico, por lo que


q2E 2
1
,
(9.89)
E+
= ~ n +
2m 2
2
es decir los u
nicos valores de la energa permitidos son


1
q2E 2
En = ~ n +

2
2m 2

(9.90)

mientras que las funciones de onda son


 m 1/4 (i)n
2

n () =
e 2 Hn (),
~
n!2n

9.8.

m
~

qE
x
m 2

. (9.91)

Suma de osciladores y el oscilador en D


dimensiones

Supongamos que tenemos un sistema que consiste en dos osciladores desacoplados. En este caso el Hamiltoniano esta dado por
p22
m1 12 2 m2 22 2
p21
+
+
x1 +
x2 ,
H=
2m1 2m1
2
2
con
p1 = i~

,
x1

p2 = i~
194

.
x2

(9.92)

Como los osciladores son independientes, estos operadores satisfance las reglas
de conmutacion
[
xk , xl ] = [
pk , pl ] = 0,

[
xk , pl ] = i~kl ,

k, l = 1, 2.

(9.93)

Para obtener los valores y funciones propias de H definamos los Hamiltonianos


2
2
1 = p1 + m1 1 x2 ,
H
1
2m1
2

2
2
2 = p2 + m2 2 x2 .
H
2
2m1
2

Tambien definamos los operadores


1
(
p1 im1 1 x1 ) ,
2m1 1 ~
1
(
p1 + im1 1 x1 ) ,
=
2m1 1 ~

a
1 =
a
1

que satisfacen las reglas de conmutacion


i
h
a
1 , a
1 = 1,

1
(
p2 im2 1 x2 )
2m2 2 ~
1
a
2 =
(
p2 + im2 1 x2 ) ,
2m2 2 ~
a
2 =

i
h
a2 , a
2 = 1

y cero en cualquier otro caso. Tambien tenemos que






1
1

H1 = ~1 a1 a1 +
,
H2 = ~2 a2 a2 +
,
2
2
as, el Hamiltoniano Eq. (9.92) es




1
1

+ ~2 a
2 a
2 +
.
H = H1 + H2 = ~1 a
1 a
1 +
2
2
1 y H
2 se tiene
Ahora, recordemos que para los Hamiltonianos H


1

, k = 1, 2,
Hk nk (xk ) = Enk nk (xk ), Enk = ~k nk +
2
 m 1/4 (i)nk
2
k 1
2k

nk (xk ) = nk (k ) =
Hnk (k ),
e
~
nk !2nk
r
mk k
xk ,
k =
~
Z
hnk |lk i =
dxk n k (xk )lk (xk ) = nk lk .

195

(9.94)

Entonces, definiremos
n1 n2 (x1 , x2 ) = n1 (x1 )n2 (x2 ),

(9.95)

que satisface
n1 n2 (x1 , x2 ) =
H


1 + H
2 n1 (x1 )n2 (x2 )
H

2 n (x1 )n (x2 )
1 n (x1 )n (x2 ) + H
H
1
2
1
2

n2 (x2 )H1 n1 (x1 ) + n1 (x1 )H2 n2 (x2 )


En1 n2 (x2 )n1 (x1 ) + En2 n1 (x1 )n2 (x2 )
(En1 + En2 ) n1 (x1 )n2 (x2 )





1
1
+ ~2 n2 +
n1 n2 (x1 , x2 ).
=
~1 n1 +
2
2

=
=
=
=

son Eq. (9.95) y sus valores propios son


Por lo que, las funciones propias de H




1
1
En1 n2 = ~1 n1 +
+ ~2 n2 +
(9.96)
2
2
Las funciones propias Eq. (9.95) son otonormales, pues
Z
Z
hn1 n2 |l1 l2 i =
dx1
dx2 (n1 (x1 )n2 (x2 )) l1 (x1 )l2 (x2 )

Z
Z

=
dx1 n1 (x1 ) l1 (x1 )
dx2 n2 (x2 ) l2 (x2 )

= n1 l1 n2 l2 .

9.8.1.

(9.97)

Cadena de osciladores

El resultado anterior se puede generalizar para un n


umero N de osciladores
desacoplados. En efecto, consideremos el Hamiltoniano

=
H


N 
X
p2k
mk k2 2
+
xk ,
2mk
2
k=1

pk = i~

.
xk

(9.98)

Como los osciladores son independientes, estos operadores satisfance las reglas
de conmutacion
[
xk , xl ] = [
pk , pl ] = 0,

[
xk , pl ] = i~kl ,
196

k, l = 1, 2 N.

(9.99)

Para obtener los valores y funciones propias de H definamos los Hamiltonianos


2
2
k = pk + mk k x2k
H
2mk
2

y los operadores
1
1
(
pk imk k xk ) , ak =
(
pk + imk k xk ) ,
2mk k ~
2mk k ~
que satisfacen las reglas de conmutacion
i
h
(9.100)
a
k , a
l = kl
a
k =

y cero en cualquier otro caso. Tambien tenemos que




1

,
Hk = ~k ak a
k +
2

as el Hamiltoniano Eq. (9.102) es


N
X



1

=
.
H
~k a
k a
k +
2
k=1

(9.101)

k se tiene
Ahora, recordando de nuevo que para cada H


1

, k = 1, 2, , N,
Hk nk (xk ) = Enk nk (xk ), Enk = ~k nk +
2
 m 1/4 (i)nk
2
k 1
2k

nk (xk ) = nk (k ) =
e
Hnk (k ),
~
nk !2nk
r
mk k
xk ,
k =
~
Z
hnk |lk i =
dxk n k (xk )lk (xk ) = nk lk ,
definiremos

n1 n2 nN (x1 , x2 , , xN ) = n1 (x1 )n2 (x2 ) nN (xN ).

(9.102)

hn1 n2 nN |l1 l2 lN i = n1 l1 n2 l2 nN lN .

(9.103)

Estas funciones satisfacen las relaciones de ortonormalidad


Tambien cumplen que
con

Hn1 n2 nN (x1 , x2 , , xN ) = En1 n2 nN n1 n2 nN (x1 , x2 , , xN ),


En1 n2 nN =

N
X

~k

k=1

197


1
.
nk +
2

(9.104)

9.8.2.

Oscilador en D dimensiones

El Hamiltoniano de un oscilador en D dimensiones es



D  2
X
pk
m 2 2

H=
.
+
xk , pk = i~
2m
2
x
k
k=1

(9.105)

Matematicamente este es un caso del problema de la subseccion anterior, por


lo que los valores propios son
En1 n2 nD

D
X



1
~ nk +
=
.
2
k=1

(9.106)

Para este sistema las funciones propias son un caso particular de Eq. (9.102).
En particular para tres dimensiones se tiene


3
En1 n2 n3 = ~ n1 + n2 + n3 +
,
2

(9.107)

con las funciones de onda


(i)n1 +n2 n3
~
n1 !n2 !n3 !2n1 +n2 +n3
r
r
r




m (x2 +y 2 +z 2 )
m
m
m

2~
e
x Hn2
y Hn3
z .
Hn1
~
~
~
n1 n2 n3 (x, y, z) =

9.9.

 m 3/4

Niveles de Landau, partcula en un campo


magn
etico constante

Ahora veamos como obtener los estados propios de una partcula cargada
en un campo magnetico constante. Este problema primero fue resuelto por
Landau, por lo que algunos autores los llaman el problema de los niveles de
Landau.
~ es
El Hamiltoniano para una partcula de carga e en un campo magetico B

2
= 1 P~ eA
~ ,
H
(9.108)
2m

donde

~
P~ = i~,

~ =
~ A.
~
B
198

(9.109)

Antes de obtener el espectro de este sistema es conveniente obtener algunos


resultados previos. Perimero note que ocupando el tensor de Levi-Civita Eq.
(1.47), se tiene
Bi = ijk

Aj
,
xk

(9.110)

ademas con la propiedad Eq. (1.107) se llega a


ijk Bk =

Aj
Ai
j.
i
x
x

(9.111)

Tambien es conveniente definir la derivada covariante


Di = Pi eAi ,

(9.112)

[Di , Dj ] = ie~ijk Bk .

(9.113)

este operador satisface

En efecto,
[Di , Dj ] = [Pi eAi , Pj eAj ] = [Pi , Pj ] e[Pi , Aj ] e[Ai , Pj ] + e2 [Ai , Aj ],


Aj
Ai
= e ([Aj , Pi ] [Ai , Pj ]) = ie~
(9.114)
j ,
xi
x
por lo tanto, ocupando Eq. (9.111) se obtiene Eq. (9.113).
Con la derivada covariante el Hamiltoniano toma la forma

~ 2 = 1 D2 + D2 + D2
= 1 D
H
1
2
3
2m
2m

(9.115)

Note que, sin perdida de generalidad, si el campo magnetico es constante se


puede escribir como
~ = (0, 0, B3),
B

B3 = constante.

(9.116)

En este caso las reglas de conmutacion Eq. (9.113) implican


[Di , D3 ] = 0,

(9.117)

D3 ] = 0.
[H,

(9.118)

de donde

199

Por lo tanto, D3 es un operador constante y comparte funciones propias con


el Hamiltoniano. Es decir, existe E tal que
E = EE ,
H

D3 E = E .

(9.119)

Esto implica que






1
1
2
2
2
E =
H
D1 + D2 + D3 E =
D12 + D22 E + D32 E
2m
2m

1
(9.120)
D12 + D22 E + 2 E = EE ,
=
2m
entonces



1
D12 + D22 E = E 2 E .
2m

(9.121)

Adicionalmente, definamos los operadores


D = p

1
|e|2~B

(D1 i
eD2 ) ,

(9.122)

con e el signo de e, es decir e|e| = e. Estos operadores act


uan como operadores
de ascenso y descenso, en efecto usando las relaciones de conmutacion Eq.
(9.113) se encuentra que
D+ D =
=
=
=
=

1
|e|~2B
1
|e|~2B
1
|e|~2B
1
|e|~2B
1
|e|~2B

(D1 i
eD2 ) (D1 + i
e D2 )
D12 + D22 + i
e (D1 D2 D2 D1 )

D12 + D22 + i
e[D1 , D2 ]

D12 + D22 + i
eei~B =
 1
D12 + D22 ,
2


1
ee
D12 + D22
|e|~2B
2|e|

(9.123)

de la misma forma se obtiene

D D+ =
de donde

 1
1
D12 + D22 + ,
|e|~2B
2

[D , D+ ] = 1.
200

(9.124)

(9.125)

Ademas, de Eq. (9.123) se obtiene



1
|e|~B
D12 + D22 =
2m
m



1
D+ D +
.
2

(9.126)

As, los operadores D1 , D2 tienen la misma algebra que los operadores de ascenso y descenso del oscilador armonico. Esto implica que definiendo
=

|e|B
m

(9.127)

se tiene que




1
1
E = ~ n +
E .
~ D+ D +
2
2

(9.128)

Entonces, usando este resultado y Eq. (9.121), Eq. (9.126) se encuentra




1
2
.
(9.129)
+ ~ n +
E = En =
2m
2
estos son los niveles de energa, los cuales se llaman niveles de Landau.

9.10.

Ecuaci
on de Fokker-Planck, caso libre y
homog
eneo

La ecuacion de Fokker-Planck es
P (x, t, )
P (x, t, )

=
+
t
x

2
g P (x, t, )
+ 2
2m
2



F (x)

m
m

P (x, t, )


(9.130)

donde es una constante de friccion, m es la masa y F (x) = Vx(x) es la fuerza.


Para el caso libre V (x) = 0 y homogeneo,
Fokker-Planck (9.130) toma la forma

P (x,, )
x

= 0, la ecuacion de


g 2 P (t, )
P (t, )
=
(P (t, )) +
t
m
2m2 2 


g P (t, )
.
=
P (t, ) +
m
2m2
201

(9.131)

Esta ecuacion no esta en terminos de operadores hermticos, para expresarla


con operadores hermticos usaremos la transformacion
P (, t) = e

m 2
2g

(, t).

(9.132)

De donde
m 2
P (, t)
= e 2g

m
(, t)

(, t) +
g

(9.133)

por lo que
g P (t, )

P (t, ) +
=
m
2m2


2
2
m
(, t)
g m
m
2g
2g
=
e
e
(, t) +
(, t) +

m
2m2
g



2
m

g (, t)
= e 2g
.
(, t) +
2m
2m2
Entonces,


g P (t, )
P (t, ) +
m
2m2



2
g
(,
t)

m
e 2g
(, t) +
=

2m
2m2



2
g (, t)
m
m
2g
=e
(, t) +

g
2m
2m2



g (, t)

(, t) +
+
2m
2m2

m 2
(, t)

22
= e 2g
(, t)
+
(, t)
2g
2m
2m

(, t)
g 2 (, t)
+
+
2m
2m2 2



2 2
2
2
g

(,
t)

m
(, t) +

= e 2g
2m
2g
2m2 2

= e

m 2
2g

H(,
t)

(9.134)

con
= g p2 + 1
H
2m2
2

22

g
m
202

p = i

(9.135)

es un operador hermtico. Considerando este resultado en (9.131)


claramente H
se llega a

(, t)

= H(,
t).
t

(9.136)

Si se propone como solucion a (, ) = e (), se encuentra

H()
= (),

(9.137)

es decir se tiene la ecuacion de valores propios




g 2 2 2

() = ().
p +
2m2
2g
m

(9.138)

Note que renombrando


2
m = ,
g

g
~2
=
,
2m
2m2

E =+

la ecuacion (9.138) toma la forma




~2 2
m 2 2

+
() = E().
2m 2
2

(9.139)

(9.140)

que es la ecuacion del oscilador armonico. Por lo tanto, las soluciones que
satisfacen las condiciones de Dirichlet, () = 0, implican



1
=+ ,
(9.141)
E = ~ n +
2
m
es decir

n =
m



1
n
.
2

(9.142)

Ademas, definiendo
=

m
=
~

 41

e 2 Hn ().

(9.143)

se tienen las soluciones


(i)n
n () =
2n n!

m
g

(9.144)

Por lo tanto,
m
2g

Pn (, t) = e

n t

(i)n

n () =
2n n!
203

m
g

 14

e Hn ().

(9.145)

Captulo 10
El Grupo de Rotaciones y los
Arm
onicos Esf
ericos
En este captulo estudiaremos los polinomios de Legendre, los polinomios
asociados de Legendre y los Armonicos esfericos, quienes son importantes para resolver la ecuacion de Laplace y diversos problemas de electrodinamica
y mecanica cuantica. Normalmente estas funciones se obtienen resolviendo
ecuaciones diferenciales. Sin embargo, tambien es posible obtenerlas usando el
grupo de rotaciones. Usaremos este u
ltimo metodo debido a que nos introduce
a las aplicacion de la teora de grupos en la fsica. Este captulo se puede ver
como una invitacion al estudio de las aplicaciones de la teora de grupos.

10.1.

Transformaciones de coordenadas lineales

Sea f una funcion de la variable x, con el cambio de variable


x = x,

con = constante,

(10.1)

se encuentra
df
dx df
1 df
=
=
.
dx
dx dx
dx

(10.2)

Entonces, si la variable x transforma con , el operador derivada transforma


con 1/, es decir,
x
d
dx

x = x,
d
1 d
=
.
dx
dx
204

(10.3)

Veamos ahora que pasa en dos dimensiones. Consideremos la matriz de 2 2


con entradas constantes


a1 a2
=
,
(10.4)
a3 a4
cuya inversa es

1
=
||

a4 a2
a3 a1

|| = a1 a4 a2 a3 .

Tambien definamos los vectores columna



 1 
x
,
=
X=
x2

x1

x2

(10.5)

(10.6)

Entonces, podemos hacer una transformacion lineal de coordenadas de la forma


X = X, es decir
 1 
 1  
a1 a2
x
x
.
(10.7)
=
x2
a3 a4
x2
La cual tiene la transformacion inversa, X = 1 X ,

  1 
 1 
1
a4 a2
x
x
,
=
2
x2
x
|| a3 a1

(10.8)

es decir,
a4 x1 a2 x2
,
||
a3 x1 + a1 x2
=
.
||

x1 =
x2

(10.9)
(10.10)

Ademas, por la regla de la cadena se tiene


x1
x2

=
+
,
x1
x1 x1 x1 x2

x1
x2
=
+
.
x2
x2 x1 x2 x2
De la regla de transformacion Eq. (10.10) se encuentra



a4 1 a3 2 ,
=
x1
||
x
x



a2 1 + a1 2 ,
=
x2
||
x
x
205

(10.11)

(10.12)

que se puede expresar como



 

1
a
a
4
3
1
x
=

|| a2 a1
x2

x1

x2

(10.13)

De esta ecuacion podemos ver que la matriz involucrada en la transformacion


de las derivadas parciales es la transpuesta de la matriz inverza de , es decir
T
(1 ) . Otra forma de escribir esta ecuacion es
T
= 1 ,
(10.14)
por lo que

= ()T .

(10.15)

Este resultado se puede generalizar a mas dimensiones. En efecto, en general


una transformacion de coordenadas se escribe como

xi = ij xj ,
xi = 1 ij xj .
(10.16)

De donde, por la regla de la cadena, se tiene

(1 )jk xk
 xk
xj

1
=
=
=

jk xi xj
xi
xi xj
xi
xj


T 


.
= 1 jk ki j = 1 ji j = 1
x
x
ij xj

Por lo tanto, para cualquier dimension se cumple


T
= 1 .

(10.17)

(10.18)

Esta ley de transformacion sera de gran utilidad para obtener las simetras de
la ecuacion de Laplace.

10.2.

Laplaciano y elemento de lnea

Supongamos que la matriz , de n n, satisface


= I,

(10.19)

con I la matriz identidad de n n. Entonces, podemos definir un elemento de


lnea como

dx1
dx2

ds2 = dX T dX, dX = .. .
(10.20)
.
dxn
206

A la matriz se le llama metrica, en dos dimensiones un ejemplo de estas


matrices son




1 0
1 0
,
.
(10.21)
0 1
0 1
Con la matriz el Laplacianose define como
2 = T .

(10.22)

Notablemente, el elemento de lnea esta intimamente relacionado con el Laplaciano, en particular tienen las mismas simetras. Esta relacion es importante
y se da tambien para espacios no euclidianos. Veamos como se da esta relacion.
Bajo una transformacion lineal de coordenadas se tiene

ds2 = dX T dX = (dX)T dX = dX T T dX.

(10.23)

Las transformaciones, , que dejan invariante al elemento de lnea deben cumplir ds2 = ds2 . Igualando Eq. (10.20) con Eq. (10.23) se llega a la condicion
T = .

(10.24)

Ademas, considerando que bajo una transformacion lineal de coordenadas el


gradiente transforma como Eq. (10.18), se obtiene

T

T
2
T

1 T
= =
1



 T

T 
1 T
T
1 T

=

= T 1 1
. (10.25)
Las transformaciones que dejan invariante al Laplaciano deben cumplir
2 = 2 ,
entonces igualando Eq. (10.22) con Eq. (10.25) se tiene la condicion
T
1 1 = .

(10.26)

Como (
)1 = , la condicion Eq. (10.26) tiene la forma

T 1  1 T 1
1
= (
)1 = 1 1
=
1
= T , (10.27)

que coincide con Eq. (10.24). Por lo tanto, las transformaciones lineales, , que
dejan invariante al elemento de lnea Eq. (10.20) tambien dejan invariante al
Laplaciano Eq. (10.22), claramente la afirmacion inversa tambien es correcta.
207

10.3.

Grupo de transformaciones

Antes de continuar recordemos lo que es un grupo. Sea G un conjunto con


una operacion : G G G. El par (G, ) es un grupo si cumple
1) Axioma de cerradura:
g1 G, g2 G

g1 g2 G

(10.28)

2) Axioma de asociatividad:
g1 G, g2 G, g3 G,

g1 (g2 g3 ) = (g1 g2 ) g3 .

(10.29)

g1 e = e g1 = g1 .

(10.30)

3) Axioma del neutro:


e G,

g1 G =

4) Axioma del inverso:


g1 G, g11 G,

g1 g11 = g11 g1 = e.

(10.31)

Definamos a T como el conjunto de transformaciones que dejan invariante


al Laplaciano. Estas transformaciones cumplen
T = ,

2 = I.

(10.32)

Probaremos que T es un grupo.


Supongamos que 1 T y 2 T, entonces cumplen
T1 1 = ,

T2 2 = ,

(10.33)

de donde
(1 2 )T (1 2 ) = T2 T1 1 2 = T2 2 = ,

(10.34)

esto implica 1 2 T , es decir


1 T, 2 T

1 2 T.

(10.35)

Por lo tanto, se cumple el axioma la cerradura.


El producto de matrices es asociativo, en particular el producto de las matrices que satisfacen Eq. (10.32) . Ademas, la identidad I satisface Eq. (10.32),
208

es decir, I T. As se cumplen el axioma de la asociatividad y el del elemento


neutro.
Ahora, como 2 = I, si esta en T entonces se cumple T
= I. De
donde,
1
T

= T
= 1 .
(10.36)
Por lo tanto,

T

1 = (

) 1 = 1 = .

(10.37)

As, cuando esta en T , tambien 1 esta en T. Esto nos indica que se cumple
el axioma del inverso.
En consecuencia el conjunto de matrices que satisface Eq. (10.32) es un
grupo. Es decir, el conjunto de tranformaciones que dejan invariante al elemento de lnea Eq. (10.20) forma un grupo, que es el mismo grupo que deja
invariante al Laplaciano Eq. (10.22).

10.4.

El grupo de rotaciones

Sea ~x = (x1 , , xn ) un vector en Rn y definamos la forma cuadratica


l2 = x21 + x22 + + x2n , la cual representa la distancia de ~x al origen. Note que
si definimos la matriz columna

x1
x2

X = ..
(10.38)
.
xn
y la matriz renglon

XT =

x1

x2

xn

la distancia se puede escribir como


l2 = X T X = X T IX.

(10.39)

(10.40)

Ahora, si es una matriz de n n y se hace la transformacion de coordenadas


X = X,
209

(10.41)

se tiene la distancia

l2 = X T IX = X T T I X.

(10.42)

T I = I.

(10.43)

Por lo tanto, si es tal que deja la distancia invariante, es decir que l2 = l2 ,


debe cumplir

Otra forma de expresar esta igualdad es T = 1 . Claramente las matrices


que cumplen (10.43) forman un grupo, a este grupo de matrices se le llama
O(n).
Recordemos que para cualquier matriz A se cumple detA = detAT . Entonces, las matrices que satisfacen Eq. (10.43) deben cumplir (det)2 = 1, es
decir det = 1. El subconjunto de matrices que cumplen det = 1 no
forman un grupo, por ejemplo, la identidad no esta en ese subconjunto. Sin
embargo, las matrices que cumplen det = 1 s forman un grupo, este es el
grupo SO(n).
Note que la matriz de n n

11 12 1n
21 22 2n

=
..
.. . .
..

.
.
.
.
n1 n2 nn

se pueden formar con los vectores columna

11
12
1n
21
22
2n

~1 =
~n =
C

.. , C
.. , , C
.. .
2 =

.
.
.
n1
n2
nn

(10.44)

(10.45)

Claramente, para la matriz traspuesta, T , estos vectores representan los renglones. Por lo tanto, la condicion Eq. (10.43) se puede escribir como

11 21 n1
11 12 1n
12 22 n2 21 22 2n

T =
..
.. . .
..
..
.. . .
..

.
.
.
.
.
.
.
.
1n 2n nn
n1 n2 nn
210

~1 C
~1
C
~2 C
~1
C
..
.
~
~
Cn C1

~1 C
~2
C
~2 C
~2
C
..
.
~
~
Cn C2

~ 1 Cn
C
~n C
~2
C
..
..
.
.
~
~
Cn Cn

Otra forma de expresar esta igualdad es

= I.

~i C
~ j = ij ,
C

(10.46)

(10.47)

es decir si una matriz satisface Eq. (10.43), tiene sus columnas ortonormales.
Ahora, si satisface la condicion (10.43), entonces 1 tambien la satisface. Por lo tanto, 1 tiene sus columnas ortonormales entre si. Pero se debe
cumplir 1 = T , entonces las columnas de T son ortonormales entre si.
Considerando que las columnas de T son los renglones de , podemos ver
que los renglones de son ortonormales entre si. En conclusion, si satisface
Eq. (10.43) sus columnas y renglones son ortonormales entre si.
Una matriz de n n tiene n2 parametros libres, pero si satisface (10.46) no
todos sus parametros son libres. De (10.46) se puede ver que T es una matriz
ecuaciones independientes. As,
simetrica, por lo que (10.46) solo tiene n(n+1)
2
los parametros libres de una matriz que satisface (10.46) son
n2

n(n + 1)
n(n 1)
=
.
2
2

Para el caso n = 3 hay tres parametros libres, para esta dimension cualquier
matriz se puede escribir como

a1 b1 c1
= a2 b2 c2 .
(10.48)
a3 b3 c3

Si esta matriz satisface (10.46), debe cumplir


~a ~a = ~b ~b = ~c ~c = 1,

~a ~b = ~a ~c = ~b ~c = 0,

(10.49)

esto nos dice que la punta de los vectores ~a, ~b, ~c estan en una esfera y que son
ortonormales entre si. Un ejemplo de estas matrices son

1
0
0
cos sin ,
x () = 0
(10.50)
0 sin cos
211

cos 0 sin
0 1
0 ,
y () =
sin 0 cos

cos sin 0
z () = sin cos 0 .
0
0 1

(10.51)

(10.52)

La matriz x () representa una rotacion sobre el eje x, y () representa una


rotacion sobre el eje y, mientras que z () representa una rotacion sobre el
eje z. Por lo tanto, las rotaciones dejan invariante la distancia y al Laplaciano.
Note que estas tres matrices son linealmente independientes.
Existen otras formas de reparametrizar una matriz de rotacion, por ejemplo
la base unitaria en coordenadas esfericas Eqs. (2.16)-(2.17) satisfacen la condicion Eq. (10.49), pero no son la solucion mas general, pues solo dependen de
dos parametros mientra que la solucion general de Eq. (10.49) depende de tres.
Pero estos vectores nos sirven para obtener la solucion general. Propondremos
a ~c como
~c = (sin sin , cos sin , cos ) .

(10.53)

Los vectores ~b y ~a deben ser tales que si = 0 se cumple


~b|=0 = e = (sin cos , cos cos , sin ) ,
~c|=0 = e = (cos , sin , 0) .

(10.54)
(10.55)

Un par de vectores que satisfacen estas condiciones son:


~a = (sin sin cos + cos cos , sin cos cos cos sin , sin sin ) ,
~b = (sin cos + cos sin cos , sin sin + cos cos cos , cos sin ) .
Se puede probar que los vectores ~a, ~b y ~c cumplen Eq. (10.49). As se puede
escribir como

cc ssc
sc + csc ss
(, , ) = cs scc ss + ccc cs .(10.56)
ss
cs
c

Claramente a
un hay cierta arbitrariedad, pues podemos cambiar el lugar de
los vectores ~a, ~b, ~c, tambien podemos cambiar renglones por columnas y se
seguira cumpliendo Eq. (10.43). La ventaja de escribir de la forma (10.56)
es que se puede expresar como el producto de tres matrices
(, , ) = 1 ()2()3 (),
212

(10.57)

con

cos sin 0
1 () = sin cos 0 ,
0
0 1

1
0
0
cos sin ,
2 () = 0
0 sin cos

cos sin 0
3 () = sin cos 0 .
0
0 1

(10.58)

(10.59)

(10.60)

Esta descomposicion es muy u


til para el estudio del movimiento del cuerpo
rgido. A los parametros , , se les llama angulos de Euler.
Las rotaciones no son la u
nicas tranformaciones de O(3). Por ejemplo, las
matrices

1 0 0
1
0
0
1
0
0
0 1 0 ,
0 1
0 1
0 ,
0 (10.61)
0 0 1
0
0 1
0
0 1

cumplen Eq. (10.49) pero no son de rotacion, tampoco son de SO(3). Las
rotaciones representan las transformaciones de O(3) que se pueden conectar
con la matriz unidad I. Pues al hacer = 0, = 0, = 0 se obtiene la unidad
I.

10.4.1.

Transformaciones infinitesimales

Las transformaciones de SO(n) que estan infinitesimalmente cercanas a la


unidad, es decir que cumplen
I + M

<< 1,

(10.62)

son particularmente importantes. Para este tipo de transformaciones la condicion Eq. (10.43) implica
I = T (I + M)T (I + M)


= I + M T (I + M) I + M T + M .

(10.63)
(10.64)

Por lo tanto,

M = M T ,
213

(10.65)

es decir, M debe ser antisimetrica. Note que una matriz antisimetrica de n n


solo puede tener
n(n 1)
2
parametros libres, este n
umero de grados de libertad coincide con los parametros libres del grupo SO(n). Para el caso particular n = 3, cualquier matriz
antisimetrica se puede escribir como

0 3
2
0 1 .
M = 3
(10.66)
2
1
0

Definamos los vectores ~r = (x, y, z) , ~


= (1 , 2 , 3 ) , entonces

2 z 3 y
x
0 3
2
0 1 y = 3 x 1 z
X = MX = 3
1 x 2 y
z
2
1
0
= ~
~r.
(10.67)
Por lo tanto, una rotacion infinitesimal esta dada por
X = X (I + M) X = (IX + MX) ,

(10.68)

~r = ~r + ~
~r.

(10.69)

es decir

Estas rotaciones son importantes porque definen al resto de las transformaciones de SO(3), para ver esto primero notemos que

0 3
2
0 1 = 1 m1 + 2 m2 + 3 m3 =
~ m,
~
(10.70)
M = 3
2
1
0
con

0 0
0
m1 = 0 0 1 ,
0 1
0

0 0 1
m2 = 0 0 0 ,
1 0 0

Se puede observar que la matriz (10.70)


~ , es decir

~ i~
ym
~ im
~ =M

0 0
0
0

0
M1 = i 0 0 1 , M2 = i
0 1
0
1

214

0 1 0
0 0 .
m3 = 1
0
0 0

no se modifica si hacemos el cambio

0 1
0 0 ,
0 0

0 1 0
0 0 .
M3 = i 1
0
0 0

La ventaja de ocupar la matrices Mi es que son Hermticas, es decir Mi = Mi .


Esto implica que sus valores propios son reales, por lo tanto las matrices
~ = (M1 , M2 , M3 ) pueden representar cantidades fsicas.
M
Una transformacion finita se debe hacer como producto infinito de transformaciones infinitesimales. Por ejemplo, ocupando

N
1
N

N
~
~
X ( (~
/N)) X = (I i~
M) x = I i
~ M
X (10.71)
N
y considerando el resultado
lm

x
I+
N

N

= ex ,

(10.72)

se tiene

N
1
~
~ M
lm I i
= ei~M .
N
N

(10.73)

Por lo tanto, una transformacion finita esta dada por


~

X = ei~M X.

(10.74)

As, cualquier transformacion infinitesimal conectada con la identidad tiene la


forma
~

(~
) = ei~M .

(10.75)

En este sentido se dice que M1 , M2 , M3 son los generadores del grupo SO(3).
Ahora veamos de forma explcita la expresion (10.75) para algunos caso
particulares. Primero notemos que si n 1, se tiene

0 0 0
M12n = 0 1 0 = T1 , M12n+1 = M1 ,
(10.76)
0 0 1

1 0 0
M22n = 0 0 0 = T2 , M22n+1 = M2 ,
(10.77)
0 0 1

1 0 0
M32n = 0 1 0 = T3 , M32n+1 = M2 .
(10.78)
0 0 0
215

Entonces, considerando estos resultados, juntos con las series de cos y sin ,
se tiene
X 1
(iMi )n
eiMi =
n!
n0
X 1
X
1
=
(i)2n (Mi )2n +
(i)2n+1 (Mi )2n+1
(2n)!
(2n
+
1)!
n0
n0
X 1
X
1
= I + Ti
(i)2n + Mi
(i)2n+1
(2n)!
(2n
+
1)!
n1
n0
X (1)n
X (1)n
2n
iMi
2n+1
= I Ti + Ti +
(2n)!
(2n + 1)!
n0
n1
= I Ti + Ti

X ()n 2n
n0

(2n)!

iMi sin

= I Ti + Ti cos iMi sin .

(10.79)

De donde,
ei1 M1

ei3 M3

1
0
0
= 0 cos 1 sin 1 ,
0 sin 1
cos 1

cos 3 sin 3 0
cos 3 0 .
= sin 3
0
0 1

ei2 M2

cos 2 0 sin 2
0 1
0 ,
=
sin 2 0 cos 2

(10.80)

As, ei1 M1 representa una rotacion sobre el eje x, ei2 M2 representa una rotacion sobre el eje y, mientras que ei3 M3 representa una rotacion sobre el eje
z.
Veamos que reglas de conmutacion cumplen los generadores de las rotaciones M1 , M2 , M3 . Primero notemos que

0 0 0
0 1 0
M1 M2 = 1 0 0 , M2 M1 = 0 0 0 ,
0 0 0
0 0 0

0 0 0
0 0 1
M1 M3 = 0 0 0 , M3 M1 = 0 0 0 ,
1 0 0
0 0 0

0 0 0
0 0 0
M2 M3 = 0 0 0 , M3 M2 = 0 0 1 . (10.81)
0 1 0
0 0 0
216

Por lo que
[M1 , M2 ] = iM3 ,

[M3 , M1 ] = iM2 ,

[M2 , M3 ] = iM1 .

(10.82)

Estas reglas de conmutacion se pueden escribir como


[Mi , Mj ] = iijk Mk .

(10.83)

Por el hecho de que el conmutador de dos generadores de rotacion nos de otro


generador de rotacion se dice que estos generadores forman un algebra de Lie, el
algebra de Lie de SO(3). Note que, como el conmutador entre dos generadores
no es cero, dos generadores no se pueden diagonalizar simultaneamente. Ahora,
definamos
M 2 = M12 + M22 + M32 ,

(10.84)

M 2 = 2I,

(10.85)

[M 2 , Mi ] = 0.

(10.86)

de donde

por lo tanto

As, los valores propios de M 2 se pueden obtener al mismo tiempo que cualquiera de los generadores Mi .
Los valores propios de los generadores Mi se pueden calcular directamente
y estan dados por

0
1
M1 V = V = 1 V = a 1 ,
(10.87)
2
i

1
1
M2 V = V = 1 V = a 0 ,
(10.88)
2
i

1
1
M3 V = V = 1 V = a i .
(10.89)
2
0

Si a = 1, en cada caso se tienen vectores propios ortonormales. Estos resultados no son difciles de obtener, posteriormente veremos que los generadores
de las rotaciones en el espacio de las funciones de ~x estan relacionados con
217

operadores diferenciales.
~ = (M1 , M2 , M3 ) se pueden escribir de
Con el smbolo ijk las matrices M
forma mas economica. En efecto, en componentes tenemos
(M1 )ij = ii1j ,

(M2 )ij = ii2j ,

(M3 )ij = ii3j .

(10.90)

Por ejemplo,
(M1 )ij = ii1j

111 112 113


0 0
0
= i 211 212 213 = i 0 0 1 ,
311 312 313
0 1
0

(10.91)

se puede probar que las demas igualdades se cumplen.

As, las componentes de cualquier matriz antisimetrica se pueden escribir


como
Mik = ij (Mj )ik = j ijk .

(10.92)

Ahora, si i es infintesimal, por ejemplo i = i /N con N grande, una transformacion infinitesimal en el espacio de ~x esta dada por
~ )X.
X = X = (I i~
M

(10.93)

En componentes se tiene
xi ik xk = (I ij Mj )ik xk = (ik ij (Mj )ik )xk
= (ik + j ijk )xk = xi + ijk j xk = xi + (~
~x)i ,

(10.94)

es decir
xi xi + (~
~x)i .

10.5.

(10.95)

Arm
onicos esf
ericos

Hasta el momento nos hemos enfocado en las trasformaciones que pasan del
espacio ~r al ~r . Ahora veamos que pasa con las funciones que act
uan en estos
3
espacios. Supongamos que tenemos una funcion, F, de R a R. Entonces, al
evaluar esta funcion en un punto ~r y ocupando la transformacion infinitesimal
Eq. (10.69), se encuentra
~ (~r).
F (~r ) F (~r + ~
~r) = F (~r) + (~
~r) F
218

(10.96)

Ademas usando la propiedad cclica del triple producto escalar, se tiene








~
~
~
~
~
(~
~r) F (~r) = F (~r) ~
~r = ~r F (~r) ~
= i L F (~r)
con

~ = i~r .
~
L

(10.97)

As,


~
F (~r ) 1 + i~
L F (~r).

(10.98)

~ es el generador de las rotaciones en el espacio de


Por lo tanto, el operador L
las funciones. Anteriormente vimos que este operador es Hermtico, por lo que
sus valores propios son reales.
Veamos que forma tiene una rotacion finita. Al igual que en caso del espacio
~r, tomaremos ~
=
~ /N y consideraremos que para tener una transformacion
finita debemos hacer el producto de un n
umero infinito de transformaciones
infinitesimales. Entonces,

N

~ ~
F (~r )
1+i L
F (~r).
N

(10.99)

As, ocupando el resultado (10.72), se encuentra


lm

N
1
~
~
I +i
~ L
= U (~
) = ei~L .
N

(10.100)

Por lo tanto, una transformacion finita esta dada por


~

F (~r ) = ei~L F (~r) .

(10.101)

Note que el operador U (~


) satisface
U (~
) = U (~
) = U 1 (~
) .
Cuando un operador, A, cumple
A = A1
se dice que es un operador unitario. As, U (~
) es unitario.
219

(10.102)

10.6.

Reglas de conmutaci
on del momento angular

Anteriormente vimos que los generadores Mi satisfacen las reglas de conmutacion Eq. (10.83). Veamos que reglas de conmutacion cumplen los operadores
~ se tiene L
~ = ~r p~. En compoLi . Primero notemos que definiendo ~p = i
nentes se encuentra Li = ijk xj pk . De donde
[Li , Lj ] =
=
=
=
=
=
=

[ilm xl pm , jrs xr ps ] = ilm jrs [xl pm , xr ps ]


ilm jrs (xl [pm , xr ]ps + xr [xl , ps ]pm ])
ilm jrs (ixl ps mr + ixr pm ls )
i (ilr jrs xl ps + ism jrs xr pm )
i (ilr rjs xl ps ims sjr xr pm )
i (iar rjb xa pb ibs sja xr pb )
i (iar rjb ibs sja ) xa pb ,

(10.103)

ahora, note que


iar rjb ibs sja = (ij ab ib aj ) (ij ba ia bj )
= ia bj ib aj = ijk kab .

(10.104)

Ocupando este resultado se encuentra


[Li , Lj ] = iijk kab xa pb ,
es decir
[Li , Lj ] = iijk Lk .

(10.105)

Se puede observar que son las mismas reglas de conmutacion que cumple Mi
Eq. (10.83). A estas reglas de comutacion se les llama el algebra de Lie de
SO(3).
Anteriormente vimos que la matriz M 2 = M12 + M22 + M32 conmuta con
todas las matrices Mi . Para los operadores Li el operador equivalente a M 2 es
L2 = L2x + L2y + L2z = Lj Lj .

(10.106)

El cual cumple
[L2 , Li ] = [Lj Lj , Li ] = Lj [Lj , Li ] + [Lj , Li ]Lj
= ijil Lj Ll + ijil Ll Lj = i (ijl Lj Ll + ijl Ll Lj ) , (10.107)
220

ahora, renombrando ndices se encuentra


ijl Lj Ll =

3 X
3
X

ijl Lj Ll =

j=1 l=1

3 X
3
X

ilj Ll Lj = ilj Ll Lj ,

(10.108)

l=1 j=1

introduciendo esta igualdad en Eq. (10.107) se tiene


[L2 , Li ] = i (ilj Ll Lj + ijl Ll Lj ) = i (ijl Ll Ll + ijl Ll Lj ) = 0. (10.109)
Por lo tanto, L2 conmuta con cualquier Li . A L2 se le llama el Casimir del
algebra de Lie de SO(3). Como L2 conmuta con cualquier Li , este operador
comparte vectores propios con estos tres operadores.

10.7.

Ecuaci
on de valores propios de L2

Para obtener los vectores y valores propios de Mi y M 2 resolvimos un


problema de algebra lineal, mas para obtener los vectores propios de L2 y los
de, por ejemplo, Lz se deben plantear las ecuaciones
L2 Ylm = Ym ,

Lz Ym = mYm .

(10.110)

Estas son dos ecuaciones diferenciales. En efecto, considerando las expresiones


de L2 y Lz en coordenadas esfericas, Eq. (2.99) y Eq. (2.93), se encuentra




1
Ym (, )
1 2 Ym (, )
2
L Ym (, ) =
sin
+
sin

2
sin2
= Ym (, ),
(10.111)
Ym (, )(, )
= mYm (, ).
(10.112)
Lz Ym (, ) = i

De la segunda ecuacion es claro que Ym (, ) es de la forma


Ym (, ) = m eim Pm ().

(10.113)

Si queremos que la funcion Ym (, ) no sea multivaluada debemos pedir


Ym (, + 2) = Ym (, ). Esto implica eim = eim(+2) , lo cual se cumple solo si
m = 0, 1, 2, 3, .
221

(10.114)

Por lo tanto, m debe ser un entero. Posteriormente veremos los posibles valores
de .
Sustituyendo Eq. (10.113) en Eq. (10.111) se encuentra


Pm ()
m2 m
1
sin

P () = Pm ().
sin

sin2
Con el cambio de variable u = cos , tenemos

sin = 1 u2 ,
= 1 u2 u .

(10.115)

(10.116)

De donde, Eq. (10.115) toma la forma



 

m
m2
d
2 dP (u)
(1 u )
+
Pm (u) = 0.
2
du
du
1u

(10.117)

Esta es la llamada ecuacion asociada de Legendre. Para el caso m = 0 se define


P0 (u) = P (u), que debe satisfacer


d
2 dP (u)
(1 u )
+ P (u) = 0,
(10.118)
du
du
que es la llamada ecuacion de Legendre. En lo que sigue, estudiando la estructura del grupo de rotaciones, obtendremos las soluciones de estas ecuaciones.
Primero veremos la ortormalidad de las soluciones de la ecuacion (10.115).

10.8.

Relaciones de ortonormalidad

Supongamos que m y m son enteros y que m 6= m , entonces


Z 2
Z 2
Z 2
 

im
im
im im
d e
e
=
de
e
=
dei(mm )
0
0
0

i(mm )2
i(mm ) 2
1
e
=e
= 0.(10.119)
=

i (m m ) 0
i (m m )

Si m = m , se encuentra
Z 2
Z
 
im
im
d e
e
=
0

2
im im

de

De donde, si m y m son enteros se tiene


Z 2
 
d eim eim = 2mm .
0

222

d = 2. (10.120)

(10.121)

Por lo tanto las funciones eim son ortogonales en el intervalo [0, 2].
Note que la ecuacion (10.115) se puede escribir como

 

Pm ()
m2

sin
+ sen
Pm () = 0.

sin

(10.122)

Como se puede observar, esta ecuacion es tipo Sturm-Liouville. En este caso


2
p() = sin , r() = m
. Considerando los resultados para las ecuaciones tipo
sin
Sturm-Louville, como p(0) = p() = 0, se llega a
Z

( )
d sin Pm ()Pm () = 0.
0

En particular si 6=
Z

d sin Pm ()Pm () = 0.

En general se tiene
Z
d sin Pm ()Pm () = m ,

(10.123)

m = constante > 0. (10.124)

Por lo tanto, las funciones Pm () son ortogonales.


Empleando la ortogonalidad de las funciones eim y Pm (), se puede escojer
lm de tal forma que los armonicos esfericos sean ortonormales. En efecto, como
los armonicos esfericos tienen la forma Eq. (10.113), se encuentra
Z
dY m (, )Ym (, ) =

Z 2
Z 
im m
im m

=
d
P (cos )m e P (cos )
d sin m e
0
0
Z 2
Z

i(m m)
= m m
de
d
d sin Pm (cos )Pm (cos )
0
0
Z

= m m 2mm
d sin Pm (cos )Pm (cos )
Z 0
= m m 2mm
d sin Pm (cos )Pm (cos )
0

= m m 2mm m
= | m |2 2m mm .

(10.125)
223

Entonces, si
| m |2 =

1
,
2m

(10.126)

se cumple
< Y m (, )|Ym(, ) >=

dY m (, )Ym (, ) = mm .(10.127)

As los armonicos esfericos son ortonormales.

10.9.

Operadores escalera y espectro de L2

Antes de resolver la ecuacion diferencial (10.111) veamos algunas propiedades de las funciones propias Ym y sus valores propios , m. Primero notemos
que para cualquier funcion f se tiene


0 hLx f |Lx f i = f |Lx Lx f = f |L2x f


0 hLy f |Ly f i = f |Ly Ly f = f |L2y f ,

por lo que


f | L2x + L2y f = f | L2 L2z f .

En particular si f = Ym , se llega a


L2 L2z Ym = m2 Ym ,

(10.128)

entonces


0 m2 hYlm |Ylm i .

(10.129)

Note que la u
nica forma de que se cumpla la desigualdad ( m2 ) < 0 es que
hYlm |Ylm i = 0, es decir Ylm = 0. Si Ylm 6= 0 se tiene ( m2 ) 0, entonces

m .
(10.130)
Esta restriccion nos permitira encontrar los valores de .
En el estudio del oscilador armonico fueron de gran utilidad los operadores
de ascenso y descenso. En el caso que ahora estudiamos hay dos operadores
equivalentes, los cuales son
L = Lx iLy .
224

(10.131)

Note que
L L = (Lx iLy ) (Lx iLy ) = L2x + L2y i (Lx Ly Ly Lx )
es decir,


= L2x + L2y + L2z L2z Lz = L2 L2z Lz = L2 L2z Lz ,

L L = L2 L2z Lz .

(10.132)

Claramente L conmuta con L2 :

[L2 , L ] = 0.

(10.133)

Esto indica que L tiene funciones propias comunes con L2 . Ademas


[Lz , Lx iLy ] = [Lz , Lx ] [Lz , Ly ] = iLy Lx = (Lx iLy ) , (10.134)
es decir
[Lz , L ] = L .

(10.135)

Por lo que, L no tiene funciones propias comunes con Lz .


Veamos que efecto tiene el operador L sobre las funciones propias de Lz .
Definamos la funcion
Y = L Ym ,

(10.136)

entonces tomando en cuenta que L2 y L conmutan, se tiene


L2 Y = L2 L Ym = L L2 Ym = L Ym = Y .

(10.137)

Por lo tanto, L Ym tambien es funcion propia de L2 con el mismo valor propio,


, que Ym . Ademas, considerando el conmutador Eq. (10.135) tenemos
Lz Y = Lz L Ym = (L Lz L ) Ym = (L Lz Ym L Ym )
= (mL Ym L Ym ) = (m 1)L Ym = (m 1)Y , (10.138)
es decir,
Lz L Ym = (m 1)L Ym .

(10.139)

Por lo tanto, Y = L Ym es vector propio de Lz , pero no con el valor propio de


Ym si no con el de Ym1 . De donde, como Lz tiene un espectro no degenerado,
se debe cumplir
L Ym = (, m)Ym1 ,

(, m) = constante.
225

(10.140)

El valor de (, m) lo obtendremos posteriormente.


Como podemos ver, el operador L es muy u
til, pues nos permite pasar de
una funcion propia Ym a otra Ym1 . Ahora si aplicamos n veces este operador
obtenemos
(L )n Ym = (,
m)Ymn ,

(10.141)

Lz Ymn = (m n)Ymn .

(10.142)

con

As, Ymn es vector propio de Lz con valor propio (m n), sin importar el
valor de n. Ahora, es claro que dado cualquier dos n
umeros y m existen otros
dos n
umeros, na y nb , tales que

< (m + na ),
(m nb ) < ,
En estos casos no se cumple la restriccion Eq. (10.130), por lo que Ym+na = 0
y Ymnb = 0. Esto quiere decir que
(L )nb Ym = 0.

(L+ )na Ym = 0,

(10.143)

Definamos el conjunto
A+ = {n| (L+ )n Ym = 0}

(10.144)

y sea N+ el mnimo de A+ . Note que


(L+ )N+ 1 Ym 6= 0,

(10.145)

esto es cierto, pues de lo contrario N+ no sera el mnimo de A+ . Tambien


definamos l = N+ 1 + m, es decir l m = N+ 1, se puede observar que
(L+ )N+ 1 Ym = (L+ )lm Ym = Yl 6= 0,

= constante.

Por lo tanto, existe l tal que Yl 6= 0 y


L+ Yl = 0,
note que l es el maximo valor que puede tomar m de tal forma que Ym 6= 0.
Ahora, definamos
A = {n| (L )n Ym = 0}
226

(10.146)

y sea N el mnimo de A . Se puede observar que


(L )N 1 Ym 6= 0,

(10.147)

pues de lo contrario N no sera el mnimo de A . Tambien definamos


l = m (N 1)
es decir
N1 1 = l m,

se puede observar que

(L+ )N 1 Ym = (L+ )l m Ym = Yl 6= 0,

= constante.

Por lo tanto, existe l tal que Yl 6= 0 y


L Yl = 0,
note que l es el mnimo valor que puede tomar m de tal forma que Ym 6= 0.
De estos resultados tenemos que si Ym 6= 0, entonces se cumplen l m l.
Ahora, como l es el valor propio maximo que puede tener Lz , entonces
considerando Eq. (10.132), se tiene

L L+ Yl = L2 (L2z + Lz ) Yl = [ l(l + 1)]Yl = 0,
esto implica que

= l(l + 1).
Ademas, como l es el valor propio mnimo que puede tener Lz , se tiene

L+ (L Yl ) = L2 (L2z Lz ) Yl = [l(l + 1) l (l 1)]Yl = 0,
de donde

l(l + 1) l (l 1) = l2 l2 + l + l = (l + l )(l l ) + l + l
= (l + l )(l + 1 l ) = 0.
(10.148)
Entonces,

l+
= (l + 1)

l
= l,

(10.149)

claramente el u
nico valor permitido es l
= l y el mnimo valor que puede
tomar m es l. As los valores propios de Lz deben cumplir

l ml

l = 0, 1, 2, , l.
227

(10.150)

Note que hay (2l + 1) funciones propias con el mismo valor propio l(l + 1). Es
decir, para cada propio l(l + 1) hay 2l + 1 funciones que satisfacen
L2 Ylm (, ) = l(l + 1)Ylm(, )

(10.151)

con valores propios de Lz que cumplen Eq. (10.150).


Un resultado importante de todo este desarrollo es que, dado un valor l,
basta obtener un armonico esferico, Ylm (, ), para que, mediante los operadores L , obtener los 2l restantes. Por ejemplo podemos obtener el armonico
esferico Yll (, ) y con el operador L obtener los restantes. De la misma forma
si conocemos funcion Yl0 cualquier otro armonico esferico esta dado por
(L )m Yl0 = Yl,m

(10.152)

(L+ )m Yl0 = Yl,m .

(10.153)

o por
Posteriormente ocuparemos estos resultados para obtener de forma explcita
los armonicos esfericos.

10.10.

Resultados preliminares

Antes de continuar veremos dos resultados que nos permitiran obtener los
armonicos esfericos.

10.10.1.

Constante y reglas de recurrencia

Determinemos definida en Eq. (10.140). Ahora, sabemos que los armonicos esfericos son ortonormales y que se cumple L Ylm = Ylm1 , entonces
usando las propiedades del producto escalar se tiene

< L Ylm |L Ylm > = < Ylm1 | Ylm1 >=


< Ylm1 |Ylm1 >
2
= | | ,
(10.154)

ademas
< L Ylm |L Ylm > =
=
=
=
=
=

< Ylm |L L Ylm >=< Ylm |L L Ylm >




< Ylm | L2 (L2z Lz ) Ylm >


< Ylm | l(l + 1) (m2 m) Ylm >

l2 + l m2 m < Ylm |Ylm >

l2 m2 + l m = (l m)(l m) + (l m)
(l m)(l m + 1).
(10.155)
228

Igualando Eq. (10.154) con Eq. (10.155) se encuentra


| |2 = (l m)(l m + 1).

(10.156)

Por lo tanto,
=

(l m)(l m + 1).

As, Eq. (10.140) tiene la forma


p
L Ylm () = (l m)(l m + 1)Ylm1 (, ).

10.10.2.

(10.157)

(10.158)

Relaciones de recurrencia de L

Como aplicaremos varias veces el operador L , veremos algunas reglas de


recurrencia de estos operadores.
Primero observemos que en coordenadas esfericas, Eqs. (2.91)-(2.93), se
encuentra
L = Lx iLy





i(i) cos cot sin


= i sin + cot cos




=
( cos + i sin ) + cot (i cos sin )




=
(cos i sin ) + i cot (cos i sin )




+ iei cot
=
ei




= ei + i cot
.
(10.159)

Ahora, note que



f ()

(sin )k f () = k (sin )k1 (cos )f () + (sin )k



f
()
= (sin )k
k(cot )f () ,

as
(sin )



(sin )k f () =

229


f ()
k(cot )f () .

Entonces, usando que


(sin )1k = (sin )(k1)
y el cambio de variable u = cos , se llega a


  f ()
k
(k1)
(sin ) f () =
k(cot )f () .
(sin )
u

Ocupando este resultado se obtiene







ik
i
L f ()e
+ i(cot )
= e
f ()eik



f ()
i(k1)

= e
k(cot )f ()



f ()
i(k1)
k(cot )f ()
= e



(sin )k f () .
= ei(k1) (sin )(k1)
u
Adicionalmente, utilizando esta igualdad y definiendo
g() = (sin )(k1)

k = k 1,
se encuentra
L2

ik

f ()e

ik

= ()L e

2 i(k 1)

= () e

(sin )



(sin )k f () ,
u

g()

(k 1)



k
(sin ) g()
u

= ()2 ei(k2) (sin )(k2)






(k1)
(k1)
k
(sin )
(sin )
(sin ) f ()
u
u

2 
= ()2 ei(k2) (sin )(k2) 2 (sin )k f () ,
u

en general se tiene



n 
(L )n f ()eik = ()n ei(kn) (sin )(kn) n (sin )k f () . (10.160)
u

donde

u = cos .
230

10.11.

El arm
onico esf
erico Yll (, )

En esta seccion obtendremos el armonico esferico Yll (, ) con el cual podemos construir el resto de los armonico esfericos. De Eq. (10.113) sabemos
que
ll eil ll ()

Yll (, ) =

(10.161)

y de Eq. (10.158) tenemos que se debe cumplir L+ Yll (, ) = 0, es decir




ll eil ll ()

+ i cot
= 0.
(10.162)
L+ Yll (, ) = e

2
Por lo que, ll () debe satisfacer



l cot ll () = 0,

(10.163)

as
ll () = sinl ,

= constante.

(10.164)

Esto quiere decir que


ll eil sinl

.
2

Yll (, ) =

(10.165)

La constante ll se determina pidiendo la condicion < Yll |Yll >= 1, que es




Z
Z 2
Z
ll eil sinl
ll eil sinl

dYll (, )Yll (, ) =
d
d sin
2
2
0
0
Z
2 Z 2
|ll |
d
d sin2l+1 ei(ll)
=
2 0
0
Z
2l+1
2
d sin
= 1,
= |ll |
0

entonces

|ll |2 = R
0

1
.
d sin2l+1

Para obtener esta constante, notemos que



d
sinn1 cos = (n 1) senn2 cos2 sinn1 sin
d

= (n 1) senn2 1 sin2 sinn ,
231

(10.166)

de donde
sinn =
As,
Z


1 d
n1
sinn1 cos .
senn2
n
n d
n1
d sin =
n
n

(10.167)

d senn2 .

(10.168)

En particular
Z
d sin2l+1 =
0

Z
Z
2l
2l
2l1
d sen
=
d sen2(l1)+1
2l + 1 0
2l + 1 0
Z
(2l)(2(l 1))
=
d sen2(l2)+1
(2l + 1)(2(l 1) + 1) 0
Z
(2l)(2(l 1))(2(l 2))
d sen2(l3)+1
=
(2l + 1)(2(l 1) + 1)(2(l 2) + 1) 0
..
.
(2l)(2(l 1))(2(l 2)) (2(l i))
=
(2l + 1)(2(l 1) + 1)(2(l 2) + 1) (2(l i) + 1)
Z

2(l(i+1))+1
d sen
.
0

Este proceso se puede hacer hasta que 2(l (i + 1)) + 1 = 1, que implica
l = i + 1, es decir i = l 1. En este caso
Z
Z
(2l)(2(l 1))(2(l 2)) 2
2l+1
d sen
d sin
=
(2l + 1)(2l 1)(2l 3) 3 0
0
2l (l)(l 1)(l 2) 1
=
2
(2l + 1)(2l 1)(2l 3) 3
2l+1 l!
=
,
(2l + 1)(2l 1)(2l 3) 3
considerando
(2l + 1)(2l)(2l 1)(2(l 1))(2l 3) 3 2
(2l)(2(l 1)) 2
(2l + 1)!
(10.169)
=
2l l!

(2l + 1)(2l 1)(2l 3) 3 =

se llega a
Z

d sin2l+1 =

232

22l+1 (l!)2
.
(2l + 1)!

(10.170)

Tomando en cuenta este resultado en Eq. (10.166), tenemos que


r
(2l + 1)! 1
ll =
,
2
2l l!

(10.171)

entonces
Yll (, ) =

10.12.

(2l + 1)! eil


sinl .
4
2l l!

(10.172)

Forma explcita de los arm


onicos esf
ericos

Una vez obtenido un armonico esferico, ocupando el operado escalera, L ,


podemos obtener los demas. Por ejemplo, supongamos que tenemos el armonico
esferico Yll . Entonces, usando reiteradamente Eq. (10.158) se tiene

2lYll1 ,
L Yll =
s
p

(2l)!2!
Yll2 ,
2lL Yll1 = (2l)(2l 1)2Yll2 =
L2 Yll =
(2l 2)!
s
s
(2l)!2!
(2l)!2! p
L3 Yll =
L Yll2 =
(2l 2)3Yll3
(2l 2)!
(2l 2)!
s
(2l)!3!
=
Yll3,
(2l 3)!
..
.s
(2l)!n!
Ln Yll =
Ylln .
(10.173)
(2l n)!
Por lo tanto, si n = l m se encuentra
s
(l + m)!
(L )lm Yll (, ).
Ylm (, ) =
(2l)!(l m)!

(10.174)

Se puede observar que considerando los resultados previos (10.172) y (10.160)


para k = l y n = l m se tiene
s
!
r
il
(l + m)!
(2l
+
1)!
e
Ylm (, ) =
(L )lm
sinl
(2l)!(l m)!
4
2l l!
233


(2l + 1)(l + m)! 1
(L )lm eil sinl
l
4(l m)! 2 l!
(2l + 1)(l + m)! 1
(+)lm ei(l(lm))
4(l m)! 2l l!


lm
sin[l(lm)] lm sinl sinl
u
s
lm
(2l + 1)(l + m)! eim
(sin )2l
m
sin
.
=
4(l m)!
2l l!
ulm
Note que ninguna propiedad de estas funciones cambia si las multiplicamos por
un factor de norma uno, es decir por una potencia de i o de 1. En la literatura existen diferentes elecciones de este factor, por conveniencia tomaremos
()l . Entonces, los armonicos esfericos son
s
l
2
lm
im

sin

(2l
+
1)(l
+
m)!
e
m
Ylm (, ) = ()l
(sin )
, (10.175)
4(l m)!
2l l!
ulm
u = cos ,

l m l.

Esta expresion de los armonicos esfericos es com


un en mecanica cuantica, en
la proxima seccion veremos otra que es mas usual en electrostatica.

10.13.

Polinomios de Legendre y polinomios


asociados de Legendre

El caso m = 0 es de particular importancia para diferentes aplicaciones,


veamos este caso. Tomando m = 0 en Eq. (10.175), se tiene
r
r

l
2l + 1 ()l dl
2l + 1 ()l dl
2l
sin

=
1 u2
Yl0 (, ) =
l
l
l
l
r 4 2 l! du
r 4 2 l! du
l
l
2l + 1 1 d
2l + 1
2
u

1
=
Pl (u).
(10.176)
=
4 2l l! dul
4
Donde
l
1 dl
2
Pl (u) = l
u

1
,
(10.177)
2 l! dul
a esta expresion se le llama formula de Rodrigues de los polinomios de Legendre
de grado l. Por lo que el armonico esferico de orden m = 0 es
r
2l + 1
Yl0 (, ) =
Pl (cos ).
(10.178)
4
234

Con este armonico esferico se pueden obtener el resto. En efecto, de Eq.


(10.158) se encuentra
s
p
(l + 1)!
l(l + 1)Yl1 =
L Yl0 =
Yl1,
(l 1)!
s
s
(l + 1)!
(l + 1)! p
2
(l 1)(l + 2)Yl2
(L ) Yl0 =
L Yl1 =
(l 1)!
(l 1)!
s
(l + 2)!
=
Yl2,
(l 2)!
..
.
s
(l + m)!
Yl(m) ,
m 0.
(10.179)
(L )m Yl0 =
(l m)!
Entonces, tomando en cuenta Eq. (10.160) se llega a
s
(l m)!
(L )m Yl0 (, ),
Yl(m) (, ) =
(l + m)!
s
!
r
m
(l m)!
2l
+
1
d
=
()m eim sinm m
Pl (cos )
(l + m)!
du
4
s


dm
(2l + 1)(l m)!
m
2 m
m im
() (1 u ) 2 m Pl (u) .
() e
=
4(l + m)!
du
Definiremos los polinomios asociados de Legendre de grado positivo como
m

Plm (u) = ()m (1 u2 ) 2

dm
Pl (u),
dum

(10.180)

as
Yl(m) (, ) =

(2l + 1)(l m)! im


e
()m Plm (cos ),
4(l + m)!

m 0, (10.181)

es decir, si m 0,
Ylm (, ) =

(2l + 1)(l m)! im m


e Pl (cos ),
4(l + m)!

(10.182)

Yl(m) (, ) =

(2l + 1)(l m)! im


e
()m Plm (cos ).
4(l + m)!

(10.183)

235

Note que

Ylm
(, ) = ()m Yl(m) (, ).

(10.184)

Ahora, definiendo los polinomios asociados de Legendre de grado negativo


como
(l m)! m
P (u),
(l + m)! l

(10.185)

(2l + 1)(l + m)! im m


e
Pl (cos ).
4(l m)!

(10.186)

Plm (u) = ()m


se tiene
Yl(m) (, ) =

Se puede observar que si definimos k = m esta expresion se escribe como


s
(2l + 1)(l k)! ik k
e Pl (cos ),
(10.187)
Ylk (, ) =
4(l + k)!
que tiene la forma de Eq. (10.182). Por lo tanto, cualquier armonico esferico
se escribe como
s
(2l + 1)(l m)! im m
e Pl (cos ), l m l. (10.188)
Ylm (, ) =
4(l + m)!
Ademas, de las relaciones de ortonormalidad Eq. (10.127) se tiene
Z
l l =< Yl m |Ylm >= dYl m (, )Ylm (, )
s
!
Z 2
Z 2
(2l + 1)(l m)! im m
=
d
d sin
e Pl (cos )
4(l + m)!
0
0
s
!
(2l + 1)(l m)! im m
e Pl (cos )
4(l + m)!
Z

(2l + 1)(l m)!
m
d sin Plm
= 2
(cos )Pl (cos ),
4(l + m)!
0
es decir
Z

m
d sin Plm
(cos )Pl (cos )

236

2(l + m)!
(2l + 1)(l m)!

l l .

(10.189)

Tomando el cambio de variable u = cos se encuentra


Z 1
2 (l + m)!
m
ll .
duPlm
(u)Pl (u) =
2l + 1 (l m)!
1

(10.190)

Estas son las relaciones de ortonormalidad de los polinomios asociados de


Legendre. En particular, para los polinomios de Legendre, m = 0, se llega
a
Z 1
2
(10.191)
ll ,
duPl (u)Pl (u) =
2l + 1
1
que son las relaciones de ortonormalidad de los polinomios de Legendre.

10.14.

Propiedades de los polinomios de Legendre

Ahora veremos algunas propiedades de los Polinomios de Legendre. Primero


recordemos que se cumple la llamada formula de Rodrigues
Pl (u) =

l
1 dl
2
u

1
,
2l l! dul

(10.192)

de esta formula se puede ver que los primeros polinomios de Legendre son
P0 (u) = 1.
P1 (u) = u,
1
P2 (u) =
2
1
P3 (u) =
2
1
P4 (u) =
8
1
P5 (u) =
8

(10.193)
(10.194)

3u2 1 ,

(10.195)


35u4 30u2 + 3 ,

(10.197)


5u3 3u ,


63u5 70u3 + 15 .

(10.196)

(10.198)

Para obtener la expresion general de los polinomios de Legendre notemos que


si n y m son dos naturales tales que n m, se tiene
dn u m
dn1 dum
dn1 um1
m! dn1 um1
=
=
m
=
dun
dun1 du
dun1
(m 1)! dun1
m!
dn2um2
m! dn2 um2
=
(m 1)
=
=
(m 1)!
dun2
(m 2)! dun2
237

m! dnn umn
(m n)! dunn
m!
=
umn ,
(m n)!
=

mientras que para el caso n > m, se encuentra


dn u m
= 0.
dun

(10.199)

De donde
m!
dn u m
=
umn (m n),
n
du
(m n)!

1 z0
.(10.200)
0 z<0

dl u2(lk)
(2l 2k)! l2k
=
u
(l 2k).
l
du
(l 2k)!

(10.201)

(z) =

En particular, si l y k son naturales se llega a

As, Eq. (14.97) es diferente de cero solo si l 2k 0. Esto quiere decir


que el maximo valor que puede tomar k es l/2. Si l es par, es decir l = 2r
entonces el maximo valor que puede tomar k es r. De donde, k puede tomar
los valores (0, 1, 2, 3, , r). Si l es impar l = 2r + 1, entonces el maximo valor
que puede tomar k es r + 1/2, que no es un natural. Como k es natural, en este
caso k solo puede tomar los valores (0, 1, 2, 3, , r). Definiremos [l/2] como el
maximo entero menor o igual a l/2. Entonces, en ambos casos, k puede tomar
los valores (0, 1, 2, 3, , [l/2]). Considerando esta definicion, Eq. (14.97) se
puede escribir como

 
dl u2(lk)
(2l 2k)! l2k
l
k .
(10.202)
=
u

dul
(l 2k)!
2
Tambien recordemos el binomio de Newton
n

(A + B) =

n
X

Ckn Ank B k ,

k=0

Ckn =

n!
,
k!(n k)!

(10.203)

que implica
(u2 1)l =

l
X
(1)k l! 2(lk)
u
.
k!(l

k)!
k=0

238

(10.204)

Por lo que, de Eq. (10.204) y Eq. (10.202) se llega a


l

1 dl (u2 1)l X (1)k l! dl u2l2k


Pl (u) = l
=
2 l!
dul
2l l!k!(l k)! dul
k=0

 
l
X
(1)k (2l 2k)!
l
l2k
=
k .
u

l k!(l k)!(l 2k)!


2
2
k=0

(10.205)

As, la expresion general para los polinomios de Legendre es


Pl (u) =

[l/2]
X
k=0

(1)k (2l 2k)!


ul2k .
l
2 k!(l k)!(l 2k)!

(10.206)

De esta expresion se puede ver que


Pl (u) = ()l Pl (u).

(10.207)

Por lo tanto, si l es par, Pl (u) es par y si l es impar, Pl (u) es impar.

10.14.1.

Funci
on generadora

Ahora veremos la funcion generadora de los polinomios de Legendre. Probaremos que se cumple

X
1
=
z l Pl (u),
2
1 2zu + z
l0

z < 1.

(10.208)

Primero note que u = cos 1 y si 0 < z < 1, entonces z = 1 , con


0 < < 1. Ademas recordemos que si || < 1, entonces se cumplen las series
X
1
=
n ,
1
n0
X
1
(2n)! n

.
=
2n
2 (n!)2
1
n0

(10.209)
(10.210)

Entonces,
2u < 2 +

X
n2

n = 1 + 1 + +
1
= z+ ,
z

X
n2

n = z +

X
n0

n = z +

1
1
(10.211)

239

de donde,
2uz z 2 = z(2u z) < 1.

(10.212)

Por lo tanto, considerando Eq. (10.210) y el binomio de Newton Eq. (10.203)


se tiene
X (2n)!
1
1

z n (2u z)n
=
= p
2n
2
2
1 2zu + z
1 z(2u z) n0 2 (n!)
n
X (2n)!
X
n
=
z
Ckn (2u)nk (z)k
2n (n!)2
2
n0
k=0

n
XX
(2n)!()k 2nk C n unk
k

22n (n!)2

n0 k=0

z n+k .

(10.213)

Para simplificar los calculos, definamos l = n + k, entonces n = l k. Como n


es el maximo valor que puede tener k, se cumple
k n = (l k),
esto implica 2k l. De donde, el maximo valor que puede tomar k es el
mayor entero menor o igual a l/2, que es [l/2]. Con este cambio de variable se
encuentra
[l/2]
XX
[2(l k)]!()k 2l2k Cklk ul2k l
1

=
z
22(lk) [(l k)!]2
1 2zu + z 2
l0 k=0

X
l0

X
l0

[l/2]
X
[2(l k)]!()k 2l2k (l k)!
k=0

zl

k!(l 2k)!22(lk) [(l k)!]2

[l/2]
X
k=0

ul2k

[2(l k)]!()
ul2k . (10.214)
k)!k!(l 2k)!

2l (l

Por lo tanto, tomando en cuenta Eq. (10.206) se llega a la igualdad Eq.


(10.208).

La igualdad (10.208) es importante pues permite probar varias propiedades


de los Polinomios de Legendre. Por ejemplo, si u = 0, ocupando la serie Eq.
(10.210), se tiene
X ()l (2l)!
X
1
2l

=
z
=
z l Pl (0),
2l
2
2
2 l!
1+z
l0
l0
240

(10.215)

por lo que
P2l (0) =

()l (2l)!
(2l 1)!!
= (1)l
2l
2
2 l!
(2l)!!

P2l+1 (0) = 0.

(10.216)

Si u = 1, utilizando la serie Eq. (10.209), se consigue

X
X
1
1
=
(1)l z l =
z l Pl (1),
=
1z
1 2z + z 2
l0
l0

(10.217)

de donde
Pl (1) = (1)l .

10.14.2.

(10.218)

Relaciones de recurrencia

Los polinomios de Legendre cumplen las siguientes reglas de recurrencia


(l + 1)Pl+1 (u) (2l + 1)uPl (u) + lPl1 (u) = 0,


dPl (u)
dPl1 (u)
dPl+1 (u)
2u
+ Pl (u) +
= 0,
du
du
du
dPl+1 (u)
dPl (u)
u
(l + 1)Pl (u) = 0,
du
du
dPl+1(u) dPl1(u)

(2l + 1)Pl (u) = 0,


du
du
dPl (u)
luPl (u) + lPl1 (u) = 0.
(u2 1)
du

(10.219)
(10.220)
(10.221)
(10.222)
(10.223)

Para probar la identidad (10.219) definamos


W (z, u) =

X
1
z l Pl (u),
=
1 2uz + z 2
l0

(10.224)

de donde
W (z, u)
(2u + 2z)
(u z)W (u, z)
=
=
,
2
3/2
z
2(1 2uz + z )
(1 2uz + z 2 )
es decir,
(1 2uz + z 2 )

W (z, u)
= (u z)W (u, z).
z
241

(10.225)

Ademas,
W (z, u) X l1
=
lz Pl (u),
z
l0
usando este resultado en Eq. (10.225) se obtiene
W (z, u)
(u z)W (u, z)
z
X
X
= (1 2uz + z 2 )
lz l1 Pl (u) (u z)
z l Pl (u)
(1 2uz + z 2 )

l0

lPl (u)z

l1

l0

X
l0

l0

2luPl (u)z + lPl (u)z

l+1

uPl (u)z l + Pl (u)z l+1


lPl (u)z l1 (2l + 1)uPl (u)z l + (l + 1)Pl (u)z l+1 = 0. (10.226)

Ahora, note que


X

lPl (u)z l1 =

l0

lPl (u)z l1 =

l1

(l + 1)Pl+1 (u)z l

l0

= P1 (u) +

(l + 1)Pl+1(u)z l ,

l1

X
X
(l + 1)Pl (u)z l+1 =
lPl1 (u)z l .
l0

(10.227)

l1

Por lo que, introduciendo estos resultados en (10.226), se encuentra


X
[(l + 1)Pl+1 (u) (2l + 1)uPl (u) + lPl1 (u)] z l = 0.
P1 (u) uP0 (u) +
l1

Claramente esta igualdad implica Eq. (10.219).


Para probar la identidad Eq. (10.220) derivaremos W (z, u) con respecto a
u, en ese caso se tiene
W (z, u)
(2z)
zW (u, z)
=
=
,
2
3/2
u
2(1 2uz + z )
(1 2uz + z 2 )
es decir,
(1 2uz + z 2 )

W (z, u)
zW (u, z) = 0.
u
242

(10.228)

Ademas
W (z, u) X l dPl (u)
z
=
,
u
du
l0
por lo que
W (z, u)
zW (u, z)
u
X dPl (u)
X
zl
= (1 2uz + z 2 )
z l Pl (u)
z
du
l0
l0



X  dPl (u)
dPl (u)
dPl (u) l+2
l
l+1
=(10.229)
0.
z 2u
+ Pl (u) z +
z
=
du
du
du
l0

(1 2uz + z 2 )

Tomando en cuenta que P0 (u) = 1 y P1 (u) = u se encuentra


X dPl (u)
l0

du

zl =

X dPl (u)
l1

du

zl =

X dPl+1(u)
l0

du

z l+1 = z +

X dPl+1 (u)
l1

du

z l+1 ,

ademas
X dPl (u)
l0

du

z l+2 =

X dPl1 (u)
l1

du

z l+1 .

(10.230)

Sustituyendo esto dos resultados en Eq. (10.229) se llega a




X  dPl+1 (u)  dPl (u)
dPl1 (u) l+1
z = 0,
2u
+ Pl (u) +
(1 1)z +
du
du
du
l1
que implica Eq. (10.220).
Para probar la tercera identidad Eq. (10.221) derivaremos con respecto a
u a Eq. (10.219), que induce
(l + 1)

dPl+1(u)
dPl (u)
dPl1 (u)
(2l + 1)Pl (u) (2l + 1)u
+l
= 0. (10.231)
du
du
du

Multiplicando por l a Eq. (10.220) se encuentra




dPl(u)
dPl1 (u)
dPl+1 (u)
l 2u
+ Pl (u) + l
= 0.
l
du
du
du
243

(10.232)

Ademas, restando Eq. (10.231) con Eq. (10.232), se consigue Eq. (10.221).
Ahora, restando a Eq. (10.231) el producto de (l + 1) con Eq. (10.220), se
obtiene
u

dPl (u)
dPl1 (u)
lPl (u)
= 0.
du
du

(10.233)

Sumando este resultado con Eq. (10.221) se llega a la identidad Eq. (10.222).
Si en Eq. (10.221) cambiamos l por l 1 se encuentra
dPl (u)
dPl1(u)
u
lPl1 (u) = 0.
du
du

(10.234)

Ademas, de Eq. (10.233) tenemos


dPl (u)
dPl1(u)
=u
lPl (u).
du
du

(10.235)

Sustituyendo este resultado en Eq. (10.234) se obtiene la identidad Eq. (10.223).


Todas estas identidades son de gran utilidad para resolver diversos problemas de electromagnetismo, en captulos posteriores las ocuparemos.

10.15.

Relaci
on de completez de los arm
onicos
esf
ericos

Hemos demostrado que las funciones propias de los operadores Lz y L2 son


los armonicos esfericos Ylm (, ) y que estas funciones son una base ortonormal.
Por lo tanto cualquier otra funcion F (, ) se puede escribir como combinacion
lineal de esa base, es decir
F (, ) =

m=l
X X

Clm Ylm (, ).

(10.236)

l0 m=l

Ocupando las relaciones de ortonormalidad Eq. (10.127) se encuentra


Z

(, )F (, ).
(10.237)
Clm = dYlm

244

Note que sustituyendo Clm en Eq. (10.236) y haciendo el cambio de variable


u = cos , u = cos se llega a
F (, ) =

m=l Z
X X

Ylm
( , )F ( , )

l0 m=l

m=l
X X

d F ( , )

Ylm (, )

Ylm
( , )Ylm (, )

l0 m=l

d
0
2

d
0

d sin F ( , )
0

m=l
X X

( , )Ylm (, )
Ylm

l0 m=l

du F (u, )

m=l
X

Ylm
(u , )Ylm(u, ) .

l0 m=l

Por lo tanto, lo que esta dentro del parentesis debe ser igual a ( )(uu),
es decir
m=l
X X

l0 m=l

Ylm
( , )Ylm (, ) = ( )(cos cos ).

(10.238)

A esta igualdad se le llama relacion de completez.

10.16.

Teorema de adici
on de los arm
onicos
esf
ericos

Ahora veremos el teorema de adicion de los armonicos esfericos, el cual


tiene diferentes aplicaciones. Este teorema nos dice que si se tiene un vector en
los angulos (, ) y otro en los angulos ( , ) y ademas es el angulo entre
estos dos vectores, entonces se cumple
Pl (cos ) =

m=l
X

Ylm
( , )Ylm (, ).
2l + 1
m=l

(10.239)

Para mostrar este teorema primero recordemos que las funciones rotan con
~
el operador U(~
) = ei~L , donde
~ es un vector constante. Por lo que si tenemos
una funcion f (~r), la funcion rotada es
f (~r) = U(~
)f (~r).
245

Ahora, si tenemos el operador lineal A tal que


(~r) = g(~r),
Af

(10.240)

con g(~r) una funcion, como


f (~r) = U(~
)U(~
)f (~r) = U(~
)f (~r ),
g(~r) = U(~
)U(~
)g(~r) = U(~
)g(~r),
se encuentra
(~r) = AU(~

Af
)f (~r ) = U(~
)g(~r)

(10.241)

que implica
A f (~r ) = g(~r),

A = U(~
)AU(~
),

(10.242)

al operador A le llamaremos operador rotado.


~ se tiene
Considerando que L2 conmuta con L,
L2 = U(~
)L2 U(~
) = U(~
)U(~
)L2 = L2 ,
Lz = U(~
)Lz U(~
).
Es claro que en terminos de los angulos una rotacion hace la transformacion
(, )

( , ).

(10.243)

En particular para los armonicos esfericos se tiene Ylm ( , ) = U(~


)Ylm (, ).
Ademas una rotacion no cambia las reglas de ortonormalidad en el sistema de
referencia de las variables ( , ), pues ocupando las propiedades del producto
escalar y las reglas de ortonormalidad Eq. (10.127) se tiene
)Ylm (, )|U(~
)Yl m (, ) >
< Ylm ( , )|Ylm ( , ) >=< U(~

= < Ylm (, )|U (~


)U(~
)Ylm (, ) >
= < Ylm (, )|U(~
)U(~
)Ylm (, ) >
(10.244)
= < Ylm (, )|Ylm (, ) >= mm ll .
Adicionalmete, se cumple que
L2 Ylm ( , ) =
=

Lz Ylm ( , ) =
=

U(~
)L2 U(~
)U(~
)Ylm (, ) = U(~
)L2 Ylm (, )
U(~
)l(l + 1)Ylm (, ) = l(l + 1)Ylm( , ), (10.245)
U(~
)Lz U(~
)U(~
)Ylm (, ) = U(~
)Lz Ylm (, )

mU(~
)Ylm (, ) = mYlm ( , ).
246

Por lo tanto, el conjunto de funciones Ylm ( , ) forman una base de funciones


ortonormales y cualquier funcion G( , ) se puede escribir en terminos de
ellas

G( , ) =

m=l
X X

Clm Ylm ( , ).

(10.246)

l0 m=l

Tomando en cuenta que


~ es un vector constante, la funcion
Ylm ( , ) = U(~
)Ylm (, )
se puede ver como una funcion que depende de las variables (, ), por lo que
se puede expresar como una serie de armonicos esfericos que dependen de (, )

=l
X mX

Ylm ( , ) =

Clml m Yl m (, ).

(10.247)

l 0 m =l

Pero como se debe cumplir Eq. (10.245) en esta serie solo contribuyen los
terminos que tienen l = l, por lo que

=l
m
X

Ylm ( , ) =

Clmm Ylm (, ),

(10.248)

m =l

con

Clmm =< Ylm (, )|Ylm( , ) >=

)Ylm (, ). (10.249)
dYlm (, )U(~

De forma analoga, como


~ es un vector constante, la funcion
Ylm (, ) = U(~
)Ylm ( , )
se puede ver como una funcion que depende de las variables ( , ) por lo
que se puede expresar como una serie de armonicos esfericos que dependen de
( , ). Considerando que se debe cumplir
L2 Ylm (, ) = l(l + 1)Ylm(, )
se tiene

Ylm (, ) =

=l
m
X

Dlmm Ylm ( , ),

m =l

247

(10.250)

con
Dlmm =< Ylm ( , )|Ylm (, ) > .

(10.251)

Apelando a las propiedades del producto escalar se encuentra

Clmm
= (< Ylm (, )|Ylm ( , ) >) =< Ylm ( , )|Ylm (, ) >

= Dlm m ,
(10.252)

que se puede escribir como

Dlmm = Clm
m.

(10.253)

Por lo tanto,
=l
m
X

Ylm (, ) =

Clm
m Ylm ( , ).

(10.254)

m =l

Ahora, note que por su definicion (10.249) las constantes Clm m no pueden
depender de (, ), solamente pueden depender del angulo
~ . Por esta razon,
tomaremos el caso mas simple. Supongamos que ~r esta en el eje z, es decir
= 0, y que se hace una rotacion con el angulo
~ = ( , ), claramente el
angulo final es mismo angulo
~.
Ademas, considerando Eq. (10.188) se encuentra que
r
2l + 1
Ylm ( = 0, ) =
m0 .
4

(10.255)

Por lo que, tomando = 0 en Eq. (10.248), se obtiene


Ylm (~
) = Ylm ( , ) =

=l
m
X

Clmm Ylm ( = 0, ) =

m =l

m =l

= Clm0

2l + 1
4

=l
m
X

Clmm

2l + 1
m 0
4

es decir
Clm0 =

4
Ylm (~
).
2l + 1

(10.256)

Esta relacion debe ser cierta para cualquier otros angulos (, ) y ( , ).

248

Ahora, considerando el caso m = 0 en Eq. (10.254), se llega a


r
=l
m
X
2l + 1

Yl0 (, ) =
Clm
Pl (cos ) =
0 Ylm ( , )
4
m =l
r

m
=l
X
4

Ylm
)Ylm ( , ).
=
(~
2l
+
1

(10.257)

m =l

De donde
Pl (cos ) =

m=l
X

Ylm
(~
)Ylm ( , ).
2l
+
1
m=l

(10.258)

Note que pasar del vector de angulos (, ) a otro de angulos ( , ) se esta haciendo una rotacion con el angulo
~ que hacen los dos vectores. En el resultado
(10.258) hemos ocupado tres vectores: el eje z, el vector de angulos P1 : (, )
y el vector de angulos P2 : ( , ). Claramente se esta suponiendo que esos
tres vectores estan en un sistema S.
Veamos el resultado (10.258) en otro sistema de referencia. Consideremos
el sistema S el cual tiene como eje z el vector que esta en P1 . En este sistema
definiremos al vector P1 como el vector P2 , el cual tiene angulos
~ con el eje

z = P1 . Mientras que definiremos como P2 al eje z que esta en los angulos


(, ) del eje z. Aqu el angulo que hacen los vectores P1 y P2 es ( , ). En
este sistema de referencia el resultado Eq. (10.258) toma la forma del teorema
de adicion de los armonicos esfericos (10.239).
El angulo puede ser bastante complicado, por ejemplo supongamos que
tenemos los vectores
~r1 = r1 (cos 1 sin 1 , sin 1 sin 1 , cos 1 ),
~r2 = r2 (cos 2 sin 2 , sin 2 sin 2 , cos 2 ).

(10.259)

Entonces el angulo que forman esta dado por


r1 r2 = cos = sin 1 sin 2 cos(1 2 ) + cos 1 cos 2 .

(10.260)

De donde, el teorema de adicion de los armonicos esfericos nos dice que se


cumple
m=l
4 X
Pl (cos ) =
Ylm (2 , 2 )Ylm (1 , 1 ).
2l + 1
m=l

249

(10.261)

10.16.1.

Implicaciones del teorema de adici


on

El teorema de adicion de los armonicos esfericos tiene bastantes aplicaciones, por ejemplo si = 1 = 2 y = 1 = 2 , entonces la ecuacion (10.261)
toma la forma
m=l
X

m=l

|Ylm (, )|2 =

2l + 1
4

(10.262)

que se le llama regla de suma de los armonicos esfericos.


Note que introduciendo Eq. (10.261) en la relacion de completez se encuentra
( )(cos cos ) =

X 4
Pl (cos ).
2l
+
1
l0

(10.263)

Ademas, considerando que la delta de Dirac en coordenadas esfericas es


(~r ~r ) =

1
(r r )( )(cos cos ),
r2

(10.264)

4 X (r r )
Pl (
r r ).
2
2l + 1
r

(10.265)

se llega al resultado
(~r ~r) =

l0

Para ver otra aplicacion consideremos la funcion


1
1
=p 2
|~r1 ~r2 |
r1 2r1 r2 cos + r22

(10.266)

con el angulo entre ~r1 y ~r2 que satisface (10.260). Ahora, si r1 6= r2 definamos
r< = min{r1 , r2 } y r> = max{r1 , r2 }, es claro que
 
r<
< 1.
(10.267)
r>
Entonces, usando estas definiciones y la funcion generatriz Eq. (10.208) con
r<
,
u = cos ,
(10.268)
z=
r>
se tiene
1
=
|~r1 ~r2 |

r>

12

r<
r>

1


cos +

 l
1 X r<
Pl (cos ).
  2 = r>
r>
r<
l0
r>

250

As, utilizando el teorema de adicion de los armonicos esfericos Eq. (10.261),


tenemos
 l 
m=l
X X
4
r<
1

=
Ylm
(2 , 2 )Ylm (1 , 1 ),
(10.269)
l+1
|~r1 ~r2 |
2l + 1 r>
l0 m=l
que es la funcion de Green de la ecuacion de Poisson en terminos de los armonicos esfericos.

10.17.

L2 y el Laplaciano

El espectro de L2 es de vital importancia para la mecanica cuantica y la


electrostatica, pues este operador esta relacionado con el Laplaciano. En efecto,
ocupando las propiedades del tensor de Levi-Civita se tiene
L2 =
=
=
=
=

Li Li = (ijk xj pk ) (ilm xl pm ) = ijk ilm xj pk xl pm


jki ilm xj (xl pk ilk ) pm = (jl km jm kl ) (xj xl pk pm ixj lk pm )
jl km xj xl pk pm jm kl xj xl pk pm ijl km xj lk pm + jm kl xj lk pm
xj xj pk pk xm xl pl pm ixk pk + ikk xl pl
(~r)2 (~p)2 xm~r ~ppm i~r ~p + 3i~r ~p.
(10.270)

Ademas, como
xm~r p~pm = xm xl pl pm = xm xl pm pl = xm (pm xl + iml ) pl
= xm pm xl pl + ixm ml pl = (~r ~p) (~r ~p) + i (~r p~) ,
se encuentra
L2 = (~r)2 (~p)2 (~r p~)2 + i~r p~,

(10.271)

de donde
(~p)2 =


1
(~r ~p)2 i~r ~p + L2 .
2
r

(10.272)

~ se tiene
Considerando que p~ = i,


1
(~p)2 = 2 = 2 (~r p~)2 i~r p~ + L2
 r

2


1 
2
~ i i~r
~ +L ,
= 2
i~r
r
251

(10.273)

es decir
1
= 2
r
2



2 

2
~ + ~r
~ L .
~r

(10.274)

~ en coordenadas esfericas, se encuentra


En particular, tomando
!
2





1  ~ 2  ~ 
1

1
2
= 2
r
.
~r + ~r
r
+r
= 2
r2
r
r
r
r r
r
Por lo tanto,
1
= 2
r r
2



1
2
r
2 L2 .
r
r

(10.275)

Posteriormente ocuparemos este resultado para atacar problemas de electrostatica y mecanica cuantica.

10.18.

Paridad

La transformacion de paridad esta definida por


(x, y, z) (x, y z).

(10.276)

Ahora, en coordenadas esfericas se tiene


x = r sin cos = r sin ( ) cos ( + ) ,
y = r sin sin = r sin ( ) sin ( + ) ,
z = r cos = cos( ).
Por lo tanto, la transformacion de paridad en coordenas esfericas toma la forma
(r, , )

(r, , + ).

(10.277)

Ahora, veamos como transforman los polinomios asociados de Legendre bajo


paridad. Primero notemos que bajo paridad se tiene
u = cos

cos( ) = u.

(10.278)

Tambien se tiene
Pl (cos( )) = Pl ( cos ) = ()l Pl (cos )
 m dm
Plm (cos( )) = ()m 1 (u)2 2
Pl (u)
d(u)m
m m
l+m
m
2 2 d
Pl (u)
= () () 1 u
dum
= ()l+m Plm (cos ).
252

(10.279)

Otra identidad de utilidad es


ei(+)m = eim eim = (cos + i sin )m eim = ()m ei .

(10.280)

Por lo tanto, ocupando la definicion de los armonicos esfericos (10.188) se


encuentra
Ylm (r, , + ) = ()l Ylm (r, , ).

253

(10.281)

Captulo 11
Ecuaci
on de Laplace en
Coordenadas esf
ericas
En este captulo estudiaremos la ecuacion de Laplace y resolveremos varios
problemas de electrostatica y magnetostatica.

11.1.

Soluci
on general

Como vimos en el captulo anterior la ecuacion de Laplace en coordenadas


esfericas Eq. (10.275) tiene la forma


1
L2
2
2
= 2
r
2 = 0.
(11.1)
r r
r
r
Propondremos como solucion a (r, , ) = R(r)Ylm (, ), de donde


1
R(r)
R(r)L2 Ylm (, )
2
2
(r, , ) = 2
r Ylm (, )

r r
r
r2


R(r)l(l + 1)Ylm (, )
R(r)
1
r2

= Ylm (, ) 2
r r
r
r2


 
Ylm (, )
2 R(r)
=
r
R(r)l(l + 1) = 0, (11.2)
r2
r
r
por lo que R(r) debe satisfacer


d
2 dR(r)
r
R(r)l(l + 1) = 0.
dr
dr

254

(11.3)

Para resolver esta ecuacion haremos la propuesta R(r) = a r , con una


constante, entonces



d
d 2 1 
d +1 
2 dr
r
=
r r
=
r
= ( + 1)r ,
(11.4)
dr
dr
dr
dr

sustituyendo este resultado en Eq. (11.3) se encuentra


r (( + 1) l(l + 1)) = 0,

(11.5)

es decir
( + 1) l(l + 1) = 2 l2 + l = ( + l)( l) + ( l)
= ( + l + 1)( l) = 0,
(11.6)

entonces, las soluciones para R(r) son r l y r (l+1) . En general las soluciones
radiales son
Blm
R(r) = Alm r l + l+1 ,
Alm , Blm = constante.
(11.7)
r
As, las soluciones completas son de la forma


Blm
l
(11.8)
lm (r, , ) = Alm r + l+1 Ylm (, )
r

y la solucion general a la ecuacion de Laplace en coordenas esfericas es




l
X X
Blm
l
(11.9)
Alm r + l+1 Ylm (, ).
(r, , ) =
r
l0 m=l
Este resultado tiene varias aplicaciones. Por ejemplo, las leyes de la electrostati~ satisface las leyes
ca nos dicen que el campo electrico, E,
~ E(~
~ r ) = 4(~r),

~ E(~
~ r ) = 0.

(11.10)

La primera ley es la llamada ley de Gauss y establece la relacion entre el


campo electrico y la densidad de carga . La segunda ley establece que existe
~ = ,
~ por lo que la ley de Gauss toma la forma
una funcion tal que E
2 (~r) = 4(~r),

(11.11)

que es la llamada ecuacion de Poisson. Note que (~r) solo es diferente de cero
donde hay carga, fuera de la region donde hay carga se tiene (~r) = 0. Por lo
tanto la ecuacion de Poisson Eq. (11.11) se convierte en la ecuacion de Laplace
2 (~r) = 0,
cuya solucion en coordenadas esfericas es Eq. (11.9).
255

(11.12)

11.1.1.

Problema de la esfera

Supongamos que tenemos un sistema que consta de una esfera de radio R


que esta al potencial V (, ) en su fronterea y que el potencial es finito en
cualquier punto del espacio. El problema consiste en calcular el potencial en
todo el espacio, tanto dentro como fuera de la esfera.
En el interior de la esfera el potencial Eq. (11.9) debe ser finito, esto implica
que si r < R los coeficientes Blm deber ser nulos, de lo contrario el potencial
diverge en el origen. Si r > R los coeficientes Alm debe ser nulos, de lo contrario
el potencial diverge en infinito. Dividiremos el potencial en dos partes, en el
interior, r < R,
l
 r l
X X
int (r, , ) =
Alm
Ylm (, ),
R
l0 m=l

y en el exterior, r > R,

ext (r, , ) =

l
X X

l0 m=l

 l+1
R
Ylm (, ).
Blm
r

En la frontera se debe cumplir que int (R, , ) = ext(R, , ) = V (, ), de


donde
l
l
X X
X X
V (, ) =
Alm Ylm (, ) =
Blm Ylm (, ),
(11.13)
l0 m=l

l0 m=l

es decir Alm = Blm y

V (, ) =

l
X X

Alm Ylm (, ),

(11.14)

l0 m=l

por lo que

Alm =< Ylm (, )|V (, ) >=


As, el potencial del problema es

dYlm
(, )V (, ).

l
 r l
X X
int (r, , ) =
Alm Ylm (, )
R
l0 m=l
 l+1
l
X X
R
Ylm (, ).
ext (r, , ) =
Alm
r
l0 m=l

con Alm dado por (11.15).

256

(11.15)

(11.16)

(11.17)

11.1.2.

F
ormula de Poisson

Por otros metodos se puede mostrar que la solucion de la ecuacion de


Laplace en coordenadas esfericas con la condicion de borde
(r = R, , ) = V (, ),

(11.18)

es
R(R2 r 2 )
(r, , ) =
4

V ( , )
3

(r 2 + R2 2Rr cos ) 2

(11.19)

esta es la llamada formula de Poisson en tres dimensiones. Donde es el angulo


entre los vectores ~r y ~r = R
er , ademas
Z
Z 2
Z

d =
d
d sin ,
0

cos = sin sin cos( ) + cos cos ,

el signo superior () corresponde al caso r > R y el signo (+) corresponde al


caso r < R.
Mostraremos que esta solucion es consistente con las soluciones Eq. (11.16)
y Eq. (11.17).
Note que
Z
R(R2 r 2 )
V ( , )
(r, , ) =
d
3
4
(r 2 + R2 2Rr cos ) 2
Z
R
R(R r cos ) r(r R cos )
= ()
d V ( , )
3
4
(r 2 + R2 2Rr cos ) 2


Z
R(R r cos )
R
r(r R cos )

d V ( , )
= ()
3
3
4
(r 2 + R2 2Rr cos ) 2
(r 2 + R2 2Rr cos ) 2

Z

1
R

d V ( , )() R
= ()
4
R r 2 + R2 2Rr cos

1

r
2
2
r r + R 2Rr cos



Z
R

= ()
d V ( , ) R
r
4
R
r
r 2 + R2 2Rr cos

Z

V ( , )

R
R
d
.
r
= ()
4
R
r
r 2 + R2 2Rr cos
257

Definiendo r> =menor{r, R}, r< =mayor{r, R} y considerando la funcion generatriz de los polinomios de Legendre, junto con el teorema de adicion de los
armonico esfericos se llega a

Z
R

V ( , )

(r, , ) = ()
R
d p
r
2 + r 2 2r r cos
4
R
r
r<
< >
>

Z

V ( , )

= ()
R
d r
r
2

 
4
R
r
r> 1 + rr>< 2 rr<> cos

Z
X  r<  l
R

1
= ()
R
d V ( , )
r
Pl (cos )
4
R
r
r> l0 r>

Z
R

= ()
d V ( , )
R
r
4
R
r
 l
l
X X
4 1 r<

Ylm
( , )Ylm (, )
2l + 1 r> r>
l0 m=l


 l !
l
X X

1 r<
()R
R
Ylm (, )
r
=
2l + 1
R
r
r> r>
l0 m=l
Z

d Ylm
( , )V ( , )


 l !
l
X X
()R

1 r<
=
R
Alm Ylm (, ), (11.20)
r
2l
+
1
R
r
r
r
>
>
l0 m=l

con

Alm =

dYlm
(, )V (, ).

Ahora, si r < R se debe tomar el signo () en Eq. (11.20), en ese caso




 l !

 l 

()R

1 r<

()R
R
=
R
r
r
2l + 1
R
r
r> r>
2l + 1
R
r
Rl+1
()R ()(2l + 1)r l  r l
=
=
,
2l + 1
Rl+1
R

sustituyendo este resultado en Eq. (11.20) se llega a

l
 r l
X X
Alm Ylm (, )
int (r, , ) =
R
l0 m=l

258

que coincide con Eq. (11.16).


Para R < r se debe tomar el signo (+) en Eq. (11.20), en cuyo caso


 l !

 l 
R

1 r<
R
=
R
r
r
2l + 1
R
r
r> r>
2l + 1
R
r
r l+1
 l+1
R
R (2l + 1)Rl
=
,
=
2l + 1
r l+1
r
usando este resultado en Eq. (11.20) se obtiene
l
 r l+1
X X
Alm Ylm (, )
ext (r, , ) =
R
l0 m=l

que coincide con Eq. (11.17).


Por lo tanto, la formula de Poisson (11.19) es la solucion de la ecuacion de
Laplace con la condicion de borde (11.18)

11.1.3.

Esfera partida

Supongamos que tenemos una esfera de radio R cuyo potencial en su frontera es



V0
0 2
(11.21)
V () =
V0 2 <
y es finito en todo el espacio. Determinaremos el potencial en todo el espacio.
En este caso los potenciales estan dados por Eq. (11.16) y Eq. (11.17), solo
basta determinar los coeficientes Alm .
Claramente, el sistema es invariantes bajo rotaciones sobre el eje z, por
lo que el potencial no puede depender de . Esto implica que si m 6= 0 los
coeficientes Alm son nulos. Los coeficientes no nulos son
Z
Al0 = Al = < Yl0 (, )|V () >= dYl0 (, )V ()
Z 2
Z 2
=
d
d sin Yl0 (, )V ()
0

259

=
=

r0

d sin

2l + 1
2
4

2l + 1
Pl (cos )V ()
4

d sin Pl (cos )V ().

(11.22)

Con el cambio de variable u = cos se tiene



V0
0u1
V (u) =
V0 1 < u 0
y
Z 1
p
Al =
(2l + 1)
duPl (u)V (u).

(11.23)

(11.24)

Como V (u) es impar, A2l = 0. Para el caso impar se tiene


Z 1
p
(2(2l + 1) + 1)2
duP2l+1(u)V (u)
A2l+1 =
0
Z 1
p
= 2V0 (4l + 3)
duP2l+1 (u).
0

Considerando la identidad


1 d
P2(l+1) (u) P2l (u)
(11.25)
4l + 3 du
y los valores de los polinomios de Legendre en 1 y en cero se llega a

Z 1
 1
1
P2(l+1) (u) P2l (u)
duP2l+1(u) =
4l + 3
0
0

1
P2(l+1) (0) P2l (0)
=
4l + 3


()l+1 (2(l + 1))! ()l (2l)!
1
2l 2
=
4l + 3 22(l+1) ((l + 1)!)2
2 (l!)


(1)l (2l + 2)(2l + 1) (2l)!
(2l)!
=
+
4l + 3
22 (l + 1)2 22l (l!)2 22l (l!)2


(2l + 2)(2l + 1)
(1)l (2l)!
+1
=
4l + 3 22l (l!)2
22 (l + 1)2


(1)l (2l)!
2(l + 1)(2l + 1)
=
+1
4l + 3 22l (l!)2 22 (l + 1)(l + 1)


4l + 3
(1)l (2l)!
=
4l + 3 22l (l!)2 2(l + 1)
(1)l (2l)!
= 2l 2
.
(11.26)
2 (l!) 2(l + 1)
P2l+1 (u) =

260

Entonces
A2l+1 =

V0

p
(4l + 3)(1)l (2l)!
,
22l (l!)2 (l + 1)

(11.27)

que implica
V () =

A2l+1 Y2l+10 (, )

l0

X V0
l0

= V0

(4l + 3)(1)l (2l)!


22l (l!)2 (l + 1)

X (1)l (4l + 3)(2l)!


22l+1 (l!)2 (l + 1)

l0

(4l + 3)
Pl (cos )
4

P2l+1 (cos ),

(11.28)

de donde
X (1)l (4l + 3)(2l)!  r 2l+1

P2l+1 (cos ),
R
X (1)l (4l + 3)(2l)!  R 2(l+1)
ext (r, ) = V0
P2l+1 (cos ), (11.29)
2l+1 (l!)2 (l + 1)
2
r
l0
int (r, ) = V0

l0

22l+1 (l!)2 (l + 1)

es el potencial en todo el espacio.

11.2.

Esfera a potencial cero

Supongamos que tenemos un esfera de radio R cuya superficie esta a potencial cero y queremos calcular el potencial electrico en todo el espacio. Note
que debemos buscar las soluciones de la ecuacion de Laplace que satisfacen
(R, , ) = 0. Por conveniencia tomaremos la solucion general de la forma
 l+1 !
l
 r l
X X
R
(r, , ) =
alm
Ylm (, ).
(11.30)
+ blm
R
r
l0 m=l

Por lo que
(R, , ) =

l
X X

(alm + blm ) Ylm (, ) = 0,

l0 m=l

261

como los armonicos esfericos son un conjunto de funciones ortonormales, se


debe cumplir
alm = blm .

(11.31)

Por lo tanto, la solucion general a este problema es


(r, , ) =

l
X X

l0 m=l

11.2.1.

alm

 r l
R

 l+1 !
R
Ylm (, ).

(11.32)

Plano con protuberancia esf


erica

Como una aplicacion del problema anterior, supongamos que tenemos un


plano infinito que tiene una protuberancia esferica de radio R y que todo el
sistema esta a potencial cero, ademas si r >> R el potencia tiene la forma
(r) = E0 z = E0 r cos . Para este sistema queremos encontrar el potencial electrico.
Por simplicidad pondremos el plano en el plano x y de tal forma que el
casquete de la protuberancia este sobre el eje z. Claramente este sistema es
invariante bajo rotaciones del eje z, por lo que el potencial no depende de .
Ademas, como el potencial se debe anular sobre el casquete esferico, este debe
ser de la forma Eq. (11.32) donde lo terminos con m 6= 0 no contribuyen. As el
potencial debe ser de la forma
!
 r l  R l+1
X
(r, ) =
al
Pl (cos ).
(11.33)

R
r
l0
Ahora, el potencial se debe anular sobre el plano x y para cualquier r. Esto
equivale a pedir que el potencial se anule en = 2 , es decir en cos 2 = 0 para
cualquier r. Entonces,
 l+1 !




X
l

r
R
r, =
=
al
Pl (0) = 0.
(11.34)

2
R
r
l0
Considerando que P2l+1 (0) = 0, se encuentra a2l = 0, que implica
!
 r 2l+1  R 2(l+1)
X
a2l+1
(r, ) =
P2l+1 (cos ).

R
r
l0
262

(11.35)

Ademas, para el caso r >> R, se debe cumplir


 r 2l+1
X
(r) = E0 r cos = (r >> R, ) =
a2l+1
P2l+1 (cos ),
R
l0

como P1 (cos ) = cos , se llega a2l+1 = 0 si l > 0 y


r
E0 r cos = a1 cos ,
R
es decir
a1 = E0 R.
En consecuecia la solucion al problema es
 3 !
R
cos .
(r, ) = E0 r 1
r

11.3.

(11.36)

(11.37)

(11.38)

Problemas con simetra azimutal

La solucion general de la ecuacion de Laplace en coordenadas esfericas de


problemas que tienen simetra rotacional ante el eje z, es decir que no dependen
de , es
(r, ) =

X
l=0


Al r l + Bl r (l+1) Pl (cos ).

(11.39)

En principio se deben calcular cada uno de los coeficientes Al y Bl , sin embargo


en algunos casos se pueden ocupar las simetras del problema para obtenerlos.

11.3.1.

Esfera con condiciones especiales

Supongamos que tenemos una esfera de radio R cuyo potencial en su superficie es



V () = V0 1 + cos + 2 cos + cos2 ,
V0 = constante
(11.40)

y el potencial es finito en todo el espacio. Este problema no depende de , por


lo que debemos buscar soluciones de la ecuacion de Laplace de la forma Eq.
(11.39) que satisfagan la condicion de borde Eq. (11.40). Como el potencial es
finito en todo el espacio, si r < R el potencial debe ser de la forma
X  r l
int (r, ) =
al
Pl (cos ).
(11.41)
R
l0
263

Por la misma razon, si r > R el potencial debe escribirse como


X  R l+1
ext (r, ) =
bl
Pl (cos ).
r
l0

(11.42)

Antes de continuar escribamos el potencial Eq. (11.40) de una forma mas


sugerente, como cos 2 = cos2 sen2 = 2 cos2 1, entonces

V () = V0 cos + 3 cos2 .
(11.43)
Considerando que

P0 (u) = 1,

P1 (u) = u,

1
P2 (u) = (3u2 1),
2

(11.44)

se encuentra
2
1
u2 = P2 (u) + P1 (u),
3
3

(11.45)

V () = V0 (P0 (cos ) + P1 (cos ) + 2P2 (cos )) .

(11.46)

as,

Entonces, como V () = int (R, ) = ext (R, ) y los polinomios de Legendre


son linealmente independientes, los u
nicos coeficientes diferentes de cero son
a0 = V0 ,

a1 = V0 ,

a2 = 2V0 .

(11.47)

De donde la solucion al problema es




 r 2
r
int (r, ) = V0 P0 (cos ) + P1 (cos ) + 2
P2 (cos ) ,
R
R
!
 2
 3
R
R
R
P0 (cos ) +
P1 (cos ) + 2
P2 (cos ) .
ext (r, ) = V0
r
r
r

11.3.2.

Potencial de un anillo circular

Supongamos que tenemos un anillo circular de radio R con densidad de


carga constante , paralelo al plano x y y que esta a una altura h del origen.
Ademas el origen del anillo esta sobre el eje z.
Este sistema es invariante bajo rotaciones del eje z, por lo que no depende
de y su potencial debe ser de la forma Eq. (11.39). Note que los coeficientes
264

Al y Bl no depende de la posicion, por lo que si los calculamos en un punto o


sobre un eje los habremos calculado para todo el espacio.
Primero calculemos el potencial para un punto que este sobre el eje z, es
decir = 0, note que esto implica que r = z. Ahora, un elemento de carga del
anillo, dq = Rd que esta en la posicion ~rq = (R cos , R sin , h) contribuye
con el potencial
d(r = z, = 0) =

dq
|z k ~rq |

de donde

=p

Rd
Rd
=
R2 + h2 + z 2 2hz
R2 + (z h)2

(r = z, = 0) =

2R
.
R2 + h2 + z 2 2hz

Este potencial se puede poner de forma mas sugerente. En efecto, si es el


angulo que hace el eje z con un vector que une el origen del sistema coordenado

y un punto del anillo, entonces R = c sin y h = c cos , con c = R2 + h2 .


Por lo que,
(r = z, = 0) =

c2

2R
.
+ z 2 2cz cos

Si definimos a r< =menor{r, c} y r> =mayor{r, c} se llega a


2R
2
 
r> 1 + rr>< 2 rr<> cos
 l
2R X r<
Pl (cos )
=
r> l0 r>

(r = z, = 0) =

2RPl (cos )

l0

l
r<
.
l+1
r>

(11.48)

Si r < c, se tiene
int (r = z, = 0) =

2RPl (cos )

l0

rl
cl+1

(11.49)

(11.50)

para el caso r > c se llega a


ext(r = z, = 0) =

2RPl (cos )

l0

265

cl
r l+1

Para obtener el potencial en todo el espacio consideremos la solucion general


Eq. (11.39). Si r , entonces r l diverge por lo que en ese caso, que corresponde a r > c, se debe cumplir que Al = 0. En particular sobre el eje z, es
decir = 0, como Pl (1) = 1, se tiene
X
Bl r (l+1) .
(11.51)
ext (r = z, = 0) =
l0

Igualando esta solucion con Eq. (11.50) se llega a Bl = 2Rcl Pl (cos ). Por
lo que, si r > c, la solucion es
ext (r, ) =

X 2Rcl Pl (cos )
r l+1

l0

Pl (cos ).

(11.52)

Para el caso r < c, si r 0, entonces r (l+1) diverge y se debe tomar Bl = 0.


En particular sobre el eje z, es decir = 0, se consigue
X
int (r = z, = 0) =
Al r l .
(11.53)
l0

Igualando esta solucion con Eq. (11.49) se encuentra Al =


donde, si r > c, la solucion es
X 2RPl (cos )
r l Pl (cos ).
int (r, ) =
l+1
c
l0

2R
P (cos ).
cl+1 l

De

(11.54)

Claramente la solucion en todo el espacio es


(r, ) = 2R

11.3.3.

X rl
<
P (cos )Pl (cos ).
l+1 l
r
>
l0

(11.55)

Esfera con hueco

Veamos otro problema que se puede resolver con el metodo empleado en el


ejemplo anterior. Supongamos que tenemos una esfera conductora de radio R
con un hueco definido por el cono = y que tiene densidad superficial de
carga constante . Queremos calcular el potencial electrico del sistema.
Pondremos el origen de coordenadas en el centro de la esfera de tal forma
que el eje del cono coincida con el eje z. Este problema no depende de , por lo
que el potencial es de la forma Eq. (11.39). Como en el caso del anillo, primero
calcularemos el potencial sobre el eje z. Un elemento de carga esta dado por
dq = da = R2 sin d d
266

y si tiene la posicion ~r = R
er , entonces contribuye con el potencial
d(r = z, = 0) =

dq

=p

R2 sin d d
z 2 + R2 2Rz k er

|z k R
er |
R2 sin d d
=
=
z 2 + R2 2Rz cos

r>

R2 sin d d
,
 2  
r<
r<

1 + r> r> cos

donde r> =mayor{r, R} y r< =menor{r, R}. Por lo que


X rl
<
P (cos )R2 sin d d ,
d(r = z, = 0) =
l+1 l
r
l0 >

(11.56)

as el potencial total sobre un punto en el eje z es


Z 2 Z
(r = z, = 0) =
d(r = z, = 0)
0

Z
X r l Z 2
<
2

= R
d
Pl (cos ) sin d
l+1
r
0

l0 >
Z

X rl
<
Pl (cos ) sin d .
= 2R2
l+1
r

l0 >

Con el cambio de variable x = cos y considerando que se cumple


1 d
Pl (x) =
(Pl+1 (x) Pl1 (x)) ,
Pl (1) = (1)l ,
(11.57)
2l + 1 dx
tenemos
Z
Z 1

Pl (cos ) sin d =
Pl (x)dx

Z coscos
1 d
=
(Pl+1 (x) Pl1 (x)) dx
2l + 1 dx
1
1
(Pl+1 (cos ) Pl1 (cos )),
=
2l + 1
de donde
X 2R2 r l
<
(r = z, = 0) =
(Pl+1 (cos ) Pl1 (cos ))
(11.58)
l+1
2l + 1 r>
l0
Ahora, tomando en cuenta la solucion general Eq. (11.39), el potencial en todo
el espacio es
X 2R2 r l
<
(r, ) =
(Pl+1 (cos ) Pl1 (cos )) Pl (cos ). (11.59)
l+1
2l
+
1
r
>
l0
267

11.4.

Disco a potencial constante

Supongamos que tenemos un disco de radio R que esta en el plano x y


centrado en el origen y que tiene potencial constante V. Con la informacion de
que en el disco el campo electrico es proporcional a
4
p

calcular el potencial si R < r.

(11.60)

R2 2

Como el sistema es invariante bajo rotaciones en el eje z, el potencial debe


ser de la forma
X  R l+1
Pl (cos ).
(11.61)
Al
ext (r, ) =
r
l0

Antes de calcular Al note que, como el potencial es constante en el disco,


~ = ,
~
el campo electrico, E
debe ser perpendicular a este. Ahora, si
es una constante de proporcionalidad, ocupando la funcion generatriz de los
polinomios de Legendre se llega a que el campo electrico en el disco es
 2l
4
4 X
4
l
()
= q
P2l (0). (11.62)
E=p
=

R l0
R
2
R2 2
R 1 R

En el borde del disco, se tiene

X
~ = 4
E
()l P2l (0)
e ,
R l0

e = (cos , sin , 0),

(11.63)

con e el vector normal al borde del disco.


Ocupando de la funcion generatriz de los polinomios de Legendre Eq.
(10.208) se tiene
1
p

()l 2l P2l (0).

(11.64)

l0

Ademas es claro que con el cambio de variable = cos se encuentra


Z
Z 1
2

d
p
=
(11.65)
d = ,
2
1 2
0
0
268

por lo que
Z 1
Z 1 X
X ()l
1

d p
=
P2l (0) = . (11.66)
d
()l 2l P2l (0) =
2l + 1
2
1 2
0
0
l0
l0
Ahora, de Eq. (11.61) se encuentra

~ ) = (r,
~
E(r,
) =

X  Al (l + 1)Rl+1

r l+2
l0
 l+1

1 R
dPl (cos )
+
e .
Al
r r
d

Pl (cos )
er

Con el cambio de variable u = cos se tiene




dPl (cos )
dPl (u)
dPl1(u)
= sin
= sin u
+ lPl1 (u) ,
d
du
du

(11.67)

de donde
~ ) =
E(r,

X Al  R l+1 
(l + 1)Pl (cos )
er
r
r
l0
 

dPl1(u)
+ lPl1 (u) e .
+ sin u
du

En el plano x y, es decir =

(11.68)

se tiene

er | 2 = (cos , sin , 0) = e ,

e | = (0, 0, 1) = k.
2

Note que el borde del disco se encuentra en = 2 , r = R y en ese caso se


debe cumplir Eq. (11.63). Entonces, evaluado en = 2 , r = R a Eq. (11.68)
e igualando el resultado con Eq. (11.63), se encuentra


i
X Al h
~ R, =
E
=
(l + 1)Pl (0)
e lPl1 (0)k
2
R
l0
4 X
()l P2l (0)
e ,
(11.69)
=
R l0
que implica
X
l0

Al
lPl1 (0)k = 0,
R
269

(11.70)

de donde
A2l+1 = 0.

(11.71)

Entonces la igualdad Eq. (11.69) toma la forma



 XA
4 X
2l
~ R, = =
E
()l P2l (0)
e ,
(2l + 1)P2l (0)
e =
2
R
R
l0
l0
que induce
A2l =

()l 4
.
2l + 1

(11.72)

As el potencial exterior tiene la forma


X ()l  R 2l+1
P2l (cos ),
ext(r, ) = 4
2l + 1 r

(11.73)

l0

este potencial debe satisfacer la condicion de borde



X ()l

R, =
= 4
P2l (0) = V,
2
2l + 1
l0

(11.74)

usando Eq. (11.66) se llega a


=

V
.
2 2

(11.75)

Por lo tanto, el potencial es


 2l+1
R
2V X ()l
ext (r, ) =
P2l (cos ).
l0 2l + 1 r

11.5.

(11.76)

Distribuci
on de carga continua

Supongamos que se tiene una partcula puntual de carga q en la posicion ~r ,


entonces seg
un las leyes de la electrostatica el potencial electrico en el punto
~r esta dado por
(~r) =

q
.
|~r ~r |
270

(11.77)

Ahora, si se tiene una densidad de carga (~r) en un volumen, V, cada elemento


de carga dq(~r) = (~r)d~r contribuye al potencial en el punto ~r con
d(~r) =

dq(~r )
(~r )d~r
=
,
|~r ~r |
|~r ~r |

por lo tanto, el potencial total en el punto ~r es


Z
(~r )
.
(~r) = d~r
|~r ~r |

(11.78)

(11.79)

Sea el angulo entre los vectores


~r = r (sin cos , sin sin , cos )

~r = r(sin cos , sin sin , cos ),

tambien definamos r< =menor{r, r }, r> =mayor{r, r }, entonces

1
1
1
=
=p

2 + r 2 2r r cos
|~r ~r |
r>
r 2 + r 2 2rr cos
< >
<
 l
1
1 X r<
r
=
=
Pl (cos )
 
 2
r< l0 r>
r<
r<
r< 1 + r> 2 r> cos
=

l
X X
l0

4 1
2l + 1 r<
m=l

r<
r>

l

Ylm
( , )Ylm (, ).

Por lo que
(~r )
|~r ~r |
Z
l
X X

=
d~r (~r )

(~r) =

d~r

!
 l
4 1 r<

Ylm
( , )Ylm (, )
2l + 1 r< r>
l0 m=l
 l
l
X X 4Ylm(, ) Z
r<
1

=
d~r
Ylm
( , )(~r ).
(11.80)
2l + 1
r< r>
l0 m=l
En particular para el potencial exterior, R < r, se tiene
ext (~r) =

l
X X
l0

con

Qlm =

4 Qlm
Ylm (, ),
2l + 1 r l+1
m=l

d~r r l Ylm
( , )(~r ).

271

(11.81)

Si r < r , se llega a
ext (~r) =

l
X X
l0

4 l
r qlm Ylm (, ),
2l
+
1
m=l

con
qlm =

d~r

1
r l+1

Ylm
( , )(~r ).

(11.82)

Entonces, el potencial de cualquier distribucion de carga continua se puede


expresar en terminos de armonicos esfericos.

11.5.1.

Esfera cargada

Ahora veamos un problema sencillo que involucre calcular los cofientes Qlm
y qlm .
En cuentre el potencial electrico de una esfera de radio R que en la superficie
tiene la distribucion de carga
() = 0 cos ,

0 = constante.

(11.83)

Como solo hay carga en el radio R, las distrucion de carga se puede escribir
como
(~r) = (r R)0 cos .

(11.84)

Ademas considerando
Y10 (, ) =

3
P1 (cos ) =
4

3
cos
4

(11.85)

se encuentra
(~r) = (r R)0

4
Y10 (, ).
3

(11.86)

Introduciendo este resultado en Eq. (11.81) y Eq. (11.82), se encuentra


r
Z
4
l

Qlm =
d~r r Ylm ( , )(r R)0
Y10 ( , )
3
r Z
Z
4

dr r 2 r l (r R) d Ylm
( , )Y10 (, )
= 0
3
272

=
qlm =
=
=

r
4 l+2
4 3
R 0 l1 m0 =
R 0 l1 m0 ,
3
3
Z
1

d~r l+1 Ylm


( , )(~r )
r
r
Z
Z
4

1
2
Y10 ( , )
d l+1 Ylm ( , )(r R)0
dr r
r
3
r
r
4 1
4
0 l1 m0 =
0 l1 m0 .
l1
3 R
3
r

Es decir, los u
nicos coeficientes Qlm y qlm diferentes de cero son
r
r
4 3
4
R 0 ,
q10 =
0 .
Q10 =
3
3
Por lo que los potenciales son
ext (r, ) =

4 Q10 Y10 (, )
,
3
r2

int (r, ) =

4
rq10 Y10 (, ),
3

es decir
4R3 0 cos
,
3
r2
4
4
0 r cos =
0 z.
int (r, ) =
3
3

ext (r, ) =

11.6.

(11.87)

Problemas en magnetismo

Las leyes de la magnetostatica nos dicen que si tenemos una densidad de


~ se produce un campo magnetico B
~ que satisface
corriente, J,
~ B
~ = 0,

(11.88)
4
~
~ B
~ =
J.
(11.89)

c
La densidad de corrientes se define como J~ = (~r)V~ (~r). Donde (~r) es la densidad de carga y V~ (~r) es la velocidad de las partculas cargadas.
~ B
~ = 0 implica que existe una funcion A
~ tal que B
~ =
~ A.
~
La ecuacion
~
Se puede mostrar que en terminos de la corriente A esta dada por [1]
Z
~ r)
1
J(~
~
A(~r) =
d~r
.
(11.90)
c
|~r ~r |
En la siguientes secciones veremos dos ejercicios relacionados con este tema.
273

11.6.1.

Esfera rotante

Supongamos que tenemos una esfera de radio R con densidad de carga superficial constante 0 . Si la esfera rota con velocidad constante , encuentre el
potencial vectorial y el campo magnetico.
Como solo hay carga en la superficie de la esfera, la densidad de carga es
(~r) = 0 (r R).

(11.91)

Supongamos que el eje de rotacion esta en el eje z, entonces la velocidad de


un punto de la esfera es
V~ = R sin
e .

(11.92)

Ademas, sabemos que cualquier vector en dos dimensiones (x, y) se puede escribir como el n
umero complejo z = x+iy, en particular e = ( sin , cos , 0)
se puede escribir como
e = sin + i cos = i(cos + i sin ) = iei ,

(11.93)

V~ = iR sin ei .

(11.94)

entonces

Ahora, de la definicion de los armonicos esfericos se tiene


r
3
Y11 (, ) = ()
sin ei ,
8

(11.95)

de donde
V~ = iR

8
Y11 (, ).
3

(11.96)

As, la densidad de corriente es


J~ = V~ = iR0 (r R)

8
Y11 (, ),
3

(11.97)

entonces, si r> =mayor{R, r}, r< =menor{R, r}, el potencial vectorial magnetico es
r Z
Z
Z
~ r)
Y11 ( , )
J(~
1
iR
8
0

2
~
d
(r

R)
d~r
dr
r
A(~r) =
=

c
|~r ~r |
c
3
|~r ~r |
274

=
=
=

l
X X

l
4 r<
Y ( , )Ylm (, )
l+1 lm
2l
+
1
r
>
l0 m=l
r
Z
l
l
iR3 0 8 X X 4 r<

Y (, ) d Ylm
( , )Y11 ( , )
l+1 lm
c
3 l0 m=l 2l + 1 r>
r
l
l
iR3 0 8 X X 4 r<

Y (, )l1 m1
l+1 lm
c
3 l0 m=l 2l + 1 r>
r
r
r
3
iR3 0 8 4 r<
iR3 0 8 4 r<
Y11 (, ) =
()
sin ei

2
2
c
3 3 r>
c
3 3 r>
8
R3 0 4 r<
40 R3 r<
i
sin
ie
=
sin
e ,
(11.98)
2
2
c
3 r>
3c
r>

iR3 0
=
c

8
3

d Y11 ( , )

de donde
~ r) = A e ,
A(~

A =

40 R3 r<
sin .
2
3c
r>

(11.99)

Ocupando la expresion del rotacional en coordenadas esfericas Eq. (2.86), se


obtiene el campo magnetico
1
(sin A ) ,
sin
1
=
(rA ) ,
r r
= 0.

Br =
B
B

(11.100)

Por lo tanto,
Br =

80 R3 r<
cos
2
3c
r>

(11.101)

Si r < R, se tiene
80 R
sin ,
3c

(11.102)

40 R4
sin .
3cr 3

(11.103)

B(int) =
mientras que si r > R, se llega a
B(ext) =
Note que

~ int = Br(int) er + B(int) e = 80 R k,


B
3c
275

(11.104)

es decir el campo magnetico en el interior de la esfera es constante y apunta


en la direccion del eje de la rotacion de la esfera.
Cabe se
nalar que el n
ucleo de la tierra es metalico y tiene cierta carga, por
lo que al girar produce un campo magnetico. En este sentido la esfera cargada
rotante es un modelo simplificado para explicar el campo magnetico terrestre.

11.6.2.

Anillo de corriente I

Ahora veamos el problema de un anillo circular de radio R por el cual circula


una corriente constante I. Sin perdida de generalidad podemos suponer que
el anillo esta en el plano x y y que su centro esta en el origen del sistema
coordenado. Para este sistema la densidad de corriente es


~ r ) = I (r R) e .
J(~
(11.105)
R
2

Ahora, recordemos que cualquier vector en dos dimensiones, (x, y), se puede escribir como un n
umero complejo, z = x+iy. En particular e = ( sin , cos , 0)
se puede reprensentar como e = sin + i cos = i(cos + i sin ) = iei ,
por lo que

 i
I
~
ie .
(11.106)
J(~r) = (r R)
R
2

Definamos r> =mayor{R, r}, r< =menor{R, r}, entonces el potencial vectorial
es
 i
Z

(r

R)

e
iI
2
~ r) =
A(~
r 2 dr d

cR
|~r r |
Z X X
l
l
iI
4 r<
Y ( , )Ylm (, )
=
l+1 lm
cR
2l
+
1
r>
l0 m=l



i 2

e r dr d
(r R)
2
Z
l

l
iI X X 4 r<
 i
2

=
R
Y
(,
)
Y
(
,

e d .
lm
lm
l+1
cR
2l + 1 r>
2
l0 m=l

Ocupando la definicion de elemento de angulo solido y de los armonicos esfericos se tiene


Z 2
Z
 

 i

e d =
d Ylm
, ei
Ylm ( , )
2
2
0
276

(2l + 1)(l m)! m 



Pl cos
4(l + m)!
2

d eim ei

(2l + 1)(l m)! m


Pl (0) 2m1
4(l + m)!

(2l + 1)(l m)! m


Pl (0) 2m1
4(l + m)!
 

, 0 2m1 .
= Ylm
2
=

(11.107)

Como m debe cumplir que m l, entonces l 1. As, ocupando de nuevo


las definiciones de los armonicos esfericos Eq. (10.188) y de los polinomios
asociados de Legendre Eq. (10.180), se encuentra


2
X 1 rl
<

~ r) = 8 iIR
Y
(,
)Y
A(~
,
0
l1
l+1 l1
c
2l + 1 r>
2
l1
s
!2

l
2
X
(2l + 1)(l 1)!
1
r<
8 IR
Pl1 (cos )Pl1(0)iei
=
l+1
c
2l + 1 r>
4(l + 1)!
l=1
l
2IR X (l 1)! r<
=
P 1 (cos )Pl1 (0)
e
l+1 l
c l1 (l + 1)! r>
2l
r<
2IR X (2l)!
()l+1 (2l + 1)!
21+1
=
P
(cos )
e
2l+2 l
c
(2l + 2)! r>
22l (l!)2
l1

2l
2IR X ()l+1 (2l)! r<
=
P 21+1 (cos )
e .
2l+2 l
c l1 22l+1 (l + 1)!l! r>

(11.108)

Por lo tanto, el potencial vectorial solo tiene direccion e , cuya componente es


A =

2l
IR X ()l+1 (2l)! r<
Pl21+1 (cos ).
2l+2
2l
c
2 (l + 1)!l! r>

(11.109)

l1

Ocupando el rotacional en coordenadas esfericas Eq. (2.86), se encuentra que


el campo magnetico es
1
(sin A ) ,
sin
1
(rA ) ,
=
r r
= 0.

Br =
B
B

277

(11.110)

Con el cambio de variable u = cos se tiene

= sin ,

1
1 A

= ((1 u2 ) 2 A )
sin
u

(11.111)

Ademas, como
Pl1 (u)

dPl (u)
= (1 u )
,
du
2

1
2



d
2 dPl (u)
(1 u )
+ l(l + 1)Pl (u) = 0,
du
du

se llega a
1
(sin A ) ,
sin
2l
IR X ()l+1 (2l)! r<
=
(2l + 1)(2l + 2)P 21+1 (cos )
2l+2
2l
c
2 (l + 1)!l! r>
l1

Br =

2l
2IR X ()l (2l + 1)! r<
P 21+1 (cos ).
2l+2
c l1
22l (l!)2 r>

(11.112)

Para la componente B , tenemos que si R < r,


 2l+2
I X ()l+1 (2l + 1)! R
B(ext) =
Pl21+1 (cos ), (11.113)
cr l1 22l (l + 1)!l!
r
mientras que si r < R,

B(int) =

11.6.3.

2I X ()l (2l)!  r 2l+1 21+1


Pl
(cos ).
cr l1 22l (l!)2 R

(11.114)

Anillo de corriente II

Ahora veremos otra forma de resolver el problema de la seccion anterior.


Fuera de la region donde hay corriente electrica, las ecuaciones de la magnetostatica son
~ B
~ = 0,

~ B
~ = 0.

(11.115)

De la segunda ecuacion se deduce que existe una funcion, que llamaremos


potencial escalar magnetico, m (~r), tal que
~ =
~ m (~r).
B
278

(11.116)

~ B
~ = 0 se llega a la ecuacion de Laplace
Al introducir esta ecuacion en
2 m (~r) = 0,

(11.117)

cuya solucion en coordenadas esfericas es Eq. (11.9).


Ademas, se puede mostrar que si la corriente circula por una curva cerrada
el potencial escalar magnetico es [2]
I
n
(~r ~r )
I
m (~r) =
da .
(11.118)
c a |~r ~r |3
Donde a es el area de la superficie que encierra la curva de corriente y n
la
normal a esta superficie.
En algunos caso es mas conveniente ocupar el potencial escalar magnetico
que el potencial vectorial. Por ejemplo, supongamos que tenemos un anillo de
radio R por el cual circula una corriente constante I.
Para resolver este problema pondremos al anillo en el plano x y y el
centro del anillo en el origen del sistema de referencia coordenado. Claramente
el sistema es invariante bajo rotaciones en el eje z, por lo que el potencial no
depende de , es decir es de la forma
 l+1 !
 r l
X
R
Pl (cos ).
(11.119)
+ Bl
m (r, ) =
Al
R
r
l0

Adicionalmente, los puntos del disco que encierra el anillo de corriente son de
la forma
~r = r (cos , sin , 0)

(11.120)

mientras que el vector normal es n


= k y el elemento de area es da = r dr d .
De donde, para un punto ~r = (x, y, z) = r(sin cos , sin sin , cos ), el potencial escalar magnetico Eq. (11.118) es
I
m (~r) =
c

I
=
c

k ((x, y, z) r (cos , sin , 0))


r dr p
3 ,
2
2

r + r 2rr sin cos( )


zr
dr p
3 .
2
2

r + r 2rr sin cos( )


279

Si = 0, es decir, si el punto de observacion esta sobre el eje z, la integral se


simplifica notablemente y se encuentra
Z
Z
I 2 R
rr
m (0, 0, z = r) =
dr
d
3
c 0
0
r 2 + r 2


Z
Z
r
1
2Ir R d
2Ir R
dr
dr
=
3 =
c
c
dr
r 2 + r 2
0
0
r 2 + r 2




1
1
1
2Ir
R 2Ir

=
=
c
c
r 2 + r 2 0
r 2 + R2 r
r
2I 2I

+
.
(11.121)
=
2
c
c
r + R2
Ahora, definamos r< =menor{r, R} y r> =mayor{r, R}, entonces ocupando
las propiedades de los polinomios de Legendre, se encuentra
 l
 2l
r X r<
r
1
r X r<
r

r
Pl (0) =
P2l (0).
=
  2 = r>
r>
r
r
r
r 2 + R2
>
>
>
l0
l0
1 + r<
r>
Por lo tanto,

2I X 2I r

m (0, 0, r) =
c
c r>
l0

r<
r>

2l

P2l (0).

(11.122)

Para el caso r < R se tiene


2I X 2I r  r 2l
2I
m(int) (0, 0, r) =
P2l (0) +

c
c R R
c
l0


2I X
2I
=
2l+1 P2l (0) r 2l+1 .
+
c
cR
l0

(11.123)

Mientras que si R < r se tiene


 2l
R
P2l (0)
r


2IR2l
1
2I 2I X

P2l (0) 2l
=
c
c
c
r
l1


X
2IR2l
1

=
P2l (0) 2l .
(11.124)
c
r
l1

2I X 2I
m(ext) (0, 0, r) =

c
c
l0

280

Ahora, seg
un la solucion general de la ecuacion de Laplace en coordenadas
esfericas, si r < R el potencial debe ser de la forma
X
m(int) (r, ) =
Al r l Pl (cos ).
(11.125)
l0

Cuando = 0 esta u
ltima ecuacion debe ser igual a Eq. (11.123), por lo tanto
considerando que Pl (1) = 1, se llega a
X
X
X
m (r, = 0) =
Al r l Pl (1) =
A2l r 2l P2l (1) +
A2l+1 r 2l+1 P2l+1 (1)
l0

l0

2I
+
c

X
l0

l0

2I
P2l (0) r 2l+1 .
cR2l+1

(11.126)

As, los u
nicos coeficientes diferentes de cero son
A0 =

2I
,
c

A2l+1 =

2I
P2l (0).
cR2l+1

(11.127)

entonces, si r < R se tiene el potencial


m(int) (r, ) =

 r 2l+1
2I 2I X
P2l (0)

P2l+1 (cos ).
c
c l0
R

(11.128)

Ahora, seg
un la solucion general de la ecuacion de Laplace en coordenadas
esfericas, si R < r el potencial debe ser de la forma
m(ext) (r, ) =

X Cl
P (cos ).
l+1 l
r
l0

(11.129)

Cuando = 0 el potencial Eq. (11.124) debe ser igual a Eq. (11.129), es decir,
X C2l
X C2l1
X Cl
P
(1)
=
+
l
r l+1
r 2l+1
r 2l
l0
l1
l0

X  2IR2l
1
=

P2l (0) 2l .
(11.130)
c
r

m(ext) (r, = 0) =

l1

Por lo tanto,
C2l = 0,

C2l1

2IR2l
P2l (0).
=
c
281

(11.131)

Entonces, si R < r se tiene el potencial


 2l
2I X
R
m(ext) (r, ) =
P2l (0)
P2l1 (cos )
c l1
r
 2(l+1)
R
2I X
P2(l+1) (0)
P2l+1 (cos ). (11.132)
=
c l0
r
Ademas, el campo magnetico es


m (r, )
1 m (r, )
~
~
B = m (r, ) =
er +
e ,
r
r

(11.133)

es decir
m (r, )
1 m (r, )
,
B =
,
B = 0.
(11.134)
r
r

De donde, considerando el valor de P2l (0) y rearreglando terminos, se llega a


 r 2l+1
m(int) (r, )
2I X
P2l (0)(2l + 1)
=
P2l+1 (cos )
Br(int) =
r
c l0
R
Br =

2IR X ()l (2l + 1)! r 2l+1


P2l+1 (cos ),
cr l0
22l (l!)2 R2(l+1)

=
mientras que
Br(ext) =
=
=

m(ext) (r, )
R2l+2
2I X
P2(l+1) (0)()2(l + 1) 2l+3 P2l+1 (cos )
=
r
c l0
r

2IR X ()l+1 (2l + 2)! R2l+1


P2l+1 (cos )
cr l0 22l+2 (l + 1)!2 r 2l+2

2IR X ()l+1 (2l + 2)!()2(l + 1) R2l+1


P2l+1 (cos )
cr
22l+2 (l + 1)!2
r 2(l+1)
l0

2IR X ()l (2l + 1)!2(l + 1)2(l + 1) R2l+1


=
P2l+1 (cos )
cr l0
22l+2 (l + 1)!2
r 2(l+1)
=

2IR X ()l (2l + 1)! R2l+1


P2l+1 (cos ).
cr l0
22l (l)!2 r 2(l+1)

Note que ambas componentes se pueden escribir como


2l+1
2IR X ()l (2l + 1)! r<
Br =
P
(cos ),
2(l+1) 2l+1
cr l0
22l (l)!2 r>
282

que coincide con Eq. (11.112).


Adicionalmente, consideremos el cambio de variable u = cos en la ecuacion
1 dPl (u)
dPl (u)
dPl (cos )
= sin
= (1 u2 ) 2
= Pl1 (u) = Pl1 (cos ),
d
du
du

por lo que se encuentra


B(int)

 2l+1
1 m(int) (r, )
R
2I X
1
=
P2l (0)
=
P2l+1
(cos )
r

cr l0
r
 2l+1
2I X ()l (2l)! R
1
=
P2l+1
(cos )
(11.135)
cr l0 22l (l!)2
r

y
B(ext)

 2l+2
R
2I X
1 m(ext) (r, )
1
P2l+2 (0)
=
P2l+2
(cos )
=
r

cr l0
r
 2(l+1)
2I X ()l+1 (2l + 2)! R
1
P2l+1
(cos )
=
2l+2
2
cr l0 2
(l + 1)!
r
 2(l+1)
2I X ()l+1 (2l + 1)!2(l + 1) R
1
P2l+1
(cos )
=
cr l0 22l+2 (l + 1)!(l + 1)!
r
 2(l+1)
I X ()l+1 (2l + 1)! R
1
=
P2l+1
(cos ).
(11.136)
cr l0 22l (l + 1)!l!
r

Estos resultados coinciden con los obtenidos en la seccion anterior, es decir con
Eqs. (11.113)-(11.114)

283

Captulo 12
Los Polinomio de Laguerre y el

atomo de hidr
ogeno
En este captulo estudiaremos el atomo de hidrogeno. Para este problema
son importantes los resultados de captulo 10.

12.1.

Atomo
de hidr
ogeno

La ecuacion de Schrodinger para una partcula en un campo central es


= E,
H

= 1 P 2 + V (r),
H
2m

~
P = i~,

(12.1)

es decir


~2 2
+ V (r) = E.

2m

(12.2)

Anteriormente vimos que las soluciones de la ecuacion de Schrodinger con


sentido fsico forman un conjunto ortonormal. Es decir, si
a = Ea a ,
H

b = Eb b ,
H

(12.3)

entonces
< a |b >= ab ,

(12.4)

esta propiedad es importante para el desarrollo que haremos posteriormente.

284

En coordenadas esfericas el operador Laplaciano es Eq. (10.275)




L2
1
2
2
r
2,
= 2
r r
r
r

(12.5)

con

1
=
sin





1 2
sin
+
,

sin2 2

(12.6)

donde se cumple
L2 Ylm (, ) = l(l + 1)Ylm (, ).

(12.7)

Por lo que, para resolver Eq. (12.2) propondremos (r, , ) = R(r)Ylm(, ).


Como la funcion R(r) solo depende de r, mientras que L2 y Ylm (, ) solo
dependen de los angulos, se encuentra


L2 Ylm (, )
Ylm (, )
2 R(r)
2
r

R(r)
(r, , ) =
r2
r
r
r2


R(r)l(l + 1)Ylm (, )
Ylm (, )
2 R(r)
r

=
r2
r
r
r2




1
l(l + 1)R(r)
2 R(r)
= Ylm (, ) 2
r

,
r r
r
r2
entonces
~2 2

(r, , ) + V (r)(r, , )
H(r,
, ) =
2m






~2 1
l(l + 1)R(r)
2 R(r)
= Ylm (, )
r

+ V (r)R(r)
2m r 2 r
r
r2
= E(r, , ) = Ylm (, )ER(r).
As, la ecuacion a resolver es




l(l + 1)R(r)
~2
1
2 R(r)
r

+ V (r)R(r) = ER(r), (12.8)

2m r 2 r
r
r2
como solo hay dependencia en la variable r tenemos


l(l + 1)
2m
2mE
1 d
2 dR(r)
r

R(r) 2 V (r)R(r) + 2 R(r) = 0.


2
2
r dr
dr
r
~
~
Para facilitar los calculos haremos el cambio de variable
r
d
2mE
d
= ,
=2
,
= r,
dr

~2
285

(12.9)

de donde
1 d
2 d



l(l + 1)
2m
1
2 dR()

R() 2 2 V () R() R() = 0. (12.10)


2
d

~
4

Supongamos que tenemos un potencial que cerca del origen a lo mas diverge
como V () 1 y en infinito tiende a cero. Entonces cerca del origen Eq.
(12.10) tiene la forma asintotica


1 d
l(l + 1)
2 dR()

R() 0.
(12.11)
2
d
d
2
Para resolver esta ecuacion proponemos R() = A , con A una constante. Al
sustituir esta propuesta en Eq. (12.11) se encuentra
(( + 1) l(l + 1)) = 0,
lo cual implica
(( + 1) l(l + 1)) = 2 l2 + l = ( + l) ( l) + l
= ( l) ( + l + 1) = 0.
(12.12)
As, los posibles valores de son l y (l + 1), es decir
R() Al

R() A(l+1) .

(12.13)

La funcion de onda debe ser finita, de lo contrario no puede ser normalizada,


por lo que si r 1, la u
nica solucion aceptable es
R() Al ,

1.

(12.14)

Si V () es tal que V () 0 cuando , en esta caso la ecuacion asintotica


es


1 d
1
d2 R() 2 dR() 1
2 dR()

R()
=
+
R()
2 d
d
4
d2
d
4
2
d R() 1

R() 0,
d2
4
que tiene las soluciones,

R() Be 2 ,

R() Ce 2 ,

B, C = constante.

Debido a que la funcion de onda debe ser normalizada, la u


nica solucion con
sentido es

R() Be 2 ,
286

1.

(12.15)

Entonces propondremos como solucion

R() = l e 2 u().

(12.16)

Note que u() debe ser una funcion tal que R( 1) Al , esto implica que

u(0) = a0 6= 0. Ademas, si debe ocurrir que e 2 u() 0, por lo tanto

en infinito la funcion u() debe ser dominada por e 2 .


Para el caso particular del potencial de Coulomb
V (r) =

e2 Z
e2 Z
=
,
r

(12.17)

definiendo
2me2 Z
e2 Z
=
=
~2
~

m
2E

(12.18)

Eq. (12.10) toma la forma


d2 R() 2 dR()
+
+
d2
d

l(l + 1) 1

2
4

R() = 0.

Antes de ocupar la propuesta de solucion Eq. (12.16) notemos que





1 l
l
1
d  l 
l1

e 2 = l e 2 e 2 = e 2
,

d
2
2
de donde




d
l
d2  l 
1
l

=
e 2
e 2

d2
d
2



 
  l
1
l
d
l 2
l 2
e
+e

2
=
d
2


 
2

l
l
1
= l e 2

l e 2
2
2
!
2

l
1
l
l 2
2

= e
2


 2
l
1
l l
l 2
.
+
= e
2
4

287

(12.19)

Entonces, considerando que (f g) = f g + f g y (f g) = f g + 2f g + f g se


llega a

du()
dR()
d  l 
d  l 
e 2 u() = l e 2
e 2 u()
=
+
d
d
d
d






l
du()
1
1
l
l 2
l 2
l 2 du()
u() = e
u()
+e

= e
d
2
d
2
y


2
d2 l e 2
d l e 2 du()
d2 R()
l 2 d u()
=
u()
+
2
+

e
d2
d2
d
d
d2
 2




l l
l
l
1
1 du()
l 2
= l e 2
u()
+
2
e

4
2
d
2
d u()
+l e 2
d2




 2
 2
l
1 du()
l l
l
1
d u()
l 2
u() .
+2

+
+
= e
d2
2
d
2
4
Introduciendo estos resultados en Eq. (12.19) se obtiene




 2
 2
l
1 du()
l l
l
1
d u()
l 2
e
u()
+2

+
+
d2
2
d
2
4




du()
l
1
l 2 2
u()
+

+ e

d
2


l(l + 1) 1
l 2
+ e
u() = 0,

2
4
por lo que


l + 1 1 du()
d2 u()
+2

d2

2
d

 2
l + l l(l + 1) (l + 1)
u() = 0,

+
+
2
2

es decir la ecuacion que debe satisfacer u() es






d2 u()
2(l + 1)
du()
(l + 1)
u() = 0.
+
1
+
d2

Para resolver esta ecuacion propondremos la serie


X
u() =
an n ,
u(0) = a0 6= 0,
n0

288

(12.20)

que debe cumplir u(0) = a0 6= 0 y si , entonces u()e 2 0.


Para la propuesta de solucion se tiene
X
du() X
u()
=
an n1 ,
=
an nn1 ,

d
n0
n0
X
d2 u()
=
an n(n 1)n2 ,
2
d
n0

entonces
X
d2 u() 2(l + 1) du()
+
=
an n (n 1 + 2l + 2) n2
2
d

d
n0
X
=
an n (n + 2l + 1) n2
n1

an+1 (n + 1) (n + 2l + 2) n1 ,

u() =

an ( (n + l + 1))n1 .

n0

du()
+
d

(l + 1)

n0

Considerando estos resultados en Eq. (12.20) se encuentra



X
an+1 (n + 1) (n + 2l + 2) + an ( (n + l + 1)) n1 = 0,
n0

as
an+1 (n + 1) (n + 2l + 2) + an ( (n + l + 1)) = 0,
que implica
an+1
n+l+1
=
.
an
(n + 1) (n + 2l + 2)

(12.21)

Si los terminos que contribuyen son los mas grandes, es decir los que
cumplen n 1, en este caso se encuentra
n
1
an+1

= .
an
nn
n

Note que cuando n es muy grande la serie exponencial


X
1
e =
bn n ,
bn = ,
n!
n0
289

tiene un comportamiento similar


1
1
bn+1
=
.
bn
n+1
n
Por lo que si , entonces u() e . Este comportamiento no es per
mitido pues si , entonces u()e 2 . Para que u() no tenga ese
comportamiento, no dejaremos que su serie pueda tomar valores grandes de
n. Esto quiere decir que u() no puede ser una serie, sino un polinomio. As,
despues de cierto n
umero todos los coeficientes de la serie deben ser nulos. De
la relacion Eq. (12.21) es claro que esto se logra si despues de cierto n
umero
an+1 = 0, que se cumple solo si
n + l + 1 = 0.
Considerando la definicion de dada en Eq. (12.18), se encuentra


Zme2
Ze2
Enl =
.
2~2
(n + l + 1)2
Ademas, introduciendo Eq. (12.22) en Eq. (12.20) se llega a


2(l + 1)
du() n
d2 u()
+

1
+ u() = 0.
d2

(12.22)

(12.23)

(12.24)

Definamos = x, = 2l + 1, u(x) = Ln (x), entonces Eq. (12.24) toma la forma




d2 Ln (x)
+1
dLn (x) n
+
1
+ Ln (x) = 0,
(12.25)
2
dx
x
dx
x
esta es la llamada ecuacion de Laguerre, que tambien se puede escribir como
x

d2 Ln (x)
dLn (x)
+
(
+
1

x)
+ nLn (x) = 0.
dx2
dx

(12.26)

Supongamos que tenemos una solucion, Ln (x), de Eq. (12.25) y definamos la


funcion


dLn (x)
1

x
fn (x) =
+ (n + + 1 x) Ln (x) .
(12.27)
n+1
dx
Considerando Eq. (12.26) se tiene
 2

d Ln (x) dLn (x)
1
dLn (x)
dfn (x)

x
=
+
Ln (x) + (n + + 1 x)
dx
n+1
dx2
dx
dx
290

 2

d Ln (x)
dLn (x)
dLn (x)
1

x
+ ( + 1 x)
+ (n + 1)
Ln (x)
=
n+1
dx2
dx
dx


1
dLn (x)
dLn (x)

=
(n + 1)
(n + 1)Ln (x) =
Ln (x),
n+1
dx
dx
d2 Ln (x) dLn (x)
d2 fn (x)
=

.
dx2
dx2
dx
Por lo que
d2 fn (x)
dfn (x)
+
(
+
1

x)
dx2
dx


2

d Ln (x)
dLn (x)
dLn (x)

=x
x
+ ( + 1 x)
Ln (x)
dx2
dx
dx
dLn (x)
dLn (x)
d2 Ln (x)
+
(
+
1

x)

x
( + 1 x) Ln (x)
=x
dx2
dx
dx
dL (x)
= nLn (x) x n
( + 1 x) Ln (x)
dx


dLn (x)

= x
+ ( + n + 1 x) Ln (x)
dx
= (n + 1)fn (x),
x

es decir
dfn (x)
d2 fn (x)
+
(
+
1

x)
+ (n + 1)fn (x) = 0.
dx2
dx
Esto nos indica que si Ln (x) es solucion de la ecuacion de Laguerre, entonces
fn (x) tambien es solucion de la ecuacion de Laguerre donde se ha cambiado n
por n + 1. As podemos llamar Ln+1 (x) a fn (x), es decir


1
dLn (x)

Ln+1 (x) =
x
+ (n + + 1 x) Ln (x) .
(12.28)
n+1
dx
Esta relacion es muy u
til, pues nos dice que basta resolver un caso para obtener
todos los demas.
Claramente el caso mas sencillo de la ecuacion de Laguerre es cuando n = 0,
donde Eq. (12.25) toma la forma
d2 L0 (x)
+
dx2

+1
1
x
291

dL0 (x)
= 0.
dx

(12.29)

Definiendo U(x) =

dL
0 (x)
dx

se tiene la ecuacion


dU(x)
+1
+
1 U(x) = 0,
dx
x

(12.30)

cuya solucion es
U(x) = A

ex
,
x+1

A = constante.

(12.31)

Si A 6= 0, esta solucion no es un polinomio, por lo que no nos ayuda a resolver


el problema del atomo de Hidrogeno. As el u
nico caso que podemos tomar es

U(x) = 0, que implica L0 (x) = constante, tomaremos


L0 (x) = 1.

(12.32)

En general los polinomios de Laguerre tienen la forma


Ln (x) =

ex x dn x n+ 
e x
.
n! dxn

(12.33)

Probaremos esta afirmacion por induccion, es claro que se cumple la igualdad para el caso n = 0. Para el paso inductivo supondremos Eq. (12.33) y
mostraremos que se cumple
ex x dn+1 x (n+1)+ 
e x
= Ln+1 (x),
(n + 1)! dxn+1

en esta demostracion ocuparemos la igualdad


 nk   k 
n
X
dn
d A
d B
n
,
(AB) =
Ck
n
nk
k
dx
dx
dx
k=0

Ckn =

n!
.
k!(n k)!

(12.34)

(12.35)

Tomando en cuenta Eq. (12.35) y Eq. (12.28) se encuentra



ex x dn+1 x n+1+ 
ex x dn+1
x n+
e
x
=
xe
x
(n + 1)! dxn+1
(n + 1)n! dxn+1


dn+1 x n+  n+1
dn x n+  n+1
ex x
x n+1 e x
C0 + n e x
C1
=
(n + 1)n!
dx
dx


x
ex x d
dn x n+ 
x e x
=
e x
+
x
e x
(n + 1) dx
n! dxn
1 ex x dn x n+  (n + 1)!
e x
n + 1 n! dxn
n!
292

ex x d x 
e x Ln (x) + Ln (x)
x
(n + 1) dx



ex x
x
1 x
x dLn (x)
=
x ()e x Ln (x) + x e Ln (x) + x e
(n + 1)
dx

+Ln (x)


1
dLn (x)

=
x
+ (n + 1 + x)Ln (x)
n+1
dx

= Ln+1 (x),

en el u
ltimo paso se uso la igualdad Eq. (12.28). Por lo tanto, Eq. (12.33) se
cumple para cualquier n.
Ahora veamos la forma explcita de los polinomio de Laguerre, para ello
recordemos que, si n < m,
dn xm
m!
=
xmn .
n
dx
(m n)!

(12.36)

Ocupando esta igualdad y Eq. (12.35) se llega a


Ln (x)

  k x 

n
d e
ex x dn x n+  ex x X n dnk xn+
e x
=
Ck
=
n
nk
n! dx
n!
dx
dxk
k=0

=
=

e x
n!

n
X
k=0

n
X

Ckn

k=0

(n + )!
()k xn+(nk) ex
[(n + ) (n k)]!

(n + )!
(x)k ,
k!(n k)!(k + )!

(12.37)

es decir,
Ln (x) =

n
X
k=0

12.2.

(n + )!
(x)k .
k!(n k)!(k + )!

(12.38)

Funci
on de onda

Reuniendo los resultados de la seccion anterior, encontramos que la funcion


de onda del atomo de hidrogeno es

nlm (, , ) = Al L2l+1
()e 2 Ylm (, ),
n
Ze2
2~2
Enl =
,
a
=
,
RB
aRB (n + l + 1)2
Zme2
293

(12.39)

con A una constante de normalizacion. Definiendo N = n + l + 1, la funcion


de onda toma la forma

2l+1
2
N lm (, , ) = Al LN
Ylm (, ),
(l+1) ()e

A = constante,

EN =

Ze
,
aRB N 2

N = n + l + 1.

Note que el valor mnimo que puede tomar l es cero y el maximo valor que
puede tomar es N 1. Ahora, como por cada valor de l hay (2l + 1) valores de
m que dan el mismo valor propio l, el n
umero de funciones propias que dan el
mismo valor N es
N
1
X

(2l + 1) = N 2 .

l=0

Este es el grado de degeneracion del atomo de hidrogeno.

294

(12.40)

Captulo 13
Ecuaci
on de Helmholtz
En este captulo estudiaremos la ecuacion de Helmholtz y sus soluciones en
coordenadas esfericas.

13.1.

El origen de la ecuaci
on Helmholtz

La ecuacion de Helmholtz es

2 + k 2 (r, , ) = 0,

(13.1)

con k una constante real. Esta ecuacion surge en diferentes contextos, por
ejemplo la ecuacion de Schrodinger libre es

~2 2
(x, y, z) = E(x, y, z),
2m

(13.2)

que se puede escribir como



2 + k 2 (x, y, z) = 0,

k2 =

2mE
.
~2

Ademas, la ecuacion de onda es




1 2
2
2 2 (x, y, z, t) = 0,
c t

(13.3)

(13.4)

si proponemos soluciones de la forma (x, y, t) = eit (x, y), se obtiene



2 + k 2 (x, y, z) = 0,

k2 =

2
.
c2

(13.5)

Primero estudiaremos el caso de dos dimensiones en coordenas polares y posteriormente estudiaremos el caso en tres dimensiones con coordenadas esfericas.
295

13.2.

Ecuaci
on de Helmholtz en dos dimensiones

La ecuacion de Helmholtz en dos dimensiones en coordenadas polares es





1
(r, )
1 2 (r, )
2
2
2D + k (r, ) =
r
+ 2
+ k 2 (r, ) = 0.(13.6)
2
r r
r
r

Para resolver esta ecuacion supongamos que (r, ) es de la forma


(r, ) = R(r)(),
de donde
22D

+k

por lo que

()
(r, ) =
r r



R(r)
R(r) 2 ()
r
+ 2
+ k 2 R(r)() = 0,
r
r
2

r2
r 2 (22D + k 2 ) (r, )
=
R(r)()
rR(r) r



R(r)
1 2 ()
r
+
+ k 2 r 2 = 0. (13.7)
2
r
()

As,

r 2 (22D + k 2 ) (r, )
R(r)()

1 2 ()
() 2

= 0,

entonces se debe cumplir la ecuacion


1 2 ()
= 2 ,
() 2

= constante,

(13.8)

es decir
2 ()
= 2 (),
2

(13.9)

() = a ei + b ei .

(13.10)

cuya solucion es

Ahora, sustituyendo Eq. (13.8) en Eq. (13.7) se encuentra




r2
R(r)
r
2 + k 2 r 2 = 0,
rR(r) r
r
296

(13.11)

que se puede escribir como



 

R(r)
2
1
2
r
+ k 2 R(r) = 0.
r r
r
r
Con el cambio de variable = kr se obtiene


2 R() 1 R()
2
+
+ 1 2 R() = 0,
2

(13.12)

(13.13)

que es la ecuacion de Bessel, as,


R(r) = Ak J (kr) + Bk J (kr).

(13.14)

Por lo tanto, las soluciones de la ecuacion de Helmholtz en dos dimensiones


son de la forma

(r, ) = (Ak J (kr) + Bk J (kr)) a ei + b ei .
(13.15)

Los coeficientes Ak , Bk , a , b dependen de las condiciones de borde del problema. Por ejemplo, si (r, ) debe ser finito en el r = 0, se tiene que Bk = 0.
En ese caso las soluciones toman la forma

(r, ) = J (kr) Ck ei + Dk ei .
(13.16)
Para muchos problemas es importante que (r, ) sea una funcion univaluada.
As, como (r, ) y (r, + 2) representan el mismo punto, se debe cumplir
(r, + 2) = (r, ),

(13.17)

de donde
( + 2) = A ei(+2) + B ei(+2) = () = A ei + B ei , (13.18)
que induce
ei2 = 1.

(13.19)

Por lo tanto, debe ser un n


umero natural n. Por lo que, en este caso las
soluciones son de la forma

kn (r, ) = Jn (kr) Cnk ein + Dnk ein .
(13.20)
se deben poner la condicion
Si el sistema esta restringido a un disco de radio R,
de borde
) = 0,
(R,
297

(13.21)

que implica
= 0.
Jn (k R)

(13.22)

debe ser una raz de Bessel, nm = k R,


es decir,
As, k R
k=

nm

(13.23)

y las soluciones son de la forma





nm r
Cnm ein + Dnm ein .
nm (r, ) = Jn

(13.24)

La solucion mas general es


(r, ) =

XX

n0 m0

Jn

nm r


Cnm ein + Dnm ein .

(13.25)

Note que para la ecuacion de onda en dos dimensiones Eq. (13.5) la restriccion
Eq. (13.23) implica que las u
nicas frecuencias permitidas son
nm =

cnm
.

(13.26)

Mientras que para la ecuacion de Schrodinger en dos dimensiones Eq. (13.3)


la restriccion Eq. (13.23) implica que las u
nicas energas permitidas son

2
~2 nm
Enm =
.
(13.27)

2m
R

13.3.

Ecuaci
on de Helmholtz en tres dimensiones

Ocupando coordenadas esfericas la ecuacion de Helmholtz Eq. (13.1) toma


la forma




L2 (r, , )
1
2 (r, , )
2
r

+ k (r, , ) = 0,
r 2 r
r
r2





1 2
1
2
sin
+
,
L =
sin

sin2 2
con L2 Ylm (, ) = l(l + 1)Ylm (, ). Por lo que, para resolver Eq. (13.1) propondremos la funcion (r, , ) = R(r)Ylm(, ). Como la funcion R(r) solo
298

depende de r mientras que L2 y Ylm (, ) solo dependen de los angulos, la


ecuacion de Helmholtz toma la forma

2 + k 2 (r, , )




l(l + 1)R(r)
1
2 R(r)
2
r

+ k R(r) = 0,
= Ylm (, ) 2
r r
r
r2
es decir se debe resolver la ecuacion




1
l(l + 1)R(r)
2 R(r)
2
r

+ k R(r) = 0.
r 2 r
r
r2

(13.28)

, de donde
Tomaremos la propuesta R(r) = u(r)
r


dR(r)
d u(r)
1
1 du(r)

=
u(r)
=
dr
dr
r
r dr
2r r


1
1
du(r)
=
u(r) ,
dr
2r
r




u(r)
1
r
2 du(r)
2 d
2 dR(r)

= r
= r
u(r) ,
r
dr
dr
r
r
dr
2





d
dR(r)
d u(r)
d

r2
=
r2
dr
dr
dr
dr
r

 2
du(r) 1
1
2 d u(r)
+r
u(r) .
= r
dr 2
dr
4
r

Considerando estos resultados en Eq. (13.28) se llega a



 2
du(r) 1
1
1
1 2
2 d u(r)

+
r

u(r)

r
l(l
+
1)u(r)
+
k u(r) = 0,
r2 r
dr 2
dr
4
r2 r
r
que se puede escribir como
du(r)
d2 u(r)
+r
+
r2
2
dr
dr

1
k2 r2 l +
2

con los cambios de variable z = kr y = l +


z2

1
2

2 !

u(r) = 0

se tiene


d2 u(z)
du(z)
2
2
+
z
+
z

u(z) = 0,
dz 2
dz

=l+

1
2

(13.29)

que es la ecuacion de Bessel Eq. (5.2) de orden = l + 21 . Por lo que las


soluciones son combinaciones lineales de las funciones
Jl+ 1 (kr),
2

J(l+ 1 ) (kr).
2

299

(13.30)

En lugar de J(l+ 1 ) (kr) podemos tomar las funciones de Nuemman Nl+ 1 (kr).
2
2
Ademas, usando la definicion de R(r) y de las funciones esfericas de Bessel
Eqs. (5.46)- (5.47) se tiene
Rl (r) = al jl (kr) + bl nl (kr).

(13.31)

Por lo tanto, las soluciones de la ecuacion de Helmholtz son de la forma


lm (r, , ) = (alm jl (kr) + blm nl (kr)) Ylm (, )

(13.32)

y la solucion general es
(r, , ) =

m=l
X X

(alm jl (kr) + blm nl (kr)) Ylm (, ).

(13.33)

l0 m=l

13.4.

Aplicaciones

Una partcula cuantica esta encerrada en una esfera de radio R, encuentre


la funcion de onda del sistema.
En en este caso la funcion de onda es
~2 2
= E,

2m
de donde

(13.34)

2mE
,
(13.35)
~2
que es la ecuacion de Helmholtz. Como la probabilidad de encontrar la partcula dentro de la esfera debe ser finita y las funciones de Neumman divergen en
el origen, las soluciones aceptables son de la forma jl (kr). Ademas, la funcion
de onda se debe anular en la frontera, por lo que

2 + k 2 = 0,

k2 =

jl (kR) = 0,

(13.36)

de donde kR = ln , con ln una raz de la funcion esferica de Bessel de orden


l. Considerando la definicion de k, las energas permitidas son
~2 2ln
,
2mR2
mientras que las funciones de onda son


ln r
Ylm (, ).
lmn (r, , ) = jl
R
Eln =

300

(13.37)

(13.38)

13.5.

Desarrollo en ondas parciales


~

Claramente la funcion (~r) = eik~r es solucion a la ecuacion de Helmholtz


Eq. (13.1). Por lo que esta funcion se debe poder expresar en terminos de
las funciones esfericas de Bessel y los armonicos esfericos. Para probar esta
afirmacion el resultado fundamental es la integral
  12
Z 1
2
iz
(13.39)
(i)l Jl+ 1 ().
dze Pl (z) =
2

1
Antes de mostrar esta igualdad es conveniente considerar las identidades
dJ (dz)
1
=
(J1 (z) J+1 (z)) ,
z
2
1
J (z)
=
(J1 (z) + J+1 (z))
z
2

(13.40)
(13.41)

las cuales se deducen de Eqs. (5.36)-(5.37). Otro resultado de utilidad es


!


Jl+ 1 () Jl+ 1 ()
2
2
= (l + 1)Jl+ 3 () lJl 1 () , (13.42)

(2l + 1)
2
2
2

que se obtiene de Eqs. (13.40)-(13.41), en efecto


!
Jl+ 1 () Jl+ 1 ()
2
2

(2l + 1)
2

!

 1

1
 Jl 1 () + Jl+ 3 ()
= (2l + 1)
J 1 () Jl+ 3 ()
2
2
2
2 l 2
2 2 l + 21


 


(2l + 1)
1
=
Jl 1 () + Jl+ 3 () Jl 1 () Jl+ 3 ()
2
2
2
2
2
(2l + 1)


i
h
(2l + 1)
=
Jl 1 () + Jl+ 3 () (2l + 1) Jl 1 () Jl+ 3 ()
2
2
2
2
2(2l + 1)




1
=
2(l + 1)Jl+ 3 () 2lJl 1 () = (l + 1)Jl+ 3 () lJl 1 () .
2
2
2
2
2

Primero, mostremos la igualdad Eq. (13.39) para l = 0,


1
Z 1
Z 1
ei ei
1 i
iz
iz
dze P0 (z) =
dze = e =
i
i
1
1
1
  12   1
2
2 2 ei ei
=

2i
301

 12 
 12

 12

sin

J 1 (),

(13.43)

es decir
Z

1
iz

dze

P0 (z) =

Para el caso l = 1 tenemos


Z 1
Z
iz
dze P1 (z) =

 21

J 1 ().
2

(13.44)


Z 1

iz
dze z = (i)
dze

1
1
!
  12
2

J 1 ()
= (i)
2

#
"
  21
J 1 ()
1 ()
2
2
= (i) (2) 2
3 J 1 () +

2 2 2
#
  21 "
J 1 () J 1 ()
2
2
2
= (i)
,
(13.45)
+

iz

considerando Eqs. (13.40)-(13.41) se tiene


Z

1
iz

dze

 21 


1
3
1
P1 (z) = (i)
J () + J ()

2
2 2



1
+ J 1 () J 3 ()
2
2
2
  12
2
= (i)
J 3 ()
2

(13.46)

Para probar que Eq. (13.39) es valida para cualquier l ocuparemos el principio
de induccion fuerte. Es decir, supondremos que la igualdad Eq. (13.39) es valida
para l y tambien para todos los valores menores que l, entonces probaremos
que se cumple
Z

iz

dze

Pl+1 (z) =

302

 12

(i)l+1 Jl+ 3 ().


2

(13.47)

Antes de iniciar la prueba, notemos que la identidad Eq. (10.219) se puede


escribir como
1
[(2l + 1)zPl (z) lPl1 (z)] .
(13.48)
Pl+1 (z) =
l+1
Entonces, recurriendo a la identidad Eq. (13.42) y tomando en cuenta que
(i)l1 = (i)l+1 , se llega a
Z 1
Z 1
1
iz
dze Pl+1 (z) =
dzeiz [(2l + 1)Pl (z) lPll (z)]
l
+
1
1
1
Z 1
1
=
dzeiz [(2l + 1)zPl (z) lPll (z)]
l + 1 1


Z 1
Z 1
1
iz
iz
(2l + 1)
dze zPl (z) l
dze Pll (z)
=
l+1
1
1
#
"
Z 1

  21
1

2
=
(i)l1 Jl 1 ()
(2l + 1)(i)
dzeiz Pl (z) l
2
l+1

1
!
#
"
  12
  21
1
2

2
=
(2l + 1)(i)
(i)l Jl+ 1 () + l
(i)l+1 Jl 1 ()
2
2
l+1

!
  21

Jl+ 1 ()
1 ()
(i)l+1
2
2
=
(2l + 1)() (2) 2
3 Jl+ 1 () +
2
l+1

2 2

  12
2
+l
(i)l+1 Jl 1 ()
2

!

  12
  21
Jl+ 1 ()
Jl+ 1 ()
(i)l+1
2
2
2
2
=
(2l + 1)

l+1


  12
2
Jl 1 ()
+l
2

#
!
"
 1
Jl+ 1 () Jl+ 1 ()
(i)l+1 2 2
2
2
=
+ lJl 1 () ,
(2l + 1)

2
l+1
2

  21
2
=
(13.49)
(i)l+1 Jl+ 3 (),
2

que es lo que queriamos demostrar. Por lo tanto, la igualdad Eq. (13.39) es


correcta para cualquier l natural. Considerando la definicion de las funciones
esfericas de Bessel, la ecuacion Eq. (13.39) toma la forma
Z 1
dzeiz Pl (z) = 2(i)l jl ().
(13.50)
1

303

Ahora, como los polinomios de Legendre son un conjunto de funciones ortogonales en el intervalo (1, 1), cualquier funcion se puede expresar como una
serie de Polinomios de Legendre. En particular la funcion exponencial, eiz , es
decir
X
eiz =
am Pm (z),
(13.51)
m0

entonces
Z

eiz Pl (z) =

dzPl (z)

am Pm (z)

m0

am

am

dzPl (z)Pm (z)

m0

m0

2al
2lm
=
.
2l + 1
2l + 1

Por lo tanto, tomando en cuenta Eq. (13.50), se encuentra


Z
2l + 1 1 iz
e Pl (z) = (i)l (2l + 1)jl (),
al =
2
1

(13.52)

(13.53)

que implica
eiz =

(i)l (2l + 1)jl ()Pl (z).

(13.54)

l0

Supongamos que es el angulo que hay entre los vectores


~k = k(sin cos , sin sin , cos ),

~r = r(sin cos , sin sin , cos ).

Entonces, como cos 1, se encuentra


X
~
(2l + 1)(i)l jl (kr)Pl (cos ).
eik~r = eikr cos =

(13.55)

l0

Ocupando el teorema de adicion de los armonicos esfericos se llega a


i~k~
r

= 4

l
X X

(i)l jl (kr)Ylm
( , ) Ylm (, ) .

(13.56)

l0 m=l

A esta expresion se le llama desarrollo en ondas parciales y tiene diferentes


aplicaciones en electromagnetismo y optica [1].
304

Captulo 14
Transformada de Fourier
En este captulo estudiaremos la transformada integral de Fourier y veremos
algunas de sus aplicaciones

14.1.

Definici
on de transforma de Fourier

Dada una funcion f definida en el eje real, definiremos su transformada de


Fourier como
Z
1
f(k) = F [f (x)] =
dxeikx f (x).
(14.1)
2
Antes de ver algunos ejemplos, recordemos que si > 0 se cumple la integral
r
Z

z 2
,
(14.2)
dze
=

note que esta integral implica


Z

dz

z 2
e
= 1,

a
un cuando 0 o si .

14.2.

Ejemplos

Veamos algunos ejemplos de transformada de Fourier.

305

(14.3)

14.2.1.

Funci
on Gaussiana
2

Para la funcion Gaussiana, ex , tenemos


Z
Z
1
2
1
x2
ikx x2
F [e
]=
dxe
e
=
dxe(x +ikx) ,
2
2

(14.4)

como

 2  2 !
ik
ik
ik
x+
x2 + ikx = x2 + 2

2
2
2

 2
k2
ik
,
+
= x+
2
4


(14.5)

entonces
k2

x2

F [e

e 4
]=
2

dxe(x+( 2 )) .
ik

(14.6)

Por lo tanto, usando la integral (14.2) y el cambio de variable u = x +


encuentra

ik
2

se

k2

x2

F [e

14.2.2.

e 4
]= .
2

(14.7)

Funci
on e|x|

La transformada de la funcion e|x| es


Z
1
|x|
F [e
] =
dxeikx e|x|
2
Z 0

Z
1
x(ik)
x(+ik)
,
dxe
+
dxe
=
2

0

!
x(+ik)
x(ik) 0
1
e
e


=

2 ( ik) ( + ik) 0


1
1
1
=
,
+
2 ( ik) ( + ik)
por lo tanto
F [e|x| ] =

306

2
.
2
+ k2

(14.8)

14.3.

Teorema de la convoluci
on

Definiremos la convolucion entre dos funciones f y g como


Z
1
df (x )g().
(f g)(x) =
2

(14.9)

La transformada de Fourier de la convolucion de dos funciones es


Z
1
F [(f g)(x)] =
dxeikx (f g)(x)
2
Z
Z
1
ikx 1

=
dxe
df (x )g()
2
2
Z
Z
1
1
ik
de
g()
dxeik(x) f (x ),
=
2
2
con el cambio de variable u = x se tiene
Z
Z
1
1
ik
de
g()
F [(f g)(x)] =
dueiku f (u)
2
2
= g(k)f(k).
(14.10)
A este resultado se le llama teorema de la convolucion.

14.4.

Transformada inversa de Fourier

En esta seccion estudiaremos la transformada inversa de Fourier de una


funcion f. Primero veamos la funcion
Z
h
i
1
2
z 2

dzeikz ez f(z), (14.11)


g(k) = F e
f (z) =
2
usando la definicion de transformada de Fourier Eq. (14.1) es claro que
Z
1

f (k) =
dteikt f (t),
(14.12)
2
de donde
Z
Z
1
ikz z 2 1

g(k) =
dze
e
dteizt f (t)
2
2
Z
Z
2
1
dtf (t)
dze[z +iz(kt)] .
=
2

307

(14.13)

Para escribir esta integral de forma mas sugerente notemos que


"

 
2 
2 #
i(k

t)
i(k

t)
i(k

t)
z 2 + iz(k t) = z 2 + 2
+

2
2
2
2

(k t)2
i(k t)
+
,
(14.14)
= z+
2
4
ademas, con el cambio de variable u = z + i (kt)
, se tiene
2
z 2 + iz(k t) = u2 +

(k t)2
.
4

(14.15)

As, usando el cambio de variable propuesto y el resultado Eq. (14.2), llegamos


a
Z
Z
2
1
2
(kt)
dtf (t)e 4
dueu
g(k) =
2

(kt)2
Z r
Z
4
(kt)2

1
e
f (t). (14.16)
dt
f (t)e 4 =
=
dt
2

Se puede observar que tomando = 1/(4) en Eq. (14.3) se consigue


Z

g(k) f (k) =

(kt)2
4

e
dt

= 1,

(14.17)

por lo que

(kt)2
4

e
dt

f (t) f (k)

(kt)2
4

e
dt (f (t) f (k))

(kt)2
4

e
dt

esta igualdad implica


Z

(kt)2

e 4

|g(k) f (k)| =
dt (f (t) f (k))


4
(kt)2
Z
e 4
.

dt |f (t) f (k)|
4

308

4
(14.18)

Recordemos que, por el teorema del valor intermedio [17], podemos asegurar
la existencia de tal que
f (t) f (k)
= f (),
tk

(14.19)

con f la primera derivada de f. Por lo tanto,




f (t) f (k)



t k max |f ()| ,

(14.20)

es decir

|f (t) f (k)| |t k|max |f ()| .

(14.21)

De donde
(kt)2

e 4
|g(k) f (k)|
dt|t k|max |f ()|
4

(kt)2
max |f ()|

=
dt|t k|e 4 .
4

Usando el cambio de variable w =


1

(kt)2
4

dt|t k|e

tk

4
=
4

se tiene

w 2

dw|w|e

=2

dwwew ,

as

|g(k) f (k)| max |f ()| 2

dwwew .

(14.22)

Este resultado induce


lm |g(k) f (k)| = 0.
0

(14.23)

Por lo tanto,
Z
h
i
h
i
1
k 2
dkeikx f(k).
f (x) = g(x) = lm F e
f (k) = F f(k) =
0
2

usando el cambio de variable k = k se encuentra


Z
Z
1
1
ikx
f (x) =
dke f (k) =
dkeikx F [f (x)] .
2
2
309

(14.24)

Entonces definiremos la transformada inversa de Fourier como


Z
h
i
1
1
F
f (k) =
dkeikx f(k),
2
esta definicion es consistente pues
h
i
1
f (x) = F
f (k) = F 1 [F [f (x)]] .

14.5.

(14.25)

(14.26)

Ejemplos de la transformada inversa de


Fourier

Se puede observar que ocupando la integral Eq. (14.24) y tomando en


cuenta los resultados Eqs. (14.7)-(14.8) y Eq. (14.10), se obtiene
# Z
"r

1
2
|x|
1
=
, (14.27)
dkeikx 2
e
= F
2
2
k +
k + 2

" k2 # Z
k2

4
4
e
e
2
,
(14.28)
ex = F 1
=
dkeikx
2
4

Z
h
i
1
(f g)(x) =
df (x )g() = F 1 f(k)
g (k)
2
Z
1
dkeikx f(k)
g (k).
(14.29)
=
2
Tambien note que
F

y|k|

1
=
2

dkeikx ey|k| .

(14.30)

As, con los cambios de variable k = x , x = k y usando Eq. (14.8) se


encuentra
r
Z


1
2
y

F 1 ey|k| =
, (14.31)
dx eik x ey|x | =
2
y + k 2
2
es decir

 y|k| 
e
=

y
2
.
2
y + x2

(14.32)

Posteriormente ocuparemos estos resultados para resolver ecuaciones diferenciales.


310

14.6.

Transfomada de Fourier de la derivada

Para funciones tales que f () = 0, se tiene




Z
df (x)
df (x)
1
dxeikx
F
=
dx
dx
2


Z

1
d  ikx
ikx
=
e
f (x) + ike
f (x)
dx
dx
2
Z
1
dxeikx f (x)
= ik
2
= ikF [f (x)] = ik f(k).
(14.33)
Por lo tanto,

 2


d f (x)
df (x)
= (ik)2 F [f (x)] = (ik)2 f(k). (14.34)
F
= = ikF
dx2
dx
En general se cumple

dn f (x)
= (ik)n f(k).
F
n
dx


(14.35)

Este resultado nos permitira resolver algunas ecuaciones diferenciales empleando la transformada de Fourier.

14.7.

Ecuaci
on de calor y ecuaci
on de Schr
odinger libre

Se quiere resolver la ecuacion de calor


u(x, t)
2 u(x, t)
=
,
t
x2

= constante,

(14.36)

con la condicion inicial u(x, 0) = f (x).


De la condicion inicial tenemos F [u(x, 0)] = F [f (x)], es decir u(k, 0) =
f(k). Ahora, al hacer la transformada de Fourier en la variable x a la ecuacion
de calor Eq. (14.36) tenemos

 2


u(x, t)
u(x, t)
= F
,
(14.37)
F
t
x2
311

que es equivalente a
u(k, t)
= k 2 u(k, t).
t

(14.38)

La solucion de esta ecuacion es


2

u(k, t) = A(k)ek t ,

(14.39)

considerando la condicion inicial tenemos que A(k) = f(k). As,


2
u(k, t) = f(k)ek t ,

(14.40)

por lo que, usando la transformada inversa de Fourier y la transformada de


Fourier de la funcion Gaussiana Eq. (14.7), con = 1/(4t), se obtiene
h
i
i
h
1
2
2
u(x, t) = F 1 [
u(k, t)] = F 1 f(k)ek t =
F 1 f(k)ek t 2t
2t
Z
2
(x)
1
1

df ()e 4t ,
=
2t 2
es decir
(x)2

e 4t
.
u(x, t) =
df ()
4t

(14.41)

Note que, por la condicion inicial, se tiene


f (x) = lm u(x, t) =
t0

df () lm

t0

(x)2
4t

4t

(14.42)

por lo tanto
e
(x ) = lm
t0

14.7.1.

(x)2
4t

4t

(14.43)

Ecuaci
on de Schr
odinger libre

La ecuacion de Schrodinger libre es


i~

~2 2 (x, t)
(x, t)
=
,
t
2m x2
312

(14.44)

que se puede escribir como la ecuacion de calor Eq. (14.36)


2 (x, t)
(x, t)
=
,
t
x2

i~
.
2m

(14.45)

Por lo tanto, si se impone la condicion inicial (x, 0) = (x), la funcion de


onda para cualquier tiempo mayor que cero es
Z
(x, t) =
dG (x , t) (),
(14.46)

con
G (x , t) =

m im(x)2
e 2~t .
2~t

Debido a que esta u


ltima funcion nos da informacion de como la partcula pasa
del estado inicial (x, 0) al estado (x, t) se le llama propagador.

14.8.

Ecuaci
on ordinaria de segundo orden

La transformada de Fourier puede ser u


til para resolver ecuaciones diferenciales ordinarias de segundo orden, por ejemplo

d2 u(x)
+ a2 u(x) = f (x).
dx2

Para esta ecuacion tenemos



 2
d u(x)
+ a2 F [u(x)] = F [f (x)] ,
F
dx2

(14.47)

(14.48)

es decir
k 2 u(k) + a2 u(k) = f(k),

(14.49)

de donde
u(k) =

f(k)
.
k 2 + a2

f(k)
k 2 + a2

(14.50)

Por lo tanto,
u(x) = F 1 [
u(k)] = F 1

"

1
=
a

313

"
#
r
1
2
a
,
F
f (k)
2
k 2 + a2

usando Eq. (14.32) y el teorema de la convolucion, se llega a


r
Z
1 1

df ()ea|x|,
u(x) =
a 2 2

(14.51)

es decir
u(x) =

df ()

14.8.1.

ea|x|
.
2a

(14.52)

Ecuaci
on de Laplace en dos dimensiones

Ahora resolveremos la ecuacion de Laplace en dos dimensiones


 2


2
+
u(x, y) = 0
x2 y 2

(14.53)

con las condiciones de borde u(x, 0) = f (x) y lmy u(x, y) = 0.


Usando la transformada de Fourier en la variable x se consigue
 2



2 u(k, y)
2
2
F
u(x,
y)
=
k
u

(k,
y)
+
+
= 0.
x2 y 2
y 2

(14.54)

Ademas las condiciones de borde toman la forma


F [u(x, 0)] = F [f (x)] ,

lm F [u(x, y)] = 0,

es decir
u(k, 0) = f(k)

lm u(k, y) = 0.

(14.55)

La solucion de Eq. (14.54) es


u(k, y) = A(k)e

k2 y

(14.56)

tomando en cuenta las condiciones de borde se obtiene


u(k, y) = f(k)e|k|y .

(14.57)

Por lo tanto, usando Eq. (14.32), se llega a


h
i
u(x, y) = F 1 [
u(k, y)] = F 1 f(k)e|k|y
r
Z
2
1
y
,
=
df ()
2
y + (x )2
2
314

(14.58)

entonces
u(x, y) =

df ()

y
1
.
2
y + (x )2

(14.59)

Note que de la condicion de borde u(x, 0) = f (x) se infiere que


1
y
.
2
y0 y + (x )2

(x ) = lm

14.9.

(14.60)

Ecuaci
on de Black-Scholes

Uno de los problemas mas interesantes en Finanzas es determinar el precio


de un contrato el cual se desea ejercer a un tiempo T . Si es la volatilidad, r
es la tasa de interes y S el precio de una accion, el precio del contrato C(S, t)
esta determinado por la ecuacion de Black-Scholes [24, 25]
2 2 C(S, t)
C(S, t)
C(S, t)
= S2

rS
+ rC(S, t),
t
2
S 2
S

(14.61)

la cual se debe resolver con la condicion


C(S, T ) = (S K)(S K).

(14.62)

Note que esta condicion nos indica que el mnimo valor que puede tomar S es
K, de lo contrario no vale la pena ejercer el contrato. Mas detalles sobre esta
ecuacion se puede ver en [26].
La ecuacion de Black-Scholes es equivalente a la ecuacion de Schrodinger
libre en una dimension (14.44). Para probar esta afirmacion primero notemos
que usando el cambio de variable
S = ex

(14.63)

se obtiene
C(x, t)
2 2 C(x, t)
=
+
t
2
x2

2
r
2

C(x, t)
+ rC(x, t).
x

(14.64)

Entonces, con la propuesta




C(x, t) = e

1
2

2
r
2


x+

1
2 2

315

2
+r
2

2 
t

(x, t),

(14.65)

se llega a la ecuacion de onda


2 2 (x, t)
(x, t)
=
,
t
2
x2

(14.66)

la cual tiene la misma forma que la ecuacion de Schrodinger libre en una dimension (14.44). Esta equivalencia ha dado origen una nueva disciplina, las
llamadas finanzas cuanticas [15].
Como el contrato se desea ejercer al tiempo T, para resolver la ecuacion
(14.66) realizaremos el cambio de variable
= T t,

(14.67)

de donde la ecuacion (14.66) toma la forma


(x, )
2 2 (x, )
=
.

2
x2

(14.68)

Ademas, con la variable el precio (14.65) toma la forma




C(x, ) = e

1
2

2
r
2


x+

1
2 2

2
+r
2

2


(T )

(x, ).

(14.69)

Ahora, como el mnimo valor que puede tomar S es K, entonces el mnimo


valor que puede tomar x es ln K. Por lo tanto, la condicion inicial (14.62)
toma la forma
C(x, 0) = (ex K) (x ln K) .

(14.70)

Usando esta condicion inicial y la ecuacion (14.69), se obtiene la condicion


inicial para (x, ):

(x, 0) = 0 (x) = e

1
2

2
r
2


x+

1
2 2

2
+r
2

2 
T

(ex K) (x ln K) . (14.71)

Por lo tanto, el problema de obtener la solucion de la ecuacion de BlackScholes se reduce a resolver la ecuacion diferencial (14.68) con la condicion
inicial (14.71).
De la ecuacion de calor (14.36) se puede observar que, haciendo el cambio
2 /2, se obtienen la solucion
(xx )2

2 2

e
,
(x, ) =
dx 0 (x )
2 2

316

(14.72)

es decir


e
(x, ) =

2
2 +r
T
2
2 2

2 2

ln K

 1 r
 (xx)2
1
r

dx e( 2 + 2 )x Ke( 2 + 2 )x e 22 . (14.73)

Antes de obtener (x, ), estudiemos la integral


Z
(xx )2
1
r

I =
dx e( 2 + 2 )x e 22 ,

(14.74)

ln K

la cual, completando cuadrados, se puede escribir como


2

r
1 x+ r 1
I = e ( 2 2 ) 2 ( 2 2 )

dx e

((xx )+2 ( r2 21 ))
2 2

(14.75)

ln K

Ademas con el cambio de variable


(x x ) + 2

u=
2

r
2

1
2

(14.76)

se obtiene
I =

i
h
2
r
r
1
1 2
(
2 2 )x+ 2 ( 2 2 )
2

N
2 e

(d )

(14.77)

con
N(z) =

u2

e 2
du ,
2

(14.78)
2

d =

x ln K +

r
2

1
2

ln
=

S
K


+ (T t) r

T t

2
2

Usando la integral I en (14.73) se encuentra

(x, ) = e

2
2 +r
T
2
2 2

Ke

r
+ 1 x+ r + 1
e ( 2 2 ) 2 ( 2 2 ) N (d+ )

2
2 +r
T
2
2 2

r
1 x+ r 1
e ( 2 2 ) 2 ( 2 2 ) N (d ) .

Sustituyendo este resultado en (14.69) se llega a


C(s, t) = SN(d+ ) Ker(T t) N(d ).

(14.79)

Este resultado es la llamada formula de Black-Scholes, la cual es una de las


expresiones matematicas mas usadas.
317

14.10.

Delta de Dirac

Se puede observar que al sustituir la definicion de la transformada de Fourier en Eq. (14.24) se obtiene
Z
Z
1

ikx 1
dke
dx eikx f (x )
f (x) =
2
2
Z
Z

eik(xx )

=
dx f (x )
dk
.
(14.80)
2

Por lo tanto, en este caso la delta de Dirac la definiremos como


Z
1
(x) =
dkeikx ,
2

(14.81)

de donde
f (x) =

dx f (x )(x x ).

(14.82)

La delta de Dirac tiene varias propiedades interesantes. Primero mostraremos


que
(x) = (x).

(14.83)

Esta afirmacion es correcta, pues con el cambio de variable k = k se encuentra que


Z
Z
Z
1 ik x
1
1

ikx
dke
=
dk e
=
dk eik x = (x),
(x) =
2
2
2
que es lo que se queria demostrar.
De (14.82) se puede ver que si x = 0, se tiene
Z
Z

f (0) =
dx f (x )(x ) =
dx f (x )(x ).

(14.84)

Por lo tanto, usando la funcion constante f (x) = 1 se tiene


Z
dx(x) = 1.

(14.85)

Note que la transformada de Fourier de la delta de Dirac es


Z
1
1
F [(x)] =
dxeikx (x) = .
2
2
318

(14.86)

La delta de Dirac tambien cumple


(ax) =

(x)
.
|a|

(14.87)

Para probar esta afirmacion primero tomemos el caso a > 0. Con el cambio de
variable k = ak se obtiene
Z
Z
1
1 1
(x)

iakx
(ax) =
dke
=
dk eik x =
,
2
a 2
a
por lo que se cumple Eq. (14.87). Para caso a < 0 tambien usaremos el cambio
de variable k = ak, de donde
Z
Z
Z
1 1
1 1
(x)
1

iakx
ik x
dke
=
dk e
=
dk eik x =
,
(ax) =
2
a 2
a 2
a
as se cumple Eq. (14.87). Por lo tanto, la identidad Eq. (14.87) es correcta.
En estricto sentido la delta de Dirac solo tiene sentido dentro de una integral. Sin embargo es conveniente manipularla por si sola. Usando la analoga
de la delta de Kronecker y la propiedad Eq. (14.84), se dice que (x) es cero
si x 6= 0 y, considerando la definicion Eq. (14.101), se toma el valor (0) = .
Sea f (x) una funcion, veamos que significa (f (x)). Note que si no existe
x tal que f (x) = 0, entonces (f (x)) = 0. Supongamos que f (x) tiene un solo
cero, x0 , y que la funcion es creciente o decreciente. Si f (x) es creciente, se
df
tiene que dx
>0y
Z
Z
g (f 1 (Y ))
(Y ) .
dxg(x) (f (x)) =
dY
df

dx

df
dx

<0y
Si la funcion f (x) es decrenciente, entonces
Z
Z
g (f 1 (Y ))
dxg(x) (f (x)) =
dY
(Y )
df

dY

dx
1

g (f (Y ))
(Y ) .
df
dx

Por lo tanto,


g (f (Y ))
Z
Z
1
g (f (Y ))
Y =0
df
df
dxg(x) (f (x)) =
dY
, (14.88)
(Y ) =



dx

319

dx Y =0

como Y = 0 solo si x = x0 , llega a


Z
g (x0 )
dxg(x) (f (x)) = df
.

(14.89)

dx x=x0

Ademas, note que

dxg(x)

g (x0 )
(x x0 )
df
= df
,


dx

(14.90)

dx x=x0

como este resultado es valido para cualquier funcion g(x), podemos tomar
(f (x)) =

(x x0 )
df .

(14.91)

dx

Ahora, supongamos que f (x) tiene un n


umero finito de ceros {xi }ni=1 tales que

df (x)
6= 0.
(14.92)
f (xi ) = 0,
dx x=xi

Entonces definiremos n vecindades de radio , cada una centrada en un cero


xi . Estas vecindades, Vi (xi ), las tomaremos de tal forma que si x Vi (xi ) y
f (x) = 0, entonces x = xi . Note que debido a que se cumple Eq. (14.92), en
cada cero podemos elejir la vecindad de tal forma que en ella la funcion f solo
sea creciente o decreciente. Sobre estas vecindades definiremos las funciones

f (x) x Vi (xi ),
(14.93)
fi (x) =
hi (x) x 6 Vi (xi ),
donde hi (x) es una funcion de tal forma que fi (x) es creciente o decreciente
en todo el eje real. Entonces, como la delta de Dirac solo es diferente de cero
cuando su argumento es cero, se tiene
(f (x)) =

n
X
i=1

es decir

i=1

n
X
(x xi )
df ,
(f (x)) =

i=1

Por ejemplo,

n
X
(x xi )
df ,
(fi (x)) =
i

(14.94)

dx

f (xi ) = 0.

(14.95)

dx

 (x a) + (x + a)
.
x2 a2 =
2|a|
320

(14.96)

14.10.1.

La funci
on de Heaviside

La funcion de Heaviside se define como



1, x 0
(x) =
0, x < 0.

(14.97)

Esta funcion se puede ver como la primitiva de la delta de Dirac. En efecto,


supongamos que f es una funcion tal que f () = 0, entonces


Z
Z

df (x )
d
d (x x)

dx
f (x ) =
[ (x x) f (x )] (x x)
dx
dx
dx
dx


Z

df (x )

= (x x) f (x )
dx (x x)
dx

Z
df (x )
=
dx
= f (x),
(14.98)
dx
x
es decir
Z

dx

d (x x)
f (x ) = f (x).
dx

(14.99)

Como este resultado es valido para cualquier funcion f, podemos tomar


d (x x)
= (x x) .
dx

(14.100)

Integrando la definicion de delta de Dirac Eq. (14.101), se puede ver que


Z
1
eikx
(x) =
dk
.
(14.101)
2i
k

14.11.

Norma de una funci


on

Ahora, usando la definicion de la transformada inversa de Fourier podemos


ver que la norma de una funcion es
Z
2
||f (x)|| =
dxf (x)f (x)



Z
Z
Z
1
1

ikx
=
dx
dke f (k)
dk eik x f(k )
2
2

 Z
Z
Z
1
i(k k)x

dxe
=
dkdk f (k)f (k )
2

321

=
=

dkdk f (k)f(k ) (k k)

dk f (k)f(k) = ||f(k)||2 .

(14.102)

Por lo tanto, la norma de una funcion f (x) tiene el mismo valor que su transformada de Fourier f(k).

14.12.

Transformada de Fourier en d dimensiones

Hasta ahora hemos trabajado con funciones de una sola variable. Si f es


una funcion real de d variables, ~x = (x1 , xd ), la transformada de Fourier se
define como
Z
dxd
dx1
~

~
eik~x f (~x), ~k = (k1 , kd ).(14.103)
f (k) = F [f (~x)] =
2
2

De esta definicion es claro que la transformada inversa de Fourier es


h  i Z dk
dkd ~
1
1 ~
eik~x f(~k).
(14.104)
F
f k =
2
2

La delta de Dirac la denotaremos como


Z
Z
dkd eixd kd
dk1 eix1 k1
(d)

(~x) = (x1 ) (xd ) =


2
2

Z
1
~
= p
d~keik~x .
(14.105)
d
(2)

14.13.

Funci
on de Green

Supongamos que A(x ) es un operador lineal, con este operador se puede


plantear una ecuacion homogenea
A(x )0 (x) = 0

(14.106)

A(x )(x) = 4(x).

(14.107)

y una ecuacion inhomogenea

322

Para resolver la ecuacion inhomogenea es importante la funcion de Green. Se


dice que G (x, x ) es una funcion de Green de A(x ) si satisface la ecuacion de
Green
A(x )G (x, x ) = 4 (x x ) .

(14.108)

Empleando una funcion de Green G (x, x ) y una solucion a la ecuacion homogenea, 0 (x) , se puede construir una solucion de la ecuacion inhomogenea.
En efecto, la funcion
Z
(x) = dx G (x, x ) (x ) + 0 (x) ,
(14.109)
satisface
Z

dx A(x )G (x, x ) (x ) + A(x )0 (x)


Z
= 4 dx (x x ) (x ) = 4(x).

A(x )(x) =

Por lo tanto, Eq. (14.109) es solucion de Eq. (14.107). La funcion de Green y la


solucion a la ecuacion de homogenea se elijen dependiendo de las condiciones
de borde de la ecuacion inhomogenea.

14.13.1.

Funci
on de Green y funciones propias

Las funciones de Green del operador A(x ) estan relacionadas con sus funciones de propias. En efecto, supongamos que tenemos las funciones propias
de A(x ), es decir
A(x ) (x) = (x).

(14.110)

Tambien supongamos que las funciones propias forman un conjunto { (x)}


ortonormal con el producto escalar
Z
(14.111)
< (x)| (x) >= dx (x) (x) = .
Por lo tanto, para cualquier funcion bien portada se puede hacer el desarrollo
de Fourier
X
f (x) =
a (x),
(14.112)

323

con los coeficientes de Fourier dados por


Z
a =< (x)|f (x) >= dx (x)f (x).

(14.113)

Note que substituyendo los coeficientes de Fourier en Eq. (14.112) se llega a


Z
X
XZ

dx (x )f (x ) (x) = dx f (x )
(x ) (x), (14.114)
f (x) =

como este resultado es valido para cualquier funcion, tenemos


X
(x ) (x).
(x x ) =

(14.115)

Por lo tanto, para este caso la funcion de Green esta dada por
G(x x ) = 4

X (x ) (x)

(14.116)

Esta afirmacion es correcta pues


A(x )G(x x ) = 4
= 4

X (x )A(x ) (x)

= 4

X (x ) (x)

(x ) (x) = 4(x x ).

(14.117)

De Eq. (14.116) se puede ver que las condiciones de borde que satisface la
funcion de Green son las mismas que satisfacen las funciones propias.

14.14.

Ecuaci
on de Laplace en dos dimensiones

Hora veremos un ejemplo de funcion de Green. Calcularemos la funcion de


Green del Laplaciano en dos dimensiones
 2


2
G(~x ~x ) = 4 (2) (~x ~x ), ~x = (x, y).
(14.118)
+
x2 y 2
Pediremos que la funcion de Green se anule en (x, y) = (0, 0) y en (x, y) =
(L1 , L2 ). Entonces debemos buscar las funciones propias
 2


2
(x, y) = (x, y).
(14.119)
+
x2 y 2
324

que se anulen en (x, y) = (0, 0) y en (x, y) = (L1 , L2 ).


Propondremos (x, y) = X(x)Y (y), sustituyendo esta propuesta en (14.119)
se obtiene
Y (y)

2 X(x)
2 Y (y)
+
X(x)
= X(x)Y (y),
x2
y 2

(14.120)

1 2 Y (y)
1 2 X(x)
+
.
X(x) x2
Y (y) y 2

(14.121)

de donde
=

Derivando esta ecuacion respecto a x y y se encuentra







1 2 X(x)
1 2 Y (y)

= 0,
= 0,
x X(x) x2
x Y (y) y 2

(14.122)

de donde
1 2 X(x)
= 2 ,
X(x) x2

1 2 Y (y)
= 2 ,
Y (y) y 2

, = constante. (14.123)

Note que esto implica que = 2 2 , tambien note que las ecuaciones
(14.123) son equivalentes a
2 X(x)
= 2 X(x),
x2

2 Y (y)
= 2 Y (y),
y 2

cuyas soluciones son


X (x) = a cos x + b sin x,

Y (x) = A cos + B sin y,

donde a , b , A , B son constantes. Empleando las condiciones de borde se


llega a
" 
r
r
2 #

2
n
m
n
m
2
2
sin
x, Ym (x) =
sin
y, =
Xn (x) =
+
L1
L1
L2
L1
L2
L2
Por lo tanto, las funciones propias y valores propios son
" 
r
r
2 #

2
n
m
n
m
2
2
nm (x, y) =
sin
x
sin
y, nm =
+
L1
L1
L2
L2
L1
L2
y la funcion de Green del sistema es
n
m
n
m
16 X X sin L1 x sin L2 y sin L1 x sin L2 y
G(~x ~x ) =
.
 2  2
L1 L2 n1 m1
m
n
+
L1
L2

325

(14.124)

14.15.

Resultados de variable compleja

Antes de continuar recordemos dos resultados de variable compleja.


Si z0 es un polo de f (z) entonces el residuo de f (z) se define como
Resz0 f (z) = lm (z z0 )f (z)
zz0

(14.125)

El teorema de Cauchy nos dice que si C en una curva cerrada en el plano


complejo entonces
I
n
X
Resak f (z).
(14.126)
f (z)dz = 2i
C

k=1

Ademas, si g(x) es una funcion de variable real con un polo simple en a y


> 0, entonces el valor principal de Cauchy se define como
Z a

Z
Z
g(x)dx +
P.P
g(x)dx .
(14.127)
g(x) = lm

a+

Otro resultado es que si R(z) es una funcion que no tiene polos en el eje real
ni en el plano complejo superior y que lmz R(z) = 0, entonces si a es un
n
umero real, se cumple
Z
Z
1
R(x)
1 R(x)
R(a) = P.P
=
.
(14.128)
i
i x a
x a
En particular
P.P

sin x
= .
x

eix
= i,
x

(14.129)

que implica
Z

(14.130)

Este resultado lo ocuparemos posteriormente.

14.16.

Ecuaci
on de Poisson

Ahora estudiaremos la ecuacion de Poisson


2 (~x) = 4 (~x) ,
326

(14.131)

que tiene asociada la ecuacion de Green


2 G (~x ~x ) = 4 (3) (~x ~x ) ,
Tomando la transformadas de Fourier de esta ecuacion obtenemos




F 2 G (~x ~x ) = 4F (3) (~x ~x ) ,

(14.132)

(14.133)

es decir

por lo que

 
~k 2 = 4 p 1 ,
~k 2 G
(2)3

de donde,

 
1
~k 2 = 4 p 1
,
G
(2)3 ~k 2
4
G (~x ~x ) =
(2)3

i~k(~
x~
x )

e
d~k

~k 2

(14.134)

(14.135)

(14.136)

~ = ~x ~x , se tiene
Usando coordenadas esfericas y definiendo R
Z
~ ~
1
eikR
~
G (~x ~x ) =
dk
~k 2
2 2
Z
Z 2
Z
1
eikR cos
2
dkk
=
d
d
sin

2 2 0
k2
0
Z Z 0
2
dk
d sin eikR cos ,
=
2 2 0
0

(14.137)

ademas con el cambio de variable u = cos se encuentra


Z
Z 1
Z 1
1 ikRu 1
ikR cos
ikRu
ikRu
d sin e
=
due
=
due
=
e

iRk
1
0
1
1
ikR
ikR
sin kR
e e
=2
.
(14.138)
=
iRk
kR
Por lo que
2
G (~x ~x ) =

327

dk

sin kR
,
kR

(14.139)

tomamos w = kR y considerando la integral Eq. (14.130) se llega a


Z
Z
sin w
1
sin w

1
2

dw
=
dw
=
= ,
G (~x ~x ) =
R 0
w
R
w
R
R
es decir
G (~x ~x ) =

1
.
|~x ~x |

(14.140)

Que implica

1
|~x ~x |

= 4 3 (~x ~x ) .

Por lo tanto, una solucion a la ecuacion de Poisson es


Z
(~x )
(~x) = d~x
+ 0 (~x),
|~x ~x |

(14.141)

(14.142)

con 0 (~x) una solucion a la ecuacion de Laplace 2 0 (~x) = 0.


Para muchos sistemas fsicos se puede tomar 0 (~x) = 0, en esos casos la
solucion a la ecuacion de Poisson es
Z
(~x )
(~x) = d~x
.
(14.143)
|~x ~x |
Ahora, note que
1
1
=

|~x ~x |
x2 2xx cos + x2

(14.144)

con el angulo entre ~x y ~x . Ahora, si |~x| =


6 |~x | definamos r< = min{|~x|, |~x |}
y r> = max{|~x|, |~x |}, es claro que
 
r<
< 1.
(14.145)
r>
Entonces, ocupando estas definiciones y la funcion generatriz de los polinomios
de Legendre Eq. (10.208) con
z=

r<
,
r>

u = cos ,

328

(14.146)

se tiene
1
=
|~x ~x |

r>

12

r<
r>

1


cos +

 l
1 X r<
Pl (cos ).
  2 = r>
r>
r<
l0
r>

As, usando el teorema de adicion de los armonicos esfericos Eq. (10.261),


tenemos
 l 
m=l
X X
4
r<
1

=
Ylm
( , )Ylm (, ).
(14.147)
l+1

|~x ~x |
2l
+
1
r
>
l0 m=l
Fuera de la region donde esta definida la fuente (~x ) se tiene r< = |~x | y
r> = |~x|. Por lo tanto, en esta region se tiene
(~x) =

Z
m=l
X X
Ylm (, ) 4
(x )
l

d~x r<
Ylm
( , ) (~x ) .
=
d~x
l+1
|~x ~x |
2l
+
1
r
>
l0 m=l

Definiremos los momentos multipolares como


Z
4
l

d~x r<
Ylm
( , ) (~x )
qlm =
2l + 1

(14.148)

por lo que
(~x) =

m=l
X X
qlm
Y (, ).
l+1 lm
r
>
l0 m=l

(14.149)

~ A
~ = 0, las ecuaciones de la
Ademas, usando la norma de Coulomb
magnetostatica se reducen a
~ x) = 4 J~ (~x) ,
2 A(~

(14.150)

que son tres ecuaciones de Poisson. Por lo tanto,


~ (~x) =
A

d~x

J~ (~x )
.
|~x ~x |

(14.151)

Claramente este potencial tambien se puede escribir en terminos de los armonicos esfericos.

329

14.17.

Funci
on de Green de la ecuaci
on Helmholtz

La ecuacion de Helmholtz inhomogenea es



2 + k 2 (~x) = 4 (~x) ,

la cual tiene asociada la ecuacion de Green



2 + k 2 G (~x ~x ) = 4 3 (~x ~x ) .

(14.152)

(14.153)

Para resolver esta u


ltima ecuacion veamos la funcion
p
er
f (r) =
, r = x2 + y 2 + z 2 ,
(14.154)
r
la cual tiene una divergencia en r = 0. Esta divergencia se puede aislar, en
efecto
1 er 1
er 1 + 1
= +
,
(14.155)
f (r) =
r
r
r
note que
er 1
= .
r0
r
lm

(14.156)

Por lo tanto, la divergencia de la funcion Eq. (14.154) esta en termino 1/r.


Ahora, observemos
 r 


 r

e
1 er 1
e 1
2
2
21
2

=
= +
,
(14.157)
+
r
r
r
r
r
empleando la ecuacion Eq. (14.141) y el Laplaciano en coordenadas esferica
Eqs. (2.77)-(2.78) se llega a
 r 
 r 
r
e
1 2
e
2
(3)
(3)
2e

= 4 (~r) +
=
4
(~
r
)
+

r
,
r
r r 2
r
r
es decir
 er
= 4 (3) (~r) .
(14.158)
r
Este resultado lo hemos obtenido con las coordenadas x, y, z. Claramente el
resultado no cambia si se consideran las coordenas x x , y y , z z . Por lo
tanto,
2 2

 e|~x~x |
= 4 (3) (~x x ) .

|~x ~x |
2

330

(14.159)

Si tomamos = ik, entonces se obtiene


 eik|~x~x |
+k
= 4 (3) (~x x ) ,

|~x ~x |
2

(14.160)

que es la ecuacion de Green para la ecuacion de Helmholtz inhomogenea. As,


la funcion de Green para la ecuacion de Helmholtz inhomogenea es

eik|~x~x |
.
G (~x x ) =
|~x ~x |

Entonces una solucion a la ecuacion de Helmholtz inhomogenea es


Z
ik|~
x~
x |
e
(~x) = 0 (~x) + d~x
(~x ),
|~x ~x |

(14.161)

(14.162)

con 0 (~x) una solucion a la ecuacion de Helmholtz libre. Estas soluciones se


ocupan para estudiar radiacion y difraccion de onda electromagneticas, el signo
se elije dependiendo si las ondas que se estudian son ondas entrantes o salientes.

14.17.1.

Ecuaci
on de Lippman-Schwinger

La ecuacion de Schrodinger


~2 2
+ V (~x) (~x) = E(~x)

2m

(14.163)

se puede escribir como una ecuacion de Helmholtz inhomogenea. En efecto,


definiendo
k2 =

2mE
,
~

(~x) =

m
V (~x)(~x)
2~

y realizando operaciones elementales la ecuacion (14.163) toma la forma



2 + k 2 (~x) = 4(~x).

Por lo tanto,

 m Z
ik|~
x~
x |
e
(~x) = 0 (~x)
d~x
V (~x )(~x ),
2~
|~x ~x |

(14.164)

donde 0 (~x) es una solucion a la ecuacion de Helmholtz homogenea. A Eq.


(14.164) se le llama ecuacion de Lippman-Schwinger y es muy u
til para estudiar
dispersion de partculas en mecanica cuantica.
331

14.18.

Funci
on de Green de la ecuaci
on de onda

Ahora estudiaremos la ecuacion de onda inhomogenea




1 2
2
2 2 (~x, t) = 4(~x, t).
c t

(14.165)

la cual tiene asociada la ecuacion de Green




1 2
2
2 2 G (~x ~x , t t ) = 4 (3) (~x ~x ) (t t ) . (14.166)
c t
La ecuacion de onda es invariante relativista, para respetar esta invariancia en
el sector temporal tomaremos las definiciones
Z
1
g() =
dteit g(t),
(14.167)
2
Z
1
deit g(),
(14.168)
g(t) =
2
Z
1
(t) =
deit .
(14.169)
2
Por lo que,
1




~
~k, ,
d~kdei((tt )k(~x~x )) G
(2)4
Z
1

~
(4)

(3)

(x x ) = (~x ~x ) (t t ) = p
d~kdei((tt )k(~x~x )) .
(2)4

G (~x ~x , t t ) = p

Por lo tanto, al hacer la transformada de Fourier de Eq. (14.166) se encuentra







1 2

2
F
2 2 G (~x ~x , t t ) = 4F (3) (~x ~x ) (t t ) ,
c t
es decir

de donde



2 ~ 
4
2
~
k + 2 G k, = p
,
c
(2)4


1
~k, = p 4
G
(2)4 ~k 2
332

2
c2

Por lo tanto,
1
G (~x ~x , t t ) =
4 3

i((tt )~k(~
x~
x ))

e
d~kd

~k 2

2
c2

(14.170)

~ = ~x ~x y tomaremos
Para hacer esta integral definiremos = t t , R
coordenadas esfericas, por lo que
d~k = dkddk 2 sin ,

~k (~x ~x ) = kR cos .

(14.171)

Entonces,

ei( kR cos )
d
dkk
d
d sin
2
k 2 c2

0
0
0
Z
Z
Z
ei
2
ikR cos
2
d
d
sin
e
(14.172)
dkk
=
2 .
4 3 0
k 2 c2

~ ) = 1
G(R,
4 3

Ademas, con el cambio de variable u = cos , se tiene


Z
Z 1
Z 1
ikR cos
iuRk
d sin e
=
due
=
dueiuRk
0
1
1
1

1
1 iuRk
2
=
=
eiRk eiRk =
e
sin kR,

ikR
ikR
kR
1
entonces

~ ) = c
G(R,
2

1
sin rR
dkk
kR
2

ei
.
2 k 2 c2

Ahora estudiaremos la integral


Z
Z
ei
ei
=
,
d
I(k) =
d 2
k 2 c2
( kc)( + kc)

(14.173)

(14.174)

para facilitar algunos calculos definiremos


a = c(k i),

b = c(k + i),

(14.175)

por lo que,
I(k) =

ei
= lm
d 2
k 2 c2 0

333

ei
. (14.176)
( a )( b )

Pasaremos esta integral al plano complejo, donde = 1 + i2 , note que


ei = ei1 e2 .

(14.177)

Si tomamos > 0, entonces lm ei = 0. Ahora, sea C la trayectoria


semicircular de radio A en el semi plano complejo inferior. Dicha trayectoria inicia en punto A del eje real y termina en el punto A del mismo eje.
Claramente esta trayectoria se recorre en sentido de las manecillas del reloj.
Ocupando la trayectoria C, se tiene
Z
Z
ei
ei
I(k) = lm
d
+
d
0
( a )( b )
( a )( b )
C
Z
ei
d
.
(14.178)
( a )( b )
C
Note que si A las trayectorias de las dos primeras integrales forman una
trayectoria cerrada, , que se recorre en el sentido de las manecillas del reloj
y que encierra los dos polos a , b, es decir

I
Z
ei
ei
.

d
I(k) = lm lm
d
0 A
( a )( b )
( a )( b )
C

Podemos ver que si A es muy grande


Z
Z

i
i1 2
2


e
e
e
d
d
A e A


( a )( b ) C
2
A2
C

(14.179)

Por lo tanto,

de donde

Z



ei

= 0,
lm d

A
(

)(

)
a
b
C
lm

ei
= 0.
( a )( b )

(14.180)

(14.181)

Entonces,
ei
0 A
( a )( b )


( b )ei
( a )ei
+ lm
= 2i lm lm
b ( a )( b )
0 a ( a )( b )

I(k) = lm lm

334


eia
eib
= 2i lm
+
0 a b
b a


2i
2i ick
= lm
eia eib =
e
eick
0 a b
2ck

ick
ick
e
2 e
sin ck
=
= 2
.
(14.182)
ck
2i
ck
Ocupando este resultado en Eq. (14.173) se obtiene



2 Z
c
sin
ck
1
2
~ ) =
G(R,
dk k
sin kR
2
2 0
kR
ck
Z
Z
2c
c
=
dk sin kR sin ck =
dk sin kR sin ck
R 0
R
Z
1
c
dk (cos k (R c ) cos k (R + c ))
=
R 2
Z

c
=
dk eik(Rc ) + eik(Rc ) eik(R+c ) eik(R+c )
4R
 Z
Z
1
c 1
ik(Rc )
dke
+
dkeik(Rc )
=
2R 2
2

Z
Z
1
1
ik(R+c )
ik(R+c )

dke

dke
2
2
c
=
((R c ) + (R c ) (R + c ) (R + c ))
2R
c
=
((R c ) (R + c )) .
(14.183)
R
Ademas, como (R + c ) > 0, se encuentra


c
1
R
~
G(R, ) = (R c ) =
,
(14.184)
R
R
c


es decir
G (~x ~x , t t ) =

|~
x~
x |
c

(t t )

|~x ~x |


t t

Definiendo el tiempo de retardo como

|~x ~x |
,
c
la funcion de Green se puede escribir de la forma
tRet = t

G (~x ~x , t t ) =
335

(t tRet )
.
|~x ~x |

|~
x~
x |
c

|~x ~x |



. (14.185)

(14.186)

(14.187)

Por lo tanto, si 0 (~x, t) una solucion a la ecuacion de onda homogenea, la


solucion a la ecuacion de onda inhomogenea Eq. (14.165) es
Z
(t tRet )
+ 0 (~x, t)
(~x, t) =
d~x dt (~x , t )
|~x ~x |
Z
(~x , tRet )
=
dx
+ 0 (~x, t),
|~x ~x |
es decir,
(~x, t) =

d~x


~x , t

|~
x~
x |
c

|~x ~x |

336

+ 0 (~x, t).

(14.188)

Referencias
[1] J. D. Jackson, Classical Electrodynamics, Tercera Edicion, John Wiley
and Sons (1999).
[2] L. D. Landau y E. M. Lifshitz, Fsica Teorica Vol. 8, Electrodinamica de
Los Medios Continuos, Editorial Reverte, Madrid (1981).
[3] M. Reed y B. Simon, Methods of Modern Mathematical Physics, Academic
Press Inc, New York (1972).
[4] A. N. Kolmogorov, Elementos de la teora de funciones y del analisis
funcional, Editorial Mir Mosc
u (1975).
[5] L. D. Landau y E. M. Lifshitz, Quatum Mechanics (Nonrelativistic
Theory), (segunda edicion) Addison-Wesley, E.U (1965).
[6] J. J. Sakurai, Modern Quatum Mechanics , (S. F. Tuan, Editor), AddisonWesley, E.U (1994).
[7] L. Debnath y D. Bhatta, Integral Transforms and Their Applications,
Segunda edicion, Chapman y Hall/CRC, Londres (2007).
[8] E. T. Whittaker y G. N. Watson. A Course of Modern Analysis, Cambridge University Press (1996).
[9] P. M. Morse y H. Feshbach, Methods of Theoretical Physics, vol I y II
McGraw-Hill, (1953)
[10] A. N. Tikhonov y A. A. Samarskii, Equations of Mathematical Physics,
Dover, New York (1990).
[11] L. Infeld y T. E. Hull, The Factorization Method, Rev. Mod. Phys. 23, 21
(1951).
[12] O. L. de Lange y R.E. Raab, Operator Methods in Quantum Mechanics,
Clarendo Press, Oxford (1991).
337

[13] N. Vilenkin, Special Functions and the Theory of Group Representations,


American Mathematical Society (1968).
[14] B. G. Adams, Algebraic Approach to Simple Quantum Systems, SpringerVerlag, Berlin (1994).
[15] B. E. Baaquie, Quantum Finance, Cambridge University Press (2004).
[16] M. Henneaux y C. Teitelboim, Quantization of gauge systems, Princeton
University Press, USA (1992).
[17] R. Courant y F. John, Introduccion al calculo y al analisis matematico,
Volumen I y II, Editorial Limusa (1990).
[18] F. Simmons y J. S. Robertson, Ecuaciones Diferenciales con Aplicaciones
y Notas Historicas, Segunda edicion, McGraw-Hill (1993).
[19] F. J. Dyson, Feynmans proof of the Maxwell equations, Am. J. Phys. 58
No.3 209 (1990).
[20] R. Jackiw, Introducing Scale Symmetry, Phys. Today 25 (1), 23 (1972).
[21] V. de Alfaro, S. Fubini, G. Furlan, Conformal Invariance in Quantum
Mechanics, Nuovo Cimento A 34, 569 (1976).
[22] M. Jacobs, Diffusion Processes, Springer, New York, (1967).
[23] R. P. Feynman y A. R. Hibbs, Quantum Mechanics and Path Integrals,
McGraw-Hill (1965).
[24] F. Black and M. Scholes, The pricing options and corporate liabilities,
Journal of Political Economy 81 (1973), 637-659.
[25] R. C. Merton, Theory of Rational Option Pricing, Bell J. Econ. and Management Sci. 4 (1973) 141-183.
[26] F. Venegas, Riesgos financieros y economicos, Cengage Learling Editores
(2008).

338

You might also like