You are on page 1of 36

UNIVERSIDAD DE CHILE

facultad de ciencias fisicas y matematicas


departamento de ingenieria matematica
II ESCUELA DE VERANO MECESUP 2002
CALCULO DE VARIACIONES
Felipe Alvarez
(T)
_

_
mn
T
_
0
L(x(t), x(t))dt,
x(0) = x
0
, x(T) = x
1
.
Diciembre 2002
2

Indice general
1. Introduccion 5
1.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . 5
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Denicion de solucion optima . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Problemas variacionales sin solucion . . . . . . . . . . . . . . . . . . . 8
2. El metodo directo del calculo de variaciones 13
2.1. Sucesiones minimizantes . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. La condicion de crecimiento y compacidad . . . . . . . . . . . . . . . 13
2.3. Primer teorema de existencia: caso separable . . . . . . . . . . . . . . 16
2.4. Segundo teorema de existencia: caso regular . . . . . . . . . . . . . . 18
3. Ecuaciones de Euler-Lagrange: caso diferenciable 21
3.1. Condiciones necesarias de primer orden . . . . . . . . . . . . . . . . . 21
3.2. Resultados tecnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4. Regularidad de las soluciones optimas 27
4.1. Regularidad de tipo Lipschitz . . . . . . . . . . . . . . . . . . . . . . 27
4.2. Demostracion del resultado de regularidad . . . . . . . . . . . . . . . 28
5. Ecuaciones de Euler-Lagrange: caso Lipschitz 33
5.1. Ecuaciones de Euler-Lagrange generalizadas . . . . . . . . . . . . . . 33
5.2. Ejemplo: dinamica de una partcula . . . . . . . . . . . . . . . . . . . 35
6. Ejercicios 37
Bibliografa 39
3
4

INDICE GENERAL
Captulo 1
Introduccion
Estos apuntes tienen como objetivo introducir los conceptos y metodos basicos del
calculo de variaciones a traves del estudio de la siguiente clase particular de problemas
variacionales:
(T)
_

_
mn
T
_
0
L(x(t), x(t))dt
x(0) = x
0
, x(T) = x
1
,
donde L : R
N
R
N
R es una funcion sucientemente regular. Estudiaremos tanto
la existencia y regularidad de las soluciones de (T) como las condiciones necesarias
de primer orden que estas soluciones deben satisfacer, con un enfasis especial en las
herramientas del analisis funcional que son utiles para un tratamiento riguroso de la
teora.
1.1. Funcionales y problemas variacionales
Diversos problemas en matematicas puras y aplicadas consisten en determinar
una funcion que minimice alg un criterio, costo o energa, sujeto a ciertas restricciones.
Tpicamente, en estos problemas el criterio a optimizar viene dado por una corres-
pondencia que a cada funcion perteneciente a alguna clase o conjunto de funciones
le asigna un unico n umero real, el cual tiene alguna interpretacion geometrica, fsica
o economica. Llamaremos funcional a toda correspondencia de este tipo y problema
variacional al problema de optimizacion asociado.
Para dar un contexto mas preciso a lo anterior, denotemos por C
1
(a, b; R
N
) la
clase de todas las funciones x : [a, b] R
N
que son continuamente diferenciables en
el intervalo [a, b]. En todo lo que sigue, nos concentraremos en funcionales del tipo
J : C
1
(a, b; R
N
) R
x J(x) =
b
_
a
L(x(t), x(t))dt,
5
6 CAP

ITULO 1. INTRODUCCI

ON
para alguna funcion
L : R
N
R
N
R
(x, y) L(x, y),
la que supondremos sucientemente regular (al menos continua).
1.2. Ejemplos
Ejemplo 1.2.1 (Camino mas corto) Encontrar la curva plana mas corta que une
dos puntos A = (x
0
, y
0
) y B = (x
1
, y
1
), i.e. encontrar la curva y = y(x) que minimice
el funcional
J(y) =
x
1
_
x
0
_
1 +y

(x)
2
dx
bajo la restriccion
y(x
0
) = y
0
, y(x
1
) = y
1
.
Ejemplo 1.2.2 (Braquistocrona) Partiendo de un punto A = (x
0
, y
0
), una partcu-
la con peso se desliza bajo la inuencia de la gravedad sobre una curva que une A
con otro punto B = (x
1
, y
1
) tal que y
0
> y
1
. El tiempo que le toma a la partcula
recorrer este camino depende de la curva recorrida y por lo tanto la correspondencia
que a cada curva regular le asocia el tiempo necesario para recorrerla es un funcional.
La curva de tiempo mnimo se conoce como la braquistocrona. Para modelar este pro-
blema, sea y C
1
(x
0
, x
1
) una funcion de modo tal que la trayectoria de la partcula
satisface y(t) = y(x(t)). Tenemos que la rapidez de la partcula satisface
v(t) =
ds
dt
=
ds
dx

dx
dt
=
_
1 +y
2
dx
dt
.
Por otra parte, suponiendo que la partcula inicia su movimiento desde el reposo
(v(0) = 0) tenemos que por conservacion de la energa:
1
2
mv
2
+ mgy = mgy
0
v =
_
2g(y
0
y)
As, al menos formalmente,
dt =
_
1 +y
2
_
2g(y
0
y)
dx,
de modo que el tiempo de recorrido a minimizar esta dado por
T =
x
1
_
x
0
_
1 +y
2
_
2g(y
0
y)
dx.
sujeto a
y(x
0
) = y
0
, y(x
1
) = y
1
.
1.3. DEFINICI

ON DE SOLUCI

ON

OPTIMA 7
Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la op-
cion, a cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y el
consumo del individuo en el instante t respectivamente. Suponemos ademas que una
funcion f = f(x) representa la produccion de capital y una funcion u = u(c), llamada
funcion de utilidad, describe el benecio instantaneo del individuo ante un consumo
dado por c. Luego, en un horizonte [0, T], el individuo busca maximizar la utilidad
esperada, esto es
_

_
max
T
_
0
u(c(t))dt
dx
dt
(t) = f(x(t)) c(t)
x(0) = x
0
(capital inicial)
x(T) = x
1
(capital nal)
o equivalentemente
_

_
mn
T
_
0
u(f(x(t)) x(t))dt
x(0) = x
0
, x(T) = x
1
.
1.3. Denicion de solucion optima
Nos concentraremos en problemas variacionales autonomos, es decir, problemas
donde la variable independiente, digamos t, no aparece explcitamente en el criterio
a minimizar. Mas precisamente, consideraremos un problema del tipo
(T)
_

_
mn
T
_
0
L(x(t), x(t))dt
x(0) = x
0
, x(T) = x
1
,
donde
L : R
N
R
N
R
es una funcion continua.
Para esta clase de problemas no siempre es posible asegurar la existencia de so-
luciones en C
1
(0, T; R
N
). Trabajaremos en la clase AC(0, T; R
N
) de las funciones
absolutamente continuas denidas en el intervalo [0, T] y a valores en R
N
, es decir
AC(0, T; R
N
) = x : [0, T] R
N
[y L
1
(0, T; R
N
), x(t) = x
0
+
_
t
0
y(s)ds.
Dada x AC(0, T; R
N
), denotamos simplemente por x a la funcion y L
1
(0, T; R
N
)
correspondiente. Evidentemente, C
1
(0, T; R
N
) AC(0, T; R
N
). Denamos
nf(T) =nf
_
T
0
L(x(t), x(t))dt[x AC(0, T; R
N
), x(0) = x
0
, x(T) = x
1
.
8 CAP

ITULO 1. INTRODUCCI

ON
Denicion 1.3.1 Toda funcion x AC(0, T; R
N
) tal que x(0) = x
0
y x(T) = x
1
se
dice que es factible para (T). Se dice que x AC(0, T; R
N
) es una solucion de (T)
si junto con ser factible satisface
T
_
0
L( x(t),

x(t))dt =nf(T).
Si ademas x C
1
(0, T; R
N
), diremos que x es una solucion regular de (T).
Se tiene que nf(T) < + y mas a un, tomando la funcion factible
x(t) = x
0
+
t
T
(x
1
x
0
),
se deduce que
nf(T) T sup
x[x
0
,x
1
]
L(x, (x
1
x
0
)/T),
y este supremo no solo es nito sino que ademas se alcanza, de modo que se trata de
un maximo, en virtud de la continuidad de x L(x, (x
1
x
0
)/T).
Cuando nf(T) R, sin condiciones adicionales sobre L, el problema (T) puede
no tener soluciones optimas. A continuacion veremos dos ejemplos en este sentido.
1.4. Problemas variacionales sin solucion
Ejemplo 1.4.1 Crecimiento lineal. Consideremos el problema variacional
(T
1
)
_

_
mn
1
_
0
[
1
2
x(t)
2
+[ x(t)[]dt
x(0) = 0, x(1) = 1
Aqu, N = 1 y
L(x, y) =
1
2
x
2
+[y[.
Notemos que para cada funcion factible se tiene
1
_
0
x(t)dt = x(1) x(0) = 1,
y en consecuencia
1
_
0
[ x(t)[dt 1.
Por otra parte,
1
_
0
x(t)
2
dt 0 y mas a un, dado que x es continua y x(1) = 1 > 0,
necesariamente
1
_
0
x(t)
2
dt > 0.
1.4. PROBLEMAS VARIACIONALES SIN SOLUCI

ON 9
En conclusion, para cada funcion factible,
1
_
0
[
1
2
x(t)
2
+[ x(t)[]dt > 1, (1.1)
y por lo tanto nf(T
1
) 1. Veremos que nf(T
1
) = 1, lo que junto con (1.1) prueba
que (T
1
) no admite solucion. Con este n, consideremos la sucesion x
n
AC(0, 1; R)
denida por
x
n
(t) =
_
_
_
0 si 0 t 1
1
n
,
n(t 1 +
1
n
) si 1
1
n
t 1.
Tenemos que para todo n 1, x
n
(0) = 0 y x
n
(1) = 1. Mas a un,
1
_
0
L(x
n
(t), x
n
(t))dt =
1
_
11/n
1
2
n
2
(t 1 +
1
n
)
2
dt +
1
_
1
1
n
ndt
=
n
2
6
(t 1 +
1
n
)
3

t=1
t=11/n
+ 1
=
1
6n
+ 1 1
En conclusion, nf(T
1
) = 1 y este valor no es alcanzado.
El ejemplo 1.4.1 es un caso tpico de un fenomeno de concentracion: puntualmente
la sucesion minimizante converge
x
n
(t)
n
_
0 si 0 t < 1,
1 si t = 1,
pero el lmite no es continuo de modo que no pertenece a AC(0, 1). Finalmente,
notemos que L(x, x) =
1
2
x + [ x[ tiene un crecimiento lineal en x. Veremos que en
cierto sentido, esta es la razon por la cual (T
1
) no admite solucion.
Ejemplo 1.4.2 Falta de convexidad. Consideremos ahora el problema variacional
dado por
(T
2
)
_

_
mn
1
_
0
[
1
2
x(t)
2
+ (1 x(t)
2
)
2
]dt
x(0) = 0 = x(1).
Nuevamente N = 1, y tenemos
L(x, y) =
1
2
x
2
+ (1 y
2
)
2
.
Observemos que en este caso L(x, y) crece superlinealmente en y, mas precisamente,
y L(x, y) se comporta como como y
4
cuando [y[ +.
10 CAP

ITULO 1. INTRODUCCI

ON
Obviamente, nf(T
2
) 0. Dado n 1, consideremos la funcion denida por
x
n
(t) = (1)
k
_
1
2n
[t
(2k + 1)
2n
[
_
si [t
2k + 1
2n
[
1
2n
, 0 k n 1.
Notemos que x
n
(0) = x
n
(1) = 0, x
n
(t) = 1 y [x
n
(t)[
1
2n
. En particular, x
n
(t) 0
uniformemente en [0, 1]. Tenemos que
1
_
0
[
1
2
x
n
(t)
2
+ (1 x
n
(t)
2
)
2
. .
0
]dt =
1
_
0
1
2
x
n
(t)
2
dt
= n
_ 1
2n
0
t
2
dt =
n
3
t
3
[
t=
1
2n
t=0
=
n
3

1
8n
3
=
1
24n
2
0.
Por lo tanto, nf(T
2
) = 0. Si este valor fuese alcanzado por una funcion x en AC(0, 1)
entonces se tendra
0 =
1
_
0
[
1
2
x(t)
2
+ (1

x(t)
2
)
2
]dt x(t) = 0 c.t.p. t [0, 1]

x(t)[ = 1 c.t.p. t [0, 1]


lo que es imposible. En consecuencia, (T
2
) no admite solucion.
El ejemplo 1.4.2 ilustra un fenomeno de oscilacion. Observemos que la funcion
L(x, y) no es convexa en y; de hecho, y L(x, y) tiene dos mnimos locales estrictos
en y = 1 e y = 1. Intuitivamente, la sucesion minimizante (ver la denicion 2.1.1)
es tal que x
n
oscila entre ambos valores mnimos, lo que explicara la no existencia
de soluciones.
En el siguiente captulo veremos que para asegurar la existencia de soluciones,
junto con cierta regularidad de L(x, y), bastara con suponer sobre y L(x, y):
Una condicion de crecimiento.
Una condicion de convexidad.
Captulo 2
El metodo directo del calculo de
variaciones
2.1. Sucesiones minimizantes
Denicion 2.1.1 Una sucesion (x
n
) AC(0, T; R
N
) se dice sucesion minimizante
para (T) si x
n
(0) = x
0
, x
n
(T) = x
1
y se tiene
lm
n+
T
_
0
L(x
n
(t), x
n
(t))dt =nf(T).
Notemos que siempre existe una sucesion minimizante. Para establecer la existen-
cia de soluciones consideraremos la siguiente estrategia: tomar una sucesion minimi-
zante y probar que, pasando a una subsucesion, converge a una solucion.
Para poder extraer una subsucesion convergente de una sucesion minimizante,
necesitamos una propiedad de compacidad.
2.2. La condicion de crecimiento y compacidad
Dada una constante p (1, +), supondremos que L(x, y) satisface la siguiente
condicion de crecimiento:
(c
p
) Existen constantes a R y b > 0 tales que
(x, y) R
N
R
N
, L(x, y) a + b|y|
p
.
Dado que p > 1, se dice que el crecimiento de y L(x, y) es superlineal. El ca-
so p = + puede permitirse, signicando que existe una constante C > 0 tal que
|y| C, lo que se interpreta como una restriccion sobre x implcita en la denicion de
L. Sin embargo, para simplicar la exposicion nos restringiremos al caso p (1, +).
11
12 CAP

ITULO 2. EL M

ETODO DIRECTO DEL C

ALCULO DE VARIACIONES
Notemos que la condicion de crecimiento (c
p
) permite asegurar que nf(T) R
pues de esta se deduce que
nf(T) aT > ,
y ya sabamos que nf(T) < +.
Lema 2.2.1 Bajo (c
p
), si (x
n
) es una sucesion minimizante para (T) entonces ( x
n
)
es acotada en L
p
(0, T; R
N
), es decir, existe una constante C 0 tal que n N,
| x
n
|
L
p C.
Demostracion. Sin perdida de generalidad podemos suponer que
n 1,
T
_
0
L(x
n
(t), x
n
(t))dt nf(T) + 1.
Por (c
p
), aT + b
_
T
0
| x
n
(t)|
p
dt nf(T) + 1. As
| x
n
|
p
L
p
nf(T) + 1 aT
b
=: K
es decir | x
n
|
L
p K
1/p
.
Proposicion 2.2.1 Supongamos que se tiene (c
p
). Si (x
n
) es una sucesion minimi-
zante para (T) entonces existe una funcion x AC(0, T; R
N
), factible para (T), y
una subsucesion (x
n
k
) tales que:
(i) x
n
k
x uniformemente en [0, T].
(ii) x
n
k


x debilmente en L
p
(0, T; R
N
).
Demostracion. Dividimos la demostracion en dos etapas.
Etapa 1. Denicion de x. Como p (1, +), L
p
(0, T; R
N
) resulta ser una espacio
de Banach reexivo y por lo tanto la bola unitaria es debilmente compacta. Luego,
por el lema 2.2.1, existe una subsucesion x
n
k
tal que x
n
k
y cuando k + para
alg un y L
p
(0, T; R
N
). Esto equivale a
L
q
(0, T; R
N
), x
k
, )
L
p
,L
q
k+
y, )
L
p
,L
q en R,
donde q (1, +) satisface
1
p
+
1
q
= 1.
Mas explcitamente, para todo L
q
(0, T; R
N
) se tiene
T
_
0
x
n
k
(t)(t)dt
T
_
0
y(t)(t)dt.
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13
Es natural denir x AC(0, T; R
N
) por medio de
x(t) = x
0
+
t
_
0
y(s)ds, (2.1)
de modo tal que y =

x c.t.p. en [0, T].
Etapa 2. Convergencia uniforme. Comencemos por vericar la convergencia puntual
de (x
n
k
) hacia la funcion x denida por (2.1). Dado t [0, T] jo, tenemos que
x
n
k
(t) = x
0
+
t
_
0
x
n
k
(s)ds
= x
0
+
T
_
0
x
n
k
(s)1
[0,t]
(s)ds
= x
0
+ x
n
k
, 1
[0,t]
)
L
p
,L
q ,
lo que junto con la convergencia debil de ( x
n
k
) a y asegura que
x
n
k
(t) x
0
+ y, 1
[0,t]
)
L
p
,L
q
= x
0
+
t
_
0
y(s)ds
= x(t).
Para la convergencia uniforme, en virtud del teorema de Arzela-Ascoli basta probar
que (x
n
) es equicontinua
1
. Sean t
1
, t
2
[0, T] con t
1
> t
2
. Escribamos
x
n
(t
2
) x
n
(t
1
) =
t
2
_
t
1
x
n
(s)ds =
T
_
0
1
[t
1
,t
2
]
(s) x
n
(s)ds.
Por la desigualdad de Holder y el lema 2.2.1
|x
n
(t
2
) x
n
(t
1
)| |1
[t
1
,t
2
]
|
L
q | x
n
|
L
p (t
2
t
1
)
1/q
C,
lo que prueba la equicontinuidad de la familia (x
n
).
2.3. Primer teorema de existencia: caso separable
En esta seccion suponemos que
L(x, y) = g(x) + f(y), x, y R
N
,
donde
(a) f y g son continuas.
(b) L satisface (c
p
).
1
El teorema de Arzela-Ascoli junto con equicontinuidad tiene como consecuencia que la conver-
gencia simple o puntual implica la uniforme.
14 CAP

ITULO 2. EL M

ETODO DIRECTO DEL C

ALCULO DE VARIACIONES
(c) f es convexa.
Observemos que asumir (b) equivale a suponer que g es acotada inferiormente, es
decir nf
xR
N
g(x) > , y que f satisface (c
p
).
Teorema 2.3.1 Bajo las condiciones anteriores, (T) admite al menos una solucion.
Demostracion. Sea (x
n
) una sucesion minimizante para (T). Por la proposicion
2.2.1, es posible extraer una subsucesion (x
n
k
) y encontrar x AC(0, T; R
N
) tales
que x(0) = x
0
, x(T) = x
1
y
x
n
k
x uniformemente en [0, T],
x
n
k


x debilmente en L
p
(0, T; R
N
).
Queremos probar que
T
_
0
L( x(t),

x(t))dt =
T
_
0
g( x(t))dt +
T
_
0
f(

x(t))dt =nf(T).
Por la denicion de sucesion minimizante, sabemos que
T
_
0
g(x
n
k
(t))dt +
T
_
0
f( x
n
k
(t))dt =
T
_
0
L(x
n
k
(t), x
n
k
(t))dt nf(T).
De la convergencia uniforme de (x
n
k
) y la continuidad de g deducimos que se tiene
lm
k
T
_
0
g(x
n
k
(t))dt =
T
_
0
g( x(t))dt.
Para estudiar la convergencia del segundo termino, denamos
F(y) =
T
_
0
f(y(t))dt, y L
p
(0, T; R
N
). (2.2)
Notemos que por (c
p
) necesariamente F(y) > para todo y L
p
(0, T; R
N
); sin
embargo, podra tenerse F(y) = + para alg un y L
p
(0, T; R
N
) pues no hemos
supuesto ning un tipo de comportamiento por arribadel integrando f(y).
Proposicion 2.3.1 Si f : R
N
R es continua y acotada inferiormente (nf f >
) entonces la funcion F : L
p
(0, T; R
N
) R + denida por (2.2) es se-
micontinua inferiormente, es decir, para toda sucesion y
n
y en L
p
(0, T; R
N
) se
tiene
F(y) lminf
n
F(y
n
).
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 15
Posterguemos por un momento la demostracion de la proposicion 2.3.1. Notemos
que no podemos aplicar directamente este resultado a nuestro caso pues solo tenemos
x
n
k


x debilmente en L
p
(0, T; R
N
). Sin embargo, de la convexidad de f se deduce
que F es una funcion convexa. Recordando que en un espacio de Banach reexivo, las
funciones convexas y semicontinuas inferiormente para la topologa fuerte tambien lo
son para la topologa debil, deducimos que F es semicontinua inferiormente para la
topologa debil en L
p
(0, T; R
N
). Por lo tanto,
F(

x) lminf
k
F( x
n
k
),
y en consecuencia
T
_
0
g( x(t))dt +
T
_
0
f(

x(t))dt nf(T).
Dado que x es factible para (T), la otra desigualdad siempre se tiene, y entonces x
es solucion de (T).
Demostracion de la proposicion 2.3.1. Recordemos el siguiente resultado funda-
mental de la teora de la medida:
Lema 2.3.1 (Fatou) Sea f
n
: [0, T] R una sucesion de funciones medibles tal que
f
n
0 para todo n 0. Entonces
lminf
n
T
_
0
f
n
(t)dt
T
_
0
lminf
n
f
n
(t)dt.
El lema de Fatou es valido si (f
n
) es acotada inferiormente de manera uniforme, i.e.
R, n 0, f
n
, pues basta aplicar el resultado anterior a

f
n
= f
n
+ .
Para probar la proposicion 2.3.1, razonemos por contradiccion. Supongamos que existe
una sucesion (y
n
) L
p
(0, T; R
N
) que converge fuertemente a un y L
p
(0, T; R
N
) y
que se tiene
lminf
n
F(y
n
) < F(y). (2.3)
Podemos extraer una subsucesion (y
n
k
) tal que
lm
k
F(y
n
k
) = lminf
n
F(y
n
).
Dado que y
n
y en L
p
(0, T; R
N
), podemos extraer a su vez una nueva subsucesion
(y
n
k
j
) tal que y
n
k
j
(t) y(t) para c.t.p. t [0, T]. Sea f
j
(t) = f(y
n
k
j
(t)). Como
nf f > , (f
j
) es acotada inferiormente. Ademas, f
j
(t) f(y(t)) c.t.p. en [0, T]
en virtud de la continuidad de f. Luego
F(y) =
T
_
0
f(y(t))dt =
T
_
0
lm
j
f
j
(t)dt lminf
j
T
_
0
f
j
(t)dt = lminf
j
F(y
n
k
j
)
= lm
k
F(y
n
k
)
= lminf
n
F(y
n
),
donde la desigualdad se tiene por el lema de Fatou, contradiciendo as (2.3).
16 CAP

ITULO 2. EL M

ETODO DIRECTO DEL C

ALCULO DE VARIACIONES
2.4. Segundo teorema de existencia: caso regular
Teorema 2.4.1 Supongamos que
(a) L C(R
N
R
N
; R) y
L
y
i
C(R
N
R
N
; R).
(b) L satisface (c
p
).
(c) y L(x, y) es convexa.
Entonces (T) admite al menos una solucion.
Demostracion. Por la proposicion 2.2.1, sabemos que existe una sucesion minimi-
zante (x
n
) para (T) y una funcion x factible para (T) tales que
(i) lm
n
T
_
0
L(x
n
, x) =nf(T).
(ii) C 0 tal que n N, | x
n
|
L
p C.
(iii) x
n
x uniformemente en [0, T]
(iv) x
n


x debilmente en L
p
(0, T; R
N
)
Recordemos el siguiente resultado de la teora de la medida.
Teorema 2.4.2 (Lusin) Sea f L
1
(0, T; R
N
). Entonces, > 0, / [0, T] com-
pacto tal que:
(1) /
1
([0, T] /) , donde /
1
es la medida de Lebesgue en R.
(2) f es continua en /.
Sin perdida de generalidad, podemos suponer que L(x, y) 0 (sino basta con reempla-
zar L(x, y) por L(x, y) a donde a es la constante que aparece en (c
p
)). Supongamos
que
T
_
0
L( x,

x)dt < +.
Luego,
(A) =
_
A
L( x,

x)dt
es una medida positiva y nita sobre los borelianos que resulta ser absolutamente
continua con respecto a /
1
. Por el teorema de Lusin, dado > 0 existe un compacto
/ [0, T] tal que x y

x son continuas en / y ademas
_
K
L( x,

x)dt
T
_
0
L( x,

x)dt .
2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17
(en el caso
_
K
L( x,

x)dt = +, para cada M > 0 podemos escoger / de modo tal que
_
K
L( x,

x)dt M).
Por convexidad de y L(x, y), tenemos que
_
K
L(x
n
, x
n
)dt
_
K
[L(x
n
,

x) +
L
y
(x
n
,

x)( x
n


x)]dt
Luego
_
K
L(x
n
, x
n
)dt
_
K
[L(x
n
,

x) +
L
y
( x,

x)( x
n


x) + (
L
y
(x
n
,

x)
L
y
( x,

x))( x
n


x)]dt
Estudiemos la convergencia de cada uno de estos terminos. Como x
n
x uniforme-
mente y L es continuo, tenemos que
lm
n
_
K
L(x
n
,

x) =
_
K
L( x,

x).
Por otra parte, la convergencia debil x
n


x junto con la continuidad de
L
y
y la de
x y

x en / permiten asegurar que
lm
n
_
K
L
y
( x,

x)( x
n


x) = 0.
Finalmente, de la convergencia uniforme de x
n
x junto con el acotamiento uniforme
de las normas L
p
de x
n
y

x, y la continuidad de
L
y
, se deduce que
lm
n
_
K
(
L
y
(x
n
,

x)
L
y
( x,

x))( x
n


x) = 0.
Luego
nf(T) = lm
n
T
_
0
L(x
n
, x
n
)dt lminf
n
_
K
L(x
n
, x
n
)dt
_
K
L( x,

x)dt

T
_
0
L( x,

x) .
Como > 0 es arbitrario, se deduce el resultado.
18 CAP

ITULO 2. EL M

ETODO DIRECTO DEL C

ALCULO DE VARIACIONES
Captulo 3
Ecuaciones de Euler-Lagrange:
caso diferenciable
3.1. Condiciones necesarias de primer orden
Una vez demostrada la existencia de una solucion, nos interesa poder caracterizarla
mediante una ecuacion, ya sea con el n de obtener un metodo para calcularla o bien
para deducir mas propiedades sobre la solucion a partir de la ecuacion. El objetivo
de este captulo es probar el siguiente resultado:
Teorema 3.1.1 Supongamos que L C
1
(R
N
R
N
; R). Si x C
1
(0, T; R
N
) es una
solucion regular de (T) entonces
L
y
( x(t),

x(t)) es diferenciable y mas a un
d
dt
L
y
( x(t),

x(t)) =
L
x
( x(t),

x(t)), t [0, T]. (3.1)
Observemos que (3.1) es una ecuacion diferencial de segundo orden para x, la cual
se conoce como la ecuacion de Euler-Lagrange de (T).
Para establecer este resultado, la idea es perturbar la solucion x. Consideremos
una funcion h C
1
(0, T, R
N
) tal que
h(0) = h(T) = 0.
Denamos
() = J( x + h), R.
donde
J(x) =
T
_
0
L(x(t), x(t))dt.
Observemos que la funcion
x

(t) = x(t) + h(t)


19
20CAP

ITULO 3. ECUACIONES DE EULER-LAGRANGE: CASODIFERENCIABLE


es factible para el problema (T) pues x

C
1
(0, T; R
N
), x(0) = x(0) = 0 y x

(T) =
x(T) = x
1
. De este modo, por optimalidad de x para (T), deducimos que
R, (0) (),
de modo que 0 es un mnimo de . Si es diferenciable entonces debe satisfacerse la
condicion necesaria de optimalidad

(0) = 0.
Como L, x y h son de clase C
1
, tenemos que

(0) =
d
d
J( x + h)[
=0
=
d
d
T
_
0
L(x

(t), x

(t))dt[
=0
=
T
_
0
d
d
[L( x(t) + h(t),

x(t) +

h(t))][
=0
dt
=
T
_
0
[
L
x
( x(t),

x(t))h(t) +
L
y
( x(t),

x(t))

h(t)]dt.
Luego, para todo h C
1
(0, T; R
N
) tal que h(0) = h(T) = 0 se tiene
T
_
0
[
L
x
( x(t),

x(t))h(t) +
L
y
( x(t),

x(t))

h(t)]dt = 0 (3.2)
Para deducir de aqu la ecuacion de Euler-Lagrange (3.1), basta con justicar una
integracion por partes mas un argumento de localizacion. Con este n, necesitamos
algunos resultados tecnicos.
3.2. Resultados tecnicos
Lema 3.2.1 Sea c C(a, b) tal que
b
_
a
c(t)h(t)dt = 0
para toda funcion h C(a, b) con h(a) = h(b) = 0. Entonces, c 0 en [a, b].
Demostracion. Dado n 1, denamos la funcion

n
(t) =
_
_
_
n(t a) si a t a + 1/n,
1 si a + 1/n t b 1/n,
n(b t) si b 1/n t b.
Tomando h
n
=
n
c se tiene h
n
C(a, b) y h
n
(a) = h
n
(b) = 0. Luego
n 0,
b
_
a
c(t)h
n
(t)dt = 0
3.2. RESULTADOS T

ECNICOS 21
Por ota parte, ch
n
=
n
c
2
c
2
y, por el teorema de la convergencia dominada, se
obtiene
0 = lm
n
b
_
a
c(t)h
n
(t)dt =
b
_
a
c
2
(t)dt.
Por lo tanto, c = 0 para c.t.p. t [a, b], y como c es continua, c 0 en [a, b].
Lema 3.2.2 Sea c C(a, b) tal que
b
_
a
c(t)

h(t)dt = 0
para toda funcion h C
1
(a, b) con h(a) = h(b) = 0. Entonces, existe una constante
c R tal que c c en [a, b].
Demostracion. Sea
c =
1
b a
b
_
a
c(t)dt
y consideremos
h(t) =
t
_
a
[c() c]d,
funcion que satisface h(a) = h(b) = 0 y ademas h C
1
(a, b). En consecuencia
0 =
b
_
a
c(t)

h(t)dt =
b
_
a
c(t)[c(t) c]dt.
Como
b
_
a
c[c(t) c]dt = c(b a)c c
2
(b a) = 0,
deducimos que
b
_
a
[c(t) c]
2
dt = 0.
Luego, c(t) = c c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c c
en [a, b].
22CAP

ITULO 3. ECUACIONES DE EULER-LAGRANGE: CASODIFERENCIABLE


Proposicion 3.2.1 Sean c, d C(a, b) tales que
b
_
a
[c(t)h(t)dt + d(t)

h(t)]dt = 0
para todo h C
1
(a, b) con h(a) = h(b) = 0. Entonces d C
1
(a, b) y mas a un

d = c.
Demostracion. Aplicaremos integracion por partes. Sea
A(t) =
t
_
a
c()d.
Entonces, para todo h C
1
(a, b) con h(a) = h(b) = 0 se obtiene
b
_
a
c(t)h(t)dt = A(t)h(t)[
b
a

b
_
a
A(t)

h(t)dt =
b
_
a
A(t)

h(t)dt,
y en consecuencia
b
_
a
[A(t) + d(t)]

h(t)dt = 0.
Por el lema 3.2.2, existe c R tal que
d(t) = A(t) + c,
y en particular

d(t) =

A(t) = c(t),
lo que prueba el resultado.
3.3. Conclusion
Aplicando la proposicion 3.2.1 a (3.2) se deduce la conclusion del teorema 3.1.1.
Notemos que tal como han sido expuestas, existe una brecha entre la teora de
existencia y la de condiciones necesarias. La primera solo proporciona soluciones
x AC(0, T; R
N
), de modo tal que solo podemos asegurar

x L
1
(0, T; R
N
). En
realidad, se tiene un poco mas:

x L
1
(0, T; R
N
) con p > 1 asociado a la condicion de
crecimiento (c
p
). Por otra parte, para deducir las ecuaciones de Euler-Lagrange, asu-
mimos que x C
1
(0, T; R
N
), de modo tal que no podemos aplicar el ultimo teorema
a las soluciones que se obtienen a partir del metodo directo.
Para cerrar esta brecha, es necesario desarrollar una tercera teora concerniente a
la regularidad de las soluciones de (T). Ese es el objetivo del siguiente captulo.
Captulo 4
Regularidad de las soluciones
optimas
4.1. Regularidad de tipo Lipschitz
Con el n de cerrar la brecha entre la teora de existencia va el metodo directo y la
de condiciones necesarias de tipo Euler-Lagrange probaremos el siguiente resultado:
Teorema 4.1.1 Supongamos que L C
1
(R
N
R
N
; R) y satisface (c
p
) para alg un
p > 1. Entonces toda solucion x de (T) es Lipschitz, es decir, existe una constante
M
0
0 tal que
|

x(t)| M
0
c.t.p. t [a, b].
La idea de la demostracion es la siguiente: tomemos m < M dos constantes y
denamos los conjuntos

m
= t [0, T] [ |

x(t)| m
L
M
= t [0, T] [ |

x(t)| M.
Intuitivamente, en
m
la trayectoria x(t) se mueve lentamentemientras que en L
M
lo hace mas rapido. La idea es construir una trayectoria x
M
(t) que se mueva mas
rapido que x(t) en
m
y mas lento que x(t) en L
M
, y que mas a un
T
_
0
L(x
M
(t), x
M
(t))dt <
T
_
0
L( x(t),

x(t))dt
para M sucientemente grande, siempre que /
1
(L
M
) > 0, donde /
1
es la medida de
Lebesgue en R. Esta ultima desigualdad contradice la optimalidad de x, por lo que
necesariamente se tendra /
1
(L
M
) = 0 para todo M M
0
a partir de cierto M
0
, lo
que prueba el caracter Lipschitz de x.
4.2. Demostracion del resultado de regularidad
Procederemos por etapas. Para simplicar, supondremos sin perdida de generali-
dad que la condicion de crecimiento (c
p
) se tiene con a = 0 y b = 1.
23
24 CAP

ITULO 4. REGULARIDAD DE LAS SOLUCIONES



OPTIMAS
Etapa 1. Escoger un valor para m.
Dado m > 0, tenemos que
mn(T) =
T
_
0
L( x,

x)dt =
_
m
L( x,

x)dt +
_
[0,T]\m
L( x,

x)dt

_
[0,T]\m
|

x|
p
dt /
1
([0, T]
m
)m
p
= (T /
1
(
m
))m
p
.
Luego
/
1
(
m
) T
mn(T)
m
p
.
Tomando m sucientemente grande, podemos suponer que
/
1
(
m
)
T
2
. (4.1)
Etapa 2. Construccion de una reparametrizacion temporal.
Sea M > m, donde m es tal que se tiene (4.1). Denamos

M
: [0, T] [0, T]
tal que
M
(0) = 0 y ademas
d
M
dt
(t) = |

x(t)| en L
M
,
d
M
dt
(t) = 1 en [0, T] (L
M

m
),
d
M
dt
(t) = r
M
en
m
,
donde r
M
> 0 se ajusta de modo tal que
M
(T) = T. Mas precisamente
T =
M
(T) = 0 +
T
_
0
d
M
dt
(t)dt
=
_
L
M
|

x(t)|dt +
_
[0,T]\(L
M
m)
dt + r
M
_
m
dt.
Como T =
T
_
0
1dt, deducimos que
_
L
M
(|

x(t)| 1)dt +
_
m
(r
M
1)dt = 0,
4.2. DEMOSTRACI

ON DEL RESULTADO DE REGULARIDAD 25


es decir
_
L
M
(|

x(t)| 1)dt = (1 r
M
)/
1
(
m
).
Podemos suponer que M > 1 y, como |

x(t)| M en L
M
tenemos que necesariamente,
r
M
< 1
Por otra parte, si M + entonces
_
L
M
(|

x(t)| 1)dt 0 (de otra forma,



x /
L
1
(0, T; R
N
)). Luego, tomando M > m sucientemente grande podemos suponer que
1
2
r
M
< 1.
Etapa 3. Denicion de x
M
y consecuencias.
Denamos
x
M
(s) = x(
1
M
(s)), s [0, T].
Como x es optimo, sabemos que
T
_
0
L(x
M
, x
M
)ds
T
_
0
L( x,

x)dt. (4.2)
Ahora bien
dx
M
ds
(s) =
d x
dt
(
1
M
(s))
d
1
M
ds
(s).
Sea el cambio de variables

M
(t) = s,
de modo tal que
d
1
M
ds
(s) =
1
d
M
dt
(t)
.
As
T
_
0
L(x
M
, x
M
)ds =
T
_
0
L(x
M
(s),
d x
dt
(
1
M
(s))/
d
M
dt
(
1
M
(s)))ds
=
T
_
0
L( x(t),
d x
dt
(t)/
d
M
dt
(t))
d
M
dt
(t)dt
=
_
m
L( x,
1
r
M

x)r
M
dt +
_
L
M
L( x,

x
|

x|
)|

x|dt +
_
[0,T]\(L
M
m)
L( x,

x)dt.
26 CAP

ITULO 4. REGULARIDAD DE LAS SOLUCIONES



OPTIMAS
Usando (4.2), deducimos que
_
m
[L( x,
1
r
M

x)r
M
L( x,

x)]dt +
_
L
M
[L( x,

x
|

x|
)|

x| L( x,

x)]dt 0.
Como x es acotada (por ser continua en [0, T]) y |

x

x
| = 1, entonces L( x,

x

x
) es aco-
tada superiormente (pues L es continua), lo que junto con la condicion de crecimiento
L(x, y) |y|
p
nos da
_
m
[L( x,
1
r
M

x)r
M
L( x,

x)]dt +
_
L
M
[C|

x| |

x|
p
]dt 0
para alguna constante C > 0. Por otra parte, como L es de clase C
1
tenemos
que es localmente Lipschitz, y en particular R > 0, K
R
, (x, y) R
N
R
N
,
max|x|, |y|, |y

| R [L(x, y) L(x, y

)[ K
R
|y y

|. Luego, como |

x(t)|
m en
m
, se tiene que tomando x = x(t) e y =

x(t) con t
m
entonces
L(x,
1
r
M
y)r
M
L(x, y) L(x,
1
r
M
y) L(x, y)
K
R
r
M
(1 r
M
)|y|,

r
M
< 1
para R maxmax x(t) [ t [0, T], 2m. Deducimos que
_
m
D(1 r
M
)dt +
_
L
M
[C| x| | x|
p
]dt 0
para algunas constantes C, D > 0. Pero de la etapa 2, sabemos que
(1 r
M
)/
1
(
m
) =
_
L
M
(|

x| 1)dt,
y en consecuencia, para todo M sucientemente grande,
_
L
M
[D(|

x(t)| 1) +C|

x(t)| |

x(t)|
p
]dt 0. (4.3)
Etapa 4. Conclusion.
Como p > 1, la funcion
(u) = (C + D)u D u
p
, u 0,
satisface
(u) < 0
para todo u sucientemente grande, digamos
u M
0
4.2. DEMOSTRACI

ON DEL RESULTADO DE REGULARIDAD 27


para una constante M
0
0, y dado que |

x| M en L
M
, entonces
_
L
M
0
(|

x(t)|)dt < 0
siempre que /
1
(L
M
0
) > 0, lo que contradecera la desigualdad (4.3). Por lo tanto,
M M
0
, /
1
(L
M
) = 0 y en particular |

x(t)| M
0
c.t.p. t [0, T].
28 CAP

ITULO 4. REGULARIDAD DE LAS SOLUCIONES



OPTIMAS
Captulo 5
Ecuaciones de Euler-Lagrange:
caso Lipschitz
En virtud de la regularidad Lipschitz de las soluciones optimas de (T) establecida
en el captulo 4, es posible obtener la version generalizada de las ecuaciones de Euler-
Lagrange.
5.1. Ecuaciones de Euler-Lagrange generalizadas
Teorema 5.1.1 Bajo las hipotesis del teorema 4.1.1, si x es una solucion de (T)
entonces la funcion
[0, T] t
L
y
( x(t),

x(t))
es diferencible c.t.p. en [0, T] y mas a un
d
dt
L
y
( x,

x) =
L
x
( x,

x) c.t.p. en [0, T]
Demostracion. Denamos las funciones
f(t) =
L
y
( x(t),

x(t)),
g(t) =
L
x
( x(t),

x(t)).
Como L es de clase C
1
y x es Lipschitz continua en virtud del teorema 4.1.1, dedu-
cimos que f y g son funciones acotadas.
Consideremos una funcion lipschitziana h : [0, T] R de la forma
h(t) =
_
t
0
(t)dt
con L

(0, T; R
N
) tal que
T
_
0
(t)dt = 0 (5.1)
29
30 CAP

ITULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ


de modo tal que h(0) = h(T) = 0. Razonando de manera analoga a lo realizado en la
seccion 3.1 para obtener (3.2), pero ahora asumiendo solo lipschitzianidad de x y h,
tenemos que
t
_
0
[f(t)

h(t) + g(t)h(t)]dt = 0. (5.2)


Esto ultimo se puede justicar utilizando el siguiente lema tecnico de la teora de la
medida que enunciamos sin demostracion (se trata de una consecuencia relativamente
sencilla del teorema de convergencia dominada):
Lema 5.1.1 Sea : R
k
R R una funcion tal que:
(i) R, (, ) L
1
(R
k
).
(ii) R
k
, (, ) C
1
(R).
(iii) g L
1
(R
k
), R,

(, )

g(x).
Entonces, la funcion
() =
_
R
k
(, )d
es de clase C
1
en R y mas a un

() =
_
R
k

(, )d.
Denamos
A(t) = f(t)
t
_
0
g(s)ds.
Una integracion por partes en (5.2) proporciona
t
_
0
A(t)

h(t)dt = 0,
o equivalentemente, para todo L

(0, T; R
N
) que satisface (5.1), se tiene
T
_
0
A(t)(t)dt = 0.
Sean ahora L
2
(0, T; R
N
) y
n
L
2
con
n
L

(0, T; R
N
) tales que
T
_
0

n
(t)dt = 0.
Entonces satisface (5.1) y ademas, dado que A L

(0, T; R
N
) L
2
(0, T; R
N
), se
tiene
T
_
0
A(t)(t)dt = A, )
L
2 = lm
n
A,
n
)
L
2 = lm
n
T
_
0
A(t)
n
(t)dt = 0.
5.2. EJEMPLO: DIN

AMICA DE UNA PART

ICULA 31
Por densidad de L

(0, T; R
N
) en L
2
(0, T; R
N
), deducimos facilmente que
L
2
(0, T; R
N
),
T
_
0
(t)dt = 0
T
_
0
A(t)(t)dt = 0.
Es decir,
L
2
(0, T; R
N
), 1, )
L
2 = 0 A, )
L
2 = 0.
Esto signica que A L
2
/R, es decir, existe c R tal que
A(t) = c c.t.p. t [0, T],
que era exactamente lo que queramos demostrar.
5.2. Ejemplo: dinamica de una partcula
Dado m > 0, consideremos el problema
(T
m
) mn
_
_
_
T
_
0
_
m
2
| x(t)|
2
U(x(t))
_
dt

x AC(0, T; R
3
), x(0) = x
0
, x(T) = x
1
_
_
_
.
Supongamos que U C
1
(R
3
) y que ademas
sup
xR
U(x) < +.
As,
L(x, y) =
m
2
|y|
2
U(x)
m
2
|y|
2
sup U,
de modo que se satisface la condicion de crecimiento (c
p
) con p = 2. Deducimos que
(T
m
) admite una solucion x AC(0, T; R
3
) y, mas a un, esta solucion es Lipschitz y
satisface la ecuacion de Euler-Lagrange
m
d
dt
x(t) = U(x(t)) c.t.p. t [0, T]
Como x es continua y U C
1
(R
3
), el lado derecho de esta ecuacion evaluado en x
es continuo con respecto a t y en consecuencia x C
2
(0, T; R
3
) y ademas satisface el
problema diferencial de segundo orden con condiciones de borde
_
m x +U(x) = 0,
x(0) = x
0
, x(T) = x
1
.
Si U C
k
(R
3
) entonces se deduce recursivamente que x C
k+1
(0, T; R
3
). El problema
diferencial correspondiente al movimiento de una partcula de masa m sometida a un
campo de fuerzas F = U asociado al potencial U. En este contexto, a la funcion
L(x, x) =
m
2
| x(t)|
2
U(x(t))
se le llama lagrangiano, y el hecho que la trayectoria de la partcula sea una solucion
de (T
m
) se conoce como el principio de mnima accion, entendiendo por accion la
integral del lagrangiano.
32 CAP

ITULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ


Captulo 6
Ejercicios
1. Convergencia variacional y el metodo directo. Sea (X, | |) un espacio de Ba-
nach reexivo. Diremos que una sucesion de funciones F
n
: X R converge
variacionalmente a una funcion F : X R, lo que escribiremos F = V -lm
n
F
n
,
si se satisfacen las dos condiciones siguientes:
(V
1
) x X, x
n
x, F(x) lminf
n
F
n
(x
n
).
(V
2
) x X, lmsup
n
F
n
(x) F(x).
(a) Pruebe que (V
2
) implica que lmsup
n
(nf
X
F
n
) nf
X
F.
Considere la siguiente condicion de crecimiento uniforme para la sucesion (F
n
):
R, > 0, n N, x X, F
n
(x) + |x|. (6.1)
(b) Pruebe que bajo (6.1), existe una sucesion acotada (x
n
) X tal que
lmsup
n
F
n
(x
n
) lmsup
n
(nf
X
F
n
).
(c) Utilizando (a) y (b), pruebe que si se tiene (6.1) y F = V -lm
n
F
n
entonces
existe x X tal que F( x) = mn
X
F.
2. Un caso particular del modelo de Ramsay. Denotemos por x(t) y c(t) el capital
y el consumo de un individuo en el instante t respectivamente. Asuma que la
produccion de capital esta dada por la funcion f(x) = x con > 0, mientras
que la funcion de utilidad del individuo esta dada por u(c) = (c c

)
2
con
, c

> 0. Los parametros , , c

> 0 son conocidos. En un horizonte [0, T], el


individuo busca maximizar la utilidad esperada, esto es
(T)
_

_
max
T
_
0
u(c(t))dt
x(t) = f(x(t)) c(t)
x(0) = x
0
> 0 (capital inicial), x(T) = 0 (capital nal nulo)
33
34 CAP

ITULO 6. EJERCICIOS
(a) Pruebe que (T) admite al menos una solucion x AC(0, T; R). Ind.: puede
suponer que x(t) es acotado para toda funcion factible para (T).
(b) Deduzca que la solucion x es Lipschitz continua.
(c) Calcule x.
Bibliografa
El lector interesado en profundizar los conceptos y metodos expuestos brevemente
en estos apuntes puede consultar la amplia bibliografa que existe al respecto.
Son muchos los autores que han escrito libros sobre problemas variacionales del
calculo de variaciones, metodos directos para establecer existencia, problemas de
semicontinuidad inferior, aplicaciones a ecuaciones diferenciales y a problemas de
control optimo, etc. La siguiente es solo una lista parcial de textos recomendables
que abordan estos temas:
[Att84] Attouch, H., Variational Convergence for Functions and Operators, Applica-
ble Mathematics Series, Pitman (Advanced Publishing Program), Boston, MA,
1984.
[BrD98] Braides, A., Defrancheschi, A., Homogenization of Multiple Integrals, Oxford
Lecture Series in Mathematics and its Applications, 12, The Clarendon Press,
Oxford University Press, New York, 1998.
[But89] Buttazzo, G., Semicontinuity, Relaxation and Integral Representation in the
Calculus of Variations, Pitman Research Notes in Mathematics Series, 207, Long-
man Scientic & Technical, Harlow; John Wiley & Sons, Inc., New York, 1989.
[CaD02] Carbone, L., De Arcangelis, R., Unbounded Functionals in the Calculus
of Variations. Representation, Relaxation, and Homogenization. Chapman &
Hall/CRC Monographs and Surveys in Pure and Applied Mathematics, 125.
Chapman & Hall/CRC, Boca Raton, FL, 2002.
[Ces83] Cesari, L., Optimization - Theory and Applications. Problems with ordinary
dierential equations, Applications of Mathematics, 17, Springer-Verlag, New
York, 1983.
[Dac89] Dacorogna, B., Direct Methods in the Calculus of Variations, Applied Mat-
hematical Sciences, 78, Springer-Verlag, Berlin, 1989.
[Dal93] Dal Maso, G., An Introduction to -convergence, Birkhauser, Boston, 1993.
[Eke90] Ekeland, I., Convexity Methods in Hamiltonian Mechanics, Ergebnisse der
Mathematik und ihrer Grenzgebiete (3) [Results in Mathematics and Related
Areas (3)], 19, Springer-Verlag, Berlin, 1990.
[EkT99] Ekeland, I., Temam, R., Convex Analysis and Variational Problems, (tra-
duccion del frances), version corregida de la edicion en ingles de 1976, Classics
in Applied Mathematics, 28, Society for Industrial and Applied Mathematics
(SIAM), Philadelphia, PA, 1999.
35
36 BIBLIOGRAF

IA
[GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., En-
glewood Clis, N.J., 1963.
[GiH96] Giaquinta, M., Hildebrandt, S., Calculus of Variations. I. The Lagrangian
formalism. II. The Hamiltonian formalism, Grundlehren der Mathematischen
Wissenschaften [Fundamental Principles of Mathematical Sciences], 310-311,
Springer-Verlag, Berlin, 1996.
[Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundleh-
ren der mathematischen Wissenschaften, Band 130 Springer-Verlag New York,
Inc., New York, 1966.
[Str00] Struwe, M., Variational Methods. Applications to nonlinear partial dierential
equations and Hamiltonian systems. Third edition, Ergebnisse der Mathematik
und ihrer Grenzgebiete, 3, Folge, A Series of Modern Surveys in Mathematics
[Results in Mathematics and Related Areas. 3rd Series. A Series of Modern Sur-
veys in Mathematics], 34, Springer-Verlag, Berlin, 2000.

You might also like