You are on page 1of 44

Analisi 4

Sig. Bruni
Parte I

D'Aprile

1
Capitolo 1

Successioni e serie di funzione


1.1 Prime denizioni
Guardare Geometria 3 per le denizioni di distanza, palla e aperto.
Def 1. {Xn }n ⊂ X è una successione di X. Xn converge ad X (Xn → X) se ∀ε > 0 ∃ν ∈ N t.c.
∀n ≤3 d(xn , x) < ε ⇔ limn→+∞ d(xn , x) = 0

Def 2. {Xn }n è di Cauchy se ∀ε∃ν t.c. ∀n, m ≥ ν d(xn , xm )<ε.

Prop. Se {xn }n è convergente ⇒ è di Cauchy.


Viceversa falso in generale: prendiamo la successione in Q(1 + 1/n)n . Questa è contenuta in Q, ma
converge ad e, che è in R. Questa successione è quindi una successione di Cauchy che non converge
in Q.

Def 3. X si dice completo se ogni successione di Cauchy è convergente.


Ad esempio, Q non è completo, ma R, Rn , C si.

Prop. A⊂X, X completo ⇒ A completo ⇔ A chiuso.


Prop. A⊂X, x∈ Ā ⇔ ∃{xn }n ⊂ A t.c. xn → x.

Dimostrazione. Basta notare che Ā = {x ∈ X|∃{Xn }n ⊂ A t. c. xn → x} per denizione. ##


Def 4. A⊂X δ(A) = supx,y∈A d(x, y). A si dice limitato se δ(A) < +∞
Def 5. E insieme qualsiasi. (Y,d) spazio metrico. f : E → Y . f si dice limitata se f(E) è un insieme
limitato in Y.
B(E, Y ) = {f : E → Y |f limitata}

Prop. {Xn }n ⊂ X con {Xn }n di Cauchy è limitata.


Prop. B(E, Y ) è uno spazio metrico con la distanza d(f, g) = supx∈E dY (f (x), g(x)) detta
metrica uniforme.
Dimostrazione. d : B(E, Y ) × B(E, Y ) → R
Fissato x0 ∈ E ∀x ∈ E dY (f (x), g(x)) ≤ d(f (x), f (x0 )) + d(f (x0 ), g(x0 )) + d(g(x0 ), g(x)) ≤

2
δ(f (E)) + d(f (x0 ), g(x0 )) + δ(g(E)) ⇒ d(f (x), g(x)) ≤ δ(f (E)) + d(f (x0 ), g(x0 )) + δ(g(E)) ⇒
supx∈E d(f (x), g(x)) ≤ δ(f (E)) + d(f (x0 ), g(x0 )) + δ(g(E)) < +∞ Il fatto che sia simmetrica e
positiva deriva dal fatto che dY (f (x), g(x)) sia simmetrica e positiva.
d(f, g) = 0 ⇔ sup d(f (x), g(x)) = 0 ⇔ ∀x ∈ EdY (f (x), g(x)) = 0 ⇔ ∀x ∈ Ef (x) = g(x) ⇔ f = g
Anche la disuguaglianza triangolare è facile da dimostrare. ##
TEOREMA Se Y è completo, allora B(E, Y ) è completo.
Dimostrazione. Notiamo che {fn }n ⊂ B(E, Y ) di Cauchy. Infatti, ssato ε > 0∃ν ∈ N t.c.
∀n, m ≥ νd(fn , fm ) < ε.x ∈ E∀n, m ≥ νd(fn (x), fm (x)) ≤ d(fn .fm ) < ε. Quindi ogni {fn (x)} ⊂ Y
è di Cauchy in Y. Vediamo se è convergente. Sia f (x) = limn→+∞ fn (x) e siano n ≥ ν e
x ∈ E.∀m ≥ νd(fn (x), f (x)) ≤ d(fn (x), fm (x)) + d(fm (x), f (x)) ≤ ε + d(fm (x), f (x)). Per m →
+∞d(fn (x), f (x)) ≤ ε, ma f è limitata: ∀x, y ∈ Ed(f (x), f (y)) ≤ d(f (x), fν (x)) + d(fν (x), fν (y)) +
d(f (y), fν (y)) ≤ 2ε + δ(fν (E)) < +∞. Ovvero,

∀n ≥ ν d(fn , f ) ≤ ε

##
Def 6. (X,d) (Y,d) spazi metrici. f : X → Y, x0 ∈ X . f continua in x0 ⇔ ∀ε > 0∃δ > 0 t.c.
∀x ∈ X con d(x0 , x) < δ, d(f (x), f (x0 )) < ε. f continua se è continua in ogni punto.
C(X, Y ) = {f : X → Y | f continua}
Cb (X, Y ) = {f : X → Y | f continua e limitata} ⊂ B(X, Y )

Teorema ponte: (X,d) (Y,d) spazi metrici. fX → Y x0 ∈ X f continua ⇔ ∀{xn }n ⊂ X con


xn → x0 si ha f (xn ) → f (x0 )

Prop. (X,d) (Y,d) spazi metrici. {fn }n ⊂ B(X, Y )f ∈ (X, Y )fn → f ∀nfn continua in x0 .
Allora f è continua in x0 .
Dimostrazione. ∃ε > 0 ssato. ∃ν ∈ N t.c. ∀n ≥ νd(fn , f ) ≤ ε.Ma fν è continua, quin-
di ∃δ > 0 t.c. ∀x ∈ Xd(x0 , x) < δd(fν (x), fν (x0 )) > ε∀x ∈ Xd(x0 , x) < δ d(f (x), f (x0 )) ≤
d(f (x), fν (x)) + d(fν (x), fν (x0 )) + d(fν (x0 ), f (x0 )) ≤ 3ε, ovvero f continua in x0 ##
| {z } | {z } | {z }
<d(fν ,f ) <ε <d(fν ,f )

Teorema (fondamentale) (X,d) (Y,d) spazi metrici. Se Y è completo allora Cb (X, Y ) è


completo.
Dimostrazione. {fn }n ⊂ Cb (X, Y ) sia di Cauchy. Allora, poichè la metrica è la stessa, {fn }n è di

Cauchy su B(X, Y ) ⇒ ∃f ∈ B(X, Y ) t.c. fn → f . f ∈ Cb (X, Y ) poichè ogni f è continua e la


metrica è uguale. ##

1.2 Convergenza uniforme e puntuale delle successioni di funzione


Def 7. E insieme, (Y,d) spazio metrico. {fn }n , f : E → Y limitate. Diremo che fn converge a f puntualmente
se ∀x ∈ Efn (x) → f (x).
Def 8. Stesse cose di prima, diremo che fn converge a f uniformemente se fn → f in B(E, Y )
ovvero ⇔ d(fn , f ) → 0

3
Teorema: Si tratta del teorema precedente detto in modo diverso: dati X,Y spazi metrici,
fn : X → Y continua. Se fn → f unif., allora f è continua.

Ma da cosa dieriscono la convergenza puntuale e uniforme?? Vediamo che nella convergenza


uniforme fn → f punt. ⇔ ∀x ∈ E∀ε > 0∃ν ∈ N t.c. ∀n ≥ νd(fn (x), f (x)) < ε
Invece nella convergenza uniforme abbiamo che: fn → f unif. ⇔ ∀ε > 0∃ν ∈ N t.c. ∀n ≥
νd(fn (x), f (x)) ≤ ε. Ovvero nella ocnvergenza puntuale ν dipende sia da ε che da x. Invece nella
convergenza uniforme ν dipende solo da ε e vale per TUTTI gli x.

Andiamo avanti... Sia E ⊂ Rn limitato e misurabile. fn : E → R limitata e integrabile. Se


fn → f puntualmente. f è integrabile??? In generale NO!!! Diamo questo controesempio:
 
1 x = q1 , . . . , q n 1 x ∈ Q ∩ [0, 1]
fn : [0, 1] → R fn (x) = ∀x ∈ [0, 1]f (x) = questa è
0 altrimenti 0 altrimenti
la funzione di Dirichlet, che non è integrabile!!!!

TEOREMA DI PASSAGGIO AL LIMITE SOTTO SEGNO DI INTEGRALE: Sia


E ⊂ Rn un insieme limitato
R e misurabile. fn : E → R limitata e integrabile. fn → f unif. Allora f
è integrabile e E fn dx → E f dx.
R

Dimostrazione. ∀ε > 0∃ν ∈ N t.c. ∀n ≥ νPsupE |fn (x)−f (x)| < ε.fν è integrabile in E. Esiste quindi
Π = {E1 , . . . , Ek } partizione di E t.c. k
i=1 (supx∈Ei fν (x) − inf x∈Ei fν (x))m(Ei ) < ε. ∀x, y ∈
Ei |f (x) − f (y)| ≤ |f (x) − fν (x)| + |fν (x) − fν (y)| + |fν (y) − f (y)| ≤ 2ε +
| {z } | {z } | {z }
<ε =supx∈Ei fν (x)−inf x∈Ei fν (x)per il lemma tecnico! <ε
Pk
supx∈Ei fν (x) − inf x∈Ei fν (x) ⇒ supEi f − inf Ei f ≤ 2ε + supEi fν − inf Ei fν ⇒ i=1 (supEi f −
inf Ei f )m(Ei ) ≤ 2ε ki=1 (supEi fν − inf Ei fν )m(Ei ) ≤ 2εm(E) + ε. Quindi f è integrabile. Ma
P
quanto vale l'integrale??? Si dimostra facilmente:
Z Z Z Z


fn dx − f dx = (fn − f )dx ≤ fn − f dx ≤
E E E E
Z
dx (che è la misura di E) = supE fn − f m(E) → 0 perchè fn → f unif)

≤ supE fn − f
E
##
Corollario: fn : [a, b] → R continua, fn → f unif. Allora f è continua e
Z b Z b
fn dx → f dx
a a
.
Da questo primo teorema ne deriva (ahahah...) subito un secondo:
TEROEMA DI PASSAGGIO AL LIMITE SOTTO SEGNO DI DERIVATA:
fn ∈ C 1 ([a, b]) t.c. :
(1) fn0 converge uniformemente a g ;
(2) ∃x0 ∈ [a, b] in cui {fn (x0 )}n converge.
Allora si ha:
(a) fn converge uniformemente a f ;
(b) f ∈ C 1 ([a, b]) e f 0 = g .

4
Rx
Dimostrazione. l = limn fn (x0 ) ∈ R.∀x ∈ [a, b]f (x) = l + x0 g(t)dt. ∀x ∈ [a, b]fn (x) = fn (x0 ) +
x0 fn (t)dt per il T.F.C. ∀x ∈ [a, b] |fn (x) − f (x)| = |fn (x0 ) − l + x0 (fn (t) − g(t))dt ≤ |fn (x0 ) −
Rx Rx 0

l| + a |fn0 (t) − g(t)|dt quindi supx∈[a,b] |fn (x) − f (x)| ≤ |fn (x0 ) − l| + a |fn0 (t) − g(t)|dt → 0, quindi
Rb Rb

fn → f uniformemente. Il secondo punto segue subito dalla denizione di f . ##


ATTENZIONE: La convergenza delle derivate non implica (in generale) al convergenza della
funzione!!! Si prenda ad esempio f (x) = n ovvero le funzioni costanti. La derivate converge uni-
formemente (in quanto è identicamente 0) ma la funzione non converge neanche puntualmente!!!!
Allo stesso modo la convergenza di f (x) non implica la convergenza delle derivate. Nel caso della
funzione f (x) = xn /n x ∈ [0, 1] si ha che la funzione converge unif. ma la derivata no (in quanto
la f'(x) è discontinua).

OSS: Esistono delle successioni di funzioni ∈ C 1 ([a, b]) che convergono unif. ad una funzione
continua NON C 1 ([a, b]). Queste successioni sono del tipo:
fn : [−1, 1] → R
p
fn (x) = x2 + 1/n fn ∈ C 1 ([a, b])
Questa successione converge puntualmente

a |x| ∈/ C 1 ([a, b]) e converge anche unif. come è facile
dimostrare (basta porre il sup < 1/ x).

1.3 Spazi normati, di Banach e di Hilbert


Def 9. X sp. vett. Si chiama norma su X un'applicazione ||...|| : X → R t.c.:
(1) ∀x ∈ X ||x|| = 0 ⇔ x = 0;
(2) ∀x ∈ X ∀λ ∈ R ||λx|| = |λ|||x||;
(3) ∀x, y ∈ X||x + y|| ≤ ||x|| + ||y||.
La coppia (X, ||...||) si chiama SPAZIO NORMATO.
Prop: (X, ||...||) spazio normato. Allora X è uno spazio metrico con distanza d(x, y) = ||x − y||.

Def 10. (X, ||...||) spazio normato. X si dice spazio di Banach se è completo.
q
Facile vedere che ||x|| = sumni=1 x2i è una norma in Rn . Quindi, poichè già sappiamo che Rn
è completo, esso è anche di Banach.

Def 11. E insieme, Y sp. normato. B(E, Y ) è uno spazio vettoriale. Inoltre è normato con norma
||f ||∞ = supx∈E |f (x)|. La sua distanza è d(f, g) = ||f − g||∞ = supx∈E |f (x) − g(x)| ed è chiamata
distanza uniforme.
Prop: E insieme, Y di Banach. Allora B(E, Y ) è di Banach. Se invece X sp. metrico e Y di
Banach, allora Cb (X, Y ) è di Banach. In particolare, B(E) e Cb (X) sono di Banach.

Prop: C 1 ([a, b]) è di Banach con la norma ||f ||1 = ||f ||∞ + ||f 0 ||∞

5
Dimostrazione. {fn }n ⊂ C 1 ([a, b]) di Cauchy, quindi ∀ε > 0∃ν t.c. ∀n, m ≥ ν||fn − fm ||1 < ε.
Infatti ||fn − fm ||∞ ≤ ||fn − fm ||1 < ε ⇒ ||fn0 − fm0 ||∞ ≤ ||fn − fm ||1 < ε. Quindi abbiamo che {fn }n
e {fn0 }n sono di Cauchy in (C 1 ([a, b]), ||...||∞ ). Ma sappiamo che questo spazio è completo, quindi
esistono f, g ∈ C 1 ([a, b]) t.c. fn → f unif. e fn0 → g unif. Per il teorema di passaggio al limite sotto
segno di derivata, f ∈ C 1 ([a, b]) e f 0 = g . Quindi ||fn − f ||1 = ||fn − f ||∞ + ||fn0 − g||∞ → 0 ovvero
fn converge uniformemente. ##
Ovviamente si può iterare il procedimento per gli spazi C k .

Def 12. X sp. vett. Si chiama prodotto scalare su X un'applicazione


< ·, · >: X × X → R

t.c.:
(1) ∀x ∈ X < x, x >≥ 0 e < x, x >= 0 ⇔ x = 0;
(2) ∀x, y ∈ X < x, y >=< y, x >;
(3) ∀x, y, z ∈ X < x + y, z >=< x, z > + < y, z >;
(4) ∀x, y ∈ X∀λ ∈ R < λx, y >= λ < x, y >.
Lo spazio (X, < ·, · >) si chiama spazio PREHILBERTIANO.
Prop:

Sia (X, < ·, · >) uno spazio prehilbertiano. Allora X è uno spazio normato con la norma
||x|| = < x, x >. Inoltre è vera la disuguaglianza di Cauchy-Swartz: ∀x, y ∈ X | < x, y > | ≤
||x|| · ||y||

Dimostrazione. Dimostriamo solo la disuguaglianza: ssati x, yinX∀λ ∈ R 0 ≤ ||x + λy||2 =<


x + λy, x + λy >=< x, x > +2λ < x, y > +λ2 < y, y >= ||x||2 + 2λ < x, y > +λ2 ||y||2 . Questa è
un equazione quadratica in λ. Facciamo in Delta/4: | < x, y > |2 − ||x||2 · ||y||2 ≤ 0 ⇒ | < x, y >
| ≤ ||x|| · ||y||. ##
Prop: X spazio prehil. Allora ∀x, y ∈ X sono vericate:
(1) ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ). Questa è l' identità del parallelogrammo
(2) ||x + y||2 − ||x − y||2 = 4 < x, y >. |uesta è l' identità di polarizzazione
Queste identità aiutano ad identicare gli spazi prehilbertiani. Per esempio, usando l'identità
del parallelogrammo si può facilmente dimostrare che C([a, b]) non è prehilb. perchè ||...||∞ non
proviene da un pordotto scalare. Inoltre l'identità di polarizzazione ci fornisce anche come deve
essere denito il prodotto scalare in funzione delle norme. Basta dividere per 4 e si ha: < x, y >=
(||x + y||2 − ||x − y||2 )/4.

Def 13. Dato uno spazio prehilbertiano (X, < ·, · >), X si chiama spazio di Hilbert se è di
Banach.

1.4 Serie di funzioni


Def 14. P
X insieme qualsiasi. n=0 fn (x) converge puntualmente in
fn : X → R Diremo che +∞
P

X ⇔ ∀x, n=0 fn (x) è convergente. Ovvero ⇔ ∀x ∈ X{sn (x)}n è convergente, dove sn (x) è la
+∞

successione delle funzioni fn (x).


Def 15. X insieme. fn : X → R limitata. Diremo che +∞ n=0 fn (x) converge uniformemente a
P
f ⇔ sn → f uniformemente.

6
Prop: → f unif =⇒ → f punt.
P+∞ P+∞
n=0 fn (x) n=0 fn (x)

Prop: X spazio metrico. fn : X → R limitate e continue in x0 , → f unif. =⇒


P+∞
n=0 fn (x)
allora f continua in x0 .
Dimostrazione. sn : X → R limitata e continua in x0 , sn → f unif. Allora f è contiuna in x0 # #

Def 16.PDiremo che le +∞ n=0 fn (x) convergono totalmente ⇔ n=0 ||fn (x)||∞ è convergente.
P P+∞
(ovvero n=0 ||fn (x)||∞ = supX |f (x)|) Notiamo che questa è una serie numerica, in quanto le
+∞

||fn (x)||∞ sono numeri!!!!

Prop: X insieme. +∞ n=0 fn (x) successioni limitate. Se la serie converge totalmente allora
P
converge uniformemente.
∀x ∈ X|fn (x) ≤ ||fn (x)||∞ (perPdenizione). Ma poichè +∞ n=0 ||fn (x)||∞ converge,
P
Dimostrazione.

allora n=0 |fn (x)| converge per confronto ⇒ +∞ converge (per il criterio di convergenza
P+∞
n=0 fn (x)
n
assoluta). Pongo f (x) = n=0 fn (x) e stimo il supX |sn − f | = supX | k=0 fk (x) −
P+∞ P+∞ X
fk (x)| =
|k=0 {z }
sn
→ 0 per n → +∞ ⇒ f
P+∞ P+∞ P+∞
supX | k=n+1 fk (x)| ≤ supx k=n+1 |fk (x)| ≤ supX k=n+1 ||fk (x)||∞
converge uniformemente. ##
ATTENZIONE: l'approssimazione si ottiene con la seconda parte del teorema di Leibniz!!!!!!!!!!!!

1.4.1 Ripasso dei criteri di convergenza nelle serie

SUCCESSIONI A TERMINI POSITIVI


• Condizione necessaria: an converge ⇒ an → 0 per n → ∞;
P

√ √
• Criterio della radice: se lim supn→+∞ n an < 1 la serie converge. Se lim supn→+∞ n an > 1 la

serie diverge. Se lim supn→+∞ n an = 1 non concludo niente.
• Criterio rapporto: se lim supn→+∞ an+1a < 1 la serie converge. Se lim supn→+∞ an+1
an > 1 la
an+1 an n
serie diverge. Se lim supn→+∞ = 1 non concludo niente.
• Criterio del confronto:
P an , bn ≥ 0. P Sia an ≤ bn ∀n. Allora se bn converge ⇒ an
P P
converge. Se invece an diverge ⇒ bn diverge.
Confronto asintotico:
• P P se an ∼ bn (ovvero an /bn → 1 o più in generale ad un numero) allora
an converge ⇔ bn converge.

• Se abnn → 0 allora bn converge ⇒ suman converge.


P

• Se abnn → +∞ allora an converge ⇒ bn converge.


P P

7
serie con termini positivi e negativi
• Convergenza assoluta: se |an | converge ⇒ an converge. (criterio buono anche per le serie
P P
a termini positivi)
• Se la serie è 
della forma (−1)n an (ovvero a segni ALTERNANTI) utilizziamo il criterio di
P

an ≤ 0
Leibniz: se an decrescente allora (−1)n an converge. Inoltre si ha un'importante
P
an →P0 per n → +∞

conseguenza: |s − nk=0 ak | ≤ an+1

P delle serie di funzione: TEOREMA DI INTEGRAZ


Diamo ora due teoremi molto utili per la convergenza
fn : [a, b] → R limitate e integrabili. Supponiamo fn → f unif. Allora anche f è integrabile e
inoltre ∈a f dx = fn dx.
b
PRb RbP
a fn dx = a

Dimostrazione. Sia Sn = f0 +· · ·+fn la somma parziale n-esima. Sn è formata


R bda funzioni
R b integrabili
e limitate, inoltre Sn → f unif. (per denizione di conv. unif.), allora limn a Sn dx = a f dx per il
teorema del passaggio al limite sotto segno di integrale. Quindi limn ab Sn dx = limn ab nk=0 fk dx =
R R P

limn nk=0 a fk dx e per n → +∞ la somma parziale converge (perchè sono numeri (l'integrale è
P Rb

denito)), quindi la serie converge!!! ##


Corollario: fn : [a, b] → R continua. fn → f unif. Allora f è continua e
P Rb
a f dx =
a fn dx.
P Rb

TEOREMA DI DERIVAZIONE TERMINE A TERMINE: fn ∈ C 1 ([a, b]) t.c.:


(1) fn0 → g unif. P
P
(2) ∃x0 ∈ [a, b] t.c. fn (x0 ) converge.
Allora
P si ha:
(a) fn → f unif.;
(b) f ∈ C 1 ([a, b]) e f 0 = g ⇒ ( +∞ 0 0
P P
n=0 fn ) = n=0 +∞fn

Dimostrazione. Sia Sn la somma parziale ∈ C 1 ([a, b]).Sn0 = f00 + · · · + fn0 → g unif (per l'ipotesi (1)).
Inoltre Sn (x0 ) = f0 (x0 ) + · · · + fn (x0 ) converge per (2). Allora per il teorema di passaggioPal limite
sotto segno di derivata, Sn coverge unif. a f e f ∈ C 1 ([a, b]). Inoltre f 0 = g . Ma allora fn → f
unif. e passando al limite per n → +∞ ottengo le tesi. ##

1.5 Serie di potenze


Def 17. Si deniscono serie di potenze le serie di funzioni della froma
P+∞
an ∈
n=0 an (x − x0 )n
Rx0 ∈ R. x0 si chiama centro della serie. SPG prendiamo come centro x0 = 0. DeniamoPinvece
l'insieme A come l'insieme di tutti gli x di R per cui la serie converge, ovvero {x ∈ R| an xn
converge} =
6 ∅ in quanto c'è almeno lo 0!!!!! Deniamo invece r = sup A ∈ [0, +∞), questo prende
il nome di raggio di convergenza. (NOTA: poichè 0 ∈ A sicuramente, non il raggio può essere
negativo!!!!!)
Lemma: (1) Se x̄ è t.c. an xn converge in x̄, allora an xn converge assolutamente in ogni
P P
x tc. |x| < |x̄|.
(2) se invece x̄ è tale che la sua serie non converge, allora an xn non converge per nessun x t.c.
P
|x| > |x̄|.

8
Dimostrazione. (1)
x nSia x t.c. |x| < |x̄|, an x → 0. Sia xM
n n n
= supn≥b |an x | < +∞.∀x, |an x | =
≤ M x̄ . La serie che ha come termine M x̄ converge (è una geometrica di ragione
n
|an xn | x̄x


<1), quindi la serie di potenze converge.

(2) Sia x t.c. |x| > |x̄|. Se per assurdo an xn convergesse, per la prima parte an xn
P P
convergerebbe assolutamente, contro l'ipotesi. ##
TEOREMA DI CONVERGENZA PER LE SERIE DI POTENZE: (1) Se r = 0 al-
lora A={0};
(2) Se 0 < r < +∞ allora (−r, r) ⊆ A ⊆ [−r, r] inoltre la an xn converge assolutamente in (−r, r)
P
e totalmente in ogni compatto, ovvero ogni
P intervallo del tipo [−k, k](0 < k < r).
(3) Se r = +∞ allora A = R. Inoltre an x converge assolutamente in R e totalmente in ogni
n

intervallo limitato.
Dimostrazione. (1) r = 0. Per x 6= 0, prendo x̄ t.c. 0 < x̄ < |x|. Allora x̄ ∈/ A (altrimenti il sup
sarebbe x̄). Allora la seconda parte del lemma ci dice che non converge neanche in x.

(2) Sia |x| < r. Per la proprietà di P


estremo superiore, ∃x̄ ∈ A t.c. |x| < x̄ < r per cui an xn
P
converge. Per il punto (1) del lemma, an xn converge assolutamente in X, ovvero (−r, r) ⊆ A.
Per la seconda inclusione, |x| > r.∃x̄ t.c. r > x̄ > |x|, x̄ ∈/ A ⇒ an x non converge. Per il punto
n
P
(2) del lemma allora la serie non converge neanche P in x, ovvero x ∈/ A. Dimostriamo la seconda
parte della tesi: sia 0 < k < r. Sappiamo già che an kn converge ⇒ an kn → 0(n → +∞) ⇒
posto M = sup |an kn |∀x ∈ [−k, k]|an kn | = |an ||x|n ≤ |an ||k|n = |an kn |. sup[−k,k] |an xn | ≤ |an kn |
che converge assolutamente, e da qui ho la convergenza totale.

(3) r = +∞x 6= 0, allora ∃x̄ ∈ A t.c. x̄ > |x|. an xn converge ⇒ an xn converge assoluta-
P P
mente per il punto (1) del lemma. Prendiamo ora k > 0, per trovare la convergenza totale in [−k, k]
ragioniamo similmente alla seconda parte del punto (2). ##
Abbiamo trovato quindi un utilissimo teorema per la convergenza delle serie di funzioni. Ri-
amne però un problema: possiamo applicare il teorema solo dopo che sappiamo r, ma come facciamo
a calcolarlo??? Ci viene in aiuto il

TEOREMA DI CAUCHY-HADAMARD: Preso per convenzione 1


0 = +∞ e 1
+∞ = 0, si
ha che
1
r= p
n
lim sup |an |

Poniamo, per semplicare lapscrittura, l = lim p sup n |an |. Abbiamo tre casi: (1)
p
Dimostrazione.

l = 0 ⇒ r = +∞. Infatti ∀x 6= 0 lim sup |an x | = lim sup |an | · |x| ⇒ (lim sup |an |)|x| =
p
n n n n

l · |x| = 0. Per il criterio della radice la serie converge assolutamente ∀x ⇒ r = +∞.

(2) 0 < l < +∞∀x 6= 0 lim sup n |an xn | = l · |x|. Se l · · · |x| < 1 allora la serie converge
p

⇒ |x| < 1/l. Se invece |x| > 1/l la serie non converge assolutamente, quindi per il teorema prece-
dente concludiamo che r = 1/l.

(3) l = +∞, allora ∀x 6= 0 lim sup n |an xn | = +∞ ⇒ an xn non converge assolutamente


p P
per nessun x, quindi per il teorema r = 0. ##

9
Si noti che per il teorema abbiamo usato sempre il criterio della radice per controllare la con-
vergenza. Potevamo anche usare il criterio del rapporto (che si sa è praticamente uguale a quello
della radice). In questo modo si può formulare il teorema in questo modo:

TEOREMA DI CAUCHY-HADAMARD 2.0: Con le stesse convenzioni del teorema con


la radice, si ha che se ∃limn |a|an+1
n|
|
allora
1
r= |an+1 |
limn |an |

La dimostrazione è analoga.

C'è un altro teorema che ci aiuta nella convergenza uniforme, ed è questo:

TEOREMA DI ABEL: Sia 0 < r < +∞. Se r ∈ A, allora an xn converge


P uniformemente
P
in ogni intervallo del tipo [−k, k] con 0 < k < r. Se invece −r ∈PA allora an xn converge
uniformemente in ogni intervallo [−r, k]0 < k < r. Se r, −r ∈ A, allora an xn converge uniformemente
in tutto [−r, r]. NO DIMOSTRAZIONE.

Da tutti questi risultati sappiamo quindi che, presa f : (−r, r) → R dove f (x) = +∞ n
P
n=0 an x , f
è continua in [−k, k](k < r) perchè le potenze sono funzioni R continue,Pe si può quindi integrare.
Chiamiamo allora serie integrale la serie denita come: 0x f (t)dt = +∞ an n+1
n=0 n+1 x , ovvero è la
serie che si ottiene integrando termine a termine la serie di potenze. DImostriamo ora che la serie
integrale converge no ad r, che è lo stesso r della serie di partenza:
+∞ ∞
X an n+1 X an−1 n
x = x
n+1 n
n=0 n=1
quindi il r h
r
an−1  1 i n−1
n n 1 n−1 n 1
lim sup = lim sup an−1 =
n n r
In questa dimostrazione abbiamo un pò barato, perchè abbiamo usato un risultato che in realtà
non vale per i limsup ma solo per i lim, ovvero il fatto che il prodotto dei limiti è uguale al limite
del prodotto. Possiamo però sistemare le cose con questa regola: se bn ≥ 0, cn ≥ 0e bn → b, allora
lim sup bn cn = b · lim sup cn .

Queste serie integrali sono utilissime: infatti ci permettono di calcolare ad esempio le serie
numeriche, o di calcolare esattamenteP valori n+1di numeri irrazionali!!! Per esempio, sappiamo che
(−1)n xn = 1+x 1
⇒ log (1 + x) = (−1)n xn+1 quindi per calcolare il valore del logaritmo basta
P
sostituire x con l'opportuno valore che cerco!!!
Oltre che a calcolare i logaritmi le serie integrali
Pci permettono di trovare anche primitiveP
non elemen-
tari: prendiamo ad esempio la serie di prima: (−1)n xn+1 = log (1 + x) ⇒ log (1+x) .
n+1 xn
x = (−1)n n+1
Questa serie converge ed è continuaRin 0, anche se laPfunzione an sx NON è denita in quel punto!!!!
Inoltre, se integriamo, abbiamo che 01 log (1+x)
x dx = +∞n=0 (n+1)2 . Ma quindi ho trovato la primitiva
(−1)

della funzione a sx, che altrimenti non sarei stato capace di integrare!!!!

TEOREMA: Sia n,
r > 0 e sia f : P
(−r, r) → R la funzione f (x) = +∞ n=0 an x .
P+∞ P n
n=0 an x
Allora f ∈ C ∞ (−r, r) e inoltre si ha che f (k) (x) = n=k n(n − 1) · · · (n − k + 1)an xn−k (quindi
+∞

f (k) (0)
f (k) (0) = k!ak ⇒ ak = k! ).

10
Prendiamo +∞ + 1)an+1 xn e r0 il raggio di convergenza di
n−1 =
P P+∞
Dimostrazione. n=1 nan x n=0 (n
questa serie. Vediamo che r = r: sappiamo che
0

h  1 i n+1
1/r0 = lim sup
n+1 n
p
n
p
(n + 1)|an+1 | = lim sup n (n + 1) · |an+1 | = 1/r

(poichè applichiamo la regola detta precedentemente e tutto tende a 1, tranne |an+1 | che tende a
1/r). Quindi abbiamo visto che r0 = r!! Controlliamo ora il resto: preso [−k, k](k < r) e cerchiamo
di ottenere il teorema di derivazione termine a termine: queste sono tutte potenze (quindi C ∞ ), la
serie derivata converge totalmente in [−k, k] in ogni suo punto, quindiPci sono tutte le ipotesi per
poterlo applicare. Otteniamo quindi che f ∈ C ([−k, k]) e che f (x) = +∞
1 0
n=1 nan x
n−1 ∀x ∈ (−r, r).

Iterando il procedimento ottengo la tesi nale. ##


Con questi due risultati (la serie integrale e la serie derivata) la domanda è lecita: possiamo
allora sviluppare una funzione C ∞ come una serie di potenze di centro x0 ??? In generale la risposta
è NO.
2
e−1/x x 6= 0

(Controesempio) Prendiamo la funzione f (x) = . Questa funzione è C ∞ in
0 x=0
R \ {0}, ma possiamo estenderla per continuità anche nell'origine, perchè si vede che il limite da 0.
Tutte le derivate in 0 tendono a 0, e se questa funzione fosse esprimibile come serie di potenze si
f (n) (0) n
avrebbe che f (x) = ∞ n! x ∀x ∈ (−r, r), ma la serie da sempre 0 (anche per n = 0), quindi
P
n=0
non può essere vero!!!

Comunque questo controesempio non implica che nessuna funzione possa essere espressa come
serie di potenze: infatti se una funzione si può esprimere come serie, ovvero
+∞ (n)
X f (x0 )
f (x) = (x − x0 )n ∀x ∈ (x0 − r, x0 + r)
n!
n=0

si dice che la serie è sviluppabile in serie di Taylor in x0 . Ma allora ci serve una condizione
almeno sucente per controllare se una funzione si può scrivere come serie di Taylor, ed infatti
eccola qui:

TEOREMA (CONDIZIONE SUFFICENTE PER LA


SVILUPPABILITA' IN SERIE DI TAYOLR):
Sia f ∈ C ∞ ((x0 − r, x0 + r)) e ∃M > 0 t.c. |f (n) (x)| ≤ M n!
rn ∀x ∈ (x0 − r, x0 + r) ∀n ∈ N. Allora
f è sviluppabile in serie di Taylor in (x0 − r, x0 + r).
(k)
Preso x ∈ (x0 − r, x0 + r), ∀n ∈ N stimiamo |f (x) − nk=0 f k!(x0 ) (x − x0 )k | =
P
Dimostrazione.
(n+1) n+1) (ξ)|
| f (n+1)!(ξ) (x − x0 )n+1 | ξx,n ∈ Ix0 ,x (questo è il resto di Lagrange) = |f(n+1)! |x − x0 |! ≤ Mr(n+1)!
n+1 ·
 n+1
|x−x0 |n+1
−−−−−→ 0 che è quello che volevamo, perchè mostra che a +∞ (ovvero
|x−x0 | n→+∞
(n+1)! =M r
nel caso delle serie) il resto è 0. ##
COROLLARIO: Sia f ∈ C ∞ ((x0 − r, x0 + r)) ed esista M > 0 t.c. ∀n ∈ N e ∀x ∈ (x0 −
r, x0 + r) : |f (n) (x)| ≤ M . Allora la funzione è sviluppabile in serie di Taylor in (x0 − r, x0 + r).

Dimostrazione. Consideriamo rn → +∞.


n!
Diciamo che ∃c > 0 t.c. rn!n ≥ c ∀n ∈ N, allora ∀nN e
∀x ∈ (x0 −r, x0 +r) : |f (n) (x)| ≤ Mc c ≤ M n!
crn che è la cond. su. secondo il teorema precedente. # #

11
(−1)k 2k+1
Dallo schema vediamo che il seno è sviluppabile, e si ha sin x = , quindi facendo
P
(2k+1)! x
(−1)k
un passo in avanti scopro che sinx x = (2k+1)! x2k ∀x 6= 0. In 0 questa serie vale 1, quindi (abusando
P

un pò della notazione) posso scrivere che lo sviluppo vale ∀x ∈ R (estendo per continuità), e
(−1)k
quindi sinx x ∈ C ∞ !!!! Inoltre posso anche calcolare l'integrale: 01 sinx x dx = +∞
k=0 (2k+1)! · (2k+1) che
1
R P
oltretutto è una serie di Leibnitz, per cui posso calcolare persino lo scarto!!!
Posso fare questo stesso lavoro anche per e−x : sostituendo opportunamente nello sviluppo di ex
2

n
otteniamo che e−x = 2k ∀x ∈ R e in questo modo posso anche integrarlo tra 0 e 1 (cosa
2 P (−1)
n! R x
(−1)n
che prima non potevo fare): 0 e dx = +∞
1 −x2
n=0 n!(2n+1) .
P

1.5.1 sviluppo di alcune funzioni:

• ex . Sappiamo che Dn ex = ex , quindi è C ∞ e soddisfa localmente il corollario, quindi è


sviluppabile, e abbiamo che:
X 1
ex = xn ∀x ∈ R
n!
(−1)k sin x n = 2k

• sin x è C∞ perchè Dn sin x = ed è limitata, quindi sviluppabile, e
(−1)k cos x n = 2k + 1
si ha:
X (−1)k
sin x = x2k+1 ∀x ∈ R
(2k + 1)!

(−1)k cos x

n = 2k
• cos x. Anche lui è C ∞ perchè, come il seno D cos x =
n e in questo
(−1)k+1 sin x n = 2k + 1
caso
X (−1)k
cos x = x2k ∀x ∈ R
(2k)!

1.5.2 Serie binomiale

Preso α ∈ R∗ si dice serie binomiale la serie +∞ n=0 n x , posto per convenzione 0 = 1 e per
α n α
P  

n ≥ 1 αn = α(α−1)···(α−n+1) .

n!
In queste serie il raggio di convergenza è sempre 1, in quanto otteniamo dal criterio del rapporto
|( α ) |
che lim |n+1
(α)| n+1 = 1.
= lim |(α−n)|
n

Questa serie binomiale in realtà rappresenta lo sviluppo in serie di Taylor di un polinomio,


ovvero di (1 + x)α . Si possono fare numerose osservazioni sulle serie di potenze:

OSS 1: Per n ∈ N(1 + x)n = n


xk secondo il ben noto binomio di Newton. Ma questa non
P 
k
è una contraddizione, in quanto questo sviluppo è nito, mentre lo sviluppo in serie è innito???
In realtà no, in quanto sviluppando il binomio arrivo no a (α − (n − 1)), ma da un certo punto
n − 1 ≥ α, quindi prima o poi troverò un coecente α − α che ovviamente da 0, ottenendo quindi
un troncamento della serie.

OSS 2: In realtà noi non sappiamo se la serie binomiale esiste, ma se esiste certamente lo
sviluppo è quello, in quanto Dn (1 + x)α |0 = α(α − 1) · · · (α − n + 1). Dimostriamo che è sviluppa-
bile:
sia φ(x) = +∞n=0 n x ∀x ∈ (−1, 1), risulta che (1 + x)φ (x) = αφ(x), quindi ho che (1 + x)φ (x) =
α n 0 0
P 

12
xn noto che l'ultimo termine se parte da 0
P∞ α α α
nn−1 = xn−1 +
 P  P 
(1 + x) n=1 n n n=1 n n n=1 n n
non cambia nulla,Pquindi ridenendolo
 n in Pquesto modo ePtraslando il primo  termine
 perchè parta
da 0 ottengo che n=0 (n + 1) n+1 α
x + n=0 n αn xn = n=0 [(n + 1) n+1 α
+ n αn ]xn e studiando


il termine dentro la radice notiamo che (n + 1) n+1 α


+ n αn = (n + 1) α···(α−n+1) + n α···(α−n+1)
 
(n+1)! n! =
[α(α−1)···(α−n+1)](α−n+n)
= n α e ritornando alla serie abbiamo αφ(x) = α n=0 n x che è quello
α α n
 P 
n!
che volevamo!!! Non ci resta altro da fare quindi di trovare quale funzione è φ(x) ed abbiamo nito:
φ0 (x)(1+x)α −α(1+x)α−1 φ(x)

noi sappiamo che ∀x ∈ (−1, 1) dx (1+x)α =
d φ(x)
(1+x)2α
= 0 dunque la funzione è
costante per ogni x nell'intervallo (-1, 1), basta quindi calcolarla in un punot e ho trovato φ(x)!!!
Calcoliamo φ(0) = (1+x)
φ(x)
α = 1 ⇒ φ(x) = (1+x)
α ∀x ∈ (−1, 1). Ho trovato tutto quello che volevo,

ovvero che la serie binomiale è lo sviluppo dei polinomi!!!

OSS 3: Se α ∈ R \ N la serie diventa a segno alterno. Infatti sia n0 il più piccolo intero t.c.
n0 ≥ 1 + α. Da n0 in poi la serie è a segno alterno: α···(α−n0 +1)
n0 ! > 0, α···(α−n0 +1)(α−n0 )
(n0 +1)! < 0,
α···(α−n0 +1)(α−n0 )(α−n0 −1)
(n0 +2)! > 0 e così via.

Prima di fare altre osservazioni diamo un lemma e un criterio di convergenza: Lemma: Siano
a, b ∈ R con a < b. Allora ∃δ > 0 t.c. ∀x ∈ [0, δ] si ha (1 + x)a ≤ 1 + bx.

Dimostrazione. Scriviamo lo sviluppo di Taylor di (1 + x)a : 1 + ax + o(x). Prendo ε = b − a,


∃δ > 0 t.c. ∀|x| < δ |o(x)| ≤ (b − a)x. Ma allora preso x ∈ [0, δ](1 + x)a ≤ 1 + ax + |o(x)| ≤
1 + ax + (b − a)x = 1 + bx ##
CRITERIO DI RAABE: Sia {an }n la successione con an > 0∀n t.c.

an
∃ limn→+∞ n an+1 −

1 = l. Allora se l < 1 la serie diverge, se l > 1 la sere converge.

 Sia l < 1. Allora per il teorema di permanenza del segno ∃ν ∈ N t.c. ∀n ≥


Dimostrazione.

n ⇒ nan < (n + 1)an+1 e osservando tutti i termini per
an an
ν n an+1 − 1 < 1 ⇒ an+1 < 1 + 1/n = n+1
n ≥ ν vediamo che (n+1)an+1 ≥ nan ≥ · · · ≥ νaν ⇒ an+1 ≥ (n+1)
νaν
, ovvero la serie è denitivamente
maggiore della serie armonica, che non converge.

Caso
 1. Prendiamo 1 < l0 < l00 < l. Per permanenza del segno ∃ν ∈ N t.c. ∀n ≥
l > 
> ln + 1. Applichiamo il lemma e otteniamo che ∃δ > 0 t.c.
00
an
ν n an+1 − 1 > l00 = an+1
an

∀x ∈ [0, δ](1 + x)l ≤ 1 + l00 x e supponendo Q δ ∀n ≥ 00ν (nonQè restrittivo, posso


Q sempre
0
1/n ≤
aumentare ν ) abbiamo che an+1
0 l0

= nk=ν ak+1
ak
≥ nk=ν (1 + lk ) ≥ (1 + 1/k)l = ( k+1
Q
k ) =
0
ν l aν
che converge perchè l0 > 1. ##
0 aν 0
( n+1 l
ν ) ⇒ an+1 ≥ ( n+1 l
ν ) ⇒ an+1 ≤ (n+1)l0

OSS 4: Se α > 0 allora | è convergente, il che implica che la serie converge anche in -1 e in
α
P 
| n
1, dunque c'è convergenza uniforme in [-1, 1] per Abel, ovvero (1+x)α = +∞ α n
∀x ∈ [−1, 1].
P 
n=0 n x
 |α|
(n)

Per dimostrare la convergenza usiamo Raabe: limn→+∞ n |( α )| − 1 =
   n+1 
limn→+∞ n |α(α−1)···(α−n+1)| (n+1)!
|α(α−1)···(α−n)| n! − 1 = limn→+∞ n 1
|α−n| (n + 1) − 1 ma per n grande |α − n| =
   
n−α, sostituendo questa osservazione abbiamo che limn→+∞ n n+1
n−α −1 = limn→+∞ n n+1+α−n
n−α =
1 + α > 1 per α > 0, che era l'ipotesi.
Questa osservazione ci permette di sviluppare le radici e di poter approssimare gli integrali radicali,

13
inoltre vale questa proposizione:

Prop: Sia X uno spazio metrico e siano fn : X → R, g : X → R limitate. Se fn tof


uniformemente allora fn g → f g uniformemente (il risultato vale anche per le serie).
Dimostrazione. supX |fn (x)g(x) − f (x)g(x)| ≤ sup |g(x)| sup |fx (x) − f (x)| ma g è limitata per
ipotesi, quindi ho l'asserto. ##

1.6 Serie di Fourier


De: Sia T > 0 e sia f : R → R.f si dice periodica di periodo T (T periodica) se f (x + T ) =
f (x)∀x ∈ R. T si dice periodo.
Se prendiamo una funzione sull'intervallo possiamo sempre renderla periodica ripetendola innite
volte dopo il periodo (che spesso è l'insieme di denizione).

Prop: Sia f : R → R, T-periodica e integrabile (anche se non limitata) in [0, T ]. Allora f è


integrabile in ogni intervallo limitato e aa+T f (x)dx = 0T f (x)dx∀a ∈ R.
R R

Dimostrazione. Usiamo la denizione di funzione periodica:


R a+T R0 RT
a f (x)dx = a f (x)dx+ a f (x)dx+
f (x)dx. Nell'ultimo integrale pongo x = y + T e quindi tutto diventa a f (x)dx + 0 f (x)dx +
R a+T R0 RT
T
##
Ra Ra RT
0 f (y + T )dy = 0 f (y)dy ⇒ 0 f (x)dx

De: Si chiama polinomio trigonometrico di grado n una funzione del tipo a20 + nk=1 ak cos(kx)+
P
bk sin(kx) con ak , bk ∈ R.
Oss: Il polinomio trigonometrico è continuo in R (in quanto c.l. di funzioni continue) e 2π -
periodico.

De: Sia f : R → R2π-periodica. Se esistono (anche in senso generalizzato) gli integrali


Z π Z π
1 1
an = f (x) cos(nx)dx bn = f (x) sin(nx)dx n ≥ 0
π −π π −π

. allora i numeri an , bn si chiamano coecenti di Fourier di f.


La serie
+∞
a0 X
+ (an cos(nx) + bn sin(nx))
2
n=1

si chiama serie di Fourier di f.


Nelle serie di potenze i coecenti erano legati da relazioni DIFFERENZIALI, mentre in queste serie
i coecenti hanno una relazione INTEGRALE.
NOTA: Se f è dispari an = 0∀n. Se invece f è pari bn = 0∀n.

De: Nel caso di periodo T,


Z T
2 2πnx
an = f (x) cos( )dx
T 0 T
e Z T
2 2πnx
bn = f (x) sin( )dx
T 0 T

14
La serie di questi coecenti è
+∞
a0 X 2π 2π
+ an cos( nx) + bn sin( nx)
2 T T
n=1

Oss: Le funzioni {1, cos(nx), sin(nx) n ≥ 1} sono tra loro ortogonali, ovvero −π cos(nx)dx =

sinπ−π sin(nx)dx = 0 ∀n ≥ 1. Inoltre −π cos(nx) sin(mx)dx = 0∀n, m ≥ 1 e −π cos(nx) cos(mx)dx =


Rπ Rπ

0 se n 6= m 0 se n 6= m
 
e inne −π sin(nx) sin(mx)dx = . Dimostriamo una di queste relazioni:

π se n = m π se n = m
Rπ R π einx −e−inx eimx −e−imx R π i(n+m)x −ei(n−m)x −ei(m−n)x +e−i(n−m)x
−π sin(nx) sin(mx)dx = −π ( 2i 2i dx = −π e −4 =
sin(m+n)x sin(n−m) π
n 6= m ⇒ 1/2[ n+m − n−m ]−π = 0
. Analogamente gli al-
R π 2 cos(n+m)x−2 cos(m−n)x
dx =
−π −4
m = n ⇒ −1/2[ sin(m+n)x
n+m − x]π−π = π
tri.

Oss: Prendiamo un'altra serie trigonometrica a00


(an cos(nx) + b0n sin(nx) = f (x). f è
P 0
2 +
quindi rappresentata da 2 serie troginometriche (una è questa appena detta, l'altra è la serie di
Fourier). Ma questo è assurdo!!! Infatti supponendo che la serie convergaRunif. (vedremo dopo
quando questo avviene)R posso integrare termine a Rtermine: ottengo quindi −π π
f (x) cos(mx)dx =
a0 π
(an −π cos(nx) cos(mx)dx + bn −π sin(nx) cos(mx)dx ma il primo termine non
R P 0 π 0 π
2 −π cos(nx) +
è altro che πam , il secondo termine dà 0 (per quanto detto prima) e il terzo termine da πa0m , ottengo
quindi che am = a0m che è quello che volevamo mostrare. In altre parole questa osservazione ci dice
che una funzione non può essere espressa in un altra serie trigonometrica che non sia la serie di
Fourier.

Teorema: Sia f : R → R una funzione 2 − π periodica, limitata e integrabile in [−π, π] (ipotesi


che garantiscono l'esistenza Pdei coecenti di Fourier). Siano {a0 , an , bn (n ≥ 1)} i coe. di Fourier,
allora detta sn (x) = a0
2R + n
k=1 k cos(kx) + b
(a k sin(kx)) si ha:
(1) −π
Rπ π
|f − sn |2 dx = −π |f (x)|2 dx − π( a20 + nk=1 (a2k + b2k ))
P

|f (x)|2 dx. Questa è la disuguaglianza di Bessel.


2
(2) a20 + nk=1 (a2n + b2n ) ≤ π1 −π
P Rπ

Cominciamo facendo subito gli integrali:R −π


π π π
|f −sn |2 dx = −π f 2 dx−2 −π f sn dx+
R R R
Dimostrazione.

−πZ sn dx. Osserviamo il doppio prodotto:Z −π


Rπ π π
2 f sn dx = −π f ( a20 + nk=1 ak cos(kx)+bk sin(kx))dx =
R P
π Z π π
a0
f sin(kx)dx) = π( a20 + a2k +b2k ). Studiando invece l'in-
P P
2 f dx + (a k f cos(kx)dx +bk
| −π{z } | −π {z } | −π {z }
πa0 πak πbk
2
tegrale di s2n vediamo che π a
Rπ 2 π
= −π ( a20 + ak cos(kx)+bk sin(kx))2 dx = −π ( 40 + (a2k cos2 (kx)+
R P R P
−π sn
b2k sin2 (kx))dx (i doppi prodotti non danno contributo in quanto seno e coseno sono ortogonali)
a2
= π( 20 + (a2k + b2k )). Rimettendo tutto insieme ho la tesi (1).
P

2 a20 Pn
Per la (2) so che −π
π a Rπ
|f (x)|2 dx−π( 20 + (a2k +b2k )) ≥ 0 ⇒ |f (x)|2 dx ≥ π( 2 2
R P
−π 2 + k=1 (ak +bk )
facendo tendere n → +∞ e dividendo per π ho la tesi. ##
Oss: Su queste ipotesi la disuguaglianza è proprio un'uguaglianza.
q Ma questo allora ci dice che
se n → +∞ −π |f − sn | dx → 0, ovvero sn → f rispetto ||F || = |F |2 dx!!!
Rπ 2

−π

15
Oss: Perf : R → R T-periodica (T 6= 2π ) sempre limitata e integrabile su [0, T ] la disug-
2
uaglianza di Bessel diventa: a20 + nk=1 (a2k + b2k ) ≤ T2 0T |f (x)|2 dx.
P R

Corollario (Teorema di Riemann-Lebesgue): Sia f : R → R una funzione 2−π periodica,


−−−−→ 0 (La dimostrazione siPriduce a far vedere
limitata e integrabile su [−π, π]. Allora an , bn −n→+∞
che la tesi non è altro che la condizione necessaria di convergenza per la serie (a2n + b2n )).

Def: Sia f : [a, b] → R. f si dice continua a tratti se è continua in [a, b] tranne al


più in un numero nito di punti ξ1 , . . . , ξN nei quali esistono però niti i limiti dx e sx, ovvero
f (ξi+ ) = limx→ξ+ f (x) e f (ξi− = limx→ξ− f (x). Da questa denizione possiamo ricavarne un'altra:
i i

Def:f : [a, b] → R si dice regolare a tratti se è continua a tratti ed è derivabile in [a, b]


tranne nei punti ξi (in cui non è continua) ed eventualmente in altri punti η1 , . . . , ηM sempre in
numero nito. Inoltre f 0 (dove è denita) è continua e limitata.

Oss: Se f è continua a tratti allora è limitata e integrabile in [a, b]. Stessa cosa per f 0 se f è
regolare a tratti.

Lemma: Con f : R → R2 − π periodica, limitata e integrabile in [−π, π] si ha:


sin[(n+ 1 )x]
(1) 1
+ cos x + · · · + cos(nx) = 2 sin( x2 )
2 ∀n ∈ N,
2
1
(2) ∀nSn (x) = π1 −π f (x + t) 2 sin( t2) dt questa è la formula di Dirichlet.
Rπ sin[(n+ )t]
2

Dimostrazione. (1) si dimostra per induzione: per n = 0 si ha 1/2 = 1/2. Supponiamola vera per
n − 1, dimostriamo per n. Abbiamo 1/2 + cos(x) + · · · + cos(n − 1)x + cos(nx) = sin2[(n−1/2)x] sin(x/2) +
cos(nx) = sin(nx) cos(x/2)−sin(x/2) cos(nx)+2 sin(x/2) cos(nx)
2 sin(nx) = sin(nx) cos(x/2)+sin(x/2) cos(nx)
2 sin(x/2) = 2 sin(x/2) .
sin[(x+1/2)x]

Per la (2) dobbiamo faticare unRpò di più: Sn (x) = a0 P 1



2 + ak
cos(kx)+bk sin(kx) = 2π −π f (t)dt+
1 P π π
R 1
Rπ P
π ( −π f (t) cos(kx)dt) cos(kx)+( −π f (t) sin(kt)dt) sin(kx) = π [ −π f (t)/2+ f (t) cos(kt) cos(kx)+
f (t) sin(kt) sin(kx)dt] = π1 −π f (t)/2 + f (t) cos(k(t − x))dt qui cambio parametro: pongo t − x =
Rπ P

u ⇒ dt = du e l'integrale quindi diventa π1 −π−x 1/2f (u + x) + f (u + x) cos(ku)du ma poichè


R π−x P

sono tutte funzioni 2 − π periodiche posso traslare l'integrale, che quindi diventa π1 −π

f (u +
2 sin(u/2) du (il secondo pezzo viene da (1) ).
x) sin[(n+1/2)u] ##
Teorema: Sia f : R → R funzione 2 − π periodica e regolare a tratti. Allora la serie di Fourier
di f converge puntualmente ad f nei punti di continuità, mentre nei punti di discontinuità converge
+ (x− )
a f (x )+f
2 .
Notiamo innanzitutto che π1 0π sin[(n+1/2)t]
2 sin(t/2) dt = π −π 2 sin(t/2) dtin quanto il seno
1 0 sin[(n+1/2)t]
R R
Dimostrazione.

è una funzione dispari. Ma questo ci porta a dire che π1 0π (1/2+ cos(kt)dt = π1 (π/2+ [ sin(kt) π
R P P
k ]0 ) =
1/2.
+ (x− )
Prendiamo ora x ∈ R e stimiamo Sn (x) − f (x )+f 2 usando Dirichlet. Abbiamo che Sn (x) −
f (x+ )+f (x− )
2 sin(t/2) dt ora
1 π ∈[(n+1/2)t] 1 π
R0
= π −π f (x + t) 2 sin(t/2) dt − π 0 f (x ) 2 sin(t/2) dt − π1 −π f (x− ) sin[(n+1/2)t
+ sin[(n+1/2)t]
R R
2
sostituiamo il 1/2 della semisomma con l'integrale calcolato prima e otteniamo che π1 −π
R0
[f (x +
t) − f (x )] 2 sin(t/2) dt + π 0 [f (t + x) − f (x )] 2 sin(t/2) dt = π −π G(x, t) sin[(n + 1/2)t]dt dove
− sin[(n+1/2)t] 1 π + sin[(n+1/2)t] 1 π
R R

16
 f (x+t)−f (x+ )
 2 sin(t/2)
 0<t≤π
G(x, t) = f (x+t)−f (x− )
− π ≤ t < 0 . Mostriamo che G(x, t) ha un numero nito di discontiunità
 2 sin(t/2)

0 t=0
e che è limitata. Un punto di discontinuità sarà sicuramente in 0, gli altri saranno in corrispondenza
dei punti ξi = x + t. Nei punti ξk − x non ci sono problemi di limitatezza, in quanto f (x + t) era
limitata quindi sarà lo stesso per G(x, t). Controlliamo lo 0: sia 0 < t < 1/2 t.x. f sia derivabile
in [x − t, x + t] tranne al più in x. Allora f (t + x) sarà derivabile in [−t, t] con il dubbio dello
f (x + s) − f (x+ ) 0 < s ≤ t
0. Deniamo allora h : [0, t] → R tale che h(s) = . Questa nuova
0 s=0
funzione è derivabile in (0, t] ed è contina in tutto [0, t]., possiamo quindi usare il teroema di Cauchy:
h(t) − h(0) h0 (s) |f 0 (x+s)|
h(t)
2 sin(t/2) = = cos(s/2) = | cos(s/2)| ≤ M (in quanto per ipotesi f era regolare a
2 sin(t/2) − sin(0)
| {z }
G(x,t)
tratti, ovvero con derivata limitata). Quindi G(x, t) in un intorno dx di 0 è limitata. Facendo lo
stesso lavoro per un intorno sx di 0 ho la tesi del teorema. ##
NOTA: Se f è continua in x allora f (x+ )−f (x− )
2 = f (x), ovvero posso riformulare il teorema
f (x+ )+f (x− )
dicendo che nelle stesse ipotesi la serie di Fourier è uguale a 2 ∀x ∈ R.

Il teorema ci dice quando la serie di Fourier converge PUNTUALMENTE, ma cosa possiamo


dire della convergenza uniforme??? Innanzitutto possiamo aermare che se f è solamente continua
a tratti ma non continua non c'è convergenza uniforme!!! Per il resto un teorema viene in nostro
aiuto, ma prima dobbiamo dimostrare un lemma:
Lemma: Sia F : [a, b] → R continua e regolare a tratti. Allora ab F (t)dt = F (b) − F (a).
R

Dimostrazione. Siano a = η0 < η1 < · · · < ηN < ηN +1 = b i punti di non derivabililità di


F . Ma allora le F : [ηk , ηk+1 ] → R sono continue, derivabili Rin (ηk , ηk+1 ) e inoltre anche F 0 è
limitata e continua in (ηk , ηk+1 ). Allora posso applicare il TFC: ηηkk+1 F 0 (t)dt = F (ηk+1 ) − F (ηk ) ⇒
F (t)dt = F (ηN +1 ) − F (ηN ) + · · · + F (η1 ) − F (η0 ) = (semplicando i
Rb 0 PN R ηk+1 0
a F (t)dt = k=0 ηk
termini di questa specie di serie telescopica) = F (ηN +1 ) − F (η0 ) = F (b) − F (a) ##
TEOREMA SULLA CONVERGENZA UNIFORME PER LE SERIE DI FOURIER:
Sia f : R → R una funzione 2 − π periodica, continua e regolare su tutto R (abbiamo detto prima
che non basta la continuità a tratti). Allora la serie di Fourier di f converge a f totalmente (quindi
anche uniformemente) su tutto R.
Dimostrazione. Prendiamo la funzione F (x)R π= f0(x) cos(nx). Questa funzione è continua R π e0 regolare
aR tratti. Allora per il lemma precedente −π F (x)dx = F (π) − F (−π) = 0. Ma −π F (x)dx =
−π f (x) cos(nx)dx − n −π f (x) sin(nx)dx = πan − nπbn = 0 ⇒ an = bn (dove an e bn sono i
π 0
Rπ 0 0

coecenti di f 0 ).
Denendo G(x) = f (x) sin(nx) e ragionando in modo analogo troviamo che b0n = an . Ma quindi
unendo le due cose otteniamo che |an cos(nx) + bn sin(nx)| ≤ |an | + |bn | ⇒ supx∈R |an cos(nx) +
0
bn sin(nx)| ≤ |an | + |bn |. Pongo |an | = n1 |nan | = |bnn | ≤ 1/2( n12 + |b0n |2 ). Ma n12 converge, come
|b0n |2 (per Bessel), quindi anche |an | deve convergere!!! Facendo un ragionamento analogo per i bn
otteniamo che la serie dei moduli converge, ovvero abbiamo la convergenza totale. ##
Prendiamo ora la funzione f ∗ = x in [−π, π] e la estendiamo ripetendola. f ∗ è regolare a
tratti, e i suoi coecenti di Fourier sono bn = − n2 (−1)n , (gli an non ci sono in quanto è una

17
n+1
funzione dispari). Abbiamo quindi che f ∗ = 2 (−1)n sin(nx) e a questa serie applico il teorema
P
di convergenza. In π nessun problema, la semisomma è 0, come il valore della serie in quel punto.
Posso dare allora la seguente prop:
Prop: Sia 0 < p < π. Allora la serie di Fourier di f ∗ converge unif. in [−p, p] e in tutti i suoi
traslati per periodicità.
k+1
Sia x ∈ [−p, p] e m > n. Allora Sm (x) − Sn (x) = 2 m (−1)
sin(kx).
P
Dimostrazione. k=n+1 k
P (−1)k+1
Moltiplichiamo cos(x/2) e otteniamo che (Sm (x) − Sn (x)) cos(x/2) = 2 k sin(kx) cos(x/2)
e uso prostaferesi: 2 sin(kx) cos(x/2) = sin((k − 1/2)x) + sin((k + 1/2)x), quindi la somma diventa
P (−1)k+1 (−1)k+1 P (−1)k+1 (−1)h+2
sin((k+1/2)x)+ m−1
P
k sin((k+1/2)x)+ sin((k − 1/2)x) = k h=n h+1 sin((h+
| k {z }
k=h+1
Pm−1 (−1)k+1 −1k (−1)n (−1)m+1
1/2)x) = k=n+1 ( + ) sin((k + 1/2)x) + n+1 sin((m + 1/2)x) + m sin((m +
| k {z k + 1 }
(−1)k+1 ( k1 − k+1
1
P
)
1/2)x). Da quiPosserviamo il modulo, poichè cos(x/2) in [−π, π] è ≥ 0 abbiamo che: |Sm −
Sn | cos(x/2) ≤ ( k1 − k+1
1 1
)+ m 1
+ n+1 = n+11
− m 1 1
+ m 1
+ n+1 2
= n+1 . Ovvero ∀x ∈ [−p.p]
e ∀m > n abbiamo che |Sm − Sn | ≤ (n+1) cos(x/2) . Ma per m = +∞ questa dierenza diventa
2

−−−−−→ 0.
2 2 2 n→+∞
|f (x) − Sn | ≤ ≤ (n+1) cos(p/2)
(n+1) cos(x/2) ⇒ supx∈[−p,p] |f (x) − Sn (x)| ≤ (n+1) cos(p/2)
Ho convergenza uniforme in [−p, p]!!! ##
Ma come possiamo generalizzare questo risultato??? Innanzitutto osserviamo Rla funzione
f ∗ (x − λ). Vediamo che non è più simmetrica, quindi potrebbe ∃a00 6= 0, invece a00 = π1 λ−π f ∗ (x −
λ+π

λ)dx = π1 −π f ∗ (x)dx = 0. Calcoliamo gli altri termini: a0n = π1 λ−π f ∗ (λ − x) cos(nx)dx =


R π R λ+π

1 π ∗ 1 π ∗ 1 π ∗
R R R
π −π f (x) cos(n(x + λ))dx = ( π −π f (x) cos(nx)dx) cos(nλ) − ( π −π f (x) sin(nx)dx) sin(nλ)
n+1
ma an = 0 per f ∗ (che è il primo termine), dunque questo termine è −2 (−1)n sin(nλ). Analoga-
n+1
mente b0n = 2 (−1)n cos(nλ).
n (−1)n+1 P (−1)n+1
Abbiamo ottenuto che f ∗ (x+λ) = 2 (−1)
P
n sin(nλ) cos(nx)+ n cos(nλ) sin(nx) = 2 n sin(n(x−
λ)). Per 0 < p < π il supλ−p≤x≤λ+p |f (x − λ) − Sn (x)| = −p≤x≤p |f (x) − Sn (x)| → 0 in altre
∗ 0 ∗
P
parole anche la traslata converge in [−p, p]!!! Possiamo quindi dare questo importante teorema:

TEOREMA DI CONVERGENZA UNIFORME LOCALE:


Sia f : R → R una funzione 2 − π periodica e regolare a tratti. Se (α, β) è t.c. f |(α,β) è continua,
allora la serie di Fourier di f converge uniformemente in ogni [a, b] ⊂ (α, β).
Dimostrazione. Siano ξ1 , . . . , ξN ∈ [−π, π] i punti di discontinuità di f e siano δi = f (ξi+ ) − f (ξi− ).
Deniamo F (x) = f (x)+ 2π δ1 ∗
f (x+π−ξ1 )+· · ·+ δ2π f (x+π−ξN ). F (x) è regolare a tratti (in quanto
N ∗

somma di funzioni regolari a tratti) e continua, tranne forse nei punti ξi . Ma si vede facilmente che
f (x + π − ξi ) = f (ξi+ ) − δ2i e limx→ξ− f (x) + 2π
δi ∗
limx→ξ+ f (x) + 2π f (x + π − ξi ) = f (ξi− ) + δ2i che
δi ∗
i i
sono uguali (basta ricordarsi di come è denito δi ). Quindi P δiabbiamo che la serie di Fourier di F
converge unif. (in quanto continua), ma f (x) = F (x) − i 2π f (x + π − ξi ), quindi anche la serie

di Fourier di f converge uniformemente in quanto sia ogni f ∗ converge unif (in quanto in [a, b] non
cade nessun ξi ) sia F (x) converge unif. ##

18
TEOREMA: Sia f : R → R funzione 2 − π periodica ed esista s ∈ N t.c. f ∈ C s−1 (R). Allora
an = b(n) = o( n1s )

Dimostrazione. Si dimostra facilmente per induzione, mostriamo esplicitamente solo R π per s = 1.


Prendiamo
Z π
la funzione F (x) = f (x) cos(nx) e controlliamo il seguente integrale: −π F 0 (x)dx =
Z π
f 0 (x) cos(nx)dx −n f (x) sin(nx)dx = 0 (in quanto la funzione è periodica). Allora a0n = nbn
| −π {z } | −π {z }
πa0n πbn
e b0n = −nan (si ottiene facendo le stesse cose con la funzione G(x) = f (x) sin(nx)). Ma per
Riemann-Lebesgue a0n e b0n devono tendere a 0, ovvero a0n , b0n = o(1), dunque an = − n1 b0n = o( n1 ) e
analogamente bn = o( n1 ). Questo è il primo passo induttivo, gli altri seguono banalmente. ##

19
Parte II

Cannarsa

20
Capitolo 2

Topologia analitica
2.1 Prime denizioni e teoremi
Def 18. Si dice DIAMETRO di un insieme il supE {d(x, y)|x, y ∈ E}
Prop: (X,d) spazio metrico. XT completo ⇔ ∀{Cn } famiglia di chiusi t.c. Cn ⊃ C Tn+1 6 =
∅diamCn → 0 per n → +∞ ho che C
n n contiene un solo elemento (ovvero ∃x̄ ∈ X t.c. ∞
n=1 =
{x̄}).

Dimostrazione. =⇒ ∀n ≥ 1 ∃xn ∈ Cn . Ottengo una {xn }. Facciamo vedere che è di Cauchy.


∀k ≥ 1, ∃xn ∈ Ck ∀n ≥ k (per monotonia degli insiemi). Quindi ssato ε > 0∃kε ≥ 0 : diamCkε < ε.
Prendendo n, m ≥ kε allora d(xn , xm ) ≥ diamCkε < ε. La successione è quindi
T di Cauchy e quindi
converge. ∃ quindi un x̄ = limn xn ∈ X . Notiamo che x̄ ∈ Cn e x ∈ Cn ⇒ x = x̄. Infatti
0 0
T
poichè i Cn sono chiusi, xn ∈ Ck ⇒ x̄ ∈ Ck ∀k ≥ 1, quindi deve stare in tutti i chiusi, ovvero appar-
tiene all'intersezione. Mentre per la seconda osservazione basta notare che d(x̄, x0 ) ≤ diamCn →
0 ⇒ d(x̄, x0 ) ≤ 0 ⇒ x0 = x̄ per denizione di distanza.

⇐= Sia {xn } ⊂ X di Cauchy. Scegliamo la successione di chiusi così denita: C1 = {xn |n¯ ≥ 1} C2 =
{xn |n¯ ≥ 2} . . . Ck = {xn |n¯ ≥ k}. Questa è successione di chiusi t.c. Ck ⊃ Ck+1 . Vediamo che
diamCn → 0. Sfruttiamo il fatto che {xn } è di Cauchy: ssato ε > 0∃kε : m, n ≥ kε ⇒
|xn − xm | < ε ⇒ diamCk ≤ ε ∀k ≥ kε diamCk → 0 (qui sfruttiamo il fatto che diamE = diamĒ ).
quindi so che d(x̄, xn ) ≤ diamCn → 0 ⇒ d(x̄, xn ) → 0 ⇒ xn → x̄. ##
T
Ck = {x̄}

Def 19. (X, d) spazi metrici. K ⊂ X si dice compatto per successioni se ∀{xn } ⊂ K∃{xkn }
successione estratta t.c. xkn → x̄ ∈ K(n → ∞)
OSS: K compatto p. succ. ⇒ K chiuso e limitato. In Rn (e solo qui) vale anche il viceversa!!!!

Def 20. (X,d) si dice totalmente limitato se ∀ε∃E1 , . . . , En ⊂ X t.c.


S
i Ei = X, diamEi < ε∀i =
1...n

Non è restrittiva supporre gli Ei come chiusi o sfere!!!!



Kcompleto
OSS: K chiuso e limitato ⇒ . Infatti presa una successione {xn } ⊂ C di Cauchy,
Ktot.limitato
∃x̄ ∈ X t.c. {xn } → x̄ e poichè C è chiuso, x̄ ∈ C . Inoltre l'insieme è limitato, quindi lo chiudo in un

21

quadrato. Divido poi il quadrato in n parti uguali di lato l/n. Il diametro è l/n 2 per n abbastan-
za grande posso ridurmi col diametro < ε. In più ho ricoperto k con un numero nito di sottoinsiemi.

Teorema di caratterizzazione dei compatti: Sono equivalenti:


(a) X compatto per successioni;
(b) X completo e totalmente limitato;
(c) X compatto (inteso geometricamente).
Dimostrazione. (a)⇒(b) X completo: {xn } ⊂ X di Cauchy. So che ∃ sottosuccessione {xkn } ⊂
{xn } : xkn → x ∈ X. Osserviamo che se {xn } ⊂ X è di Cauchy, poichè {xkn } ⊂ {xn } e
xkn → x ⇒ xn → x. Allora la successione converge, ovvero X è completo. Dobbiamo solo di-
mostrare la totaleS limitatezza. Sappiamo che X è tot. limitato, quindi ∀ε > 0∃Ei ...En ⊂ X
diamEi < ε t.c. i Ei = X . Per assurdo non sia vero: ∃r > 0 t.c. non è possibile ricoprire X con
una famiglia di sfere I(x, r).x
S 1 ∈ X ⇒ ∃x2 ∈ X I(x1 , r) ⇒ ∃x3 ∈ X (I(x1 , r) ∪ I(x2 , r)) iterando ot-
tengo che ∀n ≥ 1xn ∈ X n−1 k=1 I(xk , r) Qui sfrutto la compattezza: ∃{xkn } ⊂ {xn } : S
xk n → x ∈ X .
Prendo I(x,r). So che xkn ∈ I(x, r) n ≥ n̄ d(xkn , xkn̄ ) → 0 per n ≥ n̄. Ma xn+1 ∈/ I(xk , r) e in
particolare xkn+1 ∈/ l=1 I(xl , r) ⇒ d(xkn , xkn+1 )ger che è assurdo.
Skn+1 −1

(b)⇒(c) Per assurdo non sia compatto. Sia F = {Fi }i∈I ricoprimento apertodi X da cui
non sia possibile estrarre un sottoricoprimento nito. Ma X è totalmente limitato, quindi preso
ε = 1∃C11 , C21 , . . . , Cn1 sfere chiuse di raggio ≤ 1/2 che ricoprono X. Sia X1 = Ck11 t.c. non si
ricopre con nessuna sottofamiglia nita di F . Ho che diamX1 = 1, ricopro X1 con sfere di rag-
gio ≤ 1/4.X1 = C12 ∪ ... ∪ Cn2 diamCk2 ≤ 1/2. Continuando a ricoprire con sfere gli insiemi che
non ammettono sottoricoprimento nito, ottengo X ⊃ X1 ⊃ · · · ⊃ Xk ⊃ . . . con Xk chiusi e con
diamXk < 1/kTe che non si ricoprono con una sottofamiglia nita di F . Ma per l'osservazione
precedente, se Xk = {x}∃r > 0 t.c. I(x, r) ⊃ F ⇒ I(x, r) ⊃ Xkn denitivamente, che crea un
assurdo.

(c)⇒(a) Sia {xn } ⊂ X . Sto in uno spazio metrico, quindi se so che ∃x ∈ X : ∀r > 0 xn ∈
I(x, r) per inniti n, posso estrarre una sottosuccessione che converge ad X. Per assurdo questa
propietà non vale, ovvero ∀x ∈ X∃rx > 0 : xn ∈ I(x, rx ) per al più niti indici. Considero questa
famiglia di aperti, che è sicuramente un ricoprimento apertoSdi X. ∃x̄1 , . . . x̄n t.c.X = ni=1 I(x̄i , rxi ).
S
Ma in questo modo xk ∈ X∀k ∈ N, quindi deve stare in I(x̄i , rx̄i ). Ma in ogni I(x̄i , rx̄i ) ho che
la successione ci può stare al più in un numero nito di indici, quindi ho l'assurdo perchè non può
contenere tutta la successione. ##
Def 21. Una funzione si dice semicontinua superiormente o inferiormente se è continua rispetti-
vamente in τS τD (ricordi? τS è la topologia degli intervalli limitati a sx e illimitati a dx, τD è la
topologia al contrario). In altre parole, f è semicontinua sup (inf) se ∀ε > 0∃σ > 0 : d(x, x0 ) < σ ⇒
f (x) > f (X0 ) − ε(ossia lim inf x→x0 f (x) ≥ f (x0 ) ) (analogo per la semicontinuità inf.)

La semicontinuità ci permette di modicare il teorema di Weierstrass: infatti se siamo interes-


sati solo al min o al max, possiamo tralasciare di studiare la continuità (che serve per applicare il
teorema) ma possiamo studiare solo la semicontinuità!!! Ecco il teorema modicato:

TEOREMA DI WEIERSTRASS PER LE FUNZIONI SEMICONTINUE: Sia f (X, d) →


R semicont. inf. (sup.) su X. Sia K ⊂ X un compatto. Allora f ammette minimo (max) su K
(ovvero ∃ minK (maxK )f ).

22
Dimostrazione. Sia λ = infK f. Allora λ ∈ R oppure λ = −∞ ⇒ λ ∈ [−∞; +∞). Se λ 6= −∞ e

∃x̄ t.c. f (x̄) = λ ho nito (x̄ è banalmente il minimo). Supponiamo ∃{xn } ⊂ K t.c. f (xn ) → λ
(questa è una successione minimizzante). Ma poichè K è compatto, ∃{xkn } ⊂ {xn } : xkn } → x ∈
K.f (xkn ) → λ (poichè è estratta da f (xn )). Ma lim inf n f (xkn ) ≥ f (x) (in quanto è semicontinua
inf.). Ma f (xkn ) è estratta, quindi lim inf = lim per forza. ⇒ λ ≥ f (x) ∈ R ⇒ λ 6= −∞. Inoltre
f (x) ≥ λ (perchè appartiene all'immagine e λ = lim inf f ) Quindi ∃x̄ t.c. f (x̄) = λ ovvero λ è il
minimo. ##
Dopo aver modicato il teorema di Weierstrass possiamo modicare un secondo fondamentale
teorema dell'analisi, questa volta utilizzandi gli spazi metrici:

TEOREMA DI HEINE-CANTOR: f : (X, d) → (Y, δ). X compatto, f continua ⇒ f uni-


formemente contiuna. La dimostrazione è identica al teorema normale.
RICORDA: f : X → Y si dice unif. continua se ∀ε > 0∃σ t.c. ∀x, y ∈ Xd(x, y) < σd(f (x), f (y)) <
ε.

Prima di introdurre un ultimo importante risultato, ricordiamo quand'è che una funzione si
dice Lipschitziana: f : X → X è lipschitziana se ∃L ≥ 0 t.c. ∀x, y ∈ X d(f (x), f (y)) ≤ L d(x, y)
Def 22. f : X → X si dice una contrazione su X se ∃λ ∈ [0, 1) t.c. è lipschitziana di costante λ.

. Ma come generare funzioni lip. o contraibili in modo semplice? Facile: presa una f : R →
R, f ∈ C 1 (R) ||f 0 ||∞ < ∞. Allora f è lip. e L = sup||f 0 ||∞ . Quindi, se sup||f 0 ||∞ < 1 ho una
contrazione!!!

Ma a che cosa serve la lipschitzianità??? Questa è molto utile per vedere se una funzione ha
punti ssi (ovvero gli x t.c. f(x) = x) grazie a questo importante risultato:

TEOREMA DI BANACH: (X,d) completo. Sia f : X → X una contrazione. Allora


∃!x ∈ X t.c. f (x) = x.

Dimostrazione. Fisso un x0 ∈ X . Denisco xn = f (xn−1 ) per n ≥ 1.xn = f n (x0 ) = (f ◦ f ◦ · · · ◦ f )(x0 ).


| {z }
n volte

d(xn+1 , xn ) = d(f (xn ), f (xn−1 )) ≤ λd(xn , xn−1 ) (applico la lip.) ≤ λ2 d(xn−1 , xn−2 ) itero... ≤ λn
d(x1 , x0 ) ⇒ d(xn+1 , xn ) ≤ λn d(x1 , x0 ). Per induzione si dimostra facilmente che è vero: il pri-
mo passo già l'abbiamo fatto, suppngo vero per n − 1 e trovo lo scarto per d(xn+p , xn )(p ≥
1).d(xn+p , xn ) ≤ d(xn+p , xn+p−1 )+· · ·+d(xn+1 , xn ) ≤ λn+p−1 d(x1 , x0 )+. . . λn d(x1 , x0 ) = λn (λp−1 +
1−λ (è la formula per le somme nite) ≤ 1−λ d(x1 , x0 ). Finita l'induzione.
p λn
· · · + 1)d(x1 , x0 ) = λn 1−λ
Poichè λ < 1, la successione è di Cauchy, quindi, poichè X è completo, è anche convergente
⇒ ∃x = limn xn . Ma xn+1 = f (xn ) e poichè f è continua f (xn ) → f (x) in quanto xn+1 → x.
Quindi ho che f (x) = x. Dimostriamo ora l'unicità: se esistono due punti uniti, x = f (x) e
x0 = f (x0 ) ⇒ d(f (x), f (x0 )) = d(x, x0 ) ma poichè la funzione è una contrazione, d(f (x), f (x0 )) ≤
λd(x, x0 ) ⇒ d(x, x0 ) ≤ λd(x, x0 ) ⇒ (1 − λ)d(x, x0 ) ≤ 0. Ma 1 − λ > 0 ⇒ d(x, x0 ) = 0. ##
La completezza è importante (infatti si utilizza molto nella dimostrazione): per esempio, presa
f (x) = x/2, X = (0, 1], X non è compatto (manca lo 0) e quindi non può essere completo. Infatti
questa non ha punti ssi, anche se f è una contrazione!!!!!! (L'unico punto sso sarebbe lo 0, che
non appartiene all'intervallo).

23
Capitolo 3

Funzioni dierenziali
3.1 Equazioni dierenziali ordinarie
Siano t ∈ I ⊂ R, F (t, y(t), . . . , y (n) (t)) = 0∀t ∈ I . Questa è un equazione dierenziale. Per
risolverla, cerco una y ∈ C n (I) che risolva l'equazione. Noi lavoreremo sempre con equazioni
della forma normale, ovvero equazioni in cui è possibile isolare la derivata massima. Le nos-
tre equazioni saranno quindi della forma y (n) = f (t, y(t), . . . , y (n−1) ). Queste equazioni si dicono
ordinarie perchè l'incognita dipende solo da una variabile reale, ma ci sono anche equazioni della
forma F (x, u(x), ∇u(x), . . . , ∇α u(x)) = 0|α| = n. Queste sono le equazioni a derivata parziale.

Tra i casi più semplici di equazioni dierenziali ci sono quelle della forma
y 0 (t) = a(x)y(t) + b(t) a, b ∈ C(I) (E1 )

. Queste mi danno però una soluzione generale dell'equazione. Posso trovare una solux in un punto
particolare se aronto un problema di Cauchy, ovvero un'equazione posta in questo modo:
y 0 = ay + b

(CE1 )
y(t0 ) = y0

Si noti che (E1 ) ha innite soluzioni (dieriscono tutte di una costante), mentre (CE1 ) ne ammette
una sola. Ma come si ottengono le soluzioni??? Dopo svariati calcoli, visti in Analisi 2 col Porretta,
ricaviamo che le solux dell'equazione (E1 ) sono:
Z
y(t) = ceA(t) + eA(t) b(s)e−A(s) ds

mentre le solux di (CE1 ) sono


Z t Rt Z t Rt
y(t) = eA(t0 ) + eA(t0 ) b(s)eA(t)−A(s) ds ⇒ y(t) = y0 e t0 + e s a(σ)dσ
b(s)ds
t0 t0

Facciamo ora un passo in avanti: cerchiamo di studiare un equazione dierenziale NON-


LINEARE e il suo problema di Cauchy:
y 0 (t) = f (t, y(t)) (E1 )

24
y 0 = f (t, y(t))

(CE1 )
y(t0 ) = y0
ma prima diamo la denizione di SOLUZIONE:

Def 23. y si dice soluzione di (E1 ) se y ∈ C 1 (I)I ⊂ R intervallo. Questa solux deve essere tale che
(t, y(t)) ∈ A∀t ∈ I e l'equazione (E1 ) deve valere ∀t ∈ I . Inoltre, se ho un problema di Cauchy,
deve vericare la condizione iniziale, ovvero t0 ∈ I .
Lemma (di Volterra): y ∈ C(I). y solux di (CE1 ) ⇔ (t, y(t)) ∈ A∀t ∈ I e y risolve l'e-
quazione integrale, ovvero y risolve y(t) = y0 + tt0 f (s, y(s))ds∀t ∈ I . Questa si dice EQUAZIONE DI VOLTERR
R

=⇒ y solux di (CE1 ). f (s, y(s))ds che


Rt Rt Rt
Dimostrazione.
t0 y 0 (s) = t0 f (s, y(s))ds ⇒ y(t) − y0 = t0
è l'eq. di Volterra.
Z t
⇐= Studio la composizione s → f (s, y(s)), che è continua su I ⇒ t → f (s, y(s))ds è C 1 (I)
t0
| {z }
y(t)−y0
e quindi ho nito, perchè mi posso ricondurre alla denizione di soluzione!!! ##
Studiamo ora un teorema fondamentale che dimostra l'esistenza e l'unicità delle solux, ma pri-
ma un'osservazione utile ai ni della dimostrazione:
OSS: Se ho f (t, x1 )−f (t, x0 ) per |t−t0 | ≤ r0 e |x1 −x0 | ≤ ρ per Lagrange ho che |f (t, x1 )−f (t, x0 )| =
|fx (t, x̄)(x1 − x0 )| ≤ L|x − x0 |.

TEOREMA DI ESISTENZA E UNICITA' DELLE SOLUX (TEOREMA 1): Siano


f, fx ∈ C 1 (A) con fx = ∂f ∂x e(t0 , y0 ) ∈ A. Allora ∃r0 > 0 t.c. (CE1) ha UNA E UNA SOLA solux.
in I(t0 , r0 ) = (t0 − r0 , t0 + r0 ).
Dimostrazione. ESISTENZA: Voglio trovare un r0 t.c. intorno rettangolare di t0 : Q = [t0 −
r0 , t0 + r0 ] × [y0 − ρ, y0 + ρ] ⊂ A. Q è compatto, quindi ∃maxQ |f | = M (per Weierstrass).
Allo stesso modo ∃maxQ |fx | = L. Il mio scopo è costruire una successione yn → y solux di
Volterra. Prendo y0 (t) = y0 , come R t denire y1 (t)?? Poichè voglio sia di Volterra, pongo R t y1 (t) =
y0 t0 f (s, y0 (s))ds . . . yr (t) = y0 + t0 f (s, yn−1 (s))ds. Ottengo così che |y1 (t)−y0 (t)| ≤ | t0 |f (s, y0 )|ds| <
Rt

M (t − t0 ) per |t − t0 | ≤ r. Per essere sicuri che |y − y0 | < ρ, pongo M ≤ ρ. Quindi pon-


go r0 = min{r, ρ/M, 1/2L}. Con r0 così denito ottengo che M (t − t0 ) ≤ ρ. Mostriamo che
∀t, |t − t0 | ≤ r0 e yn (t) − y0 ≤ ρ. Abbiamo visto che è vera per n = 1, supponiamolo vero per n − 1
e controlliamo per n : |yn − y0 | ≤ t0 |f (s, yn−1 (s)|ds ≤ M r0 ≤ ρ per come ho scelto l'integrale.
Rt

Quindi OK!!!
Occupiamoci ora della convergenza,valutando yn (t)−yn−1 (t). So che |yn (t)−yn−1 (t)| ≤ | tt0 |f (s, yn−1 (s))−
R

R tyn−2 (s))|ds| e per l'osservazione che abbiamo fatto prima posso paggiorare: |yn (t) − yn−1 (t)| ≤
f (s,
L| t0 |yn−1 (s) − yn−2 (s)|ds| ≤ L|t − t0 | · ||yn−1 − yn−2 ||I(y0 ,r0 ) ≤ Lr0 ||yn−1 − yn−2 ||I(t0 ,r0 ) ∀n ≥ 2.
Ho quindi che ||yn−1 − yn || ≤ (Lr0 )n ρ. Se prendo r0 < 1/L allora la serie converge TOTAL-
MENTE in I(t0 , r0 ) perchè la serie della norma converge in quanto minore di una serie geomet-
rica di Pragione < 1 ⇒ la serie converge unif, quindi possiamo prendere la ridotta della serie:
n=0 (yn+1 (t) − yn (t)) = yN − y0 (è una telescopica) ⇒ yn (t) → y(t) unif in I(t0 , r0 ).
N
SN =
Inoltre tutte le yn sono C 1 , quindi ottengo Rche y ∈ C(I(t0 , r0 )), (t, y(t)) ∈ Q (perchè vericano tutte
questa proprietà) e al limite y(t) = y0 + tt0 f (s, y(s))ds perchè s → f (s, yn−1 (s)) → f (s, y(s)) e

25
quindi y(t) verica l'equazione di Volterra.

UNICITA' Sia y(·) una solux su I(t0 , r0 ). Suppongo per assurdo ∃z(·) solux in I(t0 , r0 ) dello
stesso problema di Cauchy. Dimostriamo che y ≡ z . In t0 coincidono per forza (sono solux dello
stesso Cauchy). Deniamo sup{t ∈ [t0 , t0 + r0 )|y(s) = z(s)∀s ∈ [t0 , t]} = τ.τ ∃ sicuramente, perchè
nell'insieme c'è almeno t0 !!! Ragioniamo a dx di t0 (il ragionamento a sx è analogo): se τ = t0 + r0
ho nito. Vediamo che non può essere altrimenti, ovvero non posso avere τ < t0 +r0 . Prima abbiamo
visto che |y(t) − y0 | ≤ M |τ − t0 | < M r0 ≤ ρ. Poichè |y(τ ) − y0 | = |z(τ ) − y0 | < ρ ⇒R |z(t) − y0 | ≤
ρ∀t ∈ [τ, τ + r1 ] per continuità. Allora posso fare alcune stime: y(t) − z(t) = τ f (s, y(s)) −
t

f (s, z(s))ds τ ≤ t ≤ t0 + r1 ma per l'osservazione pongo l'integrale ≤ L tau |y(s) − z(s)|ds ≤


Rt

Lr1 ||y − z||[τ,τ +r1 ] inoltre so che ||y − z||[τ,τ +r1 ] ≤ Lr1 ||y − z||[τ,tau+r1 ] ⇒ (1 − Lr1 )||y − z||[τ,τ +r1 ] ≤
0.Ma 1 − Lr1 > 0 per r1 < 1/L quindi deve essere per forza che ||y − z||[τ,τ +r1 ] = 0, quindi y = z
anche in τ + r1 , il che contraddice la massimalità di τ , e quindi le solux coincidono. ##
Osservazioni al teorema: (1) Se y1 , y2 sono solux di y0 = f (t, y)t ∈ I , allora i graci sono
diversi in ogni punto. Se ∃ un punto t̄ t.c. y1 (t̄) = y2 (t̄) allora y1 ≡ y2 (è conseguenza dell'unicità).
Infatti se nel punto t̄ i graci si incontrano, applicando il teorema in un intorno di t̄, questo ci dice
che nell'intorno preso quelle due solux sono uguali. Ma allora, preso l'insieme {t ∈ I|t ≥ t̄, y1 (s) =
y2 (s) ∀s ∈ [t̄, t]} e nominiamo il sup di questo insieme τ , se questo coincide col sup di I abbi-
amo nito. Notiamo innanzitutto che questo insieme è non vuoto per il teorema 1 e supponiamo
τ < sup I . Ovviamente coincidono no a τ , e in questo punto reimposto il teorema lavorando come
abbiamo fatto prima in un intorno di τ . Ma in questo modo contraddico la massimalità di τ , quindi
ho che τ deve essere necessariamente uguale al sup I.

(2) Nella dimostrazione del teorema non è ben chiaro il ruolo di fX ∈ C(A). In realtà di
quest'ipotesi ce ne siamo serviti quando abbiamo visto che |f (t, x) − f (t, x0 )|leL|x − x0 | ∀t ∈
I(t0 , r0 ) ∀x, x0 ∈ I(y0 , ρ). Per quanto ci serve, possiamo sostituire l'ipotesi di derivata contin-
ua con la locale lipschitzianità, ovvero mi basta avere che ∀(t0 , y0 ) ∈ A∃r, ρ > 0, ∃L ≥ 0 t.c.
|f (t, x) − f (t, x0 )| ≤ L|x − x0 | ∀t ∈ I(x0 , r)∀x, x0 ∈ I(y0 , ρ). C'è però un problema: quest'ipotesi è
sucente per dimostrare l'unicità, ma NON è richiesta nell'esistenza (come vedremo poi)!!!
Vediamo questo fatto con un esempio chiaricatore: sia 0 < α < 1, y 0 (t) = |y(t)|α , f (t, x) = |x|α . In
x = 0 questa funzione non è nè dierenziabile nè lipschitziana. Inoltre per α = 1 questa funzione
è lipschi. (ma non derivabile), mentre per α < 1 questa funzione è solo holderiana!!! Cerchiamo di
studiare questo problema in y(0) = 0. Posso applicare il metodo di risoluzione anche se la funzione
1
non è C 1 , ma ho problemi sull'unicità: dopo vari conti ottengo che y(s) = [(1 − α)s] 1−α . Sorge però
un problema: un'altra solux accettabile è quella identicamente nulla, oppure quelle traslate rispetto
l'asse x, come quelle simmetriche rispetto l'asse x o y, ecc. ecc.: in parole povere NON ho l'unicità
e non posso fare niente per scartare le soluzioni.

3.2 Equazioni di ordine n e sistemi del primo ordine


Def 24. Si chiama equazione di ordine n l'equazione dierenziale della forma
y (n) (t) = f (t, y(t), . . . , y (n−1) (t)) t ∈ I (En )

dove f : A → R e A ⊂ Rt × Rnx .

26
Def 25. Sia x(t) ∈ Rn e A ⊂ Rt ×Rnx (n ≥ 1). Allora, data f : A → Rn continua della forma f (t, x) =
(f1 (t, x), . . . , f (n (t, x)) t ∈ R, chiamiamo sistema del primo ordine la seguente equazione:

y 0 (t) = f (t, y(t)) y ∈ C 1 (I; Rn ) (S1 )

e il suo problema di Cauchy è


y 0 (t) = f (t, y(t)) t ∈ I

(CS1 )
y(t0 ) = y0

Possiamo dimostrare che i sistemi sono più generali delle equazioni di ordine n, perchè pos-
siamo sempre scrivere l'equazione come un sistema (basti
 pensare al II principio della dinam-
0
y1 (t) = y (t)
..

ica dell'Olivieri). Infatti, se y(·) è solux di (En ) ⇒ . e posto
yn (t) = f (t, y 0 , . . . , y (n−1) )t ∈ I


Y (t) = (y1 (t), . . . , yn (t)) = (y(t), y 0 (t), . . . , y (n−1) (t)) t ∈ I
| {z }
Rn
Il nostro sistema diventa  0

Y1 (t) = Y2 (t)
Y 0 (t) = Y3 (t)

2
...

 0

Yn (t) = f (t, Y1 , Y2 , . . . , Yn ) = f (t, y)
, dove Y è denita da: F : A → Rn , Y 0 (t) = F (t, Y (t)) e F (t, x) = (x2 , . . . , xn−1 , f (t, x)). Questa
scrittura ci suggerisce inoltre come formulare il problema di Cauchy per le equazioni di ordine n:
 0
y(t ) = x1
 0 0

y (t ) = x2

Y 0 (t) = F (t, Y (t)) .
 
⇒ .. (CEn )
Y (t0 ) = Y 0 = (Y10 , . . . , Yn0 ) 
y (n−1) (t0 ) = xn




 (n)
y = f (t)

Il teorema 1 vale anche per i sistemi, dopo aver opportunamente medicato la denizione di
locale lipschitzianità: dati x, y ∈ Rn , x = (x1 , . . . , xn )y = (y1 , . . . , yn ), ∀(t0 , y0 ) ∈ A∃r, ρ > 0, ∃L ≥ 0
t.c. ||f (t, x0 ) − f (t, x)|| ≤ L||x − x0 ||∀t ∈ I(t0 , y0 ) e ∀x, x0 ∈ I(y0 , ρ). Ecco tutta la dimostrazione:

TEOREMA DI ESISTENZA E UNICITA' DELLE SOLUX DI SISTEMI: Siano f ∈


C 0 (A, R), (t0 , y 0 ) ∈ A Q = I(t0 , r) × I(y 0 , ρ), Q ⊂ A, r, ρ, M, L > 0 Allora se è vericata
||f (t, x)|| < M ∀(t, x) ∈ Q ||f (t, x0 ) − f (t, x)|| < L||x0 − x|| ~ ∀(t, x), (t, x0 ) ∈ Q ⇒ posto
r0 = min{r, ρ/M, 1/2L} ∃!y ∈ C 1 (I(t0 , r0 ); R) solux di (CS).
Z t
Dimostrazione. Esistenza Deniamo il seguente sistema di Volterra: (V) y(t) = y0 + f (s, y(s))ds.
t0
| {z }
ψ(y)(t)
Fissato r0 , prendo l'insieme X = {y ∈ C(I(t0 , r0 0 ||∞ ≤ ρ}. Rinomino d(y, z) = ||y−z||∞ .
); Rn |||y−y
X è uno spazio metrico completo, perchè il limite uniforme è continuo, ovvero X è chiuso su C(I,
¯ Rn ).
Prendiamo ora la contrazione Ψ : X → X.Ψ(y(·))(t) = y0 + t0 f (s, y(s))ds∀t ∈ I¯. Ma noi non
Rt

27
sappiamo se y(·) ∈ X , infatti so solo che y ∈ C(I, ¯ Rn ). Inoltre non so neanche se Ψ è una
contrazione veramente!!! Controlliamo ||y(t) − yR0 || (in quanto se è < ρ, y(t) ∈ X ). Partiamo
dal fatto che ||y(t) − y0 || = tt0 f (s, y(s))ds|| ≤ tt0 ||f (s, y(s))||ds ≤ M (t − t0 ) ≤ M r0 ≤ ρ (poi
R

prendo il sup).
R t Per vedere se è Runa contrazione prendo y, Rzt ∈ X e controllo d(Ψ(y), Ψ(z)) =
supt∈I¯ ||y0 + t0 f (s, y(s))ds − y0 − t0 f (s, z(s))ds|| ≤ supt∈I¯ t0 ||f (s, y(s)) − f (s, z(s))||ds ma per
t

come ho scelto X, sia y che z distano al più ρ da y0 , quindi posso applicare l'ipotesi di lipschitzian-
ità: d(Ψ(y), Ψ(z)) ≤ 1/2d(y, z) ∀y, z ∈ X , in quanto per tt ≥ t0 tt0 ||f (s, y(s)) − f (s, z(s))||ds ≤
R

L t0 ||y(s) − z(s)||ds ≤ L||y − z||∞ (t − t0 ) ≤ r0 L||y − z||∞ (questa cosa è vera per ogni t, basta pren-
Rt

dere il modulo!!!). Ho dunque una contrazione in uno spazio completo, quindi ∃!x̄ ∈ X : x̄ = Ψ(x̄).
Si noti però che non ho dimostrato l'unicità, e quindi ci potrebbero essere soluzioni che non sono
contrazioni. La dimostrazione è però uguale a quella per il TEOREMA 1.

Unicità Prendiamo la ȳ(·) sulox costruita con le contrazioni e la y(·) solux di (CS) su I¯ =
¯ 0 , r0 ). Preso l'insieme {t ∈ [t0 , t0 + r0 ] : ȳ(s) = y(s) ∀s ∈ [t0 , t]} controlliamo il suo sup,
I(t
chiamato t̄. Possiamo aermare che t̄ = t0 + r0 ? Supponiamo per assurdo t̄ < t0 + r0 , per continuità
ȳ(t̄) = y(t̄) ⇒ ||ȳ(t̄) − y0 || ≤ M |t̄ − t0 | < ρ ⇒ ||y(t̄) − y0 || < ρ. Per continuità R∃t1 > t̄ e t1 <
t0 + r0 t.c. ||y(s) − y0 || < ρ∀t ∈ [t0 , t1 ]. Possiamo notare che ∀t ∈ [t̄, t1 ]ȳ(t) − y(t) = t̄ ||f (s, ȳ(s)) −
t

f (s, y(s))||ds ≤ L t̄ ||ȳ(s) − y(s)||ds ⇒ supt∈[t̄,t1 ] ||||ȳ(t) − y(t)|| ≤ L(t1 − t̄)||ȳ − y||∞,[t̄,t1 ] . Ma
Rt

prendendo L in modo tale che L(t1 − t) < 1/2 ottengo che 1/2||ȳ − y||∞,[t̄,t1 ] ≤ 0 ⇒ ||ȳ − y|| = 0
che è assurdo. ##
Diamo ora un lemma utile per la seguente dimostrazione: LEMMA R DI GRONWALL: Pre-
so u(t), se u ∈ C([a, b]), u ≥ 0, A, L > 0 e u(t) verica u(t) ≤ A + L at u(σ)dσ allora e−Lt (u(t) −
Rt −Lt ⇒
R s d −Lt R t Rs Rs
a u(σ)dσ ≤ Ae a dt (e a u(σ)dσ)dt ≤ a Ae−Lt dt ∀s ∈ [a, b] ⇒ e−Ls a u(σ)dσ ≤
A −La
Rs
L (e − e−Ls ) ⇒ a u(σ)dσ ≤ A L (e
L(s−a) − 1) ⇒ u(t) ≤ A(eL(t−a) − 1) + A = AL(s−a) ⇒ u(t) ≤
AL(t−a) ∀t1 ∈ [a, b].

Possiamo dare ora un corollario del teorema d'esistenza e unicità per i sistemi: COROLLARIO:
Sia f ∈ C(A, Rn ), (t0 ,y0 ) ∈ A t.c. Q̄ ⊂ A. Supponiamo verichi ~ su Q̄r,ρ (t0 , y0 ) ⇒ ∀(s, x) ∈
y = f (t, y)
I(t0 , r/2) × I(y0 , ρ/2) ha una sola solux in C 1 (I(s, r0 /2); Rn )Y (·, s|x ).
y(s) = x
La dimostrazione è uguale, basta applicare il teorema sotto queste ipotesi e prendere r0 /2. Bisogna
solo dimostrare la contiunità rispetto ad x e a s.
Dimostrazione. Prendiamo s ∈ I(t0 , r0 /2) e x, x0 ∈ I(y0 , r0 /2) e consideriamo y(t, s|x ), y(t, s|x0 ) (che
sappiamo esistono per t − s ≤ r0 /2) e stimiamo gli scarti, ovvero R t preso t ∈ I(s, r0 /2) quanto0 vale
y(t, s|x ) − y(t, s|x )??Scriviamoquestadif f erenzacomex − x + s f (σ, y(σ, x)) − f (σ, Y (σ, x ))dσ .
0
0

Applico la diseguaglianza e maggioro: |y(t, s|x ) − y(t, s|x0 )|| ≤ ||x + x0 || + st ||f (σ, y(σ, x)) −
R

f (σ, y(σ, x0 )||dσ ≤ ||x − x0 || + L s ||y(σ, x) − y(σ, x0 )||dσ ma per il lemma di Gronwall ho che
Rt

||y(t, x) − y(t, x0 )|| ≤ ||x − x0 ||eL(t−s) ∀t ⇒ sup[s,s+r0 /2] ||y(·, x) − y(·, x0 )|| ≤ ||x − x0 ||eLr0 /2 . Faccio
l'analogo per s0 ∈ [s − r0 /2, s] e ho anche la continuità a sinistra. ##
TEOREMA DI DIPENDENZA CONTINUA: Nelle ipotesi del corollario (ovvero f ∈
C(A, Rn ) e vale ~ su Q) allora ∀s ∈ I(t0 , r0 /2)∀x, x0 ∈ I(y0 , ρ/2) ⇒ ||y(t, s|x ) − y(t, s|x0 || ≤
C||x − x0 || ∀t ∈ I(s, r0 /2). Questa è addirittura una dipendenza lipschitziana!!! In altre pa-
role questo teorema ci dice che a seconda delle condizioni iniziali che ho per il problema di Cauchy
posso trovare diverse soluzioni allo stesso problema.

28
Prop: Siano y1 , y2 solux di ẏ(t) = f (t, y(t)) ∀t ∈ (a, b). Se ∃t0 ∈ (a, b) t.c. y1 (t0 ) = y2 (t0 )
allora y1 ≡ y2 (ovvero se le solux coincidono anche in un solo punto, allora coincidono in uttto
l'intervallo di denizione).
Dimostrazione. Vediamo che coincidono a dx: preso B = {t ∈ [t0 , b)|y1 (s) = y2 (s)∀s ∈ [t0 , t]} e

denominiamo il sup B = t̄. Sicuramente t̄ ≤ b. Se t̄ < b avrei un punto (t̄, x̄) contenuto
 in (a, b) \ B .
ẏ = f (t, y)
ma applicando il teroema d'esistenza e unicità so che il problema di Cauchy ha un
y(t̄) = x̄
unica solux ȳ ∈ C 1 (I(t̄, r0 ), Rn ) (r0 > 0) ⇒ y1 (t) = ȳ(t) = y2 (t)∀t̄ ≤ t ≤ t̄ + r0 quindi deve essere
necessariamente t̄ = b. Per dimostrare che coincidono a sx il procedimento è analogo. ##
Def 26. Siano y1 : |(a1{z, b1}) → Rn e y2 : |(a2{z, b2}) → Rn due solux di S. Si dice che y2 è prolunga-
I1 I2
mento di y1 (y1  y2 ) se I1 ⊆ I2 e y2 |I1 ≡ y1 (per uno dei precedenti teoremi basta che coincidano
in un punto!!!)
Def 27. y1 (·) si dice prolungabile se ∃y2 (·) solux t.c. y1  y2 e I1 ⊂ I2 .
Def 28. y1 (·) si dice solux massimale se è NON prolungabile.
TEOREMA 1: Sia y0 (·) solux di (S). Allora esiste un unica ȳ(·) solux t.c. y 0  ȳ e ȳ è
massimale.
Dimostrazione. Sia Y = {y|y 0  y} con y 0 : I0 = (a0 , b) → Rn .Y si può scrivere come Y = {y :
Iy = (ay , by ) → Rn |y 0  y}. Prendiamo I = (a, b) con a = inf y∈Y ay e b = supy∈Y ay . Ovviamente
a ≤ a0 , b ≥ b0 . Osserviamo che I ⊃ I0 , t ∈ I ⇒ ∃y ∈ Y : t ∈ Iy . Denisco y(t) = yt (t), è ben
denita??? Supponiamo t ∈ I1 ∩ I2 , che è un intervallo aperto contenente I0 , quindi per le prop.
precedenti coincidono nell'intervallo e quindi anche in t. Quindi ho che y|I0 = y 0 ovviamente (perchè
prolungamento). E inoltre y è solux perchè preso t, ∃It 3 t in cui y ∈ C 1 e quindi solux. Dimostriamo
ora che y è max: se fosse prolungabile, il suo prolungamento starebbe in Y (poichè sarebbe anche
prolungamento di y 0 ). Ma l'intervallo di y è denito dal sup e dal inf dei vari intervalli, quindi un
eventuale prolungamento avrebbe per forza l'intervallo contenuto in I , quindi y è max. ##

ẏ = f (t, y(t))
COROLLARIO: Considerando il problema di Cauchy y(s) = x
, ∃! solux max y(t; s, x).

OSS: Nel caso di equazioni dell'ordine n: ẏ(t) = f (t, y(t), . . . , y (n−1) (t)) o dei loro problemi di
Cauchy, ∀(s, x) ∈ A∃! solux max di (CEn ).

Def 29. Sia y(t) solux di (S). Questa si dice globale se è denita su tutto l'intervallo.
TEOREMA 2: Presa y(t) ∈ C 1 ((t0 , t1 ); R), con (t0 , t1 ) ⊂ (a, b) solux di (S), se t1
< b (e/o
t0 > a), ovvero la solux NON è globale, inoltre y è limitata, cioè ∃M ≥ 0 t.c. ||y(t)|| ≤ M ∀t ∈
(t1 − δ, t1 ) allora y NON può essere max. (Quindi se non è globale, per essere max deve essere
illimitata). Attenzione, questa è una condizione sucente, ma non necessaria!!!
Dimostrazione. Vediamo se ∃ limt→t−1 y(t). Se è vero, posso sicuramente impostare un problema
di Cauchy in t1 e prolungare. Verichiamo che la nostra y verica la condizione di Cauchy in
t1 : ∀ε > 0∃σ > 0 t.c. ∀t, t0 ∈ (t1 − σ, t1 ) ⇒ ||y(t0 ) − y(t)|| < ε. QUesto basta per l'esistenza
del limite!!! Per vedere ciò prendiamo Q = [t1 − δ, t1 ] × I(0, M ).∃ maxt,x)∈Q ||f (t, x)|| = CQ . Presi
t, t0 ∈ (t1 − δ, t1 ) e t > t0 (per ssare le idee), prendiamo ||y(t) − y(t0 )|| ≤ t0 ||f (s, y(s))||ds. Allora
Rt

29
y(s, y(s)) ∈ Q∀s ∈ (t1 − δ, t1 ), quindi ||y(t) − y(t0 )|| ≤ t0 ||f (s, y(s))||ds ≤ CQ |t − t0 | < ε. Prendiamo
Rt

inne σ = ε/CQ in modo tale che verica Cauchy, ovvero abbia limite ed ho nito. ##
TEOREMA 3 (caso sublineare): Sia f : (a, b) × Rn → Rn continua e localmente lipsc e
sia dato il sistema (S)ẏ = f (t, y(t)). Se ||f (t, x)|| ≤ C(1 + ||x||) (ovvero ha crescita sublineare) (o
meglio, ∀J ⊂ (a, b) compatto ∃cJ ≥ 0 t.c. ||f (t, x)|| ≤ cJ (1 + ||x||)∀(t, x) ∈ J × Rn ) allora ogni slux
max di (S) è globale.
Dimostrazione. Per assurdo supponiamo di avere y : (a, b0 ) → Rn solux max con b0 < b. Se
y è limitata in un intorno di b0 , applico il teorema 2 e ho nito. Preso a < c < b0 , mostri-
amo che y(·) è limitata Rsu (c, b0 ) (per applicare il teorema 2). Sia J = [c, b0 ] ⊂ (a, b) ⇒ preso
t ∈ [c, b0 ), y(t) = y(c) + c f (s, y(s))ds per il fatto di essere solux. Quindi abbiamo che ||y(t)|| ≤
t

||y(c)|| + c ||f (s, y(s))||ds e qui applico la sublinearità: ||y(c)|| + c ||f (s, y(s))||ds ≤ ||y(c)|| +
Rt Rt

cJ c ||y(s)||ds ≤ ||y(c)|| + cJ (b0 − c) +cJ c ||y(s)||ds ⇒ per Gronwall⇒ ||y(t)|| ≤ Ae| {z }, propo-
cJ (b0 −c)
Rt Rt
| {z }
A M
sizione vera ∀t ∈ [c, b0 ] ⇒ y è prolungabile perchè limitata. ##
OSS: Posso applicare il TEOREMA 2 anche se ho y(n) = f (t, y, . . . , y(n−1) con f : (a, b)×Rn →
R t ∈ (a, b). Se y : (t0 , t1 ) → R, t1 < b ed ∃δ, M t.c. |y(t)| + |y 0 (t)| + . . . |y (n−1) (t)| ≤ M ∀t ∈
(t1 − δ, t1 ).
Analogamente posso applicare il TEOREMA 3 con (SL) |f (t, x1 , . . . , xn )| ≤ CJ (1 + ||x||) (ovvero
(1 + |x1 | + · · · + |xn |)) ∀t ∈ J, ∀x ∈ Rn .

Nel teorema d'esistenza e unicità abbiamo usato r0 = min{ρ/M, r, 1/2L}, con L la costante
di Lipschitzianità. Possiamo eliminare questa ipotesi
 di Lipsch., per rendere le ipotesi meno for-
y(t) = y0
ti??? Deniamo yn (·) : I(t0 , r0 ) → R solux di Rt t ∈ I . Il fatto che
yn+1 (t) = y0 + t0 f (s, y(s))ds
(s, yn (s)) ∈ R è facilmente dimostrabile per induzione: ovviamente è vero per n = 0, supponiamo-
lo vero ∀n ≥ 0, abbiamo che |yn+1 (t) − y0 | ≤ tt0 |f (s, y(s))|ds ≤ M r0 ≤ ρ. Ora dobbiamo solo
R

dimostrare che ||yn+1 − yn ||∞,I ≤ tt0 |f (s, yn (s)) − f (s, yn−1 (s))|ds ≤ L tt0 |yn (s) − yn−1 (s)|ds ≤
R R

L t0 |yn (s) − yn−1 (s)|ds . Ma io so che |y1 (t) − y0 | ≤ M |t − t0 |∀t ∈ I ⇒ |y2 (t) − y1 (t)| ≤
Rt
Rt 2
L t0 M (s − t0 )ds = LM (t−t20 )
Rt 2 3
|y3 (t) − y2 (t)| ≤ L t0 LM (s−t2 0 ) ds = M L2 t−t60 )
..
. n+1
|yn−1 (t) − yn (t)| ≤ M Ln |t−t0|
(n+1)!
ovvero in questo modo ||yn+1 (t) − yn (t)||∞,I ≤ M Ln (n+1)! , ovvero la serie converge, quindi converge
r n+1

anche yn . Notiamo che L in questa formulazione compare ancora, ma r0 non dipende più da L, solo
da r o ρ/M . Possiamo dimostrare quindi l'esistenza senza lipsch. (per l'unicità non c'è speranza,
ho bisogno per forza della lipschi.) e possiamo riassumere tutto questo nel seguente teorema:

TEOREMA DI ESISTENZA DI PEANO: Se ∃y ∈ C 1 (I(t0 , r0 )), M = maxR |f | r0 =


min{r, ρ/M} (nel caso dei sistemi basta cambiare il modulo con la norma dei vettori) allora esiste
ẏ(t) = f (t, y(t))
la solux a .
y(t0 ) = y0

30
Prima della dimostrazione diamo due teoremi e un'osservazione fondamentali per poter di-
mostrare l teorema di Peano:

TEOREMA DI DINI: (X, d) è uno spazio completose ho ϕn , ϕ ∈ C(X), ϕn crescente e


convergente puntualmente a ϕ∀x ∈ X. Inoltre la convergenza è uniforme.
Dimostrazione. Vediamo che ∀ε > 0∃ν ≥ 1 : |ϕn (x) − ϕ(x)| < ε∀n > ν e ∀x ∈ X . Quindi dobbiamo
vedere se ϕ(x) − ε < ϕn (x) < ϕ(x) + ε. Poichè è crescente ϕn (x) < ϕ(x) + ε certamente. Per
assurdo supponiamo esista ε > 0 t.c. ∃k → nk e ∃xk ∈ X t.c. ϕnk (xk ) ≤ ϕ(xk ) − ε. In questo caso
∃xkj → x̄ ∈ X t.c. se i ≤ jϕnki (x) ≤ ϕnkj (x), quindi ϕnki (xkj ) ≤ ϕnkj (xkj ) ≤ ϕ(xkj ) − ε ⇒ per
j → +∞ϕnkj (xkj ) → ϕ(x̄) ≤ ϕ(x̄) − ε, il che contraddice la convergenza puntuale. ##
Il secondo teorema che ci tornerà utile è il TEOREMA DI ASCOLI-ARZELA': Se I =
[a, b] è compatto, L(I) una funzione limitata su tutto I, || · · · ||∞ è completo, allora preso M >
0, LipM (I) sono le funzioni limitate e lip. di costante M . (In simboli LipM (I) = {u ∈ L(I)|||u||∞ ≤
M, |u(x) − u(x0 )| ≤ M |x − x0 |∀x, x0 ∈ I}) allora LipM (I) è compatto.

Dimostrazione. Basta mostrare che LipM è completo e totalemente limitato. La compattezza im-

mediata: Lip ⊆ L(I) che è completo. Bisogna però far vedere che è un chiuso prima di nire:
||···||
Preso un −−−−∞ → u ∈ LipM (I)??? Sappiamo che |un (x)| ≤ M ∀x ∈ I e |un (x)|to|u(x)| ≤ M ⇒
|u(x) − u(y)| ≤ M |x − y| quindi è chiuso e quindi completo.
Per vedere che è tot. limitato vediamo che ∀ε > 0∀ϕ1 , . . . ϕn ∈ L(I) e ∀u ∈ LipM (I)∃ϕk t.c.
||ϕk − u||∞ < ε. Fissiamo σ > 0 t.c. σ(M + 1) ≤ ε. Dividiamo poi I in intervallini di lunghezza < σ :
I = I1 ∪ I2 ∪ · · · ∪ Inε con |Ik | <Pσ , N σ > M (dove N = [ M σ ] + 1). Gli intervallini sono tutti della
forma [ak , bk ], e inoltre ϕ(x) = nk=1 ε
σk 1Ik (x) σk ∈ {0, ±σ, ±2σ, . . . , ±N σ}. Notiamo che le ϕn
sono (2N + 1)n , quindi u ∈P LipM (I). Sia xk ∈ Ik ∀k = 1 . . . n, Jk,u σ ≤ u(xk ) ≤ (Jk,u + 1)σ ⇒ ∀x ∈
Ik ϕ(x) = Jk,u σ ⇒ ϕ(x) = ∞
1
k=1 Jk,u σ Ik (x) ⇒ |u(x) − ϕ(x)| ≤ |n(x) − u(xk )| + |u(xk ) − ϕ(x)| ≤
| {z } | {z }
≤M σ ≤σ
(M + 1)σ ≤ ε∀x ∈ I , che è quello che volevamo. ##
OSS: Preso K ⊂ Rn e K 6= ∅ convesso e chiuso, ogni punto ha un'unica proiezione ⊥
su K, ovvero ∀x ∈ Rn ∃!x̄ ∈ K t.c. ||x − x̄|| = dK (x). Inoltre la proiezione è lip., ovvero
||projK (x) − projK (x0 )|| ≤ ||x − x0 ||.

Possiamo ora iniziare la dimostrazione di Peano:


Dimostrazione. (Peano) Possiamo riassumere la dimostrazione in tre passi: (1) approssimiamo la f
y 0 = fn (t, y(t))

con delle funzioni lip. fn , poi (2) considero i problemi approssimanti a cui posso
y(t0 ) = y0
applicare il TEOREMA 1 corretto con i passaggi visti prima per eliminare la dipendenta da L, inne
(3) cerco la compattezza per passare al limite di yn → ȳ .
(1) Costruzione di fn : R → R t.c. fn ∈ C(R), |fn | ≤ M, |fn (t, x) − fn (t, x0 )| ≤ Ln |x − x0 | e
fn → f unif. su R. La prima cosa da fare è vedere se esiste f˜ ∈ C(R2 ) t.c. f˜|R = f . Per
farlo usiamo l'osservazione precedentemente espressa, deniamo f = f˜ ◦ projk . Ora suppongo
f : R2 → R (ho posto f = f˜ per alleggerire le notazioni), fn (t, x) = inf y∈R {f (t, y) + n|y − x|}
con fn : R2 → R. Questo inf è un min, ovvero è assunto perchè t, x sono ssati e la dipendenza
da y è continua (cioè y → f (t, y) + n|y − x|), inolte va a ∞ per y → ±∞, quindi ha min per
Weierstrass (ho un compatto e una funzione che va a innito al di fuori di esso). Sappiamo che
fn (t, x) ≤ fn+1 (t, x) ≤ f (t, x)(ovvero è monotona crescente) e le successioni sono comprese tra

31
−M e M (cosa buona, l'applicazione non modica M). Allora posso aermare che n|yn,x − x| =
fn (t, x) − f (t, yn,x ) ≤ 2M ⇒ yn,x −−−−−→ x. Cominciamo ora a stimare |fn (t, x0 ) − fn (t, x)|.
n→+∞

Questo è ≤ f (t, yn,x ) + n|yn,x − x| − f (t, yn,x ) − n|yn,x − x| ≤ n|x0 − x| (scambiando x, x0 ottengo
il modulo). Ma questa non è altro che la condizione di lip. di costante n!!! Inoltre, poichè è lip.,
continua in x, allora è continua anche in (t, x). Vediamo che fn (t, x) → f (t, x), ma noi sappiamo
che f ≥ fn = f (t, yn,x ) + n|yn,x − x| ≥ fnx (t, yn,x ), ma fn,x → f (t, x), quindi f, fn → f (t, x)per il
criterio del doppio confronto. Per il teorema di Dini ottengo anche la convergenza uniforme di fn ,
quindi ho nito il passo (1).
Il passo (2) è immediato dopo tutti i passaggi fatti prima dell'enunciato del teorema, possiamo
passare al passo successivo.
Per dimostrare il passo (3) e concludere la dimostrazione usiamo il teorema di Ascoli, in questo
modo possiamo aermare che yn (t) = y0 + t0 fn (s, yn (s))ds ⇒ |yn (t)| ≤ |y0 | + M r0 ∀t ∈ I e
Rt
| {z }
H
presa yn0 (t) = f (s, yn (s)) ⇒ |yn0 (t)| = |f (s, yn (s)| ≤ M . Prendo allora H = max{M, |y0 | + M r0 } ⇒
yn ∈ LipH (I) ∀n ⇒ ∃ynk → ȳ unif. in I , e dunque s → fnk (s, ynk (s)) −−−−−→ s → f (s, ȳ(s)),
unif. su I

quindi ynk (t) = y0 + tt0 fnk (s, yn (s))ds → ȳ(t) = y0 + tt0 f (s, ȳ(s))ds e con questo il teorema è
R R

dimostrato. ##

3.3 Sistemi dierenziali lineari ed equazioni di ordine n


3.3.1 Sistemi lineari

Un sistema dierenziale lineare è un sistema del tipo (S) y 0 (t) = A(t)y(t) + f (t) con t ∈ I ⊂ R
aperto e A(t) = (aij (t))i,j=1...N f (t) = (f1 (t), . . . fN (t)). Ovviamente ai,j , fi ∈ C(I) (altrimenti
N 2

posso fare poco). Un altro modo per esprimere il sistema lineare è (H) A ∈ C(I, RN ) (talvolta
f ∈ C(I, R )
conviene lavorare in e CN ).
2
CN
Se f ≡ 0 il sistema si dice omogeneo, mentre se A non dipende esplicitamente da t o f (t) = f0
il sistema si dice autonomo. In questo caso possiamo anche scrivere ẏ = F (t, y) F (t, x) =
A(t)x + f (t) F ∈ C(I × RN ; RN ).

Corollario: Sotto le ipotesi (H) comunque scelgo (t0 ,y0 ) ∈ I × RN esiste un unica solux max
y 0 = A(t)y + f
del problema di Cauchy relativo al sistema (S), ovvero (P) .
y(t0 ) = y0
Resta però un problema da risolvere: questa solux sarà globale??? Vediamo se posso applicare
i teoremi che conosco: [a, b] ⊂ I, (T, x) ∈ [a, b] × RN , allora ||F (t, x)|| = ||A(t)x + f (t)|| ≤ ||A(t)x|| +
||f (t)|| ≤ ||A(t9||||x|| + ||f (t)|| (attenzione, ||A|| = max||x||≤1 ||Ax|| ⇒ max S(At A) = ||A2 ||, (con
qP
S=spettro) in quanto si dimostra che ||A|| ≤ i,j aij ). Quindi continuando la disequazione abbi-
2
q
amo che ||A(t)||||x|| + ||f (t)|| ≤ maxt∈[a,b] |aij (t)|2 ||x|| + maxt∈[a,b] ||f (t)|| ≤ C[a,b] (1 + ||x||) (basta
prendere C come il massimo tra i due massimi presi in considerazione prima). Ma allora la crescita
è sublineare, ovvero posso applicare il teorema: y(·, t0 , y0 ) è globale ∀t ∈ I se y(·, t0 , y0 ) è una solux
max. Inoltre dipende con continuità (anche lipschitzianità) da (t0 , y0 ).

Cerchiamo ora di trovare formule risolutive simili a quelle delle equazioni ordinarie anche per i
sistemi: deniamo S(f ) = {y ∈ C 1 (I, RN )|y = Ay + f }. L'insieme delle solux del sistema omogeneo

32
associato è S(0).
Prendiamo ora due vettori y1 , y2 ∈ S(0), λ1 , λ2 ∈ R ⇒ λ1 y1 + λ2 y2 ∈ S(0). In questo modo abbiamo
che (λ1 y1 + λ2 y2 ) = λ1 y10 + λ2 y20 = λ1 Ay1 + λ2 Ay2 = A(λ1 y1 + λ2 y2 ). Possiamo enunciare quindi
questa prop. di S(0):
Prop 1: S(0) è uno spazio vettoriale di dimensione N su R(C). Che sia di dimensione N viene fuori
dal fatto che posso creare un isomorsmo tra i punti ξ di RN e le solux che per t = 0 hanno punto
iniziale proprio ξ .
OSS: Supponiamo di avere due solux y1 , y2 ∈ S(f ). Allora y = y1 − y2 , quindi y0 = A(y1 − y2 ) +
f − f = Ay . Ma questa è solux. dell'omogenea, possiamo dunque aermare che se ȳ ∈ S(f ), allora
S(f ) = ȳ + S(0).

Cerchiamo ora di trovare esplicitamente le solux: siano y1 , . . . , yN ∈ S(0) ⊂ C 1 (I, RN )solux


l.i. (ovvero data una loro combinazione nulla, un loro coecente deve essere la funzione nulla).
Prendiamo ora il vettore colonna [y 1 |y2 | · · · |yN ] = Y ∈ C 1 (I, RN ×N ). Poichè (yi )0 = A(t)yi ⇒
Y 0 (t) = A(t)Y (t). A(t) è singolare??? Supponiamo esista t0 ∈ I tale che detY (t0 ) = 0. Allora
y1 (t0 ), . . . yN (t0 ) devono essere dip., ovvero devono esistere λ1 . . . λN ∈ R(C) non tutti nulli t.c.
λ1 y1 (t0 ) + · · · + λN yN (t0 ) = 0. Ma per ipotesi avevamo supposto y1 , . . . yN solux (quindi l.i.) e ho
l'assurdo!!! Il fatto che siano solux è molto importante: λ1 y1 (t) + · · · + λN yN = Y (t), ma se ho che
y(t0 ) = 0 violo l'indipendenza lineare.

Prop 2: Sotto le ipotesi (H), siano y1 , . . . yN ∈ S(0). Allora sono equivalenti:


(a) {y1 , . . . , yN } sono indipendenti;
(b) det[y1 (t)| · · · |yN (t)] 6= 0 ∀t ∈ I ;
(c) ∃t0 ∈ I tale che detY (t0 ) 6= 0.
Dimostrazione. (a) =⇒ (b) l'abbiamo visto prima.
(b) =⇒ (c) è ovvio.
(c) =⇒ (a). Neghiamo (a), allora ∀t0 ∈ I abbiamo che λ1 y1 (t0 ) + . . . λN y N (t0 ) = 0, quindi
detY (t0 ) = 0 che è contro l'ipotesi di (c). ##
Def: Y è una matrice fondamentale di solux per (S).
a esistono le matrici fondamentali?? Fissiamo t0 ∈ I , prendiamo i vettori e1 , . . . eN della base
canonica. Consideriamo ora i problemi
y 0 = A(t)y
  0
y = A(t)y
···
y(t0 ) = e1 y(t0 ) = eN

. Avrò quindi y1 , . . . yN tutte solux dell'omogenea (in quanto cambia solamente il valore
 iniziale tra 
1 0 ··· 0
0 1 0 · · ·
un sistema e l'altro). La sua matrice associata è Y (t) = [y1 (t)|y2 (t)|y N (t)] e Y (t0 ) =  . .

.
 
 
0 ··· ··· 1
che non è singolare, quindi y1 , . . . yN sono l.i., ovvero Y (t) è una matrice fondamentale. In più sap-
piamo che in t0 questa si riduce all'identità, ovvero la matrice fondamentale è anche principale in t0 !!!

OSS 2: Y (·) matrice fond., allora Y è invertibile e l'inversa è Y −1 (s).


Consideriamo ora Y (t)Y −1 (s) = U (t, s), con t, s ∈ I e Ut (t, s) = A(t)U (t, s). Per s ssato t ∈ I
risolve il sistema, ovvero anche U è una M.F. Ma quanto vale in s??? Possiamo rispondere subito:

33
infatti per costruzione sarà l'identità (in quanto abbiamo Y (s)Y −1 (s))!!!

Def: U (t, s) si dice operatore di evoluzione.


Notiamo che Y −1 (s) è derivabile in s, quindi deve valere la stessa cosa anche per U (t, s). Vedi-
amo quanto vale mediante la legge di composizione: U (t, s) = U (t, r)U (r, s), quindi poste y1 (t) =
U (t, s)xe y2 (t) = U (t, r)U (r, s) abbiamo che entrambe sono solux di A(t)y(t) e in s valgono y1 =
x y2 = U (s, r)U (r, s)x = x. Cerchiamo ora la derivata di U (t, s) : dUdr
(t,s)
= 0 = Us (t, r)U (r, s) +
U (t, r)Ut (r, s)|r=s ⇒ Us (t, s) = −U (t, s)A(s). Da questo calcolo sappiamo che y(t) = U (t, s)x e
∂s = −U (t, s)A(s)x.
∂y

Possiamo quindi concludere che Y (·) è una M.F., allora S(0) = {Y (0)x|x ∈ 1RN }. Infatti se
y ∈ S(0), t0 inI allora y(t) = U (t, t0 )y(t0 ) = Y (t) Y −1 (t0 )Y (t0 ) = Y (t)x. Questa è un'altra prova
| {z }
x
che dim SR(C) (0) = N .

Per trovare una solux particolare dobbiamo invece usare il metodo delle varizioni delle costanti:
conosciamo Y (·) MF di (S). Cerchiamo Ȳ (t) = Y (t)x(t). Impongo ȳ 0 (t) = A(t)Y (t)x(t)+Y (t)x0 (t) =
A(t)Y (t)x(t) + f (t) ⇒ x0 (t) = Y −1 (t)f (t). Fisso s ∈ I e ottengo che x(t) = s Y −1 (τ )f (τ )dτ quindi
R t

Ȳ (t) = Y (t)x(t) = s Y (t)Y −1 (τ ) f (τ )dτ .


Rt
| {z }
U (t,τ )
Abbiamo inne ottenuto che
Z t
y(t) = Y (t)x + Y (t)Y −1 (τ )f (τ )dτ
s

y 0 = A(t)y + f (t)

(per S(f ) 3 y ⇔ ∃x ∈ RN ), mentre per il problema di Cauchy la solux è
y(t0 ) = y0
Z t
y(t) = Y (t)Y −1 (t0 )y0 + Y (t)Y −1 (τ )f (τ )dτ
t0

Non è sempre facile risolvere un sistema d'equazioni, è sempre meglio prima cercare alcune
informazioni prima di tentare la strada della risoluzione tramite formule, anche se c'è qualche
trucco per trovare la MF: cercando una condizione equivalente a quella della MF (ovvero che
∃Y (t) = [y1 (t)| · · · |yN (t)] con y1 , . . . , yN ∈ S(0) l. indip. su C 1 (I, CN ) e non singolare) ci ac-
corgiamo che questa è equivalente a dire che (detY (t))0 = trA(t) · detY (t) ⇒ det(Y (t)) verica
un'equazione dierenziale di primo Rt
grado, che noi sappiamo risolvere facilmente. Concludiamo
quindi che detY (t) = detY (t0 )e t0 trA(s)ds
che è la cosiddetta formula di Liouville.
In generale non è facile neanche applicare la formula di Liouville, sarebbe logico quindi cercare
alcuni casi particolari per cui è immediata la solux:

• Sistemi lineari autonomi (ovvero A(t) = A): cerchiamo una base di autovettori {x1 , . . . , xN }
base di CN (questo è sempre possibile se S(A) = {λ1 , . . . , λN } con λi 6= λj per i 6= j ) e prendo
yi (t) = eλi t (i = 1, . . . , N ) ⇒ yi0 (t) = λi eλi t xi = eλi t Axi = Ayi (t). In questo caso la matrice
fondamentale è Y (t) = [eλ1 t xi | · · · |eλN t xN ].

• Se A ∈ RN ×N e y 0 (t) = Ay(t) y(t) ∈ RN . Con queste condizioni se gli autovalori λi sono tutti
distinti e appartengono C, presa {x1 , . . . , xN } base di CN osservo che se λj ∈ R e zj = xj + iyj

34
allora xj è un autovettore ∈ R e quindi Axi = λi xi .
Se invece λ = α + iβ (con β 6= 0) l'autovettore è z = x + iy , ma allora anche λ̄ = α − iβ deve
essere autovalore, quindi A(x + iy) = (α + iβ)(x + iy) e quindi A(x + iy) = λ̄(x − iy). Prendo
z1 (t) = eαt (cos(βt)+i sin(βt))(x+iy) e z2 (t) = eαt (cos(βt)−i sin(βt))(x−iy) (che costituiscono
un insieme di solux complesse) e le sostituisco con x1 (t) = eαt (cos(βt)x − sin(βt)y) e x2 (t) =
eαt (sin(βt)x + cos(βt)y) che sono solux l.i. ∈ RN (infatti se esistessero c1 , c2 ∈ R tale che
π
c1 x1 (t)+c2 x2 (t) = 0, per t = 0 avrei c1 x+c2 y = 0 mentre per t = 2β
π
ho eα 2β (c1 (−y)+c2 x) = 0
e mettendole a sistema ottengo (c21 +c22 ) = 0 che è assurdo visto che abbiamo preso c1 , c2 ∈ RN ).

3.3.2 Equazioni di ordine n

Come detto nei paragra precedenti si può sempre ridurre un'equazione di ordine n (n ≥ 1) della
forma (E) x(n) (t) + an−1 (t)xn−1 (t) + · · · + a1 (t)x0 (t) + a0 (t)x(t) = f (t) (con ai , f (t) ∈ C(I)) ad un
| {z }
P (t,D)x
sistema, basta porre y1 (t) = x(t) . . . yn (t) = x(n−1) . In questo modo infatti otteniamo un sistema
della forma
   
 y1
0

0 1 0 ··· 0  
0
.. .. 
 .  
    
y1 y2 0  0 0 1 ··· 0 .
 
 ..  0 .
.   ..   . ..   ..   . 
  . + .. 

 .  =Y = . + .  = 

.
   
 ..   0 
Pn−1 
yn − k=0 ak (t)yk+1 (t) f  0 0 ··· 0 1 

−a0 (t) −a1 (t) · · · −an−1 (t) f
yn

Prop: Se x()˙ è solux di (E) allora Y denita come sopra è solux del sistema (S) Y 0 = A(t)y+F (t)
e viceversa, ovvero se Y (·) è solux di (S) allora la prima componente di Y (·) è solux di x(·) di (E),
con Yk = x(k−1) .

Corollario 1: Sia S(f ) = {x(·)|P (t, D)x = f } l'insieme delle solux. Allora S(0) è uno spazio
vettoriale di dimensione n su R o C. Prendendo {x1 , . . . , xn } solux dell'omogenea queste sono l.i.
⇔ il Wronskiano X(t) ha det 6= 0. Questo è equivalente a dire che ∃t0 ∈ I : det X(t0 ) 6= 0. Si dice
che questo è un sistema fondamentale di solux di P (t, D)x = 0.

Corollario 2: Dato un sistema fond. di solux {x1 (t), . . . , xn (t)} ∈ S(0) allora tutte le solux
sono c.l. di queste, ovvero S(0) = {c1 x1 , . . . , cn xn |ci ∈ R/C} e inoltre se $barx ∈ S(f ) allora
possiamo dire che S(f ) = x̄ + S(0).

Ma come si risolvono eettivamente le solux di ordine n? Nel caso di coecenti variabili


P (t, D)x non ha sempre una solux esplicita, e dobbiamo ricavarla tramite osservazioni (se possi-
bile). Cominciamo quindi col studiare il caso delle solux a coecenti costanti:

(I passo) Controlliamo innanzitutto il polinomio caratteristico P (λ) = λn + nk=1 ak λk−1 , sap-


P
piamo che su C esistono sicuramente le radici λ1 , . . . , λn . Prendo quindi il polinomio P (D)eλi t = 0
(II passo) Per le radici λ1 , . . . , λp tutte distinte (p ≤ n) allora prendo xi (t) = eλi t (1 ≤ i ≤ p).
(III passo) Se invece λ1 , . . . , λp sono sì radici distinte ma con molteplicità m1 , . . . , mp diversa da 1,
un sistema fond. di solux è denito da tk1 eλ1 t . . . tkp eλp t (0 ≤ k1 ≤ m1 − 1, . . . , 0 ≤ kp ≤ mp − 1).
(Questo fatto si ottiene integrando).
(IV passo) Preso ak ∈ R, siano λ1 , . . . , λr ∈ R le solux di P (λ). A queste solux associamo le solux.

35
reali con la loro molteplicità (come abbiamo fatto prima), ovvero ponendo tki eλi t . Per quanto
riguarda le soluzioni complesse µ1 , . . . , µs osservo che se ho una solux complessa allora ho per forza
anche la sua coniugata, ovvero P (µ) = 0 ⇒ P (µ) = 0 ⇒ P (µ̄) = 0. Per le solux sostituiamo quindi
eαt cos(βt) e eαt sin(βt). (Se la molteplicità è > 1 pongo tk eαt cos(βt) e tk eαt sin(βt)).

Una classe di equazioni per cui posso trovare una solux esplicita sono le equazioni di Eulero:
+ n−1
tn x(n) k=0 t ak x (t) = 0.
k (k)
P

SOLUX EULERO QUI

Nel caso di equazioni d'Eulero con il termine noto dobbiamo faticare un pò di più con i conti:
applichiamo Ril metodo della variazione delle costanti, abbiamo y 0 = A(t)y + F (t) ⇒ ȳ(t) = Y (t)c(t)
dove c(t) = tt0 Y −1 (s)F (s)ds e F (s) è il Wronskiano. Ma in questo modo mi impelago con i conti
(molto spesso non facili), cerco quindi una seconda strada per semplicare un pò tutto:
pongo {x1 , . . . , xn } un s. fond. di solux, voglio trovare x̄(t) = c1 (t)x1 (t) + · · · + cP n (t)xn (t), ovvero
devo trovare i coe. c i . Calcolo allora le derivate no all'ordine n: x̄ 0 (t) = n 0
Pnci (t)x
i=1 i (t) +
e impongo . Continuo a derivare:
Pn 0
Pn 0 00 0 x0 (t) +
Pi=1 ci (t)xi (t) c
i=1 i (t)x (t)
iP = 0 x̄ (t) = c
i=1 i i
n
c (t)x00 (t) e come prima impongo n
c 0 (t)x0 (t) = 0. Iterando ottemiamo n − 1 equazioni.
i=1 i i i=1 i i
Per trovare l'n-esima equazione noto che sono arrivato a x̄(n) , che è la solux della nostra equazione,
quindi pasta porre i=1 ci (t)x(n−1) (t) = f (t). Alla ne di tutto questo impianto di calcoli ottengo
Pn 0
n
c0i (t)xi (t) = 0
P

Pi=1
n 0 0
 i=1 ci (t)x (t) = 0


..

il sistema . . Questo sistema non è altro che il wronskiano X(t) applicato
(n−2)

Pn 0
ci (t)xi (t) = 0


Pi=1


n 0 n−1
i=1 ci (t)xi (t) = f (t)
al vettore (c1 , . . . , cn )0 e posto uguale al vettore (0, . . . , f (t)).

Per quanto riguarda l'equazione (E) omogenea prendiamo le radici di P (λ) = 0. Queste saranno
λ1 , . . . , λk ∈ C tutte diverse con la propria molteplicità m1 , . . . , mk . Il polinomio sarà allora della
forma P (λ) = (λ − λ1 )m1 · · · (λ − λk )mk . Diamo ora il seguente lemma:

Lemma: Sia µ ∈ C \ {0}. D(Q(t)eµt ) = (µQ(t) + Q0 (t)) eµt e deg R = deg Q. Inoltre se R ≡ 0
| {z }
R(t)
allora Q ≡ 0 (in quanto si annulla il termine maggiore di Q, ma automaticamente anche tutti i
termini minori).

Detto questo, vale il seguente Teorema: L'insieme {th eλi t i = 1, . . . , k, h = 0, . . . , m − 1}


costituisce un SFS per (E).
Dimostrazione. Procediamo per passi:
(1) Cerchiamo di far vedere che x(t) = th eλi t sono solux;
(2) Le solux {th eλi t } sono l.i.???

(1) Vediamo che P (D)(th eλi t ) = 0 equivale a dire che (D − λi )mi (th eλi t ) = 0. Diamo una
funzione u(t) e calcoliamo per questa (D − λi )m (eλi u(t)). Per m = 1 (D − λ)(eλt u(t)) = λeλt u +
eλt Du − λeλt u = eλt Du.
Per m = 2 (D − λ)2 (eλt u) = λeλt Du + eλt D2 u − λeλt Du = eλt Du. Si itera facilmente per in-

36
duzione, quindi abbiamo che (D − λ)m (eλt u(t)) = eλt Dm u(t). Applichiamo questo risultato a
(D − λi )mi (th eλt ) = eλi t Dmi th = 0 perchè mi > h.

(2) Esista per assurdo una c.l. di queste funzioni t.c. sia uguale a 0. Ma una loro c.l. si può
scrivere come Q1 (t)eλ1 t +Q2 (t)eλ2 t +· · ·+Qk (t)eλk t = 0 con deg(Qi ) ≤ m−1. Mostriamo che Qi ≡ 0.
Iniziamo a controllare per k = 1. In questo caso abbiamo Qi (t)eλ1 t = 0 ⇔ Q1 (t) ≡ 0. Andiamo per
induzione, supponendo vero per k e dimostrando per k+1. Abbiamo che Q1 (t)eλ1 t +Q2 (t)eλ2 t +· · ·+
Qk (t)eλk t = −Q(t)eλk+1 t . Divido per eλk+1 t ⇒ Q1 (t)e(λ1 −λk+1 )t +· · ·+Qk (t)e(λk −λk+1 )t = −Qk+1 (t).
Ma poichè λi 6= λj si ha che λi − λk+1 6= 0 ∀k = 1, . . . , k. Allora derivo mk+1 volteper far
(λ − λ )t (λk − λk+1 )t
| 1 {z k+1 } | {z }
scomparire il secondo membro. Ottengo R1 (t)e µ1
+ · · · + Rk (t)e µk
= 0. Ma
applicando il lemma e l'ipotesi induttiva ho che Ri (t) ≡ 0 ⇒ Qi (t) ≡ 0 ∀i = 1, . . . , k. ##
Supponiamo ora di avere un'equazione del tipo P (D)x = f e di voler trovare una solux par-
ticolare. Nel caso f sia una funzione di ex , un polinomio o una funzione trigonometrica sem-
plice possiamo mettere in atto la strategia del tentativo (come disse Porretta), ovvero cerchiamo
una solux della stessa classe di funzione di f . In altri termini, se il nostro problema è del tipo
f (t) = eαt {H(t) cos(βt) + K(t) sin(βt)}, con α, β ∈ R e H, K polinomi, allora una solux sarà
x̄(t) = eαt {M (t) cos(βt) + N (t) sin(βt)}~. Controlliamo P (α + iβ). Se P (α + iβ) 6= 0, allora ∃
una solux nella classe ~, con M, N plinomi con deg(M, N ) = max{ deg(K), deg(H)}. Se invece
P (α + iβ) = 0 con una certa molteplicità m allora cerco delle solux del tipo ~ ma moltiplicato per
tm , ovvero x̄(t) = tm eαt {M (t) cos(βt) + N (t) sin(βt)}.

3.4 Stabilità
Sia f : Ω ⊂ Rn → Rn e diamo il sistema (S) ẋ(t) = f (x(t)), con f localmente lipsch (per l'unic-
ità). Allora ssiamo un punto x0 ∈ Ω e chiamiamo φ(t, x) la solux max che il sistema assume per
x(0) = x0 (se l'istante iniziale invece di essere 0 è s allora scriviamo φ(t, s, x)). φ è una funzione
φ(·, x0 ) : Jx0 → Rn con J aperto (illimitato), se infatti fosse chiuso potrei prolungare la soluzione.
Jx0 sarà allora della forma (α, β). Se β = +∞ si dice globale a dx, se α = −∞ si dice globale a sx,
se α, β = ∓∞ la solux è globale.

Def: φ : J → Rn solux di (S). φ si dice traiettoria, φ(J) si dice orbita. (Se considero t ≥ 0
allora φ(J ∩ [0, +∞]) si dice semiorbita dx).

φ̄(t) = φ(t + τ )
OSS: (1) Sia φ : J → una traiettoria, con J = (α, β). Allora ∀τ ∈ R ¯
Rn
J = (α − τ, β − τ )
,
ovvero posso sempre traslare tutto il sistema grazie al fatto che questo è autonomo.

(2) Siano φ1 : J → Rn , ˜ . Allora φ(t) = φ̃(t2 − t1 + t)∀t ∈ J
φ̃ : J˜ → Rn t.c. φ(t1 ) = φ̃2 (t2 )(t1 ∈ J, t2 ∈ J)
α̃ = α − τ, β̃ = β − τ doveτ =
Def: Un punto x0 ∈ Ω t.c. f (x0 ) = 0 si dice punto d'equilibrio del sistema (S) (in simboli
φ(t, x0 ) = x0 ∀t ∈ R).

OSS: Se φ(α, +∞) → Rn converge a x0 per t → +∞ (ovvero limt→+∞ φ(t) = x0 ) allora x0 di


è d'equilibrio (per intendersi sono le traiettorie ametasintotiche).

37
Dimostrazione. Per assurdo f (x0 ) 6= 0, allora esiste r > 0 t.c. ||x − x0 || < r ⇒ ||f (x) − f (x0 )|| ≤
||f (x0 )||
2 . Posso però aermare che ∃t̄ ∈ R t.c. per t ≥ t̄||φ(t)−x0 || < r. Quindi per t ≥ t̄ ⇒ φ(t+1)−
φ(t) − f (x0 ) = t (f (φ(s)) − f (x0 ))ds e ||φ(t + 1) − φ(t) − f (x0 )|| = || t (f (φ(s)) − f (x0 ))ds|| ≤
R t+1 R t+1
2
||f (x0 )||
2 . Faccio ora il prodotto scalare: (φ(t + 1) − φ(t)) · f (x0 ) ≥ ||f (x0 )||2 − ||f (x20 )|| = ||f (x2 0 )|| > 0
2
in quanto (φ(t + 1) − φ(t) f (x0 )) · f (x0 ) + ||f (x0 )||2 ≥ ||f (x0 )||2 − ||f (x20 )|| per Cauchy-Schwartz.
Ma allora per t → +∞φ(t + 1) → x0 , φ(t) → x0 quindi il prodotto scalare tende a 0, ma è maggiore
di qualcosa > 0, che è assurdo. ##
OSS: (1) Esistono solo tre tipi di orbite: quelle stazionarie, i cicli e le curve semplici non chiuse.
(2) Sia φ : J → Rn una traiettoria NON COSTANTE t.c. esistono t1 6= t2 in J con φ(t1 ) = φ(t2 ).
Allora φ è periodica (ovvero un ciclo).
Dimostrazione. Sia t2 > t1 . Deniamo φ̃(t) = φ(t + t|2 {z
− t1 . Per t ∈ (α − τ, β − τ ) = J˜ abbiamo che
}
τ
φ̃(t1 ) = φ(t2 ) ⇒ φ̃ = φ ⇒ α, β = ∓∞ per forza, ovvero φ è globale e φ(t) = φ(t + τ ). Quindi se φ
non è costante è periodica per la seconda delle osservazioni precedenti. ##
Def: SiaE ∈ C 1 (Ω). Allora si denisce d
dt E(φ(t)) = ∇E(φ(t))f (x) ∀x ∈ Ω. E è un
integrale primo se Ė(x) = 0∀x ∈ Ω.

Prop: Se ∃E integrale primo, allora ogni orbita di (S) è contenuta in un unico insieme di livello
di E , ovvero {E = k}(k ∈ R).

Denizioni:
• Sia x0 ∈ Ω, φ(·, x0 ) : Jx0 → Rn si dice stabile se ∀ε > o∃δ > 0 t.c. ∀x ∈ Bδ (x0 ) allora per
t ∈ Jx ⊃ [0, +∞) ||φ(t, x) − φ(t, x0 )|| < ε.

• φ(·, x0 ) è asintoticamente stabile se è stabile e inoltre ∃δ t.c. t→+∞


||φ(t, x) − φ(t, x0 )|| −−−−→
0∀x ∈ Bδ (x0 ).

• φ(·, x0 ) si dice instabile se non è stabile.


• Se x0 è un punto d'equilibrio asintoticamente stabile allora si denisce bacino d'attrazione
l'insieme Ωx0 = {x ∈ Ω| limt1to+∞ φ(t, x) = x0 }. Se il bacino d'attrazione è = Ω allora x0 si
dice globalmente asintiticamente stabile.
Un utile strumento per controllare se un punto è d'equilibrio è il teorema di Lyapunov, che si
basa sulle funzioni di Liapunov
 così denite:
Def: Preso il sistema (S) ẋ(t) = f (x(t))
x(0) = x0
con f : Ω ⊂ Rn → R loc lip. Allora la funzione u ∈ C 1 (Ω)
si dice funzione di Lyapunov per (S) se:
(I)u(x) > 0 ∀x ∈ Ω \ {0} e u(x) = 0 per x = 0;
(II) u̇(x) = ∇u(x)f (x) ≤ 0∀x ∈ Ω.

Possiamo allora dare il teorema di Lyapunov, non prima però di aver dato tre lemmi importanti
per la dimostrazione:
Lemma 1: Sia U ⊂ Ω un insieme aperto limitato con Ū ⊂ Ω. Allora preso x0 ∈ U t.c. u(x0 ) <
min∂U u(x) ⇒ Jx0 ⊃ [0, +∞) e φ(t, x∗ ) ∈ U t ≥ 0 (è il cosiddetto lemma di intrappolamento

38
dell'orbita).

Lemma 2: Preso U un insieme t.c. Ū ⊂ Ω (insieme aperto e limitato) sappiamo che ∃a ∈ R :


u(x) ≥ a ∀x ∈ U ed ∃b > 0 : u̇(x) ≤ −b ∀x ∈ U . Allora sia x0 ∈ U : Jx0 ⊃ [0, +∞). Questo esce
in tempo nito da U , ovvero l'insieme {t ≥ 0 : φ(t, x0 ) ∈/ U } =
6 ∅.

Dimostrazione. Sappiamo che u(φ(t)) − u(x0 ) =


0 U̇ (φ(s))ds, in quanto φ(s, x0 ) ∈ U ∀s ∈ [0, t],
Rt

ma a − u(x) ≤ u(φ(t)) − u(x0 ) ≤ −bt. ##


Lemma 3 (o lemma d'attrattività dell'origine): Sia 0 ∈ V ⊂ Ω un insieme aperto e limi-
tato t.c. V̄ ∈ Ω. Se u̇(x) < 0 ∀x ∈ Ω \ {0} allora ∃x0 ∈ V, Jx0 ⊃ [0, +∞), φ(t, x0 ) ∈ V ∀t ≥ 0
t.c. φ(t, x0 ) −t→+∞
−−−→ 0.

Dimostrazione. Sia u(φ(t, x0 )) = ϕ(t), t ≥ 0. Allora ϕ̇(t) = u̇(φ(t, x0 )) ≤ 0 (in quanto u̇(x) < 0).
Quindi ϕ(t) −−−−→ L. Se L = 0 ho nito. Prendo L > 0, ∃δ > 0 t.c. u(x) < L/2 ∀x ∈ Bδ .
t→+∞

Considero U = V − B̄δ . U 6= ∅ perchè contiene almeno x0 . Ma allora per φ(t, x0 ) ∈ U sup u̇(x) =
−b(< 0). Applichiamo quindi il LEMMA 2; in questo modo sappiamo che dobbiamo uscire da U in
un tempo nito. Ma per ipotesi non posso uscire da V e non posso entrare in Bδ per costruzione
(in quanto u(x) < L/2), quindi ho un assurdo e ho dimostrato il lemma. ##
Dopo questi tre lemmi possiamo dare il teorema di Lyapunov: Teorema di Lyapunov: Se
∃ una funzione di Lyapunov u(x) allora 0 è stabile. Inoltre se u̇(x) < 0 (non è mai uguale a 0)
∀x ∈ Ω \ {0} allora 0 è asintoticamente stabile.

Dimostrazione. Fissiamo ε > 0 e Uε . Prendo minx∈∂U u(x) = a(> 0) per continuità di u(x).
Allora ∃δ > 0 : u(x) < a/2∀x ∈ Bδ . Noi vogliamo mostrare che se x ∈ Bδ ⇒ Jx ⊃ [0, +∞) e
φ(x, t) ∈ U ∀t ≥ 0. Ma questa è la condizione del LEMMA 1, che ci dimostra proprio quello che
volevamo!!! Per dimostrare la seconda parte basta usare il LEMMA 3 per xinBδ e V = U . In
questo modo ho nito, perchè ho Jx ⊃ [0, +∞), φ(t, x) ∈ U e φ(t, x) −t→+∞
−−−→ 0. ##
Quindi le funzioni di Lyapunov sono essenziali per determinare se un punto è stabile, ma non
sono sempre semplici da trovare (anzi, non lo sono quasi mai). Un buon metodo per trovare le
funzioni quando abbiamo un sistema con due equazioni abbastanza simili è quello di moltiplicare
la prima per x e la seconda per y (all'occorrenza possiamo anche fare il contrario) e sommarle.
Integrando la parte con ẋ e ẏ abbiamo la nostra funzione di Lyapunov.
Un modo più generale è questo: se abbiamo A < 0 (con A matrice del sistema) noi sappiamo
che ∃R > 0 e k ≥ 0 t.c. ||φ(x)|| < k||x||2 . Inoltre ∃ν > 0 t.c. > Ax, x >≤ ν||x||2 , quindi
u̇(x) ≤ (k||x|| − ν)||x||2 . Se ||x|| ≤ νk ho una cosa negativa, prendendo ||x|| < min{R, νk } ho una
f.d.L. e 0 è AS. Questo discorso deriva dal fatto che ponendo ẋ = f (x), f (0) = 0 e t.c. ||Df (x) −
Df (y)|| ≤ k||x − y|| (va bene anche una funzione loc lip) posso ridurmi allaR solux precedente
sviluppando f con Taylor. Infatti in questo modo ho f (x) = 01 dsd f (sx)ds = 01 (Df (sx))xds =
R

(Df (0))x + 0 (Df (x) − Df (0))xds, quindi poichè Df (0) = 0 ⇒ 0 è AS.


R1
| {z } | {z }
A φ(x)

3.5 Superci, punti vincolati e varietà


Def: Si denisce porzione di supercie regolare un'applicazione X da K ⊂ R2 → R3 con queste
proprietà:
(1) K = Ā, con A ⊂ R2 aperto, limitato e connesso;

39
(2) X ∈ C 1 (K, R
3 ) iniettiva sull'interno di K(K̇);

xu xv
(3) DX(u, v) =  yu yv  (uv) abbia rango 2 ∀(u, v) ∈ K̇ .
zu zv
Def: X(K) si dice sostegno della supercie.
   
xu (u, v) xv
OSS: Denite Xu (u, v) = yu (u, v) e Xv = yv  Allora la proprietà (3) equivale a dire
  
zu (u, v) zv
che Xu , Xv sono l.i. per ogni (u, v) ∈ K̇ , ovvero Xu ∧ Xv 6= 0 ∀(u, v) ∈ K̇ .

Prendiamo ora un punto p0 = X(u0 , v0 ) con (u0 , v0 ) ∈ K̇ e troviamo una funzione ζ(t) =
(u(t), v(t)) con t ∈ I ⊂ R t.c. (u0 , v0 ) = ζ(t0 ). Posso allora denire la funzione γ(t) = X(ζ(t))
t.c. γ(t0 ) = p0 . Calcoliamo ora la tangente di questa funzione mediante la derivata: γ̇(t0 ) =
Xu (ζ(t0 ))u̇(t0 ) + Xv (ζ(t0 ))v̇(t0 ). Quindi la tangente è generata da Xu e Xv (che sono l.i. per
ipotesi)!!! Possiamo quindi dare un nome allo spazio generato da questi due vettori:
Def: Lo spazio generato dallo span di Xu e Xv è lo spazio tangente alla supercie in X(p0 ). Il
vettore normale è dato da: nX (p0 ) = Xu||X
(p0 )∧Xv (p0 )
u ∧Xv ||
.
OSS: Preso un insieme
 K che rispetti la proprietà (1) e una funzione f ∈ C (K) possiamo
1

x(u, v) = u
denire la funzione X = y(u, v) = v . Poichè Xu = (1, 0, fu ) e Xv = (0, 1, fv ) queste sono l.i.
z(u, v) = f (u, v)

e quindi f denisce sempreuna supercie,
 detta
 supercie
 cartesiana o graco.
e1 e2 e3 −fu
In questo caso Xu ∧ Xv =  1 0 fu  = −fv  e nG(f ) = (−f
√ u ,−f v ,1)
1+fu2 +fv2
√ u ,−fv ,1)2 .
= (−f
1+||∇f ||
0 1 fv 1
Studiamo le superci di livello di una supercie: sia U ⊂ R3 , F ∈ C(U ). Sia Σ0 = {(x, y, z) ∈
U |F (x, y, z) = 0} = 6 ∅ l'insieme delle superci di livello e sia ssato p0 = (x0 , y0 , z0 ) ∈ Σ0 , ∇F 6= 0.
Allora in un intorno di p0 abbiamo che Σ0 è localmente una supercie cartesiana, quindi è regolare.
Prendiamo Fz 6= 0 (lo posso sempre fare a meno di ridenire le coordinate), abbiamo quindi che
Fz (x0 , y0 , z0 ) 6= 0. Esiste quindi V̄p0 ⊂ U t.c. Fz 6= 0 su Vp0 . L'equazione F (x, y, z) = 0, (x, y, z) ∈
Vp0 è vericata ⇔ z = f (x, y) (dove f : K → R, K = Ā intorno di (X0 , y0 )).
Troviamo la normale a questo graco: n(p0 ) = (−f √ x ,−fy ,1)2 (x0 y0 ) ma noi sappiamo che fx = − FFx e
1+||∇f || z
Fx Fy

, ,1
− Fyz , quindi n(p0 ) = ||∇F (p0 )|| sgn(Fz (p0 )).
∇F (p0 )
F Fz Fz
fy = r
2 2 (p0 ) =
Fx Fy
1+ Fz
+ Fz

Def: Sia X : K → R3 una p.s.r. L' area della supercie si determina facendo
ZZ
A(x) = ||Xu ∧ Xv ||dudv
K
OSS: Tutto ciò che stiamo facendo è approssimare l'area in tanti poligoni innitesimi, tutti dati
dagli spazi tangenti, e sommare la loro area, in modo da ottenere l'area di tutta la supercie (at-
tenzione, è comunque un'approssimazione, come gli integrali lineari).

OSS: Cosa succede se abbiamo due riparametrizzazioni della stessa supercie? L'area dipende
dalla parametrizzazione o è una cosa intrinseca alla supercie?? Abbiamo una psr X : K → R3
e prendiamo una seconda parametrizzazione Y : H → R3 tale che sia X che Y sono parametri

40
della stessa spr
RR Σ. Facendo il calcolo dell'area vediamo che A(X) = K ||Xu ∧ Xv ||dudv , men-
RR

tre A(Y ) = H ||Yr ∧ Ys ||drds che sono diverse!!! Quindi l'area dipende dalla parametrizzazione,
non è una cosa intrinseca alla supercie (come sembrerebbe intuitivamente)!!! Esiste però un ca-
so in cui l'area non dipende dalla parametrizzazione, ovvero nel caso in cui ∃φ : K → H dif-
feomorsmo t.c. X(u, v) = Y (φ(u, v)). In questo caso A(X) = A(Y ) = A(Σ). Vediamo per-
chè
 accade questo: sia φ il dieomersmo che manda (u, v) → (r(u, v), s(u, v)). Sappiamo che
Xu = Yr (φ(u, v))ru (u, v)) + Ys (φ(u, v)su (u, v))
⇒ Xu ∧Xv = (ru su − rv sv ) Yr (φ(u, v))Ys (φ(u, v)).
Xv (u, v) = Yr (φ(u, v)rv (u, v)) + Ys (φ(u, v)rv (u, v)) | {z }
detDφ(u,v)
Per quanto riguarda la normali abbiamo che nX (X(u, v)) = nY (Y (φ(u, v))sgn(detDφ(u, v)) (questo
ci
RR dice come cambiano le normali), mentre per l'area abbiamo che A(X) = K ||Xu ∧ Xv ||dudv =
RR

K ||Yr (φ(u, v)) ∧ Ys (φ(u, v))|||detDφ(u, v)|dudv =(per il teorema di cambio delle variabili per gli
integrali doppi) = ||Yr (φ(u, v)) ∧ Ys (φ(u, v))||drds = A(Y ) ovvero le aree rimangono uguali!!!

3.5.1 Massimi e minimi

Abbiamo un insieme Ω ⊂ R2 e una funzione f : U → R, con U ⊃ Ω. Cosa posso dire del max o del
min di f su Ω???
Innanzitutto l'esistenza:
(a) Se Ω è limitato allora per Weierstrass esistono sicuramente max e min di f . Se f è semicontinua
superiromente (e Ω sempre limitato) allora esiste il max, mentre se f è inferiromente semicontinua
esiste il min (ovviamente Ω deve essere limitato anche in questo caso);
(b) Se Ω non è necessariamente limitato dobbiamo avere che limΩ3(x,y)→+∞ f (x, y) = +∞ e f sc
inferiormente. Allora esiste il minimo do f su Ω;
(c) Se invece f è sc superiormente e limω3(x,y)→+∞ f (x, y) = −∞ esiste il massimo. (le condizioni
sui limiti di dicono coercitività).
Dimostriamo questo fatto per (b): ∃(x0 , y0 ) ∈ Ω̄ e m0 = f (x0 , y0 ) ⇒ ∃R > 0 t.c. (x, y) ∈
Ω \ IR (x0 , y0 ) ⇒ f (x, y) ≥ 2m0 Esiste quindi un minΩ̄∩IR (x0 ,y0 ) f ≤ m0 = minΩ̄ f .

Ora cerchiamo questi punti: prendiamo tre insiemi: Ω1 = {(x, y) ∈ Ω|∃∇f (x, y)} (questo è un
aperto), Ω2 = {(x, y) ∈ Ω|@∇f (x, y)} e Ω3 = ∂Ω. L'unione di questi tre insiemi è uguale alla chiusura
di Ω. Noi sappiamo che f (x0 , y0 ) = maxΩ f / minΩ f se (x0 , y0 ) ∈ Ω1 ovvero ∇f (x0 , y0 ) = 0.
Per i punti di frontiera supponiamo ∂Ω = γ(I) I = [a, b] e γ : I → R2 una curva regolare.
(x0 , y0 ) = γ(t0 ) con t0 ∈ (a, b). Allora se t → f (γ(t)) ha max (min) in t0 vuol dire che (x0 , y0 ) è un
punto di max (min). (Possiamo raorzare le ipotesi accontentandoci di avere f dierenziabile in un
intorno di ∂Ω, allora si deve avere (∇f (x0 , y0 ), γ̇(t0 )) = 0). Per i punti in cui non esiste ∇f (x, y)
non posso fare niente di particolare, posso solo calcolare quanto vale la funzione in quei punti e
confrontarli con gli eventuali max/min trovati con i metodi precedenti.

Def: La funzione fU ⊂ R2 → R denita in un intorno U ⊃ G e f ∈ C 1 (U ) si dice vincolo se


G = γ(I) è t.c. γ è regolare.

Def: I punti (x0 , y0 ) ∈ G si dicono punti vincolati ⇔ ∇f (x0 , y0 ) ⊥ G.


Prop 1: Se (x0 , y0 ) ∈ G è di max / min per f |G allora (x0 , y0 ) è un punto stazionario vincolato.
Abbiamo visto come si procede per i punti sulla frontiera, ma solo se questa è facile da
parametrizzare. E se non lo fosse??? In questo caso suponiamo esista una funzione g ∈ C 1 (U )

41
con ∇g 6= 0 t.c. G = {(x, y) ∈ U |g(x, y) = 0} con g la funzione del bordo.

Prop 2: Se (x0 , y0 ) è un punto di estremo vincolato (su G) per f allora ∃λ0 ∈ R t.c. (x0 , y0 , λ0 )
è stazionario per H(x, y, λ) = f (x, y) + λg(x, y) con (x, y, λ) ∈ U × R. (Questo non è altri che il
metodo dei motiplicatori di Lagrange nel caso bidimensionale, vedremo il caso generale più avanti).

Nota: Se Ω ∈ R3 e G = ∂Ω = X(K) sostegno di una psr e sia f ∈ C 1 (Ω̄). Posso modicare


in qualche modo le proposizioni??? Prima di tutto pongo X(u, v) = (x(u, v), y(u, v), z(u, v)), p0 =
 0 , v0 ) con (u0 , v0 ) ∈ K̇. Allora f |G ha max/min in p0 ⇔ f ◦ X ha max/min in (u0 , v0 ), ovvero
X(u
(f ◦ X)u (u0 , v0 ) = 0 < ∇f (p0 ), Xu (u0 , v0 ) >= 0
⇒ . In questo modo posso cambiare le propo-
(f ◦ X)v (u0 , v0 ) = 0 < ∇f (p0 ), Xv (u0 , v0 ) >= 0
sizioni 1 e 2:

Prop. 1 (2.0): Se p0 = (x0 , y0 , z0 ) ∈ G è punto di max/min per f |G allora p0 è un punto


vincolato.

Prop. 2 (2.0): Se (x0 , y0 , z0 ) è un punto di estremo vincolato su G per f allora ∃λ0 ∈ R t.c.
(x0 , y0 , z0 , λ0 ) è stazionario per H(x, y, z, λ) = f (x, y, z) + λg(x, y, z).

3.5.2 Varietà

Def: Fissiamo 1 ≤ k < N e m ≥ 1. Un insieme M ⊂ RN si dice varietà dierenziabile di dim k


e di classe C m se ∀p0 ∈ M ∃R > 0 ∃φ : I(p0 , R) → RN −k t.c. φ ∈ C m e verichi queste proprietà:
(a) Dφ(p) ha rango N − k (ovvero rango massimo) ∀p ∈ I(p0 , M );
(b) M ∩ I(p0 , R) = {p ∈ I(p0 , R)|φ(p) = 0}.

OSS 1: La proprietà (a) è equivalente a dire che per UN SOLO punto p0 il dierenziale abbia
rango massimo (basta lavorare negli intorni).

OSS 2: Sia p0 = (x0 , y0 ) con x0 ∈ Rk , y0 ∈ RN −k (si chiama decomposizione ortogonale). Al-


lora Dφ(p0 ) = (φx |φy ) e supponiamo detφy (x0 , y0 ) 6= 0 (lo posso sempre suporre a meno di scambio
delle variabili). Sia inoltre
 Φ: I(p0 , R) → RN un'applicazione t.c. Φ(x, y) = (x, φ(x, y)). Allora
Id 0
abbiamo che DΦ = (ovvero è una matrice a blocchi) e il det DΦ(p) 6= 0, ovvero Φ è
φx φy
un dieomorsmo C 1 . Prendiamo ora (x, y) ∈ M e una funzione φ t.c. φ(x, y) = (x, 0). Allora
Φ(M ∩ I(p0 , R)) ⊂ Rk × {0}(∈ RN −k ), ovvero Φ trasforma il pezzo in cui l'insieme e la sfera si
intersecano e la trasformano in un insieme k-dimensionale!!!

Alcuni esempi di varietà sono le circonferenze (in questo caso φ = x2 − y 2 − 1, il dierenziale si


annulla solo nell'origine, ma questa non appartiene all'insieme) e gli insiemi di livello di una funzione
f : A ⊂ RN → mathbbR (ma solo se Fλ 6= ∅ e ∇f |Fλ 6= 0).

Def: Data M ⊂ RN una varietà di k-dim prendiamo ilvettore v ∈ RN e il punto p0 ∈ M .


γ(t) ∈ M
Allora v è tangente a M in p0 se ∃γ : (−r, r) → RN t.c.: γ(0) = p0 ∀t ∈ (−r, r). Lo spazio
γ̇(0) = v

tangente è lo spazio TM (p0 ) = {v ∈ R : v è tg a M in p0 }. (attenzione, i simboli sono l'inverso
N

di quelli in geometria...)

42
Prop: Presi p0 ∈ M, φ ∈ C 1 (I(p0 , R), RN −k ) allora TM (p0 ) = ker Dφ(p0 ) e dim TM (p0 ) = k.
Def: Lo spazio TM (p0 )⊥ = NM (p0 ) si denisce spazio normale di M in p0 . La sua dimen-
sione è N − k.

OSS: Poichè v ∈ TM (p0 ) ⇔ Dφ(p0 )v = 0, questo indica che {∇φi (p0 )}i=1,...,N −k ⊂ NM (p0 ) e,
poichè per denizione sono l.i. (condizione necessaria per il rango), questi formano una base per
NM (p0 ).

Def: Data una varietà k-dim M ⊂ A ⊂ RN (A aperto) e una funzione f ∈ C 1 (A) si dice che
p0 ∈ M è un punto di estremo (relativo) vincolato per f su M se è di estremo (relativo) per
f |M .

Ma come si fa a trovare questi punti? Abbiamo un teorema che ci aiuta, in cui usiamo il metodo
dei moltiplicatori di Lagrange (che tra l'altro abbiamo già usato per trovare gli estremi vincolati in
una supercie):

Teorema: Siano p0 ∈ M, φ ∈ C 1 (I(p0 , R), RN −k ) e f ∈ C 1 (A). Se il punto (p0 , λ1 , . . . , λN −k )


è di estremo
P −k relativo per f su M allora ∃λ1 , . . . , λN −k ∈ R t.c. p0 è un punto critico di F (λ, p) =
f (p)+ N λ φ (p) su I(p , R)×R N −k . La funzione F (λ, p) è detta moltiplicatore di Lagrange.
i=1 i i 0

Dimostrazione. Sia γ : (−r, r) → RN , γ ∈ C 1 , γ(t) ∈ M e γ(0) = p0 con f ◦ γ ∈ C 1 (−r, r).


Allora 0 = (f ◦ γ)0 (0) (0 è un punto di estremo relativo, in quanto lo è p0 e γ(0) = p0 ), quindi
PN −k>= 0 ⇒ ∇f (p0 ) ∈ NM (p0 ) ⇒ ∇f (p0 ) ∈ span{∇φi (p0 ) : i = 1, . . .P
< ∇f (p0 ), γ̇(0) , N − k} ⇒
∇f (p0 ) = i=1 λi ∇φ (p
i 0 ) (nessun problema che in questo modo verrebbe f (p) − λi φi (p) in
quanto λi sono coecenti moltiplicativi, quindi posso semplicemente farli valere −λi ). ##

43