You are on page 1of 28

Denition 28.

5 (Lipschitzstetigkeit und Holderstetigkeit)


f : X Y heit (global) Lipschitzstetig auf X, falls f ur eine Konstante L R und alle x, y X gilt:
d(f(x), f(y)) L d(x, y)
f heit Holderstetig vom Grad p (0, 1], falls
d(f(x), f(y)) L
p
[d(x, y)]
p
Also ist Holderstetigkeit vom Grad 1 aquivalent zur Lipschitzstetigkeit.
Falls L bzw. L
p
jeweils nur in einer beschrankten Teilmenge von X gelten, so heit f lokal Lipschitz-
bzw. Holderstetig.
Beispiel 1.) f(x) = | sin x| f ur x R ist global Lipschitzstetig mit L = 1
2.) f(x) = x
2
ist lokal Lipschitzstetig, da f ur
|x| b |y| = |x
2
y
2
| = |x y||x + y| |x y|(|x| +|y|) x y|2b
sodass L = 2b auf Intervall [b, b] g ultig.
3.) f(x) =
_
|x| dann gilt |
_
|x|
_
|y|| |x y|
1
2
L1
2
. Wird spater nachgewiesen.
Lemma 28.6 (Vererbung von Lipschitzstetigkeit)
f, g wie in Lemma 28.4 ergibt (f, g) und f + g Lipschitz-/Holderstetig, falls f und g Lipschitz-
/Holderstetig sind.
f g ist lokal Lipschitz- /Holderstetig, falls f und g das sind.
Denition 28.7 (Lineare Operatoren)
Funktion f : X Y zwischen linearen Vektorraumen schreibt man in Anwendung auf Argument x haug
in multiplikativen Form: f(x) = Ax wobei f ur X = C
n
, Y = C
m
A als Matrix gedeutet werden kann.
Ae
j
=
_
_
_
_
_

1j

2j
.
.
.

mj
_
_
_
_
_
f ur j = 1 . . . n =
m

i=1

ij
e
i
mit e
j
, e
i
die Cartesischen Vektoren e
j
= (0, . . . , 1, . . . , 0) in C
n
bzw. C
m
.
Es gilt dann als MatrixVektorProdukt f ur x =

x
j
e
j
:
Ax =
n

j=1
Ax
j
e
j
=
n

j=1
(Ae
j
)x
j
=
n

j=1
_
m

i=1

ij
e
i
_
x
j
=
n

j=1
_
m

i=1

ij
x
i
_
e
i
M.a.W. die Koezienten von Ax bez uglich der Cartesischen Basis ergeben sich durch Multiplikation des
Komponentenvektors von x mit A.
In unendlichdimensionalen Raumen nutzt man fast nie spezielle Basen und bezeichnet A gerne als

Linearen Operator.
Lemma 28.8
F ur eine lineare Abbildung/Operator A : X Y sind die folgenden Aussagen aquivalent:
(i) A Lipschitzstetig auf ganz X
(ii) A stetig am Ursprung x = 0 oder beliebigem anderen Punkt
(iii) A ist beschrankter Operator, d.h. A sup
0=xX
Ax
x
<
2
Beweis
(i) = (ii) oensichtlich
(ii) = (iii) Betrachte beliebiges > 0 und entsprechend > 0 sodass
x 0 = x = Ax A0 = Ax
Speziell erhalten wir f ur x = 0
Ax
x
=
_
_
_
_
A
x
x
_
_
_
_
=
_
_
_A
x
x
_
_
_

= A

<
(iii) = (i)
Ax Ay = A(x y) Ax y
Also ist L = A die globale Lipschitzkonstante.
Korollar 28.9
Der Raum L(X, Y ) aller beschrankten linearen Abbildungen zwischen zwei reellen oder komplexen Vek-
torraumen mit Normen
x
und
y
ist selbst ein normierter Raum bzgl. der induzierten Norm
A = sup
0=xY
Ax
y
x
x
Beweis
A = 0 Ax
y
= 0 f ur alle x Ax = 0 f ur x X A 0 Nulloperator
A = sup
0=xX
Ax
y
x
x
= sup . . . = A = Homogenitat
A + B = sup
0=xX
Ax + Bx
y
x
x
sup
0=xX
Ax
y
x
x
+ sup
0=xX
Bx
y
x
x
= A +B

Korollar 28.10
X, Y Banachraume = L(X, Y ) auch Banach
Beweis
F ur Normeigenschaften siehe Korollar 28.8 und Vollstandigkeit siehe

Ubungsblatt 7.
Bemerkung (Wozu das Ganze?) In vielen Anwendungen sucht man
i) Losungen x X von linearen oder nichtlinearen Gleichungen F(x) = y f ur gegebenes y Y
ii) Optimalpunkte x von Variationsproblemen:
min
xX
f(x) , sodass F(x) = 0 mit f : X R und F : X Y
Dazu erzeugt man Folgen (x
k
)

k=0
X von approximativen Losungen x
k
, die hoentlich gegen eine exakte
Losung bzw. einen Optimalpunkt x

X konvergieren. F ur Validierung der Existenz und Losungseigen-


schaft von x

X betrachtet man
Stetigkeit von f und F
Abgeschlossenheit bzw. Vollstandigkeit von X
Kontraktionseigenschaft von F bzw. im Banachraum F(x) x. (siehe Fixpunktsatze)
3
Lemma 28.11 (Umschreiben von Gleichung F(x) = y zu Fixpunktgleichung)
Falls X, Y Banachraume und P L(X, Y ) injektiv, d-h. Px = 0 x = 0, gilt f ur festes y Y :
F(x) = y G(x) := x P(F(x) y) = x
Beweis

Ubungsaufgabe
Satz 28.12 (Kontraktionssatz, Banachscher Fixpunktsatz)
Falls eine Abbildung G : X X auf vollstandigem, metrischem Raum kontraktiv ist, d.h. f ur eine
Lipschitzkonstante L < 1 gilt
d(G(x), G(z)) Ld(x, z) f ur x, z X
dann gilt:
(i) Es existiert genau ein Fixpunkt x

X, d.h. G(x

) = x

(ii) F ur beliebigen Startwert x


0
X konvergiert die durch die Rekursion x
k
= G(x
k1
) f ur k = 1, 2, . . .
erzeugte Folge (x
k
)

k=0
X gegen x

X
(iii) d(x
k
, x

) L
k
d(x

, x
0
) d.h. lineare Konvergenz sowie d(x
k
, x

)
L
1L
d(x
k
, x
k1
) (Groe des
letzten Schrittes.
Beweis
(i)
d(x
k
, x
k+1
) = d(G(x
k1
), G(x
k
))
Ld(x
k1
, x
k
) L
2
d(x
k2
, x
k1
) . . . per Induktion
= f ur m > k
d(x
k
, x
m
)
m1

j=k
d(x
j
, x
j+1
) nach Dreiecksungleichung

m1

j=k
L
j
d(x
0
, x
1
) = d(x
0
, x
1
)
m1

j=k
L
j
d(x
0
, x
1
)L
k

j=0
L
j
=
d(x
0
, x
1
)L
k
1 L
Also bilden x
k
Cauchyfolge und haben wegen vorausgesetzter Vollstandigkeit einen eindeutigen
Grenzwert x

X.
x

= lim
k
x
k
= lim
k
G(x
k1
)
da G stetig
= G( lim
k
x
k1
) = G(x

)
Daraus folgt x

ist Fixpunkt wie in (i) behauptet. Eindeutigkeit folgt durch Widerspruch. An-
nahme:
x

= G(x

), x

= G( x

) mit x

= x

= d(x

, x

) > 0
d(x

, x

) = d(G(x

), G( x

)) Ld(x

, x

)
1 L im Widerspruch zur Kontraktivitat
(ii) x
k
x

f ur beliebiges x
0
bereits bewiesen
4
(iii)
d(x
k
, x

) = d(G(x
k1
), G(x

)) Ld(x
k1
, x

)
L
2
d(x
k2
, x

) . . . L
k
d(x
0
, x

)
d(x
k
, x

) d(x
k
, x
k+1
) + d(x
+1
, x

) nach Dreiecksungleichung
Ld(x
k1
, x
k
) + Ld(x
k
, x

)
(1 L)d(x
k
, x

) Ld(x
k1
, x
k
) =Behauptung nach Division durch (1 L)
Bemerkung Anwendung f ur Banachraum X spater zum Beweis von
Umkehrfunktionentheorem
implizite Funktionentheorem
Theorem von Picard -Lindelof garantiert Existenz von Losungen f ur DGLs bzw. ODEs.
Denition 28.13 (Kompakter metrischer Raum)
Ein metrischer (Teil)Raum M X heit kompakt, wenn es die folgenden aquivalenten Bedinungen
erf ullt:
(i) Folgenkompaktheit: Jede Folge (x
k
)

k=1
M hat eine konvergente Teilfolge mit Grenzwert x

M
(ii)

Uberdeckungskompaktheit: F ur jede Familie oener Mengen U
j
X mit j Element einer
beliebigen Indexmenge J folgt aus M

jJ
U
j
dass bereits f ur eine endliche Teilmenge J

J gilt
M
_
jJ

U
j
In Worten: Jede oene

Uberdeckung von M hat eine endliche Teil uberdeckung.
Beweis
(ii) = (i) durch Widerspruch. Annahme (x
k
) M hat keinen Haufungspunkt. Dann gilt f ur jedes
x M existiert eine Kugel B
r
(x) U
x
, die nur endlich viele Elemente von (x
k
)

k=1
enthalt.
Nach Denition von U
x
mit J = M gilt
M = {x M}
_
xM
U
x
Aus vorausgesetzter

Uberdeckungskompaktheit gibt es eine endliche Teil uberdeckung
M
_
x{z
1
,...,z
m
}
U
x
Da in jeder dieser Umgebungen U
z
j
nur endlich viele Elemente der Folge x
k
liegen konnen,
d urfte M selbst nur endlich viele Folgenglieder enthalten. Das steht im Widerspruch zur De-
nition von (x
k
)

k=1
als unendliche Folge.
Bemerkung Die in metrischen Raumen aquivalente Denition (ii) lasst sich auch auf topologische
Raume ubertragen, wo sie nicht mehr automatisch mit Konvergenz von Teilfolgen aquivalent ist.
Satz 28.14
(i) Ein kompakter metrischer Raum X ist vollstandig und beschrankt.
(ii) Eine Teilmenge M eines endlichdimensionalen reellen oder komplexen Raumes ist kompakt gdw. sie
abgeschlossen und beschrankt ist.(siehe Satz 13.4)
5
Beweis
(i) durch Widerspr uche. Ware X nicht vollstandig, dann gabe es eine Cauchyfolge (x
n
) X ohne
Grenzwert in X und damit auch ihne konvergente Teilfolge. Ware X unbeschrankt, so gabe es
eine Folge (x
n
)
k
mit d(x
k
, x

) k f ur festes x

. Daraus folgt f ur k fest und m


liminf
m
d(x
m
, x
n
) lim
m
d(x
m
, x

) d(x
k
, x

) =
Also konnte es wiederum keine konvergente Teilfolge geben.
Satz 28.15
Sei X, Y normierte Raume,falls f : X Y stetig auf kompakten Mengen M X dann gilt:
(i) f(M) Y ist kompakt
(ii) f ist auf M gleichmaig stetig, d.h. > 0 > 0 : d(x, y) < = d(f(x), f(y)) < f ur
x, y M
Beweis
(i) Betrachte Folge (y
k
)

k=1
f(M) = x
k
M : f(x
k
) = y
k
. Daraus folgt, (x
k
)

k=1
M hat
konvergente Teilfolge x
k
j

j
x

M. Daraus folgt, limf(x


k
j
) = limy
k
j
= f(x

) y

wegen
Stetigkeit von f.
(ii) Per Widerspruch. Annahme:
> 0 > 0 x, y M : d(x, y) < d(f(x), f(y))
Insbesondere folgt f ur =
1
k
Existenz von x
k
, y
k
M sodass d(x
k
, y
k
) <
1
k
d(f(x
k
), f(y
k
)) .
Wegen Kompaktheit, o.B.d.A x
k
x

y
k
y

.
d(x
k
, y
k
) 0, d(x

, y

) d(x
k
, x

) + d(x
k
, y
k
) + d(y

, y
k
) = d(x

, y

) = 0 = x

= y

= Stetigkeit d(f(x
k
), f(y
k
)) d(f(x

), f(y

)) = d(f(x

), f(x

)) = 0
im Widerspruch zur Annahme

Korollar 28.16 (Weierstra)


Falls f : X R stetig und M X kompakt existieren Punkte x

, x

M sodass
f

= f(x

)
. .
min{f(x):xM}
f(x) f

= f(x

)
. .
max{f(x):xM}
f ur x M
Beweis
Nach Satz 28.15 ist f(M) R kompakt und damit abgeschlossen und beschrankt. Folglich enthalt
f(M) sowohl sein Inmum als Minimum y

= f(x

) als auch sein Supremum als Maximum f(x

) =
y

.
Beispiel F ur kompakte Menge in unendlich dimensionalem Raum ergibt sich nach Arzela-Ascoli wie
folgt:
Satz 28.17
Im Banachraum C[a, b] mit f

:= sup
axb
|f(x)| ist f ur jedes L > 0 und l > 0 die Menge
M
L,l
:= {f C[a, b] : f

l |f(x) f(y)| L|x y| f ur x, y [a, b]}


von Lipschitzstetigen Funktionen kompakt.
Bemerkung Satz erlaubt nach Peano Existenzbeweis f ur ODEs mit stetiger RHS.
6
Beweis
Im Intervall [a, b] bilden die rationalen Punkte [a, b] Q eine dichte Teilmenge. Sie konnen wegen
Abzahlbarkeit von Q durchnumeriert werden, d.h. {q
1
, q
2
, . . . , q
j
, . . . , } = [a, b]Q. Betrachte beliebige
Folge (f
k
)

k=1
M
L,l
. Dann ist f ur jedes q
j
die reelle Folge
_
f
k
(q
j
)
_

j=1
R durch l beschrankt, hat
also einen Haufungspunkt. Beginnend mit
_
f
k
(q
j
)
_

j=1
denieren wir Teilfoge f
k
i
von Funktionen,
sodass f
k
i
(q
1
)
j
f

(q
1
). Aus den f
k
i
entnehmen wir Teilfolge f
k

i
mit f
k
1
= f
k

1
und f
k

i
(q
2
)
i
f

(q
2
). Dieser Prozess kann abzahlbar oft wiederholt werden und da man jweils das erste Element
dazunimmt ergibt sich eine Teilfolge f
k

j
sodass
f
k

i
(q
j
)
i
f

(q
j
) f ur j N
Zu zeigen bleibt, dass die f
k

i
gleichmaig gegen Grenzfunktion konvergieren, die f ur rationale q
j
schon durch f

(q
j
) gegeben ist. O.b.D.A (f
k

i
)

i=1
= (f
k
)

k=1
. Betrachte beliebiges > 0 und setzen
=

3L
. Dann hat die

Uberdeckung
[a, b]
_
jN
B

(q
j
) = [a, b] =
n
_
j=1
B

(q
j
)
hat wegen Kompaktheit endliche Teil uberdeckung. Wegen Konvergenz der f
k
(q
j
) an den endlich vielen
Punkten q
1
, . . . , q
n
existiert ein k
0
, sodass
k k
0

k = |f
k
(q
j
) f

k
(q
j
)|

3
Folglich ergibt sich aus der Dreiecksungleichung f ur beliebiges x B

(q
j
) dass
|f
k
(x) f

k
(x)| |f
k
(x) f
k
(q
j
) + f
k
(q
j
) f

k
(x) + f

k
(q
j
) f

k
(q
j
)|
|f
k
(x) f
k
(q
j
)|
. .
L=

3
+|f
k
(q
j
) f

k
(q
j
)|
. .

3
+|f

k
(q
j
) f

k
(x)|
. .
L=

3

da f
k
M
L,l
. Da diese Aussage f ur alle x [a, b] gilt, bilden die (f
k
)

k=1
eine Cauchyfolge bzgl.

und haben deshalb einen stetigen Grenzwert f

C[a, b].
f

M
L,l
folgt, da |f

(x) f

(y)| = | lim
k
f
k
(x) lim
l
f
l
(y)| lim
n
|f
n
(x) f
n
(y)|
lim
n
L|x y| = L|x y|

Bemerkung Anwendung - Approximation nach Tschebysche = Chebyshev


Gegeben: Beliebige beschrankte Funktion f : [0, 1] = [0, l]
Gesucht: Lipschitzstetige Annaherung g M
L,l
C[0, 1] f ur die der Abstand (g) = f g

minimiert.
Zielfunktion (g) ist auf C[a, b] Lipschitzstetig, da
|(g) ( g)| =

f g

f g


Lg g

mit

L = 1
Nach Satz 28.15 erreicht auf M
L,l
ein Minimum (g

) = min
gM
L,l
f g

.
Bemerkung Die Vorraussetzung von Lipschitzstetigkeit in Satz 28.16 kann abgeschwacht werden zu
gleichgradiger Stetigkeit, d.h. M C[a, b] muss so eingeschrankt sein, dass
> 0 > 0f M; x, y [a, b] : |x y| < = |f(x) f(y)| <
M.a.W. Uniformitat in x, y [a, b] und f M. Gilt mit =

L
im obigen Fall.
7
Denition 28.18
Eine Teilmenge M X eines vollstangigen metrischen Raumes heit zusammenhangend, wenn es f ur
alle x, y M eine stetige Funktion p : [0, 1] M mit p(0) = x und p(1) = y gibt. M heit konvex, falls
X Banachraum und p an gewahlt werden kann, d.h.
p(t) = (1 t)x + ty = x + t(y x) M
Lemma 28.19
Falls M X zusammenhangend und f : X Y stetig dann ist auch f(M) Y zusammenhangend.
Falls M X konvexe Teilmenge eine Banachraumes und f : X Y an, dann ist auch f(M) Y
konvex.
Beweis
F ur beliebiges x, y f(M) exisiteren Urbilder x, y M mit f(x) = x und f(y) = y. Jeder Pfad p(t)
mit p(0) = x und p(1) = y ergibt ebenfalls stetigen Pfad f p(t) = f(p(t)) f(M) mit (f p)(0) = x
und (f p)(1) = y. Falls p und f linear sind, gilt dies auch f ur f p, also vererbt sich Konvexitat
entsprechend.
Bemerkung (Erinnerung) f : X Y zwischen normierten Raumen:
Linearitat Additivitat + Homogenitat f(x + y) = f(x) + f(y)
Anitat f(x) f(0) ist linear Lineare Funktion + Konstante
8
VIII Dierentialrechnung in mehreren Variablen
29 Dierenzierbarkeit
Bemerkung Die Idee eine glatte Funktion in der Nahe eines Punktes x durch eine ane

Tangenten-
funktion anzunahern und in diesem Sinne zu

dierenzieren ubertragt sich direkt auf Abbildungen


zwischen Banachraumen. Nach allgemeinen Einf uhren der Dierenzierbarkeit konkrete Aussage in R
n
.
Denition 29.1
Eine Funktion f : X Y mit X, Y Banachraumen heit am Punkt x X dibar, wenn es einen linearen
Operator A L(X, Y ) gibt, sodass
lim
v0
f(x + v) f(x) Av
v
= 0 d.h. > 0 > 0 = f(x + v) f(x) Av
. .
ane in v
v
Dann nennt man F

(x) := A die Frechet oder totale Ableitung von F an der Stelle x. Wenn F an allen
x in oener Menge U X dibar ist und F

(x) als Funktion von x F

(x) L(X, Y ) stetig ist, heit


F auf U Frechet dibar und man schreibt F C
1
(U; Y ).
Bemerkung Da v X jetzt vektorwertig ist, konnen wir nicht durch v dividieten und lim
v0
f(x+v)f(x)
v
macht keinen Sinn. Stattdessen schreibt man haug f(x + v) f(x) = Av + o(v) wobei o() wie folgt
deniert ist.
Denition 29.2 (Landau-Symbolik)
F ur p 0 und g, h : (, ) Y bedeuten die

Gleichungen
g() = O(
p
) und h() = o(
p
)
dass
limsup
0
g()

p
< bzw. lim
0
h()

p
= 0
m.a.W.
g()

p
ist beschrankt im ersten Fall und
h()

p
geht gegen null wenn 0.
Beispiel 1007
2
sin(
1

) = O(
2
) da
lim
0
|
2
sin(
1

)|

2
= lim
0
| sin
1

| = 1
oder
sin(
3
)
| ln |
= o(
3
) da
lim
0
sin
3

3
| ln |
= lim
0
sin
3

3
lim
0
1
| ln |
= 1 0 = 0
Lemma 29.3 (Rechenregeln f ur Landausymbole)
O(
p
) o(
p
) = O(
p
)
O(
p
) +O(
q
) = O(
min(p,g)
)
o(
p
) + o(
q
) = o(
min(p,q)
)
O(
p
) (
q
) = o(
p+q
)
O(
p
)
O(
q
)
?
= O(
pq
) NEIN
Linke Seite ist nicht deniert, da Nenner null sein kann. z.B. 1 = O(1), sin(
1

) = O(1) =
1
sin(
1

)
unbeschrankt durch beliebiges
q
.
9
Bemerkung O(
0
) = O(1) und o(
0
) = o(1) bezeichnen Groen die f ur 0 beschrankt sind bzw.
gegen null gehen. Schreibweise
0
statt 1 ist eindeutig, wenn Ausdr ucke verschiedene Variablen enthalten.
Lemma 29.4
f : X Y ist an Stelle x
stetig, falls f(x + v) = f(x) + o(v
0
)
Lipschitzstetig, falls f(x + v) = f(x) +O(v)
Frechetdibar, falls f(x + v) = f(x) + Av + o(v)
Daraus folgt, dass Dibar = Lipschitzstetig = Stetigkeit.
Satz 29.5 (Kettenregel)
Sei f : X Y dibar an Stelle x und g : Y Z dibar an Stelle y = f(x), dann ist h = g f an der
Stelle x dibar mit
h

(x) = g

(f(x))f

(x) = g

(y)f

(x) L(X, Z) wobei g

(y) L(Y, Z) und f

(x) L(X, Y )
Beweis
h(x + v) h(x) = g(f(x + v)) g(f(x)) = g(y + f(x + v) f(x)
. .
w
) g(y) wegen Dibarkeit von g
= g

(y) w + o(w) = g

(y)
_
f(x + v) f(x)
. .
f

(x)v+o(v)

+ o
_
f(x + v) f(x)
. .
=O(v)wegen Lemma 29.4

_
= g

(y)f

(x)v + g

(x)o(v) + o(O(v))
= g

(y)f

(x)v + o(v)
Daraus folgt die Behauptung.
Satz 29.6 (Dierenziationsregeln f ur X, Y, Z Banachraume)
f : X Y und g : X Z beide dibar an x X, also sind auch dibar in x:
(i) h(x) = (f(x), g(x)) : X Y Z mit h

(x) =
_
f

(x), g

(x)
_
, d.h. h

(x)v =
_
f

(x)v, g

(x)v
_
(ii) h(x) = f(x) + g(x) f ur Y = Z und , R mit h

(x) = f

(x) + g

(x) (Linearitat)
(iii) h(x) = f(x) g(x) : X Y f ur Z = R mit h

(x) = f

(x)g(x) + f(x)g

(x) L(X, Y )
(iv) h(x) =
f(x)
g(x)
f ur Z = R mit g(x) = 0 mit h

(x) =
f

(x)g(x)g

(x)f(x)
g(x)
2
Beweis
(i) h(x + v) h(x) =
_
f(x + v), g(x + v)
_

_
f(x), g(x)
_
=
_
f(x + v) f(x), g(x + v) g(x)
_
=
_
f

(x)v + o(v), g

(x)v + o(v)
_
=
_
f

(x)v, g

(x)v
_
+
_
o(v), o(v)
_
= o(max{v, v}) in der Produkttopologie
= o(v)
(ii) Hausaufgabe
(iii) h(x + ) h(x) = f(x + v)g(x + v) f(x)g(x)
= (f(x + v) f(x))g(x + v) + f(x)(g(x + v) g(x))
= (f

(x)v + o(v))g(x + v) + f(x)(g

(x)v + o(v))
= g(x)f

(x)v + o(v)g(x) + f

(x)vO(v) + o(v)O(v) + o(v)


=
_
g(x)f

(x)v + f(x)g

(x)v

+ o(v)
(iv)

Ubung
10
Bemerkung (i) Aussage gilt auch umgekehrt, d.h. F =
_
f
g
_
: X Y Z ist genau dann dibar an
x X, wenn sowohl f wie g an der Stelle x dibar sind und es gilt F

(x) =
_
f

(x)
g

(x)
_
entsprechend
ist eine Vektorfunktion
F =
_
_
_
F
1
(x)
.
.
.
F
m
(x)
_
_
_ : X = R
n
Y = R
m
genau dann an x R
n
dibar, wenn dies f ur die Komponentenfunktionen F
i
: R
n
R gilt. F urs
erste betrachten wir deshalb

nur skalarwertige Funktionen f(x) = f(x


1
, . . . , x
n
) : R
n
R
Bemerkung (Herleitung des Gradienten) Die Abbildung f

(x) L(R
n
, R) muss erf ullen f ur v =
e
j
(0, . . . , , 0, . . . , 0)
f(x + v) f(x) = f(x
1
, . . . , x
j1
, x
j
+ , x
j+1
, . . . , x
n
) f(x
1
, . . . , x
n
)
= f

(x)v + o(v) = f

(x)e
j
+ o(||) da v = ||
f

(x)e
j
= lim

f(x + e
j
) f(x)

=
d
d
f(x + e
j
)

=0
Partielle Ableitung nach x
j
mit x
i
konstant f ur i = j
f

(x)e
j
=

x
j
f(x) =
j
f(x) =
d
d
f(x + e
j
)

=0
Beispiel
f(x
1
, x
2
) = sin(x
1
x
2
) exp(x
1
x
2
)
f
x
1
=
1
f = cos(x
1
x
2
)x
2
exp(x
1
x
2
) + sin(x
1
x
2
) exp(x
1
x
2
)
f
x
2
=
2
f = cos(x
1
x
2
)x
1
exp(x
1
x
2
) sin(x
1
x
2
) exp(x
1
x
2
)
Bemerkung Notwendige Bedingung f ur totale oder Frechetdibarkeit von f(x) : R
n
R ist partielle
Dibarkeit bez uglich aller n Variablen x
1
, . . . , x
n
.
Bemerkung (Notation) totale oder F-dibar f(x+v) = f(x) +f

(x)v +o(v) wobei f

(x)v bedeutet
Anwendung des linearen Operators, d.h. lineare Abbildung f

(x) L(X, Y ) auf v = x X. Alternativ


_
f

(x)
_
(v). Bei Kettenregel angewandt auf h = g f tritt auf h

(x) = g

(y)f

(x) mit y = f(x). Hierbei


bedeutet

Multiplikation der Operatoren f

(x) L(X, Y ) und g

(y) L(Y, Z) einfach Hintereinander-


ausf uhrung, d.h.
_
g

(x)f

(x)
_
v = g

(y)
_
f

(x)
_
v = g

(y)w mit w = f

(x)v
Wichtig: Multiplikation von linearen Operatoren ist assoziativ, aber nicht kommutativ. Addition ist
beides, vorausgesetzt, Denitions- und Bildbereiche X, Y stimmen uberein. Im endlichdimensionalen, d.h.
X = R
n
, Y = R
m
und Z = R
p
kann man f

(x), g

(x), h

(x) bez uglich der kanonischen Basis (e


j
)
j=1,...
mit Matrizen f R
mn
, g R
pm
und h R
pn
identizieren und es gilt h(x) = g(y)f(x)
im Sinne der Matrizenmultiplikation.
Bemerkung (Gradienten(transponierte Gradient) bzw. Nabla Operator) Aus einer skalarwer-
tigen Funktion f(x) : R
n
R ergibt sich durch partielle Dierentiation die vektorwertige Funktion
f(x) =
_

1
f(x),
2
f(x), . . . ,
n
f(x)
_
R
1n
vorausgesetzt die partiellen Ableitungen

j
f(x) =
d
d
f(x + e
j
)

=0
f ur j = 1 . . . n
11
existieren. Nach Holderungleichung folgt f ur v =

n
j=1
v
j
e
j
R
n
, dass
|f

(x)v| =

j=1
f

(x)e
j
v

j=1

j
f(x)v
j

_
_
n

j=1
|
j
f(x)|
p
_
_
1
p
_
_
n

j=1
|v
j
|
q
_
_
1
q
= f(x)
p
v
q
mit
1
p
+
1
q
= 1 Falls nicht anders deniert, benutzen wir immer p = q = 2.
Beispiel f ur das partielle Dierenzierbarkeit an der Stelle x = 0 R
2
, aber die Funktion dort nicht
F-dibar ist:
f(x
1
, x
2
) = min(|x
1
|, |x
2
|)

1
f(0, 0) =
d
d
f(, 0)

=0
=
d
d
min(||, 0) = 0 =
2
f(0, 0)
= f(v
1
, v
2
) f(0, 0) f(0)
_
v
1
v
2
_
= min(|v
1
|, |v
2
|) 0 0 = o(v)
da z.B. langs Diagonale v
1
= v
2
=
min(|v
1
|, |v
2
|)
v
=
||

2||
=
1

2
konstant
Problem ist, dass die partiellen Ableitungen nur an Stelle x = 0 existieren, aber nicht in Umgebung, z.B.
Punkt x = (1, 1)
Satz 29.7
Falls f : R
n
R an allen Punkten x U, U oen, partiell dibar ist und die partielle Ableitung

j
f : U R f ur j = 1, . . . , n auf U stetig sind, dann ist f selbst auf U Frechet-dibar, d.h. f C
1
(U, R)
Beweis
Betrachte festes x U mit B
r
(x) U. Dann folgt
v
2
< r = x + v B
r
(x) U
Es gilt sogar dass f ur i = 0, . . . , n :
x
(i)
=
_
x
1
+ v
1
, . . . , x
i
+ v
i
, x
i+1
, . . . , x
n
_
B
r
(x)
f(x + v) f(x) =
n

i=1
f(x
(i)
) f(x
(i1)
) = f
(n)
f
(n1)
+ f
(n1)
f
(n2)
+ . . . + f
(1)
f
(0)
Da alle f(x+e
j
) in B
r
(x) nach stetig dibar sind, existieren nach Mittelwertsatz der Direchnung
Werte
i
(0, 1) sodass
f(x
(i)
) f(x
(i1)
) =
i
f(x
(i1)
+
i
v
i
e
i
)v
i
= f(x + v) f(x)
n

i=1

i
f(x)v
i
. .
=f

(x)v
=
n

i=1
_

i
f(x
(i1)
+
i
v
i
e
i

i
f(x)

v
i
?
= o(v)
Wegen vorausgesetzter Stetigkeit der
i
f(x) existieren f ur > 0 beliebig ein sodass v
2
< =
|
i
f(x + v)
i
f(x)|

n
. Da
x
(i1)
+
i
v
i
e
i
x
2
=
i

j=1

i
v
i
e
i

2
v
2
12
ergibt sich
|f(x + v) f(x) f(x)v|
n

i=1
|
i
f(x
(i1)
+ v
i

i
e
i
)
i
f(x)||v
i
| max
1in
{|v
i
|} n

n
v
2

Beispiel
f(x
1
, x
2
) = log(x
1
+ x
2
2
) sin(x
1
x
2
) :U R mit U := {(x
1
, x
2
) R
2
: x
1
> x
2
2
}
f =
_

i
f(x
1
, x
2
)
_
i=1,2
=
_
1
x
1
+ x
2
2
sin(x
1
x
2
) + log(x
1
+ x
2
2
) cos(x
1
x
2
)x
2
,
2x
2
x
1
+ x
2
2
sin(x
1
x
2
) + log(x
1
+ x
2
2
) cos(x
1
x
2
)x
1
_
An allen x U ist f = (
1
f,
2
f) deniert, also ist f stetig dibar
Satz 29.8 (Mittelwertsatz f ur f : R
n
R)
Sei f C
1
(U, R) mit U oen und X(t) = (1 t)x + ty U f ur t [0, 1] f ur gegebene x, y U. Dann
existiert ein Wert t [0, 1], sodass f ur z = p(t) gilt
f(y) f(x) = f(z)(y x)
Beweis
Sowohl f : U R wie p : (0, 1) U sind F-dibar mit p

(t) =
d
dt
p(t) = (y x). Die Kettenregel
ergibt dann f ur (t) = f(p(t)) die Ableitung

(t) = f(p(t)) p

(t) = f(p(t))(y x)
Da (0) = f(x) und (1) = f(y) existiert nach Mittelwertsatz f ur reelle Funktionen eine Variable,
sodass
f(y) f(x) = (1) (0) =

(t) = f(p(t))(y x)

Korollar 29.9 (Schrankensatz f ur f : R


n
R)
Unter Vorraussetzung von Satz 29.8 gilt
|f(y) f(x)| Ly x
2
wobei L = max
0t1
f((1 t)x + ty)
2
Beweis
Nach 29.8 und Cauchy-Schwarz gilt
|f(y) f(x)| = |f(z)(y x)| f(z) y x Ly x
da z = (1 t)x + ty f ur ein t [0, 1].
Satz 29.10
Sei G R
n
oen und wegzusammenhangend und f : G R stetig dibar. Dann ist f c konstant gdw.
f 0.
Beweis
= trivial
= konvexer Fall wenn x G, dann gibt es ein > 0 mit B(x, ) G. F ur jedes y B(x, )
gilt [x, y] B(x, ).
MWS: f(y) f(x) = f(z)(y x) f ur ein z [x, y]
Also ist f(y) f(x) = 0, weil f(z) = 0.
13
sonst Seien x, y G beliebig. Dann gibt es ein : [0, 1] G stetig mit (0) = x, (1) = y.
F ur jedes t gibt es ein (t) mit B((t), (t)) G.
_
t[0,1]
B
_
(t), (t)
_
ist eine oene

Uberdeckung. F ur jedes t [0, 1] gibt es ein (t), sodass

_
B(t, )
_
B
_
(t),
(t)
2
_
Da [0, 1] kompakt ist, gibt es
t
0
= 0 < t
1
< . . . < t
N
= 1
k
= (t
k
),
k
= (t
k
) ,sodass
_
B(t
k
,

k
2
) [0, 1]
t
k
B(t
k+1
, k + 1) oder t
k+1
B(t
k
,
k
)
(t
k
) B
_
(t
k+1
),

k+1
2
_
oder (t
k+1
) B
_
(t
k
),

k
2
_
In beiden Fallen gilt f
_
(t
k
)
_
= f
_
(t
k+1
_
da B
_
(t
i
),

i
2
_
konvex und B
_
(t
i
),

i
2
_
U, also
MWS.
= f(x) = f((t
0
)) = f((t
1
)) = . . . = f((t
N
)) = f(y)
Da x, y G beliebig, gilt f(y) = f(x) f ur jedes y G, d.h c = f(x)

Denition 29.11 (Vektorwertige Funktionen)


G R
n
sei ein Gebiet, f : G R
m
. f hat m Komponenten f
1
, . . . , f
m
: G R mit
f(x) =
_
_
_
f
1
(x)
.
.
.
f
m
(x)
_
_
_
Sind alle Komponenten in x G partiell dibar, dann kann man die Jacobi-Matrix denieren als
f(x) =
_
_
_
f
1
(x)
.
.
.
f
m
(x)
_
_
_ =
_
_
| |

1
f(x) . . .
n
f(x)
| |
_
_
=
_
_
_

1
f
1
(x) . . .
n
f
1
(x)
.
.
.
.
.
.

1
f
m
(x) . . .
n
f
m
(x)
_
_
_

k
f
l
(x) =
f
l
x
k
(x) ist die partielle Ableitung von f
l
nach x
k
im Punkt x.
Satz 29.12
f ist auf G stetig dibar, gdw. die partiellen Ableitungen der Komponenten existieren und stetig sind.
Beweis
Folgerung aus dem skalaren Fall.
Beispiel (zum Mittelwertsatz) f : [0, 1] R
2
, f(x) =
_
x
2
x
3
_
Es ist f(x) =
_
2x
3x
2
_
.
f
1
(1) f
1
(0) = 1 = 2z (1 0) z =
1
2
f
2
(1) f
2
(0) = 1 = 3z
2
(1 0) z =
_
1
3
Konnen keinen gemeinsamen Zwischenpunkt z [0, 1] mit f(1) f(0) = f(1 0) nden.
14
Satz 29.13 (Schrankensatz)
G R
n
oen, f : G R
m
stetig dibar. x, y G mit [x, y] G. Dann gilt
f(y) f(x) Ly x mit L = sup
z[x,y]
f(z)
Bemerkung Wenn die euklidische Norm ist, dann ist A =
_

max
(A
T
A) mit
max
ist groter
Eigenwert. Jede Matrix A lasst sich zerlegen in
A = UV mit U, V orthogonal
Und =
_
%
0
_
oder =
_
% 0
_
.
Beweis
Betrachten Hilfsfunktion : G R, (x) = a
T
f(x) f ur ein beliebiges a R
m
, a = 0. Nach skalarem
MWS gibt es ein z [x, y] mit
(y) (x) = (z) (y x) = a
T
f(z) (y x)
Nach Cauchy-Schwarz gilt
|(y) (x)| a f(z)(y x) a f(z) y x
|a
T
_
f(y) f(x)
_
|
a
f(z) y x
Ly x
z hangt von a ab, Lx y ist von a unabhangig. Wenn f(x) = f(y), dann ist nichts zu zeigen.
Sonst setze a = f(y) f(x):
|a
T
_
f(y) f(x)
_
a
=
a
2
a
= f(y) f(x) Ly x

Korollar 29.14
Jede stetig dibare Funktion f : K R
m
auf einer konvexen, kompakten Menge K ist Lipschitzstetig.
L = sup
zK
f(z)
Bemerkung (Newton-Verfahren)
x
k+1
= x
k

f(x
k
)
f

(x
k
)
f : R
n
R stetig dibar. Linearisiere f in x
k
, suche Nullstelle der Linearisierung als x
k+1
.
f(x + v) = f(x) +f(x) v + o(v) f ur

kleine v
f(x) +f(x)v ist die Linearisierung von f in x. Lose
0 = f(x) +f(x)v nach v
v = (f(x))
1
f(x)
Wenn f(x) schon

klein genug, dann ist f(x + v) = o(f(x)). Oft auch f(x + v) = O(f(x)
2
).
Satz 29.15 (von Kantorowitsch, vereinfachte Version)
G R
n
, f : G R
n
. D
0
G sei oen, konvex, f auf D
0
dibar und f : D
0
R
nn
sei Lipschitzstetig
mit Konstante L > 0. In x
0
D
0
sei f(x
0
) invertierbar mit
= L (f(x
0
))
1

2
f(x
0
)
1
2
und
B(x
0
, 2(f(x
0
))
1
f(x
0
)) D
0
= x
k+1
:= x
k
f(x
k
)
1
f(x
k
) konvergiert gegen eine Nullstelle x

B(x
0
, 2(f(x
0
))
1
f(x
0
))
15
30 Umkehrfunktion, Gleichungen, IFT
IFT = Implizite Funktionen Theroem
Bemerkung (Motivation/Zusammenhang) Als Verallgemeinerung von linearen Gleichungssystemen
Ax = y mit y R
n
gegeben, x R
n
gesucht
betrachte nichtlineare Gleichungen
F(x) = y mit F : R
n
R
n
Aufgabe: Bestimmung von x f ur gegebenes y, d.h. Auswertung der (bzw. einer) Umkehrfunktion x =
F
1
(y)
Beispiel (Polarkoordinaten)
F(r, , ) =
_
_
r sin() cos()
r sin() sin()
r cos()
_
_
=
_
_
y
1
y
2
y
3
_
_
Hier bekommt man nach sukzessive auosen
r =
_
y
2
1
+ y
2
2
+ y
2
3
= arccos(
y
3
r
) =
x
2
r sin()
falls = 0
Im allgemeinen konnen Systeme nichtlinearer Gleichungen nicht in geschlossener Form, d.h. Formeln bzw.
Ausdr ucke gelost werden. Dann ergeben sich zwei Aufgaben:
(i) Beweise Existenz und gegebenfalls Eindeutigkeit von Losungen in bestimmten Umbgebungen U
R
n
und f ur bestimmte y V R
n
.
(ii) Numerische Approximation von Losungen mittels iterativer Verfahren( z.B. Newton und Varianten)
Umkehrbarkeit verlangt im allgemeinen Diernzierbarkeit und Regularitat der Jacobimatrix
F(x
0
) =
_
F
i
(x
1
. . . x
n
)
x
j
_
i=1...n
j=1...n
R
nn
det(F(x
0
)) = 0 F(x
0
)
1
existiert
span{
j
F(x
0
)}
n
j=1
= R
n
span{F
i
(x
0
)}
n
i=1
= R
n
F(x
0
)v = 0 v = 0
Haug sind Gleichungen abrangig bzw. variabel in Paramtern y R
m
und man sucht Losungen von
f(x, y) = 0 R
n
mit x R
n
Falls f ur alle y V R
m
Losung x = g(y) existieren und dieser Zusammenhang lokal eindeutig ist, heit
x = g(y) eine implizite Funktion, die auch durch f(x, y) = 0 deniert ist.
Beispiel
f(x, y) = x
2
+ y
2
1 = 0 x = g(y) =
_
1 y
2
f ur y [1, 1]
R uckf uhrung auf Umkehrfunktion durch Einbettung
F(x, y) =
_
f(x, y)
y
_
: R
nm
R
nm
mit F(x, y) =
_

x
f
y
f
0 I
_
= det(F(x, y)) = det(
x
f)
16
Beispiel (Gleichungslosung mit Newtonvarianten) Annahme: F C
1
(U, R
n
), U R
n
oen und
konvex. x
0
U annahernd Nullstelle F(x
0
) 0, d.h. F(x
0
) 1
Linearisierung: F(x
0
) +F(x
0
)v + o(V )
Bedinungen an v:
F(x
0
) +F(x
0
)v = 0
=F(x
0
+ v) = F(x
1
) = o(v) = o(F(x
0
))
da v = F(x
0
)
1
F(x
0
) = o(F(x
0
))
V R
n
ist eindeutig deniert gdw. F(x
0
) regular ist, so dass algebraisch gilt v = [F(x
0
)]
1
F(x
0
).
In numerischer Praxis sollte man (fast) nie [F(x
0
)]
1
berechnen, sondern nur das lineare System
F(x
0
)v = F(x
0
) losen, zum Beispiel via LU-Faktorisierung = Gauscher Elimination. Erste iterierte:
x
1
= x
0
+ v = x
0
[F(x
0
)]
1
F(x
0
)
Wiederholte Anwendung ergibt

unendliche Iterationen
x
k+1
= x
k
[F(x
k
)]
1
F(x
k
) volles Newtonverfahren
x
k+1
= x
k
[F(x
0
)]
1
F(x
k
) vereinfachter Newton,

hard method
Der vereinfachte Newton ist etwas langsamer, daf ur aber billiger pro Schritt. Das erhote Ergebnis ist
Konvergenz, d.h.
x
k
x

= v
k
= x
k+1
x
k
0
= [F(x
k
)]
1
F(x
k
) 0
= F(x
k
) = F

(x
k
)v
k
0
= F(x

) = 0 x

Nullstelle
Frage: Wie kann man die Konvergenz zeigen?
Antwort: Mit Hilfe des Banachschen Fixpunktsatzes angewandt auf G(x) = x F(x
0
)
1
F(x).
G(x) = I [F(x
0
)]
1
F(x)
= G(x
0
) = 0 wegen Stetigkeit G(x) folgt
= G(x)
1
2
f ur x B
r
(x
0
)
= G(x) G(z)
1
2
x z f ur x, y B
r
(x
0
) nach Schrankensatz
x
1
= x
0
[F(x
0
)]
1
F(x
0
)x
1
x
0
= [F(x
0
)]
1
F(x
0
) [F(x
k
)]
1
F(x
0
)
. .
0
Aus Kontraktion folgt x
k+1
x
n
(
1
2
)
k
x
1
x
0
Summation uber j k ergibt
x
k
x
0
(1 +
1
2
+
1
4
+ . . .)x
1
x
0
2x
1
x0
= {x
k
}
kN
B
r
(x
0
) falls [F(x
0
)]
1
F(x
0
)
r
2
= x
k
x

B
r
(x
0
) mit F(x

) = 0
Satz 30.1
Sei F C
1
(U, R
n
), x U oen und konvex. Deniere r > 0, so dass G(x)
1
2
f ur x B
r
(x
0
).
Dann folgt aus der Bedingung
[F(x
0
)]
1
F(x
0
) <
r
2
dass die vereinfachte Newtoniteration x
k+1
= x
k
[F(x
0
)]
1
F(x
k
) innerhalb B
r
(x
0
) bleibt und Kon-
vergenz die einzige in B
r
(x
0
) existierende Nullstelle x

= lim
k
erzielt.
17
Beweis
Wegen vorausgeganger Herleitung bleibt nur noch Eindeutigkeit zu uberpr ufen. Aus F(x

) = 0 =
F( x

) mit x

, x

B
r
(x
0
) folgt:
x

= G(x

) G( x

)
1
2
x

= x

= 0

Bemerkung Asymptotisch ergibt sich die Konvergenzgeschwindigkeit


lim
k
x
k+1
x

2
x
k
x

2
I [F(x
0
)]
1
F(x

) = G(x

)
1
2
Das nennt man Q-lineare Konvergenz. F ur volles Newtonverfahren ergibt schon f ur F C
1
(U) superli-
neare Konvergenz d.h.
lim
k
x
k+1
x

x
k
x

= 0
Schl usselvoraussetzung: F(x) ist regular und stetig nahe Nullstelle x

. Als Korollar erhalten wir lokale


Umkehrbarkeit im folgenden Sinne:
Satz 30.2
Falls F C
1
(U, R
n
) mit U oen und an Stelle x
0
U mit y
0
= F(x
0
) gilt
det(F(x
0
)) = 0
Dann existiert eine Kugel V = B

(y
0
) und eine Umkehrfunktion F
1
: V U, so dass
F F
1
(y) = y f ur alle y B(y
0
)
Zudem ist F
1
C
1
(V, U) mit der totalen Ableitung
F
1
(y
0
)
. .
Ableitung der Umkehrfunktion
= [F(x
k
)]
1
. .
InverseMatrixderJacobiatrix
Bemerkung
F C
1
(U, R
n
), U R
n
oen und zusammenhangend
det(F(x
0
)) = 0
= I (F(x
0
))
1
F(x) <
1
2
f ur x B
r
(x
0
)
= x

B
r
falls r = 2F(x
0
)
1
F(x
0
) r
Neue

Idee: Lose F(x) = y f ur y y


0
f uhrt zum Umkehrsatz 30.2. D.h. unter den Voraussetzungen
existiert Umgebung V = B

(y
0
) und eine Umkehrfunktion F
1
: V U mit F
1
C
1
(V, U), so dass
F F
1
(y) = y x = F
1
(y) y = F(x) x U
Beweis (von Satz 30.2)
F ur festes y y
0
betrachte modizierte Funktion
F
y
(x) := F(x) y C
1
(U, R
n
) ,
so dass
F
y
(x) = 0 F(x) = y G
y
(x) = x,
18
wobei
G
y
(x) := x [F(x
0
)]
1
(F(x) y)
. .
F
y
(x)
Dierentianion ergibt unveranderte Jacobimatrix.
G
y
(x) = I [F(x
0
)]
1
F(x) da F
y
(x) = F(x)
Also gilt G
y
(x)
1
2
f ur x B
r
(x
0
). Anwendung von Satz 30.1 ergibt eindeutige Losung x

=
x

(y) B
r
(x
0
)
falls [F(x
0
)]
1
F
y
(x
0
) = [F(x
0
)]
1
(y
0
y)
r
2
Letzte Bedinung ist sicher erf ullt, wenn y B

(y
0
) mit =
r
2
/ [F(x
0
)]
1
da dann nach Denition
der Matrixnorm
[F(x
0
)]
1
(y y
0
) [F(x
0
)]
1
y y
0

r
2
Dann gilt zudem f ur F
1
(y) := x

(y) mit y B

(x
0
)
F
1
(y) F
1
(y
0
) = x

(y) x
0

2y
0
y
[F(x
0
)]
1
m.a.W. die konstruierte Funkton F
1
: B

(y
0
) U ist an Stelle y
0
Lipschitzstetig mit Konstante
2/ [F(x
0
)]
1
. Daraus folgt, dass
x x
0
= F
1
(y) F
1
(x
0
)
2y y
0

[F(x
0
)]
1

= o(x x
0
) = o(y y
0
)
Nunmehr erhalt man Dibarkeit von F
1
an Stelle y wie folgt:
F(x) F(x
0
) = F(x
0
)(x x
0
) + o(x x
0
)
y y
0
= F(x
0
)(F
1
(y) F
1
(y
0
)) + o(x x
0
)
[F(x
0
)]
1
(y y
0
) F
1
(y) + F
1
(y
0
) = [F(x
0
)]
1
o(x x
0
)
= F
1
(y) = F
1
(y
0
) + [F(x
0
)]
1
(y y
0
) + o(y y
0
)
Also ist F
1
ist an Stelle y
0
total dibar und Jacobimatrix ist genau
F
1
(y
0
) =
_
F(F
1
(y
0
))

1
Zu beweisen bleibt, dass F
1
an allen Stellen x B

(y
0
) die Ableitung [F(F
1
( y))]
1
= F
1
( y)
besitzt. Ihre Stetigkeit folgt unmittelbar aus Lipschitzstetigkeit von F
1
selbst und vorausgesetzte
Stetigkeit von F.
An Stelle x = F
1
( y) B
r
(x
0
) gilt
F [F(x
0
)]
1
F( x)
1
2
= det(F( x)) = 0
Andernfalls ware F( x)v = 0 f ur v = 0 und somit
_
I [F(x
0
)]
1
F( x)
_
v = v was der Kon-
traktivitat widerspricht. Wegen det(F( x)) = 0 und weiterhin g ultiger Stetigkeit in B
r
(x
0
) lasst sich
bisheriges Resultat Satz 30.2 auch an Stelle x statt x
0
anwenden und wir erhalten Dibarkeit mit
angegenen Jacobimatrix.

19
Beispiel
_
_
x
y
z
_
_
=
_
_
r sin() cos()
r sin() sin()
r cos()
_
_
F(r, , ) R
3
R
3
= F(R
3
)
F ist global dibar und surjektiv, aber nicht injektiv.
F(r, , ) = F(r, + , )
Es gibt keine Globale Umkehrung.
F =
r,,
F =
_
_
_
_
sin() cos() r cos() cos() r sin() sin()
sin() sin() r cos() sin() r sin() cos()
cos() r sin() 0
/r / /
_
_
_
_
r
2
sin() = det
_
_
sin() cos() cos() cos() sin()
sin() sin() cos() sin() cos()
cos() sin() 0
_
_
= r
2
sin() = det(F)
Schlussfolgerung:
det(F) = 0 r = 0 sin = 0
Bemerkung (Motivation von IFT) Betrachte Gleichung f(x, y) = 0 R
m
mit y R
m
und x R
n
,
d.h. m Gleichungen in denen m Unbekannte y und den n Parametern x. Vorausgesetzt, wir haben spezielle
Losungen (x
0
, y
0
) R
n+m
mit f(x
0
, y
0
) = 0.
Falls

y
f(x
0
, y
0
) =
d
dy
f(x
0
, y)

y=y
0
nicht singular, ergibt Satz 30.2 Losbarkeit von f(x
0
, y) = z f ur hinreichend kleine z R
m
. Andererseits
gilt f ur x x
0
, dass f(x, y
0
) f(x
0
, y
0
) = 0, vorausgesetzt f stetig. Man kann also erwarten, dass es f ur
x x
0
Werte y = y(x) y
0
gibt, so dass f(x, y(x)) = 0. Man sagt, die Funktion y = y(x) ist implizit
durch die Gleichung f(x, y) = 0 nahe (x
0
, y
0
) deniert.
Satz 30.3 (Implizite Funktionen Theorem IFT)
Sei f C
1
(D, R
m
) mit D R
n+m
oen. Falls f(x
0
, y
0
) = 0 und det(
y
f(x
0
, y
0
)) = 0 an (x
0
, y
0
)
R
n+m
dann existiert eine Umgebung U = B
r
(x
0
) und eine Funktion g : U R, so dass f(x, g(x)) = 0
f ur x U und g ist dibar mit Jacobimatrix

x
g(x) = [
y
f(x, g(x))]
1

x
f(x, g(x))
Bemerkung (IFT umgangssprachlich)
f(x, y) = 0 R
m
mit y R
m
und
y
f(x, y) reguar
erlaubt Auosen nach bzw. Rausschmeien von y als Funtion g(x). Es bleiben n = n+mm Freiheitsgrade
ubrig. Typischerweise konnten auch andere m Komponenten von z = (x, y) R
n+m
als Funktion der
verbleibenden n Komponenten dargestellt werden.
20
Beweis
Betrachte erweiterte Funktion
F
_
x
y
_
=
_
x
f(x, y)
_
: R
n+m
R
n+m

x,y
F
_
x
y
_
=
_
I 0

x
f(x, y)
y
f(x, y)
_
wobei
x
f(x, y) =
_
f
i
(x, y)
x
j
_
i=1...m
j=1...n
und
y
f =
_
f
i
(x, y)
y
j
_
i=1...m
j=1...n

y
f(x, y) =
_
_
_
_
f
1
y
1
. . .
f
1
y
m
.
.
.
.
.
.
f
m
y
1
. . .
f
m
y
m
_
_
_
_
= det(
x,y
F(x, y)) = det(
y
f(x, y)) = 0
nach Voraussetzung f ur (x, y) (x
0
, y
0
) da
y
f wie det() stetige Funktionen. Betrachte F(x
0
, y
0
) =
_
x
0
0
_
da f(x
0
, y
0
) = 0. Nach Satz 30.2 existiert Umkehrfunktion F
1
: B

_
x
0
0
_
R
n+m
, so dass
F F
1
_
x
z
_
=
_
x
z
_
f ur
_
x
z
_
B

_
x
0
0
_
d.h. f ur F
1
_
x
z
_
=
_
x
G(x, z)
_
mit G C
1
(B

_
x
0
0
_
, R
m
)
F
_
x
G(x, z)
_
=
_
x
f(x, G(x, z))
_
=
_
x
z
_
f ur
_
x
z
_
B

_
x
0
0
_
speziell erhalten wir f ur z = 0 R
m
und g(x) := G(x, 0), dass f(x, g(x)) = f(x, G(x, 0)) = 0 =
f(x, g(x)) = 0. Das ist die Aussage f ur x B

(x
0
) =
_
x
0
_
B

_
x
0
0
_
. Dierenzierbarkeit von
F
1
und g(x) mit
_
F
1
(x
0
, 0)

= [F(x
0
, y
0
]
1
=
_
F 0

x
G
y
G
__
I 0

x
f(x
0
, y
0
)
y
f(x
0
, y
0
)
_
=
_
I 0
[
y
f(x
0
, y
0
)]
1

x
f(x
0
, y
0
) [
y
f(x
0
, y
0
)]
1
_
=
_
I 0

x
G(x, z)
y
G(x, z)
_
F ur spezielle Wahl z = 0 ergibt sich schlielich

x
g(x
0
) =
x
G(x
0
, 0) = [
y
f(x
0
, y
0
)]
1

x
f(x
0
, y
0
)
wie behauptet. Stetigkeit von
x
g(x) auf B

(x
0
) folgt aus Stetigkeit von g(x) und
x,y
f(x, y).

Bemerkung Nach Leibniznotation haben wir einfach


dg
dx
=
_
df
dy
_
1
_
df
dx
_

dy
dx
Merkhilfe
Beispiel
f(x, y
1
, y
2
) =
_
x
3
+ y
3
1
+ y
3
2
7
xy
1
+ y
1
y
2
+ y
2
x + 2
_
=
_
0
0
_
,
_
_
x
0
y
1
0
y
2
0
_
_
=
_
_
2
1
0
_
_
21
Pr ufung der Regularitat:
f
(y
1
, y
2
)
=
_
3y
2
1
3y
2
2
x + y
2
y
1
+ x
_

y
f(x
0
, y
1
0
, y
2
0
) =
_
3 0
2 1
_
hat Determinante 3 = 0
Also ex. G : B

(x
0
) = (x
0
, x
0
+ ) R
2
g = (g
1
, g
2
) , so dass f(x, g
1
(x), g
2
(x)) = 0
Ableitung nach IFT ist an Stelle (x
0
, y
1
0
, y
2
0
):

y
g
_
g
1
x
g
2
x
_
= [
y
f]
1

x
f =
_
3 0
2 1
_
1
_
3 4
1
_
=
_
1
3
0

2
3
1
__
12
1
_
=
_
4
8 1
_
=
_
4
9
_
31 Unrestringierte und gleichheitsrestringierte Optimierung
Gegeben: Zielfunktion (objective funktion) C
1
(D, R) mit D R
n
oen und zusammenhangend.
Aufgabe: Unrestringierte Optimierung heit Aunden von lokalem Minimalpunkt z

D, so dass f ur
ein r > 0
z D B

(z

) = (z) (z

)
m.a.W. z

soll Minimalpunkt von in hinreichend kleiner Umgebung sein.


Satz 31.1 (Optimierungsbedingungen 1. Ordnung f ur unrestr. Minimum)
z

D kann nur dann lokales Minimum von C


1
(D, R) sein, wenn

z
(z

) =
_
(z

)
z
j
_
j=1...n
= 0
Beweis
z

lokales Minimum von = = 0 lokales Minimum von (z

(z

)) = Nach
Optimalitatsbedinung 1. Ordnung in 1. Dimension:
0 =
d
d
(z

(z

))

=0
= +(z

)(

(z

)) = (z

)
2
2
= (z

) = 0

Zusatzlich sei gegeben F(z) = 0 R


m
mit F : D R
m
und m n.
Aufgabe: Optimierung mit Gleichheitsrestriktion (=Nebenbedingung). Finde Ideales Minimum z


F
1
(0) = {z D : F(z) = 0}, so dass f ur > 0
z F
1
(0) B

(z

) = (z) (z

)
Schreibweise ublicherweise
min
zD
(z) sodas F(z) = 0
Denition 31.2
Lokales Minimum z

erf ullt LICQ( linear independence constrained qualication), wenn


z
F(z

) regular
ist, d.h. aquivaltenterweise
(i) rang(
z
F(z

)) = m
(ii) Vektoren (
z
F
i
(z

)) f ur i = 1 . . . m sind linear unabhangig


22
(iii)
z
F hat eine mm Teilmatrix mit nicht verschwindener Determinante.
Bemerkung Restringiertes Problem: min

(z) f ur z F
1
(0) {z D : F(z) = 0} wobei F : R
n
R
m
mit m n.
LICQ: rang(
z
F(z)) = m
(
z
F
i
) linear unabhangig
det(A) = 0 f ur ein A R
mm
mit A
z
F
A = (
j
F)
iJ
mit J {1 . . . n}
Praktische Berechnung von rang(
z
F) durch Gaufaktorisierung mit Zeilenpermutation. Der Rang ist
die Anzahl der Zeilen, die dann nicht 0 sind.
Lemma 31.3 (Lokale Reduktion auf unrestringiertes Problem)
Angenommen z

ist lokales Minimalpunkt von (z) f ur z F


1
(0) und rang(
z
(z

)) = m. Dann konnen
die Komponenten von z sortiert und partitioniert werden, sodass z = (x, y) mit x R
nm
und x R
m
,
det(
y
F(z

)) = 0 und mit der entsprechenden impliziten Funktion g : B

(x

) R
m
gilt:
(x) = (x, g(x)) : B

(x

) R
hat lokales Minimum an der Stelle x = x

.
Beweis
Nach Umordnung, so dass det(
x
F(z

)) = 0 garantiert IFT Existenz von g C


1
(B

(x

), R
m
).
Damit ist auf B

(x

) wohldeniert. Angenommen x

ist nicht lokales Minimum von (x). Dann


existiert Folge x
k
B

(x

) mit x
k
x

und (x
k
) < (x

) = (z

). Dann konvergiert auch die


Folge z
k
= (x
k
, g(x
k
)) gegen x

= (x

, y

) und F(z
k
) = F(x
k
, g(x
k
)) = 0 sowie (z
k
) = (x
k
) <
(x

) = (z

). Also ware z

auch kein lokales Minimum von in F


1
(0) im Widerspruch zur
Annahme.

Bemerkung Falls rang(F) = m, lasst sich restringiertes Problem zunachst theoretisch auf unrestrin-
giertes Problem reduzieren.
Korollar 31.4 (Optimalitatsbedingung 1. Ornung f ur restr. Probleme)
Unter der Voraussetzung von Lemma 31.3 existiert genau ein Vektor R
m
, so dass

z
(z

) +

z
F(z

) = 0 R
n
, F(z

) = 0 R
m
Beweis
Nach Lemma 31.3 konnen wir o.B.d.A. annehmen, dass z = (x, y) R
nm
R
m
und in F
1
(0) gilt
lokal y = g(x) mit g C
1
(B

(x

), R
m
). Die Ableitng von g(x) an x

ist nach IFT

x
g(x

) = [
y
F(z

)]
1

x
F(z

)
Die Kettenregel ergibt f ur (x) = (x, g(x)):

x
(x) =
x
(x, g(x)) +
y
(x, g(x))
x
g(x)
=
x
(x, g(x))
y
(x, g(x))[
y
F(x, g(x))]
1
. .

f ur z=z

x
F(x, g(x))
= f ur z = z

gilt:
0 = (z

) +

x
F(z

=
y
(z

)[
y
F(z

)]
1

[
y
F(z

)] =
y
(z

)
=
y
(z

) +

y
F(z

) = 0 wie behauptet
da
z
(z

) =
_

x
(z

),
y
(z

)
_
=
_

x
F(z

),

y
F(z

)
_
23
Beweis der Eindeutigkeit von durch Widerspruch:
Gelte auch

F = 0 =

F
so folgt durch Subtraktion der rechten von linker Seite
(

)
z
F(z

) = 0

i=1
(

i
)
z
F
i
(z

) = 0
=
i

i
= 0
Da Zeilen
z
F
i
linear unabhangig sind.

Bemerkung Partitionierung des Vektors z in (x, y) fallt wieder raus und wir konnen direkt die beiden
Gleichungen nach z und losen. Diese lassen sich zusammenfassen zur Stationaritatsbedungung

z,
L(z, ) = (
z
L(z, ),

L(z, )) = 0
wobei L(z, ) die sogennante Lagrangefunktion ist, d.h.
L(z, ) = (z) +

F(z) = (z) + F(z)


t
op R
n
R
Entsprechend nennt man die Komponenten
i
auch Langrange-Multiplikatioren.
Beispiel
(x, y, z) = 5x + y 3z , so dass 0 = F(x, y, z) =
_
x + y + z
x
2
+ y
2
+ z
2
1
_
, Lagrange-Mult.
L(x, y, z, , ) = 5x + y 3z + (x + y + z) + (x
2
+ y
2
+ z
2
1)
0 =
x
L = 5 + + 3x

L = x + y + z = 0
0 =
y
L = 1 + + 2y

= L = x
2
+ y
2
+ z
2
1 = 0

0 = (3 + 3) + 2(x + y + z) = 0 = 0 = 3(1 + ) = = 1
4 + 2x = 0, 2y = 0 = y = 0 = z = x y = x = x
2
+ z
2
+ 0 = 1 = 2x
2
= x =
1

2
, z =
1

2
Da F
1
(0) B
1
(0) R
3
kompakt und stetig ist, muss es mindestens einen globalen Minimalpunkt
und einen globalen Maximalpunkt geben. Diese m ussen auch lokalte Minima sein und sind deshalb uber
die Optimalitatsbedingungen 1. Ordnung gegeben durch
_

2
, 0,
1

2
_
,
_
1

2
, 0,
1

2
_
Frage: Konnen wir lokale Minima und Maxima unterscheiden?
Antwort: Ja, durch Betrachtung der Optimaltatsbedingung 2.Ordnung!
Unrestringierter Fall: min(z) z D R
n
.
24
Annahme: C
2
(D), d.h.
z
: D R
2
mit

C
1
(D).
v R
n
, t R =
d
dt
(z + tv)
K.R.
=

(z + tv)
d
dt
(z + tv) =
n

j=1

j
(z + tv)v
j
d
2
dt
2
= (z + tv) =
d
dt
n

j=1

j
(z + tv)v
j
=
n

j=1
d
dt

j
(z + tv)v
j
=
n

j=1
n

i=1

j
(z + tv)v
j
v
i
= v

2
2
v wobei
z
=
_
_
_

1
. . .
1

.
.
.
.
.
.

1
. . .
n

_
_
_ R
nn

2
2
heit Hessematrix und ist fast immer symmetrisch gema folgendem Satz.

j
=

z
i
_

z
j

_
?
=

z
j
_

z
i
(z)
_
Satz 31.5
Falls
i
,
j
C(D, R) f ur alle 1 i, j n dann ist

j
(z) =
j

i
(z) f ur alle z D
und es gilt f ur v R
n
(z + v) = (z) +(z)v +
1
2
v

2
(z)v
. .
lokale quadratische Approximation
+o(v
2
)
Beweis
Mit e
i
= (0, . . . , 1, . . .)

R
b
Basis und o.B.d.A. z = 0 gilt
(v
i
e
i
+ v
j
e
j
) (v
i
e
i
) (v
j
e
j
) + (0)
= (v
i
e
i
+ tv
j
e
j
)

1
0
(tv
j
e
j
)

1
0
= (v
i
e
i
+ tv
j
e
j
) (tv
j
e
j
)

1
0
= v
j
_

j
(v
i
e
i
+ v
j
e
j
)

j
(v
i
e
i
)
_
f ur [0, 1] nach ZWS
= v
j
v
i

j
(
2
v
i
e
i
+ v
j
e
j
f ur
2
[0, 1]
Wegen der Austauschbarkeit von i und j, konnen wir MWS in umgekehrter Richtung angewandt
werden und ergibt:
(v
i
e
i
+ v
j
e
j
) (v
i
e
i
) (v
j
e
j
) (0)
= v
j
v
i

i
(
2
v
i
e
i
+ v
j
e
j
) f ur
2
, [0, 1]
Division durch v
j
, v
i
= 0 ergibt

i
(
2
v
i
e
i
+ v
j
e
j
) =
i

j
(
2
v
i
e
i
+ v
j
e
i
)

i
(0) =
i

j
(0)
wegen vorausgesetzter Stetigkeit.
25
Beweis (der quadratischen Annaherung (Taylorformel))
Nach einer Taylorentwicklung in einer Variable( Satz 19.3) gilt
(z + v) = (z) +
d
dt
(z + tv)

t=0
+
1
2
d
2
dt
(z + tv)

t=
Kettenregel = (z) +
n

j=1

j
(z)v
j
+
1
2
n

i=1
n

j=1

2
ij
(z + v)v
i
v
j
= (z + v) (z)

v
1
2
v

2
(z)v
=
1
2
n

i=1
n

j=1
_

2
ij
(z + v)
2
ij
(z)

v
i
v
j
= o(v
2
)

Lemma 31.6 (Aussagen der LA zu H = H

R
nn
)
H heit positiv semidenit (SPD), gdw. eine der folgenden drei aquivalenten Aussagen gilt:
(i) v

Hv 0 f ur 0 = v R
n
(ii) Hv = v = 0 f ur 0 = v R
n
und R
(iii) H = CC

mit C R
nn
die o.B.d.A. dreiecksformig gewahlt werden kann.
H heit positiv denit, falls die Aussage (i) und (ii) mit strikten Ungleichungen gelten oder (iii) gilt mit
det(H) = det(C)
2
> 0. Dann existiert ein
min
> 0, so dass v

Hv
min
v
2
=
min
v

v f ur v R
n
.
Falls obige Aussage f ur H gelten, heit H negativ semidenit bzw. negativ denit.
Korollar 31.7 (Unrestringierte Optimalitatsbedingung 2. Ordnung)
Ein Punkt z

D kann nur dann ein lokales Minimum von C


2
(D) sein, wenn (z

) = 0
und
2
(z

) SPD ist. Falls diese notwendige Optimalitatsbedinung 2. Ordnung an z

D gilt, und
det(
2
(z

)) > 0, dann muss z

sogar lokales Minimum. (Hinreichende Optimalitatsbedinung).


Bemerkung (z) = z
k
erf ullt an z

= 0 notwendigen, aber nicht hinreichenden Bedingung 2. Ordnung


f ur k 2. Entsprechend ist (z

) = 0 und
2
(z

) SND kann z

lokales Maximum sein, wenn zudem


det(
2
(z

)) = 0. (det(A) = (1)
n
det(A))
Beweis
Laut Lemma 31.1 muss (z

) am Minimalpunkt z

verschwinden. Dann gilt laut Satz 31.5


(z

+ v) (z

) =
1
2
v

2
(z

)v + o(v
2
)
ware nun v

2
/z

)v < 0 f ur ein v = 0, so galte f ur dieses feste v


(z

+ tv) (z

) =
1
2
t
2
v

2
(z

)v + o(tv
2
) =
1
2
t
2
(v

2
(z

)v + o(t
0
)) < 0
f ur hinreichend kleine |t| = 0. Das widersrpache vorrausgesetzter Minimalitat. Falls zudem
2
(z

)
positiv denit, so gilt nach Lemma 31.6
(z

+ v) (z) =
1
2
v

2
(z

)v + o(v
2
) v
2
(
1
2

min
+ o(v
2
)) > 0
f ur v hinreichend klein. Also muss z

lokales Minimum sein.

26
Bemerkung Im folgenden Verallgemeinerung auf restringierten Fall mittels Reduktion.
Satz 31.8
Unter Voraussetzung von 31.4(Optimaltitatsbedinung 1. Ordnung) kann z

D nur dann ein lokales


Minimum von (z), z F
1
(0) sein, wenn

z,
L(z

, ) = 0 und
z
F(z

)v = 0 = v

2
z
L(z

, )v 0
Gilt zudem f ur alle 0 = v ker(
z
F(z

))v dass v

2
z
L(z

, v)z > 0, dann muss z

ein lokales Minimum


des restringierten Problems sien. Falls o.B.d.A. z = (x, y) mit det(F
y
(x, y)) = 0 und y = g(x) dann
ist notwendig bzw. hinreichend f ur Optimalitat, dass die folgende projezierte Hessematrix positiv (semi-
)denit ist.

2
x
(x

) =
_
I
x
g(x

_
_

2
x
L(z

)
xy
L(z

yx
L(z

)
yx
L(z

)
__
I

x
g(x

)
_
R
(nm)(nm)
wobei laut IFT = g(x
0
) =
_

y
F(z

x
F(z

) R
m(nm)
.
Beweis
Nur unter der Zusatzannahme z = (x, y). Dann gilt f ur red. Fkt. f ur x x

(x) = (x, g(x)) (x, g(x)) +

F(x, g(x)) = L(x, y, ) = L(x, y)


Hier wie im folgenden wird an den durch die Optimalitatsbedingung 1. Ordnung eindeutig vorge-
gebene Werte festgehalten, kann also als Argument von L weggelassen werden. Dierenziation nach
x
j
liefert mit y = g(x) nach Kettenregel

x
j
(x) =

x
i
L(x, y) +
y
L(x, y)

x
j
g(x)
Nach nochmaligem Dierenzieren nach x
i
liefert

2
x
i
x
j
=

2
x
j
x
i
L(x, y) +

x
j

y
L(x, y)

x
i
g(x) +

x
i

y
L(x, y)

x
j
g(x)+

x
i
g(x)
2
y
L(x, y)

x
j
(x) +
y
L(x, y)

2
x
i
x
j
g(x)
An Stelle z

= (x

, y

) verschwindet der Gradient


y
L(x

, y

) und damit der letzte Term in Summe


und somit alle zweiten Ableitungen der impliziten Funktion g(x). Umschreiben der letzten Gleichung
an Stelle z

= (x

, y

) in Matrixnotation ergibt genau den angegebenen Ausdruck f ur


2
x
(x

) Somit
folgt Behauptung bzgl. Optimalitat aus entsprechenden Aussagen in Satz 31.7 f ur unrestringierten
Fall.
Bemerkung Falls sogar
2
z
L(z

) R
nn
postiv semidenite oder positv Denitheit ist dann gelten
diese Aussagen auch f ur T

2
z
L(z

)T falls T R
n(nm)
und rang(T) = n m. Deswegen ist

z
L(z

) = 0 und
2
z
L(z

) positv denit
auch hinreichend f ur lokale Optimaltat.
Beispiel
min 5x + y 3z so dass F =
_
x + y + z
x
2
+ y
2
+ z
2
1
_
= 0
= L(x, y, z, , ) = (5x + y 3z) + (x + y + z) + (x
2
+ y
2
+ z
2
1)
L = 0 = (x, y, z, , ) =
_
(
1

2
, 0,
1

2
, 1, 2

2)
(
1

2
, 0,
1

2
, 1, 2

2)
=
2
x
> 0, d.h. 2. Losung =
2
z
L positiv denit. = (
1

2
, . . . , 2

2) ist globaler Minimalpunkt. F ur


< 0, d.h. 1. Losung =
2
z
L(z

) negativ denite. (
1

2
, . . . , 2

2) globaler Maximalpunkt.
27
32 Wege, Kurven und Weglangen
f(x, y) = c ist ein geometrisches Objekt in der Ebene.
Im allgemeinen eine implizit gegebene Kurve. Zum Beispiel f(x, y) = x
2
+ y
2
= 1 = c.
Unter geeigneten Umstanden existiert (partielle) explizite Darstellung y = g(x). Hier y =

1 x
2
f ur x [1, 1].
dritte Variante: Parameterdarstellung x =
1
(t), y =
2
(t) oder (x, y) =
_
1t
2
1+t
2
,
2t
1+t
2
_
.
Denition 32.1
Sei I = [a, b], : I R
n
stetig. Dann heit ein Weg in R
n
. heit
Jordan-Weg, falls injektiv ist.
geschlossener Weg, falls (a) = (b)
geschlossener Jordan-Weg, falls (a) = (b) und

[a,b)
injektiv ist.
C R
n
heit Kurve in R
n
, falls es einen Weg : [a, b] R
n
gibt, dessen Bildmenge C ist, C = {(t) :
t (a, b]} analog Jordan-Kurve, geschlossene Kurve,...
Beispiel (Peano-Kurve) Die Folge der
k
: [0, 1] [0, 1]
2
konvergiert gleichmaig gegen ein

. Dieses
ist stetig, also ein Weg, und verlauft durch jeden Punkt in [0, 1]
2
.
Satz 32.2
Jede geschlossene Jordan-Kurve im R
2
zerlegt den R
2
in zwei zusammenhangende Gebiete R
2
\C = G
1

G
2
, so dass C jeweils der Rand ist, G
1
= C, G
2
= C.
Denition 32.3 (Weglange)
I = [a, b], : I R
n
ein Weg. Z : a = t
0
< t
1
< . . . < t
N
= b eine Zerlegung von I.
l(, Z) =
N

k=1
(t
k
) (t
k1

Ist

Z eine Verfeinerung der Zerlegung Z, dann gilt l(,

Z) l(, Z).
L() = sup{l(, Z), Z Zerlegung von I}
Ist L() < , dann heit L die Weglange von .
Lemma 32.4 (Eigenschaften)
i) ist Lipschitz-stetig, insbesondere C
1
(I, R
n
), dann ist L() endlich.
ii) L() (b) (a)
iii) Sind : [a, b] R
n
, : [b, c] R
n
Wege mit (b) = (b), dann ist
: [a, c] R
n
, ( )(t) =
_
(t) falls t [a, b]
(t) falls t (b, c]
der verkn upfte Weg, und es gilt L( ) = L() + L().
iv) L( ) |L() L()|
Denition 32.5 (Weglangenfunktion)
: [a, b] R
n
ein Weg, s : [a, b] R
n
deniert als
s(a) = 0 s(t) = L(

[a,t]
) t (a, b]
heit Weglangenfunktion.
28
Satz 32.6
Es sei rektizierbar = Weg endlicher Lange. Dann folgt
s ist monoton wachsend und stetig
zusatzlich Jordanweg, dann s streng monoton wachsend
C
1
(I, R
n
), dann s ist dierenzierbar und
s(t) =
_
t
a

()d = s

(t) =

(t)
Beispiel (Kreis)
(t) = (cos t, sin t)
=

(t) = (sin t, cos t)

(t) = 1, = s(t) = t a
Beispiel (Spirale) r = .
(t) = (t cos t, t sin t) , t [a, b] [0, )

(t) = (cos t t sin t, sin t + t cos t)

(t) =
_
1 + t
2
_
_
1 + t
2
dt =
_
cosh(u) cosh(u)du
29

You might also like