Professional Documents
Culture Documents
1 Grundlagen 1
1.0 Elementare Aussagen und Prädikatenlogik . . . . . . . . . . . . . . . 1
1.1 Grundlagen der Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.1 Der Mengenbegriff . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.2 Beschreibung von Mengen . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Extensionalität von Mengen . . . . . . . . . . . . . . . . . . . 12
1.1.4 Die Russell’sche Antinomie . . . . . . . . . . . . . . . . . . . . 15
1.1.5 Mengenoperationen . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.6 Familien von Mengen . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Korrespondenzen, Relationen und Abbildungen . . . . . . . . . . . . 21
1.2.1 Eigenschaften von Korrespondenzen . . . . . . . . . . . . . . . 21
1.2.2 Eigenschaften von Relationen . . . . . . . . . . . . . . . . . . 24
1.2.3 Äquivalenzrelation . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.4 Äquivalenzklassen . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.5 Ordnungsrelation . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.6 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.2.7 Eigenschaften von Abbildungen . . . . . . . . . . . . . . . . . 36
2 Algebraische Strukturen 41
2.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.1.1 Abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . 44
2.1.2 Verknüpfungstafeln . . . . . . . . . . . . . . . . . . . . . . . . 46
1
2
2.1.3 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.4 Abbildungen in Gruppen . . . . . . . . . . . . . . . . . . . . . 51
2.2 Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.1 Ringe und Unterringe . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.2 Ringe und Abbildungen . . . . . . . . . . . . . . . . . . . . . 56
2.2.3 Körper und kommutativer Körper . . . . . . . . . . . . . . . . 59
2.2.4 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4 Determinanten 112
4.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2 Bemerkungen und Beispiele: . . . . . . . . . . . . . . . . . . . . . . . 122
4.3 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . 124
3
Grundlagen
Beweis. (i) ist eine (falsche) Aussage. Man beachte, dass (i) zeitabhängig ist; dennoch
besitzt (i) zu jeden Zeitpunkt einen wohldefinierten Wahrheitswert.
(ii) ist keine Aussage.
(iii) ist eine (wahre) Aussage.
(iv) enthält zwei unbekannte (er und morgen). Solange diese nicht spezifiziert sind,
besitzt (iv) keinen Wahrheitswert. daher ist (iv) keine Aussage.
1
2
zuordnet.
Die wichtigsten Verknüpfungen halten wir in folgenden Definition fest.
(ii) Man beachte, dass die Reihenfolge bei der Implikation durchaus von Belang ist,
wahr ist, sobald A falsch ist. Um dies zu erläuteren betrachten wir die Aussage
Die Aussage A ⇒ B sagt nichts darüber aus was Paul tun wird, wenn er die Prüfung
nicht besteht ( er kann sich betrinken, oder auch nicht; in keinen Fall könnte man
3
(iii) Die Bijunktion ist tatsächlich keine neue Verknüpfung, sondern die Konjunktion
von A ⇒ B und B ⇒ A.
Definition 1.0.4. (i) Eine zusammengesetzte Aussage (d.h. die Verknüpfung einer
oder mehrerer Teilaussagen) heisst Widerspruch, wenn sie für alle Kombinationen
der Wahrheitswerte ihrer Komponenten falsch ist.
(ii) Eine zusammengesetzte Aussage heißt Tautologie, wenn sie für alle Kombina-
tionen der Wahrheitswerte ihrer Komponenten wahr ist.
Beispiel (i) A ∧ ¬A ist ein Widerspruch.
(ii) ¬(A ∧ B) ⇔ (¬A ∨ ¬B) ist eine Tautologie.
Beweis: (i)
A ¬A A ∧ ¬A
w f f
f w f
(ii)
A B ¬(A ∧ B) ¬A ∨ ¬B
w w f f
w f w w
f w w w
f f w w
A: Wenn morgen die Sonne scheint, dann werde ich, falls ich Zeit habe, zum See
fahren.
B: Wenn morgen die Sonne scheint und ich Zeit habe, dann fahre ich zum See.
haben dazu
C D E D⇒E C ⇒ (D ⇒ E) C ∧ D (C ∧ D) ⇒ E
w w w w w w w
w w f f f w f
w f w w w f w
w f f w w f w
f w w w w f w
f w f f w f w
f f w w w f w
f f f w w f w
Der Vergleich der fünften und letzten Spalte zeigt, dass A und B logisch äquivalent
sind.
(ii) Es seien A und B zwei beliebige Aussagen. Dann gilt: Aus (A ⇔ B) ∧ B folgt A!
A B A⇔B (A ⇔ B) ∧ B
w w w w
w f f f
f w f f
f f w f
Der Vergleich der ersten und letzten Spalte zeigt die Behauptung. Man beachte, dass
A ≡ B.
5
A ` B.
(P1 ∧ P2 ∧ ... ∧ Pn ) ` F
Beispiel: (i) Wir betrachten folgendes Argument: Wenn ihr eure Hausaufgaben
macht, werdet ihr die Klausur bestehen. Ihr habt eure Hausaufgaben gemacht, also
Definiere
(P ⇒ F ) ∧ P ` F.
P F P ⇒F (P ⇒ F ) ∧ P [(P ⇒ F ) ∧ P ] ⇒ F
w w w w w
w f f f w
f w w f w
f f w f w
(ii) Wenn der Himmel bewölkt ist, scheint die Sonne nicht und wenn die Sonne nicht
6
scheint, dann sinkt die Temperatur. Die Temperatur sinkt nicht, also ist der Himmel
unbewölkt.
Wir definieren:
Die Folgerung lautet: ¬A. Damit das Argument gültig ist, muß gelten:
Beispiele:
Mit Hilfe von Prädikaten erhält man durch Einsetzen eines Namens eines Objekts
bzw. eines Individuen an geeigneter Stelle eine Aussage (Prädikate sind selbst keine
Aussagen):
Eine Aussageform p(x, y, z, ...) besetzt aus einen Prädikat p und endlichen Anzahl
von Variablen x, y, z, ..., die jene Stellen kennzeichnen, an denen man Namen von
p: ist rot,
Man beachte, dass Aussageformen selbst keine Aussagen sind. Erst durch ersetzung
der Platzhalter durch Namen von Objekten oder Individuum entstehen Aussagen:
(1) p(Die Rose): Die Rose ist rot (ersetze x durch ”Die Rose”),
(2) q(Der Tiger): Der Tiger hat lange Zähne (ersetze x durch ”Der Tiger”),
(3) r(4, 17): 4 ist grösser als 17 (ersetze x durch 4 und y durch 17),
(4) s(Lisa, Björn): Lisa erhält Geld von Björn (ersetze x durch ”Lisa” und y durch
”Björn”).
Weise aus gegebenen Aussageformen neue Aussageformen bilden. Dabei hat man
allerdings genau auf die Bezeichnung der Variablen zu achten. So ist zum Beispiel
p(x) ∧ q(x): x ist rot und x hat lange Zähne eine andere Aussageform, wie
Eine weitere Möglichkeit aus Aussageformen Aussagen zu bilden sind die sogenannten
Quantoren:
Definition 1.0.8 (Allquantor). Ist p(x) eine Aussageform, dann definieren wir
damit die Aussage
(∀x)p(x) (sprich: Für all x gilt p(x))
folgendermaßen: (∀x)p(x) ist genau dann wahr, wenn für alle erdenklichen Ersetzun-
gen von x durch Namen von Objekten oder Individuum, eingesetzt in p(x), die daraus
resultierende Aussage stets wahr ist.
Für alle x gilt: Ist x ein Papagei, dann kann x sprechen, also:
(∀x)[p(x) ⇒ q(x)].
Definition 1.0.9 (Existenzquantor). Ist p(x) ein Aussageform, dann definieren
wir damit die Aussage
(∃x)p(x) (sprich: Es gibt ein x so dass gilt p(x))
folgendermaßen: (∃x)p(x) ist genau dann wahr, wenn man (mindestens!) einen Na-
men eines Objekten oder Individuum angeben kann, der, für x in p(x) eingesetzt, zu
einer wahren Aussage führt.
Es gibt ein x, so dass gilt: x ist ein Papagei und x kann sprechen, also:
(∃x)[p(x) ∧ q(x)].
Satz 1.0.10 (Eigenschaften von Quantoren). (i) Ist p(x) eine Aussageform, so
ergibt sich unmittelbar aus der Definition des All- bzw. Existenzquantors
¬[(∀x)p(x)] ≡ (∃x)¬p(x),
¬[(∃x)p(x)] ≡ (∀x)¬p(x).
(ii) Ist p(x, y) eine Aussageform, so sind die Aussagen
(∃x)(∀y)p(x, y) und (∀y)(∃x)p(x, y)
im allgemeinen nicht logisch äquivalent.
10
(∃x)(∀y)p(x, y)
falsch; aber
(∀y)(∃x)p(x, y)
(∀x)(∀y)p(x, y) ≡ (∀y)(∀x)p(x, y)
und
Georg Cantor (1845-1918) versuchte den Begriff der Menge folgendermaßen zu definieren:
Unter einer Menge verstehen wir jede zusammenfassung M von bestimmten, wohlun-
Damit obiger Begriff sinnvoll ist, müssen wir voraussetzen, dass wir stets entschei-
den können, ob ein gegebenes Objekt Element einer Menge ist oder nicht (zumindest
Ist a ein Objekt und M eine Menge die a als Element enthält, so kennzeichnen wir
Ist a nicht Element von M (also ¬(a ∈ M )), so schreiben wir dafür
a 6∈ M.
(i) Die einfachste Möglichkeit zur Beschreibung einer Menge ist die Auflistung ihrer
M = {1, 2, 3, 4},
N ist ein Beispiel für eine Menge die unendlich viel Elemente enthält. Die ”...”-
Schreibweise sollte mit Vorsicht genossen werden und nur dann benutzt werden, wenn
durch die Auflistung endlich vieler Elemente zweifelsfrei feststeht, welche Elemente
(ii) Ist p(x) eine Aussageform, so kann man alle Objekte a, für die p(a) eine wahre
M = {x : p(x)}
dann ist
Ist eine Menge M durch eine Aussageform p(x) definiert, d.h. M = {x : p(x)}, so
Beispiele: (i) Die Leere Menge ∅ ist diejenige Menge, die kein Element enthält.
Demnach ist a ∈ ∅ stets eine falsche Aussage. Man kann die leere Menge z. B. durch
∅ = {x : x 6= x}
beschrieben.
(iii) ” Die Zehn besten Songs aller Zeiten” ist keine zulässige Mengenbeschreibung,
solange die Terme ” bester Song” bzw. ”aller Zeiten” nicht näher präzisiert werden.
Zwei Mengen M, N heißen gleich, wenn sie die gleichen Elemente enthalten, d.h.
1
M1 := {1, − , 1066, π},
2
13
1
M2 := {− , π, 1066, 1},
2
1 1 1
M3 := {1, − , − , π, 1066, − , 1}
2 2 2
alle gleich, d.h. es gilt M1 = M2 = M3 . Insbesondere gibt es nur eine leere Menge.
(∀x)[p(x) ⇔ q(x)]
wahr ist.
(ii) Ist N eine Menge und p(x) eine Aussageform, so erhalten wir durch
M := {x : x ∈ N ∧ p(x)}
eine Teilmenge von N ; M enthält genau diejenigen Elemente von N , die die Eigen-
schaft p besitzen.
Schreibweise:
M = {x : x ∈ N ∧ p(x)} =: {x ∈ N : p(x)}.
∅ ⊂ M und M ⊂ M.
14
(iv) Zwei Mengen M, N sind genau dann gleich, wenn gilt M ⊂ N und N ⊂ M .
N ⊂ N0 ⊂ Z ⊂ Q ⊂ R ⊂ C aber N 6= N0 6= Z 6= Q 6= R 6= C.
{1} ⊂ M,
aber {1, 2} ist keine Teilmenge von M ; es gilt {1, 2} ∈ M und damit
{{1, 2}} ⊂ M.
√
Bemerkung: Die Tatsache Q 6= R folgt z. B. daraus, dass 2 6∈ Q ist. Denn
√
angenommen 2 wäre eine rationale Zahl, dann gäbe es teilerfremde ganze Zahlen
m, n ∈ Z, n 6= 0, so dass gilt
√ m
2= .
n
Daraus folgt
2n2 = m2 ,
d.h. m2 wäre eine gerade Zahl. Damit wäre auch m eine gerade Zahl (Quadrate
ungerader ganzer Zahlen sind stets ungerade!), d.h. es gibt eine ganze Zahl r ∈ Z, so
dass gilt
m = 2r.
2n2 = m2 = 4r2 ,
also
n2 = 2r2 ,
15
d.h. n2 und damit auch n wäre ebenfalls eine gerade Zahl. Dies widerspricht aber
√
der Teilfremdheit von m und n. Also muß die Annahme 2 ∈ Q falsch gewesen sein.
Nach der Cantor’schen Definition des Mengenbegriffs bilden Mengen selbst wieder
die sich selbst als Element enthalten (z. B. müßte die Menge aller Mengen, also
M := {x : x ist eine Menge} sich selbst als Element enthalten). Ebenso wäre
R ∈ R ⇔ R 6∈ R
Die axiomatische Mengenlehre löst diesen Widerspruch dadurch auf, dass solche Ob-
P(M ) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.
1
Bertrand A. W. Russell; 1872-1970
16
1.1.5 Mengenoperationen
A ∪ B := {x : x ∈ A ∨ x ∈ B}.
A ∩ B := {x : x ∈ A ∧ x ∈ B}.
A \ B := {x : x ∈ A ∧ x 6∈ B}.
Bemerkungen: (i) Sind p(x), q(x) Aussageformen und die Mengen A und B durch
A := {x : p(x)}, B := {x : q(x)}
A ∪ B = {x : p(x) ∨ q(x)},
A ∩ B = {x : p(x) ∧ q(x)},
A \ B = {x : p(x) ∧ ¬q(x)}.
A ∩ B = ∅.
(iii) Ist M eine Menge und A ∈ P(M ), so heißt die Differenzmenge M \ A auch
Satz 1.1.3. Es Sei M eine Menge. Dann gilt für alle A, B, C ∈ P(M ):
(i) A ∩ B = A ⇔ A ⊂ B und A ∪ B = B ⇔ A ⊂ B.
(ii) A ∩ B = B ∩ A und A ∪ B = B ∪ A.
(iii) (A ∩ B) ∩ C = A ∩ (B ∩ C) und (A ∪ B) ∪ C = A ∪ (B ∪ C).
(iv) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) und A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
(v) M \ (M \ A) = A.
(vi) M \ (A ∩ B) = (M \ A) ∪ (M \ B) und M \ (A ∪ B) = (M \ A) ∩ (M \ B).
(vii) A ∩ (M \ A) = ∅ und A ∪ (M \ A) = M.
(viii) A \ B = A ∩ (M \ B).
Beweis. Übung.
Es sei M eine Menge. Die Menge M heißt das Mengensystem bzgl. M , wenn M
eine Teilenmenge P(M ) ist. Die Potenzmenge P(M ) einer Menge M ist ein Beispiel
für ein Mengensystem bzgl. M . Entsprechend der Definition für die Vereinigung und
den Durchschnitt zweier (und damit endlich und unendlich vieler) Mengen setzen wir
für M bzgl. M
[
A := {x : (∃A)[A ∈ M ∧ x ∈ A]}
A∈M
und
\
A := {x : (∀A)[A ∈ M ⇒ x ∈ A]}.
A∈M
Bemerkung: Ist M eine beliebige Menge und p(x) eine Aussageform, dann ersetzen
abkürzend
und
\
A = {x : (∀A ∈ M)x ∈ A}.
A∈M
(ii) M = {{x} ∈ P(Z) : x ∈ Z} = {..., {−2}, {−1}, {0}, {1}, ...} bzgl. Z. So ist
[ \
A=Z und A = ∅.
A∈M A∈M
Setze
n−1 n+1
M := {[ , ] ∈ P(R) : n ∈ N}
n n
bzgl. R, dann gilt
[ \
A = [0, 2] und A = {1}.
A∈M A∈M
19
Eine weitere Möglichkeit Kollektionen von Mengen anzugeben, bilden die sogenannten
Mengenfamilien bzgl. einer gegebenen Menge. Sei M eine Menge. Eine Familie
von Mengen bzgl. M besteht aus einer Indexmenge I und einer Zuordnung, die
die gleiche Menge Zugeordnet wird. Eine Familie von Mengen Ai bzgl. M mit der
Indexmenge I wird durch die Schreibweise (Ai )i∈I angegeben. Ist (Ai )i∈I eine Familie
M := {Ai ⊂ M : i ∈ I}
durch
[
Ai := {x : (∃i ∈ I)x ∈ Ai },
i∈I
\
Ai := {x : (∀i ∈ I)x ∈ Ai }.
i∈I
\ [
A i = A 1 ∩ A2 = ∅ = A 1 ∪ A2 = Ai .
i∈I i∈I
[ \
Ak = Z und Ak = ∅.
k∈Z k∈Z
(iii) Für x ∈ R \ {0} sei Ax := [− x12 , x2 ]. Die Indexmenge lautet demnach I = R \ {0}
und es gilt
[ \
Ax = R und Ax = {0}.
x∈R\{0} x∈R\{0}
20
geordnetes Paar. Das kartesische2 Produkt M × N ist die Menge aller geord-
neten Paare (x, y) mit x ∈ M und y ∈ N , d.h.
M × N := {(x, y) : x ∈ M ∧ y ∈ N }.
M 2 := M × M.
Beweis. ”⇒” Aus {x1 } ∈ (x1 , y1 ) = (x2 , y2 ) = {{x2 }, {x2 , y2 }} folgt {x1 } = {x2 }
oder {x1 } = {x2 , y2 }. Letzteres kann nur im Fall x2 = y2 eintreten, also folgt x1 = x2 .
Wäre nun y1 6= y2 , so wäre auch {x1 , y1 } =
6 {x2 , y2 }, also (x1 , y1 ) 6= (x2 , y2 ). Also muß
auch y1 = y2 sein.
”⇐” Es folgt sofort {x1 } = {x2 } und {x1 , y1 } = {x2 , y2 }, also
und y zweite Komponente von (x, y) (aufgrund von Satz 1.1.5 sind diese Begriffe
wohldefiniert).
(iii) Es gilt: M × N = N × M ⇔ M = N .
(iv) Es ist manchmal hilfreich, sich das kartesische Produkt M × N auf folgende
Weise zu visualisieren:
2
Reue Descartes; 1596-1650
21
Bild!
(v) Das kartesische Produkt von mehr als zwei Mengen M1 , M2 , ..., Mn wird rekursiv
durch
M n := M1 × ... × Mn .
∆(M ) := {(x, x) ∈ M × M : x ∈ M }
= {(x, y) ∈ M × M : x = y}
Diagonale auf M . ∆(M ) ist nichts anderes als die Gleichheitsrelation auf M .
(ii) Es sei K := {(x, y) ∈ N × Z : x teilt y}. (x, y) ∈ K (bzw. xKy) bedeutet also,
R := {(x, y) ∈ M × M : x < y}
= {(0, 1), (0, 2), (0, 3), (0, 4), (1, 2), (1, 3), (1, 4), (2, 3), (2, 4), (3, 4)}
K1 := {(x, y) ∈ L × M : y = x2 }, K2 := {(y, z) ∈ M × N : y = z 2 }.
Es gilt
= {(y, x) ∈ M × L : y = x2 } = K2 ,
23
= {(z, y) ∈ N × M : y = z 2 } = K1 .
Ferner gilt
= {(x, z) ∈ L × N : x2 = z 2 }
= {(u, w) ∈ M × M : u = w} = ∆(M ).
(s, t) ∈ K1 ∧ (t, v) ∈ K3 ◦ K2 .
Wegen (t, v) ∈ K3 ◦ K2 existiert nach Definition 1.2.2 ein u ∈ M mit der Eigenschaft
(t, u) ∈ K2 ∧ (u, v) ∈ K3 .
Wieder nach Definition 1.2.2 gilt damit (s, u) ∈ K2 ◦ K1 . Daraus folgt schließlich
(s, v) ∈ K3 ◦ (K2 ◦ K1 ). Demnach gilt (K3 ◦ K2 ) ◦ K1 ⊂ K3 ◦ (K2 ◦ K1 ).
Der Beweis für ”⊃” ist analog.
(v) R heißt alternativ (oder auch total), wenn für alle (x, y) ∈ M × M gilt
Lemma 1.2.5. Es sei M eine Menge und R ⊂ M × M eine Relation auf M . Dann
gilt
(i) R reflexiv ⇔ ∆(M ) ⊂ R,
(ii) R symmetrisch ⇔ R ⊂ R−1 ,
(iii) R antisymmetrisch ⇔ R ∩ R−1 ⊂ ∆(M ),
(iv) R transitiv ⇔ R ◦ R ⊂ R,
(v) R alternativ ⇔ M × M ⊂ R ∪ R−1 .
Beweis. Es gilt:
(i)
2.4
R reflexiv ⇔ (∀x)[x ∈ M ⇒ (x, x) ∈ R]
!
⇔ (∀x)[(x, x) ∈ ∆(M ) ⇒ (x, x) ∈ R]
1.1
⇔ ∆(M ) ⊂ R.
(ii)
2.4
R symmetrisch ⇔ (∀(x, y))[(x, y) ∈ R ⇒ (y, x) ∈ R]
2.2
⇔ (∀(x, y))[(x, y) ∈ R ⇒ (x, y) ∈ R−1 ]
1.1
⇔ R ⊂ R−1 .
(iii)
2.4
R antisymmetrisch ⇔ (∀(x, y))[(x, y) ∈ R ∧ (y, x) ∈ R ⇒ x = y]
2.2
⇔ (∀(x, y))[(x, y) ∈ R ∧ (x, y) ∈ R−1 ⇒ (x, y) ∈ ∆(M )]
1.5
⇔ (∀(x, y))[(x, y) ∈ R ∩ R−1 ⇒ (x, y) ∈ ∆(M )]
1.1
⇔ R ∩ R−1 ⊂ ∆(M ).
(iv) (1) ”⇒” Sei R transitiv. Wir wollen zeigen, dass daraus R ◦ R ⊂ R folgt.
Sei dazu (x, z) ∈ R ◦ R beliebig vorgegeben. dann existiert nach Definition 1.2.2
ein y ∈ M , so dass gilt (x, y) ∈ R und (y, z) ∈ R. Da R transitiv ist, folgt daraus
(x, z) ∈ R. Wir haben also gezeigt, dass gilt
1.2.3 Äquivalenzrelation
Definition 1.2.6 (Äquivalenzrelation). Es sei M eine Menge und R ⊂ M ×
M eine Relation auf M . R heißt Äquivalenzrelation (auf M ), wenn R reflexiv,
symmetrisch und transitiv ist.
Beispiele 1.2.1: (i) Für jede Menge M ist die Gleichheitsrelation ∆(M ) stets eine
(ii) Es sei M := R2 \ {(0, 0)}. Für (x1 , y1 ), (x2 , y2 ) ∈ M definieren wir (x1 , y1 ) ∼
(x2 , y2 ) genau dann, wenn (∃λ ∈ R)[x1 = λx2 ∧y1 = λy2 ] (anschaulich: die ”‘Punkte”’
(x1 , y1 ) und (x2 , y2 ) liegen auf einer Geraden durch der Nullpunkt (0, 0)). Dann ist
(1) Reflexivität Für jeds (x, y) ∈ M gilt (x, y) ∼ (x, y), denn mit λ = 1 haben wir
x = λx und y = λy.
(2) Symmetrie: Es seien (x1 , y1 ), (x2 , y2 ) ∈ M gegeben mit (x1 , y1 ) ∼ (x2 , y2 ). Dann
x 2 = λ0 x 1 ∧ y 2 = λ0 y 1 ,
27
x1 = λ00 x3 ∧ y1 = λ00 y3 ,
Rn := {(a, b) ∈ Z × Z : n teilt b − a}
(Für zwei Zahlen l, m ∈ Z, l 6= 0, sagen wir l teilt m in Zeichen l|m, wenn es eine
ganze Zahl k ∈ Z gibt, so dass gilt m = k · l). Dann ist Rn eine Äquivalenzrelation
auf Z:
0 = a − a = 0 · n,
d.h. n teilt a − a.
(2) Symmetrie: Ist (a, b) ∈ Rn , dann existiert nach Definition eine ganze Zahl
k ∈ Z, so dass gilt
k · n = b − a. (1.2.3)
(3) Transitivität: Es seien a, b, c ∈ Z gegeben, so dass gilt (a, b), (b, c) ∈ Rn . Dann
kn = b − a ∧ k 0 n = c − b. (1.2.4)
1.2.4 Äquivalenzklassen
Definition 1.2.7 (Äquivalenzklassen). Es sei R eine Äquivalenzrelation auf der
Menge M 6= ∅. Für x ∈ M ist die Äquivalenzklasse von x (bzgl. R) definiert
durch
[x]R := {y ∈ M : xRy} = {y ∈ M : (x, y) ∈ R}.
Die Menge aller Äquivalenzklassen von Elementen aus M bezeichnen wir mit M/R
Beispiele 1.2.2: (i) Ist M 6= ∅ eine beliebige Menge und x ∈ M , dann gilt (vgl.
Daraus folgt
(ii) Es sei M = R2 \{(0, 0)} und ∼ wie in Beispiele 1.2.1 (ii). Dann gilt für (x, y) ∈ M
([(x, y)]∼ besteht aus allen Punkten der Geraden durch (0, 0) und (x, y) ohne den
Nullpunkt).
Die Menge aller Äquivalenzklassen M/ ∼ wird auch mit P1 (R) (oder auch P(R2 ))
(iii) Es sei Rn wie Beispiele 1.2.1 (iii) und a, b ∈ Z. Dann gibt es eindeutig bestimmte
Nun gilt
⇔ n teilt r2 − r1 .
a≡b (mod n) ⇔ r1 = r2 .
Daraus erhalten wir: Ist a ∈ Z und sind q ∈ Z, sowie r ∈ {0, 1, ..., n − 1}, so dass gilt
a = q · n + r,
dann folgt
= {s · n + r ∈ Z : s ∈ Z} =: r + nZ.
30
yRx.
Aufgrund der Transitivität von R erhalten wir damit yRz, also z ∈ [y]R . Wir haben
demnach gezeigt:
(∀z)[z ∈ [x]R ⇒ z ∈ [y]R ],
d.h. [x]R ⊂ [y]R . Die Inklusion [y]R ⊂ [x]R wird analog bewiesen.
”⇐” Wegen der Reflexivität von R gilt yRy, also y ∈ [y]R . Zusammen mit [x]R =
[y]R folgt daraus y ∈ [x]R , also xRy.
Definition 1.2.9. Es sei M 6= ∅ eine Menge und M ⊂ P(M ). M heißt Partition
auf M , wenn gilt:
S alle A ∈ M ist A 6= ∅,
(P1) Für
(P2) A∈M A = M ,
(P3) Für alle A, B ∈ M gilt: A ∩ B 6= ∅ ⇒ A = B.
Satz 1.2.10. Es sei M 6= ∅ eine Menge, R ⊂ M × M eine Äquivalenzrelation auf M
und M ⊂ P(M ) eine Partition auf M . Dann gilt.
(i) R(M) := {(x, y) ∈ M × M : (∃A ∈ M)x, y ∈ A} ist eine Äquivalenzrelation auf
M und es gilt
M/R(M) = M.
(ii) M/R ist eine Partition auf M und es gilt
R(M/R) = R.
Beweis. (i) Zu jedem x ∈ M existiert wegen (P2) ein A ∈ M mit x ∈ A, d.h. es gilt
(x, x) ∈ R(M). Damit ist R(M) reflexiv. Die Symmetrie von R(M) ist klar. Seien
nun x, y, z ∈ M gegeben mit
x, y ∈ A ∧ y, z ∈ B.
M/R(M) ⊂ M.
Ist umgekehrt A ∈ M, dann existiert nach (P1)) ein x ∈ A. Wie oben zeigt man,
dass daraus A = [x]R(M) folgt, d. h. wir erhalten auch die Inklusion
M ⊂ M/R(M).
(ii) Für jedes x ∈ M gilt x ∈ [x]R (Reflexivität). Daraus folgt sofort (P1) und (P2).
Seien nun x, y ∈ M gegeben, so dass gilt
[x]R ∩ [y]R 6= ∅.
Aufgrund der Symmetrie und Transitivität von R folgt daraus xRy, also nach Lemma
1.2.8.
[x]R = [y]R .
Damit ist auch (P3) bewiesen, d. h. M/R ist eine Partition.
Ferner gilt
1.2.5 Ordnungsrelation
Definition 1.2.11 (Ordnungsrelation). Es sei M eine Menge und R ⊂ M × M
eine Relation auf M . R heißt (partielle) Ordnung, wenn R reflexiv, antisymmetrisch
und transitiv ist. Eine Ordnung R heißt totale (oder auch lineare) Ordnung , wenn
R außerdem alternativ ist.
Beispiele 1.2.3: (i) Für jede Menge M ist die Gleichheitsrelation ∆(M ) eine Ord-
nung auf M .
(ii) Die überliche ≤ Relation (kleiner oder gleich) ist eine totale Ordnung auf dem
Zahlenmengen N, N0 , Z, Q und R.
(iii) Es sei
Dann ist R eine Ordnung auf N. R ist keine totale Ordnung (es gilt weder 2|3 noch
3|2).
(iv) Es sei M eine Menge. Für A, B ∈ P(M ) definieren wir eine Relation R: ARB
genau dann, wenn A ⊂ B. Dann ist R eine Ordnung auf P(M ). Sobald M mehr als
ein Element enthält, ist R keine totale Ordnung. Sind nämlich a, b ∈ M und a 6= b,
x ∈ M ∧ m ≤ x ⇒ x = m.
Bemerkungen und Beispiele: (i) Die Begriffe untere Schranke, größte untere
definiert.
(ii) Das Supremum bzw. Infimum einer Teilmenge A einer partiellen geordneten
Menge M ist eindeutig bestimmt (falls es existiert !). Dagegen sind maximale bzw.
(iii) Es sein die folgenden geordneten Mengen M (d.h. Mengen zusammen mit einer
reelle Zahl):
(4) A = M = {p : p ⊂ {1, 2, 3}∧p 6= {1, 2, 3}} = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, }
Dann gilt
In Beispiele (4), (5) sind {1, 2}, {1, 3} und {2, 3} die maximalen Elemente von A.
1.2.6 Abbildungen
Definition 1.2.13. Es seien M, N Mengen und f ⊂ M × N eine Korrespondenz
zwischen M und N . Dann heißt f von M in N , wenn gilt:
(F1) Zu jedem x ∈ M existiert ein y ∈ N , so dass gilt (x, y) ∈ f .
(F2) Für alle x ∈ M und y1 , y2 ∈ N gilt
(x, y1 ) ∈ f ∧ (x, y2 ) ∈ f ⇒ y1 = y2 .
34
Bemerkungen: (i) Die beiden Bedingungen (F1), (F2) kann man zusammenfassen:
(ii) Anschaulich bedeuten die definierenden Bedingungen, dass für jedes x ∈ M die
(iii) Ist f : M → N eine Abbildung und x ∈ M , dann bezeichnet man das nach (F1)
existierende und nach (F2) eindeutig bestimmte y ∈ N mit der Eigenschaft (x, y) ∈ f
auch mit f (x) (sprich: f an der Stelle x), d.h. wir setzen
y = f (x) :⇔ (x, y) ∈ f.
(iv) Ist für jedes x ∈ M das Bild von x unter der Abbildung f : M → N durch eine
f : M → N, x 7−→ f (x),
oder kürzer
f : x ∈ M 7−→ f (x) ∈ N.
(v) Ist f : M → N eine Abbildung, dann heißt M Urbildmenge (oder auch Defi-
Dann ist f eine Abbildung von M in N . Ist der Definitionsbereich M einer Abbildung
f : x ∈ {0, 1, 2, 3} → x3 ∈ Z.
m
(ii) Es sei f die Menge aller Paare (x, y) ∈ Q × N, die jeder rationalen Zahl x = n
(v) Für jede Menge M ist ∆(M ) eine Abbildung, die sogenannte identische Abbil-
dung auf M (kürz: Identität auf M ). Wir bezeichnen die Identität auf M auch mit
idM : x ∈ M 7−→ x ∈ M.
Satz 1.2.14. Es seien K, L, M, N Mengen und f : K → L, g : L → M, h : M → N
Abbildungen. Dann gilt
(i) Die Komposition g ◦ f ist ebenfalls eine Abbildung und es gilt für alle x ∈ K
(g ◦ f )(x) = g(f (x)).
36
√
Beispiel: Es sei f : x ∈ R 7−→ x2 ∈ [0, +∞[ und g : y ∈ [0, +∞[7−→ y ∈ R. Dann
gilt
√
f ◦ g : y ∈ [0, +∞[7−→ f (g(y)) = ( y)2 = y ∈ [0, +∞[,
√
g ◦ f : x ∈ R 7−→ g(f (x)) = x2 = |x| ∈ R.
x1 6= x2 ⇒ f (x1 ) 6= f (x2 ).
schneidet.
Beispiele: (i) Die Abbildung f : x ∈ R 7−→ x2 ∈ R ist weder injektiv noch surjektiv.
(ii) Die Abbildung g : x ∈ Z 7−→ 3x ∈ Z ist injektiv. g ist aber nicht surjektiv.
nach Definition von M/R surjektiv. p ist genau dann injektiv, wenn gilt R = ∆(M ).
Satz 1.2.16. Es seien f : L → M, g : M → N Abbildungen. Dann gilt:
(i) Aus der Injektivität von f, g folgt die Injektivität von g ◦ f .
(ii) Aus der Surjektivität von f, g folgt die Surjektivität von g ◦ f .
(iii) Aus der Bijektivität von f, g folgt die Bijektivität von g ◦ f .
Beweis. (i) Es seien x1 , x2 ∈ L gegeben, so dass gilt
(g ◦ f )(x1 ) = g(f (x1 )) = g(f (x2 )) = (g ◦ f )(x2 ).
Da g injektiv ist, folgt daraus
f (x1 ) = f (x2 ).
Mit der Injektivität von f schließen wir daraus
x1 = x2 .
(ii) Es sei z ∈ N beliebig vorgegeben. Da g surjektiv ist, gibt es ein y ∈ M , so dass
gilt
z = g(y). (1.2.5)
Die Surjektivität von f sichert zudem die Existenz eines x ∈ L mit
y = f (x).
Zusammen mit (1.2.5) erhalten wir also
z = g(f (x)) = (g ◦ f )(x).
38
f ◦ f −1 = idN ∧ f −1 ◦ f = idM ,
f ◦ g = idN ∧ g ◦ f = idM .
und g ◦ f = idM . Ist nämlich auch g̃ : N → M eine Abbildung mit f ◦ g̃ = idN und
g̃ = g̃ ◦ idN = g̃ ◦ (f ◦ g) = (g̃ ◦ f ) ◦ g
= idM ◦ g = g.
Beweis von Satz 1.2.17. ”(i)⇒ (ii)” Offenbar ist f −1 bijektiv. So ist nach Satz 1.2.16
(iii) f −1 ◦ f auch bijektiv. Sei nun (x, y) ∈ f −1 ◦ f . So existiert ein z ∈ N mit
(x, z) ∈ f ∧ (z, y) ∈ f −1 .
Daher gilt
(x, z) ∈ f ∧ (y, z) ∈ f.
Aus der Bijektivtät von f folgt x = y. Also f −1 ◦ f = idM . Wegen (f −1 )−1 = f (vgl.
Satz 1.2.3 (i)), haben wir auch f ◦ f −1 = idN .
”(ii) ⇒ (iii)” ist trivial (setze g := f −1 ).
”(iii) ⇒ (i)” Sei (y, y) ∈ f ◦ g. So existiert z mit (y, z) ∈ g und (z, y) ∈ f . Da
y ∈ N beliebig ist, ist f nach der Definition surjektiv. Seien (x, x), (x0 , x0 ) ∈ g ◦ f .
So existieren z, z 0 mit (x, z) ∈ f, (z, x) ∈ g, (x0 , z 0 ) ∈ f und (z 0 , x0 ) ∈ g. Ist x 6= x0 , so
muß f (x) = z 6= z 0 = f (x0 ) seien, denn z = z 0 folgt x = g(z) = g(z 0 ) = x0 . Also ist f
auch injektiv. Damit ist f insgesamt bijektiv.
39
surjektiv, wenn die Wertemenge f (M ) von f mit N übereinstimmt, d.h. wenn gilt
f (M ) = N.
stimmt das Bild von B unter g mit dem Urbild von B unter f überein, d.h. es gilt
f −1 (B) = g(B).
f −1 ({4}) = {−2.2},
f −1 ({5, 6, 7, 8}) = ∅.
40
f (R × {0}) = f ({0} × R) = R,
Algebraische Strukturen
2.1 Gruppen
Definition 2.1.1. Es sei H eine Menge.
(i) Unter einer Verknüpfung ◦ auf H verstehen wir eine Abbildung
◦ : (a, b) ∈ H × H 7−→ a ◦ b ∈ H.
(ii) Eine Verknüpfung ◦ auf H heißt assoziativ, wenn für alle a, b, c ∈ H gilt
(a ◦ b) ◦ c = a ◦ (b ◦ c). (2.1.1)
Eine Menge H zusammen mit einer assoziativen Verknüpfung ◦ auf H heißt Halb-
gruppe.
Beispiele 2.1.1: (i) Es sei H = {0, 1, 2, 3}. Für a, b ∈ H definieren wir a◦b := a+b.
(iii) Es sei M eine Menge und H die Menge aller Abbildungen f : M → M . Als
(f, g) ∈ H × H 7−→ f ◦ g ∈ H.
41
42
(iv) Die übliche Addition und Multiplikation von Zahlen sind assoziative Verknüpfungen
e ◦ a = a für alle a ∈ G.
a0 ◦ a = e.
Bemerkung: Wenn klar ist, um welche Verknüpfung es sich handelt, spricht man
einfach von der Gruppe G anstatt (G, ◦). Für g, h ∈ G schreibt man dann auch
gh := g ◦ h.
(ii) Es sei n ∈ N und Zn die Menge aller Restklassen modulo n (vgl. Beispiel 1.2.2
So werden durch
Damit sind (Zn , +) und (Zn , ·) Halbgruppen. (Zn , +) ist sogar eine Gruppe, denn es
und
d.h. [0]n ist ein neutrales Element für (Zn , +) und [−a]n ist ein inverses Element zu
[a]n ∈ Zn . Dagegen ist (Zn \ {[0]n }, ·) im allgemeinen keine Gruppe (näheres dazu
später).
(iii) Es sei M 6= ∅ eine Menge und S(M ) die Menge alle bijektiven Abbildungen
σ : M → M . Dann ist S(M ) zusammen mit der üblichen Komposition von Abbil-
dungen eine Gruppe (Sätze 1.2.16, 1.2.14. (ii), (iii) und 1.2.17 (ii)) mit dem neutrales
Element idM . S(M ) ist die sogenannte Permutationsgruppe von M (die Ele-
mente von S(M ) heißen auch Permutationen von M ). Speziell bezeichnen wir die
Wir haben z. B.
! !
1 2 3 1 2 3
τ1,3 ◦ τ1,2 = = σ1 , τ1,2 ◦ τ1,3 = = σ2 ,
2 3 1 3 1 2
d.h. in der Gruppe S3 ist die Reihenfolge der Operanden durchaus von Belang.
Bemerkung: Ist G eine abelsche Gruppe, so benutzt man häufig das + Zeichen als
a ◦ a0 = e ◦ (a ◦ a0 ) = (e ◦ a) ◦ a0 = ((a00 ◦ a0 ) ◦ a) ◦ a0
= (a00 ◦ (a0 ◦ a)) ◦ a0 = (a00 ◦ e) ◦ a0 = a00 ◦ (e ◦ a0 )
= a00 ◦ a0 = e.
(ii) Sei a ∈ G beliebig vorgegeben. Dann existiert nach (G2) ein a0 ∈ G mit a0 ◦ a = e.
Damit folgt
a ◦ e = a ◦ (a0 ◦ a) = (a ◦ a0 ) ◦ a = e ◦ a = a.
a ◦ a−1 = e,
(1) g ◦ x = h, (2) y ◦ g = h
Lösungen x bzw. y in G.
2.1.2 Verknüpfungstafeln
◦ g1 g2 ··· gµ ··· gn
g1 h1,1 h1,2 ··· h1,µ ··· h1,n
g2 h2,1 h2,2 ··· h2,µ ··· h2,n
.. .. .. .. ..
. . . . .
gν hν,1 hν,2 ··· hν,µ ··· hν,n
.. .. .. ..
. . . .
gn hn,1 hn,2 ··· hn,µ ··· hn,n
47
Ist (G, ◦) eine Gruppe, so nennt man die Verknüpfungstafel von ◦ auch Grup-
pentafel.
Beispiele: (i) Wir betrachten die Verknüpfungstafeln von (Z3 , +) und (Z3 , ·):
Also sind (Z3 , +) und (Z3 \ {[0]3 }, ·) Gruppen. Dagegen ist (Z3 , ·) keine Gruppe.
(ii) Wir betrachten die Verknüpfungstafeln von (Z4 , +) und (Z4 , ·). Für 0 ≤ k ≤ 3
setze gk := [k]4 :
+ g0 g1 g2 g3
g0 g0 g1 g2 g3
g1 g1 g2 g3 g0
g2 g2 g3 g0 g1
g3 g3 g0 g1 g2
48
· g0 g1 g2 g3
g0 g0 g0 g0 g0
g1 g0 g1 g2 g3
g2 g0 g2 g0 g2
g3 g0 g3 g2 g1
Also ist (Z4 , +) eine Gruppe. Dagegen ist weder (Z4 , ·) noch (Z4 \ {[0]4 }, ·) eine
Gruppe.
(iii) Mit den Bezeichnungen aus Beispiele 2.1.2 (iii) gilt für die Gruppe (S3 , ◦):
2.1.3 Untergruppen
Definition 2.1.8. Es sei (G, ◦) eine Gruppe und U ⊂ G. U heißt Untergruppe
von G, wenn (U, ◦) selbst wieder eine Gruppe ist (in Zeichen: U < G).
Eie Untergruppe U < G heißt Normalteiler von G, wenn gilt
gU = U g für alle g ∈ G
U g := {u ◦ g ∈ G : u ∈ U }.
Bemerkungen und Beispiele: (i) Ist G eine abelsche Gruppe, so ist jede Unter-
(ii) Ist G eine beliebige Gruppe mit neutralem Element e, so sind {e} und G Nor-
malteiler von G.
(iii) Für jedes n ∈ N0 ist (nZ, +) ein Normalteiler von (Z, +).
(iv) Es gilt
und
{σ0 , σ1 , σ2 } / S3 ,
Satz 2.1.9. Es sei G eine Gruppe und ∅ =6 U ⊂ G. Dann sind (i) und (ii) äquivalent.
(i) U ist eine Untergruppe von G.
(ii) Für alle g, h ∈ U gilt
g −1 · h ∈ U.
e = g0−1 · g0 ∈ U,
g −1 = g −1 · e ∈ U,
(iv) ϕ heißt Isomorphismus, falls ϕ bijektiv ist. In diesem Fall schreibt man
G∼
= H (G ist isomophismus zu H).
ϕ1 : a ∈ Z 7−→ n · a ∈ Z.
Dann ist ϕ1 ein Endomorphismus auf (Z, +), denn für alle a, b ∈ Z gilt
ϕ2 : a ∈ Z 7−→ [a]n ∈ Zn .
Dann ist ϕ2 ein Epimorphismus von (Z, +) auf (Zn , +), denn für alle a, b ∈ Z gilt
ϕ3 : n ∈ Z 7−→ an ∈ R \ {0}.
ϕ4 : x ∈ R+ 7−→ ln(x) ∈ R.
51
(G2)
e0 = (ϕ(e))−1 ϕ(e) = (ϕ(e))−1 (ϕ(e) · ϕ(e))
(G2) (G1)
= ((ϕ(e))−1 · ϕ(e))ϕ(e) = e0 · ϕ(e) = ϕ(e).
(ii) Sei g ∈ G beliebig vorgegeben, dann gilt
(i) (G2)
e0 = ϕ(e) = ϕ(g −1 · g) = ϕ(g −1 ) · ϕ(g).
Daraus folgt nach Folgerung 2.1.5 (ii)
ϕ(g −1 ) = (ϕ(g))−1 .
(iii) Nach (i) gilt Ker ϕ 6= ∅. Ferner folgt für a, b ∈ Ker ϕ
(ii)
ϕ(a−1 · b) = ϕ(a−1 )ϕ(b) = (ϕ(a))−1 · ϕ(b)
= e0 · e0 = e0 ,
52
d.h. mit a, b ∈ Ker ϕ ist auch a−1 · b ∈ Ker ϕ. Nach Satz 2.1.9 gilt daher
Ker ϕ < G.
a ∈ g · Ker ϕ ⇔ g −1 a ∈ Ker ϕ
2.1.11
⇔ ϕ(g −1 a) = ϕ(g −1 )ϕ(a) = e0
2.1.4(i)
⇔ ϕ(a)ϕ(g −1 ) = ϕ(ag −1 ) = e0
2.1.11
⇔ a · g −1 ∈ Ker ϕ
⇔ a ∈ ( Ker ϕ) · g,
und
Im ϕ1 = n · Z = {n · a ∈ Z : a ∈ Z}.
Ker ϕ2 = nZ = {n · a ∈ Z : a ∈ Z}, Im ϕ2 = Zn .
53
Ker ϕ3 = {1}, Im ϕ3 = R.
Satz 2.1.13. Es seien G, H Gruppen und ϕ : G → H ein Homomorphismus. Dann
sind äquivalent:
(i) ϕ ist injektiv (d.h. ϕ ist Monomorphismus),
(ii) Ker ϕ = {e}.
Beweis. ”(i) ⇒ (ii)” ist klar.
”(ii) ⇒ (i)” Seien a, b ∈ G gegeben, so dass gilt
ϕ(a) = ϕ(b),
dann folgt daraus
2.1.12
e0 = ϕ(a)−1 · ϕ(b) = ϕ(a−1 · b),
also wegen Ker ϕ = {e} ist a−1 b = e. Daher a = b.
Satz 2.1.14. Es seien F, G und H Gruppen , sowie ϕ : F → G, ψ : G → H Homo-
morphismus. Dann gilt
(i) ψ ◦ ϕ : F → H ist ebenfalls ein Homomorphismus.
(ii) Ist ϕ bijektiv (also ein Isomorphismus), so ist auch ϕ−1 : G → F ein Homomor-
phismus (sogar Isomorphismus).
Beweis. (i) Für all a, b ∈ F gilt
(ψ ◦ ϕ)(a · b) = ψ(ϕ(a · b)) = ψ(ϕ(a) · ϕ(b))
= ψ(ϕ(a))ψ(ϕ(b)) = (ψ ◦ ϕ)(a) · (ψ ◦ ϕ)(b).
(ii) Es sei u, v ∈ G beliebig vorgegeben. Dann existieren a, b ∈ F , so dass gilt
u = ϕ(a) und v = ϕ(b).
Also
a = ϕ−1 (u) und b = ϕ−1 (v).
Damit folgt
ϕ−1 (uv) = ϕ−1 (ϕ(a) · ϕ(b)) = ϕ−1 (ϕ(a · b))
= a · b = ϕ−1 (u) · ϕ−1 (v).
54
+ : R × R → R, und · : R × R → R,
so dass gilt
η · a = a · η = a.
(iii) Ein Ring (R, +, ·) heißt kommutativer Ring, wenn die Multiplikation · kom-
mutativ ist, d.h. für alle a, b ∈ R gilt
a · b = b · a.
Bemerkungen: (i) Wie schon bei den Gruppen, unterdrucken wir meistens die
ausfühliche Notation, und sprechen einfach von einem Ring R anstatt (R, +, ·).
(ii) Das neutrale Element der Gruppe (R, +) eines Ringes R bezeichnen wir mit 0R
oder auch einfach mit 0. Ist R ein Ring mit Eins, so ist das Einselement eindeutig
Beispiele 2.2.1: (i) Es sei R = {o} eine einelementige Menge mit den trivialen
Verknüpfungen
o + o = o und o · o = o.
55
Dann ist (R, +, ·) ein kommutativer Ring mit Eins (Es gilt also ”1 = o”).
(ii) (Z, +, ·), (Q, +, ·) , (R, +, ·) und (C, +, ·) sind weitere kommutative Ring mit
Eins.
(iv) Für n ∈ N0 ist (nZ, +, ·) ein kommutativer Ring. Ist n ≥ 2, so besetzt nZ kein
Einselement.
(v) Es sei (G, +) eine abelsche Gruppe mit dem neutralen Element 0 ∈ G und
Dann ist (End(G), +, ·) ein Ring mit Einselement 1 = idG . (End(G), +, ·) ist im
0 = −(0 · a) + (0 · a) = −(0 · a) + (0 · a + 0 · a) = 0 · a.
Analog folgt a · 0 = 0.
(ii) Es gilt
(i) (D2)
0 = 0 · b = (−a + a) · b = (−a) · b + a · b.
56
Nach Folgerung 2.1.5 ist (−a) · b = −(a · b). Analog folgt a · (−b) = −(a · b).
(iii) Es gilt
(ii) 2.1.4
(−a) · (−b) = a · (−(−b)) = a · b.
(i) U ⊂ R heißt Unterring von R, wenn (U, +, ·) selbst wieder ein Ring ist.
Bemerkung: Jedes Ideal eines Ringes R ist auch ein Unterring von R. Dagegen ist
nicht jeder Unterring auch ein Ideal, z. B. Ist (Z, +, ·) ein Unterring von (Q, +, ·),
Beispiel 2.2.2: (i) Für jeden Ring R sind {0} und R Ideal von R.
(iii) Man kann zeigen (vgl. (iii)): V ⊂ Z ist genau dann ein Ideal von Z, wenn es ein
Beispiel: Es sei n ∈ N0 und ϕ : a ∈ Z 7−→ [a]n ∈ Zn . Nach Beispiel 2.1.3 (ii) erfüllt
ϕ die Bedingung (i) von Definition 2.2.4. Ferner gilt für alle a, b ∈ Z
(i) ϕ(0) = 00 ,
Beweis. Übung.
Definition 2.2.6. Es sei R ein Ring mit Eins. a ∈ R heißt Einheit von R, wenn
es b, c ∈ R gibt, so dass gilt
a · b = c · a = 1.
c = c · 1 = c(a · b) = (c · a) · b = 1 · b = b.
a0 · a = a · a0 = 1 = b · b0 = b0 · b.
Die Gruppe (Z∗n , ·) heißt prime Restklassengruppe modulo n. In der Tat, für
d.h.
ma − 1 ∈ nZ.
59
ma − 1 = nb oder ma − nb = 1.
Ist nun d = ggT(a, n), dann folgt d|a und d|n, also auch d|1 und damit d = 1. Es sei
a ∈ Z und
V := aZ + nZ = {ax + ny ∈ Z : x, y ∈ Z}.
Dann ist V ein Ideal von Z, also existiert nach Beispiel 2.2.2 (iii) ein d ∈ N, so dass
a∈c·Z und b ∈ c · Z.
Daraus folgt V = d · Z ⊂ c · Z, d.h. c|d. Damit gilt d = ggT(a, n). Ist also d =
1 ∈ Z = d · Z = V,
d.h. es existieren x, y ∈ Z, so dass gilt ax+ny = 1. Daher [1]n = [ax+ny]n = [a]n ·[x]n .
Bemerkung: Jeder Körper enthält also mindestens zwei Elemente, nämlich 0 und
1.
60
Folgerung 2.2.9. Es sei (K, +, ·) ein Ring mit Eins, dann sind äquivalent:
(ii) K ∗ = K \ {0}.
Beispiele 2.2.4: (i) (Q, +, ·), (R, +, ·) und (C, +, ·) sind jeweils kommutative Körper.
(ii) Für n ∈ N mit n ≥ 2 ist (Zn , +, ·) genau dann ein Körper, wenn n eine Primzahl
2.2.9
Zn ist ein Körper ⇔ Z∗n = Zn \ {[0]n }
B.2.2.3(iii)
⇔ ggT(a, n) = 1, für alle a ∈ {1, 2, ..., n − 1}
durch
+ a0 a1 a2 a3
a0 a0 a1 a2 a3
a1 a1 a0 a3 a2
a2 a2 a3 a0 a1
a3 a3 a2 a1 a0
· a0 a1 a2 a3
a0 a0 a0 a0 a0
a1 a0 a1 a2 a3
a2 a0 a2 a3 a1
a3 a0 a3 a1 a2 .
Definition 2.2.10. Es sei R 6= {0} ein kommutativer Ring mit Eins (also insbeson-
dere 1 6= 0). R heißt Integritätsring (oder auch Integritätsbereich), wenn gilt
a, b ∈ R ∧ a 6= 0 ∧ b 6= 0 ⇒ a · b 6= 0
a, b ∈ R ∧ a · b = 0 ⇒ a = 0 ∨ b = 0.
ϕ(x1 ) = ϕ(x2 ) ⇔ x1 a = x2 a
⇔ −x1 a + x2 a = 0
⇔ (−x1 + x2 )a = 0
⇔ −x1 + x2 = 0
⇔ x1 = x2 .
Damit ist ϕ injektiv, und da R \ {0} endlich ist, ist ϕ auch surjektiv. Also existiert
ein b ∈ R \ {0}, so dass gilt
1 = ϕ(b) = b · a.
Damit ist (R \ {0}, ·) ein Gruppe, also R ein Körper.
”(ii)⇒ (i)” ist trivial.
2.2.4 Polynome
Es sei R ein Ring und m, n ∈ Z mit m ≤ n. Dann definieren wir für am , am+1 , ..., an ∈
R
n
X
aj := am + am+1 + ... + an−1 + an .
j=m
62
R gilt
n
X n
X n
X
aj + bj = (aj + bj ).
j=m j=m j=m
Xm n
X m
X Xn n X
X m
( aµ )( bν ) = ( aµ b ν ) = ( aµ b ν )
µ=0 ν=m mu=0 ν=0 ν=0 µ=0
= a0 b0 + a0 b1 + ... + a0 bn +
+ a1 b0 + a1 b1 + ...a1 bn
...
+ am b0 + am b1 + ... + am bn
m+n
XX k m+n
XX k
= aj bk−j = ak−j bj .
k=0 j=0 k=0 j=0
63
Es sei R ein kommutativer Ring. Unter einem Polynom p(T ) in der Unbestimmten
aj = b j , 0 ≤ j ≤ r
und
av = 0, 0 ≤ v ≤ n.
Definition 2.2.13. Es sei R ein kommutativer Ring. Dann bezeichnen wir die Menge
aller Polynome in der Unbestimmten T mit Koeffizienten in R mit R[T ], also
Xn
R[T ] := { av T v : n ∈ N0 ∧ a0 , ..., an ∈ R}.
v=0
Pn Pm
Es sei R ein kommutativer Ring, p(T ) = v=0 av T v und q(T ) = u=0 bu T
u
zwei
(ii) Wir definieren das Produkt von p(T ) und q(T ) durch
m+n
X Xk
p(T ) · q(T ) := ( aj bk−j )T k .
k=0 j=0
Satz 2.2.14. Es sei R ein kommutativer Ring. Dann ist R[T ] mit der oben definierten
Addition und Multiplikation ein kommutativer Ring.
Ist zusätzlich R ein kommutativer Ring mit Eins, so ist auch R[T ] ein kommutativer
Ring mit Eins.
Beweis. Übung.
Definition 2.2.15. Es sei R ein kommutativer Ring und p(T ) = nv=0 av T v ∈ R[T ].
P
Dann ist der Grad des Polynoms p definiert durch
max{v ∈ {0, ..., n} : av 6= 0}, p 6= 0,
grad(p) :=
−∞, p = 0.
Folgerung 2.2.17. Ist R ein Integritätsring, dann gilt für alle p, q ∈ R[R]
Lemma 2.2.19 (Division mit Rest). Es sei K ein kommutativer Körper und p, q ∈
K[T ] gegeben mit q 6= 0. Dann existiert eindeutig bestimmte Polynome s, r ∈ K[T ]
mit grad(r) < grad(q), so dass gilt
p(T ) = s(T )q(T ) + r(T ).
Beweis. Die Eindeutigkeit ist offensichtlich. Die Existenz von s, r kann durch den
folgenden Algorithmus bestätigen werden:
Divisionsalgorithmus Es sei K ein kommutativer Körper und p, q ∈ K[T ] gegeben
mit m := grad(q) ≥ 0 (also insbesondere q 6= 0). Wir setzen s(T ) := 0, r(T ) := p(T )
und führen folgende While-schleife aus:
While (grad(r) ≥ m) do
HK(r) grad(r)−m
(
s(T ) := s(T ) + HK(q) T ,
HK(r) grad(r)−m
r(T ) := r(T ) + T
HK(q)
· q(T )
Dabei bezeichnet HK(f ) den Höchst Koeffizient eines beliebigen Polynoms 0 6= f ∈
K[T ]. Nach Abbruch der Schleife gilt offenbar
p(T ) = s(T ) · q(T ) + r(T ) ∧ grad(r) < m.
p(T ) = 5T 4 + 3T 3 + 2T 2 + 1 ∈ Z7 [T ], q(T ) = 3T 2 + 4T + 4 ∈ Z7 [T ].
Polynomdivision liefert:
mit
s(T ) = 4T 2 + 5T + 2 ∈ Z7 [T ], r(T ) = 2T ∈ Z7 [T ].
Definition 2.2.20 (Nullstellen von Polynomen). Es sei R ein kommutativer
Ring und
n
X
p(T ) = av T v ∈ R[T ].
v=0
r ∈ R heißt Nullstelle von p, wenn gilt
n
X
p(r) := av rv = 0.
v=0
66
Beweis. Nach Lemma 2.2.19 existiert eindeutig bestimmte s, r ∈ K[T ] mit grad(r) <
grad(T − a) = 1, so dass gilt
Folgerung 2.2.22. Es sei K ein kommutativer Körper und p ∈ K[T ] gegeben mit
m := grad(p) > 0. Dann besitzt p höchstens m Nullstellen in K.
in Z3 .
Kapitel 3
3.1 Vektorräume
Vereinbarung: Im folgenden verstehen wir unter einem Körper K stets einen kom-
mutativen Körper.
+ : (v, w) ∈ V × V −7 → v + w ∈ V,
· : (α, v) ∈ K × V −7 → αv ∈ V,
so dass gilt:
67
68
Bemerkung: Ist V ein Vektorraum über dem Körper K, so heißen die Elemente
von V Vektoren und die Elemente von K Skalare. Das neutrale Element in (V, +) ist
die Menge aller geordneten n−Tupel von Elementen aus K. Wir definieren für x =
x + y := (x1 + y1 , ..., xn + yn ),
x = (x1 , ..., xn ) ∈ V inverse ( negative) Vektor ist gegeben durch −x = (−x1 , ..., −xn ).
(ii) Beispiel (i) liefert für n = 1: Jeder Körper K ist ein Vektorraum über sich selbst.
(iii) Für jeden Körper K ist die Menge K[T ] aller Polynome zusammen mit der in
S. 64 definierten Addition eine abelsche Gruppe. Für p(T ) = nj=0 aj T j ∈ K[T ] und
P
α ∈ K sei
n
X
(α · p)(T ) := (α · aj )T j .
j=0
K χ := {f : χ → K : f ist Abbildung}.
69
α · f : x ∈ χ 7−→ α · f (x) ∈ K.
Zusammen mit diesen Verknüpfungen bildet K χ einen K−Vektorraum mit dem Nul-
lvektor (Nullabbildung)
ϑ : x ∈ χ 7−→ 0 ∈ K.
Lemma 3.1.2. Es sei V ein Vektorraum über den Körper K. Dann gilt
(i) 0 · v = ϑ für alle v ∈ V,
(iii) 0 6= λ ∈ K ∧ ϑ 6= v ∈ V ⇒ λv 6= ϑ,
u + v ∈ U ∧ αu ∈ U.
70
αu + βv ∈ U.
αu, βv ∈ U.
· : (α, u) ∈ K × U 7−→ α · u ∈ U
ist wohldefiniert. Da die Eigenschaften (V2)(i)-(iv) auf ganz V erfüllt sind, gelten sie
insbesondere auch in U . Damit ist U ein K−Vektorraum, also ein Unterraum von
V.
Satz 3.1.5. Es sei V ein K−Vektorraum und 0 6= V ⊂ P(V ) ein System von Un-
tervektorräumen von V (d.h. jedes U ∈ V ist Untervektorraum von V ). Dann ist
auch \
W := U
U ∈V
V := {U < V : E ⊂ U }
(V=
6 ∅ wegen V ∈ V). Dann ist
\
spanE := U
U ∈V
71
nach Satz 3.1.5 ein Unterrektorraum von V . spanE heißt der von E in V aufgespannte
Untervektorraum.
Ist W ein Untervektorraum von V und E ⊂ V , so dass gilt
W = spanE,
so heißt E Erzeugendensystem von W .
spanV = V.
Lemma 3.1.7. Es sei V ein K−Vektorraum und E, E1 , E2 ⊂ V . Dann gilt
(i) E ⊂ span E,
(ii) E1 ⊂ E2 ⇒ span E1 ⊂ span E2 ,
(iii) U < V ∧ E ⊂ U ⇒ span E ⊂ U ,
(iv) span E = E ⇔ E ist Unterraum von V .
Beweis. Es seien
V := {U < V : E ⊂ U },
Vk := {U < V : Ek ⊂ U }, k = 1, 2.
(i) Wegen E ⊂ U für alle U ∈ V folgt
\
E⊂ U = span E.
U ∈V
Bemerkung: Nach Lemma 3.1.7 (iii) ist span E der ” kleinste” Untervektorraum
Daraus folgt
W ⊂ span E.
(ii) ”span E ⊂ W ” Es gilt E ⊂ W , denn sei v ∈ E gegeben, dann gilt mit n =
1, α − 1 = 1, v1 = v
Xn
αj vj = 1 · v = v ∈ W.
j=1
Außdem ist W ein Untervektorraum von V (Beweis Übung), also folgt mit Lemma
3.1.7 (iii)
span E ⊂ W.
73
und
Dann gilt
n
3.1.8
X
span E = { αk vk ∈ K[T ] : n ∈ N ∧ α1 , ..., αn ∈ K}
k=0
Xn
= { αk T k ∈ K[T ] : n ∈ N ∧ α1 , ..., αn ∈ K}
k=0
= K[T ].
(i) Die (endlich vielen ) Vektoren v1 , ..., vn ∈ V heißen linear unabhängig, wenn
aus
n
X
αj vj = ϑ, und α1 , ..., αn ∈ K
j=1
stets folgt α1 = ... = αn = 0 (d.h. der Nullvektor läßt sich nur trivial aus den
(ii) Eine Teilmenge von Vektoren E ⊂ V heißt linear unabhängig, wenn je endlich
(iii) Die Vektoren v1 , ..., vn ∈ V (bzw. die Teilmenge E ⊂ V ) heißt linear abhängig,
wenn sie nicht linear unabhängig sind (ist), d.h. es existieren Skalare α1 , ..., αn ∈ K
(bzw. es existieren v1 , ..., vn ∈ E und α1 , ..., αn ∈ K mit αl 6= 0 für ein l ∈ {1, ..., n},
so dass gilt
n
X
αj vj = ϑ).
j=1
Beispiele 3.1.3: (i) Für jeden K−Vektoraum V ist der Nullvektor (bzw. E = {ϑ})
linear abhängig.
(ii) Ist V ein K−Vektoraum und E ⊂ V linear unabängig, so ist auch jede Teilmenge
E 0 ⊂ E linear unabhängig.
(iii) Es sei K ein Körper, n ∈ N und e1 , ..., en ∈ K n wie in Beispiel 3.1.2 (i). Dann sind
e1 , ..., en (bzw. E = {e1 , ..., en }) linear unabhängig. In der Tat, seien α1 , ..., αn ∈ K
gegeben mit
n
X
αj ej = ϑ,
j=1
dann folgt
n
X
αj ej = (α1 , ..., αn ) = (0, ..., 0),
j=1
also α1 = ... = αn = 0.
E := {T k ∈ K[T ] : k ∈ N}.
75
Dann ist E linear unabängig. Denn seien n ∈ N und α1 , ..., αn ∈ K gegeben mit
n
X
αj T j = ϑ,
j=1
(v) Die Vektoren (1, 1, 3), (2, 0, 1), (2, 3, 1) ∈ R3 sind linear unabhängig, denn sind
α, β, γ ∈ K gegeben mit
dann folgt
α + 2β + 2γ = 0
α + 3γ = 0
3α + β + γ = 0,
also α = −3γ. Dies in die erste und dritte Gleichung eingesetzt liefert
(
2β − γ = 0
β − 8γ = 0,
also γ = 2β. Eingesetzt in die letzte Gleichung erhalten wir daraus −15β = 0, d.h.
(vi) Die Vektoren (1, 1, 3), (2, 0, 1), (2, 3, 1) ∈ Z35 sind linear abhängig, denn
Beispiele 3.1.4: (i) Ist V = {ϑ} der Nullraum, so ist B = ∅ ein Basis von V .
(ii) Es sei K ein Körper. Dann bilden die in Beispiel 3.1.2(i) definierten Vektoren
e1 , ..., en ∈ K n (bzw. B = {e1 , ..., en }) nach Beispiel 3.1.2(i) und Beispiel 3.1.3 (iii)
eine Basis von K n . Die Basis e1 , ..., en heißt kanonische (Einheits-) Basis des K n .
B := {T k ∈ K[T ] : k ∈ N0 }
77
nach Beispiele 3.1.2 (ii) und Beispiele 3.1.3 (iv) eine Basis von K[T ].
(ii) B ist eine maximale linear unabhängige Teilmenge von V (d.h. für jede linear
unabhängige Teilmenge E ⊂ V mit B ⊂ E gilt B = E),
(iii) B ist ein minimales Erzeugendensystem von V (d.h. für jedes Erzeugendensys-
tem E ⊂ V mit E ⊂ B gilt E = B).
Beweis. ”(i) ⇒ (ii)” Es sei E ⊂ V linear unabhängig und B ⊂ E. Zu jedem a ∈ E
existieren paarweise verschiedene v1 , ..., vn ∈ B und α1 , ..., αn ∈ K mit
n
X
a= αj vj .
j=1
Nach Satz 3.1.9 existiert ein eindeutiges j0 ∈ {1, 2, ..., n} mit αj = 0 für j 6= j0 ∧ αj0 =
1 ∧ a = vj0 , also insbesondere a ∈ B. Da a beliebig war, folgt E ⊂ B, also E = B.
”(ii) ⇒ (i)” folgt sofort aus Satz 3.1.11.
”(i) ⇒ (iii)” Es sei E ⊂ V ein Erzeugendensystem mit E ⊂ B. Zu jedem a ∈ B
existieren paarweise verschiedene v1 , ..., vn ∈ E und α1 , ..., αn ∈ K mit
n
X
a= αj vj .
j=1
Wie im ersten Teil folgt daraus nach Satz 3.1.9 a ∈ E und damit insgesamt B ⊂ E.
”(iii) ⇒ (i)” Angenommen B wäre nicht linear unabhängig. Dann existieren paar-
weise verschiedene v1 , ..., vn ∈ B und α1 , ..., αn ∈ K mit (o.B.d.A.) αn 6= 0 und
n
X
αj vj = ϑ.
j=1
78
Daher gilt
n−1
X αj
vn = (− )vj ∈ span(B \ {vn })
j=1
αn
oder
B ⊂ span(B \ {vn }).
Nach Lemma 3.1.7 (iii) ist
mit α1 , ..., αn ∈ K und αk 6= 0 für ein k ∈ {1, ..., n}. Dann ist auch
So gilt
{v1 , ..., vn } ⊂ span{w, v2 , ..., vn }.
Nach Lemma 3.1.7 (iii) ist
d.h. die Vektoren w, v2 , ..., vn bilden ein Erzeugendensystem von V . Seien nun
λ1 , ..., λn ∈ K gegeben mit
n
X n
X
ϑ = λ1 w + λj vj = λ1 α1 v1 + (λ1 αj + λj )vj ,
j=2 j=2
Wäre nun αr+1 = ... = αn = 0 oder r = n, so wäre w1 , ..., wr+1 linear abhängig.
Also gilt r < n (und damit r + 1 ≤ n) und es existiert ein k ∈ {r + 1, ..., n}
mit αk 6= 0. Sei o.B.d.A. k = r + 1 (Umnummerierung der vr+1 , ..., vn !), dann
ist w1 , ..., wr+1 , vr+2 , ..., vn nach Lemma 3.1.14 ebenfalls eine Basis von V .
Folgerung 3.1.16. Es sei V ein endlich erzeugter K−Vektorraum, d.h. es existieren
u1 , ..., um ∈ V mit
V = span{u1 , ..., um }.
Dann gibt es eine natürliche Zahl n ≤ m, so dass gilt: Jede Basis von V besteht aus
genau n Vektoren.
Definition 3.1.17. Ist V ein endlich erzeugter K−Vektorraum, dann heißt die nach
Folgerung 3.1.16 eindeutig bestimmte Anzahl n ∈ N0 der Vektoren einer Basis Di-
mension von V , in Zeichen
dimK V := n.
Besitzt V kein endliches Erzeugendensystem, so setzen wir
dimK V := ∞.
1
Ernst Steinitz, 1871-1928
80
Unter den endlich vielen Elementen von W gibt es ein B ∈ W mit minimaler Ele-
mentanzahl n ≤ m. Offensichtlich ist B ein minimales Erzeugendensystem und damit
nach Satz 3.1.13 ein Basis.
Ist nun B 0 ⊂ V eine weitere Basis von V , so kann B 0 nach Satz 3.1.15 höchstens
k ≤ n Vektoren enthalten. Umgekehrt muß nach Satz 3.1.15 aber auch n ≤ k sein,
also k = n.
Beweis. Ist B ⊂ V eine Basis von U , dann kann B nach Satz 3.1.15 höchstens n
Vektoren enthalten, also dimK U ≤ n. Falls dimK U = n ist, so ist B nach Satz 3.1.18
bereits eine Basis von V , also U = V .
(ii) Die Vektoren (1, 1, 3), (2, 0, 1) und (2, 3, 1) bilden nach Beispiele 3.1.3 (v) und
Bemerkungen 1. (i) Die Begriffe Mono-, Epi-, Endo-, Iso- und Automophis-
(i) ϕ(ϑU ) = ϑV ,
Beweis. (Übung): (i) und (ii) folgen sofort aus Lemma 2.1.12(ii)
(iii) Wegen ϑU ∈ Ker ϕ gilt Ker ϕ 6= ∅. ferner gilt für α, β ∈ K und u1 , u2 ∈ Ker ϕ
(vii) Nach Satz 2.1.14(i) erfüllt ψ ◦ ϕ die Bedingung (L1). Seien α ∈ K und u ∈ V
beliebig vorgegeben. Dann gilt
(ii) Sind v1 , ..., vn ∈ V linear abhängig, dann sind auch ϕ(v1 ), ..., ϕ(vn ) ∈ W linear
abhängig.
Beweis. (i) Aus E ⊂ spanE folgt ϕ(E) ⊂ ϕ(spanE), also mit Lemma 3.1.7 (iii)
spanϕ(E) ⊂ ϕ(spanE) ( ϕ(spanE) ist Untervektorraum in W ). Ist umgekehrt w ∈
ϕ(spanE), dann existiert ein v ∈ spanE mit w = ϕ(v). Nach Satz 3.1.8 existieren
α1 , ..., αn ∈ K und v1 , ..., vn ∈ E mit
n
X
v= αj vj .
j=1
83
So haben wir n n
X X
αj ϕ(vj ) = ϕ( αj vj ) = ϕ(ϑV ) = ϑW ,
j=1 j=1
Ferner gilt:
(iii) ϕ ist genau dann bijektiv, wenn ϕ0 (B) eine Basis von W ist.
Beweis. Es sei v ∈ V . Dann existieren nach Satz 3.1.9 eindeutig bestimmte α1 , ..., αn ∈
K und u1 , ..., un ∈ B, so dass gilt
n
X
v= αj uj . (3.2.1)
j=1
Wegen der Eindeutigkeit der Darstellung (3.2.1) ist ϕ wohldefiniert und es gilt ϕ|B =
ϕ0 . Ist v 0 = m 0 0
α10 , ..., αm
0
∈ K und u01 , ..., u0m ∈ B ein weiterer Vektor aus
P
α v
l=1 l l mit
84
(iii) ϕ ist genau dann Isomorphismus, wenn w1 , ..., wn eine Basis von W ist.
Beweis. Wende Satz 3.2.4 auf B = {v1 , ..., vn } und ϕ0 : B → W mit
ϕ0 (vj ) := wj , j = 1, ..., n.
an.
85
also Im ϕ ⊂ span{ϕ(vk+1 ), ..., ϕ(vn )}. Die umgekehrte Inklusion ist klar und damit
Im ϕ = span{ϕ(vk+1 ), ..., ϕ(vn )}.
Seien nun αk+1 , ..., αn ∈ K gegeben mit
n
X n
X
αj ϕ(vj ) = ϕ( αj vj ) = ϑW ,
j=k+1 j=k+1
Pn
d.h. j=k+1 αj vj ∈ Kerϕ = span{v1 , ..., vk }. Dann existieren α1 , ..., αk ∈ K mit
k
X n
X
αj vj = αj vj .
j=1 j=k+1
Also
k
X n
X
− αj vj + αj vj = ϑV ,
j=1 j=k+1
dies liefert α1 = ... = αk = αk+1 = ... = αn = 0, da v1 , ..., vk , vk+1 , ..., vn eine Basis
von V ist. Damit sind die Vektoren ϕ(vk+1 ), ..., ϕ(vn ) auch linear unabhängig.
Definition 3.2.7. Es seien V, W K−Vektorraum mit dimK V < ∞ und ϕ : V → W
linear. Dann heißt
rg(ϕ) := dimK (Im ϕ)
Rang der linearen Abbildung ϕ.
86
(iv) rg(ϕ) = n,
(v) dim(Ker ϕ) = 0.
Beweis. Dach Definition (ii) und (iii) folgen aus (i). Lemma 3.2.2 (v) liefert (ii) ⇔
(v). Aus Satz 3.2.6 folgt (v) ⇔ (iv). Aus Satz 3.1.19 (ii) folgt (iii) ⇔ (iv). Da
(ii) ⇒ (iii) ist, gilt (ii) ⇒ (i) und (iii) ⇒ (i).
dimK V = dimK W.
dimK V = n ⇐⇒ V ∼
= K n.
Matrix über K mit m Zeilen und n Spalten. (kurz: m×n Matrix über K). Die Menge
aller m × n Matrizen über K bezeichnen wir mit Mat(m, n, K).
87
ist.
(ii) Für zwei Matrizen A = (αi,j ) ∈ Mat(m, n, K) und B = (βρ,σ ) ∈ Mat(r, s, K) gilt
sind.
bzw.
λα1,1 · · · λα1,n
λA := (λαi,j ) = ... ..
∈ Mat(m, n, K).
.
λαm,1 · · · λαm,n
Dann bildet Mat(m, n, K) zusammen mit den oben definierten Verknüpfungen einen
K− Vektorraum mit
dimK Mat(m, n, K) = m · n.
Beweis. Übung.
88
(ii) Für 1 ≤ i ≤ m, 1 ≤ j ≤ n sei Ei,j der Matrix mit i−te Zeile , j− Spalt Eins und
Dann ist {Ei,j ∈ Mat(m, n, K) : 1 ≤ i ≤ m, 1 ≤ j ≤ 1n} eine Basis von Mat(m, n, K).
(iii) Nach Satz 3.3.2 und Bemerkung 2 (S. 86) gilt für n ∈ N
Mat(n, 1, K) ∼
= Kn ∼
= Mat(1, n, K).
setzen
Kn := Mat(n, 1, K).
Definition 3.3.3. Es seien l, m, n ∈ N und A = (αλ,µ ) ∈ Mat(l, m, K), B = (βµ,ν ) ∈
Mat(m, n, K). Dann heißt die Matrix C = (γλ,ν ) ∈ Mat(l, n, K) mit
m
X
γλ,ν := αλ,µ βµ,ν für 1 ≤ λ ≤ l, 1 ≤ ν ≤ n
µ=1
C = A · B.
89
(ii) Für
A1
.
.
. ∈ Mat(l, m, K),
A = (αλ,µ ) =
Am
B = (βµ,ν ) = (B1 , ..., Bn ) ∈ Mat(m, n, K)
gegeben durch das Skalarprodukt des λ−ten Zeilenvektor von A mit dem ν−ten
(i) (A + A0 ) · B = A · B + A0 · B,
(ii) A · (B + B 0 ) = A · B + A · B 0 ,
(iii) (A · B) · C = A · (B · C),
Beweis. Übung.
Folgerung 3.3.5. Es sei K ein Körper, m, n ∈ N und A ∈ Mat(m, n, K). Dann ist
die Abbildung
ϕA : x ∈ Kn 7−→ A · x ∈ Km
linear.
{e1 , ..., en } bzw. E 0 = {e01 , ..., e0m } die kanonische Basis von Kn bzw. Km , dann gibt
es für jedes eν , 1 ≤ ν ≤ n eindeutig bestimmte Skalare α1,ν , ..., αm,ν ∈ K, so dass gilt
Xn n
X n X
X m
ϕ(x) = ϕ( xν eν ) = xν ϕ(eν ) = xν αµ,ν e0µ
ν=1 ν=1 ν=1 µ=1
Pn
m X n ν=1 α 1,ν x ν
X
0
..
= ( αµ,ν xν )eµ =
.
µ=1 ν=1 Pn
ν=1 αm,ν xν
α1,1 · · · α1,n x1
. ..
.. · ... = A · x
=
.
αm,1 · · · αm,n xn
mit A := (αµ,ν ) ∈ Mat(m, n, K). Also lässt sich jede lineare Abbildung ϕ : Kn → Km
= span{A1 , ..., An } / Km .
Daraus folgt
Dann heißt
α1,1 x1 + α1,2 x2 + ... + α1,n xn = β1
α x + α x + ... + α x = β
2,1 1 2,2 2 2,n n 2
(3.3.1)
...
α x + α x + ... + α x = β
m,1 1 1,2 2 m,n n m
eine lineare Gleichungssystem (kurz LGS) mit der Koeffizientmatrix A und der rechten
A·x=b (3.3.2)
schreiben. Für b = ϑ ∈ Km heißt die LGS (3.3.2) homogen, ansonsten nennt man
(3.3.2) inhomogen.
Fragestellungen:
(i) Lösbarkeit, d.h. unter welchen Bedingungen an A bzw, b gibt es ein x ∈ Kn mit
A · x = b.
(ii) Universelle Lösbarkeit, d.h. unter welche Bedingungen an A ist (3.3.2) für alle
mögliche b ∈ Km lösbar.
(iii) Eindeutige Lösbarkeit, d.h. unter welche Bedingungen an A ist die Lösung
Satz 3.3.7. Es sei K ein Körper und m, n ∈ N. Ferner sei A ∈ Mat(m, n, K) und
ϑ 6= b ∈ Km . Dann gilt
dimK W = n − rg(A).
x∈X ⇔ A·x=b
⇔ A · (x − x0 ) = A · x − A · x0 = b − b = ϑ
⇔ x − x0 ∈ W
⇔ x ∈ x0 + W.
LGS
A · x = α1 x1 + α2 x2 = b
gilt
( ! ) ( ! )
x1 x1
W = ∈ R2 : A · x = 0 = ∈ R2 : α1 x1 + α2 x2 = 0
x2 x2
( ! )
x1 α1
= ∈ R2 : x 2 = − x 1
x2 α2
= span{w0 }
mit !
1
w0 = .
− αα12
Ferner ist offensichtlich !
0
x0 =
b
α2
Ax = b.
95
Also ist
X = {x ∈ R2 : Ax = b} = {x0 + sw0 ∈ R2 : s ∈ R}
( ! )
s
= ∈ R2 : s ∈ R .
b−sα1
α2
(i) Das LGS A · x = b ist universell lösbar (d.h. zu jedem b ∈ Km existiert ein
x ∈ Kn mit A · x = b),
(ii) rg(A) = m.
Beweis. Es gilt
3.3.9
A · x = b ist lösbar ⇔ b ∈ span{A1 , ..., An } für alle b ∈ Km
⇔ span{A1 , ..., An , b} = span{A1 , ..., An }, ∀ b ∈ K
⇔ Km = span{A1 , ..., An }
⇔ m = dim(span{A1 , ..., An })=rg(A).
(ii) rg(A) = n,
(iii) Das zugehörige homogene LGS A · x = ϑ besitzt nur die triviale Lösung x = ϑ ∈
Kn .
Beweis. Es gilt
3.3.7(ii)
A · x = b ist eindeutig lösbar ⇔ A · x = ϑ besitzt nur die Lösung x = θ
3.3.7(i)
⇔ rg(A) = n.
(v) rg(A) = n.
97
(ii) Die quadratische Matrix A ∈ Mat(n, n, K) heißt invertierbar (oder auch regulär),
wenn es ein A0 ∈ Mat(n, n, K) gibt, so dass gilt
A0 · A = En .
Die Menge aller invertierbaren n × n- Matrizen bezeichnen wir mit GL(n, K), d.h.
Em · A = A · En = A.
2
Leopold Kronecker, 1823-1891
98
(ii) Es genügt zu zeigen: Für A, B ∈ GL(n, K) gilt A·B ∈ GL(n, K). Nach Definition
3.3.13 existieren A0 , B 0 ∈ Mat(n, n, K) mit
A0 · A = B 0 · B = En .
C · (A · B) = (C · A) · B = (B 0 · (A0 · A)) · B
(i)
= (B 0 · En ) · B = B 0 · B = En .
Bemerkungen 8. (i) Nach Lemma 3.3.14 ist En das neutrale Element von GL(n, K).
Wie überlich, bezeichnen wie die inverse Matrix zu A ∈ GL(n, K) mit A−1 . Es gilt
A−1 · A = A · A−1 = En .
(ii) Im allgemeinen ist die Gruppe GL(n, K) nicht kommutativ. Setze zum Beispiel
! !
1 1 1 0
A= , B= .
0 1 1 1
sowie ! !
2 1 1 1
A·B = 6= = B · A.
1 1 1 2
99
(ii) rg(A) = n.
Beweis. ”(i) ⇒ (ii)” Für alle b ∈ Kn gilt
A · x = b ⇔ A−1 · (A · x) = (A−1 · A) · x = En · x = x = A−1 · b,
d.h. für alle b ∈ Kn ist das LGS A·x = b eindeutig lösbar (mit der Lösung x = A−1 ·b).
Nach Folgerung 3.3.12 gilt daher rg(A) = n
”(ii) ⇒ (i)” Nach Folgerung 3.3.12 existiert für 1 ≤ ν ≤ n genau eine Lösung
Xν ∈ Kn des des LGS
A · Xν = ev .
Also erhalten wir mit X := (X1 , ..., Xn ) ∈ Mat(n, n, K)
A · X = (A · X1 , ..., A · Xn ) = (e1 , ..., en ) = En ,
d.h. X ∈ GL(n, K) und damit A = X −1 ∈ GL(n, K).
In diesem Abschnitt diskutieren wir den Gauß3 - Algorithmus zur Lösung von LGS.
(EZ1) entspricht der Multiplikation einer Zeile von (A|b) mit einem Skalar λ ∈ K\{0},
(EZ2) entspricht der Addition der i−ten Zeile von (A|b) zur j−ten Zeile von (A|b),
(ii) Die Operationen (EZ1), (EZ2) (bzw. die entsprechenden Umformungen der Sys-
3.4.2 Spaltenvertauschungen
(A1 , ..., Ai−1 , Aj , Ai+1 , ..., Aj−1 , Ai , Aj+1 , ..., An ) ∈ Mat(m, n, K) diejenige Matrix, die
aus A durch Vertauschung der i−ten Spalte mit der j−ten Spalte entsteht, so gilt
A · x = b ⇔ Ã · x̃ = b
mit
x1
.
.
.
x
i−1
xj
xi+1
.
x̃ := .. ,
xj−1
x
i
xj+1
..
.
xn
d.h. Spaltenvettauschungen in der Matrix A entsprechen einer Umnummerierung der
A·x=b
102
A·x=b
Es gilt
(i) A · x = b ⇔ Ã · x = b̃,
(ii)
α̃2,2 · · · α̃2,n
rg ... .. = rg(A) − 1,
.
α̃m,2 · · · α̃m,n
103
(iii)
α̃2,2 · · · α̃2,n β̃1
rg ... .. .. = rg(A|b) − 1.
. .
α̃m,2 · · · α̃m,n β̃m
Beweis. Folgt sofort aus Lemma 3.4.1 und Satz 3.4.2.
Bemerkung 10. Die in Lemma 3.4.3 beschriebene Umformung der Matrix (A|b) in
(Ã|b̃) = L · (A|b)
mit
1 0 0 0
− α2,1 1 0 0
α1,1
L := ∈ GL(m, K).
.. .
. 0 .. 0
αm,1
− α−1,1 0 ··· 1
Wiederholte Anwendung von Lemma 3.4.3 liefert nun das Gaußsche Eliminationsver-
fahren.
Es sei A = (αµ,ν ) ∈ Mat(m, n, K) eine matrix mit r := rg(A) > 0 (d.h. A 6= ϑ) und
β1
.
.
. ∈ Km .
b :=
βm
αz(k)
k ,sk
6= 0.
(1) (r)
mit α̃1,1 · · · α̃r,r 6= 0.
Ferner gilt
(r+1) (r+1)
(ii) A · x = b ist genau dann lösbar, wenn r = m oder βr+1 = ... = βm = 0 ist,
Bemerkung 11.: (i) Im Vektor (z1 , ..., zr ) bzw. (s1 , ..., sr ) sind die zeilen- bzw.
Spaltenvertauschungen abgespeichert.
(ii) Mit Hilfe des Gauß-Algorithmus kann man leicht zeigen, dass gilt
x1 x2 x3 x4 b(1)
1 3 −4 3 9
3 9 −2 −11 −3
4 12 −6 −8 6
2 6 2 −14 −12
x1 x2 x3 x4 b(2)
1 3 −4 3 9
0 0 10 −20 −30
0 0 10 −20 −30
0 0 10 −20 −30
x1 x3 x2 x4 b(2)
1 −4 3 3 9
0 10 0 −20 −30
0 10 0 −20 −30
0 10 0 −20 −30
106
x1 x3 x2 x4 b(3)
1 −4 3 3 9
0 10 0 −20 −30
0 0 0 0 0
0 0 0 0 0
und !
n
1 X
xν := bν − αν,j xj , ν = r, r − 1, ..., 2, 1.
αν,ν j=ν+1
Wählt man insbesondere xr+1 = ... = xn = 0, so erhält man die spezielle Lösung
x
.1
.
.
x
r
x := ∈ Kn
0
..
.
0
mit !
r
1 X
xν := bν − αν,j xj , ν = r, r − 1, ..., 2, 1.
αν,ν j=ν+1
Beispiel 3.4.2: Wir greifen nochmal das LGS aus Beispiel 3.4.1 auf. Nach den dort
d.h.
x3 = −3 + 2x4
= −3 − 3x2 + 5x4 .
Also
−3 − 3x2 + 5x4
x2
A·x=b ⇔ x= = x∗ + x2 w2 + x4 w4
−3 + 2x4
x4
108
mit
−3 −3 5
0 −1 0
x∗ := w2 := w4 :== .
−3 0 2
0 0 1
Insbesondere ist w2 , w4 eine Basis von
W := {x ∈ R4 : A · x = ϑ}.
Bemerkung 12. (i) Anstelle der beschriebenen Rücksubstitution kann man die
Matrix
α1,1 α1,2 · · · α1,r α1,r+1 · · · α1,n β1
0
α2,2 · · · α2,r α2,r+1 · · · α2,n β2
.. .. .. .. .. .. ..
.
. . . . . .
(A|b) = 0 ··· 0 αr,r αr,r+1 · · · αr,n βr
0 0 0
Ein Vektor x ∈ Kn ist demnach genau dann eine Lösung des LGS A · x = b, wenn gilt
n
!
1 X (ν)
xν = βν(ν) − αν,j xj
αν,ν j=r+1
Basis von
W := {x ∈ Kn : A · x = ϑ}.
110
und (z3 = 3, s3 = 3) an
x1 x2 x3 x4 x5 x6 b
4 0 0 2 2 2 5
5 1 3 0 0 3 5
2 2 1 1 1 0 5
3 0 3 6 4 3 2
4 0 0 2 2 2 5
0 1 3 1 1 4 4
0 2 1 0 0 6 6
0 0 3 1 6 5 0
4 0 0 2 2 2 5
0 1 3 1 1 4 4
0 0 2 5 5 5 5
0 0 3 1 6 5 0
4 0 0 2 2 2 5
0 1 3 1 1 4 4
0 0 2 5 5 5 5
0 0 0 4 2 1 3
111
x1 x2 x3 x4 x5 x6 b
4 0 0 0 1 5 0
0 1 3 0 4 2 5
0 0 2 0 6 2 3
0 0 0 4 2 1 3
4 0 0 0 1 5 0
0 1 0 0 2 6 4
0 0 2 0 6 2 3
0 0 0 4 2 1 3
Daher ist
{x ∈ K6 : A · x = b} = x∗ + W
mit
0
4
5
x∗ :=
6
0
0
und
W = {x ∈ K6 : A · x = ϑ} = span{w5 , w6 }
mit
5 4
5
1
4 6
w5 := w6 := .
3 5
1
0
0 1
Kapitel 4
Determinanten
4.1 Determinanten
Definition 4.1.1. Es sei K ein Körper und n ∈ N. Dann heißt eine Abbildung
det: Mat(n, n, K) → K
Determinante, wenn folgende Eigenschaften erfüllt sind:
(D1) det ist bzgl. jeder Zeile linear, d.h. für jedes 1 ≤ v ≤ n gilt
A1
1 1
A
A
.. .. .
. . ..
det Av + Ãv = det Av + det Ãv
.. ... ...
.
An An An
und
A1 A1
.. ..
. .
det λAv = λdet Av
. ..
..
.
An An
für alle λ ∈ K, A1 , ..., Av , Ãv , ..., An ∈ K n
.
A1
(D2) det ist alternierend, d.h. ist A = ... ∈ Mat(n, n, K) und existiert 1 ≤
An
u < v ≤ n mit Au = Av , dann folgt
det(A) = 0.
112
113
(Mit anderen Worten: stimmen in der Matrix zwei Zeilen überein, so verschwinde
die Determinante).
(D3) det ist normiert mit det(En ) = 1.
Satz 4.1.2. Zu jedem Körper K und jedem n ∈ N gibt es genau eine Determinante
det: Mat(n, n, K) → K.
det: Mat(n, n, K) → K
(D8) Ist A ∈ Mat(n, n, K) eine obere bzw. untere Dreiecksmatrix, d.h. es gilt αu,v =
0 für all 1 ≤ v < u ≤ n (bzw. 1 ≤ u < v ≤ n), so gilt
n
Y
det(A) = αk,k = α1,1 · · · αn,n .
k=1
Bemerkung 4.1: (i) Nach Satz 4.1.3 (D7) bleibt die Determinante einer Matrix
Sei etwa ! !
1 0 0 0
A= , B= .
0 0 0 1
Dann folgt
det(A) = 0 = det(B),
aber
.. .. .. ..
. . . .
Av Av Au Au
= det .. .. ..
..
. + det + det
. + det . .
Av Au Av Au
.. .. .. ..
. . . .
.. .. ..
. . .
Av Au
v
A + Au
= det ..
+ det ..
= det ..
= 0.
. . .
Av + Au Av + Au Av + Au
.. .. ..
. . .
Zum (D7) Es gilt
.. .. ..
. . .
Av Av Av
det ..
= det ..
+ λdet
..
. . .
Au + λAv Au Av
.. .. ..
. . .
..
.
Av
= det ..
. = det(A).
u
A
..
.
Zum (D8) Es sei A = (αµ,ν )1≤µ,ν≤n eine obere Dreiecksmatrix. Ist αk,k = 0 für ein
k ∈ {1, ..., n}, dann läßt sich A durch die elementaren Zeilenumformungen (EZ1) und
(EZ4) von der Form
α1,1
...
∗
αk−1,k−1
0
A=
αk+1,k+1
...
0
αn,n
116
Zum (D11) Wir betrachten zunächst den Fall rg(A) < n. Dann gilt wegen
U := {(A · B) · x ∈ Kn : x ∈ Kn } ⊂ {A · y ∈ Kn : y ∈ Kn } =: V
also
det(A · B) = 0 = det(A) · det(B).
Ist rg(A) = n, also A ∈ GL(n, K), so läßt sich A durch wiederholte Anwendung der
elementaren Zeilenoperation auf die Gestalt
α̃1,1 0
à =
..
.
0 α̃n,n
det(A · B) = det(Ã · B)
α̃1,1 B 1
= det ...
n
α̃n,n B
= α̃1,1 · · · α̃n,n det(B)
= det(Ã) · det(B)
= det(A) · det(B).
det : Mat(n, n, K) −→ K
118
die Determinante, dann gilten die Aussage (D1), (D2), (D5), (D6), (D7) und (D9)
entsprechend auch für die Spalten einer Matrix, d.h. wir haben:
und
dann folgt
det(A) = 0.
0
.
(D5)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K) und Aν = .
. für ein ν ∈ {1, ..., n},
0
dann folgt
det(A) = 0.
(D7)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K), so gilt für 1 ≤ µ < ν ≤ n und λ ∈ K
Beispiel 4.1: Aufgrund von (D6)-(D8) kann man die Determinante einer Matrix mit
Lemma 4.1.5. Es sei K ein Körper, n ≥ 2 und A ∈ Mat(n, n, K). Dann gilt für
1 ≤ µ, ν ≤ n
(ii) Sei wie üblich eν := (0, ..., 1, ..., 0) ∈ K n mit ν−te Kompornant Eins
A1
..
.
µ−1
A
det(Aµν ) = det eν .
µ+1
A
.
..
An
(iii) Ã · A = A · Ã = (det(A)) · En .
Beweis. (i) Durch (µ−1) Vertauschungen der ersten µ zeilen und (ν−1) Vertauschun-
gen der ersten ν Spalten können wir Aµν auf die Gestalt
1 0
0 A0µν
A1
..
.
B := eν
.
..
An
121
durch Addition des (−αk,ν )-fachen der µ-ten Zeile zur k-ten Zeile für 1 ≤ k ≤ n,
k 6= µ. Daraus folgt
(D7)
det(B) = det(Aµν ).
(iii) Es gilt für 1 ≤ µ, ν ≤ n
n
X n
X
αµ,k α̃k,ν = αµ,k det(Aνk )
k=1 k=1
A1
..
.
ν−1
n A
(ii) X
= αµ,k det ek
ν+1
k=1 A
.
..
An
1
A1
A
.. ..
. .
ν−1
A Aν−1
Pn k
= det k=1 αµ,k e = det Aµ
ν+1
A Aν+1
. ..
..
.
An An
det(A); µ = ν,
=
0; µ 6= ν.
Nun sind wir in der Lage zu zeigen den Entwicklungssatz von Laplace1
Satz 4.1.6. Es sei K ein Körper, n ≥ 2 und A ∈ Mat(n, n, K). Dann gilt für jedes
µ ∈ {1, ..., n}
Xn
det(A) = (−1)k+µ αµ,k det(A0µk )
k=1
n n
4.1.5(iii) X X
det(A) = α̃ν,k αk,ν = αk,ν det(Akν )
k=1 k=1
n
4.1.5(i) X
= (−1)ν+k αk,ν det(A0kν ).
k=1
(i) Der Vorzeichenfaktor (−1)µ im Entwicklungssatz von Laplace bewirkt eine Verteilung
Daraus folgt !
1 d −b
A−1 = .
ad − bc −c a
(ii) Ist K = R, n = 3 und
0 1 2
A=
3 2 1 ,
1 1 0
dann gilt
α̃1,1 = det(A011 ) = −1, α̃2,1 = det(A012 ) = 1,
α̃1,2 = det(A021 ) = 2, α̃2,2 = det(A022 ) = −2,
α̃1,3 = det(A031 ) = −3, α̃2,3 = det(A032 ) = 6,
α̃3,1 = det(A013 ) = 1, α̃3,2 = det(A023 ) = 1,
α̃3,3 = det(A033 ) = −3.
124
Damit folgt
−1 2 −3
1
A−1 =
1 −2 .
6
3
1 1 −3
Wir haben die sogenannte Cramersche Regel2 zur Lösung von linearem Gleichungssys-
tem:
Satz 4.2.2. Für A ∈ GL(n, K) und b ∈ Kn ist die eindeutig bestimmte Lösung
x ∈ Kn des linearen Gleichungssystems
A·x=b
gegeben durch
1
xν = det(A1 , ..., Aν−1 , b, Aν+1 , ..., An ), 1 ≤ ν ≤ n.
det(A)
Beweis. Es gilt
n
X
b = A · x = x1 · A1 + ... + xn · An = x k · Ak .
k=1
Daraus folgt
n
X
det(A1 , ..., Aν−1 , b, Aν+1 , ..., An ) = det(A1 , ..., Aν−1 , xk · Ak , Aν+1 , ..., An )
k=1
n
(D1)0 X
= xk · det(A1 , ..., Aν−1 , Ak , Aν+1 , ..., An )
k=1
= xν det(A1 , ..., Aν−1 , Aν , Aν+1 , ..., An )
= xν det(A) für 1 ≤ ν ≤ n.
so ist der Nullvektor ϑ zwar Element des Eigenraums V (λ, ϕ) von ϕ zum Eigenwert
dann folgt
m+1
X m+1
X m+1
X
ϑ = ϕ(ϑ) = ϕ( αµ vµ ) = αµ ϕ(vµ ) = αµ λµ vµ
µ=1 µ=1 µ=1
126
und
m+1
X m+1
X
ϑ = λm+1 · αµ vµ = αµ λm+1 vµ .
µ=1 µ=1
Also
m+1
X m+1
X m
X
ϑ= αµ λµ vµ − αµ λm+1 vµ = αµ (λµ − λm+1 )vµ .
µ=1 µ=1 µ=1
Bemerkung 4.4: Es sei V ein K-Vektorraum mit dimV = n und B = {v1 , ..., vn }
ein Isomorphismus; für v ∈ V nennt man die Komponenten des Vektors x := φB (v) ∈
es zu jedem ν ∈ {1, ..., n} eindeutig bestimmte α1,ν , ..., αn,ν ∈ K, so dass gilt
n
X
ϕ(vν ) = αµ,ν vµ .
µ=1
bzw.
ϕ = φ−1
B ◦ ϕA ◦ φB .
Dabei bezeichnen wir wie üblich mit ϕA die lineare Abbildung ϕA : x ∈ Kn 7−→
⇐⇒ φB ◦ (λ · idV − ϕ) ◦ φ−1
B = λ · idKn − ϕA
⇐⇒ det(λ · En − A) = 0.
Definition 4.3.3. Es sei V ein K- Vektorraum mit dimV = n und B = {v1 , ..., vn }
eine Basis von V , ϕ : V −→ V ein Endomorphismus und A ∈ Mat(n, n, K) die
darstellende Matrix von ϕ bzgl. B. Dann heißt die Abbildung
Pϕ = PA : t ∈ K 7−→ det(t · En − A) ∈ K
charakteristisches Polynom von ϕ (bzw. A).
Bemerkung 4.5: (i) Damit die obige Definition sinnvoll ist, darf Pϕ nicht von der
Auswahl der Basis abhängen. Sei dazu B 0 = {v10 , ..., vn0 } eine weitere Basis von V
und A0 ∈ Mat(n, n, K) die darstellende Matrix von ϕ bzgl. B 0 , dann gilt mit den
= (φB0 ◦ φ−1 −1
B ) ◦ ϕA ◦ (φB0 ◦ φB )
φB0 ◦ φ−1
B = ϕS ,
128
A0 = S · A · S −1 .
Damit folgt
= det(S · (t · En − A) · S −1 )
(D11)
= det(S) · det(t · En − A) · det(S −1 )
= PA (t),
also ist das charakteristisches Polynom von Pϕ unabhängig von der Wahl der Basis.
(ii) Das charakteristisches Polynom Pϕ (t) ist stets ein Polynom n-ten Grades mit
Pϕ (t) = tn + q(t)
(ii) λ ist Nullstelle des charakteristischen Polynom von Pϕ von ϕ, d.h. es gilt
Pϕ (λ) = 0.
(ii) Es gibt eine Basis B von V , so dass die darstellende Matrix A ∈ Mat(n, n, K)
von ϕ bzgl. B eine Diagonalmatrix ist, d.h.
λ1 0
A=
..
.
0 λn
ϕA : x ∈ Kn −→ A · x ∈ Kn
dann gilt
t
1 −1
PA (t) = 3 t + 2 −3
2 2 t−3
t + 2 −3 3 −3 3 t+2
= t − −
2 t−3 2 t−3 2 2
= t((t + 2)(t − 3) + 6) − (3(t − 3) + 6) − (6 − 2(t + 2))
= t3 − t2 − t + 1 = (t − 1)2 (t + 1).
130
V (λ1 , ϕA ) = {x ∈ R3 : (λ1 E3 − A) · x = 0}
1 1 −1
= {x ∈ R3 :
3 3 −3 · x = 0}.
2 2 −2
Ferner ist
V (λ2 , ϕA ) = {x ∈ R3 : (λ2 E3 − A) · x = 0}
−1 1 −1
= {x ∈ R3 :
3 1 −3 · x = 0}.
2 2 −4
d.h. rg(λ2 E3 − A) = 2 (also dimV (λ2 , ϕA ) = 1) und eine Basis von V (λ2 , ϕA ) ist
gegeben durch
1
v3 (λ2 ) :=
3 .
2
Damit ist B := {v1 (λ1 ), v2 (λ1 ), v3 (λ2 )} eine Basis von R3 aus Eigenvektoren von A
(bzw. ϕA ).
131
Die Zahl r ∈ N0 heißt (algebraische ) Vielfachheit der Nullstelle λ ∈ K und wird mit
ord(λ, p) bezeichnet.
p(λ) = 0 ⇐⇒ ord(λ, p) ≥ 1.
(i)
Z(p) := {λ ∈ K : p(λ) = 0} = {λ ∈ K : ord(λ, p) ≥ 1}
und
k
Y
p(T ) = q(T ) · (T − λj )rj
j=1
Beweis. Es sei v1 , ..., vs eine Basis von V (λ, ϕ). Dann existiert nach dem Basis-
ergänzungssatz Vektoren vs+1 , ..., vn ∈ V , so dass B = {v1 , ..., vn } eine Basis von
V ist. Die darstellende Matrix A ∈ Mat(n, n, K) von ϕ bzgl. B hat die Gestalt
λ 0
..
. ∗
0 λ
A=
0
0 A
(j)
und damit ατ = 0 für 1 ≤ j ≤ k, 1 ≤ τ ≤ sj . Nun gilt
Elementare Zahlentheorie
5.1 Induktionsprinzip
Jede nichtleere Teilmenge M der natürlichen Zahlen N0 besitzt ein kleinstes Element,
(i) 0 ∈ M ,
(ii) n ∈ M =⇒ n + 1 ∈ M (d.h. {n + 1 ∈ N : n ∈ M } ⊂ M ).
Dann gilt M = N0 .
Beweis. Angenommen es gäbe ein n ∈ N0 mit n 6∈ M . Dann ist N0 \ M 6= ∅,
also besitzt die Menge N0 \ M ein kleinstes Element n0 ∈ N0 \ M . Wegen 0 ∈ M
gilt n0 ≥ 1, also ist auch n0 − 1 eine natürliche Zahl und wegen der Minimalität
von n0 gilt n0 − 1 6∈ N0 \ M , also n0 − 1 ∈ M . Nach (ii) wäre aber dann auch
(n0 − 1) + 1 = n0 ∈ M .
folgenden Eigenschaften
134
135
r = a − q · b =⇒ a = q · b + r.
Daraus folgt
Folgerung 5.2.2. Es sei A ein Ideal im Ring Z der ganzen Zahlen. Dann existiert
genau ein n ∈ N0 , so dass gilt
A = n · Z = {n · q ∈ Z : q ∈ Z}.
Beweis. Für A = {0} ist die Aussage klar (n := 0). Sei also A 6= {0}, dann existiert
ein a ∈ A mit a 6= 0. Damit ist auch −a ∈ A und da entweder a oder −a positiv ist,
folgt M := A ∩ N 6= ∅. Nach Induktionsprinzip existiert daher ein kleinstes Element
n ∈ M . Da A ein Ideal ist, folgt zunächst
nZ ⊂ A,
b = q · a.
a|b ⇐⇒ b ∈ a · Z ⇐⇒ b · Z ⊂ a · Z.
(ii) a|0,
(iii) 0|b ⇐⇒ b = 0,
Beweis. Übung.
Bemerkung 5.2 Aufgrund von Lemma 5.2.4 (i), (v) und (vi) ist a|b eine partielle
Ordnung auf N0 .
Satz 5.2.5. Es seien a1 , ..., an ∈ Z. Dann gibt es genau eine Zahl d ∈ N0 , so dass
gilt
(i) d|av für alle 1 ≤ v ≤ n.
(ii) Ist c ∈ Z und gilt c|av für 1 ≤ v ≤ n, dann folgt c|d.
Die Zahl d heißt größter gemeinsamer Teiler von a1 , ..., an ; in Zeichen
ggT(a1 , ..., an ) := d.
Beweis. Es sei
Dann ist A ein Ideal in Z, also gibt es nach Folgerung 5.2.2 genau ein d ∈ N0 mit
A = d · Z. Wegen av ∈ A für 1 ≤ v ≤ n gilt damit auch av ∈ d · Z, d.h. d|av für
1 ≤ v ≤ n. Ist nun c ∈ Z und gilt c|av für 1 ≤ v ≤ n, dann existieren q1 , ..., qn ∈ Z,
so dass gilt
av = qv · c.
Daher
dZ = A = a1 Z + ... + an Z
= cq1 Z + ... + cqn Z ⊂ cZ.
Dann ist d := ggT(a1 , ..., an ) ∈ T das Supremum von T bzgl. der Teilbarkeitsrelation
(und damit auch bzgl. der 00 ≤00 Relation). Für a1 , ..., an , d ∈ Z, d ≥ 0 sind äquivalent:
138
(ii) dZ = a1 Z + ... + an Z.
Lemma 5.3.1. Es seien a1 , ..., an ∈ Z und d = ggT(a1 , ..., an ). Dann existieren ganze
Zahlen x1 , ..., xn ∈ Z, so dass gilt
d = a1 x1 + ... + an xn .
a b
ggT( , ) = 1.
d d
ax + by = ggT(a, b).
Also ggT(ab, c) = 1.
Zu (viii) Nach Voraussetzung existiert ein q ∈ Z mit bc = qa. ferner existieren nach
Lemma 5.3.1 x, y ∈ Z mit ax + by = 1. Nun c = acx + bcy = a(cx + qy), also a|c.
Sprachweise: Sind a1 , ..., an ∈ Z und gilt ggT(a1 , ..., an ) = 1, so heißen die Zahlen
L := {(x, y) ∈ Z2 : ax + by = c}.
Dann gilt
L 6= ∅ ⇐⇒ d|c.
Für jedes (x0 , y0 ) ∈ L gilt dann
b a
L = {(x0 + q , y0 − q ) ∈ Z2 : q ∈ Z}.
d d
Beweis. Es gilt
dZ = aZ + bZ,
also
L 6= ∅ ⇐⇒ c ∈ aZ + bZ ⇐⇒ c ∈ dZ ⇐⇒ d|c.
Für (x0 , y0 ) ∈ L gilt außerdem
b a
a(x0 + q ) + b(y0 − q ) = ax0 + by0 = c,
d d
also
b a
{(x0 + q , y0 − q ) ∈ Z2 : q ∈ Z} ⊂ L.
d d
140
Man kann die Berechnung des ggT’s endlich vieler ganzer Zahlen auf die Berechnung
des ggT’s zweier ganzer Zahlen zurückführen. Ferner, kann man den ggT(a, b) zweier
m 0 = q1 · m 1 + m 2 ∧ 0 ≤ m2 < m 1 .
m 1 = q2 · m 2 + m 3 ∧ 0 ≤ m3 < m 2 .
Andernfalls können wir dieses Verfahren solange fortsetzen, bis wir nach spätestens
Wir erhalten also ganze Zahlen q1 , ..., qk ∈ Z und m0 , ..., mk ∈ Z, so dass gilt
(
0 = mk+1 < mk < ... < m1 < m0 ,
mj−1 = qj mj + mj+1 , für j = 1, ..., k.
daraus folgt
also insbesondere
Satz 5.3.3 sagt, wie man für ganze Zahlen a, b, c mit ggT(a, b)|c sämtliche Lösungen
ax + by = c (5.4.2)
erhält, sofern man bereits eine spezielle Lösung (x∗ , y ∗ ) ∈ Z2 dieser Gleichung kennt.
Wir wollen nun untersuchen, wie man eine solche spezielle Lösung der Gleichung
Sei dazu wieder o.B.d.A. 0 < b < a und m0 := a, m1 = b. Dann erhalten wir durch
wir daraus eine Darstellung von m2 als ganzzahlige ”Linearkombination” von a und
b:
Setzen wir dies in die nächste Gleichung (j = 2) ein, so erhalten wir mit x3 =
−q2 x2 ∧ y3 := 1 − q2 y2
m 3 = m 1 − q2 m 2
= b − q2 (ax2 + by2 )
= ax3 + by3 .
Allgemein stellen wir fest: Ist für ein j ∈ {1, ..., k} bereits eine Darstellung der Form
mj+1 = mj−1 − qj mj
= a(xj−1 − qj xj ) + b(yj−1 − qj yj ).
mj = axj + byj ,
also insbesondere
Ist nun c ∈ Z eine ganze Zahl mit ggT(a, b)|c, dann existiert ein q ∈ Z mit
Daher ist (x∗ , y ∗ ) ∈ Z2 mit x∗ := qxk und y ∗ = qyk eine spezielle Lösung der Gleichung
(5.4.2). Durch Anwendung von Satz 5.3.3 erhalten wir daraus alle Lösungen dieser
Gleichung.
Satz 5.4.1. Es seinen a1 , ..., an ∈ Z \ {0}. Dann gibt es genau eine Zahl g ∈ N, so
dass gilt
kgV(a1 , ..., an ) := g.
ein Ideal von Z. Wegen 0 6= a1 · · · an ∈ A gilt A 6= {0}. Also gibt es nach Folgerung
5.2.2 genau ein g ∈ N, so dass gilt
A = g · Z.
V := {v ∈ N : aµ |v für 1 ≤ µ ≤ n}.
Dann ist g := kgV(a1 , ..., an ) ∈ V das Infimum von V bzgl. der Teilbarkeitsrelation
00
(und damit auch der ≤00 Relation).
(2) gZ = a1 Z ∩ ... ∩ an Z.
Beweis. (i) Es sei g := kgV(a1 , ..., an ) und g 0 := kgV(ba1 , ..., ban ). Dann gilt nach
Satz 5.4.1 (i) für 1 ≤ ν ≤ n
5.2.4(viii) 5.4.1(ii)
aν |g =⇒ baν |bg =⇒ g 0 |bg.
b|baν ∧ baν |g 0
also nach Lemma 5.2.4 (vi) b|g 0 , d.h. existiert ein q ∈ Z mit g 0 = qb. Damit ist
0
q = gb ∈ Z und es gilt
g0 5.4.1(ii) g0 5.2.4(viii)
aν | für 1 ≤ ν ≤ n =⇒ g| =⇒ bg|g 0 .
b b
Mit Lemma 5.2.4 (v) folgt daraus g 0 = bg.
(ii) Es sei zunächst ggT(a, b) = 1. Wegen
kgV(a, b) = qa
ab = kgV(a, b).
a b a b a b (i)
ggT( , ) = 1 =⇒ ab = d · d · · = ddkgV( , ) = dkgV(a, b).
d d d d d d
146
5.5 Primzahlen
Definition 5.5.1. Es sei p ∈ N und p ≥ 2. Dann heißt p Primzahl, wenn gilt
d.h. p besetzt außer 1 und p keine weiteren Teiler in N. Eine Zahl a ∈ Z mit |a| ≥ 2
heißt reduzibel, wenn |a| keine Primzahl ist.
Lemma 5.5.2. Es sei p ∈ N und p ≥ 2. Dann sind folgende Aussagen äquivalent:
(i) p ist eine Primzahl,
(iv) pZ ist ein maximales Ideal, d.h. es gilt: Ist A ⊂ Z ein Ideal mit pZ ⊂ A, dann
folgt A = pZ oder A = Z.
Beweis. 00 (i) ⇒ (ii)00 Da p außer 1 und p keine weiteren Teiler in N besitzt, gilt
entweder ggT(a, p) = p und damit p|a, oder es gilt ggT(a, p) = 1 und damit nach
Lemma 5.3.2(viii) p|b.
00
(ii) ⇒ (iii)00 Es gilt
5.2
ab ∈ pZ ⇐⇒ p|ab
(ii)
⇐⇒ p|a ∨ p|b
5.2
⇐⇒ a ∈ pZ ∨ b ∈ pZ.
00
(iii) ⇒ (iv)00 Es sei A ⊂ Z ein Ideal mit pZ ⊂ A. Nach Folgerung 5.2.2 existiert
genau ein a ∈ N mit A = aZ. Wegen pZ ⊂ A = aZ gilt daher a|p, d.h es existiert ein
b ∈ Z, so dass gilt p = ab. Daraus folgt ab ∈ pZ, also nach (iii) a ∈ pZ und damit
A = aZ = pZ, oder b ∈ pZ und damit a = 1, also A = Z.
00
(iv) ⇒ (i)00 Es sei a ∈ Z gegeben mit a|p. Dann folgt mit Bemerkung 5.1
pZ ⊂ aZ.
Nach (iv) folgt also entweder aZ = pZ und damit |a| = p, oder aZ = Z und damit
|a| = 1.
Lemma 5.5.3. (i) Ist p ∈ N eine Primzahl und a ∈ Z, dann gilt entweder p|a oder
ggT(a, p) = 1.
(ii) Zu jedem a ∈ Z mit |a| ≥ 2 gibt es eine Primzahl p ∈ N, so dass gilt p|a.
147
Nach Lemma 5.5.3 (i) sind je zwei verschiedene Primzahlen teilerfremd. Wir haben
Satz 5.5.4. Jedes natürliche Zahl n ≥ 2 läßt sich als endliches Produkt von Primzahlen
p1 , ..., pk ∈ N darstellen, d.h. es gilt
k
Y
n = p1 · p2 · · · pk = pj .
j=1
Diese Darstellung ist bis auf die Reihenfolge der Faktor eindeutig.
Beweis. Existenz: Für n = 2 ist die Aussage klar. Sei also n > 2. Wir setzen
voraus, dass die Existenz einer Primfaktorzerlegung bereits für alle m ∈ N mit 2 ≤
m < n nachgewiesen ist. Nach Lemma 5.5.3 (ii) existiert eine Primzahl p1 mit p1 |n,
d.h. es gibt ein m ∈ N, so dass gilt
n = p1 m.
p 1 · · · p k = q1 · · · ql .
Dann ist zu zeigen: k = l und es gibt eine Umnummerierung v1 , ..., vk der Zahlen
1, ..., k, so dass gilt
pj = qvj für 1 ≤ j ≤ k.
148
Wir führen den Beweis dieser Aussage durch vollständige Induktion nach k ∈ N. Für
k = 1 folgt die Behauptung sofort aus Definition 5.5.1. Sei die Aussage also bereits
für ein k ≥ 1 bewiesen. Sind dann p1 , ..., pk+1 und q1 , ..., ql Primzahlen mit
p1 · · · pk+1 = q1 · · · ql .
So folgt pk+1 |q1 · · · ql . Nach Lemma 5.5.2 (ii) gibt es daher ein λ ∈ {1, ..., l} mit
pk+1 |qλ . Da qλ eine Primzahl ist, folgt daraus pk+1 = qλ . Durch Umnummerierung
von q1 , ..., ql können wir o.B. d.A annehmen, dass λ = l, also pk+1 = ql ist. Durch
Kürzen erhalten wir
p1 · · · pk = q1 · · · ql−1 .
Nach Induktionsvoraussetzung gilt daher k = l − 1 (damit k + 1 = l) und es gibt eine
Umnummerierung v1 , ..., vk der Zahlen 1, ..., k, so dass gilt
pj = qvj für 1 ≤ j ≤ k.
n := p1 · · · pk + 1 ≥ 2.
p|n.
p|p1 · · · pk ,
Bemerkung 5.4 Es sei (pj )j∈N eine Abzählung aller Primzahlen mit pj < pj+1 für
αj := Vpj (a)
nur für endlich viel j ∈ N von Null verschieden. Daher existiert der Grenzwert
∞ k
α α
Y Y
pj j := lim pj j
k→∞
j=1 j=1
ggT(ai , aj ) = 1 für i 6= j.
Das Sieb des Eratosthenes3 ist ein Verfahren zur Bestimmung aller Primzahlen, die
kleiner oder gleich einer vorgegebenen Zahl n ∈ N sind. Bei diesem Verfahren geht
A0 := {2, 3, ..., n − 1, n}
streicht man zunächst alle Vielfachen von 2k mit k > 1, d.h. man bildet
Im nächsten Schritt streicht man alle Vielfachen der Form 3k mit k > 1, also
Auf diese Weise fortfahrend, erhalten wir eine Liste aller Primzahlen zwischen 2 und
(ii) Ist n ∈ N, n ≥ 2 und ist 2n − 1 eine Primzahl, dann ist auch n eine Primzahl.
3
Eratosthenes von Kyrene, ca. 276-195 v.C.
4
Marin Mersune, 1588-1648
151
zerlegbar.
Mp := 2p − 1
M11 = 2047 = 23 · 89
keine Primzahl.
finden. Tatsächlich sind die neun größten derzeit bekannten Primzahlen Merseunesche
(ii) Ist n keine Zweierpotenz, dann gibt es mindestens einen echten ungeraden Teiler
von n, d.h. es existieren m, k ∈ N, so dass gilt
n = (2k + 1)m.
Daraus folgt
2k
X
n m 2k+1 2k+1 m
a + 1 = (a ) − (−1) = (a + 1) ajm (−1)2k−j .
j=0
17, F3 = 257 und F4 = 65.537 sind Primzahlen. Dagegen ist F5 durch 641 teilbar.
(ii) Je zwei verschiedene Fermatsche Zahlen sind teilerfremd, d.h. es gilt ggT(Fm , Fn ) =
q := 2n , p := 2m , r := 2k ,
dann folgt
r−1
X
Fn − 2 = 2q − 1 = (2p )r − (−1)r = (2p − 1) 2jp (−1)r−1−j ,
| {z }
j=0
Fm | {z }
=:b
Für die folgenden Aussagen der Zahlentheorie ist z.Z. weder ein Beweis noch eine
Widerlegung bekannt:
(1) Goldbachsche5 Vermutung: Jede gerade Zahl n ∈ N mit n > 2 läßt sich als
ein Paar (p, q) ∈ N×N Primzahlzwilling, wenn p und q Primzahlen sind mit q = p+2.
Z. B. lauten die ersten Primzahlzwillinge: (3, 5), (5, 7), (11, 13), (17, 19), (29, 31), ....
33.218.925 · 2169.690 ± 1.
(4) Fermatsche Zahlen: Außer F0 , ..., F4 gibt es keine weiteren Primzahlen unter den
Fermatschen Zahlen.
Es sei G eine Gruppe und U < G eine Untergruppe von G. Dann definieren wir eine
g ∼ h :⇐⇒ g −1 · h ∈ U.
5
Christian Goldbach, 1690-1764
154
Man überzeugt sich leicht, dass eine Äquivalenzrelation auf G definiert. Ferner gilt
für jedes g ∈ G
[g]∼ = g · U = {g · u ∈ G : u ∈ U }.
Wir bezeichnen die Menge aller Äquivalenzklassen modulo ∼ mit G/U , d.h. wir
setzen
= {g · U ∈ P(G) : g ∈ G}.
Definition 5.8.1. Es sei G eine Gruppe und U < G eine Untergruppe von G. Die
Elemente von G/U heissen Linksnebenklassen bzgl. U .
Satz 5.8.2. Es sei G eine Gruppe und U / G ein Normalteiler von G. Dann wird
durch
◦ : (gU, hU ) ∈ G/U × G/U 7−→ (g · h)U ∈ G/U
eine Verknüpfung auf G/U definiert. Zusammen mit dieser Verknüpfung bildet G/U
eine Gruppe mit dem neutralen Element [e]∼ = U , das inverse Element zu [g]∼ = g ·U
ist gegeben durch [g −1 ]∼ = g −1 · U. Die Gruppe (G/U, ◦) heisst Faktorgruppe von G
nach U .
Beweisskizze. Zunächst ist zu zeigen, dass ◦ wohldefiniert ist, d.h. sind g1 , g2 , h1 , h2 ∈
G gegeben mit
g1 U = g2 U unf h1 U = h2 U,
dann folgt
g1 h1 U = g2 h2 U.
Da U ein Normalteiler von G ist, ist mit h−1 −1
1 · h2 auch h2 · h1 ∈ U . Daraus folgt
h2 (h−1 −1
1 g1 g2 ) ∈ U
Es gilt nun
ψ(g1 U ) = ϕ(g1 ) = ϕ(g2 ) = ψ(g2 U ).
(2) Homomorphismus: Für g1 U, g2 U ∈ G/U gilt
ψ(gU ) = ϕ(g) = e0 ⇐⇒ g ∈ U ⇐⇒ gU = U,
d.h. Kerψ = {U }.
Folgerung 5.8.4. Ist G eine Gruppe und sind U, V Normalteiler von G mit U < V ,
dann ist V /U ein Normalteiler von G/U und es gilt
(G/U )/(V /U ) ∼
= G/V.
an.
Definition 5.8.5. Es sei G eine Gruppe. Enthält G nur endlich viele Elemente, so
bezeichnet man die Anzahl der Elemente als Ordnung von G, in Zeichen
ordG := |G|.
Ist die Elementanzahl nicht endlich, so setzt man ordG := ∞. Ist g ∈ G und existiert
ein n ∈ N mit
g n := g · g · · · g = e,
| {z }
n−mal
Bemerkung 5.7 (i) Ist G eine Gruppe und k ∈ Z, so definieren wir für g ∈ G
g · · · g, k > 0,
g k := e, k = 0,
(g −1 )|k| , k < 0.
ϕ : k ∈ Z 7−→ g k ∈ G
g m+n = g m · g n = g n · g m .
(ii) Ist G eine abelsche Gruppe, so benutzen wir für k ∈ Z und g ∈ G die Schreibweise
g + ... + g, k > 0,
k · g := oG , k = 0,
−g − ... − g, k < 0.
Satz 5.8.6. Es sei G eine Gruppe und A ⊂ P(G) eine Familie von Untergruppen
von G (d.h. jedes U ∈ A ist eine Untergruppe von G). Dann ist
\
U
U ∈A
ebenfalls eine Untergruppe von G (Der Durchschnitt beliebig vieler Untergruppen ist
eine Untergruppe).
hgi = {g n ∈ G : n ∈ Z},
dann einerseits ist {g n ∈ G : n ∈ Z} eine Untergruppe von G, die {g} enthält, also
hgi ⊂ {g n ∈ G : n ∈ Z}. Andererseits gilt für jede Untergruppe U < G mit hgi ⊂ U :
{g n ∈ G : n ∈ Z} ⊂ U
{g n ∈ G : n ∈ Z} ⊂ hgi.
nZ = {na ∈ Z : a ∈ Z} = hni
Zn = Z/nZ = {a + nZ : a ∈ Z}
ϕ : n ∈ Z 7−→ g n ∈ G
158
G∼
= Z/Kerϕ.
ordhgi = ordG g.
und
ordG g = n =⇒ Kerϕ = nZ =⇒ hgi ∼
= Zn =⇒ ordhgi = n.
Definition 5.8.11. Es sei G eine Gruppe und U < G eine Untergruppe von G.
Enthält G/U endlich viele Elemente, so heisst die Anzahl der Elemente Index von U
in G, in Zeichen
[G : U ] := |G/U |.
Ist die Anzahl der Elemente in G/U unendlich, so setzen wir
[G : U ] := ∞.
Bemerkung 5.9 Ist E die von e in G erzeugte Untergruppe (also E := {e}), dann
gilt offenbar
G/E ∼
= G und [G : E] = ordG.
Satz 5.8.12. Sind U, V Untergruppen einer Gruppe G mit V ⊂ U , so gilt
[G : V ] = [G : U ] · [U : V ].
Dabei seien die gi ∈ G so gewählt, dass die in der Vereinigung auftretenden Linksneben-
klassen paarweise disjunkt sind. Die Elementanzahl der Indexmenge I entspricht dann
genau [G : U ]. Entsprechend sei
[
U= ui V
j∈J
160
[G : V ] = |I × J| = |I| · |J| = [G : U ] · [U : V ].
Satz 5.8.13. Es sei G eine Gruppe und U < G eine Untergruppe von G, dann gilt
ordG = [G : U ] · ordU.
Folgerung 5.8.14. Ist G eine endliche Gruppe, dann ist ordG g für jedes g ∈ G ein
Teiler von ordG.
Folgerung 5.8.15. Ist G eine endliche Gruppe und ist ordG eine Primzahl, dann ist
G zyklisch (also insbesondere abelsch) und es gilt für alle e 6= g ∈ G
G = hgi.
Beweis. Für jedes e 6= g ∈ G gilt ordG g > 1. Da ordG Primzahl ist, muß daher nach
Folgerung 5.8.14 ordG g = ordhgi = ordG sein, also hgi = G.
6
J. L. Lagrange, 1736-1813
161
Satz 5.8.19. Es sei (Z∗n , ·) die Einheitengruppe des Ringes (Zn , +, ·). Dann gilt
Z∗n = {a + nZ ∈ Zn : ggT(a, n) = 1}
und
ord(Z∗n ) = ϕ(n).
Bemerkung: Man bezeichnet die Gruppe (Z∗n , ·) auch als prime Restklassengruppe
modulo n.
Beweis von Satz 5.8.19. Es gilt für a ∈ Z:
a + nZ ∈ Z∗n ⇐⇒ (∃r ∈ Z)ra + nZ = 1 + nZ
⇐⇒ (∃r ∈ Z)1 ∈ ra + nZ
⇐⇒ 1 ∈ aZ + nZ
⇐⇒ Z = aZ + nZ
⇐⇒ ggT(a, n) = 1.
RSA-Verfahren (R. L. Rivest, A. Shamir, L. Addman, 1978). RSA ist ein sogenan-
verschlüsselt A die Botschaft mit dem Öffentlichen Schlüssel (public key) von B; B
kann dann die Nachricht mit seinem nur ihm bekannten privaten Schlüssel (private
key) dechiffrieren.
Zur Erzeugung der Schlüssel wählen wir zunächst zwei verschiedene (moöglichst
n := p · q.
Es gilt dann
(e ist der sogenannte Verschlüsselungsexponent). Damit gilt e ∈ Z∗ϕ (vgl. Satz 5.8.19),
Das Paar (n, e) bildet unseren öffentlichen Schlüssel, d ist unser geheimer Schlüssel.
Wollen wir nun eine Nachricht m ∈ N verschicken, so besorgen wir uns zunächst dem
öffentlichen Schlüssel (n, e) des Empfänger und bilden daraus das Chiffre
c ≡ me (mod n)
164
Der Empfänger kann die erhaltene Nachricht dann mittels seines geheimen Schlüssel
d dechiffrieren, da
m ≡ cd (mod n).
d · e = k · ϕ + 1.
mϕ + nZ = 1 + nZ.
also
m ≡ cd (mod n).
cd + nZ = mkϕ+1 + nZ = nZ = m + nZ,
d.h.
m ≡ cd (mod n).
165
3. Fall: ggT(m, n) = p (damit ggT(m, q) = 1). Dann folgt wegen ϕ(q) = q − 1 aus
mq−1 + qZ = 1 + qZ.
= (1 + qZ)k(p−1) = 1 + qZ,
Charakteristik von R.
Lemma 5.8.23. Es sei R ein Integritätsring und p = charR. Dann ist p = 0 oder p
ist eine Primzahl und es gilt
p·r =0
für alle r ∈ R.
Beweis. Für p = 0 ist nichts zu zeigen. Sei also p > 0. Dann folgt aus der Definition
p ≥ 2 und es existiert ein a ∈ R \ {0}, so dass gilt
p·a=a + a + a} = 0.
| + ...{z
p−Sum.
166
[R : Q] = ∞.
[C : R] = 2.
Satz 5.8.27. Es sei K ein Körper und K ⊂ P(K) eine Familie von Teilkörpern von
K. Dann ist auch \
L
L∈K
bzgl. der Inklusion der kleinste Teilkörper von K. P (K) heisst Primkörper von K.
Satz 5.8.29. Es sei K ein Körper. Dann gilt
(i) charK = p 6= 0 ⇐⇒ P (K) ∼
= Zp ,
(ii) charK = 0 ⇐⇒ P (K) ∼
= Q.
Beweis. (i) ” =⇒ ”. Wir definieren mit dem Eins e ∈ K
ϕ : a + pZ ∈ Zp 7−→ a · e ∈ K.
ϕ(r + pZ) = r · e
Imϕ ∼
= Zp .
Da Zp nach Satz 5.8.25 ein Körper ist, ist Imϕ demnach ein Teilkörper von K.
Ist nun L ⊂ K ein beliebiger Teilkörper von K, dann gilt wegen e ∈ L
Imϕ = {a · e ∈ K : a ∈ Z} ⊂ L.
168
ein zu Q isomorpher Teilkörper von K mit L ⊂ P (K). Daraus folgt sofort L = P (K).
” ⇐= ”. Folgt sofort aus (i).
Beweis. Es sei
sowie
Sd := {f ∈ {1, ..., d} : ggT(f, d) = 1}.
Dann gilt [
S= Sd × {d}
d|n
und damit
5.8.17
X X X
|S| = |Sd × {d}| = |Sd | = ϕ(d).
d|n d|n d|n
k n
f := , und d := .
ggT(k, n) ggT(k, n)
169
1 ≤ f ≤ d ∧ ggT(f, d) = 1 ∧ d|n,
Folgerung 5.8.31. Es sei R ein Integritätsring und (U, ·) < (R∗ , ·) ein Untergruppe
der Einheitengruppe mit endlicher Ordnung. Dann ist U zyklisch.
|Md | = ϕ(d).
Also |Md | = ϕ(d) für alle d ∈ N mit d|n. Insbesondere ist Mn 6= ∅ und für jedes
u ∈ Mn gilt U = hui.
Folgerung 5.8.32. Es sei K ein endlicher Körper mit q ∈ N Elementen. Dann gilt
(ii) (K \ {0}, ·) ist zyklisch und für jedes d ∈ N mit d|(q − 1) gibt es genau ϕ(d)
Elemente der Ordnung d in (K \ {0}, ·),
r r r
(iii) Für jedes r ∈ N gilt (x + y)p = xp + y p für alle x, y ∈ K.
170
P (K) ∼
= Zp .
Ferner muss auch m := [K : P (K)] = dimP (K) K endlich sein. Daher gilt
K∼
= P (K)m ∼
= Zm m m
p und |K| = |Zp | = p .
Wegen r
p
p|
ν
für alle ν ∈ {1, 2, ..., pr − 1}, gilt nach Lemma 5.8.23
r r r
(x + y)p = xp + y p .
Satz 5.8.33. Es sei R ein Ring und A ⊂ R ein Ideal von R. Dann bildet
R/A = {r + A ⊂ R : r ∈ R}
Bemerkungen: (i) Ist R kommutativ, dann ist auch R/A kommutativ. Ist R ein
R mit Eins, so ist auch R/A ein Ring mit Eins (mit dem Einselement 1 + A).
(ii) Ist R 6= {0} ein kommutative Ring mit Eins und A ⊂ R ein Ideal, dann sind
äquivalent
171
(R/Kerϕ, +, ·) ∼
= Imϕ.
Insbesondere gilt für zwei Ideale A, B ⊂ R mit A ⊂ B: B/A ist ein Ideal von R/A
und es gilt
(R/A)/(B/A) ∼
= R/B.
Definition 5.8.34. Es sei R ein Ring und M = 6 R ein Ideal von R. Dann heisst
M maximal, wenn für jedes weitere Ideal A ⊂ R mit M ⊂ A folgt: M = A oder
A = R.
Satz 5.8.35. Es sei R 6= {0} ein Ring mit Eins und M ⊂ R ein Ideal von R. Dann
sind folgende Aussagen äquivalent:
A := Ra + M = {r · a + m ∈ R : r ∈ R ∧ m ∈ M}.
M ⊂ A und M =
6 A.
1=r·a+m
und damit
(r + M)(a + M) = r · a + M = 1 + M,
d.h. a + M ist eine Einheit von R/M. Damit folgt
(andernfalls besäße f eine Nullstelle in R). Daher ist das von f erzeugte Ideal
α ∈ R 7−→ α + M ∈ K
sieht man, dass K einen zu R isomorphen Teilkörper enthält, d.h. K läßt sich als
= (α0 β0 − α1 β1 ) + (α0 β1 + α1 β0 )T + α1 β1 f (T ) + M
= ((α0 β0 − α1 β1 ) + (α0 β1 + α1 β0 )T + M.
173
α0 + i · α1 ∈ C 7−→ α0 + α1 T + M ∈ K
C∼
= K.
M := f (T )Z2 [T ]
k = α0 + α1 · 2 + α2 · 22 .
g0 = 0 + M, g4 = T 2 + M,
g1 = 1 + M, g5 = 1 + T 2 + M,
g2 = T + M, g6 = T + T 2 + M,
g3 = 1 + T + M, g7 = 1 + T + T 2 + M.
174
+ g0 g1 g2 g3 g4 g5 g6 g7
g0 g0 g1 g2 g3 g4 g5 g6 g7
g1 g1 g0 g3 g2 g5 g4 g7 g6
g2 g2 g3 g0 g1 g6 g7 g4 g5
g3 g3 g2 g1 g0 g7 g6 g5 g4
g4 g4 g5 g6 g7 g0 g1 g2 g3
g5 g5 g4 g7 g6 g1 g0 g3 g2
g6 g6 g7 g4 g5 g2 g3 g0 g1
g7 g7 g6 g5 g4 g3 g2 g1 g0
Ferner gilt
g22 = g4
g23 = T 3 + M = T + 1 + =g3
g24 = T 3 4M = T 2 + T + 1 + =g6
g25 = T 5 + M = T 3 + T 2 + =T 2 + T + 1 + M = g7
g26 = T 6 + M = T 4 + T 3 + =T 2 + 1 + M = g5 ,
also
· g1 g2 g3 g4 g5 g6 g7
g1 g1 g2 g3 g4 g5 g6 g7
g2 g2 g4 g6 g3 g1 g7 g5
g3 g3 g6 g5 g7 g4 g1 g2
g4 g4 g3 g7 g6 g2 g5 g1
g5 g5 g1 g4 g2 g7 g3 g6
g6 g6 g7 g1 g5 g3 g2 g4
g7 g7 g5 g2 g1 g6 g4 g3
Satz 5.8.36. Es sei L ein Körper und f ∈ L[T ] ein Polynom mit gradf ≥ 1. Dann
gibt es einen Erweiterungskörper K von L, in dem f mindestens eine Nullstelle besitzt.
175
Beweisidee. Es sei o.B.d.A. f irreduzibel und M das von f in L[T ] erzeugte Haup-
tideal. Dann ist M maximal, also
K := L[T ]/M
ein Körper (vgl. Satz 5.8.35). Offensichtlich ist dann
L0 := {a + M ∈ K : a ∈ L}
ein zu L isomorpher Teilkörper von K, d.h. K läßt sich als Körpererweiterung von L
auffassen.
Ist nun m
X
f (T ) = fµ T µ
µ=0
fq (T ) = (T − α1 ) · · · (T − αq ).
|K| = q,
fq (T ) = (T − αi )2 s(T )
was unmöglich ist. Nun gilt für alle x, y ∈ K (vgl. Satz 5.8.32)
Bemerkungen: (i) Man kann zeigen, dass der in Folgerung 5.8.38 konstruierte
Körper mit q = pm Elementen bis auf Isomorphie eindeutig bestimmt ist. Wir beze-
Fq oder GF (q)
177
(ii) Eine Möglichkeit den Körper Fq zu realisieren ist die folgende: Zu m ∈ N bes-
timme ein irreduzibles Polynom f ∈ Zp [T ] mit gradf = m. Ist dann M das von f in
Fq = Zp [T ]/M
8
E. Galois, 1811-1832
Kapitel 6
Grundlagen der
Wahrscheinlichkeitsrechnung
P : P(Ω) −→ R
(W2) P (Ω) = 1,
(ii) P (∅) = 0.
178
179
Definition 6.1.3. Es sei Ω eine endliche Menge und f : Ω −→ R eine Abbildung mit
folgenden Eigenschaften:
(Z1) f (ω) ≥ 0 für alle ω ∈ Ω.
P
(Z2) ω∈Ω f (ω) = 1.
fP : ω ∈ Ω 7−→ P ({ω}) ∈ R
Bemerkung 6.1: Nach Lemma 6.1.4 kann man einen W -Raum sowohl durch die
Angabe eines W -Maß, als auch durch die Angabe einer Zähldichte beschreiben.
Definition 6.1.5. Ein W -Raum (Ω, P ) heisst Laplace-Raum, wenn das W -Maß P
gleichverteilt ist, d.h. es existiert eine Konstante c ∈]0, 1[, so dass gilt
P ({ω}) = c
für alle ω ∈ Ω.
Bemerkung und Beispiel 6.2: (i) (Ω, P ) ist genau dann ein Laplace1 -Raum, wenn
die Zähldichte
fP : ω ∈ Ω 7−→ P ({ω}) ∈ R
konstante ist. Die Konstante c aus Definition 6.1.5 ist nach (W 2) bzw. (Z2) gegeben
durch
1
c= .
|Ω|
Für jedes A ∈ (Ω) gilt dann
|A|
P (A) = .
|Ω|
(ii) Ein geeignetes Modell zur Beschreibung eines Würfelwurfs ist
Ω = {1, 2, 3, 4, 5, 6}
1
P. -S. Laplace, 1749-1827
181
|{2, 4, 6}| 1
P ({2, 4, 6}) = =
6 2
gegeben.
Viele Fragestellungen aus dem Bereich der endlichen W -Räume (insbesondere der
der Mächtigkeit endlicher Mengen ausgenutzt: Sind A und B zwei endliche Mengen,
dann gilt
Wiederholung, können wir das Urnenmodell heranziehen. Dabei denken wir uns eine
Urne gefüllt mit n ∈ N durchnummerierten Kugeln. Nun ziehen wir k-mal hin-
tereinander je eine Kugel aus der Urne (ohne hinzusehen) und notieren nach jeder
Ziehung die Nummer der gezogenen Kugel. Legen wir nach jeder Ziehung die gezo-
gene Kugel in die Urne zurück, so entspricht dieses Zufallsexperiment genau einer
das k-malige Ziehen einer Kugel ohne zurücklegen genau einer k-Permutation ohne
Wiederholung. Man betrachte, dass wir in beiden Fällen (d.h. mit/ohne Zurücklegen)
die Reihenfolge der gezogenen Kugel berücksichtigen müssen. Anhand des Urnenmod-
(ii) |P(Ω)| = 2n .
Dabei sei S(Ω) = {σ : Ω −→ Ω : σ ist bijektiv} die Permutationsgruppe von Ω.
Beweisidee. Sei o.B.d.A. Ω = {1, ..., n}.
(i) Definiere
f : σ ∈ S(Ω) 7−→ (σ(1), ..., σ(n)) ∈ Per∗k (Ω).
Dann ist f bijektiv, also gilt nach Satz 6.2.2 (ii)
Bei k-Permutationen aus einer endlichen Menge Ω ist die Reihenfolge der ausgewählten
Elemente entscheidend. Bei vielen Zufallsexperimenten ist die Anordnung der Ele-
yj = xσ(j)
Dann ist ∼ eine Äquivalenzrelation auf Ωk . Ist x ∈ Perk (Ω) (bzw. x ∈ Per∗k (Ω)),
dann heisst die Äquivalenzklasse von x bzgl. ∼ k-Kombination aus Ω mit (bzw.
ohne) Wiederholung. Wir bezeichnen die Menge der k-Kombinationen aus Ω mit
Kugel mit (bzw. ohne) zurücklegen ohne Berücksichtigung der Reihenfolge genau
Satz 6.2.5. Es sei Ω eine endliche Menge mit n ∈ N Elementen und k ∈ N. Dann
gilt
Beweis. (i) Es sei r := |Kom∗k (Ω)|. Dann existieren x(1) , ..., x(r) ∈ Per∗k (Ω), so dass
gilt [
Per∗k (Ω) = [x(p) ]∼ .
1≤p≤r
(p) (p)
Sei nun p ∈ {1, ..., r} und x(p) = (x1 , ..., xk ). Dann gilt
(p) (p)
[x(p) ]∼ = {(xσ(1) , ..., xσ(k) ) ∈ Per∗k (Ω) : σ ∈ Sk }.
Mit Folgerung 6.2.3 folgt daher
|[x(p) ]∼ | = |Sk | = k!.
Also ist nach Satz 6.2.2
r
X
(n)k = |Per∗k (Ω)| = |[x(p) ]∼ | = r · (k!).
p=1
Durch diese Zuordnung wird eine bijektive Abbildung f : Pk (Ω) −→ Kom∗k (Ω)
definiert. Die Behauptung folgt daher sofort aus Satz 6.2.5.
Aussagen treffen: Die Anzahl der möglichen Ausgänge beim k-maligen Ziehen einer
Beispiele 6.5: (i) Beim Skatspiel werden aus 32 Karten je 10 Karten an die drei
Spieler ausgeteilt, 2 Karten bilden den sogenannten Skat. Wie groß ist die Wahschein-
lichkeit daf”ur, dass man nach dem Austeilen 3 Buben, darunter den Kreuzbuben hat.
Die Auszahl der möglichen 10 Karten, die wir nach dem Austeilen auf der Hand hal-
ten, entspricht genau der Anzahl der 10-elementigen Teilmengen einer 32-elementigen
Menge. Ist also Ω die Menge aller möglichen Handkarten nach dem Austeilen, so gilt
32
|Ω| = .
10
Sei nun A ⊂ Ω die Menge aller Skatblätter, die drei Buben, darunter den Kreuzbuben
enthalten. Für jedes ω ∈ Ω tritt genau einer der drei folgenden Fälle ein:
d.h. es gibt genau 3 Bubenkonfigurationen. Die restlichen 7 Karten sind eine Kom-
3 28
|A| 7
= 32 .
|Ω| 10
(ii) Das Geburtstagsproblem: n Personen besuchen eine Party. Wie gross ist die
Wir nummerieren die Tage eine Jahres von 1 bis 365 durch und setzen
|Ωn \ An | = (365)n .
Wegen |Ωn | = 365n (vgl. Satz 6.2.2) folgt aus Lemma 6.1.2
(365)n
P (An ) = 1 − P (Ωn \ An ) = 1 − .
365n
187
Dann ist
w : j ∈ {0, 1, ..., n} 7−→ P (Aj ) ∈ R
eine Zähldichte auf {0, 1, ..., n}.
r rote Kugeln und s schwarze Kugeln. Wir ziehen nacheinander n Kugeln aus der
Urne ohne Zurücklegen. Wie groß ist die Wahrscheinlichkeit dafür, dass genau k der
Wir denken uns die r + s Kugeln durchnummeriert, die Menge der roten Kugeln
bezeichnen wir mit R, die Menge der schwarzen Kugeln mit S. Unsere Elementar-
|A|
P : A ∈ (Ω) 7−→ ∈ R.
|Ω|
Es sei nun Ak ∈ P(Ω) die Menge aller n-Kombinationen aus M ohne Wiederholung,
Ak : {T ∈ Ω : |T ∩ R| = k}.
Für jedes T ∈ Ak ist T ∩ R eine k-Kombination aus R ohne Wiederholung, von denen
es nach Satz 6.2.5 genau kr gibt. Ferner ist T ∩ S eine (n − k)-Kombination aus S
188
s
ohne Wiederholung, von denen es n−k
gibt. Daraus erhalten wir
r s
|Ak | = ·
k n−k
und damit
r s r+s
P (Ak ) = .
k n−k n
Aus Lemma 6.3.1 folgt daher wegen Ω = A0 ∪ ... ∪ An .
n n
X X r s r+s
P (Ω) = P (Ak ) = = 1.
k=0 k=0
k n − k n
Ein Zufallsexperiment, bei dem ein Ereignis A eintreten kann, werden n-mal wieder-
holt. Für 1 ≤ v ≤ n bezeichnen wir mit Av das Ereignis, dass Av beim v-tem Versuch
eintritt. Wir nennen die Versuchsreihe ein Bernoulli2 -Experiment von Umfang n,
wenn gilt
(ii) Der Ausgang des v-ten Experiments hängt nicht vom Ausgang der vorangegan-
Sei nun A ein Ereignis und p := P (A). Wie hoch ist die Wahrscheinlichkeit dafür,
dass bei einem Bernoulli-Experimant von Umfang n das Ereignis A genau k-mal
2
J. Bernoulli, 1654-1705
189
Ω := {0, 1}n .
Die Wahrscheinlichkeit dafür, dass A im v-ten Versuchen eintritt (also die ω für
Daher ist die Wahrscheinlichkeit dafür, dass A in der Versuchsreihe genau k-mail
pk (1 − p)n−k .
Wir müssen also noch die Anzahl der Elemente in der Menge
B(n, k) := {ω ∈ Ω : ω1 + ... + ωn = k}
Beispiel 6.7: Bei dem Brettspiel ”MÄDN” braucht man zu Beginn mindestens eine
6 unter drei Würfelwürfen, um eine eigene Spielfigur ins Spiel zu bringen. Wie groß
Sei A das Ereignis: Der Würfelwurf ist 6= 6. Dann ist p = P (A) = 65 . Die Wahrschein-
lichkeit dafür, dass A dreimal hintereinander eintritt (d.h. man kommt nicht in der
125
1− = 0, 4212....
216
Beispiel 6.8: Wir betrachten eine Urne, die mit r ∈ N0 roten und s ∈ N0 schwarzen
Kugeln gefüllt sei. Wir ziehen nacheinander zwei Kugeln ohne diese zurückzulegen
|R1 | r(r+s−1) r
P (R1 ) = |Ω|
= (r+s)(r+s−1) = r+s ,
|S1 | s(r+s−1) s
P (S1 ) = |Ω|
= (r+s)(r+s−1) = r+s ,
|R2 | r(r+s−1) r
P (R2 ) = |Ω|
= (r+s)(r+s−1) = r+s .
Wann wir nun berücksichtigen, dass wir bereits nach dem ersten Ziehen wissen, dass
sich das Verhältinis der roten und schwarzen Kugeln geändert hat, so können wir die
Wahrscheinlichkeit dafür, dass bei der zweiten Ziehung eine rote Kugel ge zogen wird
r
nicht mehr durch r+s
berechnen.
War nämlich die erste Kugel schwarz, so ist die Wahrscheinlichkeit dafür, dass die
r sr r+s P (S1 ∩ R2 )
= · = .
r+s−1 (r + s)(r + s − 1) s P (S1 )
Entsprechend ist die Wahrscheinlichkeit dafür, dass man beim zweiten Ziehen eine
rote Kugel erhält unter der Voraussetzung, dass die erste gezogene Kugel ebenfalls
rot war
r−1 (r − 1)r r+s P (R1 ∩ R2 )
= · = .
r+s−1 (r + s)(r + s − 1) r P (R1 )
Diese Beobachtung führt zu
Satz 6.4.1. Es sei (Ω, P ) ein W -Raum und B ∈ P(Ω), so dass gilt P (B) > 0. Dann
ist
P (A ∩ B)
A ∈ P(Ω) 7−→ P (A|B) := ∈R
P (B)
ein W -Maß auf Ω. Für A ∈ P(Ω) heisst P (A|B) die bedingts Wahrscheinlichkeit von
A unter der Voraussetzung B.
192
Beweis. (Übung)
(W1) gilt nach Lemma 6.1.2 (iv) wegen A ∩ B ⊂ B.
(W2) P (Ω|) = P P(Ω∩B)
(B)
= PP (B)
(B)
= 1.
(W3) Sind A1 , A2 ∈ P(Ω) disjunkt, so sind auch A1 ∩ B und A2 ∩ B disjunkt, also
P ((A1 ∪ A2 ) ∩ B)
P ((A1 ∪ A2 )|B) =
P (B)
P ((A1 ∩ B) ∪ (A2 ∩ B))
=
P (B)
= P (A1 |B) + P (A2 |B).
Bemerkung: Sind A1 , ..., An−1 ∈ P(Ω) gegeben mit P (A1 ∩ ... ∩ An−1 ) > 0, dann
folgt, wegen
Beispiel 6.9: Eine Lieferung von 60 Glühbirnen enthalte 6 defekte Glühbirnen. Wir
wählen nacheinander 5 Glühbirnen aus. Wie groß ist die Wahrscheinlichkeit dafür,
Sei dazu Ak das Ereignis : In einer 5-Permutation aus der Menge der Glühbirnen
ohne Wiederlegung ist die k-te Birne nicht defekt. Gesucht ist
mit
54(59)4 54 53(58)3 53
P (A1 ) = = , P (A2 |A1 ) = = ,
(60)5 60 (59)4 59
52(57)2 52 51(56)1 51
P (A3 |(A1 ∩ A2 )) = = , P (A4 |(A1 ∩ A2 ∩ A3 )) = = ,
(58)3 58 (57)2 57
50
P (A5 |(A1 ∩ ... ∩ A4 )) = .
56
Daraus folgt
54 · · · 50 54 60
P (A1 ∩ ... ∩ A5 ) = = ≈ 0, 579.
60 · · · 56 5 5
Satz 6.4.3. Es sei (Ω, P ) ein W -Raum und A1 , ..., An ∈ P(Ω) paarweise disjunkt, so
dass gilt
194
Beweis. Es ist n n
[ [
E = E∩ = E ∩ ( Aj ) = (E ∩ Aj ).
j=1 j=1
P (Ak )P (E|Ak )
P (Ak |E) = Pn , 1 ≤ k ≤ n.
j=1 P (E|Aj )P (Aj )
Der prozentuale Anteil an der Produktion und der prozentuale Ausschuss sind in fol-
Anlage A B C
Produktionsanteil 50% 40% 10%
Ausschuss 3% 4% 6%
a) Wie groß ist die Wahrscheinlichkeit dafür, dass eine zufällig gewählte Birne defekt
ist?
b) Wie groß ist die Wahrscheinlichkeit dafür, dass eine defekte Birne in Anlage A
produziert wurde?
Es sei E das Ereignis: Glühbirne defekt und A, B, C die Ereignisse: die Glühbirne
= 0, 5 · 0, 03 + 0, 4 · 0, 04 + 0, 1 · 0, 06
= 0, 037.
Beispiel 6.11: (i) Zwei ideale Münzen werden geworfen. Die Menge der Elementar-
ereignisse ist also Ω = {0, 1}2 = {(0, 0), (0, 1), (1, 0), (1, 1)} (0: Kopf, 1:Zahl) und
|A|
P : A ∈ P(Ω) 7−→ ∈ R.
|Ω|
196
Sei nun A das Ereignis: ”höchstens einmal Kopf” und B das Ereignis ” mindestens
A = {(0, 1), (1, 0), (1, 1)}, B = {(1, 0), (0, 1)} und A ∩ B = B.
(ii) Nun werden drei ideale Münzen geworfen. A und B seien wie in (i), also Ω =
B = {(0, 1, 1), (0, 1, 0), (1, 0, 1), (1, 0, 1), (0, 0, 1), (1, 1, 0)}
und
Also ist
3 4 6
P (A ∩ B) = = · = P (A) · P (B),
8 8 8
d.h. A und B sind unabhängig.
Kapitel 7
7.1 Block-Codes
Die Codierungstheorie beschäftigt sich mit der Entwicklung von Verfahren, um Nachrichten
möglichst effizient und fehlerfrei zu übertragen. Die Problematik besteht darin, dass
Effizienz und Fehlerfreiheit einander widerstrebende Ziele sind. Möchten wir Daten
übertragen, so brauchen wir einen Sender, einen Kanal und einem Empfänger.
oder auch ein Speichermedium, z. B. eine CD. Eine Nachricht, die meist in dig-
italer Form vorliegt, soll über den Kanal an den Empfänger übertragen werden.
Dabei werden durch den Kanal häufig Störungen verursacht, beispielsweise atmo-
sphärisches Rauschen odre Kratzer auf der CD, so dass die Nachricht den Empfänger
in verfälschter Form erreicht. Der Codierungstheorie liegt nun die Idee zugrunde,
zu entdecken oder sogar zu korrigieren (damit beschäftigt sich die sogenannte Kanal-
codierung).
197
198
In der obigen Skizze hat der Codierer nun das ”‘Anhängen”’ der zusäthlichen Informa-
tion, bzw. die Umwandlung einer Nachricht in einen bestimmten Code zur Aufgabe.
Der Decodierer versucht, wie der Name schon sagt, aus einer empfangenen codierten
beschäftig sich z.B. die Quellencodierung mit dem Problem, zu sendenden Nachrichten
in ein effiziente digitale Form zu bringen, also die Redundanz einer zu sendenden In-
Für q = 2 nennen wir C binär. In der Praxis wird F für gewöhnlich als endlicher
finden. In der Praxis benötigt man häufig den Begriff des Abstandes zweier Codewörter.
Es gibt verschiedene Möglichkeiten diesen zu definieren, wir werden uns hier aber die
Beweis. (i) und (ii) ergeben sich direkt aus der Definition der Hamming-Distanz.
(iii) Nach Definition der Hamming-Distanz ist d(u, v) die kleinste Anzahl von Ko-
ordinatenänderungen, die man braucht, um u in v zu überführen. Diese Zahl ist
natürlich kleiner oder gleich der kleinsten Anzahl von Koordinatenänderungen, die
wir benötigen, um zunächst u in w und dann w in v zu überführen.
definieren.
Br (u) := {v ∈ F n : d(u, v) ≤ r}
(i) C heisst t-fehlererkennend, falls für alle c ∈ C die Kugel Bt (c) ausser c kein
weiteres Codewort aus C enthält, d.h. Bt (c) ∩ C = {c}.
Definition 7.1.6. Es sei C ein Code der Länge n über dem Alphabet F .
d(C) = min{d(c, c0 ) : c, c0 ∈ C, c 6= c0 }
(ii) Ist d(C) = d und |C| = M , so sagen wir, dass C ein (n, M, d)-Code über F ist.
Beweis. (i) Sei c ∈ C und v ∈ Bt (c). Dann gilt d(v, c) ≤ t ≤ d − 1. Also ist v = c
oder v ist kein Coderwort.
(ii) Für c, c0 ∈ C mit c 6= c0 erhalten wir Be (c) ∩ Be (c0 ) = ∅. Denn gäbe es ein v im
Durchschnitt, so wäre wegen der Dreiecksungleichung
2e + 1 ≤ d ≤ d(c, c0 ) ≤ d(c, v) + d(v, c0 ) ≤ 2e
ein Widerspruch.
Bemerkung 7.1: Bei der Auswahl eines ”guten” (n, M, d)-Codes wird man ver-
suchen, n möglichst klein zu wählen, M möglichst groß (um viele verschiedene Nachrichten
codieren zu können) und dabei möglichst großes d zu erhalten (um möglichst viele
C = {(c, c, ..., c) : c ∈ F } ⊂ F n
d(C) = n und damit kann C bis zu (n − 1)/2 Fehler korrigieren. Für diese gute
Fehlerkorrektur zahlen wir allerdings einen hohen Preis, denn von n übertragenen
Zeichen enthält nur eines die eigentliche Information. Allgemeiner können wir für
{(c, ..., c) : c ∈ C} ⊂ F tn
von C definieren.
7.2 Maximum-Likelihood-Decodierung
Definition 7.2.1. Wir betrachten ein Alphabet F mit q Elementen, sowie einen Code
C ⊂ F n . Für c ∈ C und v ∈ F n bezeichne P (v|c) die Wahrscheinlichkeit, dass v emp-
fangen wird, unter der Bedingung, dass c gesendet wurde. Eine Maximum-Likelihood-
Decordierung, kurz MLD, decodiert einen Vektor v ∈ F n zu einem Codewort c ∈ C,
für welches
P (v|c) = max
0
P (v|c0 )
c ∈C
201
ist. Gibt es mehrere Codeworte, für die das Maximum angenommen wird, so wird
zufällig ausgewählt.
Wir machen nun die folgenden Annahmen, die für viele in der Praxis vorkom-
q−1
(i) Jedes Symbol a ∈ F wird mit der Wahrscheinlichkeit p < q
verfälscht. Dies
mit Wahrscheinlichkeit 12 .
(ii) Wird ein Symbol falsch übertragen, so sind die (q − 1) möglichen Fehler all
Kanäle mit den Eigenschaften (i) und (ii) nennen wir q-när symmetrisch. Im Spezial-
fall q = 2 heisst der Kanal binär symmetrisch. Unter diesen Voraussetzung ist die
P (v|c) = max
0
P (v|c0 )
c ∈C
d(v, c) = min
0
d(v, c0 )
c ∈C
202
ist.
Fehler korrigiert. Dabei wird für alle Codewort die Wahrscheinlichkeit einer falschen
Decodierung minimiert.
Definition 7.2.2. Es sei C ein Code der Länge n über dem Alphabet F . Wir nennen
C perfekt bzw. C einen perfekten Code, falls ein e ∈ N0 existiert, so dass
[
Fn = Be (c)
c∈C
Aussage (i) im nachfolgenden Satz ist auch unter der Bezeichnung Kugelpackungss-
chranke zu finden:
Satz 7.2.3. Es sei C ein Code der Länge n über dem q-elementigen Alphabet F .
(ii) Genau dann ist ein nicht-trivialer Code C perfekt, wenn in (i) die Gleichheit
gilt.
Beweis. (i) Die Bedingung d(C) ≥ 2e + 1 liefert Be (c) ∩ Be (c0 ) = ∅ für alle Codeworte
c 6= c0 . Für jedes u ∈ F n hat die Kugel Be (u) gleich viele Elemente, nämlich
e
X n
|Be (u)| = (q − 1)j ,
j=0
j
203
denn |{v ∈ F n : d(u, v) = j}| = nj (q − 1)j . Daher können wir wie folgt abschätzen:
e
n n
[ X X n
q = |F | ≥ Be (c) = |Be (c)| = |C| (q − 1)j . (7.2.1)
c∈C
c∈C j=0
j
(ii) Gilt in (i) die Gleichheit, so überdecken die Kugel vom Radius e um die Codeworte
ganz F n disjunkt und C ist perfekt. Ist umgekehrt C perfekt und wird daher ganz
F n mit Kugel von Radius e um die Codeworte disjunkt überdeckt, so gilt nun wegen
|C| > 1 auch d(C) ≥ 2e + 1 und die Abschätzung (7.2.1) ist ein Gleichheit.
Beispiel 7.4: Triviale Codes (|C| = 1) und der ganze Raum F n sind pefekt. Ferner
von den Kugeln mit Radius e um die Beiden Codeworte überdeckt. Wir nennen diese
Sei nun n ∈ N und F fest gegeben. Auf der Suche nach guten Codes C ⊂ F n möchten
wir einerseits eine große Informationsrate erreichen, d.h. |C| möglichst groß wählen,
andererseits aber auch viele Fehler korrigieren können d.h. eine große Minimaldistanz
haben. Diese Forderungen widersprechen sich offensichtlich, denn je größer |C| wird,
desto kleiner wird der minimale Abstand zwischen den Codeworten. Den Zusammen-
hang klärt die folgende von R. C. Singleton (1964) stammende Abschätzung für die
zitiert wird.
Satz 7.2.4. Sei C ein Code der Länge n über dem Alphabet F mit q Elementen. Ist
d die Minimaldistanz von C, so gilt
d ≤ n − logq |C| + 1.
Es wird deutlich, dass die Singleton-Schranke eine obere Schranke darstellt, es gilt
nämlich:
|C| ≤ q n−d+1 .
204
Definition 7.2.5. Codes, welche die Singleton-Schranke erreichen, für welche also
d(C) = n−logq |C|+1 ist, heissen MDS-Codes (Maximum Distance Separable Codes).
Bei den bisher behandelten Codes ist es erforderlich jedes einzelne Codewort (und
insbesondere für jedes Wort, das mit dem jeweiligen Code codiert werden kann auch
bekannt sind. In diesem Abschnitt werden wir uns nun mit einer speziellen Klasse
von Codes beschäftigen, den sogenannten linearen Codes. Wir werden sehen, dass es
hierbei wesentlich einfachere Möglichkeiten gibt, als die Speicherung jedes einzelnen
Hinweis: Es hat sich in der Codierungstheorie eingebürgert, die Codeworte als Zeilen-
vektoren zu schreiben.
Definition 7.3.2. Es sei F ein Körper und n ∈ N.
(i) Für u = (u1 , ..., un ) ∈ F n setzen wir
wt(u) = d(u, 0) = |{i ∈ {1, ..., n} : ui 6= 0}|
und nennen wt(u) das Gewicht von u. Die Abbildung wt : F n −→ N0 heisst die
Gewichtsfunktion auf F n .
6 C ⊂ F n , so nennen wir
(ii) Ist {0} =
wt(C) = min{wt(c) : 0 6= c ∈ C}
das Minimalgewicht von C. Für C = {0} setzen wir wt(C) = 0.
205
Um das nächste Lemma bewiesen zu können, benötigen wir noch eine weitere Eigen-
schaft der Hammingdistanz und zwar ist diese Metrik translationsinvariant ((d(u, v) =
d(u + w, v + w)) unter der Voraussetzung, dass F bzgl. + eine abelsche Gruppe ist.
In diesem Abschnitt beschreibt F einen Körper, (F, +) ist also in jedem Fall eine
Die folgende Aussage erleichtert nun wesentlich den Aufwand zur Berechnung der
Minimaldistanz:
Lemma 7.3.3. Für einen linearen Code C gilt wt(C) = d(C).
Beweis. Ist |C| = 1, so gilt die Aussage aufgrund der gemachten Festsetzungen richtig.
Für nichttriviales C gilt
d(C) = min{d(c, c0 ) : c, c0 ∈ C, c 6= c0 }
= min{d(c − c0 , ) : c, c0 ∈ C, c 6= c0 }
= min{wt(c) : 0 6= c ∈ C}
= wt(C).
Bemerkung 7.5: Lemma 7.3.3 besagt, dass die Linearität eines Codes den Aufwand
zur Berechnung der Minimaldistanz reduziert. Statt den Abständen zwischen zwei
beliebigen Codeworten sind nur die Abstände zum Nullvektor zu berechnen. Wir wer-
den ferner sehen, dass algebraische Strukturen sowohl in der Codierung als auch in der
von linearen Codes einfach die Angabe einer Basis. Bei Codes ohne Struktur müssen
hingegen meist alle Codewörter abspeichert werden und Codierung und Decodierung
Hinweis: Im Englischen bezeichnet man die Kontrollmatrix auch als parity check
matrix, betrachte ferner, dass in der Literatur manchmal auch die Transponierte von
Bemerkung 7.6: (i) Für einen [n, k, d]-Code C über einem Körper F mit q Ele-
menten, kann eine erzeugende Matrix G ∈ Mat(k, n, F ) durch die Verwendung ele-
Spalte mit einem von Null verschiedenen Skalar auf die folgende Standardform
1 0 ··· 0
0 1 . . . ...
A =: (Ek |A)
. . .
.. . . .. 0
0 ··· 0 1
(ii) Für die Generatormatrix G und die Kontrollmatrix H eines linearen Codes gelten
H · GT = 0 und G · H T = 0.
207
daraus eine Kontrollmatrix für den entsprechenden Code zu konstruieren. Wie genau
Beweis. Es seien g1 , ..., gk ∈ F n die Zeilenvektoren von G und h1 , ..., hn−k ∈ F n die
Zeilenvektoren von H. Dann genügt es zu zeigen, dass gilt:
hgi , hj i = 0 1 ≤ i ≤ k, 1 ≤ j ≤ n − k.
mit der Eins in der i-ten Spalte und der letzten Null in der k-ten Spalte. Außerdem
ist
hj = (−a1,j , ..., −ak,j , 0, ..., 1, ..., 0)
mit der Eins in der (k + j)-ten Spalte. Daraus ergibt sich:
Es gibt eine Möglichkeit, wie man mit Hilfe einer Kontrollmatrix für einen lin-
earen Code auf sehr einfache Weise dessen Minimalabstand bestimmen kann. Diesen
Satz 7.3.6. Ist C ein q-närer linearer Code der Länge n und der Dimension k über
F mit der Kontrollmatrix H. Dann sind die folgenden beiden Aussagen äquivalent:
(i) d = d(C).
208
(ii) Je d − 1Spalten von H sind linear unabhängig, aber es gibt d linear abhängig
Spalten.
Beweis. ”(i) =⇒ (ii)”, Seien h1 , ..., hn die Spaltenvektoren von H und 1 ≤ ν1 < ... <
νr ≤ n Indizes, so dass die Spalten hν1 , ..., hνr linear abhängig sind, wobei r minimal
gewählt ist. Dann gibt es einen Vektor 0 6= (cν1 , ..., cνr ) ∈ F r , so dass gilt:
Wegen 0 = c · H T = cν1 hTν1 + ... + cνr hTνd sind die d Spalten hν1 , ..., hνd linear abhängig.
”(ii) =⇒ (i)” folgt analog.
7.4 Syndrom-Decodierung
Wie die Linearität gewinnbringend beim Decodieren eingesetzt werden kann, zeigt
die folgende Syndrom-Decodierung. Es sei hier jedoch vermerkt, dass das Verfahren
s(w) = w · H T
Syndrom von w.
209
f = c̃ − c ∈ c̃ + C
vH T = uH T ⇐⇒ v − u ∈ C ⇐⇒ v + C = u + C,
zwei Vektoren haben also genau dann das gleiche Syndrom, wenn sie in der gleichen
Äquivalenzklasse des Faktorraum F n /C liegen. Damit legt des Syndrom von c̃ ein-
wt(fv ) = min{wt(v + c) : c ∈ C}
bestimmen (dies erfordert Aufwand, falls |C| groß ist), so wird bei der Syndrom-
Decodierung das empfangene Wort c̃ zum Codewort c = c̃ − fc̃ decodiert. Anstatt die
unter den |F |n−k Nebenklassenführern derjenige gesucht, der das gleiche Syndrom wie
werden:
0 c1 c2 ··· cM −1
a1 a1 + c1 a1 + c2 · · · a1 + cM −1
.. .. .. ..
. . . .
as as + c 1 as + c 2 · · · as + cM −1
210
Mit M = |C| = q k und s = q n−k −1. Dabei besteht die erste Zeile des Arrays aus allen
wählen wir für jedes 1 ≤ i ≤ s aus der menge F n \ (C ∪ (a1 + C) ∪ ... ∪ (ai−1 + C))
einen Vektor ai mit minimalem Gewicht und bilden die i-te Zeile des Arrays aus den
so dass gilt:
w = ai + cj (c0 := 0),
d.h. wir decodieren w zu cj . Tatsächlich brauchen wir zur Decodierung nicht das
gesamte Array, sondern nur die Vektoren a1 , ..., as und die zugehörigen Syndroms
s(a1 ), ..., s(an ). Ist dann w ∈ F n und s(w) = HwT 6= 0, dann gibt es 1 ≤ i ≤ s mit
s(w) = s(ai ),
Beispiel 7.7: Sei C = {0000, 1011, 0101, 1110}. Wir betrachten den von der Erzeuger-
matrix !
1 0 1 1
G=
0 1 0 1
erzeugten binären [4, 2, 2]-Code C. Mit Satz 7.3.5 erhalten wir als Kontrollmatrix
!
1 0 1 0
H= .
1 1 0 1
(x1 , x2 , x3 , x4 ) ∈ C ⇐⇒ x1 + x2 = 0 ∧ x1 + x2 + x4 = 0.
211
ai s(ai ) = ai · H T
0000 00
1000 11
0100 01
0010 10.
Wird also z.B. w = 1111 empfangen, so decodieren wir w wegen s(w) = 01 = s(a2 )
zu c∗ = w − a2 = 1011.