You are on page 1of 114

Skriptum fr die Vorlesungen Statistik I und II im Studienjahr 2002/2003

Gerhard Arminger
und Mitarbeiter

2002 bei den Verfassern, berarbeitete und neugesetzte Fassung

Vorwort
Studiert man Sozial- oder Wirtschaftswissenschaften, stellt man sehr bald mit Erschrecken fest, da das Fach Mathematik, dem man sich endgltig nach der Schule entronnen glaubte, in Mathematik- und Statistik-Lehrveranstaltungen der Hochschulen wieder auftaucht. Wenn man auch zunchst geneigt ist, dies der Bswilligkeit von Studienplanern und Hochschullehrern anzulasten, so berzeugt man sich durch einen Blick auf andere Fakultten, da neben den klassischen Naturwissenschaften auch andere Fcher, die von der Biologie und Medizin bis zu Geographie und Geschichtsforschung reichen, zunehmend von dieser Mathematisierung betroffen sind. Unter allen mathematischen Disziplinen, die in Substanzwissenschaften praktisch angewendet werden, zeichnen sich die Wahrscheinlichkeitstheorie und Statistik wohl durch die grte Verbreitung und Anwendungshugkeit aus. Was hat das fr einen Grund? Man erkannte, da die einfachen Wenn-Dann-Beziehungen, aus denen wissenschaftliche Erklrungen bestehen, meistens unzulssige Vereinfachungen darstellen: Beim Beobachten und Experimentieren erleben wir immer wieder, da Vorgnge, die unter scheinbar gleichen Bedingungen ablaufen, zu verschiedenen, aber hnlichen Resultaten fhren. Der Schritt vom Wenn zum Dann ist mit Ungewiheit belastet; der Zufall verdeckt die Struktur von Wirkungszusammenhngen. An die Stelle von Wenn-Dann-Aussagen treten Aussagen ber Wahrscheinlichkeiten von Ereignissen. Untersuchungsgegenstand der Statistik sind Vorgnge, deren Resultate nicht mit Sicherheit vorhersehbar sind und die man daher als Zufallsexperimente bezeichnet. In diesem Sinne ist jede Messung, deren Resultate streuen, z.B. die Ausbildung der individuellen Krpergre oder das Steueraufkommen einer Region ein Zufallsexperiment. Bemerkenswert ist nun aber, da die Ergebnisse solcher Zufallsexperimente nicht regellos (chaotisch) anfallen. Sie lassen vielmehr Gesetzmigkeiten erkennen, die freilich nicht als einfache Wenn-Dann-Aussagen darstellbar sind: Niemand wei beispielsweise das Datum seines Todes. Eine Generation stirbt aber im Verlauf eines Jahrhunderts in ganz gesetzmiger Weise ab. Die Menschen sind verschieden gro, ihre Krpergren sind aber nicht regellos verteilt. Wir wissen, da Zwerge und Riesen nicht huger sind als Mittelwchsige. Extreme Resultate des Wachstumsvorganges sind seltener als Durchschnittsresultate. Die Gesetzmigkeiten zuflliger Ereignisse geben dem Unvorhersehbaren einen Rahmen, machen Unsicherheit kalkulierbar. Durch geeignete Manahmen kann man Unsicherheit verringern. Das Fachgebiet der Statistik umfat einen Groteil der dazu verwendeten Methoden. Dieses Skriptum ist als Hilfsmittel zum leichteren Studium gedacht. Es ersetzt nicht den Besuch der Vorlesung und die regelmige Vorbereitung auf die bungen, indem man selbst die gestellten bungsaufgaben durchrechnet. Schriftliches ben ist die wichtigste Voraussetzung fr das Erlernen statistischer Methoden wie auch anderer Wissenschaften. Dies wurde bereits von Christian Frchtegott Gellert (1715 - 1769) erkannt. Er schreibt in seiner Vorlesung: Von den Fehlern der Studierenden bei der Erlernung der Wissenschaften, insbesonderheit der Akademien: Ja, meine Herren, da wir unsere Kraft zu denken und unsere Gedanken ausdrcken, so wenig durch schriftliche Versuche strken, dieses ist der letzte Fehler, den ich noch berhren will; ein unvergeblicher Fehler! . Die jetzige Studentengeneration ist nicht die erste, die mit Statistik zu kmpfen hat. Im Lehrplan des Vereinigten Friedrichswerdener und Friedrichstdter Gymnasiums Berlin fr die Prima im Jahre 1795/1796 ndet man: Mittwoch: 10 - 11 Uhr: Geographie und Statistik. Zum Schlu sei Georg Christoph Lichtenberg mit der zeitlosen Klage eines Mathematikprofessors zitiert: Es ist unglaublich, wie unwissend die studierende Jugend auf Universitten kommt. Wenn ich nur zehn Minuten rechne oder geometrisiere, so schlft ein viertel derselben sanft ein.

ii

Inhaltsverzeichnis
1 Deskriptive Statistik 1.1 Grundbegriffe . . . . . . . . . . . 1.2 Absolute und relative Hugkeiten 1.3 Empirische Verteilungsfunktion . . 1.4 Deskriptive Lagemae . . . . . . 1.5 Streuungsmae . . . . . . . . . . 1 1 3 5 6 8 10 10 12 13 15 17 17 20 24 24 26 29 29 32 35 35 35 36 37 38 38 38 41 41 42 44 47 47 48 50 55 55 57 66 68 69

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

Grundbegriffe der Wahrscheinlichkeitsrechnung 2.1 Zufllige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Bedingte Wahrscheinlichkeit und stochastische Unabhngigkeit . 2.4 Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Diskrete Verteilungen 3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Spezialflle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stetige Verteilungen 4.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Spezialflle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mehrdimensionale Verteilungen 5.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grenzwertstze 6.1 Linearkombination von Zufallsvariablen 6.2 Stochastische Ungleichungen . . . . . . 6.3 Schwaches Gesetz der groen Zahlen . 6.4 Zentraler Grenzwertsatz . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Grundbegriffe der mathematischen Statistik 7.1 Grundgesamtheit und Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Stichprobenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Punkt und Intervallschtzung 8.1 Punktschtzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Schtzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Intervallschtzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Signikanztests 9.1 Aufbau von Signikanztests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Fehler erster Art und zweiter Art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Signikanztests fr spezielle Fragestellungen . . . . . . . . . . . . . . . . . . . . . . .

10 Korrelation und Regression 10.1 Einfache Korrelation . . . . . . . . . . . . . . . . . . . 10.2 Klassisches Regressionsmodell . . . . . . . . . . . . . . 10.3 Einfache Zeitreihenanalyse . . . . . . . . . . . . . . . . 10.4 Verallgemeinerungen des klassischen Regressionsmodells 10.5 Varianz- und Kovarianzanalyse . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

iii

11 Abhngigkeit zwischen qualitativen und ordinalen Merkmalen 11.1 Assoziationsmae fr qualitative Merkmale . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Der 2 -Test auf statistische Unabhngigkeit . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Assoziationsmae und Tests fr ordinale Merkmale . . . . . . . . . . . . . . . . . . . . 12 Wirtschafts- und Sozialstatistik 12.1 Datenbasis . . . . . . . . . 12.2 Bevlkerungsstatistik . . . 12.3 Erwerbsstatistik . . . . . . 12.4 Indexrechnung . . . . . .

73 73 76 76 79 79 79 85 86

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Anhang Mengenlehre . . . . . . . . . . . . . Das Summenzeichen . . . . . . . . . Exponentialfunktion und Logarithmus Differential- und Integralrechnung . . Matrizenrechnung . . . . . . . . . . . Griechisches Alphabet . . . . . . . . Literatur

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

91 . 91 . 92 . 93 . 94 . 96 . 102 103 104 104 105 106 107 109

Tabellen Die Standardnormalverteilung . . . . . . . Quantile der t -Verteilung . . . . . . . . . . Quantile der 2 -Verteilung . . . . . . . . . 95%-Quantile der Fn1,n2;0.95 -Verteilung . . . Verteilungsfunktion der Poisson-Verteilung

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

iv

1
1.1

Deskriptive Statistik
Grundbegriffe

Bei statistischen Erhebungen (z.B. Volkszhlung, Mikrozensus, Arbeitsstttenzhlung, Einkommens- und Verbrauchsstichprobe) fallen in der Regel Tausende von Einzeldaten an. Diese im einzelnen unberschaubare Datenmenge wird durch die Methoden der deskriptiven Statistik auf mglichst wenige, aber aussagefhige Zahlen reduziert. Wichtige Beispiele sind absolute und relative Hugkeiten, empirische Verteilungsfunktionen, Mittelwerte und Indexzahlen. Die Darstellung der Daten durch Zahlen wird durch graphische Darstellungen und Tabellen untersttzt. Grundlage aller statistischen berlegungen sind die statistischen Einheiten, die als Trger statistischer Merkmale fungieren. Die fr eine Untersuchung relevanten Einheiten fat man zu einer Grundgesamtheit zusammen. Eine ausgewhlte Teilmenge der Grundgesamtheit bezeichnet man als Stichprobe. Eine Grundgesamtheit ist nach sachlichen, zeitlichen, rumlichen und inhaltlichen Kriterien abzugrenzen. Von jedem beliebigen Objekt mu entschieden werden knnen, ob es zur Grundgesamtheit gehrt oder nicht. Beispiel : Die deutsche Bevlkerung ist keine wohldenierte Grundgesamtheit. Hingegen ist die Menge Einwohner der Bundesrepublik Deutschland am 1.1.1990 um 12 Uhr MEZ eine sachlich, rumlich und zeitlich genau abgegrenzte Menge von Individuen und kann daher als Grundgesamtheit dienen. Statistische Mengen (Grundgesamtheiten oder Stichproben), die auf einen Zeitpunkt (z.B. auf einen Stichtag) bezogen sind, heien Bestandsmassen (z.B. Einwohner der DDR am 1. Okt. 1990); Massen, die auf einen Zeitraum bezogen sind, heien Bewegungsmassen (z.B. Geburten in der Bundesrepublik Deutschland vom 1.1.1989 bis zum 31.12.1989). An jeder statistischen Einheit werden Merkmale oder Variable festgestellt, z.B. bei Personen das Alter, das Einkommen, der Beruf, das Geschlecht etc. Merkmale sind nur dann fr statistische Zwecke brauchbar, wenn die Ausprgungen eines Merkmals zwei Eigenschaften aufweisen. Erstens, die Merkmalsausprgungen schlieen einander aus. Zweitens, jeder statistischen Einheit kann eine Merkmalsausprgung zugeordnet werden. Beispiel : Das Merkmal A Religionsbekenntnis mit den Ausprgungen {A1 = katholisch, A2 = protestantisch} ist kein statistisches Merkmal, da es die zweite Bedingung nicht erfllt. Hingegen ist das Merkmal B Religionsbekenntnis mit {B1 = katholisch, B2 = protestantisch, B3 = sonstige} als statistisches Merkmal zu verwenden. Die Zuordnung von Merkmalsausprgungen zu statistischen Einheiten bezeichnet man als Messung. Die sorgfltige Durchfhrung einer Messung ist ein zentrales Problem jeder Wissenschaft. Die Messungen werden fr jede statistische Einheit durchgefhrt und auf einer Urliste notiert. Verwaltet werden diese Datenstze heute mit Hilfe von EDV-gesttzten Datenbanken. Wir geben ein Beispiel fr eine Urliste an. Es bezieht sich auf eine Stichprobe der Wohnbevlkerung in der Bundesrepublik Deutschland zum 1.1.2000. Nummer 1 2 3 4 . . . Geschlecht weiblich weiblich mnnlich mnnlich . . . weiblich Beruf Kauffrau Studentin Schlosser Beamter . . . unbekannt Alter 42 23 33 59 . . . 29 Kinderzahl 2 0 unbekannt 4 . . . 0

An diesem Beispiel ist zu erkennen, da der Begriff der Messung in der Statistik allgemeiner ist als in der Umgangssprache, in der als Messung die Zuordnung einer Zahl zu einer Untersuchungseinheit verstanden wird. In der Statistik wird ausgehend von der Urliste ebenfalls jeder Person fr jede Variable eine Zahl zugeordnet. Diese Zahlen werden jedoch zunchst nur als Kodierungen verwendet und haben nur fr bestimmte Variable eine numerische Bedeutung. Die Kodierung von Merkmalsausprgungen mu in einem Kodierungsschlssel festgelegt werden. Bei dieser Kodierung knnen auch Zusammenfassungen der Merkmalsausprgungen erfolgen. Fr das Beispiel verwenden wir folgende Kodierung:

Variable Geschlecht

Merkmalsausprgung mnnlich weiblich unbekannt Arbeiter Angestellter Sonstige unbekannt x = Altersangabe in Jahren unbekannt x = Kinderzahl unbekannt

Kodierung 1 2 -9999 1 2 3 -9999 x -9999 x -9999

Beruf

Alter Kinderzahl

Fhrt man diese Kodierung durch, erhlt man die sogenannte Datenmatrix, bei der alle Messungen mit Zahlen angegeben sind und die fehlenden Werte mit -9999 gekennzeichnet sind. Nummer 1 2 3 4 . . . Geschlecht 2 2 1 1 . . . 2 Beruf 2 3 1 3 . . . -9999 Alter 42 23 33 59 . . . 29 Kinderzahl 2 0 -9999 4 . . . 0

n 1.1.1 Skalenniveau

Fr die Verwendung statistischer Mazahlen, die im nchsten Abschnitt diskutiert werden, ist die Unterscheidung von Merkmalen nach ihrem Me oder Skalenniveau von groer Bedeutung. Nominales Meniveau: Wenn sich die Merkmalsausprgungen eines statistischen Merkmals fr eine statistische Untersuchung beliebig umordnen lassen, liegt ein nominal oder qualitativ skaliertes Merkmal vor. Typische Beispiele sind Geschlecht oder Beruf. Die Zahlen, die Merkmalsausprgungen dieser Variablen zugeordnet werden, haben keine inhaltliche Bedeutung, Rechnungen wie Addition und Subtraktion oder Vergleiche durch Ordnungsrelationen sind inhaltlich bedeutungslos. Ordinales Meniveau: Wenn sich die Merkmalsausprgungen eines statistischen Merkmals nach einem Kriterium ordnen lassen, die Abstnde zwischen den Merkmalsausprgungen aber nicht bekannt sind, so liegt ein ordinales Merkmal vor. Die Zahlen, die als Kodierungen diesen Merkmalsausprgungen zugeordnet sind, mssen zwar die Rangfolge der Merkmalsausprgungen wiedergeben, die Abstnde zwischen den Kodierungen knnen aber beliebig gewhlt werden. Typische Beispiele sind Schulnoten mit den Merkmalsausprgungen sehr gut, gut, befriedigend, ausreichend und mangelhaft oder Befragungen in den Sozial- und Wirtschaftswissenschaften, in denen Skalen mit Ausprgungen der Form stimme zu, teils teils, lehne ab, den befragten Personen vorgelegt werden. Wiederum sind Rechnungen wie Addition und Subtraktion bedeutungslos. Am besten macht man sich dieses Faktum bei den Schulnoten klar, fr deren Merkmalsausprgungen die Kodierung {1, 2, 3, 4, 5, 6} genauso zulssig ist wie die Kodierung {0, 2/3, 5, 99.9, 375, 1000}. Die Berechnung eines Mittelwertes fhrt jedoch zu vllig unterschiedlichen Ergebnissen. Aus dieser berlegung folgt, da die Durchschnittsnoten, die fr die Zuweisung von Studienpltzen berechnet werden, aus der Sicht des Statistikers unsinnig sind. Quantitatives Meniveau: Wenn sich die Merkmalsausprgungen eines statistischen Merkmals sowohl ordnen lassen als auch die Abstnde zwischen den Merkmalsausprgungen sich angeben lassen, spricht man von quantitativen oder metrischen Merkmalen. Weisen sie darber hinaus einen 2

natrlichen Nullpunkt auf, liegt eine Ratio oder Verhltnisskala vor. Die Kodierung dieser Merkmale mu sowohl die Ordnung als auch die Abstnde zwischen den Merkmalen wiedergeben. Die Bildung von Summen und Differenzen ist inhaltlich bedeutungsvoll. Typische Beispiele metrisch skalierter Merkmale sind Hugkeiten (z.B. Kinderzahl in einer Familie, Zahl der Autounflle an einer Kreuzung) oder Variable mit beliebig feiner Einteilung der Merkmalsausprgungen wie Alter, Gre und Gewicht. Eine wichtige Unterscheidung ist die Unterteilung der metrischen Merkmale in stetige Merkmale (z.B. Alter, Gre, Gewicht), in denen die Merkmalsausprgungen beliebige Werte der reellen Zahlenachse annehmen knnen, und diskrete Merkmale, in denen nur bestimmte Merkmalsausprgungen in R (reelle Zahlen) angenommen werden knnen. Beispiele sind die oben genannten Hugkeiten. Ist ein diskretes Merkmal sehr fein unterteilt (z. B. Geldbetrge in Cent), wird das diskrete Merkmal wie ein stetiges Merkmal behandelt und daher als quasistetig bezeichnet.

1.2 Absolute und relative Hugkeiten


Zur Analyse der Daten einer statistischen Erhebung fat man zunchst fr jedes einzelne Merkmal die Daten zusammen, indem aus jeweils einer Spalte der Datenmatrix die absoluten Hugkeiten jeder Merkmalsausprgung berechnet werden. Frher erfolgte diese Berechnung durch Strichlisten, heute werden Computer fr die Datenverarbeitung eingesetzt. Beispiel : Fr die qualitative Variable A Religionsbekenntnis mit den Ausprgungen und Kodierungen {A1 = rmisch-katholisch = 1, A2 = protestantisch = 2, A3 = konfessionslos = 3, A4 = sonstiges Bekenntnis = 4, A5 = unbekannt = 9999} liege folgende Kodierung der Urliste vor: 2 3 1 1 3 2 1 4 9999 9999 3 1 1 1 4 3 2 2 1 1 9999 1 2 4 3 2 Die Berechnung der absoluten Hugkeiten hm fr jede Merkmalsausprgung Am ergibt die Tabelle: Hugkeitstabelle zum Religionsbekenntnis Merkmalsausprgung m 1 2 3 4 5 rmisch katholisch protestantisch konfessionslos sonstiges Bekenntnis unbekannt Summe A1 A2 A3 A4 A5 1 2 3 4 -9999 Symbol Kodierung absolute Hugkeit (hm ) 9 6 5 3 3 26 relative Hugkeit (p m) 0.346 0.231 0.192 0.115 0.115 1.000

Neben den absoluten Hugkeiten hm , m = 1, . . . , 5 stehen die relativen Hugkeiten p m , die aus den hm fr alle M Merkmalsausprgungen berechnet werden: p m = hm
M

z.B.

p 1 =

hm
m=1

9 9 = = 0.34615 9+6+5+3+3 26

(1.1)

Die Gesamtzahl der Elemente wird mit N in der Grundgesamtheit und mit n in der Stichprobe bezeichnet, so da gilt:
M

h =
m=1 M

hm = N

(in einer Grundgesamtheit)

(1.2)

h =
m=1

hm = n

(in einer Stichprobe)

(1.3)

Die Summe der relativen Hugkeiten mu 1 ergeben. Die Bedeutung der relativen Hugkeiten liegt in der Tatsache, da mit ihnen Grundgesamtheiten oder Stichproben unterschiedlicher Gre verglichen werden knnen. Die graphische Darstellung eines qualitativen oder ordinalen Merkmals oder eines metrischen Merkmals mit wenigen Ausprgungen erfolgt durch ein Stabdiagramm oder ein Kreisdiagramm. Im Stabdiagramm werden auf der Abszisse die Merkmalsausprgungen Am und auf der Ordinate die relativen Hugkeiten p m aufgetragen. Im Kreisdiagramm werden die Winkel m (in Grad ) der Kreissektoren proportional zu den relativen Hugkeiten p m gewhlt: m = p m 360 (1.4)

Beispiel : Auf die Frage nach ihrer Parteiprferenz gaben 50 Studenten Antworten, die sich in folgender Hugkeitstabelle zusammenfassen lassen: Tabelle: Parteiprferenzen Merkmalsausprgung CDU/CSU SPD FDP GRNE Symbol A1 A2 A3 A4 hi 21 19 4 6 p i 0.42 0.38 0.08 0.12 i 151.5 136.8 28.8 43.2

Im Unterschied zu qualitativen, ordinalen oder diskreten Merkmalen liegen bei stetigen oder quasistetigen metrischen Merkmalen hug so viele verschiedene Merkmalsausprgungen vor, da bei einer einfachen Hugkeitsauszhlung keine Reduktion der Datenflle erreicht wird. In diesem Fall ist es erforderlich, die Merkmalsausprgungen zu Klassen zusammenzufassen, die ein neues metrisches Merkmal mit weniger Merkmalsausprgungen ergeben. Als Beispiel betrachten wir das Merkmal Brenndauer (in Stunden) an 200 Leuchtstoffrhren, fr die z.B. folgende Werte auftreten: 127.53 144.27 443.17 99.40 207.89 ...

Zur Berechnung der absoluten und relativen Hugkeiten werden fr jede Klasse k = 1, . . . , K eine untere Klassengrenze ak und eine obere Klassengrenze ak+1 bestimmt. Der realisierte Wert xi der Stichprobe oder der Grundgesamtheit wird der Klasse k zugewiesen, wenn xi ein Element des halboffenen Intervalls (ak , ak+1 ] ist. Tabelle: Brenndauer von Leuchtstoffrhren (in Stunden) ak 1 2 3 4 5 untere Klassengrenze 0 100 200 300 400 obere Klassengrenze 100 200 300 400 1000 Klassenmitte 50 150 250 350 700 hk 27 49 37 28 59 200 p k 0.135 0.245 0.185 0.140 0.295 1.000 fk 0.00135 0.00245 0.00185 0.00140 0.00049

Man beachte, da die Abstnde zwischen den Klassengrenzen nicht gleich sind. Sie betragen jeweils 100 in den ersten 4 Klassen und 600 in der fnften Klasse. Durch diese Klassenbildung lt sich die Brenndauer als neues statistisches Merkmal mit 5 Ausprgungen auffassen, dessen Merkmalsausprgungen die Klassenmitten ck sind, durch die das metrische Skalenniveau der Variablen Brenndauer beibehalten wird. (Die Klassenmitte wird als reprsentativer Wert einer Klasse gewhlt.) Man beachte, da das metrische Skalenniveau nur dann erhalten bleibt, wenn keine offenen Klassen (d.h. a1 = oder aK = +) verwendet werden. Offene Klassen sollten daher vermieden werden. Die Anzahl der Klassen sollte so gewhlt werden, da die Darstellung sowohl in tabellarischer- als auch in graphischer Form bersichtlich bleibt. 4

Die graphische Darstellung erfolgt wiederum durch Stabdiagramme, bei denen die Klassenmitten ck auf der Abszisse und die relativen Hugkeiten p k auf der Ordinate fr k = 1, . . . , K aufgetragen werden. Eine zweite Mglichkeit ist die Darstellung durch Histogramme. Das Histogramm besteht aus Rechtecken, die ber den Intervallen (ak , ak+1 ] errichtet werden. Die Flche des Rechtecks entspricht der relativen Hugkeit p k . Da die Intervalle (ak , ak+1 ] der Lnge nach variieren knnen, mssen die Hhen fk der Rechtecke wie folgt berechnet werden: fk = p k , a k +1 a k k = 1, . . . , K (1.5)

Die Rechteckshhe ist nicht identisch mit der relativen Hugkeit, da die Breite der Klasse bercksichtigt wird. In der letzten Tabelle ist die Hhe der einzelnen Klassen angegeben, so da unmittelbar das Histogramm erstellt werden kann. Liegt eine offene Klasse vor, kann kein Histogramm gezeichnet werden.

1.3

Empirische Verteilungsfunktion

Ist ein Merkmal metrisch, so lt sich aus den relativen Hugkeiten die empirische Verteilungsfunktion berechnen. Das metrische Merkmal werde mit X bezeichnet, der Wert x ist ein beliebiger Wert aus R. X (x) des Merkmals X an der Stelle x gibt an, wie gro die relative Die empirische Verteilungsfunktion F Hugkeit ist, da die Variable X einen Wert x annimmt. Die Verteilungsfunktion ist deniert durch: X (x) = 1 F h
M

hm Im (x)
m=1

(1.6)

Die Funktion Im (x) ist die Indikatorfunktion. Sie nimmt den Wert 1 an, wenn der zu hm zugehrige Wert xi (i -te Merkmalsausprgung der Variablen X ) x ist und nimmt den Wert 0 an, wenn xi > x ist. Wenn alle Mewerte xi unterschiedlich sind, erhlt man hm = 1 und M = h = n . Daraus folgt: X (x) = 1 F M
M

Im (x)
m=1

(1.7)

Fr die empirische Verteilungsfunktion der Brenndauer von Leuchtstoffrhren erhlt man: Tabelle: empirische Verteilungsfunktion der Brenndauer ak 1 2 3 4 5 untere Klassengrenze 0 100 200 300 400 obere Klassengrenze 100 200 300 400 1000 Klassenmitte 50 150 250 350 700 p k 0.135 0.245 0.185 0.140 0.295 k (ak+1 ) F 0.135 0.380 0.565 0.705 1.000

Man beachte, da die empirische Verteilungsfunktion einer Klasse k immer an der oberen Klassengrenze ak+1 durch Summierung der relativen Hugkeiten berechnet wird. Fr die Werte der Klasse k , die unterhalb der oberen Klassengrenze ak+1 liegen, ist daher die Verteilungsfunktion zu gro. Fr beliebige Werte x wird daher zwischen der unteren und der oberen Klassengrenze (unter der Annahme, da die Werte innerhalb einer Klasse gleich verteilt sind) linear interpoliert. Wenn x in der Klasse k liegt, gilt: X (ak ) + X (x) = F F X (ak ) X (ak+1 ) F F (ak+1 ak ) (x ak ) (1.8)

Man beachte, da die empirische Verteilungsfunktion nur fr metrische Variablen deniert ist. Liegt eine ordinale Variable vor, so lassen sich zwar die K Merkmalsausprgungen A1 < A2 < . . . < AK ordnen, die Lage dieser Merkmalsausprgungen auf R ist aber nicht bekannt. Trotzdem werden in manchen

Anwendungen die relativen Hugkeiten auch fr ordinale Hugkeiten wie im letzten Beispiel kumuliert. Diese kumulierte Funktion H : {A1 , . . . , AM } [0, 1] bezeichnet man als kumulierte relative Hugkeit:
m

H (Am ) =
j =1

p j

fr

m = 1, . . . , M

(1.9)

1.4

Deskriptive Lagemae

Die gesamte statistische Information ber ein Merkmal ist in den relativen Hugkeiten enthalten. Dieser Informationsgehalt lt sich jedoch hug ohne Informationsverlust durch wenige Kennzahlen darstellen. Die wichtigsten dieser Kennzahlen sind Lage- und Streuungsmae. Wir gehen zunchst auf die Lagemae ein. 1.4.1 Der Modus Der Modus oder Modalwert ist die hugste Ausprgung einer Verteilung. Er wird mit M bezeichnet. Liegt eine metrische Variable in gruppierter Form vor, ist die hugste Ausprgung die Modalklasse. Im Beispiel zur Parteiprferenz ist der Modus die Ausprgung CDU/CSU. Der Modus kann sowohl fr qualitative als auch fr ordinale als auch fr metrische Variable verwendet werden. 1.4.2 Der Median Als Median oder Zentralwert bezeichnet man den Wert x0.5 , fr den gilt: X (x0.5 ) = 0.5 F (1.10)

Der Median teilt die Grundgesamtheit oder Stichprobe in zwei gleiche Hlften. Die erste Hlfte besitzt Merkmalsausprgungen x0.5 , die zweite Hlfte besitzt Merkmalsausprgungen x0.5 . Zur Berechnung von x0.5 werden die Werte x1 , . . . , xn einer metrischen Variablen zunchst geordnet, so da gilt: x[1] x[2] . . . x[i ] . . . x[n] Ist die Zahl n ungerade, so ist x0.5 = x[(n+1)/2] Ist die Zahl n gerade, so wird der Median deniert als: x0.5 = 1 x + x[n/2+1] 2 [n/2] (1.13) (1.12) (1.11)

Beispiel : Gegeben sei eine Stichprobe von monatlichen Einkommen (in EUR) von Studenten: 698 712 519 832 1316 497 781 1213 550 437 Die geordnete Liste der Einkommen ist: 437 497 519 550 698 712 781 832 1213 1316 Die Stichprobengre n ist 10. Der Median ist daher: x0.5 = (x[5] + x[6] )/2 = (698 + 712)/2 = 705 (1.15) (1.14)

Liegen die Daten nur in klassizierter Form wie im Beispiel ber die Brenndauer von Leuchtstoffrhren vor, so mu zunchst die Klasse k bestimmt werden, in der der Median liegt. Diese Klasse heit Medianklasse. Fr sie gilt: X (ak ) < 0.5 F X (ak+1 ) k ist Medianklasse F (1.16)

Hat man die Medianklasse k ermittelt, kann unter der Annahme der Gleichverteilung der Werte innerhalb dieser Klasse der Median linear interpoliert werden: (ak+1 ak ) X (ak )) x0.5 = ak + (0.5 F (1.17) X (ak+1 ) F X (ak ) F Beispiel : Aus der Hugkeitstabelle der Brenndauer von Leuchtstoffrhren erhlt man als Medianklasse k = 3, da gilt: F (a3 = 200) = 0.380 < 0.5 0.565 = F (a4 = 300) Daraus lt sich x0.5 berechnen: 300 200 x0.5 = 200 + (0.500 0.380) = 264.864 0.565 0.380 Liegt eine ordinale Skala vor, so lt sich nur eine Ausprgung bestimmen, fr die gilt: H (Ak1 ) < 0.5 H (Ak ) (1.18)

(1.19)

(1.20)

Diese Ausprgung Ak kann als Medianausprgung oder kurz als Median des ordinalen Merkmals A bezeichnet werden. 1.4.3 Quantile Der Begriff des Medians lt sich auf den Begriff des -Quantils verallgemeinern. Gibt man einen Wert [0, 1] vor, so lt sich fr ein metrisches Merkmal X der Wert x bestimmen, fr den gilt: X (x ) = F (1.21) Wichtige Spezialflle sind die Quartile {x0.25 , x0.75 } und die Dezile {x0.1 , x0.2 , . . . , x0.9 }. Die Quantile werden wie der Median durch Auszhlen bei Vorliegen einer geordneten Liste {x[1] , . . . , x[n] } bestimmt. Das x -Quantil ist fr eine geordneten Liste {x[1] , . . . , x[n] } wie folgt deniert. , falls n keine ganze Zahl ist, gilt: k ist die auf n folgende x[k] ganze Zahl x = (1.22) 1 x , falls n eine ganze Zahl ist, gilt: k = n + x [k ] [k +1] 2 Bei klassizierten Daten werden die Quantile durch lineare Interpolation bestimmt. Beispiel : Das Unternehmen, das die im letzten Beispiel untersuchten Leuchtstoffrhren herstellt, mchte die Garantiezeit fr die Brenndauer der Leuchtstoffrhren so festsetzen, da maximal 15% der Rhren ersetzt werden mssen. Dieser Wert ist das 0.15-Quantil der Verteilung. Die Klasse, in der dieses Quantil liegt, ist k = 2, da gilt: F (100) = 0.135 < 0.150 0.380 = F (200) Das 0.15 Quantil wird durch lineare Interpolation ermittelt: 200 100 (0.15 0.135) = 106.123 x0.15 = 100 + 0.380 0.135 Das Unternehmen kann daher als Garantiedauer einen Wert von 106 Stunden festsetzen. 1.4.4 Das arithmetische Mittel Das bekannteste Lagema fr eine metrische Variable X ist das arithmetische Mittel x . Die Beobachtungen {x1 , . . . , xn } werden gemittelt, d.h.: 1 x = n
n

(1.23)

(1.24)

xi
i =1

(ungewichtetes Mittel)

(1.25)

Treten bestimmte Merkmalsausprgungen huger als einmal auf, so lt sich die Berechnung vereinfachen, indem die Merkmalsausprgungen xm mit hm multipliziert werden: x = 1 h
M M

xm h m =
m=1 m=1

xm p m

(gewichtetes Mittel)

(1.26)

Auf die letzte Gleichung mu immer dann zurckgegriffen werden, wenn die Daten nur in klassizierter Form vorliegen. Dann sind die Werte xm die Klassenmitten. Beispiel : Die mittlere Brenndauer der Leuchtstoffrhren lt sich als gewichtetes arithmetisches Mittel berechnen: x = 50 0.135 + 150 0.245 + 250 0.185 + 350 0.140 + 700 0.295 = 345.25 (1.27)

Das arithmetische Mittel kann nicht fr ordinale und qualitative Merkmale berechnet werden, da fr diese die Addition nicht deniert ist. Sowohl x0.5 als auch x charakterisieren die Lage der Verteilung von X . Hug sind x0.5 und x die Werte, um die sich die meisten Werte der Verteilung anordnen. Das arithmetische Mittel ist zwar das gebruchlichste Lagema; es empehlt sich aber, immer auch den Median zu berechnen, da dieser unempndlicher gegenber Ausreiern als das arithmetische Mittel ist.

1.5

Streuungsmae

Zustzlich zur Lage der Verteilung ist man an der Streuung der Verteilung interessiert. Die Streuung besagt, ob sich die Werte xi , i = 1, . . . , n einer metrischen Variablen X eng um einen Wert gruppieren, oder ob sie weit von diesem Wert entfernt liegen. 1.5.1 Die Spannweite Das einfachste Streuungsma ist die Spannweite R . Liegen die Daten als geordnete Liste {x[1] , . . . , x[n] } vor, so ist: R = x[n] x[1] (1.28)

Die Spannweite hat den Nachteil, da nur zwei extreme Werte zur Berechnung der Streuung verwendet werden, so da nur ein kleiner Teil der Information der Daten ausgentzt wird. 1.5.2 Varianz und Standardabweichung Um alle Werte in die Berechnung der Streuung einzubeziehen, liegt es nahe, die Summe aller Differenzen zwischen xi , i = 1, . . . , n und x zu bilden. Es gilt jedoch:
n n

(xi x) =
i =1 i =1

xi x n=0

(1.29)

Dieser Nachteil lt durch Verwendung von Absolutbetrgen oder Quadraten vermeiden. Als empirische Varianz s 2 wird die durchschnittliche quadrierte Abweichung vom Mittelwert verwendet, bei der groe Abweichungen berproportional gewichtet werden. Liegt eine Grundgesamtheit vor, so gilt: 1 s = N
2 N

(xj x) 2
j =1

(1.30)

Fr eine Stichprobe gilt: 1 s = n1


2 n

(xi x) 2
i =1

(1.31)

Die unterschiedlichen Denitionen werden in der statistischen Methodenlehre begrndet. Sind die Daten gruppiert oder klassiziert, mssen die obigen Formeln durch Gewichtung modiziert werden:
K

s =
2 k =1

(xk x) 2p k

(fr eine Grundgesamtheit)

(1.32)

s2 =

n n1

(xk x) 2p k
k =1

(fr eine Stichprobe)

(1.33)

Die Varianz ist immer positiv. Um auf die ursprngliche Maeinheit zu kommen, verwendet man die Standardabweichung: s = s2 (1.34) Beispiel : Die Varianz und die Standardabweichung der Brenndauer von Leuchtstoffrhren sind aus einer Stichprobe von n = 200 aus der angegebenen Hugkeitstabelle zu berechnen. Das arithmetische Mittel ist gegeben mit: x = 345.25, siehe Gleichung (1.27). Tabelle: Berechnung der Varianz xk 50 150 250 350 700 p k 0.135 0.245 0.185 0.140 0.295 1.000 Die empirische Varianz der Stichprobe betrgt: s2 = 200 59914.937 = 60216.018 [Stunden2 ] 199 (1.35) (xk x) 2 87172.563 38122.563 9072.563 22.563 125847.563 (xk x) 2p k 11768.296 9340.028 1678.424 3.159 37125.031 59914.937

Die Standardabweichung ist dann: s = 245.389 [Stunden] In diesem Beispiel ndet man daher eine starke Streuung der Brenndauern um den Mittelwert. Man beachte, da s 2 und s genauso wie x nur fr metrische Variablen deniert sind. 1.5.3 Der Variationskoefzient Zum Zweck des Vergleichs von Streuungen aus verschiedenen Grundgesamtheiten oder Stichproben bentigt man ein dimensionsloses Ma der Streuung. Ein solches Ma ist der Variationskoefzient fr positive metrische Variable X. v= s x (fr x und s aus der Grundgesamtheit oder aus der Stichprobe) (1.36)

Beispiel : Mittelwert und Standardabweichung des Brotpreises fr ein kg Brot in der Bundesrepublik Deutschland betragen x = 3.25 EUR, s 2 = 1.96 EUR2 , in der Schweiz x = 5 CHF, s 2 = 4.6 CHF2 . In welchem Land streut der Brotpreis strker? In beiden Lndern streut, gemessen am Durchschnitt, der Brotpreis ungefhr gleich, da gilt: 1.96 4.6 vD = = 0.431 vCH = = 0.429 (1.37) 3.25 5 1.5.4 Der Quartilsabstand Als Alternative zur Standardabweichung lt sich auch der Quartilsabstand q verwenden: q = x0.75 x0.25 (1.38)

Das Ma q gibt die Lnge eines Intervalls an, auf dem die mittleren 50% der Verteilung liegen. Als bung berechne man q fr das Beispiel mit der Brenndauer der Leuchtstoffrhren. 9

Grundbegriffe der Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik, das sich mit der Untersuchung der Gesetzmigkeiten von Ereignissen befat, deren Eintreffen vom Zufall abhngt. Zu den Grundbegriffen der Wahrscheinlichkeitsrechnung zhlen Zufallsexperimente, Ereignisse und Wahrscheinlichkeit.

2.1

Zufllige Ereignisse

Untersuchungsgegenstand der Wahrscheinlichkeitsrechnung sind Zufallsexperimente. Unter einem Zufallsexperiment versteht man ein Experiment, das beliebig oft unter identischen Bedingungen wiederholt werden kann. Dieses Experiment hat eine bestimmte Anzahl unterschiedlicher Ergebnisse, die zufallsbedingt sind, d.h. im voraus nicht eindeutig bestimmt werden knnen. Beispiele: Bei einem Wrfelwurf ist nicht vorhersehbar, wieviele Augen {1, 2, . . . , 6} die Kopfseite des Wrfels zeigen wird. Das Ergebnis eines Wrfelwurfes die oben liegende Augenzahl bezeichnet man als zuflliges Ereignis. Besteht das Zufallsexperiment aus der Ziehung einer Karte aus einem Skat-Kartenspiel (32 Karten), so kann das zufllige Ereignis durch ein zweidimensionales Merkmal beschrieben werden, nmlich durch die Farbe {Kreuz, Pik, Herz, Karo} und durch das Bild {7, 8, . . . , Knig, As}. In einem Materiallager bilden die Abgnge der verschiedenen Produkte pro Monat ein Zufallsexperiment. Dieses Experiment wiederholt sich monatlich. Das zufllige Ereignis (Versuchsausgang) wird mehrdimensional durch die Hhe der Abgnge der einzelnen Produkte beschrieben. Allerdings ist anzumerken, da gerade in den Sozial- und Wirtschaftswissenschaften auch nicht reproduzierbare Phnomene als Zufallsexperimente modelliert werden. ber die inhaltliche Bedeutung des zuflligen Ereignisses kommen wir jetzt zur mathematischen Begriffsbestimmung. Gegeben sei ein Zufallsexperiment, dessen Ausgang durch ein ein- bzw. mehrdimensionales Merkmal beschrieben wird. Denition: 1. Jeder Wert, den ein Merkmal annehmen kann, (jeder mgliche Ausgang eines Zufallsexperiments) heit Elementarereignis (Symbol ). 2. Die Menge aller Elementarereignisse heit Ereignisraum (Merkmalsraum, Stichprobenraum; Symbol ). 3. Jede Teilmenge A des Ereignisraums nennt man ein Ereignis. A .

4. Man spricht vom Eintreffen des Ereignisses A, wenn das bei einem Versuch realisierte Elementarereignis ein Element aus der Menge A ist ( A). Ereignisse werden gewhnlich mit groen lateinischen Buchstaben gekennzeichnet, die hug noch mit einem Index versehen sind (A1 , A2 ), um die Ereignisse durchzunumerieren. Elementarereignisse werden dagegen mit kleinen griechischen Buchstaben gekennzeichnet, die auch indiziert sein knnen. i A heit: das Elementarereignis i ist Element des Ereignisses A. Beispiel : Wir betrachten zunchst ein Experiment mit einem Wrfel. Die 6 Elementarereignisse sind die Augenzahlen i = 1, . . . , 6. Der Ereignisraum ist {1, 2, . . . , 6}. Wir denieren die Ereignisse: Ai : Es werden i Augen gewrfelt. Ai = {i } A : Es wird eine gerade Augenzahl gewrfelt. A = {2, 4, 6} B : Es wird eine ungerade Augenzahl gewrfelt. B = {1, 3, 5} A3 tritt also dann ein, wenn eine 3 gewrfelt wird, und A tritt ein, wenn eine 2, 4 oder 6 gewrfelt wird. Beispiel : Wird ein Experiment mit zwei Wrfeln durchgefhrt, so sind die 36 Elementarereignisse die Kombinationen der Augenzahlen der beiden Wrfel. Zum Beispiel bedeutet = (2, 4), da der erste Wrfel 2 und der zweite Wrfel 4 Augen zeigt. 10

Weitere Beispiele fr Ereignisse sind: A : Mit dem ersten Wrfel wurden 3 Augen gewrfelt, A = {(3, j )|j = 1, . . . , 6}. B : Mit beiden Wrfeln werden gerade Augenzahlen geworfen, B = {(i, j )|i = 2, 4 oder 6, j = 2, 4 oder 6}. Beispiel : Bei der Untersuchung ber die Lebensdauer einer Glhbirne besteht die Menge der mglichen Ausgnge aus allen nichtnegativen reellen Zahlen: = {x |x 0}. A sei das Ereignis, da eine Glhbirne mindestens 100 Stunden brennt: A = {x |x 100}. Wenn die Birne nach 90 Stunden ausfllt, so ist A nicht eingetroffen. 2.1.1 Verknpfungsoperationen zwischen Ereignissen Im folgenden seien A, B, Ai , i N, ohne da dies extra erwhnt wird. Denition: 1. Das Ereignis A B tritt genau dann ein, wenn entweder A oder B eintreten oder beide Ereignisse A und B gleichzeitig eintreten. A B heit Vereinigungsereignis von A und B . 2. Das Ereignis A B tritt genau dann ein, wenn sowohl A als auch B eintritt. A B heit Durchschnittsereignis von A und B . 3. Das Ereignis i =1 Ai = A1 A2 . . . tritt ein, wenn alle Ai eintreten (wenn das realisierte Elementarereignis Element aller Ai ist, fr alle i N gilt: Ai ). Beispiel : In einem Wrfelexperiment mit einem Wrfel seien die Ereignisse A und C wie folgt deniert: A : Es wird eine gerade Augenzahl gewrfelt, C : Es wird eine 2 oder 3 gewrfelt. Dann ist A C = {2} und A C = {2, 3, 4, 6}. Denition: 1. Zwei Ereignisse A und B heien gleich (in Zeichen A = B ), wenn A genau dann realisiert wird, wenn B realisiert wird. Dies impliziert, da A und B dieselben Elementarereignisse enthalten. 2. Tritt mit dem Ereignis A auch das Ereignis B ein, so zieht das Ereignis A das Ereignis B nach sich. In Zeichen A B . Das Ereignis U1 , da mit einem Wrfel eineAugenzahl grer als 6 geworfen wird, kann ebenso unmglich eintreten wie das Ereignis U2 , da eine Zahl zwischen 1 und 2 gewrfelt wird. Nach Denition sind diese Ereignisse gleich. Es gibt nur ein unmgliches Ereignis. Denition: 1. Das Ereignis { } (oder auch ) heit unmgliches Ereignis (es tritt nie ein). 2. heit das sichere Ereignis (es tritt immer ein).

3. Das Ereignis, das genau dann eintritt, wenn A nicht eintritt, heit das zu A komplementre Ereignis Ac . 4. Zwei Ereignisse A und B schlieen einander aus (sind unvertrglich oder disjunkt ), wenn ihr gemeinsames Auftreten unmglich ist, also wenn A B = . 5. Die Ereignisse A1 , . . . , An heien Zerlegung von , wenn in einem Versuch genau eines dieser Ereignisse realisiert werden mu. A1 , . . . , An bilden eine Zerlegung, wenn gilt: a) A1 . . . An = b) Ungleiche Ereignisse schlieen einander paarweise aus, d.h. Ai Aj = fr alle Paare i = j . Beispiel : Wir betrachten wieder ein Wrfelexperiment mit A = {1, 3, 5} und B = {2, 4, 6}. Die Ereignisse A und B schlieen einander aus, da es keine Augenzahl gibt, die sowohl gerade als auch ungerade ist. Da aber entweder eine gerade oder ungerade Augenzahl auftreten mu, gilt Ac = B und B c = A. Da zueinander komplementre Ereignisse wegen A Ac = immer eine Zerlegung bilden, sind A und B eine Zerlegung von . A1 , . . . , A6 bilden eine weitere Zerlegung. 11

2.1.2 Potenzmenge Sind in einem Zufallsexperiment nur endlich viele Versuchsausgnge mglich, so besteht die Menge aller Ereignisse aus der Potenzmenge von , d.h. aus der Menge aller mglichen Teilmengen von (die leere Menge und die Menge selbst sind auch Teilmengen von ). Besteht aus n Elementarereignissen, so gibt es 2n verschiedene Ereignisse (Teilmengen). Fr = {1, 2, 3} ist die Potenzmenge gegeben mit: P ( ) = {{}, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}.

2.2 Wahrscheinlichkeit
Mit der Ausnahme des unmglichen Ereignisses besteht fr alle Ereignisse die Mglichkeit, in einem Zufallsexperiment aufzutreten. Die Ereignisse besitzen nun einen bestimmten Wahrscheinlichkeitsgrad der Realisierung, der durch eine Zahl zwischen 0 und 1 reprsentiert wird. So weist im fairen Wrfelexperiment z.B. das Ereignis A (gerade Augenzahl) eine grere Wahrscheinlichkeit auf als das Ereignis C (Augenzahl 2 oder 3). Wenn man ein Zufallsexperiment mit einem Zehn-Pfennig-Stck durchfhrt, so unterstellt man fr Zahlund Wappendieselbe Wahrscheinlichkeit. blicherweise wird ein Wahrscheinlichkeitsma P so normiert, da die Wahrscheinlichkeit P des sicheren Ereignisses gleich 1 ist. Daher wird in einem Zufallsexperiment mit einer Mnze den Ausprgungen Zahl und Wappen die Wahrscheinlichkeit 0.5 zugewiesen. In der Umgangssprache ist der Wahrscheinlichkeitsbegriff subjektiv. Wenn man Student S zwei Wochen vor der Statistik-Klausur sagt, er werde wahrscheinlich die Klausur bestehen, so ist dies nur eine qualitative Aussage, da eine quantitative Aussage ber die Wahrscheinlichkeit des Ereignisses {S besteht Statistik-Klausur} fehlt. Bevor wir zur mathematischen Denition der Wahrscheinlichkeit kommen, werden zwei Interpretationsmodelle der Wahrscheinlichkeit vorgestellt. 2.2.1 A-priori-Modelle A-priori-Modelle beruhen auf dem Prinzip vom unzureichenden Grund (auch Indifferenzprinzip): Hat man keine Veranlassung, einen bestimmten Ausgang eines Zufallsexperiments fr wahrscheinlicher als einen anderen zu halten, so wird man alle Ausgnge fr gleichmglich ansehen. Besteht der Ereignisraum aus N, N < , Elementarereignissen, so ist die Wahrscheinlichkeit, da ein bestimmtes Elementarereignis realisiert wird, gleich 1/N . Somit berechnet man die Wahrscheinlichkeit P (A) eines Ereignisses A durch P (A) = K/N , wobei K die Anzahl der in A enthaltenen Elementarereignisse ist. Der Vorteil der Apriori-Modelle besteht darin, da man die Wahrscheinlichkeit durch Abzhlen der Elementarereignisse ausrechnen kann. Der Nachteil liegt darin, da es in den Wirtschafts- und Sozialwissenschaften selten Situationen gibt, auf die man das Indifferenzprinzip anwenden kann. 2.2.2 Die Hugkeitsinterpretation Unter der (empirischen) Wahrschewinlichkeit eines Ereignisses versteht man die relative Hugkeit dieses Ereignisses in einer (theoretisch unendlich) langen Versuchsreihe. Die relative Hugkeit pn = m n ist der Quotient aus der Anzahl m des Eintreffens des Ereignisses in n Versuchen. Nach einer weiteren Durchfhrung des Experiments erhlt man:
m+1 n+1 m n+1

pn+1 =

= =

n n+1 n n+1

pn + pn

1 n+1

wenn das Ereignis eingetreten ist (2.1) wenn es nicht eingetreten ist

Man erkennt, da dienderung der relativen Hugkeit durch denAusgang eines weiteren Experiments umso geringer ist, je grer n ist. Die Fluktuation der Folge p1 , p2 , . . . nimmt ab. Strebt die relative Hugkeit eines Ereignisses mit wachsendem n zu einem Grenzwert, so bezeichnet man diesen Grenzwert als Wahrscheinlichkeit dieses Ereignisses. Mnzversuch:pn (Zahl) P (Zahl), wenn n (2.2)

Diese Interpretation bietet den Vorteil, da man die Wahrscheinlichkeit durch eine endliche Messung approximieren kann. Es wird kein A-priori-Modell bentigt. Die Genauigkeit der Messung lt sich durch 12

Versuchswiederholungen beliebig heraufsetzen. Die Wahrscheinlichkeit kann auf diese Weise allerdings nur bestimmt werden, wenn das Zufallsexperiment beliebig oft wiederholbar ist. Darin besteht der Nachteil dieses Ansatzes. Zur formalen Behandlung wird der Wahrscheinlichkeitsbegriff axiomatisch (d.h. durch Festlegung) eingefhrt. Die Axiomatisierung der Wahrscheinlichkeit wurde durch den russischen Mathematiker Kolmogoroff (1933) durchgefhrt, der die Wahrscheinlichkeit indirekt durch Angabe gewnschter Eigenschaften und Relationen deniert hat. Denition:(Axiome von Kolmogoroff) Eine Funktion P (A), die jedem Ereignis A einen Wert P (A) so zuordnet, da die folgenden Bedingungen gelten, heit ein Wahrscheinlichkeitsma auf der Gesamtheit der zu einem Zufallsexperiment gehrenden Ereignisse. 1. 0 P (A) 1 fr alle Ereignisse A 2. P () = 0, P ( ) = 1 3. (a) Schlieen A und B einander aus, so gilt: P (A B) = P (A) + P (B) (b) Sind die abzhlbar unendlich vielen Ereignisse A1 , A2 , . . . paarweise disjunkt, so gilt: P i =1 Ai = P (A1 A2 ) =

P (Ai )
i =1

Bemerkung: Gilt fr das Ereignis P (A) = 0, so folgt daraus nicht, da A das unmgliche Ereignis ist. Aus den Axiomen von Kolmogoroff lassen sich folgende Eigenschaften der Wahrscheinlichkeit herleiten: Satz: 1. Fr das komplementre Ereignis von A gilt: P (Ac ) = 1 P (A) 2. Gilt fr zwei Ereignisse A und B A B , so ist P (A) P (B) 3. Fr zwei beliebige Ereignisse A und B gilt: P (A B) = P (A) + P (B) P (A B) (Additionssatz) 4. Bilden die Ereignisse A1 , . . . , An eine Zerlegung von
n

, so gilt:

P (Ai ) = 1
i =1

Beispiel : Besitzt jede Augenzahl in einem Wrfelexperiment die Wahrscheinlichkeit 1/6, und ist E das Ereignis, da keine 6 gewrfelt wird, so ist P (E) = 1 P (E c ) = 1 1/6; denn E c tritt ein, wenn eine 6 gewrfelt wird.

2.3

Bedingte Wahrscheinlichkeit und stochastische Unabhngigkeit

Bisher sind nur Wahrscheinlichkeiten von Ereignissen ohne Bercksichtigung weiterer Bedingungen behandelt worden. Oft interessiert man sich aber fr die Wahrscheinlichkeit eines Ereignisses A unter der zustzlichen Voraussetzung, da ein bestimmtes Ereignis B eintritt oder schon eingetreten ist. Man mchte z.B. wissen, mit welcher Wahrscheinlichkeit ein Fernseher noch 2 Jahre funktioniert, wenn man wei, da er bereits 5 Jahre strungsfrei gelaufen ist. Ein zweites Beispiel ist die Berechnung der Wahrscheinlichkeit, da von den Frauen der Belegschaft eines Unternehmens mindestens eine befrdert wird. Das Ereignis A ist dann das Ereignis mindestens eine Person wird befrdert und B ist das Ereignis weiblich. Mu man also bei der Berechnung von P (A) eine Bedingung bercksichtigen, die einen Einu auf die Wahrscheinlichkeit von A ausbt, so spricht man von einer bedingten Wahrscheinlichkeit. Denition: P (A B) falls P (B) > 0 P (A|B) = (2.3) P (B) 0 falls P (B) = 0 heit bedingte Wahrscheinlichkeit von A, gegeben, da B eintrifft oder eingetroffen ist. 13

Beispiel : Wie gro ist die Wahrscheinlichkeit in einem Wrfelexperiment, mit einem Wrfel eine Augenzahl kleiner als 3 zu werfen, wenn bekannt ist, da eine gerade Augenzahl gewrfelt worden ist? Es ist P (A|B) zu berechnen, wobei A = {1, 2} und B = {2, 4, 6} ist. Wegen P (A B) = P ({2}) = 1/6 und P (B) = 1/2 folgt P (A|B) = 1/3 . Beispiel : Im Wrfelexperiment mit zwei Wrfeln besitzt jede Kombination von Augenzahlen die Wahrscheinlichkeit 1/36. Es sei A das Ereignis, da mit dem zweiten Wrfel eine 1, und B , da mit dem ersten Wrfel eine ungerade Augenzahl gewrfelt wird, also A = {(i, j )|i = 1, . . . , 6, j = 1}, B = {(i, j )|i = 1, 3, 5, j = 1, . . . , 6, }. Es ist P (A) = 1/6 und P (B) = 1/2. Wegen A B = {(1, 1), (3, 1), (5, 1)} folgt: P (A|B) = 3/36 1 = 1/2 6 (2.4)

Das Ereignis B hat also keinen Einu auf die Wahrscheinlichkeit von A , was auch erwartet wird, da die Ereignisse A und B zwei verschiedene Wrfel betreffen. Denition: Man bezeichnet zwei Ereignisse A, B eines Zufallsexperiments als stochastisch unabhngig, wenn das Eintreten des einen die Eintrittswahrscheinlichkeit des anderen nicht beeinut: P (A|B) = P (A), falls P (B) > 0 Aus dieser Denition und der Denition der bedingten Wahrscheinlichkeit folgt der nchste Satz. Satz: A und B sind genau dann stochastisch unabhngig, wenn gilt: P (A B) = P (A) P (B) Beweis: P (A|B) = P (A) P (A B) = P (A) P (B) P (A B) = P (A) P (B) (2.7) (2.6) (2.5)

Dieser Satz zeigt, da bei stochastisch unabhngigen Ereignissen die Wahrscheinlichkeit des gemeinsamen Eintretens beider Ereignisse gleich dem Produkt der Einzelwahrscheinlichkeiten ist. Aus der allgemeinen Denition der bedingten Wahrscheinlichkeit kann die folgende Multiplikationsregel hergeleitet werden: P (A B) = P (A|B) P (B) (2.8)

Aus der Multiplikationsregel lassen sich die Formel fr die vollstndige Wahrscheinlichkeit und die Formel von Bayes herleiten. Satz von der vollstndigen Wahrscheinlichkeit : Bilden die Ereignisse E1 , . . . En eine Zerlegung von , so gilt fr ein beliebiges Ereignis A:
n

P (A) =
i =1

P (A|Ei ) P (Ei )

(2.9) , so gilt fr ein beliebiges

Satz von Bayes: Bilden die Ereignisse E1 , . . . , En eine Zerlegung von Ereignis A mit P (A) > 0: P (Ei |A) =
n

P (A|Ei ) P (Ei ) P (A|Ej ) P (Ej )

fr i = 1, . . . , n

(2.10)

j =1

Beweis: Nach der Multiplikationsregel ist P (A|Ei ) P (Ei ) = P (A Ei ) und nach dem Satz der vollstndigen Wahrscheinlichkeit ist n j =1 P (A|Ej ) P (Ej ) = P (A). P (Ei ) wird als a-priori-Wahrscheinlichkeit des Ereignisses Ei und P (Ei |A) wird als a-posterioriWahrscheinlichkeit von Ei bezeichnet. Dieser Satz kann also dazu verwendet werden, ein unbekannte a-posteriori-Wahrscheinlichkeit mit Hilfe von a priori Wahrscheinlichkeiten und bedingten Wahrscheinlichkeiten zu berechnen. Beispiel : Eine Firma baut 3 verschiedene elektronische Bauteile. Durchschnittlich sind 2% der Bauteile des ersten Typs, 5% des zweiten und 3% des dritten Ausschu. Wie gro ist die Wahrscheinlichkeit, da 14

ein zufllig aus der Produktion ausgewhltes Bauteil Ausschu ist, wenn der Anteil des ersten Typs an dem Produktionsaussto 20%, der des zweiten 30% und der des dritten 50% betrgt? Steht A fr das Ereignis, da ein Bauteil defekt ist, und Ei dafr, da das Teil vom Typ i ist, so ergibt der Satz fr die totale Wahrscheinlichkeit:
3

P (A) =
i =1

P (Ei ) P (A|Ei ) = 0.2 0.02 + 0.3 0.05 + 0.5 0.03 = 0.034

(2.11)

Ein Kunde beschwert sich, da das ihm gelieferte Bauteil defekt ist, ohne den Typ des Bauteils anzugeben. Wie gro ist die Wahrscheinlichkeit, da das Bauteil eines des ersten Typs ist? Nach dem Satz von Bayes erhlt man: P (E1 |A) = P (A|E1 ) P (E1 )
3

P (A|Ei ) P (Ei )
i =1

0.02 0.2 = 0.118 0.034

(2.12)

2.4

Zufallsvariable

Werden allen mglichen Ausgngen eines Zufallsexperiments (allen Elementarereignissen) durch eine Funktion Zahlen zugeordnet, spricht man von einer eindimensionalen Zufallsvariablen, die wir mit X , Y oder Z bezeichnen. Wird ein Zahlentupel (X1 , . . . , Xk ) zugeordnet, so sprechen wir von einer mehrdimensionalen Zufallsvariablen oder einem Zufallsvektor. Beispiel : Eine Mnze wird dreimal geworfen. Die Menge der Elementarereignisse ist: = {W W W, ZW W, W ZW, W W Z, ZZW, ZW Z, W ZZ, ZZZ } (2.13)

wobei W fr Wappen und Z fr Zahl stehen. Nach dem Indifferenzprinzip hat jedes Elementarereignis die Wahrscheinlichkeit 1/8. Die Zufallsvariable X sei nun als die Hugkeit von Wappen deniert. Der Wertebereich von X ist dann {0, 1, 2, 3}. Die Wahrscheinlichkeiten fr die einzelnen Werte werden durch die Wahrscheinlichkeitsverteilung auf induziert. Daher gilt: P (X = x) = P ({ |X() = x }). x P (X = x) Weitere Beispiele fr Zufallsvariable sind: die Brenndauer einer Glhbirne (stetig) die Anzahl der Auftragseingnge eines Betriebs whrend eines Monats (diskret) die Dauer einer Reparatur in einer Werkstatt (stetig). die Anzahl der abgeschlossenen Versicherungsvertrge einer Agentur (diskret) Denition: 1. Eine Zufallsvariable heit diskret, wenn ihr Wertebereich endlich oder abzhlbar unendlich ist. 2. Eine Zufallsvariable heit stetig, wenn ihre mglichen Werte wenigstens ein Intervall der reellen Zahlen R ausfllen und kein Elementarereignis positive Wahrscheinlichkeit besitzt. Durch Zufallsvariable wird eine Wahrscheinlichkeit auf dem Wertebereich (blicherweise Intervalle) induziert. Wir schreiben PX (I ) = P (X I ) = P ({|X() I }). (2.14) 0 1 8 1 3 8 2 3 8 3 1 8 1

fr Teilmengen I von R. Falls keine Miverstndnisse auftreten knnen, schreibt man auch P (I ) statt PX (I ). 15

Beispiel : Beschreibt die Zufallsvariable X die Brenndauer einer Glhbirne in Std., so ist PX (100, ) die Wahrscheinlichkeit, da die Glhbirne lnger als 100 Stunden brennt. Man beachte, da die Wahrscheinlichkeit auf dem beiderseitig offenen Intervall (100, ) berechnet wird. Beispiel : Eine Mnze wird dreimal geworfen. X sei die Hugkeit von Wappen und Y sei die Anzahl der Versuche, bevor das erste Wappen erscheint. Falls bei keinem Versuch Wappen geworfen wird, so soll Y gleich 3 gesetzt werden. Der Wertebereich des Zufallsvektors (X, Y ) ist: {(0,3), (1,0), (1,1), (1,2), (2,0), (2,1), (3,0)}. Das Paar (2,0) tritt bei W ZW und W W Z ein. (X, Y ) besitzt folgende Wahrscheinlichkeitsverteilung: y 0 1 2 3 0 1 8

x 1
1 8 1 8 1 8

2
1 4 1 8

3
1 8

16

3
3.1

Diskrete Verteilungen
Grundlagen

Der Wertebereich M einer diskreten Zufallsvariablen X ist abzhlbar. Besitzt ein Zufallsexperiment als Menge der Ausgnge die Menge der ganzen Zahlen, so ist = Z. Die Wahrscheinlichkeitsverteilung PX (A) auf M wird durch ihre diskrete Dichte (Wahrscheinlichkeitsfunktion) beschrieben: pj = PX ({j }) = P (X = j ) = P ({ |X() = j }) fr alle j M (3.1)

pj ist die Wahrscheinlichkeit, da die Zufallsvariable X die Ausprgung j annimmt. Ist A M , dann gilt: PX (A) =
j A

pj = Z):

(3.2)

Fr diskrete Dichten gilt (falls pj 0 fr alle j Z und

pj = 1
j =

(3.3)

Eine Verteilung wird durch die Verteilungsfunktion vollstndig reprsentiert. Denition: Ist PX (A) die Wahrscheinlichkeitsverteilung einer Zufallsvariablen X, so heit: FX (x) = PX ((, x ]) = P (X x), x R (3.4)

die Verteilungsfunktion von PX (A). Man beachte, da FX (x) eine Stufenfunktion darstellt und auf R deniert ist. Im folgenden schreiben wir nur P (A) und F (x) statt PX (A) bzw. FX (x), da wir nur eine Zufallsvariable behandeln und daher Miverstndnisse ausgeschlossen sind. Satz: Die Verteilungsfunktion einer diskreten Zufallsvariablen wird durch folgende Eigenschaften charakterisiert: 1. 2. 3. 4. F (x) steigt monoton F (x) =
j x x

pj

lim F (x) = 0, lim F (x) = 1


x

F (j ) F (j 1) = pj fr j Z

Beispiel : Die Verteilungsfunktion der Zufallsvariablen X , die die Anzahl der im dreifachen Mnzwurf geworfenen Wappen beschreibt, ist: 0 fr x < 0 1 fr 0 x < 1 8 4 fr 1 x < 2 (3.5) F (x) = 8 7 fr 2 x < 3 8 1 fr 3 x Zur Charakterisierung einer Zufallsvariablen gengen hug einzelne Kennzahlen, sogenannte Verteilungsparameter. Denition: Es sei g(X) : R R eine reellwertige Funktion. Dann ist der Erwartungswert von g(X) durch folgenden Ausdruck gegeben: E(g(X)) =
j M

g(j ) pj

(3.6)

17

Beispiel : Eine Telefonvermittlung kann maximal 10 Gesprche pro Minute vermitteln. Wird die Anzahl der Anrufe durch die Zufallsvariable X beschrieben und ist g(x) = 0 falls x 10 und g(x) = 1 falls x > 10, so beschreibt g(X), ob die Vermittlung berlastet ist oder nicht. E(g(X)) ist in diesem Fall die Wahrscheinlichkeit, da die Vermittlung mehr als 10 Anrufe erhlt. Denition: 1. E(X) heit Erwartungswert und wird mit dem Symbol bezeichnet. E(X) =
j M

xj p j

2. E((X )2 ) heit Varianz (Streuung) von X und wird mit V (X), 2 (X) oder 2 bezeichnet. E((X )2 ) =
j M

(xj )2 pj

3. (X) =

2 (X) heit Standardabweichung von X

Eine zustzliche Charakterisierung der Verteilung einer Zufallsvariablen X lt sich durch die sogenannten Momente vornehmen. Denition: E((X a)k ) =
j M k

(xj a)k pj

k = 1, 2, . . . heit k -tes Moment um a

(3.7) (3.8) (3.9)

E(X ) heit k -tes gewhnliches Moment (a = 0) E((X )k ) heit k -tes zentrales Moment (a = )

Das erste gewhnliche Moment E(X) ist der Erwartungswert. Das zweite zentrale Moment E((X )2 ) ist die Varianz von X . Denition: Der Momentkoefzient der Schiefe einer Zufallsvariablen X wird durch S(X) deniert: S(X) = E((X )3 ) E(X3 ) 3E(X 2 ) + 23 = 3 (X) 3 (X) (3.10)

Ist S(X) negativ (positiv), so ist die Verteilung der Zufallsvariablen linksschief (rechtsschief). Ist ihr Wert Null, so liegt eine symmetrische Verteilung vor. Der Momentkoefzient der Wlbung wird durch W (X) deniert: W (X) = E((X )4 ) E(X 4 ) 4E(X 3 ) + 62 E(X 2 ) 34 3 = 3 4 (X) 4 (X) (3.11)

Ist W (X) > 0, heit die Verteilung leptokurtisch. Ist W (X) = 0, heit sie mesokurtisch und ist W (X) < 0, heit sie platykurtisch. Fr Erwartungswerte und Varianzen gelten folgende Rechenregeln. Satz: Fr reellwertige Zufallsfunktionen g1 (X) und g2 (X) gilt, sofern die Erwartungswerte existieren: 1. E(g1 (X) + g2 (X)) = E(g1 (X)) + E(g2 (X)) 2. E(c g1 (X)) = c E(g1 (X)) fr jede Konstante c R Mit Hilfe des letzten Satzes lassen sich folgende Regeln fr den Erwartungswert und die Varianz herleiten. Satz: Es seien a, b R. Dann gilt: 1. E(a + bX) = a + bE(X) (Linearittsregel) 2. 2 (a + bX) = b2 2 (X) 3. 2 (X) = E(X 2 ) 2 (Verschiebungssatz)

18

Beweis: Der Beweis des ersten Teils des Satzes sei dem Leser berlassen. Wir beweisen den Verschiebungssatz: 2 (X) = E((X )2 ) = E(X 2 2X + 2 ) = E(X 2 ) 2E(X) + 2 = E(X 2 ) 2 + 2 = E(X ) 2 +
2 2 2

(3.12)

= E(X 2 ) 2 Beispiel : Im A-priori Modell, das auch Laplace-Modell genannt wird, gehen wir davon aus, da der Ereignisraum endlich viele Elementarereignisse besitzt und jedes Elementarereignis dieselbe Chance des Eintretens besitzt. Ist die Anzahl der Elementarereignisse gleich N , so besitzt jedes Elementarereignis 1 die Wahrscheinlichkeit N . Beispiele fr Laplace-Modelle sind: Roulette mit N = 37, Wrfelexperiment mit einem Wrfel (N = 6), einfacher Mnzwurf (N = 2) oder das zufllige Ziehen aus einer Menge mit N Elementen. Gehren die Elementarereignisse xj , j = 1, . . . , N zur Menge der ganzen Zahlen, so wird eine diskrete Zufallsvariable deniert, deren Verteilungsfunktion und Parameter folgendermaen berechnet werden: F (x) = E(X) = 1 (Anzahl der xj x) N 1 N 1 N
N

(3.13)

xj
j =1 N j =1

(3.14)
N j =1

2 2 xj

2 (X) =

(xj )2 =

1 N

(3.15)

Im Wrfelexperiment mit einem Wrfel ist = 3.5 und 2 = 2.916. Zustzlich zum Erwartungswert ist noch der Median als Lagema gebruchlich, der mit x oder x0.5 bezeichnet wird. Denition: Der Median (bezeichnet mit x oder x0.5 ) teilt den Wertebereich von X in zwei Bereiche, die gleich wahrscheinlich sind, auf. Formal wird der Median x dadurch deniert, da folgende Gleichungen gleichzeitig erfllt sind: P (X x) 0.5 und P (X x) 0.5 Beispiel : Gegeben sei X mit Verteilungsfunktion F (x): X=x F (x) = P (X x) P (X x) 1 0.15 1.0 2 0.25 0.85 3 0.45 0.75 4 0.85 0.55 5 1.0 0.15 (3.16)

Der einzige Wert, der beide Gleichungen erfllt, ist 4. Daher gilt: x = 4. Beispiel : Gegeben sei X mit Verteilungsfunktion F (x) (Wrfelwurf): X F (x) = P (X x) P (X x) 1 1/6 1 2 2/6 5/6 3 3/6 4/6 4 4/6 3/6 5 5/6 2/6 6 1 1/6

Die obigen Gleichungen werden in diesem Beispiel durch alle Werte x [3, 4] erfllt. Man spricht daher von einer Medianklasse. Als charakteristischer Wert der Medianklasse wird das arithmetische Mittel aus Unter- und Obergrenze der Medianklasse ausgewhlt und wiederum als Median bezeichnet. In diesem Beispiel gilt daher: x = 1 (3 + 4) = 3.5 2 19 (3.17)

Denition: Sei (0, 1). Das -Quantil x der Verteilung von X wird durch die folgenden Gleichungen deniert: P (X x ) und P (X x ) 1 (3.18)

Spezialflle: Der Median ( = 0.5), das untere Quartil ( = 0.25), das obere Quartil ( = 0.75) sowie die Dezile ( = 0.1, = 0.2 , = 0.9).

3.2

Spezialflle

Zur Darstellung diskreter Verteilungen mu der Binomial-Koefzient eingefhrt werden. 3.2.1 Kombinatorik n Objekte lassen sich auf 1 2 3 4 . . . (n 1) n = n! (n-Fakultt) Arten anordnen. Jede Anordnung der n Objekte oder von n Zahlen wird als Permutation bezeichnet. 0! wird durch 1 festgelegt. Beispiel : Es gibt 3! = 1 2 3 = 6 Permutationen von den 3 Objekten: 1, 2, 3. 1 2 3 4 5 6 1 1 1 2 2 3 3 2 2 3 1 3 1 2 3 3 2 3 1 2 1

Einen Spezialfall erhlt man, wenn die Pltze ringfrmig verteilt sind. Beispielsweise, wenn man alle Mglichkeiten sucht n Personen an einen runden Tisch zu setzen. Diesen Spezialfall nennt man Ringpermutation. Er wird durch (n 1)! berechnet. Stehen weniger als n Pltze zur Verfgung, um die n Objekte anzuordnen, dann ergeben sich fr k < n Pltze: n! (3.19) (n k)! Permutationen. Man beachte, da die Reihenfolge der Pltze dabei unterschieden wird. Wie man erkennen kann, ist die gewhnliche Permutation (n!) lediglich ein Spezialfall mit n = k . Soll zustzlich die Reihenfolge der Pltze nicht beachtet werden, dann spricht man von einer Kombination. Sie wird berechnet als: n k
n k

n (n 1) . . . (n k + 1) n! = k! k !(n k)! n k n nk =

n, k 0,

n k

= 0 fr k > n

(3.20)

wird als Binomialkoefzient bezeichnet. Durch Einsetzen erhlt man die Regeln: 1. 2. = (Symmetrie-Eigenschaft) n+1 k+1 (Pascalsches Dreieck)

n n + k k+1

Beispiel : Wieviele Mglichkeiten gibt es, aus einem Verein mit 25 Mitgliedern einen Vorstand, der aus 3 Personen besteht, zu whlen (mterhufung ausgeschlossen)? n = 25, k = 3, n k = 25 3 = 25 24 23 = 25 4 23 = 2300 123 (3.21)

Sollen n Objekte auf n Pltzen verteilt werden, wobei k1 Objekte des Typs 1, k2 des Typs 2, ..., kp Objekte des Typs p , mit n = p i =1 ki , dann existieren: n! k1 ! k2 ! kp ! 20 (3.22)

Permutationen. Man beachte, da sich die Kombination als Spezialfall mit p = 2 darstellen lt. Von einer Variation spricht man, wenn n Objekte auf k Pltzen verteilt werden sollen, wobei jedes Objekt mehrere Pltze einnehmen darf. Die Anzahl der Variationsmglichkeiten sind nk . Beispielsweise betrgt die Anzahl der mglichen Ausgnge eines Wurfes mit zwei Wrfeln nk = 62 = 36. 3.2.2 Die Bernoulli-Verteilung Modellexperiment : Ein Zufallsexperiment besteht aus einem einzigen Versuch, in dem ein bestimmtes Ereignis A eintritt oder nicht. Wir denieren die folgende Zufallsvariable: X() = 0 falls A 1 falls A (3.23)

Hat A die Wahrscheinlichkeit , so besitzt X die Dichte: p0 = 1 , p1 = Die wichtigsten Parameter sind: = , 3.2.3 Die Binomialverteilung Ein Bernoulli-Experiment wird n mal unabhngig und unter gleichen Bedingungen durchgefhrt. Beispiel : Eine Urne enthlt schwarze und weie Kugeln im Verhltnis : (1 ). Der Urne werden n Kugeln mit Zurcklegen entnommen. Die Anzahl X der dabei gezogenen schwarzen Kugeln ist Bn, verteilt. Das Ziehen mit Zurcklegen sichert, da jeder Versuch unter gleichen Bedingungen durchgefhrt wird, d.h. bei jedem Versuch ist der Anteil an schwarzen Kugeln in der Urne konstant. Eine diskrete Zufallsvariable X ist binomialverteilt Bn, mit den Parametern n und , wenn die Wahrscheinlichkeitsfunktion deniert ist durch: pk = P (X = k) = n k (1 )nk , k k = 0, . . . , n, n > 0, 0 1 (3.25) 2 = (1 ), S(X) = (1 2 )/ (1 ) (3.24)

Die wichtigsten Parameter sind: = n, 2 = n(1 ), S(x) = (1 2 )/ n(1 ) (3.26)

Wird ein Versuch n mal unabhngig unter gleichen Bedingungen durchgefhrt und kann in jedem Versuch das Ereignis A mit der Wahrscheinlichkeit eintreten, so ist die Anzahl X der Versuche mit dem Eintreten von A Bn, verteilt. 3.2.4 Die hypergeometrische Verteilung Ein Bernoulli-Experiment wird n mal hintereinander durchgefhrt wobei die Wahrscheinlichkeit fr das Eintreten eines Elementarereignisses A sich nach dem Schema des folgenden Modellexperimentes verndern kann: Eine Urne enthlt N Kugeln, von denen A schwarz und N A wei sind. Der Urne werden ohne Zurcklegen n Kugeln entnommen. Die Anzahl X der dabei gezogenen schwarzen Kugeln ist HN,A,n verteilt. Das Ziehen ohne Zurcklegen bewirkt, da jede Ziehung unter verschiedenen Bedingungen erfolgt. Die hypergeometrische Verteilung HN,A,n besitzt die Wahrscheinlichkeitsfunktion: A k N A nk , k = 0, . . . , n, mit n A und n N A N n N n N 1

pk = P (X = k) =

(3.27)

Ihre wichtigsten Parameter sind: = A A A A , E(X) = = n = n, V (X) = 2 = n 1 N N N N = n(1 ) N n N 1

21

Man beachte, da der Erwartungswert zu dem der Binomialverteilung identisch ist, sich die Varianz jedoch um die sogenannte Endlichkeitskorrektur (N n)/(N 1) unterscheidet. Beispiel : In der Schule betrgt die Anzahl der Schler in der ersten Klasse 120, davon 70 Knaben und 50 Mdchen. Fr einen Schulversuch werden 12 Kinder ausgewhlt. Wie wahrscheinlich ist es, da exakt das gleiche Verhltnis Jungen zu Mdchen wie in der ersten Klasse auftritt? Dieses Modell entspricht dem Ziehen ohne Zurcklegen. X sei Anzahl der Knaben im Schulversuch. X ist H120,70,12 verteilt. P (X = 7) = 70 50 7 5 120 12 = 1 1987745 109 2.118760 106 = 0.2409 1.0542857 1016

(3.28)

3.2.5 Die Poisson-Verteilung Eine Zufallsvariable X besitzt eine Poissonverteilung P , wenn sie die Wahrscheinlichkeitsfunktion k , k = 0, 1, 2, . . . , n (3.29) k! mit einem Erwartungswert von > 0 besitzt. ( wird hier Intensittsparameter genannt). Die Varianz ist und der Momentkoefzient der Schiefe ist 1/ . Beispiel : Eine Brandschutzversicherung hat ermittelt, da in einem bestimmten Gebiet im langjhrigen Durchschnitt = 1.5 Schadensflle ber 100 000 DM auftreten. Um die notwendigen Reserven zu kalkulieren, mchte sie die Anzahl c der Schadensflle berechnen, so da P (X > c) 0.05 ist. pk = P (X = k) = e Es gilt: P (X > c) = 1 P (X c) = 1 F (c) (3.30) Daher mu c so bestimmt werden, da F (c) 0.95 ist. Zu diesem Zweck bildet man die Verteilungsfunktion.
c c

F (c) =
k =0

P (X = k) =
k =0

k!

=
k =0

e1.5

1.5k k!

(3.31)

Die Werte der Verteilungsfunktion der Poissonverteilung mit = 1.5 sind: k pk F (k) 0 0.223 0.223 1 0.334 0.557 2 0.251 0.808 3 0.125 0.933 4 0.047 0.980

F (4) = 0.98 0.95 . Die Versicherung mu daher Reserven fr 4 Schadensflle aufbringen, um ihr Risiko unter 5% zu halten. Im folgenden wollen wir die ersten zwei gewhnlichen Momente der Poissonverteilung herleiten, um daraus und 2 zu berechnen. Fr diese Rechnung wird die Reihenentwicklung von ex verwendet: xj ex = j =0 j !

E(X) =
j =

j pj j e

=
j =0

j j! j 1 j (j 1)! j 1 (j 1)! (3.32)

= e =e

j
j =1

E(X) = e

j =1 j j =0

= e e = j! 22

E(X ) =
2 j =0

j 2 e

j j!

= e = e

j
j =1 j =1

j (j 1)! j (j 1)!

((j 1) + 1))

j j = e (j 1) + (j 1)! j =1 (j 1)! j =1 j j 1 = e + (j 2 ) ! (j 1 ) ! j =2 j =1 j 2 = e 2 + e = e 2 e + e (j 2 ) ! j =2 E(X 2 ) = 2 + Daraus folgt: 2 = 2 + 2 = Praktisch knnen die folgenden Nherungen verwendet werden: Verteilung HN,A,n HN,A,n Bn, Nherung B P
n, A N A N

(3.33)

(3.34)

Voraussetzung N 10 N A 1 n und 10 N 10 1 10 n

Pn

Beispiel : Da im Beispiel fr die hypergeometrische Verteilung die Parameter n = 12, N = 120 der HN,A,n -Verteilung die Bedingung n N/10 erfllen, knnen wir mit der Binomialverteilung die Wahrscheinlichkeit annhernd bestimmen. Mit n = 12 und = A/N = 7/12 erhalten wir: P (X = 7) = 12 7 7 12
7

5 12

= 792 0.023 0.0126 = 0.2295

(3.35)

23

4
4.1

Stetige Verteilungen
Grundlagen

Der Wertebereich M einer stetigen Zufallsvariablen X ist gleich R (Menge der reellen Zahlen) oder ein Intervall von R. Die Wahrscheinlichkeitsverteilung PX (A) wird fr das Ereignis A = (, x ] durch eine stetig differenzierbare Verteilungsfunktion beschrieben: FX (x) =
x

f(t) dt = PX (A)

(4.1)

Satz: Fr die Verteilungsfunktion FX (x) einer stetigen Zufallsvariablen X und die dazu korrespondierende Dichtefunktion fX (x) gilt: 1. 2. 3. 4. 5.

F (x) steigt monoton


x

lim F (x) = 0, lim F (x) = 1


x

F (x) =

F (x) = f(x) x

f (x) 0

f(x) dx = 1

Man beachte, da die Dichtefunktion f(x) keine Wahrscheinlichkeitsfunktion ist, wie bei diskreten Verteilungen, und da f(x) durchaus grer als 1 sein kann (z.B. bei der Dreiecksverteilung). Die Wahrscheinlichkeit P (X = x) ist auerdem bei stetigen Verteilungen immer 0. Ist ein Ereignis A ein Intervall A = (a, b], so ist: PX (A) = P (a < X b) =
b a

f(x) dx

(4.2)

Dies entspricht dem Flcheninhalt unter der Funktion f(x) im Intervall (a, b]. Wir schreiben im folgenden nur P (A) und F (x) statt PX (A) und FX (x). Beispiel : Eine Zufallsvariable X mit der Dichte: f(x) = 1 fr x [0, 1] 0 sonst (4.3)

heit ber dem Intervall [0,1] gleichverteilt. Satz: Es sei g(x) : R R eine reellwertige Funktion. Dann ist der Erwartungswert von g(X) deniert durch: E(g(X)) =

g(x) f(x) dx

(4.4)

Wichtige Spezialflle: 1. E(X) heit Erwartungswert von X (Symbol ). E(X) =


x f(x) dx

2. E((X )2 ) heit Varianz von X (Symbole: V (X), 2 (X) und 2 ). E((X )2 ) = (X) =

(x )2 f(x) dx

2 (X) heit Standardabweichung von X 24

3. E((X a)k ) heit k -tes Moment um a . E((X a)k ) =


(x a)k f(x) dx

E(X k ) heit k -tes gewhnliches Moment (a = 0). E((X )k ) heit k -tes zentrales Moment (a = ). Die Stze ber die Rechenregeln fr Erwartungswerte von diskreten Zufallsvariablen gelten auch fr stetige Zufallsvariablen. Beispiel : Fr die Gleichverteilung ber [0,1] wollen wir die ersten 4 Momente und die Momentenkoefzienten der Schiefe und der Wlbung berechnen. E(X) = E(X 2 ) = E(X ) =
3

xf(x) dx =
0

x dx = 0.5
1 0

(4.5) x3 3
1

x 2 f(x) dx = x f(x) dx =
3 0

x 2 dx =
3

=
0 1

1 3 1 4 1 5

(4.6)

x4 x dx = 4 x5 x dx = 5
4

=
0 1

(4.7)

E(X ) =
4

x f(x) dx =
4 0

=
0

(4.8) (4.9)

E((X )2 ) = E(X 2 ) 2 =

1 1 1 = 3 4 12 1 1 1 3 +2 4 3 2
5 1

E((X )3 ) = E(X 3 ) 3E(X 2 ) + 23 = E((X ) ) =


4 0 1

1 2
5

=0 1 5 1 2
5

(4.10)

1 x 2

1 dx = 5

1 x 2

=
0

1 5

1 2

= 0.0125

(4.11)

S(X) = 0, W (X) =

0.0125 3 = 1.2 0.08332

(4.12)

Die Verteilung ist symmetrisch und platykurtisch. Bemerkung: Quantile fr stetige Variable werden analog zu Quantilen von diskreten Zufallsvariablen deniert. 4.1.1 Lineare Transformation stetiger Zufallsvariablen Satz: Die Zufallsvariable Y = aX + b mit a = 0 und b als Konstante besitzt die Verteilungsfunktion yb , falls a > 0 FX a FY (y) = (4.13) yb , falls a < 0 1 FX a Beweis: 1. a > 0: FY (y) = P (Y y) = P (aX + b y) = P 2. a < 0: FY (y) = P (aX + b y) = P X yb a 25 =P X> yb a = 1 FX yb a X yb a = FX yb a

4.2

Spezialflle

4.2.1 Die Gleichverteilung Wir haben bereits die Gleichverteilung ber dem Intervall [0, 1] kennengelernt. Diese Denition kann auf beliebige endliche Intervalle bertragen werden. Eine Zufallsvariable X heit gleichverteilt auf dem Intervall [a, b], wenn sie die Dichte besitzt: 1 fr a x b ba f (x) = (4.14) 0 sonst Die Dichte ist daher konstant. Die wichtigsten Momente sind: = a+b , 2 2 = (b a)2 , 12 S(X) = 0 (4.15)

Um den Erwartungswert und die Varianz herzuleiten, transformieren wir X in Y = (X a)/(b a). Y ist dann ber [0, 1] gleichverteilt. Da X = (b a)Y + a ist, erhlt man nach dem Satz ber Dichten transformierter Zufallsvariablen: E(X) = (b a)E(Y ) + a = 2 (X) = (b a)2 2 (Y ) = (b a) (a + b) +a = 2 2 (4.16) (4.17)

1 (b a)2 12

Die Verteilungsfunktion ist somit: fr x < a 0 (x a)/(b a) fr a x b F (x) = 1 fr x > b Daher folgt fr a a1 b1 b : P (a1 X b1 ) = (b1 a1 )/(b a)

(4.18)

(4.19)

Die Wahrscheinlichkeit in diesem Intervall wird somit in vollem Umfang durch die Intervallnge b1 a1 determiniert. 4.2.2 Die Exponentialverteilung Eine Zufallsvariable besitzt eine Exponentialverteilung, wenn sie die folgende Dichte hat: f (x) = ex 0 fr x 0 fr x < 0 (4.20)

Der Parameter > 0 beschreibt die Sterbe- oder allgemeiner die bergangsrate. Die Verteilungsfunktion ist gegeben durch: F (x) = 1 ex 0 fr x 0 fr x < 0 (4.21)

Die zentralen Parameter sind: = 1 1 2 , 2 = 2 , S(X) = 3 (4.22)

Die Exponentialverteilung wird auch Verteilung ohne Gedchtnis genannt. Es gilt nmlich fr s 0 und t 0: P (X s + t |X t) = P (X s) (4.23)

26

4.2.3 Die Normal- oder Gauverteilung Eine Zufallsvariable X gengt einer Normalverteilung N (, 2 ), wenn sie die Dichte: (x) = f (x) = 1 2 exp (x )2 2 2 fr < x < (4.24)

mit R und > 0 besitzt. Die Verteilung von X wird also durch 2 Parameter gekennzeichnet und zwar durch den Erwartungswert und die Varianz 2 . Die Momentkoefzienten der Schiefe und Wlbung sind Null. Ist der Erwartungswert = 0 und die Varianz 2 = 1, so nennt man X standardnormalverteilt (N (0, 1)). Die Verteilungsfunktion der Standardnormalverteilung wird mit (z) bezeichnet, die Dichte mit (z). (z) =
z

(z)dz =

x2 1 exp 2 2

dx, < z <

(4.25)

Da (z) analytisch nicht exakt bestimmt werden kann, sind die Funktionswerte auf Seite 104 fr z 0 tabelliert. 0.40 0.36 0.32 0.28 0.24 0.20 0.16 0.12 0.08 0.04 0.00
. . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

(z)

Dichte einer N(0, 1)-Verteilung

-4

-3

-2

-1

Fr negative z knnen die Symmetrieeigenschaften 1. f (z) = f (z) 2. P (Z z) = P (Z z) 3. (z) = 1 (z)

zur Berechnung verwendet werden. Satz: Fr die Verteilungsfunktion einer N (, 2 ) verteilten Zufallsvariablen gilt: 1. F (x) = x = (z) c , fr c > 0 a , fr a < b

2. P (|X | > c) = 2 1 3. P (a X b) =

27

Beweis: 1. Zu zeigen ist, da

(z) N (0, 1) verteilt ist. Jede beliebige Normalverteilung X : x 1 x = = x


b a

X N (, 2 ) kann standardisiert werden: Z = Z ist eine lineare Transformation von X, so da gilt: Z = a + bX a= 1 b=

E(a + bX) = a + bE(X) = V (a + bX) = b2 2 (X) =

1 + = + =0

1 2 =1 2 Z N (0, 1)

2. P (|X | > c) = P (c > X ) + P (X > c) =P c X +1P X c = c +1 c =2 1 c

3. P (a X b) = P (X b) P (X < a) =P b X P X a < = b a (4.26)


2

Fr die -Quantile gilt die folgende Regel: Ist z das -Quantil der N (0, 1) Verteilung, so ist x = + z das -Quantil der N (, ) -Verteilung. Man beachte, da die Berechnung des -Quantils einer stetigen Verteilung der Berechnung der Umkehrfunktion der entsprechenden Verteilungsfunktion entspricht ( = F 1 (x )). Die Multiplikation mit und die Addition von entspricht in diesem Fall der Umkehrung der Transformation ( x ). Beispiel : X sei N (75, 36) verteilt. Gesucht ist P (X 87). Nach dem letzten Satz ist: 87 75 P (X 87) = F (87) = = (2) = 0.97725 (4.27) 6 Ferner ist das = 0.99865 Quantil zu bestimmen. Anwendung der Rechenregel fr Quantile ergibt: x0.99865 = + z0.99865 = 75 + 6 3 = 93 . Beispiel : Der Durchmesser von bestimmten Drehteilen aus einer automatischen Fertigung mu zwischen 9.5 und 12 cm liegen. Andernfalls gehrt das Drehteil zum Ausschu. Wie gro ist die Wahrscheinlichkeit, da ein Drehteil den gestellten Anforderungen gengt, wenn der Durchmesser mit = 10.27 und 2 = 1.44 normalverteilt ist. 12 10.27 9.5 10.27 P (9.5 X 12) = (4.28) 1.2 1.2 = (1.44) (0.63) = 0.925 (1 0.736) = 0.661 4.2.4 Nherung der Poisson- und Binomialverteilung durch die Normalverteilung Poisson: P N (, ), fr 10. Binomial: Bn, N (n, n(1 )) fr alle n(1 ) 10. Beispiel : In einer Telefonzentrale eines Konzerns werden durchschnittlich 25 Anrufe pro Minute gezhlt. Wie gro ist die Wahrscheinlichkeit, da mehr als 30 Anrufe in einer Minute gezhlt werden, wenn die Anzahl der Anrufe poissonverteilt ist? Da = 25 ist, ist die Anzahl X der Anrufe in der beobachteten Minute annhernd N (25, 25) verteilt. Man erhlt: X 25 30 25 P (X > 30) = P > = 1 (1) = 1 0.8413 = 0.1587 (4.29) 5 5 28

Mehrdimensionale Verteilungen

Bei vielen Fragestellungen der Statistik werden mehrere Zufallsvariablen als Ergebnis eines Zufallsexperiments betrachtet. So kann man etwa bei einer Untersuchung von Haushalten die Variablen Haushaltsgre (X ), Haushaltseinkommen (Y ), Konsumausgaben (Z ) usw. untersuchen. Beispiel : Ein Verlag publiziert 6 Wochenzeitschriften. X1 , . . . , X6 seien die Anzahlen der verkauften Zeitschriften pro Woche. (X1 , . . . , X6 ) ist eine 6-dimensionale Zufallsvariable. Beispiel : Beschreibt X1 die Liegezeit und X2 die zu lschende Ladung eines Schiffes, so ist (X1 , X2 ) ein 2-dimensionaler stetiger Zufallsvektor. Der Vektor X = (X1 , . . . , Xk ) heit k -dimensionale Zufallsvariable oder Zufallsvektor mit k Komponenten.

5.1

Diskrete Verteilungen

Betrachtet man den Ausgang eines Zufallsexperiments, der durch das k -dimensionale Merkmal (X1 , . . . Xk ) beschrieben wird, dann heit die k -dimensionale Zufallsvariable (X1 , . . . , Xk ) diskret, falls ihr Wertebereich endlich oder abzhlbar unendlich, z. B. gleich Zk oder einer Teilmenge von Zk ist. Die Zufallsvariable heit stetig, falls ihr Wertebereich berabzhlbar unendlich ist und kein Punkt aus dem Rk eine positive Wahrscheinlichkeit besitzt. Die Wahrscheinlichkeitsfunktion eines diskreten k -dimensionalen Zufallsvektors wird durch eine Dichte mit k Argumenten beschrieben. p(x1 , . . . , xk ) = P (X1 = x1 X2 = x2 Xk = xk ) = P (X1 = x1 , X2 = x2 , . . . , Xk = xk ) Fr eine diskrete Dichte gelten folgende Eigenschaften: 1. 0 p(x1 , . . . , xk ) 1 2.
xk

...
x1

p(x1 , . . . , xk ) = 1; mit xi Z p(x1 , . . . , xk )

3. P (A) = P ((X1 , . . . , Xk ) A) = Die Verteilungsfunktion ist gegeben durch:

(x1 ...xk )A

F (x1 , . . . , xk ) = P (X1 x1 , . . . , Xk xk ) =
Xk xk

...
X1 x1

p(x1 , . . . , xk )

(5.1)

5.1.1 Randverteilungen Wir beschrnken uns auf den Fall k = 2; Randverteilungen hherer Ordnung werden analog gebildet. (X1 , X2 ) sei eine 2-dimensionale diskrete Zufallsvariable mit der Dichte p(x1 , x2 ) und der Verteilungsfunktion F (x1 , x2 ). Die eindimensionalen Randdichten und Randverteilungen sind deniert durch:

p1 (x1 ) = P (X1 = x1 ) =

p1 (x1 , x2i )
i =

(5.2) (5.3) (5.4) (5.5)

F1 (x1 ) = P (X1 x1 ) = F (x1 , ) p2 (x2 ) = P (X2 = x2 ) = p2 (x1j , x2 )


j =

F2 (x2 ) = P (X2 x2 ) = F (, x2 )

Sie entsprechen also den eindimensionalen Dichten und Verteilungen, wenn man die jeweils anderen Variablen unbercksichtigt lt.

29

5.1.2 Bedingte Verteilungen und bedingte Dichten Als Folge der Denition der bedingten Wahrscheinlichkeit P (A|B) = P (A B)/P (B) erhlt man die Denition einer bedingten Verteilung (zweidimensionaler Fall): FX1 |X2 (x1 |x2 ) = F (x1 , x2 ) F2 (x2 ) p(x1 , x2 ) p2 (x2 ) (5.7) (5.6)

Die bedingte Dichte ist gegeben durch: pX1 |X2 (x1 |x2 ) = (5.8)

Beispiel : Fr einen psychologischen Test, der aus zwei Teilen mit 2 bzw. 3 Aufgaben besteht, werden die Wahrscheinlichkeiten, da jeweils 0 bis 2 bzw. 0 bis 3 Aufgaben gemeinsam gelst werden, wie folgt angegeben: X 2 0.05 0.15 0.10 0.30

Y 0 1 2 pX (xi )

0 0.10 0.10 0.05 0.25

1 0.05 0.10 0.05 0.20

3 0.00 0.05 0.20 0.25

pY (yj ) 0.2 0.4 0.4 1.0

Die Verteilungsfunktion von (X, Y ) an der Stelle y1 = 0, x2 = 2 ist F (0, 2) = 0.1 + 0.05 + 0.05 = 0.2. 5.1.3 Unabhngigkeit Zwischen den Komponenten eines k -dimensionalen Zufallsvektors knnen Zusammenhnge bestehen. Ein wichtiger Spezialfall ist die stochastische Unabhngigkeit. Gilt fr einen diskreten Zufallsvektor (X1 , . . . , Xk ) die Aussage: p(x1 , . . . , xk ) = p1 (x1 ) . . . pk (xk ) so heien X1 , . . . , Xk stochastisch unabhngig. Satz: X1 , . . . , Xk sind genau dann stochastisch unabhngig, wenn gilt: F (x1 , . . . , xk ) = FX1 (x1 ) . . . FXk (xk ) Im letzten Beispiel sind X1 und X2 nicht stochastisch unabhngig, denn es gilt: F (0, 2) = 0.2 = F1 (0) F2 (2) = 0.2 0.75 = 0.15 5.1.4 Kovarianz und Korrelation (X1 , . . . , Xk ) sei ein k -dimensionaler diskreter Zufallsvektor. Die Funktion: i = E(Xi ) =
xk

(5.9)

(5.10)

(5.11)

...
x1

xi p(x1 , . . . , xk ) =
xi R

xi pi (xi )

(5.12)

heit Erwartungswert der Zufallsvariablen Xi , (i = 1, . . . , k ), wobei pi (xi ) die marginale Wahrscheinlichkeitsfunktion ist. Die Funktion: ii = 2 (Xi ) = E((Xi i )2 ) =
xi R

(xi i )2 pi (xi )

(5.13)

30

heit Varianz von Xi . Die Funktion: ij = E((Xi i )(Xj j )) =


xk R

...
x1 R

(xi i )(xj j ) p(x1 , . . . , xk )

(5.14) = (ij )i,j =1,...,k heit Kovarianz-

heit Kovarianz der Zufallsvariablen Xi und Xj (i = j ). Die Matrix matrix der Zufallsvariablen (X1 , . . . , Xk ). Fr die Kovarianz gilt: ij = E [(Xi E(Xi )) (Xj E(Xj ))] = E [(Xi Xj Xi E(Xj ) E(Xi ) Xj + E(Xi ) E(Xj )]

= E(Xi Xj ) E(Xi ) E(Xj ) E(Xi ) E(Xj ) + E(Xi ) E(Xj ) = E(Xi Xj ) E(Xi ) E(Xj ) Damit ergibt sich die zur praktischen Berechnung einfachere Formel: ij =
m n

(5.15)

xi xj p(xi , xj ) i j

(5.16)

i =1 j =1

Der Wert der Kovarianz hngt von den Einheiten ab, in denen xi und xj gemessen werden. Zur Normierung verwendet man den Korrelationskoefzienten: ij ij ij = = (5.17) ii jj 2 2
i j

Damit gilt: ij [1, 1] Satz: Sind Xi und Xj stochastisch unabhngig (und damit auch linear unabhngig), so gilt: ij = 0 |ij | = 1 ij = 0 (5.18) Besteht eine exakte lineare Beziehung zwischen Xi und Xj , so gilt: (5.19) Ein positiver Korrelationskoefzient nahe bei 1 weist auf einen starken positiven linearen Zusammenhang hin, whrend ein negativer Korrelationskoefzient auf einen negativen linearen Zusammenhang deutet. Zur inhaltlichen Interpretation von Korrelationskoefzienten beachte man die Ausfhrungen auf Seite 56. Fr die beiden psychologischen Tests gilt: 1 = 1.2, 2 = 1.55, 11 = 0.56, 22 = 1.2475 und 12 = E(X1 X2 ) 1 2 2.25 1.2 1.55 = 0.39 Kovarianzmatrix und Korrelationskoefzient: 11 12 0.56 0.39 = = 0.39 1.2475 21 22 12 = 0.39 0.56 1.2475 = 0.4666 (5.20)

(5.21) (5.22)

Die Kovarianzmatrix enthlt die Kovarianzen ij = Cov(Xi , Xj ), i = 1, . . . , k , j = 1, . . . , k . Die Hauptdiagonalelemente entsprechen dabei den Varianzen ii = i2 . Daher ist die Kovarianzmatrix immer symmetrisch. 5.1.5 Die Multinomialverteilung Beispiel : Ein wichtiges Beispiel fr eine k dimensionale diskrete Verteilung ist die Multinomialverteilung mit der Dichte: n! x x x p(x1 , . . . , xk ) = (5.23) 1 1 2 2 . . . k k x1 !x2 ! . . . xk ! mit 0 xi n, x1 +. . .+xk = n, 0 < i < 1 und 1 +. . .+k = 1. Mit einem Erwartungswert: i = ni , einer Varianzen: ii = ni (1 i ) 1 i k und Kovarianzen: ij = ni j i, j = 1, . . . , k und i = j . Als Spezialfall der Multinomialverteilung ergibt sich fr k = 2 die Binomialverteilung. 31

5.2

Stetige Verteilungen

Die Wahrscheinlichkeitsverteilung einer stetigen k -dimensionalen Zufallsvariablen (X1 , . . . , Xk ) wird durch die Dichte f (x1 , . . . , xk ) beschrieben, fr die gilt: P (a1 X1 b1 , . . . , ak Xk bk ) =
bk ak

...

b1 a1

f(x1 , . . . , xk ) dx1 . . . dxk

(5.24)

Dabei seien ai bi , fr alle ai , bi R, i = 1, . . . , n. Die Dichte f (x1 , . . . , xk ) erfllt folgende Bedingungen: 1. f(x1 , . . . , xk ) 0

2.

...

f(x1 , . . . , xk ) dx1 . . . dxk = 1

Die Verteilungsfunktion ist gegeben durch: F (x1 , . . . , xk ) = P (X1 x1 , . . . , Xk xk ) = 5.2.1 Randverteilungen Wir beschrnken uns wieder auf den Fall k = 2. Die Dichten und Verteilungsfunktionen der beiden Randverteilungen des stetigen Zufallsvektors (X1 , X2 ) sind gegeben durch: f1 (x1 ) = f2 (x2 ) =
xk

...

x1

f(t1 , . . . , tk ) dt1 . . . dtk

(5.25)

f(x1 , x2 ) dx2 , f(x1 , x2 ) dx1 ,

F1 (x1 ) = P (X1 x1 ) = F (x1 , ) F2 (x2 ) = P (X2 x2 ) = F (, x2 )

(5.26)

(5.27)

5.2.2 Die zweidimensionale Gleichverteilung Die Dichte der 2-dimensionalen gleichverteilten Zufallsvariablen (X1 , X2 ) ber dem Rechteck [a1 , b1 ] [a2 , b2 ] ist wie folgt deniert: 1 fr a1 x1 b1 und a2 x2 b2 (5.28) f (x1 , x2 ) = (b1 a1 )(b2 a2 ) 0 sonst Die Randdichten sind gegeben durch: f1 (x1 ) =
b2 a2

1 1 dx2 = (b1 a1 )(b2 a2 ) (b1 a1 )(b2 a2 )

b2 a2

1 dx2 =

1 b1 a 1

(5.29)

1 . Die Randverteilungen sind also eindimensionale GleichverteilunAnalog erhlt man f2 (x2 ) = b2 a 2 gen. 5.2.3 Unabhngigkeit Die stetigen Zufallsvariablen X1 , . . . , Xk heien stochastisch unabhngig, wenn gilt: f (x1 , . . . , xk ) = f1 (x1 ) . . . fk (xk ) Im letzten Beispiel sind X1 und X2 stochastisch unabhngig, da f (x1 , x2 ) = f1 (x1 ) f2 (x2 ). (5.30)

32

5.2.4 Kovarianz und Korrelation (X1 , . . . , Xk ) sei ein stetiger Zufallsvektor. Erwartungswert und Varianz der Komponente Xi sind gegeben durch: i = E(Xi ) =

...

xi f(x1 , . . . , xk )dxk . . . dx1 =

xi fi (xi ) dxi

(5.31)

ii = E(Xi i )2 =

...

(xi i )2 f(x1 , . . . , xk )dxk . . . dx1 =

(xi i )2 fi (xi )dxi (5.32)

Die Kovarianz der beiden Variablen Xi , Xj ist gegeben durch: ij = E((Xi i )(Xj j )) =

(5.33) (5.34)

(xi i )(xj j )f(xi , xj ) dxi dxj

Die Kovarianzmatrix von (X1 , . . . , Xk ) ist gegeben durch: 11 12 1k 21 22 2k = . . . . . . . . . . . . k1 k2 kk Der Korrelationskoefzient zwischen Xi und Xj ist deniert durch: ij = ij ii jj

(5.35)

(5.36)

5.2.5 Die k -dimensionale Normalverteilung Als Beispiel fr eine k -dimensionale stetige Verteilung geben wir die Dichte der k -dimensionalen Normalverteilung an. Sei X ein k -dimensionaler Spaltenvektor mit Erwartungswert und Kovarianzmatrix . Die Determinante wird mit | | und die Inverse der Kovarianzmatrix mit 1 bezeichnet. Daher sei | | > 0. 11 12 1k 1 21 22 2k . = . (5.37) , = . . . .. . . . . . . . . k k1 k2 kk Die Dichte der k -variaten Normalverteilung im Punkt x ist dann gegeben durch: 1 k 1 f (x1 , . . . , xk ) = (2 ) 2 | | 2 exp (x )T 2
1

(x )

(5.38)

Bemerkung: Wie aus der Dichte ersichtlich ist, gilt im Fall der Normalverteilung: ij = 0 fr i = j Xi und Xj sind stochastisch unabhngig (5.39)

wird in diesem Fall eine Diagonalmatrix, d.h. die Dichte kann als Produkt der marginalen Dichten geschrieben werden. f (x1 , . . . , xk ) = f1 (x1 ) . . . fk (xk ) (5.40)

Im Falle einer bivariaten Normalverteilung, also k = 2, erhlt man mit = 12 als Kovarianzmatrix: = 11 12 12 22 =
2 1 1 2 2 1 2 2

(5.41)

33

Determinante:
2 2 | | = 1 2 (1 2 )

(5.42)

Inverse:
1

1 2 2 1 2 (1 2 )

2 2 1 2 2 1 2 1

(5.43)

i2 bezeichnet die Varianzen von Xi , i = 1, 2. ist der Korrelationskoefzient von X1 und X2 . Als Dichte einer bivariaten Normalverteilung erhlt man:
f (x1 , x2 ) = (2)1 | |
1 2

1 exp (x1 1 , x2 2 ) 2 x 1 1 1
2

x 1 1 x2 2

(5.44)

1 2 1 2 1 2

exp

1 2(1 2 )

(x1 1 ) 1

(x2 2 ) 2

x 2 2 2

34

6
6.1

Grenzwertstze
Linearkombination von Zufallsvariablen

Ein Zufallsexperiment wird n-mal unabhngig wiederholt. Diese Standardformulierung bedeutet, da entweder ein Experiment n-mal durchgefhrt wird oder n Experimente (ohne gegenseitige Beeinussung) ein einziges Mal durchgefhrt werden. Man kann zeigen, da diese unterschiedlichen Auffassungen mathematisch identisch sind. Formal wird dieses Experiment durch eine Folge von n stochastisch unabhngigen Zufallsvariablen X1 , . . . , Xn beschrieben mit existierenden Erwartungswerten i und Varianzen i2 . Fr die Linearkombination: Z = a1 X 1 + . . . + a n X n gilt der folgende Satz:
n

(6.1)

1.

E(Z) =
i =1 n

ai i ai2 i2
i =1

2.

V (Z) =

Beispiel : Seien X1 , . . . , Xn stochastisch unabhngig identisch verteilt. Sei x das arithmetische Mittel: = 1 X n
n

Xi
i =1

(6.2)

1 , so ist: Setzen wir a1 = . . . = an = n = 1 X1 + . . . + 1 Xn = a1 X 1 + . . . + a n X n X n n Also gelten die Aussagen: = E(X)


n n

(6.3)

ai =
i =1 i =1

1 = , n

= 2 (X)
2

ai2
i =1

=
2 i =1

1 1 = 2 2 n n

(6.4)

6.2

Stochastische Ungleichungen

6.2.1 Die Ungleichung von Markov Satz: Es sei X eine nicht-negative Zufallsvariable mit Erwartungswert E(X). Dann ist fr jede positive Zahl die folgende Ungleichung erfllt: P (X ) Beweis: 1. X diskret

E(X)

(6.5)

E(X) =
j =0

j pj
j

j pj
j

pj =
j

pj = P (X )

2. X stetig E(X) =
0

x f (x) dx

x f (x) dx

f (x) dx =

f (x) dx = P (X )

Beispiel : Die durchschnittliche Anzahl von Antrgen bei einer Behrde ist 5. Wie gro ist eine obere Schranke der Wahrscheinlichkeit, da 10 oder mehr Antrge eintreffen? P (X 10) E(X) 5 1 = = 10 10 2 35 (6.6)

6.2.2 Die Ungleichung von Tschebyscheff Satz: Existiert fr eine Zufallsvariable X mit Erwartungswert E(X) zustzlich die Varianz 2 (X), so folgt fr alle > 0 : P (|X | ) 2 (X)
2

(6.7)

Da die Ungleichung von Tschebyscheff eine Aussage ber die Wahrscheinlichkeit einer Abweichung vom Mittelwert macht, mu fr eine Abschtzung von P (X k) zuerst eine entsprechende Transformation durchgefhrt werden. Da hier eine Maximalwahrscheinlichkeit berechnet wird, kann die Ungleichung von Tschebyscheff auch fr einseitige Abweichungen vom Mittelwert verwendet werden. Beweis: Es gilt P (|X | ) = P ((X )2 2 ). Die Anwendung des Satzes von Markov auf die Zufallsvariable (X )2 ergibt: P ((X )2
2

E((X )2 )
2

2 (X)
2

(6.8)

Beispiel : Der Bedarf an Teilen eines bestimmten Typs in einem Produktionsbetrieb wird durch die Zufallsvariable X beschrieben. Aus Erfahrung ist bekannt, da E(X) gleich 45 und 2 (X) = 5 ist. Mit welcher Wahrscheinlichkeit liegt der Bedarf zwischen 40 und 50 Teilen? P (40 < X < 50) = P (|X 45| < 5) = 1 P (|X 45| 5) 5 = P (|X 45| 5) = 0.2 25 Die Wahrscheinlichkeit, da der Bedarf zwischen 40 und 50 Teilen liegt, ist mindestens 0.8. (6.9)

6.3

Schwaches Gesetz der groen Zahlen

Satz:(Schwaches Gesetz der groen Zahlen) Existiert fr stochastisch unabhngige und identisch verteilte Zufallsvariablen Xi , i = 1, 2, . . . der Erwartungswert und die Varianz 2 , dann gilt fr das arithmetische Mittel X und fr beliebig kleine > 0 die Aussage:
n

lim P (|Xn | ) = 0

(6.10)

Fr n ist also die Wahrscheinlichkeit einer Abweichung des Wertes x vom Mittelwert um mehr als eine Konstante gleich Null. Man spricht von einer Konvergenz nach Wahrscheinlichkeit. Dieser Satz ist ein Spezialfall des folgenden allgemeinen Satzes: Xi , i N, seien stochastisch unabhngige und identisch 2 verteilte Zufallsvariablen. g(x) sei eine reellwertige Funktion. g = E(g(Xi )) und g = 2 (g(Xi )) n 1 X = n i =1 g(Xi ). Dann gilt die folgende Aussage fr beliebig existieren. Es sei g X der Mittelwert: g kleine > 0.
n

lim P (|g X g | ) = 0
n 2

(6.11) 1 1 2 2 n g = g 2 n n

Beweis:

1 X ) = 2 (g n

2 (g(Xi )) =
i =1

(6.12)

Aus der Tschebyscheff-Ungleichung folgt: P ( |g X g )| ) Daraus folgt:


n

X ) 2 (g
2

1 n

2 g

(6.13)

lim P (|g X g | ) = 0

(6.14)

Ein Zufallsexperiment wird n mal unabhngig wiederholt. Tritt im i -ten Versuch das Ereignis A auf, nimmt die Zufallsvariable Xi den Wert 1 an, sonst den Wert 0. Sei Xi Bernoulli-verteilt mit = P (A) = und 2 (Xi ) = (1 ). Die relative Hugkeit von A in n Versuchen ist gegeben durch: = p n = X 1 n
n

Xi
i =1

(6.15)

36

Man beachte, da p n die relative Hugkeit ist, die wir bereits in der deskriptiven Statistik kennengelernt haben. Satz:(Theorem von Bernoulli) Es sei p n die relative Hugkeit eines Ereignisses in n unabhngigen Wiederholungen eines Zufallsexperiments und die Wahrscheinlichkeit des Ereignisses. Dann gilt:
n

lim P (|p n | ) = 0

(6.16)

Dies bedeutet, da die Wahrscheinlichkeit einer beliebig kleinen Abweichung der relativen Hugkeit von der Wahrscheinlichkeit eines Ereignisses bei wachsendem n immer kleiner wird. Daher lt sich im Fall unabhngiger Zufallsexperimente der formal eingefhrte Wahrscheinlichkeitsbegriff inhaltlich erklren. Auch in der Praxis kann man die Ergebnisse sinnvoll verwenden, denn aufgrund der Gesetze kann man Parameter einer Verteilung (konsistent) schtzen.

6.4

Zentraler Grenzwertsatz

gegen den Mittelwert konvergiert. Das Gesetz der groen Zahl besagt, da das arithmetische Mittel X Der Zentrale Grenzwertsatz gibt nun Auskunft darber, wie X gegen konvergiert. Unter den gleichen Voraussetzungen wie im vorigen Abschnitt gilt nun: Satz: Zentraler Grenzwertsatz von Lindeberg - Levy Xi , i N, sei eine Folge von stochastisch unabhngigen und identisch verteilten Zufallsvariablen mit Erwartungswert und Varianz 2 . Dann gilt fr die Folge Sn der standardisierten Partialsummen der Zufallsvariablen Xi : Sn =
n n i =1

Xi n X = n n (x) fr alle x R

(6.17) (6.18)

lim FSn (x) =

Hier bezeichnet FSn die Verteilungsfunktion von Sn und die Standardnormalverteilung. Es folgt, da N (, 2 /n) fr n . Man spricht in solchen Fllen von einer Konvergenz nach Verteilung. Ab X n 30 ist Sn in guter Nherung normalverteilt. Fr die Anwendbarkeit des zentralen Grenzwertsatzes ist nur die Existenz von Erwartungswert und Varianz wichtig, die Gestalt der Verteilung spielt keine Rolle. Beispiel : Wir untersuchen die Wahrscheinlichkeitsverteilung der Anzahl X von Wappen in 10 Mnzwrfen (Werfen mit einer fairen Mnze). Da P (Wappen)= 1/2 ist, ist X B10;0.5 verteilt. Wir erhalten die folgende Verteilungsfunktion und vergleichen sie mit der N (5, 2.5) Verteilungsfunktion. j F (j ) (j 5) 2.5 0 0 0 1 0.01 0.01 2 0.05 0.03 3 0.17 0.10 4 0.38 0.26 5 0.62 0.50 6 0.83 0.74 7 0.95 0.90 8 0.99 0.97 9 1.00 0.99

37

7
7.1

Grundbegriffe der mathematischen Statistik


Grundgesamtheit und Stichprobe

Als Grundgesamtheit bezeichnen wir die Gesamtheit aller Merkmalstrger, die in einer statistischen Untersuchung auftreten knnen. Beispiele fr Grundgesamtheiten sind die Zahl der Einwohner der Bundesrepublik Deutschland am 1.1.1990 (endliche Grundgesamtheit). Ein Wrfelexperiment mit einem Wrfel lt sich beliebig oft unter den gleichen Bedingungen wiederholen (unendliche Grundgesamtheit). Wird aus der Grundgesamtheit ein Element zufllig ausgewhlt (d.h. jedes Element besitzt dieselbe Chance, ausgewhlt zu werden) und der Wert des zu untersuchenden Merkmals gemessen, so kann der Wert x als Realisation einer Zufallsvariablen X aufgefat werden. Fr ein Intervall I ist also P (X I ) die Wahrscheinlichkeit dafr, da ein Element aus der Grundgesamtheit ausgewhlt wird, dessen Merkmalswert in I liegt. Wir bezeichnen daher die Verteilung von X auch als Verteilung der Grundgesamtheit auf dem Merkmal X. Die Verteilungsparameter (Erwartungswert, Median, . . .) und die Verteilungsfunktion der Grundgesamtheit charakterisieren die Zufallsvariable X. In den meisten Fllen sind diese Parameter jedoch unbekannt. Unsere Aufgabe ist es, Aussagen ber diese Parameter zu machen. Eine Mglichkeit zur Lsung dieser Aufgabe ist die Durchfhrung einer Totalerhebung, bei der bei jedem Objekt die Merkmalsausprgung gemessen wird. Allein aus nanziellen Grnden ist dies meistens nicht durchfhrbar. Eine Erhebung der Grundgesamtheit wird unsinnig, wenn mit der Untersuchung die Zerstrung des Objekts verbunden ist (Lebensdauer von Glhbirnen). Daher mu man sich oft damit begngen, einige Objekte aus der Grundgesamtheit auszuwhlen. Werden n Objekte herausgegriffen, so sprechen wir von einer Stichprobe vom Umfang n. Werden die n Objekte unabhngig voneinander gezogen, so da jedes Element die gleiche Chance besitzt ausgewhlt zu werden, sprechen wir von einer Zufallsstichprobe, die bei endlicher Grundgesamtheit einem Ziehen mit oder ohne Zurcklegen entspricht. In einer endlichen Grundgesamtheit ist bei einmaliger Ziehung die Wahrscheinlichkeit, da das zufllig ausgewhlte Element den Merkmalswert x besitzt, gleich der relativen Hugkeit von x in der Grundgesamtheit. Weiter stimmt die aus allen N Werten der endlichen Grundgesamtheit gebildete empirische Verteilungsfunktion mit der Verteilungsfunktion der Grundgesamtheit berein.

7.2

Stichprobenfunktionen

Will man die durchschnittliche Kinderzahl der deutschen Familie feststellen, so kann man entweder eine Totalerhebung durchfhren oder sich mit einer Stichprobe begngen. In beiden Fllen wird das arithmetische Mittel berechnet. Dieses reprsentiert bei der Totalerhebung die mittlere Kinderzahl der Grundgesamtheit, bei der Stichprobe hingegen die mittlere Kinderzahl einer speziellen, aber zufllig ausgewhlten Teilmenge der Grundgesamtheit. Der Stichprobenmittelwert kann sich deshalb vom Mittelwert der Grundgesamtheit unterscheiden. Bei wiederholter Stichprobenentnahme erhalten wir eine Verteilung von Stichprobenmittelwerten, die von der Verteilung der Grundgesamtheit abhngt. Die Analyse dieser Verteilung hilft uns, die Genauigkeit des Stichprobenverfahrens zu beurteilen bzw. Manahmen zur Verbesserung der Genauigkeit zu entwickeln. Mazahlen wie Erwartungswert und Varianz, die die Grundgesamtheit charakterisieren, werden als Parameter bezeichnet. Eine Zufallsvariable Z = g(X1 , . . . , Xn ) (eine Funktion der Zufallsvariablen X1 , . . . , Xn der Stichprobe), heit eine Stichprobenfunktion oder auch Statistik. Mit Hilfe von Statistiken kann auf die Parameter der Grundgesamtheit geschlossen werden. Dies ist Gegenstand der Inferenzstatistik. Man kann Statistiken zu folgenden Zwecken benutzen: 1. Zur Schtzung von Parametern der Grundgesamtheit. 2. Zur Schtzung eines Intervalls, das mit einer vorgegebenen Sicherheitswahrscheinlichkeit den wahren Parameter berdeckt. 3. Zur berprfung einer Hypothese, ob ein Parameter in einer bestimmten Region liegt. 4. Zur Prognose 38

7.2.1 Arithmetisches Mittel bezeichnet. Fr X gilt: Der Mittelwert einer Zufallsstichprobe (arithmetisches Mittel) wird mit X = 1 X n
n

Xi ,
i =1

= , E(X)

= 2 (X)

1 2 (X) n

(7.1)

Beweis: Die Zufallsvariablen Xi einer Zufallsstichprobe (X1 . . . Xn ) sind unabhngig voneinander und wie das Merkmal X verteilt. Daher gilt die Behauptung: N (, 2 /n) verteilt. Ist die Grundgesamtheit N (, 2 ) verteilt, so ist X annhernd normalverteilt. Ist der Umfang n der Stichprobe hinreichend gro, so ist X Dies gilt auch dann, wenn die Zufallsvariable Xi nicht normalverteilt ist (Zentraler Grenzwertsatz). Ist eine Grundgesamtheit endlich, wird hug eine Stichprobe ohne Zurcklegen erhoben. In diesem Fall sind die Zufallsvariablen Xi , die das Ergebnis der i -ten Ziehung reprsentieren, nicht voneinander unabhngig. Besitzt die Grundgesamtheit N Elemente, so ist beim Ziehen ohne Zurcklegen:
2 = (X) N n = , 2 (X) E(X) n N 1

(7.2)

beim Ziehen ohne Zurcklegen weniger stark als beim Wegen (N n)/(N 1) < 1 streut die Statistik X Ziehen mit Zurcklegen, jedoch geht dieser Vorteil fr groe N wegen limN (N n)/(N 1) = 1 verloren. Beispiel : Das Durchschnittseinkommen einer Gruppe von unselbstndig Erwerbsttigen betrgt 1900 DM im Monat mit Standardabweichung = 200 DM. Man bestimme ein approximatives Intervall um , einer Zufallsstichprobe vom Umfang in dem mit Wahrscheinlichkeit 0.96 der Stichprobenmittelwert X n = 400 liegt: Wegen n = 400 30 ist X annhernd N (1900, 40 000/400) = N (1900, 100) verteilt. 1900 + c) = 0.96. Gesucht ist c mit P (1900 c X 1900 + c (X) 1900 c (X) = 0.96 c 10 c 10 = 0.96 (7.3)

Aus der Normalverteilungstabelle erhlt man (2.06) = 0.98. Daraus folgt: (2.06) (2.06) = 0.96 und somit c = 10 2.06 = 20.6. Das gesuchte approximative Intervall ist daher [1879.4, 1920.6] . 7.2.2 Die relative Hugkeit Interessiert uns nur die Wahrscheinlichkeit eines Ereignisses A und setzen wir Xi = 1, falls A im i -ten Versuch realisiert wird, und Xi = 0 sonst, so erhlt man als Spezialfall des arithmetischen Mittels die relative Hugkeit eines Ereignisses A in einer Stichprobe vom Umfang n. p n = 1 n
n

Xi
i =1

(7.4)

Der Erwartungswert von p n ist gleich der Wahrscheinlichkeit von A: E(p n) = Da in einer Zufallsstichprobe jedes Xi die Varianz (1 ) besitzt, gilt: (1 ) n Fr n(1 ) 10 ist p n annhernd normalverteilt: 2 (p n) = p n N , (1 ) n (7.6) (7.5)

(7.7)

In einer endlichen Grundgesamtheit besitzt p n beim Ziehen ohne Zurcklegen den Erwartungswert und die Varianz: (1 ) N n 2 (p (7.8) n) = n N 1 39

7.2.3 Stichprobenvarianz Die Varianz einer Zufallsvariablen X wird aus einer Zufallsstichprobe durch die Stichprobenvarianz geschtzt: S2 = 1 n1
n i =1

2 (Xi X)

(7.9)

Die Stichprobenvarianz S 2 besitzt in einer Zufallsstichprobe den Erwartungswert 2 . E(S 2 ) = 2 Ist die Grundgesamtheit normalverteilt, so ist der Ausdruck: (n 1) S2 1 = 2 2
n i =1

(7.10)

2 (Xi X)

(7.11)

2 2 2 -verteilt mit m = n 1 Freiheitsgraden (kurz n 1 verteilt). Die -Verteilung besitzt eine positive Dichte f (x) ber 0 x < und hngt von einem Parameter m, m = 1, 2, . . . (Freiheitsgrade) ab. Sie 2 besitzt den Erwartungswert = m und die Varianz 2 = 2m. Fr eine m verteilte Zufallsvariable X ist ab m 30 der Ausdruck: 2X 2m 1 annhernd N (0, 1) verteilt. (7.12)

Und fr das -Quantil x der Verteilung von X gilt in diesem Fall: x 1 (z + 2m 1)2 2 (7.13)

Dabei ist z das -Quantil der N (0, 1) Verteilung. 7.2.4 Gewhnliche Stichprobenmomente Die gewhnlichen Stichprobenmomente um 0: Mk = 1 n
n i =1

Xik

(7.14)

besitzen als Erwartungswert die gewhnlichen Momente der Grundgesamtheit E(X k ).

40

8
8.1

Punkt und Intervallschtzung


Punktschtzung

Eine Punktschtzung liegt vor, wenn aufgrund einer Stichprobe durch eine Statistik g(X1 , . . . , Xn ) ein fr einen unbekannten Parameter der Verteilung der Grundgesamtheit festgelegt wird. X Schtzer 2 2 und S sind Punktschtzer fr bzw. . Beispiel : Der Median x0.5 der Stichprobenwerte x1 , . . . , xn ist ein Punktschtzer fr den Median der Grundgesamtheit x0.5 . Er wird folgendermaen berechnet: Zunchst werden die n Stichprobenwerte der Gre nach geordnet. x[1] x[2] . . . x[n] Dann ist x0.5 deniert durch: x0.5 = x
1 (x ] 2 [n 2
n+1 2

(8.1)

falls n ungerade ist (der Wert in der Mitte) + x[ n +1] ) falls n gerade ist (arithmetisches Mittel der mittleren Werte)
2

(8.2)

Ist die Verteilung einer Grundgesamtheit symmetrisch um , so ist x0.5 auch ein inhaltlich sinnvoller Punktschtzer fr den Erwartungswert . Schtzer werden nach Gtekriterien, z. B. Erwartungstreue, Efzienz und Konsistenz, beurteilt. 8.1.1 Erwartungstreue (Unverzerrtheit) fr einen Parameter heit erwartungstreu, wenn gilt: Ein Punktschtzer = E() Beispiel : =X (ist erwartungstreu fr ) 1 n1
n i =1

(8.3)

(8.4) (8.5)

= S2 = 1 n
n i =1

2 (Xi X)

(ist erwartungstreu fr 2 )

2 (Xi X)

(ist nicht erwartungstreu fr 2 )

(8.6)

8.1.2 Efzienz 1 und 2 erwartungstreu fr . 1 ist wirksamer (efzienter) als 2 , wenn er eine kleinere Es seien Varianz besitzt: 1 ) < V ( 2) V ( (8.7)

d.h. ein Schtzer ist umso wirksamer, je geringer seine Streuung ist. als auch X0.5 erwartungstreue Beispiel : In einer N (, 2 ) verteilten Grundgesamtheit sind sowohl X Schtzer fr . Es gilt: = 1 2 < V (X0.5 ) = 1 2 V (X) n 2 n (8.8)

ist wirksamer als X0.5 Daher gilt: X Mit Hilfe der sogenannten Informationsungleichung von Rao-Cramr kann man berechnen, wie gro die Varianz des wirksamsten aller unverzerrten Schtzer ist.

41

8.1.3 Konsistenz ist konsistent fr , wenn gilt:


n

n | > ) = 0 lim P (|

fr alle

>0

(8.9)

konvergiert fr n nach Wahrscheinlichkeit gegen den Wert . d.h. der Schtzer

8.2

Schtzverfahren

8.2.1 Momentenmethode Lassen sich die unbekannten Parameter i als Funktionen gi (m1 , . . . , mr ) der (auch unbekannten) gewhnlichen Momente mk = E(X k ) darstellen, so heit die Stichprobenfunktion: i = gi (M1 , . . . , Mr ) Momentenschtzer fr i , wobei: 1 Mk = n
n i =1

(8.10)

Xik

(8.11)

die Stichprobenmomente sind. Die Momentenschtzer sind im allgemeinen nicht efzient. 8.2.2 Maximum-Likelihood-Methode Wird eine Grundgesamtheit durch einen unbekannten Parameter charakterisiert, so hngt die Dichte vom unbekannten Parameter ab: f (x |) im stetigen Fall (8.12) p(j |) = P (X = j |) im diskreten Fall Beispiel : Ist die Grundgesamtheit exponentialverteilt, so gilt: f (x |) = f (x |) = f (x) = ex fr x0 (8.13)

Ist die Grundgesamtheit poissonverteilt, so gilt: p(x |) = p(x |) = px = e x , xN x! (8.14)

Liegt eine unabhngige Zufallsstichprobe vom Umfang n vor, so besitzt (X1 , . . . , Xn ) die Dichte: f (x1 , . . . , xn ) = f (x1 ) f (x2 ) . . . f (xn ) im stetigen Fall bzw. p(x1 , . . . , xn ) = p(x1 ) p(x2 ) . . . p(xn ) im diskreten Fall. (8.15) (8.16)

Bei der Likelihoodfunktion rckt der Parameter in den Vordergrund, die Werte der Stichprobe werden als gegeben aufgefat. Die Likelihoodfunktion stimmt mit der Dichte der Stichprobe berein. Im Gegensatz zur Dichte werden die Parameter als variabel und die Realisierungen xi als fest aufgefat. L() = L( |x1 , . . . , xn ) = f (x1 |) . . . f (xn |) im stetigen Fall p(x1 |) . . . p(xn |) im diskreten Fall (8.17)

Likelihoodprinzip nach Fisher: Fr das Stichprobenergebnis (x1 , . . . , xn ) whlt man denjenigen Wert als Schtzwert fr aus, fr den die Likelihoodfunktion am grten ist. Der so konstruierte Schtzer heit Maximum-Likelihood-Schtzer. die Wahrscheinlichkeit fr die Beobachtung Im diskreten Fall ist fr den so berechneten Wert die Dichte f (x1 , . . . , xn ) an den beobachteten Werten x1 , . . . , xn am grten, im stetigen Fall ist fr am grten. 42

Beispiel : Eine Urne enthalte schwarze und weie Kugeln mit Anteilen und 1 . Bei einer Zufallsstichprobe von n Kugeln aus der Urne werden k schwarze Kugeln gezogen. Die Anzahl X der schwarzen Kugeln ist Bn, verteilt. Daher ist die Likelihoodfunktion gegeben durch: L() = n k (1 )nk k (8.18)

Der Wert ist nun so zu bestimmen, da L( ) ein Maximum annimmt. Man beachte, da bei der Bestimmung der Likelihoodfunktion durch die Produktbildung der einzelnen Dichten der Zufallsvariablen die Unabhngigkeit vorausgesetzt wird. Bei der Bestimmung des Maximums geht man zweckmigerweise von der zur Basis e logarithmierten Likelihoodfunktion aus, um Produkte zu Summen zu transformieren, die einfacher differenziert werden knnen. Da der Logarithmus eine streng monotone Funktion ist, nimmt die logarithmierte Likelihoodfunktion an der gleichen Stelle wie die ursprngliche Funktion das Maximum an. Man erhlt: ln L( ) = ln n + ln k + ln (1 )nk k n = ln + k ln + (n k) ln (1 ) k (8.19) (8.20)

Ableiten nach und Nullsetzen der Ableitung ergibt: ln L( ) 1 1 = 0 + k + (n k) (1) = 0 1 (8.21)

k . Die relative Hugkeit p k ist daher der Maximum-Likelihood-Schtzer fr Daraus folgt: =n n = n (es handelt sich tatschlich um ein Maximum). L( ) nimmt fr n = 10 und k = 3 folgende Werte an: L( ) 0.1 0.06 0.2 0.20 0.3 0.27 0.4 0.21 0.5 0.12 0.7 0.01

Beispiel : Der Maximum-Likelihood-Schtzer fr den Parameter einer N (, 2 )-Verteilung soll bestimmt werden, wobei 2 als bekannt vorausgesetzt wird. Die Likelihood-Funktion ist aufgrund der Unabhngigkeit der Stichprobe:
n

L() =
i =1

1 2

exp

(xi )2 2 2

(8.22)

Die Log-Likelihood-Funktion (logarithmierte Likelihoodfunktion) ist:


n

ln L() =
i =1

ln

1 2

(xi )2 2 2
n i =1

(8.23)

Die erste Ableitung nach ist: ln L() =


n n

i =1

1 2 (xi ) (1) = 2 2

xi 2

(8.24)

Nullsetzen und Ausen nach ergibt: 1 2 xi =0


i =1 n

xi
i =1

n =0
n

(8.25) xi
n

n =
i =1

ML =

1 n

xi = x
i =1

43

8.2.3 Methode der kleinsten Quadrate Beispiel : Aus den Beobachtungswerten x1 , . . . , xn soll der Erwartungswert der Grundgesamtheit so geschtzt werden, da die Summe der Quadrate der Abstnde der Beobachtungen xi von durch:
n

(xi )2 Min
i =1

(8.26)

minimiert wird. Ableiten der Summe nach und Nullsetzen der Ableitung ergibt:
n n

(xi )2 =
i =1 i =1

2(xi ) (1) = 0

(8.27)

Daraus folgt: KQS 1 = n


n

xi
i =1

(8.28)

x ist also der Kleinste-Quadrate-Schtzer fr .

8.3

Intervallschtzung

mit dem wahBei der Punktschtzung ist im allgemeinen die Wahrscheinlichkeit, da der Schtzer ren Parameter bereinstimmt, gleich Null. Daher konstruieren wir ein Intervall, das zu vorgegebener Wahrscheinlichkeit 1 den wahren, aber unbekannten Parameter einschliet. Denition: Unter einem Kondenzintervall fr zur Sicherheit S = 1 , 0 < < 1, verstehen wir ein Intervall [, ], dessen Grenzen und Zufallsvariablen sind, fr die gilt: P ( ) = 1 (8.29)

Die Sicherheit S = 1 heit auch Kondenzniveau oder Vertrauenswahrscheinlichkeit. Es gibt einund zweiseitige Kondenzintervalle. Die Lnge 2d = heit Genauigkeit der Kondenzschtzung in einem zweiseitigen Kondenzintervall. Unter einem einseitigen Kondenzintervall zur Sicherheit S = 1 verstehen wir ein Zufallsintervall (, ] bzw. [, ) mit: P ( ) = 1 bzw. P ( ) = 1 . (8.30)

Die Intervallgrenzen und sind also identisch mit den - und 1 -Quantilen der zugrundeliegenden Verteilung. Bei zweiseitigen Kondenzintervallen, entsprechen hingegen sie den - und 1 -Quantilen. 2 2 8.3.1 Kondenzintervall fr bei normalverteilter Grundgesamtheit und bekannter Varianz 2 Ein symmetrisches Kondenzintervall fr zu S = 1 wird folgendermaen konstruiert. Da jedes N (, 2 /n) verteilt. Daher ist die GaustaElement der Grundgesamtheit N (, 2 ) verteilt ist, ist X tistik : X n N (0, 1) normalverteilt. Somit gilt: P z
2

(8.31)

X n z1 2

= 1 ,

(8.32)

wobei z/2 bzw. z1/2 die /2 bzw. 1 /2 Quantile der N (0, 1) Verteilung sind. Daraus folgt: z
2

x n z1/2
2

(8.33) (8.34)

x x n und n z1 2 44

x z und x z1 2 n 2 n Wegen z/2 = z1/2 erhlt man das zweiseitige Kondenzintervall zur Sicherheit S = 1 x z1 x + z1 2 2 n n Die einseitigen Kondenzintervalle zur S = 1 sind: x z1 , n und , x + z1 n

(8.35)

(8.36)

(8.37)

Beispiel : Um den durchschnittlichen Benzinverbrauch pro 100 km eines neuen Modells zu ermitteln, lt eine Automobilrma mit 25 Versuchswagen Testfahrten durchfhren. Die Firma interessiert sich fr das Kondenzintervall zu S = 0.95 fr den durchschnittlichen Benzinverbrauch pro 100 km. Es wird angenommen, da der Verbrauch normalverteilt ist mit = 0.9 /100km. Der Durchschnittsverbrauch aller 25 Testwagen war 9.1 /100km. Daraus folgt: 0 .9 =x = 8.75 z0.975 = 9.1 1.96 n 5 0 .9 = 9.45 =x + z0.975 = 9.1 + 1.96 n 5 (8.38)

(8.39)

8.3.2 Kondenzintervall fr bei normalverteilter Grundgesamtheit und unbekannter Varianz Die unbekannte Varianz 2 wird durch die Stichprobenvarianz: 1 S = n1
2 n i =1

2 (Xi X)

(8.40)

geschtzt. Bei normalverteilter Grundgesamtheit ist die t-Statistik : t = X n S (8.41)

t -verteilt mit n 1 Freiheitsgraden. Die t -Verteilung (auch Student-Verteilung1 genannt) besitzt eine Dichte f (x) ber < x < und einem Parameter m = 1, 2, . . ., der als Freiheitsgrad bezeichnet und durch df (degrees of freedom) abgekrzt wird. Die t -Verteilung ist symmetrisch um den Erwartungswert = 0 und besitzt die Varianz 2 = m/(m 2). Ist m 30, so kann die t -Verteilung durch die Normalverteilung angenhert werden. Das Kondenzintervall fr zur Sicherheit S = 1 ist: s s + t1 ;n1 x t1 ;n1 x 2 2 n n (8.42)

t1 ;n1 ist das 1 /2 Quantil der t Verteilung mit n 1 Freiheitsgraden. Die einseitigen Kondenzin2 tervalle sind: s s x t1;n1 , bzw. , x + t1;n1 n n
t -Verteilung

(8.43)

1 Unter dem Pseudonym Student verffentlichte 1907/1908 William Sealy Gosset ( 13.6.1876, 16.10.1937) die

45

8.3.3 Kondenzintervall fr bei groen Stichproben annhernd normalverteilt. Bei bekannter Varianz 2 lautet Ist der Umfang n der Stichprobe 30, so ist X das Kondenzintervall fr zu S = 1 : x z1 x + z1 2 2 n n (8.44)

wobei z1/2 das 1 /2 Quantil der N (0, 1) Verteilung ist. Ist die Varianz 2 unbekannt, so kann 2 durch s 2 geschtzt werden, da s 2 fr 2 konsistent ist. In diesem Fall ist das Kondenzintervall fr zu S = 1 : s s x z1 x + z1 2 2 n n 8.3.4 Kondenzintervall fr eines Ereignisses A mit P (A) = Ist die Wahrscheinlichkeit eines Ereignisses A, so ist p n (relative Hugkeit von A in einer Stichprobe vom Umfang n) eine Statistik fr . Fr n(1 ) 10 ist p annhernd N (, (1 )/n) verteilt. Das Kondenzintervall fr zur Sicherheit S = 1 ist: p z1
2

(8.45)

p( 1 p) p + z1 2 n

p( 1 p) n

(8.46)

Bemerkung: Wie an den vorangegangenen Beispielen zu sehen ist, steigt bei gleichbleibendem Kondenzniveau die Przision der Schtzung mit wachsendem Stichprobenumfang. Wenn der Stichprobenumfang vervierfacht wird, verdoppelt sich die Przision. 8.3.5 Kondenzintervall fr 2 bei normalverteilter Grundgesamtheit Die Statistik: 1 S = n1
2 n i =1

2 (Xi X)

(8.47)

ist ein erwartungstreuer Schtzer fr 2 . Der Ausdruck: (n 1) S 2 2 (8.48)

ist 2 -verteilt mit n 1 Freiheitsgraden. Das zweiseitige Kondenzintervall fr 2 zu S = 1 ist: (n 1) s 2 (n 1) s 2 2 2 1 2 ;n1 ;n1
2 2

(8.49)

Beispiel : Ein Papierband wird von einer Maschine in ca. 24 cm lange Stcke geschnitten. Um die Streuung der Lnge zu ermitteln, wurde an 24 zufllig ausgewhlten Stcken die Lnge nachgemessen. Man erhielt s 2 = 0.88 cm2 . Es soll das Kondenzintervall fr 2 zu S = 0.99 berechnet werden: 2 = (n 1)s 2 23 0.88 = = 0.46 2 44.2 0.995;23 (n 1)s 2 23 0.88 = 2.19 = 2 9.26 0.005;23 (8.50)

2 =

(8.51)

46

Signikanztests

Bisher haben wir Schtzverfahren (Punkt- und Intervallschtzungen) fr unbekannte Parameter einer Grundgesamtheit behandelt. In vielen konkreten Problemstellungen mu jedoch zwischen zwei Hypothesen entschieden werden. Beispiele: Hypothese: Ein pharmazeutisches Prparat hat die beabsichtigte Wirkung. Gegenhypothese: Es hat nicht die gewnschte Wirkung. Hypothese: Ein neues Verfahren zur Herstellung von Glhbirnen bewirkt eine Verlngerung der Lebensdauer gegenber einem alten Verfahren. Gegenhypothese: Die nach dem neuen Verfahren hergestellten Birnen besitzen keine lngere Lebensdauer.

9.1 Aufbau von Signikanztests


Eine statistische Hypothese ist eine Vermutung ber die Wahrscheinlichkeitsverteilung der Grundgesamtheit, die in den meistenAnwendungen alsVermutung ber einen unbekannten Parameter formuliert wird. Die zu untersuchende: H0 -Hypothese wird als Nullhypothese bezeichnet, whrend die relevante Alternative als Alternativhypothese H1 bezeichnet wird. Eine Entscheidungsvorschrift, die aufgrund der Werte einer Stichprobe angibt, wann fr H0 bzw. H1 zu entscheiden ist, heit Signikanztest. Der Annahmebereich ist die Menge aller mglichen Datenkonstellationen, die zur Entscheidung fr die Nullhypothese H0 fhren. Der kritische Bereich oder Ablehnungsbereich ist die Menge der Datenkonstellationen, die zur Annahme von H1 fhren. Es mssen zwei Hypothesen H0 und H1 , die sich durch disjunkte Parameterbereiche denieren, gegeneinander abgegrenzt werden. Die Nullhypothese H0 wird so gewhlt, da es im Interesse des Testenden liegt, diese mit kontrollierbarem Fehler abzulehnen. Daraus folgt, da in der Regel die Alternativhypothese H1 das belegende Ergebnis widerspiegelt. Beispiel : Ist der Parameter einer Grundgesamtheit unbekannt und sind die mglichen Werte von nur 0 und 1 , so lauten die Hypothesen: H0 : = 0 , H1 : = 1 (9.1) fr dargestellt (links die Dichte, wenn In der folgenden Abbildung sind die Dichten einer Statistik H0 wahr ist).
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

f ()

Um eine Entscheidungsvorschrift festzulegen, wird die Menge aller Datenkonstellationen in E0 und E1 zerlegt: 1 , . . . , xn ) < c E0 = (x1 , . . . , xn )|(x 1 , . . . , xn ) c E1 = (x1 , . . . , xn )|(x 47 (9.2)

Die einfachste Entscheidungsregel lautet wie folgt: Wenn das Ereignis E0 eintritt, lehne die Nullhypothese H0 nicht ab. Wenn E1 eintritt, verwerfe H0 .

9.2

Fehler erster Art und zweiter Art

Die bei einem Test mglichen Fehler sind: Fehler erster Art ( -Fehler): Man trifft eine Entscheidung fr H1 , obwohl H0 richtig ist. Fehler zweiter Art ( -Fehler): Man trifft eine Entscheidung fr H0 , obwohl H1 richtig ist. Im obigen Beispiel ist die Wahrscheinlichkeit fr einen Fehler erster Art gleich der Wahrscheinlichkeit des Eintreffens von E1 , wenn H0 wahr ist. c|H0 ) = P (E1 |H0 ) = P ( (9.3)

Die Wahrscheinlichkeit fr einen Fehler zweiter Art ist gleich der Wahrscheinlichkeit des Eintreffens von E0 , wenn H1 wahr ist: < c |H 1 ) = P (E0 |H1 ) = P ( Die Wahrscheinlichkeiten fr richtige Entscheidungen sind: < c|H0 ), falls H0 wahr ist 1 = P (E0 |H0 ) = P ( c|H1 ), falls H1 wahr ist 1 = P (E1 |H1 ) = P ( (9.5) (9.6) (9.4)

im Verhltnis (1 ) zu , wenn 0 der wahre Parameter ist. Dies Die Gre c teilt die Verteilung von impliziert die Verwendung der Null-Hypothese zur Konstruktion der kritischen Schwelle c. Beispiel: Ein Unternehmen erhlt eine groe Warensendung vorgefertigter Teile, die entweder 5% oder 10% Ausschu enthalten kann, je nachdem auf welcher Anlage des Zulieferers diese Teile hergestellt wurden. Die Frage ist, auf welcher Anlage die Warensendung produziert wurde. Daher mu zwischen H0 : = 0.05 und H1 : = 0.1 entschieden werden. Die Entscheidungsregel lautet: Ist der relative Anteil p des Ausschusses in einer Stichprobe vom Umfang n grer/gleich c, so wird H0 abgelehnt; ist p kleiner als c, so wird H0 beibehalten. Die Wahrscheinlichkeit fr einen Fehler erster Art ist:
n

= P (p c| = 0.05) =
k nc

n 0.05k 0.95nk k

(9.7)

Die Wahrscheinlichkeit fr einen Fehler zweiter Art ist: = P (p < c| = 0.1) =


k<nc

n 0.1k 0.9nk k

(9.8)

Entschliet sich das Unternehmen, die Lieferung zurckzuweisen, wenn in einer Stichprobe vom Umfang 20 der Ausschuanteil grer ist als 1/9, so erhlt man:
20

= P (p > 1/9 | = 0.05) =


k =3

20 20 0.05k 0.9520k = 1 0.05k 0.9520k k k (9.9) k =0

= 1 0.3585 20 0.05 0.3774 190 0.0025 0.3972 = 1 0.9245 = 0.0755


2

= P (p 1/9 | = 0.1) =
k =0

20 0.1k 0.920k k

(9.10)

= 0.1216 + 20 0.1 0.1351 + 190 0.01 0.1501 = 0.6769

48

Die Wahrscheinlichkeit, die Lieferung zurckzuweisen, obwohl = 0.05 ist, ist gering, nmlich 0.0755. Hingegen ist die Wahrscheinlichkeit, die Lieferung anzunehmen, obwohl der relative Ausschuanteil 10% betrgt, relativ gro (0.6769). Bisher lag nur der Fall vor, da sowohl H0 als auch H1 nur einen mglichen Wert des unbekannten Parameters umfassen. Gehren nun zu H0 und H1 mehrere mgliche Parameterwerte, so lassen sich die Wahrscheinlichkeiten fr den Fehler erster und zweiter Art nicht mehr eindeutig bestimmen. Durchluft a den Bereich der mglichen Parameterwerte , so heit die Funktion: G(a) = P (E1 | = a) = P (Ablehnung von H0 | der wahre Wert von ist a) (9.11) Gtefunktion eines Tests. Die Gtefunktion gibt in Abhngigkeit von a die Wahrscheinlichkeit fr die Annahme von H1 an. = sup G(a)
a H0

(9.12)

ist die maximale Wahrscheinlichkeit, da fr H1 entschieden wird, obwohl H0 richtig ist. heit Signikanzniveau oder Irrtumswahrscheinlichkeit des Tests. = sup (1 G(a))
a H1

(9.13)

ist die maximale Wahrscheinlichkeit, da fr H0 entschieden wird, obwohl H1 richtig ist. zur Festlegung des Annahme- und des Ablehnungsbereichs benutzt, so heit Wird eine Statistik 1 , . . . , xn ) heit signikant auf dem Niveau eine Teststatistik oder auch Testfunktion. Eine Teststatistik (x , wenn das Signikanzniveau ist und die beobachteten Werte aus der Stichprobe zur Ablehnung von H0 fhren. 1 , . . . , xn ) keiMan beachte: Die Beibehaltung der Nullhypothese bedeutet, da die Testgre (x nen Hinweis auf die Gltigkeit der Alternativhypothese H1 liefert. Die Beibehaltung der Hypothese H0 bedeutet weder, da H1 sicher falsch ist, noch da H1 mit Wahrscheinlichkeit 1 falsch ist. Beispiel : Einer normalverteilten Grundgesamtheit mit bekannter Varianz 2 wird eine Stichprobe vom Umfang n entnommen. Es soll geprft werden, ob der Mittelwert aus der Grundgesamtheit grer ist als 0 . H0 : 0 gegen H1 : < 0 (9.14) Als Statistik fr den Test wird der Stichprobenmittelwert x verwendet. Die Entscheidungsregel lautet: Ist x < c, so wird H1 angenommen, andernfalls wird H0 beibehalten. Ist die Grundgesamtheit N (a , 2 ) verteilt, so ist x N (a , 2 /n) verteilt. Daher ist: c| = a ) = P G(a ) = P (x Fr alle a > 0 gilt: c 0 c a und somit / n / n Daraus folgt: = max G(a ) = a
0

x a c a = a / n / n c 0 / n c a / n

c a / n

(9.15)

(9.16)

c 0 / n

(9.17)

Der Schwellenwert c wird zu einem vorgegebenem Signikanzniveau ermittelt: c 0 n ist c 0 n gleich dem -Quantil z der N (0, 1) Verteilung. Wegen = z = c 0 n c = 0 + z = z1 n n (9.18)

Die Entscheidungsregel im Test fr H0 : 0 gegen H1 : < 0 zum Signikanzniveau lautet bei normalverteilter Grundgesamtheit: Gilt (9.19) x 0 z1 , n so wird H0 abgelehnt, andernfalls wird H0 beibehalten. 49

Bemerkung: 1. Sinnvoll wird ein statistischer Test nur dann verwendet, wenn das Ergebnis der vorliegenden Stichprobe der Null-Hypothese widerspricht. In diesem Fall ist zu prfen, ob der Widerspruch nur zufllig ist oder ob er hinreicht, um die Null-Hypothese bei vorgegebener Irrtumswahrscheinlichkeit zu verwerfen. 2. Mit wachsendem Stichprobenumfang sinkt der Fehler zweiter Art, d.h. die Schrfe des Tests nimmt zu. Auswahl der Hypothesen: Aufgrund von Bemerkung 1 sollte die fr den Forscher zu berprfende Hypothese die H1 -Hypothese sein. Im Zweifelsfalle sind beide mglichen Hypothesen gegeneinander abzuwgen und diejenige als H0 -Hypothese zu whlen, die im Falle einer falschen Entscheidung den greren Schaden anrichten wrde (worst-case-Prinzip). Beipiel : Es ist bekannt, da eine bewhrtes Medikament eine Krankheit in 90% aller Flle zuverlssig bekmpft. Ein neues Medikament wird an 1000 Probanden getestet und schneidet mit einer Zuverlssigkeit von p = 0.99 ab. Welcher Test sollte zu einem Signikanzniveau von = 0.05 gewhlt werden? Um eine solche Aufgabenstellung adquat beurteilen zu knnen, sollte die H0 -Hypothese H0 : 0.9 lauten, da in diesem Falle das neue Medikament schlechtere Resultate hervorbrchte als das alte. Der -Fehler (das neue Medikament wird als besser getestet, obwohl es in Wirklichkeit schlechter ist) kann so durch den Forscher kontrolliert werden, whrend der -Fehler (das neue Medikament wird als schlechter getestet, obwohl es in Wirklichkeit besser ist) nicht kontrolliert werden kann. Denition: Eine statistische Fragestellung heit einseitig, wenn sie die Form: 1. H0 : 0 , H1 : > 0 2. H0 : 0 , H1 : < 0 besitzt. Eine statistische Fragestellung heit zweiseitig, wenn sie folgende Form besitzt: H0 : = 0 , H1 : = 0 .

9.3

Signikanztests fr spezielle Fragestellungen

9.3.1 Test fr bei normalverteilter Grundgesamtheit und bekannter Varianz (Gautest) H0 : 0 , H1 : > 0 . H0 wird zum Testniveau verworfen, wenn gilt: n x 0 z1 (a 0 ) (9.20) n z1

Gtefunktion: G(a) =

(9.21)

H0 : 0 , H1 : < 0 . H0 wird zum Testniveau verworfen, wenn gilt: n x 0 z1 (0 a) (9.22) n z1

Gtefunktion: G(a) =

(9.23)

H0 : = 0 , H1 : = 0 . H0 wird zum Testniveau verworfen, wenn gilt: n |x 0 | z1 2 (9.24) n (0 a) z1 2 + (a 0 ) n z1 2

Gtefunktion: G(a) =

(9.25)

50

9.3.2 Test fr bei normalverteilter Grundgesamtheit und unbekannter Varianz (t-Test) H0 : 0 , H1 : > 0 . H0 wird zum Testniveau verworfen, wenn gilt: n x 0 t1;n1 . s (9.26) n t1;n1 s

Gtefunktion: G(a) = F (a 0 )

(9.27)

Hier ist F (x) die Verteilungsfunktion der t -Verteilung. H0 : 0 , H1 : < 0 . H0 wird zum Testniveau verworfen, wenn gilt: n x 0 t1;n1 s (9.28) n t1;n1 s

Gtefunktion: G(a) = F (0 a)

(9.29)

H0 : = 0 , H1 : = 0 . H0 wird zum Testniveau verworfen, wenn gilt: n |x 0 | t1 . 2 ;n1 s (9.30) n + F (a 0 ) t1 2 ;n1 s

n Gtefunktion: G(a) = F (0 a) t1 2 ;n1 s 9.3.3 Test fr bei groen Stichproben

(9.31)

Gegeben sei eine Zufallsstichprobe xi , i = 1, . . . , n einer Zufallsvariablen mit einer beliebigen Verteilung und unbekannter Varianz 2 , so da gilt X N (, 2 ). Ist die Stichprobe n 30, lassen sich approximative Signikanztests wegen des zentralen Grenzwertsatzes analog zum Gautest durchfhren: H0 : 0 , H1 : > 0 . H0 wird zum Testniveau verworfen, wenn gilt: n x 0 z1 s (a 0 ) (9.32) n z1 s

Gtefunktion: G(a) =

(9.33)

H0 : 0 , H1 : < 0 . H0 wird zum Testniveau verworfen, wenn gilt: n x 0 z1 s (0 a) (9.34) n z1 s

Gtefunktion: G(a) =

(9.35)

H0 : = 0 , H1 : = 0 . H0 wird zum Testniveau verworfen, wenn gilt: n |x 0 | z1/2 s (9.36) n (0 a) z1 2 s + (a 0 ) n z1 2 s

Gtefunktion: G(a) =

(9.37)

51

9.3.4 Tests fr Mittelwertunterschiede bei unabhngigen Stichproben Gegeben seien zwei voneinander unabhngig gezogene Stichproben xi , i = 1, . . . , n1 der Zufallsvariablen 2 2 X N (1 , 1 ) und yj , j = 1, . . . , n2 der Zufallsvariablen Y N (2 , 2 ). Von Interesse ist die Hypothese H0 : 1 = 2 , d.h. die beiden Erwartungswerte sind gleich, gegen H1 : 1 = 2 . Je 2 2 , 2 und die Verteilungsfunktion von X und Y erhlt man unterschiedliche nach Annahmen ber 1 Teststatistiken, die hier mit D bezeichnet werden.
2 2 2 2 1. X N (1 , 1 ), Y N (2 , 2 ), 1 und 2 bekannt.

D=

x y
2 sp

2 sp =

2 1 2 + 2 n1 n2

(9.38)

Ist |D | z1/2 , wird H0 mit Irrtumswahrscheinlichkeit verworfen.


2 2 2 2 2. X N(1 , 1 ), Y N (2 , 2 ), 1 = 2 aber unbekannt. Wir denieren zunchst die Hilfsgre 2 sp (p fr pooled), die ein Schtzer fr die Varianz von x y ist. 2 2 n1 + n2 + (n2 1)s2 (n1 1)s1 n1 + n 2 2 n1 n 2

2 = sp

(9.39)

D=

x y
2 sp

(9.40)

Ist |D | t1/2;n1 +n2 2 , wird H0 mit Irrtumswahrscheinlichkeit verworfen.


2 2 2 2 3. X N(1 , 1 ), Y N (2 , 2 ), 1 und 2 unbekannt, n1 30, n2 30.

D=

x y
2 sp

2 sp =

2 s1 s2 + 2 n1 n2

(9.41)

Ist |D | z1/2 , wird H0 mit Irrtumswahrscheinlichkeit verworfen. Beispiel : Gegeben seien zwei Medikamente, die beide den Blutdruck senken. Zu prfen ist, ob die beiden Medikamente gleichwertig sind, d.h. ob im Mittel der Unterschied 0 ist. Aus zwei unabhngigen klinischen Untersuchungen erhlt man die Daten:
2 Erste Medikament: n1 = 35, x = 147, s1 = 225 2 Zweite Medikament: n2 = 42, y = 137, s2 = 256

Die Varianz der Grundgesamtheit ist unbekannt. Die H0 : 1 = 2 wird mit der Teststatistik D= 147 137 225/35 + 256/42 = 2.826 z10.025 = 1.96 (9.42)

berprft und mit Irrtumswahrscheinlichkeit = 0.05 zugunsten von H1 : 1 = 2 verworfen. 9.3.5 Test fr 2 bei normalverteilter Grundgesamtheit Bei normalverteilter Grundgesamtheit ist: (n 1)s 2 2 2 -verteilt mit n 1 Freiheitsgraden. (9.43)

52

2 2 H 0 : 2 0 , H1 : 2 > 0 . H0 wird zum Testniveau verworfen, wenn gilt:

(n 1)s 2 2 1 ;n1 2 0
2 2 , H1 : 2 < 0 . H0 wird zum Testniveau verworfen, wenn gilt: H 0 : 2 0

(9.44)

(n 1)s 2 2 ;n1 2 0
2 2 , H1 : 2 = 0 . H0 wird zum Testniveau verworfen, wenn gilt: H 0 : 2 = 0

(9.45)

(n 1)s 2 (n 1)s 2 2 2 oder 1 2 2 2 ;n1 2 ;n1 0 0

(9.46)

Beispiel: Um die Streuung der Abfllmengen der auf einer neuen Anlage gefllten Flaschen zu berprfen, soll eine Stichprobe vom Umfang n = 24 gezogen werden. Zum Signikanzniveau = 0.01 soll getestet werden, ob 2 < 3 cm6 ist. H0 : 2 3 , H1 : 2 < 3 . Die Entscheidungsregel lautet: H0 wird abgelehnt, wenn gilt: 23 s 2 2 0 .01;23 3 In einer Stichprobe vom Umfang 24 erhlt man fr die Abfllmenge die Statistiken: x = 501cm3 , s 2 = 1.7cm6
2 0 .01;23 = 10.2 ,

(9.47)

(9.48) (9.49)

23 s 2 = 13.03 3

2 2 Wegen 13.03 > 0 .01;23 = 10.2 kann H0 : 3 mit der Irrtumswahrscheinlichkeit = 0.01 nicht verworfen werden.

9.3.6 Test fr eine unbekannte Wahrscheinlichkeit Die relative Hugkeit p eines Ereignisses mit Wahrscheinlichkeit ist eine Statistik fr . Fr n(1 ) 10 gilt annhernd: p n N , (1 ) n (9.50)

H0 : 0 , H1 : > 0 . H0 wird zum Testniveau verworfen, wenn gilt: 0 (1 0 ) n H0 : 0 , H1 : < 0 . H0 wird zum Testniveau verworfen, wenn gilt: p n 0 + z1 0 (1 0 ) n H0 : = 0 , H1 : = 0 . H0 wird zum Testniveau verworfen, wenn gilt: p n 0 z1 |p n 0 | z1 (9.51)

(9.52)

0 (1 0 ) (9.53) 2 n Beispiel : Um zu erfahren, ob die Partei A bei einer Wahl die 5% Hrde berspringt, werden 1490 zufllig ausgewhlte Personen nach ihrer Parteiprferenz gefragt. Es soll die Entscheidungsregel fr H0 : 0.05 gegen H1 : > 0.05 zum Niveau 0.05 angegeben werden. ist der Stimmanteil der Partei A bei der Wahl. Wegen n0 (1 0 ) = 1490 0.05 0.95 = 70.8 10 kann der oben angefhrte Test angewandt werden. H0 ist zu verwerfen, wenn 0.05 0.95 = 0.05 + 0.0093 = 0.0593 (9.54) 1490 Die Stichprobe ergab einen Prozentanteil fr A von 5.47. Die Hypothese, da A unter der 5% Hrde bleibt, kann daher zum Signikanzniveau = 0.05 nicht verworfen werden. p n 0.05 + z0.95 53

9.3.7

2 -Anpassungstest

Zu berprfen ist, ob die diskrete unbekannte Verteilung einer Grundgesamtheit mit einer gegebenen hypothetischen Verteilung bereinstimmt. i = P0 (Ei ) seien die Wahrscheinlichkeiten fr die durch Zerlegung gebildeten Ereignisse Ei , i = 1, . . . , r unter der Nullhypothese. Sind hi die absoluten Hugkeiten der Ereignisse Ei in einer Stichprobe vom Umfang n, so wird die Hypothese H0 , da die Grundgesamtheit die Verteilung P0 besitzt, mit der Irrtumswahrscheinlichkeit abgelehnt, falls gilt: 2 =
r i =1 2 (hi he i) 2 1 ;r 1 ; e hi

mit he i = ni , i = 1, . . . , r

(9.55)

2 Voraussetzung: he ist ein Ma fr die Abweichung der beobachteten Verteii 5 fr alle i = 1, . . . , r . lung von der hypothetischen Verteilung. Ein hoher 2 -Wert weist daher darauf hin, da die Verteilungen nicht bereinstimmen. Beispiel : Eine Lebensversicherung hat folgende Hugkeit von Versicherungsfllen im Monat festgestellt:

i hi

0 45

1 70

2 48

3 21

4 16

200

Wir untersuchen zum Signikanzniveau = 0.05, ob die Anzahl X der Versicherungsflle pro Monat eine Poissonverteilung mit = 1.5 besitzt. i i he = ni i 0 0.223 44.6 1 0.335 67 2 0.251 50.2 3 0.126 25.2 4 0.065 13 1 200

Die Werte fr i stammen aus der Tabelle der Poissonverteilung mit = 1.5. Die Testfunktion ist: 2 =
i 2 (hi he i) = 0.0036 + 0.1343 + 0.0964 + 0.7 + 0.6923 = 1.626 he i

(9.56)

2 Fr die Teststatistik gilt: 2 < 0 .95;4 . Daher wird H0 : = 1.5 beibehalten.

54

10
10.1

Korrelation und Regression


Einfache Korrelation

Eine Hauptaufgabe jeder wissenschaftlichen Arbeit ist die Ermittlung von Zusammenhngen zwischen Variablen. Betrachtet man zunchst nur zwei metrische Merkmale, ist man an Richtung und Strke des Zusammenhangs interessiert. Zu einer derartigen Charakterisierung lt sich - unter spter behandelten Beschrnkungen - der Produktmomentkorrelationskoefzient von Bravais-Pearson heranziehen. Der Korrelationskoefzient in einer Grundgesamtheit wurde bereits behandelt. Im folgenden wird auf die Schtzung dieses Koefzienten aus einer Zufallsstichprobe eingegangen. Beispiel zur Korrelation: Ein Verband von Handelsrmen ermittelt von 10 der ihm angeschlossenen Firmen den jhrlichen Lagerumschlag X und den durchschnittlichen Kalkulationsaufschlag Y (in % des Einkaufspreises). Firmen-Nr. X Y 1 8.5 18.0 2 7.8 20.0 3 7.5 20.0 4 6.2 25.0 5 6.5 29.0 6 6.0 31.0 7 5.6 33.0 8 4.6 37.0 9 4.0 43.0 10 3.3 44.0 n = 10 x = 6.0 y = 30.0

An den Firmen (den Elementen der Stichprobe) werden zwei Messungen vorgenommen. Der Betrachtung liegen also 10 Zahlenpaare {(xi , yi ) : i = 1, . . . , 10} zugrunde. Diese Zahlenpaare lassen sich als 10 stochastisch unabhngige Realisierungen der Zufallsvariablen (X, Y ) auffassen, fr die eine gemeinsame 2 2 Verteilung F (x, y) mit Erwartungswerten x und y , Varianzen x und y , Kovarianz xy und Korrelation xy angenommen wird. Zur Erinnerung werden noch einmal die Denitionen von Kovarianz und Korrelationskoefzient angegeben: xy = E [(X x )(Y y )] xy = xy
2 2 x y

(10.1) (10.2)

Erwartungstreue und konsistente Schtzer fr xy und xy sind: sxy = rxy = 1 n1 sxy


2s2 sx y n

(xi x)(y i y) =
i =1

1 n1

xi yi nx y
i =1

(10.3)

(10.4)

Der Korrelationskoefzient der Stichprobe wird anhand des folgenden Schemas berechnet: Nr. 1 2 3 4 5 6 7 8 9 10 xx 2.5 1.8 1.5 0.2 0.5 0.0 -0.4 -1.4 -2.0 -2.7 0 yy -12.0 -10.0 -10.0 - 5.0 1.0 1.0 3.0 7.0 13.0 14.0 0 (x x) 2 6.25 3.24 2.25 0.04 0.25 0.00 0.16 1.96 4.00 7.29 25.44 (x x)(y y) -30.0 -18.0 -15.0 - 1.0 - 0.5 0.0 -1.2 -9.8 -26.0 -37.8 -139.3 (y y) 2 144 100 100 25 1 1 9 49 169 196 794

55

sxy = 15.444,

2 sx = 2.827,

2 sy = 88.222,

rxy =

139.3 25.44 794

= 0.980

(10.5)

Die Variablen Lagerumschlag und Kalkulationsaufschlag sind hoch negativ korreliert. Je fter ein Lagerumschlag stattndet, desto geringer ist der Kalkulationsaufschlag und umgekehrt. Man beachte, da sich aus diesem Ergebnis keine Richtung eines kausalen Zusammenhanges ableiten lt. Wichtig sind die folgenden Eigenschaften des Korrelationskoefzienten: 1 r +1 , d.h. r ist normiert (10.6) Besteht zwischen y und x ein exakter linearer Zusammenhang (yi = a + bxi ), so gilt: r= 1 wenn b > 0 (gleichsinnig) 1 wenn b < 0 (gegensinnig) (10.7)

Sind x und y voneinander statistisch unabhngig, so ist ihre Kovarianz 0 und damit auch der Korrelationskoefzient. Da der Korrelationskoefzient eine Mazahl des linearen Zusammenhangs ist, kann umgekehrt aus r = 0 nicht geschlossen werden, da x und y statistisch unabhngig sind. Ein durch Korrelation nachgewiesener statistischer Zusammenhang zwischen Merkmalen wird vielfach als urschlicher Zusammenhang verstanden. Einfache Beispiele zeigen, da dies nicht ohne weiteres sinnvoll ist: - zwischen der Anzahl besetzter Storchennester und der jhrlichen Geburtenziffer hat man eine positive Korrelation festgestellt, - zwischen der Anzahl der in England verkauften Radiogerte und der Lnge des Vornamens des Prsidenten der USA wurde eine starke Korrelation festgestellt (Zeitraum: 1923 1942), - zwischen der Anzahl der Fernsehgenehmigungen und der Anzahl von hospitalisierten Geisteskranken hat man eine positive Korrelation festgestellt. Bei der Deutung eines Korrelationskoefzienten als Hinweis auf kausale Zusammenhnge mu man mindestens folgende Interpretationsmodelle in Betracht ziehen: Einseitige Steuerung: x wirkt auf y, d.h: x y . Beispiel: Vererbung Wechselseitige Steuerung: x y . Beispiele: Kontakt frdert die Sympathie, Sympathie frdert den Kontakt; Lhne beeinussen die Preise, Preise die Lhne. Drittseitige Steuerung: z y und z x . Beispiel: Bis zum 20. Lebensjahr nimmt sowohl das Krpergewicht x als auch die Intelligenz y zu. In einer hinsichtlich des Lebensalters heterogenen Stichprobe erscheinen die schwereren Individuen als die intelligenteren (Scheinkorrelation; mittels des partiellen Korrelationskoefzienten versucht man, solche drittseitige Steuerungen aufzuklren). Die oben angefhrten Beispiele sind typische Flle von Scheinkorrelation. Komplexe Steuerung: y hngt von p Variablen (x1 , . . . , xp ) ab. Abhngigkeiten dieser Art versucht man durch die multiple Korrelation zu erfassen. Unter der Annahme einer bivariaten Normalverteilung fr (X, Y ) lassen sich verschiedene Tests fr den Korrelationskoefzienten der Grundgesamtheit konstruieren. Test der speziellen Hypothesen H0 : 0, H0 : 0, und H0 : = 0. Ist die jeweilige Entscheidungsregel erfllt, wird H0 zum Testniveau abgelehnt. r n2 t1;n2 (10.8) H0 : 0 gegen H1 : > 0 , Entscheidungsregel: 1 r2 r n2 t1;n2 (10.9) H0 : 0 gegen H1 : < 0 , Entscheidungsregel: 1 r2 |r | n 2 t1/2;n2 (10.10) H0 : = 0 gegen H1 : = 0 , Entscheidungsregel: 1 r2 56

Test der allgemeinen Hypothesen H0 : 0 , H0 : 0 und H0 : = 0 . Entwickle die Hilfsgren: z= 1 ln 2 1+r 1r , z0 = 1 ln 2 1 + 0 1 0 + 0 2(n 1) (10.11)

H0 wird zum Testniveau abgelehnt, wenn die jeweilige Entscheidungsregel zutrifft. H0 : 0 gegen H1 : > 0 , Entscheidungsregel: (z z0 ) n 3 z1 H0 : 0 gegen H1 : < 0 , Entscheidungsregel: (z z0 ) n 3 z H0 : = 0 gegen H1 : = 0 , Entscheidungsregel: |z z0 | n 3 z1/2

(10.12) (10.13) (10.14)

Beispiel : In einer Untersuchung an 67 Schlern wurde zwischen Intelligenzquotient und Mathematiknoten eine Korrelation von 0.38 festgestellt. Aus einer frheren Totalerhebung ist bekannt, da der Korrelationskoefzient 0 der Grundgesamtheit den Wert 0.45 besitzt. Es ist zu berprfen, ob der Korrelationskoefzient der vorliegenden Stichprobe mit der Hypothese H0 : = 0.45 in Einklang steht ( = 0.05). Die Gegenhypothese ist H1 : = 0.45. Die Hilfsgren sind: 1 1.38 1 1.45 0.45 ln + = 0.4881, z = ln = 0.4, z = |z z0 | n 3 = 0.0881 8 = 0.7048 2 0.55 132 2 0.62 Da z1/2 = 1.96, wird H0 beibehalten. z0 =

10.2

Klassisches Regressionsmodell

Bei zahlreichen konomischen Fragestellungen untersuchen wir die Abhngigkeit einer Variablen Y von Kontroll- oder Einuvariablen X1 , X2 . . . Xp . Ein klassisches, aber irrefhrendes Beispiel aus der Makrokonomie ist der vermutete Zusammenhang zwischen Konsum Ci und Volkseinkommen Yi , der in einer vereinfachten Form durch die lineare Beziehung Ci = a + bYi + ei , i = 1, . . . n mit i als Index der Beobachtungsperiode dargestellt wird. Allgemein beschreiben wir einen derartigen Zusammenhang durch: yi = f (xi 1 , xi 2 , . . . xip ) + ei , i = 1, . . . , n (10.15)

ei bezeichnet die Abweichung oder Fehler zwischem dem Funktionswert f (xi 1 , . . . , xip ) und der Realisation yi der abhngigen Variablen Y , die als Zufallsvariable interpretiert wird. Die parametrische Form der Regressionsfunktion wird durch konomische berlegungen a priori festgelegt. Die Parameter sind dann direkt mit Hilfe der konomischen Theorie interpretierbar. Die Regressionsfunktion entspricht einer ex-ante-Gleichung der volkswirtschaftlichen Theorie, whrend die Koefzienten (Parameter) der Regressionsfunktion ex-post aus Daten geschtzt werden. Beispiele sind: Einfache lineare Funktion (eindimensionale Regression): f (xi ) = b0 + b1 xi Allgemeine lineare Funktion (mehrdimensionale Regression): f (xi 1 . . . xip ) = b0 + b1 xi 1 + . . . bp xip (10.17) (10.16)

Einfache Cobb-Douglas-Produktionsfunktion, wobei Ai das Arbeitsvolumen, Ki den Kapitaleinsatz und die Substitutionselastizitt bedeutet. Die CobbDouglas Funktion ist eine homogene Funktion erster Ordnung mit konstanten Substitutionselastizitten.
1 f (Ai , Ki ) = A , i Ki

0 1. 57

(10.18)

Verallgemeinerte CobbDouglas Produktionsfunktion. Die einfache Cobb-Douglas-Produktionsfunktion wird einerseits durch die Einfhrung eines Koefzienten fr nicht durch Arbeit und Kapital erfate Faktoren (z.B. Rationalisierungsgrad der Volkswirtschaft), andererseits durch die Aufgabe der Annahme der Homogenitt ersten Grades erweitert ( + = 1 ist zulssig). f (Ai , Ki ) = A i Ki

(10.19)

Rckfhrung der verallgemeinerten CobbDouglas Funktion auf ein lineares Modell: ln f (Ai , Ki ) = ln + ln Ai + ln Ki (10.20)

Am letzten Beispiel erkennt man, da sich nichtlineare Funktionen zum Teil durch Transformationen in lineare Funktionen berfhren lassen. Ist dies nicht mglich, lassen sich die Parameterschtzer von nichtlinearen Modellen hug durch wiederholte Anwendung transformierter linearer Regressionen berechnen. Dies erfordert Existenz und Stetigkeit der beiden ersten Ableitungen der nichtlinearen Regressionsfunktion bezglich aller Parameter. 10.2.1 Einfache lineare Funktion Im Unterschied zur einfachen Korrelation, die lediglich die Strke des linearen Zusammenhangs zwischen zwei Variablen X und Y untersucht, geht es bei der einfachen Regression um die quantitative, kausale Bestimmung des linearen Zusammenhangs. Dazu wird eine Regressionsfunktion der folgenden Form aufgestellt: y i = b0 + b 1 x i + e i (10.21)

Die Variable Y wird durch eine Linearkombination der Variablen X beschrieben. Diese Regressionsgerade wird so bestimmt, da die Summe der Abweichungsquadrate (Q) minimal ist.

Y q4

y i = b0 + b1 xi

q2

q3

q1 = beobachtete Y -Werte (xi , yi ) -Werte (xi , y = geschtzte Y i ) X

Unter Abweichung ist die Differenz zwischen den tatschlichen Werten fr Y (yi ) und den aufgrund der Geradenbildung erwarteten Werten (y i ) zu verstehen. Es gilt:
n

Q=
i =1

(yi y i )2 58

(10.22)

Die Lage der Regressionsgeraden und damit Q wird durch die Regressionkoefzienten b0 und b1 eindeutig bestimmt. Die Summe der Abweichungsquadrate ist somit eine Funktion der Koefzienten b0 und b1 .
n

Q(b0 , b1 ) =
i =1 n

(yi y i )2 (yi (b0 + b1 xi ))2


i =1 n

= =
i =1

(yi b0 b1 xi )2

Zur Minimierung der Funktion Q(b0 , b1 ) ist es erforderlich, nach b0 und b1 abzuleiten. Es gilt: Q(b0 , b1 ) = b0
n

2(yi b0 b1 xi )(1)
i =1 n

=2 Q(b0 , b1 ) = b1
i =1 n

(yi + b0 + b1 xi ) 2(yi b0 b1 xi )(xi )

i =1 n

=2
i =1

(xi yi + b0 xi + b1 xi2 )

Die Ableitungen mssen nun gleich Null gesetzt werden und nach den Regressionskoefzienten b0 und b1 aufgelst werden.
n

0=
n i =1 n

(yi + b0 + b1 xi )
n

yi =
i =1 n i =1 n i =1

b0 + b 1
n i =1

xi xi

Erste Normalgleichung (10.23)

yi = nb0 + b1 1 n yi = b 0 + b 1
i =1

1 n

i =1 n

xi
i =1

y = b0 + b1 x b1 x b0 = y
n

0=
n i =1 n i =1 n i =1

(xi yi + b0 xi + b1 xi2 )
n n

xi yi = b 0
i =1

xi + b 1
n i =1 n i =1

xi2
n

Zweite Normalgleichung xi2


i =1 n

xi yi = (y b1 x)
b0 n

xi + b 1 xi +b1
i =1 nx

xi yi = y
i =1 i =1 nx

xi b1 x

xi2
i =1

(10.24)

59

xi yi = yn x b1 nx + b1
2 i =1 n n i =1

xi2

xi yi nx y = b1
i =1 i =1

xi2 nx 2 1 n
n

1 n

xi yi nx y
i =1 xy

= b1

xi2 nx 2
i =1
2 x

b1 =

xy 2 x

(10.25)

2 2 und die Kovarianz xy durch sx und sxy geschtzt werden mssen, erhlt man als Da die Varianz x Schtzer fr die Regressionkoefzienten demnach:

1 x 0 = y b b

und

1 = sxy . b 2 sx

(10.26)

10.2.2 Allgemeine lineare Funktion (mehrdimensionale Regression) Werden zur Beschreibung von Y mehrere Variablen X1 Xp eingesetzt, hat die Regressionsfunktion folgende Form: yi = b0 + b1 xi 1 + . . . bp xip + ei (10.27)

StatistischeAufgabe ist die Schtzung von b0 , b1 , . . . bp und derVarianz 2 des Fehlers ei , die berprfung auf signikanteAbweichungen von vorgegebenen Hypothesen ber diese Parameter sowie die Beurteilung der Gte der Schtzung. Als Schtzverfahren verwenden wir den Kleinste-Quadrate-Schtzer und das Maximum-Likelihood-Schtzprinzip. Zur Vereinfachung der Notation stellen wir das Modell fr i = 1, . . . , n in Matrixform dar: y = Xb + e (10.28)

wobei y und e (n 1)-Vektoren, b ein ((p + 1) 1)-Vektor und X eine (n (p + 1))-Matrix ist. Im einzelnen gilt: y T = (y1 , . . . , yn ) eT = (e1 , . . . , en ) bT = (b0 , b1 , . . . , bp ) 1 x11 . . . 1 x21 . . . X= . . .. . . . . . (10.32) (10.29) (10.30) (10.31) x1p x2p . . .

1 xn1 . . . xnp

Die Matrix X wird als Datenmatrix der unabhngigen oder exogenen Variablen bezeichnet. Zum Lsen der statistischen Aufgaben treffen wir zunchst folgende Annahmen (Klassisches Regressionsmodell): 1. X ist exogen und X ist nicht stochastisch. 2. Rang(X) = p + 1 fr alle n N mit n p + 1, d.h. X hat vollen Spaltenrang. 3. Q := lim 4. E(e) = 0 60 1 T X X existiert und ist regulr. n n

5. V(e) = E(eeT ) = 2 In mit 2 > 0, wobei In die (n n) Einheitsmatrix ist. 6. e N (0, 2 In ) Die explizite Verteilungsannahme 6 ist nur in Verbindung mit dem ML-Prinzip bzw. mit der Konstruktion exakter Tests und Kondenzintervalle notwendig, whrend Annahme 3 die Grundlage fr die Konsistenz der Schtzverfahren liefert. Zur Ableitung des Kleinsten-Quadrate-Schtzers gengt die Annahme 2. Der Kleinste-Quadrate-Schtzer der Parameter b ist erwartungstreu, wenn Annahme 4. zustzlich erfllt ist. Wir leiten zunchst den KQ-Schtzer ab. Um alle vorhin angefhrten Aufgaben lsen zu knnen, werden alle Annahmen 1. bis 5. angenommen. Grundlage der KQ-Schtzung ist die Minimierung der Funktion:
n

M(b) =
i =1

(yi (b0 + b1 xi 1 + . . . bp xip ))2 min

b Rp+1

(10.33)

In Matrixschreibweise gilt: M(b) = (y Xb)T (y Xb) = eTe min


b Rp+1

(10.34)

ist, da der Vektor der ersten partiellen Notwendige Bedingung fr ein Minimum von M(b) an der Stelle b Ableitungen nach b gleich 0 ist: M(b) =0 b b=b Die einzelnen ersten Ableitungen von M(b) nach bj werden 0 gesetzt: M(b) =2 bj b=b
n i =1 n i =1 n i =1

(10.35)

0 + b 1 xi 1 . . . + b p xip )(xij )) = 0 (yi (b

(10.36)

Umformungen liefern die p + 1 Normalgleichungen NGj , j = 0, . . . , p: 0 yi xij = b 1 xij + b


n i =1

p xij xi 1 . . . + b

xij xip
i =1

(10.37)

In kompakter Matrixschreibweise lautet diese Gleichung: X T y = (X T X )b Aus Annahme 2. folgt die Invertierbarkeit von X TX und somit: = (XTX)1 X Ty b heit Kleinster-Quadrate-Schtzer fr b. Aus b lassen sich folgende Gren berechnen: b = Xb y =yy e (lineare Prdiktoren = geschtzte Werte) (Residuen = geschtzte Fehler) (10.40) (10.41) (10.39) (10.38)

2 Als erwartungstreuer Varianzschtzer sKQ fr 2 wird in Verbindung mit dem KQ-Schtzer der Ausdruck: 2 sKQ

1 = n (p + 1)

e i2 =
i =1

1 Te e n (p + 1)

(10.42)

berechnet. Beispiel zur Regression: Abhngigkeit der Importmengen von Bruttsozialprodukt und Preisentwicklung in England. yi = Mengenindex der Importe nach England zu konstanten Preisen des Jahres 1948. xi 1 = Bruttonationalprodukt zu konstanten Preisen von 1948. xi 2 = Quotient des Preisindexes fr Importe und des allgemeinen Preisindexes: yi = b0 + b1 xi 1 + b2 xi 2 + ei .

61

Jahr 1948 1949 1950 1951 1952 1953 1954 1955 1956

yi 100 106 107 120 110 116 123 133 137

xi 1 100 104 106 111 111 115 120 124 126

xi 2 100 99 110 126 113 103 102 103 98

y i 98.47 103.81 107.79 116.44 114.96 119.28 125.98 131.55 133.71

e i 1.53 2.19 -0.79 3.56 -4.96 -3.28 -2.98 1.45 3.29

0 , b 1 und b 2 sowie ein Schtzwert fr die Varianz des Fehlers. Die Matrix der exogenen Gesucht sind b Variablen ist nun gegeben durch: 1 100 100 1 104 99 1 106 110 1 111 126 (10.43) X= 1 111 113 1 115 103 1 120 102 1 124 103 1 126 98 Die inverse Matrix, die zur Ausung der Normalgleichungen bentigt wird, ist dann: 44.79609 0.20823 0.19957 0.00159 0.00027 (X TX )1 = 0.20823 0.19957 0.00027 0.00159 = (X TX)1 X Ty ist: Der Vektor der Schtzer b 0 b 49.341 b 1 = 1.364 2 0.114 b Die prognostizierten Werte fr yi sind nun: y i = 49.329 + 1.364xi 1 + 0.114xi 2 (10.46)

(10.44)

(10.45)

Die Eigenschaften des KQ-Schtzers lassen sich bei Gltigkeit der obigen Annahmen (vgl. Seite 60) durch folgenden Satz zusammenfassen: : 1. Erwartungstreue von b ) = b E(b
2 : 2. Erwartungstreue von sKQ 2 ) = 2 E(sKQ

(10.47)

(10.48)

: 3. Varianz-Kovarianzmatrix von b ) = E(b b)(b b)T = 2 (X TX)1 = 2 (cj k )j,k=0,...,p V (b Dabei ist cj k das j, k -te Element von C = (X TX)1 . 62 (10.49)

: 4. Konsistenz von b Fr alle j bj | ) = 1 > 0 gilt: lim P (|b


n

(10.50)

2 : 5. Konsistenz von sKQ

Fr alle

2 > 0 gilt: lim P (|sKQ 2| ) = 1 n

(10.51)

6. Asymptotische Normalverteilung: j bj ) (b
2 sKQ cjj

ist asymptotisch N (0, 1) verteilt.

(10.52)

7. Theorem von Gau-Markov: Innerhalb der Klasse der erwartungstreuen und in Y linearen Scht = Ly + d zer ist der KQS efzient, d.h. er besitzt unter den Schtzern, die sich in der Form b darstellen lassen, die kleinstmgliche Varianz: j ) var(b j ) var(b j mit E(b j ) = bj fr alle b (10.53)

Exemplarisch beweisen wir die Punkte 1, 3 und 4. Beweis zu 1: Da X nicht stochastisch ist, gilt: ) = E (X TX)1 X Ty E(b = E (X TX)1 X T(Xb + e) = E (X TX)1 (X TX)b + (X TX)1 X Te = b + (X TX)1 X TE(e) =b Beweis zu 3: b)(b b)T = E(X TX)1 X TeeT X(X TX)1 E(b = (X TX)1 X TE(eeT )X(X TX)1 = (X TX)1 X T 2 In X(X TX)1 = 2 (X TX)1 Beweis zu 4 : j bj )2 = 2 cjj E(b Die Ungleichung von Tschebyscheff liefert:
2 j bj | > ) cjj P (|b 2

(10.54)

(10.55)

(10.56)

(10.57)

1 Wegen Annahme 3 (vgl. Seite 60) ist lim ( X TX)1 endlich. Daraus folgt: n n
2 ) = lim lim V (b n n n 0

1 T (X X) n
<

=0

(10.58)

Dies impliziert die obige Behauptung. Zur Bestimmung der Gte der Regression, d.h. wie gut die beobachteten Werte von y durch das Modell angepat werden, bentigt man ein auf [0, 1] normiertes Ma. Geeignet hierfr ist der quadrierte 63

2 Korrelationskoefzient Ry y zwischen den beobachteten Werten yi und den aus der Regression geschtzten T 2 2 Werten y i = xi b . Es kann gezeigt werden, da Ry y = Ry x1 ...xp (wenn xi 0 = 1) identisch ist mit der normierten Quadratsumme SSR/SST , die wir aus der folgenden Streuungszerlegung mit der Notation: n

SST =
i =1 n

(yi y) 2

(Gesamtquadratsumme, sum of squares total),

(10.59)

SSE =
i =1 n

(yi y i )2

(Fehlerquadratsumme, sum of squares of error),

(10.60)

SSR =
i =1

(y i y) 2

(erklrte Quadratsumme, sum of squares of regression),

(10.61)

erhalten. Es gilt also:


n n n

(yi y) =
2 i =1 i =1

(yi y i ) +
2 i =1

(y i y) 2 und damit SST = SSE + SSR

(10.62)

Die Berechnung von R 2 kann daher alternativ durch: R2 = Te SSR SSE e =1 =1 SST SST SST (10.63)

TX = 0 erfolgen. Der Beweis der Streuungszerlegung erfolgt in zwei Schritten. Zunchst zeigt man, da e ist, d.h. Residuen und Regressoren sind orthogonal. )TX = y TX y TX(X TX)1 X TX = 0 T X = (y X b e TX = 0 und xi 0 = 1 folgt die Behauptung: Aus e
n

(10.64)

e i = 0
i =1

(10.65)

Im zweiten Schritt wird die Gesamtquadratsumme erweitert und das Ergebnis des ersten Schritts verwendet:
n n

(yi y) =
2 i =1 i =1 n

((yi y i ) + (y i y)) 2
n n

=
i =1

(yi y i ) +
2 i =1

(y i y) +2
2 i =1

(yi y i )(y i y)

Zu zeigen ist, da der letzte Summand gleich 0 ist.


n n n n

(yi y i )(y i y) =
i =1 i =1

e i (y i y) =
i =1

e i y i y
i =1

e i

(10.66)

Wiederum ist zu zeigen, da der erste Summand gleich 0 ist.


n n

e i y i =
i =1 i =1

e i

xij bj =

bj
j =0 i =1

e i xij

=
j =0

TXj = 0 bj e

(10.67)

j =0

Zur Konstruktion von Kondenzintervallen und Tests bentigen wir (bei kleinen Stichproben) die Annahme der Normalverteilung der Fehler (Annahme 6.). Aus dieser Annahme folgt: j N (bj , 2 cjj ), b j = 0, . . . p
2 sKQ cjj t1 2 ;n(p +1)

2 j bj )/ Wird 2 durch sKQ ersetzt, gilt (b

64

Daher erhalten wir fr den ersten Fall ( 2 bekannt) das zweiseitige Kondenzintervall: P j z1 b
2

j + z1 2 cjj bj b
2

2 cjj

=1

(10.68)

2 Fr den zweiten Fall ( 2 durch sKQ geschtzt) lautet das Kondenzintervall:

j t1 ;n(p+1) b 2

2 j + t1 ;n(p+1) sKQ cjj bj b 2

2 sKQ cjj

=1

(10.69)

Die Konstruktion von einseitigen Kondenzintervallen und allgemeinen Teststatistiken erfolgt in gleicher Weise wie beim Mittelwert x . Exemplarisch konstruieren wir einen einseitigen Signikanztest fr einen einzelnen Koefzienten bj : H0 : bj bj 0 gegen H1 : bj > bj 0 . H0 wird zum Testniveau abgelehnt, wenn fr die Teststatistik t gilt: t = j bj 0 b
2 sKQ

cjj

> t1; n(p+1)

(10.70)

H0 : bj bj 0 gegen H1 : bj < bj 0 . H0 wird zum Testniveau abgelehnt, wenn fr die Teststatistik t gilt: t = j bj 0 b
2 sKQ cjj

< t1; n(p+1)

(10.71)

H0 : bj = bj 0 gegen H1 : bj = bj 0 . H0 wird zum Testniveau abgelehnt, wenn fr die Teststatistik t gilt: t = j bj 0 | |b


2 sKQ

cjj

> t1 2 ; n(p +1)

(10.72)

Da ein mehrdimensionales Modell vorliegt, ist es von Interesse, Hypothesen ber Submodelle, deniert durch Teilmengen von {b0 . . . bp } zu testen. Ohne Beschrnkung der Allgemeinheit seien bk+1 , . . . bp die zu testenden Parameter mit H0 : bk+1 = bk+2 = . . . = bp = 0 gegen H1 : bi = 0 mindestens fr ein i {k + 1, . . . p}. Zur Berechnung der Teststatistik benutzen wir als Hilfsgren die Gren b, X, e, SST , SSE des ursprnglichen Modells, das b0 , . . . bp enthlt. Die Gren b(1) , X (1) , e(1) , SSR (1) , SSE (1) sind analog den obigen Bezeichnungen deniert, aber sie enthalten nur die unabhngigen Variablen x0 , x1 , . . . xk . Der Superindex (1) bezeichnet das entsprechende Submodell mit Parametern b0 , . . . bk . Unter Gltigkeit von H0 sind folgende Gren 2 verteilt (Beweis in der mathematischen Statistik): SSE 2 n (10.73) (p+1) 2 SSE (1) 2 n (10.74) (k +1) 2 (SSE (1) SSE) 2 p (10.75) k 2 Es lt sich zeigen, da der erste und der dritte Term stochastisch unabhngig sind, so da aus der Theorie der mathematischen Statistik folgt, da die Teststatistik: F = (SSE (1) SSE)/(p k) F (p k, n (p + 1)) SSE/(n (p + 1)) (10.76)

unter H0 einer F -Verteilung mit (p k, n (p + 1)) Freiheitsgraden folgt. Daraus lt sich folgender zweiseitiger Test fr H0 : bk+1 = . . . = bp = 0 konstruieren. H0 wird abgelehnt zum Niveau , wenn F > F (1 ; p k, n (p + 1)). Die F -Werte sind den Tafelwerten der F -Verteilung zu entnehmen. Ein wichtiger Spezialfall ist der Test auf Signikanz aller Regressoren x1 , . . . , xp . Einsetzen in die obige 2 Formel mit Ry y als multiplem Bestimmtheitsma liefert die Teststatistik: F = R 2 (n (p + 1)) F (p, n (p + 1)) (1 R 2 )p 65 , (10.77)

die unter der H0 : b1 = b2 = . . . bp = 0 Hypothese F verteilt ist. Beispiel : Fr die Daten des letzten Beispiels lassen sich jetzt sofort Kondenzintervalle fr die Regressionskoefzienten bj berechnen. Als Sicherheitswahrscheinlichkeit wird 1 = 0.95 angenommen. 1 = b 1 + t1 ;n(p+1) sKQ c11 b 2 = 1.364 + 2.447 12.93 0.001586 (10.78) = 1.7146 1 t1 ;n(p+1) sKQ c11 b1 = b 2 = 1.364 2.447 12.93 0.001586 = 1.0138 2 + t1 ;n(p+1) sKQ c22 2 = b b 2 = 0.114 + 2.447 12.93 0.001591 = 0.4648 2 t1 ;n(p+1) sKQ c22 b2 = b 2 = 0.114 2.447 12.93 0.001591 = 0.2370 Die Annahme 6. (Normalverteilung) ist fr die Konstruktion von Kondenzintervallen und statistischen Tests nicht erforderlich, wenn eine groe Stichprobe vorliegt. Der t -Test wird dann durch den z-Test ersetzt. Beispiel : Test auf Gleichheit von Regressionskoefzienten. Die Nullhypothese lautet H0 : bj = bk gegen H1 : bj = bk . Als Teststatistik verwendet man die standardisierte Differenz: D = k j b b
2 sD

(10.79)

(10.80)

(10.81)

(10.82)

2 2 j b k : ist ein konsistenter Schtzer der Varianz D der Differenz b Die Statistik sD 2 2 j ) + V (b k ) 2Cov(b j , b k ) = sKQ = V (b (cjj + ckk 2cj k ) sD

(10.83)

j , b k ) ist die geschtzte Kovarianz der Schtzer b j und b k . Die Hypothese H0 wird zum Testniveau Cov(b verworfen, wenn die Teststatistik |D | z1 ist. 2 Bei Vorliegen einer kleinen Stichprobe (n (p + 1) < 30) und unbekannter Fehlervarianz 2 wird die Hypothese H0 zum Testniveau verworfen, wenn die Teststatistik |D | t1 ist. 2 ;n(p +1)

10.3

Einfache Zeitreihenanalyse

In einigen Untersuchungen sind nicht nur die Daten, sondern auch deren zeitliche Abfolge wichtig. Dies ist zum Beipiel notwendig, um Prozesse zu analysieren, und/oder um zuknftige Entwicklungen zu prognostizieren. Beispielsweise sind Regierungen daran interessiert, die Bevlkerungsentwicklung abzuschtzen, oder Banken sind daran interessiert, Aktienkurse zu prognostizieren. Ein weiteres Beispiel ist die Absatzprognose eines Hndlers, um den Lagerbestand rechtzeitig aufstocken zu knnen. Ein Datensatz heit Zeitreihe, wenn er Informationen ber die Zeit, in der die Daten angefallen sind enthlt. Es kann sich dabei sowohl um Zeitpunkte, als auch um Zeitperioden (z.B. Monat, Jahr) handeln. Diese Information kann auf unterschiedliche Art kodiert sein: Explizite Zeitinformation: Die Zeitpunkte, bzw. Zeitperioden sind im Datensatz enthalten. Beispiel : Abverkaufszahlen eines Unternehmens fr ein bestimmtes Produkt. 66

i Monat Abverkauf (in Stck)

1 10/1996 17

2 09/1996 25

3 11/1996 20

Implizite Zeitinformation: Die Daten liegen in chronologischer Reihenfolge mit gleichen zeitlichen Abstnden vor. Die Position i innerhalb des Datensatzes reicht dann als Zeitinformation aus. Beispiel : Die Abverkaufszahlen aus dem ersten Beispiel lassen sich auch in dieser Form darstellen, da alle zeitlichen Abstnde gleich gro sind und keine Lcken enthalten: i Abverkauf (in Stck) 1 25 2 17 3 20

Zur Zeitreihenanalyse verwendet man oft Regressionsmodelle der Form: yt = g(t, yt 1 , yt 2 , . . . , ) + et (10.84)

wobei t die Zeit, yt 1 den um eine Zeiteinheit verzgerten Wert und den zu schtzenden Parametervektor bezeichnet. Sehr oft kommen auch andere Verfahren zum Einsatz (z.B.: Exponentielle Glttung, Verfahren der bayesianischen Statistik, etc.), deren Darstellung jedoch den Rahmen dieses Skriptums sprengen wrden. Hier wird die Zeitreihenanalyse exemplarisch mit Hilfe der Trendanalyse eingefhrt. Andere Verfahren wie gleitende Mittelwerte oder autoregressive Prozesse werden hier nicht behandelt. 10.3.1 Linearer Trend Man betrachte eine Zeitreihe y1 , y2 , . . . , yT . Das einfachste trendanalytische Modell ist: y t = b0 + b 1 t + e t , t = 1, . . . , T (10.85)

Wie unschwer zu erkennen ist, ist dieses Model quivalent zu einem klassischen Regressionsmodell, bei dem die erklrende Variable die Zeit t ist, daher erfolgt die Berechnung analog. Dieses Modell ist interessant, weil es die Mglichkeit bietet, zustzliche Regressoren einzufhren. Wei man zum Beispiel, da durch die Urlaubszeit im August die Abverkaufszahlen deutlich niedriger sind als in den brigen Monaten, knnte man eine Dummyvariable AUG einfhren, die dann den Wert 1 annimmt, wenn der aktuelle Zeitpunkt der August ist, und ansonsten 0 ist. Damit kann die Anpassungsgte des Modells verbessert werden. Solche Effekte, die wie in diesem Beispiel periodisch wiederkehren, nennt man saisonale Effekte. Die Regressionsfunktion wird Trendfunktion genannt und ist fr das einfache Modell gegeben durch: 0 + b 1 t y t = b Die Prognose fr den Zeitpunkt T + k erhlt man durch Einsetzen der Zeit: 0 + b 1 (T + k) y T +k = b 10.3.2 Nichtlinearer Trend In den meisten Fllen reicht die Verwendung eines linearen Modells nicht aus, da die meisten dynamischen Prozesse nichtlinear sind. Beispielsweise werden Analysen von ungebremsten Wachstumsprozessen in biologischen Populationen meist mit Hilfe exponentieller Modelle durchgefhrt. Im Folgenden werden exemplarisch einige nichtlineare Trendmodelle vorgestellt. Exponentialfunktion: yt = exp(b0 + b1 t + et ), t = 1, . . . , T , t >0 (10.88) (10.87) (10.86)

Diese Gleichung kann durch Logarithmieren in die lineare Form ln y = b0 + b1 t transformiert werden, wodurch die Berechnung der Parameter vereinfacht wird. 67

Zeitinverse Exponentialfunktion: yt = exp(b0 b1 + et ), t t = 1, . . . , T , b > 0, t >0 (10.89)

Die Trendfunktion hat einen S-frmigen Verlauf, und kann ebenfalls durch eine Logarithmierung in eine lineare Funktion berfhrt werden. Logistische Funktion: yt = s , 1 + exp(b0 b1 t + et ) t = 1, . . . , T , b > 0, s > 0, (10.90)

wobei s als Sttigungsniveau bezeichnet wird und ebenfalls geschtzt werden mu. Die Trendfunktion ist ebenfalls S-frmig, lt sich jedoch nicht in eine lineare Form transformieren. Daher erfolgt die Schtzung mit Hilfe numerischer Verfahren der nichtlinearen Regression.

10.4 Verallgemeinerungen des klassischen Regressionsmodells


Eine zentrale Annahme im klassischen Regressionsmodell ist die Annahme 5.: E(eeT ) = 2 I . Diese Annahme impliziert, da die Varianzen aller Fehlerkomponenten identisch (Homoskedastizitt) und die Fehler verschiedener Stichprobenelemente unkorreliert sind. Diese Annahme ist in vielen Fllen nicht haltbar, wie folgende Beispiele zeigen: Beispiel zur Heteroskedastizitt : Wir untersuchen den Zusammenhang zwischen Einkommen Yi und Konsum Ci durch Befragung von Personen i = 1, . . . , T in einer Querschnittsuntersuchung. Der vermutete Zusammenhang ist gegeben durch die Regressionsgleichung: C i = b0 + b 1 Y i + e i (10.91)

Bei dieser Gleichung ist zu beachten, da aus Grnden der konomischen Tradition die abhngige Variable mit Ci und die unabhngige Variable mit Yi bezeichnet wird. Werden b0 und b1 durch die Methode der kleinsten Quadrate geschtzt, unterstellt man gleiche Varianzen E(ei2 ) = 2 fr i = 1, . . . N . Die konomische Theorie vermutet jedoch, da bei greren Einkommen nicht nur der Konsum, sondern auch die Fehlervarianzen strker ausgeprgt sind. Ein mgliches Modell ist gegeben durch E(ei2 ) = 2 Yi2 und E(ei ei ) = 0 fr i = i . Trotz dieser neuen Spezikation der Varianz des Fehlers ist der KQ-Schtzer fr b zwar noch erwartungstreu und konsistent, die Aussagen des Satzes: Eigenschaften des KQ-Schtzers auf Seite 62, bezglich Annahme 2, 3, 5, 6 und 7 gelten jedoch nicht mehr, wie durch Einsetzen von E(ei2 ) = 2 Yi2 in den Beweis des Satzes gezeigt werden kann. Einen Schtzer mit den gleichen Eigenschaften wie denen des KQ-Schtzers im homoskedastischen Fall erhlt man durch folgende Transformationen: Ci 1 = b1 + b 0 + e i Yi Yi mit e i = ei 1 Yi (10.92)

Dieser Schtzer heit Aitken-Schtzer. Dies entspricht einem Modell, in dem alle Variablen mit dem Faktor 1/Yi gewichtet werden. Nunmehr gilt: E(ei 2 ) = 2 fr alle i . Daher erfllt das transformierte Modell die Annahmen 1. bis 6. der klassischen Regression. Beispiel zur Autokorrelation: Wir untersuchen den gleichen Zusammenhang wie oben, aber an die Stelle von individuellen Querschnittsdaten treten aggregierte Jahresdaten der volkswirtschaftlichen Gesamtrechnung, so da eine Lngsschnittuntersuchung vorliegt. C t = b0 + b 1 Y t + e t , t = 1, . . . , T (10.93)

0 + b 1 Yt ) und trgt das Residuum Schtzt man mit KQS b0 und b1 sowie das Residuum e t = Ct (b gegen die Zeitachse auf, erhlt man hug ein zyklisches Muster. Grnde fr dieses Muster sind hug: Wichtige Variablen fehlen in der Regressionsgleichung (Fehlspezikation).

68

Die Fehler sind ber die Zeit korreliert, d.h. E(et et +1 ) = 0. Im vorliegenden Beispiel spricht man von positiver Autokorrelation. Wir treffen folgende Annahme: et = et 1 + vt (vt sind independent identically distributed (iid) ) (10.94)

In diesem Fall folgt et einem autoregressiven Proze erster Ordnung (AR(1)). Der Fehler vt erfllt die Annahmen des klassischen Regressionsmodells. Im Fall der Autokorrelation wird angenommen, da entweder bereits bekannt ist oder durch geschtzt wird. Der Schtzer ist deniert durch:
T

e t e t 1 =
t =2 T

(10.95) e t2

t =1

Ist bekannt oder durch geschtzt, fhrt die nachfolgende Transformation der Bildung der ersten Differenzen wiederum zu Homoskedastizitt und Unkorreliertheit des neuen Fehlers vt . Ct Ct 1 = b0 + b1 Yt + et b0 b1 Yt 1 et = (1 )b0 + b1 (Yt Yt 1 ) + et et 1 = (1 )b0 + b1 (Yt Yt 1 ) + vt Die letzte Gleichung ist quivalent einer Regressionsgleichung in den ersten Differenzen mit den Annahmen des klassischen Regressionsmodells. Das Vorliegen von Autokorrelation wird mit Hilfe der Durbin-Watson-Statistik getestet. Sowohl fr Heteroskedastizitt als auch fr korrelierte Fehler werden in der konometrie erheblich komplexere Modelle behandelt.

10.5 Varianz- und Kovarianzanalyse


Eine spezielle Form der Regressionsanalyse tritt auf, wenn die Regressoren nur die Werte 0 oder 1 annehmen. Dies ist insbesondere dann der Fall, wenn die unabhngige Variable nominal skaliert ist. Die Umsetzung einer nominal skalierten Variablen in Dummy-Variable (d.h. 0, 1 Variable) wird an folgenden Beispielen deutlich. Beispiel : Sei A eine qualitative Variable mit Ausprgungen {A1 , A2 , . . . , AL }. Die Ausprgung der qualitativen Variablen wird durch L Dummy-Variable reprsentiert. Die l -te Dummy-Variable nimmt genau dann den Wert 1 an, wenn die l -te Ausprgung Al eintritt. Alle anderen Dummy-Variablen werden auf 0 gesetzt. Formal lautet das Regressionsmodell mit einer qualitativen unabhngigen Variablen dann: yi = b0 + b1 xi 1 + b2 xi 2 +, . . . , +bl xil + . . . , +bL xiL + ei (10.96)

mit den Regressoren xil = 1, wenn i die Ausprgung Al hat, und xil = 0 sonst. Beispiel zur einfachen Varianzanalyse: Zur Verbesserung des Maisertrags wurden drei verschiedene Sorten Mais gezchtet. Diese Sorten A, B , C wurden auf 5 bzw. 7 bzw. 4 gleich groen Feldern angebaut, wobei sich folgende Ertrge ergaben (in 100 kg): Sorte A 13.3 11.8 10.7 9.1 12.0 Sorte B 8.3 10.3 9.1 10.2 8.8 12.5 11.9 69 Sorte C 11.2 10.9 13.4 12.7

Der Ertrag ist abhngig von der Maissorte. Dann nimmt xil jeweils den Wert 1 an, wenn der Ertrag yi von der Sorte l stammt, sonst ist xil = 0. Damit ist die Matrix der Regressoren (Designmatrix) X mit n = 16 und L = p = 3 gegeben durch: 13.3 1 1 0 0 11.8 1 1 0 0 10.7 1 1 0 0 9.1 1 1 0 0 12.0 1 1 0 0 8.3 1 0 1 0 10.3 1 0 1 0 9.1 1 0 1 0 (10.97) X= Y = 10.2 1 0 1 0 8.8 1 0 1 0 12.5 1 0 1 0 11.9 1 0 1 0 11.2 1 0 0 1 10.9 1 0 0 1 13.4 1 0 0 1 12.7 1 0 0 1 Unmittelbar einsichtig ist die Tatsache, da die Matrix keinen vollen Spaltenrang besitzt, da xi 1 = xi 2 + xi 3 + xi 4 . Daher ist die Matrix (X TX) nicht invertierbar. Um in X vollen Spaltenrang zu erreichen, fhren wir lineare Restriktionen ein, die auch als Reparametrisierungsbedingungen bezeichnet werden. Lineare Restriktionen knnen auf vielfltige Weise eingefhrt werden. Wir beschrnken uns hier auf die einfachste Restriktion, indem wir eine linear abhngige Spalte streichen und damit den dieser Spalte entsprechenden Parameter implizit auf 0 setzen. In unserem Beispiel fhren wir dies fr die erste Ausprgung, nmlich Sorte A, ein und streichen die zweite Spalte von X. Die neue Matrix der Regression X hat damit die Ordnung (n 3) und ist von vollem Spaltenrang. Der Parameter b1 wird implizit auf 0 gesetzt, die Parameter b2 und b3 sind als Mittelwertsdifferenzen zur ersten Gruppe interpretierbar. Der Mittelwert der ersten Gruppe wird durch b0 geschtzt. y

b1 b2

Sorte B Sorte C Sorte A

b0

In den Anwendungen treten jedoch in der Regel sowohl nominal als auch metrisch skalierte Variable auf. Bercksichtigt man die oben angefhrten Restriktion fr nominale Variable, so lt sich die gesamte Regressormatrix einfach durch Anfgen der Datenvektoren fr die metrischen Variablen erzeugen. Im gemischten Fall spricht man von Kovarianzanalyse. Die Berechnungen erfolgen in genau gleicher Weise wie im klassischen Regressionsmodell. Beispiel zur Kovarianzanalyse: Wir untersuchen die Abhngigkeit der Gre von Schiffsbesatzungen Y der englischen Handelsmarine um 1870 von der Antriebsart mit den Kategorien P1 = unbekannt, P2 = Segel, P3 = Dampf und der Tonnage T eines Schiffes. Die Daten sind in Rohform: 70

P 1 1 1 2 3 3 3 3 3 2 3 3 3

T 44 144 150 236 739 970 2371 309 679 26 1272 3246 1904

Y 3 6 5 8 16 15 23 5 13 4 19 33 19

P 3 3 3 1 1 2 3 2 3 3 3 3

T 357 1080 1027 45 62 68 2507 138 502 1501 2750 192

Y 10 16 22 2 3 2 22 2 18 21 24 9

Entsprechend diesen Variablen whlen wir als Regressionsmodell: y i = b0 + b 1 x i 1 + b 2 x i 2 + b 3 x i 3 + b 4 x i 4 + e i (10.98)

mit den Dummyvariablen xi 1 = 1 fr P = 1, xi 2 = 1 fr P = 2 und xi 3 = 1 fr P = 3 sowie der metrischen Variablen xi 4 fr Tonnage. Damit ist die Datenmatrix X gegeben durch:
xi 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 xi 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 xi 2 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 1 0 0 0 0 xi 3 0 0 0 0 1 1 1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 1 1 1 1 xi 4 44 144 150 236 739 970 2371 309 679 26 1272 3246 1904 357 1080 1027 45 62 68 2507 138 502 1501 2750 192

Um vollen Spaltenrang zu erreichen, fhren wir als lineare Restriktion b1 = 0 ein und streichen somit die zweite Spalte der Datenmatrix und berechnen aus der reduzierten Matrix den KQ-Schtzer: T = (3.242, 0.024, 6.178, 0.0063) b (10.99)

2 Die Berechnung von sKQ , R 2 , Kondenzintervallen und Tests bleibt als bungsaufgabe dem Leser berlassen.

71

Dampf

b2

Segel unbekannt b1

b0

x4

72

11 Abhngigkeit zwischen qualitativen und ordinalen Merkmalen


11.1 Assoziationsmae fr qualitative Merkmale
Liegen zwei oder mehr nominal skalierte Merkmale vor, wird zunchst - hnlich der Korrelation - die Strke des Zusammenhangs zwischen den Merkmalen analysiert. Ausgangspunkt der Analyse ist in der Regel eine zwei- oder hherdimensionale Kontingenztabelle. Wir beschrnken uns auf zweidimensionale Kontingenztabellen mit empirischen Hugkeiten hij , i = 1, . . . r, j = 1, . . . s . Um analoge Begriffe zur Korrelation bilden zu knnen, fhren wir zunchst den Begriff vollstndiger Abhngigkeit ein, der bei Kontingenztabellen jedoch nur fr quadratische Tabellen deniert werden kann. Denition: Zwei Merkmale A, B mit jeweils r Merkmalsausprgungen heien vollstndig abhngig, wenn bei geeigneter Anordnung der Merkmalsausprgungen nur die Diagonalzellen der Verteilungstabelle besetzt sind, d.h. hij = 0 fr i = j, i, j = 1, 2, . . . , r (11.1)

Im folgenden werden die Bezeichnungen hi =


j

hij ;

hj =
i

hij ;

n=
i j

hij

(11.2)

verwendet. Beispiel : Wir betrachten zwei Merkmale A und B mit jeweils r = 2 Ausprgungen. Die linke Tabelle zeigt vollstndige Abhngigkeit, die rechte zeigt Unabhngigkeit. B A 0.70 0.00 0.70 hij he ij =
ij

B 0.00 0.30 0.30 0.70 0.30 1.00 A 0.49 0.21 0.70 0.21 0.09 0.30 0.70 0.30 1.00

Zur Analyse der allgemeinen Kontingenztabelle bentzen wir folgende Bezeichnungen: beobachtete Hugkeit bei Unabhngigkeit erwartete Hugkeit Abweichungen

hi hj n

= hij he ij

Die Abweichungen ij sind die Grundlage der Messung von Abhngigkeit. Die Summe der Differenzen ergeben zeilen- und spaltenweise die Summe 0:
ij j

=
j

hij hij
i

hi n hj n

hj = hi hi
j

n =0 n n =0 n

(11.3)

ij i

hi = hj hj
i

(11.4)

Die Abweichungen geben an, wie sehr man die Elemente der Grundgesamtheit (oder Stichprobe) umverteilen mu, damit aus der bei Unabhngigkeit erwarteten Verteilung die beobachtete Verteilung entsteht. Denition: Das Assoziationsma Chi-Quadrat (auch quadratische Kontingenz) ist gegeben durch: 2 =
i j 2 ij e hij

=
i j

2 (hij he ij )

he ij

(11.5)

Folgende Umformungen sind fr die praktische Rechnung bequemer: 2 2 h h ij ij 2 = 1 e n = n h h h i j ij i j i j 73

(11.6)

Beweis der Umformung: 1 2 (hij he ij ) = he ij h2 ij


i j

1 e e2 h2 ij 2hij hij + hij he ij he ij


i j

(11.7)

he ij

2
i j

hij +

=
i j

h2 ij he ij

(11.8)

Das 2 -Ma hngt von n, also dem Umfang der Grundgesamtheit oder Stichprobe ab. Aus diesem Grunde eignet es sich nicht zum Vergleich des Abhngigkeitsgrades bei verschieden groen Grundgesamtheiten oder Stichproben. Man hat daher Koefzienten vorgeschlagen, die 1. von n nicht abhngen, 2. bei statistischer Unabhngigkeit null werden und 3. bei vollstndiger Abhngigkeit den Wert 1 annehmen. Wir betrachten zunchst Vierfelderkoefzienten fr Merkmale mit jeweils r = 2 Merkmalsausprgungen. B1 A1 A2 a c a+c Fr diese Tabelle gelten somit die Bezeichnungen: h11 = a, h12 = b, h21 = c, he 11 = h22 = d he 12 = (a + b)(b + d) , n B2 b d b+d a+b c+d h

n = a + b + c + d, he 21 =

(a + c)(a + b) , n (c + d)(b + d) n

(a + c)(c + d) , n

he 22 =

Einsetzen ergibt nach einiger Rechnung: 2 = (ad bc)2 n (a + b)(a + c)(b + d)(c + d) (11.9)

Damit erhlt man den Kontingenz- oder Phi-Koefzienten: = 2 = n |ad bc| (a + b)(a + c)(b + d)(c + d) (11.10)

Es gilt 0 1, d.h. dieser Koefzient ist normiert. Zustzlich denieren wir den Assoziationskoefzienten , der auch Yulesches Assoziationsma heit: = ad bc ad + bc (0.7)(0.3) (0.7)(0.7)(0.3)(0.3) (0.7)(0.3) 0 =1 (0.7)(0.3) + 0 , (11.11)

In unserem Beispiel erhlt man fr die linke Vierfeldertafel: = = =1 (11.12)

(11.13)

also beide Male vollstndige Abhngigkeit. Nun behandeln wir Mae fr den Zusammenhang in einer allgemeinen Kontingenztabelle. Zu diesem Zweck geben wir vier Mae an:

74

Der allgemeine Kontingenzkoefzient C : C= 2 n

(11.14)

Das Ma C hat den Nachteil, da es grer als 1 werden kann. Der korrigierte Kontingenzkoefzient Ccor ist hingegen immer kleiner als 1: Ccor = 2 n + 2 (11.15)

Zwei andere Wege der Normierung werden in den nchsten beiden Koefzienten eingeschlagen. Der erste Koefzient ist das Kontingenzma von Tschuprow: T = 2 n (s 1)(r 1)

(11.16)

Der zweite Koefzient ist das Kontingenzma von Cramr: V = 2 n min{(s 1), (r 1)}

(11.17)

Der Gre nach sind diese Koefzienten in der Regel nach der Reihenfolge C V T geordnet. Diese Mae sind 0, wenn die beiden Merkmale unabhngig sind. V ist T berlegen, weil der Koefzient auch dann den Wert 1 annehmen kann, wenn s und r ungleich sind. Fat man in einer Kontingenztafel Spalten und/oder Zeilen zusammen, vergrbert man also die Gruppen, so kann der 2 -Wert nicht grer werden. Bei der Interpretation weisen Werte unter 0.2 auf schwache, Werte zwischen 0.2 und 0.5 auf mittelstarke und Werte, die grer als 0.5 sind, auf starke Zusammenhnge hin. Die Art des Zusammenhangs ist jedoch nur durch Betrachtung der bedingten Verteilungen zu erfassen. Beispiel : Zusammenhang zwischen Religionsbekenntnis von Brutigam und Braut bei allen Ehen, die 1957 vor Wiener Standesmtern geschlossen wurden. E Evangelisch (E) Katholisch (K) Sonstige (S) ohne Bekenntnis (O) 344 693 27 108 1172 Zunchst wird 2 und dann T berechnet: 2 = 13716 1972 3442 +, . . . , + 1 1172 1138 556 1148 3223.7 13716 (4 1)(4 1) = 0.279 = 3223.7 (11.18) K 728 9916 248 812 11704 S 22 97 134 31 284 O 44 293 22 197 556 1138 10999 431 1148 13716

T =

(11.19)

Das Resultat deutet auf einen mittelstarken Zusammenhang zwischen den Religionsbekenntnissen der Brautleute hin.

75

11.2

Der 2 -Test auf statistische Unabhngigkeit

Wir haben bereits den 2 -Test auf bereinstimmung einer empirischen Verteilung mit einer theoretischen Verteilung kennengelernt. Bei der Analyse von Kontingenztabellen zweier Merkmale A und B richtet sich das Interesse auf die berprfung der H0 : A und B sind voneinander statistisch unabhngig gegen H1 : A und B sind statistisch abhngig. Als Teststatistik verwendet man das Kontingenzma 2 , das hier mit 2 bezeichnet wird. Unter der Nullhypothese folgt die Teststatistik 2 einer 2 Verteilung mit (r 1)(s 1) Freiheitsgraden. Als Beispiel berprfen wir die Nullhypothese: Das Religionsbekenntnis der Brautleute ist statistisch unabhngig an den Daten des letzten Beispiels mit einem Irrtumsniveau von = 0.01. Der 2 2 kritische Wert ist 9 = 3223.7. Die Nullhypothese wird daher ,0.99 = 21.7, die Teststatistik betrgt zum vorgegebenen Testniveau verworfen. Genauso wie im Fall von metrischen Variablen knnen bei qualitativen Merkmalen Scheinzusammenhnge auftreten, die durch dritte Variable verursacht werden. Man untersucht daher anstelle von zweidimensionalen hug drei- und hherdimensionale Kontingenztabellen. Beispiel : Wir betrachten wir den Zusammenhang zwischen Rauchen, Lungenkrebs und Vogelhaltung. Die beiden folgenden Tabellen zeigen die Hugkeitsverteilung von Lungenkrebs und Vogelhaltung nach Rauchern und Nichtrauchern getrennt. Nichtraucher VogelLungenkrebs haltung ja nein ja nein 6 5 11 36 162 198 42 167 209 Vogelhaltung ja nein Raucher Lungenkrebs ja nein 93 119 212 67 179 246 160 298 458

Fr die Nichtraucher erhlt man 2 = 8.58 und den korrigierten Kontingenzkoefzient Ccor = 0.2. Fr die Raucher erhlt man 2 = 13.86 und den korrigierten Kontingenzkoefzient Ccor = 0.17. Die beiden korrigierten Kontingenzkoefzienten zeigen einen schwachen bis mittelstarken Zusammenhang zwischen Lungenkrebs und Vogelhaltung, wobei der Zusammenhang bei den Nichtrauchern etwas strker ausgeprgt ist. Die Hypothese, da kein Zusammenhang zwischen Lungenkrebs und Vogelhaltung besteht, mu bei Rauchern wie bei Nichtrauchern sogar bei der sehr kleinen Irrtumswahrscheinlichkeit = 0.005 2 verworfen werden (1 ,0.995 = 7, 88). Weiter lt sich aus den Tabellen ablesen, da nur ca. 5% der untersuchten Nichtraucher, aber ca. 46% der Raucher an Lungenkrebs erkrankt sind. Bezieht man jedoch zustzlich die Variable Vogelhaltung in dieAnalyse mit ein, so stellt man fest, da ca. 14% der Nichtraucher und ca. 59% der Raucher, die einen Vogel halten, unter Lungenkrebs leiden. Betrachtet man ausschlielich die an Krebs erkrankten Personen, stellt man fest, da sogar ca. 55% der an Krebs erkrankten Nichtraucher und ca. 44% der Raucher einen Vogel besitzen. Man mu somit von der Mglichkeit ausgehen, da neben Rauchen auch Vogelhaltung das Krebsrisiko erhht.

11.3 Assoziationsmae und Tests fr ordinale Merkmale


Als Ma der Strke des Zusammenhangs zwischen ordinal skalierten Variablen X und Y werden folgende angefhrten Koefzienten verwendet. 11.3.1 Der Rangkorrelationskoefzient von Kendall Die Beobachtungen (xi , yi ), i = 1, . . . , n werden so angeordnet, da die x -Werte nach wachsender Gre geordnet sind. Danach stellt man fest, wieviele Paare rechts von i eine y -Komponente aufweisen, die grer ist als yi ; die Anzahl solcher Paare sei mit Si bezeichnet. Dann heit der Koefzient:
n

4 =
i =1

Si 1, 1 1 76 (11.20)

n(n 1)

Schtzer fr den Rangkorrelationskoefzienten einer Grundgesamtheit, der nach dem Statistiker Kendall als Kendalls bezeichnet wird. Beispiel : Wir betrachten n = 5 Paare von Rangdaten, die nach x geordnet sind. i x y Si
n

1 1 2 3

2 3 1 3

3 4 5 0

4 8 3 1

5 9 4 0

Wegen n = 5 und
i =1

Si = 7 erhalten wir: (11.21)

47 1 = 0.4 54

Der Kendallsche Rangkorrelationskoefzient verteilt sich bei Unabhngigkeit der beiden Merkmale und Vorliegen von mindestens 10 Beobachtungspaaren annhernd normal mit Mittelwert 0 und Varianz 2 = 2(2n + 5) 9n(n 1) (11.22)

Damit lassen sich Teststatistiken zur berprfung der H0 : = 0 gegen H1 : = 0 formulieren. 11.3.2 Der Rangkorrelationskoefzient von Spearman Ein weiterer Rangkorrelationskoefzient wurde von Spearman vorgeschlagen und wird mit s in der Grundpopulation bezeichnet. Zur Schtzung aus einer Stichprobe schreibt man die Medaten ihrer Gre nach auf und ordnet ihnen die natrlichen Zahlen als Rangnummern zu. x(1) < x(2) <, . . . , < x(n) , r(x) = 1, 2, . . . n; y(1) < y(2) <, . . . , < y(n) , r(y) = 1, 2, . . . , n(11.23) Dem i -ten Paar mit den Komponenten (xi , yi ) ist nun das Rangnummernpaar (r(xi ), r(yi )) zugeordnet. Wir bilden die Rangnummerndifferenz di = r(xi ) r(yi ). Die Gre: rs = 1 1 6 2 n(n 1)
n

di2 ,
i =1

1 rs 1

(11.24)

heit Spearmanscher Rangkorrelationskoefzient der Stichprobe. Beispiel : Bestimmung von rs aus den Daten des letzten Beispiels. i di di2
n

1 -1 1

2 1 1

3 -2 4

4 1 1

5 1 1

Aus n = 5,
i

di2 = 8 berechnet man: 68 = 0.6 5 24 (11.25)

rs = 1

Der Spearmansche Rangkorrelationskoefzient rs ist, falls s = 0 gilt, in Stichproben von mindestens 20 Beobachtungspaaren so verteilt, da die Transformation: u = rs n 2 N (0, 1) (11.26) asymptotisch standardnormalverteilt ist. Daraus lassen sich wieder Teststatistiken zur berprfung der H0 : s = 0 gegen die H1 : s = 0 berechnen. 77

Kendalls wird vor allem dann verwendet, wenn Bindungen auftreten, wenn also eine Merkmalsausprgung in x oder y nicht nur einmal vorkommt. Da in diesem Fall keine natrliche Ordnung hergestellt werden kann, ist die Verwendung von rs problematisch. Um in solchen Fllen dennoch rs berechnen zu knnen, werden bei gleichen Werten mittlere Rnge vergeben. Die Vorgehensweise ist dem folgenden Beispiel zu entnehmen. Beispiel : Wir betrachten folgende Rangdaten. i x y 1 1 2 2 3 1 3 4 5 4 8 3 5 9 4 6 3 4 7 7 4 8 6 6

x nimmt zweimal den Wert 3 an und bei y kommt der Wert 4 sogar dreimal vor. Mit Hilfe von mittleren Rngen, kann eine modizierte Rangtabelle erzeugt werden, wobei die mittleren Rnge hier fett dargestellt werden: i r(x) r(y) 1 1 2 2 2.5 1 3 4 7 4 7 3 5 8 5 6 2.5 5 7 6 5 8 5 8

78

12 Wirtschafts- und Sozialstatistik


12.1 Datenbasis
Wirtschaftswissenschaft als Erfahrungswissenschaft ist auf umfangreiche Informationen angewiesen, die sowohl von der amtlichen Statistik als auch von ffentlichen und privaten Instituten gesammelt und zur Verfgung gestellt werden (verfgbare Daten). Da verfgbare Daten zur Beantwortung spezischer Fragen oft nicht ausreichen, mssen eigene Daten im Forschungsproze erhoben werden (nicht verfgbare Daten). Einen berblick ber die verfgbaren Daten und deren Produzenten geben Hujer und Cremer (1978), die auch die internationale Statistik sowie Sozialindikatoren behandeln. Die genauesten Daten der allgemeinen Statistik liefern die in ca. 10-Jahres-Abstnden durchgefhrten Volkszhlungen, in denen an einem Stichtag alle Haushalte der Bundesrepublik Deutschland erhoben und befragt werden (Totalerhebung). Die wesentlichen Merkmale, die dabei erhoben werden, sind Geschlecht, Alter, Familienstand, Staatsangehrigkeit, Beteiligung am Erwerbsleben, ausgebter Beruf, Stellung im Beruf und Wirtschaftszweig. Volkszhlungen werden nur alle 10 Jahre duchgefhrt, da sie hohe Kosten verursachen, die Datenaufbereitung sehr lange dauert und die Belastung fr die gesamte Bevlkerung sehr gro ist. Da jedoch aktuelle Daten ber die Entwicklung der Wirtschaft, der Verkehrssituation usw. bentigt werden, wird jhrlich eine Stichprobe, der Mikrozensus, erhoben, bei der ein kleiner Teil der Bevlkerung (1%, 0.25% bzw. 0.1%) befragt wird. Die Ergebnisse werden nach den Regeln der schlieenden Statistik auf die Bevlkerung hochgerechnet. Beim Mikrozensus werden neben dem Grundprogramm, also den Fragen aus der Volkszhlung, zustzliche Fragen ber aktuelle Probleme (Zusatzprogramm) gestellt (z. B. zum Pendlerproblem). Die Statistik der Bevlkerungsbewegung und Familienstandsnderung wird von den Standesmtern (Geburt, Tod, Eheschlieung) sowie den Gerichten (Scheidung) erstellt, whrend die Wanderung der Bevlkerung durch die Einwohnermter (Meldescheine) erfat wird. Die Arbeitsmarktstatistik obliegt Arbeitsmtern und der Bundesanstalt fr Arbeit. Gleichzeitig mit den Volkszhlungen werden Arbeitssttten-, Gebude- und Wohnungszhlungen durchgefhrt. Daher mte man exakt von einer Volks-, Berufs-, Einkommens-, Wohnungs-, Arbeitssttten- und Gebudezhlung sprechen.

12.2

Bevlkerungsstatistik

12.2.1 Grundbegriffe In der Bevlkerungsstatistik werden drei Konzepte des Bevlkerungsbegriffs unterschieden: Konzept der Staatsangehrigkeit. Konzept der Nation. Hier handelt es sich um historische und ideologische Konzepte. Konzept der Wohnbevlkerung (Inlandsbevlkerung). In der amtlichen Statistik wird nur von der Wohnbevlkerung ausgegangen, um fr infrastrukturelle Manahmen wie Wohnungsbau, Straenbau, Krankenhuser, Schulen usw. Plandaten zur Verfgung zu stellen. Die (Wohn-) Bevlkerung umfat alle natrliche Personen, die sich berwiegend in der Bundesrepublik Deutschland aufhalten und damit durch die Meldebehrden erfat sind. Permanent im Ausland lebende deutsche Staatsbrger gehren nicht zur Wohnbevlkerung. Nicht zur Bevlkerung gehren die Angehrigen der auslndischen Stationierungskrfte sowie der auslndischen diplomatischen und konsularischen Vertretungen mit ihren Familienangehrigen. Die wichtigste konomische Einheit ist der Haushalt. Als Haushalt gilt jede Personengemeinschaft, die zusammen wohnt und eine gemeinsame Hauswirtschaft fhrt (natrlich auch einzelne Personen, die alleine wohnen und wirtschaften). Dabei wird zwischen Privathaushalten und Anstaltshaushalten (z.B. Heime, Gemeinschaftsunterknfte, Gefngnisse etc.) unterschieden. In der Bevlkerungsstatistik verwendet man Kennzahlen zur Charakterisierung der Bevlkerungsentwicklung, die als Raten und Ziffern (= Rate 1000) bezeichnet werden. Alle Kennzahlen beziehen sich auf die Wohnbevlkerung. Wichtige Raten sind:

79

1. Rohe Geburtenrate: rj = bj Lj

bj ist die Anzahl der Geburten im Jahr j , d. h. zwischen den Stichtagen des Jahres j und des Jahres j + 1. Lj ist der Durchschnittsbestand der Wohnbevlkerung im Jahr j . 2. Altersspezische Sterberate: maj = daj Laj

daj ist die Anzahl der Sterbeflle von Personen im Jahre j , die das Alter von a Jahren erreichten. Laj ist der durchschnittliche Bestand von a -jhrigen im Jahr j . 3. Rohe Fruchtbarkeitsrate (Rohe Fertilittsrate): fj = bj Fj

Fj ist die durchschnittliche Anzahl der Frauen im gebrfhigen Alter im Jahre j . Das gebrfhige Alter ist statistisch durch die Untergrenze 15 und durch die Obergrenze 45 Jahre festgelegt. 4. Altersspezische Fruchtbarkeitsrate: faj = baj Faj

baj ist die Anzahl der Geburten im Erhebungszeitraum (j, j + 1), deren Mtter bei der Geburt a Jahre alt sind. Faj ist die durchschnittliche Anzahl der Frauen, die im Erhebungszeitraum das Alter von a Jahren erreicht haben. 5. Altersspezische Rate von Mdchengeburten:
w faj

w baj

Faj

Mit diesen Raten lt sich allerdings noch nicht feststellen, ob eine Bevlkerung langfristig wchst, stabil bleibt oder schrumpft. Zur Analyse der langfristigen Bevlkerungsentwicklung werden folgende Kennzahlen abgeleitet. Die rohe Fruchtbarkeitsrate fj lt sich zerlegen in: bj = fj = Fj baj
a

Fj

=
a

baj Faj = Faj Fj

faj aj
a

(12.1)

faj ist die altersspezische Fruchtbarkeitsrate. aj ist der Anteil von Frauen im Alter a . Diese Zerlegung bildet die Grundlage der Denition der totalen Fruchtbarkeitsrate, die auch als Fertilittsrate (TFR) bezeichnet wird: TFRj =
a

faj

(12.2)

Bei der Berechnung der totalen Fertilittsrate wird angenommen, da sich die altersspezischen Fruchtbarkeitsraten im Laufe der Zeit nicht ndern (unechte Lngsschnittanalyse). Bercksichtigt man nur die Mdchengeburten, erhlt man den Bruttoreproduktionsindex (BRI): BRIj =
a

1 w faj TFRj 2 80

(12.3)

Bei der Berechnung von TFR und BRI wird angenommen, da eine Generation von Frauen in den 31 Jahren der Gebrfhigkeit zur Gnze erhalten bleibt. Diese Annahme ist unrealistisch. Daher wird w die berlebensrate von gebrfhigen Frauen jeder Altersstufe (paj , a = 15, 16, . . . , 45), die aus den Sterbetafeln der amtlichen Statistik entnommen werden kann, bercksichtigt. Analog zu den konstanten altersspezischen Fruchtbarkeitsraten werden konstante altersspezische Mortalittsraten angenommen. Die Korrektur des BRI durch berlebensraten fhrt zur Denition des Nettoreproduktionsindex: NRIj =
a w w faj paj

(12.4)

Der NRI wird blicherweise wie folgt interpretiert: Ist der NRI = 1, bleibt die Bevlkerung stabil. (In Wirklichkeit sinkt sie langsam, da der NRI die Sterberate der neugeborenen Mdchen nicht bercksichtigt.) Ist der NRI > 1, so wchst die Bevlkerung, andernfalls schrumpft sie. Die Richtigkeit dieser Interpretation hngt von dem Ausma ab, in dem die getroffenen Annahmen approximativ erfllt sind. 12.2.2 Die Bevlkerungspyramide Die Geburtenzahl hngt neben dem Zeugungsverhalten auch von der Altersstruktur einer Bevlkerung ab. Dieser Effekt wird anhand einiger Bevlkerungspyramiden fr Deutschland illustriert. Bei einer Bevlkerungspyramide ist auf der senkrechten Achse das Alter abgetragen: Unten stehen die Personen im ersten Lebensjahr; nach oben geht es bis zum Alter 100. Die Lnge eines Balkens nach rechts entspricht der relativen Strke der entsprechenden Frauenaltersgruppe in Promille, die Lnge eines Balkens nach links der relativen Strke der entsprechenden Mnneraltersgruppe. Insgesamt kumuliert sich die Flche zu 1000 Promille auf. Nach oben hin wird die Bevlkerungspyramide durch die Sterblichkeit allmhlich dezimiert. Bei wachsenden Bevlkerungen ist die Pyramide pyramidenartig oder pfeilfrmig. Bei Bevlkerungen mit konstant bleibendem Umfang ist die Pyramide glockenfrmig, bei schrumpfenden urnenfrmig. Die folgende Abbildung (vgl. Birg, Koch (1987), S. 160) reprsentiert die Altersstruktur der Bevlkerung im Deutschen Reich und in der Bundesrepublik Deutschland (ohne die neuen Lnder) von 1910 bis 2030 (bis 1983 real, anschlieend geschtzt).

Diese Abbildung enthlt links den Altersaufbau der deutschen Bevlkerung von 1910, der durch ein starkes Wachstum und keine wesentlichen Strungen gekennzeichnet ist. Bei der danebenstehenden Bevlkerungspyramide von 1925 sind deutlich drei Effekte erkennbar: Die gering besetzte Altersgruppe der 7 bis 10-jhrigen Jungen und Mdchen. Dieser Effekt geht auf die Geburtenausflle whrend des ersten Weltkriegs zurck. 81

In der Altersgruppe der 25 bis 50-jhrigen gibt es deutlich weniger Mnner als Frauen. Dieser Effekt ist auf die Gefallenen des ersten Weltkriegs zurckzufhren. In der Altersgruppe der ber 70-jhrigen gibt es weitaus mehr Frauen als Mnner. Dieser Effekt geht auf die in etwa um 7 Jahre hhere Lebenserwartung der Frauen zurck. Im Altersaufbau von 1939 sind diese Effekte um 14 Jahre nach oben gewandert. Am Sockel der Pyramide sind zustzlich die nach dem ersten Weltkrieg einsetzenden starken Geburtenrckgnge zu erkennen, die ihren Tiefpunkt whrend der Weltwirtschaftskrise erreichten. Die beiden folgenden Alterspyramiden zeigen den Aufbau der bundesdeutschen Bevlkerung 1961 mit einer starken Verbreiterung der Basis sowie den Geburtenrckgang ab 1968, der sich in der schrumpfenden Basis des Jahres 1983 ausdrckt. Die letzten beiden Pyramiden sind Prognosen fr die bundesdeutsche Bevlkerung der Jahre 2000 und 2030 (ohne die Bevlkerung der Lnder Mecklenburg-Vorpommern, Brandenburg, SachsenAnhalt, Sachsen, Thringen und Berlin). Hier wird sowohl das Schrumpfen der Bevlkerung als auch die zunehmende beralterung deutlich. Die fruchtbarste Phase der Frauen liegt zwischen dem zwanzigsten und dem dreiigsten Lebensjahr. Offensichtlich geht auch bei konstantem generativen Verhalten die Geburtenzahl zurck, wenn eine Beule in der Bevlkerungspyramide auftritt, d.h. wenn eine Altersgruppe von Frauen schwcher besetzt ist. Ein Teil der hohen Geburtenzahlen zu Beginn der sechziger Jahre ist durch die starke Besetzung der Frauenjahrgnge zu erklren, die am 31.12.1988 zwischen 45 und 55 Jahre alt waren. Andererseits ist ein Teil des Geburtenrckganges ab Mitte der sechziger Jahre darauf zurckzufhren, da zu dieser Zeit die durch den zweiten Weltkrieg dezimierte Altersgruppe die fruchtbarste Phase durchwanderte. 12.2.3 Der Geburtenrckgang in der Bundesrepublik Deutschland Die Wohnbevlkerung in der BRD ist seit 1950 von 50,3 Mio. bis 1973 auf 62,1 Mio. gewachsen. Seitdem fllt sie, wenn auch sehr langsam. Bei der deutschen Bevlkerung setzt der Rckgang bereits 1971 ein. Er wird bis 1973 nur durch einen greren Zuzug von Auslndern und deren hhere Geburtenzahl berdeckt. Der Geburtenrckgang setzt bereits viel frher ein, wie aus folgender Graphik (vgl. Birg, Koch (1987), S. 84) ersichtlich ist.

Die auerordentlich niedrige Fertilittsrate TFR von 1916 bis 1919 ist auf den starken Geburtenausfall whrend des ersten Weltkriegs zurckzufhren. Die relativ hohe Fertilittsrate TFR von 1955 bis 1968 ist sowohl auf die hohe Geburtenzahl zwischen 1934 und 1942 (Echoeffekt) als auch auf die relativ hohe 82

altersspezische Fruchtbarkeitsrate dieser Frauengeneration zurckzufhren. Die rohe Geburtenziffer betrgt 18.3 Lebendgeborene pro 1000 Einwohner im Jahr 1963 und 9.6 im Jahr 1977. Von besonderem Interesse ist die Entwicklung der altersspezischen Geburtenraten, die seit 1964 in allen Altersgruppen eine stark fallende Tendenz aufweisen, wobei in den letzten Jahren auch eine Verschiebung zu hherem Alter der Mtter festzustellen ist. Die totale Fertilittsrate TFR ist von 2.54 im Jahr 1964 auf 1.45 im Jahr 1975 abgesunken. Zur langfristigen Bestandserhaltung der Bevlkerung ist unter Bercksichtigung der Sterblichkeit ein Wert der TFR von 2.2 erforderlich. Einen Vergleich mit anderen Lndern zeigt folgende Aufstellung: Totale Fertilittsrate einiger ausgewhlter Industrielnder Jahr 1950 1955 1960 1965 1970 1975 1980 1985 BRD 2.10 2.14 2.37 2.50 2.01 1.45 1.45 1.31 DDR 2.35 2.38 2.35 2.48 2.19 1.54 1.94 1.80 ster reich 2.22 2.59 2.68 2.32 1.84 1.68 1.51 Frank reich 2.93 2.68 2.73 2.84 2.47 1.93 1.96 1.80 USA 3.09 3.58 3.65 2.91 2.48 1.77 1.82 1.80 UdSSR 2.82 2.46 2.39 2.41 2.28

Als Indikatoren und Faktoren fr den Geburtenrckgang lassen sich folgende Fakten angeben: Reduktion der Familiengre: Ehepaare (in Prozent) geordnet nach Anzahl der Kinder Jahr ohne Kinder mit 1 Kind mit 2 Kindern mit 3 Kindern mit 4 und mehr Kindern 1966 15 18 31 20 16 1972 22 28 35 11 4 1975 24 31 33 10 2 1982 39 27 23 8 3 1990 43 27 22 6 2 1998 48 23 21 6 2 1999 48 23 20 5 2

Siedlungsweise: In den Grostdten liegt die Geburtenziffer traditionell niedriger als in kleinen Gemeinden. Hier ndet allerdings zur Zeit eine Angleichung statt. Allgemeine Skularisierung: Schon 1970 wiesen diejenigen Ehen die hchste Kinderzahl auf, in denen beide Partner katholisch waren (2.132 Kinder), whrend fr Ehen, in denen beide Partner keiner Konfession angehrten, ein Durchschnittswert von 1.593 Kindern festgestellt wurde. Wandel der Berufsstruktur : Selbstndige Landwirte wiesen 1970 im Durchschnitt 2.671 Kinder aus erster Ehe auf, whrend die Angestellten im Durchschnitt 1.622 Kinder hatten. 12.2.4 Auswirkungen des Geburtenrckgangs Unter der Annahme konstanter Fruchtbarkeitsraten lt sich die Entwicklung der Bevlkerung aufgrund der bekannten berlebenswahrscheinlichkeiten schtzen. Ergebnisse dieser Schtzungen wurden in einer der vorhergehenden Abbildungen gezeigt. Die voraussichtliche Zusammensetzung der Bevlkerung lt sich auf spezielle Gruppen aufgliedern, die von besonderem gesellschaftspolitischen Interesse sind. Die Nachfrage nach den Dienstleistungen des Schul- und Ausbildungssystems wird wesentlich von der Anzahl der Jugendlichen in bestimmten Altersgruppen bestimmt. Insgesamt ist langfristig mit einer Abnahme des Bildungsbedarfs zu rechnen. Trotzdem kann es in den nchsten Jahren noch zu schweren Belastungen des Bildungssystems durch den Zustrom von Aus- und bersiedlern mit einer hohen Anzahl schulpichtiger und bildungswilliger Kinder kommen, wenn nicht die Ausbildungskapazitten verstrkt werden. 83

Insbesondere im universitren Bereich zeichnet sich aufgrund der steigenden Anzahl von Abiturienten sowie des steigenden Anteils von Studierwilligen unter den Abiturienten keine Entlastung innerhalb des nchsten Jahrzehnts ab. Von zentraler Bedeutung fr das Angebot an Arbeitskrften ist das Erwerbspotential der Bevlkerung, das parallel zum Sinken der Gesamtbevlkerung im Prognosezeitraum bis 2030 von ca. 30 Millionen im Jahr 1990 auf 20 Millionen im Jahr 2030 fllt. Insgesamt wird dem Zusammenhang zwischen demographischer Struktur und Arbeitsangebot in der gesamten Diskussion um Arbeitslosigkeit und Beschftigung viel zu wenig Beachtung geschenkt. Die derzeitige seit Jahren anhaltende hohe Arbeitslosigkeit von ca. 2 Millionen Personen ist zu einem hohen Ausma auf das Anwachsen des Bevlkerungsanteils der 20 bis 60-jhrigen von 30.9 Millionen im Jahre 1970 auf 34.5 Millionen im Jahre 1985 zurckzufhren. Diese Erhhung des Erwerbspotentials konnte auch durch die zustzliche Bereitstellung von Millionen von Arbeitspltzen im letzten Jahrzehnt nicht vollstndig aufgefangen werden. Zum Abschlu gehen wir auf einen wichtigen Faktor der konomischen Stabilitt ein, nmlich auf das Verhltnis von konomisch abhngigen Personen (Jugendliche unter 20 und Personen ber 60 Jahre) zu den Personen im erwerbsfhigen Alter (Erwerbsfhige). Die fr diesen Vergleich wichtigen Kennzahlen sind: 1. Der Jugendquotient wird durch das Verhltnis zwischen der Zahl der Jugendlichen und der Zahl der Erwerbsfhigen deniert. 2. Der Altenquotient wird durch das Verhltnis zwischen der Zahl der Senioren und der Zahl der Erwerbsfhigen deniert. 3. Der Abhngigkeitsquotient wird durch das Verhltnis zwischen der Zahl der Jugendlichen und Senioren und der Zahl der Erwerbsfhigen deniert. Die nchste Abbildung (vgl. Birg, Koch (1987), S. 167) zeigt die Prognose der Entwicklung dieser drei Kennzahlen im Zeitraum 1983 bis 2030. Dem stagnierenden Jugendquotienten steht ein dramatisch anwachsender Altenquotient und damit ein steil ansteigender Abhngigkeitsquotient gegenber. Die Konsequenzen fr das System der sozialen Sicherung sind offensichtlich. Die Belastung der 20 bis 60-jhrigen durch die Erfllung des Generationenvertrages, auf dem das derzeitige System der sozialen Sicherung beruht, steigt erheblich oder die Zuwendungen an die ber 60-jhrigen sinken erheblich. Natrlich sind alle Formen des Kompromisses zwischen diesen beiden Extremen denkbar.

84

12.3

Erwerbsstatistik

In der Erwerbsstatistik unterscheidet man zwischen der Beteiligung am Erwerbsleben (Erwerbskonzept) und der Hauptquelle des Lebensunterhalts (Unterhaltskonzept). Erwerbspersonen sind alle Personen mit Wohnsitz im Bundesgebiet (Inlnderkonzept), die eine unmittelbar oder mittelbar auf Erwerb gerichtete Ttigkeit ausben oder suchen, unabhngig von der Bedeutung des Ertrags fr ihren Lebensunterhalt und ohne Rcksicht auf die von ihnen tatschlich geleistete oder vertragsmig zu leistende Arbeitszeit. Erwerbsttige sind Personen, die in einem Arbeitsverhltnis stehen (einschlielich Soldaten und mithelfender Familienangehriger) oder selbstndig ein Gewerbe oder eine Landwirtschaft betreiben oder einen freien Beruf ausben. Erwerbslose sind Personen ohne Arbeitsverhltnis, die sich um eine Arbeitsstelle bemhen, unabhngig davon, ob sie beim Arbeitsamt gemeldet sind. Nichterwerbspersonen sind alle Personen, die keinerlei auf Erwerb gerichtete Ttigkeit ausben oder suchen. (Dazu gehren auch Studenten und Rentner.) Das Unterhaltskonzept gliedert nach Unterhalt vor allem aus Erwerbsttigkeit, Arbeitslosengeld, Rente u. dgl. (Vermgensertrge) sowie durch Angehrige. Arbeitslose sind Personen, die sich als Arbeitssuchende beim Arbeitsamt gemeldet haben. Offene Stellen sind zu besetzende Arbeitspltze, die durch Arbeitgeber beim Arbeitsamt gemeldet sind. Die Arbeitslosenquote ist die Anzahl der Arbeitslosen dividiert durch die Anzahl der abhngigen Erwerbsttigen (ohne Soldaten). Es gibt mehrere Denitionen fr die Arbeitslosenquote. Die Zahl, die variiert, ist die, durch die dividiert wird. Man kann die Arbeitslosenquote z. B. verringern, indem man nicht durch die Anzahl der abhngigen Erwerbsttigen sondern aller Erwerbsttigen dividiert. Da diese Quote ein starkes politisches Mittel ist, sollte man immer beachten, wie sie deniert ist. Dieses mu man auch beim Vergleich zwischen verschiedenen Lndern tun. Die folgenden Tabellen fassen einige Ergebnisse der Erwerbs und Beschftigtenstatistik zusammen.
Wohnbevlkerung nach dem Erwerbskonzept in 1000 (Durchschnittswerte) 1992 Wohnbevlkerung Erwerbspersonen Erwerbslose Erwerbsttige Inlnder insgesamt davon Arbeitnehmer Selbstndige 80595 40449 2564 1993 81180 40431 3075 1994 81422 40598 3319 1995 81661 40531 3201 1996 81896 40700 3490 1997 82053 41019 3888 1998 82029 41166 3687 1999 82087 41307 3428

37885 34243 3642

37356 33667 3689

37279 33491 3788

37330 33498 3832

37210 33371 3839

37131 33217 3914

37479 33500 3979

37879 33939 3940

Quelle: Statistisches Bundesamt, Wirtschaft und Statistik 9/2000 (S. 659)

Die Verlagerung der Erwerbsttigkeit vom primren und sekundren Sektor in den tertiren Sektor lt sich an folgender Tabelle ablesen.
Erwerbsttige nach Wirtschaftsbereichen in 1000 (Durchschnittswerte) Gesamtdeutschland 1994 1995 1996 1997 1998 1999 Land- und Forstwirtschaft und Fischerei Produzierendes Gewerbe ohne Baugewerbe Baugewerbe Handel, Gastgewerbe und Verkehr Finanzierung, Vermietung und Unternehmensdienstleister ffentliche und private Dienstleister Erwerbsttige insgesamt 1172 9229 3165 9313 4248 10177 37304 1115 9001 3227 9309 4404 10326 37382 1008 8745 3126 9326 4566 10499 37270 991 8586 2999 9344 4728 10546 37194 994 8598 2901 9450 4979 10618 37540 975 8542 2826 9554 5268 10777 37942

Quelle: Statistisches Bundesamt, Wirtschaft und Statistik 9/2000 (S. 663)

Von besonderem Interesse sind die Statistiken der Arbeitsmter. Die Entwicklung der Arbeitslosenzahlen in den letzten Jahren lt sich aus der folgenden Tabelle ablesen.

85

Arbeitslose Gesamtdeutschland Jahresdurchschnitt 1996 1997 1998 1999 2000 Bundesgebiet insgesamt 3 965 064 4 384 456 4 279 288 4 099 209 3 888 652 Arbeitslosenquote 11.5 12.7 12.3 11.7 10.7 Mnner 2 111 546 2 342 383 2 272 655 2 159 776 2 052 846 Frauen 1 853 518 2 042 073 2 006 633 1 939 433 1 835 806

Arbeitslose alte Bundeslnder Jahresdurchschnitt 1996 1997 1998 1999 2000 alte Bundeslnder insgesamt 2 796 243 3 020 900 2 904 339 2 755 527 2 529 374 Arbeitslosenquote 10.1 11.0 10.5 9.9 8.7 Mnner 1 616 501 1 740 717 1 640 797 1 535 525 1 398 119 Frauen 1 179 742 1 280 183 1 263 543 1 220 002 1 131 256

Am Ende dieses Abschnitts geben wir einen berblick ber die Bruttojahresverdienste von Angestellten an.
Durchschnittliche Bruttojahresverdienste der Angestellten in DM fr 1999 Neue Bundeslnder Alte Bundeslnder Mnner Produzierendes Gewerbe Verarbeitendes Gewerbe Ernhrungsgewerbe und Tabakverarbeitung Hoch- und Tiefbau Energie- und Wasserversorgung 67 620 66 972 60 840 67 308 68 952 Frauen 50 724 49 452 40 764 47 592 55 776 Mnner 87 864 88 440 79 728 84 504 81 324 Frauen 62 256 62 664 57 528 55 500 60 672

12.4

Indexrechnung

Indizes sind Kennzahlen zur Charakterisierung der zeitlichen Entwicklung quantitativer Gren. Typische Beispiele sind Preis- und Umsatzindizes. 12.4.1 Einfache Indizes Gegeben ist eine Zeitreihe von Gren. Die Gre wird mit G bezeichnet, whrend die Zeitreihe durch die Folge G0 , G1 , . . . Gt reprsentiert wird. Denition: Das Verhltnis: I0t (G) = Gt G0 (12.5)

heit Mezahl oder einfacher Index von G auf Basis 0. Dabei werden die Bezeichnungen Gt fr absolute Werte, 0 fr den Basiszeitpunkt (Zeitraum) und t fr den Berichtszeitpunkt (Zeitraum) verwendet. Mezahlen werden hug in Prozenten angegeben: I0t (G) = Gt 100 G0 (12.6)

Ein zentrales Problem ist die Umstellung von Indizes auf einen neuen Basiszeitraum. Dieser Vorgang wird als Umbasierung von Mezahlreihen bezeichnet. Gegeben seien die absoluten Werte G0 , G1 , . . . Gt . . . Gt und die Indizes 1, I01 (G), . . . , I0t (G), . . . , I0t (G) auf Basis 0. Ein Index kann ohne Kenntnis der absoluten Werte auf die neue Basis t umgestellt werden: It t (G) = I0t (G) I0t (G) 86 (12.7)

Die letzte Formel folgt aus der Identitt: It t (G) = Gt Gt /G0 I0t (G) = = Gt Gt /G0 I0t (G) (12.8)

Daraus ergibt sich die Kettenformel: I0t (G) = I0t (G)It t (G) 12.4.2 Preis- und Mengenindexzahlen Zur Zusammenfassung der Entwicklung mehrerer Gren G(i) , i = 1, . . . m werden zusammengesetzte (gewichtete) Indizes benutzt. Folgende Bezeichnungen werden verwendet: Symbol p q u=pq 0 1 pt(i) qt(i) Bezeichnung Preis Menge Wert (Umsatz, Ausgaben) Basiszeitpunkt Berichtszeitpunkt Preis pro Einheit der i -ten Ware zum Zeitpunkt t Menge der i -ten Ware zum Zeitpunkt t (12.9)

Ein Preisindex aller betrachteten Waren in einem Warenkorb {qt(1) , qt(2) , . . . qt(m) } zum Zeitpunkt t lt sich auf folgende Arten konstruieren. 1. Arithmetisches Mittel der Preismezahlen: 1 I01 (p) = m
m i =1 (i) p1 (i) p0

Problem: Keine Bercksichtigung der Mengen. 2. Index des mit den Mengen gewichteten arithmetischen Mittels der Preise:
m i m i (i) (i) p1 q1 / (i) (i) p0 q0 / m i m i (i) q1 m i m i (i) (i) p1 q1 m i m i (i) q0 (i) q1

I01 (p) =

=
(i) q0

(i) (i) p0 q0

Problem: unterschiedliche Mengen werden bercksichtigt (nderung des Konsumverhaltens). 3. Mengen werden konstant gehalten: Werden die Mengen der Basisperiode konstant gehalten, erhlt man den Preisindex von Laspeyres:
m L I0 1 (p) = i m i (i) (i) p1 q0 (i) (i) p0 q0

Werden die Mengen der Berichtsperiode konstant gehalten, erhlt man den Preisindex von Paasche:
m P I0 1 (p) = i m i (i) (i) p1 q1 (i) (i) p0 q1

87

hnlich wie bei der Konstruktion eines Preisindex kann bei der Konstruktion eines Mengenindex verfahren werden. 1. Outputmezahl:
m i m i (i) q1 (i) q0

I01 (q) =

2. Umsatzmezahl:
m i (i) (i) q0 p0 i (i) (i) q1 p1

I01 (p q) =

3. Mengenindex nach Laspeyres:


m L I0 1 (q) = i m i (i) (i) p0 q1 (i) (i) p0 q0

4. Mengenindex nach Paasche:


m P I0 1 (q) = i m i (i) (i) p1 q1 (i) (i) p1 q0

Durch die beiden letzten Indizes wird die nderung von Warenkrben zu konstanten Preisen gemessen. Beispiel zur Indexrechnung: Im Zeitraum von 4 Jahren hat man folgende Preis- und Mengenentwicklung beim durchschnittlichen Verbrauch von 3 Gtern gefunden: Zeitpunkt Zigaretten (Stck) Limonade (Liter) Kaffee (kg) t =0 (i) (i) q0 p0 476 0.12 21 1.1 0.6 12 t =1 (i) (i) q1 p1 553 0.11 25 1.25 0.8 13 t =2 (i) (i) q2 p2 598 0.13 30 1.2 1.2 14 t =3 (i) (i) q3 p3 709 0.16 29 1.2 1.3 15

Preisindizes von Laspeyres fr Basiszeitpunkt 0 und Berichtszeiten 2 und 3: 476 0.13 + 21 1.2 + 0.6 14 L I0 = 1.092 2 (p) = 476 0.12 + 21 1.1 + 0.6 12 476 0.16 + 21 1.2 + 0.6 15 L = 1.262 I0 3 (p) = 476 0.12 + 21 1.1 + 0.6 12 Preisindex und Mengenindex von Paasche fr Basiszeit 0 und Berichtszeit 1: 553 0.11 + 25 1.25 + 0.8 13 P = 0.9905 I0 1 (p) = 553 0.12 + 25 1.1 + 0.8 12 553 0.11 + 25 1.25 + 0.8 13 P = 1.1859 I0 1 (q) = 476 0.11 + 21 1.25 + 0.6 13 Umsatzmezahl fr Basiszeitpunkt 1 und Berichtszeit 2: 598 0.13 + 30 1.2 + 1.2 14 = 1.2738 I12 (p q) = 553 0.11 + 25 1.25 + 0.8 13 88

(12.10) (12.11)

(12.12) (12.13)

(12.14)

12.4.3 Erweiterung des Indexschemas Bei der Berechnung des Preisindex nach Laspeyres wird von der Annahme ausgegangen, da die Warenkrbe zum Basiszeitpunkt und zum Berichtszeitpunkt qualitativ und mengenmig gleich sind. Problematisch ist daher die Bercksichtigung von Waren, die erst nach dem Basiszeitpunkt auf dem Markt (1) (2) (m) eingefhrt werden (z. B. CDPlayer). Sei 0 der Basiszeitpunkt mit Warenkorb {q0 , q0 , . . . , q0 }. Sei 1 der Zeitpunkt der Einfhrung einer neuen Ware und 2 sei der Berichtszeitpunkt. Da die Ware m + 1 zu 0 noch nicht existiert hat, ist sie (aber nur sie) im Warenkorb mit der zum Zeitpunkt 1 gltigen Menge (1) (2) (m) (m+1) reprsentiert. Somit gilt zum Zeitpunkt 1 der Warenkorb {q0 , q0 , . . . , q0 , q1 }. Man berechnet einen Index I01 mit dem alten Warenkorb:
m i m i (i) (i) p1 q0

I01 =

(12.15)
(i) (i) p0 q0

sowie einen Index I12 mit dem um die neue Ware erweiterten Korb:
m i m i (i) (i) (m+1) (m+1) p2 q0 + p2 q1

I12 =

(12.16)
(i) (i) p1 q0

(m+1) (m+1) p1 q1

Der gesuchte Index wird durch Verkettung ermittelt:


v I0 2 = I01 I12

(12.17)

Durch dieses Verfahren wird erstens gewhrleistet, da die Preisentwicklung der ursprnglichen m Waren normal nach Laspeyres berechnet wird. Zweitens wird fr die zum Zeitpunkt 1 eingefhrte Ware ein (m+1) ktiver Preis p0 ermittelt, fr den gilt:
(m+1) p1 (m+1) p0

= I01

(12.18)

Damit wird angenommen, da die (hypothetische) Preisentwicklung des Gutes m + 1 mit der durchschnittlichen Preisentwicklung der Waren 1 bis m bereinstimmt. (4) Beispiel zur Erweiterung: Im vorigen Beispiel wird zum Zeitpunkt t = 2 ein neues Gut mit q2 = 2.2 (4) (4) L und p2 = 2.13 bzw. p3 = 2.29 eingefhrt. Man berechne I03 (p) unter Bercksichtigung des neuen Gutes.
L L L I0 3 (p) = I02 (p) I23 (p) L I2 3 (p) =

mit

L I0 2 (p) = 1.092

(12.19) (12.20) (12.21)

476 0.16 + 21 1.2 + 0.6 15 + 2.2 2.29 = 1.152 476 0.13 + 21 1.2 + 0.6 14 + 2.2 2.13

L I0 3 (p) = 1.092 1.152 = 1.258

12.4.4 Ausgewhlte Indizes der wirtschaftlichen Entwicklung Die Indexrechnung dient vor allem der bersichtlichen Darstellung der Entwicklung der gesamten Volkswirtschaft sowie einzelner Sektoren bzw. Branchen im Hinblick auf eine Reihe von Variablen, deren wichtigste in folgenden Teilbereichen zusammengefat werden (vgl. Abels (1993)): 1. Preisentwicklung: Preisindizes fr die Lebenshaltung - Indizes der Erzeugnisse industrieller Produkte. 2. Nachfrageentwicklung: Umsatzindizes des Auftragseinganges - Indizes des Auftragsbestandes. 89

3. Produktionsentwicklung: Industrielle Produktion und Produktionswerte - Indizes der industriellen Nettoproduktion - Indizes der industriellen Bruttoproduktion. 4. Einkommensentwicklung: Indizes der Effektivverdienste - Indizes der Tarifverdienste. 5. Arbeitsproduktivitt : Produktivittsindizes. 6. Auenhandel : Auenhandelswerte - Auenhandelsvolumen - Auenhandelsindizes. Als Indikator der (Verbraucher)-Preisentwicklung werden Preisindizes sowohl fr den durchschnittlichen Haushalt (2.7 Personen, 0.7 Kinder unter 18 Jahren) als auch typische Haushalte wie Haushalte von Einzelpersonen, Vierpersonenhaushalte (Eltern, zwei Kinder), etc. berechnet. Grundlage dieser Indizes sind einerseits die Ergebnisse der im Abstand von 3 bis 5 Jahren durchgefhrten Einkommens- und Verbrauchsstichprobe, andererseits aber auch laufende Wirtschaftsberechnungen ausgewhlter privater Haushalte.
Preisindex (Laspeyres) fr die Lebenshaltung aller privaten Hauptgruppen (Basis 1995) Gewichtung Lebenshaltung insgesamt Nahrungsmittel und alkoholfreie Getrnke Alkoholische Getrnke, Tabakwaren Bekleidung und Schuhe Wohnung, Wasser, Strom, Gas und andere Brennstoffe Einrichtungsgegenstnde u..fr den Haushalt sowie deren Instandhaltung Gesundheitspege Verkehr Nachrichtenbermittlung Freizeit, Unterhaltung und Kultur Bildungswesen Beherbergungs- und Gaststttendienstleistungen Andere Waren und Dienstleistungen 1000.00 131.26 41.67 68.76 274.77 70.56 34.39 138.82 22.66 103.57 6.51 46.08 60.95 1995 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 1996 101.4 100.6 100.8 100.7 102.4 100.7 101.5 102.4 100.9 100.4 103.7 101.1 100.5 1997 103.3 102.0 102.7 101.1 105.1 101.1 108.7 104.3 97.9 102.5 107.8 102.1 102.3 1998 104.3 103.0 104.7 101.5 106.0 101.8 114.4 104.7 97.3 103.1 112.9 103.6 102.8 1999 104.9 101.7 106.0 101.8 107.4 102.1 110.6 107.6 88.2 103.4 117.5 104.9 104.5 2000 106.9 101.2 107.5 102.0 110.9 102.1 111.0 113.6 84.5 104.5 119.3 106.2 106.8

90

Anhang
Mengenlehre
Eine Menge ist eine Zusammenfassung von Objekten. Eine Menge ist deniert, wenn von jedem beliebigen Objekt feststeht, ob es zur Menge gehrt oder nicht. Die zur Menge gehrenden Objekte heien Elemente dieser Menge. a A bedeutet, da a ein Element der Menge A ist. a A heit, da a kein Element der Menge A ist. Die Menge, die kein Element enthlt, heit leere Menge und wird mit { } oder bezeichnet. A = {a1 , . . . , an } bedeutet, da A aus den Elementen a1 , . . . , an besteht. Ist eine Menge A dadurch bestimmt, da ihre Elemente die Eigenschaft E besitzen, so schreibt man A = {a |E(a)}. Zwei Mengen A und B heien gleich (A = B), wenn sie die selben Elemente enthalten. A heit Teilmenge von B , A B , wenn jedes Element von A auch zu B gehrt. A ist genau dann gleich B , wenn gilt: A B und B A. Die Vereinigung von A und B ist die Menge der Elemente, die zu A oder B gehren: A B = {a |a A oder a B } Der Durchschnitt von A und B ist die Menge der Elemente, die sowohl zu A als auch zu B gehren. A B = {a |a A und a B } Die Vereinigung der Mengen An , n N, ist die Menge der Elemente, die mindestens zu einer An gehren. nN An = {a |a An fr mindestens ein n N} Der Durchschnitt der Mengen An , n N, ist die Menge der Elemente, die zu allen An gehren. nN An = {a |a An fr alle n N} = {a |a A und A und B heien disjunkt, wenn gilt:A B = Fr beliebige Teilmengen A ist A a } das Komplement von A. A1 , . . . , An bilden eine Zerlegung der Menge , wenn gilt: 1. Ai Aj = fr i = j 1 i, j n 2. A1 . . . An = .

Einige Rechenregeln fr Mengen: AB=B A (A B) C = A (B C) AB=B A (A B) C = A (B C) A = A A = (A B)c = Ac B c A B = A B (A B)c = Ac B c A B = A B Produkte von Mengen: n nicht notwendig verschiedene Elemente a1 , . . . , an in einer bestimmten Reihenfolge bilden ein n-Tupel (a1 , . . . , an ). (a1 , a2 ) heit ein Paar, (a1 , a2 , a3 ) ein Tripel. Ist a1 = a2 , so gilt (a1 , a2 ) = (a2 , a1 ), da das Tupel die Reihenfolge von a1 und a2 eindeutig festlegt. A B = {(a, b)|a A und b B } heit kartesisches Produkt der Mengen A und B . Fr A = B ist A B = B A. Ist A1 A2 und B1 B2 , so ist A1 B1 A2 B2 .

91

Das Summenzeichen
Ein Hilfsmittel zur Vereinfachung umfangreicher Formeln ist das Summenzeichen
n

. Man setzt:

a 1 + a2 + . . . + a n =
i =1

ai

i heit Summationsindex. Die Menge (1, 2, . . . , n,), ber die der Summationsindex luft, heit Summationsbereich. Offenbar gilt dann: Die Summe ist unabhngig von der Wahl des Summationsindex.
n n

ai =
i =1 j =1

aj

Ein allen Summanden gemeinsamer Faktor c kann vor die Summe gezogen werden (Distributivgesetz).
n n

cai = c
i =1 i =1

ai

Summen mit gemeinsamen Summationsbereich knnen zusammengezogen werden.


n n n n

ai +
i =1 j =1

bj +
k =1

ck =
i =1

(ai + bi + ci )

Hat man alle Elemente des zweifachen indizierten Zahlenschemas (aij : i = 1 . . . m; j = 1 . . . n) : a11 a21 . . . a12 a22 . . . ... ... .. . a1n a2n . . .

am1 am2 . . . amn zu summieren, dann lt sich das mit Hilfe einer Doppelsumme leicht formulieren. Die Summe S ist gegeben durch:
m

S=
i =1

aij =

aij
j =1 i =1

j =1

Im ersten Fall wird zuerst, bei festem Zeilenindex i , ber den Spaltenindex j summiert, und dann die so gewonnenen Zeilensummen von i = 1 bis i = n aufsummiert. Im zweiten Fall geht man umgekehrt vor. Beide Formeln liefern aber offenbar das gleiche Resultat, nmlich die gewnschte Summe S aller aij . Es gilt die Regel:
m

aij =

aij
j =1 i =1

i =1

j =1

Da es auf die Summationsreihenfolge nicht ankommt, lt man die (berssigen) Klammern fort und schreibt:
m n

aij
i =1 j =1

Selbstverstndlich knnen diese Betrachtungen auf k -fach indizierte Summanden ausgedehnt werden. Man hat dann Summanden der Form:
m1 m2 mk

...
ji =1 j2 =1 jk =1

aj1 ,j2 ,...jk

92

Hat man das Produkt der beiden Summen (Produktregel) verwendet:


m

m i =1

ai und

n j =1

bj zu bilden, so werden folgende Regeln

ai
i =1

bj =

ai bj
i =1 j =1

j =1

Hingegen gilt im allgemeinen (mit Ausnahme von Spezialfllen):


m

ai
i =1

bj =

ai bi
i =1

j =1

Fr Dreifachprodukte gilt:
m

ai
i =1

bj

ck
k =1

=
i =1 j =1 k =1

ai b j ck

j =1

Fr Potenzen gilt:
m 2 m

ai

m j =1

aj =

ai
i =1

=
i =1

ai aj
i =1 j =1

Allgemein:
m k m m

ai
i =1

=
i1 =1

...
ik =1

ai1 aik

Exponentialfunktion und Logarithmus


exp(x) = ex heit Exponentialfunktion und ist deniert auf R. Es gilt: exp(1) = e = 2.718281 . . . e =
k =0 x

xk fr < x < k!

Ableitung: (ex ) = ex . Dabei bezeichnet f (x) die erste Ableitung von f nach x . Additionstheorem: ex +y = ex ey . Der natrliche Logarithmus ln x ist deniert als die Umkehrfunktion der Exponentialfunktion, also durch: exp(ln x) = ln ex = x Da ex nur positive Werte annehmen kann, ist der Denitionsbereich von ln x die positive reelle Zahlengerade (0, ). Der natrliche Logarithmus besitzt die folgende Reihenentwicklung:

ln(1 + x) =
k =1

(1)k+1

xk fr 1 < x 1 k

1 Ableitung: (ln x) = x . Rechenregel: ln(x y ) = ln x + ln y . Mit log x wird meistens die Umkehrfunktion x von 10 bezeichnet.

93

Differential- und Integralrechnung


Differentialrechnung f (x) sei eine stetige Funktion mit dem Denitionsbereich I = (a, b), (a, ), (, b) oder R. Existiert
x x0 ;x =x0

lim

f (x) f (x0 ) x x0 f (x) f (x0 ) x x0

so heit f (x) an der Stelle x0 differenzierbar. f (x0 ) =


x x0 ;x =x0

lim

heit Ableitung (oder Differentialquotient) von f (x) an der Stelle x0 . Ist f (x) in jedem Punkt x0 I d differenzierbar, so heit f (x) differenzierbar in I und f (x) oder dx f (x) Ableitung von f (x) in I . y0 Anschaulich ist f (x0 ) die Steigung x0 der Tangente an der durch die Gleichung y = f (x) bestimmten Kurve im Punkt x0 . Einige wichtige Regeln sind: (c f (x)) = c f (x) , c R (f1 (x) + f2 (x)) = f1 (x) + f2 (x), (f1 (x) f2 (x)) = f1 (x)f2 (x) + f1 (x)f2 (x) f1 (x) f2 (x) = f1 (x)f2 (x) f2 (x) f1 (x) f22 (x) fr f2 (x) = 0

Sind f1 und f2 zwei differenzierbare Funktionen, fr die der Denitionsbereich von f2 den Wertebereich von f1 enthlt, so gilt die Kettenregel: (f2 (f1 (x))) = f2 (f1 (x)) f1 (x) Beispiele: f (x) c x x2 xn ex ln x ax 2 ex Integralrechnung Zunchst sei f (x) eine positive stetige Funktion ber dem Intervall [a, b]. a f (x)dx entspricht der Flche unter der Kurve (x, f (x)) ber dem Intervall [a, b]. f (x) sei nun eine beliebige Funktion. F (x) heit Stammfunktion von f (x), falls in dem Denitionsbereich von f (x) gilt: F (x) = f (x) Jede stetige Funktion f (x) besitzt eine Stammfunktion F (x). Zwei Stammfunktionen einer Funktion f (x) unterscheiden sich nur um eine additive Konstante. Beispielsweise sind x 3 + x 2 /2 + 4 und x 3 + x 2 /2 Stammfunktionen von 3x 2 + x . Ist F (x) eine Stammfunktion von f (x) und liegt [a, b] im Denitionsbereich von F (x), so ist:
b a b

f (x) 0 1 2x n x n1 ex a x ln a e (2x)
x 2 1 x

Denitionsbereich R R R R fr n = 0 R R fr x (0, ) R fr a > 0 R

f (x) dx = F (b) F (a) 94

Existieren lim F (b) oder lim F (a) oder beide Grenzwerte, so gilt:
b a a b

f (x) dx = lim F (b) F (a) bzw.


b

f (x) dx = F (b) lim F (a) bzw.


a

f (x) dx = lim F (b) lim F (a)


b a 4 2

Beispiel : Das bestimmte Integral f (x) = x . Daher gilt


4 2

x dx ist zu berechnen. F (x) = x 2 /2 ist eine Stammfunktion von

x dx = F (4) F (2) =

42 2 2 =6 2 2
b a b a b a

Wichtige Regeln: Es seien F (x) und G(x) die Stammfunktionen von f (x) bzw. g(x) und a, b, c, d R
b a

c f (x) + d g(x) dx = c
b z

f (x) dx + d

g(x) dx

z a

f (x) dx +

f (x) dx =

f (x) dx fr a z b
b a

b a

f (x)g(x) dx = (F (b) g(b) F (a) g(a)) f (x) xn ecx F (x) x n+1 n+1 ecx fr c = 0 c
10 0 4 1

F (x)g (x) dx Beispiel

x 3 dx =

3 44 (1)4 = 63 4 4 4

ex dx = e10 (e0 ) = 1 e10

Beispiele fr partielle Integration: Zu berechnen ist:


3 0

x 2 e2x dx

Hier setzt man f (x) = e2x und g(x) = x 2 und erhlt:


3 0

x 2 e2x dx =

32

e23 e20 02 2 2
3 0

2x

e 2x dx 2

= 4.5 e6

xe2x dx

Neuerliche Anwendung der partiellen Integration mit f (x) = e2x und g(x) = x ergibt:
3 0

xe2x dx =

e23 e20 0 2 2 e23 e20 = 1.5 e6 4 4 6 6 = 1.5e 0.25e + 0.25 3

3 0

e 2x dx 2

Somit ist:
3 0

x 2 e2x dx = 3.25e6 0.25

95

Matrizenrechnung
Begriff der Matrix Eine Matrix ist ein Rechteckschema von Zahlen; z.B.: 1 2 3 4 5 6 oder 1 3 5 8 10 76

Matrizen werden mit groen Buchstaben bezeichnet A, B , 2 usw. Eine Matrix besitzt m Zeilen und n Spalten. Man schreibt auch, die Matrix hat die Ordnung (m n). Allgemein wird die (m n) Matrix A so dargestellt: a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n A = a31 a32 a33 . . . a3n . . . . .. . . . . . . . . . am1 am2 am3 . . . amn Ein einzelnes Element bezeichnet man mit aij , i bezeichnet die Zeile und j die Spalte, in der sich das Element bendet. 1 2 3 A= 4 5 6 a11 = 1, a22 = 5, a23 = 6, a31 = 7 7 8 9 Wir nennen Matrizen, die nur aus einer Zeile oder einer Spalte bestehen, Zeilenvektoren bzw. Spaltenvektoren. Die in der i -ten Zeile von A stehenden Elemente ai 1 , . . . , ain bilden somit den i -ten Zeilenvektor. ai = (ai 1 , . . . , ain ) von A. Die in der j -ten Spalte von A stehenden Elemente A1j , . . . , amj bilden den j-ten Spaltenvektor a1j . aj = . . amj Denition: Zwei (m n) Matrizen A und B heien gleich, wenn die einander entsprechenden Elemente gleich sind, d.h. A = B aij = bij (i = 1, . . . , m; j = 1, . . . , n). Denition: Eine Matrix, deren Elemente smtlich gleich Null sind, heit Nullmatrix 0. Denition: Eine quadratische Matrix, deren Elemente auerhalb der Hauptdiagonalen Null sind (aij = 0 fr i = j ), wird Diagonalmatrix genannt: a11 0 0 0 a22 0 D= . . . .. . . . . . . . 0 0 ann Die Elemente der Hauptdiagonale knnen ebenfalls gleich Null sein. Denition: Eine quadratische Matrix, deren Elemente auerhalb der Hauptdiagonalen Null und deren Diagonalelemente alle gleich 1 sind, heit Einheitsmatrix I : 1 0 0 0 1 0 I = . . . . . . . . . . . . 0 0 1 Ist m = n = 1, d.h. A hat nur ein einziges Element, so ist a11 ein Skalar (eine reelle Zahl). Schreibweise: A11 = (a11 ) = (a) = a (Skalare werden mit kleinen Buchstaben bezeichnet.)
2 Da es sich bei allen im folgenden Kapitel auftretenden Variablen um Vektoren oder Matrizen handelt, wird von einer besonderen typographischen Kennzeichnung abgesehen

96

Einfache Rechenregeln Fr das allgemeine Rechnen mit Matrizen werden die folgenden Regeln gesetzt: Denition: Sind A = (aij ) und B = (bij ) zwei Matrizen von je m-Zeilen und n-Spalten, so wird als Summe (Differenz) von A, B die (m n)-Matrix C = A B = (cij ) mit cij = aij bij erklrt. Bemerkung: Die Summe (Differenz) zweier Matrizen mit ungleicher Ordnung ist nicht deniert! c11 c1n a11 a1n b11 b1n . . . . . . .. .. .. . . . . . . . . . = . . . . . . cm1 cmn a11 b11 . . = . am1 bm1 A+B =B +A Die Addition ist assoziativ: A + (B + C) = (A + B) + C = A + B + C Setzt man in der Summendenition B = A und schreibt, wie naheliegend, A + A = 2A, so kommt man verallgemeinernd zur nchsten Regel. Denition: Das Produkt kA oder Ak einer (m n)-Matrix A mit einer Zahl k (einem Skalar) ist die (m n)-Matrix, bei der jedes Element das k -fache des entsprechenden von A ist: ka11 ka1n . . .. . kA = Ak = . . . . kam1 kamn Fr das Zahlenprodukt einer Matrix gilt: kA + kB = k(A + B) kA + lA = (k + l)A k(lA) = (klA) = (lk)A = l(kA) Transponierte Matrix, symmetrische Matrix Fr Operationen mit Matrizen ist es erforderlich, Zeilen und Spalten der Matrix zu vertauschen. Dazu fhren wir die Transposition von Matrizen ein. Denition: Die Transponierte AT einer (m n) Matrix A ist diejenige (n m) Matrix, die aus A durch T Vertauschen der Zeilen und Spalten hervorgeht. Bezeichnen wir die Elemente von AT mit aij und die von A wie blich mit aij so gilt: aij = (a T )j i (i = 1, . . . , n, k = 1, . . . , m) Offenbar besteht die Beziehung (AT )T = A a 1 a2 a 1 b 1 c1 , AT = b1 b2 A= a2 b2 c2 c1 c 2 Denition: Eine quadratische Matrix A heit symmetrisch, wenn gilt AT = A, d.h. aij = aj i (i, j = 1, . . . , n). Die nchste Matrix ist ein Beispiel. 1 3 1 5 = AT A= 3 4 1 5 0 97 .. . amn bmn am1 amn a1n b1n . . . bm1 bmn

Die Addition ist kommutativ:

Matrizenmultiplikation Denition: Das Produkt AB der (m n)-Matrix A mit der (n p)-Matrix B ist diejenige (m p)-Matrix C = (cil ), fr die gilt:
n

cil =
j =1

aij bj l (i = 1, . . . m; l = 1, . . . , p)

Damit sehen wir, da eine Multiplikation nicht zwischen beliebigen Matrizen mglich ist, sondern da die Spaltenzahl von A mit der Zeilenzahl von B bereinstimmen mu. 1 3 2 4 3 A= , B = 2 4 1 0 5 3 2 A ist ein (2 3)-Matrix und B eine (3 2)-Matrix. Daher existiert AB , und zwar gilt: 1 3 2 4 3 AB = 2 4 1 0 5 3 2 = = 2 (1) + 42 + 33 (1) (1) + 0 2 + 5 3 15 16 16 13 23 + 4 (4) + 3 (2) (1) 3 + 0 (4) + 5 (2)

Unter Verwendung der Zeilenvektoren von ai von A und der Spaltenvektoren bj von B kann man die Multiplikation auch in der Form
n

cil = ai. b.l =


j =1

aij bj l

schreiben. Fr die Matrizenmultiplikation gelten die folgenden Regeln: 1. A(BC) = (AB)C (Assoziativgesetz) 2. A(B + C) = AB + AC (Distributivgesetz) 3. (A + B)C = AC + BC (Distributivgesetz) 4. k(AB) = (kA) B = A(kB) (Assoziativgesetz fr die Skalarmultiplikation) Eine Matrix heit idempotent, wenn gilt: A2 = A A = A Fr das Rechnen mit transponierten Matrizen gelten die folgenden Gesetze: 1. AT = A
T

(zweimalige Transposition hebt sich auf)

2. (A + B)T = AT + B T 3. (kA)T = kAT , mit k als Skalar 4. (AB)T = B TAT Fr jede beliebige Matrix A sind die Matrizen AAT und ATA stets deniert, quadratisch und symmetrisch. Der Beweis ergibt sich aus (1) und (4).

98

Spur einer Matrix Die Summe der Diagonalelemente einer quadratischen Matrix wird Spur (englisch trace) der Matrix genannt.
n

Spur(A) = tr(A) =
i =1

aii

Die Spur eines Skalars ist der Skalar selbst. Fr die Spur eines Produktes gilt : Spur(AB) = Spur(BA) Determinante einer Matrix Denition: Sei A = (aij ) eine quadratische Matrix der Ordnung n. Als Determinante von A bezeichnet man: 1. det(A) = a11 , falls n = 1 2. det(A) = a11 a22 a12 a21 , falls n = 2
n i +j 3. det (A) = aij det(Aij ) fr beliebiges i = 1, 2 . . . , n, wobei die (n 1 n j =1 (1) 1)Matrix Aij aus A durch Streichung der i-ten Zeile Ai. und der j-ten Spalte Aj. hervorgeht. Durch wiederholte Anwendung von (3) kann man rekursiv alle rechts stehenden Determinanten auf den Fall (2) zurckfhren.

Beispiel : Fall einer (3 3)-Matrix A; Entwicklung nach (3) fr i = 1 a11 a12 a13 a22 a23 a21 a23 a12 det det a21 a22 a23 = a11 det a32 a33 a31 a33 a31 a32 a33

+ a13 det

a21 a22 a31 a32

= a11 a22 a33 a11 a23 a32 a12 a21 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 Eigenschaften von Determinanten: Sei A eine quadratische Matrix der Ordnung n und det(A) die Determinante von A. Dann gilt: 1. det(A) = det(AT ) 2. Vertauscht man in A zwei Zeilen (bzw. Spalten), so ndert det(A) das Vorzeichen. 3. Addiert man zu einer Zeile (bzw. Spalte) von A eine beliebige Linearkombination der anderen Zeilen (bzw. Spalten), so ndert sich det(A) nicht. 4. Multipliziert man die Elemente einer Zeile (bzw. Spalte) von A mit einem Skalar k , so wird det(A) mit k multipliziert. 5. Sind in A zwei Zeilen (bzw. Spalten) gleich, so gilt det(A) = 0. 6. det(I ) = 1 Lineare Unabhngigkeit von Vektoren und Rang einer Matrix Ein Vektor b heit Linearkombination der Vektoren a1 , a2 , . . . , an , wenn es (reelle) Zahlen k1 , k2 , . . . , kn gibt, so da gilt:
n

b = k1 a 1 + k 2 a 2 + . . . + k n a n =
i =1

ki ai

99

1. Fall: Die Vektoren a1 , a2 , . . . , an heien linear unabhngig, wenn


n

ki a i = 0
i =1

nur fr ki = 0 fr alle i = 1, 2, . . . , n gilt, d.h. kein ai lt sich dann als Linearkombination der brigen ai darstellen. 2. Fall: Ist dagegen mindestens ein ki = 0, so lt sich schreiben: ai = kj aj k j =1,j =i i
n

und ai ist als Linearkombination der brigen aj von diesen linear abhngig. Es besteht dann also mindestens eine lineare Beziehung oder lineare Abhngigkeit zwischen a1 , a2 , . . . , an . Entsprechendes gilt fr Zeilenvektoren. Die Maximalzahl der linear unabhngigen Spaltenvektoren heit Spaltenrang von A und die Maximalzahl der linear unabhngigen Zeilenvektoren heit Zeilenrang von A. Der Spaltenrang von A ist immer gleich dem Zeilenrang von A. Diese eindeutig bestimmte Zahl heit Rang von A und wird mit rg(A) bezeichnet. Fr eine n m-Matrix gilt: rg(A) min{n, m}. Ist rg(A) = min{n, m}, so besitzt A vollen Rang. Eine quadratische Matrix mit vollem Rang heit regulr (rg(A) = n), anderenfalls singulr (rg(A) < n). Wichtige Rechenregeln fr den Rang von Matrizen sind: rg(A) = rg(AT ) rg(AB) min{rg(A), rg(B)} rg(ATA) = rg(A) = rg(AAT ) rg(BA) = rg(A) = rg(AC) fr regulre Matrizen B und C Lsen von linearen Gleichungssystemen und inverse Matrix Denition: Unter einem linearen Gleichungssystem verstehen wir ein System von n Gleichungen mit m Unbekannten: a11 x1 + a12 x2 + . . . + a1m xm = b1 a21 x1 + a22 x2 + . . . + a2m xm = b2 . . . . . . . . . . . . . . . an1 x1 + an2 x2 + . . . + anm xn = bn In Matrixnotation: A x = b (n m) (m 1) (n 1) wobei gilt: A= a11 a12 a1m a21 a22 a2m . . . .. . . . . . . . an1 an2 anm , x= x1 x2 . . . , b= b1 b2 . . .

xm

bn

Der Vektor x heit Lsung des linearen Gleichungssystems. Ist b = 0, so spricht man von einem homogenen linearen Gleichungssystem. Im Fall b = 0 spricht man von einem inhomogenen linearen Gleichungssystem. Das Lsen von linearen Gleichungssystemen erfolgt nach dem Gauschen Eliminationsverfahren. 1. Vertausche die Gleichungen (Zeilen) so, da die erste Unbekannte x1 einen von Null verschiedenen Koefzienten erhlt. Damit gilt: a11 = 0 nach Vertauschung. 100

2. Fr jedes i > 1 wird die i-te Gleichung Li durch ai 1 L1 + a11 Li ersetzt. Symbolisch: Li (ai 1 L1 + a11 Li ) Ergebnis: Die erste Gleichung bleibt erhalten, alle anderen Gleichungen enthalten die Variable x1 nicht mehr. Dieser Proze wird wiederholt. Dabei werden sukzessiv die Unbekannten eliminiert. Beispiel: Wir reduzieren das folgende System: x x 2x 2x + + + + 2y 3y 5y 6y 3z + z 4z + 2z = 4 = 11 = 13 = 22

durch die Operationen L2 (L1 + L2 ), L3 (2L1 + L3 ) und L4 (2L1 + L4), und anschlieend durch die Operationen L3 (L2 L3 ) und L4 (2L2 + L4 ). x x 2x 2x + + + + 2y 3y 5y 6y 3z + z 4z + 2z = 4 = 11 = 13 = 22 = 4 = 7 = 2 = 0 x + 2y y y 2y + + + 3z 4z 2z 8z = 4 = 7 = 5 = 14

x + 2y 3z y + 4z 2z 0

x + 2 y 3z = 4 y + 4z = 7

Existiert eine Lsung, so heit das lineare Gleichungssystem konsistent, anderenfalls inkonsistent. Das System Ax = b ist genau dann konsistent, wenn rg(A, b) = rg(A). 1. Ist die Koefzientenmatrix eines konsistenten Systems Ax = b quadratisch und besitzt sie vollen Rang, d.h. rg(A) = n, dann gilt: x = A1 b ist die eindeutig bestimmte Lsung des Gleichungssystems ist Ax = b. Die Matrix A1 heit die inverse Matrix von A. Sie ist eindeutig bestimmt. 2. Gegeben sei eine (n m) Koefzientenmatrix A des konsistenten Systems Ax = b mit rg(A) = m und m n, d.h. die Anzahl der Unbekannten ist kleiner gleich der Anzahl der Gleichungen. Das System ist eindeutig lsbar, denn wegen (rg(A) = m) besitzt A vollen Spaltenrang. Da ATA regulr ist, existiert (ATA)1 . Durch Multiplikation der Gleichung Ax = b von links mit AT erhlt man: ATAx = ATb Daraus folgt die eindeutige Lsung: x = (ATA)1ATb 3. Ist der rg(A) = r < m, dann besitzt das System unendlich viele Lsungen. Es knnen dann (m r) Komponenten von x willkrlich bestimmt werden und die r verbleibenden Komponenten von x sind eindeutig festgelegt. 4. Ein homogenes lineares Gleichungssystem Ax = 0 ist konsistent, da es stets die triviale Lsung x = 0 besitzt. Fr den Fall rg(A) = m hat Ax = 0 wegen der ersten beiden Punkte nur die Lsung x = 0. Damit Ax = 0 auch nichttrivial lsbar ist, mu wegen des dritten Punktes rg(A) < m erfllt sein. Falls A quadratisch ist, bedeutet dies: det (A) = 0

101

Die Berechnung der inversen Matrix Denition: A sei eine quadratische Matrix von vollem Rang; dann existiert eine Matrix A1 der gleichen Ordnung mit A1A = AA1 = I . A1 heit die zu A inverse Matrix oder Kehrmatrix. Satz: A und B seien quadratische Matrizen der gleichen Ordnung mit Inversen A1 und B 1 . Dann gilt: 1. 2. 3. 4. (A1 )1 = A (AB)1 = B 1 A1 (k A)1 = k 1 A1 , mit k als Skalar (AT )1 = (A1 )T

Satz: Fr quadratische Matrizen gelten unter den angegebenen Bedingungen die folgenden quivalenzen: 1. Die Matrix A ist regulr. 2. Die Matrix A besitzt eine Kehrmatrix A1 . 3. det A = 0 Die Matrix A wird wie folgt invertiert: Der Gausche Algorithmus wird auf das Gleichungssystem AX = I angewandt. An die Stelle von x im blichen Gleichungssystem Ax = b tritt die j -te Spalte von A1 , an die Stelle von b die j -te Spalte der Einheitsmatrix. Die notwendigen Zeilentransformationen werden simultan durchgefhrt. Beispiel : 1 3 3 A= 1 4 3 1 3 4 gesucht ist A1 1 3 3 : AI = 1 4 3 : 1 3 4 : 1 0 3 : 0 1 0 : 0 0 1 : 1 0 0 1 0 1 0 0 0 0 1 0 4 3 0 1 1 0 1 0 1 3 3 : 1 0 0 1 0 : 1 1 0 0 1 : 1 0 1

1 0 0 : 7 3 3 0 1 0 : 1 1 0 0 0 1 : 1 0 1

Daher gilt fr die inverse Matrix: 7 3 3 1 0 A1 = 1 1 0 1

Griechisches Alphabet
Alpha Beta Gamma Delta E , Epsilon Z Zeta H Eta , Theta I Jota K Kappa Lambda M My A B O o , P , , T Y , X N Ny Xi Omikron Pi Rho Sigma Tau Ypsilon Phi Chi Psi Omega

102

Literatur
Demographie
Birg, H.; Koch, H. (1987): Der Bevlkerungsrckgang in der Bundesrepublik Deutschland. Frankfurt/Main. Birg, H. (1989): Die demographische Zeitwende. Spektrum der Wissenschaft 1/89, 40-49. Findl, P.; Holzmann, R.; Mnz, R. (1987): Bevlkerung und Sozialstaat. Szenarien bis 2050. Bd. 2, Wien. Teitelbaum, S.; Winter, M. (1985): The Fear of Population Decline. San Diego: Academic Press. Wattenberg, J. (1989): The Birth Dearth. New York.

Mathematik fr Wirtschaftswissenschaftler
Hamerle, A.; Kemny, P. (1994): Mathematik, Einfhrung fr Wirtschafts- und Sozialwissenschaftler, Mnchen.

Statistische Methodenlehre
Assenmacher, W. (2000): Deskriptive Statistik, 2. Auage, Berlin, Heidelberg. Assenmacher, W. (2000): Induktive Statistik, Berlin, Heidelberg. Bamberg, B.; Baur, F. (2002): Statistik, 11. Auage, Mnchen. Bleymller, J.; Gehlert, G.; Glicher, H. (2000): Statistik fr Wirtschaftswissenschaftler, 12. Auflage, Mnchen. Fahrmeir, L.; Hamerle, A. (1996): Multivariate statistische Verfahren, 2.Auage, Berlin. Green, W. (1999): Econometric Analysis., 4. Auage, New York. Hbler, O. (1989): konometrie, Stuttgart. Schlittgen, R. (2000): Einfhrung in die Statistik, 8. Auage, Mnchen.

Wirtschafts und Sozialstatistik


Abels, H. (1993): Wirtschafts- und Bevlkerungsstatistik, 4. Auage, Wiesbaden. Hujer, R.; Cremer, R. (1978): Methoden der empirischen Wirtschaftsforschung, Mnchen. Krug, W; Nourney, M. (1999): Wirtschaftsstatistik und Sozialstatistik, Mnchen, Wien. Lippe, Von der, P. (1996): Wirtschaftsstatistik, 5. Auage, Stuttgart. Statistisches Bundesamt (1983): Fachserie 1, Reihe 1, Gebiet und Bevlkerung, Wiesbaden. Statistisches Bundesamt (1999): Statistisches Jahrbuch fr die Bundesrepublik Deutschland, Wiesbaden. Statistisches Bundesamt (1999): Wirtschaft und Statistik 12/1989, Wiesbaden.

103

(z) bezeichnet, die Dichte mit (z).

Die Verteilungsfunktion der Standardnormalverteilung wird mit

Die Standardnormalverteilung

Ablesebeispiel:

Tabellen

z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9

0 0.500000 0.539828 0.579260 0.617911 0.655422 0.691462 0.725747 0.758036 0.788145 0.815940 0.841345 0.864334 0.884930 0.903199 0.919243 0.933193 0.945201 0.955435 0.964070 0.971284 0.977250 0.982136 0.986097 0.989276 0.991802 0.993790 0.995339 0.996533 0.997445 0.998134

0.01 0.503989 0.543795 0.583166 0.621719 0.659097 0.694974 0.729069 0.761148 0.791030 0.818589 0.843752 0.866500 0.886860 0.904902 0.920730 0.934478 0.946301 0.956367 0.964852 0.971933 0.977784 0.982571 0.986447 0.989556 0.992024 0.993963 0.995473 0.996636 0.997523 0.998193

0.02 0.507978 0.547758 0.587064 0.625516 0.662757 0.698468 0.732371 0.764238 0.793892 0.821214 0.846136 0.868643 0.888767 0.906582 0.922196 0.935744 0.947384 0.957284 0.965621 0.972571 0.978308 0.982997 0.986791 0.989830 0.992240 0.994132 0.995603 0.996736 0.997599 0.998250

0.03 0.511967 0.551717 0.590954 0.629300 0.666402 0.701944 0.735653 0.767305 0.796731 0.823814 0.848495 0.870762 0.890651 0.908241 0.923641 0.936992 0.948449 0.958185 0.966375 0.973197 0.978822 0.983414 0.987126 0.990097 0.992451 0.994297 0.995731 0.996833 0.997673 0.998305

0.04 0.515953 0.555670 0.594835 0.633072 0.670031 0.705402 0.738914 0.770350 0.799546 0.826391 0.850830 0.872857 0.892512 0.909877 0.925066 0.938220 0.949497 0.959071 0.967116 0.973810 0.979325 0.983823 0.987455 0.990358 0.992656 0.994457 0.995855 0.996928 0.997744 0.998359

0.05 0.519939 0.559618 0.598706 0.636831 0.673645 0.708840 0.742154 0.773373 0.802338 0.828944 0.853141 0.874928 0.894350 0.911492 0.926471 0.939429 0.950529 0.959941 0.967843 0.974412 0.979818 0.984222 0.987776 0.990613 0.992857 0.994614 0.995975 0.997020 0.997814 0.998411

0.06 0.523922 0.563559 0.602568 0.640576 0.677242 0.712260 0.745373 0.776373 0.805106 0.831472 0.855428 0.876976 0.896165 0.913085 0.927855 0.940620 0.951543 0.960796 0.968557 0.975002 0.980301 0.984614 0.988089 0.990863 0.993053 0.994766 0.996093 0.997110 0.997882 0.998462

0.07 0.527903 0.567495 0.606420 0.644309 0.680822 0.715661 0.748571 0.779350 0.807850 0.833977 0.857690 0.878999 0.897958 0.914656 0.929219 0.941792 0.952540 0.961636 0.969258 0.975581 0.980774 0.984997 0.988396 0.991106 0.993244 0.994915 0.996207 0.997197 0.997948 0.998511

0.08 0.531881 0.571424 0.610261 0.648027 0.684386 0.719043 0.751748 0.782305 0.810570 0.836457 0.859929 0.881000 0.899727 0.916207 0.930563 0.942947 0.953521 0.962462 0.969946 0.976148 0.981237 0.985371 0.988696 0.991344 0.993431 0.995060 0.996319 0.997282 0.998012 0.998559

0.09 0.535856 0.575345 0.614092 0.651732 0.687933 0.722405 0.754903 0.785236 0.813267 0.838913 0.862143 0.882977 0.901475 0.917736 0.931888 0.944083 0.954486 0.963273 0.970621 0.976705 0.981691 0.985738 0.988989 0.991576 0.993613 0.995201 0.996427 0.997365 0.998074 0.998605

(z) (z) = 1 Erweiterung der Tafel:

dx, < z <

wichtige Quantile der Standardnormlverteilung 80% 90% 95% 97.50% 99% 99.50% 0.842 1.282 1.645 1.960 2.326 2.576

99.75% 2.807

99.90% 3.090

99.95% 3.290

x 1 exp 2 2

(z) dz =

(2.36) = 0.990863,

(z) =

(z) z

50% 0

60% 0.253

70% 0.524

104

Quantile der t -Verteilung


Freiheitsgrad n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 80 100 200 500

90% 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 1.303 1.299 1.296 1.292 1.290 1.286 1.283 1.282

95% 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 1.684 1.676 1.671 1.664 1.660 1.653 1.648 1.645

97.5% 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.009 2.000 1.990 1.984 1.972 1.965 1.960

99% 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 2.423 2.403 2.390 2.374 2.364 2.345 2.334 2.326

99.5% 63.656 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.678 2.660 2.639 2.626 2.601 2.586 2.576

99.9% 318.289 22.328 10.214 7.173 5.894 5.208 4.785 4.501 4.297 4.144 4.025 3.930 3.852 3.787 3.733 3.686 3.646 3.610 3.579 3.552 3.527 3.505 3.485 3.467 3.450 3.435 3.421 3.408 3.396 3.385 3.307 3.261 3.232 3.195 3.174 3.131 3.107 3.090

99.95% 636.578 31.600 12.924 8.610 6.869 5.959 5.408 5.041 4.781 4.587 4.437 4.318 4.221 4.140 4.073 4.015 3.965 3.922 3.883 3.850 3.819 3.792 3.768 3.745 3.725 3.707 3.689 3.674 3.660 3.646 3.551 3.496 3.460 3.416 3.390 3.340 3.310 3.290

Ablesebeispiel: t15;0.95 = 1.753 Erweiterung der Tafel: tn;1 = tn;

105

2 Ablesebeispiel: 16 ;0.975 = 28.8453

Quantile der 2 -Verteilung

n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100

0.1% 1.575 0.0020 0.0243 0.0908 0.2102 0.3810 0.5985 0.8571 1.1519 1.4787 1.8338 2.2141 2.6172 3.0407 3.4825 3.9417 4.4162 4.9048 5.4067 5.9210 6.4467 6.9829 7.5291 8.0847 8.6494 9.2222 9.8029 10.3907 10.9861 11.5876 17.9166 24.6736 31.7381 39.0358 46.5197 54.1559 61.9182

0.5% 3.934 0.0100 0.0717 0.2070 0.4118 0.6757 0.9893 1.3444 1.7349 2.1558 2.6032 3.0738 3.5650 4.0747 4.6009 5.1422 5.6973 6.2648 6.8439 7.4338 8.0336 8.6427 9.2604 9.8862 10.5196 11.1602 11.8077 12.4613 13.1211 13.7867 20.7066 27.9908 35.5344 43.2753 51.1719 59.1963 67.3275

1% 1.573 0.0201 0.1148 0.2971 0.5543 0.8721 1.2390 1.6465 2.0879 2.5582 3.0535 3.5706 4.1069 4.6604 5.2294 5.8122 6.4077 7.0149 7.6327 8.2604 8.8972 9.5425 10.1957 10.8563 11.5240 12.1982 12.8785 13.5647 14.2564 14.9535 22.1642 29.7067 37.4848 45.4417 53.5400 61.7540 70.0650

2.5% 0.09823 0.0506 0.2158 0.4844 0.8312 1.2373 1.6899 2.1797 2.7004 3.2470 3.8157 4.4038 5.0087 5.6287 6.2621 6.9077 7.5642 8.2307 8.9065 9.5908 10.2829 10.9823 11.6885 12.4011 13.1197 13.8439 14.5734 15.3079 16.0471 16.7908 24.4331 32.3574 40.4817 48.7575 57.1532 65.6466 74.2219

5% 0.0039 0.1026 0.3518 0.7107 1.1455 1.6354 2.1673 2.7326 3.3251 3.9403 4.5748 5.2260 5.8919 6.5706 7.2609 7.9616 8.6718 9.3904 10.1170 10.8508 11.5913 12.3380 13.0905 13.8484 14.6114 15.3792 16.1514 16.9279 17.7084 18.4927 26.5093 34.7642 43.1880 51.7393 60.3915 69.1260 77.9294

10% 0.0158 0.2107 0.5844 1.0636 1.6103 2.2041 2.8331 3.4895 4.1682 4.8652 5.5778 6.3038 7.0415 7.7895 8.5468 9.3122 10.0852 10.8649 11.6509 12.4426 13.2396 14.0415 14.8480 15.6587 16.4734 17.2919 18.1139 18.9392 19.7677 20.5992 29.0505 37.6886 46.4589 55.3289 64.2778 73.2911 82.3581

30% 0.1485 0.7133 1.4237 2.1947 2.9999 3.8276 4.6713 5.5274 6.3933 7.2672 8.1479 9.0343 9.9257 10.8215 11.7212 12.6243 13.5307 14.4399 15.3517 16.2659 17.1823 18.1007 19.0211 19.9432 20.8670 21.7924 22.7192 23.6475 24.5770 25.5078 34.8719 44.3133 53.8091 63.3460 72.9153 82.5111 92.1290

50% 0.4549 1.3863 2.3660 3.3567 4.3515 5.3481 6.3458 7.3441 8.3428 9.3418 10.3410 11.3403 12.3398 13.3393 14.3389 15.3385 16.3382 17.3379 18.3376 19.3374 20.3372 21.3370 22.3369 23.3367 24.3366 25.3365 26.3363 27.3362 28.3361 29.3360 39.3353 49.3349 59.3347 69.3345 79.3343 89.3342 99.3341

70% 1.0742 2.4079 3.6649 4.8784 6.0644 7.2311 8.3834 9.5245 10.6564 11.7807 12.8987 14.0111 15.1187 16.2221 17.3217 18.4179 19.5110 20.6014 21.6891 22.7745 23.8578 24.9390 26.0184 27.0960 28.1719 29.2463 30.3193 31.3909 32.4612 33.5302 44.1649 54.7228 65.2265 75.6893 86.1197 96.5238 106.9058

90% 2.7055 4.6052 6.2514 7.7794 9.2363 10.6446 12.0170 13.3616 14.6837 15.9872 17.2750 18.5493 19.8119 21.0641 22.3071 23.5418 24.7690 25.9894 27.2036 28.4120 29.6151 30.8133 32.0069 33.1962 34.3816 35.5632 36.7412 37.9159 39.0875 40.2560 51.8050 63.1671 74.3970 85.5270 96.5782 107.5650 118.4980

95% 3.8415 5.9915 7.8147 9.4877 11.0705 12.5916 14.0671 15.5073 16.9190 18.3070 19.6752 21.0261 22.3620 23.6848 24.9958 26.2962 27.5871 28.8693 30.1435 31.4104 32.6706 33.9245 35.1725 36.4150 37.6525 38.8851 40.1133 41.3372 42.5569 43.7730 55.7585 67.5048 79.0820 90.5313 101.8795 113.1452 124.3421

97.5% 5.0239 7.3778 9.3484 11.1433 12.8325 14.4494 16.0128 17.5345 19.0228 20.4832 21.9200 23.3367 24.7356 26.1189 27.4884 28.8453 30.1910 31.5264 32.8523 34.1696 35.4789 36.7807 38.0756 39.3641 40.6465 41.9231 43.1945 44.4608 45.7223 46.9792 59.3417 71.4202 83.2977 95.0231 106.6285 118.1359 129.5613

99% 6.6349 9.2104 11.3449 13.2767 15.0863 16.8119 18.4753 20.0902 21.6660 23.2093 24.7250 26.2170 27.6882 29.1412 30.5780 31.9999 33.4087 34.8052 36.1908 37.5663 38.9322 40.2894 41.6383 42.9798 44.3140 45.6416 46.9628 48.2782 49.5878 50.8922 63.6908 76.1538 88.3794 100.4251 112.3288 124.1162 135.8069

99.5% 7.8794 10.5965 12.8381 14.8602 16.7496 18.5475 20.2777 21.9549 23.5893 25.1881 26.7569 28.2997 29.8193 31.3194 32.8015 34.2671 35.7184 37.1564 38.5821 39.9969 41.4009 42.7957 44.1814 45.5584 46.9280 48.2898 49.6450 50.9936 52.3355 53.6719 66.7660 79.4898 91.9518 104.2148 116.3209 128.2987 140.1697

99.9% 10.8274 13.8150 16.2660 18.4662 20.5147 22.4575 24.3213 26.1239 27.8767 29.5879 31.2635 32.9092 34.5274 36.1239 37.6978 39.2518 40.7911 42.3119 43.8194 45.3142 46.7963 48.2676 49.7276 51.1790 52.6187 54.0511 55.4751 56.8918 58.3006 59.7022 73.4029 86.6603 99.6078 112.3167 124.8389 137.2082 149.4488

106

95%-Quantile der Fn1,n2;0.95 -Verteilung = P (Fn1,n2;0.95 x) = 0.95

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 22 24 26 28 30 32 34 36 38 40 50 60 70 80 100 200 300 500 1000

1 161.4 18.51 10.13 7.71 6.61 5.99 5.59 5.32 5.12 4.96 4.84 4.75 4.67 4.60 4.54 4.49 4.45 4.41 4.38 4.35 4.30 4.26 4.23 4.20 4.17 4.15 4.13 4.11 4.10 4.08 4.03 4.00 3.98 3.96 3.94 3.89 3.87 3.86 3.85 3.84

2 199.5 19.00 9.55 6.94 5.79 5.14 4.74 4.46 4.26 4.10 3.98 3.89 3.81 3.74 3.68 3.63 3.59 3.55 3.52 3.49 3.44 3.40 3.37 3.34 3.32 3.29 3.28 3.26 3.24 3.23 3.18 3.15 3.13 3.11 3.09 3.04 3.03 3.01 3.00 3.00

3 215.7 19.16 9.28 6.59 5.41 4.76 4.35 4.07 3.86 3.71 3.59 3.49 3.41 3.34 3.29 3.24 3.20 3.16 3.13 3.10 3.05 3.01 2.98 2.95 2.92 2.90 2.88 2.87 2.85 2.84 2.79 2.76 2.74 2.72 2.70 2.65 2.63 2.62 2.61 2.60

4 224.5 19.25 9.12 6.39 5.19 4.53 4.12 3.84 3.63 3.48 3.36 3.26 3.18 3.11 3.06 3.01 2.96 2.93 2.90 2.87 2.82 2.78 2.74 2.71 2.69 2.67 2.65 2.63 2.62 2.61 2.56 2.53 2.50 2.49 2.46 2.42 2.40 2.39 2.38 2.37

5 230.1 19.30 9.01 6.26 5.05 4.39 3.97 3.69 3.48 3.33 3.20 3.11 3.03 2.96 2.90 2.85 2.81 2.77 2.74 2.71 2.66 2.62 2.59 2.56 2.53 2.51 2.49 2.48 2.46 2.45 2.40 2.37 2.35 2.33 2.31 2.26 2.24 2.23 2.22 2.21

6 233.9 19.33 8.94 6.16 4.95 4.28 3.87 3.58 3.37 3.22 3.09 3.00 2.92 2.85 2.79 2.74 2.70 2.66 2.63 2.60 2.55 2.51 2.47 2.45 2.42 2.40 2.38 2.36 2.35 2.34 2.29 2.25 2.23 2.21 2.19 2.14 2.13 2.12 2.11 2.10

7 236.7 19.35 8.89 6.09 4.88 4.21 3.79 3.50 3.29 3.14 3.01 2.91 2.83 2.76 2.71 2.66 2.61 2.58 2.54 2.51 2.46 2.42 2.39 2.36 2.33 2.31 2.29 2.28 2.26 2.25 2.20 2.17 2.14 2.13 2.10 2.06 2.04 2.03 2.02 2.01

8 238.8 19.37 8.85 6.04 4.82 4.15 3.73 3.44 3.23 3.07 2.95 2.85 2.77 2.70 2.64 2.59 2.55 2.51 2.48 2.45 2.40 2.36 2.32 2.29 2.27 2.24 2.23 2.21 2.19 2.18 2.13 2.10 2.07 2.06 2.03 1.98 1.97 1.96 1.95 1.94

9 240.5 19.38 8.81 6.00 4.77 4.10 3.68 3.39 3.18 3.02 2.90 2.80 2.71 2.65 2.59 2.54 2.49 2.46 2.42 2.39 2.34 2.30 2.27 2.24 2.21 2.19 2.17 2.15 2.14 2.12 2.07 2.04 2.02 2.00 1.97 1.93 1.91 1.90 1.89 1.88

10 241.8 19.40 8.79 5.96 4.74 4.06 3.64 3.35 3.14 2.98 2.85 2.75 2.67 2.60 2.54 2.49 2.45 2.41 2.38 2.35 2.30 2.25 2.22 2.19 2.16 2.14 2.12 2.11 2.09 2.08 2.03 1.99 1.97 1.95 1.93 1.88 1.86 1.85 1.84 1.83

11 242.9 19.40 8.76 5.94 4.70 4.03 3.60 3.31 3.10 2.94 2.82 2.72 2.63 2.57 2.51 2.46 2.41 2.37 2.34 2.31 2.26 2.22 2.18 2.15 2.13 2.10 2.08 2.07 2.05 2.04 1.99 1.95 1.93 1.91 1.89 1.84 1.82 1.81 1.80 1.79

12 243.9 19.41 8.74 5.91 4.68 4.00 3.57 3.28 3.07 2.91 2.79 2.69 2.60 2.53 2.48 2.42 2.38 2.34 2.31 2.28 2.23 2.18 2.15 2.12 2.09 2.07 2.05 2.03 2.02 2.00 1.95 1.92 1.89 1.88 1.85 1.80 1.78 1.77 1.76 1.75

13 244.6 19.42 8.73 5.89 4.66 3.98 3.55 3.26 3.05 2.89 2.76 2.66 2.58 2.51 2.45 2.40 2.35 2.31 2.28 2.25 2.20 2.15 2.12 2.09 2.06 2.04 2.02 2.00 1.99 1.97 1.92 1.89 1.86 1.84 1.82 1.77 1.75 1.74 1.73 1.72

14 245.3 19.42 8.71 5.87 4.64 3.96 3.53 3.24 3.03 2.86 2.74 2.64 2.55 2.48 2.42 2.37 2.33 2.29 2.26 2.22 2.17 2.13 2.09 2.06 2.04 2.01 1.99 1.98 1.96 1.95 1.89 1.86 1.84 1.82 1.79 1.74 1.72 1.71 1.70 1.69

15 245.9 19.43 8.70 5.86 4.62 3.94 3.51 3.22 3.01 2.85 2.72 2.62 2.53 2.46 2.40 2.35 2.31 2.27 2.23 2.20 2.15 2.11 2.07 2.04 2.01 1.99 1.97 1.95 1.94 1.92 1.87 1.84 1.81 1.79 1.77 1.72 1.70 1.69 1.68 1.67

16 246.4 19.43 8.69 5.84 4.60 3.92 3.49 3.20 2.99 2.83 2.70 2.60 2.51 2.44 2.38 2.33 2.29 2.25 2.21 2.18 2.13 2.09 2.05 2.02 1.99 1.97 1.95 1.93 1.92 1.90 1.85 1.82 1.79 1.77 1.75 1.69 1.68 1.66 1.65 1.64

17 246.9 19.44 8.68 5.83 4.59 3.91 3.48 3.19 2.97 2.81 2.69 2.58 2.50 2.43 2.37 2.32 2.27 2.23 2.20 2.17 2.11 2.07 2.03 2.00 1.98 1.95 1.93 1.92 1.90 1.89 1.83 1.80 1.77 1.75 1.73 1.67 1.66 1.64 1.63 1.62

18 247.3 19.44 8.67 5.82 4.58 3.90 3.47 3.17 2.96 2.80 2.67 2.57 2.48 2.41 2.35 2.30 2.26 2.22 2.18 2.15 2.10 2.05 2.02 1.99 1.96 1.94 1.92 1.90 1.88 1.87 1.81 1.78 1.75 1.73 1.71 1.66 1.64 1.62 1.61 1.60

19 247.6 19.44 8.67 5.81 4.57 3.88 3.46 3.16 2.95 2.79 2.66 2.56 2.47 2.40 2.34 2.29 2.24 2.20 2.17 2.14 2.08 2.04 2.00 1.97 1.95 1.92 1.90 1.88 1.87 1.85 1.80 1.76 1.74 1.72 1.69 1.64 1.62 1.61 1.60 1.59

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 22 24 26 28 30 32 34 36 38 40 50 60 70 80 100 200 300 500 1000

107

95%-Quantile der Fn1,n2;0.95 -Verteilung = P (Fn1,n2;0.95 x) = 0.95-Fortsetzung

Ablesebeispiel: F7,20;0.95 = 3.44 Erweiterung der Tafel: Fn1,n2;1 = F 1 n1,n2;

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 22 24 26 28 30 32 34 36 38 40 50 60 70 80 100 200 300 500 1000

20 248.0 19.45 8.66 5.80 4.56 3.87 3.44 3.15 2.94 2.77 2.65 2.54 2.46 2.39 2.33 2.28 2.23 2.19 2.16 2.12 2.07 2.03 1.99 1.96 1.93 1.91 1.89 1.87 1.85 1.84 1.78 1.75 1.72 1.70 1.68 1.62 1.61 1.59 1.58 1.57

24 249.0 19.45 8.64 5.77 4.53 3.84 3.41 3.12 2.90 2.74 2.61 2.51 2.42 2.35 2.29 2.24 2.19 2.15 2.11 2.08 2.03 1.98 1.95 1.91 1.89 1.86 1.84 1.82 1.81 1.79 1.74 1.70 1.67 1.65 1.63 1.57 1.55 1.54 1.53 1.52

30 250.1 19.46 8.62 5.75 4.50 3.81 3.38 3.08 2.86 2.70 2.57 2.47 2.38 2.31 2.25 2.19 2.15 2.11 2.07 2.04 1.98 1.94 1.90 1.87 1.84 1.82 1.80 1.78 1.76 1.74 1.69 1.65 1.62 1.60 1.57 1.52 1.50 1.48 1.47 1.46

40 251.1 19.47 8.59 5.72 4.46 3.77 3.34 3.04 2.83 2.66 2.53 2.43 2.34 2.27 2.20 2.15 2.10 2.06 2.03 1.99 1.94 1.89 1.85 1.82 1.79 1.77 1.75 1.73 1.71 1.69 1.63 1.59 1.57 1.54 1.52 1.46 1.43 1.42 1.41 1.39

50 251.7 19.48 8.58 5.70 4.44 3.75 3.32 3.02 2.80 2.64 2.51 2.40 2.31 2.24 2.18 2.12 2.08 2.04 2.00 1.97 1.91 1.86 1.82 1.79 1.76 1.74 1.71 1.69 1.68 1.66 1.60 1.56 1.53 1.51 1.48 1.41 1.39 1.38 1.36 1.35

60 252.2 19.48 8.57 5.69 4.43 3.74 3.30 3.01 2.79 2.62 2.49 2.38 2.30 2.22 2.16 2.11 2.06 2.02 1.98 1.95 1.89 1.84 1.80 1.77 1.74 1.71 1.69 1.67 1.65 1.64 1.58 1.53 1.50 1.48 1.45 1.39 1.36 1.35 1.33 1.32

80 252.7 19.48 8.56 5.67 4.41 3.72 3.29 2.99 2.77 2.60 2.47 2.36 2.27 2.20 2.14 2.08 2.03 1.99 1.96 1.92 1.86 1.82 1.78 1.74 1.71 1.69 1.66 1.64 1.62 1.61 1.54 1.50 1.47 1.45 1.41 1.35 1.32 1.30 1.29 1.27

100 253.0 19.49 8.55 5.66 4.41 3.71 3.27 2.97 2.76 2.59 2.46 2.35 2.26 2.19 2.12 2.07 2.02 1.98 1.94 1.91 1.85 1.80 1.76 1.73 1.70 1.67 1.65 1.62 1.61 1.59 1.52 1.48 1.45 1.43 1.39 1.32 1.30 1.28 1.26 1.24

200 253.6 19.49 8.54 5.65 4.39 3.69 3.25 2.95 2.73 2.56 2.43 2.32 2.23 2.16 2.10 2.04 1.99 1.95 1.91 1.88 1.82 1.77 1.73 1.69 1.66 1.63 1.61 1.59 1.57 1.55 1.48 1.44 1.40 1.38 1.34 1.26 1.23 1.21 1.19 1.17

500 254.0 19.49 8.53 5.64 4.37 3.68 3.24 2.94 2.72 2.55 2.42 2.31 2.22 2.14 2.08 2.02 1.97 1.93 1.89 1.86 1.80 1.75 1.71 1.67 1.64 1.61 1.59 1.56 1.54 1.53 1.46 1.41 1.37 1.35 1.31 1.22 1.19 1.16 1.13 1.11

254.3 19.50 8.53 5.63 4.37 3.67 3.23 2.93 2.71 2.54 2.40 2.30 2.21 2.13 2.07 2.01 1.96 1.92 1.88 1.84 1.78 1.73 1.69 1.65 1.62 1.59 1.57 1.55 1.53 1.51 1.44 1.39 1.35 1.32 1.28 1.19 1.15 1.11 1.08 1.00

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 22 24 26 28 30 32 34 36 38 40 50 60 70 80 100 200 300 500 1000

108

Verteilungsfunktion der Poisson-Verteilung P,k


Die Verteilungsfunktion der Poissonverteilung ist gegeben mit:
k k

F (P(,k) ) = P (X k) =
i =0

P (X = k) =
i =0

k k!
0.7 0.49659 0.84420 0.96586 0.99425 0.99921 0.99991 0.99999 1.00000 0.8 0.44933 0.80879 0.95258 0.99092 0.99859 0.99982 0.99998 1.00000 0.9 0.40657 0.77248 0.93714 0.98654 0.99766 0.99966 0.99996 1.00000 1.0 0.36788 0.73576 0.91970 0.98101 0.99634 0.99941 0.99992 0.99999 1.00000 15 0.00000 0.00000 0.00004 0.00021 0.00086 0.00279 0.00763 0.01800 0.03745 0.06985 0.11846 0.18475 0.26761 0.36322 0.46565 0.56809 0.66412 0.74886 0.81947 0.87522 0.91703 0.94689 0.96726 0.98054 0.98884 0.99382 0.99669 0.99828 0.99914 0.99958 0.99980 0.99991 0.99996 0.99998 0.99999 1.00000

0 1 2 3 4 5 6 7 8

0.05 0.95123 0.99879 0.99998 1.00000

0.1 0.90484 0.99532 0.99985 1.00000

0.2 0.81873 0.98248 0.99885 0.99994 1.00000

0.3 0.74082 0.96306 0.99640 0.99973 0.99998 1.00000

0.4 0.67032 0.93845 0.99207 0.99922 0.99994 1.00000

0.5 0.60653 0.90980 0.98561 0.99825 0.99983 0.99999 1.00000

0.6 0.54881 0.87810 0.97688 0.99664 0.99961 0.99996 1.00000

0 1 2 3 4 5 6 7 8

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35

1.5 0.22313 0.55783 0.80885 0.93436 0.98142 0.99554 0.99907 0.99983 0.99997 1.00000

2.0 0.13534 0.40601 0.67668 0.85712 0.94735 0.98344 0.99547 0.99890 0.99976 0.99995 0.99999 1.00000

3.0 0.04979 0.19915 0.42319 0.64723 0.81526 0.91608 0.96649 0.98810 0.99620 0.99890 0.99971 0.99993 0.99998 1.00000

4.0 0.01832 0.09158 0.23810 0.43347 0.62884 0.78513 0.88933 0.94887 0.97864 0.99187 0.99716 0.99908 0.99973 0.99992 0.99998 1.00000

5.0 0.00674 0.04043 0.12465 0.26503 0.44049 0.61596 0.76218 0.86663 0.93191 0.96817 0.98630 0.99455 0.99798 0.99930 0.99977 0.99993 0.99998 0.99999 1.00000

6.0 0.00248 0.01735 0.06197 0.15120 0.28506 0.44568 0.60630 0.74398 0.84724 0.91608 0.95738 0.97991 0.99117 0.99637 0.99860 0.99949 0.99983 0.99994 0.99998 0.99999 1.00000

7.0 0.00091 0.00730 0.02964 0.08177 0.17299 0.30071 0.44971 0.59871 0.72909 0.83050 0.90148 0.94665 0.97300 0.98719 0.99428 0.99759 0.99904 0.99964 0.99987 0.99996 0.99999 1.00000

8.0 0.00034 0.00302 0.01375 0.04238 0.09963 0.19124 0.31337 0.45296 0.59255 0.71662 0.81589 0.88808 0.93620 0.96582 0.98274 0.99177 0.99628 0.99841 0.99935 0.99975 0.99991 0.99997 0.99999 1.00000

9.0 0.00012 0.00123 0.00623 0.02123 0.05496 0.11569 0.20678 0.32390 0.45565 0.58741 0.70599 0.80301 0.87577 0.92615 0.95853 0.97796 0.98889 0.99468 0.99757 0.99894 0.99956 0.99983 0.99993 0.99998 0.99999 1.00000

10 0.00005 0.00050 0.00277 0.01034 0.02925 0.06709 0.13014 0.22022 0.33282 0.45793 0.58304 0.69678 0.79156 0.86446 0.91654 0.95126 0.97296 0.98572 0.99281 0.99655 0.99841 0.99930 0.99970 0.99988 0.99995 0.99998 0.99999 1.00000

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35

Ablesebeispiel: F (P(1.5,4) ) = 0.98142 109

You might also like