You are on page 1of 12

Statistik II – Übung 3: Hypothesentests

Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum
Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden Sie dazu den Datensatz
“Arbeitsmarktdaten.sav“. Bitte bearbeiten Sie Aufgaben 1-5 in Gruppen von bis zu 4 Studierenden
(vergessen Sie nicht die Namen!) und reichen Sie die Lösungen VOR der 3. PC Übung ein.

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.

1seitiger Hypothesentest:

2seitiger Hypothesentest:

2. Was versteht man unter einem Konfidenzinterval? Wie wird es gebildet und was sagt es aus?

3. Überprüfen Sie anhand des 1-Stichproben t-Tests, ob der Mittelwert der Variable
„befristArbeit“ (1 falls jemand eine befristete Arbeitsstelle über eine italienische
Arbeitsagentur erhalten hat und 0 falls nicht) signifikant verschieden von 0.5 ist.

Analyze > Compare Means > One Sample T Test > Test Variable(s): befristArbeit > Test Value: 0.5 >
OK
One-Sample Statistics
Std. Error
N Mean Std. Deviation Mean
befristArbei
1120 .20 .403 .012
t

One-Sample Test
Test Value = 0.5
95% Confidence Interval of the
Mean Difference
t df Sig. (2-tailed) Difference Lower Upper
befristArbei
-24.512 1119 .000 -.296 -.32 -.27
t

(𝑋̅ − 𝜇) 0.2 − 0.5


𝑡 − 𝑆𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑘 = =
𝑠𝑒(𝑋̅) 0.012
𝑠𝑥 0.403
wobei 𝑠𝑒(𝑋̅) = = .
√𝑁 √1120
Die Irrtumswahrscheinlichkeit, mit der wir die Nullhypothese ablehnen, ist sehr klein (0.000). Wir
verwerfen die Nullhypothese, dass der Mittelwert gleich 0.5 ist, auf dem 5%- und sogar auf dem 1%-
Niveau.

4. Überprüfen Sie anhand des 2-Stichproben t-Tests, ob sich das mittlere Gehalt (siehe Variable
„Gehalt“, welche zeitlich später gemessen wurde als „befristArbeit“) in den Gruppen mit
„befristArbeit“=1 und „befristArbeit“=0 signifikant unterscheidet. Kommentieren Sie auch,
ob „Gehalt“ eine signifikant unterschiedliche Varianz in beiden Gruppen aufweist und was
dies für den 2-Stichproben t-Test bedeutet.

Analyze > Compare Means > Independent Samples T Test > Test Variable(s): Gehalt > Grouping
Variable: befristArbeit (1 0) > OK

Group Statistics
befristArbeit N Mean Std. Deviation Std. Error Mean
Gehalt 1 229 540.24 453.922 29.996
0 891 244.61 462.302 15.488
Die Variable „Gehalt“ weist eine höhere Standardabweichung und Varianz in der Gruppe mit
„befristArbeit=0“ als mit „befristArbeit=1“ auf. Die Unterschiede in der Varianz sind statistisch
signifikant (siehe Levene’s Test). Deshalb ist der 2-Stichproben t-Test unter der Annahme, dass die
Varianzen NICHT identisch sind, für den Mittelwertvergleich zu verwenden. Laut 2-Stichproben t-Test
sind auch die Mittelwerte von „Gehalt“ signifikant unterschiedlich in beiden Gruppen (sehr kleiner p-
Wert von 0.000). Die Schlussfolgerungen aus dem t-Test hängen aber nicht davon ab, ob gleiche
Varianzen (1. Zeile) oder unterschiedliche Varianzen (2. Zeile) angenommen werden: Die
Nullhypothese wird jeweils klar verworfen.

5. Regressieren Sie „Gehalt“ auf „befristArbeit“ und vergleichen Sie die Ergebnisse
(insbesondere die t-Statistiken und p-Werte) mit jenen von Aufgabe 4.

Analyze > Regression > Linear > Dependent: Gehalt > Independent(s): befristArbeit > ok

Model Summary
Adjusted R Std. Error of
Model R R Square Square the Estimate
a
1 .251 .063 .062 460.606
a. Predictors: (Constant), befristArbeit

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 244.615 15.431 15.852 .000
befristArbeit 295.621 34.126 .251 8.663 .000
a. Dependent Variable: Gehalt

Der β-Koeffizient gibt die Differenz zwischen den Gehaltsmittelwerten der Gruppen „befristArbeit=0“
und „befristArbeit=1“ in der Stichprobe an. Homoskedastizität ist eine der Regressionsannahmen,
deshalb sind die t-Statistiken der Regression und des t-Tests mit gleicher Varianz identisch.

6. Überprüfen Sie, ob die Varianz der Variablen „Bildung“ signifikant unterschiedlich ist in den
Gruppen mit „Training“=1 und „Training“=0.

Annahmen: zwei Variablen X und Y sind unabhängig und normalverteilt. Wir testen die
Nullhypothese H0 : σ2X = σ2Y (gleiche Varianzen) gegen die Alternativhypothese H1 : σ2X ≠ σ2Y
(unterschiedliche Varianzen). Die Teststatistik ist der Quotient der beiden Stichprobenvarianzen

sX2
t= 2
sY
Unter der Nullhypothese ist die Statistik F-verteilt mit Freiheitsgraden n1 − 1 und n2 − 1. Wir
verwerfen die Nullhypothese, falls der absolute Wert der Statistik ausreichend gross ist oder der p-
Wert ausreichend niedrig ist.

Analyze > Compare Means > One Way Anova > Dependent List: Bildung > Factor: Training (1 0) >
Options: Homogeneity of Variance test > Continue > Ok

Test of Homogeneity of Variances


Bildung
Levene
Statistic df1 df2 Sig.
22.806 1 1118 .000

ANOVA
Bildung
Sum of
Squares df Mean Square F Sig.
Between Groups 3.035 1 3.035 7.527 .006
Within Groups 450.814 1118 .403
Total 453.849 1119

Die Varianz in den beiden Gruppen ist signifikant unterschiedlich auf dem 1%-Niveau.

7. Zeigen Sie die Verteilung von „Gehalt“ in den Gruppen mit „befristArbeit“=1 und
„befristArbeit“=0 grafisch. Besteht Ähnlichkeit zur Normalverteilung?

Data > Select cases > If condition is satisfied > befristArbeit = 0 > continue > ok
Analyze > Descriptive Statistics > Frequencies > Variable(s): Gehalt > Charts: Histograms > show
normal curve on histogram > continue > ok

Data > Select cases > If condition is satisfied > befristArbeit = 1 > continue > ok
Analyze > Descriptive Statistics > Frequencies > Variable(s): Gehalt > Charts: Histograms > show
normal curve on histogram > continue > ok

befristArbeit=0
befristArbeit=1

Wie erwartet gibt es keine negativen Beobachtungen für Gehalt. In beiden Gruppen befinden sich
aber viele Beobachtungen mit einem Gehalt von 0. Es besteht keine Ähnlichkeit mit der
Normalverteilung.

8. Verwenden Sie einen Q-Q-Plot um die Ähnlichkeit der Verteilung von „Gehalt“ in den
Gruppen mit „befristArbeit“=1 und „befristArbeit“=0 zur Normalverteilung zu überprüfen.

Der Quantile-Quantile Plot vergleicht die beobachteten Quantile einer Variablen in der Stichprobe
mit den erwarteten Quantilen in der Referenzverteilung (in unserem Fall die Normalverteilung).
Ein Quantil ist ein Lagemass. So ist z.B. das 25%-Quantil jener Wert einer Variablen, bei dem der
Anteil der Beobachtungen, die kleiner oder höchstens so gross sind wie dieser Wert sind, gleich 25%
ist. Der Median ist z.B. das 50%-Quantil.

Im Q-Q Plot wird eine 45-Grad-Gerade zum Vergleich eingezeichnet. Eine gerade Linie gibt das
Szenario wieder, in dem die Verteilung der Variablen in der Stichprobe und die Normalverteilung
genau übereinstimmen. Systematische Abweichungen von der Geraden weisen hingegen auf
Abweichungen von der Normalverteilung hin.

Zuerst wählen wir alle Fälle mit „befristArbeit“=0 oder mit „befristArbeit“=1 aus. Dann erstellen wir
den Q-Q Plot.

Data > Select cases > If condition is satisfied > befristArbeit = 0 > continue > ok
Analyze > Descriptive Statistics > Q-Q-Plots>Variables: Gehalt > OK
Data > Select cases > If condition is satisfied > befristArbeit = 1 > continue > ok
Analyze > Descriptive Statistics > Q-Q-Plots>Variables: Gehalt > OK
Data > Select cases > All cases > ok

befristArbeit=0

befristArbeit=1
Sehr wenige Beobachtungen liegen auf der Geraden. Es gibt viele systematische Abweichungen. Die
Stichprobenverteilung von „Gehalt“ stimmt in beiden Gruppen nicht mit der Normalverteilung
überein.

9. Verwenden Sie den Mann Whitney U-Test um zu überprüfen, ob sich das mittlere Gehalt
(siehe Variable „Gehalt“, welche zeitlich später gemessen wurde als „befristArbeit“) in den
Gruppen mit „befristArbeit“=1 und „befristArbeit“=0 signifikant unterscheidet. Inwiefern
unterscheidet sich dieser Test vom t-Test?

Der Mann Whitney U-Test ist ein nichtparametrischer Test, der keine Normalverteilung unterstellt.

Analyze > Nonparametric Tests > Independent Samples > Fields > Test Fields: Gehalt > Groups:
befristArbeit > Settings > Customize Tests > Mann Whitney U (2 samples) > run

Die Gehaltsmittelwerte in den beiden Gruppen unterscheiden sich signifikant auf dem 1%-Niveau von
einander.
10. Verwenden Sie den Kolmogorov Smirnov Test um zu überprüfen, ob sich die Verteilungen
von (a) „Gehalt“ und (b) „Bildung“ in den Gruppen mit „befristArbeit“=1 und
„befristArbeit“=0 signifikant voneinander unterscheiden.

Der Kolmogorov-Smirnov (KS) Test ist ein nichtparametrischer Test der überprüft, ob die
Stichprobenverteilungen einer Variablen in zwei Gruppen signifikant unterschiedlich sind. Zunächst
werden die Differenzen zwischen den beiden Stichprobenverteilungen bestimmt. Die Teststatistik
entspricht dann dem maximalen absoluten Abstand zwischen den Stichprobenverteilungen. Die
Nullhypothese der Gleichverteilung wird für ausreichend große Werte der Teststatistik bzw. für
niedrige p-Werte abgelehnt.

Analyze > Nonparametric Tests > Independent Samples > Fields > Test Fields: Gehalt, Bildung >
Groups: befristArbeit > Settings > Customize Tests > Kolmogorov-Smirnov (2 samples) > run

Für das Gehalt lehnen wir die Nullhypothese auf dem 1%-Signifikanzniveau ab. Die Verteilung ist in
den beiden Gruppen unterschiedlich. Bei der Variablen „Bildung“ können wir die Nullhypothese aber
nicht einmal auf dem 10%-Signifikanzniveau verwerfen, weil die Irrtumswahrscheinlichkeit 0.163
(also 16,3%) beträgt.

11. Verwenden Sie die einfaktorielle Varianzanalyse, um zu überprüfen, (a) ob sich “Gehalt” für
verschiedene Ausprägungen von “Bildung” signifikant unterscheidet und (b) falls ja, zwischen
welchen Ausprägungen von “Bildung” signifikante Unterschiede bestehen (verwenden Sie für
letztere Analyse die Methode „Tamhane’s T2“ für ungleiche Varianzen für verschiedene
Ausprägungen von „Bildung“).

Analyze > Compare Means > One Way Anova > Dependent List: Gehalt > Factor: Bildung > Post Hoc:
Tamhane’s T2 > continue > ok

ANOVA
Gehalt
Sum of Squares df Mean Square F Sig.

Between Groups 15582426.228 2 7791213.114 36.639 .000


Within Groups 237530477.329 1117 212650.383
Total 253112903.557 1119
Multiple Comparisons
Dependent Variable: Gehalt
Tamhane

Mean Difference 95% Confidence Interval

(I) Bildung (J) Bildung (I-J) Std. Error Sig. Lower Bound Upper Bound
*
0 1 -116.710 26.012 .000 -178.93 -54.49
*
2 -401.121 64.981 .000 -558.02 -244.23
*
1 0 116.710 26.012 .000 54.49 178.93
*
2 -284.411 64.910 .000 -441.14 -127.68
*
2 0 401.121 64.981 .000 244.23 558.02
*
1 284.411 64.910 .000 127.68 441.14

*. The mean difference is significant at the 0.05 level.

Die erste Tabelle zeigt das Ergebnis für den Test, dass sich der Mittelwert von „Gehalt“ über
verschiedene Bildungsgruppen unterscheidet. Die Nullhypothese (keine Unterschiede im mittleren
Gehalt über verschiedene Bildungsgruppen) wird verworfen.

Die zweite Tabelle vergleicht das mittlere Gehalt zwischen den Bildungsgruppen paarweise, d.h. der
Mittelwert des Bildungsniveaus in Spalte (I) wird mit jenem des Bildungsniveaus in Spalte (J)
verglichen. Für jeden paarweisen Vergleich wird die Nullhypothese (kein Unterschied im Mittelwert
von „Gehalt“ zwischen 2 Gruppen) wiederum verworfen.

12. Generieren Sie neue Variablen für unterschiedliche Ausprägungen von „Bildung“:
„geringBild“ (geringe Bildung; soll 1 sein falls „Bildung“=0 und 0 sein falls „Bildung“=1 oder
2), „mittlereBild“ (mittlere Bildung; soll 1 sein falls „Bildung“=1 und 0 sein falls „Bildung“=0
oder 2), „hoheBild“ (hohe Bildung; soll 1 sein falls „Bildung“=2 und 0 sein falls „Bildung“=0
oder 1)

Transform > Compute variable > Target Variable: geringBild > Numeric expression: Bildung=0 > ok
Transform > Compute variable > Target Variable: mittlereBild > Numeric expression: Bildung=1 > ok
Transform > Compute variable > Target Variable: hoheBild > Numeric expression: Bildung=2 > ok

13. Regressieren Sie “Gehalt” auf „mittlereBild“ und „hoheBild“ um zu testen, ob sich das Gehalt
für verschiedene Bildungsniveaus signifikant unterscheidet.

Analyze > Regression > Linear > Dependent: Gehalt > Independent(s): mittlereBild, hoheBild > ok

Model Summary

Adjusted R Std. Error of the


Model R R Square Square Estimate
a
1 .248 .062 .060 461.140
a. Predictors: (Constant), hoheBild, mittlereBild

a
Coefficients

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 195.397 23.594 8.282 .000

mittlereBild 116.710 30.097 .122 3.878 .000

hoheBild 401.121 46.959 .269 8.542 .000

a. Dependent Variable: Gehalt

Das Gehalt steigt mit der Bildung. Eine Person mit niedriger Bildung (die Referenzgruppe) verdient im
Durchschnitt 195 Euro, eine Person mit mittlerer Bildung verdient im Schnitt ca. 117 Euro mehr und
eine Person mit höherer Bildung verdient ca. 401 Euro mehr als die Referenzgruppe. Je mehr Zeit
man in Bildung investiert, desto höher ist das erwartete Gehalt.

14. Regressieren Sie “Gehalt” auf „geringBild“ und „mittlereBild“ um zu testen, ob sich das
Gehalt für verschiedene Bildungsniveaus signifikant unterscheidet. Inwiefern unterscheiden
sich die Ergebnisse von jenen in Aufgabe 11 bzw. stimmen mit jenen überein?

Analyze > Regression > Linear > Dependent: Gehalt > Independent(s): geringBild, mittlereBild > ok

Model Summary

Adjusted R Std. Error of the


Model R R Square Square Estimate
a
1 .248 .062 .060 461.140

a. Predictors: (Constant), mittlereBild, geringBild

a
Coefficients

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 596.518 40.601 14.692 .000

geringBild -401.121 46.959 -.400 -8.542 .000

mittlereBild -284.411 44.695 -.298 -6.363 .000

a. Dependent Variable: Gehalt

Die Individuen mit höherer Bildung sind die Referenzgruppe (Constant). Die β-Koeffizienten und die
mittlere Differenzen stimmen mit Aufgabe 11 überein. Da sich die Referenzgruppe geändert hat, sind
die Bildungskoeffizienten im Gegensatz zu Aufgabe 13 negativ. Dennoch lassen sich sowohl in
Aufgabe 14 als auch Aufgabe 13 die Mittelwerte von „Gehalt“ für die einzelnen Gruppen aus den
Koeffizienten berechnen:

hoheBild: 596=195+401; geringBild: 596-401=195; mittlereBild: 596-284=312=195+117

15. Warum können Sie „Gehalt“ nicht gleichzeitig (also in der selben Regression) auf
„geringBild“, „mittlereBild“ und „hoheBild“ regressieren?

Aufgrund von perfekter Multikollinearität können wir nicht alle drei Bildungsvariablen gleichzeitig als
Regressoren verwenden, weil jede Bildungsvariable eine lineare Kombination von den anderen
beiden Bildungsvariablen ist. Zum Beispiel: falls man über keine höhere oder mittlere Bildung verfügt
(„mittlereBild“=0 und „hoheBild“=0), so ist das Bildungsniveau zwingenderweise gering
(„geringBild“=1).

16. Regressieren Sie „Gehalt“ auf „geringBild“, „mittlereBild“, „Training“ und „befristArbeit“
und testen Sie anhand des F-tests, ob die Koeffizienten aller Variablen gemeinsam signifikant
verschieden von Null sind. Zeigen Sie auch für jeden Koeffizienten das jeweilige 95%
Konfidenzintervall.

Mit dem F-Test untersuchen wir die gemeinsame Signifikanz der Regressionskoeffizienten der
erklärenden Variablen. Der F-Test vergleicht das nichtrestringierte und das restringierte Modell,
wobei das nichtrestringierte Modell eine Erweiterung des restringierten Modells ist.

Restringiertes Modell: y = β0 + u

Nichtrestringiertes Modell: y = β0 + β1 x1 + β2 x2 + ⋯ + βk xk + u.

Die F-Statistik entspricht dem prozentualen Anstieg des unerklärten Teils, gewichtet mit den
Freiheitsgraden. Unter der Nullhypothese erklärt das nichtrestringierte Modell die abhängige
Variable nicht besser als das restringierte Modell. Die Nullhypothese wird für ausreichend große
Werte der Teststatistik bzw. für niedrige p-Werte abgelehnt, d.h. mindestens ein Koeffizient der
Regressoren ist (ausreichend) verschieden von Null.

Analyze > Regression > Linear > Dependent: Gehalt > Independent(s): geringBild, mittlereBild,
Training, befristArbeit > Statistics: Confidence Intervals > continue > ok

Model Summary

Adjusted R Std. Error of the


Model R R Square Square Estimate
a
1 .358 .128 .125 444.921

a. Predictors: (Constant), befristArbeit, Training, geringBild, mittlereBild

a
ANOVA

Model Sum of Squares df Mean Square F Sig.


b
1 Regression 32393649.552 4 8098412.388 40.910 .000
Residual 220719254.004 1115 197954.488

Total 253112903.557 1119

a. Dependent Variable: Gehalt


b. Predictors: (Constant), befristArbeit, Training, geringBild, mittlereBild

a
Coefficients

Unstandardized Standardized 95.0% Confidence Interval for


Coefficients Coefficients B

Model B Std. Error Beta t Sig. Lower Bound Upper Bound

1 (Constant) 548.270 40.550 13.521 .000 468.706 627.833

geringBild -409.507 45.364 -.408 -9.027 .000 -498.516 -320.499

mittlereBild -319.903 43.305 -.335 -7.387 .000 -404.873 -234.934

Training 23.947 28.020 .024 .855 .393 -31.031 78.925

befristArbeit 302.733 33.225 .257 9.112 .000 237.543 367.924

a. Dependent Variable: Gehalt

Der F-Test verwirft die Nullhypothese dass die Koeffizienten aller Variablen gemeinsam Null sind auf
dem 1%-Niveau (siehe Tabelle „ANOVA“: 0.000). Somit nehmen wir die Alternativhypothese an, dass
mindestens ein Koeffizient verschieden von Null ist. Wenn wir die Koeffizienten einzeln testen
(Tabelle „Coefficients“), sehen wir, dass alle Koeffizienten ausser jener von Training signifikant auf
dem 1%-Niveau sind. Der Koeffizient von Training ist hingegen nicht einmal auf dem 10%-Niveau
signifikant (Irrtumswahrscheinlichkeit bei Verwerfung der Nullhypothese ist 0.393 oder 39,3 %).

You might also like