You are on page 1of 88

DIKTAT KULIAH

STATISTIKA MATEMATIKA I
Disusun Oleh
Dr.rer.nat. Wayan Somayasa, S.Si., M.Si.
FMIPA UNHALU-KENDARI
KENDARI 2008
Table of Contents
Table of Contents 1
1 Statistik dan distribusi sampling 3
1.1 Sampel random . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Distribusi sampling dari populasi normal . . . . . . . . . . . . . . . . 7
1.3.1 Distribusi chi-kuadrat . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Distribusi t student . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Distribusi F . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Soal-soal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Estimasi titik 18
2.1 Metode momen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Estimator dengan likelihood terbesar . . . . . . . . . . . . . . . . . 21
2.2.1 Kasus satu parameter (k = 1) . . . . . . . . . . . . . . . . . . 22
2.2.2 Kasus k parameter . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Keriteria-keriteria memilih estimator . . . . . . . . . . . . . . . . . . 26
2.3.1 Ketakbiasan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.2 Keterkonsentrasian dan UMVUE . . . . . . . . . . . . . . . . 27
2.4 Soal-soal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 Statistik cukup, keluarga lengkap dan keluarga eksponensial 33
3.1 Statistik cukup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Keluarga lengkap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Keluarga eksponensial . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Soal-soal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1
2
4 Estimasi interval 47
4.1 Metode kuantitas pivot (pivotal quantity) . . . . . . . . . . . . . . . . 50
4.1.1 Membandingkan dua populasi normal . . . . . . . . . . . . . . 54
4.2 Metode umum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Kasus h
1
dan h
2
monoton naik . . . . . . . . . . . . . . . . . 57
4.2.2 Kasus h
1
dan h
2
monoton turun . . . . . . . . . . . . . . . . . 59
4.3 Soal-soal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5 Uji hipotesis 62
5.1 Pendahuluan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.1.1 Menentukan daerah kritik . . . . . . . . . . . . . . . . . . . . 64
5.1.2 Nilai p (p-value) . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 Metode memilih tes terbaik . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.1 Tes UMP untuk hipotesis sederhana . . . . . . . . . . . . . . 70
5.2.2 Tes UMP untuk hipotesis komposit . . . . . . . . . . . . . . . 73
5.2.3 Keluarga monotone likelihood ratio (MLR) . . . . . . . . . . . 75
5.3 Tes dengan membandingkan fungsi likelihood . . . . . . . . . . . . . . 79
5.4 Soal-soal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6 Teori sampel besar 85
7 Teori Bayes 86
8 Estimasi dengan metode bootstrap 87
Chapter 1
Statistik dan distribusi sampling
Pada bagian ini kita akan membahas konsep tentang statistik (engl.: statistic) dan
distribusi sampling. Harap diperhatikan perbedaan antara statistik dan statistika
(engl.: statistics). Sebelumnya kita akan mengajak pembaca untuk membahas penger-
tian sampel random dan peranannya dalam statistika.
1.1 Sampel random
Misalkan seorang peneliti tertarik untuk mengamati proporsi ikan tuna yang tersebar
di teluk Kendari. Tentu saja proporsi ini tidak diketahui kecuali kalau si peneliti tadi
bisa menghitung semua ikan yang hidup di teluk Kendari dan kemudian menghitung
berapa bagian dari total jumlah ikan tadi yang merupakan ikan tuna. Apakah ini
mungkin dilakuan? Berapa banyak waktu, biaya dan tenaga yang perlu diinvestasikan
kalau cara ini yang ditempuh?
Sebagai statistikawan kita bisa membantu si peneliti tadi dengan statistika seba-
gai berikut. Kita misalkan populasi ikan di teluk Kendari sebagai ruang probabilitas
3
4
(, F, P). Misalkan
T
adalah himpunan semua ikan tuna, maka proporsi ikan tuna
dalam populasi itu adalah P(
T
) =

T

, yaitu jumlah ikan tuna dibagi jumlah ikan


keseluruhan. Kita misalkan konstanta yang tidak diketahui ini sebagai p 0. Mis-
alkan X : R adalah indikator dari
T
, yaitu suatu fungsi yang didenisikan
sebagai berikut
X() :
_
1 : jika
T
0 : jika
T
.
Maka X adalah sebuah variabel random (fungsi terukur) Bernoulli yang mengambil
nilai pada ruang sampel (R, B, P
X
), dimana untuk setiap himpunan bagian B B,
P
X
(B) := P{ : X() B}. Misalkan ambil kasus dimana B = {1}, maka
P
X
({1}) := P{ : X() = 1} = P(
T
) = p. Selanjutnya P
X
disebut sebagai
distribusi peluang dari X. Sebaliknya kalau B = {0}, maka P
X
({0}) := P{ :
X() = 0} = P(
C
T
) = 1 p, dimana
C
T
adalah komplemen dari
T
. Jadi model
distribusi peluang ikan tuna di teluk Kendari di gambarkan oleh model distribusi
peluang dari X dengan fungsi densitas f
X
(x) := P
X
({x}) = P{X = x} = p
x
(1p)
1x
,
x = 0, 1. Selanjutnya f
X
(x) disebut sebagai fungsi densitas populasi.
Misalkan dari suatu eksperimen yang dilakukan misalkan dengan memancing ikan
lalu mencatat hasilnya pada setiap pemancingan sebagi 1 jika yang didapat adalah
tuna dan 0 jika hasilnya bukan ikan tuna. Andaikan pemancingan dilakukan n
kali, maka data yang diperoleh adalah x
1
, . . . , x
n
, dengan x
i
{0, 1}, i = 1, . . . , n.
Dalam statistika kita memandang data sebagai realisasi (nilai) dari variabel random
X
1
, . . . , X
n
yang terdenisi pada (, F, P), yaitu X
i
() = x
i
, untuk suatu ,
i = 1, . . . , n. Kita nyatakan distribusi peluang bersama dari X
1
, . . . , X
n
dengan

n
i=1
P
X
i
yang terdenisi pada (R
n
, B
n
).
Denisi 1.1.1. Suatu himpunan random variable {X
1
, . . . , X
n
} dikatakan sebagai
5
sampel random berukuran n dari suatu populasi X, jika dan hanya jika

n
i=1
P
X
i
{
n
i=1
(, t
i
]} =
n
i=1
P
X
i
((, t
i
]) =
n
i=1
P
X
((, t
i
]),
dimana
n
i=1
(, t
i
] := (, t
1
] (, t
n
]. Jika populasi X mempunyai fungsi
densitas f(x), maka {X
1
, . . . , X
n
} dikatakan sebagai sampel random berukuran n dari
suatu populasi X, jika dan hanya jika
f
X
1
,...,X
n
(x
1
, . . . , x
n
) =
n
i=1
f(x
i
).
Jadi suatu sampel random harus memenuhi kondisi dimana X
1
, . . . , X
n
saling in-
dependen dan masing-masing mempunyai distribusi peluang yang sama dengan dis-
tribusi peluang populasinya (sering juga dikatakan i.i.d sebagai singkatan dari inde-
pendent and identically distributed).
Kembali ke kasus semula jika pada setiap pemancingan (trial) ikan dilepas lagi,
maka hasil berikutnya tidak akan terpengaruh dari hasil sebelumnya (saling indepen-
den) dan masing-masing akan mengikuti distribusi yang sama yaitu Bernoulli dengan
parameter p. Jadi eksperimen kita akan menghasilkan sampel random berukuran n
dari populasi ikan tuna di teluk Kendari.
Sebagai contoh lain, misalkan suatu pabrik lampu dalam setahun memproduksi
500000 lampu pijar dengan jenis yang sama, misalkan jenis A. Karena suatu hal,
daya tahan lampu yang dihasilkan ternyata berbeda-beda. Andaikan produsen ter-
tarik untuk menyelidiki proporsi lampu yang mempunyai daya tahan sesuai spesikasi
tertentu, misalkan daya tahannya melebihi t jam. Andaikan populasi lampu jenis A
dimisalkan sebagai ruang (, F, P) dan Y : (, F, P) (R
0
, B(R
0
), P
Y
) dengan
6
Y () adalah daya tahan bola lampu . Andaikan Y mengikuti distribusi expo-
nensial dgn parameter > 0, maka proporsi bola lampu jenis A yang daya tahan-
nya lebih dari atau sama dengan t jam adalah P
Y
([t, )) =
_

t
1

exp{y/}dy =
exp{t/}, t 0. Andaikan Y
1
, . . . , Y
n
adalah sampel random dari populasi Y , maka

n
i=1
P
Y
i
(
n
i=1
[t
i
, )) =
n
i=1
exp{t
i
/} = exp{
1

n
i=1
t
i
}.
1.2 Statistik
Pada subbab sebelumnya kita mengenal p dan sebagai konstanta-konstanta (parameter-
parameter) yang tidak diketahui nilainya. Tujuan dari statistika adalah merumuskan
suatu konsep inferensi atau pendugaan terhadap parameter-parameter tersebut. Alat
utama yang digunakan adalah apa yang disebut statistik.
Denisi 1.2.1. Misalkan {X
1
, . . . , X
n
} adalah himpunan n N variabel random
teramati dari suatu populasi tertentu. Statistik adalah sembarang fungsi T :=
t(X
1
, . . . , X
n
) yang tidak bergantung pada sembarang parameter yang tidak diketahui.
Selanjutnya distribusi dari suatu statistik disebut distribusi sampling.
Catatan:
Pada Denisi 1.2.1 kata teramati mengandung pengertian bahwa melalui suatu ekspe-
rimen n titik data yang diperoleh adalah realisasi dari X
1
, . . . , X
n
. Variabel-variabel
ini harus teramati, karena kalau tidak, maka fungsi t tidak bisa dihitung.
Contoh 1.2.2. Misalkan X
1
, . . . , X
n
adalah sampel random dari suatu populasi den-
gan mean dan variansi
2
> 0. Mean sampel

X :=
1
n

n
i=1
X
i
and variansi
sampel S
2
:=
1
n1

n
i=1
(X
i


X)
2
merupakan statistik dengan sifat-sifat sebagai
berikut:
7
1. E(

X) = and V ar(

X) =
2
/n.
2. E(S
2
) =
2
and V ar(S
2
) =
1
n
(

n3
n1

4
), dengan

4
:= E(X
4
).
Untuk kasus penyelidikan ikan tuna di teluk Kendari, proporsi sampel adalah p :=
1
n

n
i=1
X
i
, dengan X
i
i.i.d. Bin(1, p). Maka E( p) = p dan V ar( p) = p(1 p).
1.3 Distribusi sampling dari populasi normal
Pada bagian ini kita akan mempelajari distribusi dari beberapa statistik yang meru-
pakan fungsi dari sampel random dari populasi normal. Kita batasi pembicaraan
pada populasi normal saja karena selain secara matematika mudah diturunkan, juga
karena model distribusi ini banyak dipakai di lapangan.
Teorema 1.3.1. Misalkan X
1
, . . . , X
n
saling independen dan berdistribusi N(
i
,
2
i
).
Maka Y :=

n
i=1
a
i
X
i
N (

n
i=1
a
i

i
,

n
i=1
a
2
i

2
i
), untuk a
i
R, i = 1, . . . , n.
Proof. Hasil ini dapat dibuktikan dengan konvolusi dari variabel random normal.
Yaitu jumlah dari beberapa variabel random normal adalah normal. Karena dis-
tribusi normal ditentukan secara tunggal hanya oleh mean dan variansinya, berarti
kita hanya perlu menghitung mean dan variansi dari Y yang diberikan oleh

n
i=1
a
i

i
dan

n
i=1
a
2
i

2
i
. Cara lain adalah dengan metode ketunggalan fungsi pembangkit mo-
men (Moment Generating Functions/MGF). Secara umum jika X N(,
2
), maka
M
X
(t) = exp{t +
1
2
t
2

2
}, t R. (1.3.1)
Karena X
i
saling independen, maka berlaku
M
Y
(t) =
n
i=1
M
X
i
(a
i
t) =
n
i=1
exp{ta
i

i
+
1
2
t
2
a
2
i

2
i
}
8
= exp{t
n

i=1
a
i

i
+
1
2
t
2
n

i=1
a
2
i

2
i
}. (1.3.2)
Selanjutnya dengan membandingkan (1.3.1) dan (1.3.2), teorema terbukti.
Contoh 1.3.2. Misalkan X
1
, . . . , X
n
1
dan Y
1
, . . . , Y
n
2
merupakan dua sampel random
yang saling bebas masing-masing berukuran n
1
dan n
2
. Jika X
i
N(
1
,
2
1
) dan Y
j

N(
2
,
2
2
), i = 1, . . . , n
1
dan j = 1, . . . , n
2
, maka

X

Y N(
1

2
,
2
1
/n
1
+
2
2
/n
2
).
Proof. Pernyataan ini dapat ditunjukan dengan menggunakan secara langsung hasil
pada Teorema 1.3.1 dan kenyataan

X

Y =
1
n
1
X
1
+. . . +
1
n
1
X
n
1

1
n
2
Y
1
. . .
1
n
2
Y
n
2
.
Cara lain adalah dengan metode MGF sebagai berikut:
M
X

Y
(t) = M
X
(t)M
Y
(t) (kedua sampel saling independen)
=
n
1
i=1
M
X
i
(t/n
1
)
n
2
j=1
M
Y
j
(t/n
2
)
=
n
1
i=1
exp
_
t
n
1

1
+
1
2
t
2
n
2
1

2
1
_

n
2
i=1
exp
_
t
n
2

2
+
1
2
t
2
n
2
2

2
2
_
= exp
_
t(
1

2
) +
1
2
t
2
(
2
1
/n
1
+
2
2
/n
2
)
_
.
Persamaan yang terakhir adalah MGF dari N(
1

2
,
2
1
/n
1
+
2
2
/n
2
).
Contoh 1.3.3. Dari hasil pada Contoh 1.3.2 tentukan suatu konstanta c sedemikian
hingga 95% dari populasinya mempunyai selisih mean sampel lebih dari c.
Jawab:
Dengan menggunakan transformasi variabel diperoleh
P
_

X

Y c
_
= 0, 95 P
_
(

X

Y ) (
1

2
)
_

2
1
/n
1
+
2
2
/n
2

c (
1

2
)
_

2
1
/n
1
+
2
2
/n
2
_
= 0, 95.
Selanjutnya karena
(

X

Y )(
1

2
)

2
1
/n
1
+
2
2
/n
2
N(0, 1), maka konstanta c adalah penyelesaian
dari persamaan
c (
1

2
)
_

2
1
/n
1
+
2
2
/n
2
= z
0,05
c = (
1

2
) + z
0.05
_

2
1
/n
1
+
2
2
/n
2
.
9
1.3.1 Distribusi chi-kuadrat
Denisi 1.3.4. Suatu variabel random X dikatakan berdistribusi chi-kuadrat dengan
derajat bebas (X
2
()), jika dan hanya jika X Gamma(2, /2).
Remark 1.3.5. Sifat-sifat distribusi chi-kuadrat dapat diturunkan langsung dari sifat-
sifat distribusi Gamma. Jika X
2
(), maka
1. M
X
(t) = (1 2t)
/2
,
2. E(X
r
) = 2
r
(/2+r)
(/2)
, r Z,
3. E(X) = dan V ar(X) = 2.
Teorema 1.3.6. Jika X Gamma(, ), maka 2X/
2
(2).
Proof. Bukti yang paling sederhana adalah dengan metode ketunggalan MGF:
M2X

(t) = M
X
(2t/) =
_
1
2t

= (1 2t)
2/2
.
Jadi terbukti 2X/
2
(2).
Contoh 1.3.7. Andaikan bahwa daya tahan batu batrai yang diproduksi oleh suatu
pabrik mengikuti distribusi Gamma(, ). Jika pabrik ingin memberikan suatu jam-
inan bahwa 90% dari produknya mempunyai daya tahan lebih dari t
0
tahun, maka
tentukan t
0
.
Jawab:
Andaikan X adalah daya tahan batu batrai dalam satuan tahun. Yang ingin diten-
tukan oleh pabrik adalah t
0
sedemikian hingga P{X t
0
} = 0, 90. Tetapi dari Teo-
rema 1.3.6, P{2X/ 2t
0
/} = 0, 90. Maka t
0
=
2
0,10
(2)/2. Disini
2

(2) adalah
suatu konstanta yang memenuhi persamaan P{
2
(2)
2

(2)} = atau disebut


juga pesensil ke alpha dari distribusi
2
(2).
10
Teorema berikut memberikan hasil yang sangat penting dari distribusi chi-kuadrat.
Teorema 1.3.8. Misalkan Y
1
, . . . , Y
n
saling independen dan Y
i

2
(
i
). Maka V =

n
i=1
Y
i

2
(

n
i=1

i
).
Proof. Kita buktikan hasil ini dengan ketunggalan MGF. Dari asumsi bahwa Y
i
saling
independen berlaku: M
V
(t) =
n
i=1
(1 2t)

i
/2
= (1 2t)

n
i=1

i
/2
yang merupakan
MGF dari
2
(

n
i=1

i
).
Hasil berikut menjelaskan hubungan antara distribusi normal standar dan dis-
tribusi chi-kuadrat.
Teorema 1.3.9. Jika Z N(0, 1), maka Z
2

2
(1).
Proof.
M
Z
2(t) = E
_
exp{tZ
2
}
_
=
_

2
exp{tz
2
z
2
/2}dz
=
1

1 2t
_

1 2t

2
exp{z
2
(1 2t)/2}dz
= (1 2t)
1/2
,
yang merupakan MGF dari
2
(1).
Akibat 1.3.10. Jika X
1
, . . . , X
n
adalah sampel random dari populasi N(,
2
), maka
berlaku:
1.

n
i=1
(X
i
)
2

2

2
(n),
2.
n(

X)
2

2

2
(1).
Pada Contoh 1.3.2 kita sudah menurunkan distribusi dari mean sampel. Teorema
berikut memberikan distribusi dari variansi sampel S
2
yang didenisikan pada Contoh
1.2.2.
11
Teorema 1.3.11. Jika X
1
, . . . , X
n
menyatakan sampel random dari N(,
2
), maka
1. Antara

X dan (X
i


X), i = 1, . . . , n saling independen.
2. Antara

X dan S
2
saling independen,
3. (n 1)S
2
/
2

2
(n 1).
Proof. Kita denisikan transformasi variabel berikut: y
1
= x dan y
i
= x
i
x, untuk
i = 2, . . . , n, sehingga diperoleh: x
i
= y
1
+ y
i
, i = 2, . . . , n dan x
1
= y
1

n
i=2
y
i
.
Jacobian dari transformasi ini adalah
J =
_

_
1 1 1 1
1 1 0 0
1 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0 0 0
_

_
det(J) = n.
Selanjutnya dari x
1
x =

n
i=2
(x
i
x) =

n
i=2
y
i
diperoleh
n

i=1
(x
i
x)
2
= (x
1
x) +
n

i=2
(x
i
x)
2
=
_

i=2
y
i
_
2
+
n

i=2
y
2
i
. (1.3.3)
Karena saling bebas, fungsi densitas bersama dari X
1
, . . . , X
n
adalah
f
X
1
,...,X
n
(x
1
, . . . , x
n
) =
1
(2)
n/2

n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
=
1
(2)
n/2

n
exp
_

1
2
2
_
n

i=1
(x
i
x)
2
+n( x )
2
__
.
Sehingga dari (1.3.3) fungsi densitas bersama dari variabel Y
1
, . . . , Y
n
adalah
g
Y
1
,...,Y
n
(y
1
, . . . , y
n
) =
det(J)
(2)
n/2

n
exp
_
_
_

1
2
2
_
_
_

i=2
y
i
_
2
+
n

i=2
y
2
i
+n(y
1
)
2
_
_
_
_
_
=
1
_
2
2
/n
exp
_

1
2
2
/n
(y
1
)
2
_

12

n
(2)
(n1)/2

(n1)
exp
_
_
_

1
2
2
_
_
_

i=2
y
i
_
2
+
n

i=2
y
2
i
_
_
_
_
_
.
Persamaan yang terakhir menunjukan bahwa fungsi densitas bersama dari Y
1
, . . . , Y
n
dapat difaktorkan sebagai hasil prgandaan antara fungsi densitas dari Y
1
dan fungsi
densitas bersama dari Y
2
, . . . , Y
n
. Jadi Y
1
=

X independen terhadap Y
i
= X
i


X
untuk i = 2, . . . , n. Selanjutnya karena X
1


X =

n
i=2
(X
i


X), berarti

X juga
independen terhadap X
1


X. Jadi pernyataan 1 terbukti.
Karena S
2
merupakan fungsi dari X
i


X untuk i = 1, . . . , n, maka pernyataan 2
hanyalah merupakan akibat langsung dari pernyataan 1.
Kita menggunakan metode ketunggalan MGF untuk membuktikan pernyataan 3:
Misalkan V
1
:=

n
i=1
(X
i
)
2

2

2
(n), V
2
:=
n(

X)
2

2

2
(1) dan V
3
=
(n1)S
2

2
. Dari
denisi dari S
2
diperoleh: V
1
= V
3
+ V
2
dan dari pernyataan 2 jelaslah V
2
dan V
3
saling independen, sehingga berlaku
M
V
1
(t) = M
V
3
+V
2
(t) = M
V
3
(t)M
V
2
(t)
M
V
3
(t) =
M
V
1
(t)
M
V
2
(t)
=
(1 2t)
n/2
(1 2t)
1/2
= (1 2t)
(n1)/2
,
yang merupakan MGF dari
2
(n 1).
Contoh 1.3.12. Misalkan sebaran nilai ujian akhir mata kuliah Kewiraan mahasiwa
FMIPA Unhalu angkatan 2007/2008 diasumsikan berdistribusi N(60, 36). Untuk men-
guji kebenaran klaim bahwa
2
= 36, sebuah sampel random berukuran 25 diambil dari
populasi ini. Asumsi akan ditolak jika S
2
54, 63 dan sebaliknya asumsi akan dito-
lak jika S
2
< 54, 63. Tentukan berapa peluang menolak asumsi ini jika benar bahwa
populasinya N(60, 36).
Jawab:
13
Dari Teorema 1.3.11 pernyataan 3 kita peroleh:
P
_
S
2
54, 63
_
= P
_
24S
2
36
36, 42
_
= 1 P
_

2
(24) < 36, 42
_
= 0, 05
1.3.2 Distribusi t student
Teorema 1.3.13. Misalkan Z N(0, 1) dan Y
2
(). Jika Z dan Y saling
independen, maka T :=
Z

Y/
dikatakan berdistribusi t student dengan derajat bebas
. Selanjutnya dituliskan sebagai T t(). Fungsi densitas dari T adalah:
f
T
(t; ) =

_
+1
2
_

2
_
1

_
1 +
t
2

_
(+1)/2
(1.3.4)
Proof. Kita denisikan transformasi T =
Z

Y/
dan W = Y yang berakibat Z =
T
_
W/ dan Y = W. Jakobian dari transformasi yariabel t =
z

y/
dan w = y
adalah
J =
_

_
_
w/
t
2

w/
0 1
_

_
det(J) =
_
w/.
Karena Z dan Y saling independen, maka fungsi densitas bersamanya adalah:
f
Z,Y
(z, y) = f
Z
(z)f
Y
(y) =
e
z
2
/2

2
y
/21
e
y/2
2
/2
(/2)
=
y
/21
e
(y/2+z
2
/2)

2(/2)2
/2
.
f
T,W
(t, w) = f
Z,Y
(z, y)det(J) =
w
/21
e
w/2
e
t
2
w/2

2(/2)2
/2
_
w/
=
(w/2)
/21/2
e
w/2(1+t
2
/)

4(/2)
, < t < , 0 < w < .
Maka fungsi densitas marginal dari T adalah
f
T
(t) =
_

0
(w/2)
/21/2
e
w/2(1+t
2
/)

4(/2)
dw.
14
Dengan memisalkan u := w/2(1+t
2
/),maka integral ini dapat disederhanakan men-
jadi
f
T
(t) =
_

0
u
(/2+1/21)
e
u
du

(/2)(1 +t
2
/)
(+1)/2
=

_
+1
2
_

(/2)
(1 +t
2
/)

(+1)
2
Gambar berikut adalah grak fungsi densitas dari distribusi t(1). Secara umum ben-
tuk graknya adalah bellshape serupa dengan grak fungsi densitas distribusi normal
standar yaitu simetris terhadap titik t = 0.
t
f
(
t

;

1
)
-10 -5 0 5 10
0
.
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Gambar 1. Grak fungsi densitas distribusi t(1).
Teorema 1.3.14. Jika X
1
, . . . , X
n
merupakan sampel random dari N(,
2
), maka

X
S/

n
t(n 1), dimana S =

_
1
n 1
n

i=1
(X
i


X)
2
.
Proof. Misalkan Z := (

X )/
_

2
/n dan Y := (n 1)S
2
/
2
, maka berlaku

X
S/

n
= Z/
_
Y/(n 1), dengan Z N(0, 1) dan Y
2
(n 1) (lih. Teorema
1.3.11 pernyataan 3). Selanjutnya karena Z dan Y saling independen (lih. Teorema
1.3.11 pernyataan 2), maka dari Teorema 1.3.13, teorema terbukti.
15
Sebagai catatan, untuk melakukan inferensi terhadap dari populasi N(,
2
),
maka quantitas

X

2
/n
tidak bisa dipakai apabila
2
tidak diketahui. Karena itu kita
melakukan estimasi dahulu terhadap
2
dengan S
2
. Jadi disinilah letak penggunaan
dari distribusi t.
1.3.3 Distribusi F
Salah satu alasan kenapa distribusi F penting untuk di pelajari adalah jika kita
mempunyai 2 sampel random X
1
, . . . , X
n
1
dari populasi N(
1
,
2
1
) dan Y
1
, . . . , Y
n
2
dari populasi N(
2
,
2
2
) dan kita ingin melakukan inferensi terhadap rasio
2
1
/
2
2
.
Teorema 1.3.15. Misalkan U
2
(r
1
) dan V
2
(r
2
). Jika U dan V saling inde-
penden, maka X :=
U/r
1
V/r
2
berdistribusi F dengan derajat bebas r
1
dan r
2
. Selanjutnya
distribusi ini kita tuliskan sebagai F(r
1
, r
2
). Persensil f

(r
1
, r
2
) adalah konstanta
yang memenuhi persamaan P{X f

(r
1
, r
2
)} = . Fungsi densitas dari X adalah:
f
X
(x; r
1
, r
2
) =
_
r
1
r
2
_
r
1
/2

_
r
1
+r
2
2
_
x
(r
1
/21)
(r
1
/2)(r
2
/2)(xr
1
/r
2
+ 1)
(r
1
+r
2
)/2
(1.3.5)
Proof. Kita denisikan transformasi variabel X =
U/r
1
V/r
2
dan Y = V , maka U =
XY r
1
/r
2
dan V = Y . Jacobian dari transformasi u = xyr
1
/r
2
dan v = y adalah:
J =
_

_
yr
1
/r
2
xr
1
/r
2
0 1
_

_
det(J) = yr
1
/r
2
.
Selanjutnya karena U dan V saling independen, fungsi densitas bersamanya adalah
f
U,V
(u, v; r
1
, r
2
) = f
U
(u; r
1
)f
V
(v; r
2
) =
u
r
1
/21
v
r
2
/21
exp{(u +v)/2}
(r
1
/2)(r
2
/2)2
(r
1
+r
2
)/2
.
Maka fungsi densitas bersama antara X adan Y adalah:
f
X,Y
(x, y; r
1
, r
2
) = f
U,V
(u, v; r
1
, r
2
) det(J)
16
=
(xy)
r
1
2
1
_
r
1
r
2
_
r
1
2
1
y
r
2
2
1
(r
1
/2)(r
2
/2)2
(r
1
+r
2
)/2
exp{(xyr
1
/r
2
)/2 y/2}yr
1
/r
2
=
_
r
1
r
2
_
r
1
2
y
(r
1
+r
2
)/21
x
r
1
2
1
(r
1
/2)(r
2
/2)2
(r
1
+r
2
)/2
exp{
y
2
(xr
1
/r
2
+ 1)}.
Fungsi densitas marginal dari X adalah f
X
(x; r
1
, r
2
) =
_

0
f
X,Y
(x, y; r
1
, r
2
) dy. Den-
gan menggunakan substitusi variabel w =
y
2
(xr
1
/r
2
+ 1) atau y = 2w/(xr
1
/r
2
+ 1)
kita peroleh
f
X
(x; r
1
, r
2
) =
_

0
_
r
1
r
2
_
r
1
2
x
r
1
2
1
w
(r
1
+r
2
)/21
exp{w}
(r
1
/2)(r
2
/2)(xr
1
/r
2
+ 1)
(r
1
+r
2
)
2
dw,
yang menghasilkan (1.3.5).
Teorema 1.3.16. Jika X F(r
1
, r
2
), maka
E(X
r
) =
_
r
1
r
2
_
r
(r
1
/2 +r) (r
2
/2 r)
(r
1
/2) (r
2
/2)
, r
2
> 2r, (1.3.6)
E(X) =
r
2
r
2
2
, r
2
> 2, (1.3.7)
V ar(X) =
2r
2
2
(r
1
+r
2
2)
r
1
(r
2
2)
2
(r
2
4)
, r
2
> 4 (1.3.8)
Proof. Karena U dan V saling bebas, maka berlaku
E(X
r
) = E(U/r
1
)
r
E(V/r
2
)
r
=
_
r
1
r
2
_
r
E(U
r
)E(V
r
).
Selanjutnya hasil di atas diperoleh dengan substitusi langsung terhadap E(U
r
) dan
E(V
r
) untuk variabel chi kuadrat. Pernyataan yang lainnya adalah kejadian khusus
dari pernyataan pertama.
Contoh 1.3.17. Misalkan X
1
, . . . , X
n
1
dan Y
1
, . . . , Y
n
2
merupakan dua sampel ran-
dom yang saling independen dari populasi, dimana X
i
N(
1
,
2
1
) dan Y
j
N(
2
,
2
2
).
17
Dari Teorema 1.3.11, jelaslah
(n
1
1)
S
2
X

2
1

2
(n
1
1) dan (n
2
1)
S
2
Y

2
2

2
(n
2
1),
dan keduanya jelas saling independen, sehingga
P
_
S
2
X

2
2
S
2
Y

2
1
f

(n
1
1, n
2
1)
_
= P
_
S
2
X
S
2
Y
f

(n
1
1, n
2
1)


2
1

2
2
_
=
1.4 Soal-soal
1. Misalkan Z
1
, . . . , Z
16
adalah sampel random dari populasi N(0, 1). Dengan
menggunakan tabel atau software S-PLUS tentukan peluang berikut:
(a) P
_
16
i=1
Z
2
i
< 32
_
(b) P
_
16
i=1
(Z
i


Z)
2
< 25
_
2. Jika T t(), tentukan distribusi dari T
2
?
Chapter 2
Estimasi titik
Pada chapter ini kita akan membahas beberapa metode estimasi yang penting, yaitu
metode momen dan metode estimasi dengan likelihood terbesar.
Seperti yang sudah dibahas pada Chapter 1, populasi atau phenomena yang men-
jadi perhatia, kita gambarkan dengan variabel random X : (, F, P) (R, B, P
X
).
Secara umum populasi X diasumsikan mempunyai distribusi probabilitas dengan
fungsi densitas merupakan anggota dari keluarga
P
X
(
1
,...,
k
)
:=
_
f
X
(;
1
, . . . ,
k
) : (
1
, . . . ,
k
) :=
1

k
R
k
_
,
dimana (
1
, . . . ,
k
), k N adalah bilangan-bilangan yang tidak diketahui nilainya
atau disebut juga parameter. Kita namakan ruang parameter. Misalnya,
P
X
(,
2
)
:=
_
1

2
2
exp{
1
2
2
( )
2
} : (,
2
) (, ) (0, ) R
2
_
,
yang berarti populasi X termasuk anggota dari keluarga distribusi normal dimana
setiap elemen dari keluarga ini diidentikasi oleh suatu parameter dan
2
yang tidak
diketahui nilainya. Tujuan dari estimasi titik adalah untuk menentukan nilai yang
18
19
sesuai dari parameter-parameter
1
, . . . ,
k
berdasarkan data hasil observasi terhadap
populasinya. Data x
1
, . . . , x
n
yang diperoleh dipandang secara matematik sebagai
realisasi atau nilai dari n variabel random yang saling independen X
1
, . . . , X
n
dengan
X
i
: (, F, P) (R, B, P
X
i
) dan X
i
f
X
(;
1
, . . . ,
k
), (
1
, . . . ,
k
) . Fungsi
densitas bersama dari sampel random ini yang dihitung pada titik data x
1
, . . . , x
n
,
yaitu
f
X
1
,...,X
n
(x
1
, . . . , x
n
;
1
, . . . ,
k
) =
n
i=1
f
X
(x
i
;
1
, . . . ,
k
), (
1
, . . . ,
k
) ,
memberikan hubungan fungsional antara parameter-parameter yang tidak diketahui
dan data. Dengan kata lain dari data yang diperoleh dapat diidentikasi berapa nilai
parameter yang sesuai.
Denisi 2.0.1. Statistik

1
:= t
1
(X
1
, . . . , X
n
), . . . ,

k
:= t
k
(X
1
, . . . , X
n
) yang digu-
nakan untuk mengestimasi
1
, . . . ,
k
disebut estimator. Sedangkan nilainya yang
dihitung pada titik data, yaitu t
1
(x
1
, . . . , x
n
), . . . , t
k
(x
1
, . . . , x
n
) disebut estimasi un-
tuk
1
, . . . ,
k
.
Contoh 2.0.2. Misalkan X
1
, . . . , X
10
adalah sampel random dari populasi N(,
2
),
dengan (,
2
) (, ) (0, ). Mean sampel

X =

10
i=1
X
i
/10 sering dipakai
sebagai suatu estimator untuk . Jika pada suatu eksperimen diperoleh data misalnya
10, 20, 15, 30, 25, 30, 20, 15, 25, 5, maka rata-ratanya merupakan estimasi untuk
. Jadi suatu estimator jelas merupakan variabel random, sedangkan estimasi adalah
suatu bilanagn real.
20
2.1 Metode momen
Misalkan X f
X
(;
1
, . . . ,
k
), (
1
, . . . ,
k
) adalah populasi yang menjadi per-
hatian kita dan (
1
, . . . ,
k
) adalah parameter-parameter yang tidak diketahui. Mo-
mem ke j dari populasi ini terhadap titik pusat adalah

j
:= E(X
j
). Biasanya

j
bergantung pada
1
, . . . ,
k
karena itu kita notasikan sebagai

j
=

j
(
1
, . . . ,
k
), j =
1, . . . , k. Misalkan X
1
, . . . , X
n
adalah sampel random dari populasi f
X
(;
1
, . . . ,
k
),
(
1
, . . . ,
k
) . Momen sampel ke j didenisikan sebagai M

j
:= 1/n

n
i=1
X
j
i
,
j = 1, . . . , k. Karena

j
sangat dekat dengan M

j
, estimator

1
, . . . ,

k
dapat ditu-
runkan dengan meyelesaikan system persamaan

j
(
1
, . . . ,
k
) = M

j
, j = 1, . . . , k, (2.1.1)
secara simultan untuk
1
, . . . ,
k
. Selanjutnya estimator yang diperoleh dengan cara
seperti ini kita sebut sebagai estimator metode momen (moment method esti-
mator) disingkat MME.
Contoh 2.1.1. Misalkan X f
X
(; ,
2
), (,
2
) (, ) (0, ) dengan
E(X) = dan V ar(X) =
2
. Dalam hal ini kita mempunyai k = 2 dengan

1
= dan
2
=
2
, sehingga MME dan
2
adalah penyelesaian dari persamaan
= M

1
dan
2
+
2
= M

2
. Jadi =

X dan
2
= M


X
2
= (n 1)S
2
/n. Jadi
= t
1
(X
1
, . . . , X
n
) =

X dan
2
= t
2
(X
1
, . . . , X
n
) = (n 1)S
2
/n.
Contoh 2.1.2. Misalkan X
1
, . . . , X
n
adalah sampel random dari populasi Gamma(, ).
Karena E(X) = dan E(X
2
) = (1 + )
2
, maka MME

dan dapat diperoleh
dengan menyelesaikan persamaan = M

1
dan (1 + )
2
= M

2
, untuk dan .
Jadi diperoleh =

X/

dengan

=

n
i=1
(X
i


X)
2
/(n

X) = [(n 1)/(n

X)]S
2
.
21
Contoh 2.1.3. Misalkan X
1
, . . . , X
n
adalah sampel random dari populasi Gamma().
Andaikan kita tertarik untuk mencari MME untuk P{X
i
1} = exp{1/}. Karena
E(X
i
) = , maka MME

=

X. Misalkan p := exp{1/}, maka = 1/ ln(p).
MME untuk p adalah penyelesaian dari persamaan 1/ ln(p) =

X untuk p. Jadi
p = exp{1/

X}.
2.2 Estimator dengan likelihood terbesar
Denisi 2.2.1. Misalkan X
1
, . . . , X
n
merupakan n variabel random dengan X
i

f
X
i
(;
1
, . . . ,
k
), (
1
, . . . ,
k
) , i = 1, . . . , n. Misalkan x
1
, . . . , x
n
merupakan
data atau suatu realisasi dari X
1
, . . . , X
n
. Fungsi L : R
0
, sedemikian hingga
L(
1
, . . . ,
k
) = f
X
1
,...,X
n
(x
1
, . . . , x
n
;
1
, . . . ,
k
) disebut fungsi likelihood. Sebagai ke-
jadian yang lebih khusus, jika X
1
, . . . , X
n
merupakan suatu sampel random, maka
L(
1
, . . . ,
k
) =
n
i=1
f
X
i
(x
i
;
1
, . . . ,
k
).
Selanjutnya, nilai-nilai dari (
1
, . . . ,
k
) yang dinyatakan sebagai (

1
, . . . ,

k
)
sedemikian hingga
L(

1
, . . . ,

k
) = max
(
1
,...,
k
)
L(
1
, . . . ,
k
)
disebut estimasi dengan likelihood terbesar (engl. Maximum Likelihood Estimate).
Biasanya (

1
, . . . ,

k
) merupakan fungsi dari data x
1
, . . . , x
n
, misalkan sebagai

i
=
t
i
(x
1
, . . . , x
n
), i = 1, . . . , k. Jika fungsi-fungsi ini kita terapkan terhadap sampel ran-
dom X
1
, . . . , X
n
, maka

i
= t
i
(X
1
, . . . , X
n
) disebut estimator dengan likelihood terbe-
sar (engl. Maximum Likelihood Estimator), disingkat MLE untuk
i
, i = 1, . . . , k.
Dari denisi di atas adalah jelas bahwa permasalahan menentukan MLE adalah
termasuk permasalahan optimisasi. Nilai-nilai dari (

1
, . . . ,

k
) memberikan global
22
maksimum dari L(
1
, . . . ,
k
) pada . Karena nilai-nilai dari (
1
, . . . ,
k
) yang
memaksimumkan L(
1
, . . . ,
k
) juga memaksimumkan log-likelihood ln L(
1
, . . . ,
k
),
maka untuk memudahkan perhitungan, kita akan perhatikan fungsi ln L(
1
, . . . ,
k
)
saja.
2.2.1 Kasus satu parameter (k = 1)
Jika ruang parameter merupakan interval terbuka, dan jika L() terdiferensialkan
pada , maka titik-titik extrim terjadi pada titik-titik yang merupakan penyelesaian
dari persamaan
d ln L()
d
= 0. (2.2.1)
Andaikan

merupakan satu-satunya penyelesaian, maka titik

adalah MLE, jika
d
2
ln L()
d
2
< 0. (2.2.2)
Jika penyelesaian dari (2.2.1) tidak tunggal, misalkan sebagai

1
, . . . ,

m
, m N dan
semuanya memenuhi (2.2.2), maka MLE adalah
arg max

1
,...,

m
{L(

1
), . . . , L(

m
)}. (2.2.3)
Contoh 2.2.2. Misalkan X
1
, . . . , X
n
adalah sampel random dari populasi X POI(),
> 0. Fungsi likeihood dari datanya adalah
L() =
n
i=1
e

x
i
x
i
!
=
e
n

n
i=1
x
i

n
i=1
(x
i
!)
.
Fungsi log-likelihoodnya adalah
ln L() = n +
n

i=1
x
i
ln
n
i=1
(x
i
!).

d ln L()
d
= 0 n +
1

i=1
x
i
= 0 = x.
23
Selanjutnya uji turunan ke dua pada titik = x memberikan
d
2
ln L()
d
2
=
1
x
2
n

i=1
x
i
=
n
x
< 0.
Jadi MLE untuk adalah

=

X.
Catatan:
Tidak selamanya MLE dapat diperoleh melalui metode diferensial seperti pada kasus
berikut.
Contoh 2.2.3. Misalkan X
1
, . . . , X
n
adalah sampel random dari populasi X Exp(1, ),
x . Fungsi likelihoodnya adalah
L() =
_

n
i=1
exp{(x
i
)} = exp{

n
i=1
(x
i
)} ; untuk x
i
, i
0 ; untuk x
i
< , untuk suatu i
.
Karena
d lnL()
d
= n, maka metode diferensial jelas tidak dapat diterapkan, oleh karena
itu kita harus mencari metode alternatif. Misalkan x
1:n
, . . . , x
r:n
, . . . , x
n:n
merupakan
sampel terurut, yaitu x
1:n
x
2:n
. . . x
r1:n
x
r:n
x
r+1:n
. . . x
n:n
. Maka
fungsi likelihood dapat pula di nyatakan sebagai
L() =
_

_
exp{n( x)} ; untuk x
1:n

0 ; untuk > x
1:n
.
Berarti MLE = X
1:n
, yaitu sampel terkecil.
2.2.2 Kasus k parameter
Misalkan ruang parametr merupakan himpunan terbuka pada ruang Euclid R
k
dan
L() terdiferensialkan pada . Titik-titik ekstrim adalah titik-titik yang merupakan
24
penyelesaian dari system persamaan
ln L(
1
, . . . ,
k
)

j
= 0, j = 1, . . . , k. (2.2.4)
Selanjutnya apakah titik-titik ekstrim ini memberikan nilai maksimum, harus diver-
ikasi. Untuk kasus k = 2, kita gunakan alat dari kalkulus sebagai berikut. Mis-
alkan L(
1
,
2
) terdiferensialkan sampai order kedua, dan misalkan (

1
,

2
) merupakan
penyelesaian tunggal dari persamaan (2.2.4). Misalkan
D(
1
,
2
) :=
_

2
ln L(
1
,
2
)

2
1
__

2
ln L(
1
,
2
)

2
2
_

2
ln L(
1
,
2
)

2
_
. (2.2.5)
Jika D(

1
,

2
) > 0 dan

2
ln L(
1
,
2
)

2
1
(

1
,

2
) < 0, maka (

1
,

2
) merupakan MLE. Dalam
kasus penyelesaian dari (2.2.4) tidak tunggal, semua penyelesaian harus diverikasi
apakah dia merupakan titik maksimum atau bukan. Selanjutnya MLE adalah titik
(

1
,

2
) dengan L(

1
,

2
) terbesar.
Contoh 2.2.4. Misalkan X
1
, . . . , X
n
adalah sampel random dengan X
i
N(,
2
).
Kita mempunyai
L(,
2
) =
n
i=1
1

2
2
exp
_
1
2
2
(x
i
)
2
_
, (,
2
) (, ) (0, )
=
1
(2)
n/2

n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
ln L(,
2
) =
n
2
ln(2)
n
2
ln
2

1
2
2
n

i=1
(x
i
)
2
. (2.2.6)
Dari dua persamaan
ln L(,
2
)

=
1

2
n

i=1
(x
i
) = 0
ln L(,
2
)

2
=
n
2
2
+
1
2
4
n

i=1
(x
i
)
2
= 0,
25
diperoleh = x dan
2
=

n
i=1
(x
i
x)
2
n
=: s
2
n
. Selanjutnya masih harus diverikasi,
apakah syarat untuk D(
2
, s
2
n
) dipenuhi. Dari persamaan diatas, kita peoleh

2
ln L(,
2
)

2
(
2
, s
2
n
) =
n
s
4
n

2
ln L(,
2
)
(
2
)
2
(
2
, s
2
n
) =
n
2(
2
)
4

1
(
2
)
3
n

i=1
(x
i
x)
2
=
n
2s
4
n

2
ln L(,
2
)

2
(
2
, s
2
n
) =
1
(s
2
n
)
2
n

i=1
(x
i
x) = 0.
Jadi D(
2
, s
2
n
) > 0, dan karena n/(s
2
n
)
2
selalu negatif, maka dapat dipastikan

X
dan S
2
n
:=

n
i=1
(X
i


X)
2
/n merupakan MLE untuk dan
2
.
Contoh 2.2.5. Perhatikan sampel random X
1
, . . . , X
n
dari distribusi Exp(, ). Fungsi
densitas populasinya adalah
f(x; , ) =
_

_
1

exp{(x )/} ; x
0 ; > x
.
Maka
ln L(, ) =
_

_
nln

n
i=1
(x
i
)/ ; untuk x
1:n
, i
0 ; untuk x
1:n
< , untuk suatu i
.
Karena ln L(, ) tidak terdiferensial terhadap pada titik dimana ln L(, ) mencapai
maksimum, maka MLE untuk adalah = X
1:n
. Selanjutnya dari persamaan
ln L(, )

=
n

+
1

2
n

i=1
(x
i
x
1:n
) = 0,
diperoleh MLE untuk ,

=
1
n
n

i=1
(X
i
X
1:n
).
26
2.3 Keriteria-keriteria memilih estimator
Pada dua subbab sebelumnya telah dibahas metode-metode untuk menurunkan es-
timator terhadap parameter-parameter dari populasi. Pada subbab ini kita akan
merumuskan beberapa keriteria untuk membandingkan estimator sehingga kita bisa
memilih yang mana yang terbaik.
2.3.1 Ketakbiasan
Denisi 2.3.1. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi f
X
(; ),
R. Misalkan : R merupakan fungsi real pada ruang parameter. Suatu
estimator T := t(X
1
, . . . , X
n
) disebut estimator tak bias jika E(T) = (), .
Sebaliknya, jika kondisi ini tidak dipenuhi, kita sebut T estimator bias.
Contoh 2.3.2. Sebagai contoh misalkan X
1
, . . . , X
n
merupakan sampel random dari
populasi dengan mean dan variansi
2
. Dari Contoh 1.2.2, mean sampel

X adalah
tak bias untuk dan variansi sampel S
2
adalah tak bias untuk
2
. Dalam kasus ini
kita memilih sebagai fungsi identitas.
Suatu estimator yang bias untuk () dapat dimodikasi dengan cara sedemikian
rupa sehingga hasil modikasinya tak bias, seperti yang diperagakan pada contoh
berikut.
Contoh 2.3.3. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi Exp()
atau Gamma(, 1). Jelaslah

X tak bias untuk . Tetapi 1/

X bias terhadap 1/,
seperti ditunjukan berikut. Misalkan Y := 2n

X/ =

n
i=1
2X
i
/. Maka Y
2
(2n).
27
Dari Remark 1.3.5, untuk kasus r = 1, berlaku
E(Y
1
) =
1
2(n 1)
=

2n
E
_
1

X
_
E
_
1

X
_
=
n
(n 1)
1

.
Jadi 1/

X adalah bias terhadap 1/. Misalkan T := (n 1)/(n

X), maka T jelas tak
bias terhadap 1/. Berapakah variansi dari T?
2.3.2 Keterkonsentrasian dan UMVUE
Denisi 2.3.4. Misalkan T
1
dan T
2
merupakan estimator (tidak harus tak bias) untuk
(). T
1
dikatakan lebih terkonsentrasi disekitar () daripada T
2
jika untuk setiap
> 0 berlaku,
P{|T
1
()| < } P{|T
2
()| < }. (2.3.1)
Denisi 2.3.5. Misalkan A
()
merupakan himpunan semua estimator (tidak harus
tak bias) untuk (). T

dikatakan paling terkonsentrasi disekitar () jika untuk


setiap > 0 berlaku,
P{|T

()| < } = sup


TA
()
P{|T ()| < }. (2.3.2)
Remark 2.3.6. Misalkan U
()
merupakan himpunan semua estimator tak bias untuk
(). Dengan ketaksamaan Chebychev diperoleh
P{|T ()| < } 1
V ar(T)

2
, > 0. (2.3.3)
Jadi berdasarkan ketaksamaan (2.3.3), jika T

U
()
, maka T

merupakan estimator
tak bias yang paling terkonsentrasi disekitar () dibandingkan dengan estimator-
estimator lainnya di dalam U
()
, jika dipenuhi
V ar(T

) = inf
TU
()
V ar(T), . (2.3.4)
28
Kriteria ini menghasilkan suatu konsep baru dalam pemilihan estimator terbaik, yaitu
konsep estimator tak bias dengan variansi minimum seragam (uniformly minimum
variance unbiased estimator), disingkat UMVUE. Selanjutnya estimator tak bias yang
memenuhi (2.3.4) disebut UMVUE.
Teorema 2.3.7. (Batas bawah Cramer-Rao)
Misalkan X
1
, . . . , X
n
merupakan sampel random dari f(; ), . Jika T :=
t(X
1
, . . . , X
n
) merupakan estimator tak bias untuk (), dan jika

() := d()/d
ada. Maka batas bawah Cramer-Rao untuk () adalah
V ar(T)
[

()]
2
nE
_

ln f(X
i
; )
_
2
(2.3.5)
Proof. Pertama-tama kita denisikan suatu fungsi u : R
n
R, dimana
u(x
1
, . . . , x
n
; ) :=

ln f(x
1
, . . . , x
n
; ) =
1
f(x
1
, . . . , x
n
; )

f(x
1
, . . . , x
n
; )
u(x
1
, . . . , x
n
, )f(x
1
, . . . , x
n
; ) =

f(x
1
, . . . , x
n
; ).
Selanjutnya kita denisikan suatu quantitas random yang masih bergantung pada ,
yaitu U := u(X
1
, . . . , X
n
; ). Maka
E(U) =
_

u(x
1
, . . . , x
n
; )f(x
1
, . . . , x
n
; ) dx
1
dx
n
=
_

f(x
1
, . . . , x
n
; ) dx
1
dx
n
=

f(x
1
, . . . , x
n
; ) dx
1
dx
n
=

1 = 0.
Pada perhitungan ekspektasi dari U, pertukaran tanda integral dan diferensial dapat
dilakukan karena domain dari integran-nya tidak bergantung pada . Dari asumsi T
29
tak bias terhadap (), diperoleh

() =

E(T)
=

t(x
1
, . . . , x
n
)f(x
1
, . . . , x
n
; ) dx
1
dx
n
=
_

t(x
1
, . . . , x
n
)

f(x
1
, . . . , x
n
; ) dx
1
dx
n
=
_

t(x
1
, . . . , x
n
)u(x
1
, . . . , x
n
; )f(x
1
, . . . , x
n
; ) dx
1
dx
n
= E(TU).
Dari kedua hasil diatas diperoleh Cov(T, U) = E(TU) E(T)E(U) =

(). Pada sisi


lain, ketaksamaan Cauchy-Schwarz memberikan [Cov(T, U)]
2
V ar(T)V ar(U),
sehingga V ar(T) [Cov(T, U)]
2
/V ar(U) = [

()]
2
/V ar(U). Selanjutnya kita veri-
kasi lebih lanjut bentuk dari V ar(U). Mengingat X
1
, . . . , X
n
adalah sampel random,
maka
V ar(U) =V ar
_

ln
n
i=1
f(X
i
; )
_
= V ar
_
n

i=1

ln f(X
i
; )
_
=
n

i=1
V ar
_

ln f(X
i
; )
_
= nE
_

ln f(X
i
; )
_
2
.
Dari hasil yang terakhir ini, diperoleh Ketaksamaan (2.3.5).
Catatan:
Jika V ar(T) mencapai batas bawah Cramer-Rao, maka T jelas merupakan UMVUE.
Contoh 2.3.8. Misalkan X
1
, . . . , X
n
merupakan sampel random dari Exp(). Kita
ingin menentukan batas bawah Cramer-Rao untuk () = . Karena f(X
i
; ) =
1

exp{X
i
/}, maka
E
_

ln f(X
i
; )
_
2
= E
_
X
i

2
_
2
=
V ar(X
i
)

4
=
1

2
.
30
Batas bawah Cramer-Rao untuk adalah
2
/n. Karena

X merupakan estimator tak
bias untuk dengan V ar(

X) =
2
/n, maka

X merupakan UMVUE untuk .
Catatan:
Variansi dari suatu estimator tak bias T untuk () akan mencapai (sama dengan)
batas bawah Cramer-Rao untuk (), jika [Cov(T, U)]
2
= V ar(T)V ar(U). Dengan
kata lain korelasi antara T dan U harus sama dengan 1 atau 1. Ini terjadi, jika dan
hanya jika T merupakan fungsi linear dari U, yaitu fungsi yang berbentuk T = aU +b
untuk suatu konstanta a dan b.
Contoh 2.3.9. Misalkan X
1
, . . . , X
n
merupakan sampel random dari distribusi Geo(p),
dengan f(X
i
; p) = p(1 p)
1X
i
, X
i
= 0, 1, dan E(X) = 1/p. Kita ingin menentukan
estimator T yang tak bias terhadap 1/p, sedemikian hingga T = aU +b, untuk suatu
konstanta a dan b. Dari rumus fungsi densitasnya, kita dapatkan
U =
n

i=1

p
(ln p + (X
i
1) ln(1 p)) =
n

i=1
_
1
p

X
i
1
1 p
_
.
Sehingga setelah penyederhanaan diperoleh
T := aU +b =
an
p 1

X +
_
b
an
p(p 1)
_
= c

X +d,
dimana c :=
an
p1
dan d := b
an
p(p1)
. Karena

X merupakan estimator tak bias
untuk 1/p, sehingga agar T juga tak bias terhadap 1/p, maka harus dipilih c = 0 dan
d = 0. Variansi dari

X adalah (1p)/(np
2
) dan dipastikan sama dengan batas bawah
Cramer-Rao untuk 1/p.
Denisi 2.3.10. Misalkan T, T

U
()
, dimana U
()
adalah himpunan semua
estimator tak bias untuk (). Esiensi relatif dari T terhadap T

adalah
re(T, T

) :=
V ar(T

)
V ar(T)
. (2.3.6)
31
Estimator T

U
()
dikatakan esien jika re(T, T

) 1, T U
()
and .
Selanjutnya, jika T

merupakan estimator yang esien, maka esiensi dari suatu


estimator T U
()
diberikan oleh e(T) := re(T, T

).
Denisi 2.3.11. Misalkan T merupakan sembarang estimator untuk (). Bias dari
T terhadap (), dinotasikan sebagai b(T) adalah
b(T) := E(T) (). (2.3.7)
Sedangkan mean dari kudrat kesalahan mengestimasi () dengan T disebut MSE
(engl. mean squared error) dari T, adalah
MSE(T) := E(T ())
2
. (2.3.8)
Teorema 2.3.12. If T merupakan suatu estimator untuk (), maka
MSE(T) = V ar(T) + [b(T)]
2
.
Proof.
MSE(T) =E(T E(T) +E(T) ())
2
=E(T E(T))
2
+ (E(T) E(T)) (E(T) ()) + (E(T) ())
2
=E(T E(T))
2
+ (E(T) ())
2
=V ar(T) + [b(T)]
2
.
Keriteria MSE mengakomodasi dua quantitas yaitu variansi dan bias. Kriteria ini
akan sesuai dengan kriteria UMVUE jika perhatian kita batasi pada estimator tak
bias.
32
2.4 Soal-soal
1. Jika X
1
, . . . , X
n
merupakan sampel random yang diambil dari populasi berikut.
Tentukan MME dan MLE untuk parameter-parameternya!
(a) f(x; ) =
_
x
1
; 0 < x < 1
0 ; x 0 atau x 1
, > 0.
(b) f(x; ) =
_
( + 1)x
2
; 1 < x
0 ; x 1
, > 0.
(c) f(x; ) =
_

2
xe
x
; 0 < x
0 ; x 0
, > 0.
(d) X
i
PAR(, ), dan tidak diketahui.
(e) f(x;
1
, ) =
_

x
1
; x
0 ; x <
, 0 < , 0 < < .
Chapter 3
Statistik cukup, keluarga lengkap
dan keluarga eksponensial
Pada chapter ini kita akan membahas konsep statistik cukup (engl. sucient statis-
tic), statistik lengkap (engl. complete statistic) dan suatu keluarga fungsi distribusi
probabilitas yang disebut keluarga eksponensial (engl. exponential family). Ketiga
konsep ini sangat penting karena melandasi konsep perumusan prosudur inferensi pa-
rameter, seperti estimasi interval dan uji hipotesis yang akan dibahas pada 2 chapter
berikutnya.
3.1 Statistik cukup
Sebelum kita memberikan denisi formal dari statistik cukup, kita ikuti ilustrasi
berikut. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi BIN(1, ),
0 < < 1. Fungsi densitas bersama dari X
1
, . . . , X
n
dihitung pada titik (x
1
, . . . , x
n
)
33
34
adalah
f
X
1
,...,X
p
(x
1
, . . . , x
n
; ) =
_

n
i=1
x
i
(1 )
n

n
i=1
x
i
; jika x
i
{0, 1}, i
0 ; jika x
i
{0, 1}
.
Andaikan kita tertarik pada statistik Y
1
:=

n
i=1
X
i
. Jelas Y
1
berdistribusi BIN(n, ),
sehingga fungsi densitas dari Y
1
adalah
f
Y
1
(y
1
; ) =
_

_
_
n
y
1
_

y
1
(1 )
ny
1
; jika y
1
{0, 1, . . . , n}
0 ; jika y
1
{0, 1, . . . , n}
.
Misalkan A := { : Y
1
(X
1
(), . . . , X
n
()) = y
1
}. Untuk suatu titik (x
1
, . . . , x
n
)
yang tertetu, misalkan B := { : X
1
() = x
1
, . . . , X
n
() = x
n
}. Maka B A =
B, jika Y
1
(x
1
, . . . , x
n
) = y
1
. Sebaliknya jika Y
1
(x
1
, . . . , x
n
) = y
1
, maka B A = .
Sehingga peluang bersyarat
P{X
1
= x
1
, . . . , X
n
= x
n
| Y
1
= y
1
} = P(B | A) =
P(B A)
P(A)
=
_

n
i=1
x
i
(1)
n

n
i=1
x
i

n
y
1

y
1(1)
ny
1
; jika Y
1
(x
1
, . . . , x
n
) = y
1
0 ; jika Y
1
(x
1
, . . . , x
n
) = y
1
=
_

_
1

n
y
1

; jika

n
i=1
x
i
= y
1
0 ; jika

n
i=1
x
i
= y
1
.
Jadi P{X
1
= x
1
, . . . , X
n
= x
n
| Y
1
= y
1
} tidak bergantung pada untuk setiap titik
(data) (x
1
, . . . , x
n
) yang memenuhi sifat

n
i=1
x
i
= y
1
. Statistik Y
1
yang memenuhi
sifat ini disebut statistik cukup untuk .
Denisi 3.1.1. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi dengan
fungsi densitas f
X
(; ), R. Misalkan Y
1
= u
1
(X
1
, . . . , X
n
) merupakan
35
statistik dengan fungsi densitas g
Y
1
(; ), . Maka Y
1
adalah statistik cukup
untuk , jika dan hanya jika
f
X
1
,...,X
n
(x
1
, . . . , x
n
; )
g
Y
1
(y
1
; )
= H(x
1
, . . . , x
n
), (3.1.1)
dimana H(x
1
, . . . , x
n
) adalah fungsi yang tidak bergantung pada untuk setiap titik
(data) (x
1
, . . . , x
n
) dengan sifat u
1
(x
1
, . . . , x
n
) = y
1
.
Catatan:
Jika Y
1
merupakan statistik cukup untuk , semua informasi tentang parameter
dibawa oleh Y
1
. Ini berarti inferensi tentang harus didasarkan pada Y
1
bukan pada
statistik yang lain. Selanjutnya, pada bagian ini kita batasi pembicaraan pada kasus
variabel kontinu dengan satu parameter, yaitu R. Kasus diskrit ditangani secara
analog.
Teorema 3.1.2. (Teorema Faktorisasi)
Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi dengan fungsi densitas
f
X
(; ), . Statistik Y
1
= u
1
(X
1
, . . . , X
n
) merupakan statistik cukup untuk ,
jika dan hanya jika terdapat fungsi-fungsi tidak negatif k
1
dan k
2
sedemikian hingga
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) = k
1
(u
1
(x
1
, . . . , x
n
); )k
2
(x
1
, . . . , x
n
),
dimana untuk setiap titik (x
1
, . . . , x
n
) yang bersifat y
1
= u
1
(x
1
, . . . , x
n
), k
2
(x
1
, . . . , x
n
)
tidak bergantung pada .
Proof. () Pertama-tama kita denisikan suatu transformasi satu-satu
y
1
= u
1
(x
1
, . . . , x
n
), . . . , y
n
= u
n
(x
1
, . . . , x
n
)
dengan invers
x
1
= w
1
(y
1
, . . . , y
n
), . . . , x
n
= w
n
(y
1
, . . . , y
n
).
36
Maka fungsi densitas bersama dari Y
1
, . . . , Y
n
adalah
f
Y
1
,...,Y
n
(y
1
, . . . , y
n
; ) = f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) |J|
= k
1
(u
1
(x
1
, . . . , x
n
); )k
2
(x
1
, . . . , x
n
) |J|
= k
1
(y
1
; )k
2
(w
1
(y
1
, . . . , y
n
), . . . , w
n
(y
1
, . . . , y
n
)) |J| .
Fungsi densitas marginal dari Y
1
adalah
g
Y
1
(y
1
; ) =
_

k
1
(y
1
; )k
2
(w
1
(y
1
, . . . , y
n
), . . . , w
n
(y
1
, . . . , y
n
)) |J| dy
2
dy
n
= k
1
(y
1
; )
_

k
2
(w
1
(y
1
, . . . , y
n
), . . . , w
n
(y
1
, . . . , y
n
)) |J| dy
2
dy
n
= k
1
(y
1
; )m(y
1
),
dimana m(y
1
) :=
_

k
2
(w
1
(y
1
, . . . , y
n
), . . . , w
n
(y
1
, . . . , y
n
)) |J| dy
2
dy
n
. Di
sini jelas bahwa m(y
1
) merupakan fungsi yang tidak bergantung pada maupun
y
2
, . . . , y
n
, melainkan hanya pada y
1
. Sehingga
f
X
1
,...,X
n
(x
1
, . . . , x
n
; )
g
Y
1
(y
1
; )
=
k
1
(u
1
(x
1
, . . . , x
n
); )k
2
(x
1
, . . . , x
n
)
k
1
(u
1
(x
1
, . . . , x
n
); )m(u
1
(x
1
, . . . , x
n
))
=
k
2
(x
1
, . . . , x
n
)
m(u
1
(x
1
, . . . , x
n
))
.
Karena ruas kanan dari persamaan yang terakhir tidak bergantung pada untuk
setiap (x
1
, . . . , x
n
) yang bersifat y
1
= u
1
(x
1
, . . . , x
n
), sesuai Denisi (3.1.1), Y
1
adalah
statistik cukup untuk .
() Jika Y
1
= u
1
(X
1
, . . . , X
n
) merupakan statistik cukup untuk , maka sesuai Den-
isi (3.1.1), berlaku
f
X
1
,...,X
n
(x
1
, . . . , x
n
; )
g
Y
1
(y
1
; )
= H(x
1
, . . . , x
n
),
dimana H(x
1
, . . . , x
n
) merupakan suatu fungsi yang tidak bergantung pada untuk
setiap (x
1
, . . . , x
n
) yang bersifat u
1
(x
1
, . . . , x
n
) = y
1
. Selanjutnya dengan mengambil
37
k
1
(u
1
(x
1
, . . . , x
n
); ) := g
Y
1
(y
1
; ) dan k
2
(x
1
, . . . , x
n
) := H(x
1
, . . . , x
n
), maka syarat
perlu terbukti.
Contoh 3.1.3. Misalkan X
1
, . . . , X
n
merupakan sampel random dari N(,
2
), den-
gan < < dan diasumsikan
2
diketahui. Apakah

X merupakan statistik
cukup untuk ?. Karena
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ,
2
) =
1
(2)
n/2

n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
=
1
(2)
n/2

n
exp
_

1
2
2
_
n

i=1
(x
i
x)
2
+n( x )
2
__
Kita akan menerapkan Teorema Faktorisasi, karena itu kita harus mengelompokan x
dan ke dalam argumen dari k
1
, sedangkan k
2
tidak boleh bergantung pada . Ambil
k
1
( x; ) := exp{
n( x)
2
2
2
} dan k
2
(x
1
, . . . , x
n
) :=
1
(2)
n/2

n
exp{
1
2
2

n
i=1
(x
i
x)
2
}.
Maka berlaku f
X
1
,...,X
n
(x
1
, . . . , x
n
; ,
2
) = k
1
( x; )k
2
(x
1
, . . . , x
n
). Karena k
2
tidak
bergantung pada maka

X merupakan statistik cukup untuk .
Contoh 3.1.4. Misalkan X
1
, . . . , X
n
merupakan samplel random dari populasi den-
gan fungsi densitas f(x; ) =
_

_
x
1
; 0 < x < 1
0 ; x 0 atau x 1
, > 0. Dengan fak-
torisasi,
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) =
_

n
(
n
i=1
x
i
)
1
; 0 < x
i
< 1, i
0 ; i, x
i
0 atau x
i
1
, > 0.
Atau f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) =
n
(
n
i=1
x
i
)

n
i=1
x
i
, 0 < x
i
< 1, i. Dengan menden-
isikan k
1
(
n
i=1
x
i
; ) :=
n
(
n
i=1
x
i
)

dan k
2
(x
1
, . . . , x
n
) :=
1

n
i=1
x
i
, statistik
n
i=1
X
i
merupakan statistik cukup untuk .
Catatan
Misalkan Y
1
:= u
1
(X
1
, . . . , X
n
) merupakan statistik cukup untuk . Jika Z :=
38
u(Y
1
) atau Z = u(u
1
(X
1
, . . . , X
n
)) := (X
1
, . . . , X
n
) dengan invers Y
1
:= w(Z), maka
Z juka merupakan statistik cukup untuk . Ini terjadi karena
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) = k
1
(u
1
(x
1
, . . . , x
n
); )k
2
(x
1
, . . . , x
n
)
= k
1
(w((x
1
, . . . , x
n
)); )k
2
(x
1
, . . . , x
n
)
Karena k
1
hanya bergantung pada z = (x
1
, . . . , x
n
) dan sedangkan k
2
tidak bergan-
tung pada , maka teorema faktorisasi Z = u(Y
1
) merupakan statistik cukup untuk
.
Teorema 3.1.5. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi X
dengan fungsi densitas f
X
(, ), . Jika Y
1
= u
1
(X
1
, . . . , X
n
) merupakan statistik
cukup untuk dan

adalah MLE untuk dengan

tunggal, maka terdapat suatu
fungsi h : R R, sedemikian hingga

= h(Y
1
).
Proof. Dari teorema faktorisasi diperoleh
L() = f
X
1
,...,X
n
(x
1
, . . . , x
n
; )
= k
1
(u
1
(x
1
, . . . , x
n
); )k
2
(x
1
, . . . , x
n
)
L(

) = max

k
1
(u
1
(x
1
, . . . , x
n
); )k
2
(x
1
, . . . , x
n
).
Karena k
2
merupakan fungsi yang tidak bergantung pada , maka berlaku
k
1
(u
1
(x
1
, . . . , x
n
);

) = max

k
1
(u
1
(x
1
, . . . , x
n
); ).
Dengan kata lain

memaksimumkan L() dan k
1
(u
1
(x
1
, . . . , x
n
); ) secara simultan.
Dari persamaan yang terakhir

merupakan suatu fungsi dari u
1
(x
1
, . . . , x
n
), yaitu

= h(u
1
(x
1
, . . . , x
n
)) untuk setiap (x
1
, . . . , x
n
) yang bersifat u
1
(x
1
, . . . , x
n
) = y
1
.
Jadi

= h(Y
1
).
39
Teorema 3.1.6. (Teorema Rao-Blackwell)
Misalkan X dan Y merupakan dua variabel random. Misalkan
X
:= E(X) dan

Y
:= E(Y ). Misalkan : R R dengan (x) := E(Y | X = x). Maka
1. E((X)) =
Y
, dengan kata lain (Y ) adalah tak bias terhadap
Y
.
2. V ar((X)) V ar(Y ).
Proof. Kita buktikan teorema ini untuk kasus X dan Y variabel random kontinu,
sedangkan pembukiannya analog dengan kasus kontinu. Misalkan f
X
() dan f
Y
()
masing-masing merupakan fungsi densitas marginal dari X dan Y . Misalkan f
X,Y
()
merupakan fungsi densitas bersama dari X dan Y , sedangkan f
Y |X
( | x) merupakan
fungsi densitas bersyarat dari Y diberikan X = x untuk suatu x R. Maka
(x) = E(Y | X = x) =
_

yf
Y |X
(y | x)dy =
_

y
f
X,Y
(x, y)
f
X
(x)
dy
(x)f
X
(x) =
_

yf
X,Y
(x, y)dy.
Sehingga
E((X)) =
_

(x)f
X
(x)dx =
_

__

yf
X,Y
(x, y)dy
_
dx
=
_

y
__

f
X,Y
(x, y)dx
_
dy =
_

yf
Y
(y)dy =
Y
.
Ini membuktikan pernyataan pertama. Untuk membuktikan pernyataan kedua, kita
berjalan dari denisi dasar dari V ar(Y ). Dari denisi diperoleh
V ar(Y ) = E(Y
Y
)
2
= E(Y (X) +(X)
Y
)
2
= E(Y (X))
2
+E((X)
Y
)
2
+ 2E(Y (X)) ((X)
Y
)
= E(Y (X))
2
+V ar ((X)) + 2E(Y (X)) ((X)
Y
)
40
Pernyataan ke dua akan terbukti jika 2E(Y (X)) ((X)
Y
) = 0. Karena
f
X,Y
(x, y) = f
X
(x)f
Y |X
(y | x), maka diperoleh
E(Y (X)) ((X)
Y
) =
_

(y (x))((x)
Y
)f
X,Y
(x, y)dydx
=
_

((x)
Y
)
__

(y (x))f
Y |X
(y | x)dy
_
f
X
(x)dx.
Tetapi
_

(y (x))f
Y |X
(y | x)dy =
_

yf
Y |X
(y | x)dy
_

(x)f
Y |X
(y | x)dy
=
_

yf
Y |X
(y | x)dy (x)
_

f
Y |X
(y | x)dy
= (x) (x) = 0.
Selanjutnya karena E(Y (X))
2
0, maka terbukti V ar((X)) V ar(Y ).
Catatan:
Jika P
(X,Y )
{(x, y) R
2
: y (x) = 0} = 0, maka kita peroleh ketaksamaan tegas
(engl. strick): V ar((X)) < V ar(Y ). Ini terjadi karena hal berikut
E(Y (X))
2
=
_

(y (x))
2
f
X,Y
(x, y)dxdy
=
_
{(x,y)R
2
:(y(x))
2
=0}
(y (x))
2
f
X,Y
(x, y)dxdy
+
_
{(x,y)R
2
:(y(x))
2
>0}
(y (x))
2
f
X,Y
(x, y)dxdy
= 0 +
_

1
{(x,y)R
2
:(y(x))
2
>0}
(y (x))
2
f
X,Y
(x, y)dxdy
> 0
_

f
X,Y
(x, y)dxdy = 0,
dimana untuk suatu A R
2
, 1
A
adalah indikator untuk A yang didenisikan sebagai
1
A
(x, y) :=
_
1; jika (x, y) A
0; jika (x, y) A
41
Contoh 3.1.7. Misalkan X N(
1
,
2
1
) dan Y N(
2
,
2
2
), Cor(X, Y ) = . Maka,
E(Y | X = x) =
_

y
f
X,Y
(x, y;
1
,
2
,
2
1
,
2
2
)
f
X
(x;
1
,
2
1
)
dy
=
2
+

1
(x
1
) =: (x),
(lihat Hogg dan Craig, 1978, hal. 117-118). Sehingga kita peroleh
E((X)) = E
_

2
+

1
(X
1
)
_
=
2
.
Jadi hasil ini sesui dengan pernyataan pertama dari teorema Rao-Blackwell. Tetapi
(X) bukan merupakan statistik, karena dia bergantung pada lima parameter yang
tidak diketahui. Selanjutnya
V ar((X)) = E
_

2
+

1
(X
1
)
2
_
2
= E
_

1
(X
1
)
_
2
=
2

2
2

2
1

2
1
=
2

2
2
.
Karena 1 < < 1, yang berakibat
2
< 1, maka V ar((X)) <
2
2
. Jadi hasil ini
sesuai dengan pernyataan kedua dari teorema Rao-Blackwell bahkan dengan ketak-
samaan tegas.
Kita selanjutnya akan membahas aplikasi dari teorema Rao-Blackwell pada konsep
statistik cukup dan konsep pemilihan estimator titik dengan variansi minimum.
Teorema 3.1.8. Misalkan X
1
, . . . , X
n
merupakan sampel random dari suatu populasi
X dengan fungsi densitas f
X
(; ), . Misalkan Y
1
:= u
1
(X
1
, . . . , X
n
) merupakan
statistik cukup untuk dan Y
2
:= u
2
(X
1
, . . . , X
n
) merupakan estimator tak bias un-
tuk , tetapi Y
2
merupakan fungsi bukan hanya dari Y
1
saja. Selanjutnya misalkan
(y
1
) := E(Y
2
| Y
1
= y
1
), y
1
R. Maka berlaku:
42
1. (Y
1
) merupakan statistik.
2. (Y
1
) merupakan estimator tak bias untuk .
3. V ar((Y
1
)) V ar(Y
2
).
Proof. Teorema ini merupakan akibat langsung dari teorema Rao-Blackwell. Karena
Y
2
merupakan statistik cukup untuk , maka
f
Y
2
|Y
1
(y
2
| y
1
) =
f
Y
1
,Y
2
(y
1
, y
2
; )
f
Y
2
(y
2
; )
tidak bergantung pada . Ini berakibat
(y
1
) := E(Y
2
| Y
1
= y
1
) =
_

y
2
f
Y
1
,Y
2
(y
1
, y
2
; )
f
Y
2
(y
2
; )
dy
2
tidak bergantung pada . Jadi (Y
1
) adalah statistik. Lebih lanjut, dari teorema
Rao-Blackwell diperoleh pernyataan kedua dan ketiga.
Catatan:
Teorema 3.1.8 merupakan alat bantu dalam memperoleh suatu estimator tak bias
dengan variansi minimum untuk suatu parameter. Jika kita diberikan suatu statistik
cukup untuk parameter , misalkan Y
1
dan misalkan diketahui Y
2
merupakan suatu
quantitas (merupakan fungsi bukan hanya dari Y
1
) yang tak bias terhadap , maka
kita selalu bisa mendenisikan suatu statistik (Y
1
) sebagai estimator tak bias untuk
dengan variansi yang lebih kecil dari V ar(Y
2
).
3.2 Keluarga lengkap
Denisi 3.2.1. Misalkan P
X
merupakan suatu ukuran probabilitas pada R yang di
induce oleh variabel random X. Suatu sifat(pernyataan) p dikatakan dipenuhi P
X
-
hampir pasti, ditulis P
X
-h.p., jika terdapat suatu himpunan N R dengan P
X
(N) = 0
43
sedemikian hingga jika x N
c
, maka berlaku p.
Denisi 3.2.2. Misalkan X merupakan variabel random kontinu atau diskrit dengan
fungsi densitas didalam keluarga P
X

:= {f
X
(; ); }. Keluarga P
X

dikatakan
keluarga lengkap jika dipenuhi: E(u(X)) = 0, berakibat u(x) = 0, P
X
-h.p.
Contoh 3.2.3. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi berdis-
tribusi POIS(), > 0. Maka Y
1
:=

n
i=1
X
i
POIS(n), > 0 dengan fungsi
densitas
f
Y
1
(y
1
; ) =
(n)
y
1
e
n
y
1
!
, y
1
{0, 1, 2, . . .}.
Selanjutnya karena e
n
> 0, > 0, berlaku
E(u(Y
1
)) = 0, > 0

y
1
=0
u(y
1
)(n)
y
1
y
1
!
= 0, > 0

u(y
1
)(n)
y
1
y
1
!
= 0, y
1
{0, 1, 2, . . .}
u(y
1
) = 0, y
1
{0, 1, 2, . . .}.
Jadi terdapat N := sedemikian hingga u(y
1
) = 0, jika y
1
N
c
= {0, 1, 2, . . .}.
Dengan kata lain keluarga Poisson adalah keluarga lengkap.
Contoh 3.2.4. Misalkan fungsi densitas dari Z merupakan anggota dari keluarga
Exp(), > 0, dengan f
Z
(z; ) =
1

e
z/
, z > 0 dan > 0. Jika E(u(Z)) = 0,
> 0, maka
1

_

0
u(z)e
z/
dz = 0, > 0
_

0
u(z)e
z/
dz = 0, > 0
u(z) = 0, P
Z
h.p.
Kesimpulan ini bisa diambil karena integral yang terakhir adalah transformasi Laplace
dari u(z) kesuatu fungsi dari dengan hasil transformasi identik dengan fungsi nol.
Fungsi yang memenuhi sifat tersebut pastilah fungsi nol sendiri.
44
Teorema 3.2.5. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi X
dengan fungsi densitas f
X
(; ), . Misalkan Y
1
:= u
1
(X
1
, . . . , X
n
) meru-
pakan statistik cukup untuk dengan fungsi densitas merupakan anggota dari keluarga
lengkap {f
Y
1
(; ); }. Jika terdapat suatu fungsi dari Y
1
yang merupakan estima-
tor tak bias untuk , untuk setiap , maka fungsi tersebut tunggal P
Y
1
-h.p. dan
fungsi ini merupakan estimator dengan variansi terkecil.
Proof. Misalkan Y
2
merupakan suatu quantitas yang tak bias terhadap , maka menu-
rut Teorema 3.1.8, terdapat sekurang-kurangnya satu fungsi dari Y
1
, yaitu (Y
1
) den-
gan E((Y
1
)) = , . Andaikan terdapat fungsi lain, misalkan (Y
1
) dengan
sifat E((Y
1
)) = , , maka E((Y
1
) (Y
1
)) = 0, . Karena fungsi den-
sitas dari Y
1
termasuk keluarga lengkap, ini berakibat terdapat (, 0] =: N R
dengan P
Y
1
(N) = 0 sedemikian hingga (y
1
) = (y
1
), y
1
N
c
:= (0, ). Jadi
= P
Y
1
-h.p. Menurut teorema Rao-Blackwell, (Y
1
) mempunyai variansi terkecil
diantara semua estimator tak bias untuk .
3.3 Keluarga eksponensial
Denisi 3.3.1. Milsakan P

:= {f(; ); } merupakan keluarga fungsi densi-


tas, dimana adalah suatu interval, misalkan sebagai < < dengan dan
merupakan konstanta-konstanta yang diketahui. Misalkan fungsi densitas ini dapat
dituliskan sebagai
f(x; ) = exp{p()K(x) + S(x) +q()}, x A
dimana A := {x R; f(x; ) > 0}. Maka P

adalah keluarga eksponensial


reguler tipe kontinu, jika dipenuhi:
45
1. A tidak bergantung pada , < < .
2. p() merupakan fungsi nontrivial dan kontinu pada < < .
3. dK(x)/dx = 0 dan kontinu pada A.
4. S(x) merupakan fungsi kontinu pada A.
Selanjutnya P

dikatakan keluarga eksponensial reguler tipe diskrit jika dipenuhi


kondisi-kondisi berikut:
1. A tidak bergantung pada , < < .
2. p() merupakan fungsi nontrivial dan kontinu pada < < .
3. K(x) kontinu pada A.
Catatan:
Jika X
1
, . . . , X
n
merupakan sampel random dari populasi dengan fungsi densitas dari
keluarga {f(; ) : < < } yang merupakan keluarga exsponensial reguler (kontinu
atau diskrit), maka fungsi densitas bersama dari X
1
, . . . , X
n
adalah
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) = exp
_
p()
n

i=1
K(x
i
) +
n

i=1
S(x
i
) +nq()
_
Contoh 3.3.2. Keluarga {N(0, ) : > 0} adalah keluarga eksponensial reguler tipe
kontinu, karena fungsi densitasnya dapat dituliskan sebagai
f(x; ) =
1

2
exp
_

x
2
2
_
, 0 < <
= exp
_

x
2
2

1
2
ln(2)
_
.
Selanjutnya misalkan p() := 1/, K(x) := x
2
, S(x) := 0 dan q() := ln(2)/2.
Maka kondisi 1-4 diatas dipenuhi.
46
Teorema 3.3.3. Jika X
1
, . . . , X
n
merupakan sampel random dari populasi dengan
fungsi densitas dari keluarga {f(; ) : < < } yang merupakan keluarga exspo-
nensial reguler (kontinu atau diskrit). Maka Y
1
:=

n
i=1
K(X
i
) merupakan statistik
cukup untuk dan keluarga {f
Y
1
(; ) : < < } merupakan keluarga lengkap.
Selanjutnya Y
1
disebut statistik cukup dan lengkap.
Contoh 3.3.4. Pada Contoh 3.3.2, Y
1
=

n
i=1
X
2
i
merupakan statistik cukup dan
lengkap untuk . Misalkan (Y
1
) := Y
1
/n, maka E((Y
1
)) = . Jadi Y
1
/n juga
statistik cukup dan lengkap. Lebih jauh, Y
1
merupakan estimator tak bias dengan
variansi minimum dengan tunggal P
Y
1
-h.p.
Contoh 3.3.5. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi POIS(),
> 0. Karena f(x; ) = exp{ln x + ln(x!) }, jadi POIS(), > 0 merupakan
keluarga eksponensial reguler diskrit, sehingga
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ) = exp
_
ln
n

i=1
x
i
+
n

i=1
ln(x
i
!) n
_
.
Menurut Teorema 3.3.3, Y
1
:=

n
i=1
X
i
merupakan statistik cukup dan lengkap untuk
. Selanjutnya Y
1
/n =

X juga merupakan statistik cukup dan lengkap untuk dengan
E(Y
1
/n) = , > 0. Jadi

X merupakan estimator tak bias terbaik untuk .
3.4 Soal-soal
Chapter 4
Estimasi interval
Pada Chapter 2 dan Chapter 3 telah dibahas beberapa metode menentukan estimasi
titik untuk suatu parameter, misalnya , serta keriteria-keriteria untuk memilih es-
timator terbaik untuk . Tetapi estimator titik tidak memberikan informasi tentang
akurasi. Salah satu penyelesaian terhadap masalah ini adalah dengan merumuskan su-
atu interval random, yaitu interval untuk yang batas-batasnya merupakan statistik.
Ineterval ini dikonstruksikan dengan cara sedemikian, sehingga peluangnya sebesar
mungkin.
Misalkan X
1
, . . . , X
n
merupakan n variabel random dengan fungsi densitas bersama
f
X
1
,...,X
n
(x
1
, . . . , x
n
; ), R. Misalkan
L
, dan
U
merupakan statistik dengan

L
:= (X
1
, . . . , X
n
) dan
U
:= u(X
1
, . . . , X
n
). Jika (x
1
, . . . , x
n
) merupakan realisasi
dari X
1
, . . . , X
n
, maka (x
1
, . . . , x
n
) dan u(x
1
, . . . , x
n
) merupakan nilai-nilai teramati
dari
L
dan
U
.
Denisi 4.0.1. Untuk suatu (0, 1), jika
P{(X
1
, . . . , X
n
) < < u(X
1
, . . . , X
n
)} = , ,
47
48
maka interval ((x
1
, . . . , x
n
), u(x
1
, . . . , x
n
)) disebut interval kepercayaan dua sisi 100%
untuk . Selanjutnya nilai-nilai teramati (x
1
, . . . , x
n
) disebut batas bawah, sedangkan
u(x
1
, . . . , x
n
) disebut batas atas.
Catatan:
1. Batas-batas dari interval random (
L
,
U
) haruslah merupakan statistik, se-
hingga nilai-nilainya untuk setiap pengamatan dapat ditentukan. Selanjutnya
interval random (
L
,
U
) disebut estimator interval untuk . Sedangkan interval
yang batas-batasnya merupakan bilangan (x
1
, . . . , x
n
) dan u(x
1
, . . . , x
n
) dise-
but estimasi interval untuk .
2. Bentuk interval tidak selamanya terbuka, tetapi bisa juga interval tertutup
sesuai dengan jenis variabelnya apakah kontinu atau diskrit.
Denisi 4.0.2. Interval ((x
1
, . . . , x
n
), ) disebut batas kepercayaan bawah 100%
untuk , jika P{(X
1
, . . . , X
n
) < } = , . Sedangkan (, u(x
1
, . . . , x
n
))
disebut batas kepercayaan atas 100% untuk , jika P{ < u(X
1
, . . . , X
n
)} = ,
.
Contoh 4.0.3. Misalkan daya tahan bola lampu yang diproduksi oleh pabrik A dia-
sumsikan berdistribusi Exp(), > 0. Andaikan kita ingin mengkonstruksikan inter-
val kepercayaan 95% untuk , > 0. Untuk menyelesaiakn masalah ini, kita ambil
sampel random X
1
, . . . , X
n
dari populasi Exp(). Jelaslah

X merupakan statistik
cukup dan merupakan UMVUE untuk , > 0. Karena 2n

X/ berdistribusi
2
(2n),
secara umum kita pilih konstanta
1
dan
2
, 0 <
1
,
2
< 1 dengan
1
+
2
=
(0, 1), sedemikian hingga P
_

1
(2n) < 2n

X/ <
2
1
2
(2n)
_
= 1 (
2
+
1
) =
49
1 =: , dimana
2

(2n) adalah kuantil ke dari distribusi chi-square dengan dera-


jat bebas 2n (lihat Chapter 1). Biasanya dipilih
1
=
2
= /2. Jika dipilih = 0, 05
atau /2 = 0, 025, maka P
_

2
0,025
(2n) < 2n

X/ <
2
0,975
(2n)
_
= 0, 95. Karena
_

2
0,025
(2n) < 2n

X/ <
2
0,975
(2n)
_
dan
_
2n

X/
2
0,975
(2n) < < 2n

X/
2
0,025
(2n)
_
me-
rupakan dua kejadian yang ekuivalen, maka interval
_
2n x/
2
0,975
(2n), 2n x/
2
0,025
(2n)
_
merupakan interval kepercayaan dua sisi 95% untuk . Andaikan dari suatu penga-
matan dengan n = 40 diperoleh data dengan x = 93, 1, maka interval dengan batas
bawah 69, 9 dan batas atas 130, 3 disebut sebagai suatu interval kepercayaan 95% un-
tuk . Selanjutnya karena P
_
2n

X/ <
2
0,95
(2n)
_
= 0.95, maka
_
2n

X/
2
0,95
(2n),
_
adalah batas bawah 95% untuk . Sedangkan interval
_
, 2n

X/
2
0,05
(2n)
_
adalah
batas atas 95% untuk . Nilai-nilai untuk
2
0,05
(2n) maupun
2
0,975
(2n) dapat dili-
hat pada tabel distribusi chi-square yang tesedia pada buku-buku teks standard, atau
dihitung dengan komputer.
Terhadap interval (69, 9; 130, 3) yang diberikan pada contoh di atas tidak dapat
diambil kesimpulan bahwa nilai yang sebenarnya terletak pada interval ini. Nilai
yang sebenarnya mungkin tidak terletak pada interval ini. Interpretasi yang paling
tepat adalah dengan frekuensi relatif. Misalkan m menyatakan banyaknya trial yang
dilakukan. Jika m , persentase dari interval
_
2n x/
2
0,975
(2n), 2n x/
2
0,025
(2n)
_
memuat nilai yang sebenarnya akan mendekati 95%. Selanjutnya, karena popu-
lasinya berdistribusi kontinu, maka interval terbuka dan tertutup keduanya meru-
pakan interval kepercayaan dua sisi 95% untuk .
Contoh 4.0.4. Misalkan X
1
, . . . , X
n
merupakan sampel random dari N(,
2
), den-
gan < < tidak diketahui, sedangkan 0 <
2
< diasumsikan diketahui.
50
Jika z

merupakan kuantil ke (0, 1) dari distribusi N(0, 1), maka


1 =P
_
z
/2
<

n(

X )/ < z
1/2
_
=P
_

X z
1/2
/

n < <

X z
/2
/

n
_
.
Jadi interval
_
x z
1/2
/

n, x z
/2
/

n
_
adalah interval kepercayaan dua sisi
100(1 )% untuk , atau
_
x z
1/2
/

n, x z
/2
/

.
Pada kasus ini kita mengasumsikan
2
diketahui agar batas-batas intervalnya
dapat dihitung. Jika
2
tidak diketahui, maka ujung-ujung interval tidak dapat
dihitung. Parameter seperti ini disebut juga parameter pengganggu (nuisance pa-
rameter). Permasalahan yang dihadapi dalam mengkonstruksi interval kepercayaan
adalah kehadiran parameter pengganggu. Masalah ini bisa diatasi dengan melakukan
modokasi seperti terangkum pada beberapa sub bab berikut.
Prinsip dasar dalam mengkonstruksikan interval kepercayaan untuk suatu param-
eter adalah bahwa kita harus dapat menentukan suatu kuantitas yang hanya bergan-
tung pada sampel dan , tetapi distribusi probabilitasnya tidak bergantung pada
dan parameter-parameter lain yang tidak diketahui. Seperti pada Contoh 4.0.3, kuan-
titas

X/ berdistribusi GAM(1/n, n) yang tidak bergantung pada , tetapi karena
kuantil dari GAM(1/n, n) tidak tersedia pada tabel, kita lakukan sedikit modikasi
dengan mendenisikan quantitas 2n

X/ yang diketahui berdistribusi
2
(2n) yang
tidak bergantung pada dan kuntil-kuantilnya tersedia pada tabel.
4.1 Metode kuantitas pivot (pivotal quantity)
Denisi 4.1.1. Misalkan : R merupakan fungsi yang terdenisi pada ru-
ang sampel R
n
dengan (X
1
, . . . , X
n
; ) merupakan fungsi hanya dari sampel
51
X
1
. . . , X
n
dan . Jika distribusi probabilitas dari (X
1
, . . . , X
n
; ) tidak bergan-
tung pada dan parameter lainnya yang tidak diketahui, maka (X
1
, . . . , X
n
; ) dise-
but quantitas pivot untuk .
Catatan:
Jika q
/2
dan q
1/2
merupakan kuantil-kuantil ke /2 dan (1 /2) dari quantitas
pivot (X
1
, . . . , X
n
; ), maka P
_
q
/2
< (X
1
, . . . , X
n
; ) < q
1/2
_
= 1 . Ini be-
rarti
_
: q
/2
< (X
1
, . . . , X
n
; ) < q
1/2
_
merupakan interval kepercayaan dua
sisi 100 (1 )% untuk . Untuk setiap titik (x
1
, . . . , x
n
) , didenisikan fungsi

(x
1
,...,x
n
)
: R, dengan
(x
1
,...,x
n
)
() := (x
1
, . . . , x
n
; ). Jika
(x
1
,...,x
n
)
merupakan
fungsi monoton naik untuk setiap (x
1
, . . . , x
n
) , maka interval kepercayaan dua
sisi 100 (1 )% untuk adalah
_

1
(x
1
,...,x
n
)
(q
/2
),
1
(x
1
,...,x
n
)
(q
1/2
)
_
. Sebaliknya,
jika
(x
1
,...,x
n
)
merupakan fungsi monoton turun untuk setiap (x
1
, . . . , x
n
) , maka
interval kepercayaan dua sisi 100(1 )% untuk adalah
_

1
(x
1
,...,x
n
)
(q
1/2
),
1
(x
1
,...,x
n
)
(q
/2
)
_
.
Denisi 4.1.2. Misalkan X merupakan populasi dengan fungsi densitas f(x; ),
R. Jika terdapat suatu fungsi non negatif f
o
sedemikian hingga f(x; ) = f
0
(x
), , maka disebut parameter lokasi. Jika f(x; ) =
1

f
0
(
x

), , maka
disebut parameter skala. Untuk kasus dua parameter
1
dan
2
, jika f(x;
1
,
2
) =
1

2
f
0
(
x
1

2
),
1
,
2
maka
1
dan
2
disebut parameter lokasi-skala.
Teorema 4.1.3. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi den-
gan fungsi densitas f
X
(; ), . Andaikan MLE untuk , yaitu

ada.
1. Jika merupakan parameter lokasi, maka (

) merupakan kuantitas pivot


untuk , .
52
2. Jika merupakan parameter skala, maka

/ merupakan kuantitas pivot untuk
, .
Contoh 4.1.4. Kembali ke Contoh 4.0.4, jika
2
diasumsikan diketahui, maka

X
merupakan kuantitas pivot untuk , dimana (

X ) N(0,
2
/n). Pada kasus ini

X merupakan statistik cukup dan tak bias untuk . Jadi



X dapat digunakan
untuk mengkonstruksi interval kepercayaan untuk . Selanjutnya, jika diasumsikan

2
tidak diketahui, maka
2
/
2
adalah kuantitas pivot untuk
2
, dengan n
2
/
2
=
(n1)S
2
/
2

2
(n1) (lihat Teorema 1.3.11). Dalam hal ini
2
adalah MLE untuk

2
(lihat Contoh 2.2.4). Jadi
2
/
2
bisa digunaka untuk mengkonstruksikan interval
kepercayaan dua sisi 100(1 )% untuk
2
, yaitu
_
(n 1)s
2

2
1/2
(n 1)
,
(n 1)s
2

2
/2
(n 1)
_
, s
2
:=
n

i=1
(x
i
x)/(n 1).
Teorema 4.1.5. Misalkan X
1
, . . . , X
n
merupakan sampel random dari suatu popu-
lasi dengan parameter lokasi-skala
1
dan
2
. Jika MLE

1
dan

2
ada, maka

2
merupakan kuantitas pivot untuk
1
dan

2
merupakan kuantitas pivot untuk
2
.
Contoh 4.1.6. Pada kasus X
i
N(,
2
), < < dan 0 <
2
< , dengan
dan
2
tidak diketahui. Dapat ditunjukkan, dan
2
merupakan parameter lokasi-
skala, karena itu

X

2
merupakan kuantitas pivot untuk . Jadi dalam kasus dimana

2
tidak diketahui (
2
sebagai parameter pengganggu), interval kepercayaan untuk
dapat diturunkan dari kuantitas pivot ini. Dengan sedikit modikasi, yaitu

X
_

2
/(n 1)
=
(

X )/(/

n)
_
n
2
/
2
(n 1)
=
(

X )/(/

n)
_
S
2
/
2
=
N(0, 1)
_

2
(n 1)/(n 1)
t(n 1).
53
Jadi interval kepercayaan dua sisi 100(1 )% untuk adalah
_
x t
1/2
s

n
, x +t
1/2
s

n
_
Catatan:
Misalkan ((x
1
, . . . , x
n
), u(x
1
, . . . , x
n
)) merupakan interval epercayaan dua sisi 100
(1 )% untuk . Jika : R merupakan fungsi monoton naik, maka interval
kepercayaan dua sisi 100(1 )% untuk () adalah
(((x
1
, . . . , x
n
)), (u(x
1
, . . . , x
n
))).
Sebaliknya, jika monoton turun, maka interval kepercayaan dua sisi 100(1 )%
untuk () adalah ((u(x
1
, . . . , x
n
)), ((x
1
, . . . , x
n
))).
Contoh 4.1.7. Kembali pada Contoh 4.0.3. Interval kepercayaan dua sisi 100(1)%
untuk P{X > t} = exp{t/}, t > 0 adalah
_
exp
_

2
0,975
(2n)
2n x
_
< exp{t/} < exp
_

2
0,025
(2n)
2n x
__
.
Dari sampel random X
1
, . . . , X
n
yang diambil dari suatu populasi dengan fungsi
distribusi kumulatif (cdf: cumulative distribution function) kontinu dengan parameter
R pasti dapat ditemukan sekurang-kurangnya satu kuantitas pivot. Misalkan
CDF dari X
i
dinyatakan sebagai F
X
i
(x; ), maka F
X
i
(X
i
; ) UNIF(0, 1). Misalkan
Y
i
:= ln F
X
i
(X
i
; ), maka Y
i
Exp(1), sehingga 2n

Y = 2

n
i=1
ln F
X
i
(X
i
; )

2
(2n). Jadi P
_
:
2
/2
(2n) < 2

n
i=1
ln F
X
i
(X
i
; ) <
2
1/2
(2n)
_
= 1 ,
sehingga interval kepercayaan dua sisi 100(1 )% untuk secara umum diberikan
oleh himpunan berikut
_
:
2
/2
(2n) < 2
n

i=1
ln F
X
i
(x
i
; ) <
2
1/2
(2n)
_
. (4.1.1)
54
Jika (4.1.1) tidak dapat disederhanakan secara analitis, cara alternatif adalah dengan
penyelesaian secara numerik. Cara lain adalah dengan penyederhanaan lebih lanjut,
yaitu 1 F
X
i
(X
i
; ) UNIF(0, 1), sehingga 2

n
i=1
ln(1 F
X
i
(X
i
; ))
2
(2n).
Contoh 4.1.8. Misalkan X
i
PAR(1, ), maka F
X
i
(X
i
; ) = 1 (1 + X
i
)

.
Dengan menerapkan cara yang terkhir, kita peroleh 2

n
i=1
ln(1 F
X
i
(X
i
; )) =
2

n
i=1
ln(1 + X
i
)
2
(2n), Jadi interval kepercayaan dua sisi 100(1 )% untuk
adalah
_

2
/2
(2n)
2

n
i=1
ln(1 +X
i
)
,

2
1/2
(2n)
2

n
i=1
ln(1 +X
i
)
_
.
4.1.1 Membandingkan dua populasi normal
Misalkan seorang peneliti ingin menyelidiki dan membandingkan efektivitas dari dua
metode pembelajaran matematika yang ada. Suatu percobaan dilakukan dengan
menerapkan metode I terhadap klas A dan metode II terhadap klas B. Kedua klas
dianggap mempunyai kemampuan yang seimbang pada bidang matematika. Pada
akhir semester diselenggarakan tes pada kedua kelas secara serentak dengan soal-soal
yang sama, selanjutnya nilai-nilai test dicatat secara bebas satu sama lain. Jika nilai
test dianggap berdistribusi N(,
2
), < < , 0 <
2
< , maka hasil penga-
matan dapat dianggap sebagai realisasi dari dua sampel random yang yang saling
bebas X
1
, . . . , X
n
A
dari populasi N(
A
,
2
A
) dan Y
1
, . . . , Y
n
B
dari populasi N(
B
,
2
B
),
dimana n
A
dan n
B
masing-masing menyatakan banyaknya nilai yang dicatat pada
klas A dan klas B,
A
dan
B
masing-masing menyatakan mean dari populasi nilai
pada klas A dan klas B, sedangkan
2
A
dan
2
B
masing-masing menyatakan variansi
dari populasi nilai pada klas A dan klas B.
55
4.1.1.1 Membandingkan
2
A
dan
2
B
Perbedaan efektivitas yang signikan antara kedua metode pembelajaran dapat dili-
hat dari rasio . Jika interval kepercayaan dua sisi 100(1 )% untuk
2
A
/
2
B
memuat
1, maka kita boleh yakin dengan peluang 1 bahwa
2
A
=
2
B
. Sebaliknya, jika
interval kepercayaan dua sisi 100(1 )% untuk
2
A
/
2
B
tidak memuat 1, maka kita
yakin 100(1 )% bahwa
2
A
=
2
B
. Selanjutnya, karena S
2
A

2
B
/S
2
B

2
A
merupakan
kuantitas pivot yang berdistribusi F(n
A
1, n
B
1) (lihat Contoh 1.3.17), maka
interval kepercayaan dua sisi 100(1 )% untuk
2
A
/
2
B
adalah
_
s
2
B
s
2
A
F
/2
(n
A
1, n
B
1),
s
2
B
s
2
A
F
1/2
(n
A
1, n
B
1)
_
,
dimana
s
2
A
:=
1
n
A
1
n
A

i=1
(x
i
x)
2
dan s
2
B
:=
1
n
B
1
n
B

i=1
(y
i
y)
2
.
4.1.1.2 Membandingkan
A
dan
B
Perbedaan efektivitas antara metode I dan metode II juga dapat dilihat dari selisih
antara
A
dan
B
. Jika
2
A
dan
2
B
diketahui, maka
(

X

Y ) (
A

B
)
_

2
A
n
A
+

2
B
n
B
N(0, 1)
merupakan kuantitas pivot untuk
A

B
. Jadi interval kepercayaan dua sisi 100(1
)% untuk
A

B
adalah
_
_
x y z
1/2

2
A
n
A
+

2
B
n
B
, x y z
/2

2
A
n
A
+

2
B
n
B
_
_
Dalam kasus
2
A
dan
2
B
tidak diketahui, kita bisa mengasumsikan
2
A
=
2
B
=:
2
untuk menyederhanakan permasalahan. Estimator tak bias untuk
2
adalah
S
2
p
:=
(n
A
1)S
2
A
+ (n
B
1)S
2
B
n
A
+n
B
2
.
56
Selanjutnya, karena
(n
A
+n
B
2)
S
2
p

2
= (n
A
1)
S
2
A

2
+ (n
B
1)
S
2
B

2

2
(n
A
+n
B
2),
maka
(

X

Y ) (
A

B
)
_
S
2
p
_
1
n
A
+
1
n
B
_
=
(

X

Y )(
A

B
)

1
n
A
+
1
n
B

_
S
2
p

2
t(n
A
+n
B
2).
Jadi interval kepercayaan dua sisi 100(1 )% untuk
A

B
adalah
_
( x y) t
1/2
(n
A
+n
B
2)

S
2
p
_
1
n
A
+
1
n
B
_
,
( x y) t
/2
(n
A
+n
B
2)

S
2
p
_
1
n
A
+
1
n
B
_
_
.
4.1.1.3 Sampel berpasangan
Untuk dapat menarik kesimpulan bahwa suatu obat baru dapat menurunkan suhu
badan, n pasien diukur suhu badannya 15 menit sebelum dan 15 menit sesudah
minum obat tersebut. Misalkan suhu badan pasien ke i sebelum minum obat adalah
X
i
dan sesudah minum obat adalah Y
i
, i = 1, . . . , n. Misalkan D
i
:= X
i
Y
i

N(
1

2
,
2
1
+
2
2
2
12
), dimana
1
:= E(X
i
),
2
:= E(Y
i
),
2
1
:= V ar(X
i
),

2
2
:= V ar(Y
i
) dan
12
:= Cov(X
i
, Y
i
), maka
(n 1)
S
2
D

2
1
+
2
2
2
12

2
(n 1),
dimana S
2
D
:=

n
i=1
(D
i


D)/(n 1), E(S
2
D
) =
2
1
+
2
2
2
12
,

D :=

n
i=1
D
i
/n. Ini
berakibat

D (
1

2
)
_
S
2
D
n
t(n 1).
57
Jadi interval kepercayaan dua sisi 100(1 )% untuk
1

2
adalah
_

d t
1/2
(n 1)
_
S
2
D
n
,

d t
/2
(n 1)
_
S
2
D
n
_
.
4.2 Metode umum
Pada dasarnya interval kepercayaan untuk parameter selalu dapat dikonstruk-
sikan meskipun kuantitas pivot untuk tidak tersedia asalkan ada suatu statistik
yang distribusinya bergantung hanya pada . Secara umum misalkan X
1
, . . . , X
n
mempunyai fungsi densitas bersama f
X
1
,...,X
n
(; ) dan misalkan S : w(X
1
, . . . , X
n
)
merupakan statistik dengan fungsi densitas f
S
(; ) dan fungsi distribusi kumulatif
F
S
(; ), dengan F
S
(s; ) =
_
s

f
S
(t; ) dt. Selanjutnya misalkan h
1
, h
2
: R
merupakan fungsi-fungsi sedemikian hingga
P{h
1
() < S < h
2
()} = 1 , (0, 1).
Jika s merupakan suatu nilai pengamatan dari S, maka { : h
1
() < s < h
2
()}
merupakan daerah kepercayaan 100(1)% untuk . Kita sebut himpunan ini daerah
kepercayaan karena belum tentu merupakan interval pada R.
4.2.1 Kasus h
1
dan h
2
monoton naik
Jika h
1
dan h
2
merupakan fungsi monoton naik dari , maka berlaku
{ : h
1
() < s < h
2
()} =
_
: < h
1
1
(s)
_

_
: h
1
2
(s) <
_
Jika
U
dan
L
merupakan penyelesaian dari persamaan h
1
(
U
) = s dan h
2
(
L
) =
s, maka { : h
1
() < s < h
2
()} = { :
L
< <
U
}. Jadi interval keper-
cayaan dua sisi 100(1 )% untuk adalah (
L
,
U
). Untuk menentukan h
1
dan h
2
58
kita mulai dari persamaan P{h
1
() < S < h
2
()} = 1 . Salah satu kemungkinan
yang dipenuhi oleh h
1
dan h
2
adalah
F
S
(h
2
(); ) = 1 /2 dan F
S
(h
1
(); ) = /2, (0, 1).
Contoh 4.2.1. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi dengan
fungsi densitas
f(x; ) =
_

_
(1/
2
) exp{(x )/
2
} ; x
0 ; x <
Misalkan kita akan mengkonstruksikan interval kepercayaan dua sisi 90% untuk .
Ambil S = X
1:n
:= min{X
1
, . . . , X
n
}, maka untuk x ,
P{S x} =1 P{min{X
1
, . . . , X
n
} > x}
=1 P{X
i
> x, i = 1, . . . , n}
=1
n
i=1
P{X
i
> x}
=1
n
i=1
(1 P{X
i
x})
=1
n
i=1
_
1
_
x

(1/
2
) exp{(t )/
2
} dt
_
Dengan substitusi u = (t )/
2
, diperoleh P{X
i
x} = 1 exp{(x )/
2
}.
Jadi
F
S
(x; ) =
_

_
1 exp{n(x )/
2
} ; x
0 ; x <
.
Fungsi-fungsi h
1
dan h
2
dipilih dengan menyelesaiakn persamaan
F
S
(h
1
(); ) = 0, 05 1 exp{n(h
1
() )/
2
} = 0, 05
F
S
(h
2
(); ) = 0, 95 1 exp{n(h
2
() )/
2
} = 0, 95,
59
yang menghasilkan penyelesaian
h
1
() = ln(0, 95)
2
/n + 0, 0513
2
/n
h
2
() = ln(0, 05)
2
/n + 2, 996
2
/n.
Dapat disimpulkan bahwa h
1
dan h
2
merupakan fungsi monoton naik. Misalkan dari
suatu pengamatan diperoleh s = 2, 50, maka dari persamaan h
1
(
U
) = 2, 50 dan
h
2
(
L
) = 2, 50, diperoleh
U
= 2, 469 dan
L
= 1, 667. Jadi interval kepercayaan dua
sisi 90% untuk adalah (1, 667; 2, 469).
Catatan:
Meskipun secara matematik S tidak disyaratkan merupakan statistik cukup ataupun
MLE untuk , tetapi dianjurkan S yang dipilih sebaiknya merupakan statistik cukup
atau MLE untuk .
4.2.2 Kasus h
1
dan h
2
monoton turun
Jika h
1
an h
2
merupakan fungsi-fungsi yang monoton turun terhadap , maka
untuk setiap hasil pengamatan s berlaku
{ : h
1
() < s < h
2
()} =
_
: h
1
1
(s) <
_

_
: < h
1
2
(s)
_
=
_
: h
1
1
(s) < < h
1
2
(s)
_
.
Jadi jika h
1
dan h
2
memenuhi F
S
(h
2
(); ) = 1 /2 dan F
S
(h
1
(); ) = /2, maka
interval
_
h
1
1
(s), h
1
2
(s)
_
merupakan interval kepercayaan dua sisi 100(1 )% untuk
. Misalkan
L
dan
U
merupakan penyelesaian dari persamaan h
1
(
L
) = s dan
h
2
(
U
) = s, maka interval (
L
,
U
) merupakan interval kepercayaan dua sisi 100(1
)% untuk .
60
4.3 Soal-soal
1. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi N(,
2
).
(a) Misalkan
2
= 9. Tentukan interval kepercayaan dua sisi 90% untuk ,
jika x = 19, 3 dan n = 16.
(b) Misalkan
2
tidak diketahui. Tentukan interval kepercayaan dua sisi 90%
untuk , jika x = 19, 3, s
2
= 10, 24 dan n = 16.
2. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi WEI(, 2)
(a) Tunjukan bahwa Q := 2

n
i=1
X
2
i
/
2

2
(2n).
(b) Gunakan Q untuk mengkonstruksikan interval kepercayaan dua sisi 100%
untuk .
(c) Konstruksikan interval kepercayaan dua sisi 100% untuk P{X > t}.
3. Misalkan X
1
, . . . , X
n
1
sampel random dari Exp(
1
) dan Y
1
, . . . , Y
n
2
sampel ran-
dom dari Exp(
2
) dimana kedua sampel saling bebas.
(a) Tunjukkan (
2
/
1
)(

X/

Y ) F(2n
1
, 2n
2
).
(b) Konstruksikan interval kepercayaan 100% untuk
2
/
1
.
4. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi dengan fungsi
distribusi kumulatif
F
X
i
(x; ) =
_
1 exp{(x )} ; x
0 ; x <
,
dengan > 0.
(a) Tentukan CDF F
S
(; ) untuk S := min{X
1
, . . . , X
n
}.
61
(b) Tentukan fungsi h() sedemikian hingga G(h(); ) = 1, dan tunjukkan
bahwa h bukan fungsi monoton.
(c) Tentukan penyelesaian dari persamaan h() = s.
5. Misalkan f(x; p) := pf
X
1
(x) + (1 p)f
X
2
(x), dimana X
1
N(1, 1) dan X
2

N(0, 1). Dengan berdasarkan pada sampel berukuran n = 1 diambil dari
f(x; p), konstruksikan interval kepercayaan dua sisi 100% untuk p. (Petun-
juk: gunakan transformasi integeral probabilitas!)
6. Diberikan dua sampel random yang saling bebas X
1
, . . . , X
n
1
dari N(
1
,
2
1
) dan
Y
1
, . . . , Y
n
2
dari N(
2
,
2
2
). Jika
1
dan
2
diasumsikan diketahui, konstruksikan
interval kepercayaan dua sisi 100(1 )% untuk
2
2
/
2
1
dengan menggunakan
statistik cukup.
Chapter 5
Uji hipotesis
Pengertian dan prosudur estimasi titik dan estimasi interval untuk parametr-parameter
suatu populasi telah dibahas pada Chapter 2 dan Chapter 4. Pada chapter ini kita
akan membahas metode inferensi yang lain yaitu uji hipotesis. Berbeda dengan esti-
masi titik atau interval, pada uji hipotesis pendugaan awal terhadap distribusi dari
populasi diberikan, selanjutnya berdasarkan sampel ditarik kesimpulan apakah pen-
dugaan awal tersebut ditolak atau diterima. Pada chapter ini pembicaraan akan
dibatasi pada kasus parametrik, yaitu fungsi densitas dari populasinya diidentikasi
oleh parameter-parameter yang tidak diketahui. Ruang sampel tetap kita nyatakan
dengan R
n
.
5.1 Pendahuluan
Denisi 5.1.1. Misalkan X f
X
(; ), R. Hipotesis statistik adalah
pernyataan tentang distribusi dari X. Dalam kasus parametrik ini hipotesis statistik
adalah pernyataan tentang .
62
63
Dalam uji hipotesis ruang parameter dibagi menjadi dua himpunan bagian
yang saling asing, yaitu
0
dan
1
:=
0
. Bersesuaian dengan
0
dan

1
, hipotesis statistik juga terdiri dari dua pernyataan yang saling berlawanan, yaitu
hipotesis nol (H
0
) yang menyatakan bahwa
0
dan hipotesis alternatif (H
1
) yang
menyatakan bahwa
1
. Biasanya kedua hipotesis ini dituliskan sebagai H
0
:

0
vs H
1
:
1
. Jika diberikan sampel yang diambil dari populasi f
X
(; ), ,
prosudur uji hipotesis harus mampu menetukan apakah H
0
ditolak atau diterima.
Karena itu kita membagi ruang sampel menjadi dua himpunan bagian yang saling
asing, yaitu C := {(x
1
, . . . , x
n
) : H
0
ditolak} dan C. Selanjutnya C disebut
daerah penolakan (daerah kritis), sedangkan C disebut daerah penerimaan.
Denisi 5.1.2. Suatu tes untuk hipotesis H
0
:
0
vs H
1
:
1
adalah suatu
fungsi : {0, 1}, sedemikian hingga (x
1
, . . . , x
n
) ,
(x
1
, . . . , x
n
) =
_

_
1 ; jika (x
1
, . . . , x
n
) C
0 ; jika (x
1
, . . . , x
n
) C
.
Jadi merupakan fungsi penolakan dari H
0
, dimana H
0
akan ditolak jika = 1 dan
tidak ditolak jika = 0. Selanjutnya berlaku E() = P(menolak H
0
)
Pada setiap eksperimen yang melibatkan pengamatan pasti ada kesalahan yang
berimbas pada proses pengambilan keputusan terhadap H
0
. Ada dua tipe kesalahan
yang dapat dilakukan dalam penolakan terhadap H
0
, yaitu
1. Kesalahan tipe I, yaitu kesalahan yang dilakukan karena menolak H
0
padahal
H
0
benar.
2. Kesalahan tipe II, yaitu kesalahan yang dilakukan karena tidak menolak H
0
padahal H
0
salah.
64
Probabilitas kedua kesalahan dinyatakan sebagai
P(kesalahan tipe I) = P(C |
0
) = E() di bawah H
0
,
P(kesalahan tipe II) = 1 P(C |
1
) = 1 E() di bawah H
1
.
Denisi 5.1.3. Fungsi power dari tes adalah suatu fungsi G

: [0, 1] yang
diberikan oleh G

() := P(C | ) = E() untuk . Selanjutnya, ukuran


(size) dari adalah sup

0
G

(). Untuk suatu bilangan (0, 1), tes dikatakan


tes dengan signikansi jika G

() ,
0
. Karena untuk setiap
0
,
G

() sup

0
G

(), maka setiap tes adalah tes dengan tingkat signikansi yang
diberikan oleh ukurannya.
Denisi 5.1.4. Suatu hipotesis yang berbentuk H
0
: =
0
vs H
1
: =
1
untuk
suatu
0
,
1
disebut hipotesis sederhana. Sedangkan hipotesis yang menyatakan
bahwa berada pada suatu interval disebut hipotesis komposit. Jadi hipotesis yang
berbentuk H
0
: <
1
vs H
1
:
1
untuk suatu
1
adalah hipotesis komposit.
Catatan:
Untuk hipotesis sederhana H
0
: =
1
vs H
1
: =
2
untuk
1
=
2
, berlaku
sup

0
G

() = max
{
0
}
G

() = G

(
0
). Maka adalah tes dengan ukuran yang
diberikan oleh G

(
0
). Jadi dalam kasus ini G

(
0
) juga dapat diambil sebagai tingkat
signikansinya.
5.1.1 Menentukan daerah kritik
Dari penjelasan di atas secara logika tes yang baik adalah tes yang meminimumkan
P(kesalahan tipe I) dan P(kesalahan tipe II) secara simultan. Akan tetapi karena
kedua kesalahan ini tidak dapat diminimumkan secara bersamaan (lihat Lehmann
65
dan Romano, 2005, hal. 57), prosudur terbaik yang dapat dilakukan adalah kita
memilih terlebih dahulu bilangan kecil , biasanya dipilih = 0, 01 atau = 0, 05
sebagai tingkat signikansi sedemikian hingga P(kesalahan tipe I) dan pada
sisi lain P(kesalahan tipe II) dibuat minimum. Karena P(kesalahan tipe II) = 1
G

(),
1
, jadi daerah kritik yang dipilih adalah daerah kritik yang memenuhi
P(kesalahan tipe I) sedemikian hingga power dibawah H
1
maksimum, yaitu
G

(),
1
maksimum.
Contoh 5.1.5. Ada atau tidaknya kandungan minyak bumi pada suatu daerah dapat
diperediksi dengan melihat kecepatan reaksi dari tanah dipermukaan daerah tersebut
dengan suatu zat A yang diasumsikan berdistribusi N(, 16). Dari pengalaman dike-
tahui bahwa = 10 jika tidak ada kandungan minyak dan = 11 jika sebaliknya.
Untuk dapat menarik kesimpulan ya atau tidak sebuah eksperimen dilakukan dengan
mengambil sampel random berukuran n = 25, yaitu X
1
, . . . , X
25
, dimana X
i
adalah
kecepatan reaksi diukur dalam ml/detik dan menguji hipotesis H
0
: = 10 =:
0
vs
H
1
: = 11 =:
1
. Karena

X merupakan statistik cukup dan MLE untuk , adalah
masuk akal untuk menduga sifat-sifat dari dengan sifat-sifat dari

X. Selanjutnya
karena
1
>
0
, nilai-nilai

X yang besar akan menunjukan bahwa sampel mendukung
H
1
, karena itu masuk akal jika daerah kritik didenisikan sebagai
C := {(x
1
, . . . , x
n
) : x k} =
_
:

X() k
_
,
dimana k adalah konstanta yang ditentukan kemudian. Kita denisikan tes :
{0, 1}, sedemikian hingga (x
1
, . . . , x
n
) ,
(x
1
, . . . , x
n
) =
_

_
1 ; jika x k
0 ; jika x < k
.
66
Karena hipotesisnya merupakan hipotesis sederhana, tes atau daerah kritik berukuran
= 0, 05 diturunkan dari persamaan
G

(
0
) = 0, 05
P
_

X k | =
0
= 10
_
= 0, 05
P
_

X
0
4/5

k
0
4/5
_
= 0, 05
P
_
Z
k
0
4/5
_
= 0, 05,
ini berakibat
k
0
4/5
= z
1
, atau k =
0
+ z
1
4/5 = 11, 316. Jadi daerah kritik
berukuran 0, 05 adalah
C ={(x
1
, . . . , x
n
) : x 11, 316}
=
_
(x
1
, . . . , x
n
) :
x 10
4/5
1, 645
_
.
Ini berarti tes berukuran 0, 05 akan menolak H
0
jika data yang diperoleh menunjukan
x 11, 316 atau
x10
4/5
1, 645. Sebaliknya jika data memberikan nilai sedemikian
hingga x < 11, 316 atau
x10
4/5
< 1, 645, maka H
0
tidak ditolak. Selanjutnya kita
selidiki power dari dibawah H
1
yang diberikan oleh
G

(
1
) =P
_

X
0
4/5
1, 645 | =
1
_
=P
_

X
1
4/5
1, 645 +

0

1
4/5
_
=P
_

X
1
4/5
1, 645 5/4
_
= 0, 346.
Mari kita bandingkan tes diatas dengan tes yang didenisikan sebagai berikut: :
{0, 1}, sedemikian hingga (x
1
, . . . , x
n
) ,
(x
1
, . . . , x
n
) =
_

_
1 ; jika 10 x 10.1006
0 ; jika x < 10 atau 10.1006 < x
67
untuk menguji hipotesis sederhana H
0
: = 10 =:
0
vs H
1
: = 11 =:
1
. Tes ini
juga merupakan tes dengan ukuran 0, 05, karena
G

(
0
) =P
_
10

X 10, 1006 | = 10
_
=P
_
0

X 10
4/5

0, 1006
4/5
_
= 0, 05.
Akan tetapi power dari di bawah H
1
adalah
G

(
1
) =P
_
10

X 10, 1006 | = 11
_
=P
_

X 10, 1006 | = 11
_
P
_

X 10 | = 11
_
=P
_

X
1
4/5
0, 12575 5/4
_
P
_

X
1
4/5
5/4
_
=0.130 0.106 = 0, 024.
Ini berarti power dari dibawah H
1
jauh lebih besar dibandingkan dengan power dari
dibawah H
1
. Dengan demikian diantara kedua tes tersebut, lebih powerful dari .
Contoh 5.1.6. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi N(,
2
),

2
diasumsikan tidak diketahui.
1. Tes berukuran untuk hipotesis H
0
:
0
vs H
1
: >
0
adalah menolak H
0
jika

n( x
0
)/s t
1
(n1). Sebaliknya H
0
tidak ditolak jika

n( x
0
)/s <
t
1
(n 1). Selanjutnya fungsi power di bawah H
1
adalah
G

() = P
_
n(

X
0
)
S
t
1
(n 1) | >
0
_
= P
_
n(

X +
0
)
S
t
1
(n 1)
_
= P
_
_
_

n(

X )/ +

n(
0
)/
_
(n1)S
2

2
/(n 1)
t
1
(n 1)
_
_
_
68
= P
_
Z +
_
V/
t
1
(n 1)
_
,
dimana :=

n(
0
)/ > 0, V := (n 1)S
2
/
2
, := n 1. Dalam hal
ini Z + /
_
V/ berdistribusi t students non central dengan derajat bebas
dan parameter non central . Jika = 0, maka power dibawah alternatif akan
mencapai ukuran dari tes tersebut, yaitu .
2. Tes berukuran untuk hipotesis H
0
:
0
vs H
1
: <
0
adalah menolak H
0
jika

n( x
0
)/s t

(n1). Sebaliknya H
0
tidak ditolak jika

n( x
0
)/s >
t

(n 1).
3. Tes berukuran untuk hipotesis H
0
: =
0
vs H
1
: =
0
adalah menolak
H
0
jika

n( x
0
)/s t
1/2
(n 1) atau

n( x
0
)/s t
1/2
(n 1).
Sebaliknya H
0
tidak ditolak jika t
1/2
<

n( x
0
)/s < t
1/2
(n 1).
5.1.2 Nilai p (p-value)
Untuk sembarang (0, 1), misalkan C

merupakan daerah kritik dari tes berukuran


untuk hipotesis H
0
:
0
vs H
1
:
1
berdasarkan sampel random X
1
, . . . , X
n
.
Secara umum C

akan mempunyai bentuk sebagai berikut:


C

:= {(x
1
, . . . , x
n
) : q(x
1
, . . . , x
n
) q
1
} ,
dimana q
1
adalah quantil ke 1 untuk distribusi dari statistik q(X
1
, . . . , X
n
). Un-
tuk sembarang
1
dan
2
, jika
1
<
2
, maka q
1
1
> q
1
2
. Fakta ini mengakibatkan
C

1
C

2
. Ini berarti, jika kita diberikan dua konstanta
1
dan
2
, jika H
0
ditolak
pada tingkat signikansi
1
, maka H
0
pasti ditolak juga pada tingkat signikansi
2
.
Permasalahan sebaliknya adalah jika diberikan suatu data (x
1
, . . . , x
n
) , apakah
69
H
0
ditolak atau tidak pada tingkat signikansi
1
dan
2
? Permasalahan ini mem-
perkenalkan kita pada konsep nilai p atau pvalue.
Denisi 5.1.7. Diberikan data (x
1
, . . . , x
n
) , nilai p dari suatu tes adalah nilai
terkecil sedemikian hingga H
0
ditolak. Dengan kata lain
p-value := inf
(0,1)
C

, sedemikian hingga (x
1
, . . . , x
n
) C

.
Jika C

= {(x
1
, . . . , x
n
) : q(x
1
, . . . , x
n
) q
1
}, maka berlaku
p-value := inf
(0,1)
q
1
, sedemikian hingga q(x
1
, . . . , x
n
) q
1
=P{q(X
1
, . . . , X
n
) q(x
1
, . . . , x
n
)} .
Sebaliknya, jika C

= {(x
1
, . . . , x
n
) : q(x
1
, . . . , x
n
) q

}, maka
p-value := inf
(0,1)
q

, sedemikian hingga q(x


1
, . . . , x
n
) q

=P{q(X
1
, . . . , X
n
) q(x
1
, . . . , x
n
)} .
Contoh 5.1.8. Pada Contoh 5.1.6 bagian 1, misalkan hipotesisnya adalah H
0
:
80 vs H
1
: > 80, jika dari eksperimen diperoleh data dengan n = 40, x = 85 dan
s
2
= 100, maka
p-value =P
_

40(

X 80)
S

40(85 80)
10
_
=P{T(39) 3, 162} = 0, 0015,
dimana T(39) menyatakan variabel berdistribusi t dengan derajat bebas 39. Jadi
keputusan yang diambil berdasarkan data tersebut akan menolak H
0
untuk setiap
0, 0015.
70
5.2 Metode memilih tes terbaik
Dari Contoh 5.1.5, tes berukuran untuk suatu hipotesis yang sama adalah tidak
tunggal. Dua atau lebih tes dapat mempunyai ukuran yang sama, tetapi power di
bawah alternatif H
1
belum tentu sama. Pada sub bab ini kita akan merumuskan
metode memilih tes yang terbaik (tes dengan power di bawah H
1
terbesar) diantara
semua tes berukuran .
Denisi 5.2.1. Misalkan
1
dan
2
merupakan dua tes dengan ukuran untuk
hipotesis H
0
:
0
vs H
1
:
1
. Tes
1
dikatakan secara seragam lebih baik dari

2
, jika G

1
() G

2
(),
1
. Misalkan C

merupakan himpunana semua tes


berukuran untuk hipotesis H
0
:
0
vs H
1
:
1
. Suatu tes C

dikatakan
terbaik secara seragam (Uniformly Most Powerful Test) atau tes UMP berukuran ,
jika G

() G

(),
1
dan

.
5.2.1 Tes UMP untuk hipotesis sederhana
Misalkan X
1
, . . . , X
n
merupakan n variabel random dengan fungsi densitas bersama
f(x
1
, . . . , x
n
; ), R. Suatu tes : {0, 1} untuk hipotesis H
0
: =
0
vs H
1
: =
1
, dengan
0
,
1
,
0
=
1
, disebut tes Neyman-Pearson (tes N-P)
berukuran , jika
(x
1
, . . . , x
n
) =
_
_
_
1 ; jika
f(x
1
,...,x
n
;
0
)
f(x
1
,...,x
n
;
1
)
k
0 ; jika
f(x
1
,...,x
n
;
0
)
f(x
1
,...,x
n
;
1
)
> k
,
untuk setiap titk (x
1
, . . . , x
n
) , dimana k [0, ) merupakan sembarang kon-
stanta yang akan ditentukan dari persamaan G

(
0
) = . Pada denisi ini diasum-
sikan f(x
1
, . . . , x
n
;
1
) > 0.
71
Teorema 5.2.2. Tes di atas adalah tes UMP berukuran .
Proof. Misalkan merupakan sembarang tes berukuran untuk hipotesis sederhana
H
0
: =
0
vs H
1
: =
1
, yaitu G

(
0
) = . Misalkan
M

: {(x
1
, . . . , x
n
) : (x
1
, . . . , x
n
) (x
1
, . . . , x
n
)}
M
<
: {(x
1
, . . . , x
n
) : (x
1
, . . . , x
n
) < (x
1
, . . . , x
n
)} .
Jika (x
1
, . . . , x
n
) M

, maka (x
1
, . . . , x
n
) > 0. Ini berakibat f(x
1
, . . . , x
n
;
0
)
kf(x
1
, . . . , x
n
;
1
). Sebaliknya, jika (x
1
, . . . , x
n
) M
<
, maka (x
1
, . . . , x
n
) < 1. Ini
berakibat f(x
1
, . . . , x
n
;
0
) > kf(x
1
, . . . , x
n
;
1
). Maka
G

(
1
)G

(
1
) = E

1
( )
=
_

((x
1
, . . . , x
n
) (x
1
, . . . , x
n
))f(x
1
, . . . , x
n
;
1
)dx
1
, . . . , dx
n
=
_
M

((x
1
, . . . , x
n
) (x
1
, . . . , x
n
))f(x
1
, . . . , x
n
;
1
)dx
1
, . . . , dx
n
+
_
M
<
((x
1
, . . . , x
n
) (x
1
, . . . , x
n
))f(x
1
, . . . , x
n
;
1
)dx
1
, . . . , dx
n

_
M

((x
1
, . . . , x
n
) (x
1
, . . . , x
n
))
1
k
f(x
1
, . . . , x
n
;
0
)dx
1
, . . . , dx
n
+
_
M
<
((x
1
, . . . , x
n
) (x
1
, . . . , x
n
))
1
k
f(x
1
, . . . , x
n
;
0
)dx
1
, . . . , dx
n
=
_

((x
1
, . . . , x
n
) (x
1
, . . . , x
n
))
1
k
f(x
1
, . . . , x
n
;
0
)dx
1
, . . . , dx
n
=
1
k
(G

(
0
) G

(
0
)) =
1
k
( ) = 0.
Jadi G

(
1
) G

(
1
). Disini E

1
menyatakan ekspektasi dibawah H
1
.
Contoh 5.2.3. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi bedis-
tribusi Exp(), > 0. Kita akan merumuskan tes N-P berukuran untuk hipotesis
72
H
0
: =
0
vs H
1
: =
1
, dimana diasumsikan
1
>
0
. Karena
f(x
1
, . . . , x
n
:
0
)
f(x
1
, . . . , x
n
;
1
)
k
_

0
_
n
exp
_
(1/
1
1/
0
)
n

i=1
x
i
_
k

i=1
x
i
k
1
, dimana k
1
:=
ln k nln(
1
/
0
)
1/
1
1/
0
.
Pada kasus ini (1/
1
1/
0
) < 0 sehingga tanda berubah menjadi . Maka
daerah penolakan berukuran diturunkan dari persamaan:
P
_
n

i=1
X
i
k
1
| =
0
_
= P
_
2

n
i=1
X
i

2k
1

0
_
= .
Selanjutnya karena 2

n
i=1
X
i
/
0
berdistribusi
2
(2n), maka 2k
1
/
0
=
2
1
(2n). Jadi
tes N-P berukuran akan menolak H
0
jika 2

n
i=1
x
i
/
0

2
1
(2n) atau

n
i=1
x
i

2
1
(2n)/2, untuk
1
>
0
. Jika diasumsikan
2
>
0
, maka dapat ditunjukan
bahwa tes N-P berukuran untuk hipotesis H
0
: =
0
vs H
1
: =
2
akan menolak
H
0
jika 2

n
i=1
x
i
/
0

2
1
(2n) atau

n
i=1
x
i

0

2
1
(2n)/2. Kedua tes tersebut
adalah sama asalkan
1
dan
2
diasumsikan lebih besar dari
0
.
Contoh 5.2.4. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi bedis-
tribusi N(0,
2
), 0 <
2
< . Kita ingin merumuskan tes N-P berukuran untuk
menguji hipotesis H
0
:
2
=
2
0
vs H
1
:
2
=
2
1
, dimana diasumsikan
2
1
>
2
0
.
Karena
f(x
1
, . . . , x
n
;
2
0
)
f(x
1
, . . . , x
n
;
2
1
)
k
_

2
1

2
0
_
2
exp
_
n

i=1
x
2
i
_
1/2
2
1
1/2
2
0
_
_
k

i=1
x
2
i
k
1
, dimana k
1
:=
ln k nln(
2
1
/
2
0
)
1/2
2
1
1/2
2
0
.
Konstanta k
1
ditentukan dari persamaan
P
_
n

i=1
X
2
i
k
1
|
2
=
2
0
_
= P
_
n

i=1
_
X
i

0
_
2

k
1

2
0
_
= .
73
Karena

n
i=1
_
X
i

0
_
2
berdistribusi
2
(n), maka tes N-P berukuran akan menolak H
0
jika

n
i=1
_
x
i

0
_
2

2
1
(n) atau

n
i=1
x
2
i

2
0

2
1
(2n).
Contoh 5.2.5. (Kasus diskrit)
Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi bedistribusi POIS(),
> 0. Andaikan kita ingin merumuskan tes N-P berukuran untuk menguji hipotesis
H
0
: =
0
vs H
1
: =
1
, dimana diasumsikan
1
>
0
. Karena
f(x
1
, . . . , x
n
;
2
0
)
f(x
1
, . . . , x
n
;
2
1
)
k exp {n(
1

0
)} (
0
/
1
)

n
i=1
x
i
k
n

i=1
x
i
k
1
,
dimana k
1
:= k exp{n(
0

1
)}/ ln(
0
/
1
). Perubahan tanda menjadi tanda
terjadi karena asumsi
1
>
0
, sehingga ln(
0
/
1
) < 0. Misalkan S :=

n
i=1
X
i
,
maka dibawah H
0
, S berdistribusi POIS(n
0
). Jika P{S i | =
0
} =
i
, dan
misalkan
i

i+1
, maka tes yang menolak H
0
, jika

n
i=1
x
i
i adalah tes N-P
berukuran
i
.
Catatan:
Pada kasus diskrit, tes N-P berukuran mungkin tidak bisa dicapai secara eksak.
Tetapi, diberikan , kita bisa memilih k sedemikian hingga menghasilkan tes dengan
ukuran sebesar-besarnya .
5.2.2 Tes UMP untuk hipotesis komposit
Kita akan mengkonstruksikan tes UMP berukuran untuk hipotesis H
0
: =
0
vs
H
1
: <
1
. Metode yang ditempuh adalah dengan pertama-tama mendenisikan
tes N-P berukuran untuk hipotesis sederhana H
0
: =
0
vs H
1
: =
1
untuk
sembarang
1
dengan
1
<
0
. Jika dapat ditunjukkan bahwa tes ini tidak bergantung
74
pada
1
, maka tes ini adalah tes UMP berukuran untuk hipotesis komposit H
0
:
=
0
vs H
1
: <
1
.
Contoh 5.2.6. Kita perhatikan kembali Contoh 5.2.3. Misalkan : {0, 1}
merupakan tes untuk hipotesis H
0
: =
0
vs H
1
: =
1
untuk sembarang
1
dengan

1
>
0
, dimana (x
1
, . . . , x
n
) ,
(x
1
, . . . , x
n
) =
_

_
1; jika
f(x
1
,...,x
n
;
0
)
f(x
1
,...,x
n
;
1
)
k
0; jika
f(x
1
,...,x
n
;
0
)
f(x
1
,...,x
n
;
1
)
> k
Tes UMP berukuran untuk hipotesis ini akan menolak H
0
jika 2n x/
0

2
1
(2n).
Tes ini tidak akan berubah selama
1
>
0
. Jadi merupakan tes N-P berukuran
yang tidak bergantung pada
1
selama
1
>
0
. Maka adalah tes UMP berukuran
untuk hipotesis H
0
: =
0
vs H
1
: >
0
. Fungsi power dari adalah
G

() =P
_
2n

X

0

2
1
(2n) |
_
= P
_
2n

X

0

2
1
(2n)
_
=P
_
2n

X


2
1
(2n)
_
= 1 F

2
(2n)
_


2
1
(2n)
_
,
dimana F

2
(2n)
(x) adalah fungsi distribusi kumulatif dari variabel
2
(2n). Karena


2
1
(2n) merupakan fungsi turun dari , maka G

() merupakan fungsi monoton


naik dari , sehingga berlaku sup

0
G

() = G

(
0
) = . Berdasarkan hasil ini,
juga merupakan tes UMP berukuran untuk hipotesis komposit H
0
:
0
vs
H
1
: >
0
.
Secara analog tes UMP berukuran berdasarkan sampel random dari populasi
Exp() untuk menguji hipotesis H
0
: =
0
vs H
1
: <
0
, akan menolak H
0
jika
2n x/
0

2

(2n). Misalkan tes ini sebagai

, maka fungsi power dari

adalah
G

() =P
_
2n

X

0

2

(2n) |
_
= P
_
2n

X

0

2

(2n)
_
= F

2
(2n)
_

(2n)
_
.
75
Jelaslah G

() merupakan fungsi turun dari , oleh karena itu sup

0
G

() =
G

(
0
) = . Jadi

merupakan tes UMP berukuran untuk hipotesis H


0
:
0
vs H
1
: <
0
.
5.2.3 Keluarga monotone likelihood ratio (MLR)
Misalkan X
1
, . . . , X
n
mempunyai fungsi densitas bersama f(x
1
, . . . , x
n
; ), dengan
R. Misalkan T : R merupakan statistik. Maka f(x
1
, . . . , x
n
; )
dikatakan dari keluarga monotone likelihood ratio (MLR) dalam T, jika terdapat
suatu fungsi non negatif g(t) sedemikian hingga untuk setiap
1
dan
2
dengan
1
<
2
berlaku:
f(x
1
, . . . , x
n
;
2
)
f(x
1
, . . . , x
n
;
1
)
= g(T(x
1
, . . . , x
n
);
1
,
2
)
dengan g(T(x
1
, . . . , x
n
);
1
,
2
) monoton naik dalam T(x
1
, . . . , x
n
).
Contoh 5.2.7. Misalkan X
1
, . . . , X
n
merupakan sampel random dari POIS(), de-
ngan > 0. Maka untuk
1
<
2
, berlaku
f(x
1
, . . . , x
n
;
2
)
f(x
1
, . . . , x
n
;
1
)
= e
n(
1

2
)
(
2
/
1
)

n
i=1
x
i
.
Misalkan T(x
1
, . . . , x
n
) :=

n
i=1
x
i
, karena
2
/
1
> 1, maka ruas kanan dari per-
samaan di atas merupakan fungsi monoton naik dari T(x
1
, . . . , x
n
). Jadi fungsi den-
sitas bersama f(x
1
, . . . , x
n
; ) = e
n

n
i=1
x
i
/
n
i=1
(x
i
!) adalah dari keluarga MLR
dalam T(X
1
, . . . , X
n
) =

n
i=1
X
i
.
Teorema 5.2.8. Misalkan X
1
, . . . , X
n
mempunyai fungsi densitas bersama yang da-
pat dituliskan sebagai:
f(x
1
, . . . , x
n
; ) = exp{q()T(x
1
, . . . , x
n
) +h(x
1
, . . . , x
n
) +c()}, R,
76
dimana h merupakan fungsi hanya dari (x
1
, . . . , x
n
), sedangkan c dan q adalah fungsi-
fungsi dari saja. Jika q monoton naik secara tegas, maka f(x
1
, . . . , x
n
; ) merupakan
anggota keluarga MLR dalam T(X
1
, . . . , X
n
).
Proof. Jika
1
<
2
, maka
f(x
1
, . . . , x
n
;
2
)
f(x
1
, . . . , x
n
;
1
)
= exp{(q(2) q(
1
))T(x
1
, . . . , x
n
) + c(
2
) c(
1
)}.
Karena q merupakan fungsi monoton naik secara tegas dari , maka ruas kanan dari
persamaan di atas merupakan fungsi monoton dari T(x
1
, . . . , x
n
). Jadi f(x
1
, . . . , x
n
; )
merupakan anggota keluarga MLR dalam T.
Contoh 5.2.9. Jika X
1
, . . . , X
n
merupakan sampel random dari populasi N(, 16),
dengan < < , maka berlaku
f(x
1
, . . . , x
n
; ) =
1
4

2
exp
_

1
32
n

i=1
(x
i
)
2
_
= exp
_
n
16
x

n
i=1
x
2
i
32

_

2
32
+ ln(4

2)
__
= exp {q()T(x
1
, . . . , x
n
) +h(x
1
, . . . , x
n
) +c()} ,
dengan q() := n/16, h(x
1
, . . . , x
n
) :=

n
i=1
x
2
i
/32, c() :=
2
/32 ln(4

2),
dan T(x
1
, . . . , x
n
) := x. Jelaslah q merupakan fungsi monoton naik tegas dari ,
sehingga dapat disimpulkan f(x
1
, . . . , x
n
; ) dari keluarga MLR dalam

X.
Teorema 5.2.10. Jika f(x
1
, . . . , x
n
; ), R merupakan anggota dari keluarga
MLR dalam T(X
1
, . . . , X
n
), maka tes UMP berukuran untuk hipotesis H
0
:
0
vs H
1
: >
0
adalah

(x
1
, . . . , x
n
) =
_

_
1; jika T(x
1
, . . . , x
n
) k
0; jika T(x
1
, . . . , x
n
) < k
,
77
dimana k adalah konstanta yang ditentukan dari persamaan
P{T(X
1
, . . . , X
n
) k | =
0
} = .
Jika nilai k yang memenuhi persamaan ini adalah k

, maka daerah kritik dari tes ini


adalah
C

:= {(x
1
, . . . , x
n
) : T(x
1
, . . . , x
n
) k

} .
Proof. Pertama-tama akan ditunjukkan bahwa

merupakan tes N-P berukuran


untuk hipotesis sederhana H

0
: =
0
vs H

1
: =
1
, untuk sembarang
1
dengan

1
>
0
, dan ditunjukkan bahwa tes ini tidak bergantung pada
1
asalkan
1
>
0
.
Kedua, kita tunjukkan bahwa fungsi power G

() merupakan fungsi monoton naik


dari . Karena g(t;
0
,
1
) merupakan fungsi monoton naik dari t, maka berlaku:
T(x
1
, . . . , x
n
) k g(T(x
1
, . . . , x
n
);
0
,
1
) g(k;
0
,
1
)

f(x
1
, . . . , x
n
;
1
)
f(x
1
, . . . , x
n
;
0
)
g(k;
0
,
1
)
f(x
1
, . . . , x
n
;
0
)
f(x
1
, . . . , x
n
;
1
)
k

,
dimana k

:= 1/g(k;
0
,
1
). Jadi tes

equivalen dengan

(x
1
, . . . , x
n
) =
_

_
1; jika
f(x
1
,...,x
n
;
0
)
f(x
1
,...,x
n
;
1
)
k

0; jika
f(x
1
,...,x
n
;
0
)
f(x
1
,...,x
n
;
1
)
> k

.
Selanjutnya,
= P{T(X
1
, . . . , X
n
) k | =
0
} = P
_
f(x
1
, . . . , x
n
;
0
)
f(x
1
, . . . , x
n
;
1
)
k

| =
0
_
.
Jadi

adalah tes N-P berukuran untuk hipotesis H

0
: =
0
vs H

1
: =
1
. Tes
ini tidak bergantung pada pemilihan
1
, asalkan
1
>
0
. Sehingga

adalah
tes UMP berukuran untuk hipotesis H

0
: =
0
vs H
1
: >
0
. Bahwa fungsi
78
power G

() monoton naik pada dapat dilihat pada Pruscha (2000), hal. 229-230.
Akibat dari kemonotonan dari G

(), berlaku: sup

0
G

() = G

(
0
) = . Jadi

adalah tes UMP berukuran untuk hipotesis H


0
:
0
vs H
1
: >
0
.
Contoh 5.2.11. Dari Contoh 5.2.9, distribusi bersama dari X
1
, . . . , X
n
adalah dari
keluarga MLR dalam

X. Berdasarkan Teorema 5.2.10, tes UMP berukuran alpha
untuk hipotesis H
0
:
0
vs H
1
: >
0
adalah

(x
1
, . . . , x
n
) =
_

_
1; jika x k
0; jika x < k
,
dengan P
_

X k | =
0
_
= . Jika
0
merupakan nilai sebenarnya dari , maka
daerah kritik dari

adalah
C

=
_
(x
1
, . . . , x
n
) :

n( x
0
)/4 z
1
_
=
_
(x
1
, . . . , x
n
) : x
0
+ 4z
1
/

n
_
.
Remark 5.2.12. Jika f(x
1
, . . . , x
n
; ) merupakan anggota dari keluarga MLR dalam
T(X
1
, . . . , X
n
), maka tes UMP berukuran untuk hipotesis H
0
:
0
vs H
1
: <
0
adalah

(x
1
, . . . , x
n
) =
_

_
1; jika T(x
1
, . . . , x
n
) k
0; jika T(x
1
, . . . , x
n
) > k
,
dimana k adalah konstanta yang ditentukan dari persamaan
P{T(X
1
, . . . , X
n
) k | =
0
} = .
Catatan:
Jika f(x
1
, . . . , x
n
; ) merupakan anggota dari keluarga MLR dalam T(X
1
, . . . , X
n
),
79
untuk
1
<
0
, maka
f(x
1
,...,x
n
;
1
)
f(x
1
,...,x
n
;
0
)
merupakan fungsi monoton turun dari T(x
1
, . . . , x
n
),
sehingga
{(x
1
, . . . , x
n
) : T(x
1
, . . . , x
n
) k}
_
(x
1
, . . . , x
n
) :
f(x
1
, . . . , x
n
;
1
)
f(x
1
, . . . , x
n
;
0
)
k

_
untuk suatu k

, dimana k

:= g(k;
0
,
1
).
5.3 Tes dengan membandingkan fungsi likelihood
Tes dengan membandingkan fungsi likelihood (engl. Likelihood Ratio Test) disingkat
LRT merupakan salah satu tes yang berhubungan langsung dengan maksimum like-
lihood estimator yang dibahas pada Chapter 2. Pada sub bab sebelumnya prosudur
tes UMP diturunkan terbatas pada hipotesis sederhana dan hipotesis komposit satu
sisi. Tetapi untuk hipotesis komposit dua sisi H
0
: =
0
vs H
1
: =
0
tes UMP
tidak dapat diturunkan. Permasalahan ini dan permasalahan tes dengan kehadiran
parameter pengganggu dapat ditangani dengan tes likelihood ratio.
Denisi 5.3.1. Misalkan L(; x
1
, . . . , x
n
) merupakan fungsi likelihood dari variabel
random X
1
, . . . , X
n
. Misalkan
(x
1
, . . . , x
n
) :=
sup
H
0
L(; x
1
, . . . , x
n
)
sup

L(; x
1
, . . . , x
n
)
.
Tes LR berukuran untuk hipotesis H
0
:
0
vs H
1
:
1
adalah
(x
1
, . . . , x
n
) =
_

_
1; jika (x
1
, . . . , x
n
) k
0; jika (x
1
, . . . , x
n
) > k
,
dimana 0 < k < 1 adalah konstanta yang tidak diketahui yang ditentukan dari per-
samaan
sup
H
0
P{(X
1
, . . . , X
n
) k} = .
80
Remark 5.3.2. Misalkan

0
adalah MLE untuk pada daerah yang dibatasi pada
0
(MLE yang dibatasi pada H
0
) dan

adalah MLE untuk pada daerah (MLE yang
tidak dibatasi). Maka
(x
1
, . . . , x
n
) =
L(

0
; x
1
, . . . , x
n
)
L(

; x
1
, . . . , x
n
)
.
Jadi daerah kritik dari tes LR dikonstruksikan dengan cara sedemikian rupa sehingga
titik-titik sampel mempunyai rasio yang kecil.
Contoh 5.3.3. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi N(, 1),
dimana tidak diketahui, < < . Kita tertarik untuk mengkonstruksikan tes
LR untuk hipotesis H
0
: =
0
vs H
1
: =
0
, dimana
0
adalah konstanta yang
diketahui (ditentukan oleh ekperimenter). Karena pada H
0
dispesikasikan dengan
jelas bahwa
0
= {
0
}, maka sup
H
0
L(; x
1
, . . . , x
n
) = max
H
0
L(; x
1
, . . . , x
n
) =
L(
0
; x
1
, . . . , x
n
). MLE untuk pada daerah < < adalah =

X, maka
berlaku
(x
1
, . . . , x
n
) =
L(
0
; x
1
, . . . , x
n
)
L( x; x
1
, . . . , x
n
)
= exp
_
1/2
_
n

i=1
(x
i

0
)
2

i=1
(x
i
x)
2
__
.
Selanjutnya, karena

n
i=1
(x
i

0
)
2
=

n
i=1
(x
i
x)
2
+n( x
0
)
2
, maka diperoleh
(x
1
, . . . , x
n
) = exp
_

1
2
n( x
0
)
2
_
.
Selanjutnya
sup
H
0
P{(X
1
, . . . , X
n
) k} = P{(X
1
, . . . , X
n
) k | =
0
} =
P
_
exp
_

1
2
n(

X
0
)
2
_
k
_
=
P
_
(

n(

X
0
))
2
2 ln k
_
= .
81
Karena (

n(

X
0
))
2
berdistribusi
2
(n), maka tes LR berukuran akan menolak
H
0
, jika n( x
0
)
2

2
(n)
1
atau k = exp{
2
1
(n)/2}. Cara lain adalah
P
_
(

n(

X
0
))
2
2 ln k
_
=
P
_

n(

X
0
)

2 ln k atau

n(

X
0
)

2 ln k
_
= .
Karena

n(

X
0
) berdistribusi N(0, 1), maka tes LR berukuran akan menolak
H
0
, jika

n( x
0
) z
1/2
atau

n( x
0
) z
1/2
.
Contoh 5.3.4. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi N(,
2
),
dengan dan
2
parameter-parameter yang tidak diketahui, < < dan
0 <
2
< . Kita akan menurunkan prosudur tes LR berukuran untuk hipotesis
H
0
: =
0
vs H
1
: =
0
, dimana
0
adalah bilangan yang diketahui. Pada kasus
ini ruang parameter
0
dan adalah

0
= {(,
2
) : =
0
, 0 <
2
< } = {
0
} (0, ),
= {(,
2
) : < < , 0 <
2
< } = (, ) (0, ).
Dari Contoh 2.2.4 pada Chapter 2 diperoleh MLE untuk dan
2
pada adalah
=

X dan
2
=
1
n

n
i=1
(X
i


X)
2
. Sedangkan MLE untuk dan
2
pada
0
adalah

0
=
0
dan
2
0
=
1
n

n
i=1
(X
i

0
)
2
. Sehingga
(x
1
, . . . , x
n
) =
(2
2
0
)
n/2
exp
_

1
2
2
0

n
i=1
(x
i

0
)
2
_
(2
2
)
n/2
exp
_

1
2
2

n
i=1
(x
i
x)
2
_
=
_

2
0

2
_
n/2
exp
_

1
2

n
i=1
(x
i

0
)
2
1
n

n
i=1
(x
i

0
)
2
+
1
2

n
i=1
(x
i
x)
2
1
n

n
i=1
(x
i
x)
2
_
=
_

2
0

2
_
n/2
=
_
1 +
n( x
0
)
2

n
i=1
(x
i
x)
2
_
n/2
=
_
1 +
[

n( x
0
)]
2
/(n 1)
s
2
_
n/2
.
82
Selanjutnya,
sup
H
0
P{(X
1
, . . . , X
n
) k} =
P
_
_
1 +
[

n(

X
0
)]
2
/(n 1)
S
2
_
n/2
k
_
=
P
_
T
2
(n 1) k
1
_
= P
_
T(n 1)
_
k
1
atau T(n 1)
_
k
1
_
=
dimana T(n 1) := [

n(

X
0
)]/S, dan k
1
:= (n 1)k
2/n
. Karena T(n 1)
berdistribusi t dengan derajat bebas n1, maka tes LR berukuran akan menolak H
0
jika [

n( x
0
)]/s t
1/2
(n 1) atau [

n( x
0
)]/s t
1/2
(n 1). Karena
T
2
(n 1) berdistribusi F(1; n 1), maka H
0
juga ditolak jika [

n( x
0
)]
2
/s
2

f
1
(1; n 1).
5.4 Soal-soal
1. Suatu kotak berisi empat kelereng, berwarna putih dan 4 berwarna hitam.
Hipotesis H
0
: = 2 vs H
1
: = 2 dites dengan cara berikut: Dua klereng
diambil dengan pengembalian, selanjutnya H
0
ditolak jika kedua klereng yang
terambil mempunyai warna yang sama.
(a) Hitung P{Kesalahan tipe I}.
(b) Hitung P{Kesalahan tipe II}.
(c) Kerjakan (a) dan (b) jika pengambilan dilakukan tanpa pengembalian.
2. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi EXP(1, ). Hipote-
sis H
0
:
0
vs H
1
: >
0
akan dites berdasarkan statistik X
1:n
.
(a) Tentukan C

yang berbentuk {(x


1
, . . . , x
n
) : x
1:n
c}.
83
(b) Tentukan fungsi power untuk tes pada (a).
3. Diberikan suatu distribusi dengan fungsi densitas
f(x; ) =
_
x
1
; jika 0 < x < 1
0 ; jika x 0 atau x 1
(a) Berdasar pada sampel random berukuran n, konstruksikan tes MP beruku-
ran = 0, 05 untuk hipoptesis H
0
: = 1 vs H
1
: = 2.
(b) Tentukan power dibawah alternatif dari tes pada (a).
4. Jika X
1
, . . . , X
n
mempunyai fungsi densitas bersama f(x
1
, . . . , x
n
; ) dan S
adalah statistik cukup untuk . Tunjukkan bahwa tes MP untuk hipotesis
H
0
: =
0
vs H
1
: =
1
dapat dinyatakan dalam S.
5. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi dengan fungsi
densitas
f(x; ) =
_
(3x
2
/)e
x
3
/
; jika 0 < x
0 ; jika x 0
.
Tentukan daerah kritik dari suatu tes UMP berukuran untuk hipotesis H
0
:
=
0
vs H
1
: >
0
.
6. Misalkan X
1
, . . . , X
n
merupakan sampel random dari suatu populasi diskrit
dengan fungsi densitas
f(x; ) =
_
[/(+1)]
x
(+1)
; jika x {0, 1, . . .}
0 ; jika x {0, 1, . . .}
.
Tentukan tes UMP untuk hipotesis H
0
: =
0
vs H
1
: >
0
.
7. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi WEI(, 2). Tu-
runkan suatu tes UMP untuk hipotesis H
0
:
0
vs H
1
: <
0
.
84
8. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi EXP().
(a) Turunkan suatu tes RL untuk hipotesis H
0
: =
0
vs H
1
: =
0
.
(b) Turunkan tes RL untuk hipotesis H
0
: =
0
vs H
1
: >
0
.
9. Perhatikan dua sampel random yang saling bebas X
i
N(
1
,
2
1
) dan Y
j

N(
2
,
2
2
).
(a) Turunkan suatu tes RL untuk H
0
:
2
1
=
2
2
jika diasumsikan
1
dan
2
diketahui.
(b) Turunkan suatu tes RL untuk H
0
:
2
1
=
2
2
jika diasumsikan
1
dan
2
tidak diketahui.
10. Misalkan X
1
, . . . , X
n
merupakan sampel random dari populasi EXP(, ). Mis-
alkan

dan merupakan MLE untuk dan .
(a) Tunjukkan bahwa

dan saling bebas.
(b) Misalkan V
1
= 2n(

X)/, V
2
= 2n( )/, dan V
3
= 2n

/. Tunjukkan
bahwa V
1

2
(2n), V
2

2
(2), dan V
3

2
(2n 2).
(c) Tunjukkan bahwa (n 1)( )/

F(2; 2n 2).
(d) Turunkan tes RL untuk hipotesis H
0
: =
0
vs H
1
:
0
.
(e) Tunjukkan bahwa daerah kritik berukuran dari tes RL adalah
C

=
_
(x
1
, . . . , x
n
) : (n 1)(
0
)/

f
1
(2; 2n 2)
_
.
Chapter 6
Teori sampel besar
85
Chapter 7
Teori Bayes
86
Chapter 8
Estimasi dengan metode bootstrap
87

You might also like