You are on page 1of 9

Ejercicios:

1.1.8 Considere los dos modelos muestrales de los ejemplos 1.1.3 (2) y 1.1.4 (1).

(a) Muestre que si Y ∼ X + δ(X), δ(x) = 2µ + ∆ − 2x, X ∼ N (µ, σ 2 ), entonces G(·) = F (· − ∆). Es
decir que para δ(X) ≡ ∆ y δ(x) = 2µ + ∆ − 2x generan la misma distribución de los datos (X1 , . . . , Xn ),
(Y1 , . . . , Yn ). Por lo tanto, G(·) = F (· − ∆) no implica el supuesto del efecto del tratamiento constante.

Se examinan los dos casos por aparte y se calcula su valor esperado y su varianza.

Caso 1: Yi = Xi + δ(Xi )

Yi = Xi + ∆

Valor esperado:

E(Yi ) = E(Xi + ∆) = E(Xi ) + E(δ(Xi ))


E(Yi ) = µ+∆

Varianza:

V (Yi ) = E(Yi2 ) − E 2 (Yi )

E(Yi2 ) = E(Xi2 + 2∆Xi + ∆2 ) = E(Xi2 ) + E(2∆Xi ) + E(∆2 )


= σ 2 + µ2 + 2∆µ + ∆2
V (Yi ) = σ 2 + µ2 + 2∆µ + ∆2 − (µ + ∆)2
= σ 2 + µ2 + 2∆µ + ∆2 − µ2 − 2∆µ − ∆2
= σ

Caso 2: Yi = Xi + 2µ + ∆ − 2Xi

Yi = Xi + 2µ + ∆ − 2Xi

Valor esperado:

E(Yi ) = E(Xi + 2µ + ∆ − 2Xi )


= E(2µ + ∆ − Xi )
= 2µ + ∆ − µ
= µ+∆

1
Varianza:

V (Yi ) = E(Yi2 ) − E 2 (Yi )

E(Yi2 ) = E(4µ2 + 4∆µ − 4µXi − 2∆Xi + Xi2 + ∆2 )


= E(4µ2 ) + E(4∆µ) − E(4µXi ) − 2E(∆Xi )
+E(Xi2 ) + E(∆2 )
= 4µ2 + 4∆µ − 4µ2 − 2∆µ + σ 2 + µ2 + ∆2
= σ 2 + µ2 + 2∆µ + ∆2
V (Yi ) = σ 2 + µ2 + 2∆µ + ∆2 − (µ + ∆)2
= σ 2 + µ2 + 2∆µ + ∆2 − µ2 − 2∆µ − ∆2
= σ

De aqui se concluye que sin importar el ∆ la distribución no cambia, de acuerdo a su valor esperado y
a su varianza.

(b) En la parte (a) suponga que X tiene una distribución F que no necesariamente es normal. Para
qué tipo de F se cumple G(·) = F (· − ∆) para ambos δ(X) ≡ ∆ y δ(x) = 2µ + ∆ − 2x.

Para esta parte se sugiere tomar en primera instancia una distribución uniforme. Otro tipo de dis-
tribuciones que podrian cumplir esta condición serian las simétricas pero no se puede asegurar del todo
que todas cumplan con la condición.

(c) Suponga que Y ∼ X + δ(X) donde X ∼ N (µ, σ 2 ) y δ(x) es continua. Muestre que si se asume
que δ(x) + x es estrictamente creciente, entonces G(·) = F (· − ∆) implica que δ(X) ≡ ∆.

1.2.3 Sea X el número de fallos antes del primer suceso en una secuencia de ensayos Bernoulli con pro-
babilidad de suceso θ. Entonces Pθ [x = k] = (1 − θ)k θ, k = 0, 1, 2, .... Esta es llamada la distribución
geométrcia (g(θ)). Suponga que para dado θ= θ, x tiene una distribución geométrica.

(a) Encuentre la distribución posterior de θ dado x = 2 cuando la distribución a priori de θ es uni-


forme sobre { 41 , 12 , 43 }.
Se tiene que:

(θ − a)
π(θ) = , a<θ<b
(b − a)

p(x|θ) = (1 − θ)k θ

La distribución posterior está dada por:

(θ − a)
(1 − θ)k θ
(b − a)
π(θ|x) =
Zb
(θ − a)
(1 − θ)k θdθ
(b − a)
a

Sin embargo, ya que la distribución a priori solo toma tres valores { 14 , 12 , 43 } , cada uno con igual proba-


2
bilidad, entonces:
π(θ|x) ∝ P (x|θ)I{ 14 , 12 , 43 }
∝ P (2|θ)I{ 14 , 21 , 34 }
π(θ|x) ∝ (1 − θ)2 θI{ 41 , 12 , 34 }
Luego la distribución resultante es de tipo discreto y sigue tomando los mismos tres valores.

(b) De acuerdo a (a) ¿Cuál es el valor esperado de θ dado x = 2 y x = k?

Se sabe que:
X
E(θ|x) = θπ(θ|x)
θ

Luego, cuando x = 2
X
E(θ|2) = θπ(θ|2)
θ
X
= θ(1 − θ)2 θI{ 14 , 21 , 34 }
θ
X
= θ4 − 2θ3 + θ2 I{ 14 , 21 , 34 }
θ

Y para x = k
X
E(θ|k) = θπ(θ|k)
θ
X
= θ(1 − θ)k θI{ 14 , 12 , 34 }
θ
X
= θ2 (1 − θ)k I{ 14 , 12 , 43 }
θ

(c) Encuentre la distribución posterior de θ dado x = k cuando la distribución a priori es Beta β(r, s)

La distribución de x es:
p(x|θ) = (1 − θ)x θ
Se sabe que la distribución a priori tiene la forma:
xr−1 (1 − x)s − 1
π(θ) =
β(r, s)
Donde,
Z ∞
Γ(r)Γ(s)
β(r, s) = y Γ(r) = tr−1 e−t dt
Γ(r + s) 0

Ahora,
π(θ|x) ∝ P (x|θ)P (θ)
xr−1 (1 − x)s − 1
∝ (1 − θ)x θ
β(r, s)
∝ θr−1 (1 − θ)s−1 θx (1 − θ)n−x
∝ θx+r−1 (1 − θ)n−x+s−1

3
La cual es una distribución beta de parámetros α = x + r y β = n − x + s, es decir, que la distribución
posterior de θ dado x = k es β(x + r, n − x + s).

1.3.8 Sea X1 , . . . , Xn una muestra de una población con varianza σ 2 , 0 < σ 2 < ∞.
Pn
(a) Muestre que s2 = (n − 1)−1 i=1 (Xi − X̄)2 es un estimador insesgado para σ 2 .
Se desea conocer el valor esperado de s2 , entonces
n
!
X
E(s)2 = E (n − 1)−1 (Xi − X̄)2
i=1

Se sabe que

n n
X 2
X  2
(Xi − µ) = Xi − X̄ + X̄ − µ
i=1 i=1
n n
X 2 X  2
= Xi − X̄ + 2 X̄ − µ Xi − X̄ + n X̄ − µ
i=1 i=1
n
X 2 2
= Xi − X̄ + n X̄ − µ
i=1
2
= (n − 1) s2 + n + n X̄ − µ

Entonces

" n
#
2
 1 X 2 n 2
E s =E (Xi − µ) − X̄ − µ
n − 1 i=1 n−1
" n #
1 X 2
 2 
= E (Xi − µ) − nE X̄ − µ
n − 1 i=1
" n #
1 X 2
 2 
= E (Xi − µ) − nE X̄ − µ
n − 1 i=1
" n #
2
1 X σ
= σ2 − n
n − 1 i=1 n
n
!
1 X
2 σ2
= σ −n
n − 1 i=1 n
nσ 2 − σ 2
=
n−1

(b) Suponga que Xi ∼ N (µ, σ 2 )


−1
i) Muestre que MSE(s2 ) = 2 (n − 1) σ 4
2 2
Puesto que s es insesgado para σ , se tiene lo siguiente

4
 
(n − 1) 2
V ar s = 2(n − 1)
σ2
2
V ar(s2 ) = σ4
(n − 1)
2
Puesto que el sesgo B(s2 ) = 0, entonces MSE(s2 ) = V ar(s2 ) = (n−1) σ4
n  2 1
(ii) Sea σ̂o2 = c i=1 Xi − X̄ . muestre que el valor de c que minimiza el MSE(σ̂o2 ) es c =
P
n+1

2

E(s2 ) = σ 2 ; también se tiene que V ar(s2 ) = n−1
Pn  2
Sea W = c i=1 Xi − X̄ = c(n − 1)s2 . Entonces

E(W ) = c(n − 1)σ 2


= kσ 2

V ar(W ) = c2 (n − 1)2 V ar(s2 )


2k 2
= σ4
(n − 1)

ahora,

2
M SE(W ) = V ar(W ) + E(W ) − σ 2

2
= V ar(W ) + kσ 2 − σ 2


2 σ4
= σ 2 − kσ 2 + 2k 2
n−1
σ4
= k 2 σ 4 + σ 4 − 2kσ 4 + 2k 2
n−1
2
 
2k
= σ 4 k 2 − 2k + 1 +
n−1
4
σ
2k + n + k 2 n − 2kn + k 2 − 1

=
n−1
Entonces existe una función de k para la cual se minimiza el MSE.

f (k) = 2k + n + k 2 n − 2kn + k 2 − 1


f 0(k) = (2 + 2kn − 2n + 2k) = 0


=⇒ 1 = −kn + n − k
1 − n = k(−n − 1)
n−1
=k
n+1
n−1
= c(n − 1)
n+1
1
=c
n+1

5
1
Por lo tanto, el valor c que minimiza el MSE es n+1
1.3.18 Para el ejemplo 1.1.1 considere la función de perdida (1.3.1) y sea δk la regla de decisión:“rechazar
si y solo si x ≥ k”

(a) Muestre que el riesgo esta dado por:

R(θ, δ) = sPθ [x ≥ k] + rN θPθ [x < k], θ < θ0


= rN θPθ [x < k] θ ≥ θ0

La función de pérdida (1.3.1) está dada por:

I(θ, 1) = s θ < θ0
I(θ, 1) = 0 θ ≥ θ0
I(θ, 0) = rN θ

y,

δk = s si x≥k P (δk = s) , θ < θ0


= rN θ si x<k P (δk = rN θ) , θ ≥ θ0

R(θ, δk ) = I(θ, 1)P (δk = s) + I(θ, 0)P (δk = rN θ) θ < θ0


= I(θ, 1)P (δk = s) + I(θ, 0)P (δk = rN θ) θ ≥ θ0

R(θ, δk ) = I(θ, 1)Pθ [x ≥ k] + I(θ, 0)Pθ [x < k] θ < θ0


= 0 + I(θ, 0)Pθ [x < k] θ ≥ θ0

Luego,

R(θ, δk ) = sPθ [x ≥ k] + rN θPθ [x < k] θ < θ0


= rN θPθ [x < k] θ ≥ θ0

(b) Si N = 10, s = r = 1, θ0 = 0,1 y k = 3 grafique R(θ, δk ) en función de θ.

(c) Elabore el mismo gráfico que en (b) pero con k = 2. Compare δ2 y δ3 .

1.6.38 Sea Xi = (Zi , Yi )T iid; Xi = (Zi , Yi )T , 1 ≤ i ≤ n donde X tiene densidad (1). Escriba la densidad
de X1 , ..., Xn como una familia exponancial canónica e identifique T, h, Ayε. Encuentre el valor esperado
y varianza de la estadı́stica suficiente.
   
1 1 1
f (X, θ) = exp − Z 2 exp − 2 (Y − Z)2 − logθ (1)
2π 2 2θ
Se observa que:

q=2
1
η(θ) = −
2θ2
B(θ) = logθ
T (X) = (Y − Z)2
 
1 1 2
h(X) = exp − Z
2π 2

6
Se va a hallar A(η)

Se sabe que:

η = η(θ)
1
= − 2

se despeja θ,
r
1
θ= −

luego,
A(θ) = logθ
r
1
A(η) = log −

Ahora la forma de familia exponencial canónica es:
q(X, η) = h(X)exp{ηT (x) − A(η)} x ∈ X ⊂ Rq

   r 
1 1 2 2 1
q(X, η) = exp − Z exp η(Y − Z) − log −
2π 2 2η
Donde,
 
1 1
h(X) = exp − Z 2
2π 2
r
1
A(η) = log −

ε = R2
y la estadı́stica suficiente es,
T (X) = (Y − Z)2

Ahora se va a hallar el valor esperado y la varianza de T (X).


Como se sabe que Y = Z + θW , entonces,
E(T (X)) = E((Y − Z)2 )
= E(Y 2 − 2ZY + Z 2 )
= E((Z + θW )2 − 2Z(Z + θW ) + Z 2 )
= E(Z 2 + 2ZθW + θ2 W 2 − 2Z 2 − 2ZθW + Z 2 )
= E(θ2 W 2 )
= θ2 E(W 2 )
Como,
V ar(W ) = E(W 2 ) − E(W )2
1 = E(W 2 ) − 0
1 = E(W 2 )

7
De donde se tiene que

E(T (X)) = θ2

Ahora se va a hallar la varianza:

V ar(T (X)) = E(T (X)2 ) − E(T (X))2

Donde,

E(T (X)2 ) = E((θ2 W 2 )2 )


= E(θ4 W 4 )
= θ4 E(W 4 )

Como W tiene distribución normal de parámetros 0 y 1, entonces E(W 4 ) es la curtosis de dicha distri-
bución la cual es 3. Por lo tanto:

E(T (X)2 ) = 3θ4

y finalmente

V ar(T (X)) = 3θ4 − (θ2 )2


= 2θ4

2.1.15 En una población de plantas (Mimulus guttatus) hay tres posibles alelos S, I y F en un locus que
resulta en seis genotipos etiquetados
P3por SS, II, FF, SI, SF y IF. θ1 , θ2 y θ3 denotan las probabilidades
de S, I y F respectivamente, donde j=1 θj = 1. El modelo Hardy-Weinberg que los seia genotipos tienen
probabilidades:
Genotype 1 2 3 4 5 6
Genotype SS II FF SI SF IF
Probability θ12 θ22 θ32 2θ1 θ2 2θ1 θ3 2θ2 θ3
Sea Nj el número de plantas del genotipo j en una muestra de n plantas independientes, 1 ≤ j ≤ 6 y sea
p̂j = Nj /n. Muestre que:
1 1
θ̂1 = p̂1 + p̂4 + p̂5
2 2
1 1
θ̂2 = p̂2 + p̂4 + p̂6
2 2
1 1
θ̂3 = p̂3 + p̂5 + p̂6
2 2
Son frecuencias plug-in estimadas de θ1 , θ2 y θ3 .

Se sabe que:

p̂1 = θ12 = N1 /n
p̂2 = θ22 = N2 /n
p̂3 = θ32 = N3 /n
p̂4 = 2θ1 θ2 = N4 /n
p̂5 = 2θ1 θ3 = N5 /n
p̂6 = 2θ2 θ3 = N6 /n

8
Y
3
X
θ̂j = 1 = θ̂1 + θ̂2 + θ̂3
j=1

Ahora para θ̂1 ,

θ̂1 = θ̂1 ∗ 1
X 3
= θ̂1 ∗ θ̂j
j=1

= θ̂1 (θ̂1 + θ̂2 + θ̂3 )


= θ̂12 + θ̂1 θ̂2 + θ̂1 θ̂3
N1 N4 N5
= + +
n n n
1 1
= p̂1 + p̂4 + p̂5
2 2

Y análogamente para θˆ2 y θˆ3 :

θ̂2 = θ̂2 ∗ 1
X 3
= θ̂2 ∗ θ̂j
j=1

= θ̂2 (θ̂1 + θ̂2 + θ̂3 )


= θ̂1 θ̂2 + θ̂22 + θ̂2 θ̂3
N4 N2 N6
= + +
n n n
1 1
= p̂2 + p̂5 + p̂6
2 2

θ̂3 = θ̂3 ∗ 1
X 3
= θ̂3 ∗ θ̂j
j=1

= θ̂3 (θ̂1 + θ̂2 + θ̂3 )


= θ̂1 θ̂3 + θ̂2 θ̂3 θ̂32
N5 N6 N3
= + +
n n n
1 1
= p̂3 + p̂5 + p̂6
2 2

You might also like