Professional Documents
Culture Documents
1.1.8 Considere los dos modelos muestrales de los ejemplos 1.1.3 (2) y 1.1.4 (1).
(a) Muestre que si Y ∼ X + δ(X), δ(x) = 2µ + ∆ − 2x, X ∼ N (µ, σ 2 ), entonces G(·) = F (· − ∆). Es
decir que para δ(X) ≡ ∆ y δ(x) = 2µ + ∆ − 2x generan la misma distribución de los datos (X1 , . . . , Xn ),
(Y1 , . . . , Yn ). Por lo tanto, G(·) = F (· − ∆) no implica el supuesto del efecto del tratamiento constante.
Se examinan los dos casos por aparte y se calcula su valor esperado y su varianza.
Caso 1: Yi = Xi + δ(Xi )
Yi = Xi + ∆
Valor esperado:
Varianza:
Caso 2: Yi = Xi + 2µ + ∆ − 2Xi
Yi = Xi + 2µ + ∆ − 2Xi
Valor esperado:
1
Varianza:
De aqui se concluye que sin importar el ∆ la distribución no cambia, de acuerdo a su valor esperado y
a su varianza.
(b) En la parte (a) suponga que X tiene una distribución F que no necesariamente es normal. Para
qué tipo de F se cumple G(·) = F (· − ∆) para ambos δ(X) ≡ ∆ y δ(x) = 2µ + ∆ − 2x.
Para esta parte se sugiere tomar en primera instancia una distribución uniforme. Otro tipo de dis-
tribuciones que podrian cumplir esta condición serian las simétricas pero no se puede asegurar del todo
que todas cumplan con la condición.
(c) Suponga que Y ∼ X + δ(X) donde X ∼ N (µ, σ 2 ) y δ(x) es continua. Muestre que si se asume
que δ(x) + x es estrictamente creciente, entonces G(·) = F (· − ∆) implica que δ(X) ≡ ∆.
1.2.3 Sea X el número de fallos antes del primer suceso en una secuencia de ensayos Bernoulli con pro-
babilidad de suceso θ. Entonces Pθ [x = k] = (1 − θ)k θ, k = 0, 1, 2, .... Esta es llamada la distribución
geométrcia (g(θ)). Suponga que para dado θ= θ, x tiene una distribución geométrica.
(θ − a)
π(θ) = , a<θ<b
(b − a)
p(x|θ) = (1 − θ)k θ
(θ − a)
(1 − θ)k θ
(b − a)
π(θ|x) =
Zb
(θ − a)
(1 − θ)k θdθ
(b − a)
a
Sin embargo, ya que la distribución a priori solo toma tres valores { 14 , 12 , 43 } , cada uno con igual proba-
2
bilidad, entonces:
π(θ|x) ∝ P (x|θ)I{ 14 , 12 , 43 }
∝ P (2|θ)I{ 14 , 21 , 34 }
π(θ|x) ∝ (1 − θ)2 θI{ 41 , 12 , 34 }
Luego la distribución resultante es de tipo discreto y sigue tomando los mismos tres valores.
Se sabe que:
X
E(θ|x) = θπ(θ|x)
θ
Luego, cuando x = 2
X
E(θ|2) = θπ(θ|2)
θ
X
= θ(1 − θ)2 θI{ 14 , 21 , 34 }
θ
X
= θ4 − 2θ3 + θ2 I{ 14 , 21 , 34 }
θ
Y para x = k
X
E(θ|k) = θπ(θ|k)
θ
X
= θ(1 − θ)k θI{ 14 , 12 , 34 }
θ
X
= θ2 (1 − θ)k I{ 14 , 12 , 43 }
θ
(c) Encuentre la distribución posterior de θ dado x = k cuando la distribución a priori es Beta β(r, s)
La distribución de x es:
p(x|θ) = (1 − θ)x θ
Se sabe que la distribución a priori tiene la forma:
xr−1 (1 − x)s − 1
π(θ) =
β(r, s)
Donde,
Z ∞
Γ(r)Γ(s)
β(r, s) = y Γ(r) = tr−1 e−t dt
Γ(r + s) 0
Ahora,
π(θ|x) ∝ P (x|θ)P (θ)
xr−1 (1 − x)s − 1
∝ (1 − θ)x θ
β(r, s)
∝ θr−1 (1 − θ)s−1 θx (1 − θ)n−x
∝ θx+r−1 (1 − θ)n−x+s−1
3
La cual es una distribución beta de parámetros α = x + r y β = n − x + s, es decir, que la distribución
posterior de θ dado x = k es β(x + r, n − x + s).
1.3.8 Sea X1 , . . . , Xn una muestra de una población con varianza σ 2 , 0 < σ 2 < ∞.
Pn
(a) Muestre que s2 = (n − 1)−1 i=1 (Xi − X̄)2 es un estimador insesgado para σ 2 .
Se desea conocer el valor esperado de s2 , entonces
n
!
X
E(s)2 = E (n − 1)−1 (Xi − X̄)2
i=1
Se sabe que
n n
X 2
X 2
(Xi − µ) = Xi − X̄ + X̄ − µ
i=1 i=1
n n
X 2 X 2
= Xi − X̄ + 2 X̄ − µ Xi − X̄ + n X̄ − µ
i=1 i=1
n
X 2 2
= Xi − X̄ + n X̄ − µ
i=1
2
= (n − 1) s2 + n + n X̄ − µ
Entonces
" n
#
2
1 X 2 n 2
E s =E (Xi − µ) − X̄ − µ
n − 1 i=1 n−1
" n #
1 X 2
2
= E (Xi − µ) − nE X̄ − µ
n − 1 i=1
" n #
1 X 2
2
= E (Xi − µ) − nE X̄ − µ
n − 1 i=1
" n #
2
1 X σ
= σ2 − n
n − 1 i=1 n
n
!
1 X
2 σ2
= σ −n
n − 1 i=1 n
nσ 2 − σ 2
=
n−1
=σ
4
(n − 1) 2
V ar s = 2(n − 1)
σ2
2
V ar(s2 ) = σ4
(n − 1)
2
Puesto que el sesgo B(s2 ) = 0, entonces MSE(s2 ) = V ar(s2 ) = (n−1) σ4
n 2 1
(ii) Sea σ̂o2 = c i=1 Xi − X̄ . muestre que el valor de c que minimiza el MSE(σ̂o2 ) es c =
P
n+1
2
2σ
E(s2 ) = σ 2 ; también se tiene que V ar(s2 ) = n−1
Pn 2
Sea W = c i=1 Xi − X̄ = c(n − 1)s2 . Entonces
ahora,
2
M SE(W ) = V ar(W ) + E(W ) − σ 2
2
= V ar(W ) + kσ 2 − σ 2
2 σ4
= σ 2 − kσ 2 + 2k 2
n−1
σ4
= k 2 σ 4 + σ 4 − 2kσ 4 + 2k 2
n−1
2
2k
= σ 4 k 2 − 2k + 1 +
n−1
4
σ
2k + n + k 2 n − 2kn + k 2 − 1
=
n−1
Entonces existe una función de k para la cual se minimiza el MSE.
f (k) = 2k + n + k 2 n − 2kn + k 2 − 1
5
1
Por lo tanto, el valor c que minimiza el MSE es n+1
1.3.18 Para el ejemplo 1.1.1 considere la función de perdida (1.3.1) y sea δk la regla de decisión:“rechazar
si y solo si x ≥ k”
I(θ, 1) = s θ < θ0
I(θ, 1) = 0 θ ≥ θ0
I(θ, 0) = rN θ
y,
Luego,
1.6.38 Sea Xi = (Zi , Yi )T iid; Xi = (Zi , Yi )T , 1 ≤ i ≤ n donde X tiene densidad (1). Escriba la densidad
de X1 , ..., Xn como una familia exponancial canónica e identifique T, h, Ayε. Encuentre el valor esperado
y varianza de la estadı́stica suficiente.
1 1 1
f (X, θ) = exp − Z 2 exp − 2 (Y − Z)2 − logθ (1)
2π 2 2θ
Se observa que:
q=2
1
η(θ) = −
2θ2
B(θ) = logθ
T (X) = (Y − Z)2
1 1 2
h(X) = exp − Z
2π 2
6
Se va a hallar A(η)
Se sabe que:
η = η(θ)
1
= − 2
2θ
se despeja θ,
r
1
θ= −
2η
luego,
A(θ) = logθ
r
1
A(η) = log −
2η
Ahora la forma de familia exponencial canónica es:
q(X, η) = h(X)exp{ηT (x) − A(η)} x ∈ X ⊂ Rq
r
1 1 2 2 1
q(X, η) = exp − Z exp η(Y − Z) − log −
2π 2 2η
Donde,
1 1
h(X) = exp − Z 2
2π 2
r
1
A(η) = log −
2η
ε = R2
y la estadı́stica suficiente es,
T (X) = (Y − Z)2
7
De donde se tiene que
E(T (X)) = θ2
Donde,
Como W tiene distribución normal de parámetros 0 y 1, entonces E(W 4 ) es la curtosis de dicha distri-
bución la cual es 3. Por lo tanto:
y finalmente
2.1.15 En una población de plantas (Mimulus guttatus) hay tres posibles alelos S, I y F en un locus que
resulta en seis genotipos etiquetados
P3por SS, II, FF, SI, SF y IF. θ1 , θ2 y θ3 denotan las probabilidades
de S, I y F respectivamente, donde j=1 θj = 1. El modelo Hardy-Weinberg que los seia genotipos tienen
probabilidades:
Genotype 1 2 3 4 5 6
Genotype SS II FF SI SF IF
Probability θ12 θ22 θ32 2θ1 θ2 2θ1 θ3 2θ2 θ3
Sea Nj el número de plantas del genotipo j en una muestra de n plantas independientes, 1 ≤ j ≤ 6 y sea
p̂j = Nj /n. Muestre que:
1 1
θ̂1 = p̂1 + p̂4 + p̂5
2 2
1 1
θ̂2 = p̂2 + p̂4 + p̂6
2 2
1 1
θ̂3 = p̂3 + p̂5 + p̂6
2 2
Son frecuencias plug-in estimadas de θ1 , θ2 y θ3 .
Se sabe que:
p̂1 = θ12 = N1 /n
p̂2 = θ22 = N2 /n
p̂3 = θ32 = N3 /n
p̂4 = 2θ1 θ2 = N4 /n
p̂5 = 2θ1 θ3 = N5 /n
p̂6 = 2θ2 θ3 = N6 /n
8
Y
3
X
θ̂j = 1 = θ̂1 + θ̂2 + θ̂3
j=1
θ̂1 = θ̂1 ∗ 1
X 3
= θ̂1 ∗ θ̂j
j=1
θ̂2 = θ̂2 ∗ 1
X 3
= θ̂2 ∗ θ̂j
j=1
θ̂3 = θ̂3 ∗ 1
X 3
= θ̂3 ∗ θ̂j
j=1