You are on page 1of 97

Apuntes de Estadsitica

por
Jose Antonio Belinchon

Ultima actualizacion Diciembre 2007


ii

Indice general
Pr ologo . V
1. Muestreo aleatorio. 1
1.1. Muestreo aleatorio simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Inferencia parametrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Estadsticos sucientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Estimaci on puntual 15
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Metodo de los momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Metodo de maxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1. Introduccion a los metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2. Estimadores puntuales bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Propiedades deseables de los estimadores. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.1. Error cuadratico medio. Estimadores insesgados. . . . . . . . . . . . . . . . . 19
2.5.2. Estimadores ecientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3. Estimadores consistentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Intervalos de connaza 37
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
i
ii

INDICE GENERAL
3.2. Metodo de la cantidad pivotal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1. Cantidades pivotales e intervalos de conanza mas frecuentes. . . . . . . . . . 38
3.2.2. Cantidad pivotal general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3. Intervalos de conanza bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4. Resumen de intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.1. X N(, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.2. X Bernoulli(p) (muestras grandes). . . . . . . . . . . . . . . . . . . . . . . 42
3.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 43
3.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 43
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4. Contraste de hip otesis 55
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2. Metodo de la razon de verosimilitud. . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1. Asignacion de hipotesis en la practica. . . . . . . . . . . . . . . . . . . . . . . 59
4.2.2. Concepto de p-valor de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4. Resumen de contrastes de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1. X N(, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.2. X Bernoulli(p) (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 63
4.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 65
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Distribuciones. 81
5.1. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.1. Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.2. Binomial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

INDICE GENERAL iii


5.1.3. Geometrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.4. Binomial negativa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.5. Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.6. Hipergeometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2. Variables continuas (v.a.c.). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.1. Uniforme en [a, b]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2. Gamma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.3. Exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.4. Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.5. Normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.6. Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.7.
2
n
. Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.8. t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.9. F Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
iv

INDICE GENERAL
Prologo
La idea fundamental de esta notas confecionadas a modo de resumen (personal) es la de tener a
mano un recordatorio de por donde iban los tiros. Solo se demuestran los teoremas fundamentales y
se acompo na el texto con una serie de ejercios mas o menos trabajados. En modo alguno pretenden
sustituir (porque es implosible) los manuales clasicos o las notas de clase de un profesor. Es decir,
estas notas estan confeccionadas a modo de refrito entre las notas de clase y de distintos libros
clasicos como los siguientes:
1. Julian de la Horra. Estadstica Apliaca. Diaz de Santos (2003)
2. M.A. Gomez Villegas Inferencia EstadsticaDiaz de Santos (2005)
3. Novo, V. Problemas de Calculo de Probabilidades y Estadstica UNED (1993).
4. Daniel Pe na. Fundamentos de Estadstica. Alianza Editorial (2001)
5. R. Velez Ibarrola et al. Principios de Inferencia Estadstica UNED (1993)
todo ello aderezado (como he indicado antes) con una serie de ejemplos (ejercicios donde se aplica
de forma inmediata los conceptos teoricos expuestos) desarrollados (eso espero) al nal de cada
capitulillo (todos ellos muy sencillos).
Agradezco al Prof. Julian de la Horra el haberme pasado las secciones 3.4 y 4.4 de estas notas,
estas son enteramente suyas.
ADVERTENCIA: No estan concluidas y es muy posible que hayan sobrevivido numerosas er-
ratas. Toda observacion en este sentido es bien recibida.
v
vi

INDICE GENERAL
Captulo 1
Muestreo aleatorio.
1.1. Muestreo aleatorio simple.
Es el objetivo fundamental de la inferencia estadstica. Obtener conclusiones razonadas sobre una
caracterstica X de una poblacion a partir de los resultados de una muestra. Dicha caracterstica X
sera una variable aleatoria (v.a.) (discreta o contnua) y por lo tanto estara descrita por su funcion
de masa o de densidad, escrita de forma generica f.
Observaci on 1.1.1 f no es completamente conocida.
Denici on 1.1.1 Una muestra aleatoria (m.a.) de una caracterstica X cuya distribuci on es f (x)
i.e. X f (x) , es un vector aleatorio (X
1
, ...., X
n
) tal que
1. La distribuci on marginal de cada X
i
viene dada por la misma distribuci on que la caracterstica
i.e. (X
i
)
n
i=1
f (x) .
2. (X
i
)
n
i=1
son independientes.
El signicado intuitivo es el siguiente.
a Las observaciones son representaciones de la poblacion que estoy estudiando.
b La muestra es con reemplazamiento.
1. por simplicidad matematica (el caso no independiente es mucho mas complejo)
2. la muestra es con reemplazamiento, signica que la muestra (su tama no) es peque no en
comparacion con la poblacion.
Fundamentalmente por lo tanto la funcion de masa o de densidad de una muestra aleatoria ven-
dra dada por
f (x
1
, ....., x
n
) =
indpen.

i=1
f(x
i
). (1.1)
1
2 CAP

ITULO 1. MUESTREO ALEATORIO.


Ejemplo 1.1.1 Supongamos que X es del tipo, estatura, etc... entonces es razonable pensar que
X N(,
2
),
donde falta por conocer y
2
.
Un problema de inferencia parametrica es aquel en el que queremos estudiar una caracterstica
X f

(x) , donde es el parametro a encontrar, (espacio parametrico). Nuestro proposito


sera encontrar conclusiones sobre por lo tanto la eq. (1.1) se reescribe como
f

(x
1
, ....., x
n
) =
indpen.

i=1
f

(x
i
). (1.2)
Denici on 1.1.2 Un estadstico T es una funci on medible de la muestra T : R
n
R
n
. Formal-
mente T es un variable o vector aleatorio. T viene a ser el resumen de la muestra.
Ejemplo 1.1.2 Veamos algunos ejemplos de estadsticos:
1. Media muestral
X =
1
n
n

i=1
X
i
, (1.3)
2. Varianza muestral
var(X) =
1
n
n

i=1
_
X
i
X
_
2
=
1
n
_
n

i=1
X
2
i
nX
2
_
, (1.4)
3. Cuasi-varianza muestral
S
2
=
1
n 1
n

i=1
_
X
i
X
_
2
=
1
n 1
_
n

i=1
X
2
i
nX
2
_
, (1.5)
4. Estasticos de orden
_
X
(1)
, ......, X
(n)
_
, (1.6)
donde
X
(1)
= mn (X
1
, ...., X
n
) ,
... (1.7)
X
(n)
= max (X
1
, ...., X
n
) .
1.1. MUESTREO ALEATORIO SIMPLE. 3
Proposici on 1.1.1 Propiedades de los estadsticos. Sea (X
1
, ...., X
n
) una m.a. tal que E (X) =
y var(X) =
2
, entonces:
1. E
_
X

= ,
se observa que
E
_
1
n
n

i=1
X
i
_
=
1
n
n

i=1
E [X
i
]
indp.
=
1
n
nE [X
i
] =
2. var
_
X

=

2
n
,
Vemos que
var
_
X

= var
_
1
n
n

i=1
X
i
_
=
1
n
2
var
_
n

i=1
X
i
_
indp.
=
1
n
2
nvar(X
i
) =

2
n
3. E
_
S
2

=
2
.
Sea X =
1
n

n
i=1
X
i
, o

n
i=1
X
i
. En general tenemos, a partir de la proposicion anterior, que
E
_
X

= , var
_
X

=

2
n
, etc... pero si estamos en la distribucion de X o en la de

n
i=1
X
i
,
que podemos hacer?. Estudiar su funcion caracterstica. Sea (X
1
, ...., X
n
) una m.a. de X con
funcion caracterstica
X
(t), entonces encontramos que

X
i
(t) =
indpen.

X
i
(t) =
i.d.

n
X
(t), (1.8)
mientras que

X
(t) = 1
n

n
i=1
X
i
(t) =

n
i=1
X
i
(
t
n
) =
n
X
(
t
n
), (1.9)
basandonos en las propiedades de las funciones caractersticas.
Ejemplo 1.1.3 Sea (X
1
, ...., X
n
) una m.a. de X N(,
2
), con funci on caracterstica
X
(t),
que podemos decir sobre la distribuci on de la media muestral, X?. Vemos que

X
(t) = e
it
1
2
t
2

2
entonces teniendo en cuenta las f ormulas anteriores encontramos que:

X
(t) =
n
X
(
t
n
) = e
in
t
n

n
2
(
t
n
)
2

2
= e
it
1
2
t
n
2

2
,
donde observamos que E
_
X

= , y var
_
X

=

2
n
.
Volmemos otra vez sobre los estadsticos de orden.
4 CAP

ITULO 1. MUESTREO ALEATORIO.


Teorema 1.1.1 Consideramos una muestra aleatoria (X
1
, ...., X
n
) , de X continua con una funci on
de densidad f y una funci on de distribuci on F, entonces:
f
X
(j)
=
n!
(j 1)! (n j)!
[F(x)]
j1
f (x) [1 F (x)]
nj
. (1.10)
Interpretamos esta formula de la siguiente manera;
[F(x)]
j1
f (x) [1 F (x)]
nj
: probabilidad de cada posibilidad
n!
(j 1)! (n j)!
: n umero de posibilidades.
y la podemos emplear de la siguiente forma.
Teorema 1.1.2 Sea (X
1
, ...., X
n
) , de X continua con una funci on de densidad f y una funci on
de distribuci on F, entonces:
f
(X
(i)
,X
(j)
)
(u, v) =
n!
(i 1)! (j 1 i)! (n j)!
[F(u)]
i1
f (u) [F(v) F (u)]
j1i
f (v) [1 F (v)]
nj
.
(1.11)
Teorema 1.1.3 Sea (X
1
, ...., X
n
) , de X continua con una funci on de densidad f y una funci on
de distribuci on F, entonces:
f
(X
(1)
,.....,X
(n)
)
= n!
n

i=1
f (x
i
) . (1.12)
1.2. Inferencia parametrica.
Sea (X
1
, ...., X
n
) una m.a. de X f

(X). Empezaremos repasando algunas de las propiedades


fundamentales sobre las principales distribuciones que se emplearan mas adelante y que se derivan
de la normal.
Denici on 1.2.1
2
n
. Distribuci on Chi-cuadrado con n-grados de libertad. Consideramos (X
1
, ...., X
n
)
v.a.i.i.d. que siguen una N(0, 1). Denimos

2
n
=
n

i=1
X
2
i
. (1.13)
Denici on 1.2.2 t-Student, con n-grados de libertad, t
n
.
Considermos X N(0, 1) e Y
2
n
de tal forma que (X, Y ) son independientes, denimos
t
n
=
X
_
Y
n
=
N(0, 1)
_

2
n
/n
(1.14)
1.3. ESTAD

ISTICOS SUFICIENTES. 5
El calculo de la funcion de densidad es facil ya que al tratarse de v.a.i. entonces f
XY
= f
X
f
Y
Denici on 1.2.3 F Fisher-Snedecor. F
m,n
con m y n grados de libertad. Sea X
2
m
, e Y
2
n
v.a.i. entonces denimos
F
m,n
=
X
m
Y
n
=
Xn
Y m
=

2
m
/m

2
n
/n
(1.15)
Teorema 1.2.1 Fisher. Sea (X
1
, ...., X
n
) una m.a. de X N(,
2
), entonces:
1.

X
n
N(,

2
n
),
2.

X
n
y S
2
n
son independientes,
3.
(n 1) S
2
n

2
=

(X
i
)
2

2

2
n1
, (1.16)
El segundo apartado del teorema es el resultado realmente importante.
1.3. Estadsticos sucientes.
Empezaremos con una idea intuitiva. Como siempre consideramos (X
1
, ...., X
n
) una m.a. de X
f

(X). La muestra aleatoria (X


1
, ...., X
n
) quedara reducida a un determinado estadstico T, que
pasaremos a denominar estadstico suciente. Cuanta informacion perdemos al resumir la m.a. en
T?. Llegamos a la conclusion de que si T es suciente entoncesno hay perdida de informacion.
Denici on 1.3.1 Estadstico suciente. Sea (X
1
, ...., X
n
) una m.a. de X f

(X), Un estadstico
T es suciente para si (X
1
, ...., X
n
| T = t) no depende de .
Esta denicion no ayuda demasiado a encontrar un estadstico ademas el calculo de las distribu-
ciones condicionadas puede resultar algo pesado, por eso consideramos el siguiente teorema
Teorema 1.3.1 de Factorizacion. Consideramos (X
1
, ...., X
n
) una m.a. de X f

(X), entonces
T ser a estadstico suciente para sii f

(x
1
, ..., x
n
) puede factorizarse de la siguiente forma:
f

(x
1
, ..., x
n
) = g (t, ) h(x
1
, ..., x
n
) , (1.17)
donde t = T (x
1
, ..., x
n
) .
6 CAP

ITULO 1. MUESTREO ALEATORIO.


Ejemplo 1.3.1 Sea
f

=
(log )
x
1
I
(0,1)
(x) , > 1,
entonces un estadstico suente puede ser
n

i=1
f

(x
i
) =
n

i=1
_
(log )
x
i
1
I
(0,1)
(x
i
)
_
=
_
(log )
1
_
n

x
i
n

i=1
I
(0,1)
(x
i
)
por lo tanto
T =

x
i
ser a un estadstico suciente en virtud del teorema de factorizaci on.
Ejemplo 1.3.2 Si
f

=
2x

2
I
(0,)
(x) , > 0,
entonces un estadstico suente puede ser
T =
_
n

i=1
x
i
, X
(n)
_
ya que en virtud del teorema de facotrizaci on tenemos que:
n

i=1
f

(x
i
) =
n

i=1
_
2x

2
I
(0,)
(x
i
)
_
=
_
2

2
_
n n

i=1
(x
i
)
n

i=1
I
(0,)
(x
i
) =
=
_
2

2
_
n n

i=1
(x
i
) I
(X
(n)
,)
() ,
por lo tanto
T = X
(n)
ser a un estadstico suciente y T =
_
n

i=1
x
i
, X
(n)
_
tambien.
1.4. Ejercicios.
Ejercicio 1.4.1 Sea (X
1
, ...., X
n
) una muestra sin reemplazamiento de una poblaci on nita
{x
1
, ...., x
N
} ,
Probar que X
1
y X
2
no son independientes, pero tienen la misma distribuci on.
(b) Sea (X
1
, ...., X
10
) una muestra sin reemplazamiento de la poblaci on nita:
{1, 2, ......, 1000}
Calcular la probabilidad de que todas las observaciones sean mayores que 200, primero de
manera exacta y despues de manera aproximada admitiendo independencia.
1.4. EJERCICIOS. 7
Soluci on. Con respecto al primer apartado, vemos que las (X
i
)
n
i=1
son v.a.i.d. pero no indepen-
dientes. Lo usual es trabajar con v.a.i.i.d. Por lo tanto vemos que
P (X
1
= x) =
1
N
,
P (X
2
= x) =
prob.total

P (X
1
= y) P (X
2
= x | X
1
= y)
y por lo tanto
P (X
2
= x) = P (X
1
= x) P (X
2
= x | X
1
= x) +

y=x
P (X
1
= y) P (X
2
= x | X
1
= y) =
=
1
N
0 +

1
N

1
N 1
= (N 1)
1
N

1
N 1
=
1
N
de esta forma vemos que siguen igual distribucion.
Para ver la independencia i.e.
P (X
1
= x, X
2
= y) = P (X
1
= x) P (X
2
= y)?
as que
P (X
1
= x, X
2
= x) = 0,
sin embargo
P (X
1
= x) P
2
(X
2
= x) =
1
N

1
N
por lo que no son independientes. Es grave esta perdida?,es importante?.
Sea (X
1
, ...., X
10
) una muestra sin reemplazamiento de la poblacion nita:
{1, 2, ......, 1000}
queremos calcular
P (todas las observaciones sean > 200)
para ello denimos la v.a.
Y := n umero de observaciones mayores que 200 entre las 10.
Calculo exacto: al no ser independientes los sucesos entonces las nBernoullis no forman una
Binomial sino una hipergeometrica
P (Y = 10) =
_
800
10
__
200
0
_
_
1000
10
_ 0,10616,
mientras que el calculo aproximado lo haremos considerando que los sucesos son independientes y
por lo tanto siguen un Binomial Bin(n, p) , donde la probabilidad de exito vendra dada por
p = P
_

Exito
_
=
800
1000
= 0,8
8 CAP

ITULO 1. MUESTREO ALEATORIO.


de esta forma llegamos al siguiente resultado:
P (Y = 10) = Bin(10, 0,8) =
_
10
10
_
(0,8)
n
(0,2)
0
= (0,8)
n
0,107,
por lo que la moraleja del ejercio es que no hay mucha perdida de informacion al considerar la
independencia.
Ejercicio 1.4.2 Supongamos que (X
1
, ...., X
n+1
) es una muestra aleatoria de una poblaci on X con
E[X] = , y V (X) =
2
, sea

X
n
=
1
n
n

i=1
X
i
.
Hallar la esperanza y la varianza del estadstico
T =
_
n
n + 1
_
X
n+1


X
n
_
.
Soluci on. Vemos que
E [T] = E
__
n
n + 1
_
X
n+1


X
n
_
_
= 0
=
_
n
n + 1
E
__
X
n+1


X
n
__
=
_
n
n + 1
_
E (X
n+1
) E
_

X
n
__
= 0,
ya que E (X
n+1
) = E
_

X
n
_
= , mientras que
var [T] = var
__
n
n + 1
_
X
n+1


X
n
_
_
=
n
n + 1
var
_
X
n+1


X
n
_
=
n
n + 1
_
var (X
n+1
) +var
_

X
n
_
2cov
_
X
n+1
,

X
n
__
ya que no se de antemano si se tratade dos v.a. independientes, pero vemos que
(X
1
, ...., X
n+1
)

X
n
,
X
n+1
X
n+1
,
son independientes por lo cov
_
X
n+1
,

X
n
_
= 0, quedando la anterior expresion reducida a:
var [T] =
n
n + 1
_
var (X
n+1
) +var
_

X
n
__
,
ahora es facil comprobar que
var (X
n+1
) =
2
,
var
_

X
n
_
=

2
n
quedando por lo tanto
var [T] =
n
n + 1
_

2
+

2
n
_
=
2
,
tal y como queramos hacer ver.
1.4. EJERCICIOS. 9
Ejercicio 1.4.3 Sea (X
1
, ...., X
n
) una muestra aleatoria de una N(0, 1). Probar:
1. X
2
1
Gamma
_
a =
1
2
; p =
1
2
_
, esta distribuci on es la
2
1
.
2.

n
i=1
X
2
i
Gamma
_
a =
1
2
; p =
n
2
_
, que es la
2
n
.
Soluci on. Con respecto al primer apartado vemos que:
X
2
1
Gamma
_
a =
1
2
; p =
1
2
_
donde
X
1
N(0, 1) = f
X
1
=
1

2
exp
_

x
2
1
2
_
denimos la nueva v.a. Y = X
2
1
, viendose as que X
1
=

Y . Teniendo en cuenta el jacobiano de


esta transformacion la funcion de distribucion de la nueva v.a. sera:
f
Y =X
2
1
=
1

2
exp
_

y
2
_
1
2

y
+
1

2
exp
_

y
2
_
1
2

y
=
1

2y
exp
_

y
2
_
donde
|J| =
1
2

y
por lo que
f
Y
=
1

2
exp
_

y
2
_
y
1/2
,
y si tenemos en cuenta que
f
(a,p)
=
a
p
(p)
exp (ax) x
p1
,
llegamos a la igualdad deseada puesto que
_
a =
1
2
, p =
1
2
_
, (p) =

, y a
p
=
1

2
.
Con respecto al segundo apartado vemos que
n

i=1
X
2
i
Gamma
_
a =
1
2
, p =
n
2
_
operamos de forma parecida. Teniendo en cuenta las funciones caractersticas etc... vemos que al
ser independientes
n

i=1
X
2
i
=

X
2
i
(entiendase la expresion) de esta forma vemos que

n
i=1
X
2
i
=

X
2
i
=

_
1
it
a
_
p
=
_
1
it
1/2
_

n
2
Gamma
_
a =
1
2
, p =
n
2
_
donde la funcion caracterstica de la funcion Gamma es:

(a,p)
=
_
1
it
a
_
p
tal y como queramos hacer ver.
10 CAP

ITULO 1. MUESTREO ALEATORIO.


Ejercicio 1.4.4 Sea (X
1
, ...., X
n
) una muestra aleatoria de una poblaci on U(0, 1). Hallar la esper-
anza y la varianza de X
(j)
.
Soluci on. En primer lugar recordemos que
f
X
(j)
=
n!
(j 1)! (n j)!
[F(x)]
j1
f (x) [1 F (x)]
nj
.
y que las propiedades de la funcion Beta son: funcion de densidad.
f
X
(t) =
1
B(p, q)
x
p1
(1 x)
q1
I
(0,1)
(x),
y su esperanza y varianza son:
E(X) =
p
p +q
, var(X) =
pq
(p +q)
2
(p +q + 1)
De esta forma vemos que necesitamos conocer la F(x) y la f (x) de la distribucion uniforme siendo
estas:
f = 1, F =
_
x

1dx = x, x (0, 1) ,
por lo que
f
X
(j)
=
n!
(j 1)! (n j)!
[F(x)]
j1
f (x) [1 F (x)]
nj
=
=
n!
(j 1)! (n j)!
[x]
j1
1 [1 x]
nj
Beta (p, q)
obteniendose de forma inmediata la analoga con la funcion beta
1
B(p, q)
=
n!
(j 1)! (n j)!
=
(p +q)
(p) (q)
con j = p, q = n j + 1. De esta forma
E
_
X
(j)

=
_
xf
X
(j)
=
p
p +q
=
j
n + 1
,
var
_
X
(j)

=
pq
(p +q)
2
(p +q + 1)
=
j (n j + 1)
(n + 1)
2
(n + 2)
,
etc.... falta desarrollar todos estos calculos pesadsimos.
Ejercicio 1.4.5 Si

X es la media de una muestra aleatoria (X
1
, ...., X
n
) de una N(,
2
= 100),
hallar n para que
P
_
5 <

X < + 5
_
= 0,0954.
1.4. EJERCICIOS. 11
Soluci on. Vemos que

X N
_
,
100
n
_
= N
_
,
10

n
_
,
por lo que
P
_
5 <

X < + 5
_
= P
_
5
10

n
<

X
10

n
<
+ 5
10

n
_
,
donde
Z =

X
10/

n
N (0, 1) ,
as que la anterior expresion se reduce a:
P
_

n
10
< Z <
5

n
10
_
,
y por simetra se obtiene
P
_
Z >

n
2
_
=
1 0,0954
2
= 0,0230,
por lo que

n
2
2...
mirar tablas
= n 16,
tal y como queramos calcular.
Ejercicio 1.4.6 Sean (X
1
, ...., X
25
) e (Y
1
, ...., Y
25
) dos muestras aleatorias de dos distribuciones
independientes N( = 0,
2
= 16) y N( = 1,
2
= 9) respectivamente. Calcular P
_

X >

Y
_
.
Soluci on. Vemos que
(X
1
, ...., X
25
)

X N( = 0,
2
= 16),
(Y
1
, ...., Y
25
)

Y N( = 1,
2
= 9),
y queremos calcular P
_

X >

Y
_
. Lo que hacemos en este caso es lo siguiente:
P
_

X >

Y
_
= P
_

X

Y > 0
_
= P (Z > 1) = 0,1587
donde la nueva v.a.
_

X

Y
_
N( = 1,
2
= 1) y la normalizamos a Z N (0, 1) , obteniendo
el resultado requerido. Ver las propiedades de la distribucion normal en el ultimo captulo.
ESTAD

ISTICOS SUFICIENTES
Ejercicio 1.4.7 Encontrar un estadstico suciente en cada uno de los siguientes casos basado en
una muestra aleatoria de tama no n de:
12 CAP

ITULO 1. MUESTREO ALEATORIO.


1. X Beta(, ).
2. X Gamma(p, a).
3.
f

(x) =
_
e
x+
x (, ) ,
0 resto,
4.
f
,
=
1
x

2
exp
_
1
2
2
log (x )
2
_
,
con x > 0.
Soluci on. En todos los casos se trata de una aplicacion sistematica del teorema de factorizacion.
1. X Beta(, )
= (, )
f

=
1
B(, )
x
1
(1 x)
1
,
por lo que
f

(x
1
, ...., x
n
) =

(x
i
) =
_
1
B(, )
_
n

x
1
i
(1 x
i
)
1
,
de esta forma
f

(x
1
, ...., x
n
) = K
_

x
1
i
__

(1 x
i
)
1
_
= g(t, )h(x
1
, ...., x
n
)
donde elejimos h(x
1
, ...., x
n
) = 1. Denimos por lo tanto el estadstico
T =
_

x
1
i
,

(1 x
i
)
1
_
es el estadstico suciente buscado para (, ). No obstante debemos resaltar que no se trata
del unico estadstico suciente, la muestra en s misma es un estadstico suciente o
T =
_

log x
i
,

log (1 x
i
)
_
tambien es suciciente ya que

x
i
= e
log
_
x
i
_
= e

log x
i
,
luego reescribiendo adecuadamente todas estas transformaciones biyectivas obtenemos lo mis-
mo, la moraleja esta en que dado cualquier estadstico suciente (e.s.), entonces cualquier
transformacion biyectiva nos da otro e.s..
1.4. EJERCICIOS. 13
2. X Gamma(p, a), donde
f
(a,p)
=
a
p
(p)
exp (ax) x
p1
siguiendo el anterior esquema vemos que
f

(x
1
, ...., x
n
) =

(x
i
) =
_
a
p
(p)
_
n _

exp(ax
i
)

x
p1
i
_
de esta forma llegamos a la conclusion de que
T =
_

x
i
,

x
i
_
es un estadstico suciente para = (p, a).
Observaci on 1.4.1 En realidad se han omitido los detalles m as sangrientos, ya que hasta
que se llega al estadstico T, la verdad, hay que hacer unas cuantas cuentas:

exp (ax
i
) = exp
_
na

x
i
_
,

x
p1
i
= ....
manipular
. f (n, p)

x
i
3. X e
x+
, con x > . Intentamos la misma argumentacion i.e.
f

(x
1
, ...., x
n
) =

(x
i
) =
_
e
x
1
+
......e
x
n
+
_
= e
n
e

x
i
llegando a la conclusion de que
f

(x
1
, ...., x
n
) = g(t, )h(x
i
)
por lo que podramos tomar
g(t, ) = e
n
, h(x
i
) = e

x
i
de esta forma
T = n
sera el estadstico suciente. NO. Hemos operado mal intencionadamente. Aqu hay que tener
muy en cuenta que x > , por lo que empezamos reescribiendo la f

como
f

= e
x+
I
(,)
(x)
y volvemos a rehacer el ejercicio con esta nueva consideracion
f

(x
1
, ...., x
n
) =

(x
i
) =

e
x
i
+
I
(,)
(x
i
) = e
n

I
(,)
(x
i
)e

x
i
donde
g(t, ) = e
n
I
(,)
(X
(1)
), h(x
i
) = e

x
i
observar que

I
(,)
(x
i
) = I
(,)
(X
(1)
), donde X
(1)
= mn (x
1
, ...., x
n
) por lo que podemos
denir el e.s. T como
T =
_
X
(1)
_
,
sorprendente, no?.
14 CAP

ITULO 1. MUESTREO ALEATORIO.


4. En este caso
f
,
=
1
x

2
exp
_
1
2
2
log (x )
2
_
i.e. el modelo log-normal. En este caso el estadstico suente sera
T =
_

log x
i
,

log x
2
i
_
.
Para llegar a esta conclusion podemos considerar (X
1
, ...., X
n
) m.a. de X una N(,
2
), por
lo que
T =
_

x
i
,

x
2
i
_
sera un e.s. para este caso, aplicando el teorema de Fisher, entonces T =
_

X, S
2
_
es un e.s.
(falta probarlo).
Ejercicio 1.4.8 Sea (X
1
, ...., X
n
) una muestra aleatoria de X U(0, ), ( > 0). Estudiar la
suciencia de T = X
(n)
Soluci on. Vemos que
f
U
=
1

, = f

(x
1
, ...., x
n
) =
1

I
(0,)
(x
i
)I
(,)
(x
i
)
aqu es donde esta toda la miga del problema, por lo que
f

=
_
1

_
n

I
(0,)
(x
i
)

I
(,)
(x
i
)
y al igual que antes observamos que

I
(0,)
(x
i
) = I
(0,)
(X
(1)
),

I
(,)
(x
i
) = I
(,)
(X
(n)
),
de esta forma llegamos a la conclusion de que
f

(x
1
, ...., x
n
) = g(t, )h(x
i
)
por lo que podramos tomar
g(t, ) =
_
1

_
n
I
(,)
(X
(n)
), h(x
i
) = I
(0,)
(X
(1)
)
obteniendo as T
T = X
(n)
sera el estadstico suciente. Lo principal del problema esta en ver
f

(x
1
, ...., x
n
) =
1

I
(0,)
(x
i
)I
(,)
(x
i
),
lo cual no siempre es facil.
Captulo 2
Estimacion puntual
2.1. Introduccion
Sea (X
i
)
n
i=1
una muestra aleatoria (m.a.) donde X f

(x), , el parametro es lo que


queremos estimar. El objetivo es por lo tanto intentar decir algo sensato sobre a partir de los
datos que tenemos i.e. de la m.a. (X
i
)
n
i=1
. Para ello podemos seguir tacticas:
1. Estimacion puntual (el objeto de este captulo).
2. Los intervalos de conanza.
3. Contraste de hipotesis.
Los objetivos de la estimacion puntual son los siguientes: Estimar el parametro (o ()) mediante
un unico valor (un punto) a apartir de la muestra (X
i
)
n
i=1
.
Denici on 2.1.1 Sea (X
i
)
n
i=1
m.a. donde X f

(x), , un estimador puntual para es


simplemente un estadstico T = T(x
1
, ..., x
n
) cuyo objetivo es estimar lo mejor posible ( o ()).
Los metodos de construccion son los siguientes:
1. Metodo de los momentos,
2. Metodo de maxima verosimilitud,
3. Metodos bayesianos.
Tal y como veremos el metodo de maxima verosimilitud es el metodo por excelencia.
15
16 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
2.2. Metodo de los momentos
Denici on 2.2.1 Sea (X
i
)
n
i=1
m.a. donde X f

(x), , un estimador puntual para por el


metodo de los momentos (MM) y denotado por

, es el valor que se obtiene al resolver el siguiente
sistema de ecuaciones:
E

[X] =
1
n

X
i
,
.
.
. (2.1)
E

_
X
k
_
=
1
n

X
k
i
,
Ejemplo 2.2.1 Sea (X
i
)
n
i=1
m.a. donde X f

(x), , donde X Bernoulli(p), lo que


queremos estimar es p as que
E
p
[X] =
1
n

X
i
,
por lo tanto
p =
1
n

x
i
.
Ver la secci on de ejercicios para aclarar este metodo con ejemplos m as complicados.
2.3. Metodo de maxima verosimilitud
Denici on 2.3.1 Sea (X
i
)
n
i=1
m.a. donde X f

(x), . Denimos para cada muestra ja


(X
i
)
n
i=1
la funci on de verosimilitud L() = probabilidad o densidad que los diferentes valores de
dan a (X
i
)
n
i=1
= f

(x
i
)
n
i=1
=
n

i=1
f

(x
i
). Por lo tanto
L() =
n

i=1
f

(x
i
).
El estimador de m axima verosimilitud

es el valor del par ametro que maximiza L() .
Observaci on 2.3.1 En la mayora de los casos para la obtenci on de

se maximiza la funci on
log L() en vez de L()
2.4. M

ETODOS BAYESIANOS. 17
Ejemplo 2.3.1 Se trata del mismo ejemplo que el del MM i.e. sea (X
i
)
n
i=1
m.a. donde X f

(x),
, donde X Bernoulli(p), i.e.
X Bernoulli(p) = p
x
(1 p)
1x
,
lo que queremos estimar es p as que
L(p) = P
p
(x
1
, .., x
n
)
indp.
=
n

i=1
P
p
(x
i
) = p

x
i
(1 p)
n

x
i
tomamos logaritmos
log (L(p)) =

x
i
log (p) +
_
n

x
i
_
log (1 p)
y pasamos a calcular el m aximo i.e.

p
log (L(p)) = 0

x
i
1
p

_
n

x
i
_
1
1 p
= 0
despejamos p, encontr andose que
p =
1
n

x
i
.
Vemos que en tos ejemplos hemos obtenido que p = p, pero esto no siempre pasa.
2.4. Metodos bayesianos.
2.4.1. Introduccion a los metodos bayesianos.
Sea (X
i
)
n
i=1
m.a. donde X f

(x), . En primer lugar advertir que en este caso cambia la


notacion y se emplea
f

(x) = f (x | ) , (2.2)
considerando a como una v.a.
1. Disponemos de informacion muestral
f

(x
1
, ..., x
n
) = f (x
1
, ..., x
n
| ) =
n

i=1
f(x
i
| ). (2.3)
2. Nuevo. Disponemos de informacion previa sobre el parametro , que modelizamos mediante
una densidad a priori (no proviene de la muestra) () .
3. Obtenemos la densidad conjunta
f (x
i
| ) () . (2.4)
18 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
4. Obtenemos la densidad o funcion de masa de condicionada por (X
i
)
n
i=1
, densidad a poste-
riori,
( | x
1
, ..., x
n
) =
f (x
1
, ..., x
n
| ) ()
_

f (x
1
, ..., x
n
| ) d
f (x
i
| ) () . (2.5)
esta expresion no es mas que la expresion de Bayes para el caculo de la probabilidad condi-
cionada.
Los metodos bayesianos obtienen todas sus conclusiones sobre a partir de ( | x
i
) (densidad
condicionada) que recibe el nombre de densidad a posteriori.
El problema en la practica esta en la eleccion de () . A menudo se utilizan familias conjungadas
de densidades a priori facilitandose as los calculos.
Denici on 2.4.1 Familia conjungada. Sea (X
i
)
n
i=1
m.a. donde X f (x | ) , . Una
familia P = { ()} de densidades a priori es conjungada para muestras de X f (x | ) cuando
() P, entonces
( | x
1
, ..., x
n
) f (x
i
| ) () P. (2.6)
La idea en la practica es que cualquier tecnica estadsitica basada en metodos bayesianos obten-
dra conclusiones a partir de ( | x
i
) .
2.4.2. Estimadores puntuales bayesianos.
Un estimador puntual bayesiano sera una medida de centralizacion de la densidad a posteriori. Los
mas habituales son:
1. Media a posteriori
_

( | x
1
, ..., x
n
) d, (2.7)
2. Mediana a posteriori
_
M

( | x
1
, ..., x
n
) d =
1
2
. (2.8)
Ejemplo 2.4.1 Estimaci on de = p = P(E), probabilidad de exito. Disponemos de una m.a.
(X
i
)
n
i=1
donde
X =
_
1 P(E) =
0 P(F) = 1
por lo que X Bernoulli(), tal que (0, 1) , as que sabemos que X f (x | ) =
x
(1 )
1x
.
Consideramos la siguiente densidad a priori
() Beta (p = a, q = b)
2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES. 19
por lo tanto la densidad a posteriori ser a
f (x
1
, ..., x
n
| ) =
n

i=1
f(x
i
| ) =

x
i
(1 )
n

x
i
() =

a1
(1 )
b1
B(a, b)
entonces
( | x
1
, ..., x
n
) f (x
i
| ) ()

x
i
(1 )
n

x
i
_
_

a1
(1 )
b1
B(a, b)
_

a+

x
i
1
(1 )
n+b

x
i
1
Beta (p, q)
as llegamos a la conclusi on de que
p = a +

x
i
, q = n +b

x
i
.
Entonces la media a posteriori ser a
_

( | x
1
, ..., x
n
) d =
_
1
0
Beta (p, q) d
pero para hecharse esta cuenta uno debe considerar las constantes que hemos ido despreciando. Lo
mejor en estos casos es jarse en los resultados ya conocidos, por lo que
E [Beta (p, q)] =
p
p +q
=
a +

x
i
a +b +n
.
Vemos que la densidad a priori era una Beta y que la densidad a posteriori ha salido otra Beta i.e.
hemos tomado una familia conjugada
P ={Beta (p, q) , p, q > 0}
si p = q = 1 = Beta (1, 1) U ([0, 1]) , la uniforme sera el caso en el que no tenemos ni idea
sobre . Si P(E) = =
1
2
(o se aproxima mucho a este valor) entonces tomamos p, q tales que 1/2
sea el m aximo para la funci on Beta (p, q) .
2.5. Propiedades deseables de los estimadores.
2.5.1. Error cuadratico medio. Estimadores insesgados.
Denici on 2.5.1 El error cuadratico medio de un estimador T para estimar () es:
ECM = E

_
(T ())
2
_
=
_
f

(x
i
) (T ())
2
dx
n
. (2.9)
20 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
Si desarrollamos el formulon anterior entonces vemos que
ECM = E

_
(T ())
2
_
= var (T) + (E

[T] ())
2
, (2.10)
donde se dene el sesgo como
sesgo := E

[T] () . (2.11)
Denici on 2.5.2 Un estimaodor es insesgado o centrado para estimar una funci on del par ametro
si E

[T] = () , i.e. el sesgo, (E

[T] () = 0) es cero i.e.


ECM = E

_
(T ())
2
_
= var (T) + (E

[T] ())
2
= var (T) . (2.12)
Ejemplo 2.5.1 Sea (X
i
)
n
i=1
m.a. donde X N
_
,
2
_
, donde =
_
,
2
_
, entonces:
1. T
1
=

X, es insesgado para estimar = () , ya que
E
_

= = ()
2. T
2
= S
2
, es insesgado para estimar
2
= () , ya que
E
_
S
2

=
2
= ()
recordar que S
2
=
1
n1
_
x
i


X
_
2
3. T
3
= var(X), es sesgado para estimar
2
= () , ya que
E [var(X)] =
2
= ()
por lo tanto se tratara de un estimador sesgado.
Teorema 2.5.1 Cota de Frechet-Cramer-Rao. Sea (X
i
)
n
i=1
m.a. donde X f

(x), .
para cualquier estimador T insesgado para () se verica:
var (T)
_
d()
d
_
2
E

_
_
d
d
log f

(x
1
, ..., x
n
)
_
2
_ =
_
d()
d
_
2
nE

_
_
d
d
log f

(x)
_
2
_. (2.13)
Lema 2.5.1
E

_
_
d
d
log f

(x)
_
2
_
= nE

_
d
2
d
2
log f

(x)
_
(2.14)
por lo tanto
var (T)
_
d()
d
_
2
nE

_
d
2
d
2
log f

(x)
_ (2.15)
2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES. 21
2.5.2. Estimadores ecientes.
Denici on 2.5.3 Un estimador T es eciente para estimar un par ametro () si:
1. Es insesgado,
2. Su varianza alcanza la cota de FCR
En consecuencia si es eciente tiene mnima varianza. Al denominador de la cota de FCR (2.15)
recibe el nombre de informacion de Fisher.
Denici on 2.5.4 Informacion de Fisher.
IF = E

_
_
d
d
log f

(x
i
)
_
2
_
(2.16)
Obtenci on de un estimador eciente.
Si T es eciente su varianza alcanza la cota de FCR por lo que

2
_
T,
d
d
log f

(x
i
)
_
= 1,
el coeciente de correlacion vale uno, de este modo casi seguro
y y =
cov(x, y)
var(x)
(x x)
obtenemos la recta de regresion que traducimos en este caso como
T E

[T] =
cov(T,
d
d
log f

(x
i
))
var(
d
d
log f

(x
i
))
_
d
d
log f

(x
i
) E

_
d
d
log f

(x
i
)
__
de donde sabemos que E

_
d
d
log f

(x
i
)

= 0, desarrollando el formulon obtenemos el siguiente


resultado:
T = () +

()
nE

_
d
2
d
2
log f

(x)
_ (log f

(x
i
))

, (2.17)
i.e.
T = +

IF
(log f

,
observandose que
E

[T] = () ,
cov(T,
d
d
log f

(x
i
)) =
d ()
d
=

() ,
var(
d
d
log f

(x
i
)) = nE

_
d
2
d
2
log f

(x)
_
,
as que si T es eciente entonces debe tener la pinta de (2.17). Si T no depende de , entonces
ser a eciente.
22 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
2.5.3. Estimadores consistentes.
Sea (X
i
)
n
i=1
m.a. donde X f

(x), . Queremos estimar (), Buscamos estimadores que se


aproximen todo lo posible a lo que queremos estimar a medida que el n umero de observaciones n
crece i.e. T (X
i
)
L
() i.e. hay convergencia en distribucion (en Ley). Buscamos estimadores que
funcionen bien asintoticamente.
Denici on 2.5.5 Decimos que un estimador T
n
es consistente para estimar () si el estimador
converge en probabilidad a () i.e.
T
n
P
() . (2.18)
Veamos las distintas formas de abordar el estudio de la consistencia.
1. Supongamos que la funcion de distribucion F
T
n
es sencilla de obtener. Estudiamos entonces
si
F
T
n
L
F(y) =
_
0 y < ()
1 y ()
(2.19)
entonces T
n
P
() y por lo tanto se trata de un estimador consistente para () .
Esta tactica suele ser util cuando estamos trabajando con maximos y mnimos
2. Supongamos que
T
n
(t) son faciles de obtener y estudiamos la convergencia
lm
n

T
n
(t) = e
it()
(2.20)
entonces T
n
P
() y por lo tanto se trata de un estimador consistente para () .
Esta tactica suele ser util cuando estamos trabajando con sumas y medias muestrales.
Teorema 2.5.2 Sea T
n
un estimador tal que
1. lm
n
var

(T
n
) = 0,
2. lm
n
E

[T
n
] = () ,
entonces T
n
es consistente para estimar () .
Teorema 2.5.3 Bajo ciertas condiciones de regularidad el estimador de m axima verosimilitud es
consistente.
2.6. EJERCICIOS 23
2.6. Ejercicios
Ejercicio 2.6.1 Dada una m.a. de tama no n de una v.a. X calcular el estimador de m axima
verosimilitud y el del los momentos en los siguentes casos:
1. X Poisson(),
2. X Exponencial(),
3. X N(,
2
), conocido,
4. X N(,
2
), conocido,
5. X N(,
2
).
Soluci on. Siguiendo el mismo esquema que el propuesto en los ejemplos de teora vemos que:
1. X Poisson(), Veremos los dos metodos
MM Sabemos que X Poisson(), =E [X] =
E [X] = =
1
n
n

i=1
x
i
por lo que

=
1
n
n

i=1
x
i
.
MMV Tomamos como funcion de verosimilitud
L() =

P(x
i
) =
e
n

n
i=1
x
i
(x
1
!) ... (x
n
!)
tomando logaritmos entonces:
log (L()) = log
_
e
n

n
i=1
x
i
(x
1
!) ... (x
n
!)
_
=
= n +
_
n

i=1
x
i
_
log
n

i=1
log ((x
i
)!)
y por lo tanto

log (L()) = 0,
n +
_
n

i=1
x
i
_
1

= 0
despejando se llega con facilidad a:

=
1
n
n

i=1
x
i
como era de esperar.
24 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
2. X Exponencial(), por lo que
f(x) = e
x
,
MM Sabemos que X exp(), =E [X] =
1
E [X] =
1
=
1
n
n

i=1
x
i
por lo que

=
n

n
i=1
x
i
.
MMV Tomamos como funcion de verosimilitud
L() =

f(x
i
) =
n
e

n
i=1
x
i
tomando logaritmos entonces:
log (L()) = log
_

n
e

n
i=1
x
i
_
= nlog
_
n

i=1
x
i
_
y por lo tanto

log (L()) =
n

+
_
n

i=1
x
i
_
= 0
despejando se llega con facilidad a:

=
n

n
i=1
x
i
.
como era de esperar.
3. X N(,
2
), conocido,
MM Sabemos que X N(,
2
), =E [X] =
E [X] = =
1
n
n

i=1
x
i
, = =
1
n
n

i=1
x
i
MMV Tomamos como funcion de verosimilitud
L() =

f(x
i
) =
1

n
_
2
_
n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
,
tomando logaritmos entonces:
log (L()) = log
_
1

n
_
2
_
n
exp
_

1
2
2
n

i=1
(x
i
)
2
__
=
= nlog nlog
_

2
_

_
1
2
2
n

i=1
(x
i
)
2
_
2.6. EJERCICIOS 25
y por lo tanto

log (L()) =
1

2
n

i=1
x
i
n = 0
despejando se llega con facilidad a:
=
1
n
n

i=1
x
i
.
como era de esperar.
4. X N(,
2
), conocido,
MM Sabemos que X N(,
2
) =E [X] =
E [X] = =
1
n
n

i=1
x
i
no sirve en este caso pues este dato es conocido, por lo que tendremos que recurrir al
momento de orden 2 i.e.
E
_
X
2

=
1
n
n

i=1
x
2
i
de donde se obtiene que (recordar la denicion de varianza, var(X) = E
_
X
2

E [X]
2
)

2
+
2
=
1
n
n

i=1
x
2
i
despejando

2
=
1
n
n

i=1
x
2
i

2
pero este resultado nos lleva a obtener un absurdo pues puede ser negativa esta magnitud
! Por ejemplo tomando = 3, x
i
= (1, 2, 4).
MMV Tomamos como funcion de verosimilitud
L() =

f(x
i
) =
1

n
_
2
_
n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
tomando logaritmos entonces:
log (L()) = nlog nlog
_

2
_

_
1
2
2
n

i=1
(x
i
)
2
_
y por lo tanto

log (L()) =
n

+
1

3
n

i=1
(x
i
)
2
= 0,
26 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
despejando se llega con facilidad a:

2
=
1
n
n

i=1
(x
i
)
2
.
como era de esperar. Aqu se ve que no siempre
2
=
2
, y que siempre el mejor etimador
sera el de MV i.e.
2
.
5. X N(,
2
),
MM Sabemos que X N(,
2
)
E [X] = =
1
n
n

i=1
x
i
, = =
1
n
n

i=1
x
i
,
E
_
X
2

=
2
+
2
=
1
n
n

i=1
x
2
i
=
2
=
1
n
n

i=1
(x
i
)
2
.
MMV Tomamos como funcion de verosimilitud
L(, ) =

f(x
i
) =
1

n
_
2
_
n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
tomando logaritmos entonces:
log (L(, )) = nlog nlog
_

2
_

_
1
2
2
n

i=1
(x
i
)
2
_
y por lo tanto

log (L(, )) =
1

2
n

i=1
x
i
n = 0,

log (L(, )) =
n

+
1

3
n

i=1
(x
i
)
2
= 0,
despejando se llega con facilidad a:
=
1
n
n

i=1
x
i
,
2
=
1
n
n

i=1
(x
i
)
2
.
como era de esperar.
Ejercicio 2.6.2 Para cada uno de los siguientes casos encontrar la familia conjugada natural y
hallar la distribuci on a posteriori.
2.6. EJERCICIOS 27
1. (X
i
)
n
i=1
es una m.a. de X Poisson(),
2. (X
i
)
n
i=1
es una m.a. de X Gamma (p = 1, a = )
3. (X
i
)
n
i=1
es una m.a. de X N
_
, var =
1
r
_
, donde r es conocido.
Soluci on. Seguimos el guion expuesto en el ejemplo de la teora
1. (X
i
)
n
i=1
es una m.a. de X Poisson(),
f

(x) = P (x | ) =
e

x
x!
, x = 0, 1
familia de muestras para una Pisson
P (x | ) =

P (x
i
| ) e
n

x
i
P (x | ) es el n ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)}
recordamos que
f
a
p
(p)
e
ax
x
p1
por lo que
()
a

()
e
a

p1
as que
( | x
1
, ..., x
n
) P (x
i
| ) () e
n

x
i
a

()
e
a

p1
e
(n+a)

p+

x
i
1
para > 0, por lo tanto
( | x
1
, ..., x
n
) Gamma
_
p = +

x
i
, a = +n
_
.
Ademas podemos calcular la media a posteriori
_

( | x
1
, ..., x
n
) d =
p
a
=
+

x
i
+n
este sera un estimador puntual bayesiano.
2. (X
i
)
n
i=1
es una m.a. de X Gamma (p = 1, a = )
f

(x) = f (x | ) =

(1)
e
x
x
11
= e
x
, x > 0
familia de muestras para una Poisson
P (x | ) =

P (x
i
| )
n
e

x
i
,
28 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
P (x | ) es el n ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)} ,
recordamos que
f
a
p
(p)
e
ax
x
p1
,
por lo que
()
a

()
e
a

p1
,
as que
( | x
1
, ..., x
n
) f (x
i
| ) ()
n
e

x
i
,
para > 0. por lo tanto
( | x
1
, ..., x
n
) Gamma
_
p = +

x
i
, a = +n
_
.
Ejercicio 2.6.3 Sea X una observaci on de la densidad
f (x | ) =
2x

2
I
(0,)
(x) , > 0,
supongamos que tiene una distribuci on a priori uniforme sobre (0, 1) . Hallar la mediana de la
distribuci on a posteriori.
Soluci on. Tenemos la siguiente situacion:
f (x | ) =
2x

2
I
(0,)
(x) , > 0,
y suponemos que
() = U [0, 1] = 1, (0, 1) ,
entonces:
( | x
i
) f (x
i
| ) ()
2x

2
1 =
2x

2
, (0, 1) ,
pero x (0, 1) , x < , por lo que (x, 1) , as que
( | x
i
)
f (x
i
| ) ()
_
1
x
f (x
i
| ) d
=
2x

2
_
1
x
2x

2
d
=
x

2
(1 x)
, (x, 1) .
Para calcular la media a posteriori vemos que
1
2
=
_
M

( | x
i
) d =
_
M

2
(1 x)
d
2.6. EJERCICIOS 29
por lo que
M =
2x
1 +x
,
tal y como queramos calcular.
Ejercicio 2.6.4 Encontrar la cota de FCR y el estimador eciente (si existe) en los siguientes
casos:
1. m.a. de
f

(x) =
1

exp
_

_
, > 0, x > 0,
para estimar
2. m.a. de
f

(x) = (1 )
x
, x = 0, 1.., (0, 1) ,
para estimar
3. m.a. de
f

(x) =
1

2
exp
_

x
2
2
2
_
,
para estimar , lo mismo para estimar
2
.
Soluci on. Recordamos que
FCR =
_
d
d
_
2
nE

_
d
2
log f

(x)
d
2
_, I.F. = nE

_
d
2
log f

(x)
d
2
_
mientras que el estimador eciente
+
d
d
I.Fisher
d log f

(x
i
)
d
, T = +

IF
(log f

,
as que:
1. En este caso
f

(x) =
1

exp
_

_
, > 0, x > 0,
por lo que tomando logaritmos tenemos que
log f

(x) = log
_
1

exp
_

_
_
= log
x

,
y de forma inmediata se calculan las derivadas etc...

log f

(x) =
1

+
x

2
,

2
log f

(x) =
1

2

2x

3
,
30 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
de esta forma vemos que
E

_
1

2

2x

3
_
=
1

2

2

3
E [x] =
1

2

2

3
=
1

2
ya que
E [X] =
_
R
x
1

exp
_

_
dx =
ademas podemos observar que
E [X] =
p
a
=
ya que
_
p = 1, a =
1

_
. Por lo tanto:
FCR =
_
d
d
_
2
nE

_
d
2
log f

(x)
d
2
_ =
1
n
_

2
_ =

2
n
.
Para calcular el estimador eciente vemos que
f

(x
i
) =

(x
i
) =
1

n
exp
_

x
i

_
tomando logaritmos
log (f

(x
i
)) = log
_
1

n
exp
_

x
i

__
= nlog

x
i

y por lo tanto

(log (f

(x
i
))) =

x
i

_
=
n

x
i

2
de esta forma llegamos a que
T = +
d
d
I.Fisher
d log f

(x
i
)
d
=
= +
1
n
_

2
_
_

x
i

2
_
= +

2
n
_

x
i

2
_
=

x
i
n
.
2. De forma mecanica vemos que
f

(x) = (1 )
x
, x = 0, 1.., (0, 1) ,
es una geometrica
E [X] =
1

, I.F. =
n

2
(1 )
por lo que
FCR =

2
(1 )
n
sin embargo
T =

2
(1 )
n
_
d log f

(x
i
)
d
_
= 2
2

x
i
2.6. EJERCICIOS 31
i.e. no es un estimador eciente. FALTA completar las cuentecillas.
log (f

(x
i
)) = log
_

n
(1 )

x
i
_
.
d log f

(x
i
)
d
=
n

x
i
(1 )
,
3. En este caso
f

(x) =
1

2
exp
_

x
2
2
2
_
N
_
0,
2
_
,
evitando pasos intermedios vemos que
FCR =
_
d
d
_
2
nE

_
d
2
log f

(x)
d
2
_ =
1
nE

_
1

2

3x
2

4
_ =
1

2
+
3n

4
E

[X
2
]
observandose que: var(X) = E

_
X
2

E
2

[X]
E

_
X
2

= var(X) +E
2

[X] = var(X) =
2
ya que X N
_
0,
2
_
, as que
FCR =

2
2n
.
El estimador eciente:
T = +
d
d
I.Fisher
d log f

(x
i
)
d
= +

2
2n
_
d log f

(x
i
)
d
_
donde
_
d log f

(x
i
)
d
_
=
d
d
log
_
1
_

2
_
n
exp
_

x
2
i
2
2
_
_
=
n

x
2
i

3
entonces
T = +

2
2n
_

x
2
i

3
_
por lo que no hay estimador eiciente para .
Sin embargo si repetimos estas cuentecillas para
2
, vemos que
FCR =
_
d
d
_
2
nE

_
d
2
log f

(x)
d
2
_ =
4
2

2
+
3n

2
=
2
n

4
.
mientras que el estimador eciente verica
T = +
d
d
I.Fisher
d log f

(x
i
)
d
=
=
2
+
2
2n

2
_

x
2
i

3
_
=

x
2
i
n
luego T =

x
2
i
n
es un estimador eciente en este caso.
32 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
Tal y comoqueramos hacer ver.
Ejercicio 2.6.5 Sea (X
i
)
n
i=1
m.a. de una distribuci on tipo Poisson .
1. Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de e

.
2. Determinar el valor de la constante c tal que el estimador exp(c

X
i
) sea un estimador
insesgado de e

.
Soluci on. De forma inmediata vemos que
FCR =
_
d
d
_
2
nE

_
d
2
log f

(x)
d
2
_ =
e
2
nE

_
d
2
log f

(x)
d
2
_ =
e
2
n
no olvidar que estamos estimando e

.
T = exp (c

X
i
) insesgado para estimar e

.?? Recordamos que insesgado signica:


E

[T] () = 0 E

[T] = e

por lo tanto
e

= E [T] = E
_
exp
_
c

X
i
__
=

E [exp (cx
i
)] = (E [exp (cx
i
)])
n
= (exp ((1 e
c
)))
n
= exp (n(1 e
c
))
despejando se obtiene
c = log
_
1
1
n
_
.
veamos un paso delicado de la anterior cadenas de igualdades:
E [exp(cx)] =

e
cx
P(X = x) =

x=0
e
cx
e

x
x!
= e

x=0
(e
c
)
x
x!
= e

e
e
c
.
tal y como queramos hacer ver.
Ejercicio 2.6.6 Sea (X
i
)
n
i=1
m.a. de una distribuci on tipo uniforme U (0, ) , > 0.
1. Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de .
2. Estudiar si X
(n)
es un estimador insesgado para .
3. Hallar el estimador de m axima verosimilitud para .
2.6. EJERCICIOS 33
Soluci on. En este caso vemos que
E [T] = E
_
X
(n)

=
_
R
tf
X
(n)
(t)dt
para calcular f
X
(n)
(t) puedo mirar la funcion de densidad del maximo:
F
X
(n)
(t) =
_
_
_
0 t < 0,
t
n

n t (0, ) ,
1 t > ,
vemos que
F
X
(n)
(t) =

P(X
i
t) = (P(X
i
t))
n
=
__
t

fdx
_
n
=
__
t
0
1

dx
_
n
=
t
n

n
as
f
X
(n)
=
_
n
t
n1

n t (0, )
0 resto
de esta forma
E [T] = E
_
X
(n)

=
_
R
tf
X
(n)
(t)dt =
_

0
n
t
n

n
dt =
n
n + 1

por lo que no es insesgado para estimar . Recordatorio: E

[T] () = 0.
Hallar el estimador de maxima verosimilitud para . En este caso
f

(x) =
1

, x (0, ) ,
por lo que la funcion
L() = f

(x
i
) =

(x
i
) =
1

n
,
as que
log L() = nlog , =

log L() =
n

de esta forma llegamos a que

log L() =
n

= 0 =

= ,
llegando as a una cagada monumental.
Rehacemos el camino para hacer ver que en esta ocasion f

(x) =
1

, x (0, ) , pero L() =


1

n , si
X
(n)
, en este caso el rango de las observaciones depende del parametro por lo que hay que ser
un poco mas cuidadoso a la hora de escribir las cosas. As se llega a la conclusion de que

= X
(n)
tal y como queramos hacer ver.
34 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
Ejercicio 2.6.7 Sea (X
i
)
n
i=1
m.a. de la densidad
f

(x) = exp (x) , x 0, > 0.


Encontrar el estimador de m axima versimilitud de . Es consistente para ?.
Soluci on. En este caso f

(x) es una exponencial (ver primer ejercicio), ademas el rango no


depende del parametro.

=
n

x
i
, Es consistente para ? .i.e.

P
.?? Para verlo tendremos
que comprobar si E
_

_
n
, y var
_

_
n
0.
Por lo tanto:
E
_

_
= E
_
n

x
i
_
= E
_
n
Y
_
=
_

0
n
y
f (y) dy =
_

0
n
y

n
(n)
e
y
y
n1
dy =
= n

n
(n)
_

0
e
y
y
n2
dy = n

n
(n)
(n 1)

n1
=
n
n 1

por lo tanto
E
_

_
= E
_
n
Y
_
=
n
n 1
, E
_

_
n

en estos calculos hemos empleado los siguientes trucos: Y =

x
i
Gamma(p = n, a = ). las
exponenciales son casos particulares de una Gamma y la suma de Gammas es otra Gamma. Si X
Gamma(p, a) entonces:
f(x) =
a
p
(p)
e
ax
x
p1
,
_

0
e
ax
x
p1
dx =
(p)
a
p
, (p) = (p 1) (p 1) .
Mientras que
var
_

_
= var
_
n

x
i
_
= n
2
var
_
1
Y
_
= n
2
_
E
_
Y
2

E
2
_
Y
1
_
=
= n
2
__

0
1
y
2

n
(n)
e
y
y
n1
dy

2
(n 1)
2
_
= n
2
_

2
(n 1) (n 2)


2
(n 1)
2
_
de esta forma var
_

_
n
0, as que

es consistente.
Ejercicio 2.6.8 Sea (X
i
)
n
i=1
m.a. de una distribuci on tipo uniforme U (0, ) , (0, ) . De-
mostrar que X
(n)
es consistente para . Es Y
n
= 2X
n
consistente para ?
Soluci on. Seguimos los mismos que en ejercicios anteriores viendo que
F
X
(n)
(t) =
_
_
_
0 t < 0,
t
n

n t (0, ) ,
1 t > ,
2.6. EJERCICIOS 35
observamos que
F
X
(n)
(t) =
_
0 t < 0
1 t
comprobando que
X
(n)
L
D() X
(n)
P
X
(n)
consistente para .
Es Y
n
= 2X
n
consistente para ?. Esperamos que 2X
n
este cerca de .
E [Y
n
] = E
_
2X
n

= 2E
_
X
n

= 2E [X] = 2

2
=
n
,
var(Y
n
) = var(2X
n
) = 4var(X
n
) = 4
var(X)
n
=
4
n

2
12
=

2
3n
n
0,
por lo que es consistente para . Sin embargo tiene una peque na pega pues si tomamos X U(0, 10)
supongamos que

X = 6, entonces Y
n
= 2X
n
= 12, por lo que a veces sobre-estima.
Ejercicio 2.6.9 Sea (X
i
)
n
i=1
m.a. de una distribuci on discreta con funci on de masa
P

(X = x) = (1 )
x1
, x = 1, 2, ..., (0, 1)
1. Estudiar si T =

X
i
, es un estadstico suciente para .
2. Hallar el estimador de por el metodo de los momentos,
3. Obtener el estiamdor de m axima verosimilitud de .
4. Calcular la media de la distribuci on a posteriori cuando la distribuci on a priori para el
par ametro (0, 1) .
5. Calcular la cota de FCR para la varianza de los estiamdores insesgados para () =
1

.
6. Hay estimador eciente para estimar () =
1

?.
Soluci on. De forma telegraca vemos que
1. S, aplicando el teorema de facotrizacion obtenemos

_
(1 )
x
i
1
_
=
_

n
(1 )

x
i
n
_
por lo tanto T =

X
i
, es un estadstico suciente para
2. Sabemos que al tratarse de un geometrica
E [X] =
1
p
=
1

y por lo tanto

=
n

x
i
,
36 CAP

ITULO 2. ESTIMACI

ON PUNTUAL
3. Vemos que
L() =
_

n
(1 )

x
i
n
_
as que tomando logaritmos
log L = nlog +
_

x
i
n
_
log (1 )
calculamos el maximo, encontrando
n

x
i
n)
(1 )
= 0
de esta forma llegamos a:

=
n

x
i
,
4.
( | x
i
) Beta
_
p = n + 1, q =

x
i
n + 1
_
La media a posteriori es:
E [X] =
p
p +q
=
n + 1

x
i
+ 2
5.
T =

x
i
n
es eciente para =
1

, donde
E [X] =

x (1 )
x1
=
1

.
Captulo 3
Intervalos de connaza
3.1. Introduccion
Disponemos de (X
i
)
n
i=1
m.a. de X f

(x) tal que . Como siempre queremos estimar .


Denici on 3.1.1 Un estimador por intervalos de conenza para estimar
i
es una funci on que a
cada muestra (X
i
)
n
i=1
le asigna un intervalo
(L, U) = (L(x
i
)
n
i=1
, U (x
i
)
n
i=1
) .
Denici on 3.1.2 El nivel de conanza de un intervalo (L, U) es 1 cuando
P

{ (L, U)} = P

{(x
i
)
n
i=1
: L < < U} = 1 .
Consideramos los siguientes metodos de construccion
1. Metodo clasico (cantidad pivotal), intervalos de conanza mas frecuentes en las aplicaciones.
2. Metodos bayasianos.
3.2. Metodo de la cantidad pivotal.
Denici on 3.2.1 Una cantidad pivotal para estimar
i
es una funci on
T ((x
i
)
n
i=1
:
i
)
cuya distribuci on no depende de
i
.
La idea es la de obtener una cantidad pivotal T para
i
, que sea una funcion continua y monotona
de
i
. Queremos hallar ( (
1
) , (
2
)) tales que
P

{(x
i
)
n
i=1
: (
1
) < T < (
2
)} = 1 .
37
38 CAP

ITULO 3. INTERVALOS DE CONFINAZA


donde los ( (
1
) , (
2
)) no dependen de
i
por ser T una cantidad pivotal.
Despejamos
i
de la anterior ecuacion i.e.
(
1
) < T
T < (
2
)
obteniendo as (L, U) .
3.2.1. Cantidades pivotales e intervalos de conanza mas frecuentes.
1. (X
i
)
n
i=1
m.a. de X f

(x) = N
_
,
2
0
_
donde
2
0
es una cantidad conocida. El objetivo es
estimar mediante IC con un nivel de conanza (NC) 1 .
Para ello seguiremos la siguiente tactica:
Consideramos

X N
_
,

2
0
n
_
y tipicando i.e.

0
/

n
N (0, 1)
nos preguntamos si
T =

0
/

n
es una cantidad pivotal para estimar . Ademas, para una muestra ja es T continua y
monotona?. Ambas respuestas son armativas.
P

{(x
i
)
n
i=1
: (
1
) < T < (
2
)} = 1 ,
P

_
(x
i
)
n
i=1
: (
1
) <

0
/

n
< (
2
)
_
= 1 ,
vemos que T N (0, 1) entonces por simetra la ultima ecuacion la podemos reescribir como
P

_
(x
i
)
n
i=1
: Z
/2
< T < Z
/2
_
= 1 ,
as que despejamos
Z
/2
< T,
T < Z
/2
,
de donde obtenemos que
<

X +Z
/2

n
, >

X Z
/2

n
,
por lo que llegamos a:
IC
1
= (L, U) =
_

X Z
/2

n
_
.
Vemos de esta forma que al aumentar n la longitud del intervalo decrece (i.e. la estimacion es
mas precisa). De igual forma se observa que al aumentar el NC 1 entonces Z
/2
aumenta
i.e. la longitud del intervalo aumenta y por lo tanto la estimacion es menos precisa).
3.2. M

ETODO DE LA CANTIDAD PIVOTAL. 39


2. (X
i
)
n
i=1
m.a. de X N
_
,
2
_
. El objetivo es estimar mediante IC con un nivel de conanza
(NC) 1 . Podemos intentar seguir la tactica anterior i.e. consideramos

X N
_
,

2
0
n
_
y
tipicando i.e.

X
/

n
N (0, 1) ,
y nos preguntamos si
T =

X
/

n
es una cantidad pivotal para estimar . Ademas, para una muestra ja es T continua y
monotona?. En esta caso no, ya que T depende de un parametro desconocido, , por lo tanto
no puede ser cantidad pivotal.
En este caso deberemos apelar al teorema de Fisher (recordar el primer captulillo) viendo
que

X
/

n
N (0, 1) ,
(n 1) S
2

2

2
n1
por lo tanto
N (0, 1)
_

2
n1
/ (n 1)
=

X
/

n
_
(n1)S
2

2
/ (n 1)
=

X
S/

n
t
n1
por lo tanto si denimos
T =

X
S/

n
ahora s es cantidad pivotal para estimar . Por lo tanto y siguiendo el procedimiento anterior
vemos que
P
_
t
n1;/2
< T < t
n1;/2
_
= 1
donde hemos vuelto a tener en cuenta las simetras de la distribucion. As que despejando se
llega a que
IC
1
() =
_

X t
n1;/2
S

n
_
.
Siguiendo los mismos paso, podemos ahora estimar
2
. Para ello consideramos
T =
(n 1) S
2

2
,
como cantidad pivotal y obtenemos por lo tanto
IC
1
_

2
_
=
_
(n 1) S
2

2
n1;/2
,
(n 1) S
2

2
n1;1/2
_
.
3. (X
i
)
n
i=1
m.a. de X Bernoulli(p). El objetivo es estimar p mediante IC con un nivel de
conanza (NC) 1 . En este caso seguremos las siguientes consideraciones:
n

i=1
X
i
= # exitos Bin(n, p)
T
a
De Moivre
N
_
= np,
2
= npq
_
40 CAP

ITULO 3. INTERVALOS DE CONFINAZA


por lo tanto
n

i=1
X
i
N
_
= np,
2
= npq
_
tipicando

n
i=1
X
i
np
_
np (1 p)
N(0, 1)
arreglando las cuentecillas llegamos a

X p
_
p(1p)
n

X p
_
p(1 p)
n
=

X p
_

X(1

X)
n
N(0, 1)
as que
T =

X p
_

X(1

X)
n
.
observamos que para llegar a este resultado hemos utilizado resultdos previos como p =

X.
Por lo tanto y siguiendo los mismos pasos que los anteriores casos vemos que
IC
1
(p) =
_
_
X Z
/2


X
_
1

X
_
n
_
_
.
3.2.2. Cantidad pivotal general.
Sea (X
i
)
n
i=1
m.a. de X F

distribucion continua. Podemos denir una cantidad pivotal generica


como sigue:
T =
n

i=1
log F

(x
i
)
es cantidad pivotal para estimar el parametro , pues depende de (X
i
)
n
i=1
y y se comprueba con
facilidad que la funcion de distribucion de T no depende de .
Denici on 3.2.2 Denimos el error en la estimaci on de un intervalo de conenaza como
E =
longitud del intervalo
2
.
En muchos estudios es muy interesante saber el tama no muestral necesario para obtener un error
en la estimacion inferior a E.
Ejemplo 3.2.1 Sea (X
i
)
n
i=1
m.a. de X N
_
,
2
0
_
donde
2
0
es una cantidad conocida. Cu al es
el mnimo valor de n para que el error en la estimaci on de un intervalo con nivel de conanza 1
sea inferior a E?
3.3. INTERVALOS DE CONFIANZA BAYESIANOS. 41
Sabemos que
IC
1
=
_

X Z
/2

n
_
.
por lo tanto
E = Z
/2

n
por lo que de aqu despejamos n
Z
/2

0
E

n
as que
n
_
Z
/2

0
E
_
2
.
3.3. Intervalos de conanza bayesianos.
Sea (X
i
)
n
i=1
m.a. de X f (X | ) donde . Tenemos la informacion muestral (verosimilitud)
f (x
1
, ...., x
n
| ) =
n

i=1
f (x
i
| )
y de la informacion a priori
()
as que aplicando Bayes
( | x
1
, ...., x
n
) =
()
n

i=1
f (x
i
| )
_

()
n

i=1
f (x
i
| )
() f (x
1
, ...., x
n
| )
y todas las conclusiones las obtendremos a partir de ( | x
1
, ...., x
n
) la distribucion a posteriori.
Denici on 3.3.1 Un intervalo de conanza bayesiano al nivel 1 es un intervalo (L, U) tal que
_
U
L
( | x
1
, ...., x
n
) d = 1 .
Denici on 3.3.2 El intervalo de conanza bayesiano con m axima densidad a posteriori (HPD) al
nivel 1 es el intervalo (L, U) tal que
_
U
L
( | x
1
, ...., x
n
) d = 1 ,
y
1
(L, U) y
2
/ (L, U) ,
(
1
| x
1
, ...., x
n
) > (
2
| x
1
, ...., x
n
) .
El intervalo HPD es el de mnima longitud para un nivel 1 jado.
42 CAP

ITULO 3. INTERVALOS DE CONFINAZA


3.4. Resumen de intervalos
INTERVALOS DE CONFIANZA
NOTACI

ON:
(X
1
, . . . , X
n
) muestra aleatoria (m. a.) de X.
x =
1
n

x
i
s
2
=
1
n 1

(x
i
x)
2
.
3.4.1. X N(, )
Intervalos de conanza 1 para :
1. conocida:
I =
_
x z
/2

n
_
.
2. desconocida
I =
_
x t
n1;/2
s

n
_
.
Intervalo de conanza 1 para
2
:
I =
_
(n 1)s
2

2
n1;/2
,
(n 1)s
2

2
n1;1/2
_
.
3.4.2. X Bernoulli(p) (muestras grandes).
Intervalo de conanza 1 para p:
I =
_
x z
/2
_
x(1 x)
n
_
.
3.4.3. X Poisson() (muestras grandes)
Intervalo de conanza 1 para :
I =
_
x z
/2
_
x/n
_
.
3.4. RESUMEN DE INTERVALOS 43
3.4.4. Dos poblaciones Normales independientes
X N(
1
,
1
); (X
1
, . . . , X
n
1
) m. a. de X; se calcula x y s
2
1
.
Y N(
2
,
2
); (Y
1
, . . . , Y
n
2
) m. a. de Y ; se calcula y y s
2
2
.
s
2
p
=
(n
1
1)s
2
1
+ (n
2
1)s
2
2
n
1
+n
2
2
.
Intervalos de conanza 1 para
1

2
:
1.
1
,
2
conocidas:
I =
_
_
x y z
/2

2
1
n
1
+

2
2
n
2
_
_
.
2.
1
,
2
desconocidas,
1
=
2
:
I =
_
x y t
n
1
+n
2
2;/2
s
p
_
1
n
1
+
1
n
2
_
.
3.
1
,
2
desconocidas,
1
=
2
:
I =
_
_
x y t
f;/2

s
2
1
n
1
+
s
2
2
n
2
_
_
,
donde f = entero mas proximo a
(s
2
1
/n
1
+s
2
2
/n
2
)
2
(s
2
1
/n
1
)
2
n
1
1
+
(s
2
2
/n
2
)
2
n
2
1
.
Intervalo de conanza 1 para
2
1
/
2
2
:
I =
_
s
2
1
/s
2
2
F
n
1
1;n
2
1;/2
,
s
2
1
/s
2
2
F
n
1
1;n
2
1;1/2
_
.
3.4.5. Comparacion de proporciones (muestras grandes e independientes)
X Bernoulli(p
1
); (X
1
, . . . X
n
1
) m. a. de X.
Y Bernoulli(p
2
); (Y
1
, . . . Y
n
2
) m. a. de Y .
Intervalo de conanza 1 para p
1
p
2
:
I =
_
_
x y z
/2

x(1 x)
n
1
+
y(1 y)
n
2
_
_
.
44 CAP

ITULO 3. INTERVALOS DE CONFINAZA


3.5. Ejercicios
Ejercicio 3.5.1 Sea (X
1
, X
2
, X
3
, X
4
) una m.a. de X N
_
,
2
= 1
_
. Hallar el nivel de conanza
del estimador por intervalos
_

X 1,

X + 1

.
Soluci on. Queremos calcular el NC que como sabemos
NC = P

_
(X
i
)
4
i=1
:
_

X 1,

X + 1

_
= P

X 1 < <

X + 1
_
si tenemos en cuenta que

X =

X
i
n
= ,

X N
_
,

2
n
_
= N
_
,
1
4
_
, = = 1/2,
entonces
P

X 1 < <

X + 1
_
= P
_
1
1/2
<

X
1/2
<
+ 1
1/2
_
simplicando queda:
P {2 < Z < 2}
donde como es habitual Z =

X
1/2
. Teniendo en cuenta las simetras de la N(0, 1) la anterior
expresion queda reducida a:
2P (Z > 2) = 0,9544
donde dicho valor se ha obtenido de las tablas para la nornal tipicada.
Ejercicio 3.5.2 Sea (X
i
)
n
i=1
una m.a. de X U (0, ) , > 0.
1. Nivel de conanza del estimador por intervalos
_
aX
(n)
, bX
(n)

tal que 1 a < b.


2. Hallar P

_

_
X
(n)
+c, X
(n)
+d
_
tal que 1 c < d.
Soluci on. Para el primero de los apartados vemos que
[L, U] =
_
aX
(n)
, bX
(n)

, 1 a < b,
por lo tanto el NC sera
NC = P

{(X
i
)
n
i=1
: [L, U]} = P

_
aX
(n)
< < bX
(n)
_
o lo que es lo mismo
P

b
< X
(n)
<

a
_
recordar que X
(n)
= m ax(X
i
). Ademas si rememoramos las cuentecillas del primer capitulillo vemos
que
f
X
(n)
= n[F
X
(t)]
n1
f
X
(t)
3.5. EJERCICIOS 45
as que
f
X
(n)
= n
_
t

_
n1
1

=
nt
n1

n
, t (0, )
por lo tanto
P

b
< X
(n)
<

a
_
=
_
a

b
f
X
(n)
dt =
_
a

b
nt
n1

n
dt =
1
a
n

1
b
n
y como vemos en este caso no depende de .
En el segundo de los casos vemos que
[L, U] =
_
X
(n)
+c, X
(n)
+d

, 1 c < d,
as que seguimos el mismo procedimiento por lo que llegamos sin problemas a:
P

_
X
(n)
+c < < X
(n)
+d
_
= P

_
d < X
(n)
< c
_
=
_
1
c

_
n

_
1
d

_
n
al depender de no se le llama nivel de conenza.
Ejercicio 3.5.3 Sea (X
i
)
n
i=1
una m.a. de X cuya densidad viene dada por
f (x | ) =
_
e
x
x > 0
0 resto
probar que T =

n
i=1
X
i
es una cantidad pivotal y obtener los intervalos de conanza correspond-
intes.
Soluci on. Observamos que T es funcion solo de la muestra y del parametro y tenemos que ver que
la distribucion es funcion continua y monotona.
X f

denimos la v.a. Y = X as que aplicando el c.v.


T =
n

i=1
X
i
=
n

i=1
Y
i
Gamma (p = n, a = 1)
vemos que si
Y = X = X =
Y

=
dX
dY
=
1

por lo tanto
f
Y
= f
X

dX
dY

= e

= e
y
, y (0, )
ademas se observa que f
Y
Gamma (p = 1, a = 1) . De esta forma vemos que al solo depender de
(X
i
)
n
i=1
se trata de una cantidad pivotal para el parametro , igualmente se observa que es continua
y monotona creciente en .
46 CAP

ITULO 3. INTERVALOS DE CONFINAZA


Buscamos ahora (
1
,
2
) tales que
P {
1
< T <
2
} = 1
as que teniendo en cuenta las simetras de la funcion gamma etc... despejamos y vemos que
P
_

1
<
n

i=1
X
i
<
2
_
= 1

1
<
n

i=1
X
i
, =

1
()

n
i=1
X
i
<

i=1
X
i
<
2
, = <

2
()

n
i=1
X
i
por lo tanto el IC sera
IC
1
() =
_

1
()

n
i=1
X
i
,

2
()

n
i=1
X
i
_
Para obetener los (
1
,
2
) calculamos
_

1
()
0
f
T
dt =

2
,
_
0

2
()
f
T
dt =

2
,
donde
T =
n

i=1
X
i
Gamma (p = n, a = 1)
f
T
(t) =
1
(n)
e
t
t
n1
, t > 0,
tal y como queramos hacer ver.
Ejercicio 3.5.4 Sea (X
i
)
n
i=1
una m.a. de X cuya densidad viene dada por
f (x | ) =
_
e
(x)
x > > 0
0 resto
Hallar el intervalo bayesiano de m axima densidad a posteriori con nivel 4/5 si la densidad a priori
viene dada por
() =
_
e

> 0
0 resto
.
Soluci on. Teniendo en cuenta resultados del captulo anterior vemos que
( | X
i
) ()
n

i=1
f (x
i
| ) = e

x
i
+n
= e
(n1)

x
i
e
(n1)
,
_
0, X
(1)
_
3.5. EJERCICIOS 47
el termino e

x
i
lo hemos suprimido al tratarse de una constante. Por lo tanto
( | x
i
) =
e
(n1)
_
X
(1)
0
e
(n1)
d

_
0, X
(1)
_
integrando vemos que
( | x
i
) =
e
(n1)
1
n1
_
e
(n1)X
(1)
1
_
_
0, X
(1)
_
de esta forma el intervalo bayesiano viene dado por
(L, U) =
_

1
, X
(1)
_
tal que
_
X
(1)

1
( | x
i
) d = 1 =
4
5
as que
_
X
(1)

1
e
(n1)
1
n1
_
e
(n1)X
(1)
1
_d =
4
5
por lo tanto integrando obtenemos
4
5
=
e
(n1)X
(1)
e
(n1)
1
e
(n1)X
(1)
1
y tomando logaritmos

1
=
1
n 1
log
_
e
(n1)X
(1)
_

4
5
__
e
(n1)X
(1)
1
__
tal y como queramos hacer ver.
Ejercicio 3.5.5 Sea (X
i
)
n
i=1
una m.a. de X N
_
,
2
= 1
_
y supongamos que la distribuci on a
priori viene dada por N (0, 1) . Hallar el IC bayesiano (L, U) de m axima densidad a posteriori con
NC 1 .
Soluci on. Teniendo en cuenta resultados del captulo anterior vemos que
( | x
i
) N
_
+nrX
+nr
,
1
+nr
_
= N
_
x
i
n + 1
,
1
n + 1
_
ya que = r = 1 y = 0. Apelando a las simetras de la normal entonces:
(L, U) =
_

1
=

x
i
n + 1
a,
2
=

x
i
n + 1
+a
_
48 CAP

ITULO 3. INTERVALOS DE CONFINAZA


as que
_

2

1
( | x
i
) d = 1
i.e.
P
_
x
i
n + 1
a < Y <

x
i
n + 1
+a
_
= 1
donde Y ( | x
i
) . As que tipicando vemos que
P
_
_
_

x
i
n+1
a

x
i
n+1
_
1
n+1
<
Y

x
i
n+1
_
1
n+1
<

x
i
n+1
+a

x
i
n+1
_
1
n+1
_
_
_
= 1
simplicamos
P
_
a

n + 1 < Z < a

n + 1
_
= 1
o lo que es lo mismo
P
_
Z > a

n + 1
_
=

2
por lo tanto despejando a
a

n + 1 = Z
/2
= a =
Z
/2

n + 1
de esta forma vemos que
(L, U) =
_
x
i
n + 1

Z
/2

n + 1
,

x
i
n + 1
+
Z
/2

n + 1
_
tal y como queramos hacer ver.
Ejercicio 3.5.6 Sea X una observaci on de la densidad
f

(x) =
_
x
1
x (0, 1) , > 0
0 resto
,
1. Hallar la densidad de la variable aleatoria Y = log X.
2. Hallar el nivel de conanza del siguiente estimador por IC para
I =
_
1
2 (log X)
,
1
log X
_
Estudiar si T = log X es una cantidad pivotal para .
3. Hallar la densidad a priori para si la distribuci on a priori es la unirme en (0, 1) y el valor
observado es x = 1/e. Indicar cu al sera, en este caso, la forma del intervalo de conanza
bayesiano de m axima densidad a posteriori (para un NC 1 .
3.5. EJERCICIOS 49
Soluci on. Vemos que Y = log X, consideramos el c.v.
y = log x, y = log x, x = e
y
,
dx
dy
= e
y
por lo tanto
f
Y
(y) = f
X
(x)

dx
dy

= x
1
e
y
=
_
e
y
_
1
e
y
= e
y
luego
f
Y
(y) =
_
e
y
(0, ) ,
0 resto
.
Para calcular el nivel de conanza seguimos los mismos pasos como en los ejercicios anteriores y
vemos que (se trata simplemente de despejar en y)
NC = P
_
1
2
Y
1

_
= e
1/2
e
1
.
De igual forma vemos que la densidad T = log X (utlizando el c.v. anterior) se llega a
f
T
=
_
e
t
t > 0,
0 resto
.
Por ultimo
( | x
i
) e
1
, si (0, 1)
por lo tanto
( | x
i
) =
_
e
1
e2
(0, 1) , x = 1/e
0 resto
e I = (a, 1)
Ejercicio 3.5.7 En una poblaci on se desea conocer la probabilidad de que un individuo sea alergico
al polen de las acacias. En 100 individuos tomados al azar se observaron 10 alergicos. Hallar el
IC al 95 % para la probabilidad pedida. Cu antos individuos se deberan observar para que con
probabilidad 0,95 el error m aximo en la estimaci on de la proporci on de alergicos sea del 0,01?
Soluci on. La estrategia en estos casos es siempre la misma. Consideramos la v.a. X y queremos
estimar la probabilidad de ser alergico i.e. si/no (Bernoulli(p), exito/fracaso). Entonces tenemos
(X
i
)
n
i=1
una m.a. de X Bernoulli(p) (con n = 100 grande) y por lo tanto del resultado de teora
sabemos que
IC
0,95
=
_

X Z
/2
_
p (1 p)
n
_
=
_
_
X Z
/2


X
_
1

X
_
n
_
_
50 CAP

ITULO 3. INTERVALOS DE CONFINAZA


y lo unico que hacemos es calcular

X =

X
i
n
=
n
o
alergicos
n
=
10
100
= 0,10,
Z
/2
= Z
0,025
= 1, 96
as que
IC
0,95
=
_
0,10 1,96
_
(0,10) (0,90)
100
_
= (0,04, 0,16)
i.e. la proporcion de alergicos esta entre un 4 % y un 16 %.
Queremos ahora estimar el valor de n para obetener un error maximo de 0,01 (1 %) a un NC del
95 %. Sabemos que
error = Z
/2


X
_
1

X
_
n
< 0,01
y tomamos como estimacion para

X la obetenida en la prueba piloto i.e.

X = 0,10, por lo tanto
1,96
_
(0,10) (0,90)
n
< 0,01
y despejamos n obteniendo
n > 3458
por lo que concluimos que necesitamos del orden de 3500 pruebas para hacer un buen estudio.
Ejercicio 3.5.8 Se supone que el n umero de erratas por p agina en un libro sigue una Poisson().
Elegidas al azar 95 p aginas se obtienen los siguientes resultados
N
o
erratas 0 1 2 3 4 5
N
o
p agina 40 30 15 7 2 1
hallar intervalos de conanza al 90 % para el n umero medio de erratas por p agina en todo el libro.
Soluci on. Como en el ejercicio anterior podramos modelizar la situacion de la siguiente manera:
X Bernoulli(p)
errata/correcto, pero como en este caso tenemos n paginas entonces nBernoullis se convierten en
Binomial (n, p) . Pero de forma operativa si n es grande y p peque na entonces es mejor aproximar
la binomial por una Poisson( = np) de la que sabemos que E [X] = .
Por lo tanto queremos estimar
IC
0,90
() =
_
_
X Z
/2

n
_
_
=

X Z
/2
_

X
n
3.5. EJERCICIOS 51
en este caso tenemos que
Z
/2
= 1,64,

X =

X
i
n
=
(40 0) + (30 1) +.... + (1 5)
95
= 0,98,
por lo que
IC
0,90
() = (0,82, 1,16) .
Si queremos anar mas entonces hacemos lo mismo que en el ejercicio anterior i.e.
error = Z
/2
_

X
n
y despejamos n.
Ejercicio 3.5.9 Se mide el tiempo (en segundos) de duraci on de un proceso qumico realizado 20
veces en condiciones similares obteniendose los siguientes resultados
93, 90, 97, 90, 93, 91, 96, 94, 91, 91, 88, 93, 95, 91, 89, 92, 87, 88, 90, 86
suponiendo que la duraci on sigue una dostribuci on normal hallar los IC al 90 % para ambos par amet-
ros.
Soluci on. Tenemos por lo tanto (X
i
)
20
i=1
m.a. de X N
_
,
2
_
, para estimar a un NC del 90 %
tenemos
IC
90 %
() =
_

X t
n1;/2

n
_
=
_

X t
n1;/2
S

n
_
= (90,11, 92,39)
ya que

X =

X
i
n
= 91,25
S
2
=
1
n 1

_
X
i


X
_
2
=
1
19
_

X
2
i
20

X
2
_
= 8,61, =S = 2,94,
t
n1;/2
= t
19;0,005
= 1, 729.
Como en ejercicios anteriores si queremos mas precision para estimar entonces tendremos que
hacer mas ensayos, de esta forma
error = t
n1;/2

n
Z
/2
2,94

n
= Z
0,05
2,94

n
y despejamos n. Vemos que hemos cambiado de la t-student a la normal, esto es as ya que cuando
n entonces t
n1;/2
Z
/2
Para estimar
2
con un nivel de conanza del 90 %
IC
90 %
_

2
_
=
_
(n 1) S
2

2
n1;/2
,
(n 1) S
2

2
n1;1/2
_
=
_
19 (8,61)
30,144
,
19 (8,61)
10,117
_
= (5,43, 16,19)
52 CAP

ITULO 3. INTERVALOS DE CONFINAZA


as
IC
90 %
() = (2,33, 4,02)
tal y como queramos hacer ver.
Ejercicio 3.5.10 En una poblaci on la altura de los individuos varones sigue una N (, 7, 5) . Hallar
el tama no de la muestra para estimar con un error inferior a 2cm con un NC del 0,90.
Soluci on. Como en los ejercicios ateriores la situacion es la siguiente:
error 2
por lo tanto si
IC
0,90
=
_

X Z
/2

n
_
entonces
error = Z
/2

n
2 n 38
tal y como queramos hacer ver.
Ejercicio 3.5.11 Se intenta estudiar la inuencia de la hipertensi on en los padres sobre la presi on
sangunea de los hijos. Para ello se seleccionan dos grupos de ni nos, uno con padres de presi on
sangunea normal (G1) y el otro con padres hipertensos (G2) obteniendose las siguientes presiones
sist olicas:
G1 104 88 100 98 102 92 96 100 96 96
G2 100 102 96 106 110 110 120 112 112 90
hallar el IC para la diferencia de las medias suponiendo que las varianzas en las de los ni nos son
iguales.
Soluci on. La situacion es la siguiente. Disponemos de dos m.a.
(X
i
)
n
i=1
m.a. de X N
_

1
,
2
1
_
(Y
i
)
n
i=1
m.a. de Y N
_

2
,
2
2
_
donde estamos suponiendo que
2
1
=
2
2
. Queremos estimar la diferencia de presiones medias en las
poblaciones con un NC del 95 %.
son las poblciones independientes? podemos tener estas dos situaciones:
1.- Datos estan emparejados, entonces las poblaciones NO son independeintes,
2.- Datos no emparejados, por lo tanto las poblaciones son independientes.
3.5. EJERCICIOS 53
En este caso seobserva que las dos poblaciones son independientes y por lo tanto utilizaremos el
siguiente formulon:
IC
1
(
1

2
) =
_

X

Y t
m+n2;/2
S
p
_
1
m
+
1
n
_
donde
S
2
p
=
(m1) S
2
1
+ (n 1) S
2
2
m+n 2
=
9 (22,4) + 9 (78,6)
18
= 50,51
es la varianza residual. De esta forma
IC
1
(
1

2
) =
_
97,2 105,8 (2,101)
_
50,51
_
1
10
+
1
10
_
= (15,28, 1,92) .
Si las muestras no son independientes entonces lo que habra que hacer sera lo siguiente. Considerar
(X
i
Y
i
)
n
i=1
m.a. de D = (X Y ) N
_

2
,
2
_
y el formulon a aplicar en esta ocasion sera:
IC
1
(
1

2
) =
_
(X Y ) t
n1;/2
S
dif

n
_
donde (X Y ) representa la media de las diferencias.
54 CAP

ITULO 3. INTERVALOS DE CONFINAZA


Captulo 4
Contraste de hipotesis
4.1. Introduccion
Disponemos de (X
i
)
n
i=1
m.a. de X f

(x) tal que . Como siempre queremos estimar


.Queremos elegir entre dos posibilidades
Hipotesis nula: H
0
:
0
,
Hipotesis alternativa : H
1
:
1
=
c
0
,
Denici on 4.1.1 Un test de hip otesis para contrastar H
0
:
0
, frente a H
1
:
1
consiste
en dividir el espacio muestral en dos regiones complementarias:
R : regi on de rechazo de H
0
(Region Crtica), si (x
1
, ..., x
n
) R, entonces rechazamos H
0
.
A : region de aceptaci on de H
0
, si (x
1
, ..., x
n
) A, entonces acpetamos H
0
.
Errores que se pueden cometer:
1. Error de tipo I: Rechazar la hipotesis nula, H
0
, cuando
0
,
2. Error de tipo II: Aceptar H
0
, cuando
1
,
Se suelen elegir H
0
, H
1
de modo que el error de tipo I sea el mas serio.
Denici on 4.1.2 La funcion de potencia de un test con regi on crtica R es la siguiente funci on
de :

R
() = P

(R)
i.e. la probabilidad de rechazar H
0
cuando el verdadero valor del par ametro es .
Situacion ideal.
P (error de tipo I) = 0,
P (error de tipo II) = 0,
55
56 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
Denici on 4.1.3 El nivel de signicaci on o tama no de un test R para contrastar H
0
:
0
frente a H
1
:
1
es:
= sup

0
P

(R)
i.e. m axima probabilidad de rechazar H
0
cuando H
0
es cierta o lo que es lo mismo, la m axima
probabilidad de cometer un error de tipo I.
Se suelen utilizar test de hipotesis que tienen un nivel de signicacion, 0,01, 0,05, 0,1.
Veremos dos metodos de construccion de un test:
1. Metodo de la razon de verosimilitud,
2. Metodo bayesiano.
4.2. Metodo de la razon de verosimilitud.
El estadstico utilizado en este metodo es:
(x
1
, ..., x
n
) =
sup

0
f (x
1
, ..., x
n
)
sup

f (x
1
, ..., x
n
)
=
sup

0
L()
sup

L()
i.e. el cociente entre la maxima verosimilitud que da a la muestra y la maxima verosimilitud de la
muestra. Vemos que (x
1
, ..., x
n
) [0, 1] y que por lo tanto
(x
1
, ..., x
n
) esta proximo a cero, entonces rechazamos H
0
,
(x
1
, ..., x
n
) esta proximo a uno, entonces aceptamos H
0
,
Denici on 4.2.1 El test de raz on de verosimilitud para contrastar H
0
:
0
frente a H
1
:
1
al nivel de signicaci on es:
R = {(x
1
, ..., x
n
) : (x
1
, ..., x
n
) c}
donde c se determina a partir de = sup

0
P

(R) .
Proposici on 4.2.1 Relaci on con los estadsticos sufucientes. El test de raz on de verosimilitudes
es funci on de cualquier estadstico suciente T
Consideramos a continuacion un ejemplo que nos permite ver la relacion entre el contraste de
hipotesis y los intervalos de conanza.
Considermos (X
i
)
n
i=1
m.a. de X f

(x) tal que . En este caso f

(x) := N
_
,
2
_
donde
estamos interesados en estimar (aqu
2
es un parametro perturbador). Consideramos el siguiente
contraste de hipotesis
H
0
: =
0
,
H
1
: =
0
,
4.2. M

ETODO DE LA RAZ

ON DE VEROSIMILITUD. 57
y jamos un nivel de signicacion . Formalmente la situacion es la siguiente:
=
_
=
_
,
2
_
: R, > 0
_

0
=
_
=
_
,
2
_
: =
0
, > 0
_
as que
(x
1
, ..., x
n
) =
sup

0
f (x
1
, ..., x
n
)
sup

f (x
1
, ..., x
n
)
=
sup

0
L()
sup

L()
(4.1)
queda en este caso como sigue:
f

(x) =
1

2
exp
_

1
2
2
(x )
2
_
,
L() = f

(x
1
, ..., x
n
) =
n

i=1
f

(x
i
) =
1

n
_
2
_
n
exp
_

1
2
2
n

i=1
(x
i
)
2
_
el sup

L() se alcanza en el EMV


= x,
2
=
1
n
n

i=1
(x
i
x)
2
(aqu estamos suponiendo que conocemos =
0
por lo que queremos estimar
2
, de esta forma
(4.1) queda:
(x
1
, ..., x
n
) =
1
(
1
n

n
i=1
(x
i

0
)
2
)
n/2
(

2)
n
exp
_

n
2

n
i=1
(x
i

0
)
2

n
i=1
(x
i

0
)
2
_
1
(
1
n

n
i=1
(x
i
x)
2
)
n/2
(

2)
n
exp
_

n
2

n
i=1
(x
i
x)
2

n
i=1
(x
i
x)
2
_
simplicamos
(x
1
, ..., x
n
) =
_

n
i=1
(x
i
x)
2

n
i=1
(x
i

0
)
2
_
n/2
=
_

n
i=1
(x
i
x)
2

n
i=1
(x
i
x + x
0
)
2
_
n/2
=
=
_

n
i=1
(x
i
x)
2

n
i=1
(x
i
x)
2
+n( x
0
)
2
_
n/2
=
_
_
_

n
i=1
(x
i
x)
2

n
i=1
(x
i
x)
2

n
i=1
(x
i
x)
2
+n( x
0
)
2

n
i=1
(x
i
x)
2
_
_
_
n/2
=
=
_
_
_
1
1 +n
( x
0
)
2

n
i=1
(x
i
x)
2
_
_
_
n/2
=
_
_
1
1 +n
( x
0
)
2
(n1)S
2
_
_
n/2
=
_
_
_
1
1 +
1
n1
_
x
0
S/

n
_
2
_
_
_
n/2
por lo tanto llegamos a que
R = {(x
1
, ..., x
n
) : (x
1
, ..., x
n
) c}
i.e.
R =
_

_
(x
1
, ..., x
n
) :
_
_
_
1
1 +
1
n1
_
x
0
S/

n
_
2
_
_
_
n/2
c
_

_
=
_
(x
1
, ..., x
n
) :

x
0
S/

> c
1
_
(4.2)
58 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
y = sup

0
P

(R) . En esta ultima ecuacion (4.2) llegamos a ese resultado ya que


(x
1
, ..., x
n
) es funcion decreciente de

x
0
S/

y que
= sup

0
P

(R) = = sup

0
P

_
(x
1
, ..., x
n
) :

x
0
S/

> c
1
_
= sup
=
0
P

((x
1
, ..., x
n
) : |t
n1
| > c
1
)
ya que cuando (X
i
)
n
i=1
m.a. de X N
_

0
,
2
_
sabemos que una cantidad para estimar
x
0
S/

n
t
n1
de esta forma llegamos a la conclusion de que
c
1
= t
n1;/2
y que por lo tanto
R =
_
(x
1
, ..., x
n
) :

x
0
S/

> t
n1;/2
_
=
_
(x
1
, ..., x
n
) : | x
0
| > t
n1;/2
S/

n
_
sera la region de rechazo del test de razon de verosimilitud. Veamos ahora la relacion con el
IC
1
(). La situacion hasta ahora es la siguiente:
X= R A, A =
_
(x
1
, ..., x
n
) : | x
0
| < t
n1;/2
S/

n
_
,
esto signica que aceptamos H
0
:
H
0
: =
0
| x
0
| < t
n1;/2
S/

n t
n1;/2
S/

n < x
0
< t
n1;/2
S/

n
x t
n1;/2
S/

n <
0
< x +t
n1;/2
S/

n
0

_
x t
n1;/2
S/

n
_

0
IC
1
() .
De forma alternativa vemos que
H
0
: =
0
,
H
1
: =
0
,
y jamos un nivel de signicacion . Entonces IC
1
() . =
_
x t
n1;/2
S/

n
_
, por lo tanto si

0
IC
1
() = aceptamos H
0
,

0
/ IC
1
() = rechazamos H
0
de esta forma hemos visto la relacion existente entre el contraste de hipotesis y los intervalos de
conanza.
Si la distribucion de (x
1
, ..., x
n
), bajo H
0
, es desconocida o muy complicada de calcular entonces
existe una solucion aproximada (asintotica) para contrastar H
0
:
0
, frente a H
1
:
1
.
4.2. M

ETODO DE LA RAZ

ON DE VEROSIMILITUD. 59
Teorema 4.2.1 Sea (X
i
)
n
i=1
m.a. de X f

(x) tal que , y dim = k. Queremos contrastar


H
0
:
0
, frente a H
1
:
1
, donde dim
0
= k

< k, entonces bajo certas condiciones de


regularidad
2 log (x
1
, ..., x
n
)
d

2
kk

bajo H
0
.
De esta forma tenemos que
R =
_
(x
1
, ..., x
n
) : 2 log (x
1
, ..., x
n
) >
2
kk

;
_
Con el ejemplo que venimos arrastrando, si (X
i
)
n
i=1
m.a. de X f

(x) tal que . En este caso


f

(x) := N
_
,
2
_
donde estamos interesados en estimar (aqu
2
es un parametro perturbador).
Consideramos el siguiente contraste de hipotesis
H
0
: =
0
,
H
1
: =
0
,
y jamos un nivel de signicacion . Formalmente la situacion es la siguiente:
=
_
=
_
,
2
_
: R, > 0
_
= dim = 2

0
=
_
=
_
,
2
_
: =
0
, > 0
_
= dim
0
= 1
as que
2 log (x
1
, ..., x
n
)
d

2
1
.
4.2.1. Asignacion de hipotesis en la practica.
1. Disponemos de (X
i
)
n
i=1
m.a. de X f

(x) tal que . Es razonable aceptar que =


0
?.
Elegimos entre =
0
y =
0
La situacion es por lo tanto la siguiente:
H
0
: =
0
,
H
1
: =
0
,
y jamos un nivel de signicacion . Los papeles, en la practica, de hipotesis nula y alternativa
siempre se asignan igual, la igualdad para H
0
y la desigualdad para H
1
. Por lo tanto
si aceptamos H
0
concluimos que es razomable aceptar =
0
,
si rechazamos H
0
concluimos que NO es razomable aceptar =
0
.
2. Disponemos de (X
i
)
n
i=1
m.a. de X f

(x) tal que . Podemos considerar estadstica-


mente probado que >
0
?
La situacion es por lo tanto la siguiente:
H
0
:
0
,
H
1
: >
0
,
y jamos un nivel de signicacion . Por lo tanto
si aceptamos H
0
concluimos que No es razomable aceptar >
0
,
si rechazamos H
0
concluimos que es razomable aceptar >
0
.
60 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
4.2.2. Concepto de p-valor de los datos.
El p-valor o signicacion de los datos es la maxima probabilidad bajo H
0
de obtener un resultado
mas desfavorable a H
0
que el obtenido.
Veamos un ejemplillo.
Ejemplo 4.2.1 (X
i
)
n
i=1
m.a. de X f

(x) tal que . En este caso f

(x) := N
_
,
2
= 1
_
.
Consideramos el siguiente contraste de hip otesis
H
0
: 10,
H
1
: > 10,
y jamos un nivel de signicaci on . Hemos obtenido la muestra con n = 9 y resulta que x = 12
p valor = max
10
P {m as desfavorable a H
0
que x = 12} = max
10
P { x = 12} = P
=10
{ x = 12}
pero sabemos que

X N
_
,
1
9
_
as que
P
_
x 10
1/3
>
12 10
1/3
_
= P
_
Z >
12 10
1/3
_
0.
Interpretmos el p-valor como el apoyo de los datos a H
0
1. p-valor proximo a cero, entonces poco apoyo de los datos a H
0
2. p-valor alejado del cero, entonces apoyo suciente de los datos a H
0
La regla practica que se sigue para tomar decisiones a un nivel de signicacion previamente jado
es la siguiente:
1. p valor < , entonces poco apoyo de los datos a H
0
, rechazamos H
0
,
2. p valor > , entonces apoyo suciente de los datos a H
0
, aceptamos H
0
.
4.3. M

ETODOS BAYESIANOS. 61
4.3. Metodos bayesianos.
Sea (X
i
)
n
i=1
m.a. de X f (X | ) donde . Queremos contrastar H
0
:
0
, frente a
H
1
:
1
=
c
0
. Tenemos la informacion muestral (verosimilitud)
f (x
1
, ...., x
n
| ) =
n

i=1
f (x
i
| )
que recoje la informacion sobre que llevan los datos y tambien disponemos de la informacion a
priori
()
que recoje la informacion sobre antes que los datos, as que aplicando Bayes obtenemos
( | x
1
, ...., x
n
) =
()
n

i=1
f (x
i
| )
_

()
n

i=1
f (x
i
| )
() f (x
1
, ...., x
n
| )
y todas las conclusiones las obtendremos a partir de ( | x
1
, ...., x
n
) la distribucion a posteriori.
La decision de rechazar o aceptar H
0
estara basada en;
P (
0
| x
1
, ...., x
n
) =
_

0
( | x
1
, ...., x
n
) d,
P (
1
| x
1
, ...., x
n
) =
_

1
( | x
1
, ...., x
n
) d = 1 P (
0
| x
1
, ...., x
n
) ,
por ejemplo podemos rechazar H
0
:
0
si
P (
0
| x
1
, ...., x
n
) <
1
2
.
4.4. Resumen de contrastes de hipotesis
CONTRASTES DE HIP

OTESIS
NOTACI

ON:
= nivel de signicacion del contraste.
n= tama no de la muestra.
H
0
= hipotesis nula.
R= region crtica o de rechazo de H
0
.
62 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
4.4.1. X N(, )
1. H
0
: =
0
( conocida);
R =
_
| x
0
| > z
/2

n
_
.
2. H
0
: =
0
( desconocida);
R =
_
| x
0
| > t
n1;/2
s

n
_
.
3. H
0
:
0
( conocida);
R =
_
x
0
> z

n
_
.
4. H
0
:
0
( desconocida);
R =
_
x
0
> t
n1;
s

n
_
.
5. H
0
:
0
( conocida);
R =
_
x
0
< z
1

n
_
.
6. H
0
:
0
( desconocida);
R =
_
x
0
< t
n1;1
s

n
_
.
4.4. RESUMEN DE CONTRASTES DE HIP

OTESIS 63
7. H
0
: =
0
;
R =
_
n 1

2
0
s
2
/
_

2
n1;1/2
,
2
n1;/2
_
_
.
8. H
0
:
0
;
R =
_
n 1

2
0
s
2
>
2
n1;
_
.
9. H
0
:
0
;
R =
_
n 1

2
0
s
2
<
2
n1;1
_
.
4.4.2. X Bernoulli(p) (muestras grandes)
1. H
0
: p = p
0
;
R =
_
| x p
0
| > z
/2
_
p
0
(1 p
0
)
n
_
.
2. H
0
: p p
0
;
R =
_
x p
0
> z

_
p
0
(1 p
0
)
n
_
.
3. H
0
: p p
0
;
R =
_
x p
0
< z
1
_
p
0
(1 p
0
)
n
_
.
4.4.3. X Poisson() (muestras grandes)
1. H
0
: =
0
;
R =
_
| x
0
| > z
/2
_

0
/n
_
.
2. H
0
:
0
;
R =
_
x
0
> z

0
/n
_
.
3. H
0
:
0
;
R =
_
x
0
< z
1
_

0
/n
_
.
4.4.4. Dos poblaciones Normales independientes
X N(
1
,
1
); (X
1
, . . . , X
n
1
) m. a. de X; se calcula x y s
2
1
.
Y N(
2
,
2
); (Y
1
, . . . , Y
n
2
) m. a. de Y ; se calcula y y s
2
2
.
s
2
p
=
(n
1
1)s
2
1
+ (n
2
1)s
2
2
n
1
+n
2
2
.
64 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
1. H
0
:
1
=
2
(
1
,
2
conocidas);
R =
_
_
_
| x y| > z
/2

2
1
n
1
+

2
2
n
2
_
_
_
.
2. H
0
:
1
=
2
(
1
=
2
);
R =
_
| x y| > t
n
1
+n
2
2;/2
s
p
_
1
n
1
+
1
n
2
_
.
3. H
0
:
1
=
2
(
1
=
2
);
R =
_
_
_
| x y| > t
f;/2

s
2
1
n
1
+
s
2
2
n
2
_
_
_
.
4. H
0
:
1

2
(
1
,
2
conocidas);
R =
_
_
_
x y > z

2
1
n
1
+

2
2
n
2
_
_
_
.
5. H
0
:
1

2
(
1
=
2
);
R =
_
x y > t
n
1
+n
2
2;
s
p
_
1
n
1
+
1
n
2
_
.
6. H
0
:
1

2
(
1
=
2
);
R =
_
_
_
x y > t
f;

s
2
1
n
1
+
s
2
2
n
2
_
_
_
.
7. H
0
:
1

2
(
1
,
2
conocidas);
R =
_
_
_
x y < z
1

2
1
n
1
+

2
2
n
2
_
_
_
.
8. H
0
:
1

2
(
1
=
2
);
R =
_
x y < t
n
1
+n
2
2;1
s
p
_
1
n
1
+
1
n
2
_
.
9. H
0
:
1

2
(
1
=
2
);
R =
_
_
_
x y < t
f;1

s
2
1
n
1
+
s
2
2
n
2
_
_
_
.
10. H
0
:
1
=
2
;
R =
_
s
2
1
/s
2
2
/
_
F
n
1
1;n
2
1;1/2
, F
n
1
1;n
2
1;/2
__
.
4.5. EJERCICIOS 65
11. H
0
:
1

2
;
R =
_
s
2
1
/s
2
2
> F
n
1
1;n
2
1;
_
.
12. H
0
:
1

2
;
R =
_
s
2
1
/s
2
2
< F
n
1
1;n
2
1;1
_
,
donde f = entero mas proximo a
(s
2
1
/n
1
+s
2
2
/n
2
)
2
(s
2
1
/n
1
)
2
n
1
1
+
(s
2
2
/n
2
)
2
n
2
1
.
4.4.5. Comparacion de proporciones (muestras grandes e independientes)
X Bernoulli(p
1
); (X
1
, . . . , X
n
1
) m. a. de X.
Y Bernoulli(p
2
); (Y
1
, . . . , Y
n
2
) m. a. de Y .
1. H
0
: p
1
= p
2
;
R =
_
| x y| > z
/2

p(1 p)
_
1
n
1
+
1
n
2
_
_
.
2. H
0
: p
1
p
2
;
R =
_
x y > z

p(1 p)
_
1
n
1
+
1
n
2
_
_
.
3. H
0
: p
1
p
2
;
R =
_
x y < z
1

p(1 p)
_
1
n
1
+
1
n
2
_
_
,
donde p =

x
i
+

y
i
n
1
+n
2
=
n
1
x +n
2
y
n
1
+n
2
.
4.5. Ejercicios
Ejercicio 4.5.1 Sea (X
1
, X
2
) una m.a. de
f

=
_
x
1
0 < x < 1
0 resto
donde = {1, 2}. Para contrastar H
0
: = 1 frente a H
1
: = 2, denimos la regi on de
rechazo
R = {(x
1
, x
2
) : 4x
1
x
2
3} .
Hallar la funci on de potencia test.
66 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
Soluci on. Queremos contrastar H
0
: = 1 frente a H
1
: = 2, en R = {(x
1
, x
2
) : 4x
1
x
2
3} , por
lo tanto nos preguntamos si

R
() = P

(R) , = 1, 2.
Represetamos la region, 4x
1
x
2
3, por lo tanto cuando = 1, tenemos:
f
=1
(x
1
, x
2
) = f
=1
(x
1
) f
=1
(x
2
) = 1 1 = 1
de esta forma
P
=1
(R) =
_ _
R
f
=1
(x
1
, x
2
) dx
1
dx
2
=
_
x
1
=1
x
1
=3/4
_
_
x
2
=1
x
2
=3/4x
1
1dx
2
_
dx
1
=
1
4
+
3
4
log
_
3
4
_
0,03
y hacemos lo mismo para = 2, obreniendo as:
P
=1
(R) =
_
x
1
=1
x
1
=3/4
_
_
x
2
=1
x
2
=3/4x
1
4x
1
x
2
dx
2
_
dx
1
=
7
16
+
9
8
log
_
3
4
_
0,11.
ya que
f
=2
(x
1
, x
2
) = f
=2
(x
1
) f
=2
(x
2
) = 2x
1
2x
2
= 4x
1
x
2
.
El nivel de signicacion es por lo tanto
sup

0
P

(R) = P
=1
(R) 0,03
tal y como queramos hacer ver.
Ejercicio 4.5.2 Sea (X
i
)
n
i=1
una m.a. de una poblaci on N(, 1), donde = {
0
,
1
} con
(
0
<
1
) . Para contrastar H
0
: =
0
frente a H
1
: =
1
se considera el test que rechaza H
0
si
x > k. Hallar k para que el test tenga nivel de signicaci on .
Soluci on. La situacion es la siguiente:
H
0
: =
0
H
1
: =
1
R = {(x
i
)
n
i=1
: x > k}
queremos calcular k para un nivel de signicacion . Recordamos de teora que
= sup

0
P

(R) = P

1
(R) = P

1
( x > k) = P
_
_
_
x
1
_
1
n
>
k
1
_
1
n
_
_
_
= P
_
Z >
k
1
_
1/n
_
recordar que
X N
_

1
,
1
n
_
4.5. EJERCICIOS 67
por lo tanto
k
1
_
1/n
= Z

obteniendo as
k =
1
+
Z

n
tal y como queramos hacer ver.
Ejercicio 4.5.3 Sea (X
i
)
12
i=1
una m.a. de una poblaci on que sigue una Poisson(), donde =
(1, 1/2]. Si la regi on de rechazo, para contrastar H
0
: = 1/2 frente a H
1
: < 1/2, denimos la
regi on de rechazo
R =
_
(x
i
)
12
i=1
:

x
1
2
_
.
Hallar la potencia del test en = 1/2, = 1/4, = 1/12.
Soluci on. La situacion es la siguiente: (X
i
)
12
i=1
una m.a. X Poisson()
H
0
: = 1/2,
H
1
: < 1/2,
R =
_
(x
i
)
12
i=1
:
12

i
x
1
2
_
.
En = 1/2

R
() = P

(R) = P
=1/2
(R) = P
=1/2
_
12

i
x
1
2
_
= P {Poisson( = 6) 2} =
ya que
12

i
x
1
=
_
1
2
+
12veces
..... +
1
2
_
2 Poisson( = 6) ,
X
i
= e
(e
it
1)
y por lo tanto (mirando las tablas de la Poisson)
= 0,0025 + 0,0149 + 0,0446 = 0,0620 0,06
Si hacemos lo mismo para los otros dos casos obtenemos:
P
=1/4
(R) = ...... = 0,4232,
P
=1/12
(R) = ...... = 0,9197,
tal y como quermos hacer ver.
68 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
Ejercicio 4.5.4 En una piscifactora se desea contrastar la hip otesis (H
0
) de que el procentaje de
adultos que miden menos de 20cm es como m aximo el 10 %. Para ello se va a tomar una muestra
de 6 peces y rechazamos H
0
si encontramos m as de un pez con longitud inderior a 20cm.
1. Cu al es el nivel de signicaci on de este contraste?.
2. Calcular la potencia del contraste si en realidad hay un 20 % de peces que miden menos de
20cm.
Soluci on. Modelizamos mediante una Bernoulli(p) i.e. disponemos de una m.a. (X
i
)
6
i=1
donde
X Bernoulli(p)
X =
_
1 si el pez mide < 20cm
0 si el pez mide > 20cm
as que
H
0
: p 0,10,
H
1
: p > 0,10,
R = {Mas de un pez con longitud inferior a 20 cm} = {T > 1} .
el estadstico que estamos usando en este contraste es:
T = n
o
de peces, de entre los 6, que miden de 20cm Bin(n = 6, p = 0,10).
Por lo tanto, el nivel de signicacion de este contraste es:
sup
p0,10
P
p
(R) = P
p=0,10
(R) = P
p=0,10
(T > 1) = P (Bin(n = 6, p = 0,10) > 1) =
= 1 P (Bin(n = 6, p = 0,10) 1) = 1 0,5314 0,3543 = 0,114.
Con respecto a la segunda pregunta, i.e. Calcular la potencia del contraste si en realidad hay un
20 % de peces que miden menos de 20cm. vemos que
P
p=0,20
(T > 1) = P (Bin(n = 6, p = 0,20) > 1) = ... = 0,3447
tal y como queramos hacer ver.
Ejercicio 4.5.5 Para estudiar si una prueba de laboratorio puede resultar demasiado nociva para
la salud, contrastamos la hip otesis H
0
de que la probabilidad de que una persona sometida a esa
prueba resulte afectada sea como m aximo 0, 001. Para ello sometemos a esa prueba a 1000 personas
elegidas al azar y aceptamos H
0
si como m aximo ha habido un afectado.
1. Cu al es el nivel de signicaci on de este contraste?.
2. Si en realidad la prueba afecta a la salud de una persona con probabilidad 0, 003 cu al es la
probabilidad deaceptar H
0
?.
4.5. EJERCICIOS 69
Soluci on. En este ejercicio disponemos de una m.a. (X
i
)
1000
i=1
donde X Bernoulli(p)
X =
_
1 si resulta afectada
0 si no resulta afectada
as que
H
0
: p 0,001,
H
1
: p > 0,001,
R = {Hay como maximo un afectado entre 1000} = {T 1} .
el estadstico que estamos usando en este contraste es:
T = n
o
de afectados entre 1000 Bin(n = 1000, p = 0,001),
al ser n = 1000 y p = 0,001 entonces aproximamos la binomial mediante una Poisson
Bin(n = 1000, p = 0,001) Poisson( = np) .
De esta forma encontramos que el nivel de signicacion de este contraste es:
sup
p0,001
P
p
(R) = P
p=0,001
(R) = P
p=0,001
(T > 1) = P (Bin(n = 1000, p = 0,001)) > 1) =
= 1 P (Poisson( = np = 1)) 1) = 0,2642.
Con respecto a la segunda pregunta, i.e. Si en realidad la prueba afecta a la salud de una persona
con probabilidad 0, 003 cual es la probabilidad de aceptar H
0
?. Vemos que
P (Poisson( = np = 3)) 1) = 0,1992
tal y como queramos hacer ver.
Ejercicio 4.5.6 Sea (X
i
)
n
i=1
una m.a. de una poblaci on con una densidad
f

=
_
e
(x)
x > R
0 resto
Hallar el test de raz on de verosimilitud, de nivel , para contrastar H
0
:
0
frente a H
1
: >
0
.
Soluci on. Tenemos
H
0
:
0
,
H
1
: >
0
,
nivel de signicacion
queremos calcular c
R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c}
70 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
tal que
= sup

0
P

(R)
de esta forma vemos que
(x
1
, ..., x
n
) =
sup

0
f (x
1
, ..., x
n
)
sup
R
f (x
1
, ..., x
n
)
=
sup

0
L()
sup
R
L()
(4.3)
donde
L() = f

(x
1
, ..., x
n
) =
n

i=1
f

(x
i
) = e
n
e

x
i
, si X
(1)
observamos que x , signica (x
i
)
n
i=1
y por lo tanto X
(1)
, de este modo obtenemos la
siguiente funcion
L() =
_
e
n
e

x
i
X
(1)
0 > X
(1)
y por lo tanto
sup
R
L() = e
nX
(1)

x
i
,
sup

0
L() =
_
e
nX
(1)

x
i
X
(1)

0
e
n
0

x
i
X
(1)
>
0
as que la ecuacion (4.3) queda
_
1 X
(1)

0
e
n
0

x
i
e
nX
(1)

x
i
= e
n
0
nX
(1)
X
(1)
>
0
entonces
R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c} =
_
(x
i
)
n
i=1
: X
(1)
> C
0
_
= (4.4)
donde
C
0
: = sup

0
P

(R) = sup

0
e
n(
0
C
0
)
por lo tanto
C
0
=
0

log
n
ya que
P

(R) = P

_
X
(1)
> C
0
_
=
n

i=1
P

(X
i
> C
0
) = (P

(X > C
0
))
n
=
=
__

C
0
f

(x) dx
_
n
=
__

C
0
e
(x)
dx
_
n
= e
n(
0
C
0
)
as que
R =
_
(x
i
)
n
i=1
: X
(1)
>
0

log
n
_
tal y como queramos hacer ver.
4.5. EJERCICIOS 71
Ejercicio 4.5.7 Sea (X
i
)
n
i=1
una m.a. de una poblaci on con una densidad
f

=
_
(1 x)
1
0 x 1, > 0
0 resto
Deseamos contrastar H
0
: = 2 frente a H
1
: = 2, al nivel de signicaci on 0,1. Si n = 60 y

i
(1 x
i
) = 0,0003. Cu al sera la decisi on adoptada utilizando el test de raz on de verosimilitudes
asint oticamente?
Soluci on. En este ejercicio queremos ver
R = R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c}
_
(x
1
, ..., x
n
) : 2 log (x
1
, ..., x
n
) >
2
kk

;
=
2
1;0,1
_
en este caso
(x
1
, ..., x
n
) =
sup

0
L()
sup

L()
=
2
n
_

i
(1 x
i
)
_
_

_
n
_

i
(1 x
i
)
_
1
ya que
L() = f

(x
1
, ..., x
n
) =
n

i=1
f

(x
i
) = ()
n
_

i
(1 x
i
)
_
1
,
log L() = nlog () + ( 1) log
_

i
(1 x
i
)
_
d log L()
d
=
n

+ log
_

i
(1 x
i
)
_
= 0 =

=
n
log
_

i
(1 x
i
)
_
vemos que (en la muestra)

=
n
log
_

i
(1 x
i
)
_ =
(60)
ln (0,0003)
= 7,3967
por lo tanto
2 log (x
1
, ..., x
n
) = 2 ln
_
2
60
(0,0003)
(7,3967)
60
(0,0003)
6,3967
_
= 69,39,

2
1;0,1
= 2,706
as que rechazamos H
0
, i.e. el valor = 2 no es aceptable.
72 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
Ejercicio 4.5.8 Sea (X
i
)
n
i=1
una m.a. de una poblaci on X con una funci on de densidad
f

=
_
e
x
x > 0
0 x 0
donde > 0. Deseamos contrastar H
0
: 1 frente a H
1
: < 1.
1. Si adoptamos como regi on de rechazo de H
0
R =
_
(x
i
)
n
i=1
: x
(1)
c
_
.
determinar el valor de c, para que el test tenga tama no .
2. Si tomamos como densidad a priori para
() =
_
e

> 0
0 resto
calcular la probabilidad a posteriori de la regi on que constituye la hip otesis nula, cuando la
muestra consta de una sola observaci on.
Soluci on. Tenemos
H
0
: 1,
H
1
: < 1,
nivel de signicacion
queremos calcular c
R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c} =
_
(x
i
)
n
i=1
: x
(1)
c
_
tal que
= sup
1
P

(R)
de esta forma vemos que si
P

(R) = P

_
x
(1)
c
_
=
_
P

_
x
(1)
c
__
n
=
__

c
e
x
dx
_
n
= e
nc
entonces
= sup
1
P

(R) = P
=1
(R) = e
nc
, = c =
log
n
.
Con respecto al segundo de los apartados vemos que
() =
_
e

> 0
0 resto
por lo tanto
( | x) f (x | ) () = e
x
e

= e
(x+1)
, > 0
4.5. EJERCICIOS 73
por lo que
( | x) Gamma(p = 2, a = x + 1) =
a
p
(p)

p1
e
a
=
=
(x + 1)
2
(2)
e
(x+1)
= (x + 1)
2
e
(x+1)
, > 0
encontramos as que la probabilidad a posteriori de
0
es:
_

=1
(x + 1)
2
e
(x+1)
d =
_
e
(x+1)
( +x + 1)
_

1
= (x + 2) e
(x+1)
.
tal y como queramos hacer ver.
Ejercicio 4.5.9 Se van a probar dos medicamentos A y B contra una enfermedad. Para esto
tratamos 100 ratones enfermos con A y otros 100 con B. El n umero medio de horas que sobreviven
con A es x = 1200 y para B y = 1400. Suponiendo normalidad en mabos casos se pide:
1. Se puede aceptar igualdad de varianzas si sabemos que

i
(x
i
x)
2
= 900000,

i
(y
i
y)
2
= 950000, ?.
(tomar = 0, 10)
2. Es m as efectivo el medicamento B?. Plantear el contraste adecuado para estudiar esto con
un nivel de conanza del 95 %.
Soluci on. Tenemos
X N(
1
,
2
1
), Y N(
2
,
2
2
)
donde ademas supondremos independencia.
Se puede aceptar igualdad de varianzas? i.e.
H
0
:
1
=
2
,
H
1
:
1
=
2
,
= 0, 10
R =
_
S
2
1
S
2
2
/
_
F
m1;n1;1/2
, F
m1;n1;/2
_
_
donde
S
2
1
S
2
2
=
1
m1

i
(x
i
x)
2
1
n1

i
(y
i
y)
2
=
90
95
0,95,
F
m1;n1;/2
= F
99;99;0,05
F
120;120;0,05
= 1,3519,
F
m1;n1;1/2
= F
99;99;0,95

1
F
120;120;0,05
= 0,74
74 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
donde estamos usando los valores mas cercanos y recordamos que
F
m;n;1
=
1
F
m,n,
de esta forma aceptamos H
0
y podemos decir que
1
=
2
.
Con respecto a la segunda cuestion vemos que nos preguntan si
1
<
2
. As que
H
0
:
1

2
,
H
1
:
1
<
2
,
= 0, 05
con
R =
_

X

Y < t
m+n2;1
S
p
_
1
m
+
1
n
_
donde
S
p
=

(m1) S
2
1
+ (n 1) S
2
2
m+n 1
96,66,
t
m+n2;1
= t
198;0,95
t
200;0,95
= t
200;0,05
= 1,65
as que
R = {200 < 22,60}
por lo rechazamos H
0
:
1

2
y aceptamos H
1
i.e. podemos armar que hay suciente evidencia
muestral para asegurar que B es mas efectivo.
Ejercicio 4.5.10 La duraci on media de una m.a. de 10 bombillas es x = 1250 horas, con una
cuasidesviaci on tpica muestral de s
X
= 115. Se cambia el material del lamento por otro nuevo
y entonces de una nueva m.a. de 12 bombillas se obtuvo una duraci on media de y = 1340 con
s
Y
= 106.
1. puede aceptarse que las varianzas, antes y despues del cambio de lamento sean iguales?
2. Ha aumentado la duraci on media de las bombilla?
Soluci on. Se puede aceptar igualdad de varianzas? i.e.
H
0
:
1
=
2
,
H
1
:
1
=
2
,
= 0, 10
R =
_
S
2
1
S
2
2
/
_
F
m1;n1;1/2
, F
m1;n1;/2
_
_
4.5. EJERCICIOS 75
donde
S
2
1
S
2
2
=
1
m1

i
(x
i
x)
2
1
n1

i
(y
i
y)
2
=
13225
11236
= 1,18,
F
m1;n1;/2
= F
9;11;0,05
2,89,
F
m1;n1;1/2
= F
9;11;0,95

1
2,89
0,34
donde estamos usando los valores mas cercanos y recordamos que
F
m;n;1
=
1
F
m,n,
de esta forma aceptamos H
0
y podemos decir que
1
=
2
.
Con respecto a la segunda cuestion vemos que nos preguntan si
1
<
2
. As que
H
0
:
1

2
,
H
1
:
1
<
2
,
= 0, 10
con
R =
_

X

Y < t
m+n2;1
S
p
_
1
m
+
1
n
_
donde
S
p
=

(m1) S
2
1
+ (n 1) S
2
2
m+n 1
110,14,
t
m+n2;1
= t
20;0,10
= 1,325
as que
R = {90 < 62,49}
por lo rechazamos H
0
:
1

2
y aceptamos H
1
i.e. podemos armar que ha aumentado la duracion
media.
Ejercicio 4.5.11 Con objeto de estudiar si las pulsaciones en los hombres (X) pueden considerarse
menores que en las mujeres (Y ) se tomaron muestrasde 16 hombre y mujeres obteniendose los
siguientes resultados (ya resumidos)

16
i=1
x
i

16
i=1
x
2
i
X 1248 97570
Y 1288 103846
Que podemos decir al respecto?
76 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
Soluci on. Los datos no estan emparejados y por lo tanto tenemos
X N(
1
,
2
1
), Y N(
2
,
2
2
)
donde ademas supondremos independencia. Vemos que

X =
1
n

x
i
=
1248
16
78,

Y = 80,5
nos preguntamos si esta diferencia a favor de las mujeres es concluyente. podemos armar que

1
<
2
?. As que
H
0
:
1

2
,
H
1
:
1
<
2
,
= 0, 05
pero consideremos una cuestion previa: podemos aceptar
1
=
2
?, i.e.
H
0
:
1
=
2
,
H
1
:
1
=
2
,
= 0, 10
Al ser
1
= 3,7 y
2
= 3,2, podemos concluir que son razonablemente identicas (comprobar todas
estas cuentecillas) i.e.
var(X) =
1
n
_
16

i=1
x
2
i
n

X
2
_
, etc..
por lo tanto al considerar igualdad de varianzas (si esto no fuese as tendramos que utilizar otro
modelo), tenemos
R =
_

X

Y < t
m+n2;1
S
p
_
1
m
+
1
n
_
= {2,5 < 2,16}
y por lo tanto al vericarse la condicion debemos rechazar H
0
y aceptar H
1
i.e. podemos concluir
que
1
<
2
.
Si hubiesemos aceptado H
0
no podramos concluir que
1

2
(no sera coherente con los datos
obtenidos) y por lo tanto diramos que los datos no son concluyentes.
Ejercicio 4.5.12 Se sospecha que en cierta estaci on de servicio nos estafan en la gasolina. Para
comprobarlo se hacen 50 llenados de 30 litros cada uno. Llamando x
i
a cada uno de estos llenados,
los resultados obtenidos son

50
i=1
x
i
= 1475,

50
i=1
x
2
i
= 43550. Se puede considerar estadstica-
mente probado, al nivel 0,01 que nos sirven menos gasolina?.
Soluci on. En este caso la situacion es la siguiente:
H
0
: 30,
H
1
: < 30,
= 0, 01
4.5. EJERCICIOS 77
tenemos
R =
_

X 30 < t
49;0,99
S

50
_
= {0,5 < 0,30}
donde
S
2
=
1
49
_
50

i=1
x
2
i
49X
2
_
= 0,76,
t
49;0,99
= 2, 403
por lo que debemos rechazar H
0
y aceptar H
1
i.e. podemos concluir que
1
< 30 i.e. que NO nos
estafan.
Ejercicio 4.5.13 Un fabricante de lavadoras produce un determinado modelo en dos colores A y B.
De las 1000 primeras lavadoras vendidas 560 fueron de color A. Proporcionan estos datos suciente
evidencia estadstica (al nivel 0,01) para concluir que los consumidores preeren mayoritariamente
el color A?.
Soluci on. Queremos estimar la proporcion de personas que preeren A frente a B, para ello
modelizamos de la siguiente manera
X =
_
1 A
0 B
i.e. una Bernoulli (muestras grande n = 1000). podemos concluir que p > 0,5? entonces haremos
las siguientes hipotesis
H
0
: p 0,50,
H
1
: p > 0,50,
= 0, 01
tenemos
R =
_

X p
0
> Z

_
p
0
(1 p
0
)
n
_
=
_
0,060 > Z

_
0,5 (1 0,5)
1000
_
= {0,06 > 0,037}
donde
Z

= Z
0,01
= 2,33,

X =
1
n

i=1
x
i
=
560
1000
= 0,56
por lo que rechazamos H
0
y aceptar H
1
i.e p > 0,50.
Antes de terminar veamos si el p valor es mayor o menor que 0,01. Sabemos por denicion que
el p valor es:
sup P
H
0
= {obtener un resultado mas desfavorable a H
0
que el obtenido}
78 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
i.e. apoyo de los datos a H
0
?.
si p valor < entonces rechazamos H
0
,
si p valor > entonces aceptamos H
0
,
luego un pvalor < rechazar H
0
. Como nosotros hemos rechazado H
0
entonces el pvalor
debe ser menor que = 0,01 (esto nos evita el tener que calcular explcitamente el p valor).
Ejercicio 4.5.14 Una prueba de detecci on de la hepatitis vrica produce un 2 % de falsos positivos
y un 5 % de falsos negativos. Se aplica esta prueba a 800 personas tomadas al azar.
1. Hallar la relaci on entre p =Probabilidad de dar positivo y r =Probabilidad de padecer
hepatitis vrica.
2. En 45 pruebas, de las 800, el resultado es positivo. Se puede considerar estadsticamente
probado que la enfermedad afecta a menos del 8 % de la poblaci on? (tomando = 0,01).
Soluci on. Tenemos la siguiente situacion
P(positivo | sano) = 0,02
P(negativo | enfermo) = 0,05
n = 800
estamos interesados en calcular la proporcion de personas enfermas, r.
La probabilidad de dar positivo sera por lo tanto
p = P(positivo) = P(sano)P(positivo | sano) +P(enfermo)P(positivo | enfermo) =
= (1 r)(0,02) +r(0,95)
luego
p = 0,02 + 0,93r.
Con respecto al segundo apartado modelizaremos de la siguiente manera:
X =
_
1 positivo
0 negativo
i.e. mediante una Bernoulli(p). Cuando podremos concluir que r < 0,08? i.e. cuando podremos
concluir que p < 0,02 + 0,93r = 0,094?, entonces haremos las siguientes hipotesis
H
0
: p 0,094,
H
1
: p < 0,094,
= 0, 01
4.5. EJERCICIOS 79
tenemos
R =
_

X p
0
< Z
1
_
p
0
(1 p
0
)
n
_
por lo tanto podremos concluir que p < 0,094 cuando
_

X (0,094) < Z
1
_
0,094 (1 0,094)
800
_
=
_

X (0,094) > Z
1
_
1,031 8 10
2
__
donde
Z
1
= Z
0,99
= 2,33,

X =
# de positivos
800
as que despejamos

X y obtenemos que

X < 55,92
por lo que podemos concluir que la proporcion de enfermos es menor que 0,08 cuando el n umero
de positivos sea menor que 55.
80 CAP

ITULO 4. CONTRASTE DE HIP

OTESIS
Captulo 5
Distribuciones.
5.1. Distribuciones discretas
5.1.1. Bernoulli.
1. Funcion generatriz
G
X
(s) = q +ps.
2. Funcion de masa
p
k
= P(X = k) = p
k
q
1k
= p
k
(1 p)
1k
con k = 0, 1.
3. Funcion caracterstica y generatriz de momentos

X
(t) = q +pe
it
, M
X
(t) = q +pe
t
.
4. Esperanza y varianza
E [X] = p, var [X] = pq, =

pq
5. Resumen
p
k

X
(t) M
X
(t) E [X] var [X]
p
k
q
1k
q +pe
it
q +pe
t
p pq
5.1.2. Binomial.
Probabilidad de obtener exactamente k exitos.
1. Funcion generatriz
G
X
(s) =
n

k=0
_
n
k
_
p
k
q
nk
s
k
= (q +ps)
n
.
81
82 CAP

ITULO 5. DISTRIBUCIONES.
2. Funcion de masa
Bin(n, p) =
_
n
k
_
p
k
q
nk
con k = 0, 1, ....
3. Funcion caracterstica y generatriz de momentos

X
(t) =
_
q +pe
it
_
n
, M
X
(t) =
_
q +pe
t
_
n
.
4. Esperanza y varianza
E(X) = np, var(X) = npq, =

npq
5. Resumen
p
k

X
(t) M
X
(t) E [X] var [X]
_
n
k
_
p
k
q
nk
_
q +pe
it
_
n
_
q +pe
t
_
n
np npq
Teorema 5.1.1 Suma de binomiales independientes es otra binomial.

X
i
Bin
_

n
i
, p
_
.
5.1.3. Geometrica.
Tiempo de espera hasta que aparece el suceso X por primera vez.
1. Funcion generatriz
G
X
(s) =

k=1
p
k
q
k1
s
k
=
ps
1 qs
.
2. Funcion de masa
Geo(p) = (1 p)
k1
p con k = 1, ....
3. Funcion caracterstica y generatriz de momentos

X
(t) =
pe
it
1 qe
it
, M
X
(t) =
pe
t
1 qe
t
.
4. Esperanza y varianza
E(X) =
1
p
, var(X) =
q
p
2
, =
_
q
p
2
.
5. Resumen
p
k

X
(t) M
X
(t) E [X] var [X]
(1 p)
k1
p
pe
it
1qe
it
pe
t
1qe
t
1
p
q
p
2
5.1. DISTRIBUCIONES DISCRETAS 83
5.1.4. Binomial negativa.
Si en vez de buscar la probabilidad de k exitos en n ensayos (njo) consideramos la variable X
igual al n umero de fallos antes del exito nesimo entonces encotramos la binomial negativa.
Observaci on 5.1.1 Geometrica es un caso particular de una binomial negativa
Geo BinN (1, p) .
1. Funcion generatriz
G
X
(s) =
_
p
1 qs
_
n
.
2. Funcion de masa
BinN(n, p) =
_
n +k 1
k
_
p
n
q
k
con k = 0, 1, ....
3. Funcion caracterstica y generatriz de momentos

X
(t) =
_
p
1 qe
it
_
n
, M
X
(t) =
_
p
1 qe
t
_
n
.
4. Esperanza y varianza
E(X) =
n
p
, var(X) =
nq
p
2
, =
_
nq
p
2
5. Resumen
p
k

X
(t) M
X
(t) E [X] var [X]
_
n +k 1
k
_
p
n
q
k
_
p
1qe
it
_
n
_
p
1qe
t
_
n
n
p
nq
p
2
5.1.5. Poisson.
1. Funcion generatriz
G
X
(s) = exp((s 1)).
2. Funcion de masa
Poisson() = exp()

k
k!
con k = 0, ....
3. Funcion caracterstica y generatriz de momentos

X
(t) = e

_
e
it
1
_
, M
X
(t) = e
(e
t
1)
.
84 CAP

ITULO 5. DISTRIBUCIONES.
4. Esperanza y varianza
E(X) = , var(X) = , =

Teorema 5.1.2 La suma de Poissones independientes es otra Poisson de par ametro =

i
Observaci on 5.1.2 Binomial Poisson
Bin(n, p) Poiss() / = np 5 y p 0,1.
5.1.6. Hipergeometrica
1. Funcion de masa
f
X
(x) =
_
k
x
__
N k
n x
_
_
N
n
_
2. Esperanza y varianza
E(X) =
kn
N
, var(X) =
N n
N 1
n
k
N
_
1
k
N
_
,
5.2. Variables continuas (v.a.c.).
5.2.1. Uniforme en [a, b].
1. Funcion de distribucion.
F
X
(t) =
_
_
_
0 t < a
t t [a, b]
1 t > b
2. Funcion de densidad.
f
X
(t) =
_
1
ba
t [a, b]
0 t / [a, b]
3. Funcion caracterstica y generatriz de momentos

X
(t) =
e
itb
e
ita
it (b a)
, M
X
(t) =
e
tb
e
ta
t (b a)
.
4. Esperanza y varianza.
E(X) =
1
2
(a +b), var(X) =
1
12
(b a)
2
.
5.2. VARIABLES CONTINUAS (V.A.C.). 85
5.2.2. Gamma.
1. Funcion de densidad (p, a).
f
X
(t) =
_
a
p
(p)
x
p1
e
ax
x > 0
0 resto
donde
(p) =
_

0
x
p1
e
x
dx
2. Funcion caracterstica y generatriz de momentos

X
(t) =
_
1
it
a
_
p
, M
X
(t) =
_
1
t
a
_
p
.
3. Esperanza y varianza.
E(X) =
p
a
, var(X) =
p
a
2
.
5.2.3. Exponencial.
1. Funcion de distribucion.
F
X
(t) =
_
1 exp(t) t > 0
0 t 0
donde > 0.
2. Funcion de densidad.
f
X
(t) =
_
exp(t) t > 0
0 t 0
o f
X
(t) = exp(t)I
(0,)
(x)
vemos que
exp () = (p = 1, ) .
3. Funcion caracterstica y generatriz de momentos

X
(t) =
_
1
it
a
_
1
, M
X
(t) =
_
1
t
a
_
1
.
4. Esperanza y varianza.
E(X) =
1

, var(X) =
1

2
Teorema 5.2.1 Sea X v.a. exponencial, entonces:
P(X > a +t | X > a) = P(A > t),
i.e. X tiene la propiedad de no memoria.
86 CAP

ITULO 5. DISTRIBUCIONES.
Teorema 5.2.2 (X
i
)
n
i=1
exp () v.a.i.i.d., entonces

X
i
(n, ) .
5.2.4. Beta
1. Funcion de densidad.
f
X
(t) =
1
B(p, q)
x
p1
(1 x)
q1
I
(o,1)
(x),
2. Esperanza y varianza.
E(X) =
p
p +q
, var(X) =
pq
(p +q)
2
(p +q + 1)
5.2.5. Normal.
1. Funcion de distribucion.
F
X
(t) =
1

2
_
t

exp
_

1
2
_
x

_
2
_
dx x R
2. Funcion de densidad.
f
X
(t) =
1

2
exp
_

1
2
_
x

_
2
_
x R
3. Funcion caracterstica y generatriz de momentos

X
(t) = e
it
1
2

2
t
2
, M
X
(t) = e
t
1
2

2
t
2
.
4. Esperanza y varianza.
E(X) = , var(X) =
2
Si X N(,
2
), tipicando la variable i.e.
Z =
X

=Z N(0, 1)
Observaci on 5.2.1 Aproximaci on Normal de una binomial. Versi on m as simple del TCL (ver
captulo 7)
Binomial Normal.
Bin(n, p) N(np,

npq)
5.2. VARIABLES CONTINUAS (V.A.C.). 87
Si Bin(n, p) tal que np 5 y nq 5, entonces podemos aproximar dicha binomial mediante una
distribuci on normal.
La probabilidad binomial P(k) puede aproximarse por la probabilidad normal
P(k) P(k 0,5 X k + 0,5)
Teorema 5.2.3 Si {X
i
}
n
i=1
son v.a. independientes tales que X
i
N(
i
,
i
) i = 1, ..., n entonces

i
X
i
N
_
_

i
,

i
_
_
.
Teorema 5.2.4 Si {X
i
}
n
i=1
son v.a. independientes tales que X
i
N(, ) i.e. son v.a.i.i.d., en-
tonces

i
X
i
n
N
_
,

2

n
_
.
5.2.6. Cauchy
1. Funcion de densidad.
f
X
(t) =
1

1
1 +
_
xp

_
2
.
2. Funcion caracterstica

X
(t) = e
itp|t|
.
3. Esperanza y varianza.
E(X) =, var(X) = .
5.2.7.
2
n
. Chi-cuadrado

2
n
. Distribucion Chi-cuadrado con n-grados de libertad. Consideramos (X
1
, ...., X
n
) v.a.i.i.d. que
siguen una N(0, 1). Denimos

2
n
=
n

i=1
X
2
i
. (5.1)
1. Funcion de densidad.
f
X
(t) =
1
2
n/2

_
n
2
_e

1
2
x
x
n
2
1
I
(o,)
(x) x R
viendose que

2
n
=
_
n
2
,
1
2
_
88 CAP

ITULO 5. DISTRIBUCIONES.
2. Funcion caracterstica y generatriz de momentos

X
(t) = (1 2it)
n/2
, M
X
(t) = (1 2t)
n/2
.
3. Esperanza y varianza.
E(X) = n, var(X) = 2n.
5.2.8. t-Student
t-Student, con n-grados de libertad, t
n
.
Denici on 5.2.1 Considermos X N(0, 1) e Y
2
n
de tal forma que (X, Y ) son independientes,
denimos
t
n
=
X
_
Y
n
=
N(0, 1)
_

2
n
/n
(5.2)
El calculo de la funcion de densidad es facil ya que al tratarse de v.a.i. entonces f
XY
= f
X
f
Y
.
1. Funcion de densidad.
f
X
(t) =
1

_
n+1
2
_

_
1
2
_

_
n
2
_
_
1 +
x
2
n
_

n+1
2
, x R
2. Funcion caracterstica y generatriz de momentos

X
(t) = (1 2it)
n/2
, M
X
(t) = (1 2t)
n/2
.
3. Esperanza y varianza.
E(X) = 0, si n > 1, var(X) =
n
n 2
, si n > 2.
4.
t
n;1
= t
n;
5.2. VARIABLES CONTINUAS (V.A.C.). 89
5.2.9. F Fisher-Snedecor
F Fisher-Snedecor. F
m,n
con m y n grados de libertad. Sea X
2
m
, e Y
2
n
v.a.i. entonces
denimos
F
m,n
=
X
m
Y
n
=
Xn
Y m
=

2
m
/m

2
n
/n
. (5.3)
1. Funcion de densidad.
f
X
(t) =

_
m+n
2
_

_
m
2
_

_
n
2
_
_
m
n
_m
2
x
m2
2
_
1 +
m
n
x
_

m+n
2
, x R
2. Esperanza y varianza.
E(X) =
m
m2
, m > 2, var(X) = 2
_
n
n 2
_
2
m+n 2
m(n 4)
, n > 4.
3. Propiedades
a) Si X F
m,n
=
1
X
F
n,m
F
m;n;1
=
1
F
n;m;1
F
m;n;1
=
1
F
m;n;