Professional Documents
Culture Documents
Inferencia
. /
esta oca
© J. Humberto Mayorga A.
Bogotá, Colombia.
UNIBIBLOS
Director general
Francisco Montaña Ibáñez
Coordinación editorial
Dora Inés Perilla Castillo
Revisión editorial
Fernando Carretero
Carátula
Camilo Urnaña
ISBN 958-701-374-3
ISBN 958-7°1-138-4
(obra completa)
ISBN: 958-701-374-3
l. Estadística matemática 2.. Probabilidades L lJI!m:isiIiadl Nü_l_
Colombia. Facultad de Cien .
Prólogo vii
Introducción ix
iii
IV CONTENIDO
Bibliografía 289
Prólogo
IX
••
x INTRODUCCIÓ",
Distribuciones Muestrales
_e - -- Growth)_
1
x INTRODUCCIÓN
3. ¿Cuáles son los principios que rigen este proceso tan particular de
inferencia?
6 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
variables aleatorias Xl, X2, ... .X¿ independientes e idénticamente dis- tadísticas
tribuidas. De manera más general, una sucesión de variables aleatorias
pondien
Xl, X2, ... , independientes y con idéntica distribución, también se de- x; puede-
nomina muestra aleatoria. En el caso de una sucesión finita, el valor n aleatoria _
recibe el nombre de tamaño de la muestra o tamaño muestral. mente la
població
La definición anterior revela que en el contexto estadístico el término
cuentre
muestra presenta dos acepciones: ser un subconjunto de unidades es-
tadísticas elegidas por métodos estadísticos formales y la adjetivada co-
mo aleatoria expuesta en la definición anterior, ésta referida a una suce-
sión de variables aleatorias. Lo mismo le ocurre al término población: -
denota al conjunto completo de unidades estadísticas objeto de estudio
y ahora se le concibe como una variable aleatoria, en el sentido que se
expone a continuación. - Definid'
El acceso al estudio de ese conjunto de unidades estadísticas se lleva
a cabo mediante el examen de las características o respuestas de sus in-
tegrantes, interpretadas como variables; el discernimiento de la esencia
ya no individual sino colectiva de las unidades es en suma el motivo
- población
de un pa,......--.:~
de domi
un uecior
de la investigación o estudio. Por ello, el comportamiento de las varia- pende de
bles se convierte entonces en un elemento revelador de características y también ••.
- .•.•
propiedades que sustentan la descripción de la colectividad, las explica- blación '-__~~
ciones o las decisiones a que haya lugar. el uector •..~•;•.•........•
El comportamiento real de una o varias variables es un compor-
tamiento reflejo de la naturaleza de la población, que no siempre es
posible conocer. Por tanto, acudir a modelos de probabilidad para emu-
lar el comportamiento poblacional es un recurso legítimo que reduce
carencias permite aprovechar las virtudes propias del modelo y hace
posible la utilización de un lenguaje universal, por supuesto sobre la
base de una escogencia juiciosa del modelo.
Entonces, un aspecto de las unidades estadísticas observado, medido
o cuantificado en una variable (o varios aspectos utilizando un vector Ejemplo _
para disponer las variables) se le abstrae como una variable aleatoria variable
(o un vector aleatorio) que tiene asociado un modelo particular. Es- de la !JV'...- ••....~
ta variable aleatoria que representa una variable en la población suele
denominársele igualmente población. •
Según estas consideraciones, la sucesión Xl, X2, ... .X¿ de la defini-
ción anterior denominada muestra aleatoria, además de ser un elemento
del ámbito conceptual de la teoría estadística, puede vincularse con la
•
información específica acopiada de un sub conjunto de n unidades ffi-
•
1.2. PRELIMINARES DE LA INFERENCIA ESTADÍSTICA 9
..J
tadísticas de las cuales se dispone de los valores Xl, X2, corres-
... ,Xn,
pondientes a una variable denotada por X. En otros términos, el valor
Xi puede entenderse como una realización de la correspondiente variable
...J
aleatoria Xs, i = 1,2, ... , n; por eso es habitual encontrar recurrente-
mente la expresión "sea Xl, X2, ... , X¿ una muestra aleatoria de una
población con función de densidad ...". El contexto en el cual se en-
cuentre el vocablo población delimita la acepción en uso: un conjunto
o una variable aleatoria. Las constantes constitutivas del modelo pro-
babilístico elegido para representar una población, llamadas usualmente
parámetros, se disponen en un vector de k componentes, k = 1,2, ... ,
e
que puede denotarse como al cual se le designa como parámetro del
modelo.
- 2 - 2
(XI-Xn) +(X2-Xn) T'"
• n-1
• Xl,n = min{X1, X2, ... , Xn}
CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
10
• (Xn,S~)
• (X1,X2, .. · ,Xn)
Las tres primeras estadísticas son unidimensionales, la cuarta bidimen-
sional y la última de dimensión q = n.
Puesto que los parámetros f.L y a son las constantes características del
modelo gaussiano, particularmente las dos siguientes variables aleatorias
no son estadísticas:
n 2
L (Xi - f.L)
i=l
y
n-l
100%¡''''''-'-~~~-_-_-_-_-]¿%·/1
limen-
~v I I
as del
",,","'
VII
1 I I
I I
torias I I
I I
I 1
Al lX;r'"
':-f,>"\:
10- __ ~ - - - - - - ::t-v"'-_-I
~ "\-~'b'
Definición 1.2.6. Sea Xl, X2,.'.' Xn una muestra aleatorio de una po-
blación con momentos ordinarios y centrales /-i~ y ii; respectivamente.
Los momentos muestrales, ordinarios y centrales de orden r,
r = 1,2, ... , cumplen en la muestra funciones análogas a los momentos
poblacionales /-i~. y /-ir, se denotan y definen como
,
{Xn (w)} definida en un espacio muestral O, y teniendo en cuenta que
todas las variables aleatorias constituyentes de la sucesión están consi-
deradas en el mismo espacio de probabilidad (O, A, P).
~ En primer lugar, siendo {Xn} una sucesión de variables aleatorias y
e un número real, el conjunto {wIXn(w) = e} E A, de manera que
p [lim
n->oo
x; = e] = 1
e tma po-
jI!:IE:n:"::rnente. esté siempre definido.
orden r, Se dice que la sucesión de variables aleatorias {Xn} converge casi
tzomentos seguro a cero o converge a cero con probabilidad uno si:
P [lim
n->oo
x; = o] = l.
X n~ a.s. O .
En efecto
P [lim
n->oo
x; = O] = 1
puesto que P[X = : = 1 - (~t· Como V[XnJ = (~t [1 - (~t],
puede notarse el d o de dicha varianza en cuanto n se incre-
menta, es decir, Xn do el carácter de variable aleatoria porque
su varianza va tendí . esto es, la variable va asumiendo rasgos
de una constante.
En segundo lugar. e la sucesión de variables aleatorias
{Xn} converge en profJa¡tn!I¡oo:.d, a la variable aleatoria X, hecho
simbolizado como
14 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
si lim P
n-+oo
[lXn - XI < él = 1, para é > O. Para referirse a la convergen- __
,
cia en probabilidad también puede utilizarse convergencia estocástica,
convergencia en medida o convergencia débil.
Específicamente dentro de la convergencia en probabilidad y debido -,
al uso principal que tendrá en la construcción de estimadores por el
llamado método de los momentos, se enuncia el siguiente teorema.
Teorema 1.3.2. Siendo las variables aleatorias X$!J , X], j = 1,2, ... , k,
Y la función g : ]Rk -----t ]R continua, tal que tanto g(X~l), X~2), ... ,X~k») =
como g(X1, X2, ... ,Xn) sean variables aleatorias, entonces si X$!J ~ Xj •
implica que
1. Xn+Wn~X+W.
2. XnWn!!...XW.
X2!!.....
5. n - - de~~~.
.L, !!..... ...:.."
~ de :=m:::~:z;
6. Xn x· P:Xn =1- O] =P[X =1- OJ = l. ~~~
si lim E [(IXn
n-+oo
- Xln = O. Particularmente, si r = 1 suele decirse que
la sucesión de variables aleazorias {Xn} converge en valor esperado
a la variable aleatoria X . De manera similar, cuando r = 2, la
convergencia se conoce como convergencia en media cuadrática.
1.3. PRELIMINARES DE CONVERGENCIA DE VARIABLES ALEATORIAS 15
,
Un cuarto y último tipo de convergencia de variables aleatorias se
refiere a una sucesión de variables aleatorias {Xn}, cuya correspondien-
te sucesión de funciones de distribución F1(x), F2(x), ... , se considera.
De esta manera, la sucesión de variables aleatorias {Xn} converge en
distribución a la variable aleatoria X, cuya función de distribución
es F(x), hecho denotado
d
X¿ -+X
lim Mx
n~oo n
(t)= lim
n~oo
[l-7f(l-é)t= lim
n~oo
[l_~(l_et)]n
n
= eA(et-I),
. ( 1 - -2t) -~. =
lim
n--= n h---¡.Q
l.
11m (1 - ht)-h = é siendo h = -.
2
h
Figura ::.
Esto significa que Fx(x) es una función tal que Fx(x) = Opara x < 1Y alear -"
Fx(x) = 1 para x 2: 1; es decir, se trata de una constante igual a t. En
consecuencia, el teorema anterior permite concluir que Yn E,. 1.
Teorema 1.3.9. Estando las variables aleatorias Xl, X2, ... y la va-
riable particular X definidas sobre el mismo espacio de probabilidad
(O,A,P):
1.4. CARACTERÍSTICAS GENER.!\.LES DE ALGUNAS ESTADÍSTICAS 17
Convergencia
casi seguro
Convergencia en
Ico;:=~enl ]:1
distribución
~~/
Convergencia en
valor esperado
Teorema 1.4.1. Si X}, X2, ... , X¿ es una muestra aleatoria de una po-
blación representada por la variable aleatoria X con varianza 0-2 y con
momento ordinario J.L~T'r = 1,2, ... , entonces el valor esperado y la
varianza del momento muestral ordinario son, respectivamente:
= ~ [J.L~T
- (J.L~)2].
_ (}2
V[XnJ =-.
n
Teorema 1.4.3. Si Xl, X2, ... , Xn es una muestra aleaioria de una po-
blación con valor esperado, también llamado promedio poblacional,
J.Ly varianza (}2, conocida como varianza poblacional, y existiendo
. además el momento central de orden cuatro /-l4, entonces
2
V[SnJ = -1 ( /-l4 -
n- 3
--()
4) ,n > l.
n n-1
El tamaño de la muestra es un elemento sustancial tanto para las
disquisiciones en la teoría de la estadística como para la utilización de
misma. La pregunta, por su magnitud, es quizá de las más inquietam
para el investigador en la búsqueda de respaldo a la confiabilidad de
investigación; el tamaño muestral es uno de los aspectos con los
se certifican o descalifican estudios. Es, en definitiva, un punto ob .
para dilucidar.
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 19
Ejemplo 1.4.5. ¿Cuál debe ser el tamaño de la muestra para tener una
.-ti probabilidad de 0.95 de que el promedio muestral no difiera de Jl en más
-le una cuarta parte de la desviación estándar?
-¡;-..., esta situación, E = 0.25(7, Ó = 0.05; por lo tanto:
(72
n» 2 = 320.
(0.25(7) (0.05)
..•. Modificando parcialmente las condiciones del teorema 1.4.4 en el
=entido de no hacer ninguna mención de la varianza (j2, es posible reiterar
:,1 convergencia en probabilidad del promedio de la muestra, como lo
presenta el siguiente teorema..
Teorema 1.4.7. Si Xl, X2, ... ,Xn es una muestra aleatoria de una
población para la cual el momento central f.12r existe, entonces
MIr,n P I
.-, f.1r' r = 1,2, ...
1 n
siendo /in =- L f.1i
n i=l
La. ley roe-I:t.eé\e "\.osg¡:a.né\esnú:n.•.eros es un. con~u.nto ü~ teoreTI\.as
Teierent.es a la con.vergencia casi segura de SUCeS10l.1.eS de VaTlables ~lea-
t.orvaa. El teoreIlla siguiente es el más divulgado de todos y fue enunciado
or igrnedrnerrte por Kolmogorov.
que su valor' esperado ¡.ti y su varianza a'f son finitos, i = 1,2, .. , y asu-
miendo que T.2
n
= f: a
i=l
2
~
~ 00 y además que max {~}
l$i$n Tn
~ ° cuando
n ~ 00, entonces
'f\.
I:(Xi - {.Li)
_i=_l ~ Z "" N(O, 1)
,
- 1 2, .. _y asu- e B ernoulli de valor esperado ir, entonces
~ O cuando
lim
n~CX)
"
Z::
P[Tn = k] = n--+oo
lim P[z' ::; z; ::;z"]
anSkSbn
= q>(Z") - q>(z')
q> ( Jn7r(l
b - n7r)
- 7r) - q>
(a -Jn7r(l
n7r )
- -r) .
ución a una Teorema 1.4.15. Si Xl, X2, .... ~ es una muestra aleatoria de una
•......
---JOblación con distribución Normal de valor esperado f.Ly varianza (j2,
..•mionces
j). Siendo
distribución
24 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
siendo
XI,n: mínimo de la muestra
• El rango muestral:
• El semirrango muestral:
SR = X1,n + Xn,n
2
• La mediana muestral:
Xn+l n , si n es impar
2 '
X!'.n+X!'.+ln
2' 2' si n es par
2 '
Es decir:
k
,
n
Teorema 1.5.2. Siendo X1,n, X2,n, ... ,Xn,n las estadísticas de orden
o la muestra ordenada de una población con función de distribución
Fx(x)' entonces para k = 1,2, ... , n
FXk.n(Y) = t (;)
J=k
[Fx(y)J1[l-
j
Fx(y)t- ·
Cn,j,k[Fx (x )]j-l [Fx (y) - Fx(x )]k-j-l[l_ Fx(y )]n-k fx (y )fx(x )I(x,oo) (y)
28 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
para 1 ::; j < k ::; n, con Cn,j,k = n!j[(j - l)!(k - j - l)!(n - k)!J. La ~
función conjunta de densidad de las estadísticas de orden es
en otros casos
1
fx(x) = f3 _ a I(cx,{3) (x)
x-a
Fx(x) = f3 _ a ICcx,(3) (x) + I[{3,oo) (x)
n!
= (k -l)!(n - k)! f3 _ a
(l)n (y - a)
k-l
(f3 - y)
n-k
I(a,(3) (y).
y =a + (f3 - a)X.
Teorema 1.5.6. Sea Xl. X2, ... , Xn, una muestra oleaioria de una po-
blación con función de distribución Fx(x) continua. Para p fijo, .
denota al único percentil lOOp poblacional, entonces
k-l
1
__1.5.2 Distribución del rango, semirrango y mediana de la
muestra
Las estadísticas correspondientes al rango y semirrango son funciones
- del máximo y mínimo muestrales. Por tanto, la determinación de su
---"-
__ distribución parte de la consideración de la distribución conjunta de
X1,n y Xn,n
fX1,n,Xn,n (x, y) = n(n - 1) [Fx(y) - Fx(x)]n-2 fx (x)fx(y)Iex,oo) (y).
Definidas las estadísticas
R = Xn,n - X1,n
T = Xl,n + Xn,n
2
:--'"
__ ~ se considera la siguiente transformación
r r
x = t -- y =t+-
2 2
.------- .....cuyo jacobiano es
ax ax - 1
-2 1
ar 8t =1
ay ay 1
1
2
ar at
con lo cual
'"'"'--_ fR,T(r, t) = n
••.........• ) ~F."'{ (t + ~)- Fx (t - ~)r-2fx (t - ~) fx (t + ~).
En consecuencia.. _ ra r > 0, se tiene
fX'Z,n,x9:+1,Jx. y) = Ix • ..:"\:"
_: _ X. y)
(2m. - ()]m 1 1
[Cm -1).2 Fx x - [1 - Fxex)]m- Ix(x)lx(Y)
30 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
z, = I(-oo,xj(Xi)
n
luego Zi f"V Ber(Fx(x)); por tanto 2: Z; f"V Bin(n, Fx(x)) Y por
i=l
guiente
E[Fn(x)] = Fx(x)
V[Fn(x)] = Fx(x)[l
- Fx(x)] .
n
Teorema 1.5.7. Siendo X1,X2, ... ,Xn una muestra aleatoria
población con función de distribución Fx(x), entonces
Fn(x) ~ Fx(x)
para un valor x dado.
Teorema 1.5.8 (Teorema de Glivenko-Cantelli). SiX __.:_
es una muestra aleatoria de una población con función de dis;trib==~
Fx(x), entonces Fn(x) converge uniformemente a Fx(x), esto
cada E > 0,
lim P [
n .....•
oo
sup
-oo<x<oo
IFn(x) - Fx(x)1
.
< E] = 1.
1.6. MOMENTOS DE ESTADÍSTICAS DE ORDEN 31
Xo
Teorema 1.5.9. Siendo Xl, X2, ... , X¿ una muestra aleatoria de una
población con función de distribución Fx(x), la sucesión de variables
aleatorias
fo[Fn(x) - Fx(x)] }
{ JFx(x)[l - Fx(x)]
converge en distribución a una variable aleatoria con dis.tribución Nor-
mal estándar.
k
E[Xkn] =--
, n+1
V[X l= k(n-k+1)
k,n - (n + 2)(n + 1)2
1
j(n - k + 1)]"2 j < k.
p(Xj,n, Xk,n) = [ k(n _ j + 1) ,
E[Xr]= n! r(r+k)r(n-k+1)
k,n (k-1)!(n-k)!r(r+k+n-k+1)
n!(r + k - 1)!
(r + n)!(k - 1)!'
particularmente,
niki k
. E[X]- ..
k,n - (n + 1)! (k - 1)! n +1
V[Xk,n] = E[X~,n]- (E[Xk,n])2
E[X2]= n!(k+2-1)! = k(k+1)
k,n (n + 2)!(k - 1)! (n + l)(n + 2)
V[X]- k(k+1) k2 k(n-k..L
k,n - (n+1)(n+2) (n+l)2 (n+2)(n-_-
fJ. - ni.
- (j - l)!(k - j - l)!(n - k)!
l1 1
o
Y
J.
o x y(y - x)
k-J--
.
--
y(~ - y)n-k (1 ~
. --
1.6. ¡'IOMENTOS DE ESTADÍSTICAS DE ORDEN 33
x
Realizando la sustitución v= -
y
I {l
= (j _ l)!(k _ ;._ l)!(n _ k)! lo y(l - y)n-k [yk,B(j + 1, k - j)] dy
I
(j _ l)!(k _ ;._ l)!(n _ k)!,B(l + i,k - j),B(k + 2, n-k + 1)
j(k+1) =E[X' X 1
(n + l)(n + 2) ],n, k,n
con lo cual
j(k + 1) jk
Cov(Xj,n, Xk,n) = (n + l)(n + 2) j<k
(n + 1)2
j(n - k + 1)
j < k.
k(n-j+1)
Por tanto. como caso especial, la correlación entre el mínimo y máximo
de la muestra bajo comportamiento poblacional Uniforme en el intervalo
(0,1) es
-- ~- -=1)
k(n-k+1)
Teorema 1.6.2. Sea Xl, X21 .•• , X¿ una muestra aleatoria de una po-
blación cuya función de distribución F X (x) es estrictamente monótona.
Asumiendo que xp es el percentillOOp poblacional, es decir, Fx(xp) = p,
entonces la estadística de orden [np] + 1 tiene distribución asintótica
.
N orma 1 con va 1or espera d o xp y uarumza p(l-p)
n[fx(xp)J2'
lim Fn(e
n---+(X)
+ e) =1 Y lim Fn(e - e) = O
n--+OQ
lim Fn(x)
n~oo
= F(x).
Entonces:
lim Fn(c - e)
n---+OQ
= O para e lim Fn(c + e) = 1
> O Y n---+~
.......-----,
luego
= n-.oo
lim P [lXn - el < e]
= A [fL2r - (fL~)2J .
Demostración. El valor esperado del momento ordinario de orden r
puede determinarse mediante dos argumentos. En primer lugar, uti-
lizando las propiedades del valor esperado se tiene que
E[M:,n] =E
1 ri 1 =;:1 ~ n
r = 1,2, ...
[;: ~ Xi E[X[J,
r = 1 2....
V[M;,nl = ~2 i: i=l
(fL2r -. (fL~f) = * (14,. - (fL~)2) .
1.7_ DEMOSTRACIÓN DE LOS TEOREMAS 37
Teorema 1.4.3. Si Xl, X2, ... , Xn es una muestra aleatoria de una po-
blación esperado, también llamado promedio poblacional,
con ualor
y ceriatiza a2,
conocida como varianza poblacional, y existiendo
además el momento central de orden cuatro f-l4, entonces
2
E[Snl = E [1 t:í'(X
~ -2]
n_1 X i - n) =a 2
V[S~J = -1 ( f-l4
n
- n-3)
__
n-1
0-
4
,n > lo
= ¿(Xi-X J--
i=l
n n
porque I: (Xi -
i=l
Xn) = LX,
i=:
- -- =.- X-n - n.X¿ = 0, y por tanto
n
L(X¡- ~- =
i=1
= n~1 [t
J=l
Ef(X¡ - f-l)2] - nE[(Xn -f-l)2J].
38 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
n
Demostración. La herramienta procedente para sustentar el desarrollo
de esta demostración es la desigualdad de Chevyshev, la cual asegura
que si X es una variable aleatoria con valor esperado u x Y varianza aJe
finita,
1
P[\X - Mxl < r(Jx] ~ 1 - """2 para cada r > o.
T
es decir:
(72
Nota. La cota 1 - -2 crece en cuanto n crece. Si se fija la cota en
nE
..r----.., 1 - 8 O < 8 < 1, significa que existe un tamaño de muestra mínimo n,
- (72
para el cual P[lXn - ¡.¿I < El 2: 1-8: En otros términos: 1- -2 > 1-8,
nE
es decir,
_ (72
P[-E < Xn - ¡.¿ < El 2: 1 - 8, para n > &2· o
Teorema 1.4.6. Si Xl, X2, Xn es una muestra aleatoria de una
.r------. población con valor esperado ¡.¿, entonces
... ,
Mx.,(t) = rr
n
i=l
E [e~Xi] = rr
n
i=l
E [e~x]
r
entonces:
1+ ~ (~) + ~!E[X2J(~) 2 +
) = lim [1 + ¡.¿t + O
n-+oo n
(!)]n
n
= e/-Lt
Aif'r,n ---7
1\
P J..L, ,
r = 1,2, ...
r
~
t i=l
[X[] z, E [Xí] = J.l~.
Teorema 1.4.9
La demostración puede consultarse en el texto Probability asid Statisti-
cal Inference (Robert Bartoszynski y Magdalena Niewíadomska-Buza!
(1996). pp. 430 a 431).
Como las variables de la sucesión Xl, X2,' .. ,Xn son variables aleato-
das independientes por tratarse de una muestra aleatoria, las variables
Y1,Y2,"" Yn también lo son, siendo Yi = X~-f!., i = 1,2, ... , n y por
tanto,
t ) 1 a2 ( t ) 2 1 f..L3
( t ) 3
My ( .Jñ = 1 + 2! (72 .¡n + 3! 0"3 .Jñ + ...
= 1 + -1 [1?
-1:' 1
+ --f..L3t 3 1
+ -!14t 4 +... ] .
n 2! 31fo, 4!n
42 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
= exp ( n->DO
lim Qn(t))
lim
n-+oo
{1 + en}n
n
= e",
Teorema 1.4.12
Los elementos que se requieren para el desarrollo de la demostración de
este teorema están más allá del alcance de este texto.
MXn (t) = E [é Xn
]
~ E [_ (t~t,x.)]
= E [IT exp ;Xi].
t=1
m
aleatoria,
= g (t
n
exp JL-; 1
+ "20"2 (t )2)
-;
~ [ex p H + ~~2
2
(~)') r
= exp (JLt + ~:: t )
. 'L
D emos t racwn. a vana. bl e a 1eatoria. Z i = X¡ - ¡.ti
, para '1,
.
= 1, 2 , ... , n,
ai
es una variable aleatoria con distribución Normal estándar; por tanto,
se puede afirmar que Z¡ '" X2 (1).
Con el concurso de la función generatriz de momentos, puede estable-
cerse que
Mu(t) = n
n
.=1
E
Z2
[et ;] = n
n
.=1
Mz¡(t) = nn (
.=1
1 ) ~
1- 2t
( 1 ) i¡
= 1- 2t
1[ + 2.::>i1 =;,1
;, t rit¡ -
n
[t + n(ti - t)] , con L = 12:
- n
ti·
z=l n i=l
J
I'"
-00
_1_ exp {~
.J2;ffa n
[t + n(ti _ t)] Xi _ (Xi -
20-
:)2} dx;
Por consiguiente:
n
y como ¿(ti - t) = 0, entonces
i=l
a2t2 (72 n _ 2}
M(t, tI,···, tn) = exp { ¡.d + 2n +"2 2:(ti - t)
z=l
~ (Xi - XnP
Z:: -'-----2,--.:c:..... = (n - 2I)S~ '" X
2( n - 1) .
a a
i=l
46 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
_.
Por tanto,
--
luego
entonces
(_1 ) % = E
1 - 2t
[exp [t(n -1)8~]](_1 ) ~
(J2 1 - 2t
es decir:
E [e
xp
[t(n -1)8;]] = (_1 ) n;-l
(J2 1 - 2t t <-.
1
2
Expresado de otra manera:
o
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 47
I
cov(X,XY) = E[Y]V[X]
2. Si la función de densidad de una variable aleatoria X es simétrica
respecto a E[X],
Por último:
-n 1 n+l 1 [n ] 1 _
X +1 = n+1L..,.
- "'"' X, = -n+1 "'"' Xi
L..,. + Xn+1 = -n ..f-1 [nXn + Xn+r]
i=l i=l
n+l n+l
nS~+l = L (Xi
i=l
- Xn+l)2 = L (Xi
i=l
- Xn + Xn _ Xn+l)2
n+l
= L [(Xi
i=l
- Xn)2 + 2 (Xn - Xn+1) (Xi - Xn)
+ (Xn - Xn+1) 2]
= (n -l)S~ + (Xn+1 - Xn)2 + 2 (Xn - Xn+1) L (Xi
n
_ Xn)
i=l
+ 2 (Xn - Xn+1) (Xn+l - Xn) + (n + 1) (Xn _ X +¡)
n
2
n
Como ¿ (Xi
i=l
- Xn) = 0,
y - - 1 (_
Xn - Xn+l = - Xn - X _
se tiene n+1
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 49
Por hipótesis de inducción, cov (Xn, S~) = O. Ahora para una muestra
de tamaño n + 1, cov (X n+1, S~,+1) = ~
(n -
+ nn+1 1
) cov (
Xn+1,8n 2) + (n+1'1 )2cOV ( Xn.LI, (Xn+l - -Xn) 2)
Como cov (Xn, 8~) = O Y Xn+l, 8~ son independientes,
Ahora,
COV
(X +
n 1
, (Xn+l - Xn- )2) = cou ( X +1, Xn2+
n - -
2X X + + X-2)
1 n n 1 n
= COV (Xn+1,X;+I) - 2cov (Xn+1,XnXn+1)
+ COV (X + X~)
n 1,
= _2f..L(72 + 2f..L(72 =O
luego
o
Teorema 1.4.21. Si Xl, X2, ... ,Xn es una muestra aleatoria de una
población
entonces para la cual no se asume un modelo de probabilidad específico:
n n
¿(Xi
i=l
- Xjf = ¿[(Xi
i=l
- Xn) - (X, _ X )]
n
2 .
n
Desarrollando el cuadrado allí indicado y como ¿ (Xi _ X n) = O, en-
tonces i=l
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 51
U~
En consecuencia,
Teorema 1.5.2. Siendo X1,n, X2,n, ... , Xn,n las estadísticas de orden
o la muestra ordenada de una población con función de distribución
Fx(x), entonces para k = 1,2, ... , n
FXk,Jy) = t (;)
J=k
[Fx(y)]j[l
j
- Fx(y)t- ·
Teorema 1.5.4. Siendo X1,X2, ... ,Xn una muestra aieatoria de una
población con función de distribución continua Fx (x), la función de
densidad de la k-ésima estadística de orden, k = 1,2, ... ,n, es
,
fXk,n (y) = (k _ l)~('n _ k)! [FX(y))k-1[1 - Fx(y))n-k fx(Y)·
en otros casos
• •
y y+h
Xk,n
y +t ------.-.- ...•..•..
~~,.............•...•....•..•..
~
x x+h Xj,n
I Intervalo I Probabilidad
I ( -00, x] = h I FX (x) = Pl I
I (x, x + h] = h I Fx(x + h) - Fx(x) = P2 I
I (x + h, y] = h I Fx(y) - Fx(x + h) = P3 I
I (y,y+t]=14 I Fx(y+t)-Fx(y)=P41
I (y+t,oo)=hl 1-Fx(y+t)=P5 I
Tabla 1.1:
Luego
luego
lim A(h, t) = B(x) lim D(h, t)
h~O,t~O ht h~O,t~O ht
donde lim Df:t,t) corresponde a
h~O,t--+O
Esto es:
para 1 ::; j < k ::; n, con Cn,j,k = n!j[(j - l)!(k - j - l)!(n - k)!].
La última parte es la generalización de los casos anteriores.
Igualmente, con el apoyo de la distribución multinomial y teniendo en
cuenta que la función conjunta de densidad fXl,n,X2,n, ...,Xn.n (Yl, Y2,· .. , Yn)
es
fX1,n,X2,n, ...,Xn,n (YI, Y2,·· . ,Yn) = n! IIfX(Yi) para YI < Y2 < ... < Yn'
i=l
o
Teorema 1.5.6. Sea Xl, X2, ... , Xn, una muestra aleatoria de una po-
blación con función de distribución Fx(x) continua. Para p fijo, si xp
denota al único percentil100p poblacional, entonces
k-l
P[Xj,n < xp < Xk,nJ = L (7)pl(1- p)n-l.
I=J
luego
por tanto,
y como j < k,
k-l
P [Xjn < xp :s; Xk,nl = L (7)pl(1- »v:'. o
l=J
Teorema 1.5.7. Siendo Xl, X2, ... , Xn una muestra aleatoria de una
población con función de distribución Fx(x), entonces
Teorema 1.5.8
La demostración puede consultarse en el texto Probability and Statisti-
cal Inference (Robert Bartoszynski y Magdalena Niewiadomska-Bugaj
(1996) pp. 726 a 729).
Teorema 1.5.9. Siendo Xl, X2,'" ,Xn una muestra aleatorio de una
población con jumciáti de distribución Fx (x), la sucesión de variables
aleatorias
vn[Fn(x) - Fx(x)] }
{ JFx(x)[l - Fx(x)]
converge en distribución a una variable aleatoria con distribución Nor-
mal estándar.
E[Fn(x)] = Fx(x) Y
V[Fn(x)] = Fx(x)[l - Fx(x)]
ri
son finitos, entonces, a la luz del teorema del límite central (Lindeberg-
Lévy) , la sucesión {Zn}, con
Zn = Fn(x) - Fx(x) = y'n[Fn((x) - Fx(x)]
ylFx(1-Fx(x» JFx(1- Fx(x))
Vn
converge en distribución a una variable aleatoria con distribución Normal
estándar. O
1.8 Ejercicios
1. Demuestre que si la sucesión {Xn} converge en media cuadrática
también converge en probabilidad.
15. Si las variables aleatorias XI, X2, ... .X¿ tienen la misma varianza
y si la correlación entre cualquier par de variables diferentes tiene
el mismo valor, demuestre que esa correlación tiene como cota
inferior a -l/en - 1).
60 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
16. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una muestra' "__ .::t
aleatoria de una población con distribución de Bernoulli de pa-
rámetro
n
e, determine la probabilidad de que Xl = 1, dado que
¿:Xi=j,j=1,2, ... ,n.
i=l
17. Si las variables aleatorias Xl, X2, ... , Xn constituyen una muestra
aleatoria de una población con distribución de Poisson con pa- -
rámetro e, demuestre que para cualquier entero positivo k, con
k :S n, la distribución condicional de Xl, X2, ... ,Xn, dado que
n
¿: X, = k, corresponde a una distribución multinomial.
i=l
19. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una mues
aleatoria de una población con distribución Binomial negativa
parámetros k y Ti, determine la distribución muestral corr
n
diente a la estadística Tn = ¿: Xi'
i=l
20. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una
tra aleatoria de una población con valor esperado f.L y varianza
determine el tamaño mínimo de la muestra para el cual la pr
bilidad de que el valor esperado y el promedio de la mu
difieran en más de 0.1 sea superior a 0.95.
27. Si las variables aleatorias Xl, X2, ... .X¿ constituyen W1amuestra
aleatoria de una población con distribución de Bernoulli de pará-
metro e, ¿cuál es la distribución conjunta de Xl, X2, ... .X¿ y cuál
n
es la distribución de la estadística ¿ Xi?
i=l
-
62 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
31. Si las variables aleatorias XL X2, ... .X¿ constituyen una muestra
aleatoria de una población con función de densidad
1
fx(x) = '/{l,2, ...,k}(x),
determine el valor esperado del semirrango de la muestra.
32. Si las variables aleatorias Xl. X2, .... Xn constituyen una muestra
aleatoria de una población con valor esperado J1. y varianza finitos,
muestre que las estadísticas
2 n
• ¿iXi
n(n + 1) i=l
6 n
• ¿i2X
n(n + 1)(2n + 1) i=l z
i=l n
en probabilidad a J1. = O.
6Un coeficiente de simetría de la función de densidad de una variable aleatoria X,
con momento central f-t3 y varianza (72, está definido como 0<3 = f-t3 / (73.
i.s. EJERCICIOS 63
&t i las variables aleatorias Xl, X2, .. " Xn constituyen una muestra
aleatoria de una población con distribución Uniforme en el inter-
valo (0,8), demuestre que el máximo de la muestra converge en
probabilidad a 8.
35. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una pobla-
ción con mediana 8, demuestre que la mediana de la muestra con-
verge en probabilidad a 8.
37. Si las variables aleatorias XI, X2," . ,Xn constituyen una muestra
aleatoria de una población con distribución Exponencial con pa-
rámetro 8, demuestre que la variable aleatoria
39. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una muestra
aleatoria de una población con distribución de Bernoulli de pará-
metro 8, demuestre que la estadística
41. Si las variables aleatorias Xl, X2, ... .X¿ constituyen una muestra
aleatoria de una población con función de densidad
42. Si las variables aleatorias Xl, X2, .•• , Xn constituyen una muestra
aleatoria de una población con función de densidad
43. Si Xl, X2, ... ,Xn es una muestra aleatoria de una población con
distribución Uniforme en el intervalo (O,O), determine la función
de distribución de la variable aleatoria Wn = n(O - Xn,n). ¿Cómo
se distribuye la variable aleatoria a la cual la sucesión de variables
aleatorias WI, W2, ... , Wn, ... converge en distribución?