You are on page 1of 75

J. HUMBERTO MAYORGA A.

Es estadístico con maestría en ciencias-estadística

en la Universidad Nacional de Colombia.

En la actualidad es profesor asociado, vinculado

al departamento de estadística de la Facultad de

Ciencias. Su labor docente, principalmente en las

áreas de teoría estadística, probabilidad y análisis

multivariado, ha estado acompañada por el

desempeño de labores de gestión académica como

director de la carrera de estadística y de actividades

de extensión universitaria en el servicio de

consultoría estadística que el departamento presta

a los sectores público y privado.


J. Humberto Mayorga A.
Profesor del Departamento de Estadistica
Facultad de Ciencias

Inferencia
. /

esta oca

Universidad ~ acional de Colom la


FACULTAD DE CIENCIAS
BOGOTÁ
© Universidad Nacional de Colombia
Facultad de Ciencias
Departamento de Estadística

© J. Humberto Mayorga A.

Primera edición, 2004

Bogotá, Colombia.

UNIBIBLOS
Director general
Francisco Montaña Ibáñez

Coordinación editorial
Dora Inés Perilla Castillo

Revisión editorial
Fernando Carretero

Preparación editorial e impresión


Universidad Nacional de Colombia, Unibiblos
dirunibiblo_bog@unal.edu.co

Carátula
Camilo Urnaña

ISBN 958-701-374-3
ISBN 958-7°1-138-4
(obra completa)

Catalogación en la publicación Universidad Nacional de Colombia

Mayorga AIvarez, Jorge Humberto, 1951-


Inferencia estadística / J. Humberto Mayorga A. -- Bogotá: UJri1oc:s;oc
Nacional de Colombia, 2004
XX,300p.

ISBN: 958-701-374-3
l. Estadística matemática 2.. Probabilidades L lJI!m:isiIiadl Nü_l_
Colombia. Facultad de Cien .

CDD-21 519.54/ M473Í /2004


L _
Contenido

Prólogo vii

Introducción ix

1 Distribuciones Muestr ales 1


1.1 La inferencia estadística como un soporte epistemológico. 2
1.2 Preliminares de la inferencia estadística . . . . . . . 5
1.3 Preliminares de convergencia de variables aleatorias 12
1.4 Características generales de algunas estadísticas . 17
1.5 Estadísticas de orden. . . . . . . . . . . . . . . . . . 25
1.5.1 Distribución de las estadísticas de orden . . . 27
1.5. Di ib ción del rango. semirrango y mediana de
m estra . . . . . . . . . . . . . . . . 29
1.5.3 e ció de distribución de la
30
1.6 e orden 31
1.7 34
1.8 Ejercicios 57

2 EstiInación puntual de parámetros 65


2.1 _ Ié odos clásicos para construir estimadores 67
2.1.1 El método de máxima verosimilitud 68
2.1.2 El método de los momentos 79
2.1.3 El método por analogía . . . 83
2.1.4 Estimación bayesiana .... 84
2.2 Criterios para examinar estim ore 89
2.2.1 Concentración, un requisito de precisión 90

iii
IV CONTENIDO

2.2.2 Consistencia, un requisito ligado al tamaño de la


muestra , 94
2.2.3 Suficiencia, un requisito de retención de información 96
2.2.4 Varianza mínima, un requisito de máxima precisión 108
2.2.5 Completez, un requisito de la distribución muestral1l6
2.2.6 Robustez, un requisito de estabilidad. . 123
2.3 Demostración de los teoremas . 126
2.4 Ejercicios . . . . . . . . . . . . . . . . . . 135

3 Estimación por intervalo de parámetros 147


3.1 Conceptos preliminares. . . . . . . . . . . 148
3.2 El método de la variable pivote . . . . . . 149
3.3 Estimación de promedios bajo Normalidad. . 157
3.3.1 Intervalos confidenciales para el promedio de una
población . . . . . . . . . . . . . . . . . . . . . . . 157
3.3.2 Estimación de la proporción poblacional 161
3.3.3 Intervalo confidencial para la diferencia de prome-
dios basado en una muestra pareada 162
3.3.4 Intervalos confidenciales para la diferencia de prome-
dios en poblaciones independientes . . . . . . . . . 163
3.4 Estimación de varianzas bajo Normalidad . . . . . . . . . 165
3.4.1 Intervalos confidenciales para la varianza de una
población 165
3.4.2 Intervalos confidenciales para el cociente de va-
rianzas de dos poblaciones independientes . 169
3.5 Ejemplos nmnéricos de aplicación . . . . . . . . .173
3.6 Tamaño de la muestra simple bajo Normalidad .175
3.7 Estimación bayesiana por intervalo .177
3.8 Demostració de los teoremas . 178
3.9 Ejercicios . . . . . . . . .182

4 Juzgamiento de hipótesis 187


4.1 Elementos básicos 189
4.2 Tests más potentes 201
4.3 Juzgamiento de hipótesis sobre promedios bajo Normalidadz IS
4.3.1 Juzgamiento de la hipótesis nula Ho : J1. = J1.0 ... 218
4.3.2 Juzgamien o.de a hipótesis nula Ho : J1.1 - J1.2 = 80 227
4.4 Juzgamiento de hipótesis sobre varianzas bajo Normalidad 237
4.4.1 Juzgamiento de la hipótesis nula Ho : 0'2 = 0'5. .. 237
CONTENIDO v

4.4.2 Juzgamiento de homoscedasticidad . 240


4.5 Juzgamiento de proporciones . . . . 242
4.6 Ejemplos numéricos de aplicación . . 246
4.7 Tamaño de la muestra . . 249
4.8 Juzgamiento secuencial. . . . . . . . 252
4.9 Juzgamiento del ajuste. . . . . . . . 261
4.9.1 Juzgamiento del ajuste por medio del método de
Pearson . . . . . . . . . . . . . . . . . . . . . . . . 262
4.9.2 Juzgamiento del ajuste por medio del método de
Kolmogorov-Smirnov . . 268
4.10 Demostración de los teoremas . 273
4.11 Ejercicios . . . . . . . . 280

Bibliografía 289
Prólogo

La escritura de este libro siempre estuvo animada por el deseo obstinado


de secundar el trabajo que realiza el estudiante en el salón de clase y
fuera de éste, pues entiendo que, en definitiva, es el estudiante quien
aprehende los conceptos como fruto de sus quehaceres académicos, con-
ceptos inducidos más por sus dudas, por sus dificultades y por algunas
contradicciones con algunos de sus preconceptos, que por una exposición
frente al tablero. Según mi criterio, el profesor, como acompañante en la
formación profesional, se convierte solamente en orientador, animador y
crítico.
Con ese espíritu quise que este libro se constituyese en una juiciosa
preparación de clase de la asignatura inferencia estadística, preparación
que recopila las memorias de cada una de las oportunidades en las cuales
fui el en del curso a lo largo de mis años como docente en la Uni-
versidad _- - . de Colombia. De esa recopilación mucho se desechó y
corrigió p .es _ reguntas de los estudiantes confundidos, las preguntas
inteligent-es _ .es - spuestas sobresalientes como las equivocadas en las
evaluaciones, .:; almente suscitaron la reflexión acerca de las formas
y los cont - guiones de la clase.
No pre .•.un texto más, pues los hay de una calidad
inmejorable. ~ ':~C05 cuya consulta es obligada y otros d~ re-
ciente edició _ rada nuevos desarrollos conceptuales. El
texto pretende ~jo académico del curso, especialmente
con el propósi e tiempo y la calidad de la exposición
de los temas . . ación del tablero acompañado de la
tecnología audi ilidad para profundizar algunos de los
temas y como medio para preguntas e inquietudes estudian . es
y no como instrumento de frases y gráficas.
En este libro expreso es personales semánti con-
.ceptuales promovidas la que tengo bre la ,. ea y
viu PRÓLOGO

particularmente sobre la inferencia estadística, concepción que he madu-


rado y apropiado, a partir de las reflexiones con profesores del Depar-
tamento de Estadística, de discusiones informales y dentro de eventos
académicos. Su contenido y organización responden a la forma tradi-
-
cional como he realizado el curso, a las limitaciones de un semestre
académico para su desarrollo y a los requisitos curriculares exigidos a
los estudiantes en el mismo.
La circunstancia de mi año sabático, disfrutado durante el 2002, hi-
zo posible la redacción y digitación de este texto, pues fueron múltiples
las ocasiones fallidas de organizar en un libro el material de la clase,
debido a las ocupaciones derivadas de mis compromisos académicos, ad-
ministrarivos y de servicios de asesoría estadística que la Universidad
_-acional me encargó. El texto inicialmente fue publicado por la Facul- .
tad de Ciencias como notas de clase, versión que sirvió de guía del curso
de inferencia estadística dictado durante el primero y segundo semestres
de 003 para las carreras de Matemáticas y Estadística.
La .ón actual recoge sugerencias de profesores y de estudiantes
- las - caciones fruto de las experiencias en el citado curso.
F' e. creo que debo agradecer a mis alumnos, pues ellos son
el moti para organizar las ideas que presento en torno a la inferencia
estadís " _ a la Universidad Nacional de Colombia que aceptó como
plan de " "dad es de mi año sabático, la elaboración de este texto.
Introducción

Este trabajo ha sido concebido como texto guía en el desarrollo de la


asignatura inferencia estadística, que cursan los estudiantes del pregrado
en Estadística y de la carrera de Matemáticas. Puede apoyar igualmente
algunos temas de la asignatura estadística matemática de la maestría en
Estadística. El requisito natural e inmediato para abordar los temas de
cada uno de los capítulos del libro es un curso de probabilidad, y por
supuesto los cursos de cálculo.
Se adaptaron términos de uso corriente en los textos de estadística
a formas idiom eas
I • e semán icamente ean más fieles al concepto.
Igualmente. se p - expresiones comunes para mayor cla-
ridad conceptual,
El texto co - ea e p eden desarrollar e durante
un semestre aeadé con' - ho es de clase tradicional.
Cada capítulo cturado en tres rtes: exposición de los temas,
demostraciones teoremas y los e' .ci correspondientes. Esto
no significa que ejo del texto deba evarse en el orden propuesto.
El objetivo de esta organización es que la presentación de los temas
_ exhiba continuidad y que las demostraciones y los ejercicios tengan su
sitio especial. Los ejercicios no están ordenados por su complejidad ni
por el tema trazado. para no encasillarlos. El estudiante se acerca a
~ un ejercicio con información y trabajo previos; su organización de ideas
y búsqueda de caminos debe evaluar si con los elementos estudiados
hasta un cierto punto le es posible abordar el ejercicio particular. Sin
"" embargo, el profesor puede sugerir la realización de alguno o algunos
ejercicios cuando haya culminado un tema o parte de éste.
El primer capítulo, fundamento del texto, ubica sintéticamente a
•• la inferencia estadística dentro del problema filosófico secular de la in-
ducción. Retorna el tema de la convergencia de sucesiones de variables
aleatorias, y expone las ideas preliminares de la inferencia estadística.

IX

••
x INTRODUCCIÓ",

El segundo capítulo presenta los métodos corrientes de construcción de


estimadores y los criterios para examinar las estadísticas en su calidad
de estimadores.
En el tercer capítulo se aborda el método de la variable pivote para
construir intervalos confidenciales y se hace algún énfasis en los inter-
valos confidenciales bajo Normalidad. En el cuarto capítulo se adopta
la expresión juzgamiento de hipótesis a cambio de prueba, docimasia o
cotejo, porque esta acepción está más cerca del sentido de la toma de
decisiones estadísticas e igualmente se da un espacio importante en el
ea
juzgamiento de hipótesis bajo Normalidad.
Capítulo 1

Distribuciones Muestrales

~ rorurimiento que tenemos del mundo está basado en la


á:líraci-án' de un modelo de la realidad. modelo que puede
ron la ~ tan &0 de manero parcial y oca-
amsl;nqe ttniendo en cuenta

_e - -- Growth)_

tinar unos párrafos para


e; cual la inferencia estadística
.e ideas generales que una dis-
.exto está contenido dentro de
~ri:::"2:epistemológico, que el lector puede
aJ:;::ns:a::: ~:ooica:ci'onessobre el terna. Posteriormen-
ful~a.mentos sobre el cual la inferencia
estadística eríze ceptos, se incluye la sección 1.3 a
manera de un extract-O de la oom ergencia de sucesiones de variables
aleatorias tema que forma parte de un curso previo de probabilidad,
- pero que se retorna por su carácter y por su utilidad próxima .
.L

1
x INTRODUCCIÓN

El segundo capítulo presenta los métodos corrientes de construcción de


estimadores y los criterios para examinar las estadísticas en su calidad
de estimadores.
En el tercer capítulo se aborda el método de la variable pivote para
construir intervalos confidenciales y se hace algún énfasis en los inter-
valos confidenciales bajo Normalidad. En el cuarto capítulo se adopta
la expresión juzgamiento de hipótesis a cambio de prueba, docimasia o
cotejo, porque esta acepción está más cerca del sentido de la toma de
decisiones estadísticas e igualmente se da un espacio importante en el
juzgamiento de hipótesis bajo Normalidad.
CAPÍTULO 1. DISTRIBUCIONES lvIUESTRALES

1.1 La inferencia estadística como un soporte


epistemológico

La inferencia inductiva, procedimiento que utiliza la lógica para genera-


lizar a partir de hechos particulares o a partir de la observación de un
número finito de casos, es uno de los temas que ha ocupado a filósofos y
científicos de todos los tiempos, desde la época de Aristóteles, tres siglos
antes de Cristo, hasta la actualidad.
Varios filósofos antiguos formados en el empirismo gnoseológico, con-
vencidos de que la observación era la única fuente segura de conocimien-
to, fueron los primeros en proponer la inducción O inferencia inductiva
como método lógico. Tempranamente, la inducción se convierte en un
tema de mucha controversia que aún se mantiene; si para Aristóteles,
quien planteó inicialmente el procedimiento inductivo, la ciencia es "co-
nocimiento demostrativo" , por el contrario para Sexto Empírico, uno de
los filósofos del escepticismo, la ciencia es "comprensión segura, cierta
e inmutable fundada en la razón". Así, mientras Sexto Empírico recha-
za la validez de la inducción, Filodemo de Gadara, filósofo seguidor del
epicureísmo, defiende la inducción como método pertinente.
y la controversia, llamada el problema de la inducción o también
conocida como el problema de Hume, reside precisamente en que mien-
tras la inferencia deductiva avala la transferencia de la verdad de las
premisas a la conclusión, es decir, a partir de premisas verdaderas toda
deducción es cierta, a costa de no incorporar nada al contenido de las
premisas, la inducción por su parte que va más allá de las premisas,
por su carácter amplificador, puede dar lugar a conclusiones falsas. En
pocas palabras, la controversia se centra en la validez que puedan tener
los razonamientos inductivos, puesto que las conclusiones por medio de
la inducción no siempre serán verdaderas.
Algunos pensadores medievales también se preocuparon de la induc-
ción. El inglés Robert Grosseteste, al utilizar en su trabajo científico los
métodos aplicados por sus discípulos de Oxford en óptica y astronomía.
reabre en la Edad Media el tema de la inducción; si bien varios fil ' - -
de la época orientaron sus reflexiones hacia los métodos inducti
ensayos y trabajos de Francis Bacon inspirados en la reorganizacíéo
ciencias naturales, constituyeron el apogeo del método uld~x:¡:m:~
_-o e: según Hume, las leyes científi
decir son válidas únicamen e
1.1. LA INFERENCIA ESTADÍSTICA COMO UN SOPORTE EPISTEMOLÓGICO 3

mostrado su certidumbre y tampoco tienen la función de la previsibili-


dad. Popper, filósofo de la ciencia, conocido por su teoría del método
científico y por su crítica al determinismo histórico, en el mismo senti-
do de Hume, afirma que no puede existir ningún razonamiento válido a
partir de enunciados singulares a leyes universales o a teorías científicas.
Más recientemente, Bertrand Russell mantiene la posición de Hume de
la invalidez de la inducción, pero considera que ella es el camino para
incrementar la probabilidad, como grado racional de creencia, de las
generalizaciones.
La conocida Ley débil de los grandes números incluida en la cuarta
parte del trabajo más sobresaliente de Jacob Bernoulli, Ars Conjectandi,
publicado después de su muerte en 1713, y el también conocido teorema
de Bayes publicado cincuenta años más tarde, aportaron nuevos ele-
mentos a la discusión al constituirse en argumentos matemáticos que
sustentan la posibilidad de inferir probabilidades desconocidas a partir
de frecuencias relativas. Sin embargo, según Popper, sustituir la exigen-
cia de verdad por la validez probabilística para las inferencias inductivas
no lo hace un procedimiento legítimo.
Durante las primeras décadas del siglo pasado, a raíz de los impor-
tantes avances de la ciencia ocurridos a finales del siglo XIX y a prin-
cipios del siglo XX, avances que no podían pasar inadvertidas para los
pensadores, obligaron a los filósofos a revisar muchas de las ideas de los
clásicos y es así como un grupo de hombres de ciencia, matemáticos y
filósofos, se organizan en 1922 en torno al físico Moritz Schlick, profesor
de filosofía de la ciencia de la Universidad de Viena, convirtiéndose en
un movimiento filosófico internacional, principal promotor del positivis-
mo lógico (también llamado neopositivismo, neoempirismo o empirismo
lógico), movimiento conocido como Círculo de Viena, conformado entre
otros, además de Schlick, por Hahn, Frank, Neurath, Kraft. Feigl, Wais-
mann, Códel, y Carnap; Einstein, Russell y Wittgenstein eran conside-
rados miembros honoríficos y Ramsey y Reinchenbach como miembros
simpatizantes del mismo.
Este movimiento filosófico se dedicó a muchos _ ••ariados temas de
la filosofía de la ciencia, y por supuesto al problema de la inducción. En
síntesis, puede afirmarse que el hilo conductor e las ideas del Círculo
de Viena fue la defensa de una visión cien: ~ del mundo a través de
una ciencia unificada ligado al empleo del ' . . lógico en el sentido de
Russell.
1.2. PRELIMINARES DE LA INFERENCIA ESTADÍSTICA 5

dentro de la filosofía de la ciencia, gran parte de la ciencia actual frente


a una naturaleza entrelazada de azar concomitante con una variabilidad
inherente, reconoce de una u otra manera que el ensanche de su cuer-
po conceptual requiere la participación imprescindible de la estadística.
Mucho antes de la omnipresencia del computador, de los avances verti-
ginosos de la teoría y de los métodos estadísticos de los últimos tiempos,
Hempel en 1964, en su libro Aspectos de la explicación científica, se
refería a los dos modelos de explicación de tipo estadístico: "El modelo
estadístico deductivo, en el que las regularidades estadísticas son de-
ducidas de otras leyes estadísticas más amplias, y el modelo estadístico
inductivo, en el que los hechos singulares se explican subsumiéndolos
bajo leyes estadísticas".
En esta dirección, cuando en los quehaceres científicos, tecnológicos
o administrativos se recurre a la estadística para organizar y orientar sus
procesos y métodos, y cuando se recurre a ella para apoyar argumentos y
decisiones, ese recurso suele convertirse, desde uno de los puntos de vista,
en un proceso de inducción específicamente que puede c1asificarse como
de inducción amplificadom, de manera análoga a como Francis Bacon
vio en la inducción el procedimiento esencial del método experimental,
o convertirse en una serie de actividades ligadas a un procedimiento
propio de la ciencia o la tecnología, en un procedimiento hipotético-
deductivo, como lo entiende la escuela popperiana. Para cualquiera de
los dos puntos de vista que se asuma la estadistica brinda un respaldo
exclusivo en la inferencia.

1.2 Preliminares de la' erencia estadística


Dentro del OOIIÍe:dD ·01', cabe formularse varias pre-
guntas:

- _ O-.G... n válidos los enunciados generales


-

.a decisión o la estimación que realiza

2. ¿Cuáles .as unidad e permiten obtener la información de


casos particulares como punto inicial en el citado proceso?

3. ¿Cuáles son los principios que rigen este proceso tan particular de
inferencia?
6 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

La pregunta (1) indaga por el conjunto de todos los elementos que


en un determinado momento interesan a un investigador, a un gestor en L.-o_~

o a un tomador de decisiones. Elementos diferentes entre sí pero que de t!lli.....,o.:¡¡;;a;;l:...


tienen una o varias características comunes que los hacen miembros del desar:!:ULJ.~
conjunto en consideración. Al respecto, en algunas disciplinas cientí- su
ficas esas características comunes se denominan criterios de inclusión,
complementados con los criterios de exclusión, para definir concisamente
la pertenencia de un elemento al conjunto y para precisar igualmente la
pérdida de la calidad de pertenencia del elemento.
Para referirse a ese conjunto mencionado, el lenguaje corriente de la
estadística utiliza el término población; ese agregado o colección de las
unidades de interés es, en últimas, el objeto receptor del producto del
proceso de inducción, de la decisión o de la estimación.
La segunda pregunta parece confundirse con la primera. Aunque
la pregunta se refiere a esas entidades que corresponden a los hechos
partice, =
particulares, a los casos singulares, a ese conjunto finito de casos, que
son examinados durante la primera etapa de la inferencia, la reunión de barro.
todas las unidades posibles constituye ese conjunto que se ha llamado
población. Pero su estricta determinación radica en que cada una de
esas unidades será, en sentido metafórico, un interlocutor con el inves-
tigador. Interlocutor, porque la investigación puede entenderse, de ma-
nera análoga, como un proceso comunicativo: el investigador pregunta,
la naturaleza responde. Esas unidades pueden denominarse unidades
estadísticas de manera genérica para subsumir en esa denominación
otras como unidad experimental, unidad de análisis, sujeto o caso.
Como en casi todas las oportunidades, de hecho no existe la posibi-
lidad de "dialogar" con todas las unidades estadísticas, debido a impera-
tivos que lo impiden, asociados a varios aspectos. Por ejemplo, cuando
el tamaño de la población, es decir, el cardinal del conjunto que reúne
a todas las unidades estadísticas, es ingente; o cuando la respuesta de
la unidad implica su desnaturalización o deterioro; igualmente, cuando
ese "diálogo" es oneroso, o cuando los resultados de la investigación se
requieren con apremio.
A ese subconjunto de unidades que se aludía como el conjunto finito
de casos examinados durante la primera etapa del proceso de inferencia..
circunscrito al subconjunto de unidades estadísticas elegidas por
de procedimientos estadísticos formales, por supuesto, se le designa
rrientemente como muestra.
1.2. PRELIMINARES DE LA INFERENCIA ESTADÍSTICA 7

A diferencia de las dos preguntas anteriores, cuyas respuestas son


en últimas acuerdos semánticos, la tercera requiere respuestas a partir
de elaboraciones conceptuales, las cuales se darán gradualmente con el
desarrollo de los capítulos objeto de este texto; pero aquí, de una manera
sucinta, se esboza el fundamento de las respuestas.
La estadística facultada para sustentar y conducir procesos de induc-
ción, decisión y estimación muy característicos, cuenta con la inferencia
estadística como la fuente conceptual que nutre, avala y licencia la es-
tructura y el funcionamiento de métodos y procedimientos estadísticos.
Para el desarrollo de cada una de sus dos componentes, relativos a la
estimación de parámetros y el juzgamiento de hipótesis, la inferencia
estadística .erre como punto de partida la referencia o el establecimien-
to de modelos para representar variables observables o no observables,
modelos ep ser explícitos o generales.
Se e. el vocablo modelo responde a varias acepciones,
particularm del lenguaje científico y tecnológico. Sin em-
bargo. el - estadística le confiere al término consiste en
una trad aspecto de la realidad a un lenguaje simbólico,
como uno para representar de manera simplificada su
comport . ili ~ procesos de generalización que incluyan
sus aspect ::-que facili en su descripción o permitan la
toma de d.eci~~
La fac¡ñre.~.:d • I • es asociadas con
fenómenos =-- C=:Z~ eszapos e un mismo modelo
de probabilidad =2r.:~:';'~~:f'tsti' ca detenerse en el
modelo mrsrzo estudio. A partir de
su estruc E"!Ii~~x:::;.¡;:s.l:::;¡¡;;a:::;á;jcc;.s- asociadas a su naturaleza
y con ellas ~sanpeñan los parámetros, se
pas::::i!~e::::::;¡:::;::.±_:'l:~~de estos últimos, y de igual
construyen _ ~.!.'=.:::;¡~
manera se de~~ '='i:i!::~~Xf~z.ent.os que permitan juzgar afir-
maciones
En con5E~~:i:a- ._€ avalan procesos de carácter es-
tadístico. UG.....,..= C::3'!;>Ol::-¿- estadística y motivo de la tercera
pregunta. CQI~~ _ erios relacionados con la construc-
ción de esti examen de la aptitud e idoneidad de
los mismos. _ arrrr:llci'ó:la descripción y el desarrollo de
los citados principios deit:::n3m'a el contenido mismo de este texto.

Definición 1.2.1. Una muestra aleatoria es una sucesión finita de


8 CAPÍTULO 1. DISTRffiUCIONES MUESTRA LES

variables aleatorias Xl, X2, ... .X¿ independientes e idénticamente dis- tadísticas
tribuidas. De manera más general, una sucesión de variables aleatorias
pondien
Xl, X2, ... , independientes y con idéntica distribución, también se de- x; puede-
nomina muestra aleatoria. En el caso de una sucesión finita, el valor n aleatoria _
recibe el nombre de tamaño de la muestra o tamaño muestral. mente la
població
La definición anterior revela que en el contexto estadístico el término
cuentre
muestra presenta dos acepciones: ser un subconjunto de unidades es-
tadísticas elegidas por métodos estadísticos formales y la adjetivada co-
mo aleatoria expuesta en la definición anterior, ésta referida a una suce-
sión de variables aleatorias. Lo mismo le ocurre al término población: -
denota al conjunto completo de unidades estadísticas objeto de estudio
y ahora se le concibe como una variable aleatoria, en el sentido que se
expone a continuación. - Definid'
El acceso al estudio de ese conjunto de unidades estadísticas se lleva
a cabo mediante el examen de las características o respuestas de sus in-
tegrantes, interpretadas como variables; el discernimiento de la esencia
ya no individual sino colectiva de las unidades es en suma el motivo
- población
de un pa,......--.:~
de domi
un uecior
de la investigación o estudio. Por ello, el comportamiento de las varia- pende de
bles se convierte entonces en un elemento revelador de características y también ••.
- .•.•
propiedades que sustentan la descripción de la colectividad, las explica- blación '-__~~
ciones o las decisiones a que haya lugar. el uector •..~•;•.•........•
El comportamiento real de una o varias variables es un compor-
tamiento reflejo de la naturaleza de la población, que no siempre es
posible conocer. Por tanto, acudir a modelos de probabilidad para emu-
lar el comportamiento poblacional es un recurso legítimo que reduce
carencias permite aprovechar las virtudes propias del modelo y hace
posible la utilización de un lenguaje universal, por supuesto sobre la
base de una escogencia juiciosa del modelo.
Entonces, un aspecto de las unidades estadísticas observado, medido
o cuantificado en una variable (o varios aspectos utilizando un vector Ejemplo _
para disponer las variables) se le abstrae como una variable aleatoria variable
(o un vector aleatorio) que tiene asociado un modelo particular. Es- de la !JV'...- ••....~
ta variable aleatoria que representa una variable en la población suele
denominársele igualmente población. •
Según estas consideraciones, la sucesión Xl, X2, ... .X¿ de la defini-
ción anterior denominada muestra aleatoria, además de ser un elemento
del ámbito conceptual de la teoría estadística, puede vincularse con la

información específica acopiada de un sub conjunto de n unidades ffi-

1.2. PRELIMINARES DE LA INFERENCIA ESTADÍSTICA 9

..J
tadísticas de las cuales se dispone de los valores Xl, X2, corres-
... ,Xn,
pondientes a una variable denotada por X. En otros términos, el valor
Xi puede entenderse como una realización de la correspondiente variable
...J
aleatoria Xs, i = 1,2, ... , n; por eso es habitual encontrar recurrente-
mente la expresión "sea Xl, X2, ... , X¿ una muestra aleatoria de una
población con función de densidad ...". El contexto en el cual se en-
cuentre el vocablo población delimita la acepción en uso: un conjunto
o una variable aleatoria. Las constantes constitutivas del modelo pro-
babilístico elegido para representar una población, llamadas usualmente
parámetros, se disponen en un vector de k componentes, k = 1,2, ... ,
e
que puede denotarse como al cual se le designa como parámetro del
modelo.

Definición 1.2.2. Sea XL X2,.·., XnJ una muestra aleatoria de una


población cuya función de densidad o función de probabilidad depende
de un parámetro e,vector de k componentes, y sea además t una función
de dominio jRn y recorrido jRq con q :::;n, tal que t(XI, X2, ... ,Xn) es
un vector aleatorio de q componentes, q = 1,2, ... ,n, función que no de-
pende de ningún componente del uecior e,
ni de constantes desconocidas,
también llamadas parámetros que cuantifican rasgos generales en la po-
blación cuando no se asume un modelo específico. En estas condiciones,
el uector aleatorio t(X1, X2, ... ,Xn) recibe el nombre de estadística.

La dimensión de la estadística estará dada por el valor de q; una


estadística es unidimensional cuando q = 1. bidimensional cuando q = 2,
Y así sucesivamen e.
Como el aspecto ecermmanre = nazuraleza de una estadística es
su no dependencia h~ mcíonal parámerros, se le resalta por medio del
siguiente ejemplo .

.: Ejemplo 1.2.3. Asumí e o zaussiano para representar una


variable en la poblaciónv y . _~:._:_ .... , X¿ es una muestra aleatoria
de la población así modelada. adísticas entre otras

- 2 - 2
(XI-Xn) +(X2-Xn) T'"

• n-1
• Xl,n = min{X1, X2, ... , Xn}
CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
10

• (Xn,S~)

• (X1,X2, .. · ,Xn)
Las tres primeras estadísticas son unidimensionales, la cuarta bidimen-
sional y la última de dimensión q = n.
Puesto que los parámetros f.L y a son las constantes características del
modelo gaussiano, particularmente las dos siguientes variables aleatorias
no son estadísticas:
n 2
L (Xi - f.L)
i=l
y
n-l

El contenido semántico que se les da en estadística tanto al término


estimar como al término estimación, para referirse a su acción o efec-
to, proviene de una de las acepciones corrientes que tiene el segundo
vocablo. El significado en mención de aprecio o valor que se da y en
que se tasa o considera algo2, no sugiere un cálculo aproximado de un
valor como equivocadamente se entiende, porque no hay referentes para
calificar su aproximación, pero sí los hay para el proceso que genera las
estimaciones, tampoco sugiere un proceso adivinatorio. Debe entender-
se como la realización formal de un avalúo, es decir, en llevar a cabo un
proceso que exige de manera imprescindible el contar con información
de ese algo del cual se quiere fijar su valor. Por tanto, la calidad de la
estimación depende directamente de la calidad original y de la cantidad
de información que se posea. Consecuentemente, una cantidad insufi- sep,re;~~
ciente de información genera estimaciones no fiables, como las genera "'-'I
COll5~ •..••..•..
una gran cantidad de información de calidad exigua. ción. GE:::::2:::1
A manera de sinopsis, considerando simultáneamente tanto la can- de infur:::=ai
tidad de información como su calidad y utilizando el plano cartesiano infonrum=l
para su representación, en la figura 1.1 se adjetivan distintas circunstan-
cias en calidad y cantidad de información que constituye el insumo en
el proceso de estimación.
El proceso de inferencia sería inigualable si se contara con ooa la in-
formación de excelente calidad, circunstancia prácticamente no factible.
-
Esta situación ideal, antagónica con la peor cualificación de la informa-
ción (una escasa cantidad de información de pésima calidad) no es la
2Real Academia Española (2001). Diccionario de la lenqua e...cpañola. Vigesimase-
gunda edición. Madrid: Espasa Calpe S.A.
1.2. PRELIMINARES DE LA INFERENCIA ESTADÍSTICA 11

100%¡''''''-'-~~~-_-_-_-_-]¿%·/1
limen-
~v I I

as del
",,","'
VII
1 I I

I I
torias I I
I I
I 1
Al lX;r'"
':-f,>"\:
10- __ ~ - - - - - - ::t-v"'-_-I
~ "\-~'b'

mino o Calidad 100%


efec-
mdo
y en Figura 1.1:Diagrama de calidad y cantidad de información.
e un
para
das única que debe censurarse dentro del proceso de estimación. Igualmente
der- censurable es co con una acumulación exorbitante de información
) un de deficiente e no propicia un buen resultado, ni tampoco
':Í.Ón mantener el de calidad de la informació en una cantidad
e la minúscula de
dad La calidad o no se ocupa porque
ufi- se pretenden p~~~.t:E arse a partir del diseño,
.:=:n-· •..••.

ra construcció el registro de la informa-


ción, dentro ej:::o::oo~ de las actividades de acopio
an- de información - aanacenamiento y guarda de la
información.

~ Definición dimensión igual al número total


de compon úmero de componentes descono-
cidos, esiadis - on utilizadas para llevar a cabo
estimaciones ·~~~'D probabilístico asumido, o de sus
componentes, estimador y a las citadas realizaciones o
valores pa - res e les COfTW estimaciones.
Definición 1.2.5. El modelo probabilístico que rige el comportamiento
de una estadística o de un estimador se denomina distribución mues'-
12 CAPÍTULO 1. DISTRIBUCIONES MUESTRA LES

tral de la respectiva estadística o del respectivo estimador.

Algunos autores se refieren a la distribución de la variable aleato-


ría que representa a la población, como la distribución original de las
observaciones o modelo original, y a la distribución muestral de una
estadística como la distribución reducida o modelo reducido.

Definición 1.2.6. Sea Xl, X2,.'.' Xn una muestra aleatorio de una po-
blación con momentos ordinarios y centrales /-i~ y ii; respectivamente.
Los momentos muestrales, ordinarios y centrales de orden r,
r = 1,2, ... , cumplen en la muestra funciones análogas a los momentos
poblacionales /-i~. y /-ir, se denotan y definen como

El caso particular cuando r = 1, esto es, el primer momento ordinario


muestral MLn = X n, es llamado de manera más comente promedio
muestral o promedio de la muestra. Por otra parte, se prefiere
como varianza muestrai en cambio del segundo momento muestral,
por razones que posteriormente se justificarán, a la expresión

1.3 Preliminares de convergencia de variables


aleatorias
Para aprestar los elementos que se requieren en la inferencia estadística,
es preciso abordar de una manera sucinta los tipos de convergencia de
variables aleatorias en razón de que posteriormente el crecimiento del
tamaño de muestra permite derivar propiedades interesantes de algunas
estadísticas, y por tanto el propósito de esta sección es presentar los
tipos más corrientes de convergencia de variables aleatorias.
Por medio de {Xn} n = 1,2, ... , se describe una sucesión de varia-
bles aleatorias XI, X2, ... , la cual es·una sucesión de funciones medibles
1.3. PRELIMINARES DE CONVERGENCIA DE VARIABLES ALEATORIAS 13

,
{Xn (w)} definida en un espacio muestral O, y teniendo en cuenta que
todas las variables aleatorias constituyentes de la sucesión están consi-
deradas en el mismo espacio de probabilidad (O, A, P).
~ En primer lugar, siendo {Xn} una sucesión de variables aleatorias y
e un número real, el conjunto {wIXn(w) = e} E A, de manera que

p [lim
n->oo
x; = e] = 1
e tma po-
jI!:IE:n:"::rnente. esté siempre definido.
orden r, Se dice que la sucesión de variables aleatorias {Xn} converge casi
tzomentos seguro a cero o converge a cero con probabilidad uno si:

P [lim
n->oo
x; = o] = l.

Además, si las variables aleatorias Xl, X2, ... , y la variable aleatoria


particular X están definidas en el mismo espacio de probabilidad, se
afirma que la sucesión de variables aleatorias {Xn} converge casi se-
guro a la variable aleatorio X, si la sucesión de variables aleatorias
{Xn - X} converge casi seguro a cero; este tipo de convergencia también
se conoce como convergencia fuerte y se simboliza como

Ejemplo 1.3.1. Si el comportamiento probabilístico de cada una de las


variables aleatorias de la sucesión {Xn} se modela por medio de la dis-
tribución de Bernoulli de manera que Xn rv Ber((~)n), entonces

X n~ a.s. O .

En efecto
P [lim
n->oo
x; = O] = 1
puesto que P[X = : = 1 - (~t· Como V[XnJ = (~t [1 - (~t],
puede notarse el d o de dicha varianza en cuanto n se incre-
menta, es decir, Xn do el carácter de variable aleatoria porque
su varianza va tendí . esto es, la variable va asumiendo rasgos
de una constante.
En segundo lugar. e la sucesión de variables aleatorias
{Xn} converge en profJa¡tn!I¡oo:.d, a la variable aleatoria X, hecho
simbolizado como
14 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

si lim P
n-+oo
[lXn - XI < él = 1, para é > O. Para referirse a la convergen- __
,
cia en probabilidad también puede utilizarse convergencia estocástica,
convergencia en medida o convergencia débil.
Específicamente dentro de la convergencia en probabilidad y debido -,
al uso principal que tendrá en la construcción de estimadores por el
llamado método de los momentos, se enuncia el siguiente teorema.

Teorema 1.3.2. Siendo las variables aleatorias X$!J , X], j = 1,2, ... , k,
Y la función g : ]Rk -----t ]R continua, tal que tanto g(X~l), X~2), ... ,X~k») =
como g(X1, X2, ... ,Xn) sean variables aleatorias, entonces si X$!J ~ Xj •
implica que

Corolario 1.3.3. Si x; s. X y w, z; W, entonces

1. Xn+Wn~X+W.
2. XnWn!!...XW.

3. aXn +bTr !!.....aX +bW: a, b constantes.


x•• !!... x . P:Wn i- OJ = P[W O] =
4· Wn Ir- =1- lo

X2!!.....
5. n - - de~~~.
.L, !!..... ...:.."
~ de :=m:::~:z;
6. Xn x· P:Xn =1- O] =P[X =1- OJ = l. ~~~

Un tercer" e convergencia se conoce como convergencia en


momento de orden f' . En este caso cada variable de la sucesión de
variables alearo " X} :r X poseen el momento ordinario de orden r,
parar
En estas circ " '" se afirma que la ~ucesión de variables aleatorias
converge en momento de orden r a la variable aleatoria X, lo ratriz - ~!::.::=
cual se representa ea

si lim E [(IXn
n-+oo
- Xln = O. Particularmente, si r = 1 suele decirse que
la sucesión de variables aleazorias {Xn} converge en valor esperado
a la variable aleatoria X . De manera similar, cuando r = 2, la
convergencia se conoce como convergencia en media cuadrática.
1.3. PRELIMINARES DE CONVERGENCIA DE VARIABLES ALEATORIAS 15

,
Un cuarto y último tipo de convergencia de variables aleatorias se
refiere a una sucesión de variables aleatorias {Xn}, cuya correspondien-
te sucesión de funciones de distribución F1(x), F2(x), ... , se considera.
De esta manera, la sucesión de variables aleatorias {Xn} converge en
distribución a la variable aleatoria X, cuya función de distribución
es F(x), hecho denotado
d
X¿ -+X

si lim Fn(x) = F(x) para todo x, donde F(x) es continua.


n-->oo

Teorema 1.3.4 (Teorema de Lévy). Considerando la variable aleaio-


ria particular X y la sucesión de variables aleatorias {Xn}, definidas
sobre el mismo espacio de probabilidad, y siendo {<Pn(t)} la sucesión de
funciones características correspondientes a las variables de la sucesión
{Xn},
X¿ !!:.. X si y sólo si lim <Pn(t) = <p(t)
n-->oo

para t E IR y <p(t) la función característica de la variable aleatoria X,


,..;.¡ continua en cero.

Teorema 1.3.5 (Teorema de Lévy). Versión para funciones genera-


trices de momentos, Considerando la.variable aleatoria particular X y la
sucesión de variables {Xn1: definidas obre el mismo espacio
de probabilidad. y siendo { r -J} la sucesión de funciones generatrices
•.•• de momentos correspondi -ro les de la sucesión {Xn}, las
cuales existen paro t real en alrededor de cero,
-4

para t real en algún intervalo al.re.riaJ.or de cero y M (t) la función gene-


..;,¡ ratriz de momentos de la variab aleatorio. X.

Ejemplo 1.3.6. En los cursos zenerales de probabilidad y estadística,


..,i,j se demuestra que cuando es apropiada la utilización del modelo Bina-
mial, pero el número de repeticiones n es grande y simultáneamente la
probabilidad de éxito 1i es muy pequeña, es decir n ---------> oo y 1i ----+ O, es
...•• lícito utilizar el modelo de Poisson con >.. = n1i. La legitimidad de este
proceder es respaldada por motivos de convergencia en distribución. Si
'XI, X2, ... , Xn, ... , representa una sucesión de variables aleatorias tales
16 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

que X¿ '" Bin(n,7f), condicionado el producto n7f a permanecer cons-


tante en el valor A, y como Mxn(t) = (1- 7f+ 7fett, entonces

lim Mx
n~oo n
(t)= lim
n~oo
[l-7f(l-é)t= lim
n~oo
[l_~(l_et)]n
n
= eA(et-I),

A = titt ,. límite reconocido como la función generatriz de una varia-


ble aleatoria con distribución de Poisson con parámetro A. Es decir,
X¿ !!... X '" POiSS(A).

Teorema 1.3.7. Sea {Xn} una sucesión de variables aleatorias.

Xn E,. c si y sólo si lim Fn(x)


n-¡.oo
= F(x)

siendo c una constante, Fn(x) la función de distribución de Xn y F(x)


una función de distribución tal que F(x) = O para x < c y F(x) = 1
para x 2: c.

Ejemplo 1.3.8. Si Xl, X2, ... , X¿ es una sucesión de variables alea-


torias tales que Xn '" X2 (n), la sucesión de variables aleatorias {Yn},
con Yn = ~ converge en probabilidad al valor 1. El examen del
lim MYn (t) permite concluir la convergencia enunciada de la suce-
n-->oo
sión, a la luz del teorema 1.3.7. En efecto, como X¿ '" x2(n), luego
MXn (t) = (1 - 2t)-~, MYn (t) = (1 - ~r~. Entonces

. ( 1 - -2t) -~. =
lim
n--= n h---¡.Q
l.
11m (1 - ht)-h = é siendo h = -.
2
h
Figura ::.
Esto significa que Fx(x) es una función tal que Fx(x) = Opara x < 1Y alear -"
Fx(x) = 1 para x 2: 1; es decir, se trata de una constante igual a t. En
consecuencia, el teorema anterior permite concluir que Yn E,. 1.

Entre los diferentes tipos de convergencia existen relaciones que es 1.4


necesario destacar. El siguiente teorema las reúne.

Teorema 1.3.9. Estando las variables aleatorias Xl, X2, ... y la va-
riable particular X definidas sobre el mismo espacio de probabilidad
(O,A,P):
1.4. CARACTERÍSTICAS GENER.!\.LES DE ALGUNAS ESTADÍSTICAS 17

1. Si {Xn} converge casi seguro a la variable aleatoria X con proba-


bilidad 1, implica que {Xn} converge en probabilidad a la variable
aleatoria X.

2. Si {Xn} converge en valor esperado a la variable aleatoria X, im-


plica que {Xn} converge en probabilidad a la variable aleaioria X.

3. Si {Xn} converge en probabilidad a la variable aleatoria X implica


que {Xn} converge en distribución a la variable aleatoria X.

4. Siendo r > s, la convergencia de una sucesión de variables alea-


torias {Xn} en momento de orden r implica la convergencia de la
sucesión en momento de orden s.

De manera gráfica las relaciones que enuncia el teorema 1.3.9 se


pueden recapitular en la figura 1.2.

Convergencia
casi seguro

Convergencia en
Ico;:=~enl ]:1
distribución

~~/
Convergencia en
valor esperado

Figura 1.2: Relaciones entre alg ipos de convergencia de variables


aleatorias.
~

1.4 Características generales de algunas esta-


dísticas
Los momentos muestrales, además de cumplir funciones análogas a los
momentos poblacionales como se incorporó en la definición 1.2.6, son es-
18 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

tadísticas de uso frecuente que con la garantía de la existencia de deter-


minados momentos poblacionales, sus distribuciones muestrales poseen
propiedades generales respecto a su posición y a su dispersión en la forma
como el siguiente teorema lo indica.

Teorema 1.4.1. Si X}, X2, ... , X¿ es una muestra aleatoria de una po-
blación representada por la variable aleatoria X con varianza 0-2 y con
momento ordinario J.L~T'r = 1,2, ... , entonces el valor esperado y la
varianza del momento muestral ordinario son, respectivamente:

V[M;,nJ =~ [E[X2TJ - (E[XT])2]

= ~ [J.L~T
- (J.L~)2].

Corolario 1.4.2. Según las hipótesis del teorema 1.4.1,

_ (}2

V[XnJ =-.
n
Teorema 1.4.3. Si Xl, X2, ... , Xn es una muestra aleaioria de una po-
blación con valor esperado, también llamado promedio poblacional,
J.Ly varianza (}2, conocida como varianza poblacional, y existiendo
. además el momento central de orden cuatro /-l4, entonces

2
V[SnJ = -1 ( /-l4 -
n- 3
--()
4) ,n > l.
n n-1
El tamaño de la muestra es un elemento sustancial tanto para las
disquisiciones en la teoría de la estadística como para la utilización de
misma. La pregunta, por su magnitud, es quizá de las más inquietam
para el investigador en la búsqueda de respaldo a la confiabilidad de
investigación; el tamaño muestral es uno de los aspectos con los
se certifican o descalifican estudios. Es, en definitiva, un punto ob .
para dilucidar.
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 19

La incidencia relevante del tamaño de la muestra en la distribu-


- _ ::l. estral de muchas estadísticas
gira alrededor del tema conocido
istribuciones asintóticas. En particular, a medida que vaya in-
:o::-menándose el tamaño de la muestra, el promedio muestral adquiere
- _ rasgos propios que los siguientes teoremas describen.
=eorema 1.4.4 (Ley débil de los grandes números). Si las varia-
r =s aleatorias Xl, X2, ... , X¿ constituyen una muestra aleatorio de una
"- biacioti con valor esperado Jl y varianza (72, entonces
XI+X2+,··+Xn P
-t Jl.
n
La nota de la demostración del teorema anterior destaca el hecho

P [-E < Xn - Jl < E] 2': 1- Ó


2
::<aran entero mayor que ~2' E > O,Ó > O; lo cual permite determinar
:~ magnitud del tamaño muestral según prefijados requisitos. Esta cota
-:-- ra el tamaño de la muestra debe entenderse dentro del contexto de
....) -.::a población infinita y una muestra simple.

Ejemplo 1.4.5. ¿Cuál debe ser el tamaño de la muestra para tener una
.-ti probabilidad de 0.95 de que el promedio muestral no difiera de Jl en más
-le una cuarta parte de la desviación estándar?
-¡;-..., esta situación, E = 0.25(7, Ó = 0.05; por lo tanto:

(72
n» 2 = 320.
(0.25(7) (0.05)
..•. Modificando parcialmente las condiciones del teorema 1.4.4 en el
=entido de no hacer ninguna mención de la varianza (j2, es posible reiterar
:,1 convergencia en probabilidad del promedio de la muestra, como lo
presenta el siguiente teorema..

Teorema 1.4.6 (Teorema de Khintchine). Si Xl, X2, ... , Xn es una


"7luestra aleatoria de una po con valor esperado Jl, entonces
- p
X -t u:

De manera más general, la convergencia en probabilidad de los mo-


mentos muestrales ordinarios a. los momentos poblacionales ordinarios
está avalada por el siguiente teorema..
CAPÍTULO 1. OISTRIBUCIONES MUESTRALES
20

Teorema 1.4.7. Si Xl, X2, ... ,Xn es una muestra aleatoria de una
población para la cual el momento central f.12r existe, entonces

MIr,n P I
.-, f.1r' r = 1,2, ...

Para cerrar esta relación de teoremas que giran alrededor de la idea


de la ley débil de los grandes números, se incluye el ~iguiente teorema
que puede entenderse como una generalización de la citada ley.

4 8 So" X L: X2, ... es una sucesión de variables aleatorias


T eorem a 1 ...
tales que E[Xil = f.1i Y V[Xil = a} son finitos y p(Xi, Xj) = 0, i =F j;
para i,j = 1,2, ... , entonces
- P
Xn - /in .-, O

1 n
siendo /in =- L f.1i
n i=l
La. ley roe-I:t.eé\e "\.osg¡:a.né\esnú:n.•.eros es un. con~u.nto ü~ teoreTI\.as
Teierent.es a la con.vergencia casi segura de SUCeS10l.1.eS de VaTlables ~lea-
t.orvaa. El teoreIlla siguiente es el más divulgado de todos y fue enunciado
or igrnedrnerrte por Kolmogorov.

Teorema 1.4.9 (Ley fuerte de los grandes números). Si las varia-


bles aleatorias Xl, X2, ... , Xn constituyen una muestra aleatoria de una
población con valor esperado u, entonces la sucesión {Xn - f.1} converge
casi seguro a cero.

Teorema 1.4.10. Si X1,X2, ... .X¿ es una muestra aleatoria de una


población con valor esperado f.1 y varianza a2, entonces
a.s.
S2n ----+ a2

y en consecuencia S~ E.. a2.

Con la denominación de teorema del limite central debe entenderse


más a un conjunto de teoremas concernientes a la convergencia en dis-
tribución de la suma de un número creciente de variables aleatorias al
modelo gaussiano, que a la más popular de sus versiones. Es un conjun-
to de teoremas fundamentales de la estadística, pues constituyen puntos
de apoyo sustanciales de la inferencia estadística . de las aplicaciones.
Dentro de la citada denominación de teorema del límite central se
incluyen variantes como la versión original conocida como la ley de los
errores, derivada de tos rabajos de Gauss y Laplace sobre la teoría
:a de una de errores, que permitió el surgimiento de las versiones más antiguas
referentes a variables con distribución de Bernoulli, debidas a De Moivre
y Laplace en los siglos XVI y XVII; se incluyen, además, las versiones de
Lindeberg-Lévy y Lindeberg-Feller, que son consecuencia de un trabajo
de la idea iniciado por Chevyshev y Liapunov a finales del siglo XIX, encaminado a
e teorema la búsqueda de una demostración rigurosa. Por su parte, se integran las
versiones de Bikelis y aquellas adaptadas para los casos multivariados,
aquellas para el caso de variables dependientes.
aleatorias En particular, la versión clásica o teorema de Lindeberg-Lévy, la ver-
. O, i =1 [, sión más difundida, corresponde al siguiente teorema, resultado al que
llegaron de manera independiente J.\iV.Lindeberg y P.Lévy en la segunda
década del siglo XX.

Teorema 1.4.11 (Teorema del límite central (Lindeberg-Lévy)).


Si Xl, X2, ... .X¿ es una muestra aleatoria de una población con valor
esperado J.L y varianza (}"2 finitos, considerando la variable aleatoria
: teoremas
ables alea- - Xn - J.L
Zn-a
enunciado
vn
entonces la sucesión de variables aleatorias {Zn} converge en distribu-
t las varia-
ción a una variable aleaioria con distribución Normal estándar.
nia de una
~} converge En pocas palabras. esta difundida versión determina que

iria de una . -(0.1).

El teorema dellími e es la mejor justificación de la existencia del


modelo gaussiano y del' . que de él se hace reiteradamente. Por
otra parte, lo admirable de:. teorema radica en que no importa el modelo
regente del comportamiento robahilistico de la población, y en que la
exigencia de finitud del valor esperado y la varianza es fácil satisfacerla
entenderse
acia en dis- en las aplicaciones.
Jeatorias al Para finalizar estas consideraciones acerca del teorema del límite
un conjun- central se presenta una ver .ón especial la cual corresponde al teorema
de Lindeberg-Feller.
ryen puntos
.lícacíones. Teorema 1.4.12 (Teorema del límite central (Lindeberg-Feller)).
e central se .Si Xl, X2, ... es una sucesión de variables aleaiorias independientes tales
a ley de los
22 CAPÍTULO 1. DISTRIBUCIONES MUESTRA LES

que su valor' esperado ¡.ti y su varianza a'f son finitos, i = 1,2, .. , y asu-
miendo que T.2
n
= f: a
i=l
2
~
~ 00 y además que max {~}
l$i$n Tn
~ ° cuando
n ~ 00, entonces
'f\.

I:(Xi - {.Li)
_i=_l ~ Z "" N(O, 1)

si y sólo si para cada € > 0,

siendo fi (x) la función de densidad de la variable aleatoria Xi, para


i = 1,2".,

Definición 1.4.13. Siendo Xl, X2" .. , X¿ una muestra aleatoria de


una población con distribución de Bernoulli con probabilidad de éxito
rr, esta probabilidad recibe el nombre de proporción poblacional, y
a la estadística Xn = Pn se le conoce como proporción muestral, o
proporción en la muestra,

El teorema de Lindeberg-Lévy es una forma general que incluye


el caso particular cuando XI,X2"" .X¿ es una muestra aleatoria de
una población con distribución de Bernoulli de valor esperado {.L = ir,
(O < tt < 1) y varianza a2 = 7r(1-7r). Este caso particular corresponde a
la versión más antigua del teorema del límite central, debida a Laplace.
n
Por tanto, siendo Pn = ~ I: X; =~ Y 7r = P[Xi = 1], i = 1,2, .. , n
i=l
determinando la variable aleatoria

la sucesión de variables aleatorias {Zn} converge en distribución a una


variable aleatoria con distribución normal estándar.

Teorema 1.4.14 (Teorema del límite central (Laplacej}. Siendo


Xl> X2, ... , Xn una muestra aleaioria de una población con distribución
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 23

,
- 1 2, .. _y asu- e B ernoulli de valor esperado ir, entonces
~ O cuando
lim
n~CX)
"
Z::
P[Tn = k] = n--+oo
lim P[z' ::; z; ::;z"]
anSkSbn

= q>(Z") - q>(z')

;:;iendo an = nst + z' Jn7r(l - 11) Y bn = ntt + z" Jn7r{l - 7r).

Este teorema garantiza entonces que siendo a, b enteros tales que


< b, y contando con un tamaño de muestra suficientemente grande, la
probabilidad
~--=:. P[a ::; Tn ::;b] puede aproximarse por medio de
o

q> ( Jn7r(l
b - n7r)
- 7r) - q>
(a -Jn7r(l
n7r )
- -r) .

aleatoria de como P[a ::; Tn ::; b] = L P[Tn = k], cada término


k=a
- d de éxito [Tn = k] puede aproximarse por medio del área entre k - ~ y k + ~
blacional, y bajo la curva de la función de densidad de una variable aleatoria con
muestral, o r-A--1,'stribución normal de valor esperado n7r y varianza n7r(l - 11), como
e sugiere en la figura 1.3. área equivalente al área bajo la curva de
-ia función de densidad de una variable aleatoria normal estándar entre
1 que incluye k-1-nrr k~l~
r"'--17~2~~ Y e manera que
aleatoria de nrr(l-rr) Jn 1
1---

arado f.L = 7r,


rresponde a
la a Laplace.
= 1,2,_ .. ,n,
-,uando el comportamiento ooalacíón se asume regido por el
Jlodelo gaussiano, se pueden -edades específicas adicionales
para el promedio y varianza mneszrales, propiedades que hacen explícitas
··- •...••
-:>s siguientes teoremas .
..J

ución a una Teorema 1.4.15. Si Xl, X2, .... ~ es una muestra aleatoria de una
•......
---JOblación con distribución Normal de valor esperado f.Ly varianza (j2,
..•mionces
j). Siendo
distribución
24 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Figura 1.3: Aproximación de la probabilidad P[Tn = k].

Teorema 1.4.16. Si Xl, X2, ... , Xn es una sucesión de variables alea-


torias independientes tales que X, N (f.Li, (Tl), entonces
rv

Corolario 1.4.17. Cuando la sucesión de variables aleatorias constituye


una muestra aleatoria de una población con distribución Normal, de
valor esperado ¡..¿ y varianza (T2,

U =~ ( Xi (T- ¡..¿ ) 2 "-J x2 (n).

Teorema 1.4.18. Si Xl, X2, •.. , Xn es una muestra aleatoria de una


población con distribución Normal de valor esperado ¡..¿ y varianza (T2, ~
entonces las estadísticas X n y S~ son dos variables aleatorias estadísti-
camente independientes.

Teorema 1.4.19. Si X1,X2, ... .X¿ es una muestra aleatoria de una


población Normal de valor esperado ¡..¿ y varianza (T2, entonces

¿n(Xi - Xn)2 _ (n - l)S~


2
(T
-
(T-
? "'X
2( _ 1)
n .
i=l

Con supuestos menos taxativos, el promedio y la varianza muestrales


presentan un comportamiento muy particular. Los siguientes teoremas
destacan la marcada autonomía de las estadísticas X n y S~.
1.5. ESTADÍSTICAS DE ORDEN 25

Teorema 1.4.20. Si Xl, X2, ... , Xn es una muestra aleaioria de una


población cuya función de densidad es simétrica, entonces

La expresión usual de la varianza muestral incluye el promedio de la


muestra, es decir, la varianza podría entenderse como función de éste.
Sin embargo, su presencia en la expresión puede considerarse aparente
puesto que la varianza de la muestra puede prescindir del promedio
muestra! en la forma como lo garantiza el siguiente teorema 3.

Teorema 1.4.21. Si Xl, X2, ... , Xn es una muestra aleatoria de una


población para la cual no se asume un modelo de probabilidad específico,
entonces

En síntesis. el promedio y varianza de la muestra son estadísticas


tales que bajo el modelo gaussiano son estadísticamente independientes;
bajo un modelo de probabilidad cuya función de densidad es simétrica,
las estadísticas no están correlacionadas, y en cualquier situación la va-
rianza de la muestra no depende funcionalmente del promedio de la
muestra.

1.5 E a icas de orden


Una modalidad de estadísticas la integran las llamadas es-
tadísticas de Éstas desempeñan papeles importantes en al-
gunas aplicacio en las cartas de control estadístico de la calidad
y como en el •. . manejo de algunos conceptos en estadística
no paramérriea, --- tos y otros usos, las estadísticas de orden
son particularmenre ores apropiados de parámetros que rigen
el recorrido de la po _. así mismo, se utilizan en el juzgamiento de
hipótesis referen a rámetros. Por ser estimadores y sustentar
reglas de decisión en pob especiales es menester exponer algunos
elementos y consideraciones acerca de su distribución.

3 Jorge E. Ortiz P. (1999), Promedio aritmético y varianza en grupos finitos de


datos numéricos. Boletín de Matemáticn.s. 'oL VI, No. 1, pp. 43-51.
26 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Definición 1.5.1. La k-ésima estadística de orden, k = 1,2, ... , n,


correspondiente a una muestra aleatorio Xl, X2,"" XnJ denotada por
Xk,n, está definida de la siguiente manera:

siendo
XI,n: mínimo de la muestra

Xn,n: máximo de la muestra

Al conjunto de estadísticas de orden XI,n, X2,n, ... , Xn,n se le designa


con el nombre de muestra aleatoria ordenada.

A partir de las estadísticas de orden pueden definirse otras estadísticas


como:

• El rango muestral:

• El semirrango muestral:

SR = X1,n + Xn,n
2

• La mediana muestral:

Xn+l n , si n es impar
2 '

X!'.n+X!'.+ln
2' 2' si n es par
2 '

• La función de distribución empírica o función de distribu-


ción muestral:
1.5. ESTADÍSTICAS DE ORDEN 27

Es decir:

0, S1, X < X1,n

k
,
n

1, si x 2: Xn,n, k = 1,2, ... ,n - 1

1.5.1 Distribución de las estadísticas de orden


Las estadísticas heredan en menor o mayor medida los rasgos del modelo
elegido para representar el comportamiento poblacional. Específicamente,
la distribución muestral de las estadísticas de orden incluye de manera
explícita las funciones de densidad y distribución de la población como
lo registran los siguientes teoremas.

Teorema 1.5.2. Siendo X1,n, X2,n, ... ,Xn,n las estadísticas de orden
o la muestra ordenada de una población con función de distribución
Fx(x)' entonces para k = 1,2, ... , n

FXk.n(Y) = t (;)
J=k
[Fx(y)J1[l-
j
Fx(y)t- ·

Corolario 1.5.3. Para los casos especiales del mínimo y máximo de la


muestra se tiene:

FXLn (y) = 1 - [1- Fx(y)Jn


Fx.; (y) = ~Fx(Yrn.

Teorema 1.5.4. Siendo X_o X2 ..... X¿ una muestra aleaioria de una


--' población con función de continua Fx(x), la función de
densidad de la k-ésima est de orden, k = 1,2, ... , n, es
n!
Ix«; (y) = (k _ l)!(n _ ' rFx(y)Jk-l[l - FX(y)¡n-k fx(Y)·

La función conjunta de densidad de lo. j -ésuna estadística de orden y la


...J k-ésimaestadística de orden fXi.n,xk.n (x, y) es

Cn,j,k[Fx (x )]j-l [Fx (y) - Fx(x )]k-j-l[l_ Fx(y )]n-k fx (y )fx(x )I(x,oo) (y)
28 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

para 1 ::; j < k ::; n, con Cn,j,k = n!j[(j - l)!(k - j - l)!(n - k)!J. La ~
función conjunta de densidad de las estadísticas de orden es

YI < Y2 < ... < Yn

en otros casos

Ejemplo 1.5.5. Siendo Xl, X2,"" X¿ una muestra aleatoria de una


población con distribución Uniforme en el intervalo (a, (3), determinar
la función de densidad de la k-ésima estadística de orden.

1
fx(x) = f3 _ a I(cx,{3) (x)
x-a
Fx(x) = f3 _ a ICcx,(3) (x) + I[{3,oo) (x)

~ y-a k-l [ y-a ] n-k [ 1 ]


Ixc.; (y) = (k - l)!(n - k)! [ f3 - a ] 1 - f3 - a f3 - a I(a,(3) (y)

n!
= (k -l)!(n - k)! f3 _ a
(l)n (y - a)
k-l
(f3 - y)
n-k
I(a,(3) (y).

La distribución de la k-ésima estadística de orden es la de una variable


aleatoria con distribución Beta en el intervalo (a, (3) con parámetros k
y (n - k + 1), cuando la población es Uniforme en el intervalo (a,(3).

Nota. Una variable aleatoria X con distribución Beta en el intervalo


(0,1) puede generar una variable oleaioria Y con distribución Beia en
el intervalo (a, (3) mediante la relación

y =a + (f3 - a)X.

Teorema 1.5.6. Sea Xl. X2, ... , Xn, una muestra oleaioria de una po-
blación con función de distribución Fx(x) continua. Para p fijo, .
denota al único percentil lOOp poblacional, entonces

k-l

P[Xj,n < xp < Xk,nJ = L (~)pl(l_ »r:' .


. t=i
1.5. ESTADÍSTICAS DE ORDEN 29

1
__1.5.2 Distribución del rango, semirrango y mediana de la
muestra
Las estadísticas correspondientes al rango y semirrango son funciones
- del máximo y mínimo muestrales. Por tanto, la determinación de su
---"-
__ distribución parte de la consideración de la distribución conjunta de
X1,n y Xn,n
fX1,n,Xn,n (x, y) = n(n - 1) [Fx(y) - Fx(x)]n-2 fx (x)fx(y)Iex,oo) (y).
Definidas las estadísticas

R = Xn,n - X1,n
T = Xl,n + Xn,n
2
:--'"
__ ~ se considera la siguiente transformación
r r
x = t -- y =t+-
2 2
.------- .....cuyo jacobiano es
ax ax - 1
-2 1
ar 8t =1
ay ay 1
1
2
ar at
con lo cual
'"'"'--_ fR,T(r, t) = n
••.........• ) ~F."'{ (t + ~)- Fx (t - ~)r-2fx (t - ~) fx (t + ~).
En consecuencia.. _ ra r > 0, se tiene

fR(r) = ¡: fR,T(r, t)dt

"- ) = ¡: fR,T(r, t)dr

La distribución está dependiendo del tamaño de la mues-


tra. Si éste es z: ;:,~distribución está totalmente determinada,
._..:.:iio..__ pues correspo e a .ón de la estadística de orden En la nr.
situación en la cual "Ti es ~. .ia mediana es función de las estadísticas
de orden X~,n y X'j-l.n' - ~ ornar n = 2m, m = 1,2, ...

fX'Z,n,x9:+1,Jx. y) = Ix • ..:"\:"
_: _ X. y)

(2m. - ()]m 1 1
[Cm -1).2 Fx x - [1 - Fxex)]m- Ix(x)lx(Y)
30 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

con x < y. Considerando la transformación 'U = xt y


, 'U = y, se tiene

1.5.3 Distribución de la función de distribución de


muestra
La función de distribución empírica o de la muestra tiene varios -
especialmente en métodos y conceptos de la estadística no paramé
Su gráfico se convierte en un indicativo de una primera aproxir !A:~;::
al ajuste que brinda el modelo. Algunos aspectos de su distribu .,
presentan a continuación.

donde k = O,1,2, ... , n. En efecto, denotando la variable aleato .

z, = I(-oo,xj(Xi)
n
luego Zi f"V Ber(Fx(x)); por tanto 2: Z; f"V Bin(n, Fx(x)) Y por
i=l
guiente
E[Fn(x)] = Fx(x)
V[Fn(x)] = Fx(x)[l
- Fx(x)] .
n
Teorema 1.5.7. Siendo X1,X2, ... ,Xn una muestra aleatoria
población con función de distribución Fx(x), entonces

Fn(x) ~ Fx(x)
para un valor x dado.
Teorema 1.5.8 (Teorema de Glivenko-Cantelli). SiX __.:_
es una muestra aleatoria de una población con función de dis;trib==~
Fx(x), entonces Fn(x) converge uniformemente a Fx(x), esto
cada E > 0,

lim P [
n .....•
oo
sup
-oo<x<oo
IFn(x) - Fx(x)1
.
< E] = 1.
1.6. MOMENTOS DE ESTADÍSTICAS DE ORDEN 31

Xo

Figura 1.4: Esquema de las funciones de distribución Fn(x) Y Fx(x).

Teorema 1.5.9. Siendo Xl, X2, ... , X¿ una muestra aleatoria de una
población con función de distribución Fx(x), la sucesión de variables
aleatorias
fo[Fn(x) - Fx(x)] }
{ JFx(x)[l - Fx(x)]
converge en distribución a una variable aleatoria con dis.tribución Nor-
mal estándar.

1.6 Momentos de estadísticas de orden


Los teoremas 1.5.2 y 1.5.4 puntualizan respectivamente la función de
distribución y la función de densidad de la k-ésima estadística de or-
den. En principio, garantizada la existencia del momento de interés r
y determinada explícitamente la función de distribución Fx (x), podría
formalizarse el citado momento de la k-ésima estadística de orden con
base en las referidas funciones de distribución o de densidad. Sin embar-
go, su logro depende de la complejidad de la integración requerida para
su cálculo, dado que algunas veces se alcanza únicamente por medio de
integración numérica.
A manera de ejemplo, considerando el comportamiento poblacional como
indiferente para cualquier valor del intervalo (0,1), el valor esperado. la
varianza y el momento de orden r de la estadística de orden k es factible
determinarlos.

Ejemplo 1.6.1. Siendo Xl n X2 n, .... Xn,n una ordenada


32 CAPÍTULO 1. DISTRIBUCIONES MUESTR..••LES
-
una población con distribución Uniforme en el intervalo (0,1)

k
E[Xkn] =--
, n+1

V[X l= k(n-k+1)
k,n - (n + 2)(n + 1)2
1
j(n - k + 1)]"2 j < k.
p(Xj,n, Xk,n) = [ k(n _ j + 1) ,

En efecto, en primer lugar, de manera general

E[Xr ] = n! [1Xr+k-l(l _ x)n-kdx


k.n: (k - l)!(n - k)! lo
n!
(k _ l)!(n _ k)!{3(r + k, n-k + 1)

Y utilizando la relación {3(a, b) = ~~;:(:?, entonces

E[Xr]= n! r(r+k)r(n-k+1)
k,n (k-1)!(n-k)!r(r+k+n-k+1)
n!(r + k - 1)!
(r + n)!(k - 1)!'

particularmente,
niki k
. E[X]- ..
k,n - (n + 1)! (k - 1)! n +1
V[Xk,n] = E[X~,n]- (E[Xk,n])2
E[X2]= n!(k+2-1)! = k(k+1)
k,n (n + 2)!(k - 1)! (n + l)(n + 2)
V[X]- k(k+1) k2 k(n-k..L
k,n - (n+1)(n+2) (n+l)2 (n+2)(n-_-

Por otra parte, denotando E[Xj,n, Xk,n] = ~, se tiene que

fJ. - ni.
- (j - l)!(k - j - l)!(n - k)!
l1 1

o
Y
J.
o x y(y - x)
k-J--
.
--

= (j _ l)!(k - ;~ l)!(n _ k)! 1 1

y(~ - y)n-k (1 ~

. --
1.6. ¡'IOMENTOS DE ESTADÍSTICAS DE ORDEN 33

x
Realizando la sustitución v= -
y

I {l
= (j _ l)!(k _ ;._ l)!(n _ k)! lo y(l - y)n-k [yk,B(j + 1, k - j)] dy
I
(j _ l)!(k _ ;._ l)!(n _ k)!,B(l + i,k - j),B(k + 2, n-k + 1)
j(k+1) =E[X' X 1
(n + l)(n + 2) ],n, k,n

con lo cual

j(k + 1) jk
Cov(Xj,n, Xk,n) = (n + l)(n + 2) j<k
(n + 1)2
j(n - k + 1)
j < k.
k(n-j+1)
Por tanto. como caso especial, la correlación entre el mínimo y máximo
de la muestra bajo comportamiento poblacional Uniforme en el intervalo
(0,1) es

donó, en algunos casos se requiere integración nu-


determinar momentos de una estadística de orden. Sin
pu:~~ _ resentar expresiones que permiten aproximar el
riazza de la k-ésima estadística de orden.
e5(lLIT()I..k¡.m:
esras expresiones se basa en una expansión en serie de
variable aleatoria con función de distribución
_=.
aaoíe aleatoria Y = Fx(X) tiene distribución

-- ~- -=1)
k(n-k+1)

Finalmente se hace una b ión a la distribución asintótica de las


•.•..••.
---- estadísticas de orden.
34 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

El estudio de la distribución asintótica de la k-ésima estadística de '-


orden incluye dos casos a saber: (1) cuando n tiende a infinito y ~
permanece fijo; (2) cuando n tiende a infinito y k o n-k permanecen
finitos.
Para algunos efectos, el primer caso es de mayor interés; el teorema
siguiente se adscribe a ese caso.

Teorema 1.6.2. Sea Xl, X21 .•• , X¿ una muestra aleatoria de una po-
blación cuya función de distribución F X (x) es estrictamente monótona.
Asumiendo que xp es el percentillOOp poblacional, es decir, Fx(xp) = p,
entonces la estadística de orden [np] + 1 tiene distribución asintótica
.
N orma 1 con va 1or espera d o xp y uarumza p(l-p)
n[fx(xp)J2'

Particularmente, si p = ~ (xo.s corresponde a la mediana pobla-


cional) y siendo la población Normal con valor esperado f.L y varianza
(/2, la mediana muestral tiene distribución Normal con valor esperado f.L
• 2
Y vananza ;: .
Con este teorema relativo a la distribución asintótica de la k-ésima
estadística de orden concluye la introducción a las ideas preliminares de
la inferencia estadística, presentación que además entreabre el contexto
filosófico en el cual se desempeña, que describe las características más
relevantes de algunas estadísticas y registra como estadísticas especiales
a las estadísticas de orden. Con esto se da paso a la exposición de los
argumentos que sustentan las afirmaciones de los enunciados de los teo-
remas relacionados y finalmente a la serie de ejercicios cuyo desarrollo
complementará la reflexión sobre estos temas iniciales y será un compo-
nente más en la aprehensión de los conceptos expuestos en este primer
capítulo.

1.7 Demostración de los teoremas


Teorema 1.3.7 . Sea {Xn} una sucesión de variables aleatorias.

X¿ .!!... c si y sólo si lim Fn(x) = F(x)


n--+oo

siendo c una constante, Fn(x) la función de distribución de Xn


una función de distribución tal que F(x) = O para x < e y F
para x ~ c.
1.7. DE-iOSTRAC¡ÓN DE LOS TEOREMAS 35

_ Demostmción. Suponiendo que X¿ !!..,. e, entonces para e >O


lim P [lXn - lim P [e - e < X¿ < e + e]
el < e] = 1 = n~oo
n---+(X)

lim [Fn(e + e) - Fn(e - e)]


= n~oo
lim [Fn(e + e)] -
= n---+oo lim [Fn(e - e)] .
n---+oo

La imagen de cualquier función de distribución es un valor que pertenece


----:-----, al intervalo [0,1], luego la única posibilidad para que la igualdad anterior
se dé es que

lim Fn(e
n---+(X)
+ e) =1 Y lim Fn(e - e) = O
n--+OQ

hecho revelador de que Fn(x) ~ F(x), siendo F(x) una función de


~--"'_---. distribución tal que
si x <e
si x ~ e
es decir, F(x) es la función de distribución de una constante c.
Suponiendo ahora que Fn(x) ~ F(x) con F(x) = I[c,oo) (x), es decir

lim Fn(x)
n~oo
= F(x).
Entonces:

lim Fn(c - e)
n---+OQ
= O para e lim Fn(c + e) = 1
> O Y n---+~

.......-----,
luego

lim [Fn(e+ e) - Fn(e- e)] = 1 = lim P[c- e < Xn < e+ e]


n--+oo n-+<X)

= n-.oo
lim P [lXn - el < e]

..••lo cual significa que X¿ !!..,. C. o


Teorema 1.3.9
..• Algunos apartes de la demostración pueden consultarse en A First Course
in Mathematical Statistics (G. Roussas, pp. 133 a 135) yen Basic Pro-
bability Theory (R. Ash, pp. 204 Y 205).

Teorema 1.4.1. Si XI, X2, ... , X¿ es una muestra aleatoria de una


población representada por la variable aleatoria X con varianza r? y
36 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

con momento ordinario fL2r' r = 1,2, ... , entonces el valor esperado y la ~


uaruuiza del momento muesiral ordinario son, respectivamente:

V[M:,n] = ~ [E[X2r]_ (E[Xr])2]

= A [fL2r - (fL~)2J .
Demostración. El valor esperado del momento ordinario de orden r
puede determinarse mediante dos argumentos. En primer lugar, uti-
lizando las propiedades del valor esperado se tiene que

E[M:,n] =E
1 ri 1 =;:1 ~ n
r = 1,2, ...
[;: ~ Xi E[X[J,

En segundo lugar, como todas las variables aleatorias de la sucesión


tienen la misma distribución, por constituir una muestra aleatoria,
E[X[] = fL~, para i = 1,2, ... ,n, en consecuencia
n

E [Mrn'J, = -n 12:'fLr = -n1(nfLr') = fL,r.


i=l

De manera similar puede determinarse la varianza del momento ordi-


nario de orden r. De las propiedades de la varianza se puede afirmar
que

r = 1 2....

y debido a que las variables aleatorias son independientes. pues consti-


tuyen una muestra aleatoria, lo son también las variables Xí, X2, ... , X;",
con lo cual
1 n 1 n
V[M;,nJ = n2 L V[X[J = n2 2: [E[Xlrj - (E[X[])2]
t=l i=l

y como las variables tienen distribución idéntica.

V[M;,nl = ~2 i: i=l
(fL2r -. (fL~f) = * (14,. - (fL~)2) .
1.7_ DEMOSTRACIÓN DE LOS TEOREMAS 37

Teorema 1.4.3. Si Xl, X2, ... , Xn es una muestra aleatoria de una po-
blación esperado, también llamado promedio poblacional,
con ualor
y ceriatiza a2,
conocida como varianza poblacional, y existiendo
además el momento central de orden cuatro f-l4, entonces

2
E[Snl = E [1 t:í'(X
~ -2]
n_1 X i - n) =a 2
V[S~J = -1 ( f-l4
n
- n-3)
__
n-1
0-
4
,n > lo

Demostración. Para determinar el valor esperado de la varianza mues-


tral, es necesario previamente verificar la identidad
n
¿(Xi - f-l)2 = (n - l)S~ + n(Xn - f-l)2.
i=l

Sumar y restar X n es el punto de partida en la verificación de la iden-


tidad, de manera que
n n n
¿::(Xi _f-l)2 = ¿)Xi-X n +Xn _f-l)2 = ¿ [(Xi - Xn) + (Xn _f-l)]2 .
i=l i=l i=l

Así mismo después de desarrollar el cuadrado indicado


n n n
¿(Xi - p)2 = ¿(Xi - Xn 2- 2(X n - 1') ¿(Xi - Xn) + n(Xn - f-l)2
i=l i=1 J=
n

= ¿(Xi-X J--
i=l
n n
porque I: (Xi -
i=l
Xn) = LX,
i=:
- -- =.- X-n - n.X¿ = 0, y por tanto
n

L(X¡- ~- =
i=1

Con el anterior recurso.

EIS~1= E [n~ 1~ - ., -p,l'- n: 1(X. -p,lj

= n~1 [t
J=l
Ef(X¡ - f-l)2] - nE[(Xn -f-l)2J].
38 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Como E[(Xi - M)2] = V[XiJ, E[(Xn - M)2] = V[Xn] y teniendo en


cuenta que todas las variables aleatorias de la sucesión tienen la misma
distribución,

E[S~] = _1_ [~(J2 _ n ((J2)] = _1_[na- 2 _ a2J = a2.


n-1 ~ n n-1
i=l

La demostración del segundo enunciado del teorema es uno de los ejer-


cicios de este capítulo. D

Teorema 1.4.4. Si las variables aleatorias Xl, X2l ... 1 X¿ constituyen


una muestra aleatoria de una población con valor esperado M y varianza
a2 entonces
J

n
Demostración. La herramienta procedente para sustentar el desarrollo
de esta demostración es la desigualdad de Chevyshev, la cual asegura
que si X es una variable aleatoria con valor esperado u x Y varianza aJe
finita,
1
P[\X - Mxl < r(Jx] ~ 1 - """2 para cada r > o.
T

Aplicando esta desigualdadal caso especial de la variable aleatoria Xn


_ _ a2
teniendo en cuenta que E[Xnl = M Y V[Xnl = -, como lo manifiesta
n
el corolario 1.4.2,

p[IXn-¡.¿1 <r :nJ ~1- :2 para cada r c- O.

Utilizando el remplazo E = r :;n, se tiene que E > OY


(J2
FrlXn - ¡.¿I < El ~ 1- -2·
nE
De manera que
,...2
lim P' X - ¡.¿I < El ~ lim 1- _v- = 1
n-= n-->oo nE 2

es decir:

lo cual significa que X n-como lo afirma la ley


números.
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 39

(72
Nota. La cota 1 - -2 crece en cuanto n crece. Si se fija la cota en
nE
..r----.., 1 - 8 O < 8 < 1, significa que existe un tamaño de muestra mínimo n,
- (72
para el cual P[lXn - ¡.¿I < El 2: 1-8: En otros términos: 1- -2 > 1-8,
nE
es decir,
_ (72
P[-E < Xn - ¡.¿ < El 2: 1 - 8, para n > &2· o
Teorema 1.4.6. Si Xl, X2, Xn es una muestra aleatoria de una
.r------. población con valor esperado ¡.¿, entonces
... ,

Demostración. Utilizando la función generatriz de momentos de la va-


riable que representa a la población Mx(t), o en su defecto la función
característica cpx (t),

MxJt) =E [iXn] =E [exp (~XI + ~X2 + ... + ~Xn)] .


Como las variables constituyen una muestra aleatoria, ellas son indepen-
dientes con lo cual

Mx.,(t) = rr
n

i=l
E [e~Xi] = rr
n

i=l
E [e~x]

r
entonces:

1+ ~ (~) + ~!E[X2J(~) 2 +

) = lim [1 + ¡.¿t + O
n-+oo n
(!)]n
n
= e/-Lt

función generatriz corresponde a la función generatriz de una cons-


tante u. (O es el sírnbolo "o pequeña" usado en el estudio de las series").
Esto significa que
- d
Xn-+¡.¿
y con base en el teorema :.3.- se concluye que
p
-+ Ji.

4Sobre la "notación O"véase Ti Apóstol (1988) Colculus Vol 1. Seg~!a


edición. Editorial reverté, col, s.a, p_ 351
CAPÍTULO l. DISTRIBUCIONES MUESTR.ALES

Teorema 1.4.7. Si XI,X2, ••. .X¿ es una muestra aleatoria de una


población para la cual el momento central J.l2r existe, entonces

Aif'r,n ---7
1\
P J..L, ,
r = 1,2, ...
r

Demostración. Como la sucesión Xí, X2, ... , X~ conforma un conjun-


to de variables aleatorias independientes e idénticamente distribuidas
porque la sucesión Xl, X2, ... , X¿ es una muestra aleatoria, entonces
sólo resta aplicar el teorema relativo a la ley débil de los grandes números
utilizando la sucesión Xí, X2, ... , X~, con lo cual se puede afirmar que

~
t i=l
[X[] z, E [Xí] = J.l~.

Teorema 1.4.9
La demostración puede consultarse en el texto Probability asid Statisti-
cal Inference (Robert Bartoszynski y Magdalena Niewíadomska-Buza!
(1996). pp. 430 a 431).

Teorema 1.4.11. Si Xl, X2,"" X¿ es una muestra aleatoria de


población con valor esperado J.l y varianza (j2 finitos, considerando
variable aleatoria

entonces la sucesión de variables aleatorias {Zn} converge en ri••..-.-.•••.••


"_
ción a una variable aleatoria con distribución Normal estándar.

Demostración. La egia para esta demostración consiste en e


de la función genera iz de momentos y de sus propiedades, para lo
se asume la existencia de la función generatriz de momentos de la
ción. Se apoya la dem .ón en el desarrollo en serie de McL
la función generatriz de momentos, demostración que también se
llevar a cabo utilizando la función característica.
Denotando como MZn (t) la función generatriz de mom
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 41

variable aleatoria Zn, se tiene:

Como las variables de la sucesión Xl, X2,' .. ,Xn son variables aleato-
das independientes por tratarse de una muestra aleatoria, las variables
Y1,Y2,"" Yn también lo son, siendo Yi = X~-f!., i = 1,2, ... , n y por
tanto,

y como las variables Yl, Y2,' .. , Yn tienen la misma distribución, cuya


función generatriz de momentos es lvlYi (fo) = My (fo)'
i = 1,2, ... , n. entonces

El desarrollo en serie e _IcLaurin de la función generatriz My(t) eva-


luada en el valor -= es

Dado que el valor espe izual a cero, si existen !1~ = !1r,


r= 1,2, ... , y además la \'8.fÍaI!Za es igual a uno,

t ) 1 a2 ( t ) 2 1 f..L3
( t ) 3
My ( .Jñ = 1 + 2! (72 .¡n + 3! 0"3 .Jñ + ...
= 1 + -1 [1?
-1:' 1
+ --f..L3t 3 1
+ -!14t 4 +... ] .
n 2! 31fo, 4!n
42 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Efectuando el remplazo Qn(t) = 1!t2 + 3!~IñJ1'3t3 + 4fnf.L4t4 + ... y dado


que Mzn(t) = [My (Jn) r,
MZn(t) = [1 + ~Qn(t)r

lim MZn (t) = lim [1 + ~Qn(t)] n


n-DO n-DO n

= exp ( n->DO
lim Qn(t))

porque los coeficientes de t3, t4, . .. tienden a cero cuando n ~ 00, y


porque 5 siendo {en} una sucesión que tiende a e,

lim
n-+oo
{1 + en}n
n
= e",

Además, e~t2 se reconoce como la función generatriz de momentos de una


variable aleatoria con distribución Normal estándar. Como
1 t2
lim MZn (t)
n-+oo
= Mz(t) = e"2

de acuerdo con el teorema de Lévy, Zn ~ Z, Z rv N(O, 1). D

Teorema 1.4.12
Los elementos que se requieren para el desarrollo de la demostración de
este teorema están más allá del alcance de este texto.

Teorema 1.4.15. Si Xl, X2, .. ·, Xn es una muestra aleatoria de una


población con distribución Normal de valor esperado f.L y varianza cf1.
entonces
_X¿ rv N (0'2)
u, -:;; .

5yu Takeuchi (1976). Sucesiones y series. Tomo 1, Bogotá. Editorial Limusa,


20.
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 43

Demostración. Nuevamente se elige a la función generatriz de momentos


como medio para llevar a cabo esta demostración. Siendo

Mx(t) = exp (JLt + ~0"2t2)


la función generatriz de una variable aleatoria X, X r-.J N(JL, 0"2),

MXn (t) = E [é Xn
]

~ E [_ (t~t,x.)]
= E [IT exp ;Xi].
t=1

Debido a la independencia de las variables que constituyen la muestra

m
aleatoria,

MxJt) ~ .tJ [exP~x·l ~ .tJ


E Mx,

Finalmente, como las citadas variables están idénticamente distribuidas,


de acuerdo con el modelo gaussiano,

MxJt) = .tJ N1x (;)

= g (t
n
exp JL-; 1
+ "20"2 (t )2)
-;

~ [ex p H + ~~2
2
(~)') r
= exp (JLt + ~:: t )

lo cual permite deducir que X n r-.J N (JL' ~). o


.$1
Teorema 1.4.16. Si Xl, X2,"" X¿ es una sucesión de variables alea-
torias independientes tales que Xi rv N (JLi, O"I), entonces
44 CAPÍTULO 1. DISTRIBUCIONES MUESTRA LES

. 'L
D emos t racwn. a vana. bl e a 1eatoria. Z i = X¡ - ¡.ti
, para '1,
.
= 1, 2 , ... , n,
ai
es una variable aleatoria con distribución Normal estándar; por tanto,
se puede afirmar que Z¡ '" X2 (1).
Con el concurso de la función generatriz de momentos, puede estable-
cerse que

Como la sucesión Zl, Z2, ... , Zn es una sucesión de variables aleatorias


independientes,

Mu(t) = n
n
.=1
E
Z2
[et ;] = n
n
.=1
Mz¡(t) = nn (
.=1
1 ) ~
1- 2t
( 1 ) i¡
= 1- 2t

Hecho que permite concluir que U "-J X2 (n). o


Teorema 1.4.18. Si Xl, X2, .•. , X¿ es una muestra aleatoria de una
población con distribución Normal de valor esperado ¡.t y varianza a2,
entonces las estadísticas Xn y S; son dos variables aleatorias estadísti-
camente independientes.

Demostración. Esta demostración está orientada a la determinación de


la independencia de Xn, (XI-Xn), (X2-Xn), ... , (Xn -Xn) para luego
n
concluir la independencia entre Xn y ¿(Xi - Xn)2.
í=1
En primer lugar, la función generatriz de momentos l'vl(t, tI, t2,· .. , tn)
de las variables aleatorias Xn, (Xl - Xn), (X2 - Xn), ... , (Xn - Xn)
siendo e = (~CT) n y dx = dXI ... dXn, es

En segundo lugar, al considerar la integral sobre Xi, i = 1,2, ... , n ~


tiene
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 45

que al efectuar el remplazo:

1[ + 2.::>i1 =;,1
;, t rit¡ -
n
[t + n(ti - t)] , con L = 12:
- n
ti·
z=l n i=l

La integral anterior puede expresarse como

J
I'"
-00
_1_ exp {~
.J2;ffa n
[t + n(ti _ t)] Xi _ (Xi -
20-
:)2} dx;

cuyo valor es finalmente

Por consiguiente:

n
y como ¿(ti - t) = 0, entonces
i=l

a2t2 (72 n _ 2}
M(t, tI,···, tn) = exp { ¡.d + 2n +"2 2:(ti - t)
z=l

= exp {I't + ~: t' } exp { ~' t,(t;- t)' }

hecho que revela plenamente la independencia de las variables aleatorias


Xn, (Xl - Xn), (X2 - Xn), ... , (Xn - Xn)·
.. - -2 -2 -2
Por consiguiente, Xn, (Xl - Xn) ,(X2 - Xn) , ... , (Xn - Xn) es un
conjunto de variables aleatorias independientes e igualmente lo son X n
n
y ¿(Xi - Xn)2. En consecuencia, Xn y S~ son estadísticamente inde-
i=l
pendientes. O

Teorema 1.4.19. Si Xl, X2,"" X¿ es una muestra aleatoria de una


población Normal de valor esperado j..t y varianza (72, entonces

~ (Xi - XnP
Z:: -'-----2,--.:c:..... = (n - 2I)S~ '" X
2( n - 1) .
a a
i=l
46 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
_.

Demostración. De la demostración del teorema 1.4.3 se tiene que


-"

Por tanto,
--

luego

puesto que X n y S~ son estadísticamente independientes.


Debido a que

entonces

(_1 ) % = E
1 - 2t
[exp [t(n -1)8~]](_1 ) ~
(J2 1 - 2t
es decir:

E [e
xp
[t(n -1)8;]] = (_1 ) n;-l
(J2 1 - 2t t <-.
1
2
Expresado de otra manera:

o
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 47
I

Teorema 1.4.20. Si X1,X2, ... ,Xn es una muestra aleatoria de una


';JOÓl.ac&ón cuya función de densidad es simétrica, entonces
_-0;.; •••••••
- 2
cov(Xn, Sn) = O.
Demostración. La demostración de este teorema se realizará mediante
inducción matemática sobre el tamaño de muestra. Previamente a aquélla,
y con el fin de incluirlos en la demostración, es necesario aprestar tres
elementos:
1. Si X, Y son dos variables aleatorias independientes,

cov(X,XY) = E[Y]V[X]
2. Si la función de densidad de una variable aleatoria X es simétrica
respecto a E[X],

cov(X, X2) = 2E[X]V[X]


3. Y finalmente las relaciones
-
Xn+1 = -- 1 (-
nXn + Xn+l)
n+l
2
nSn+l = (n - l)Sn
2
+ --n (
Xn+1 -
-
Xn )2
n+l

En primer lugar, al ser X, Y independientes también lo son X2 y Y. Por


-----, ello
cov(X, XY) = E[X2y) - E[X]E[XY) = E[YJE[X2) - E[Y](E[X])2

----"_-, es decir, cov(X, XY) = E[Y] [E[X2] - (E[X])2] = E[Y]V[X].


En segundo lugar, si la función de densidad es simétrica respecto a E[X],

E [(X - E[X])3] = O = E [X3 - 3X2 E[X] + 3X (E[X])2 - (E[X])3]

= E [X3] - 3E [X2] E[X] + 2 (E[X])3


con lo cual E [X3] = 3E [X2] E[X]- 2 (E[X]f
----;:
cov(X, X2) = E [X3] - E[X]E[X2]
= 3E[X2]E[X] - 2 (E[X])3 - E[X]E[X2]
= 2E[X]E[X2] - 2 (E[X])3
= 2E[X] [E[X2] - (E[X])2]
= 2E[X]V[X]
48
CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Por último:

-n 1 n+l 1 [n ] 1 _
X +1 = n+1L..,.
- "'"' X, = -n+1 "'"' Xi
L..,. + Xn+1 = -n ..f-1 [nXn + Xn+r]
i=l i=l

n+l n+l
nS~+l = L (Xi
i=l
- Xn+l)2 = L (Xi
i=l
- Xn + Xn _ Xn+l)2
n+l
= L [(Xi
i=l
- Xn)2 + 2 (Xn - Xn+1) (Xi - Xn)

+ (Xn - Xn+1) 2]
= (n -l)S~ + (Xn+1 - Xn)2 + 2 (Xn - Xn+1) L (Xi
n
_ Xn)
i=l
+ 2 (Xn - Xn+1) (Xn+l - Xn) + (n + 1) (Xn _ X +¡)
n
2
n
Como ¿ (Xi
i=l
- Xn) = 0,

nS~+1 = (n -l)S~ + (Xn+l - Xn)2 + 2 (Xn - Xn+ ) (X + _ Xn)


1 n 1
+ (n + 1) (Xn - Xn+l)2
= (n - l)Sn 2 + ( Xn+1 - X- n )2
+ (Xn - Xn+1) [2Xn+1 + (n - l)Xn - (n + l)Xn+d
Realizando los remplazos:

y - - 1 (_
Xn - Xn+l = - Xn - X _
se tiene n+1
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 49

Entrando en materia, y teniendo en cuenta que E[XiJ = u; V[XiJ = (J2,


para i = 1,2, ... , n, al considerar una muestra de tamaño n = 2,

82 = _1_ ~ (X. _ X )2 = (Xl - X2)2


2 2-1L....- t 2 2
i=l

COV(X 2, 822) -_ cov (Xl +


2
X2 (Xl - X2)2)
' 2

= lcov (Xl + X2, (Xl - X2)2)

=l [COV(Xl + X2, xi - 2XIX2 + X?)]

=l [COV(XI' xi) - 2cov(XI, XIX2) + COV(Xl, Xi)]

+l [cov(X2,Xi) - 2COV(X2,XIX2) + cov (X2,Xi)]


1
= - [2E[XI]V[XI] - 2E[X2]V[XI] - 2E[XI]V[X2]
4
+2E[X2] V [X2JJ
porque Xl tiene la misma distribución de X2 y además son variables
independientes,

cov (X2,8~) = l (2f.l(72- 2¡'./,(72 - 2f.l(J2+ 2f.l(72) = O

Por hipótesis de inducción, cov (Xn, S~) = O. Ahora para una muestra
de tamaño n + 1, cov (X n+1, S~,+1) = ~

~ = cov (_n-Xn + -l-Xn+l, (n -1)8~+ _1_ (Xn+1 - Xn)2)


n+1 n+l n+l
=n- 1cov (Xn, 8~) + ( n )2cov (Xn, (Xn+1 - Xn)2)
n+l n+l

(n -
+ nn+1 1
) cov (
Xn+1,8n 2) + (n+1'1 )2cOV ( Xn.LI, (Xn+l - -Xn) 2)
Como cov (Xn, 8~) = O Y Xn+l, 8~ son independientes,

cov (Xn+l, 8;,+1) = (n: 1)2cov (Xn, (Xn+1 - Xn)2)

+ (n ~ 1)2 COV(Xn+1, (Xn+1 - Xn)2)


50
CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Ahora,

COV
(X +
n 1
, (Xn+l - Xn- )2) = cou ( X +1, Xn2+
n - -
2X X + + X-2)
1 n n 1 n
= COV (Xn+1,X;+I) - 2cov (Xn+1,XnXn+1)
+ COV (X + X~)
n 1,

= _2f..L(72 + 2f..L(72 =O
luego

o
Teorema 1.4.21. Si Xl, X2, ... ,Xn es una muestra aleatoria de una
población
entonces para la cual no se asume un modelo de probabilidad específico:

Demostración. De manera similar al punto de partida de la demostración


del teorema 1.4.3.

n n

¿(Xi
i=l
- Xjf = ¿[(Xi
i=l
- Xn) - (X, _ X )]
n
2 .

n
Desarrollando el cuadrado allí indicado y como ¿ (Xi _ X n) = O, en-
tonces i=l
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 51

U~

En consecuencia,

Teorema 1.5.2. Siendo X1,n, X2,n, ... , Xn,n las estadísticas de orden
o la muestra ordenada de una población con función de distribución
Fx(x), entonces para k = 1,2, ... , n

FXk,Jy) = t (;)
J=k
[Fx(y)]j[l
j
- Fx(y)t- ·

Demostración. Fijando un valor particular y, se construye la variable


aleatoria dicotómica Z, = IC-oo,y)(Xi), i = 1,2, ... , n.
Como P[Zi = 1] = P[Xi S y] = Fx(y), entonces cada una de las va-
riables independientes Zl, Z2, .. " Zn tiene distribución de Bernoulli con
parámetro Fx(Y).
n
...:J Adicionalmente, ¿ Zi rv Bin(n, Fx(y)) dada la independencia citada
i=l
n
de las variables Z1, Z2,"" Zn' ¿ Zi representa al número de observa-
i=l
ciones muestrales menores o iguales al valor específico y.
Como el evento {Xk,n S y} es equivalente al evento {itr Zi 2: k }, en-
tonces la función de distribución de la k-ésima estadística de orden co-
rresponde a

Fx".(y) = P IXk,. S; y] = P [t, Z, 2: k 1


= t (;)
J=k
[Fx(y)]j
j
[1- Fx(y)r- ·
52 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Teorema 1.5.4. Siendo X1,X2, ... ,Xn una muestra aieatoria de una
población con función de distribución continua Fx (x), la función de
densidad de la k-ésima estadística de orden, k = 1,2, ... ,n, es
,
fXk,n (y) = (k _ l)~('n _ k)! [FX(y))k-1[1 - Fx(y))n-k fx(Y)·

La función conjunta de densidad de la j-ésima estadística de orden y la _


k-ésima estadística de ordeti fXj,n,Xk,n (x, y) es

Cn,j,k[Fx(x )J3-1 [Fx(y) - FX(x))k-j-1 [1- Fx(y)Jn-k fx (y)f x (x )I(x,oo) (y)

para 1 ~ j < k ~ ti, con Cn,j,k = n!j[(j - l)!(k - j - l)!(n - k)!]. La


función conjunta de densidad de las estadísticas de orden es

Yl < Y2 < ... < Yn

en otros casos

Demostración. La primera afirmación del teorema se refiere a la función


de densidad de la estadística Xk,n, función que corresponde a la derivada.
respecto a los valores particulares de Xk,n, de su función de distribució
FXk,n (y). Entonces

f Xk,n ()y = ~F () = lim FXk,n(Y + h) - FXk,n(Y)


ay x..; y h--+O h
. P [y ~ Xk,n ~ Y + h)
= llm~~--~~~--~
h--+O h

• •
y y+h

Por medio de la distribución multinomial se calcula la probabili


evento A(h) = {y ~ Xk,n ~ Y + h}, descrito como

A(h) : '(k - 1) observaciones de la muestra son menores de _


pertenece al intervalo [y, y + h) Y las restantes (n -
observaciones son mayores que y +h ".
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 53

Al reemplazar Fx(v) por F(v), se tiene:


, k
P[A(h)] = (k _ l)!~i(n _ k)! [F(y)]k-l [F(y + h) - F(y)] [1 - F(y)t-

v haciendo Ó. = lim P[.4(h)]


W h-i-O h '

ó. = n! [F(y)]k-l [1 _ F(y)r-k lim F(y + h) - F(y)


(k - l)!(n - k)! h-i-O h
k
(k _ l)~(!n _ k)! [FX(y)]k-l [1 - Fx(y)r- !x(y) = !Xk,jy)·

La segunda parte del teorema que enuncia la función conjunta de den-


sidad de las estadísticas de orden j y k, !xj,n,Xk,n (x, y) se demuestra de
manera similar.

Xk,n

y +t ------.-.- ...•..•..
~~,.............•...•....•..•..
~

x x+h Xj,n

Tomando Ó. = !Xj,n,Xk,jx, y) y FXj,n,Xk,ju, v) = F(u, v), entonces

ó.= lim F(x+h,y+t)-F(x,y+t)-F(x+h,y)+F(x,y)


h-+O,t~O ht
.
l1m
P [x ::; XJ.n
.
<X + h, Y ::;Xk.n. ::;y + t]
h-O,t-+O ht

La probabilidad del evento A(h, t) = {x ~ Xj,n ~ x+h, y ~ Xk n s: _


igualmente se calcula por medio de la distribución multinomial
54 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Este evento está descrito como

A(h, t) :"(j - 1) observaciones pertenecen al intervalo h, una


observación pertenece al intervalo h, una observación
pertenece al intervalo 14, (n - k) de las observaciones
pertenecen al intervalo h y las restantes (k - j - 1)
pertenecen al intervalo h ".

Para el cálculo de la probabilidad del evento A(h, t) es menester disponer


de la relación de probabilidades de pertenencia de una unidad al intervalo
correspondiente presentada en la tabla 1.1.

I Intervalo I Probabilidad
I ( -00, x] = h I FX (x) = Pl I
I (x, x + h] = h I Fx(x + h) - Fx(x) = P2 I
I (x + h, y] = h I Fx(y) - Fx(x + h) = P3 I
I (y,y+t]=14 I Fx(y+t)-Fx(y)=P41
I (y+t,oo)=hl 1-Fx(y+t)=P5 I
Tabla 1.1:

Luego

P[A(h )] _ n! (j-l) (k-j-l) (n-k)


,t - (j _ l)!l!(k _ j _ l)!l!(n _ k)!Pl P2P3 P4Ps

Si Cn,j,dFx(x)]i-l = B(x), Fx(v) = F(v), entonces D(h, t) es

[F(x+h) - F(x)][F(y) - F(x+ h)]k-j-l[F(y+t) - F(y)][l- F(y+tJ:

luego
lim A(h, t) = B(x) lim D(h, t)
h~O,t~O ht h~O,t~O ht
donde lim Df:t,t) corresponde a
h~O,t--+O

lim [F(X + h) - F(X)] [F(y)-F(x+h)]k-j-l [F(Y + t) - F(Y)] [l-F


h_O,t~O h t
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 55

Esto es:

lim D~, t) = [fx(x)][Fx(y) - Fx(x)]k-j-I[!X(y)J[l - FX(y)¡n-k


h-;.O,t->O t

es decir, !Xj,n,xk,n (x, y) es

Cn,j,k[Fx(x )Ji-l [Fx(y) - Fx (x)]k-j-l [1- FX(y)¡n-k !x(y)!x(x )1(x,OCJ)(y)

para 1 ::; j < k ::; n, con Cn,j,k = n!j[(j - l)!(k - j - l)!(n - k)!].
La última parte es la generalización de los casos anteriores.
Igualmente, con el apoyo de la distribución multinomial y teniendo en
cuenta que la función conjunta de densidad fXl,n,X2,n, ...,Xn.n (Yl, Y2,· .. , Yn)
es

fácilmente se deduce que


n

fX1,n,X2,n, ...,Xn,n (YI, Y2,·· . ,Yn) = n! IIfX(Yi) para YI < Y2 < ... < Yn'
i=l

o
Teorema 1.5.6. Sea Xl, X2, ... , Xn, una muestra aleatoria de una po-
blación con función de distribución Fx(x) continua. Para p fijo, si xp
denota al único percentil100p poblacional, entonces
k-l
P[Xj,n < xp < Xk,nJ = L (7)pl(1- p)n-l.
I=J

Demostración. Al igual que en una demostración anterior, se construye


la variable aleatoria dicotómica Zi = 1(-oo,xp] (Xi), i = 1,2, ... , n. Como
Z¡ es una variable tal que Zi rv Ber(Fx(xp)), considerando los eventos

ellos son tales que P[A U B] = 1, por tanto

. P [Xj,n ::;xp ::; Xk,n] = P[A n Bl = prAl + P[Bl - 1 = prAl - P[B1


56 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

luego

Como el evento A (similarmente el evento B) puede transcribirse como


A : "j o más observaciones son menores o iguales a xp ", entonces

por tanto,

y como j < k,
k-l
P [Xjn < xp :s; Xk,nl = L (7)pl(1- »v:'. o
l=J

Teorema 1.5.7. Siendo Xl, X2, ... , Xn una muestra aleatoria de una
población con función de distribución Fx(x), entonces

para un valor x dado.

Demostración. La función de distribución empírica puede ser reconocida


como:
n
¿Zi
Fn(x) = i=l = Zn
n
siendo Zi = I(-oo,xj(Xi), tal como se había convenido en la sección refe-
rente a la distribución de Fn(x).
Desde este punto de vista, al entenderse que Zl, Z2, ... , Z¿ es una mues-
tra aleatoria de una población con distribución de Bernoulli de paráme-
tro Fx(x), entonces el teorema de Khintchine garantiza que
- p p
Zn ~ Fx(x), es decir que Fn(x) ~ Fx(x). []
L8. EJERCICIOS 57

Teorema 1.5.8
La demostración puede consultarse en el texto Probability and Statisti-
cal Inference (Robert Bartoszynski y Magdalena Niewiadomska-Bugaj
(1996) pp. 726 a 729).

Teorema 1.5.9. Siendo Xl, X2,'" ,Xn una muestra aleatorio de una
población con jumciáti de distribución Fx (x), la sucesión de variables
aleatorias
vn[Fn(x) - Fx(x)] }
{ JFx(x)[l - Fx(x)]
converge en distribución a una variable aleatoria con distribución Nor-
mal estándar.

Demostración. En los términos de la demostración del teorema 1.5.7 Y


teniendo en cuenta que

E[Fn(x)] = Fx(x) Y
V[Fn(x)] = Fx(x)[l - Fx(x)]
ri
son finitos, entonces, a la luz del teorema del límite central (Lindeberg-
Lévy) , la sucesión {Zn}, con
Zn = Fn(x) - Fx(x) = y'n[Fn((x) - Fx(x)]
ylFx(1-Fx(x» JFx(1- Fx(x))
Vn
converge en distribución a una variable aleatoria con distribución Normal
estándar. O

1.8 Ejercicios
1. Demuestre que si la sucesión {Xn} converge en media cuadrática
también converge en probabilidad.

2. Demuestre que el promedio basado en una muestra de tamaño n


de una población con valor esperado f-.L y varianza (72, converge en
media cuadrática a u:

3. Si la-svariables aleatorias Xl, X2, ... ,Xn constituyen una muestra


aleatoria de una población con función de densidad,

fx(x) = 2x I(O,I) (x)


determine la distribución muestral del mínimo de la muestra.
58 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

4. Continúe realizando la demostración del teorema 1.4.3.

5. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una muestra


aleatoria de una población con distribución Exponencial de pa-
rámetro e, determine la distribución muestra! del promedio de la
muestra.

6. Si las variables aleatorias Xl, X2,' .. ,Xn constituyen una muestra


aleatoria de una población con distribución Exponencial de pa-
rámetro e, determine la distribución muestral del mínimo de la
muestra.

7. Si las variables aleatorias Xl, X2,"" Xn constituyen una muestra


aleatoria de una población con distribución Uniforme en el inter-
valo (0,1), determine la distribución muestra! del recorrido de la
muestra.

8. Un dispositivo electrónico opera con base en el funcionamiento de


n componentes conectados en serie que funcionan de manera in-
dependiente. Si el tiempo al fallar de cualquier componente se
modela como una variable aleatoria con distribución Exponencial
de parámetro e,
determine el valor esperado y la varianza del tiem-
po de funcionamiento del dispositivo.

9. Una muestra de 36 botellas corresponde a la línea antigua de llena-


do A, que estando el proceso bajo control estadístico el contenido
de una de ellas en ml se modela como una variable aleatoria con
distribución Normal de valor esperado f.L y desviación estándar 12.
Se considera otra muestra de 49 botellas de la nueva línea de llena-
do B, que de manera similar, estando el proceso bajo control es-
tadístico el contenido de una de ellas se modela como una variable
aleatoria con distribución Normal de valor esperado f.L y desviación
estándar 4. Determine la probabilidad de que los promedios mues-
trales difieran a lo sumo en 3 ml.

10. En el laboratorio de control de calidad de una compañía que pro-


duce elementos para cierto tipo de retroproyector, se encienden
simultáneamente n bombillas. Utilizando el modelo Exponencial
para describir el tiempo de vida de la bombilla, determine el valor
esperado del tiempo de vida'de la tercera bombilla en fallar.
1.8. EJERCICIOS 59

11. El examen de admisión de la Universidad Nacional de Colombia


tiene un tiempo límite de dos horas y media y dentro de sus normas
se establece que ningún aspirante puede retirarse del aula antes de
haber transcurrido una hora de examen. Podría pensarse que el
modelo para simbolizar el tiempo de permanencia del aspirante
en el aula sería el modelo Exponencial doblemente truncado. Sin
embargo, una buena elección la constituye el modelo Exponencial
desplazado. Teniendo en cuenta que el tiempo medio de perma-
nencia es de dos horas, ¿cuál es la probabilidad de que el docente
que vigila el examen, en un aula con 25 aspirantes, no tenga que
pronunciar la frase: "Por favor suspendan porque el tiempo de
examen ha concluido"?
La función de densidad de una variable aleatoria X con distribu-
ción Exponencial desplazada con parámetro e e
= (el, 2)', el E ]R,
e2 > O, es

12. Con base en el ejercicio 11, ¿cuál es el tiempo medio de permanen-


cia en el aula del aspirante que se retira en primer lugar?

13. Según el ejercicio 11, ¿cómo cambia la respuesta al mismo y cómo


cambia la respuesta al ejercicio 12, si se adopta el modelo de Pare-
to?
La función de densidad de una variable aleatoria X con distribu-
ción de Pareto con parámetro e = (el, e2)', el > 0,82 > O, es

14. Si las variables aleatorias Xl, X2,' .. , Xn constituyen una muestra


aleatoria de una población con función de distribución absoluta-
mente continua, ¿cuál es la probabilidad de que el máximo de la
muestra exceda a la mediana poblacional?

15. Si las variables aleatorias XI, X2, ... .X¿ tienen la misma varianza
y si la correlación entre cualquier par de variables diferentes tiene
el mismo valor, demuestre que esa correlación tiene como cota
inferior a -l/en - 1).
60 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

16. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una muestra' "__ .::t
aleatoria de una población con distribución de Bernoulli de pa-
rámetro
n
e, determine la probabilidad de que Xl = 1, dado que
¿:Xi=j,j=1,2, ... ,n.
i=l

17. Si las variables aleatorias Xl, X2, ... , Xn constituyen una muestra
aleatoria de una población con distribución de Poisson con pa- -
rámetro e, demuestre que para cualquier entero positivo k, con
k :S n, la distribución condicional de Xl, X2, ... ,Xn, dado que
n
¿: X, = k, corresponde a una distribución multinomial.
i=l

18. Un procedimiento de control estadístico de calidad establece para


cierto proceso de fabricación, la selección de manera aleatoria y
sin remplazo de cinco amortiguadores de un lote de inspección que
contiene seis de clase A y ocho de clase B, para ser examinados en
el laboratorio. Si X 5 es la proporción muestral de amortiguadores
de clase A, determine el valor esperado y la varianza de di
estadística.

19. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una mues
aleatoria de una población con distribución Binomial negativa
parámetros k y Ti, determine la distribución muestral corr
n
diente a la estadística Tn = ¿: Xi'
i=l

20. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una
tra aleatoria de una población con valor esperado f.L y varianza
determine el tamaño mínimo de la muestra para el cual la pr
bilidad de que el valor esperado y el promedio de la mu
difieran en más de 0.1 sea superior a 0.95.

21. Con base en el ejercicio 20, ¿cuál debe ser el tamaño de la mu


si la varianza fuese el doble?

22. La fracción de baldosas de cerámica con imperfectos produesdss


por una compañía es del 0.8% cuando 11
proceso está bajo
estadístico. Determine el tamaño de rrrestra mínimo para
la probabilidad de que la fracción con imperfectos - la Pnll_XktXC
de baldosas con imperfectos en la muestra no difieran
1% sea superior a 0.95.
1.8. EJERCICIOS 61

23. Una norma particular de metrología determina que deben realizarse


36 mediciones de la emisión de ondas de un horno de microondas.
El equipo debe estar calibrado de tal forma que la variabilidad en
cada medición, cuantificada por medio de la desviación estándar,
es de (J" unidades. Utilice la desigualdad de Chevyshev y el teorema
del límite central en forma comparativa, para establecer el valor
mínimo de la probabilidad de que el promedio de las mediciones di-
fiera a lo sumo del verdadero valor promedio en ~ unidades. ¿Cuál
es la razón de la diferencia de los resultados?

24. Según el ejercicio 23, también utilizando en forma comparativa


la desigualdad de Chevyshev y el teorema del límite central, de-
termine cuál debe ser el número de mediciones para que el valor
mínimo de la probabilidad de que el promedio de las mediciones
difiera a lo sumo del verdadero valor promedio en ~ unidades sea
de 0.95. ¿Cuál es la razón de la diferencia de los resultados?

25. Un procedimiento de control estadístico de calidad ha establecido


para la inspección del proceso de elaboración de láminas de madera
aglomerada, un tamaño de muestra de 125 láminas. Si además se
ha reconocido que el modelo de Poisson de parámetro 3 es un buen
modelo para describir el número de defectos por lámina, determine
la probabilidad de que el promedio de defectos por lámina en la
muestra sea menor de 2.

26. Siendo dos minutos y cuarenta y cinco segundos el tiempo medio


de transacción en un cajero electrónico y que el modelo Exponen-
cial es un modelo admisible para representar el tiempo que utiliza
un cliente en la transacción, determine la probabilidad de que se
requieran más de 55 minutos para atender una cola de 16 clientes,
pues la persona que ocupa el puesto 16 debe decidir si espera o
no, en razón de que cuenta únicamente con los citados 55 minutos
para realizar la diligencia.

27. Si las variables aleatorias Xl, X2, ... .X¿ constituyen W1amuestra
aleatoria de una población con distribución de Bernoulli de pará-
metro e, ¿cuál es la distribución conjunta de Xl, X2, ... .X¿ y cuál
n
es la distribución de la estadística ¿ Xi?
i=l

28. En el período preelectoral de la elección presidencial del 2 en

-
62 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES

Colombia, los estimativos del favoritismo del candidato en defini-


tiva elegido estuvieron persistentemente cerca del 52%. ¿Con cuál
tamaño de muestra se hubiese podido predecir que no habría segun-
da vuelta, suponiendo como cierta la información que se disponía
en ese momento y adoptando una probabilidad del 95%?

29. El tercer momento central es un elemento ligado a la descripción


de la simetría de la función de densidad de una variable aleatoria.
¿Qué puede afirmarse de la simetría de la función de densidad del
promedio de una muestra de una población con distribución de
Bernoulli de parámetro e,
cuando el tamaño de la muestra crece?",

30. Determine el valor esperado y la varianza de la desviación estándar


de una muestra aleatoria de una población con distribución normal
de valor esperado J1. y varianza (72.

31. Si las variables aleatorias XL X2, ... .X¿ constituyen una muestra
aleatoria de una población con función de densidad

1
fx(x) = '/{l,2, ...,k}(x),
determine el valor esperado del semirrango de la muestra.

32. Si las variables aleatorias Xl. X2, .... Xn constituyen una muestra
aleatoria de una población con valor esperado J1. y varianza finitos,
muestre que las estadísticas
2 n
• ¿iXi
n(n + 1) i=l
6 n
• ¿i2X
n(n + 1)(2n + 1) i=l z

convergen en probabilidad a J1..

33. Si las variables Xl X2, ... constituyen una sucesión de variables


aleatorias, tales que P[Xi = iJ = P[Xi = -iJ = ~, entonces
n X.
E [XiJ = J1. = O, i = 1,2, ... , demuestre que ¿ no converge _Z

i=l n
en probabilidad a J1. = O.
6Un coeficiente de simetría de la función de densidad de una variable aleatoria X,
con momento central f-t3 y varianza (72, está definido como 0<3 = f-t3 / (73.
i.s. EJERCICIOS 63

&t i las variables aleatorias Xl, X2, .. " Xn constituyen una muestra
aleatoria de una población con distribución Uniforme en el inter-
valo (0,8), demuestre que el máximo de la muestra converge en
probabilidad a 8.

35. Si las variables aleatorias Xl, X2, ... , X¿ constituyen una pobla-
ción con mediana 8, demuestre que la mediana de la muestra con-
verge en probabilidad a 8.

36. Si las variables aleatorias Xl, X2," ., X¿ constituyen una muestra


aleatoria de una población con distribución Uniforme en el inter-
valo (0,1), determine el valor al cual la media geométrica de la
muestra Gn converge en probabilidad

37. Si las variables aleatorias XI, X2," . ,Xn constituyen una muestra
aleatoria de una población con distribución Exponencial con pa-
rámetro 8, demuestre que la variable aleatoria

Qn = Vii (8Xn - 1) ~ Z rv N(O, 1).

38. La cantidad de café molido que se empaca en bolsas de 500 g me-


diante un proceso que, bajo control estadístico, puede modelarse
como una variable aleatoria con valor esperado 500 y desviación
estándar 10. Con base en una muestra de 100 bolsas, determine
la probabilidad de que el promedio de la muestra esté entre 495 g
y 504 g.

39. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una muestra
aleatoria de una población con distribución de Bernoulli de pará-
metro 8, demuestre que la estadística

converge en distribución a una variable aleatoria con distribución


Normal estándar.
64 CAPÍTULO l. DISTRIBUCIONES MUESTRALES

40. Si las variables aleatorias Xl, X2, .. ·, X¿ constituyen una muestra


aleatoria de una población con distribución de Poisson de paráme-
tro O, demuestre que

41. Si las variables aleatorias Xl, X2, ... .X¿ constituyen una muestra
aleatoria de una población con función de densidad

fx(x) = xexp( -x) I(o,oo) (x),

determine el valor de la constante d, tal que P [Xn > d] = 0.95.

42. Si las variables aleatorias Xl, X2, .•• , Xn constituyen una muestra
aleatoria de una población con función de densidad

determine el tamaño de la muestra tal que P [t x, > ~n]


z=l
:S 0.05.

43. Si Xl, X2, ... ,Xn es una muestra aleatoria de una población con
distribución Uniforme en el intervalo (O,O), determine la función
de distribución de la variable aleatoria Wn = n(O - Xn,n). ¿Cómo
se distribuye la variable aleatoria a la cual la sucesión de variables
aleatorias WI, W2, ... , Wn, ... converge en distribución?

You might also like