You are on page 1of 229

Teora de probabilidades

y estadstica matemtica

Gert Maibaum

www.FreeLibros.com
Teora de probabilidades
y estadstica matemtica

www.FreeLibros.com
Teora de probabilidades
y estadstica matemtica

GertMaibaum

EDITORIAL
PUEBLO Y EDUCACIN

www.FreeLibros.com
Tom ada de la edicin en alem n de la editorial D eutscher Verlag der W issenschaften, B erln,
1976.

Traduccin: Lic. Marta Alvarez Prez

E dicin: Prof. Martha Entralgo Flrez


Ilustracin: Martha Tresancos Espn

r im e n reim presin, 1 9 8 8

La p resente edicin se realiza e n virtud d e la Ucencia N o . 15 d el 12 de diciem bre de 1 9 8 7 ,


otorgada por el C entro N acional de Derecho de A u tor, de conform idad co n lo dispuesto en el
A rtculo 37 de la L ey N o . 14 de D erecho de A u tor de 2 8 de diciem bre de 1977

SN L C :R A 0 1 .1 3 5 6 0 .0

www.FreeLibros.com
N o ta a la edicin en espaol

La presente obra es una traduccin del libro Wahrscheinlichkeitstheorie und mathematische


Statistik de Gert Maibaum, que forma parte de la serie Mathematik fiir Lehrer (abreviada
mente MfL), cuyo objetivo principal consiste en brindar una bibliografa adecuada a los es
tudiantes que se forman como profesores de Matemtica en la Repblica Democrtica Ale
mana.

Este libro, publicado en 1976, expone de forma rigurosamente exacta y desde posiciones
acordes con nuestra concepcin cientfica del mundo, los conceptos y mtodcs fundamen
tales de la teoria de probabilidades y la estadstica matemtica. Por esta razn, y porque
responde a las exigencias en cuanto a la formacin en la disciplina Probabilidades y E s
tadstica que deben tener los estudiantes de la Licenciatura en Educacin, especialidad
Matemtica, se ha decidido la publicacin de esta obra en nuestro pas para que sirva de
texto bsico, lo cual no excluye su utilizacin por otro circulo de lectores.

Esperamos que esta obra sea acogida favorablemente y que constituya un til instru
mento en manos de nuestros estudiantes.

d ir e c c i n d e Fo r m a c i n y Pe r f e c c io n a m ie n t o d e Pe r s o n a l P e d a g g ic o

www.FreeLibros.com
P refacio

El presente tomo 11 de la Coleccin de textos de estudio M athematik f ir Lehrer ofrece


una introduccin a la teora de probabilidades y la estadstica matemtica, disciplinas que
poseen una gran significacin para las ms diversas esferas de aplicacin e investigacin
cientfica, razn por la cual han entrado a formar parte de la formacin matemtica en
la escuela media superior ampliada.
Este libro, en correspondencia con el objetivo general de la serie, est destinado, prin
cipalmente, a servir de texto bsico en la formacin de profesores de Matemtica, pero
adems, debe ser apropiado para los'estudiantes de otras especialidades que durante su
estudio establezcan contacto con el Clculo de probabilidades y la Estadstica, o con ra
mas que empleen sus mtodos y procedimientos. Por ltimo, este texto debe brindarle a
los profesores en ejercicio un acceso seguro y racional a la Teora de probabilidades y a
la Estadstica matemtica, asi como un medio de consulta til para la preparacin y rea-
lizacin de cursos y circuios de inters sobre esta temtica.------------------------------------------
En esta obra se utilizan siete, de un total de 13 captulos, para exponer la Teora de
probabilidades; los primeros tres captulos abarcan el Clculo de probabilidades, mientras
que los captulos 4 hasta el 7 se dedican al tratamiento de variables aleatorias y alcanzan
su punto culminante con la formulacin de proposiciones acerca de la Ley de los Grandes
Nmeros y del Teorema integral de De Moivre-Laplace. A continuacin del captulo 8 so
bre Estadstica descriptiva, se da respuesta a las principales interrogantes de la Estads
tica matemtica en los captulos 9 hasta el 11, donde las estimaciones puntuales y por in
tervalo de confianza, as como las pruebas de significacin constituyen los puntos clave.
El captulo 12 contiene algunas tablas; por una parte se debe dar con esto una visin nu
mrica de algunas distribuciones de probabilidad y, por otra, se agrupan aqu para la re-
alizacin prctica de estimaciones por intervalo de confianza y pruebas de significacin,
percentiles frecuentemente utilizados en las distribuciones de probabilidad de los estad
grafos correspondientes. Con el capitulo 13 se da un pequeo bosquejo de la historia del
Clculo de Probabilidades. Por ltimo, hay que sealar la bibliografa al final del libro,
pues aqu se encuentran tambin algunos consejos que deben servir para la eleccin de li
teratura adecuada (por ejemplo, para la aplicacin de mtodos estadsticos en la investi
gacin pedaggica o para la realizacin de cursos y crculos de inters sobre el Clculo
de probabilidades).

www.FreeLibros.com
n d ice

0. I n tr o d u c c i n ............................................................................................................................................ 11

1 .----------- S u c e s o s a le a t o r io s ................................................................................. ............................................. ........... _


1.1 Experimentos aleatorios .......................................................................................................................... 13
1.2 Sucesos aleatorios ..................................................................................................................................... 14
1.3 O peraciones entre sucesos aleatorios ............................................................................................. 17
1.3.1 Suma de sucesos ........................................................................................................................................ 18
1.3.2 Producto de sucesos ................................................................................................................................. 19
1.3.3 Suceso contrario o com plem entario ................................................................................................. 20
1.3.4 D iferencia de sucesos ............................................................................................................................. 21
1.3.5 D iferencia simtrica de sucesos ......................................................................................................... 22
1.4 lgebras de sucesos ................................................................................................................................. 22
1.5 lgebras de sucesos y lgebras de conjuntos ............................................................................... 24

2. P r o b a b ilid a d ............................................................................................................................................ 26
2.1 Frecuencia relativa .................................................................................................................................. 27
2.2 D efinicin clsica de probabilidad ................................................................................................... 29
2.3 Definicii. geomtrica de probabilidad ........................................................................................... 32
2.4 D efinicin axiomtica de probabilidad ........................................................................................... 35
2.5 Leyes de clculo para probabilidades ............................................................................................. 37

3. P r o b a b ilid a d c o n d ic io n a d a ......................................................................................................... 40
3.1 Definicin de probabilidad condicionada ...................................................................................... 41
3.2 Teorema de la m ultiplicacin para probabilidades .................................................................. 43
3.3 Independencia de sucesos aleatorios ................................................................................................ 45
3.4 Frmula de la probabilidad total ...................................................................................................... 47
3.5 Frmula de Bayes .................................................................................................................................... 49

4. V a r ia b le s a le a t o r ia s d is c r e ta s ..................................................................................................... 51
4.1 Definicin general de variable aleatoria ....................................................................................... 51
4.2 D efinicin de variable aleatoria discreta ...................................................................................... 55
4.3 Caractersticas num ricas de las variables aleatorias discretas .......................................... 58
4.4 Distribucin discreta uniforme ..................................... ...................................................................... 63
4.5 Diftribucin binom ial .............................................................................................................................. 64
4.6 Distribucin hipergeom trica ............................................................................................................... 69
4.7 Distribucin de Poisson .......................................................................................................................... 71

5. V a r ia b le s a le a t o r ia s c o n t in u a s ...................................... ............................................................ 74
5.1 Definicin de variable aleatoria continua ......................... ............................................................ 74

www.FreeLibros.com
M e he esforzado mucho por presentar los conceptos y proposiciones fundamentales de
la Teora de probabilidades de forma matemticamente exacta, pero a la vez intuitiva.
El objetivo esencial de los captulos sobre Estadstica matemtica est en la explicacin y
fundamentacin de las principales formas de deduccin de esta disciplina. En su totali
dad, la exposicin est hecha, de modo tal, que la aplicacin prctica no debe ofrecer di
ficultad alguna. Adems, se introdujeron por esto numerosos ejemplos de las ms diversas
ramas. A causa de la extensin se tuvo que renunciar a una parte especialmente dedicada
a ejercicios, que mostrara la amplia aplicacin de la Teora de probabilidades y de la Es-
tadlstica matemtica. El lector interesado puede encontrar tambin en la bibliografa re-
ferencias al respecto.
Quisiera aprovechar la ocasin para agradecer efusivamente a mi estimado maestro,
Herr Profesor Dr. rer. nat. hbil. P.H. Miiller, quien ha revisado todo el manuscrito de
forma sumamente critica y me ha dado numerosas y valiosas indicaciones, tanto para la
concepcin y estructuracin del libro, como tambin para su redaccin definitiva. Ade
ms, es para mi un agradable deber agradecer a los editores de la serie M athem atik f&r'
Lehrer - e n particular al editor coordinador, Herr Profesor Dr. se. nat. W. E n g e l- y a
la empresa nacionalizada Deutscher Verlag der W issenschaften- especialmente a Frl.
Dipl.-Math. E. Arndt y a la redactora de este libro, Frau Dipl. -M a th . K. B r a tz - por
la grata cooperacin, ayuda y competente asesoramiento. A continuacin quisiera agra
decer cordialmente a los cajistas de la empresa nacionalizada Druckhaus Mximo Gor-
ki en Altenburg por el cuidadoso trabajo realizado por ellos. Por ltimo, tengo que agra
decer a Frl. I. Tittel y a mi esposa; ambas me han ayudado mucho en la confeccin del
manuscrito.
Espero que el libro responda a las necesidades. Aceptar con gusto cualquier indicacin
proveniente del crculo de lectores.

Dresden, febrero de 1976


G e r t M a ib a u m

www.FreeLibros.com
5.2 Caractersticas numricas de las variables aleatorias continuas ........................................................ 77
5.3 Distribucin continua uniforme .................................................................................................... 80
5.4 Distribucin normal ........................................................................................................................... 81
5.5 Distribucin exponencial .................................................................................................................. 87
5.6 Distribucin x- t V F ........................................................................................................................ 89
5.6.1 Distribucin x, ...................................................................................................................................... W
5.6.2 Distribucin t ........................................................................................................................................ 92
5.6.3 Distribucin F ....................................................................................................................................... 93

-6. V e c t o res a le a to r io s .......................................................................................................................................... ...... .......................... .


6.1 Definicin general de vector aleatorio ....................................................................................... 95
6.2 Vectores aleatorios discretos .......................................................................................................... 97
6.3 Vectores aleatorios continuos .......................................................................................................... 102
6.4 Independencia de variables aleatorias ......................................................................................... 106
6.5 Distribucin de funciones de variables aleatorias .................................................................. 110

7. T e o r e m a s lm ite s ............................................................................................................................. 1,7


7.1 Desigualdad de Chebysher ................................................................................................................ 118
7.2 Tipos de convergencia en la Teora de probabilidades ....................................................... 120
7.3 Teoremas de Bernoulli y de Poisson (Ley de los grandes nmeros) .............................. 124
7.4 Generalizacin de la Ley de los grandes nmeros ................................................................ 126
7.5 Teorema local de De Moivre-Laplace ........................................................................................ 129
7.6 Teorema central del lmite .............................................................................................................. 132

8. E sta d stic a d e s c r ip tiv a ................................................................................................................. 136


8.1 Mtodos para el estudio de una caracterstica medible ....................................................... 136
8.2 Medidas estadsticas para el estudio de una caracterstica medible ............................... 140
8.2.1 Medidas de tendencia central ............................................ ............................................................ 140
8.2.2 Medidas de dispersin .... 141
8.3 Mtodos para el estudio de dos caractersticas medibles ................................................. 142
8.4 Medidas estadsticas para el estudio de dos caractersticas medibles ........................... 146

9. C o n c e p to s f u n d a m e n ta le s d e la E s ta d stic a m a te m tic a ...................................... 146


9.1 Tareas que se plantea la Estadstica matemtica ................................................................... 146
9.2 Poblacin y muestra ........................................................................................................................... 148
9.3 Teorema fundamental de la Estadstica matemtica .............................................................. 150
9.4 Estadgrafos ............................................................................................................................................ 153

10. In tr o d u c c i n a la T e o r a d e la e s tim a c i n ................................................................... *56


10.1 Tareas que se plantea la Teora de la estimacin ................................................................ ' 156
10.2 Estimadores puntuales (propiedades) ........................................................................................... 158
10.3 Sobre la construccin de estimadores puntuales ..................................................................... 165
10.4 Ejemplos importantes de estimadores puntuales ..................................................................... 170
10.4.1 Estimador puntual para un valor esperado desconocido ..................................................... 170
10.4.2 Estimadores puntuales para una varianza desconocida ........................................................ 171
10.4.3 Estimador puntual para una probabilidad desconocida ........................................................ 171
10.4.4 Estimador puntual para una funcin de distribucin desconocida .................................. 172
10.4.5 Estimador puntual para un coeficiente de correlacin desconocido ............................... 172
10.5 Estimaciones por intervalo de confianza .................................................................................... 173
10.6 Ejemplos importantes de estimaciones por intervalo de confianza .................................. 177
10.6.1 Intervalos de confianza para los parmetros de una distribucin normal ................... 178
10.6.2 Intervalo de confianza para una probabilidad desconocida .............................................. 180
10.6.3 Intervalo de confianza para una funcin de distribucin desconocida .......................... 181

11. I n tr o d u c c i n a la teo r a d e la d o c in u is ia d e h ip te s is ......................................... 183


11.1 Tareas que se plantea la teora de la docimasia de hiptesis ........................................... 183
11.2 Conceptos fundamentales de la teora de la docimasia de hiptesis .............................. 185
11.3 Procedimiento general para realizar una dcima de significacin .................................. 189
11.4 Ejemplos importantes de dcimas paramtricas ...................................................................... 193
11.4.1 Dcima simple ................................................................................................................................... 195

www.FreeLibros.com
11.4.2 D cim a / doble ............................................................................................. ................................................ 195
11.4.3 D cim a ....... ............................................................................................ '................................................ 1%
11.4.4 Dcim a F ......................................................................................................................................................... 197
11.4.5 Dcim a para una probabilidad desconocida ................................................................................. 197
11.5 Ejemplos im portantes de dcim as no param tricas ..................................................................... 198
11.5.1 D cim a de ajuste X ................................................................................................................................... 199
1 1.5.2 D cim a de K olm ogorov ............................................................................................................................ 200
11.5.3 D cim a de hom ogeneidad x ................................................................................................................. 201
11.5.4 D cim a para dos distribuciones ........................................................................................................... 201
11.5.5 D cim a de independencia x ................................................................................................................. 202
11.6 Ejemplo de aplicacin ............................................................................................................................... 203

12. Tablas de algunas distribuciones importantes ....................................................... 205


12.1 Tabla de la distribucin binom ial ..................................................................................................... 205
12.2 Tabla de la distribucin de Poisson .................................................................................................. 207
12.3 Tabla de la distribucin norm al ......................................................................................................... 211
12.4 Tabla de la distribucin x, .................................................................................................................... 214
12.5 Tabla de la distribucin i ....................................................................................................................... 216
12.6 Tabla de la distribucin F ..................................................................................................................... 217

13. Breve bosquejo de la historia del clculo de probabilidades ......................... 222


Bibliografa ................................................................................................ .............................................. 226

www.FreeLibros.com
0. In trod u ccin

La Teoria de probabilidades y la Estadstica matemtica, son disciplinas matemticas re


lativamente jvenes por si mismas, donde la Teoria de probabilidades, como teoria inde
pendiente que incluye a su vez numerosas disciplinas especiales y campos de aplica
ci n y como fundamento de la Estadstica matemtica, posee una significacin particu
lar.
La Teoria de Probabilidades proporciona modelos matemticos para la descripcin de
fenmenos sujetos a influjos casuales, y tiene como objetivo esencial la comprensin ma
temtica de las regularidades de los fenmenos aleatorios.
La Teoria de probabilidades se construye de forma axiomtica, de acuerdo con un pro
cedimiento probado y muy utilizado hoy en dia, y se sirve en gran medida de los mtodos
y resultados del Anlisis.

La Estadstica matem tica proporciona, sobre la base de la Teoria de probabilidades,


mtodos mediante los cuales se puede obtener informacin sobre las distintas poblaciones
a investigar, utilizando datos mustrales aleatorios; con esto se da origen tambin a m
todos de ajuste de un modelo matemtico, que considere efectos aleatorios, al proceso real
correspondiente, sobre1la base de datos concretos. El desarrollo de dispositivos electrni
cos de alta potencia para el procesamiento de datos, exige la aplicacin de mtodos de la
Estadstica matemtica, en particular de los mtodos de anlisis estadstico (por ejemplo,
los anlisis de correlacin, regresin, varianza y anlisis factorial), en los ms diversos
dominios de la prctica.

En los ltimos decenios se desarrollaron numerosas disciplinas que se ocupan con in


terrogantes especiales de la Teoria de probabilidades y de la aplicacin de mtodos te-
rico-probabilisticos y estadsticos en distintas ciencias naturales y sociales (entre otras, en
la pedagoga y la sicologa), en la medicina, la tcnica y la economa. Podemos citar como
ejemplos, las teoras de la confiabilidad, la reposicin, los juegos, la decisin, la informa
cin, la teoria ergdica, el diseo de experimentos, la biometria, la teoria del control es
tadstico de la calidad y la de la simulacin por el mtodo de Monte Cario. Adems, los
mtodos terico-probabilsticos se utilizan de forma creciente y exitosamente en la ciencia
militar, en el marco de la investigacin de operaciones, de la toma de decisiones en los
procesos econmicos y en la ciberntica.

www.FreeLibros.com
11
La T eoria de probabilidades y la Estadstica m atem tica, incluyendo sus disciplinas es
peciales y sus dom inios de aplicacin (todas las ramas del saber que se ocupan en lo esen
cial del tratam iento m atem tico de fenm enos aleatorios) son conocidas en los ltimos
tiempos con el nombre de estocsticas (o r lo s: el objetivo, la suposicin; griego).

Junto a los fines de aplicacin de la T eoria de probabilidades (por ejemplo, en la inves


tigacin de la confiabilidad de sistemas sobre la base de la de sus componentes individua
les, en la determ inacin de las dim ensiones de equipos de servicio o en la realizacin de
controles de calidad en el marco de producciones m asivas), se debe destacar tambin la
significacin de esta disciplina para el dominio de las ciencias naturales. Con las forma
ciones de conceptos y m todos de la T eora de probabilidades es posible describir mate
mticamente numerosos fenm enos (por ejemplo, los problemas que se relacionan con el
movim iento de las partculas elementales, las leyes de M endel en la biologa, las leyes de
los gases en la qum ica y la fsica) de una forma an ms ajustada a la realidad objetiva,
interpretar los resultados existentes de un modo nuevo y mucho ms concluyente y, ade
ms, obtener proposiciones nuevas de gran valor cognoscitivo.

La aplicacin prctica de la Teoria de probabilidades y de la Estadstica matemtica


se basa en el convencim iento de que el grado de indeterminacin def la ocurrencia de su
cesos aleatorios se puede determinar, en cada caso, de forma objetiva, mediante un n
mero: la probabilidad. Para ello se parte, en correspondencia con la realidad objetiva, de
que a los fenm enos dependientes de la casualidad, as com o a los procesos que trans
curren de forma determinista, les son inherentes ciertas regularidades y de que la casua
lidad no significa ausencia total de reglas o caos. En este contexto se debe destacar que
el concepto matem tico probabilidad, que define en forma objetiva y cuantitativa la pro-
babilidao de un suceso aleatorio, se diferencia del concepto de lo probable, utilizado en
el lenguaje comn, que tiene generalmente fuertes caracteres subjetivos y con el cual mu
chas veces solo se consideran proposiciones cualitativas. N o obstante, se demuestra que
las ideas subjetivas sobre la probabilidad de un suceso aleatorio se aproximan ms y ms
a las relaciones objetivas que constituyen la esencia del concepto matem tico probabili-
arsenal de nuestras experiencias.

Ahora nos dedicarem os a la construccin sistemtica de la Teoria de probabilidades. Su


representacin se realiza en el m arco de siete captulos; los primeros tres captulos abar
can la materia que se designa usualmente tambin como Clculo d e probabilidades.

www.FreeLibros.com
12
1. S ucesos aleatorios

En este captulo nos ocuparemos de los sucesos aleatorios, que son aquellos que pueden
presentarse bajo determinadas condiciones, pero no de forma obligatoria; nosotros los
concebiremos como resultados de experimentos aleatorios, que son los que tienen un de
senlace incierto en el marco de distintas posibilidades. Junto a la explicacin detallada de
estos y otros conceptos, trataremos en este captulo las operaciones entre surcsos aleato
rios. Por ltimo, llegaremos a conocer el concepto lgebra de sucesos, de gran importancia
para la construccin axiomtica de la Teora de probabilidades. Analizaremos tambin la
relacin entre lgebras de sucesos, lgebras de Boole y lgebras de conjuntos.

1.1 Experimentos aleatorios


Entendemos por experimento aleatorio aquel cuyo resultado es incierto en el marco de dis
tintas posibilidades y se puede repetir un nmero de veces arbitrario (al menos mental
mente), manteniendo las mismas condiciones exteriores que caracterizan a dicho experi
mento.

Ejemplos
1. El lanzamiento de una moneda es un experimento aleatorio. Los posibles resultados
de este experimento estn caracterizados por "estrella arriba y "escudo arriba
2. La tirada nica de un dado despus de agitarlo en un cubilete es un experimento
aleatorio. Los posibles resultados de este experimento estn caracterizados por el nmero
que aparece en la cara superior del dado.
3. Las tiradas de un dado despus de agitarlo en un cubilete pueden considerarse como
un experimento aleatorio. Si solo nos interesamos porque aparezca el nmero seis, este ex
perimento tiene n + 1 resultados. (Las veces que aparezca el nmero seis es una llamada
variable aleatoria discreta que puede aceptar los n + 1 valores 0, 1. 2, .... n.)
4. La extraccin al azar de una muestra de n objetos de una poblacin (por ejemplo,
la produccin diaria de una fbrica) de N objetos, que contiene un nmero M de defec

13

www.FreeLibros.com
tuosos, puede entenderse com o un experimento aleatorio. Aqui se realiza una extraccin
(sin reposicin) de la muestra y cada uno de los N objetos en total tiene la misma opor
tunidad de ser sacado. Si solo nos interesam os por el nmero de objetos defectuosos en
la muestra, este experimento tiene n + 1 desenlaces, en el caso que se cumpla Ai > rt. (El
nmero de objetos defectuosos es tambin una variable aleatoria discreta, cuya distribu
cin de probabilidad desem pea una importante funcin en el control estadstico de la ca
lidad.)
5. Toda m edicin (por ejemplo, de una longitud, un ngulo, un tiempo, una magnitud
fsica), puede concebirse com o un experimento aleatorio. D e una parte, las mediciones
realizadas en un mismo objeto son, por lo general, diferentes a causa de las insuficiencias
del observador para llevarlas a cabo con precisin una y otra vez. Por otra parte, las me
diciones realizadas en varios objetos iguales conducen tambin a resultados distintos,
como consecuencia de las diferencias existentes entre estos.

Por tanto, en un experimento aleatorio existen influencias que no son consideradas en


su descripcin, es decir, en la enum eracin de las condiciones que lo caracterizan y que
conducen a que el resultado de este sea incierto en el m arco de distintas posibilidades.
En la explicacin anterior hemos tambin destacado, que los experimentos aleatorios
pueden repetirse - a l m enos m en ta lm en te- un nmero de veces arbitrario. Esta condi-
cin permite el estudio de aquellas regularidades, que solo pueden reconocerse mediante
un nmero elevado de repeticiones del experimento aleatorio correspondiente. (Expresa
mos tambin esta particularidad diciendo que los fenm enos en que se investigan tales re
gularidades son m asivos.) El estudio de las regularidades que se presentan en los fenme
nos aleatorios es el objetivo principal de la Teoria de probabilidades.

1.2 Sucesos aleatorios


Designaremos por suceso aleatorio un resultado de un experimento aleatorio. Por consi
guiente, este puede presentarse bajo las condiciones que caracterizan al experimento
aleatorio y puede no presentarse.
Describim os frecuentemente un suceso aleatorio m ediante la ilustracin de la situacin
en que se presenta. Por lo general designamos los sucesos aleatorios con letras maysculas
latinas, que en algunos casos pueden estar provistas de ndices.

E j e m p lo s . N os remitiremos a los ejemplos de 1.1:

1. A ...E l escudo aparece arriba.


2. ... El nmero obtenido al tirar el dado es igual a k ( k = l ......... 6).
B ... El nmero obtenido al tirar el dado es par.
3. Av ... Las veces que aparece el nmero seis al realizar ntiradas del dado es igual
k (k = 0 , 1, 2 .......... n).
4. A t ... El nmero de los objetos defectuosos en la muestra aleatoria es igual a k ( k - 0,
1, 2............n).
5. A ... La magnitud que se mide est entre los lm ites de tolerancia.

En las consideraciones sobre sucesos aleatorios queremos referirnos a aquellos que pue
den concebirse com o casos especiales de sucesos aleatorios: sucesos seguros y sucesos im
posibles.

www.FreeLibros.com
14
Los sucesos seguros son los que se presentan obligatoriamente bajo las condiciones que
caracterizan al experimento aleatorio considerado; los sucesos imposibles son los que no
se pueden presentar nunca.
Designaremos, de forma nica, los sucesos seguros con 2 (se lee: omega mayscula) y
los sucesos imposibles, con 0 (con el smbolo del conjunto vacio).

E je m p lo . El experimento aleatorio consiste en la tirada nica de dos dados despus de


agitarlos en un cubilete. Un suceso seguro es, por ejemplo, que la suma de los nmeros
obtenidos sea menor o igual que 12: un suceso imposible es, digamos, que la suma de los
nmeros obtenidos sea menor que 2.

A menudo se pueden ilustrar los sucesos aleatorios por medio de subcor\juntos sobre la
recta numrica o en el plano.

Ejemplos
1. El experimento aleatorio consiste en rotar un disco al cual se ha lijado un indicador.
Los infinitos resultados imaginables de este experimento son las posiciones que puede te
ner el indicador cuando el disco permanece quieto. Cada una de estas posiciones puede
caracterizarse mediante la amplitud del ngulo <p formado entre el eje positivo de las x
y el indicador (fig. 1).

l n <p
Figura 1

De esta forma, todo suceso A relacionado con este experimento aleatorio puede descri
birse por medio del conjunto A de aquellas amplitudes de ngulos q> que son convenien
tes para el suceso considerado, y decimos esto en el sentido de que el suceso A se pre
senta si y solo si la posicin del indicador cuando el disco no se mueve se describe por
una de las amplitudes de ngulos del conjunto A. Si, por ejemplo, el suceso A consiste en
que el indicador permanezca quieto en el tercer cuadrante, le asociamos a este suceso el
3n
intervalo de n a sobre el eje <p, o sea, el conjunto
2

4 = j<(>: <p^ (ver fig. 1).

2. El experimento aleatorio consiste en tirar sobre un disco con diez c ircunferencias


concntricas de radios r ,> r ,> .. . > r 10> 0 (fig. 2).
Todo suceso A. relacionado con este experimento, puede describirse mediante el conjun
to A de todos los puntos "convenientes" en el plano x, y para el suceso considerado, y de
cimos convenientes en el sentido de que A se presenta si y solo si el tiro acierta sobre un
punto de A. Si, por ejemplo, el suceso A es que el tiro disparado sea certero, se describe
este suceso por medio del conjunto

A = {{x ,y ): x ' + y ^ r;}.

15

www.FreeLibros.com
El conjunto

= { ( * ,y): r5< xJ+ y J4 rj}

representa al suceso B que se presenta si y solo si el tiro acierta en el anillo circular li


mitado por las circunferencias de radios r2 y r,.

Para consideraciones generales se ilustran tambin los sucesos aleatorios mediante con
juntos de puntos en el plano. Posteriormente analizaremos ms exactamente la estrecha
relacin entre los sucesos aleatorios y los conjuntos (ver l.S ).

A continuacin queremos definir una relacin entre sucesos aleatorios con la cual se
pueda despus concebir tambin la igualdad de sucesos aleatorios en forma matemtica.
Adems, nos imaginaremos siempre que los sucesos aleatorios observados pertenecen a un
determinado experimento aleatorio.

D e f in ic i n 1. Si a la ocurrencia del suceso aleatorio A est siempre unida la ocu


rrencia del suceso aleatorio B, escribimos

A ZB,

y se lee: A entraa B. A implica B o A es una parte de B (fig. 3).

16

www.FreeLibros.com
Luego utilizamos aqu un smbolo de la teora de conjuntos (ver MfL Tomo 1, 1.5); la
figura 3 debe recordarnos el comportamiento correspondiente en conjuntos. (Se puede ha
cer corresponder a un sistema de sucesos, perteneciente a un experimento aleatorio, un
sistema de subconjuntos de un conjunto universo, de forma tal que la relacin A G fl exista
para sucesos aleatorios A, y B si y solo si el conjunto asociado al suceso A es un subcon-
junto del asociado al suceso B. En particular, se hace corresponder al suceso seguro el
conjunto universo y al suceso imposible, el conjunto vaco (ver 1.5).

E je m p lo . Tirada de un dado.

A ... El nmero obtenido al tirar el dado es igual a 6 (v4 = {6}). 1


>=>A E B
B ... El nmero obtenido al tirar el dado es par (B = {2,4,6}). >

Con la definicin 1 se confirma enseguida que para todo suceso aleatorio A se cumplen
las proposiciones siguientes:

<>QA. A g A . A S2. (1)

Si con el suceso A se presenta siempre el suceso B y el B implica al suceso C. entonces


el suceso A entraa evidentemente al suceso C. Expresado en frmulas:
V

A ^B. B S C s /liC . (2)

Llegamos ahora a la definicin de la igualdad de sucesos aleatorios.


D e f in ic i n 2 . Dos sucesos aleatorios A y B se llaman iguales (A = B ) si tanto el suceso
A implica al suceso B(A B) como tambin a la inversa, el suceso B implica al suceso A
I B S A ).
Esta definicin contempla que dos sucesos aleatorios se consideran iguales si y solo si
en cada repeticin se presentan siempre ambos sucesos o no se presentan.
Si dos sucesos aleatorios A y B no son iguales, expresamos esto a travs de A ^ B .
Por ltimo, destacamos que la relacin es reflexiva y transitiva a causa de (1) y (2).
y antisimtrica en virtud de la definicin 2, es decir, que la relacin ^ es una relacin
de orden parcial (ver M fL Tomo 1. 1.5.). En lugar de A ^ B escribimos tambin B 3 A.

1.3 Operaciones entre sucesos aleatorios


En este epgrafe tratamos las operaciones entre sucesos aleatorios, cuya aplicacin es muy
conveniente y con frecuencia conduce a una formulacin muy clara de distintos hechos.
Aqu se presentan smbolos de operaciones conocidos del tratamiento de la teora de con
juntos (ver MfL Tomo 1, 1.4). Aclaramos que si se sustituyen los sucesos que aparecen
por conjuntos, surgen siempre de las proposiciones siguientes (sobre sucesos) proposicio
nes verdaderas de la teora de conjuntos y viceversa, se obtiene de las proposiciones co
rrespondientes de la teora de conjuntos proposiciones verdaderas sobre sucesos aleato
rios, si se sustituyen los conjuntos que aparecen por esos sucesos. (La fundamentacin de
esto lo proporciona un teorema sobre el isomorfismo entre las lgebras de sucesos y 4as
lgebras de conjuntos, que trataremos en el epgrafe l.S .) Las figuras dadas a continua
cin de las siguientes definiciones de las operaciones entre sucesos aleatorios deben servir

17

www.FreeLibros.com
para recordar las definiciones de las operaciones correspondientes con conjuntos. Todos
los ejemplos de este epgrafe se refieren, para mayor sencillez, al experimento aleatorio
consistente en la tirada nica d.e un dado.

1.3.1 Suma de sucesos


D e f in ic i n 1. Si A y B son sucesos aleatorios, entonces designamos al suceso que ocu
rre si y solo si al menos uno de los sucesos A y B ocurre, por

A'uB

y se lee: A o B, suma de A y B o A unido con B (fig. 4).

A n B

Figura 4

E je m p lo . Tirada de un dado.
A ... El nmero obtenido es par (4 = {2,4,6}).
B ... El nmero obtenido es mayor o igual que 3 (B = {3,4,5,6}).
A^j B ... El nmero obtenido es distinto de 1 (A = {2 ,3 ,4 ,5 ,6 }).

Las siguientes proposiciones son fciles de comprobar:

A kj$= A , A v A = A , A u l = l , (1)
A^AuB, BSAuB. (2)
A v B = B 'u A (conmutatividad), (3)
A u ( B v C ) =04 ^B ) u C (asociatividad). (4)

Sobre la base de la validez de la ley asociativa se puede definir la suma de n(n> 2) su


cesos aleatorios de la forma siguiente.

D e f in ic i n 2. S i/4 ,, A v ..., A son sucesos aleatorios, entonces designamos al suceso


que ocurre si y solo si al menos uno de los sucesos A, (i = 1,2...... n) ocurre, por
A ^ A ^ . . . <j A

o tambin con

U A ,.
1=1

Generalizando, podemos designar al suceso que ocurre si y solo si al menos un suceso


de la sucesin (infinita) A v A 2, ... de sucesos A, (i = l,2 ,...) ocurre, por
A iU A jV ...

o tambin con

U A ,.

18

www.FreeLibros.com
1.3.2 P r o d u c t o de sucesos

D e f i n i c i n 3. Si .1 y B son sucosos aleatorios, entonces designam os al suceso que


ocurre si y solo si tan to A como H o curre, por

A nB

y se lee: A y B. p ro d u cto de A y B o interseccin de A y B (fig. 5).

Figura 5

E j e m p lo . T ira d a de un dado.
A ... H1 nm ero obtenido es p a r M ={2.4.6}).
B ... El nm ero obtenido es m enor que 3 (/?= ! 1.2}).
A n B ... El n m ero obtenido es igual a 2 (.4 n B = {2}).

Las proposiciones siguientes son tam bin fciles de v erificar:

A rio = o. A n A = A . A n i = A . (5)
A ^ B QA. A n B Q B . (6)
A n B = B r\A (co n m u ta tiv id a d ). (7)
A n( B nC") =(A n B ) n ( ' (a so cia tiv id a d ). (8)

Sobre la base de la validez de la ley asociativa podem os d efin ir el p ro d u cto de n ( n^ 2)


sucesos aleato rio s de la form a siguiente.

D e f i n i c i n 4 . Si A v A 2........A son sucesos aleato rio s, entonces designam os al suceso


que o cu rre si y solo si cad a uno de los sucesos A, 0 = 1.2 ...... n) ocurre, por
A l nAn... n A n
o tam bin por

n a ,.
i-1

G en eralizan d o , podem os designar al suceso que o c u rre si ysolo sic ad a uno de los su
cesos de la sucesin (infinita) A r A 2. ... de sucesos 4,( = 1.2. ...) o curre, m ediante
A , n A n ...
o tam bin

n .4 .
1

Aqu querem os in tro d u cir an dos conceptos sobre los cuales volverer os posteriorm en-

www.FreeLibros.com
19
www.FreeLibros.com
D e f in ic i n 5. Dos sucesos aleatorios A y B se llaman m utuamente excluyentes, si se
cumple
A r\B = $.
A r\B = <j>significa en cuanto al contenido, que la ocurrencia comn de los sucesos A y B
es imposible. Se dice tambin que A y B son incompatibles o que A y B son disjuntos
(fig. 6).

Figura 6

D e f in ic i n 6 . Un conjunto {A v A, ..., A ..} de sucesos aleatorios A^() se llama


un sistema completo de sucesos, si se cumple

---------- Ar\Ak=<>(j^k),------------------------------------------------------------------
A,<jA2u ... ui4,u... =.
E je m p lo . Tirada de un dado.
A , ... El nmero obtenido al tirar el dado es igual a i (i'= l,2 ,3 ,4 ,5 ,6 ).
{Av Aj, Ay A4, A,, At) es un sistema completo de sucesos.
De modo general, si consideramos un experimento aleatorio que tiene siempre como re
sultado la ocurrencia de exactamente uno de los sucesos aleatorios Av A, A ..., en
tonces el conjunto de estos resultados forma un sistema completo de sucesos.

1.3.3 Suceso contrario o complementario


D e f in ic i n 7. Si A es un suceso aleatorio, entonces designamos al suceso que ocurre
si y solo si A no ocurre, por A y llamamos a este el suceso contrario o complementario de
A (fig. 7).

Figura 7

E je m p lo . Tirada de un dado.

A ... El nmero obtenido es menor e igual que 3 (^4 = {l,2 ,3 } ).


A ... El nmero obtenido es mayor que 3 (A = {4,5,6}).

Evidentemente para un suceso A cualquiera se cumplen las relaciones


y A n A 0. (9)

20

www.FreeLibros.com
Por tanto, si A es un suceso aleatorio que no es imposible niseguro, es decir, A 0 ,
A * l , entonces el conjunto {A. a ) es un sistema completo de sucesos.
Adems, se verifica directamente la validez de las proposiciones

0 = i, = <>, (A )= A . (10)

Seguidamente escribiremos algunas otras proposiciones, que no son difciles de compro-

AQB^B^A, (11)

A r>B = A u B , ms general: O A ^ ^ J A ,, (12)


1=1 1=1

A u B = A n B , ms general: A = ( ~ ) A,. (13)

A continuacin damos frmulas para la descomposicin de la suma de dos sucesos


aleatorios en sucesos mutuamente excluyentes dos a dos (fig. 8).

A vB = A u (B n A ), (14)
A u B =B < j (A n B ), (15)
A u B = ( A n B ) u (A n B ) u (A n B ) . (16)

Dejamos al lector la fcil comprobacin de lo anterior.

Figura 8

1.3.4 Diferencia de sucesos


D e f i n i c i n 8. Si A y B son sucesos aleatorios, entonces designamos al suceso que
ocurre si y solo si el suceso A, pero no el suceso B , ocurre, por

A \B

y se lee: A y no B, diferencia de A y B, A menos B (fig. 9).

www.FreeLibros.com
E je m p lo . Tirada de un dado.
A ... El nmero obtenido es par (. = {2,4,6}).
B ... El nmero obtenido es menor e igual que 3 (2 ? = {l,2 ,3 }).
A \ B ... El nmero obtenido es igual a 4 a 6 (>4\B = {4,6}).
B \A ... El nmero obtenido es igual a 1 a 3 ( f i\^ = { l,3 } ).

Y a que la op eracin \ se puede expresar sobre la base de la relacin

A \B = A n B (17)

mediante las operaciones n y , podemos renunciar a otras explicaciones. Llamamos la


atencin de que para la operacin \ no se cumple trivialmente la ley conmutativa (ver
ejemplo anterior).

1.3.5 Diferencia simtrica de sucesos


D e f i n i c i n 9. Si A y B son sucesos aleatorios, entonces designamos al suceso que
ocurre si y solo si A o B. pero no ambos sucesos ocurren, por

A& B q

y se lee: exactamente uno de los sucesos A \ B. diferencia simtrica de A y B (fig. 10).

i A B Figura 10

Y a que la operacin A se puede expresar sobre la base de la relacin

y4AB = (^ \B ) u ( B 'A ) = (A n B ) v ( B n ) (18)

mediante las operaciones n , u y - , renunciamos tambin a otras discusiones al respecto.


Solo queremos sealar que se cumple la conmutatividad para la operacin A.

1.4 lgebras de sucesos


U n lgebra de sucesos es un conjunto de sucesos aleatorios que, hablando sin mucho rigor,
contiene, adems de los sucesos interesados directamente en relacin con un experimento
aleatorio, a todos aquellos que resultan de estos mediante la aplicacin de las operaciones
tratadas. La fijacin exacta de este concepto es el contenido de la definicin siguiente.

D e f i n i c i n 1. U n conjunto A de sucesos aleatorios se llam a un lgebra de sucesos,


si posee las propiedades siguientes:

1. El suceso seguro pertenece a A: l e A .

22

www.FreeLibros.com
2. Si dos sucesos aleatorios pertenecen a A , este contiene tambin su suma:

^4eA, B e A ^ A v B e A .
3. Para todo suceso aleatorio perteneciente a A , este contiene tambin al suceso com
plementario:

A eA=*.4 A.

Si A contiene infinitos elem entos, posee tam bin la propiedad siguiente:

4. Para toda sucesin de sucesos aleatorios perteneciente a A , este contiene tambin su


suma:

A ,e A (f'= l,2, ...) =* A e A.


/=i
D e las propiedades m encionadas en la definicin 1 resultan fcilm ente otras propieda-

C o r o la r i o . Sea A un lgebra de sucesos. Entonces A posee adems las propiedades


siguientes:
1. El suceso imposible pertenece a A: 0 e A .
2. Si dos sucesos aleatorios pertenecen a A , este contiene tambin su producto, su di-
ferencia y su diferencia simtrica:

A t A, B s A ^ A n B e A , A \B e A , A A B eA .

3. Para toda sucesin de sucesos aleatorios pertenecientes a A, este contiene tambin


su producto:

^ ,e A 0 '= l,2 , ..'.)=> P l A ,e A.


i=i
D em ostracin
1. Se cum ple 11 = 0 (ver 1.3 (1 0 )) . D e las propiedades 1 y 3 del lgebra de sucesos resulta que 0 e A .
2. Se cum plen las siguientes identidades:

A r\B = A \ j B (ver 1.3 (1 3 )),


v l \B = v 4 r , _ (ver 1.3 (1 7 )),
AA B =(A nB ) v (B n A ) (ver 1.3 (1 8 )).

Si A y B son elem entos del lgebra de sucesos A , en to n ces resulta, sobre la base de las propiedades
2 y 3 del lgebra de sucesos, que A n B e A y de aqui (aplicando de nuevo las propiedades 2 y 3 ), que

A \ B e A y A /\B eA ,
A \ B gA y A cJisA .

3. Se cum ple f"') A = A (ver 1.3 (1 2 ).) Si A- (i = 1 ,2 ,...) son elem entos del lgebra de su-
= i .<=i _
cesos A , entonces resulta a con secu en cia de la propiedad 3 del lgebra de sucesos A te A (i = l ,2 , . .. ) .

C onsiderando la propiedad 4 se obtiene ^ e A , y por ltim o, en virtud de la propiedad 3

^ A e A , es decir, por la relacin dada al principio se cum ple f'l -d,eA .


i-i i=i

U n lgebra de sucesos es, por consiguiente, un conjunto de sucesos aleatorios, con la


propiedad de que la aplicacin de las operaciones introducidas en 1.3 a los elem entos de
este conjunto, proporcionan siem pre elem entos de este conjunto.

www.FreeLibros.com
Concluimos este epgrafe con la definicin del llamado suceso elemental y con una ob
servacin sobre la estructura matemtica del lgebra de sucesos.
D e f in ic i n 2 . Sea A un lgebra de sucesos. Un suceso A sA se llama suceso elemen
tal (con respecto a A) si no existe un suceso B e A , B*<p y B ^ A , tal que se cumpla B ^ A .
En caso contrario A se llama suceso compuesto.

C o r o la r io . Las siguientes proposiciones son equivalentes:


1. A eA es un suceso elemental.
2. A eA no se puede representar de la forma A = B u C con B e A, C e A, B it A y C *A .
3. A eA est constituido de modo que para todo B e A se cumple Ar\B=<> o A ^ B .

Desde el punto de vista de la estructura matemtica, un lgebra de sucesos es un lgebra de Boole.


Antes de fundamentar esto recordemos la definicin de un lgebra de Boole.

D e f i n i c i n 3 . Sea M un conjunto sobre el cual estn definidas dos operaciones + y (es decir,
funciones que asocian a cada dos elementos x e M y y s M los elementos x-t-y y x y pertenecientes a M).
M se llama un lgebra de Boole, si se satisfacen las proposiciones siguientes para cualesquiera elemen
tos x . y . z de M:

1. xy=y-*-x, x y = y x (conmutatividad). t
2. x + ( y + z ) =(x-t-y) 4-z. x - {y z) = (x y) z (asociatividad).
3. x + ( x y) =x, x ( x + y ) = x (absorcin).
4. x + (y z) = ( x + y ) -(x-t-r) (distributividad).
5. Existen elementos 0 y e en M con x 0 = 0 y x-*-e=e.
6. Para todo x e M existe un x 'eM (el llamado complemento de x) con x x '= 0 y x-t-x=e.

C o r o la r io 3 . Toda lgebra de sucesos es un lgebra de Boole.

D e m o s t r a c i n . Como operacin + empleamos a u y como operacin . a n sobre un lgebra


de sucesos A. Entonces se cumplen las proposiciones 1 hasta 4 de la definicin 3. Como elemento neutro
respecto a la adicin ( + ) utilizamos el suceso imposible 0 : como elemento neutro de la multiplicacin
(_), el suceso seguro y, por ltimo, empleamos como complemento de A eA el suceso complementario
A correspondiente a A. Estos elementos poseen las propiedades exigidas en la definicin 3 y pertenecen
todos a A. Con esto A es, por tanto, un lgebra de Boole.

1.5 lgebras de sucesos y lgebras de conjuntos


Ahora estudiaremos la estrecha relacin que existe entre los sucesos aleatorios y los con
juntos, ms exactamente entre las lgebras de sucesos y las lgebras de conjuntos. Para
ello recordemos la definicin de un lgebra de conjuntos.

D e f in ic i n 1. Un sistema A de subconjuntos de un conjunto universo 2 se llama un


lgebra de conjuntos (sobre ) , si posee las propiedades siguientes:
1. El conjunto universo S2 pertenece a A: JeA.
2. Si dos subconjuntos de U pertenecen a A, este contiene tambin su unin:
.4 sA , B eA = > A u B eA .
3. Para todo subconjunto de 2 perteneciente a A, este contiene tambin su complemen
to respecto al conjunto universo:
^ eA ^ ^ eA .
24

www.FreeLibros.com
Si, adems, la siguiente condicin 4 se satisface, entonces A se llama una o- lgebra de
subconjuntos de 2 y el par [52, A] se llama un espacio medible.
4. Para toda sucesin de subconjuntos pertenecientes a A, este contiene tambin su
unin:

y4,eA (i= 1 ,2 ,...) U A ,e A.


i=i

C o r o l a r io 1. Toda lgebra de conjuntos es un lgebra de Boole.

D e m o s t r a c i n . Se desarrolla anloga a la dem ostracin del corolario 3 (1.4).

El siguiente teorema de M .H. Stone proporciona la relacin anunciada entre lgebras


de sucesos y lgebras de conjuntos.

T e o r e m a 1. Para toda lgebra de sucesos se puede indicar un lgebra de conjuntos


isomorfa.
Tenemos que renunciar a la demostracin de este profundo teorema, pero todava que
remos explicar un poco su contenido.
Si A es un lgebra de sucesos, entonces existe un conjunto universo 2 y un lgebra
A de subconjuntos de este conjunto 2 con las propiedades siguientes:

1. Existe una aplicacin biunvoca de A sobre A.


2. Al suceso seguro l le corresponde el conjunto universo 2 y al suceso imposible el
conjunto vaco.
3. Si designamos con C el conjunto (e A) asociado al suceso C e A, entonces a la suma
de los sucesos A y B (es decir, al suceso A kjB) le corresponde la unin de los conjuntos
A y B (es decir, el subconjunto A v B de 2), al producto de los sucesos A y B (es decir,
al suceso A r\B ) , la interseccin de los conjuntos A y B (es decir, el subconjunto A r\B de
2), y al suceso A el conjunto complementario de A respecto a 2 (es decir, el subconjunto
A de 2).
4. Si a la ocurrencia del suceso A ( e A) est siempre unida tambin la ocurrencia del su
ceso B (e A ) (es decir, se cumple A ^ B ) , entonces A es un subconjunto de B (es decir,
se cumple A j f l ) .
Por tanto, podemos considerar siempre en lugar de un lgebra de sucesos A, el lgebra
de conjuntos isomorfa existente segn el teorema anterior, y saber cmo las operaciones
entre los sucesos aleatorios se expresan como operaciones entre los conjuntos asociados.
(Por lo dems, hemos ya anticipado esto mediante el uso de los mismos smbolos para las
operaciones. Con esto queda claro que las reglas de clculo para operar con sucesos
aleatorios siempre llevan implcitas las reglas de clculo para operar con conjuntos, y vi
ceversa.) En las exposiciones posteriores no partiremos en muchas ocasiones de un l
gebra de sucesos, sino del lgebra de conjuntos isomorfa a ella, sobre la base del teorema
de M .H. Stone. Aqu supondremos siempre que se trata de una a-lgebra. Adems, que-
remos simplificar la escritura, de modo que designaremos al lgebra de sucesos y a la
a-lgebra correspondiente con el mismo smbolo A. De acuerdo con esto, nombraremos
a los sucesos y a los conjuntos asociados con el mismo smbolo; en particular, designare
mos tambin con 2 al conjunto universo asociado al suceso seguro 2 (cuyos elementos se
nombran muchas veces sucesos elementales).
Por tanto, el punto de partida de nuestras consideraciones posteriores ser un lgebra
de sucesos A o un espacio medible [2, A].

25

www.FreeLibros.com
2. P robabilidad

En este capitulo nos dedicaremos al concepto probabilidad, que constituye el concepto cen
tral y fundamental de la Teora de probabilidades y tambin de la Estadstica matemtica.
j'Vqu caracterizamos al concepto probabilidad mediante axiomas, de acuerdo con un pro
cedimiento usual hoy en da en la matemtica moderna (epgrafe 2.4). Para la formacin
del sistema de axiomas partiremos de las propiedades comunes de la frecuencia relativa
(epgrafe 2.1) y del as llamado concepto clsico de probabilidad (epgrafes 2.2 y 2.3). El
concepto clsico de probabilidad se basa en la en realidad no universalmente aplica
b l e - definicin clsica de probabilidad, que en realidad no es universalmente aplicable,
y segn la cual la probabilidad de un suceso aleatorio es igual al cociente del nmero de
resultados del experimento convenientes para el suceso observado, entre el nmero total
de posibles resultados; en una relacin semejante se dice que un resultado del experimento
es conveniente para un suceso, cuando este implica la ocurrencia del suceso considerado.
Las consideraciones sobre la frecuencia relativa deben convencernos, en particular, de
que el grado de indeterminacin de la ocurrencia de un suceso aleatorio se puede concebir
siempre de forma objetiva mediante un nmero. En este contexto llamamos la atencin de
que el concepto probabilidad utilizado en el lenguaje comn muestra con frecuencia ca
racteres subjetivos y que con este slo se intenta dar en muchas ocasiones una proposicin
cualitativa con respecto al propio convencimiento de la ocurrencia de una situacin de
terminada.
Se calcularon probabilidades antes de que existiera una construccin axiomtica del
Clculo de probabilidades (por ejemplo, en el marco de la estadstica poblacional, en pro
blemas de aseguramiento y tambin en juegos de azar). N o obstante, el desarrollo impe
tuoso de la tcnica y de las ciencias naturales desde el comienzo de nuestro siglo situ al
clculo de probabilidades exigencias elevadas. D e aqu se desprendi la necesidad de cons
truir el Clculo de probabilidades, y con esto la Estadstica matemtica, como una disci
plina matemtica rigurosamente fundamentada. La solucin de este problema, uno de los
23 grandes problemas de la matemtica nombrados por el famoso matemtico alemn D.
Hilbert (1862-1943) en el Segundo Congreso Internacional de M atemticos en Pars
(1900), fue lograda por el importante matemtico sovitico A .N . Kolmogorov (nacido en
1903), quien public en 1933 una construccin axiomtica de Clculo de probabilidades,
que se ha convertido en la base de todos los libros de texto modernos existentes, sobre la
Teora de probabilidades.

www.FreeLibros.com
E s in te r e sa n te q ue D . H ilb e r t en su c o n fe r e n c ia en el a o 1900 en P a rs c o n sid er a r a al
C lc u lo d e p r o b a b ilid a d e s c o m o un c a p tu lo d e la fsica , en el c u a l los m to d o s m a tem
tic o s d e s e m p e a n un p a p e l so b r e sa lien te . S o lo p o r m ed io d e la fu n d a m e n ta c i n a x io m
tic a d el C lc u lo d e p r o b a b ilid a d e s y la e x p lic a c i n d e lo s c o n c e p to s fu n d a m e n ta le s lig a d o s
a este p or A .N . K o lm o g o r o v se in teg ra el c lc u lo d e p r o b a b ilid a d e s al e d ific io d e la m a
tem tic a de fo rm a a r m n ic a y c o m o u na v a lio s a d is c ip lin a e sp e cia l.

2.1 Frecuencia relativa


D e sig n e m o s p or A un su c e so a le a to r io q ue e st en r e la c i n co n un e x p e r im e n to a lea to r io
c u a lq u ie r a (por ejem p lo , A p u e d e ser o b te n e r un 6 c u a n d o se tira u n d a d o u n a sdla v e z ).
R e p ita m o s e s te ex p e r im e n to -v ec e s, in d e p e n d ie n te m e n te u n a v ez d e o tra , y c o n tem o s
c u n ta s v e c e s o c u r r e el su c e so A en e sto s e x p e r im e n to s. S i A o c u r r e en to ta l m v e c e s, en

to n c es m se lla m a f r e c u e n c i a ab so lu ta d e A y , f r e c u e n c i a re lativa de A en e sto s n ex


p erim en to s.
E n g en era l, q u e r e m o s d e sig n a r la fre c u e n c ia a b so lu ta d e A en n e x p e r im e n to s co n
F (A) y la fr e c u e n c ia r e la tiv a d e A en n e x p e r im e n to s, c o n / {A). L o s v a lo r e s p a r a la
fr e c u e n c ia a b so lu ta F n (A ) d e u n su c e so A e n n e x p e r im e n to s, p u e d e n ser lo s n + 1 n m ero s

0 ,1 ,2 , . .. , 1, n y p a ra la fre c u e n c ia r e la tiv a f (A ) , lo s n m ero s 0 , , ,


n n
. . . , --------, 1. L a fre c u e n c ia a b so lu ta o r e la tiv a en u n a se rie d e e x p e r im e n to s c o n c r eta no
n
se p u e d e p r e d e c ir c o n segu rid a d ; la s fr e c u e n c ia s a b so lu ta y r e la tiv a son m e d id a s d e p e n
d ie n te s d e la c a s u a lid a d , lla m a d a s v a r ia b le s a le a to r ia s (n o so tr o s la s c la s ific a r e m o s m s
ta rd e c o m o v a r ia b le s a le a to r ia s d iscr e ta s y d e ter m in a re m o s la d istr ib u c i n d e p r o b a b ili
d ad q ue les p e r te n e c e ).
S e g u id a m en te e scr ib ire m o s a lg u n a s p r o p ie d a d e s d e la fre c u e n c ia r e la tiv a , c u y a d e m o s
tra c i n d e ja m o s al lecto r.

C o r o la r io 1
1. 0 ^ f(A )^ 1.
2 / ( H ) = l.
3. f ( A u B ) =f( A) +f( B) p a ra Ar\B=<t>.
4. / (0) =0.
5. f(A) = 1 f n( A ) .
6. f(A u B ) = f S A ) + f n(B) f n(A n B ) .
7. D e A E B r e su lta f(A) = / (B ).

O b ser v e m o s e n r e la c i n c o n la s p r o p ie d a d e s 2 y 4 , q ue d e f(A) = 1 o f(A) = 0 n o se p u e


de d e d u c ir q ue A sea u n su c e so seg u ro o im p o sib le .
P o d e m o s c o n c e b ir la c o r r e sp o n d e n c ia A *f(A) (n e s u n n m e r o n a tu ra l fijo) c o m o u n a
fu n c i n que a c a d a su c e so a le a to r io A , q ue e s t e n r e la c i n c o n e l e x p e r im e n to a le a to r io
o b se r v a d o , le h a c e c o r re sp o n d er u n n m e r o situ a d o e n tre c e r o y u n o , m o str n d o se la s
p r o p ie d a d e s p r in c ip a le s d e e s ta fu n c i n en e l c o r o la r io 1. E l d o m in io d e d e fin ic i n d e e sta

www.FreeLibros.com
funcin es, por tanto, un conjunto de sucesos aleatorios; queremos suponer siempre que
se trata de un lgebra de sucesos.

Hn relacin con el corolario 1 se debe hacer hincapi en una cuestin importante para la forma de
proceder en la caracterizacin axiomtica del concepto probabilidad: toda funcin r e a l/d e fin id a sobre
un lgebra de sucesos que posea las propiedades 1, 2 y 3, posee tambin las propiedades 4, 5, 6 y 7.
Aqui queremos demostrar esto solo en un ejemplo; mostremos que de las propiedades 2 y 3 resulta la
propiedad 5: se cumple A r \ A = <t> y por la propiedad S , J [ A v A ) = J { A ) + f l . A ) . A cada causa de que
A v A = l se cumple, por la propiedad 2, la relacin/(/) \j A) = 1. Luego, se cumple 1 =J{A) + A A ) , es de
cir. se cumple f[A ) = 1 J{A)

Analizaremos ahora hasta dnde la frecuencia relativa de un suceso (en una serie de
n repeticiones de un mismo experimento, realizadas independientemente una de otra), es
una medida apropiada para el grado de indeterminacin de la ocurrencia de este suceso.
Para determinar un valor concreto de la frecuencia relativa se tiene que realizar pri
mero una serie de experimentos semejante; por lo dems se obtendr generalmente un va
lor distinto al repetir la serie de experimentos considerada. Pero si se llevan a cabo largas
series de repeticiones independientes de un mismo experimento y se indaga cada vez la
frecuencia relativa del suceso aleatorio considerado, se comprueba que estos nmeros se
diferencian poco unos de otros, es decir, que la frecuencia relativa muestra una cierta es
tabilidad. Luego, las frecuencias relativas del suceso A varian ligeramente, por lo general
alrededor de un cierto valor que frecuentemente desconocemos. Queremos llamar a este
valor la probabilidad del suceso A. Est claro que no podemos calcular la probabilidad de
un suceso por esta va, sino solo obtener un valor estimado para esa probabilidad. Sin em
bargo, con esto hemos logrado el convencimiento de que el grado de indeterminacin de
la ocurrencia de un suceso aleatorio se puede caracterizar de forma objetiva mediante un
nmero.

E je m p lo . Tomamos este ejemplo de la literatura. Cientficos significativos como, por


ejemplo, el Conde de Buffon (1707-1788), creador de un mtodo terico-probabilstico pa
ra la determinacin aproximada del nmero n, y K. Pearson (1857-1936), fundador de
una famosa escuela en la rama de la Estadstica matemtica en Inglaterra, estudiaron el
efecto de la estabilizacin de la frecuencia relativa, en el ejemplo de la tirada de la mo
neda, entre otros. Sea A el suceso nmero arriba.

Nmero de tiradas Frecuencia absoluta Frecuencia relativa


de la moneda: n de A:Fn (A)
de A:f(A) -----------
n

DE bu ffo n 4 040 2 048 (2 020) 0,5080


K. PEARSON 12 000 6 019 (6 000) 0,5016
K. PEARSON 24 000 12 012 (12 000) 0,5005

Esperamos que aproximadamente en la mitad de todas la tiradas de la moneda ocurra


el suceso A. En la tercera columna de la tabla anterior hemos indicado los valores espe
rados entre parntesis. La tabla muestra claramente que lo que esperbamos se satisface
tanto mejor cuanto mayor es el nmero de tiradas realizadas.

Por ltimo, queremos analizar la interrogante de si para toda serie de experimentos con
creta, la sucesin (f (A)) de las frecuencias relativas/ (A) de un suceso A converge hacia
un lmite comn f( A ) cuando n * (Si este fuera el caso se podra definir sencillamente

28

www.FreeLibros.com
la probabilidad de un suceso aleatorio como el lm ite de la sucesin de las frecuencias re
lativas.) Pero esto no es as. Por un lado, solo es posible crear una sucesin fin ita de fre
cuencias relativas, de modo que no se puede decidir nunca si existe la convergencia de la
sucesin investigada, convergencia entendida en el sentido de la de las sucesiones num
ricas. Por otro lado, an si no se presta atencin a esta circunstancia, se puede pensar
tambin que no tiene que existir una convergencia de la sucesin ). Si se cumpliera
que lim f n( )= f(A ), entonces existira para todo e > 0 un nmero natural n0, tal que

lf n(A) para todo n0. Pero recurriendo al ejemplo anterior es fcil imaginar
que el suceso nm ero arriba no ocurre ni una sola vez en series de experimentos muy
largas, de modo que la inecuacin |/ (A) f(A ) |< e para un nmero suficientemente pe
queo e > 0 no se cumple para todo n a partir de un cierto ndice n0. (A decir verdad un
caso semejante nos parece muy improbable .)
U na form ulacin matem tica precisa del efecto de estabilizacin de la frecuencia rela
tiva se realiza m s tarde por otro cam ino con el tratam iento de la Ley de los Grandes N
meros.

2.2 D efinicin clsica de probabilidad


M ucho antes de la fundam entacin axiomtica del Clculo de probabilidades, se calcula
ron probabilidades de sucesos aleatorios. La definicin de probabilidad en la cual se ba
saban dichos clculos se conoce hoy como definicin clsica de probabilidad que estudia
remos en este epgrafe.
Sea el punto de partida un experimento aleatorio con un nmero fin ito de resultados
igualmente posibles, es decir, que no se diferencian con respecto al grado de indetermi
nacin de la ocurrencia. Todo suceso aleatorio A en relacin con el experimento aleatorio
considerado, se puede caracterizar por la enum eracin de aquellos resultados que son fa
vorables para este suceso, es decir, que provocan su ocurrencia. Si designamos con g(A)
su nmero y con f c ( < ~ ) el de todos los resultados, entonces la razn de g(A) y k pro
porciona una idea sobre el grado de seguridad de la aparicin del suceso aleatorio A. En
el marco de la llam ada definicin clsica d e probabilidad, a este cociente se le llam a pro
babilidad del suceso aleatorio A y se designa con f \ A ) :

g(A) nmero de los resultados favorables para A


P {A ) = - = ------------------------------------------------------------------------------------------- .U)
k nmero total de los resultados

O b s e r v a c i n . Con frecuencia, en la literatura se encuentran formulaciones que solo


se diferencian de esta en que en lugar de la palabra resultados se utilizan las palabras p o
sibilidades o casos. La frmula (1) se debe al m atem tico francs P.S. Laplace (1749-
1827); el principio sobre el cual se basa la frmula (1) se nombra con frecuencia Principio
de los casos igualm ente posibles de Laplace.

E je m p lo . En un recipiente se encuentran ISO piezas troqueladas, de las cuales 21 no


tienen una m edida adecuada. El experimento aleatorio consiste en la extraccin de una
pieza, teniendo cada una de ellas la misma oportunidad de ser tomada. C alculemos la
probabilidad de que la pieza extrada aleatoriam ente de esta forma, tenga las medidas
correctas (suceso A ) .

www.FreeLibros.com
29
Nm ero de resultados posibles: ISO
N m ero de los resultados favorables para A: 1 5 0 -2 1 = 129
Con esto se obtiene

, * , = * = J . - . o . 86=86%.
k 150 50
La aplicacin de la definicin clsica de probabilidad est permitida solo en el marco
de determinados experimentos aleatorios. Queremos reflexionar sobre cmo se reflejan las
condiciones de los experimentos aleatorios en propiedades (adicionales) de las lgebras de
sucesos. Designem os con A al lgebra de sucesos correspondiente a un experimento
aleatorio con un nmero finito de resultados A v A, ..., A k igualmente posibles, que deben
concebirse como sucesos elementales de dicha lgebra de sucesos. Todo suceso aleatorio
arbitrario A e A , A ^ fa se puede expresar com o la suma de aquellos sucesos elementales
A, que implican a A, es decir, para los cuales se cumple que A A . Para hallar la pro
babilidad del suceso A es necesario conocer solo, junto al nmero total k de los sucesos
elementales, el nmero de los sucesos elem entales A, que im plican a A. Con esto est c\aro
que a cada suceso aleatorio A e A est asociado de forma univoca mediante (1) un nmero
real, o sea, que por medio de (1) est definida una funcin real sobre A. En particular
se cumple a causa de

g(yll) = g ( ^ 2) = . . . = ( ^ t) = l

la relacin

P iA j = P (A }) = ... = P iA J = 4 - , (2)
k
es decir, la condicin de que los resultados sean igualmente posibles se refleja en que los
sucesos elementales A ( j = \ , 2 ,. .. ,k ) tienen la misma probabilidad.

A continuacin enunciaremos algunas propiedades y reglas de clculo para el concepto


clsico de probabilidad, y con esto para la funcin A *P(A) sobre A dada por (1), cuya
demostracin dejaremos al lector (ver 2.1, corolario 1).

Corolario 1
1. 0 < W < 1.
2. P ( n ) = l .
3. P(A u B ) =P(A) +P(B) para AnB=<j>.
4. P(<>) = 0 .
5. P ( A ) = l- P { A ) .
6. P(A u B ) =P{A) +P{B) P(A n B ).
7. D e A S B resulta P(A) < P{B).

Como suplem ento de las propiedades 2 y 4 aclaram os que de P{A) = 1 o P(A) = 0 se deduce que A = S l
o>< = 0. U n suceso aleatorio A tiene, por consiguiente, la probabilidad uno o cero si y solo si es un su
ceso seguro o imposible.
Adem s, se debe llam ar la atencin de que es suficiente dem ostrar las proposiciones 1 hasta 3, ya
que com o fue explicado en el epgrafe 2 .1 , toda funcin real definida sobre un lgebra de sucesos que
posea las propiedades 1 hasta 3, posee tambin la s propiedades 4 hasta 7.

A la definicin clsica de probabilidad, corresponde una significacin especial, porque


sobre esta base se pueden calcular probabilidades. El clculo de las probabilidades que nos

30

www.FreeLibros.com
interesan, o sea, el clculo del nmero de los casos posibles y del de los convenientes en
cada ocasin, se efecta, por lo general, con los mtodos de la combinatoria (ver MfL, To
mo 1,3.6). Esto no es siempre muy sencillo.

Ejemplos
1. Calculemos la probabilidad para ganar la lotera * en 5 de 35 (suceso G), es decir,
para acertar tres nmeros (suceso A ), cuatro (suceso B) o cinco (suceso C). Se cumple

t = ( 35\ 35.34.33-32-31 , 324 <32t


V5 / 1 2 3 4 5

( 5 \ / 3 0 \ 5 -4 3 0 -2 9
*W =( ) l ) = ---------------------- = 4 350,
' 3 / V 2 / 1 -2 1 -2

- = C ) C ) = T >

Con esto obtenemos


o a I 4 350
P{A) = ------- = ------------ =0 ,0 1 3 4 (probabilidad de obtener tres),
k 324 632

g(B) 150
P ( B ) = -----------------------= 0,0005 (probabilidad de obtener cuatro),
k 324 632

P(C) = = ---- i------ = 0 ,0 0 0 003 (probabilidad de obtener cinco).


k 324 632
Ahora, se cumple que G = A u B u C siendo los sucesos A,B y C mutuamente excluyentes
dos a dos. Por tanto, se cumple que P(G) =P(A) +P(B) +P(C ) (ver corolario 1, proposicin
3) y obtenemos finalmente P(G) = 0 ,0 1 4 (probabilidad de una ganancia).
2. Se eligen de forma aleatoria n personas (aleatoria en el sentido de que cada persona
tiene la misma oportunidad de ser elegida) de un conjunto grande de estas (por ejemplo,
del conjunto de los habitantes actuales de la ciudad de Dresde) y se anotan las fechas de
sus cumpleaos. N os interesaremos por la probabilidad de que por lo menos dos de estas
personas cumplan aos el mismo dia (suceso A ) . En la solucin de este problema supo
nemos adicionalmente que las personas que han nacido el 29 de febrero de un ao bisiesto
no han sido elegidas de modo que tenemos que calcular en total solo con 365 das. Ade
ms, suponemos que la probabilidad de que una persona elegida de forma aleatoria cum-

pla aos un da determinado, es igual para los 365 das, luego es igual a i.
365
Indagamos primero el nmero k de los posibles resultados del experimento, consistiendo
un posible resultado en elegir n das (no necesariamente distintos) de los 365. El nmero
365 -365 ... 365
de estas posibilidades es igual (considerando la sucesin) a k = -------------------------=365"
n factores
(por lo dems se cumple que para n > 4, k = 365" es mayor que un billn).

* Juego de lotera televisivo en la Repblica Democrtica Alemana.

31

www.FreeLibros.com
Para el clculo de la probabilidad buscada tenemos que averiguar ahora el nmero g(A)
de los resultados favorables para A. Es mucho ms conveniente calcular primero el n
mero g(A) de los desenlaces favorables para A. El suceso A consiste en que entre las n
personas elegidas no haya dos o ms que cumplan aos el mismo dia, es decir, en que ca
da una de las n personas cumpla aos un da distinto al de todos los dems. El nmero
de los resultados favorables para A es igual (considerando de nuevo la sucesin) a

3 65-364 ... (365(n 1)) /365 \


= ------n factores
:---------
De aqu obtenemos que

a . i U
(_ !6> ' .
k 365"

de donde resulta, segn una frmula anterior (ver corolario 1, proposicin 5), la proba
bilidad buscada

P tA )= l-P (A )= l-
(" >
365"

En la tabla siguiente damos, para distintas n, la probabilidad de que entre n personas, por
lo menos dos cumplan aos el mismo da.

n 10 20 22 23 24 30 40 50

P(A) 0,12 0,41 0,48 0,51 0,54 0,71 0,89 0,97

(Para > 3 6 5 se obtiene naturalmente que P {A )= 1.)

2.3 Definicin geomtrica de probabilidad


La frmula (1) indicada en el epgrafe 2.2 para el clculo de probabilidades de sucesos
aleatorios es solo aplicable cuando el experimento aleatorio considerado posee un nmero
finito de resultados igualmente posibles. Ahora, existe una serie de experimentos aleato
rios que no satisfacen estas condiciones, pero para los cuales se puede indicar, de forma
semejante, una frmula para el clculo de las probabilidades que nos interesan. Siempre
y cuando pueda interpretarse el experimento aleatorio como el modelo de la tirada
aleatoria de un punto sobre un dominio bsico E cualquiera del espacio euclidiano -di
mensional, donde la palabra aleatoria debe entenderse de modo que:

1. El punto lanzado pueda caer sobre todo punto arbitrario de y

32

www.FreeLibros.com
2. los sucesos A y B, a los cuales corresponden dominios parciales de igual medida (por
ejemplo, intervalos de igual longitud, conjuntos de puntos en el plano de igual rea, cuer
pos en el espacio tridimensional de igual volum en), posean tambin la misma probabili
dad, se calcula la probabilidad de un suceso A. que est en relacin con un experimento
semejante, segn la frmula

m(A) Medida del dominio parcial de E correspondiente al suceso A


P{A) = ------------------------------- - ---------------------------- ------------------------------ (1)
m(E) Medida del dominio bsico E

(definicin geomtrica de probabilidad (fig. 11).

A E

Figura 11

Por tanto, la probabilidad de un suceso es independiente de la configuracin especial


y de la situacin del dominio parcial que representa al suceso A; ella es proporcional a
la medida (o sea, proporcional a la longitud, al rea, al volumen) de este dominio parcial.
Formulado de otra manera, la probabilidad de un suceso es, por consiguiente, igual a la
razn de las medidas del dominio parcial conveniente para el suceso y del dominio bsico.
En esta formulacin de la definicin geomtrica de probabilidad se muestra claramente la
analoga con la definicin clsica de probabilidad. El principio de los casos igualmente po
sibles de Laplace, sobre el cual se basa la definicin clsica de probabilidad, se manifiesta
en esta definicin geomtrica al establecer que los sucesos a los cuales corresponden do
minios parciales de igual medida poseen la misma probabilidad.

E je m p lo . D os personas acuerdan encontrarse en un lugar determinado entre las


12 pm y la 1 am. Cada una de las personas elige el momento de llegada, independiente
mente una de otra. Sin embargo, ambas se comprometen a estar con seguridad entre las
12 pm y la 1 am en el lugar acordado; no se hacen indicaciones ms precisas con respecto
al momento del arribo. Ahora, ellas concertan que en caso necesario, cada una espere a
la otra 15 min, pero que despus se vaya. Calculemos la probabilidad de que ambas per
sonas se encuentren. Para el clculo de la probabilidad buscada tomemos por base la de
finicin geomtrica de probabilidad.
Designemos los tiempos de llegada de las dos personas con x y y, respectivamente (por
ejemplo, ambos medidos en minutos y fracciones de minutos despus de las 12 pm) y re
presentmoslos como puntos en el plano (fig. 12).
El suceso A, consistente en que ambas personas se encuentren, es descrito por medio
del conjunto {( x ,y ): CK 60,(K 60, |x->>| < 15}. De la figura 12 inferimos directa
mente que

m(A) = 6 0 6 0 - 2 m(E) = 6 0 60
2

33

www.FreeLibros.com
y obtenemos con esto para la probabilidad buscada

y = -L *
m{E) V 4 / 16

La probabilidad del encuentro con 15 min de espera es, por tanto, algo menor que 0,5.
Dejamos al lector que verifique que, por ejemplo, la probabilidad del encuentro con
30 min de espera es igual a 0,75. Adems, el lector puede deducir fcilmente una relacin
general entre la probabilidad del encuentro y el tiempo de espera.
Obsrvese que a los sucesos aleatorios a los cuales corresponde un dominio parcial, que
posee una dimensin ms pequea que el dominio bsico E (por ejemplo, un punto sobre
una recta numrica, una recta en el plano, un plano en el espacio), les corresponde la
probabilidad cero.

La definicin geomtrica de probabilidad dio m otivo en pocas anteriores a todo tipo de falsos en
tendim ientos, equivoco? y criticas; esta condujo incluso en cierta medidai a un rechazo del clculo de
probabilidades com o disciplina cientfica. Para fundamentar esto se hizo referencia a problemas cuya
solucin es dependiente del m todo utilizado, es decir, que conducen a distintos resultados con mtodos
de solucin diferentes. La causa de esto no radica en cualesquiera contradicciones del concepto geom
trico de probabilidad, sino en la insuficiente precisin en el planteam iento del problema. Traem os un
ejemplo que es conocido en la literatura com o la paradoja de Bertrand; este proviene, como otros mu
chos ejemplos semejantes, del m atem tico francs J. Bertrand (1822-1900).

P r o b l e m a . En una circunferencia se traza de forma aleatoria (arbitraria) una cuerda. Cul es la


probabilidad de que su longitud supere la del lado de un tringulo equiltero inscrito en la circunfe
rencia (suceso A)1

S o l u c i n 1. Fijemos una direccin de la cuerda y observemos un dimetro perpendicular a dicha


r 3r
direccin (fig. 13). El suceso A ocurre si y solo si la cuerda corta al dimetro entre y ----- .
2 2
Luego se cumple

mtA) r 1
P{A) = ------------------- .
m () Ir 2_____________________________________________________________________
S o l u c i n 2. Fijemos un punto final de la cuerda sobre la circunferencia, tracemos la
la circunferencia en este punto y dibujemos un tringulo equiltero inscrito en ella con un vrtice en
dicho punto (fig. 14). Hl suceso A ocurre si y solo si la cuerda cae en el sector angular del
medio. Luego se cumple
%

^ ) = ^ L = i l = _L.
m(E) n 3

34

www.FreeLibros.com
Figura 13

S o l u c i n 3 . La longitud de la cuerda se obtiene de forma unvoca de la situacin del punto m edio


de esta. Si p es la distancia del centro de la circunferencia al punto m edio de la cuerda y / designa la

longitud de la cuerda, entonces se cum ple que / = 2 ^ r ! - p ! (fig. 15), El suceso A ocurre si y solo si

l* yj}r (\/Tr = longitud del lado de un tringulo equiltero inscrito en la circunferencia), o s e a , si se

cum ple p*S . Luego se cum ple


2

m(A) (i)'- ,

m(E) rb:

Figura 15

En el planteam iento del problema no est fijado qu se entiende por el trazado aleatorio de una cuer
da. En las soluciones dadas esto fue concebido cada vez de m anera diferente. En la solucin 1 se parti
del m odelo de la tirada aleatoria de un punto sobre un intervalo de la longitud 2r; en la 2, del lan
zam iento aleatorio de un punto sobre un intervalo de la longitud it , y en la 3, de la tirada aleatoria
de un punto sobre la superficie de un crculo con radio r. entendindose cada vez la palabra aleatoria
tal como se indica en la definicin geom trica de probabilidad. Las tres soluciones dadas no son, por
tanto, soluciones del problema anterior, sino de otros 3 problem as distintos entre s; el problema mismo
no es, sin precisin de lo que se entiende por trazado aleatorio de una cuerda, soluble en la forma
dada.

2.4 Definicin axiomtica de probabilidad


De las reflexiones sobre el efecto de estabilizacin de la frecuencia relativa extrajimos en
el epgrafe 2.1 la conclusin de que el grado de indeterminacin de la ocurrencia de un
suceso A, se puede caracterizar de forma objetiva mediante un nmero, llam ado la pro
babilidad del suceso A y designado con P {A ). En los epgrafes 2.2 y 2.3 hemos dado
-p a r a el caso en que el experimento aleatorio satisface ciertas propiedades adicionales

www.FreeLibros.com 35
(que restringen bastante su aplicacin) - frmulas para el clculo de probabilidades. U na
frmula aplicable en todos los casos para el clculo de probabilidades no existe y no puede
tampoco existir. Por eso, para la construccin sucesiva del clculo de probabilidades, que
remos tomar por base algunas suposiciones (axiomas) que se traducen en propiedades y
reglas de clculo, relativas al concepto de probabilidad y que reconoceremos como vlidas
sin demostracin. Aqu partiremos naturalmente de las experiencias acumuladas hasta
ahora por nosotros, o sea, construiremos el sistema de axiomas del clculo de probabili
dades de las propiedades comunes de la frecuencia relativa y de los conceptos clsico y
geomtrico de probabilidad.
Para la formulacin del sistema de axiomas partiremos de un lgebra de sucesos A.
Decimos que sobre A est definida una probabilidad P (o una m edida de probabilidad) ,
si P es una funcin con las propiedades sealadas en los siguientes axiomas.

A x io m a 1. A todo suceso aleatorio A e A le corresponde de forma unvoca un nmero


P (A ), la llam ada probabilidad de A, y se cumple que

Os: p ( A 1.
Con el axioma 1 se establece, por tanto, el dominio de definicin y la imagen de la fun
cin P; P es una funcin real definida sobre un lgebra de sucesos con valores entre cero
y uno. El axioma 1 lleva implcito tambin que todo suceso aleatorio posee una probabi
lidad bien determinada.

A x io m a 2. La>probabilidad del suceso seguro es igual a uno:

P ( l ) = 1 (axioma de norm acin).

El suceso seguro es siempre, segn definicin, un elemento del lgebra de sucesos A, es


decir, un elemento del dominio de definicin de la funcin. El axioma 2 dice que el valor
de la funcin P para el argumento l es igual a uno.

A x io m a 3 . D ados dos sucesos aleatorios mutuamente excluyentes del lgebra de su


cesos considerada, la probabilidad de que ocurra uno de ellos es igual a la suma de las
probabilidades de estos sucesos:

A eA , A r , B -<))=>P ( A y j B ) = P ( A ) + P ( B ) (axioma de adicin).

Observemos al respecto que un lgebra de sucesos al cual pertenezcan los sucesos alea
torios A y B contiene tambin, segn definicin, a A u , o sea, que junto con A y B tam
bin A j B pertenece al dominio de definicin de la funcin P.

Utilizando solamente el axioma 3 se puede demostrar con el principio de induccin


completa la proposicin siguiente:

C o r o la r io 1. D ados n (n > 2) sucesos aleatorios mutuamente excluyentes dos a dos


del lgebra de sucesos considerada, la probabilidad de que ocurra uno de ellos es igual
a la suma de las probabilidades de estos sucesos:

y ^ e A O ^ l^ ,...,/! ) ,
A ,r \A k=4>(i^k; i,k = l,2 ,...,n )

U na regla de clculo correspondiente, para la probabilidad de la suma de un conjunto


infinito numerable de sucesos aleatorios incompatibles dos a dos, no se puede demostrar
con el axioma 3; no obstante, subordinamos tambin al concepto general de probabilidad
la validez de una regla de clculo semejante de forma conveniente.

36

www.FreeLibros.com
A x io m a 4 . D ado un conjunto infinito numerable de sucesos aleatorios mutuamente ex
cluyentes dos a dos del lgebra de sucesos considerada, la probabilidad de que ocurra uno
de ellos es igual a la suma de las probabilidades de estos sucesos:

v4,eA 0 = 1 . 2 ,. .. ) .
A , n A k = <t> (iV&.'i'./c = l , 2 .. .. ) ,

Advertimos que un lgebra de sucesos a la cual pertenezcan los sucesos >4^' = 1 ,2 ,...)

contiene tambin, segn definicin, a A , o sea, al igual que A j ( j = l , 2 ,...) , tambin

1" 1 ;=1
Aj pertenece al dom inio de definicin de la funcin P. El concepto lgebra de sucesos

est fijado de tal modo, que todos los sucesos que aparecen en los axiomas y en las pro
posiciones del epgrafe 2.5, que se deducen de estos, pertenecen al lgebra de sucesos, es
decir, al dom inio de definicin de la funcin P.

La propiedad expresada en el axioma 4 se designa com o o-aditividad de la m edida de probabilidad


P. Esta conduce a una propiedad de continuidad en el sentido siguiente.

T e o r e m a 1. Sea (^ )u n a sucesin de sucesos aleatorios A) e \ ( j = l ,2,...).

----- a) Si se cum ple ^ , 1 ^ , 9 . . . . e ntonce s X ^ A j ) lim PiAJ.

b) Si se cum ple que A = A 3 . . . . entonces P I A l = l i m PiA>-


V j=\ / !~~

N o dem ostrarem os este teorem a, pero lo com entarem os un poco. Si (d;) es una sucesin de subcon
juntos (de un conjunto universo i), entonces las sucesiones con A, ^ A E y A , 2 a } 2 . . . son conver
gentes en el sentido del lim ite algebraico conjuntista, y se cum ple que

lim A k= At y lim A k= A
k~~ ,=1 * ,=1
respectivam ente. Luego, las proposiciones conten idas en el teorem a significan la validez de
P (lim A ) = lim P {AJ. Esto es equivalente a la continu idad de P.

Los axiomas 1 hasta 3 proporcionan que se pueden demostrar en el caso en que se apli
que la definicin clsica de probabilidad (ver 2.2 , cololario 1, proposiciones 1 hasta 3).
Asim ism o son vlidas proposiciones semejantes para la funcin f , que hace corresponder
a cada suceso aleatorio A e A la frecuencia relativa de la ocurrencia de A en n repeticiones
realizadas independientes unas de otras del experimento aleatorio observado (ver 2.1,
corolario 1, proposiciones 1 hasta 3 ). N o formularemos com o axiomas para el concepto
general de probabilidad las otras propiedades com unes establecidas para la frecuencia
relativa y el concepto clsico de probabilidad, porque ellas se pueden deducir de los
axiomas 1 hasta 3 (ver 2 .5 ). Tam poco exigirem os que A sea un suceso seguro cuando se
cum pla que P{A) = 1 , ya que esta proposicin no es verdadera en el m arco de la definicin
geom trica de probabilidad (ver 2 .3 ). En este contexto introducirem os dos conceptos.

D e f i n i c i n 1. Si se cum ple que P{A) = 1 {P{A) = 0 ) , entonces se llam a al suceso alea


torio A ( e A ) un suceso casi seguro (suceso casi im posible. )

A continuacin dam os las definiciones de dos conceptos frecuentem ente utilizados en la


teora de probabilidades.

www.FreeLibros.com 37
D e f in ic i n 2. Si A es un lgebra de sucesos y P una probabilidad sobre A, entonces
se llama al par [A, P] una familia de probabilidades.

A causa de la estrecha relacin entre las lgebras de sucesos y los espacios medibles,
verificada en el epgrafe l.S , se puede partir tambin en la introduccin axiomtica del
concepto probabilidad de un espacio medida [2,A]. Entonces se denomina a una funcin
P definida sobre la o-lgebra A de subconjuntos del conjunto universo 2, una medida de
probabilidad, si esta posee las propiedades expresadas en los axiomas 1 hasta 4.

D e f in ic i n 3. Si [2,A] es un espacio medible y P una medida de probabilidad sobre


A, entonces a la terna [2,A,P] se le llama espacio de probabilidad.

En investigaciones terico-probabilsticas actuales se parte generalmente de un espacio


de probabilidad.

2.5 Leyes de clculo para probabilidades


Formularemos y demostraremos en este epgrafe proposiciones para el clculo con proba
bilidades, que resultan directamente de los axiomas del Clculo de probabilidad y que
corresponden a las propiedades 4 hasta la 9 del colorario 1 de los epgrafes 2.1 y 2.2.
Aqu hacemos la abstraccin de que existe una familia de probabilidades [A,P], es decir,
que existe un lgebra de sucesos A sobre la cual est definida una funcin P que satisface
los axiomas 1 hasta 4. (Naturalmente podemos partir tambin de un espacio de probabi
lidad [2,A,P], o sea, de un conjunto universo 2, una a-lgebra de subconjuntos de 2 y
de una funcin P definida sobre A, que posee las propiedades expresadas en los axiomas
1 hasta 4.)

T e o r e m a 1. La probabilidad del suceso imposible es igual a cero.

m = 0. ( 1)

D e m o s t r a c i n . Se cumple que 0e2 (ver 1.4, corolario 1, proposicin 1), o sea, que
el suceso imposible pertenece al dominio de definicin de P. A causa de que 0m>= tp, se
cumple, segn el axioma 3, que

/\* v 0 = P (# + F (6 = 2 P (0 .

Como 0 u 0 = 0 , se cumple que P(<j>yj<t>) =P{<j>) y con esto que P(<t>) =2P(</>), de donde se ob
tiene (1).

T e o r e m a 2 . Para todo suceso aleatorio A e A se cumple que

P ( ) = \- P { A ) . (2)

D e m o s t r a c i n . Si A eA , entonces se cumple tambin que A A (ver 1.4, defini


cin 1), es decir, al igual que A, pertenece tambin A al dominio de definicin de P. Aho
ra, se cumplen las proposiciones A n A = <t>y A u A --2 (ver 1.3 (9 )). D e los axiomas 3 y
2 resulta que P(A v A ) =P(A) +P(A ) y que P(A u A ) = 1 , de donde se obtiene que
1 =P(A) +P(A ) y con esto (2).

38

www.FreeLibros.com
T e o r e m a 3 . Para sucesos aleatorios cualesquiera A<= A y A gA se cumple que

P( A ^>B) - P ( A ) + P ( B ) P(A r ,B ) . (3)

D e m o s t r a c i n . Se cumplen las siguientes ecuaciones:

A u B = A u (B r\A ) (ver 1.3 (1 4 )),


A u B = B u(A r> B ) (ver 1.3 (1 5 )),
A ^ B = ( A n B ) v ( B r .A ) v ( A n B ) (ver 1.3 (1 6 ));

donde los sumandos situados a la derecha son en todos los casos mutuamente excluyentes
dos a dos (fig. 8). D e la aplicacin del axioma 3 y del corolario dado a continuacin de
este se obtiene que

P(A ^ B ) = P ( A ) + P ( B n A ) ,
P(A j B) = P ( B ) + P ( A r , B ) , _
P(A \ j B ) = P ( A n B ) + P [ B n A ) + P ( A r > B ) .

Si formamos la diferencia entre la suma de las dos primeras ecuaciones y la tercera ecua
cin, se obtiene (3).

T e o r e m a 4 . Si la ocurrencia del suceso aleatorio A e A implica la ocurrencia del su-


ceso aleatorio B e A (o sea, si se cumple que A Q B ) , entonces se cumple que P A ) ^ P ( B )

D e m o s t r a c i n . Se cumple (fig. 16) que

B -A u (B n A ) con A n ( B n A ) = 0 .

Del axioma 3 se obtiene que P ( B ) = P ( A ) + P ( B r \ A ) . Segn el axioma 1 se cumple que


P ( B r > A ) > 0, con lo cual resulta que P {B ) > P ( A ) .

Figura 16

T e o r e m a 5 . Si el conjunto {A ,,A 2,..., A n, . . . j es un sistema completo de sucesos alea


torios, entonces se cumple que

D e m o s t r a c i n . Segn la premisa se cumple (ver 1.3, definicin 6) que

L J A n=Sl, A jn A t = 0 (/Vfc).

La aplicacin del corolario dado a continuacin del axioma 3 o la aplicacin del axio
ma 4, proporciona, bajo la consideracin del axioma 2, la proposicin de este teorema.

39

www.FreeLibros.com
3. Probabilidad con d icionad a

Introduciremos en este captulo el concepto probabilidad condicionada (epgrafe 3.1) y ob


tendremos de esto una frmula para el clculo de la probabilidad del producto de sucesos
aleatorios (teorema de la multiplicacin, epgrafe 3.2 ). Sobre esta base trataremos en el
epgrafe 3.3 el concepto independencia d e sucesos aleatorios, extraordinariamente impor
tante para todo el Clculo de probabilidades. Por ltimo, estudiaremos dos frmulas tiles
para numerosas interrogantes prcticas, la frm ula de la probabilidad total (epgrafe 3.4)
y la frmula de Bayes (epgrafe 3.5). En cada ocasin consideraremos un ejemplo en el
cual est presente una situacin tpica para la aplicacin de estas frmulas.

3.1 Definicin de probabilidad condicionada


Partiremos de un experimento aleatorio que nos imaginamos descrito matemticamente
por una familia de probabilidades [A, P], es decir, por un lgebra de sucesos A y una pro
babilidad P definida sobre ella. El nmero P(A) indica, por tanto, la probabilidad de la
ocurrencia del suceso A e A en el marco de las condiciones que caracterizan al experimen
to aleatorio observado. Aadamos an mentalmente a estas condiciones la de que el su
ceso aleatorio B e A ocurre y entonces el grado de indeterminacin de la ocurrencia del
suceso A se describir, por lo general, mediante un nmero distinto de P(A).
Designaremos posteriormente este nmero con P(\B) y lo llamaremos probabilidad
(condicionada) de A bajo la condicin B. La definicin matemtica de probabilidad (con
dicionada) de A bajo la condicin B queremos hacerla de modo que se corresponda con
las ideas relativas al contenido de este concepto, explicadas anteriormente. Para ello
realizaremos algunas reflexiones previas con respecto a la frecuencia relativa y al concep
to clsico de probabilidad.
Si en n repeticiones realizadas independientemente unas de otras del experimento alea
torio observado se presenta m veces el suceso B y l veces el suceso A r\B, entonces se cum-

40

www.FreeLibros.com
pie para la frecuencia relativa f(A\B) de la ocurrencia de A en los m experimentos en los
cuales B ocurre, la relacin

<i>
m m f n (B)

Si el experimento aleatorio observado posee fc(< <*>) resultados y estos son igualmente po
sibles, entonces se cumple para la probabilidad P(A\B) del suceso A bajo la condicin de
que el suceso B ocurra, segn la definicin clsica, la relacin

g(A nB )

F U \ B ) - * m L = --------i --------,2)
m m _ m
k

denotando g(C ), como antes, el nmero de los resultados que provocan la presencia del
suceso C.
Las relaciones (1) y (2) son la base para la siguiente definicin general de probabilidad
condicionada.

D e f in ic i n 1. Sea A un lgebra de sucesos, P una probabilidad sobre A y B e A un


suceso aleatorio de probabilidad positiva (P(B) > 0 ) . Entonces se llama a

P(A\B) = p (A n B )~ (3)
P(B)

la probabilidad (condicionada) del suceso A e A bajo la condicin (o tambin bajo la hip


tesis) B o abreviadamente la probabilidad condicionada de A respecto a B (fig. 17).

E je m p lo . U n sistema se compone de tres mquinas I, II y III dispuestas en serie; el


sistema falla si y solo si lo hace una de las mquinas, suponiendo que dos mquinas cua
lesquiera no pueden fallar al mismo tiempo. La probabilidad de que, en caso de desper
fecto del sistema, la causa radique en la mquina I sea igual a p ( 1); para la m
quina II, igual a q(q > 0, p + q ^ 1) y para la mquina III, igual a \ - ( p + q ) (fig. 18).

41

www.FreeLibros.com
I 1-------- 1 II I--------1 III

_________p________________ Q_____________ 1 ~ ( p + q)
I m m W iWWiWWWW | \-------------------------1
O --------------------- .--------------------- - 1
1- p Figura 18

Supongamos ahora que el sistema de mquinas no funciona y que se ha buscado en vano


un defecto en la mquina I. Calculemos la probabilidad de que la causa del desperfecto
radique en la mquina II. Para ello introduzcamos los sucesos siguientes:
A ... La causa del desperfecto radica en la mquina II.
B ... La causa del desperfecto no radica en la mquina I.
Luego hay que determinar P A S ). Segn (3) se tiene que P(A\B) = P Ahora,
P{B)
se cumple que A S B y, por consiguiente, A rJ I= A . Con esto

p im
Con P(A) = q y P{B) =1 P(B) =1 - p (fig. 18), obtenemos

P(A\B) = - i - ,
1 -P
Indicamos algunas inferencias directas de (3), que fundamentan ms ampliamente la
conveniencia de la definicin 1.
C o r o la r io 1. Si a la ocurrencia del suceso aleatorio 2?e A, P(B) > 0 , est siempre uni
da la ocurrencia del suceso aleatorio ^4eA (B ^ A ), entonces se cumple P{A\E) =1.

C o r o la r io 2. Si A eA y B e A son sucesos aleatorios mutuamente excluyentes


(AnB=<>) y se cumple que P{B) > 0 , entonces se tiene que P{A\B) = 0.

La probabilidad condicionada P(A\B) de A con respecto a B, puede ser menor, mayor


y tambin igual a la probabilidad (incondicionada) P(A). (Nos ocuparemos ms detalla
damente en el epgrafe 3.3 con el caso de la igualdad.)
E je m p lo . Tirada de un dado.

B ... El nmero obtenido es par ( P(B) = | .


v 6 2 /
a) A ... El nmero obtenido no es mayor que 3:

P{A).

b) ^ ...E I nmero obtenido es igual a 2, 3 o 4:

( ] \ A ) = = ) Pi\B) = > P {A ).
V 6 2 / 3

El nmero obtenido es igual a 1 o 2:

( ^ ) = = ) P i 4 \ m = = p (a ).

42

www.FreeLibros.com
Llamamos tambin la atencin de que la probabilidad condicionada f\A | B) de A con
respecto a B se debe diferenciar exactamente de la probabilidad condicionada P(B\A) de
B con respecto a A y tambin de la probabilidad P(A nB ) de la ocurrencia simultnea de
los sucesos A y B.
E je m p lo . Tirada de un dado.
A ... El nmero obtenido al tirar el dado no es mayor que 4.
B ... El nmero obtenido al tirar el dado es igual a 3, 5 o 6.

P(A) = = , P{B) = = ,
6 3 6 2

P (A nB ) = , P{A\B) = , P{B\A) = .
6 3 4

La correspondencia

A -+P { a \B), A e A (4)

es una funcin definida sobre el lgebra de sucesos A para up suceso fijo B e A de proba
bilidad positiva P(B) > 0 . Designemos esta funcin con PB; se cumple por tanto que

P M ) =P(A\B) = P{A nB ) ,
P(B)

El siguiente teorema, cuya demostracin recomendamos mucho al lector, contiene pro


piedades esenciales de la funcin PB.

T e o r e m a 1. Sea [A,P] una familia de probabilidades y B e A un suceso aleatorio de


probabilidad positiva. La funcin PB definida por (4) posee todas las propiedades que se
expresan en los axiomas 1 hasta 4 (epgrafe 2.4), es decir, [A .P j es tambin una familia
de probabilidades.

La probabilidad condicionada PB posee tambin, a causa de la validez del teorema 1,


todas las propiedades que fueron demostradas para la probabilidad (incondicionada) P
(ver 2.5, teoremas 1 hasta 5).
Por ltimo, advertimos que se puede interpretar la probabilidad (incondicionada) como
probabilidad condicionada con respecto al suceso seguro; se cumple para todo suceso
aleatorio A e A que

P ( l) 1

3.2 Teorema de la multiplicacin para probabilidades


Trataremos en este capitulo el clculo de la probabilidad del producto de dos suceso^ alea
torios A y B. Para ello supongamos que A y B poseen probabilidades positivas. (En caso
contrario se cumple, en virtud de A n B A y A n B E B, la relacin P(A nB ) = 0 (ver 2.5,
teorema 4), de modo que entonces toda investigacin ulterior es innecesaria). La proba

43

www.FreeLibros.com
bilidad P(A r\B) se present en el epgrafe 3.1 en la definicin de la probabilidad condi
cionada. Despejando la ecuacin (3) de 3.1 obtenemos la proposicin siguiente:

T e o r e m a 1 .(Teorema de la multiplicacin)
Sean A y B sucesos aleatorios con probabilidades positivas. Entonces se cumple que

P(A n B ) =P(A\B)P[B) =P(B\A)P{A). (1 )


La probabilidad del producto de dos sucesos aleatorios con probabilidades positivas es,
por tanto, igual a la probabilidad condicionada de un suceso respecto al otro por la pro
babilidad (incondicionada) del otro.
De (1) s obtiene directamente la siguiente relacin, que necesitaremos ms tarde:

P(A\B) P(B\A)
(2)
P{A) P{B)

La aplicacin de la frmula (1) para el clculo de la probabilidad de la ocurrencia co


mn de dos sucesos presupone, en particular el conocimiento de una de las probabilidades
condicionadas que aparecen en (1). En problemas concretos es posible obtener frecuente
mente probabilidades condicionadas mediante reflexiones que se basan en la interpreta
cin del contenido del concepto probabilidad condicionada.

E je m p lo . En una cajita se encuentran 10 fusibles, entre los cuales hay 4 defectuosos.


Se extraen sucesivamente dos fusibles, no reponindose el fusible tomado al inicio antes
de haber extrado el segundo y teniendo cada fusible la misma posibilidad de ser tomado;
calculemos la probabilidad de que los fusibles extrados estn en buenas condiciones (su
ceso A ) . Para ello introduciremos los sucesos siguientes:

A, ... El fusible tomado en la extraccin nmero i est en buenas condiciones 0 = 1,2).

Entonces se cumple que A = A 1rA1 y, por tanto, que P[A) =P (A 1n A ). Utilizaremos para
el clculo de esta probabilidad la frmula (1) en la forma

P(At n A ,)= P ( A ,)P ( A U ,).


Se cumple, utilizando la definicin clsica de probabilidad, que

PA,) = = , PA}\At) = .
10 5 9

Con esto

5 9 3 '

(Se puede obtener tambin este resultado directamente por medio de la definicin clsica
de probabilidad: -------

6 5 1 -2 1 )
P{A) =
1 2 1 0 -9 3

A continuacin indicamos una frmula para el clculo de la probabilidad de un pro


ducto de (> 2) sucesos aleatorios.

44

www.FreeLibros.com
T e o r e m a 2. Sean A v A ,..., A n sucesos aleatorios con

^ , ^ , 0 ... r 'An_i) > 0 .

Entonces se cumple que

P{A1n A 2n ...n A J = P ( A J P ( A 2\A 1)...P (A n\A i n A 2n ...n A _ i). (3)

Dejamos al lector la demostracin de esta proposicin; esta se debe realizar sobre la


base del teorema 1 con ayuda del principio de induccin completa.

3.3 Independencia de sucesos aleatorios


Sean A y B sucesos aleatorios con probabilidades positivas. En el tratamiento de la pro
babilidad condicionada hemos advertido que esta puede ser tambin igual a la probabili
dad (incondicionada) (P(A\B) = P {A )). La adicin de la condicin el suceso B ocurre a las
condiciones que caracterizan al experimento aleatorio observado, no tiene en este caso in
fluencia sobre la probabilidad del suceso A, o sea, el suceso A es en este sentido indepen
diente del suceso B. Ahora, se infiere de P{A\B) =P{ ) la relacin P{B\A) =P(B)
(ver 3.1 (2 )), es decir, si A es independiente de B en el sentido anterior, entonces B es
tambin, en el mismo sentido, independiente de A y se cumple que P{A n B ) =P(A) P{B).
(ver 3.1, teorema 1). Utilizarem os esta relacin para la definicin matemtica de la in
dependencia de dos sucesos aleatorios.

D e f i n i c i n 1. D os sucesos aleatorios A y B se llaman independientes (uno de otro)


(tambin: estocsticamente independientes), si se cumple que

P {A n B )= P (A ) P[B) , (1)

o sea, si la probabilidad del producto de los sucesos es igual al producto de las probabi
lidades de dichos sucesos.

O b s e r v a c i n . En esta definicin no hemos prestado atencin a la limitacin, dada


desde un inicio, de que A y B posean probabilidades positivas. D os sucesos aleatorios, de
los cuales uno por lo menos posee la probabilidad cero, se pueden concebir como inde
pendientes uno de otro segn la definicin 1, ya que siempre se satisface (1).

Los conceptos mutuamente excluyentes e independientes se deben diferenciar rigurosamente. La ex


clusin m utua de dos sucesos A y B significa que A n B = & y por tanto se cum ple que P(A nB ) = 0 . Por
el contrario, la independencia significa que P(A nB ) = P( A ) P(B). Por consiguiente, dos sucesos m utua
m ente excluyentes de probabilidad positiva no son independientes uno de otro.

C o r o la r io 1. Si los sucesos A y B son independientes uno de otro, entonces tambin


lo son los sucesos A y B, A y B, y tambin los sucesos A y B.

D e m o s t r a c i n . Es suficiente demostrar que de la independencia de A y B resulta la


de A y B; lo restante se aclara con esto. Sean por tanto A y B independientes, es decir,
sea P(A nB ) =P(A) P(B) . De B = (A n B ) <j(A nB ) y de (A n B ) n (A n B ) = 0 resulta, segn
el axioma 3, la relacin P(B) =P(A n B ) +P(A n B ) ; con P(A n B ) =P(A ) P(B) obtenemos
de esto

P (A n B ) =P(B) P(A)P(B) =(1 -P (A ))P (B ) =P (A ) P(B), o sea, y B son inde


pendientes uno de otro.

45

www.FreeLibros.com
El ejemplo siguiente debe ilustrar no solo el concepto independencia de dos sucesos,
sino tambin preparar la ampliacin de la definicin de independencia al caso de ms de
dos sucesos.
E je m p lo . Tiremos dos dados una vez -im aginem os los dados num erados- y obser
vemos los sucesos siguientes:
A ... El nmero obtenido con el dado 1 es impar.
B ... El nmero obtenido con el dado 2 es par.
C ... Los nmeros obtenidos son ambos pares o impares.
Supongamos que los 36 resultados posibles del lanzamiento de dos dados son igualmente
probables. Entonces obtenemos (mediante la definicin clsica de probabilidad) que

m = m = n Q = =
36 2

P(A nB) = I \A n C ) = P {B n C ) = =
36 4
Los sucesos A, B y C son, por tanto, independientes dos a dos. Sin embargo, se cumple
por ejemplo que P[C\a n B ) = 0 * P (C ), es decir, el suceso C no es independiente del suceso
A n B . Por consiguiente, no designaremos a los sucesos A. B y C como completamente in
dependientes unos de otros.

D e f in ic i n 2. Los sucesos aleatorios A v A...... A se llaman completamente indepen


dientes (entre si), si para todo nmero natural n y para nmeros naturales cualesquie
ra i,......ik, con 1 ^ i , < .. . < i k< n se cumple la relacin

(2 )
Los sucesos aleatorios A v A v ...,A n,... de una sucesin infinita se llaman completamente in
dependientes si para todo nmero natural n los sucesos A v A P...,A son completamente
independientes.

C o r o la r io 2. Si los sucesos A v A V...,A Hson completamente independientes, entonces


son tambin independientes dos a dos.
Esta proposicin se obtiene directamente de la definicin 2. Como muestra el ejemplo
anterior, el reciproco es falso, es decir, de la independencia mutua (dos a dos) no resulta
la independencia completa.

Par finalizar este epgrafe, queremos indicar un teorema que proporciona ideas interesantes sobre
las familias de probabilidades y sobre el concepto independencia.

T e o r e m a 1. (Lema de Borrl-Cantelli)
Sea [A,/) una familia de probabilidades y (AJ N una sucesin de sucesos aleatorios AeA . Con A m
denotamos al suceso aleatorio que tiene lugar si y solo si ocurre un nmero infinito de sucesos de la
sucesin N.

a) Si se cumple que X P[A) < , entonces P A J = 0 , o sea, a lo sumo un nmero finito de su-

cesos de la sucesin (AJ t N ocurre con probabilidad 1.

b) Si se cumple que f \ A n) = ~ y los sucesos A VA,,... son independientes dos a dos, entonces se

cumple que P(Am) = 1.

www.FreeLibros.com
Este teorem a, que no querem os dem ostrar, desem pea una funcin importante en la dem ostracin de
las leyes fuertes de los grandes nmeros. Sin embargo, queremos fundam entar por lo m enos que la pro
posicin de este teorem a es razonable, o sea, que se cum ple A. Esto resulta en virtud de las pro
piedades de un lgebra de sucesos (ver 1.4, definicin 1 y corolario 1) sobre la base de la relacin

A m= O A k. (Si A v A, ,. .. son subconjuntos de un conjunto universo 12, entonces


=0 k=n

A_= (~) Ak
n=0 Jk=n
es el llam ado limite superior de la sucesin W )6 N: se cum ple que x e A _ si y solo si x es elem ento
de un nm ero infinito de subconjuntos A n. )

3.4 Frmula de la probabilidad total


La frmula de la probabilidad total sirve para el clculo de la probabilidad P(B) de un
suceso aleatorio B a partir de las probabilidades P(A,) de un sistema completo
{A, A 2, .. ., a J de sucesos A (ver 1.3, definicin 6) y de las probabilidades condicio
nadas P{B \A ) del suceso B con respecto a A t(i = 1, 2 ,..., n).

T e o r e m a 1. (Frmula de la probabilidad total)


Sea [A,P] una fam ilia de probabilidades y {A v A ,..., A j un conjunto de sucesos aleato
rios A ,e A mutuamente excluyentes dos a dos y con probabilidades positivas (i = l , 2,...,n ),
cuya suma es el suceso seguro. Entonces se cumple para todo suceso aleatorio B e A que

m = % P ( B \A ) P { .A ) . (1)
1=1
O b s e r v a c i n . La frm ula (1) se llam a frm ula de la probabilidad total o tambin com pleta por
que con ella se puede calcular la probabilidad (incondicionada) de un suceso B a partir de sus pro-
babilidades condicionadas, que en este contexto se designa com o probabilidad total o com pleta
(fig. 19).

Figura 19

D e m o s t r a c i n . En virtud de las condiciones impuestas a los sucesos A v A, ...,A ,


el suceso B ocurre al menos con uno de estos sucesos. Luego, el suceso B puede represen
tarse como suma de n sucesos .mutuamente excluyentes dos a dos Br>At, i = l, 2 ,..., n
(fig. 19).

B=KJ (B n A ,).

www.FreeLibros.com
47
D e aqu resulta (ver 2.4, corolario 1)

/>(B) = 2
1=1
La aplicacin del teorema de la multiplicacin proporciona por ltimo (ver 3.2, teore
ma 1)

P(B) = 2 P (B \A ) P (A ),

o sea, se cumple (1).


E je m p lo . Observemos un modelo sencillo de un sistema de trasmisin de noticias, con
sistente en una fuente de noticias, un canal interferido y un receptor (fig. 20). La fuente
enva exactamente una de las seales x v x 2,..., x; esta se trasmite por el canal y se con
vierte en una de las seales y v y2, .... y n, que a su vez, se recibe por el receptor. Descri
bamos la fuente mediante las probabilidades p t> 0 de la ocurrencia de las seales x, ( = l ,
2 ,..., n), y el canal interferido, por las probabilidades p v de la transicin de la Seal x,
en la sea! y/ (i'= l, 2 ,..., n; j 1, 2 ,..., m ). N os interesamos por las probabilidades qJ de
la ocurrencia de las seales y \j= 1, 2 ,..., m) en el receptor.

Fuente Canal interferido Receptor


*
{*) (x ~ y) (y)
Figura 20

Introducimos los sucesos siguientes:

A t ... La fuente enva la seal x, 0 = 1, 2 ,..., n).


Bj El receptor recibe la seal yt (/= 1, 2 ,..., m ).
Entonces se cumple que A :n A k= <t>(Tk), A t u A 2u ... u A n=Sl. Adems, se dan los nmeros
p = P ( A ) mayores que 0 ( = l , 2 ,..., n), y tambin los nmeros p ^ -P iB jA ) (= 1 , 2
; = 1, 2 ,..., m ). Para q = P (B ) obtenemos con esto, sobre la base de la frmula de la pro
babilidad total,

P(B) = 2 P(Bj\A) P(A,), por tanto q = ^ P IJP ,{j= l, 2 ,..., m ).


1=1 =i
Reunamos los nmeros p v p 2,...,p en una matriz p de una fila y los n m e r o s p ,,,...,;., er
una matriz P. Entonces se cumple para la m atiiz q de una sola fila, formada por los n
meros qv q 2,...,q m, la relacin q = p P , entendindose la multiplicacin que se encuentr
en el miembro derecho de esta ecuacin como multiplicacin de dos matrices.

E je m p lo n u m r ic o . n = m = i , p = ( 0,5; 0,3; 0,2)

/o ,7 0,2 0,1
P = ( 0,3 0,5 0,2
\0 ,3 0 0,7

(Por ejemplo, la seal x 3 se convierte en y, con la probabilidad 0,3 y en y, con la pri


habilidad 0 ,7 ). Con esto se obtiene q = p P = (0,5; 0,25; 0 ,2 5 ).

www.FreeLibros.com
3.5 Frmula de Bayes
La frmula de Bayes sirve para el clculo de las probabilidades condicionadas PiA\B) de
los sucesos A k de un sistema com pleto {A v A v ..., A n} de sucesos con respecto a un suceso
B de probabilidad positiva {k = 1, 2 ,..., n), a partir de las probabilidades P{A) y de las
probabilidades condicionadas P[B \A ) ( i = l , 2 ,..., w).

T e o r e m a 1. (Frmula de Bayes). Sea [A,/*] una fam ilia de probabilidades, {A v A 2,...,


A n) un conjunto de sucesos aleatorios A eA , mutuamente excluyentes dos a dos y con pro
babilidades positivas ( = 1, 2 ,..., rt), cuya suma es el suceso seguro, y B e A , un suceso
aleatorio con probabilidad positiva. Entonces se cumple que

m .l . K u w ( t = 1 , 2.......(1)

2 r w
1=1
D e m o s t r a c i n . Se cumple (ver 3.2 (2))que

( t _ , , 2 ....
PIA,) PIB)

D e aqui resulta
| P J B jA J W
PB)

Como las condiciones para la aplicacin de la frmula de la probabilidad total se satis


facen (ver 3.4, teorem a 1), obtenemos con esto

W .U ) - (fctr 2,......

1=1
o sea, se cumple (1).-------------

E je m p lo . Continuamos con el ejemplo del epigrafe 3 .4 y nos interesamos ahora por


la probabilidad rjk de que~la seal x k haya sido la enviada una vez que se ha recibido ya
la seal yf Con las notaciones anteriores se tiene que r/k= P (A kBJ) . Por medio de la fr
mula de Bayes obtenemos

rik=PiAh\B ) ^ l
P(B) q,

( k = 1, 2 ,..., n; j = 1, 2 , .. ., m ),

donde los nmeros qt estn dados por q. p ljp l( j = l ,2 , .. ., m ) .


=i

E je m p lo n u m r ic o . U tilicem os los datos del ejemplo numrico del epigrafe 3.4 y ob


tenemos

0,70 0,18 0,12


rj*)^=1.2.3 0 ,40 0,60
*=1.2.3 0
0,20 0,24 0,56

49

www.FreeLibros.com
(Por ejemplo, se cumple que rll= PaP% = 2 --3 = 0,24, es decir, la probabilidad de
q, 0,25
que la seal x 2 haya sido enviada cuando se recibi la seal y, es de 0,24.)
Queremos fundamentar un poco la significacin de la frmula de Bayes. Para ello po
demos partir de la consideracin de un experimento aleatorio en el cual, en cada opor
tunidad, ocurre exactamente uno de los sucesos aleatorios A, A ,..., A n. Imaginemos que
no es posible una observacin directa del experimento con respecto a la ocurrencia de los
sucesos A v A j,..., A n, pero que las probabilidades de estos sucesos son conocidas o que
existen valores estimados para ellas. (En esta relacin se denominan tambin las proba
bilidades PA) ( = l , 2 ,..., ti) como probabilidades a priori.) Si se puede observar ahora
la ocurrencia del suceso B en la realizacin del experimento, se procura utilizar esta in
formacin en la toma de la decisin sobre cul de los sucesos A v A v ..., A n ocurre en el
experimento. Para ello se calcularn las probabilidades condicionadas P{Ak\B) de los su
cesos A k( k = 1, 2 ,..., n) con respecto a B segn la frmula de Bayes. (En este contexto se
denominan tambin las probabilidades P{Ak\B) (fc= l, 2 ,..., n) como probabilidades a pos-
teriori.)
Una regla de decisin posible y muy clara consiste en que ante la presencia del suceso
B se considere como ocurrido aquel de los sucesos A k{ k = 1, 2 ,..., n) que tiene la mayor
probabilidad bajo la hiptesis de que el suceso B ocurre; por tanto, se elige entre los su
cesos v4t(fc= l, 2 ,..., rt) aquel que, dando por sentado a B, tiene mayor probabilidad. Na
turalmente, esta decisin no est excenta de error, pero, se puede indicar la probabilidad
de una decisin falsa. Sobre este principio de decisin se basan muchas reflexiones, par
ticularmente de la Estadstica matemtica; el principio se debe a un clrigo ingls, Tho-
mas Bayes (fallecido en 1763), pero fue solo conocido y aplicable despus de una nueva
formulacin hecha por P.S. Laplace.
E je m p lo . Si aplicamos el principio de decisin descrito al modelo considerado de un
sistema de trasmisin de noticias, esto significa que ante la recepcin de la seal y con
sideramos como enviada aquella seal x,, para la cual la probabilidad rt es el mximo del
conjunto de los nmeros rjk (fc= l, 2 ,..., n), es decir, que tiene la mayor robabilidad de
haber sido enviada. Para el ejemplo numrico esto significa, que ante la recepcin de las
seales y v y 2 y y t se decidi por x v x 2 y x }, respectivamente. (Estas tres decisiones estn
provistas de errores; la probabilidad de una decisin falsa asciende a 0,3 para la deduc
cin de y, a x,, 0,4 para la de y a x y a 0,44 para la de y a x,.)

50

www.FreeLibros.com
4. Variables aleatorias discretas

El concepto variable aleatoria tiene una significacin central en la Teoria de probabilida


des y sus aplicaciones. Por medio de variables aleatorias se describen numricamente al
gunas caractersticas de los fenmenos aleatorios. As se describe, por ejemplo, el nmero
de artculos defectuosos en una muestra aleatoria de la produccin diaria de una fbric,
el nmero de partculas emitidas por una sustancia radiactiva en un tiempo determinado,
la duracin de un bombillo o el resultado de un proceso de medicin cualquiera en la tc
nica. Frecuentemente la realizacin de un experimento aleatorio sirve para emitir un va
lor numrico de una variable aleatoria. En la naturaleza del fenmeno radica el que se
puedan observar distintos valores de las variables aleatorias en repeticiones del experi
mento aleatorio. Para la caracterizacin terico-probabilstica de una variable aleatoria,
no es suciente la indicacin del conjunto de los valores imaginables; son mucho ms ne
cesarias las probabilidades de aquellos sucesos aleatorios que estn en relacin con la va
riable aleatoria considerada, por ejemplo, las probabilidades con las cuales la variable
aleatoria acepta determinados valores o valores de determinados intervalos.

En este captulo queremos trabajar con las llamadas variables aleatorias discretas, cuya
caracterstica comn consiste en que pueden aceptar un nmero finito o infinito numera
ble de valores; en el capitulo 5 nos ocuparemos d las llamadas variables aleatorias con
tinuas, cuyos valores imaginables cubren un intervalo.
A estas consideraciones queremos anteponer la definicin general de variable aleatoria,
que requiere del concepto espacio de probabilidad, y la definicin de funcin de distribu
cin de una variable aleatoria.

4.1 Definicin general de variable aleatoria


Los epgrafes siguientes contienen muchos ejemplos y motivaciones para los conceptos que
se introducen aqu de forma general, de modo que se obtendr pronto una cierta familia-
rizacin con estos conceptos.

5!

www.FreeLibros.com
D e f i n i c i n l.S e a [i,A ,P ] un espacio de probabilidad. Una funcin real X definida
sobre ft (m e AT(co) e R) se llama una variable aleatoria (sobre[l,A,P]), si para todo
nmero real x se cumple que

{o}Eft:Jf((D) < x } e A .

Para evitar falsos entendimientos que pudieran resultar de la denominacin variable


aleatoria llamamos la atencin expresamente de que una variable aleatoria X (sobre un es
pacio de probabilidad [2, A,P]) es una funcin, es decir, que indicando la variable inde-
pendiente ro ( e l) est fijado unvocamente el valor X(co)(e R) de la variable aleatoria X.
La aleatoriedad radica solo en la eleccin de la variable independiente me 2 y esta elec
cin se realiza segn la medida de probabilidad P.
Queremos ahora seguir explicando la definicin 1. Para ello escribiremos abreviada
mente en lugar de {mel:X(a>) < x } solo (A '<x), de forma correspondiente, en lugar de
{ooel:a ^ X < b } y {(:A'(3) = c } escribiremos (a ^ X < b ) y (X = c ), respectivamente. La
definicin 1 dice entonces que, para una variable aleatoria X, cada uno de los conjuntos
(X < x ), x e R, pertenece a la o-lgebra A de los subconjuntos del conjunto O, es decir,
que cada uno de estos conjuntos pertenece al dominio de definicin de P. (De aqui se ob
tiene fcilmente que tambin cada uno de los conjuntos (a < X < b ) y (X = c) pertenece tam
b i n al dominio de definicin de P.) Por esto es razonable hablar de la probabilidad de
que una variable aleatoria X acepte un valor menor que x (x e R ). Para esta probabilidad,
o sea, para P({(el:^(co) < x }) escribimos abreviadamente P [X < x ) .

D e f in ic i n 2 . Sea [2,A,P] un espacio de probabilidad y X una variable aleatoria so


bre [,A,P]. La funcin Fx definida por

F x )= P { X < x ), x e R (1)

se llama funcin de distribucin de la variable aleatoria X.

El valor de la funcin de distribucin Fx de una variable aleatoria X en el lugar x es,


por tanto, segn definicin, igual a la probabilidad de que la variable aleatoria X acepte
un valor que sea menor que x.

Por medio de la funcin de distribucin de una variable aleatoria se pueden expresar


las probabilidades de casi todos los sucesos aleatorios que estn en relacin con esta va
riable aleatoria. Asi se cumple, por ejemplo, que

P ( a < X < b ) = F b ) - F a ) -> (2)


dejamos al lector la demostracin de esta propiedad.

Sobre la base de los axiomas de la Teoria deprobabilidades se pueden demostrar las


propiedades de una funcin de distribucin F,enumeradas en el teorema siguiente.

T e o r e m a 1. Sea F la funcin de distribucin de una variable aleatoria. Entonces se


cumple:

1. Para todo x e R, 0 F(x) ^ 1.


2. F es montona creciente (xt < x =>F(x,) ^ F x J ).
3. F es continua por la izquierda (lim F(x) = F (x a}).
4. lim F(x) 0, lim F(x) = 1.

52

www.FreeLibros.com
D e m o s tr a c i n . Consideremos que X designa una variable aleatoria con la funcin de distribucin
F.
1. Como F(,x) indica la probabilidad de un suceso aleatorio, se cumple que CK F(x) $ 1 (ver 2.4,
axioma 1).
2. D e x t < x resulta (A'< jc,) (X < x ) y de aqu (ver 2.5, teorem a 4) P ( X < x t) $ P ( X < x 2) es decir,
F(X) Z F ( X).
3- Si (x) es una sucesin m ontona creciente de nmeros reales x < a con lim x n= a. entonces se

cumple que ( X< x ) i (X<x^) y L J (X < x ) = ( X < a ) . De aqui resulta (ver 2.4. teorema 1) que
n=i
P (X < a ) = lim (A"<x), o sea, F(a) = lim F(x), con lo cual est demostrada la continuidad por la iz

quierda de F.
4. La existencia de los lim ites sealados resulta de la monotona y del acotam iento de F (proposicio
nes 1 y 2); adems, se cum ple evidentem ente que 0 ^ lim F(x) lim F(x) 1. Por tanto, es suficien

te demostrar que se cum ple lim F ( - n ) = 0 y lim F(n) 1, recorriendo n el conjunto de los nmeros

naturales. Para ello considerem os los sucesos m utuamente excluyentes dos a dos X<j),
( j= 0 , 1 , 2 , . . . ) . Entonces se cum ple (ver 2 .4, axiomas 2 y 4) que

En virtud de (2) se cum ple oue

PM,) = P ( j - 1 < X < j ) =F(j) F{ j- 1 )

y, por consiguiente,

Luego, se cumple en total que lim F(n) - li m F f - n ) = 1.

Como la diferencia de dos nmeros situados entre cero y uno puede tener el valor uno, solo si el mi
nuendo es igual a uno y el sustraendo igual a cero, resulta de aquf que

lim F(n) =1 y tim F ( ~ n ) = 0 ,

con lo cual todo est demostrado. Adem s podem os afirmar que la propiedad 1 resulta directamente
de las propiedades 2 y 4.

O b s e r v a c i n . Las propiedades indicadas en el teorema 1 son caractersticas en el sentido de que,


para cada funcin F que tenga estas propiedades existe una variable aleatoria X, cuya funcin de dis
tribucin Fx coincide con la funcin F .

Por ltimo, queremos sealar la validez de la ecuacin

P (X = c) = F c + 0 ) - F c ) ; (3)
aqu designa F J,c+0) el lmite por la derecha de la funcin de distribucin Fx de la va
riable aleatoria X en el punto c. Por tanto, si c es un punto de continuidad de la funcin
de distribucin de X, entonces X acepta el valor c con la probabilidad cero, o sea, el su
ceso {X c) es un suceso casi imposible.
Con (3) se comprueba la validez de las ecuaciones siguientes:

P ( a < X < b ) = F /b ) - F a + 0 ), (4)


P(a < X ^ b) = F J b + 0 ) - F a + 0 ), (5)
P(aS X* b) = F r0 + O ) - F a ) , (6)

53

www.FreeLibros.com
que en unin con (1) muestran cmo se calcula, mediante la funcin de distribucin FA,
la probabilidad de que la variable aleatoria X acepte un valor de un intervalo arbitrario
dado.
Ahora queremos tratar brevemente las funciones de variables aleatorias. Primero nos
ocuparemos de la igualdad de variables aleatorias. Las variables aleatorias son funciones
y, por tanto, ya est definida en principio la igualdad de dos de ellas. En la Teoria de
probabilidades es conveniente y usual definir un concepto igualdad un poco ms general,
el cual considere la particularidad del dom inio de definicin comn (conjunto universo de
un espacio de probabilidad) de una forma adecuada.

D e f i n i c i n 3: D os variables aleatorias X y Y definidas sobre un espacio de proba


bilidad comn [SI,A,/*] se denominan iguales (simblicamente: X = Y ) , si se cumple que

/ >({a)e:A'(a)) = y(co)}) = 1 ,

o sea, si el suceso (X = Y ) es casi seguro.

T e o r e m a 2 . Sea [Si,A, P ] un espacio de probabilidad, X una variable aleatoria (sobre


[2, A ,P]) y g una funcin real continua definida sobre el eje real. Entonces la funcin
g(X) definida por

[g(J0 ](<a) =g(A(o>)), coe (8)

es tambin una variable aleatoria (sobre [S2,A,/>]).


Renunciaremos a la demostracin de este teorema; pero queremos expresar an, para
algunas funciones especiales g, la funcin de distribucin de Y =g(X ) mediante la funcin
de distribucin de X.

T e o r e m a 3 . Sea X una variable aleatoria con la funcin de distribucin F v.

1. Para Y = a X + b (a * 0 real, b real) se cumple que

para a > 0, (9)


a

( 10)
a

2. Para Y =X * se cumple que

para 0,

para x > 0 . ( 11)

3. Para K= |Jfj se cumple que

para x < 0,
l / ^ x ) F r( x + 0 ) para x > 0 . (12)

D e m o s t r a c i n . Se em plean las ecuaciones (1) hasta (6).

1. Sea a > 0. Entonces se cum ple que

Fy(x) = P( Y < x) = P { a X + b < x)

www.FreeLibros.com
o sea. (9). En el caso de que a < 0 se obtiene que

x-b \ i x-b \ x-b

( X > ------- J = 'l - p \ X s --------- j = 1 - /rv l ---------*-0


a ' a ' ' a

o sea. (10).
2. Para xsS 0 se cumple que F }(x) =P( X*<x) = 0 . Para x > 0 se obtiene que

F ,< x) = P(X><x) = P ( \ x |<>/T)

= f(-Vx<A'<Vx) =F,<Vx) - F v(-V 7 + 0),


o sea. (11).
3. Para x $ 0 se cumple que F,<x) = / >(| a'|< x ) = 0 . Para x > 0 se obtiene que

F ,(x) =P([a"|<x) = P ( - x < X < x ) =F x( x ) - F ^ - x - t - 0 ).

o sea, (12).

Queremos concluir nuestras consideraciones sobre variables aleatorias, con un seala


miento referente a que el espacio de probabilidad tomado por base para una variable
aleatoria no se presenta frecuentemente de forma explcita. Para investigaciones terico-
probabilisticas de variables aleatorias, en casos de aplicacin, son esenciales las distribu
ciones de probabilidad de las variables aleatorias consideradas, que estn caracterizadas
por las funciones de distribucin.
Por ltimo, advertimos que en algunos libros de texto la funcin de distribucin Fx de
una variable aleatoria X no se introduce como aqu mediante la definicin 2, por
Fx(x) = P ( X < x ) , sino por Fx(x) = P (X ^ x).

4.2 Definicin de variable aleatoria discreta


D e f in ic i n 1. Una variable aleatoria se llama discreta, si puede aceptar un nmero
finito o infinito numerable de valores, es decir, si el dominio de valores es un conjunto
a lo sumo numerable.

Desde el punto de vista del Clculo de probabilidades podemos considerar una variable
aleatoria discreta como dada, si estn dados los distintos valores x k de la variable alea
toria X y las llamadas probabilidades individuales p k= P (X = x k), con las cuales la variable
aleatoria X acepta estos valores. En casos concretos se mencionan por conveniencia solo
aquellos valores x k. para los cuales la probabilidad individual correspondiente p k es po
sitiva; sin embargo, no queremos acordar esto rigurosamente, para que no resulten difi
cultades innecesarias en las consideraciones tericas.
Se caracteriza una variable aleatoria discreta X. que acepta los valores x k con las pro
babilidades p k, por la llamada tabla de distribucin.

A. V. ...

P ! n2 p>

que. si es posible, se representa tambin grficamente (fig. 21).

55

www.FreeLibros.com
P( X = x)

Jki.
Figura 21

El teorema siguiente muestra, entre otras cosas, que mediante la tabla de distribucin
se fija realmente la funcin de distribucin de la variable aleatoria considerada.

T e o r e m a 1. Sea X una variable aleatoria discreta con la tabla de distribucin (1).


Entonces se cumplen las proposiciones siguientes:

1. Pk> 0,

2. Fx(x) = ^ p k, extendindose la sumatoria sobre todas aquellas k para las cuales se


k:x^<x
cumple que x k< x .

3. La funcin de distribucin Fx es una funcin escalonada que posee en los lugares xk


saltos de la altura p k.

Dejamos la demostracin sencilla de este teorema al lector; esta se obtiene de los axio
mas del Clculo de probabilidades y mediante referencia a la definicin de funcin de dis
tribucin. N o hemos excluido en la definicin 1 el caso de que la variable aleatoria X pue
da aceptar solo un nico valor x,; ella aceptara entonces este valor con la probabilidad
1. La tabla de distribucin perteneciente a esta variable aleatoria A" y la funcin de dis
tribucin tienen la forma sencilla siguiente:

X: ir*. 22).
I 1 para x > x ,

y
i
y-FJx)
l
l
l1
i
0 X, X Figura 22

Se dice tambin que X posee una distribucin puntual (en el punto x ,) . Por consiguiente,
una variable aleatoria distribuida en un punto posee siempre, independientemente del re
sultado del experimento, un mismo valor. Este caso puede concebirse como caso extremo
de lo casual.

Concluiremos este epigrafe con un ejemplo.


E je m p lo . La probabilidad de que un cazador acierte un objetivo es de 0,4 en cada
tiro. Se acuerda que solo en caso de no acertar con el primer tiro se tire una segunda vez.

56

www.FreeLibros.com
Si entonces el objetivo tampoco es acertado, se dispara una tercera y hasta una cuarta
vez, en caso de no dar en el blanco con el tercer tiro. Independientemente de si el cuarto
tiro fue certero o no, no se dispara despus ninguna otra vez. Designemos con X el n
mero de los tiros disparados por los cazadores; X es una variable aleatoria discreta. Los
valores posibles de esta variable aleatoria son los nmeros 1, 2, 3 y 4. Calculemos ahora
las probabilidades individuales p k= P { X = k ) para k = 1, 2, 3 y 4. Para ello introduzcamos
los sucesos siguientes:
A ... El tiro nmero i es certero ( i = l , 2, 3, 4).
Se cumple que P(A) = 0 ,4 y P() = 0 ,6 . Adems, los sucesos A v A P A y A 4 son com-
pletamente independientes (ver 3.3, definicin 2). As, por ejemplo, la probabilidad del
suceso da en el blanco con el tercer tiro es igual a la probabilidad de este suceso bajo la
condicin de que los tiros anteriores fueran certeros; por tanto, en esta reflexin no posee
ninguna significacin el que, por ejemplo, no se disparen otros tiros en caso de dar en el
blanco con el primero.
Expresemos los sucesos (A'= 1), ( X = 2 ) , (X = 3) y (X = 4 ) mediante los sucesos A v A }, A,
y av
(X = l ) = A V
(JT=2 ) = A l n A v
( X = 3 ) = A i n A 1n A r
( X - 4 ) = A n A }nA.
Luego, se muestra que no necesitamos para esto al suceso A t.
Considerando la independencia de los sucesos A A A, y A , obtenemos
Pl= P ( X = l ) = P < A = 0 , 4 ,
Pl= P ( X = 2 ) = P [A 1n A ^ =P (A i)P (AJ = 0,6 0 ,4 = 0 ,2 4 ,
p , = P ( X = 3) = ^ , 0 ^ ^ , ) =P{AP{AJ>P{AJ = 0 ,6 0 ,6 0 ,4 = 0 ,1 4 4 ,
P a= P { X = 4) ^ P i A ^ A ^ A J = P { A l)P (A P {A J = 0 ,6 0 ,6 0 ,6 = 0 ,2 1 6 .
(El clculo de p A hubiramos podido hacerlo ms sencillo, ya que los sucesos (A"= 1),
(X = 2 ) , (X =3 ) y (X = 4) forman un sistema completo de sucesos y con esto se cumple que
Pl +P>+Pi + P * = l) -
La tabla de distribucin de la variable aleatoria X tiene* por consiguiente, la forma si
guiente (comparar con fig. 23):

1 2 3 4

0,4 0,24 0,144 0,216

P ( X = x)

57

www.FreeLibros.com
Para la funcin de distribucin Fx se obtiene (fig. 24)
para 1,
1
U = 0 ,4 para 1 <x 2,
Fx(x) = p ( X < x ) = l p t + p t= 0 , 6 4 para 2 <xS 3,
P ^ + P i =0,784 para 3 < x < 4,
\P l + P i + P } + P 4 = l para x>4.

Figura 24

4.3 Caractersticas numricas de las variables aleatorias


discretas
En muchas ocasiones no estamos muy interesados por el conocimiento completo de todas
las probabilidades individuales de una variable aleatoria discreta, sino mucho ms por
ciertas magnitudes denominadas tambin caractersticas, que siempre proporcionan algu
na informacin sobre la variable aleatoria y su distribucin de probabilidad. En este ep
grafe trataremos el valor esperado y la varianza de variables aleatorias discretas. El valor
esperado y la varianza, pertenecen a los llamados momentos de una variable aleatoria.
D e f in ic i n 1. Sea X una variable aleatoria discreta que toma los valores xk con las
probabilidades p k. Entonces el nmero E X definido por

E X = J * Pt (1)
k
se llama valor esperado de la variable aleatoria X; aqu se supone que la serie situada en
el miembro derecho de (1 ) converge absolutamente, o sea, que se cumple que

^ (Esta condicin se satisface trivialmente en el caso que X psea solo un

nmero finito de valores, de modo que a toda variable aleatoria discreta con un nmero
finito de valores le corresponde, segn (1 ), un valor esperado.)
Por consiguiente, el valor esperado de una variable aleatoria discreta es la media pe
sada de todos los valores x t de X, emplendose como peso de todo valor x k la probabilidad
individual correspondiente p k. (Aqu no se presenta explcitamente la divisin por la suma
de todos los pesos, usual para, la media pesada, ya que esta suma es igual a uno.)

58 t

www.FreeLibros.com
La tabla de distribucin de una variable aleatoria discreta que toma los valores xk con las probabi
lidades pk, se ilustra bien com o un sistema de masas puntuales que posee en los lugares xk m asas pk (y
tiene, por tanto, la masa total u n o ). En esta ilustracin corresponde al valor esperado de la variable
aleatoria el centro de gravedad del sistema de m asas puntuales.

E je m p lo . Calculemos para la variable aleatoria X considerada en el ejemplo del epi


grafe 4.2 el valor esperado:

E X = 2 p k= 1 0 ,4 + 2 0,24 + 3 0,144 + 4 0,216 =2,176.


*

Como muestra el ejemplo, el valor esperado no es, comnmente, un valor de la va


riable aleatoria considerada. An cuando el valor esperado sea un valor de la variable
aleatoria, este no ser, por lo general, uno de los valores de esta, que en comparacin con
los otros tiene la mayor probabilidad y que por eso uno esperarla ms. Estos valores se
denominan valores modales. La razn para denominar a E X valor esperado se debe ver
en que la media aritmtica de los valores observados de la variable aleatoria es aproxi
madamente igual al valor esperado, satisfacindose esto tanto mejor, cuanto mayor sea el
nmero de los valores observados utilizados para la formacin de la media (ver 7.4).
Los teoremas siguientes contienen proposiciones, que son tiles para el clculo con va
lores esperados.
T e o r e m a 1 . Sea X una variable aleatoria discreta con el valor esperado EX, y a y
b sean nmeros reales cualesquiera. Entonces se cumple que
E (a X +b) = a E X + b . (2)
D e m o s t r a c i n . Si la variable aleatoria X toma los valores xk con las probabilidades
p k, entonces la variable aleatoria Y = a X + b acepta los valores yk= a x k+ b con las proba
bilidades p k. Por tanto, se cumple que

E = E ( a X + b ) = ^ yk p k= J (axk+ b)P k= a ^ * k Pk+ b ^


k k k k

Con E X = ^ ** Pk y resulta de aqui la afirmacin.


* *
Luego, se cumple en particular ( a = l, b = - E X ) que
E (X -E X ) =0; (3)
el paso de la variable aleatoria X a la X E X se llama centrar.
T e o r e m a 2 . Sea X uija variable aleatoria discreta que toma los valores x t con las pro
babilidades p h y g, una funcin real continua definida sobre el eje real. Si la serie

y? g(xk) p l converge absolutamente (es decir, si ^ |pt < <*>), entonces se cumple
* k

Eg(X) = J l x j p k. (4)
k
Dejamos la demostracin al lector. Para g(x) = x se cumple el teorema 2 sobre la base
de la definicin 1. Para g ( x ) = ( x - c ) J y g'(x) = |x c| * (j un nmero natural arbitrario,
c un nmero real cualquiera) se obtiene respectivamente con (4) que

E (X -c )> = J (xk- c y p k (5)

59

www.FreeLibros.com
y
E \ X - c \ >=

siempre y cuando la serie situada a la derecha de (6) sea convergente.


Variables aleatorias con el mismo valor esperado pueden diferenciarse considerable
mente en las tablas de distribucin, ya que el valor esperado no ofrece ninguna informa
cin de cmo se desvan los valores individuales de la variable aleatoria del valor espe
rado. La llamada varianza es la medida ms utilizada de la desviacin de los valores res
pecto al valor promedio de la variable aleatoria, que se describe por el valor esperado.

D e f in ic i n 2 . Sea X una variable aleatoria discreta con el valor esperado EX, que
toma los valores x k con las probabilidadesp k= P ( X = x k). Entonces el nmero D 2X definido

D 'X = E (X -E X )'= 2 (xk- E X ) ' p k (7)


k

se llama varianza (tambin dispersin) de la variable aleatoria X, donde se supone la


convergencia de la serie situada en el miembro derecho de (7) (o sea,
). (Esta condicin se satisface trivialmente en el caso de que X posea

solo un nmero finito de valores, de modo que, a toda variable aleatoria discreta con un
nmero finito de valores le corresponde segn (7) una varianza.) El nmero

gx = { d x (8)

se llama desviacin estndar (o desviacin tpica) de la variable aleatoria X.


La varianza de una variable aleatoria X es, por tanto, la media pesada de los cuadra
dos de las desviaciones de los valores xk de X, del valor esperado E X de esta variable
aleatoria discreta, siendo utilizadas de nuevo como pesos las probabilidades individuales
con las cuales s? presentan estos valores.

Si se ilustra una variable aleatoria discreta X (valor esperado EX, varianza D !X) como un sistema
de masas puntuales (con el centro de gravedad E X ), entonces corresponde a la varianza D X el momen
to de inercia de este sistema con respecto a un eje que pasa por el centro de gravedad.

E je m p lo . Calculemos para la variable aleatoria X, considerada en el ejemplo del ep


grafe 4.2, la varianza y la desviacin estndar; para ello emplearemos X = 2 ,1 7 6 :

=(1 - 2 ,1 7 6 ) 2 0 ,4 + ( 2 2 ,1 7 6 )2 0,24 +(3 - 2 ,1 7 6 ) 2 0,144 +


( 4 - 2 ,1 7 6 ) 2 0,216
2 ,2 5 7

ax= \ j D * X ~ y j 2,257 1 ,503.

La frmula contenida en el teorema siguiente se recomienda con frecuencia para el


clculo de la varianza.

60

www.FreeLibros.com
T e o r e m a 3 . Sea X una variable aleatoria discreta con valor esperado E X y varianza
D 2X, que toma los valores x k con las probabilidades p k. Entonces existe E X 1, y se cumple

(8)

D * = 2 * * - * )* A = 2 W - ^ e x h e x ) 2) p k
k k

k k

el resto se obtiene con (4), si se hace g(x) = x J.

Si se ilustra una variable aleatoria discreta com o un sistem a de m asas puntuales con la m asa total

teorem a de Steiner, segn el cual, el m om ento de inercia de un sistem a semejante de m asas puntuales
respecto a un eje que pasa por el origen, es igual a la suma del m om ento de inercia con respecto a un
eje que pasa por el centro de gravedad y el cuadrado de la distancia del centro de gravedad al origen.
Por esta razn, se denom ina tam bin en la Teoria de probabilidades la proposicin del teorem a 3 como
teorem a de Steiner.

Veamos ahora una proposicin que se corresponde bien con nuestras ideas acerca del
contenido del concepto varianza.

T e o r e m a 4 . La varianza de una variable aleatoria discreta es igual a cero, si y solo


si la variable aleatoria posee una distribucin puntual.

Dejamos la demostracin al lector; ella se obtiene directamente de (7).

T e o r e m a 5. Sea X una variable aleatoria discreta con la varianza D 2X, y sean a y


b nmeros reales cualesquiera. Entonces se cumple que

D 2 (a X + b ) = a 2D 2X. ( 10 )

D e m o s t r a c i n . Con (7) y (2) se obtiene

D 2 (a X + b ) = E ( a X + b - E ( a X + b ) ) 2
= E (aX + b -a E X -b ) l
=E (a\X -E X )*)
= a iE ( X - E X ) * = a iD 1X.

Luego, se cumplen en particular las ecuaciones

D 1 ( - X ) = D 2X, (ID
y
(1 2 )

www.FreeLibros.com
61
x
El paso de la variable aleatoria X a la -------- se llam a normar.
\D*X
X E X
Para la variable aleatoria Z = ----------------- se cumple, por tanto, que E = 0 y D %
Z = 1;
yjD>X
X E X
el paso de l a ----------------- se llama estandarizar.
\ I d *X
Las caractersticas tratadas hasta ahora: valor esperado y varianza, pertenecen a los denom inados
momentos. A continuacin traem os la definicin de los momentos.

D e f i n i c i n 3 . Sea X una variable aleatoria discreta que toma los valores x k con las probabilidades
p adem s, sea j .un nmero natural y c, un nmero real arbitrario. Entonces los nmeros

n/c) = E ( x - c y = 2 (**~c)yp* (13)

a,(c) = e \x - c \i = ^ \x k ~ c\JPk <14)


k
se llaman, respectivam ente, m om ento ordinario y m om ento absoluto d e orden j con respecto a c, supo
nindose la convergencia absoluta de la serie situada a la derecha en (13) (o sea, la convergencia de
la serie situada a la derecha en (1 4 )). Para c = 0 se habla de m om entos iniciales y para c = E X , de mo
m entos centrales (suponindose la existencia de E X ).

A simple vista se observa que se cum plen las ecuaciones u(0) = E X , n,(Jf) = 0 ,u ,(0 ) = E X 1, 0,(0) = E X 1
y \iJ(E X )= D * X = a j(E X ). La ecuacin (9) plantea que n ,(J0 = M-a(0) -[n ,(0 ) l1.
An queremos dar y demostrar una inecuacin sobre momentos.

T e o r e m a 6 . Sea X una variable aleatoria discreta con la varianza D*X y c un nmero real arbi
trario. Entonces se cumple que

Z ) y r n a(c); (15)

aqui se establece el smbolo de igualdad si y solo si se hace c EX.

D e m o s t r a c i n . U tilicem os (13), (1), ^ p k= 1, (9) y obtenemos que


k'

H,(c) = E ( X - c ) 1= ^ (x k ~ c ) 1Pk= ^ (x i - 2 c x t + c J) p k
k k

= 2 x l P k -2 c 2 x k P k + cl 2 Pk
k k k

= E X - 2 c E X + c
^ E X * -(E X ) + (E X ) - 2 c E X + c 1
= D tX + ( E X ~ c ) i > D 'X ,
de donde se obtiene la proposicin del teorem a 6.

El teorem a 6 m uestra que la varianza es el ms pequeo de los m omentos de segundo orden. El lector
debiera comparar esta proposicin con la correspondiente sobre m omentos de inercia.

El teorem a siguiente, sin dem ostracin, contiene algunas otras proposiciones sobre momentos, utili
zndose para los m om entos iniciales ordinarios de orden j la notacin (0 )); para los momen
tos centrales ordinarios de orden j, la notacin \ij (iij=\iJEX))y para los m omentos iniciales absolutos
de orden j, la notacin P/Py=dj(0)).

62

www.FreeLibros.com
T e o r e m a 7 . Se cum plen las proposiciones siguientes:

1. m 2/= S v ms general, (c) = a fe). , _ j _


2. Si existe entonces existe tambin 3, para 0 < l < j , y se cumple la inecuacin \ 0, < y P, .

3. ) m/ 0 = 2 ,3 ,...) . (Para j= 2 proporciona esto


,/=2 * .
es decir, la ecuacin (9 )).

Las caractersticas derivadas de los momentos, dadas en la siguiente definicin, son de importancia
para la apreciacin de una distribucin de probabilidad.

D e f i n i c i n 4 . Sea X una variable aleatoria discreta con varianza positiva. Entonces se llam a

(coeficiente de variacin), (16)

(coeficiente de asim etra), (17)

E {X -E X )* n4
11= - 3 = 3 (curtosis). (18)

aqu se supone la existencia de los momentos que aparecen y que E X * 0 en (16).

El coeficiente de variacin es una medida de dispersin referida al valor esperado. El coeficiente de


asimetra se muestra com o una m edida para la asimetra de una distribucin de probabilidad, denomi
nndose una variable aleatoria X con la funcin de distribucin F sim trica (con respecto a a) , si existe
un nmero a tal que P { X < a - x ) = P ( X > a + x ) , o sea, si se cum ple que F ( a - x ) = l - F ( a + x + 0 ) para to
do nmero real x. Por ltim o, la curtosis se utiliza como una m edida para la desviacin de una dis
tribucin de probabilidad de la distribucin normal (tratada en 5 .4 ). (Para la distribucin normal se
cumple ri= 0.)

4.4 Distribucin discreta uniforme


En este y en los siguientes epgrafes trataremos algunas distribuciones de probabilidad es
peciales de variables aleatorias discretas.

D e f in ic i n 1. U na variable aleatoria discreta X con los valores x v x 2,..., x se de


nomina uniformemente distribuida, si se cumple que

p k= P { X = x J = ( k = l , 2 ,...,n ). (1)
n

Se dice tambin, entonces, que X posee una distribucin discreta uniforme (en los valores
x x,,...,x ).

U na variable aleatoria discreta distribuida uniformemente est caracterizada, por tan


to, porque solo puede tomar un nmero finito de valores, que tienen todos la misma pro
babilidad. Evidentemente no puede existir una distribucin uniforme en un nmero in
finito numerable de valores.

63

www.FreeLibros.com
En casos de aplicacin se considera distribuida uniformemente una variable aleatoria
con un nmero finito de valores, si sta -expresado de forma intuitiva- no prefiere nin
guno de sus valores. Asi se acepta, por ejemplo, que el nmero que resulta al tirar un da
do es una variable aleatoria distribuida uniformemente (en los nmeros 1 hasta 6), as co
mo que los nmeros emitidos en Tele-Lotto tambin poseen una distribucin uniforme.

Para el valor esperado E X de una variable aleatoria distribuida uniformemente en los


valores x,, x 2,...,x se obtiene (ver 4.3 (1)) que

E X = ? x k. (2)
n

luego se obtiene la media aritmtica de los valores; para la varianza se cumple (ver 4.3
(9)) que

(3)

4.5 Distribucin binomial


La distribucin binomial es una distribucin discreta que posee gran significacin prcti
ca. Adems, representa un medio auxiliar apropiado para la investigacin de regularida
des de fenmenos aleatorios, que son de importancia fundamental para la teora de pro
babilidades y para su aplicacin prctica.
D e f in ic i n 1. Sea n un nmero natural arbitrario y p, un nmero situado entre cero
y uno. Una variable aleatoria X que tome los valores 0, 1, 2 ,..., se denomina distribuida
binomialmente con los parmetros n y p, si se cumple que

P (*=fc) = ( ^ ) pHX-pV-" (1)

para k = 0, 1, 2,...,n. Se dice tambin que X posee una distribucin binomial con los pa
rmetros n y p.
Antes de que investiguemos de forma ms exacta la distribucin binomial, queremos
ocuparnos de su existencia. El punto de partida lo constituye un suceso aleatorio A, que
se presenta en el resultado de un determinado experimento aleatorio con la probabilidad
P(A) =p. El nrneu (aleatorio) F(A), de la ocurrencia de A en n repeticiones realizadas
independientemente unas de otras del experimento aleatorio considerado, es una variable
aleatoria discreta con los n + 1 valores 0, 1, 2......n. Ahora queremos calcular las proba
bilidades
p k=P(Fn(A) =k) para k = 0, 1, 2,...,n .

El suceso (F(A) =fc)_ocurre si y solo si en la serie de experimentos descrita, el suceso A


ocurre k veces y el A, (n - k ) veces. Toda sucesin de sucesos semejante posee, a causa
de la independencia de cada uno de los experimentos, la probabilidad p k(l p)"~k. Como

64

www.FreeLibros.com
existen
C)
A, se obtiene
sucesiones de resultados, para los cuales aparte-; k veces A y (nk) veces

P(F(A) = k ) = p V - p )" (2 )
(:)
La frecuencia absoluta, concebida como variable aleatoria, de la ocurrencia del suceso
A(P(A) = p ) en n repeticiones independientes del experimento tomado por base posee, por
consiguiente, una distribucin binomial con los parmetros n y p (ver 2 . 1 ). _____
Para destacar la dependencia de cada una de las probabilidades P( X=k) de una varia
ble aleatoria distribuida binomialmente con los parmetros n y p, de estos parmetros, se
utiliza ocasionalmente la notacin b(k; n,p ),

b(k; n, p) =
C) p k (i - p Y (3)

El nombre de distribucin binomial se basa en que cada una de las probabilidades


b(k; n,p) para k = 0, 1, 2 ,..., son los sumandos del desarrollo del binomio [(1 p) +p]",

con lo cual se aclara tambin la relacin ^ b(k; n,p) = 1 .


k=o
La distribucin binomial se debe a Jacobo Bernoulli (1654-1705), que fue uno de los primeros en tra
tar la teora de probabilidades. Jacobo Bernoulli y su igualmente famoso hermano Juan Bernoulli
(1667-1748) pertenecen a los ms significativos discpulos de G .W . L eibniz(1646-1716). Jacobo Berhou-
lli fue profesor desde 1687 hasta su fallecim iento en la Universidad de Basilea. l escribi Ars conjec-
tandi (publicado pstumamente en 1713), uno de los primeros libros sobre el Clculo de probabilidades;
este contiene proposiciones fundamentales, en particular, sobre la distribucin binomial. Por eso se en
cuentra con frecuencia la distribucin binom ial bajo el nombre de distribucin de Bernoulli, y ms an
la denominacin del esquema de experim entos descrito anteriormente (repeticiones independientes de
un mismo experimento) como esquem a de Bernoulli.

E je m p lo . En una fbrica se producen piezas troqueladas. El productor ha asegurado


que las piezas con dimensiones adecuadas representan el 90 %. Se extraen ahora 20 piezas
de la produccin continua y entre estas solo se encuentran 15 con dimensiones adecuadas.
Queremos ocuparnos con la interrogante de si est justificado poner en duda los informes
del productor con respecto al porcentaje de piezas con dimensiones adecuadas, sobre la
base de la muestra. Para ello consideramos la variable aleatoria X, que indica el nmero
(aleatorio) de piezas con dimensiones no adecuadas en una muestra de tamao = 2 0 . Su
pongamos, de acuerdo con el informe del productor, que la probabilidad de producir una
pieza con dimensiones no adecuadas sea igual a 0 , 1 0 ( = 1 0 % ) ; entonces la variable
aleatoria X posee una distribucin binomial con los parmetros = 2 0 y />=0,10. Cada
una de las probabilidades P{X=Y) de esta variable aleatoria X se deben calcular, por tan
to, segn la frmula

P ( X = k ) =b(k; 20, 0,10) = ( 2 ) o ,1 0 * ( l- 0 ,1 0 ) - * (Jt=0, 1, 2, ..., 20)

Obtenemos la tabla de distribucin

0 1 2 3 4 5 6 7

0,122 0,270 0,285 0,190 0,090 0,032 0,009 0,002

65

www.FreeLibros.com
y P^C=k) <0,0005 para k = 8, 9 ,...,2 0 (ver tabla 1 (12.1) y fig. 25). Con esto se demuestra
que el resultado descrito anteriormente de la muestra (5 piezas fo n dimensiones no ade
cuadas en la muestra aleatoria de 20 piezas), suponiendo que p = 0 ,1 0 , posee una proba
bilidad que es aproximadamente igual a 0,03 (= 3 % ). Por tanto, sobre la base de esta
muestra se pondrn seriamente en duda los informes del productor. Si se quiere estimar
la probabilidad p de producir una pieza con dimensiones no adecuadas, sobre la base de
la muestra independientemente de los informes del productor, entonces se utilizar como
valor estimado p la frecuencia relativa de la presencia de piezas con dimensiones
no-----adecuadas en la----- muestra, es decir, se utilizar el nmero
A 5 1 A
p = = = 0,25 (25 %). (Se reflexiona fcilmente que p es aquel nmero para el cual
20 4 A
la funcin p *b(5;20,P) acepta el mximo, o sea, que p es aquel valor para el cual es
mayor la probabilidad de obtener una muestra como la extrada.)

La gran significacin prctica de la distribucin binomial se muestra ya en este ejemplo.


9 general, podemos afirmar que el nmero aleatorio de las piezas defectuosas (o de las
distinguidas por alguna otra propiedad) en una muestra de tamao n, tomada de una pro
duccin continua cuyo porcentaje de piezas desechables es de 100/;%, posee una distri
bucin binomial con los parmetros n y p. Tambin el nmero aleatorio de las piezas de
fectuosas en una muestra de tamao n, tomada de una poblacin finita (por ejemplo, de
la produccin diaria de una fbrica), con un porcentaje dedesecho.de 100p%, posee una
distribucin binomial con los parmetros n y p, si la extraccin de cada una de las piezas
se realiza consecutivamente y antes de cada extraccin se repone de nuevo la pieza toma
da anteriormente. (Una muestra tomada de esta forma se llama una muestra con reposi
cin. Se debe prestar atencin a que en una muestra sin reposicin, el nmero aleatorio
de las piezas defectuosas no posee una distribucin binomial, sino una llamada distribu
cin hipergeomtrica; de esta distribucin nos ocuparemos en el prximo epigrafe.)
Para el clculo prctico de probabilidades de variables aleatorias distribuidas binomial-
mente, son importantes las proposiciones sealadas en el teorema siguiente.

T e o r e m a 1. Se cumplen las ecuaciones


b(k; n, p ) = b ( n - k ; n, 1 - p ) , (4)

b ( k + l ; n, p) = -2 b(k;n,p), (5)
k+1 1 p

66

www.FreeLibros.com
b(k 1; rt, p) = - ----- b(k; n, p ). (6)
n -fc + 1 p

Las demostraciones de las frmulas indicadas son fciles de realizar mediante el empleo
de la definicin de los coeficientes del binomio y utilizando (3). La frmula (4) muestra
que para hacer tablas nos podemos limitar al caso 0 < p ^ 0,5; las frmulas (5) y (6) son
frmulas para el clculo recursivo de b(k + 1; n,p) y b(k 1; n,p) a partir de b(k;n,p).
Por lo dems, se debe tener en cuenta que el clculo de b(k; n,p) tropieza con dificulta-
des, particularmente para n grandes y p pequeas; con posterioridad conoceremos frmu-
las de aproximacin, convenientes precisamente para estos casos.
Nos dedicaremos ahora a la determinacin del valor esperado y de la varianza de va
riables aleatorias distribuidas binomialmente.

T e o r e m a 2 . Sea X una variable aleatoria distribuida binomialmente con los parme


tros n y p. Entonces se cumple que

EX=np, (7)
D 1X = n p ( l - p ) , (8)

(9)

D e m o s t r a c i n . Demostraremos solo (7); la frmula (8) se obtiene a travs de clcu


los anlogos y (9) se obtiene directamente de (8). Para el valor esperado tenemos que

= np [p + (l -/>)]"-* = np.

Asi vemos que, en concordancia con nuestras ideas sobre este contenido, el valor espe
rado de la frecuencia absoluta F(A)' de la ocurrencia de A en n repeticiones independien
tes de un experimento, es igual al producto del nmero n de experimentos por la proba
bilidad P{A) de este suceso, y que la varianza para p = 0 y p = 1 es igual a cero y para

p = , es mxima.
2
El teorema siguiente da informacin sobre el coeficiente de variacin 0, el coeficiente de asimetra
Y y la curtosis ti de una distribucin binomial.

67

www.FreeLibros.com
T e o r e m a 3. Sea X una variable aleatoria distribuida binomialmente con los parm etros n y p. En
tonces se cumple que

. (10)
np

12p
y= (11)
\]n p (\-p )

^ J-W -P ). (12)
n p ( l- p )

Renunciaremos a la demostracin de (11) y (12); (10) se aclara sobre la base de (7) y (9). Obser

vemos que en el caso p = , y es igual a cero. En este caso, se cumple que P ( X = k ) = P ( X = n - k ) , lo


2 1
cual es equivalente a la simetra de la distribucin binomial con los parm etros n y p = .
2
Para finalizar las consideraciones sobre la distribucin binomial, queremos destacar
una relacin fundamental entre la frecuencia relativa de un suceso en n experimentos
(ver 2.1) y la probabilidad de este.

T e o r e m a 4 . Sea A un suceso aleatorio que se presenta en el desarrollo de un deter


minado experimento con la probabilidad P(A) . Adems, designe f n(A) la frecuencia rela
tiva (concebida como variable aleatoria) de la ocurrencia de A en n repeticiones realiza
das independientemente unas de otras de este experimento. Entonces se cumple que

Ef(A) =P (A), . (13)


D*fn(A) *0 para n <*>. (14)

D e m o s t r a c i n . Designemos con F(A) la frecuencia absoluta (concebida como varia


ble aleatoria) de la ocurrencia de A en un esque.ma de Bernoulli. Segn reflexiones an
teriores Fn(A) est distribuida binomialmente con los parmetros n y p = P { A ) . Sobre la ba-
se de (7) y (8) se cumple, por tanto, EFJA) = n o y D 2F(A) =n p( 1 p). Entre la frecuencia
F (A)
absoluta F(A) y la frecuencia relativa f n(A) existe la relacin f n(A) = ----- . D e aqui
1 n
se obtiene (ver 4.3 (2) y (10) con a = y 6 = 0 ) ,
n

EfSA) = e ( ^ - ) = - L EFn(A) = np = p =P (A ) ,
^ n 7 n n

D 2f (A) =D * ( ) = D*FA) = Pd - p ) = _ 0 (n - * ~ ) .
' n ' n1 n2 n

Las relaciones (13) y (14) muestran que entre la probabilidad de un suceso aleatorio,
introducida axiomticamente, y las frecuencias relativas de este suceso, halladas de forma
prctica, existen nexos muy estrechos. La validez de las relaciones sealadas constituye
un motivo suficiente para estimar la probabilidad de un suceso- aleatorio mediante fre
cuencias relativas; este valor estimado representar tanto mejor un valor aproximado de
la probabilidad cuanto mayor sea el nmero de los experimentos realizados. La posibili
dad de estimar probabilidades de modo razonable hace de la teoria de probabilidades una
disciplina matemtica de aplicacin prctica.

68

www.FreeLibros.com
4.6 D istribucin hipergeom trica
La distribucin hipergeomtrica es una distribucin discreta, que posee gran significacin
prctica, sobre todo en el control estadstico de la calidad.

D e f in ic i n 1. Sean N, M y n nmeros naturales con M ^ N y n< N. U na variable


aleatoria X que posee como valores los nmeros naturales k con n, M,
n N M (luego, estos son los nmeros fc=mx (0, n (N M ) ) , ..., min (M,n)), se
denomina distribuida hipergeomtricamente si se cumple que

P( X =k) = (1 )

Se dice entonces tambin que X posee una distribucin hipergeomtrica.

Hemos advertido ya en el epigrafe anterior que la distribucin hipergeomtrica se pre


senta en relacin con muestras aleatorias, sin reposicin; queremos explicar esto de forma
ms exacta.

U n lote de mercancas contiene N objetos, entre los que se encuentran M defectuosos


(o distinguidos por alguna otra propiedad). Tomemos sucesivamente del lote, de forma
aleatoria y sin reposicin o de una vez, que es lo mismo, n objetos; en este contexto la
frase de forma aleatoria significa que todas las muestras posibles tienen la misma proba
bilidad. Si designamos con X el nmero, concebido como variable aleatoria, de los objetos
defectuosos en una muestra extrada de este modo, entonces un nmero natural k es evi
dentemente un valor de X si y solo si n, M y n k K N M. Para el clculo de las
probabilidades P ( X = k ) fijemos que el suceso ( X = k ) ocurre si y solo si de los M objetos
defectuosos existentes estn contenidos k de ellos en la muestra aleatoria (para esto existen

j posibilidades), y si de los N M sin desperfectos estn contenidos n k en la

muestra (para esto existen ( 1 posibilidades). Como existen en total I 1 po-


V n-k ' V /
sibilidades de escoger n objetos de N de ellos, $e obtiene precisamente para P{X = k ) , apli
cando la definicin clsica de probabilidad, la ecuacin (1), o sea, X est distribuida hi
pergeomtricamente. Llamamos la atencin de que el nmero (aleatorio) de los objetos de
fectuosos en una muestra aleatoria con reposicin est distribuido binomialmente con los
M
parmetros n y p = .
N
E je m p lo . Sea N = 100, M = 5 y = 10. Designe X el nmero (aleatorio) de los objetos
defectuosos en una muestra aleatoria.

a) con reposicin,
b) sin reposicin.

Calculemos para cada caso la probabilidad P(X = 1).

V1 /

69

www.FreeLibros.com
b) P( X= 1) =
( 100 \ /1 0 0
10 / V. 10
Nos asalta entonces la idea, de que cada una de las probabilidades de la distribucin
hipergeomtrica y binomial no se diferencian esencialmente, si el tamao de la muestra
n es pequea en relacin con el tamao N del lote de merbancias ( n N ) . En este caso,
por ejemplo, la no reposicin de un objeto defectuoso tiene una influencia muy pequea
sobre la distribucin de probabilidad para la prxima extraccin. (En esta relacin es in
teresante la proposicin siguiente: tambin en una muestra sin reposicin la probabilidad
de extrer un objeto defectuoso es igual para las distintas extracciones; esta es igual a

El teorema siguiente afirma la suposicin anteriormente sealada.

T e o r e m a 1. Se cumple para k = 0 , 1, 2, ..., n

(2)

Renunciaremos a la demes racin, que no es difcil. Del teorema 1 inferimos que se


puede sustituir en e l caso n N las probabilidades P { X = k) de una variable aleatoria dis-
tribuida hipergeomtricamente por las probabilidades b(k; n,p) de una variable aleatoria
M
distribuida binomialmente, hacindose p = -==-.

Por ltimo, indicaremos el valor esperado y Ja varianza de una variable aleatoria dis
tribuida hipergeomtricamente.

T e o r e m a 2. Sea X una variable aleatoria distribuida hipergeomtricamente. Entonces


i con p =
se cumple, M , que
N
EX=n p, (3)

D 2X = n p ( - p ) 1 (4)
N- 1
Dejamos la demostracin de esto al lector. Comparemos an el valor esperado y la va
rianza del nmero (aleatorio) de los objetos defectuosos en una muestra sin reposicin
(distribucin hipergeomtrica), con los parmetros correspondientes en una muestra con
reposicin (distribucin binomial, ver 4.5 (7) y (8)). Como se aprecia, los valores espe
rados son iguales con ambos mtodos de extraccin de la muestra. Por el contrario, la va
rianza en una muestra sin reposicin es menor que en una con reposicin

( n p ( \ - p ) < np(l - p ) para 1 < n < N), pero para N grande la diferencia es pequea
N l

como era de esperar tambin sobre la base del

teorema 1.

70

www.FreeLibros.com
4.7 Distribucin de Poisson
La distribucin de Poisson es una distribucin discreta en un nmero infinito numerable
de valores; esta desempea una importante funcin como distribucin limite de la distri
bucin binomial, en particular, para el clculo numrico de las probabilidades b(k; n,p)
cuando n es grande y p pequea.
D e f in ic i n 1. Sea X un nmero positivo arbitrario. Una variable aleatoria X, que
puede tomar los valores 0, 1, 2 ,..., se denomina distribuida segn Poisson con el parmetro
X, si se cumple que
Xk
P [ X = k ) = <rx (1)
k\

para k = 0, 1, 2 ,... Se dice entonces que X posee una distribucin de Poisson con'el par
metro X.
La evidencia de que mediante (1) est definida una probabilidad, se obtiene directa-
Xk
mente aplicando el desarrollo en serie de la funcin exponencial el = > ---- <*.<
*=o k !
Con el objetivo de destacar la dependencia del parmetro X de las probabilidades
P ( X = k) de una variable aleatoria X, que posee una distribucin de Poisson con parmetro^
A., se utiliza ocasionalmente la notacin p(k; X) para estas probabilidades
Xk e~*~
p(k; X) ---------- . (2)
k!

La distribucin de Poisson se debe a S.D . Poisson (1781-1840), matemtico francs extraordinaria


mente productivo, cuyo nombre est unido a numerosos conceptos de la matemtica (por ejemplo, la
integral de Poisson y la ecuacin de Poisson en la teoria de los potenciales).

Indicaremos ahora el valor esperado y la varianza de una variable aleatoria distribuida


segn Poisson con el parmetro X; aqui tambin se aclarar la funcin del parmetro X.
T e o r e m a 1. Sea X una variable aleatoria distribuida segn Poisson con el parmetro
X>0. Entonces se cumple que
EX=X, (3)
D 2X=X. (4)

D e m o s t r a c i n . Solo demostraremos (3); el lector debe demostrar (4) como ejercita-


cin. Se cumple que
A*
ex = x kPt = x> = 2 * = T 7 e ~
k k k=0

, T til ->
T , kl (t-l)l

xj
e x=X ex e~x=X.
j -o J-

El siguiente teorema ofrece ms informacin sobre la influencia del parm etro X en la distribucin
de Poisson.

www.FreeLibros.com
T e o re m a 2. Sea X una variable aleatoria distribuida segn Poisson con el parm etro >.>0. Enton
ces se cumple que

(' = ----- (coeficiente de variacin). (5)


'f -

y = ----- (coeficiente de asim etra). (6)



>
V= (curtosis). O)
).
El siguiente teorema muestra una relacin entre la distribucin binomial y la de
Poisson.
T e o r e m a 3. (Teorema lmite de Poisson).
Se cumple para k = 0 , 1, 2 ,... que

lim ( n ^ p k (1 p )" * = ----- e '. (8)


Zo V * ' k!
np >.=. consl.

I
De mo s t r a c i n . Con p = se cumple que
n

(" ) o - f )- - _ A V ( i - A V
V k t n nn k! ' n ' V n '

De aqu se obtiene directamente (8), para n p 0 y n p = k =constante con

i.

El teorema (3) muestra que se pueden sustituir las probabilidades b{k;n,p) de una va-
riable aleatoria distribuida binomialmente con los parmetros rt y p , por las p(k\ X) de
una variable aleatoria distribuida segn Poisson con el parmetro X = np, en el caso de un
nmero n grande y uno p pequeo; para > > 1 y p 1 se cumple, por tanto, que

b(k; n,p) ~p(k; X) con X=np. (9)

Como los nmeros b(k; n,p) son difciles de calcular, especialmente para el caso > > 1
y p < < 1, la relacin (9) es muy til para la determinacin numrica de probabilidades de
la distribucin binomial. Para el clculo de las probabilidades de la distribucin de
Poisson, que se necesitan tambin en la aplicacin de (9), son convenientes las frmulas
recursivas dadas en el siguiente teorema.

T e o r e m a 4 . Se cumplen las relaciones

p(k + 1; X) ----------p(k\ X), k ^ O (10)


k+1

p{k 1; X) = p(k\ X ) , k ^ \ . (11)


X

Las demostraciones se obtienen directamente de (2).

72

www.FreeLibros.com
Las probabilidades de la distribucin de Poisson se encuentran en tablas para valores
de X moderadamente grandes (ver tabla 2 (12.2), all 20); para mayores valores de X
conoceremos posteriormente frmulas de aproximacin.
Nos ocuparemos ahora con la cuestin de cules de las variables aleatorias, que se pre
sentan en casos de aplicacin, poseen una distribucin de Poisson.
Si se puede interpretar una variable aleatoria X (con un modelo) como el nmero de
ocurrencias de un suceso aleatorio A en una larga serie de experimentos independientes,
en los cuales el suceso A tiene siempre una probabilidad pequea, entonces X puede con
cebirse de forma aproximada como distribuida segn Poisson. La fundamentacin mate
mtica de esto radica en que el nmero (aleatorio) de la ocurrencia de un suceso A en
n repeticiones realizadas independientemente unas de otras de un mismo experimento, po
see una distribucin binomial con los parmetros n y p, y que en el caso n 1 y p 1
se cumple la proposicin (9). (A causa de que p 1 se denomina tambin con frecuencia
la distribucin de Poisson como distribucin de los sucesos raros, una denominacin evi
dentemente poco acertada.) Aqui se establece, de forma conveniente, el parmetro X igual
a la media aritmtica de los valores observados de la variable aleatoria (ver para esto (3)
y 4 .3 , observacin antes del teorema 1). Por ltimo, nombremos algunos ejemplos con
cretos de variables aleatorias, que pueden aceptarse distribuidas segn Poisson de acuerdo
con el modelo anteriormente ilustrado: el nmero (aleatorio) de llamadas que llegan a
una central telefnica durante un determinado lapso, el nmero de roturas de los hilos
que ocurren en una hilandera, para una determinada clase de tejido, dentro de un pe
riodo de tiempo dado; el nmero de tomos de una sustancia radiactiva que se descom
ponen en un intervalo de tiempo fijado, etctera.

Concluimos este epigrafe con un ejemplo.

E je m p lo . U na carga de simientes se vende en paqueticos. Cada paquetico contiene (al


rededor de) 1 000 semillas. D e pruebas anteriores es conocido que (aproximadamente) el
0,5 % de las semillas no pertenecen a la clase de las simientes. Calculemos la probabilidad
de que en un paquetico (aleatoriamente elegido) hayan ms de cinco semillas que no per-
tenezcan a la clase de las simientes (suceso B).
Para ello designe X el nmero (aleatorio) de semillas que no pertenecen a la clase de
las simientes en un paquete. Se supone, de acuerdo con los datos, que X est binomial
mente distribuida con los parmetros n = l 000 y p =0,005. Se cumple entonces que

Utilizamos (9) con X= np = l 000 0 ,0 0 5 = 5 y obtenemos

(ver tabla 2(12.2)).

73

www.FreeLibros.com
5, Variables aleatorias continuas

En este capitulo queremos tratar las variables aleatorias continuas, cuya caracterstica co
mn consiste en que el dominio de valores es un intervalo (estando tambin permitido el
conjunto R ). En relacin con variables aleatorias continuas nos interesa particularmente
que la variable aleatoria considerada tome valores de un intervalo arbitrario dado. La
probabilidad de que una variable aleatoria continua tome un valor determinado cualquie
ra, es siempre igual a cero, de modo que no se puede caracterizar la distribucin de pro
babilidad de una variable aleatoria continua indicando probabilidades particulares. Lue
go, las variables aleatorias continuas se caracterizan por el hecho de que la probabilidad
de tomar valores de un intervalo cualquiera se obtiene como el rea entre el eje x y la
llamada densidad de probabilidad sobre el intervalo considerado. Esto conduce, por tan
to, a la aplicacin del concepto de integral y en especial, a la utilizacin de integrales im
propias.
Observe el lector la aualoga de las definiciones, frmulas y proposiciones de este cap
tulo con las correspondientes del capitulo 4; estas solo se diferencian con frecuencia en
que en lugar del smbolo de sumatoria y de la probabilidad particular estn el smbolo de
integral y la diferencial de la funcin de distribucin, respectivamente.

Utilizando una teoria general de la integracin y la medida, se puede tra tar al mismo tiempo varia
bles aleatorias discretas y continuas. De esta forma se pueden representar de forma nica, mediante
integrales adecuadas, las probabilidades, el valor esperado, la varianza y los momentos de orden su
perior que nos interesan, obtenindose, naturalm ente, tanto en el caso discreto como continuo, las de
finiciones, frmulas y proposiciones dadas en este libro.

5.1 Definicin de variable aleatoria continua


D e f in ic i n 1. Una variable aleatoria X se llama continua, si existe una funcin f no
negativa definida sobre el conjunto R de los nmeros reales, al menos continua a trozos,
de modo que

(1)

para todos los nmeros reales a y b con b (fig. 26).

74

www.FreeLibros.com
v Figura 26

Desde el punto d)e vista del Clculo de probabilidades, podemos entender que una va
riable aleatoria continua X est dada cuando conocemos la funcin f x. La funcin se
llama densidad de probabilidad (tambin: densidad de distribucin, densidad o funcin de
densidad) de la variable aleatoria X. El teorema siguiente muestra que mediante la fun
cin de densidad est fijada realmente la funcin de distribucin de la variable aleatoria
considerada (ver 4.2, teorema 1).

T e o r e m a 1. Sea X una variable aleatoria continua con la funcin de densidad f x. En


tonces se cumplen las proposiciones siguientes:

1. f / x ) 0 para todo x e R, f x(x )dx = l.

2. F J x ) = J U t ) dt (fig. 21).

3. La funcin de distribucin Fx es una funcin continua, que es diferenciable en todos


los puntos de continuidd de f x, cumplindose F^x) =f ^ x ) .

y, Fx ( x o ) - P ( X<x<, )

Fx ( b ) ~ F ( a ) P( a <
X <, b)

Figura 27

Tambin aqui dejamos la demostracin al lector; se debe observar que para una varia
ble aleatoria continua X y para un nmero real cualquiera c, se cumple que (ver 4. i (3)).

Veamos ahora un ejemplo.

E je m p lo . Consideremos la funcin (fig. 28), dada por

www.FreeLibros.com
2 Figura 28

Esta funcin es no negativa y se cumple que J" J[x)dx = 1 (fig. 28). Si una variable

aleatoria continua X posee esta funcin / como funcin de densidad ( /* = /) , entonces se


cumple que, por ejemplo,

P(X^ a)

P{X> >)=1.
Para la funcin de distribucin F correspondiente a esta variable aleatoria (fig. 29) se ob
tiene que
0 para x ^ a,

a+ b
para af~
V b-a f
F(x) = P(X <x) - f M ii.
a+ b
para ------- x ^ b,
b - a f)
~ 2 (V 2

para x ^ b.

La distribucin de probabilidad caracterizada por la densidad de probabilidad / o la funcin


de distribucin F, se denomina distribucin triangular.

Y > '= H v )

1
2

a a +b b
2 Figura 29

A continuacin damos para algunas funciones especiales g, la relacin entre la densidad de


probabilidad f x de una variable aleatoria continua X y la f Y de la variable aleatoria Y g(X).
T eo r e m a 2. Sea X una variable aleatoria continua con la funcin de densidad f x.
1. La variable aleatoria Y = a X + b ( a ? t0, b reales) posee la funcin de densidad

www.FreeLibros.com
2. La variable aleatoria Y = X i posee la funcin de densidad/,.,

O para x=S 0, (3)

fM ) = 1
para x > 0 .
2fx
3. La variable aleatoria y= |A '|p o see la funcin de densidad f v
para x ^ 0 (4)
fA x)
-r,f x(x) + f - x ) para x > 0 .

La demostracin de este teorema se obtiene fcilmente con el teorema 3 del epigrafe 4.1,
aplicando la proposicin 3 del teorema 1.

5.2 Caractersticas numricas de las variables aleatorias


continuas
Trataremos en este epgrafe el valor esperado y la varianza como caractersticas num
ricas importantes de las variables aleatorias continuas. Observe el lector las analogas con
las definiciones y proposiciones correspondientes del epgrafe 4.3 sobre las caractersticas
numricas de las variables aleatorias discretas.

D e f in ic i n 1. Sea X una variable aleatoria continua con la densidad de probabilidad


f x. Entonces el nmero E X definido por

E X = J xfx)dx (1)

se llama valor esperado de la variable aleatoria X; aqu se supone que la integral situada

en el miembro derecho de (1) converge absolutamente; o sea, se cumple que

J |x |f / x ) d x < o o .

E je m p lo . Calculemos para la variable aleatoria X, considerada en el ejemplo del ep


grafe 5.1, el valor esperado:

77

www.FreeLibros.com
I.os teoremas siguientes son tiles para el clculo con valores esperados.

T e o r e m a 1. Sea X una variable aleatoria continua con el valor esperado E X y sean


a 9*0 y b, nmeros reales cualesquiera. Entonces se cumple que

E (aX +b ) = a E X + b . (2)

D e m o s t r a c i n . Si la variable aleatoria X posee la densidad de probabilidad/> en


tonces la variable aleatoria Y = a X + b posee la densidad de probabilidad /

U x ) ~ u f x ( Lr )

(ver S .l, teorema 2, proposicin 1). Con esto obtenemos aplicando (1) y
f t)d t= i

E V = E ( a X + b ) = j ' r f x ) d x = J ~ Xp-| f x dx

= j f (at+ b )f t) d t = aj tf t)d t+ b j U t)d t

=aEX+b.
(En el clculo se debe realizar una diferenciacin de casos con respecto al signo de a. )
Por tanto, se cumple en particular para una variable aleatoria continua X, la relacin

E(X-EX) =0. (3).

T e o r e m a 2 . Sea X una variable aleatoria continua con la densidad de probabilidad

f x y g una funcin real continua definida sobre el eje real. Si la integral j ~ g ( x ) f j , x ) d x

converge absolutamente (es decir, si se cumple que J ' |g(x| f x(x) dx < ), entonces

se cumple que

E g ( X ) = j g(x )fx )dx. (4)

Renunciaremos a la exposicin (por lo dems no muy sencilla) de la demostracin. Sin


embargo, observamos que para g(x) = x se cumple el teorema 2 sobre la base de la defi
nicin 1.
El clculo del valorr espe;
esperado Eg(X) sin recurrir al teorema 2, tendra que realizarse

con la frmula Eg(X) I y f tVl) (y)dy, lo cual exige, por consiguiente, el conocimiento de

la densidad de probabilidad f tla de la variable aleatoria g(X) (ver demostracin del teore
ma 1). Esto no es necesario utilizando (4), mediante la cual se simplifica considerable
mente en muchas ocasiones el clculo de Eg(X); de aqui se desprende la importancia del
teorema 2.

Para g(x) = ( x - c ) y g,(x) = | x c{y (/ un nmero natural cualquiera y c un nmero real


arbitrario), se obtiene segn (4)

E ( Xr -c
- cV
) =
= j If ( x - c ) f x ) dx (5)

78

www.FreeLibros.com
E \ X - c \ > = j \ x - c \ f x ) dx (6)

respectivamente, siempre y cuando la integral situada en el miembro derecho de (6) sea


convergente.

D e f i n i c i n 2. Sea X una variable aleatoria continua con el valor esperado E X y la


densidad de probabilidad f. Entonces el nmero D 2X definido por

D 2X = E ( X - E X ) 2= ( x - E X ) 2 f / x ) dx (7)

se llama varianza (dispersin) de la variable aleatoria X, suponindose la convergencia de


la integral situada en el miembro derecho de (7). El nmero

ax=\j D*X (8 )

se llama la desviacin estndar de la variable aleatoria X.

E je m p lo . Calculemos la varianza para la variable aleatoria considerada en el ejem-


a+b
po del epigrafe 5.1; aqui emplearemos E X = -------:
2

=2 f i t1 - i - ( l - J - ) d t= ( b - a ) 2.
J) b a ' b a ' 24

Los teoremas siguientes son tiles para el clculo de la varianza.

T e o r e m a 3. Sea X una variable aleatoria continua con el valor esperado EX, la va


rianza D 2X y la densidad de probabilidad f r Entonces existe E X 1y se cumple que

D1* = j x 2f x( x ) d x - [ j x f x ) d x y = E X > - ( E X ) K (9)

La demostracin de este teorema se realiza de forma


I anloga a la del teorema 3(4.3).

(Formalmente se tiene que sustituir % por I , x k por x y p k por f ^ x ) dx.)

T e o r e m a 4 . Sea X una variable aleatoria continua con la varianza D 2X y sean a * 0


y b nmeros reales cualesquiera. Entonces se cumple que

D \aX + b) = a 2D 2X. (10)

La demostracin del teorema 5(4.3) es vlida para aqu tambin.

Por consiguiente, para una variable aleatoria continua X se cumplen tambin las rela
ciones

D \ - X ) = D 2X (11)

www.FreeLibros.com
D 2\ 1=1- (12)
\ D 2X

C o m o e n e l c a s o d e la s v a r ia b le s a le a t o r ia s d is c r e ta s , se u t iliz a t a m b i n p a r a la s c o n tin u a s
X
e l c o n c e p to c e n tr a r p a r a e l p a s o d e A" a X - E X , e l d e n o r m a r p a r a e l d e X a ---------------

X -E X
y e l de e s ta n d a r iz a r p a r a e l d e X a ----------------

y j 'X .

Por ltimo queremos advertir que el valor esperado y la varianza, como para el caso de las variables
aleatorias discretas, son m omentos especiales que caracterizarem os en la definicin siguiente.

D e f i n i c i n 3 . Sea X una variable aleatoria continua con la densidad de probabilidad f x , j un n


mero natural y c un nmero real. Entonces se llaman

n/c)I = E ( X
* - cc)), '== lJ ( x - c ) f x ) dx (13)

a / c ) = |J T c| \ x - c \ f / x ) dx (14)

los momentos ordinario y absoluto d e orden j con respecto a c respectivam ente, suponindose la conver
gencia de la integral situada a la derecha en (14). Para c = 0 se habla de m omentos iniciales y para
c = E X de m omentos centrales (se supone la existencia de E X ).

Las proposiciones sobre momentos dadas a continuacin de la definicin 3 (4 .3 ), se cum plen tambin
para variables aleatorias continuas. D e igual modo que para las variables aleatorias discretas, se de
finen para las continuas las caractersticas numricas derivadas de los momentos: coeficiente de va
riacin, coeficiente de asim etra y curtosis (ver 4.3, definicin 4 ).

5.3 Distribucin continua uniforme


En este y en los siguientes epgrafes trataremos algunas distribuciones de probabilidad es
peciales de variables aleatorias continuas.

D e f in ic i n 1. U na variabl aleatoria continua X se denomina d i s t r ib u id a u n if o r m e


m e n te (sobre el intervalo [a , b ], a < b ) , si la densidad de probabilidad f x tiene la forma

para a ^ b,
b -a
m =< (i)
para los dems.

Se dice tambin que X posee una d is tr ib u c i n u n if o r m e (sobre el intervalo [a, 6]) o una d i s
trib u c i n r e c ta n g u la r (fig. 30).

80

www.FreeLibros.com
f

1
y - f x( *)
1
b-a

a X Figura 30

Para la funcin de distribucin F (fig. 31) se obtiene

0 para x < a,
x-a
F x)=P (X < x)=\ fA 0dt= < (2)
b a
1 para x > b.

Para el valor esperado E X se obtiene

a+b
E X = f xfx)dx = d x = (3)
J -- Ja b - a ~2~

y para la varianza
ianza se tiene

D*X (4)

Para una variable aleatoria continua existe una distribucin uniforme, si y solo si esta
toma valores de subintervalos de igual longitud pertenecientes a su dominio de valores y
que es a su vez un intervalo, con igual probabilidad. En casos de aplicacin se acepta que
una variable aleatoria est distribuida uniformemente, si sta -hablando sin mucha pre
cisin- no prefiere ninguno de los subintervalos de igual longitud (de su dominio de va
lores) .

5.4 Distribucin normal


La distribucin normal es una distribucin de variables aleatorias continuas, que se utiliza
mucho en las aplicaciones del Clculo de probabilidades. Pero antes de referirnos a esto,
queremos caracterizar la distribucin normal mediante la densidad de probabilidad co
rrespondiente e investigarla detalladamente.

www.FreeLibros.com
D e f in ic i n 1. Sea 11 un nmero real y o un nmero positivo. Una variable aleatoria
continua se denomina distribuida normalmente con los parmetros |i y a 2, si la densidad
de probabilidad f x tiene la forma

fx )= - - e 2"' , <x<~. (1 )
\/2n o

Se dice tambin que X posee una distribucin normal con los parmetros n y a 2 o una dis-
tribucin N(\l, a 2) (fig. 32).

y =f x m

o +o x Figura 32

La demostracin de que mediante (1) est definida realmente una densidad de proba
bilidad, se basa fundamentalmente sobre la ecuacin

j ' e~ dt=' .

Para la densidad de probabilidad de una variable aleatoria distribuida normalmente


con los parmetros ti y o 1, se utiliza generalmente la notacin q>, donde la dependencia
de n y o 1 queda expresada en la forma
2 -x.z)'
<p(x: u. o * )= - e ** ,- o o < x < > (2)
\2 a

La influencia de los parmetros ( iy o 1 sobre la situacin y la forma de la curva dada


por (2), se reconoce de la figura 32; la curva es simtrica con respecto a la recta x = ti,
posee puntos de inflexin en n o y p. + a y tiene en x = n un mximo con el valor de la

funcin - .
V2n o

Para la funcin de distribucin Fx de una variable aleatoria X, distribuida normalmente


con los parmetros y o 2, se cumple que

Fx(x) - I e w dt. (3)


V2no*'

La integracin de la funcin que est en (3) bajo el smbolo de integral no es realizable


sobre un intervalo cerrado, pero se puede indicar con la exactitud requerida un valor
aproximado de la integral anterior para todo x, con mtodos apropiados de la matemtica
prctica.

www.FreeLibros.com
Para la funcin de distribucin de una variable aleatoria distribuida normalmente con
los parmetros ti y o 1, se utiliza generalmente la notacin 4>, donde de forma anloga a
(2), la dependencia de ti y a 2 queda expresada en la forma
r j r - lju
(JC, n, o 2) = I <p(; m O1) d t = I e w dt (4)
J \2 n a J - -
El teorema siguiente pone de manifiesto la significacin terico-probabilistica de los pa
rmetros 11 y a 2.
T e o r e m a 1. Sea X una variable aleatoria distribuida normalmente con los parmetros
li y a 2. Entonces se cumple que

*=H , (5)
D 2X = a 2. (6 )

D e m o s t r a c i n . Con t y J e 2dt = ^2n se obtiene que

EX= x / , ( x ) d x = f x<p(x; n, o 2) dx = ^- j x e 2 dx
\2n a J

= i r
__ te "L
dt + u 1 r jf e d t= n .
y2n J \2n

D e esta expresin y con

j f t2 e l d t = j e 2dt= y2

se obtiene que

D *X m f ( x - E * ) 2/ / x ) d x = J (x - n )2 cp(x; u, o 2) dx

r-
= -r = ^ - (x -n )2 e w dx
\2 n o

= f t1 e 2d t = crJ.
y2n
El teorema siguiente se refiere a momentos de orden superior de la distribucin normal y a carac
tersticas num ricas derivadas de los momentos.

T e o r e m a 2. Sea X una variable aleatoria distribuida normalmente con los parmetros y o 1. En-
tonces se cumple que________________________________________________________________________________
H2t+l( J 0 = ( J r - ^ ) 2*+1=O, *.= 1 ,2 ,..., (7)
ti,t( j 0 = y r - j i r ) = i -3 ...(2 fc- n o21, * = i , 2 ......... (8)

o
<1= (coeficiente He nacin), (9)
(i
Y=0 (coeficiente de asimetra), (10)
T)=0 (curtosis), (11)
donde se supone en (9) que ji^O.

83

www.FreeLibros.com
El lector puede realizar independientem ente la dem ostracin sencilla de estas frmulas. Aadimos,
que una variable aleatoria distribuida normalmente con los parmetros u > o ! es simtrica con respecto
a x = n y aseguramos que todos los m omentos de orden impar referidos a n, as como el coeficiente de
asimetra, son iguales a cero. La curtosis est definida, precisam ente, de modo que esta caracterstica
numrica sea igual a cero para el caso especial de la distribucin normal.

Trataremos ahora la distribucin JV(0,1). Queremos denotar con <p la densidad de pro
babilidad de una variable aleatoria distribuida normalmente con los parmetros 0 y 1. y
con la funcin de distribucin correspondiente. Se cumple (figs. 33 y 34), por tanto,

p(x)=<p(x; 0 , 1 ) = i e 2, - o < x < ~ , (12)


\2 n

(x) (x; 0 , 1 ) = - I e 2dt, - o < x < ~ . (13)


V2 J -

Figura 34

La funcin (y adems est tabulada (ver tabla 3 (1 2 .3 )); a causa de


< p ( -x ) = ( p ( x ) ,- ~ < x < o o , (14)
( - x ) = 1 - ( x ) , <x<>. (15)

nos podemos limitar en este caso a argumentos x no negativos.


Calculemos ahora la probabilidad de que una variable aleatoria X distribuida normal
mente con los parmetros 0 y 1, tome valores entre - k y + k (k : nmero natural). Se
cumple que:

P(|jr|<fc) = P [ - k < X < k ) =4(fc)- < b ( - k ) = 2 (fc) - 1 . (16)

84

www.FreeLibros.com
- 3 - 2 - 1 0 1 2 3 '
(u - 3o) ( v - 2 o) ( f t - o ) <j ) (j + o ) * 2 o) (fi 3o) F ig u ra 35

Aqu hemos utilizado (15) y P(X=c) = 0 (X, variable aleatoria continua y c. nmero real).
Para = 1,2,3 obtenemos, por consiguiente, (ver tabla 3(12.3) y fig. 35).

P ( Z < 1 ) =0,683 =68,3% , (17)


P ( X < 2) =0.955= 95,5% , (18)
P ( X < 1 ) =0,997 =99,7% . (19)

La relacin (19) expresa que es prcticamente seguro, que una variable aleatoria distribui
da normalmente con los parmetros n = 0 y o * = l tome solo valores entre - 3 y +3. Ob
serve el lector que la probabilidad de que una variable aleatoria distribuida normalmente
con los parmetros 0 y 1 tome valores de un intervalo arbitrario dado, es positiva, pero
que es prcticamente imposible que una tal variable aleatoria tome valores de un intervalo
disjunto con {x : x e R A - 3 < x < 3 } .
Mostraremos ahora como se pueden calcular los valores (x; n, o1) de la funcin de
distribucin de una variable aletoria distribuida normalmente con parmetros cuales
quiera n y a 1, sobre la base de los valores O (x) de la funcin de distribucin 4 de una
variable aleatoria distribuida normalmente con los parmetros |i= 0 y crJ= l.

T eo r e m a 3. Para todo nmero real x se cumple que

( 20)
a a

(2 1 )

Demostracin
1
<p(x; u, o 1) = e
y2n a

1
<P
a

85

www.FreeLibros.com
De aqui se obtiene fcilmente la proposicin siguiente:

X -U
T e o r e m a 4. Si posee una distribucin N(p., o 2), entonces ------- posee una distri-
o
bucin Ar(0,1).

Demostracin

F x_Jx) = P ( X ** < x ) = P ( X < x o + n )


B ' 0 '

= ( xct+ h; n , a 2) = > +- 11 ^ = < t > ( x ) .

X -n
(Observemos que en virtud de E X = n y D 1X = t s \ la variable aleatoria ------- posee
a
siempre el valor esperado cero y la varianza uno; la proposicin fundamental del teorema
X \i
4 consiste en que si X est distribuida normalmente, e n to n ce s------- tambin lo est.)
o
Estas proposiciones permiten calcular de forma sencilla, utilizando una tabla para 4>,
la probabilidad de que una variable aleatoria X distribuida normalmente con los parme
tros u y o 2 tome un valor de un intervalo arbitrario. Se cumple que

( 22 )

En particular, obtenemos para un nmero natural k cualquiera que


P (|jr-n |< fc o ) =(fc) - ( - * ) =2 (*) - 1 , (23)

(ver (16)), de donde se obtiene para fc = l,2 ,3 , utilizando (17), (18) y (19)

F(pir-n|<<T) -0 ,6 8 3 = 68,3% , (24)


P(|jr-U|<2CT)-0 ,9 5 5 = 9 5 ,5 % , (25)
#(|jiri|<3cr) 0 ,9 9 7 = 9 9 ,7 %. (26)

Luego, es prcticamente seguro que una variable aleatoria distribuida normalmente con
los parmetros n y o 2 tome solo valores entre n - 3 o y u + 3 o , o sea, que estn a una dis
tancia del valor esperado u menor que el triplo de la desviacin estndar o. Esta regla
se llama regla 3 o (ver fig. 35).
Queremos tratar ahora la existencia de la distribucin normal. Para muchas variables
aleatorias que aparecen en planteamientos de problemas prcticos, se muestra (por ejem
plo, sobre la base de los valores observados de la variable aleatoria considerada especial
mente) que la distribucin de probabilidad se puede describir muy bien a travs de una
distribucin normal. Una caracterstica comn de estas variables aleatorias consiste fre
cuentemente, en que estas se obtienen mediante superposicin aditiva de un nmero ele
vado de efectos aleatorios, independientes unos de otros, teniendo cada uno una influen
cia insignificante sobre la variable aleatoria considerada, en comparacin con la suma de
los otros efectos. Posteronhente daremos la fundamentacin matemtica de que tales va
riables aleatorias puedan concebirse, en buena aproximacin, distribuidas normalmente
(ver 7.6). Aqui solo queremos informar que los errores de observacin en un proceso de
modicin (por ejemplo, en mediciones de longitud) y las propiedades de un producto, en
una fabricacin en serie, que se pueden describir numricamente (por ejemplo, la resis-

86

www.FreeLibros.com
tencia a la compresin de cubos de hormign o del contenido de botellas llenadas auto
mticamente), se pueden concebir como variables aleatorias distribuidas normalmente.
E jem p lo . En una cepilladora de metales se producen discos y se investiga su grosor
X. Sobre la base de las experiencias existentes, se supone que X est distribuida normal
mente y que para una determinada graduacin de la mquina posee el valor esperado
X = H = 10 mm y la varianza D 1X=<s1(0,02 nun)1, Un disco tiene las medidas adecuadas
y, por tanto, est en condiciones de ser utilizado, si su grosor est entre 9,97 y 10,05 mm.
Calculemos la probabilidad de que un disco posea las medidas adecuadas; para ello uti
lizaremos (22), (15) y la tabla 3(12.3):

= 0(2,5) - ( - 1 ,5 ) =(2,5) +(1,5) - 1 =0,927.


Considerando los lmites de tolerancia dados y la simetra de la distribucin normal, es
evidentemente ms conveniente elegir una graduacin de la mquina con u = 1 0 ,l mm.
Para una varianza fija <r2=(0,02 m m )2 se obtiene el valor 0,955 para la probabilidad bus
cada, lo que puede confirmar directamente el lector con (25).
Queremos concluir nuestras consideraciones sobre la distribucin normal con algunas observaciones
acerca de la historia de esta distribucin tan nombrada y utilizada hoy en dia. Se puede tomar como
fecha de nacimiento de la distribucin normal el 12 de noviembre de 1733; ese dia se public un pe
queo escrito de A. De Moivre (1667-1754, matemtico relevante que fue desterrado de Francia y que
en Londres se ocup en dar indicaciones a los jugadores de azar), en el cual la distribucin normal,
incluyendo su ecuacin de definicin, se deduca como distribucin limite de la distribucin binomial.
Las aplicaciones prcticas se obtuvieron solo mediante las investigaciones astronmicas intensivas de
P.S. Laplace (1749-1827, en 1812 apareci su gran obra sobre el Clculo de probabilidades) y C.F.
Gauss (1777-1855) dentro de la teora de los errores de observacin, con lo cual la distribucin normal
fue redescubierta. Por esto, en los pases de habla germana se designa la grfica de la densidad de pro
babilidad de la distribucin normal como curva de la campana de Gauss. La llamada integral del error
de Gauss

(27)

se relaciona con la funcin de distribucin O de la distribucin A^O.l) mediante las ecuaciones

(28)

A la divulgacin de la distribucin normal contribuy decisivamente el cientfico belga A. Qutelet


(1796-1874), quien fue activo en numerosos campos, y se considera como descubridor de la distribucin
normal para la Biometra y de quien provino tambin el nombre de distribucin normal. Esta denomi
nacin dio motivo a todo tipo de interpretaciones errneas. Uno de los mritos de K. Pearson (1857-
1936, quien se ocup adems intensivamente de la historia de la d bucin normal), es haber com-
probado que en la naturaleza existen variables aleatorias que no estr distribuidas normalmente y que
esto no es algo anormal.

5.5 Distribucin exponencial


La distribucin exponencial es una distribucin de variables aleatorias continuas, que se
presenta en casos de aplicacin, en particular, en la descripcin de tiempos y de diferen

87

www.FreeLibros.com
c ia s de tie m p o d e p e n d ie n te s d e la c a su a lid a d . D e s d e el p u n to de v ista m a te m tic o , la
d istr ib u c i n e x p o n e n c ia l se c a r a c te r iz a p o r ser m uy f cil de m anejar.

D e f in ic i n 1. S e a a un n m ero p o sitiv o . U n a v a r ia b le a lea to r ia c o n tin u a X se d e


n om in a distribuida exponencialmente con el parmetro a. si la d en sid a d d e p ro b a b ilid a d
/ , tie n e la form a

para 0,
(1)
para x > 0 .
Se dice tambin que X posee una distribucin exponencial con el parmetro a (fig. 36).
(El lector debe reflexionar si mediante (1) est defin' realmente una distribucin de

probabilidad, es decir, si se cumple en particular que f x (x )d x= 1).

y
2

0 2 3 x Figura 36

Para la funcin de distribucin Fx de una variable aleatoria X distribuida exponencial


mente con el parmetro a (fig. 37), se cumple que

(2 )

.i' .=/; ( .v), a = 2

0 Figura 37

Ahora damos el valor esperado y la varianza de una variable aleatoria distribuida ex


ponencialmente con el parmetro a > 0 donde se muestra tambin la significacin terico
probabilstica del parmetro a.

T eo rem a 1. Sea X una variable aleatoria distribuida exponencialmente con el par


metro a > 0 . Entonces se cumole que

www.FreeLibros.com
D e m o s t r a c i n . Slo demostraremos (3); la demostracin de (4) se desarrolla de for
ma similar. Se cumple que

l x a e ' d x - - x e ~ ax + I dx
Jo "

= b e 1
-------e~ 1
-t--------
a a

Con lim ( b e "*) = lim ( e "' | = 0 obtenemos que


* V a /

E X - I x f j i x ) d x = Ix a e " d x = lim Ixae =


z-- Jo
Si y X e s t n distribuidas exponencialmente con los parmetros a t y a 2, respectivamen
te, entonces se cumplen en caso de que a, < a ; las inecuaciones EX, > E X 2 y D 2X t > D 2X r
E s ta s p ro p o s ic io n e s c o in c id e n b ie n co n la id e a d e la d is trib u c i n ex p o n e n cial, q u e se lo g ra
con la figura 36.

E je m p lo . Calculemos la probabilidad de que una variable aleatoria X, distribuida ex


ponencialmente con el parmetro a > 0 , tome un valor que sea menor que el valor espe
rado. Con (3) y (2) se obtiene que

P(X<EX) = P ^ X < ^ = F X^ ^ = \-e = 1 e -1=0,63.

Esta probabilidad es, por consiguiente, independiente de a y es mayor que 0,5.

Para concluir, queremos nombrar algunas variables aleatorias que se presentan en casos
de aplicacin, cuya distribucin de probabilidad se describe frecuentemente mediante una
distribucin exponencial: duracin de llam adas telefnicas, diferencia de tiempo entre la
ocurrencia de interrupciones en un parque de mquinas o, ms general, entre el encuentro
de clientes en una instalacin de servicios, tiempo de vida de elementos de contacto, asi
como de seres vivientes, etc. Aqui se har, de modo conveniente, el parmetro a igual
al inverso de la media aritmtica de los valores observados de la variable aleatoria con
siderada en cada ocasin (ver (3) y 4.3, observacin antes del teorema 1).

5.6 Distribucin t y F

En este epgrafe presentaremos otras distribuciones de probabilidad de variables aleato


rias continuas, que desempean una funcin en la estadstica matemtica y que en esta
relacin se denominan distribuciones de prueba; se trata de las distribuciones xJ> t y F.
Aqui caracterizaremos en cada ocasin la distribucin por medio de la densidad de pro
babilidad e indicaremos el valor esperado y la varianza. Renunciaremos a las demostra
ciones; el lector interesado las encontrar en otra bibliografa.

Para la realizacin prctica de procedimientos estadsticos frecuentemente se necesita


para un valor p dado ( 0 < p < l ) un valor x p de la variable aleatoria X correspondiente,

89

www.FreeLibros.com
para el cual la probabilidad de que X tome valores mayores que xp sea igual a 1 p
(P (X > x p) =1 p). Tales valores se denominan percentiles de orden p, cuya caracteriza
cin exacta, utilizando la funcin de distribucin es el objeto de la definicin siguiente.

D e f in ic i n 1. Sea X una variable aleatoria continua (densidad de probabilidad f r


funcin de distribucin Fx) y p un nmero situado entre cero y u o. Entonces un nmero
xp se llama percentil de orden p, si se cumple que (fig. 38)

FM P) =P-

Un percentil de orden p = se llama mediana.


.2

x. Figura 38

Para las distribuciones de prueba que se tratan a continuacin, en el captulo 12 se dan


algunos percentiles.

5.6.1 Distribucin x 2
D e f in ic i n 2 . Sea m un nmero natural. U na variable aleatoria continua X se de
nomina distribuida x 1 con m grados de libertad, si la densidad de probabilidad f x tiene la
forma
para 0,
/iW i-
x1 e 2 para x > 0 . (2)

Se dice tambin que X posee una distribucin X2 con m grados de libertad (fig. 39). De
notamos el percentil de orden p de la distribucin x 2 con m grados de libertad con X2mp-
En (2) T es la llamada funcin gamma completa definida por

= J t 1-' e-'dt, z > 0 . (3)

Figura 39

90

www.FreeLibros.com
La funcin gamma se debe a L. Euler (1707-1783), el m atem tico m s productivo, al m enos del si
glo XVIII. Aunque Euler perdi la vista de un ojo en 1735 y en 1766 qued com pletam ente ciego, es
cribi en total 886 m anuscritos, entre los cuales se encuentra un nm ero asombroso de libros de texto.

Para nuestros intereses es suficiente conocer las proposiciones siguientes sobre la fun
cin gamma. Se cumple que

F(z) = ( z l ) r ( z - l ) , para z > l ,

rq)=i,r ( (5)

de donde se obtiene en particular que

T(m) = ( m - l ) !, para m > 1, m e N . (6 )

El teorema siguiente trata sobre el valor esperado y la varianza de la distribucin x 2


con m grados de libertad; aqu se aclara tambin la influencia de m.

T e o r e m a 1. Si X posee una distribucin x 2 con m grados de libertad, entonces se cum


ple que

EX=m, (7)
D 1X = 2 m . (8)

Advertimos an que la distribucin x 2 con m = 2 grados de libertad es una distribucin

exponencial con el parmetro a = (ver 5.5).


2
La distribucin x 2 est en estrecha relacin con la distribucin normal. Para mostrarlo
demostraremos la siguiente proposicin especial.

T e o r e m a 2. Sea X una variable aleatoria con una distribucin 7V(0,1). Entonces la va


riable aleatoria Y = X 2 posee una distribucin x 2 con un grado de libertad.

D e m o s t r a c i n . Se cum ple (ver 5.1, teorem a 2, proposicin 2) que

0 para 0,

f r W =<
para x > 0 .
2yjx

Con <p(i) ----------- e 2y <P(-0 =<P(0 se obtiene de de aqu


\& t

para 0.

fy (x )=<
2<P(Vs) 1 e 2
para x > 0 .

Mi)
con lo cual est dem ostrada la proposicin del teorema.

91

www.FreeLibros.com
La distribucin xl fue descubierta en 1876 por R. Helmert (como distribucin de la suma de cuadra
dos de variables aleatorias independientes con distribucin N(0 ,1 )) y vuelta a hallar en 1900 por K.
Pearson, fundador en Inglaterra de una escuela de Estadstica matemtica de altos rendimientos: por
eso esta distribucin se denomina de H elm ert o de Helmert-Pearson.

5.6.2 Distribucin t
D e f in ic i n 3. Sea m un nmero natural. Una variable aleatoria continua X se de
nomina distribuida t con m grados de libertad, si la densidad de probabilidad f x tiene la
forma

(r f i)
f x M = (9)

Se dice tambin que X posee una distribucin t con m grados de libertad (fig. 40). Deno
tamos el percentil de orden p de la distribucin t con m grados de libertad con tmp.

En (9), F es He mievo smbolo para la funcin gamma completa. Observemos que la


densidad de la distribucin t con m grados de libertad es una funcin par ( f - x ) = / t<x).
para todo x e R ), cuya representacin grfica no se diferencia sustancialmente de la cur
va de la campana de Gauss para m grande (ver fig. 33).
Para m = \ obtenemos especialmente (fig. 40) la funcin de densidad

U *) = ( 10 )
1+x2

la distribucin de probabilidad determinada por ella se denomina tambin, en honor de


A.L. Cauchy (1789-1857), distribucin de Cauchy.
El teorema siguiente se refiere al valor esperado y la varianza de la distribucin t con
m grados de libertad.
T e o r e m a 3. Si X posee una distribucin t con m grados de libertad,entonces se cum
ple que
EX=0, m >2, (11)

D 'X = - (12)
m -2

92

www.FreeLibros.com
Aadimos que una variable aleatoria que tenga una distribucin t con m grados de libertad posee solo
momentos de orden / t w - 1 . Por tanto, la distribucin de Cauchy no posee, en particular, ningn va
lor esperado.
La distribucin / fue descubierta e investigada (1908) por W.S. Gosset (1876-1937). quien publicaba
bajo el seudnimo Student: por esta razn se encuentra tambin la distribucin ( con el nombre de dis
tribucin de Student.

5.6.3 D istribucin F

D e f in ic i n 4 . Sean m y m 2 nmeros naturales. Una variable aleatoria continua X se


denomina distribuida F con (mt, m 2) grados de libertad, si la densidad de probabilidad / ,
tiene la forma

/ m, + m 2 \ ~r
r ^ ------ J m ,- m 2 i. ,
-------------------------------------- ------ - ------------ para x > 0 . (13)
/><x) =

0 para x ^ 0.

Se dice tambin que X posee una distribucin F con (m,, m 2) grados de libertad (fig. 41).
Denotamos el percentil de orden p de la distribucin F con (mv m 2) grados de libertad
Fw -

Figura 41

T e o r e m a 4. Si A" posee una distribucin F con (w r m 2) grados de libertad, entonces


se cumple que

EX= , (m2> 3), (14)


m -2

D X = >m <
> 5 ). (15)
m ^ m , - 2 )2 (m2- 4 )

Observemos que el valor esperado no depende de m l y que E X = \ para m 2 1. Ade


ms, aadimos que para m 2< 2 no existe valor esperado y para 4 no existe va
rianza.

La distribucin F se debe a R.A. Fisher (1890-1962), uno de los representantes ms conocidos de la


Estadstica matemtica en Inglaterra, quien adems trabaj en el campo de la teora de la informacin
matemtica.

93

www.FreeLibros.com
6. V ecto res aleatorios

Los vectores aleatorios son aquellos cuyas componentes son variables aleatorias. Estos se
utilizan para representar, desde un punto de vista matemtico, algunas caractersticas que
se pueden describir numricamente en un fenmeno aleatorio. As, por ejemplo, la lon-
gitud, ancho y altura de una pieza de trabajo en forma de cubo, producida automtica
mente, y la talla y peso de un hombre, se pueden describir por medio de un vector alea
torio.
Despus de la definicin general y la caracterizacin terico-probabilstica de un vector
aleatorio (epgrafe 6 .1 ), trataremos en el epgrafe 6.2 los llamados vectores aleatorios dis
cretos lo cual realizaremos apoyndonos en el tratamiento de las variables aleatorias dis
cretas (ver 4.2 y 4 .3 ), y en el epgrafe 6.3 nos ocuparemos de los denominados vectores
aleatorios continuos, para lo cual partiremos de los estudios sobre variables aleatorias con
tinuas (ver 5.1 y 5.2).
Las caractersticas numricas para la comprensin de la dependencia mutua, de la re
lacin entre las componentes de un vector aleatorio, son de especial inters; estudiare
mos, en particular, los llam ados coeficientes de correlacin para la dependencia lineal en
tre dos variables aleatorias. En el epgrafe 6.4 trataremos el concepto independencia de
variables aleatorias, que constitutuye un concepto central de toda la teora de probabili
dades. Aqu tambin deduciremos consecuencias de la independencia, que resultan muy
tiles para el trabajo prctico con variables aleatorias independientes. Por ltimo, se rea
liza en el epgrafe 6.5 la caracterizacin de la distribucin de probabilidad para la suma,
diferencia, producto y cociente de dos variables aleatorias continuas independientes; los
teoremas sealados aqu se necesitarn especialmente en la parte correspondiente a la Es
tadstica matemtica.

6.1 Definicin general de vector aleatorio


Realizaremos la exposicin de este epgrafe de forma anloga a como lo hicimos en el ep
grafe 4.1; en caso necesario el lector puede orientarse otra vez por all.

94

www.FreeLibros.com
D e f in ic i n 1. Sea [2,A,P] un espacio de probabilidad y sean A",, X,..., X n(n ^ 2) va
riables aleatorias (sobre [l,A , P]). Entonces, el n-uplo (Xv X 2...... X se llama vector
aleatorio (-dimensional sobre [S2, A, P]).

N os dedicaremos a continuacin a la caracterizacin de la distribucin de probabilidad


de un vector aleatorio. Para ello, sean x,, x 2...... x nmeros reales cualesquiera. Como
las X k son variables aleatorias, se cumple que (Xk< x k) e A (fc = 1 ,2 ,..., n). A es una a - l

gebra, de modo que se cumple en particular la relacin O (Xt < x k) e A . En virtud de


i i

{coei: A t(M) < x k} = O {cosi: A'j(ro) < x k\

= O (Xk< x k)
k^\

resulta que {wei:A'j(oj) < x , ...... X J a ) < x J e A .


Si denotamos abreviadamente el subconjunto {cofci: A'j(co) < x , ...... A(co) < x j de 2 por
(A", < x , ,..., An< x n), entonces es razonable hablar de la probabilidad del suceso aleatorio
( A , < x ,...... X n< x n) ; para esta probabilidad escribiremos de forma abreviada
P ( A ,< x ,,...,A n< x n).

D e f i n i c i n 2. Sea [i,A,P] un espacio de probabilidad y (XVX H..., X) un vector


aleatorio. La funcin F,x A, definida por

. xn> ( x r x 2...... x) = P ( X l < x l^ X 2< x 2...... X < x n) (1)


(xke R, A:= 1,2...... n),

se denomina funcin de distribucin del vector aleatorio (Xv X 2,..., X) o funcin de dis
tribucin conjunta de las variables aleatorias X v X 2...... X.

.</)

Figura 42

La funcin de distribucin de un vector aleatorio -dimensional es, por tanto, una fun
cin real de n variables reales. Por medio de la funcin de distribucin de un vector alea
torio se pueden expresar las probabilidades de casi todos los sucesos aleatorios que estn
en relacin con este. As, por ejemplo, se cumple en el caso n = 2 (fig. 42)

P(a^ X < b , c < Y < d ) = F IXY)(b,d) - F txr)(b,c) - F txy)(a,d) +F ,x n(a,c). (2)

En el teorema siguiente resumiremos las propiedades de la funcin de distribucin de


un vector aleatorio.

www.FreeLibros.com
95
T e o r e m a 1. Sea F la funcin de distribucin de
Entonces se cumple:

1. Para todo x t e R (f c = l,2 ,..., n) es 0 < F (x ,,x 2,..., x ^ 1.


2. F es montona creciente en toda variable x k.
3. F es continua por la izquierda en toda variable x k.
4. lim\ F(xv x 2,..., x)=0(fc = l , 2 ,..., n ),lim F(x,, x 2,..., x ) = l.

La demostracin se desarrolla de acuerdo con la del teorema 1(4.1); la dejamos al lec


tor.

Como m uestra el ejem plo siguiente, las proposiciones sealadas en el teorem a 1 no son suficientes
para que una funcin F, con estas propiedades, sea la funcin de distribucin de un vector aleatorio.

E j e m p lo . Consideremos la funcin dada por

0 para x + y < 0,
F (x.y) = \
l 1 para x + y > 0.

Evidentemente F posee todas las propiedades sealadas en el teorem a 1. Pero se cum ple que

F ( 1 ,1 ) - F (1 ,0 ) - f ( 0 , l ) + F (0 ,0 ) = 1 1 - 1 + 0 = - 1 ;

luego en virtud de (2), F no puede ser la funcin de distribucin de un vector aleatorio de dimensin
n = 2.
El lector interesado puede informarse sobre las condiciones suplem entarias que aseguran que una
funcin de varias variables sea funcin de distribucin de un vector aleatorio.

En los captulos correspondientes a la Estadstica matemtica trataremos en muchas


ocasiones funciones de un vector aleatorio (XltX 2,..., X ), por ejemplo, las funciones
g(Xv X 2,..., X J = X l + X 2+ . . . + X n y g(jr X 2,..., X n) = * ? + * * + ... +X\. Y a que nos interesa
remos, en particular, por la distribucin de probabilidad de estas funciones, es importante
conocer una clase de funciones g lo suficientemente grande para la cual la funcin
g(Xv X 2...... X J , definida sobre 2 por [g(A'1, A 2, ..., A'j](co) = g ( X i(o ) , X 2( a ) X j , a >)), sea
una variable aeleatoria, o sea, posea una distribucin de probabilidad. Para ello damos
el siguiente teorema sin demostracin:

T e o r e m a 2 . Sea [S2, A, P] un espacio de probabilidad, (A'1,A'2,..., X) un vector alea


torio n-dimensional (sobre [,A ,P ]) y g, una funcin real continua definida sobre el con
junto de todos los n-uplos de nmeros reales. Entonces la funcin g{Xv X 2,..., X n) definida
sobre l por

[s (* ,,* 2......X J ](co) = g yr.tffl), x 2 ( o ) ........ a'(cd)) (3)


es una variable aleatoria (sobre [2, A, /*]).

En especial, para las funciones g dadas por

g (x,,x2,..., x n) + x 2+ ... +X,,,


g(xr x 2...... x J = x j + x j + ... 4x*,

(x ,,x 2...... x n) = x x 2 ... x,

las funciones g(Xr X 2,..., X) definidas sobre S2 son variables aleatorias.

96

www.FreeLibros.com
A continuacin nos lim itarem os al caso n = 2 ; por lo tanto, tratarem os los vectores alea
torios bidim ensionales (X, Y) . M uchas veces es de inters, por ejemplo, la distribucin de
probabilidad de la variable aleatoria X en el m arco del vector aleatorio (X, Y) . Se cumple
(ver 2.4, teorem a 1) que

F x)= P (X < x)= P [X < x. r < ~ )


= lim P (A '< x r Y < y ) = lim F (r)1(;c,y).

D e f i n i c i n 2 . La funcin de distribucin F x dada por

F x ) = lim F{Xr)(x,y) (4)

se llam a funcin de distribucin marginal de X, de la distribucin conjunta de A y K; la


distribucin de probabilidad caracterizada se llam a distribucin marginal de X de la dis
tribucin conjunta de A y Y. (Una definicin correspondiente existe para la funcin de
distribucin m arginal F , de Y. de la distribucin conjunta de A y Y.)
Concluirem os este epgrafe con la observacin, de que para un vector aleatorio -di

m ensional se pueden considerar evidentem ente ( ; ) distribuciones marginales de vec

tores aleatorios -dim ensionales (Ac = 1,2 , n 1).

6.2 Vectores aleatorios discretos


D e f i n i c i n 1. U n vector aleatorio se llam a discreto, si puede tom ar un nmero finito
o infinito numerable de valores.

En las explicaciones posteriores nos lim itarem os al caso de un vector aleatorio bidimen-
sional.
D esde el punto de vista del C lculo de probabilidades, podem os considerar un vector
aleatorio bidim ensional (A, Y) com o dado, si estn dados a su vez todos los valores (x, y t)
del vector aleatorio y las probabilidades particulares correspondientes

p k= P ( X = x , Y = y k), (1)

con las cuales el vector aleatorio (A. Y) tom a estos valores. Por ello, se puede caracterizar
tambin un vector aleatorio bidim ensional (A, Y) por la llam ada tabla de distribucin.

(A clararem os ms tarde el significado de p k y p.)

www.FreeLibros.com 97
Para las probabilidades p k se cumple que

0, 2j/>,* = l- (3)
i.k

Los valores de la funcin de distribucin (F v ,.) se obtienen de las probabilidades p lk segn

F ^ ( x . y ) =P(X< x . Y < y ) = 2 P ( X = x , Y = y k) = ^ P* (4)


i'-r, <r
*>*<>----------------------------- I |1<I
extendindose la sumatoria sobre todos los i y k para los cuales se cumple que x t< x y
>'*<.>'
Ahora queremos caracterizar las distribuciones marginales de un vector aleatorio discreto
(X, y). La distribucin marginal de X ps una distribucin discreta; X toma los valores x,
con las probabilidades

P ,= Y = y k). (5)
k k

De igual forma la distribucin marginal de Y es una distribucin discreta; Y toma los va


lores y k con las probabilidades

Pk= 2 p * = 2 p ( x = x r = : y j- (6)

En la tabla de distribucin (2) hemos registrado en la ltima columna los nmeros p t y


p k, en la ltima fila los que caracterizan las distribuciones marginales de A" y Y.
Seguidamente nos referiremos a algunas caractersticas numricas para vectores aleato
rios discretos bidimensionales (X , K). Junto al valor esperado y la varianza de las varia
bles aleatorias X y Y, en caso de que existan, nos interesa, en especial, una medida para
expresar la dependencia mutua de las variables aleatorias X y Y. Trataremos la llamada
covarianza y, sobre esta base, el denominado coeficiente de correlacin. Pero primera
mente anotaremos una frmula para el clculo del valor esperado de una funcin de un
vector aleatorio discreto, de donde se obtienen frmulas para el valor esperado y la va
rianza de una suma de variables aleatorias.

T e o r e m a 1. Sea (X. K) un vector aleatorio discreto, que toma los valores {xr y k) con
las probabilidades p lk. y g, una funcin real continua definida sobre el conjunto de todos

los pares de nmeros reales. Si la serie ^ g(xr yk) converge absolutamente (o sea, si

^ |g(*,. y*) \p,k< ) - entonces se cumple


i.k

Eg(X, Y) = ^ g ( x , , y k) p lk (7)
tk

(ver 4.3, teorema 2).


Renunciaremos a la exposicin de la demostracin de este teorema.
Para g(x, y) x y g(x,y) = y obtenemos especialmente

E X = ^ x , p , y E Y = ^ ? y kP k< (8)

98

www.FreeLibros.com
es decir, los valores esperados de las variables aleatorias X y Y respectivamente, en el
marco de la distribucin conjunta de X y Y. siempre y cuando las series indicadas en (8)
converjan absolutamente.
Bajo una condicin correspondiente se obtiene para g(x,y) = ( x - E X ) 2 y
g(x. y) =(>- Y ) 2. la varianza de las variables aleatorias X y Y respectivamente, en el
marco de la distribucin conjunta de X y Y,

d >x = 2 y D 2Y= 2 < ^ - y ) 2A*- W


___________ i_______________ k-----------------------------------------------------
T r a ta r e m o s el c a s o g (x . y ) = x + y.

T e o r e m a 2. Sea (X. Y) un vector aleatorio discreto. Entonces se cumple que

E (X + Y ) = E X + E Y . (10)

suponindose la existencia de los valores esperados sealados en el miembro derecho de


( 10).

D e m o s t r a c i n . La funcin dada por g(x,y) =*+> satisface todas las condiciones


nombradas en el teorema 1. Por consiguiente, se cumple (7) y con esto

E(X+Y) = 2 2 X,Plk+ 2 VkP,k


i.k t.k ik

= 2 X'P' + 2 VkP.k=EX+Ey.
I k

La validez de la proposicin siguiente se obtiene directamente de aqu con el principio de


induccin completa.

C o r o la r io 1. Sean X v X 2,..., X n variables aleatorias discretas con los valores espe


rados E X y EX2...... EX. Entonces se cumple que

E ( X ^ X } + ... ) = E X ^ E X 1+ . .. 4-EX. (11)

Observemos que para el clculo del valor esperado de una suma de variables aleatorias
discretas, no se necesita su distribucin conjunta; para ello es suficiente el conocimiento
de las distribuciones de probabilidad de cada una de las variables aleatorias. Para la va
rianza esto se comporta de otra forma.

T e o r e m a 3. Sea (X.Y) un vector aleatorio discreto. Entonces se cumple que

D \ X + Y ) = D 2X + D 2Y + 2 ( E X Y - ( E X ) (E Y)), (12)

suponindose la existencia de los sumandos en el miembro derecho de (12).

D e m o s t r a c i n . Utilizando D 2Z = E Z 2- ( E Z ) 2 (ver 4.3, teorema 3) y el corolario 1,


obtenemos

DH.X+ Y) = E ( X + K) 2- ( E ( X + Y ) ) 2
= E ( X 2+ 2 X Y + Y t) - ( E X + E Y ) 2
= E X 2+ 2 E X Y + E Y 2- ( E X ) 2- 2 ( E X )( E Y ) - ( E Y ) 2
= D 2X + D 2Y + ? ( E X Y - ( E X ) ( E Y ) ) .

99

www.FreeLibros.com
D e f in ic i n 2 . Sea (X,Y) un vector aleatorio discreto,que toma los valores (x,,y,.) con
las probabilidades p ik. Entonces el nmero definido por

cov(X y) = E ( X - E X ) ( Y - E Y ) = ^ ( x - E X ) ( y k- E Y ) p ik (13)
i.k
se denomina covarianza de X y Y; aqui se supone, junto a la existencia de E X y EY, la
convergencia absoluta de la serie situada en el miembro derecho de (13).

Debemos observar en (13) que, a causa de la continuidad de la funcin dada por


g(x, y) = ( * - * ) ( y - E n .
la funcin ( X - E X ) ( Y - E Y ) definida sobre SI es una variable aleatoria y que para su valor esperado se
cumple, sobre la base de las condiciones en la definicin 2 y segn (7), la relacin

E { X -E X )(Y -E Y ) = 2 ( x ,- E X ){ y k- E Y ) Pik.
i.k
Se comprueba fcilmente que se cumple

cov (X , y) = E X Y - ( E X ) (E Y ) , (14)
de modo que (12) se puede escribir tambin en la forma

D \ X + Y ) = D 1X + D 1Y + 2 co\UC,Y). (15)

Evidentemente se cumple que cov(X,X) = D iX .L a matriz (simtrica)


/D *X co\(X, Y) \
(16)
Vcov(JT, Y) D 2Y )

se denomina matriz de covarianza del vector aleatorio (X,Y). En general, la matriz (btl) ,
bt =co\(X,X)) , asociada a un vector aleatorio discreto -dimensional, (A\,A2,..., X J , se
llama matriz de covarianza; en la diagonal principal estn las varianzas de las compo
nentes del vector aleatorio (6l)=cov(A'1,A') = D 2X,).

D e f in ic i n 3. Sea (X, Y) un vector aleatorio discreto que toma los valores (x, > y k)
con las probabilidades p llt. Entonces el nmero definido por

J (x , -E X )(y k- E Y ) p d
i.k
, r ) = ------- 2 ^ 2 ---------- ................- - ---- ------------------ (.7)

se denomina coeficiente de correlacin de X y Y; aqui se supone la convergencia absoluta


de las series que aparecen en (17) y, adems, que D 2X > 0 y D 2Y > 0.
El teorema siguiente trata sobre las propiedades del coeficiente de correlacin.

T e o r e m a 4 . Sea (X,Y) un vector aleatorio discreto con el coeficiente de correlacin


P{ X , Y ) .
1. Se cumple que | p(X. Y) 1.
2. Se cumple que |pCJf,y) |= 1 si y solo si existen nmeros a^O y b, tales que Y = a X + b .

D e m o s t r a c i n . Consideremos las variables aleatorias que se derivan de X y Y mediante estanda-


X -E X Y -E Y
rizacin X a= ----------------- y y o= ------------------

100

www.FreeLibros.com
Como EX =E Y0= 0 se cumple que

X -E X \ / Y -E Y \
cov(JT. ---------------- ------------------------ )
I D X

E ( X - E X )( Y - E Y )

(
= p(X,Y).

Con D 1Jf0= D l y (1= l obtenemos con esto (ver (15))


D \X y) = D 'X 0+ D 1Y0 2 co\{X v YJ
=2(ip(jr,y)). o
1. Como la varianza de una variable aleatoria es un nmero no negativo, resulta de (*):
l p u r, Y) > 0, luego Ptar, Y) > - 1 y PUC n 1, o sea, p(*. Y) 1.
2.a) Si se cumple que p(XV) = 1 , entonces se cumple, segn (*), D ^ X ^ Y J =0. La variable alea
toria AroT y o posee, por tanto, una distribucin puntual nica (ver 4.3, teorema 4). En virtud de

E(x, Ty0)= x t,Tf:yo=0T0=0,


resulta P(A'0;F yo= 0) = 1, es decir, se cumple que Y0 = X V o expresado de otra manera, Y = a X + b con

D 'Y \ D 2Y
y b= E Y T E X

V d x

b) Si se cumple que Y - a X + b (a ,b reales), entonces se cumple que E Y = a E X + b (ver 4.3, teorema 1),
D Y = a ,D X (ver 4.5, teorema 5) y con esto

---------- Iw r.n l- ------------------------------------------------------------------

IE (X -E X ) ( a X + b - a E X - b ) \

yD>xyfa
ja 'D 'X

\a \E (X -E X )2 D*X

D 'X
j \' D 'X \flV X

Con esto est demostrado completamente el teorema 4.

El teorema 4 expresa que el coeficiente de correlacin es un nmero situado entre - 1


y +1 que mide la dependencia lineal de dos variables aleatorias, existiendo dependencia
lineal si y solo si el valor absoluto del coeficiente de correlacin es igual a uno. Retro
cederemos al caso p=0 en el epgrafe 6.4; de todas formas, de p=0 no resulta que entre
las variables aleatorias X y Y no pueda existir una dependencia funcional, es decir, una
relacin de la forma Y = g ( X ) .

101

www.FreeLibros.com
E je m p lo . X toma los valores 1, 0 y +1 con la probabilidad . Entonces se
3
cumple que E X = 0 y D 1X > 0 . Hagamos ahora Y=X*\ se cumple que D 2Y > 0. La variable

aleatoria X Y = X i toma entonces cada una de los valores - 1 , 0 y + 1 con la probabilidad

, de modo que se cumple que EX*= 0. Con esto (ver (14),


3
cov(Jf, 7) = E X Y - ( E X ) ( E Y ) = E X > - 0 = 0 - 0 = 0

y, por tanto, p(X, Y) = 0 . Sin embargo, existe una dependencia funcional entre X y
Y(Y=X*).

6.3 Vectores aleatorios continuos


N os limitaremos tambin a considerar vectores aleatorios bidimensionales; con esto se
aclara cmo se debe tratar el caso general.

D e f in ic i n 1. U n vector aleatorio (X. y) se llama continuo, si existe una funcin con


tinua no negativa f (Xn definida sobre el conjunto de todos los pares de nmeros reales, tal
que se cumple que

P{ai X < b,c* y* d ) = J j f ^ . n x , y) dydx (1)

para todos los nmeros reales a,b ,c y d con b y d.

La distribucin de probabilidad de un vector aleatorio continuo (X.Y) est prefijada


por la funcin f w n, que se denomina densidad de probabilidad (densidad de distribucin,
densidad o funcin de densidad) del vector aleatorio (X, Y) o densidad de probabilidad
conjunta de las variables aleatorias X y Y. Los valores de la funcin de distribucin FiXn
se obtienen sobre la base de la densidad de probabilidad segn

F(z.n(x- y ) = J ' j /<*.r)(w.v)dvdM. (2)

La relacin (2) entre la funcin de distribucin y la densidad de probabilidad f {XY)y


se puede expresar tambin en la forma

= / ( ..). (3)
3x3y

De manera semejante que en el tratamiento de los vectores aleatorios discretos, nos ocu
paremos primeramente con las distribuciones marginales y nos interesaremos por las ca
ractersticas numricas especiales para los vectores aleatorios continuos; aqui las defini
ciones y proposiciones son anlogas a las correspondientes del epigrafe 6.2.
La distribucin marginal de la variable aleatoria X en el marco del vector aleatorio
continuo (X,Y), es una distribucin continua; en virtud de

F x) =lim F(Xn( x , y ) = j j f iXY){t,y)dydt,

102

www.FreeLibros.com
la densidad de probabilidad f x de la variable aleatoria X, que se denomina en este con
texto densidad de distribucin marginal, est dada por

f lU ) = J ' f a r,(x y)dy- H)

Asimismo, la distribucin marginal de Y es una distribucin continua: para la densidad


de distribucin marginal f Y se cumple que

/,{ * ) = J f iX(x .y) dx. (5)

Ahora sealaremos, sin demostracin, una frmula para el clculo del valor esperado
de una funcin de un vector aleatorio continuo.

T e o r e m a 1. Sea (X.Y) un vector aleatorio continuo con la densidad de probabilidad


f y n y sea g una funcin real continua definida sobre el conjunto de todos los pares de n

meros reales. Si la integral J J g(x,y)f(xr) (x, >) dx dy converge absolutamente (es de

cir, si se cumple j " j \g(x,y)\ f iXY,(x,y)dxdy < , entonces se cumple que

Eg(X. y ) = J ' J g(x,y)f(Xri(x ,y)dxd y (6)

(ver 5.2, teorema 2, y 6 .2, teorema 1).


El valor esperado y la varianza de X y de Y, en el marco de la distribucin conjunta
de X y Y, se obtienen utilizando las densidades de distribucin marginales correspondien-

E X = j ~ x U x ) d x , E Y = j y f y ) d y , (7)

D 2X = j i x - E X ) f / x ) d x , D 2Y = J ( y - E Y ) ' f y ) dy, (8 )

suponindose la convergencia absoluta de las integrales que se presentan.


Queremos dedicarnos ahora al clculo del valor esperado E ( X + Y ) en el caso continuo.

T e o re m a 2. Sea (X ,Y) un vector aleatorio continuo. Entonces se cumple que


E (X + Y) = E X + E Y , (9)

suponindose la existencia de los valores esperados indicados en el miembro derecho de


(9) (ver 6.2, teorema 2).
D e m o s t r a c i n . La funcin dada por g ( x , y ) = x + y satisface todas las condiciones
nombradas en el teorema 1. Por tanto, se cumple (6) y con esto

E (X + Y) = I I ( x + y ) f iXY)(x .y)dxdy
-

www.FreeLibros.com
E (X +Y) = f> f IJY]( x , y ) d y ) d x + j ( y j f (r r>( x , y ) d x ' j d y

= j x f/x )d x + j yj fy iy ) dy

=EX+EY.

Por consiguiente, el valor esperado de una suma de variables aleatorias continuas es.
como en el caso de variables aleatorias discretas, igual a la suma de los valores esperados.
Con esto se cumple tambin la frmula

D \ X + Y) = D 1X + D 1Y + 2 ( E X Y - { E X ) ( E Y ) ) (<10)

(ver 6.2, teorema 3) para variables aleatorias continuas X y Y, pues en la demostracin


del teorema 3 (6.2) hemos tomado en consideracin solo aquellas reglas de clculo para
el valor esperado y la varianza, que son vlidas tambin para el caso continuo.

Apoyndonos en el teorema 1 definiremos, anlogamente al procedimiento seguido en el


caso discreto, la covarianza y el coeficiente de correlacin para el caso continuo.

D e f in ic i n 2. Sea (X,Y) un vector aleatorio continuo con la densidad de probabili


dad f {XY). Entonces, el nmero definido por

cov(X,Y) = E ( X - E X ) ( Y - E Y ) = J j f ( x - E X ) ( y - E Y ) f ixri(x ,y)d xdy (11)

se llama covarianza de X y y-; aqu se supone, junto a la existencia de E X y EY, la con


vergencia absoluta de la integral situada en el miembro derecho de (11).

D e f in ic i n 3. Sea (X,y) un vector aleatorio continuo con la densidad de probabili


dad Entonces el nmero definido por

II
. - J --
(x - E X ) ( y - E Y ) f txr)(x ,y)dxd y
. -----------: -

^ j ( x - E X ) 2f x ) d x y j (y-E Y)% {y)dy

se denomina coeficiente de correlacin de X y Y; aqu se supone la convergencia absoluta


de las integrales que aparecen en (12).

Como en la dem ostracin del teorem a 4(6.2) no fueron em pleadas propiedades especiales de las va
riables aleatorias discretas, sino solo reglas de clculo para el valor esperado y la varianza, que tambin
son vlidas para variables aleatorias continuas, se cum plen las proposiciones del teorem a 4(6.2) para
el caso de variables aleatorias continuas.

T e o r e m a 3. Sea (X, Y) un vector aleatorio continuo con el coeficiente de correlacin


p (* y ).
1. Se cumple que |p(X y ) |< 1.
2. Se cumple que |p (Y ,y )|= l si y solo si existen nmeros a 0 y b. tales que Y = a X + b .

104

www.FreeLibros.com
Cerraremos este epigrafe con el estudio de la llamada distribucin normal bivariada,
que es una distribucin de un vector aleatorio continuo bidimensional, muy utilizada en
las aplicaciones. '
D e f in ic i n 4 . Sean n, y u, nmeros reales cualesquiera, o, y nmeros positivos ar
bitrarios y p un nmero cualquiera con p|< 1. U n vector aleatorio continuo bidimensional
(X,Y) se denomina distribuido normalmente (con los parmetros np n2, cr*, p), si la
densidad de probabilidad tiene la forma

, I f r - n . ) 1-- U -I Q P -U J _______________ ______

------------- ------------- * ^ 3)
2n CTjCTj \jl-p *
( 00< X < < , o o < y < o o ) .

El teorema siguiente nos aclara la significacin de los parmetros de una distribucin


normal bivariada (ver epigrafe 5.4).

T e o r e m a 4 . Sea (X, Y) un vector aleatorio distribuido normalmente con los parme


tros m, m, o}, oj, y p.
1. La distribucin marginal de X es una distribucin JV(h,,(tJ).
2. La distribucin marginal de Y es una distribucin N (n2,erf).
3. Se cumple que cov (X, Y) =p<r1o I y p (X, Y) =p.

D e m o s t r a c i n . Para la densidad de distribucin marginal f x, f x )*-= j *


| f w r)(x ,y)d y, se obtiene

haciendo la sustitucin

t= i ( i ^ L _ p I i )
I 'o , CT. /
Vi - p 1

on e ^ ( = V 7 , la relacin

1 _L z ii r - i
f x ) * -------- e 2 e ,* = -----
2 n ' \2 n a,

= <p(x,U ejJ) ,

o sea, X posee una distribucin normal con los parmetros |,(= T ) y aj ( = D 2X ). Con esto est claro
que Y posee una distribucin normal con los parmetros n ,(= K ) y a i ( = D IY).
Para la covarianza

cov(X, Y) = ( x - E X ) [ y - E Y ) / # n (x, y) dx d y
L L
x-Hi y -\
se obtiene, con las sustituciones u = -------- y v = , la relacin
o, a,

cov(X ,Y) = ------ ------J ue ve 2(,- p') " ^ d v ^ d u .

2n V l - P

105

www.FreeLibros.com
Para la integral interna se obtiene, con la sustitucin

t- (v-pu),

te 2d l= 0 , el valor p tt^ 2 n : considerando que

se tiene por ltimo que

y con esto p(X,Y) =p.

D e esta forma podemos armar que las distribuciones marginales de una distribucin
normal bivariada son tambin distribuciones normales. Para concluir, observemos que en
el caso p = 0 se cumple la relacin

(14)
es decir, que en el caso p = 0 el producto de las densidades de distribucin marginales es
igual a la densidad de probabilidad conjunta.

6.4 Independencia de variables aleatorias


El concepto independencia de variables aleatorias es de gran importancia en la teoria de
probabilidades. Antes de denir la independencia de variables aleatorias recordemos la
definicin de independencia de sucesos aleatorios: Dos sucesos aleatorios A y B se llaman
mutuamente independientes, si se cumple que P (A r B ) = P {A )P (B ) (ver 3.3, definicin 1).
D e manera semejante denominaremos dos variables aleatorias X y Y mutuamente inde
pendientes, si todo suceso aleatorio A , que est en relacin con la variable aleatoria X,
es independiente de todo suceso B que est en relacin con la variable aleatoria Y, es de
cir, si para cualesquiera x e R y y e R los sucesos ( X < x ) y ( Y < y ) son independientes, y
se cumple que P {X < x , Y < y ) = P (X < x )P (Y < y ).
En esto se basa la definicin siguiente del concepto independencia de dos variables alea
torias, utilizndose para su formulacin la funcin de distribucin conjunta de las varia
bles aleatorias X y Y, y las funciones de distribucin marginales de X y Y.

D e f in ic i n 1. Sea (X ,Y ) un vector aleatorio con la funcin de distribucin F (Xr) y las


funciones de distribucin marginales F x y F r. Las variables aleatorias X y Y se denominan
(mutuamente) independientes (tambin: estocsticamente independientes), si se cumple

F<x.rM<y) = F x )F y ) (1 )
para todos los nmeros reales x y y.

106

www.FreeLibros.com
Advertimos que en todos los casos se pueden determinar las funciones de distribucin
marginales de las variables aleatorias X y Y a partir de la funcin de distribucin con
junta de estas variables aleatorias (ver 6.1, denicin 2). En caso de independencia de X
y Y, el recproco tambin es posible; se puede calcular la funcin de distribucin conjunta
a partir de las funciones de distribucin marginales, segn (1).

Los dos teoremas siguientes contienen formulaciones equivalentes de la independencia


de dos variables aleatorias X y Y, para el caso en que (X, y) posea una distribucin dis
creta y para el caso continuo respectivamente; estas formulaciones se realizan sobre la
base de las probabilidades particulares o de las densidades de probabilidad, pueden com-
probarse fcilmente en la situacin concreta.

T e o r e m a 1. Sea (X.Y) un vector aleatorio discreto, que toma los valores (xy k) con
las probabilidades p ik. Las variables aleatorias X y Y son mutuamente independientes si
y solo si
P ( X = x t, Y = y k) = P ( X = x ) P ( Y = y k),

o sea, si se cumple que

Pk= P . P -t

para todo i, k. (2)

D e m o s t r a c i n , a) Sean X y Y m utuamente independientes. Entonces se cum ple (1), y para todo


nmero positivo e (ver 6.1 (2))

P (x,^ .*<*,+, Y < y k + e)


= Ffx,r)(x i + e< y*+ ) - * W * + e>jc) - Ftx.r)(x,yk+ e) + F {X ( x y l)
= F x (x+e) F Y(yk + e) - F x (x ,+ e )F r (vk) - F xi x ) F Y(yk+^) + F x (Xi)Fr (yk)
={F x {x ,+ e ) - F x (x ) (Fr (yk+ e ) - F r (yk) ).

Para e -*0 se obtiene de aqui (ver 2.4, teorem a 1 y 4.1 (3))

P(X = x, Y = y k) = p k= P (X = x )P {Y = y k) = p , p k,

o sea, se cum ple (2).


b) Cmplase (2) para todo i, k. Entonces se cum ple para nmeros reales cualesquiera x y y

W 2
* i< *
p,k= 2
l:x < x
PtPk={ 2
i:x f< x
i) ( 2 x:yk < y
k:yk<y k.yk <y
o sea, se cum ple (1).

T e o r e m a 2 . Sea (X,Y) un vector aleatorio continuo con la densidad de probabilidad


/ w n y las densidades de distribucin marginales f x y f y. Las variables aleatorias X y Y son
mutuamente independientes si y solo si se cumple

fve.r,(x,y)=fx(x) f r (y) (3)


para todos los nmeros reales x y y.

D e m o s t r a c i n . a)Sean X y Y m utuamente independientes. Entonces se cum ple (1) y con esto


(ver 6.3, (3))

, . . (x,y) V F ^ F y ty ) dFx {x)dFy(y)


fvr.n(x -y) = --------- 1------------ -------------------- ------------------------= fx ( x )f Y{y) ,
5,8,, 8,6,, dxdy

o sea, se cum ple (3).

www.FreeLibros.com
bl Cmplase (3) para todo x e R y y e R. Entonces se cumple

- fM f r (v) dvdy
Mv)dvdy

= F x )F y ),

o sea, se cumple (1).


En el teorema siguiente se proporcionan consecuencias fcilmente demostrables de la in
dependencia de dos variables aleatorias, que son tiles para el trabajo prctico con varia
bles aleatorias independientes.
T eo r e m a 3. Sea {X.Y) un vector aleatorio discreto (continuo), con

J lxf> '*k < 0 0 ( J f I* y\fUr)(x ,y) d x d y< - ) Entonces se cumple, en el caso de


que* las variables aleatorias X y Y sean independientes:
1. EXY =( E X ) EY ).
2 . c o v (X , y ) = 0 .
3. p(jr,y)=o.
4. D H X +Y)= D*X +D }Y .
(En 3 y 4 se supone la existencia y positividad de las varianzas de X y Y.)

D e m o s t r a c i n . Las proposiciones 2, 3 y 4 se obtienen directamente de la proposicin 1 (para el


caso discreto (ver 6.2 (14), (17) y (15)). Por tanto, es suficiente demostrar la proposicin 1.
a) Sea {X, Y) un vector aleatorio discreto. Entonces se cumple, con el teorema 1 (ver tambin 6.2 (7)
para g(x,y) = xy), que

FXY= 2 xykp k= ^ x jM P t

b) Sea y f.y ) continuo. Entonces se cumple, segn el teorema 2 (ve (6) para
S(x,y) = x y ), que

x y fx (x )fjy )d x d v

Por consiguiente, de la independencia de las variables aleatorias resulta que el coefi


ciente de correlacin p(X,Y) es igual a cero. El reciproco de esta proposicin no se cum-

108

www.FreeLibros.com
pie: de p(Jf, Y) = 0 no resulta la independencia de X y Y (ver para esto el ejemplo al final
de 6.2; se cumple que p(X y) es igual a cero, pero, por ejemplo,

P ( x = i , y = i ) = * = p ( j r = i) p ( y = i) ,

de modo que X y Y no son independientes.

D e f in ic i n 2. Sea (X, Y) un vector aleatorio (discreto o continuo). Si se cumple que


p(X, Y) = 0 , las variables aleatorias A' y y se denominan incorrelacionadas.
D e gran valor es la proposicin siguiente sobre la distribucin normal bivariada
(ver 6.3, definicin 4), que se obtiene directamente del teorema 2 (ver tambin 6.3 (14)).
T e o r e m a 4 . Sea (X, Y) un vector aleatorio que posee una distribucin normal. Si las
variables aleatorias X y Y estn incorrelacionadas (p(X, Y) = p = 0 ), entonces X y Y son in
dependientes.
La proposicin (4) del teorema 3 se puede extender al caso de un nmero finito arbi
trario de variables aleatorias mutuamente incorrelacionadas, dos a dos.

T e o r e m a 5. Sean X v X p ..., X variables aleatorias mutuamente incorrelacionadas


dos a dos (PXf X J = 0 para j ^ k ; j , k = l , 2 , . . . , n). Entonces se cumple que
DHXl + X 1+ . . . + X J =D*X1+ D iX 1+ . .. + D 2Xn. (4)

D e m o s tr a c i n . Con D1Z = E Z '-(E Z )\ cov (X. Y) =EXY-{EX)(EY) y la proposicin de que el va


lor esperado de una suma de variables aleatorias es igual a la suma de los valores esp< rados de estas
variables aleatorias, se obtiene

'M * ( * ) )

f ( S-i -t'-22 i v*)-( 2 ")'


' v TTi
x*

= > EX7+2 > Expck- > ( E X y -2 > (EX>(EX


(.i f l* t i
i<t j<k

=> (EXt-(EX)*)+2 > [EX-Xk-(E X )(E X J )


i.i i
><*

= D V I+2 5 co^XJ.
-i i
X*

Si se cumple ahora que p iXt X = 0 para j+k, entonces se tiene que cov (Xf X =0 para j + k y, por
tanto, se cumple (4).

Queremos aclarar ahora, como ampliacin de la definicin 1, qu se entiende por in


dependencia de n variables aleatorias (n: nmero natural).

D e f in ic i n 3 . Sea (Jf,, X 2......X J un vector aleatorio n-dimensional, con la funcin


de distribucin Fll(Xv X v ..., X J . Las variables aleatorias X v X t......X Hse denominan com

www.FreeLibros.com
pletamente independientes (entre s) (tambin: estocsticamente independientes), si se
cumple que

F(Xt,Xr ... Xn)(XVX2' < Xt) Fx,(Xl) .. . Fxj x r) (5)

para todos los nmeros reales x,, x 2,..., x n; aqu Fx denota la funcin de distribucin mar
ginal de X ( i = l , 2 ,..., n).

D e la independencia completa de las variables aleatorias X v X 2,..., X n resulta eviden


temente la independencia mutua de ellas tomadas dos a dos; el recproco de esta propo
sicin no se cumple (ver el ejemplo del epgrafe 3.3).
Si (XVX 2,..., X J es un vector aleatorio discreto o continuo, entonces a la independencia
completa de las variables aleatorias X VX 2,..., X n es equivalente una proposicin anloga
a la frmula (2) o (3).
En el trabajo con variables aleatorias independientes se necesita a veces la proposicin
siguiente, muy evidente en cuanto al contenido, pero que no queremos demostrar.

T e o r e m a 6 . Sean X VX 2,..., X n variables aleatorias independientes y gv g2,..., gn fun


ciones reales continuas definidas sobre el conjunto de los nmeros reales. Entonces,
Si^i) >2(^1) ...... 8J.XJ son tambin variables aleatorias independientes.
Concluiremos este epgrafe con la aclaracin de qu se entiende por una sucesin de va
riables aleatorias independientes.

D e f in ic i n 4 . Una sucesin infinita X VX V..., X n... de variables aleatorias se deno


mina una sucesin de variables aleatorias independientes, si para todo nmero natural
2 las variables aleatorias X VX 2,..., Xn son completamente independientes entre s.

6.5 Distribucin de funciones de variables aleatorias


En este epigrafe queremos determinar, en lo esencial, la distribucin de probabilidad de
la suma, diferencia, producto y cociente de dos variables aleatorias independientes, para
lo cual comenzaremos con proposiciones especiales acerca de la distribucin binomial
(ver 4.5) y la de Poisson (ver 4.7).

T e o r e m a 1. Sean X y Y variables aleatorias independientes que poseen una distribu


cin binomial con los parmetros y p, y n y p, respectivamente. Entonces Z = X + Y po
see una distribucin binomial con los parmetros n, + n2 y p.

Renunciaremos a la exposicin de la demostracin, aunque es sencilla; el contenido de


la proposicin est claro si recordamos que la frecuencia absoluta de la ocurrencia de un
suceso aleatorio A con la probabilidad P(A) =p, en n repeticiones independientes del ex
perimento tomado por base, est distribuida binomialmente con los parmetros n y p
(ver 4.5, en particular, las explicaciones despus de la definicin 1).

T e o r e m a 2. Sean X y Y variables aleatorias independientes que poseen una distribu


cin de Poisson con los parmetros k y n, respectivamente. Entonces Z = X + Y posee una
distribucin de Poisson con el parmetro k + n.

110

www.FreeLibros.com
D e m o s t r a c i n . Los valores de Z son los nmeros 0 ,1 ,2 ,... Se cumple para
/ = 0 , 1 , 2 , __

J=0

o sea, Z posee una distribucin de Poisson con el parmetro X+|.i; aqui hemos utilizado
el teorema 1(6.4), la definicin de la distribucin de Poisson (ver 4.7, la definicin 1 y la
frmula (2)), la definicin del coeficiente binomial y, por ltimo, el teorema del binomio.
N os ocuparemos ahora del caso de las variables aleatorias continuas. Primeramente de
duciremos una frmula-, la llamada frmula de descomposicin, para la densidad de pro
b ab ilid a d de dos variables aleatorias no necesariamente independientes.
T e o r e m a 3. Sea (X, Y) un vector aleatorio continuo con la densidad de probabilidad
f xrr Entonces, la densidad de probabilidad f z de la variable aleatoria Z = X + Y est dada

(1 )

D e m o s t r a c i n . Se cumple "que

Fz) =P {Z < z) = P ( X + Y < z ) = n(x, y) dxdy,


V
siendo la regin de integracin
B = { ( x , y ): x + y < z } = { ( x , y ) : - ~ < x < ~ , - ~ < > ' < z - x } .
D e aqui se obtiene (fig. 43)

de lo que resulta

111

www.FreeLibros.com
X
Figura 43

Con la frmula de descom posicin se puede demostrar la siguiente proposicin intere


sante sobre la distribucin normal.

T e o r e m a 4 . Sea (X, Y) un vector aleatorio que posee una distribucin normal (con los
parmetros ii|x2, aj, a 22, p ). Entonces Z = X + Y posee una distribucin normal (con los pa
rmetros n, + u2 y o J+ a*+ 2p .

N o realizaremos la demostracin; del teorema 4 inferimos, en particular, que la suma


de dos variables aleatorias independientes, que poseen una distribucin normal, est tam
bin distribuida normalmente. Es notable la validez del recproco de esta proposicin: Si
la suma de dos variables aleatorias independientes est distribuida normalmente, entonces
los sumandos poseen tambin una distribucin normal. Esta proposicin se debe al mate
mtico sueco H. Cramer (nacido en 1893), el cual enriqueci tambin la estadstica ma
temtica con proposiciones importantes.
En el teorema siguiente caracterizaremos la distribucin de probabilidad de la suma, di
ferencia, producto y cociente de dos variables aleatorias continuas independientes.

T e o r e m a 5 . Sean X y Y variables aleatorias continuas independientes, con las den


sidades de probabilidad f x y f Y, respectivamente.
1. La variable aleatoria continua Z = X + Y posee la densidad de probabilidad

(2)

2. La variable aleatoria continua Z = X - Y posee la densidad de probabilidad

(3)

3. La variable aleatoria continua Z - X Y posee la densidad de probabilidad

dx, OO< z < o. (4)

X
4. La variable aleatoria continua Z = posee la densidad de probabilidad f v
Y

(5)

112
www.FreeLibros.com
D e m o s t r a c i n . Demostraremos solo la primera proposicin; las otras se obtienen en
principio de la misma forma.
Para la densidad f z de la suma Z de dos variables aleatorias continuas X y Y se cumple

la frmula de descomposicin f z ) = j f vin{ x , z - x ) d x . A causa de la supuesta inde

pendencia de las variables aleatorias X y Y, se cumple que

W x , z - x ) = f x ) f z - x )
(v er 6 .4 , te o r e m a 2) y c o n esto -----------------------------------------------------------------

/ A a ) = J ' f A x ) f z - x ) dx.

Las proposiciones contenidas en los teoremas siguientes se obtienen aplicando las pro
posiciones del teorema S; necesitaremos de estas ms adelante en el tratamiento de m
todos especiales de la Estadstica matemtica. En estos teoremas aparecen las distribucio
nes x1, t y F (ver 5.6) y se motiva tambin el concepto grado de libertad que encontramos
en estas distribuciones.

T e o r e m a 6 . Si las variables aleatorias X y Y son independientes y poseen una distri


bucin %1 con los grados de libertad m l y m v respectivamente; entonces Z - X + Y posee
una distribucin x 1 con m 1+ m 2 grados de libertad.

D e m o s t r a c i n . Apliquem os la frm ula f z (z) = I P f A x ) / A z ~ x ) d x .Como X y Y poseen una

distribucin x , se cumple (ver 5.6, definicin 2) que f ^ x ) = 0 para 0 y que f r ( 2 - x ) = 0 para z x.

D e aqu seobtiene, por una parte, que f z (z) = 0 para z < 0 y, por otra, que f z (z) = I f x ) f Y( z - x ) d x
Jo
para z > 0 .
Si sustituim os aqu las densidades f x y f r obtenemos que

iL-i *-
p x -
f z) = m. ; r-sn : r -1 e > -* )2 e 2 dx
Jo

rrti+m, x /!
i 2 2 I l (1 -) dt.
"Y
1
, e JJo
Si utilizam os laa relacin

B(P.9)= - P > 0 ,q > 0 )


Jo r (p+ q)
Tip+q)
que damos sin dem ostracin, obtenemos en total que

0 para z < 0,

m,+m.
i
m = z e para z > 0 ,

2
o sea, que Z posee una distribucin x con m ,+ m , grados de libertad.

113

www.FreeLibros.com
C o r o la r io 1. Si X VX V..., X son variables aleatorias independientes, que poseen una
distribucin N (0,1), entonces Z = X \ + X \ + ... +X posee una distribucin x2 con n grados de
libertad.

D e m o s t r a c i n . Segn el teorema 2(5.6), las variables aleatorias X \ (fc = l,2 ,..., n) po


seen una distribucin x 2 con un grado de libertad; sobre la base del teorema 6(6.4) estas
son, adems, independientes. El resto se obtiene entonces del teorema 6 con el principio
de induccin completa, debindose an atender a que la independencia de X + Y y Z re
sulta de la in d e p e n d e n c ia (c o m p le ta ) d e .Y, v y z

T e o r e m a 7 . Si A" posee una distribucin # (0 ,1 ), Y una distribucin x 2 con m grados


X
de libertad y X y Y son independientes, entonces Z = ------ posee una distribucin

t con m grados de libertad.

D e m o s t r a c i n . D e la independencia de X y Y resulta la de X y Y \ l ----- (ver 6.4, teo


y m

ma 6 ). Luego, por la proposicin 4 del teorema 5 se cum ple que f /( z ) = f r / / * ) dx.

Calculemos primero la densidad de probabilidad /p . Para x > 0 se cum ple que

Fy(x) = P ( Y < x ) = P ( V ? ~ ) = P ( Y < m x t) = F y(m x T)

dFy(x)
y con esto (ver 5.1, teorema 1) fy ( x ) -------------- = f r(m x t)2 m x ;
dx

para 0 se cumple f / x ) = 0.

D e esta forma obtenemos

f l 2 ) = I xf A x z ) fA m xl) *m x x
4 Ja
2 m m 21
[ x e V x m 2e x dx
Jo
\ T 2 r ( - = )

xm e * dx
iJo
^ ( t)

r(f) (z!4 m)

114

www.FreeLibros.com
1 1=
Con r
(=r)-f t e~' d t (ver 5.6(3)) se obtiene por ltim o

r
(=r)
2 /
f z ( z ) = -----------------------
1
-----------r ^ r r r

M ) ('+t F
x
o sea, Z = ----- ------ posee una distribucin con m grados de libertad.

T e o r e m a 8 . Si las variables aleatorias X y Y son independientes y poseen una distri


Jf
bucin x2 con m, y m 2 grados de libertad, respectivamente; entonces Z = posee

una distribucin F con (m v m }) grados de libertad. mi


~ x _ r
D e m o s t r a c i n . Oe la independencia de X y Y resulta la de X - ---- y Y = ----- (ver 6 .4, teore-
m, m 2
ma 6 ). Luego, con la proposicin 4 del teorem a 5 se cum ple que

/ A 2) =J \x \fx < x z)f^ x ) dx.

En virtud de que* / j / x ) =
f t m* )j x=mf 1 1
(m,jc) y f / x ) = m f i/ m x) (ver 5.1, teorem a 2) resulta que

f z ) = m lm J "1 \x \fx(m xz)fy (m !x) dx.

Como X y Y poseen una distribucin x 1, se cum ple (ver 5.6, definicin 2) que f (m ,x z ) = 0 para
x z 0 y fyim jX ) = 0 para x ^ 0.

De aqui se obtiene, por una parte, que f / z ) = 0 para : < 0 y por otra, que

f 2( z ) = m tm 2 J x fx{m ,x z)fy (m Jx) d x , para r > 0 .


Jo
Si sustituimos aquf las densidades f x y f r obtenemos

f{z )= ---------------------------------- r
|\xx(mx
( m lx z ) e 2 (mx) 2 e 2dx
Jo
2 r( i ) A ( i)
2

T:
m. m, z
dx
Jo

r(li)r( 7 ) (^ +m'z)
r e ' dt.

115

www.FreeLibros.com
\ f 'i 1
Con r ----------- J 1 e dt (ver 5.6 (3 ))se obtiene fnalm ente, en total

para z < 0,

/ ,( * ) = < ---------;------;------ ;----- ;------------------------------ Para z > 0 -

w (m ,+ m ,r) 2

O sea, Z posee una distribucin F con (m ,,m ) grados de libertad.

116

www.FreeLibros.com
7. Teorem as lmites

Los teoremas limites de la teoria de probabilidades ocupan un lugar central en esta dis
ciplina matemtica y, en principio, poseen importancia tambin en la estadstica matem
tica; el contenido de estos teoremas son proposiciones acerca del comportamiento lmite
de sucesiones de variables aleatorias, siendo de particular inters de acuerdo con las ne
cesidades prcticas, las proposiciones sobre la distribucin de la suma de n variables
aleatorias independientes cuando n <>.
Los epgrafes 7.1 y 7.2 constituyen una introduccin a los teoremas limites de la teoria
de probabilidades. Para ello tratamos en el epigrafe 7.1 la llamada desigualdad de
Chebyshev, que desempea una importante funcin como medio auxiliar en la demostra
cin de teoremas limites especiales, y en el epigrafe 7.2 presentamos los tipos de conver
gencia ms importantes utilizados en la teoria de probabilidades para sucesiones de va
riables aleatorias. Los epgrafes 7.3 y 7.4 estn dedicados a la denominada Ley de los
grandes nmeros. Una ley de los grandes nmeros consiste, hablando sin mucha precisin,
en la indicacin de condiciones suficientes para que la media aritmtica de una sucesin
de variables aleatorias tienda hacia una constante, a medida que crece el nmero de los
sumandos. La Ley de los grandes nmeros de Bernoulli, tratada en el epigrafe 7.3, facilita
una visin ms clara y exacta de la relacin entre la frecuencia relativa y la probabilidad
de un suceso aleatorio; el epigrafe 7.4 proporciona una panormica sobre las versiones
ms generales de la Ley de los grandes nmeros.
Los epgrafes 7.5 y 7.6 estn dedicados al denominado teorema central del limite. Un
tal teorema consiste, hablando sin mucha precisin, en la indicacin de condiciones su
ficientes para que la distribucin de la suma de una sucesin de variables aleatorias tienda
hacia la distribucin normal, a medida que crece el nmero de sumandos. El teorema in
tegral D e Afoivre Laplace, expuesto en el epgrafe 7.5, plantea una proposicin semejante
a la del teorema central del limite para una sucesin de variables aleatorias distribuidas
binomialmente, y constituye la base para una frmula de aproximacin que est destinada
al clculo prctico de probabilidades relacionadas con la distribucin binomial (parmetro
n > > 1 ). Por ltimo, el epigrafe 7.6 informa acerca de las versiones ms generales del
teorema central del limite que, en las aplicaciones prcticas, justifican en muchas ocasio
nes el hecho de considerar distribuida normalmente una variable aleatoria determinada.

117

www.FreeLibros.com
7.1 Desigualdad de Chebyshev
La funcin que desempea la varianza D 2X de una variable aleatoria X, como medida
para la desviacin de los valores de esta variable aleatoria del centro descrito por el valor
esperado EX, se hace muy clara tambin cuantitativamente en la desigualdad

P ( \ X - E X \ > k \ D 2X i-, (1)

que se cumple para todo nmero natural k. Adems, esta desigualdad es muy til en la
demostracin de las leyes de lqs grandes nmeros (ver epigrafe 7 .3 ). Deduciremos la de
sigualdad (1), que se denomina desigualdad de Chebyshev en honor al importante mate
mtico ruso P.L. Chebyshev (1821-1894), como corolario del teorema siguiente.

T e o r e m a 1. Sea Y una variable aleatoria no negativa (o sea, se cumple que


P ( y > 0) = 1 ) con el valor esperado E Y y 8, un nmero positivo cualquiera. Entonces se
cumple que

EY
P {Y > 5) S ----- (2)
5

o, en una formulacin equivalente ,

EY
P ( r < 6 ) > l -------- . (3)
6

D e m o s t r a c i n . Realizaremos la demostracin separadamente para variables aleato


rias discretas y continuas; el lector debe observar las analogas en el proceder.
a) Sea Y una variable aleatoria discreta que toma los valores y k^ 0, con las probabi
lidades p k. Entonces se cumple que

EY= 2 y kp k> 2 62 p *=bP^Y > 6 )


k k : * * : yk > 6

de donde resulta (2) de inmediato.


b) Sea Y una variable aleatoria continua con la densidad de probabilidad f r Entonces
se cumple, en virtud de que P ( Y < 0 ) = 0 ,

E Y Sf . d y > j x f y ) d y > t j ' f y M d y ^ b P (Y > d),

de donde resulta (2) de nuevo.

C o r o la r io 1. Sea X una variable aleatoria con el valor esperado E X y la varianza


D 2X, y e un nmero positivo arbitrario. Entonces se cumple la desigualdad de Chebyshev

P X -E X \> e ) < (4)


e2

o, en una formulacin equivalente,

www.FreeLibros.com
D e m o s t r a c i n . Hagamos 8 = e j y y = | A ' - ^ | . Entonces se cumple que
P [Y ^ 0) = 1 ,8 > 0 y E Y = E X - E X \i - D X. Aplicando el teorema 1 obtenemos que
D*X
P (IX -E X ]* ^ e1) ^ ------ . Consideremos, adems, que el suceso ( \X - E X \> e 1) ocurre si
E2
y solo si si lo hace el suceso (| X - E X ^ ), con lo cual hemos demostrado (4).

Observaciones
1. La desigualdad de Chebyshev solo tiene sentido para aquellas variables aleatorias
que poseen una varianza (finita).

2. La forma dada en un inicio de la desigualdad de Chebyshev se obtiene de (4) para

3. Las desigualdades (2) y (3) y las desigualdades (4) y (5) se cumplen, en particular,

para 8 ^ E Y y e < \ j D*X , respectivamente, pero son evidentes en estos casos.

En el caso e = 3 ^ D*X , la desigualdad (5) expresa que para toda variable aleatoria X

(con varianza finita), la probabilidad de que tome valores cuya distancia del valor espe-
----------------------------------------------------------------- 7-----------------------------------------------------------8
rado sea menor que el triplo de la desviacin estndar, es por lo menos igual a ,
9

Radica en la naturaleza del problema el que una proposicin tan general como la de
sigualdad de Chebyshev, que no requiere m s que el valor esperado y la varianza de la
distribucin de probabilidad de la variable aleatoria considerada, pueda ser muy burda
en casos especiales. Por ejemplo, en el caso de que X posea una distribucin normal, se

obtiene que P (\X E X \< 5 \ [ d *X) = 0 ,9 9 7 (ver 5.4 (2 6 )). Sin embargo, la desigualdad de
Chebyshev no se puede mejorar, como muestra el ejemplo siguiente, sin la adopcin de
condiciones adicionales sobre la clase de variables aleatorias considerada.

E je m p lo . Supongamos que la variable aleatoria X posee los valores k, k y 0 (fc es


aqui un nmero arbitrario mayor o igual que 1), y se cumple que

P { X = k) = P {X = k ) = , P (X = 0 ) = 1 .
2k1 fcJ

Entonces se cumple que E X = 0, D 1X = E X = k 2 i 2 = 1 y con esto


_________________________________________________I k 1____________________________________

P ( \ X - E X \ > lo jD 'X ) = P ( \x \ k) = P (X = - k ) + P {X = k ) =

Luego, en la desigualdad de Chebyshev est, en este caso, el signo de igualdad.

A continuacin indicarem os una generalizacin de la desigualdad de Chebyshev, la llam ada desigual


dad de Kolmogorov.

www.FreeLibros.com
T e o r e m a 2. Sean X VX , . .. , X n variables aleatorias independientes con varianza (finita) y sea e un
nmero positivo arbitrario. Entonces se cumple que

(7)

o, en una form ulacin equivalente,

(8 )

N o dem ostrarem os la desigualdad de K olm ogorov; solo observarem os que para n = l se obtiene la de
sigualdad de Chebyshev.

7.2 Tipos de convergencia en la Teora de probabilidades


En este epgrafe presentaremos algunas definiciones de convergencia para sucesiones de
variables aleatorias. Denotarem os siempre con (X J una sucesin de variables aleatorias
y con X, otra variable aleatoria sobre el mismo espacio de probabilidad (1, A ,F).

D e f i n i c i n 1. Se dice que una sucesin (X J converge con p robabilidad uno (o converge


casi seguro) a X, si se cumple que

P({cf e l : lim X n(m) =JST(co)}) = 1. ( 1)


Para esto escribimos abreviadamente P (lim X n= X ) = 1 y de forma simblica

Por tanto, la convergencia con probabilidad uno se presenta si el conjunto de todas las
coel, para las cuales la sucesin numrica (Xn (<*>)) converge al nmero X((), posee la
probabilidad uno, es decir, si el suceso (lim X = X ) es un suceso casi seguro o prctica

mente cierto. Por esto, la convergencia casi segura en la T eoria de probabilidades se co


rresponde, en su esencia, con la convergencia ordinaria de una sucesin de funciones en
el Anlisis.
El teorem a siguiente ofrece una caracterizacin interesante de la convergencia con probabilidad uno.
c.s.
T e o r e m a 1. Se cum ple que X , ----- * X si y solo si para todo nm ero positivo e se cum ple la rela-

(2)

D e m o s t r a c i n . Sea e > 0 arbitrario. Introduzcam os la s notaciones siguientes:

www.FreeLibros.com
Entonces se cumple que fl+1() E B(e), por consiguiente Cn+1(e) C(e) y, por tanto, (ver 2 .4 , teo'
rema 1)

lim J(C(6) = P \ O Ct(e) ) .


> *=1 '

C .S. ^
1. Supongamos que se cumple que X H ----- X, o sea, que P(C) = 1 . Entonces tenem os que f 1 C(6)
!
= <t> y. por tanto, lim P(C(e)) = 0. D e P[B(e)) = / (Cll(s)) resulta que lim P(BJe)) = 0 , es decir, se

cumple (2).
2. Supongamos que se cum ple (2), o sea, que lim P(BJie ) ) = 0 . Entonces tenem os que D(e) 9 B n(e) pa-

ra n = 1 ,2 ,... Por consiguiente, se cum ple que P (D (z)) 0. D e C i D ( I resulta que


c.s. * -i V k '
P\C) = 0 , o sea, que es P(C) = 1 , lo que es equivalente a X ----- X.

D e f in ic i n 2 . Se dice que una sucesin (X J converge en probabilidad (o: converge es-


tocsticamente) a X, si para todo nmero positivo e se cumple que

lim P {(o )en : |X n(e>) -X (m ) |< e}) = 1. (3)

Para esto escribimos abreviadamente lim P(\XnA ^ e ) = 1 y de forma simblica

Xn L x .

La relacin (3) expresa que en la convergencia estocsticade (XJ hacia X, la diferencia


de X n y X en al menos s, es decir, el suceso (\Xn- X ^ e), posee una probabilidad que con
verge hacia cero para n * ~ ; aqui e es un nmero positivo cualquiera. Sin embargo, la
relacin (3) no dice que para un coel fijo exista para todo e > 0 un nmero natural n0 tal
que se cumpla ^ (c o ) -X (m ) | < e para todo n ^ nv es decir, que se cumpla

lim XJt<a) =X(ey).

Entre la convergencia casi segura o prcticamente cierta y la convergencia estocstica


existe la relacin siguiente.

T e o r e m a 2 . Si la sucesin (X J converge con probabilidad uno a X, entonces converge


tambin estocsticamente a X, es decir, se cumple que

X * X -------- X. (4)

D e m o s t r a c i n . U tilicem os las notaciones A j e ) y B m(e) introducidas en la dem ostracin del t e o


c.s.
rema 1. D e X n ---------X resulta, con el teorem a 1, que lim P (B ,(t)) = 0 . En virtud de AJfi) (e)

se obtiene de aqui directam ente que lim P(An( t) ) = 0 , es decir, se cumple que lim P ( \x n- x ^ s) = 0 ,

lo cual es equivalente a lim / * ( | Jf|< e) = 1 y con esto a X X.

D e f in ic i n 3 . Si las variables aleatorias AT(n=l,2,...) y X poseen una varianza (fi


nita), decimos que la sucesin (A'll) converge en m edia cuadrtica o. X, si se cumple que

lim E(X-X )* = Q . (5)

Para esto escribimos simblicamente X . X.

121

www.FreeLibros.com
El contenido de la convergencia en media cuadrtica es que lim D 1 (XK- X ) = 0 , es

decir, que la sucesin de las varianzas D \X - X ) converge hacia la varianza de una va


riable aleatoria distribuida puntualmente (ver 4 .3, teorema 4 ).
Entre la convergencia en m edia cuadrtica y la convergencia estocstica existe la rela
cin siguiente:

T e o r e m a 3 . Si la sucesin (X J converge en m edia cuadrtica a X, entonces converge


tambin estocsticamente a X, es decir, se cumple que
c .m .c P
X --------X=>XK ---------X. (6)

D e m o s t r a c i n . Sea e > 0 . U tilicem os e l teorem a 1(7.1) con b z 1 y Y \X ,X f y ob


tenemos

P ( \ X - X \ > e) = P (\Xn- X \ e*) ^ = E {X' X ) *


e*

Si se cumple que X n c ,m ,c > X, es decir, si lim E (X -X )2= 0 , entonces resulta que


jp
lim P ( | > e) = 0 para todo e > 0 , es decir, se cum ple que X H ----- X.

D e f i n i c i n 4 . Se dice que la sucesin (X J converge segn las funciones d e distribucin


(o: converge en distribucin) a X, si entre las funciones de distribucin FX y Fx se cumple
la relacin
lim Fx (x) = F X (x) (7)

en todos los puntos de continuidad x de F r Para esto escribimos de forma simblica


e.d.
X n ----- > X.
Advertimos expresamente que la proposicin (7) no tiene que cumplirse para todo x;
esta puede que no se cum pla para aquellos valores de x en los cuales la funcin de dis
tribucin Fx de la variable aleatoria X no es continua. Pero si la funcin de distribucin
Fx es continua (este es por ejemplo el caso si la variable aleatoria X es continua), entonces
la convergencia en distribucin de (X J hacia X es equivalente a la convergencia ordinaria
de la sucesin de funciones (Fx) a la funcin F^

Entre la convergencia estocstica y la convergencia en distribucin existe la relacin


sijguiente:

T e o r e m a 4 . Si la sucesin (X J converge estocsticamente a X, entonces converge


tambin en distribucin a X, es decir, se cumple que
P e.d.
X n ----- > X * X ----- X. (8)

D e m o s t r a c i n . Sea c > 0 arbitrario. H agam os A = ( \x x \ < e ) .


E ntonces se cum ple, segn la prem isa, que lim P \A J = 1 ' Sobre la base de la frm ula de la proba-

bilidad total (ver 3.4, teorem a 1) se obtiene para un nm ero real x cualquiera

FXn(x) = P {X n< x ) = P (X n< x \A J P ( A J + P {X n< x \ A J P ( A J .

Por una parte, resulta de aqu que Fxp c ) < P [X < x \a j P[a ) de donde se obtiene con

PiAJ

www.FreeLibros.com
FVCk< x \a J **.<*> ^ < X n+E) n (X > X ,-e ))
PUJ
P {X < x+ e)

y lim P{AJ =0, la proposicin


lim aip F (x) F ^x+c.).
n "
Por otra parte resulta que
FXm(x) > P(X, < x AJ P U J = W < x) n(|jr-jr|<e)),
de donde se obtiene con
PHX.<x) n (|jr.-jrl< e)) + P {\x -x fe e) > P {X < x -e)
y
lim ^ J = l i m P ^ X .- ^ lf s )= 0
-.a *-
la relacin
lim inf Fx (x) > F / x - e ) .
Si x es un punto de continuidad de F# obtenemos para e -*0 las desigualdades
Mm sup Fx (x) < Fx) y lim inf Fx (x) > F x ).
Por tanto, se cumple que lim FXn(x) ~Fx) en todos los puntos de continuidad de Fx, es decir, se cum-
c.d.
pie que X , > > X.
C on esto hem os m ostrado que la convergencia en distribucin es la ms dbil entre los
tipos de convergencia aqu definidos. Si la variable aleatoria X posee una distribucin
puntual, o sea, si existe un nm ero c con P (X -c) = 1 , y la sucesin (XJ converge en dis
tribucin a X, entonces ella converger tambin estocsticam ente a X. (Para esto escribi-
P
m os abreviadam ente X x ------c y decim os que la sucesin (X J converge estocsticam ente
hacia c.) Se cum ple, por consiguiente, el teorem a siguiente:

T e o r e m a 5 . Sea X una variable aleatoria distribuida puntualmente. U na sucesin


(XJ converge estocsticam ente a X si y solo si converge en distribucin a X.

D e m o s t r a c i n . Sea X una variable aleatoria distribuida puntualm ente. Sin restric


cin de la generalidad podem os suponer que P(X=0 ) = 1 . Sobre la base del teorem a 4 solo
tenem os que demostrar que la convergencia estocstica resulta, bajo esta condicin, de la
convergencia en distribucin.
Por consiguiente se cumple

para x > 0 ,
en todos los puntos de continuidad de F # es decir, se cumple que

Para * < >


ln
i
*
Fx.M = |\
Fx (x) =
l l11 para x > 0 .

Para e > 0 arbitrario, se cum ple que

( W < e ) = P (X < t) - P ( X m^ - 6 )
= F Xm( e ) - F Xt( - + 0 ) ,

www.FreeLibros.com 123
de donde para n * resulta, sobre la base de las premisas, que

lim /> (|r j< e ) = 1 - 0 = 1.

Esto significa precisamente que la sucesin (XJ converge estocsticamente a 0.

7.3 Teoremas de Bernoulli y de Poisson (Ley de los grandes


nmeros)
En este epgrafe retrocederemos otra vez a la relacin entre la frecuencia relativa y la
probabilidad. La Ley de los grandes nmeros de Bernoulli, que se expone a continuacin,
puede concebirse como una formulacin matemtica del efecto observado reiteradamente
en casos concretos de la estabilizacin de la frecuencia relativa (ver 2.1).
Designemos con A un suceso aleatorio que ocurre en el marco de un experimento alea
torio con la probabilidad P(A) - p ; denotemos con f n(A ), al igual que antes (ver epgra
fe 4 .5 ), la frecuencia relativa aleatoria de la ocurrencia de A en una serie de n repeti
ciones independientes de este experimento aleatorio.

T e o r e m a 1. Para todo nmero e se cumple que___________________________________

lim >(|/nW )/> |< )= 1 (1)

o, en una formulacin equivalente,

lim P ( \ f M ) ~ p \> e) = 0 , (2)

es decir, la sucesin (f,(A )) converge estocsticamente hacia p (Ley de los grandes nmeros
de Bernoulli, 1712).

D e m o s t r a c i n . Se cumple que E fn(A) = p (n = 1 ,2 ,...) y DYJiA) = 0 para


n
o (ver 4.5 (13) y (1 4)). A plicando la desigualdad de Chebyshev (ver 7.1, teorema 2,
y sustituir X por f n(A )) se obtiene, para e > 0 arbitrario, la desigualdad

P ilfM ) - p !> >s - ( < 7 ^ 7 )-


neJ V 4ne2 /

de donde resulta la proposicin (2) del teorema por paso al limite cuando n *

La Ley de los grandes nmeros de Bernoulli plantea que la probabilidad de que la di


ferencia entre la frecuencia relativa f (A) de un suceso A y la probabilidad P(A) - p de
este suceso sea menor que un nmero positivo 6 cualquiera dado, est arbitrariamente cer
ca de uno, si el nmero n de las repeticiones del experimento aleatorio considerado es su
ficientemente grande. Esto significa que para un nmero de experimentos suficientemente
grande, la probabilidad de que exista una diferencia insignificante entre la frecuencia re
lativa y el nmero p es aproximadamente igual a uno. En particular, la Ley de los gran
des nmeros de Bernoulli muestra que todo suceso aleatorio con probabilidad positiva,
por pequea que esta sea, ocurre al menos una vez en una serie de experimentos suficien
temente grande con una probabilidad situada arbitrariamente cerca de uno. D e estas ex
plicaciones se deduce por qu se denomina la proposicin del teorema 1 como Ley de los
grandes nmeros.

124

www.FreeLibros.com
Queremos an deducir una proposicin que contiene al teorema 1 como caso particular:
la llamada Ley de los grandes nmeros de Poisson. Constituye el punto de partida una se
rie de n experimentos aleatorios independientes, en los cuales ocurre un suceso A con una
probabilidad que, en contraposicin con el esquema de experimentos de Bernoulli consi
derado anteriormente, depende del nmero del experimento aleatorio (esquema de expe
rimentos de Poisson). Designemos con pk la probabilidad del suceso A en el experimento
k. Consideremos la variable aleatoria X k tal que
1 en caso deque el suceso A ocurre en el experimento, , , _
_ k = 1,2 ,..., n.
en caso deque el suceso A ocurra en el experimento,

Entonces se cumple que P(Xk- \ ) = p k,P(Xk=0) = 1 p k. Por consiguiente se cumplen las


ecuaciones

EXk= l p k+ 0 ( l - p k) = p k

D'Xk= ( 1 - p k) 2p k+ ( 0 -/>*) '(1 -/>*) = p k( 1 - p j .


Designemos de nuevo con f(A) la frecuencia relativa aleatoria de la ocurrencia de A en
un esquema de experimentos de Poisson.
Entonces se cumple que ________ ________ ________ ________ ________ ___

fJA ) = (X1+X 2+ . .. + X n),


n

de donde (ver 4.3, teorema 1 y 6.2, colorado 1)

E fM )= E(X1+X 1 + ... + X n) = EX' +.::- EX*-=p i t - - t h .

y, en virtud de la independencia de las variables aleatorias X v X v ..., X (ver 6.4, teore


ma 5), resulta

D 2f(A) = D 2(X1 + ...+ X J = D2X' + -t D *X.l


n2 n2

- P .d - i ( g _L o para * \
n1 V 4n '

De la aplicacin de la desigualdad de Chebyshev (ver 7.1, teorema 2 y sustituir X por


f n(A) ) se obtiene directamente la proposicin del teorema siguiente.

T e o r e m a 2. Para todo nmero positivo e se cumple que

lim P ( \ f n(A) - Pl + - + -P" | < e ) = ! (3)

o, en una formulacin equivalente,

lim P ^ f,(A ) ~ Pl + ' " +P"| > e ^ = 0 (4)

(Ley de los grandes nmeros de Poisson).

125

www.FreeLibros.com
Verifiquemos, por una parte, que en el caso de que la probabilidad del suceso A sea
igual en todos los experimentos (pk~ p para todo k), se obtiene de aqui la Ley de los gran
des nmeros de Bernoulli; pero observemos tambin por otra, que una proposicin corres
pondiente a la Ley de los grandes nmeros de Bernoulli se obtiene tambin con premisas
menos limitantes. El epgrafe siguiente trata sobre otras generalizaciones de la Ley de los
grandes nmeros de Bernoulli.

7.4 Generalizacin de la Ley de los grandes nmeros


En la deduccin de la Ley de los grandes nmeros de Poisson partimos de una sucesin
especial (XJ de variables aleatorias, consideramos la sucesin de las medias aritmticas

(A'1+A'J+ ... + X J e investigamos la convergencia de esta sucesin. La proposicin del


n
teorema 2(7.3) se puede formular entonces de modo que la sucesin (Y J de las medias
aritmticas centradas Y,

( 1)

converge estocsticamente a cero. Este hecho es el fundamento de la definicin siguiente.

D e f in ic i n 1. Se dice que una sucesin (-Jf*) satisface la Ley de los grandes nmeros,
si la sucesin (Y J de las medias aritmticas centradas Y

converge estocsticamente a cero.

En esta formulacin se supone la existencia de los valores esperados que aparecen. Si estos no exis
ten, entonces se dice que la sucesin (X J satisface U Ley de los grandes nmeros si existe una sucesin

numrica ( a j tal, que la sucesin (K J , K =- X k- a H, converge estocsticamente a cero.

El prximo objetivo consiste en indicar condiciones suficientes para que una sucesin de
variables aleatorias satisfaga la Ley de los grandes nmeros.
Algunas proposiciones importantes en esta direccin se deben a nombrados representan
tes de la escuela rusa de la teoria de probabilidades, fundada por P.L. Chebyshev, la cual
represent el centro de la investigacin terica en este campo al inicio de nuestro siglo (en
especial se deben a P.L. Chebyshev y su famoso discpulo A .A . Markov (1856-1922), y
y A .N . Kolmogorov, el funda
dor de la teora axiomtica de probabilidades.

T e o r e m a 1. (Ley de los grandes nmeros de Markov)


Sea (XJ una sucesin de variables aleatorias, que satisfacen la condicin

(2)

126

www.FreeLibros.com
Entonces la sucesin (XJ satisface la Ley de los grandes nmeros.

D e m o s t r a c i n . Aplicando la desigualdad de Chebyshev (ver 7.1, corolario 1 y.sus-

de donde se obtiene en virtud de la validez de la condicin de Markov (2), que


lim P[\Y\> e) = 0 . Luego, la sucesin (Y J converge estocsticamente a cero, o sea, la su

cesin (XJ satisface la Ley de los grandes nmeros.


T e o r e m a 2. (Ley de los grandes nmeros de Chebyshev)
Sea (XJ una sucesin de variables aleatorias incorrelacionadas dos a dos, cuyas varianzas
estn acotadas. (Luego, existe un nmero M > 0 , tal que se cumple D 2Xk* M, para todo
k. ) Entonces la sucesin (XJ satisface la Ley de los grandes nmeros.
D e m o s t r a c i n . Como las variables aleatorias X k estn incorrelacionadas dos a dos,
se cumple (ver 6.4, teorema 5) que

y, por tanto, sobre la base de la premisa,

n
D e aqui resulta que se cumple la condicin de Markov y con esto hemos demostrado la
validez de la .Ley de los grandes nmeros para la sucesin (X J , en virtud del teorema 1.
Como caso especial de la Ley de los grandes nmeros de Chebyshev se obtiene direc
tamente la Ley de los grandes nmeros de Poisson (ver 7.3, teorema 2; all se cumple para

todo k que D 2X k= p k( l - p J ^ a causa de que (K p k^ 1).

En la formulacin de otras proposiciones utilizaremos un concepto, que estableceremos


en la definicin siguiente.
D e f in ic i n 2. Los elementos de un conjunto de variables aleatorias se denominan
distribuidos idnticamente, si todas la variables aleatorias de este conjunto poseen una
misma funcin de distribucin.
En relacin con esta definicin llamamos la atencin desque las variables aleatorias dis
tribuidas idnticamente no tienen que ser iguales; en cambio, las variables aleatorias igua
les poseen una distribucin idntica, como es natural. El lector debe aclararse a si mismo
este comportamiento.

T eo r e m a 3. Sea (XJ una sucesin de variables aleatorias independientes, distribuidas


idnticamente, con el valor esperado (comn) n y la varianza (comn) o*. Entonces la su
cesin (XJ satisface la Ley de los grandes nmeros. En particular, la sucesin

127

www.FreeLibros.com
( t & ) de la s m e d ia s a r itm tic a s de la su c e si n (A"t) c o n v e r g e e s to c s tic a m e n te al

v a lo r e s p e r a d o (co m n ) |i.

L a p r o p o s ic i n d e e ste te o r e m a se o b tie n e d ir e c ta m e n te d e la L ey d e lo s g r a n d e s n m e
ros de C h eb y sh ev ; el le c to r d eb e v e r ific a r esto . E n la p a r te r e la tiv a a la E s ta d stic a m a
te m tic a h a r e m o s u n e m p le o p r o v e c h o s o de la p r o p o s ic i n d e l teo r e m a 3. P o r ltim o , a d
v e r tim o s que la L e y de lo s g r a n d e s n m e r o s de B e r n o u lli (v er 7 .3 , teo r e m a 1) se o b tie n e
d ir e c ta m e n te c o m o c a s o e s p e c ia l d e este teo r e m a .

Hs de notar que se puede renunciar a la condicin de la existencia de la varianza.

T e o r e m a 4. (Ley de los grandes nmeros de Kinchine). Sea (Xk) una sucesin devariables alea
torias independientes, distribuidas idnticamente, con el valor esperado (comn) u. Entonces, la suce-

sin (JCt) satisface la Ley de los grandes nmeros. En particular la sucesin \ 2 S k )

estocsticamente a n.
(-& ) converge

Queremos exponer an algunas proposiciones sobre la denominada Ley fuerte de los grandes n
meros.

D e f i n i c i n 3. Se dice que una sucesin (A"t) satisface la Ley fuerte de los grandes nmeros, si la
sucesin (y),

Xk- E X k),
-S
converge casi seguro a cero, suponindose la existencia de los valores esperados EXk. (Si estos no exis
ten. entonces se dice que la sucesin (Xk) satisface la Ley fuerte de los grandes nmeros, si existe una
1 ^
sucesin numrica (a) tal, que la sucesin ( Yn) , Yn= y X k- a (converge casi seguro a cero.)
n
Las definiciones 1 y 3 solo se diferencian en el tipo de la convergencia de la sucesin (K) hacia cero;
en la definicin 1 se parte de la convergencia estocstica y la definicin 3 se basa en la convergencia
con probabilidad uno. Como de la convergencia con probabilidad uno resulta la convergencia estocs
tica (ver 7.2, teorema 2 ,), una sucesin (Xk), para la cual se cumpla la Ley fuerte de los grandes n
meros, satisface tambin la Ley de los grandes nmeros. (Para una mejor diferenciacin, la Ley de los
grandes nmeros caracterizada mediante la definicin 1, se denomina Ley dbil de los grandes nme-

Los teoremas siguientes, provenientes de A .N. Kolmogorov, indican condiciones suficientes para la
validez de la Ley fuerte de los grandes nmeros.

T e o r e m a 5. Sea (X) una sucesin de variables aleatorias independientes que satisface la condicin

D lXk

2 ------- < (condicin de Kolmogorov).

k=1 K
vi
(3)

Entonces la sucesin (X) satisface la Ley fuerte de los grandes nmeros.


La demostracin de este teorema se basa fundamentalmente en la desigualdad de Kolmogorov
(ver 7.1, teorema 2), pero no la realizaremos; no obstante, observemos que en el teorema 5 se supone
la existencia de las varianzas.
Cada una de las condiciones siguientes, impuestas a una sucesin (X ^ de variables aleatorias, es su
ficiente para la validez de la condicin de Kolmogorov (3) y en unin con la condicin de independen
cia de las variables aleatorias X v X ,..., lo es tambin para la validez de la Ley fuerte de los grandes
nmeros.

1. X lX , ... estn distribuidas idnticamente (con el valor esperado n y la varianza o 1). (En este caso
1 ^ c.s
se obtiene que y Xk ------- (i.)

128

www.FreeLibros.com
2. Existe M > O tal que D 2X k^ M para todo k.
La ltima condicin m encionada muestra, que en el caso de una sucesin de variables aleatorias in
dependientes, la Ley de los grandes nmeros de Chebyshev (ver teorema 2), -y en particular, la Ley
de los grandes nmeros de Poisson (ver 7.3, teorema 2 ),- pueden considerarse tambin como Ley fuerte
de los grandes nmeros.
La primera condicin nombrada muestra que la Ley de los grandes nmeros formulada en el teorema
3 y, en particular, la Ley de los grandes nmeros de Bernoulli (ver 7.3, teorema 1), puede pasar tam
bin como Ley fuerte de los grandes nmeros. La sucesin (fn(A)) de las frecuencias relativas f(A ), to
madas como variables aleatorias, de la ocurrencia de un suceso aleatorio A en una serie de n repeti
ciones independientes de un mismo experimento aleatorio, para el cual el suceso A tiene la probabilidad
P(A) = p converge para n no solo estocsticamente, sino tambin con probabilidad uno.*
Por ltimo, daremos un teorema muy concluyente referente a la validez de la Ley fuerte de los gran
des nmeros para una sucesin de variables aleatorias independientes, distribuidas idnticamente.

T e o r e m a 6. (Ley de los grandes nmeros de Kolmogorov)


Sea (X k) una sucesin de variables aleatorias independientes distribuidas idnticamente.

1. Si existe X , = n. entonces la sucesin (X) satisface la Ley fuerte de los grandes nmeros. En par-
1 c.s.
ticular. se cumple que ? Xk ------------------ n.
" i

2. Si la sucesin l - Z x t ) converge hacia una variable aleatoria X , entonces X est distri-


* => 1 V c.s.
buida puntualmente, es decir, existe un nmero a, tal que y , Xk----- a. Adems, existe enton-
" hT
ces EXV y se cumple que E X = a .

Renunciaremos a la demostracin de este teorema, que es muy difcil; esta se realiza haciendo re
ferencia al lema de Borel-Cantelli (ver 3.3, teorema 1). Advertim os an que, sobre la base de la pri
mera proposicin del teorema 6, la Ley de los grandes nmeros de K inchine (ver teorema 4) puede con
siderarse tambin como Ley fuerte de los grandes nmeros.

7.5 Teorema integral de De Moivre-Laplace


Por teorema limite se entiende, en la teoria de probabilidades, en lo esencial, una propo
sicin sobre el comportamiento lmite de una sucesin (Fz) de funciones de distribucin
de una sucesin dada (Zn) de variables aleatorias. Las leyes de los grandes nmeros, tra
tadas en los epgrafes 7.3 y 7.4, son ejemplos de teoremas lmites semejantes; se indican
condiciones suficientes para que dada una sucesin (X t), la sucesin (Z J ,

Z = > (Xk- E X k),


n
converja estocsticamente (o incluso, casi seguro) hacia cero, de donde resulta la conver
gencia en distribucin de la sucesin (Z J hacia cero (ver 7.2, teorema 4).
Muchas veces, y de casos semejantes nos ocuparemos en este y en el prximo epgrafe,
los teoremas lmites consisten en la indicacin de condiciones suficientes para la conver-
gencia de una sucesin de funciones de distribucin hacia la funcin de distribucin de
una variable aleatoria distribuida normalmente con los parmetros u = 0 y ctj= 1; con esto
se obtienen tambin caracterizaciones significativas de la distribucin normal.

* Esta proposicin fue considerada por primera vez en 1909 por el matemtico francs
E. Borel (1871-1956) ; por ello se denomina tambin Ley de los grandes nmeros de Bo>
re.

129

www.FreeLibros.com
En este epigrafe conoceremos el llamado teorema integral de D e Moivre-Lapiace (A. De
Moivre, 1730, P.S. Laplace, 1812), que tiene por contenido una proposicin semejante pa
ra variables aleatorias distribuidas binomialmente.
Sea A un suceso aleatorio que ocurre en el marco de un experimento aleatorio con la
probabilidadP(A) = p , 0 < p < \ . Denotemos con Fn(A ). al igual que antes (ver epigrafe 4.S),
el nmero aleatorio de la ocurrencia de A en una serie de n repeticiones independientes
de este experimento. Como sabemos, la variable aleatoria discreta F(A) est distribuida
binomialmente con los parmetros n y p, y se cumplen las relaciones EFn(A) = n p y
D>Fn(A) = nP (1 P)' Sobre la base de la Ley de los grandes nmeros de Bernoulli (ver 7.3,
teorema 1), sabemos que la sucesin (K J,

v . FM ) . Fn( A ) - n p F,(A ) ~ E F A )
Y ,= J M ) - P = ---------- P - --------------- ----------------------.
n n n

converge estocsticamente -y segn la Ley de los grandes nmeros de Borel (ver 7.4, antes
del teorema 6) incluso casi seguro- hacia cero cuando n -+. La funcin de distribucin
limite es, por consiguiente, la funcin de distribucin de una variable aleatoria distribuida
puntualmente, o sea, de una variable aleatoria que posee, la varianza cero. Observemos

>2r = D'F.(A) = p {^ - L
n2 n
y, por tanto, se cumple que

lim D 2Y = 0.

El comportamiento diferente de la funcin de distribucin limite se hace pausible, de


esta forma.
Ahora queremos considerar la sucesin (Z J que se obtiene mediante estandarizacin de
la sucesin (F(/4)),

Fn(A) -E F ,(A ) F M ) ~nP


______ n~ '
\ D 2F(A) \j np(l p)

entre las variables aleatorias Z y las Yn consideradas anteriormente, existe la relacin

Z .= V ^ ------- ^ --------.
\P (\ ~P)

y se cumplen, por tanto, las relaciones E Z = E Y = Q y D 2Z = ----- D 2Y = 1


P( 1 -P )
(n = 1 ,2 ,...). Para la sucesin (Z J se cumple el teorema siguiente:

T e o r e m a 1. (Teorema integral de D e Moivre-Lapiace)


Sea (F J una sucesin de variables aleatorias F, que estn distribuidas binomialmente
con los parmetros n y p (0 < p < 1, = 1 ,2 ,...). Entonces para la sucesin (Fz) de las fun
ciones de distribucin F z> de las variables aleatorias Z,

Z H ~EF _ F, - n p

\ D 2Fn V nP(X~P)

130

www.FreeLibros.com
se cumple para todo x la relacin

lim FZn(x) = (x) = f- L - e l dt, (1)


J y in

o sea, la sucesin (Z J converge en distribucin hacia una variable aleatoria con distribu
cin # (0 ,1 ).

U na demostracin clara de este teorema exige medios auxiliares que sobrepasan los
marcos de este libro. Por eso, nos limitaremos a aclarar la significacin del teorema 1 y,
en particular, la utilizacin de esta proposicin en casos de aplicacin.
Si X es una variable aleatoria distribuida binominalmente con los paramtros n (n 1)
y p(0 < p < 1), entonces el clc,ulo de las probabilidades

es complicado, como habamos dicho ya en el epgrafe 4.5. Sin embargo, en este caso
( n l ) , no nos interesamos tanto por tales probabilidades particulares, que son en su
mayora muy pequeas, sino por los valores que toma X de un intervalo cualquiera dado.
A plicando el teorema 1 se obtiene para P (a ^ X < b )

a np X -n p b -n p
P(a^S X < b ) = P
V np{\ - p ) \ np(\ - p ) y np( 1 - p )

( 2)

(La expresin sealada representa al mismo tiempo una aproximacin para las probabi-
lidades P (a< X b), P ( a < X < b) y P ( a < X < b ) .-------------------------------------------------------------
Una variable aleatoria distribuida binomialmente con los parmetros n ( l ) y
p(0 < p < \ ) posee aproximadamente una distribucin normal con los parmetros \i= n p y
a 2= n p ( l - p ) .

E je m p lo . U na fbrica suministra bombillitos en cartones de 1 000 cada uno. Se sabe


que la fbrica produce un promedio de bombillitos defectuosos del 3 %. Luego, en un car
tn con 1 000 bombillitos es de esperar que alrededor 30 estn defectuosos. N os intere
samos por la probabilidad de que en un cartn se encuentren de 20 a 40 bombillitos de
fectuosos. Para ello designemos con X el nmero (aleatorio) de los bombillos defectuosos
en un cartn. La variable aleatoria X est distribuida binomialmente con los parmetros
n = 1 000 y 7=0,03; se cumple entonces que

E X = 1 000 0,03 = 30 y D*X= 1 000 0,03 ( 1 - 0 ,0 3 ) = 2 9 ,1 .

Para la probabilidad buscada se obtiene que

*=20 *=20

131

www.FreeLibros.com
Con esta frmula no se puede calcular de forma prctica la probabilidad buscada. Si uti
lizamos la frmula de aproximacin (2) con a =20, b=40. n=1000. n = 0 m y 1 _ j,= o o
obtenemos que
4 0 - 1 000 0,03 2 0 - 1 000 0,03
P { lO ^ X 4 0 )=
\ 1 000 0,03 0,97 y j 1 000 0,03 0,97

10 \ . / -1 0
=<D
129,1 129,1

10
= 2 -1
129,1

= 2 ( 1 ,8 5 ) - 1 = 2 0 ,9 7 - 1 = 0 ,9 4 = 94%

Luego, la probabilidad buscada es aproximadamente de 0,94.

7.6 Teorema central del lmite


Para la formulacin del teorema integral de D e M oivre-Lapiace partimos de una sucesin
de variables aleatorias F* distribuidas binomialmente. U na variable aleatoria F n distri
buida binomialmente con los parmetros n y p se puede representar como suma de n va
riables aleatorias discretas X 1,X 2,..., X n independientes y distribuidas idnticamente,
F = X l + X 1+ ...+ X cuya tabla de distribucin est dada por

1 0
X:
p 1- p

(ver en 7.3 las explicaciones posteriores a la formulacin de la Ley de los grandes nmeros
F EF
de Bernoulli). Las variables aleatorias Z = -------------- - de la sucesin (Z J conside-

rada en el teorema integral de D e Moivre-Lapiace, se pueden representar tambin, debido

a que FF= ^ EXk y D JF = ^ D 2X k, en la forma

EXJ
Z =- (1)

*-1

132

www.FreeLibros.com
La proposicin del teorema integral de D e M oivre-Lapiace plantea que la sucesin ( Z J ,
form ad a segn (1) de la sucesin (Y J de variables aleatorias independientes, distribuidas
id n ticam en te, con verge en d istrib u cin h a cia una variable aleatoria con distribucin
# (0 ,1 ). Este hecho constituye el fundamento de la definicin siguiente.

D e f in ic i n 1. Se dice que una sucesin (Xk) de variables aleatorias independientes


satisface al teorema central d el limite, si la sucesin (Z),

Z = ( 1)

converge en distribucin hacia una variable aleatoria con distribucin N (0,1), es decir, si
para la sucesin (FZJ de las funciones de distribucin de Z se cumple la relacin

( 2)

Luego, en esta form ulacin se supone la existencia de los valores esperados y las varianzas que apa
recen, asi como que D X l > 0 . Si estas m agnitudes no existen, entonces se dice que la sucesin (Xk) sa
tisface al teorem a central del lim ite, si existen sucesiones num ricas (a) y (>). >*0, tales que la su
cesin (Z),

(3)

converge en distribucin hacia una variable aleatoria con distribucin JV(0,1).

El prximo objetivo consiste en indicar condiciones suficientes para que una sucesin de
variables aleatorias satisfaga al teorema central del lmite. Para ello afirmamos primera
mente que, sobre la base del teorema integral de D e Moivre-Lapiace, una sucesin (X k)
de variables aleatorias independientes, distribuidas idnticamente en dos puntos, satisface
al teorema central del lmite. A continuacin se muestra que se puede renunciar a la con
dicin de la distribucin en dos puntos.
T e o r e m a 1. Sea (Xk) una sucesin de variables aleatorias independientes, distribuidas
idnticamente y con varianza finita y positiva. Entonces la sucesin (X k) satisface al
teorema central del limite.
Este teorema se debe a J.W. Lindeberg (1922) y P. Lvy (1925); por eso se denomina
tambin como Teorema lm ite de Lindeberg-Lvy. En la estadstica matemtica este teo
rema es de gran significacin; en l se plantea que las sumas estandarizadas Z de varia
bles aleatorias X k independientes y distribuidas idnticamente, poseen asintticamente una
distribucin # (0 ,1 ) y (es decir, cuando el nmero de los sumandos tiende a <), si para
los sumandos X y exista, junto al valor esperado (comn) m la varianza (comn) ct2
(o2< ~ ) y esta es positiva (oJ> 0 ).
Esto significa que las variables aleatorias

(4)

133

www.FreeLibros.com
poseen aproximadamente una distribucin N(0,1), p a ta n grande, formulado de otra fer-
i _

ma, que la sumas ^ * k P een aproximadamente una distribucin N(nn, no1) para n
grande.
Si en el teorema 1 se renuncia a la condicin de que las variables aleatorias distribuidas
idnticamente X VX V... posean una varianza finita y positiva, o a que las variables alea
torias X, X,... estn distribuidas idnticamente. e n t o n c s u n a S U C & s iA r * -ai rao
por lo general, al teorema central del limite; sin embargo, existen una serie de proposi
ciones que tratan de la validez del teorema central del limite tambin en el caso de va
riables aleatorias no distribuidas idnticamente, por ejemplo, el teorema lim ite de Lyapu-
nov y el teorema lim ite d e Lindeberg-Felter.

Primero presentaremos el teorem a lim ite de Lyapunov (A .M . Lyapunov (1857-1918) fue uno de los
representantes ms significativos de la famosa escuela rusa de teora de las probabilidades, fundada por
P.L. Chebyshev.)

T e o r e m a 2. Sea (A'J una sucesin de variables aleatorias independientes, que poseen momentos
de tercer orden. Si para las sucesiones ( J y ( c j , con

y J ^ \x k-Exk\> y c,=yj^t
'D 'X k (5)
4=1' ' *-1
respectivamente, se satisface la condicin

b,
lim = 0 (condicin de Lyapunov), (6)
c.

la sucesin (JCJ satisface al teorem a central del limite.


La condicin de Lyapunov se satisface evidentem ente, si, adems, las variables aleatorias (X estn
distribuidas idnticamente.
Sobre la base del teorem a 2, la validez de la condicin de Lyapunov es suficiente para el cumpli
m iento del teorema central del lim ite, pero no es necesaria. En particular, no es necesario que existan
momentos de orden mayor que dos. Lindeberg indic una condicin suficiente para la validez del te
orema central del lim ite, para cuya form ulacin -a la cual renunciarem os aqui- no se necesitan momen
tos de orden mayor que dos. D e la satisfaccin de esta condicin -llamada condicin de Lindeberg- re
sulta el cum plim iento de la condicin de Lyapunov, en caso de que existan momentos de tercer orden.
Adems, de la satisfaccin de la condicin de Lindeberg resulta la proposicin
D 1 Xk
lim mx ------------- = 0 . (7)

2
/1
, D' x

Esta relacin expresa que la varianza de cada sumando X k es pequea en comparacin con la varianza
de la suma JT,+J!',+...+Jr..
Por ltimo, W. Feller dem ostr (1935) que, suponiendo que (7) se cumpla, para la validez del teorema
central'del lim ite es necesaria la satisfaccin de la condicin de Lindeberg.

Estos teoremas son de gran importancia, tanto en el aspecto terico -en especial terico-
cognoscitivo como en el aspecto de sus aplicaciones prcticas. D e estos teoremas se obtie
ne con frecuencia la justificacin para describir aproximadamente la distribucin de una
variable aleatoria como una distribucin normal. Asi, por ejemplo, se puede suponer que
una variable aleatoria posee una distribucin normal si se obtiene mediante superposicin
de un nmero considerable de efectos aleatorios mutuamente independientes, donde cada
uno de estos efectos tiene una influencia insignificante sobre la variable aleatoria consi

134

www.FreeLibros.com
derada, en comparacin con la suma de los otros efectos (ver (7)). Con esto, el conoci
miento de los valores esperados y las varianzas es lo nico que se necesita saber acerca
de las distribuciones de probabilidad de los efectos aleatorios que intervienen en la super
posicin. El resultado de una tal superposicin se describe muy bien mediante la distri
bucin normal, si el nmero de los efectos aleatorios es elevado.

Estas notables regularidades en los fenmenos aleatorios, que se expresan en forma cuantitativa en
los teoremas centrales del limite y en forma cualitativa, en las leyes de los grandes nmeros, han con
ducido a realizar y homenajear a la distribucin normal; reproducimos en una traduccin libre una
G alton (1822-1911):

Y o no sabra nombrar algo que pudiera impresionar tanto la fantasa como la forma maravillosa del
orden csmico, que se expresa en la Ley de los grandes nmeros. Si los griegos hubieran conocido esta
ley, la hubieran personificado y adorado como divinidad. Con serenidad y com pleto desconocim iento
de si misma ejerce su poder en m edio del m is salvaje desorden. M ientras m is gigantesco es el conjunto
y mayor la aparente anarqua, tanto m is completa es su fuerza. Ella es la ley superior del caos. Tan
pronto una gran m asa de elem entos sin reglas se ordenan m edianamente, se muestra que una imprevista
y maravillosa regularidad, sumamente armnica, estaba ya oculta en ellos.

Con esto concluimos nuestras observaciones sobre la Teoria de probabilidades para de


dicarnos a los problemas de la Estadstica matemtica.

13S

www.FreeLibros.com
8. E stadstica descriptiva

L os m to d o s y p r o c e d im ie n to s d e la E s ta d stic a d e s c r ip tiv a tie n e n e l o b je tiv o d e r e p r ese n


tar y ag r u p a r c o n v e n ie n te m e n te , d e fo rm a c la r a y g r fic a , e l m a te r ia l d e d a to s o b te n id o s,
p a r a e x p r e sar d e m a n e ra c o m p r e n sib le su e s e n c ia . E sto se re a liz a , p o r u n a p a r te , a t r a v s
de lista s, ta b la s y r e p re s e n ta c io n e s g r fic a s y p o r o tr a , m e d ia n te e l c lc u lo d e la s lla m a d a s
m e d id a s e s ta d s tic a s (p or e je m p lo , m e d id a s d e t e n d e n c ia c e n tr a l). C o n e s to so lo se o b tie
nen p r o p o s ic io n e s so b re e l m a te r ia l d e d a to s p r e s e n ta d o , y se u tiliz a n m to d o s y p r o c e
d im ie n to s q u e so n b a s ta n te in d e p e n d ie n te s d e la T e o r a d e p r o b a b ilid a d e s . S in em b a rg o ,
el o b je tiv o e s e n c ia l e n la in v e stig a c i n d e u n m a te r ia l d e d a to s c o n c r e to s , d e u n a lla m a d a
m u e str a , c o n s is te , e n ltim a in s ta n c ia , en lle g a r a p r o p o s ic io n e s m s g e n e r a le s s o
bre u n a d e n o m in a d a p o b la c i n . P a r a e s to s ir v e n lo s m to d o s y p r o c e d im ie n to s d e la E s
ta d s tic a m a te m tic a (d el c a p tu lo 9 al 1 1 ). lo s c u a le s se b a s a n e n la T e o r a d e p r o b a b i
lid a d e s.
E n c o r r e s p o n d e n c ia c o n el o b je tiv o p la n te a d o p a r a e ste lib ro , n o s o c u p a r e m o s d e fo rm a
d e ta lla d a d e la E s ta d s tic a m a te m tic a y s o la m e n te a b o r d a r e m o s lig e r a m e n te lo s m to d o s
y p r o c e d im ie n to s u tiliz a d o s e n la E s ta d stic a d e s c r ip tiv a . A s tr a ta r e m o s en e l e p g r a fe 8 .1
lo s m to d o s p a r a u n a c a r a c te r s tic a m ed ib le . y e n el e p ig r a fe 8 .3 . lo s m to d o s p a r a d o s
c a r c te r is tic a s m ed ib le s.
A d e m s , p r e s e n ta r e m o s a lg u n a s m e d id a s e s ta d s tic a s tp ic a s (e p g r a fe s 8 .2 y 8 . 4 ) , la s c u a
les a p a r e c e r n d e n u e v o , e n su m a y o r a , e n lo s c a p tu lo s p o s te r io r e s r e la tiv o s a la E s ta d s
tic a m a te m tic a .

8.1 Mtodos para el estudio de una caracterstica medible


L a b a se d e u n a in v e stig a c i n e s ta d s tic a e s u n c o n ju n to d e o b je to s e n e l c u a l u n a o v a r ia s
c a r a c te r s tic a s d e b e n se r in v e stig a d a s . E n e s te y e n e l p r x im o e p g r a fe p a r tir e m o s d e que
se d eb e in v e stig a r u n a c a r a c te r s tic a m e d ib le X\ m s g e n e r a l, u n a c a r a c te r s tic a q u e se
p u e d e d e sc rib ir n u m r ic a m e n te e n n o b je to s, y d e s ig n a r e m o s c o n x , , . . . , lo s v a lo r e s
d e m e d ic i n (n m er o s) o b te n id o s, lo s c u a le s n o t ie n e n q u e ser n e c e sa r ia m e n te d ife r e n te s
u n o s d e o tro s.

136

www.FreeLibros.com
Se puede tratar, por ejemplo, del nmero de puntos obtenidos en un trabajo de control
por n estudiantes, o de las medidas del cuerpo de n estudiantes de la misma edad, o de
las temperaturas del medioda en n lugares diferentes, o tomando un ejemplo de la tc
nica, de la diferencia entre el dimetro real y la medida prevista en n pernos producidos
en un taladro automtico.

En el marco de la Estadstica matem tica se considera a X como una variable aleatoria, y a x ,...... x
como valores observados de X en n experim entos concretos.

Los nmeros x ,,..., x forman una serie de mediciones (de tamao n). La agrupacin
de los elementos de una serie de mediciones en la sucesin en que van surgiendo, se de-
nomina lista originaria.

E je m p lo 1. La tabla siguiente contiene el resultado de un trabajo de control realizado


por 100 estudiantes. Aqu se represent el rendimiento de cada uno de esos estudiantes
de acuerdo con una puntuacin determinada, pudindose alcanzar como mximo 15 pun-

Tabla 1

7 6 13 7 11 10 13 8 14 10
4 8 3 12 14 8 11 10 2 14
9 8 12 3 9 5 4 9 8 15
12 9 8 10 6 11 7 11 11 12
3 4 13 0 6 3 8 6 7 13
6 13 2 14 4 9 5 9 9 6
9 10 10 9 10 10 10 12 0 12
11 7 5 2 12 1 7 13 6 10
11 9 10 15 11 10 13 8 12 14
8 12 8 11 13 12 10 14 12 9

Como se observa ya en este ejemplo, una lista originaria es bastante incomprensible, y


no resulta fcil reconocer en ella lo tpico, las particularidades. Por eso se ordenan, ge
neralmente, los valores de medicin de la caracterstica y se determina, con ayuda del tar
jado la frecuencia absoluta de los diferentes valores. La agrupacin de los valores de me
dicin que se realiza de esta forma se denomina tabla de frecuencia o tabla de distribucin
primaria.
E je m p lo 2. A continuacin se muestra la tabla de frecuencia del material numrico
considerado en el ejemplo 1.
Tabla 2
Puntos Tarjado Frecuencia Puntos Tarjado Frecuencia

0 n 2 8 U+1 UH 10
1 l 1 9 U+1 U+1 1 11
2 ni 3 10 W1 U+1 III 13
3 mi 4 11 U+1 U+1 1 9
4 mi 4 12 U+1 lili 11
5 ni 3 13 U+1 III 8
6 m ii 7 14 U+1 1 6
7 U+1 1 6 15 II 2

137

www.FreeLibros.com
Como se puede apreciar las tablas de frecuencia son ms comprensibles y pequeas que
las listas originarias, asi como ms apropiadas para emitir un juicio sobre la distribucin.
En ellas no se pierde informacin con respecto a las listas originarias. Las tablas de fre
cuencia se pueden ilustrar bien mediante representaciones grficas.
E je m p lo 3. Ilustraremos la tabla de frecuencia dada en el ejemplo 2 mediante repre
sentaciones grficas (fig. 44).
Una representacin grfica como la de la figura 44a se llama polgono escalonado o his-
tograma; la representacin grfica dada en la figura 44b se denomina polgono de frecuen-
cia (o abreviadamente: polgono). Si lo que se quiere es comparar varias series de med-
ciones de distintos tamaos (en el marco de un mismo problema), se representa sobre el
eje de las ordenadas en lugar de la frecuencia absoluta, la frecuencia relativa.

Qtd
0 1 2 3 4

5 6 7 8 9 10 11 12 13 14 15
Puntos -

Puntos Figura 44

Si se tienen series de mediciones muy grandes, entonces se recomienda realizar una


agrupacin o clasificacin de los valores, concentrando algunos consecutivos. Este proce
der se basa sobre una particin en clases, es decir, sobre una descomposicin en subcon
juntos difuntos, del conjunto de los posibles valores de la caracterstica considerada.
Los conceptos que se relacionan con el de particin en clases, tales como nmero de
clase, amplitud de clase, limites de la clase, medio de la clase, no requieren de ms acla
raciones. Todo lo que concierne a la tcnica de la formacin de clases se encuentra en la
bibliografa.

138

www.FreeLibros.com
( Nota 5 ) (N o ta 4 ) (N ota 3) (N o ta 2) (N ota 1) 3

N otas Figura 45

E je m p lo 4 . Agrupemos el material numrico dado en el ejemplo 1 en correspondencia


con la siguiente particin en clases.

Clase 1: 0 ,1 ,2 ,3 ,4 puntos
Clase 2: 5,6,7
Clase 3: 8,9,10
Clase 4: 11,12,13
Clase 5: 14,15
(La evaluacin de los rendimientos con las notas 1 hasta 5 constituye la fundamentacin
para esta particin en clases; de aqu, corresponde a la clase 1 la nota 1, a la clase 2 la
nota 2 y asi sucesivamente.)
Los resultados se resumen en la tabla siguiente -en una denominada tabla de distribu
cin secundaria- y en la figura 45 se ilustran grficamente.

Tabla 3
Clase Nota Tarjado Frecuencia Frecuencia
relativa

1 (5) .WitfT lili 14 0,14


2 (4) jj+T j+rf m i 16 0,16
3 (3) j+rf j+rf j+rT MJ+fT j-H mi 34 0,34
4 (2) jj+r j+tf MrMf.urr ni 28 0,28
5 (1) m ni 8 0,08

139

www.FreeLibros.com
Observemos que a la par que se gana en claridad mediante una clasificacin del ma
terial numrico, surge una prdida de informacin (con respecto a la lista originaria o a
la tabla de distribucin primaria).

8.2 Medidas estadsticas para el estudio


de una caracterstica medible
Para valorar una serie de mediciones se introducen con frecuencia magnitudes, las deno
minadas medidas estadsticas, que se calculan a partir de los valores de medida. Quere
mos ocuparnos, en primer lugar, de las medidas de tendencia central, las cuales carac
terizan a una serie de medidas mediante un nico valor, un valor promedio, y tratar
a continuacin las medidas de dispersin empricas, que ponen de manifiesto la desviacin
de los valores de medida en la serie de mediciones.

8 .2 .1 M e d id a s d e te n d e n c ia c e n tr a l

Entre las medidas de tendencia central la ms conocida es la media aritmtica. La media


aritmtica x de una serie de mediciones x ,..... x est definida de la forma siguiente:

a)

Si el material numrico es dividido en k clases y el punto medio de la clase j (marca de


clase) se denota por u, y con mr su frecuencia de clase ( = nmero de medidas que se en
cuentran en la clase j), entonces se define la media aritmtica de la forma siguiente:

- (2 )

En la prctica, al hallar la media aritmtica, en especial cuando se tiene un nmero


grande de medidas, se recomienda el empleo de procedimientos, especialmente concebidos
para este caso (por ejemplo, mediante la introduccin de un valor medio provisional); no
abordaremos esto con ms detalle.
Ejem plo. Para el material numrico del ejemplo 1 (8.1) se obtiene x=8,92 (utilizando
la particin en clases del ejemplo 4 (8.1) se obtiene x=8,82). ^
Otras medidas de tendencia central son la mediana emprica x, la moda emprica x
y la media geomtrica x.
Por mediana emprica xn se entiende, en caso de un nmero impar n, el puntaje situado
en el medio de una serie de mediciones, ordenadas de mayor a menor; en el caso de un
nmero par n, xHes igual a la media aritmtica de los dos puntajes que se encuentran en
el medio de la serie de mediciones, ordenadas de mayor a menor. (Para el ejemplo con
siderado por nosotros se obtiene x=9.) La mediana est caracterizada entonces, a groso
modo, porque a cada uno de sus lados se encuentra la mitad de las mediciones.
Por moda emprica x se entiende aquel puntaje de una serie de mediciones, el cual apa
rece como mnimo, tantas veces como cualquier otro puntaje en la serie. (Para nuestro

140

www.FreeLibros.com
ejemplo se obtiene como moda emprica x=10.) Las modas empricas de una serie de me
diciones son los puntajes de mayor frecuencia en la serie de mediciones considerada.
La medida geomtrica x de una serie de valores x...... x est dada por

ella est definida solamente para series de mediciones con puntajes positivos. En compa
racin con la media aritmtica est menos influenciada por los valores extremos de la se
rie de mediciones. En la prctica se utiliza frecuentemente en la Estadstica econmica
(por ejemplo, en la caracterizacin de un tiempo de crecimiento promedio).

8 .2 .2 M e d i d a s d e d is p e r s i n

Una primera idea sobre la dispersin de una serie de mediciones nos la puede dar el re
corrido 8,, el cual se define como la diferencia del mximo y el mnimo de los puntajes,
o sea,
JCm4= nx {*,>> *}.
6,=*uu-*mta con
jcmi=mn x}. (3)
El Recorrido depende solamente de los valores extremos de una serie de mediciones, no
suministra informacin alguna, por ejemplo, sobre cmo se concentran los valores en tor
no a la media aritmtica en la serie de mediciones. Como medidas adecuadas para esto
se tiene la varianza emprica s*, que se define por

> C x ,- * ) 1 (*)

y la raz cuadrada positiva de esta s,,

s ,= V ? = ( x - J 1, ' (5)

que se denomina desviacin estndar emprica.


(Las razones de por qu no se define s; como media aritmtica de los cuadrados de las
desviaciones de los valores de medicin de la media aritmtica, o sea, como
1 V 1 - 1
> se aclararn solo en el marco de las explicaciones sobre la Estadstica
tf
matemtica ( ver 10.4.2 b).)
Para el clculo prctico se utiliza la frmula (fcilmente deducible de 4)

(6 )

Si el material numrico se divide en clases, entonces se define la varianza emprica (con


las notaciones de 8.2.1) como:

donde x se calcula segn (2).

141

www.FreeLibros.com
E je m p lo . Para el material numrico del ejemplo 1 (8.1) se obtiene segn (6), con

2 xf=9216 y ^ x ,= 8 9 2 , la varianza emprica j ;, j^ = 12,72, de donde resulta para


1=1 i=i
la desviacin estndar emprica s el nmero 3,57. (Utilizando la particin en clases del
ejemplo 4 (8.1) se obtiene j;= 1 3 .3 5 y de ah se deriva que j= 3,65.)
Por ltimo queremos llamar la atencin sobre el coeficiente de variacin emprica (o
coeficiente de variabilidad) v,, para una serie de mediciones, definido para x * 0 por

(8)

El coeficiente de variacin se utiliza para comparar varias series de mediciones con res
pecto a sus desviaciones estndar empricas, considerando sus medias aritmticas respec
tivas y frecuentemente se da en tanto por ciento.

8.3 Mtodos para el estudio de dos caractersticas medibles


En este y en el epigrafe siguiente partiremos de que se van a investigar a la vez dos ca
ractersticas medibles X y Y, en n objetos y designaremos con (x,, y ,), ..., (x, y n) los pares
de valores de medicin que se obtienen (no necesariamente desiguales).
Se puede tratar, por ejemplo, de los nmeros de puntos obtenidos en dos pruebas de
Matemtica por n estudiantes, o de la talla y el peso de n alumnos de la misma edad, o
tomando un ejemplo de la economa, del grado de cumplimiento de los planes de produc
cin y de financiamiento en n fbricas).

En el m arco de la Estadstica m atem tica se entiende por (X , y) un vector aleatorio (bidim ensional).
siendo (je,,y,),..., (x,yB) los valores observados de (X. X) en n experim entos concretos.

La agrupacin de los pares (x,, y ) segn el orden en el cual van surgiendo, se denomina
nuevamente lista originaria. Racionalmente, tambin se pasa en este caso, a la confeccin
de una tabla de distribucin prim aria (tabla de frecuencia), la cual para cada posible valor
(x.y) de (X,Y) contiene la frecuencia (absoluta o relativa) de la aparicin de este par en
el material numrico considerado (ver el ejemplo siguiente), donde dado el caso se realiza
una particin en clases para las caractersticas X y Y. Para hacer ms comprensible lo an-
terior sirven las representaciones grficas del material numrico, por ejemplo, mediante
puntos en el plano x ,y o en forma de histogramas (especiales). N o profundizaremos ms
y terminaremos este corto epgrafe con un ejemplo.

E je m p l o . A 100 nios recin nacidos se les midi la talla X (en cm) y el permetro
de la cabeza Y (en cm ). Obviemos la lista originaria y demos la tabla de frecuencia co
rrespondiente en la cual aparecen redondeados los pares de valores de medicin (los cua
dros en blanco se interpretan como si tuvieran ceros).
Como se aprecia, aparecen con ms frecuencia, e n tr e los 100 recin nacidos investigados
nios con una talla entre 48 y 52 cm, y un p e r m e tr o d e la cabeza, entre 33 y 36 cm. Con
trariamente, aparecen muy pocos nios peque:''.' , v mies) q u e presenten un gran (peque
o) permetro de la cabeza.

142

www.FreeLibros.com
Tabla 4

1
\ y
32 33 34 35 36 37 38 39
X N,

47 1 1 3 5

48 1 6 7 14

49 1 5 10 5 21

50 1 4 9 9 1 24

51 3 6 4 1 14

52 3 1 7 1 12

53 1 1 2 1 1 1 7

54 1 1 2

55 0

56 1 1

3 17 33 25 14 4 2 2 (100)

8.4 Medidas estadsticas para el estudio de dos


caractersticas medibles
El objetivo de medir las caractersticas X y K a la vez, en n objetos, consiste en ganar cla
ridad sobre si existe relacin entre ellas y en qu medida se da esta relacin. En este ep
grafe queremos introducir dos medidas estadsticas especiales, la denominada covarianza
emprica y el llamado coeficiente d e correlacin emprico.
Para esto, sean (x,, y ,),..., (x,y n) los resultados de las mediciones de dos caractersticas
X y Y en n objetos. Denotemos con x y con la media aritmtica y la varianza em
prica respectivamente de la serie formada por las componentes x: x. El mismo sig
nificado se le asigna a y , y i jJ , para la serie de valores formada por las componentes
y 'y v --- y Estas medidas estadsticas no dicen nada, naturalmente, sobre la dependencia
mutua de A' y Y. Para valorar el comportamiento de X y Y en este sentido es apropiado
el uso de la covarianza emprica w , que se define de la forma siguiente:

v = Z <*-*) (y.- )- (i)

143

www.FreeLibros.com
Se aprecia claramente, que s , es positiva, cuando a valores grandes de x se hacen co
rresponder valores grandes de y y a valores pequeos de x. valores pequeos de y. Ade
ms, se reflexiona de forma anloga que la covarianza emprica sn n es negativa, cuando
se hacen corresponder a valores grandes de x. pequeos valores de y y viceversa.
Una medida estadstica ms potente para la dependencia mutua de A' y Y se obtiene cuan-
do se relaciona la covarianza emprica con el producto de las desviaciones estndar em

pricas sxn= y 5 n= , a travs del coeficiente de correlacin emprico, definido

2 ^ (x ,-x ) ( y - y )
(2 )

Se cumple que r>0 o rn < 0 si y solo si o < 0 respectivamente. Adems se


cumple la desigualdad |r|^ 1 , de donde se obtiene que |r|=l si y solo si al representar
mediante puntos en el plano x ,y los pares numricos (*,, y) , estos se encuentran sobre una
misma recta (ver 6.2, teorema 4 ). El coeficiente de correlacin emprica se puede inter-
pretar entonces, como una medida para la tendencia (direccin) e intensidad de la depen-
dencia lineal entre los valores x y los valores y.
Para hallar en la prctica el coeficiente de correlacin emprica se recomienda utilizar
la relacin (deducible fcilmente de 2 )

Xn y*
1=1
(3)

y cuando no se han calculado anteriormente >>, s2I n y s-', puede utilizarse la relacin

r (4)

E je m p lo . El coeficiente de correlacin emprico r, para el material numrico del ejem


plo del epgrafe 8.3 se obtiene utilizando (4) y con = 100, de la forma siguiente

Queremos finalizar las explicaciones sobre la es adisnca descriptiva con una observa
cin general sobre las propiedades de aplicacin de las frmulas dadas en los epgrafes

144

www.FreeLibros.com
8.2 y 8.4. Para la deducin de estas frmulas hemos partido siempre de que los valores
numricos utilizados son resultados de procesos de mediciones, para los cuales se utiliz
una escala de unidades, o con otras palabras, de que los valores de observacin utilizados
se pueden comparar (en el sentido de mayor que, igual que y menor que), de donde se ob
tiene que las diferencias de los valores de las m ediciones tambin se pueden interpretar
racionalmente.
En especial, en las investigaciones pedaggicas, pero tambin en los psicolgicas y en
las sociales, se investigan con frecuencia caractersticas que no se pueden medir con una
escala de unidades, conocidas como caractersticas cualitativas (piense por ejemplo en la
caracterstica resultado de una prueba ; esta caracterstica se puede describir numri
camente, digamos con las notas del 1 al 5, pero la diferencia entre las notas no se puede
interpretar razonablemente. Otro ejemplo para esto seria la caracterstica procedencia
social ). En estos casos no se pueden aplicar las frmulas de manera irreflexiva; no
obstante existe una serie de posibilidades de describir numricamente, por ejemplo, la
dependencia mutua de caracteristicas cualitativas, es decir, de aquellas que no se pueden
expresar por medio de una escala de unidades (por ejemplo, mediante el clculo del lla
mado coeficiente de correlacin del rango o del denominado coeficiente de contingencia).

www.FreeLibros.com
145
9. Conceptos fundamentales de la Estadstica
matemtica

En este capitulo se hace una introduccin a la Estadstica matemtica. Despus de la ex


posicin de las tareas que se plantea esta disciplina (epgrafe 9 .1 ), se realiza en el epigrafe
9.2 la definicin de los conceptos poblacin y muestra. El teorema esencial para todos los
procedimientos de la Estadstica matemtica, el denominado teorema fundam ental de la
Estadstica matemtica, se explica en el epgrafe 9.3, haciendo referencia directa a la Ley
de los grandes nmeros de Bernoulli. Por ltimo, en el epgrafe 9.4 se tratan los llamados
estadgrafos, limitndose el tratamiento, en su esencia, a aquellas proposiciones que juga
rn un papel importante en la exposicin posterior.

9.1 Tareas que se plantea la Estadstica matemtica


Muchos procesos reales se describen convenientemente mediante modelos matemticos, en
los cuales aparecen variables aleatorias y tambin otros conceptos de la Teoria de proba
bilidades. Tales modelos matemticos se denominan modelos estocsticos. Las distribucio
nes de probabilidad de las variables aleatorias que se presentan en la descripcin de un
proceso real mediante un modelo estocstico, son, con frecuencia, parcial o totalmente
desconocidas. Esta es la situacin de partida de la Estadstica matemtica. Sobre la base
de observaciones, experimentos y mediciones debe ajustarse el modelo estocstico lo mejor
posible al proceso real.
Por ejemplo, en el caso ms sencillo se trata de estimar de forma adecuada, sobre la
base de los valores observados de una variable aleatoria, parmetros especiales descono-
cidos de la distribucin de probabilidad, por lo dems conocida, de dicha variable alea-
toria, digamos, los parmetros n o o 2 de una distribucin normal. Otra tarea de la Es
tadstica matemtica consiste en someter a prueba, sobre la base de las realizaciones de
la variable aleatoria considerada, si nuestra suposicin acerca de la distribucin de pro
babilidad que esta posee, digamos, una distribucin normal, es correcta en el marco del
modelo estocstico.
Estos son ejemplos tpicos para dos clases de problemas principales de la Estadstica
matemtica, con los cuales nos ocuparemos en los captulos 10 y 11.

146

www.FreeLibros.com
En el capitulo 10 se exponen los elem entos esenciales de la Teoria d e la estimacin,
cuya problemtica de orden prctico consiste en indicar de forma apropiada valores es
tim ados para parmetros desconocidos de un m odelo estocstico. Por parmetros desco
nocidos debemos entender probabilidades de sucesos aleatorios particulares, caractersti
cas numricas especiales de una distribucin de probabilidad (por ejemplo, el valor espe
rado, la varianza, el coeficiente de correlacin, etc.) y tam bin funcipnes de distribucin.
En general, la Teoria de la estim acin tiene como propsito indicar valores estimados pa
ra tales parmetros desconocidos (lo cual incluye m todos para la construccin de estima
dores), el estudio de estimadores con respecto a sus propiedades especiales y, sobre este

de los datos numricos concretos, las llam adas muestras (ver 9 .2 ), se obtienen valores es
tim ados concretos utilizando los denom inados estadgrafos (ver 9 .4 ); luego, estos valores
estim ados dependen de influjos casuales. En la construccin de estimadores se toma como
base frecuentemente, y esto de forma evidente, el principio de utilizar com o valores es
tim ados para los parmetros desconocidos, aquellos que atribuyen la mayor probabilidad
a los datos concretos de partida (m todo de mxima verosimilitud, ver 10.3).

En el capitulo 11 se brinda una panorm ica de la Teoria d e la docim acia de hiptesis,


cuya problemtica de orden prctico consiste en someter a prueba, sobre la base de los
datos concretos obtenidos, suposiciones especiales en el m arco de un m odelo estocstico,
que se denom inan hiptesis. Semejantes hiptesis pueden referirse a la probabilidad de un
suceso aleatorio especial, a parmetros de una distribucin de probabilidad, pero tam
bin, a la funcin de distribucin de una variable aleatoria. La comprobacin de una hi
ptesis de este tipo mediante una denom inada dcim a de hiptesis consiste, hablando sin
mucha precisin, en averiguar si las magnitudes que se pueden calcular a partir de los da
tos y que son factibles de comparar con la hiptesis, se diferencian o no sustancialmente
de las fijadas por la hiptesis. Las diferencias entre unas y otras magnitudes existirn
siempre a causa de las influencias casuales al seleccionar la muestra concreta; por eso
una dcima de hiptesis tiene la tarea de comprobar si la s diferencias detectadas pueden
aclararse mediante estas influencias casuales o por el contrario, indican hacia una hip
tesis falsa. Esto ltim o conducirla entonces al rechazo <je la hiptesis.

En este punto queremos an llamar la atencin hacia un hecho importante para cual
quier aplicacin de procedimientos estadsticos, que se refiere al contenido de verdad de
proposiciones estadsticas. Sobre la base de un procedim iento estadstico, por ejemplo, de
una dcima de hiptesis del tipo arriba indicado, no pueden hallarse proposiciones segu
ras. Otra cosa no es de esperar, ya que siempre se procesa solo un nmero finito de datos,
mientras que las proposiciones que se refieren a una llam ada poblacin (ver 9.2) abarcan,
por lo general, un conjunto ms extenso. La ventaja de la aplicacin de procedimientos
estadsticos (por ejemplo, en la comprobacin de una hiptesis) consiste en que la proba-
bilidad de una decisin errnea (por ejemplo, del rechazo de una hiptesis verdadera)
puede calcularse. Abordaremos este aspecto ms exactamente en los captulos 10 y 11.
En la aplicacin de procedimientos estadsticos son interesantes los datos, no solo por
s mismos, sino por la forma y modo en que se obtienen. Es de gran importancia conocer,
por ejemplo, si los datos se han obtenido mediante observaciones del valor de una variable
aleatoria en repeticiones independientes de un experimento aleatorio o si estos experimen
tos dependan unos de otros. En el siguiente epgrafe nos ocuparemos con problemas fun
dam entales que se refieren a los mtodos de seleccin d e una muestra.

147

www.FreeLibros.com
9.2 Poblacin y muestra
l concepto muestra es de gran significacin en los problemas estadsticos y est siempre
unido con el concepto poblacin. Queremos explicar estos conceptos con ayuda de ejem
plos y ms adelante definirlos matemticamente.

E je m p lo s
1. En una fbrica se producen bateras para linternas. Supongamos que la produccin
diaria es tan grande, que no es econmico comprobar si cada batera funciona correcta
mente. Sin embargo, para poder tener una impresin de la calidad de las bateras produ
cidas, se extrae un cierto nmero de bateras, una llamada muestra, V se verifica su fun
cionamiento; la eleccin se realiza de modo que cada batera de la produccin diaria ten
ga la misma oportunidad de ser extrada.
2. La efectividad de un medicamento para bajar la presin arterial (hipotensor) se debe
investigar. Para ello se probar el medicamento en un nmero de pacientes que padecen
de presin alta. Este conjunto constituye la muestra y el conjunto d todos los hombres
que padecen de hipertensin (por ejemplo, en la regin de venta del productor) seria la
poblacin correspondiente. Luego, una muestra es un subconiunto finito de un conjunto
universo 12, que se denomina poblacin en este contexto. Para lograr una conexin con las
consideraciones terico-probabilsticas, supongamos que Q es el conjunto universo de un
espacio de probabilidad.

D e f in ic i n 1. Sea [12, A, P] un espacio de probabilidad. Entonces todo subconjunto


no vaco finito A de SI, A eA , se llam a m uestra (de la poblacin 2). Si el conjunto A cons
ta de n elementos, entonces A se llam a una muestra de tamao n, y n se denomina tamao
de la muestra.

En el primer ejemplo indicado, 2 es el conjunto de las bateras producidas en un dia,


A el conjunto de todos los subconjuntos de y P(A) es igual a la probabilidad de que una
batera extrada, de acuerdo con el procedimiento de seleccin, pertenezca al conjunto
A l.
Ahora queremos clasificar los conceptos muestra con reposicin y muestra sin repo
sicin, utilizados ya en los epgrafes 4.5 y 4.6. Para ello partiremos del espacio de pro
babilidad [12, A , P], donde 12 es un conjunto finito (con N elementos o,, cd2....... , A
denota al conjunto de todos los subconjuntos de 2 y la medida de probabilidad P est da

da por/'({(d,)) = ( i= l ,2 , .. ., N ) . (Una situacin semejante se puede producir utilizando


N
un recipiente, denominado comnmente urna en el clculo de probabilidades, que contie
ne N piezas geomtricamente iguales, por ejemplo, N esferas iguales. Si despus de agitar
bien las piezas dentro del recipiente, se escoge ciegamente una, cada pieza tendr igual
probabilidad de ser extrada.) Si del conjunto 12 tomamos consecutivamente n elementos,
de modo que el elemento recin tomado se reponga antes de la prxima extraccin, y que
cada pieza tenga de nuevo la misma oportunidad de ser tomada, entonces obtenemos una
llamada muestra con reposicin de tamao n de la poblacin 12. U na muestra con repo
sicin de tamao n, se forma, por tanto, de n muestras de tamao 1 (de acuerdo con la
definicin 1). Por consiguiente, en una muestra con reposicin es posible que un mismo
elemento e l sea extrado varias veces; tambin el tamao de la muestra n puede ser ar
bitrariamente grande. Si, por el contrario, en cada una de las extracciones no se reponen
los elementos, entonces se habla de una m uestra sin reposicin de tamao n de la pobla

www.FreeLibros.com
cin 12. Por tanto, una muestra sin reposicin de tamao n es una muestra de tamao n
en el sentido de la definicin 1. Por consiguiente, en una muestra sin reposicin cada ele
mento coe2 puede ser extrado a lo sumo una vez, y para el tamao de la muestra n se
cumple que n 4 N.
Muchas selecciones de muestras que se hacen con fines econmicos, en especial, en el
m arco del con trol estadstico de la calidad, y para otras investigaciones cientficas, se ba
san en el modelo de una muestra sin reposicin. El objetivo de esta seleccin consiste, con
frecuencia, en obtener informacin sobre la parte de los elementos de una poblacin que
estn caracterizados por una determinada propiedad P (por ejemplo, por una caracters
tica cualitativa particular). Para ello se puede describir una muestra de tamao n median
te variables aleatorias X v X v ..., Xn, de la manera siguiente:

f 1, si el elemento tomado en la fe-sima extraccin posee la propiedad P"


k= 1
10, si el elemento tomado en la fc-sima extraccin no posee la propiedad P

En una muestra con reposicin, las variables aleatorias X v X 2...... X n son independien
tes y estn distribuidas idnticamente. La variable aleatoria S - X + X + ...+ X que in
dica el nmero (aleatorio) de los elementos con la propiedad P " en la muestra, est dis
tribuida binomialmente con los parmetros n = tamao de la muestra y p =probabilidad de
la propiedad P " en la poblacin. En una muestra sin reposicin, las variables aleatorias
X v Af,,..., XHestn tambin distribuidas idnticamente, pero no son independientes entre
si. La variable aleatoria + X n posee una distribucin hipergeomtrica. El re
sultado concreto de la seleccin de una muestra, igual si es con o sin reposicin, puede
describirse por una sucesin finita de los nmeros cero y uno.
En nuestras consideraciones posteriores describiremos las muestras mediante variables
aleatorias. Para ello sea [12, A, P] un espacio de probabilidad, y sea X una variable alea
toria sobre este espacio de probabilidad. Para obtener informacin sobre la distribucin
de probabilidad de la variable aleatoria X, por lo general desconocida, se repetir n veces
un experimento de forma independiente, observndose cada vez un valor concreto, es de
cir, una realizacin de la variable aleatoria. Con esto obtendremos los nmeros
x x ,,..., jc, que son realizaciones de la variable aleatoria X. Si concebimos el nmero
x k, o sea, la realizacin de la variable aleatoria X en el fc-simo experimento, como re
alizacin de una variable aleatoria X k, entonces las variables aleatorias X v X v ..., Xn son
independientes entre si y estn distribuidas idnticamente que X. Esto constituye el fun
damento para la definicin siguiente:

D e f i n i c i n 2. Sea X una variable aleatoria con la funcin de distribucin F. Enton


ces el vector aleatorio (Xv X_,..., X J , cuyas componentes X k son independientes y estn
distribuidas idnticamente que X, se llam a una m uestra m atem tica de tamao n de a po
blacin X con la funcin de distribucin F. Las variables aleatorias A',. ..., X n se deno
minan en este contexto variables d e la muestra y a una realizacin (x, x J del vec
tor aleatorio (xt, X v ..., X J se le llama muestra concreta de tamao n de la poblacin X
con la funcin de distribucin F.
O b s e r v a c i n . Anteriormente hemos dicho que por una poblacin se debe entender el
conjunto universo de un espacio de probabilidad. Este espacio de probabilidad est carac
terizado, en este caso, por el conjunto de todos los n-uplos de nmeros reales, es decir,
por el conjunto R" y por la distribucin de probabilidad del vector aleatorio
(A\, AT,,..., X J . La distribucin de probabilidad del vector aleatorio (Xv X v ..., X J est

www.FreeLibros.com
caracterizada por la funcin de distribucin F^ ^ x, que est relacionada con la fun
cin de distribucin de la variable aleatoria X (ver 6.4 (1)) segn

jr.i xJ =F(xi) F(x^... F (xJ .


Por tanto, la poblacin es en cada caso el conjunto R"; la funcin de distribucin F de
la variable aleatoria X contiene la informacin esencial para las consideraciones terico-
probabilisticas. Esto motiva las denominaciones in tro d u c id a s en l a d e f i n i c i n 2.

9.3 Teorema fundamental de la Estadstica matemtica


El teorema fundamental de la Estadstica matemtica plantea que a travs de muestras de
tamao suficientemente grande se puede describir aproximadamente y por tanto, recono
cer, la funcin de distribucin de la poblacin considerada, por lo general desconocida.
En principio, todos los procedimientos y mtodos de la Estadstica matemtica se basan
en este teorema; por esto el representa el eslabn principal entie la Teoria de probabi
lidades y la Estadstica matemtica, de donde se infiere tambin la denominacin de este
teorema como teorema fundamental de la Estadstica matemtica.

El punto de partida de nuestras reflexiones ser una muestra concreta (x,, x 2,..., x) de
tamao n de una poblacin X con la funcin de distribucin F. Para un nmero real x
cualquiera dado averigemos el nmero m(x) de los elementos de la muestra concreta

que son menores que x, y consideremos para ello la magnitud w(x) = que indi-
n
ca la frecuencia relativa de que los elementos de la muestra se encuentren en el in r v a
lo de < hasta x.

D e f in ic i n 1. La funcin wn definida sobre el je real por

m.(x) nmero de los elementos x x v ..., x menores que x


x -w(x) ----------- ----------------------------------------------------------------------------------- ,
n n

cuyos valores son nmeros entre cero y uno, se denomina funcin de distribucin emprica
de la muestra concreta (x,, x,, ..., x J .
La funcin de distribucin emprica de una muestra concreta (x,, x ,,..., x J es una
funcin escalonada, continua por la izquierda, que posee saltos en los lugares x; la altura

del salto es igual a , en caso de que el valor x aparezca en la muestra exactamente


n m
una vez, en caso contrario, esta es igual a , donde m t denota el nmero de los ele-
n
mentos de la muestra que son iguales a x,. Para x < min x,, se cumple que w (x) = 0 y
< i< n

para x > mx x, se cumple que w(x) = 1. Estas propiedades muestran que vv es una fun-
/<<
cin de distribucin (ver en 4.1 la observacin despus del teorema 1); esto justifica tam
bin la denominacin introducida en la definicin 1. Podemos reconocer en qu sentido
esta funcin vv es una aproximacin de la funcin de distribucin F de la poblacin, si
tenemos en cuenta la totalidad de todas las posibles muestras concretas, y con esto, la to-

150

www.FreeLibros.com
talidad de todas las posibles funciones de distribucin empricas para un tamao n fijo de
las muestras de la poblacin dada. Escojamos ahora, como punto de partida, una muestra
matemtica (Xv X v .., X J de tamao n de la poblacin X con la funcin de distribucin
F. Para un nmero real x arbitrario designe M n(x) el nmero de las variables de la mues
tra que son menores que x. Entonces M n (x) es una variable aleatoria y la magnitud
m n(x), definida anteriormente, puede concebirse como una realizacin de M n(x). De
acuerdo con la forma de proceder seguida en el caso de una muestra concreta, conside

raremos ahora la variable aleatoria W n(x) = .


_______________________________________________ n
D e f in ic i n 2 . La funcin Wn definida sobre el eje real por

MAx) nmero de las X X X menores que x


x * W n(x) --------- ------------------------- ---------------------------------- ,
n n
cuyos valores son variables aleatorias, se denomina funcin de distribucin emprica de la
muestra matem tica (Xv X v ..., X J .
Por tanto, para todo nmero x e R, W ^x) es una variable aleatoria; ella indica la fre
cuencia relativa (aleatoria) de que los elementos X, de la muestra matemtica
(Xv X....... X J se encuentren situados en el intervalo de - > hasta x. La funcin W n, que
asocia a un nmero real arbitrario x la variable aleatoria W n(x) , es un ejemplo para una
denominada funcin aleatoria. El valor w(x) de la funcin de distribucin emprica w
de una muestra concreta (x,, x ,,..., x) en el punto x debe entenderse como una realiza
cin de la variable aleatoria W ^x) ; en este sentido la funcin w puede denominarse re
alizacin de la funcin aleatoria Wt.

Queremos referirnos ahora a la estrecha relacin entre la funcin de distribucin em


prica W mde una muestra matemtica {Xv X v ..., X J de tamao n de una poblacin X y
la funcin de distribucin F de esta poblacin.

Podemos entender una muestra concreta (x,, x ,,..., x J como resultado de una serie de
n repeticiones independientes de un mismo experimento, consistente en la realizacin de
la variable aleatoria X. Sea ahora x un nmero real arbitrario. El nmero de veces (con
cebido como variable aleatoria) de la ocurrencia del suceso ( X < x )- luego, la variable
aleatoria A/(x) -est distribuida binomialmente con los parmetros p - P { X < x ) = F (x) y
n = tamao de la muestra. Por consiguiente, se cumplen las relaciones (ver 4.S, teore
ma 2)
EMJx) = n p - n F (x ) , D lM (x) = np(l - p ) = nF(x) (1 - F ( x ) ),

de donde, con W ^x) = L , se obtienen las proposiciones


n

E W n(x) = F (x) {n eN ) (1)

D W jW . f W < 1 - fl|X)) -.0 (n >. (2)


n
Por tanto, el valor esperado del valor de la funcin de distribucin emprica W n de una
muestra matemtica {XVX }, ..., X J de tamao n de la poblacin X, en el punto x, es igual
independientemente del tamao de la muestra- al valor de la funcin de distribucin
F de esta poblacin en el punto x, y la varianza de la variable aleatoria W x) converge

151

www.FreeLibros.com
hacia cero a medida que crece el tamao n de la muestra ( *<). La relacin entre la
funcin de distribucin emprica W , de una muestra y la funcin de distribucin F d la
poblacin considerada, se demuestra an ms claramente en el teorema siguiente, que
constituye una forma debilitada del teorema fundamental de la Estadstica matemtica.
T e o r e m a 1. Para todo nmero positivo e y todo nmero real x se cumple que

(3)

o sea, para todo nmero real x la sucesin ( J ^ M ) converge estocsticamente hacia F(x).
D e m o s t r a c i n . Sea x un n m e r o r e a l a r b itr a r io , t n t o n c e s ^ ( x ) e s ig u a l a la fre-
cuencia relativa (aleatoria) / (A) del suceso A = (X < x ) en una serie de n repeticiones in
dependientes de un mismo experimento, consistente en la realizacin de la variable
aleatoria X y A posee en cada ocasin la probabilidad p= P (A ) = P (X < x ) =F (x). Sobre la
base de la Ley de los grandes nmeros de Bernoulli (ver 7.3, teorema 1) se cumple para
todo nmero positivo e que
lim P{\f(A) - p |< e ) = 1 , o sea. lim P(| W n (x) -F (x ) |<e) = 1 ,

lo que queramos demostrar.

Ya que la Ley de los grandes nmeros de Bernoulli puede considerarse tambin como ley Tuerte de
los grandes nmeros (ver 7.4. Ley de los grandes nmeros de Borel). la proposicin del teorema 1 puede
agudizarse de la forma siguiente:

l im W n{x) = F (x )) = 1 .

Hsto significa que para todo nmero real x. la sucesin (W-^tx)) converge casi seguro hacia F (x ). El
contenido del teorema siguiente es un resultado esencialm ente ms fuerte, que se debe al m atemtico
sovitico V .I. Glivenko (1933).

T e o r e m a 2 (Teorema de G livenko). Se cumple que

P (lim sup | Wn(x) F(x) |= 0 ) = 1. (5)

N o demostraremos este teorema, pero queremos an aclarar algo. La proposicin (4) muestra que
se cumple lim |w (x) -F ( x ) |=0) = 1 para todo nmero real x. o sea. que para todo nmero real x

la sucesin (Z>(jr)). Z>(x) = |w'(1(x) F(x) |, converge casi seguro hacia cero. La proposicin (5) significa
que esta convergencia es incluso uniforme (en x ) , o sea. que la sucesin (D),

Z)= sup |w^B( x ) - F ( x ) |

converge casi seguro hacia cero. La relacin, expresada por medio de (5), entre la funcin de distri
bucin emprica de una muestra m atem tica y la funcin de distribucin de la poblacin, se denomina
teorema fundamental de la Estadstica matem tica.

C oncluyendo este crculo de problemas indicamos sin dem ostracin, una form ulacin cuantitativa
del teorema fundamental de la Estadstica matemtica.

T e o r e m a 3 (Teorema de K olm ogorov). Si la funcin de distribucin F de la poblacin es continua.


entonces se cumple que

con

para y > 0 ,

(6)
para >< 0.

152

www.FreeLibros.com
Para la explicacin de este teorem a observem os que sobre la base del teorem a de G livenko la suce
sin (/>). D = sup | W Jx) - F (x ) |. converge casi seguro hacia cero, luego, hacia una variable ale

atoria distribuida puntualmente. H1 teorema de Kolm ogorov m uestra que la sucesin ( \[ D J converge
en distribucin hacia una variable aleatoria, cuya funcin de distribucin es la funcin K. N otable es,
en particular, que esta funcin de distribucin lim ite K no depende de F, bajo la sola condicin de que
F sea continua. En esta proposicin se basan dcim as de hiptesis para la distribucin de una pobla
cin; los valores necesarios de la funcin K pueden encontrarse en tablas de la Estadstica matemtica.

9.4 Estadgrafos
En la aplicacin de procedimientos de la Estadstica matemtica se utilizan con frecuencia
magnitudes, que se calculan a partir de una muestra concreta (por ejemplo, la media arit
mtica o la varianza emprica). Su clculo se basa, en cada ocasin, sobre una funcin
real <p definida sobre un conjunto de n-plos de nmeros reales,

U ,...... *) (e R ) xp (x,...... x J (e R 1). (1)


(Por ejemplo, en el caso de la media aritmtica se trata de la funcin dada por

<P(*i...... x J = >
" .
De forma general partiremos de una funcin <p : R" * R l y consideraremos una varia
ble aleatoria X definida sobre el espacio de probabilidad [l, A, P] y una muestra mate
mtica (Af,,..., X J de tamao n de la poblacin X. Entonces se define por

[<P(X,...... X J ] (w )= < P (A ,..., *(co)) (coei) (2)

una funcin real <p(A',,..., X J sobre el conjunto 2, que en este contexto se denomina es
tadgrafo, y que consideraremos siempre-como una variable aleatoria (sobre [2, A, P]).
A continuacin damos algunos ejemplos de estadgrafos que desempearn tambin un
papel en las explicaciones posteriores; aqu introduciremos algunas abreviaturas que se
utilizarn en lo que sigue.

E je m p lo s

2. <p(*,...... X J = > (A*, n )* = : S ? (u e R 1 fijo).


7=i

3. ip(A'1,..., x j = - L . > ( x - x y = -s i.
" -1
4. (pAf,,..., X J = m x {A",,..., X j .
5. <p(A'1...... X J = m n {X x...... X}.

El conocimiento de la distribucin de probabilidad de estadgrafos especiales es de de


cisiva importancia en la realizacin de muchos procedimientos de la Estadstica matem
tica; aqu nos interesan tanto las proposiciones acerca de la distribucin de un estadgra
fo <p(A'p ..., X J para un n fijo, como aquellas sobre su comportamiento asinttico (o sea,

153

www.FreeLibros.com
para n - * ) . Estos problemas constituyen un inters central de la Estadstica matemtica.
D el gran nmero de proposiciones que existen la respecto, solo formularemos algunas po
cas, y preferentemente aquellas que necesitarem os en el tratam iento de la teoria de la es
timacin y de la docim asia de hiptesis (captulos 10 y 11).

T e o r e m a 1. Sea X J una muestra matem tica de tamao n de la poblacin X


con la funcin de distribucin F. Para las funciones de distribucin G y H de los estad
grafos mx A',,..., X ) y min U ,,..., X ) respectivamente, se cumple que
G(x )=[f X x)]1 ( - < * < ) (3)

H ( x ) = l - [ 1 F(x)]" ( ~ < x < o o ) . (4)

D e m o s t r a c i n . Com o las variables de la muestra X v ..., X K son independientes y es


tn distribuidas idnticamente que X, se cumple para todo x e R 1 que

G{x) =P(m x {X.........Jf} < x )


= P i X , < x .......... X < x )
= n x l < x ) ... n x n< x )
=FXl (x) ... FXn ( x ) = [F (x)]"

y
H (x) =P(m ln {X v .... X n) < x )
= 1 -P (m n {X v .... X }> x)
= 1 - P i X j z x ........... X K> x)
= 1 - P ( X ^ x ) .... P { X ^ x )
= \ - ( \ - F Xl( x ) ) . . . ( \ - F xpc))
= 1 -[1 - h i

para los teoremas siguientes (2, 3, 4 y 5) se cumple que (X v X J es una muestra ma


temtica de tamao n de una poblacin que posee una distribucin M j, <r*).

T e o r e m a 2 . El estadgrafo X = X posee una distribucin Afjn, )


" f V "

D e m o s t r a c i n . Como la suma de variables aleatorias independientes que poseen una


distribucin normal posee, a su vez, una distribucin de dicho tipo (ver en 6.5 observacin

posterior al teorema 4 ). ^ Xi posee una distribucin N (nn, no2) y, por consiguiente,

x=
1 I V
> X es una variable aleatoria con una distribucin M u ,
y
1.
a1 \
n ,, ' n '

Observaciones

/ X [t
1. D el teorema 2 resulta directamente que \n ------ es una variable aleatoria con
o
una distribucin N(0, 1).
2. Supongamos acerca de la poblacin X considerada, que se cumple 0 < i ? 1A T<. En

tonces la sucesin converge en distribucin hacia una variable aleatoria

154
www.FreeLibros.com
que posee una distribucin N (0 ,1) (ver 7.6, teorema 1). Luego X n posee para n grande
D 2X \

(
EX, y

n S*2 1
T e o r e m a 3 . El estadgrafo ----- con > (Xt (i)1 posee una distribucin
a2 n
X2 con n grados de libertad.
X -]i
D e m o s t r a c i n . Las variables aleatorias Yt = ----- ( i = l , . . . , n) son independientes
------------------------------------------------------------------------------- a
y poseen una distribucin N(0, 1). Luego, segn el corolario 1 (6.S)

nSj
arf21 ~ 7 n
n nn 7T o2

posee una distribucin %2 con n grados de libertad.

T e o r e m a 4 . El estadgrafo
a2
= (
^77 ' o
T'
V
posee una distribucin x 2

con n - 1 grados de libertad.


Renunciaremos a la demostracin de este teorema algo difcil.

X n
T e o r e m a 5. El estadgrafo " posee una distribucin t con n - 1 grados de

libertad.
V?
La proposicin de este teorema se obtiene de los enunciados de los teoremas 2 y 4, de
que X my SJ son estocsticamente independientes y por ltimo, de la proposicin del teo
rema 7 (6.5).

T e o r e m a 6 . Sean (A',,..., X J y (Y ,,..., Y J dos muestras matemticas de tamao m


de una poblacin X con una distribucin iV(Hj, a 2) y de tamao N de una poblacin Y con
una distribucin AT(nr 0a) respectivamente . Adems, sean X y Y estocsticamente inde-
S2
pendientes. Entonces el estadgrafo - ; con
s i.

2 (X -X J 2y _ L _ 2 ) ( y - y j 2,

posee una distribucin F con ( m - 1, n - 1 ) grados de libertad.


La proposicin de este teorema se basa esencialmente en la proposicin del teorema 4.
( m - l) S * ( n - l ) S 2y
D e acuerdo con ella, ------------- y ------------- poseen una distribucin x 2 con m - 1 y
ctj a2
n 1 grados de libertad respectivamente. Como X y Y son independientes, esto se cumple
(iwl)S _ ( n -l) 5f..,
tambin p a r a ------------- y . La proposicin del teorema 6 se obtiene por l-
-

ctj a2
timo del teorema 8(6.5).
Daremos algunas otras proposiciones sobre distribuciones de estadgrafos, sin demostra
cin, en los lugares donde las utilicemos.

www.FreeLibros.com
155
10. In trod u ccin a la T eora de la estim acin

El captulo siguiente contiene una introduccin a la Teoria de la estimacin, una de las


ramas ms importantes de la Estadstica matemtica. Aqui trataremos las llamadas esti
m aciones puntuales (10.2 hasta 10.4), utilizadas con frecuencia en las aplicaciones, y las
denominadas estimaciones por intervalo (10.5 y 10.6). En relacin con un grupo de datos
concreto, las estimaciones puntuales conducen a valores aproximados de un parmetro
desconocido, mientras que las estimaciones por intervalo conducen a intervalos donde es
posible que se encuentre el valor de un parmetro desconocido.
En los epgrafes siguientes se introducen de forma matemticamente exacta, y se moti
van al mismo tiempo, los conceptos bsicos estimacin puntual y estimacin por intervalo,
se exponen los mtodos y procedimientos generales y se muestra su fundamento terico-
probabilstico y naturalmente, para algunos problemas de estimacin frecuente, se indican
estimaciones apropiadas, tanto puntuales como por intervalo. La aplicacin prctica de
estas estimaciones conduce, en lo esencial, a un clculo de medidas estadsticas y no da
lugar a otras complicaciones, de modo que renunciaremos a los ejemplos numricos.

10.1 Tareas que se plantea la Teora de la estimacin


El problema principal de la Teora de la estimacin consiste en indicar mtodos para ave
riguar valores estimados de parmetros desconocidos de un modelo estocstico. sobre la
base de muestras.
N os queremos limitar, en lo esencial, al caso de la estimacin de un parmetro desco
nocido. Este parmetro lo designaremos con y, al valor verdadero (pero desconocido) del
mismo lo denotaremos con y0, y al conjunto de sus posibles valores en el marco del pro
blema considerado en cada ocasin, lo designaremos por el smbolo T, donde suponemos
que T es un intervalo sobre el eje real.

Para la formulacin matemtica del problema fundamental de la Teoria de la estima


cin partiremos de una poblacin X. cuya funcin de distribucin F depende de un pa-

156

www.FreeLibros.com
rm etro y e T \ considerarem os para ello una m uestra m atem tica (.V,.......... V,.) de tam ao
n de la poblacin .V. La Teora de la estim acin tiene, pues, la larca de h allar estadgrafos
adecuados ip (x ]............x,,) p a ra la estim acin de y > de investigarlos con respecto a la de
pendencia de sus correspondientes distribuciones de probabilidad del p arm etro y. Luego.
si (.x,....... x J es una m uestra concreta de tam ao n de la poblacin .V. entonces el nm ero
ip(.v,...... x). que se concibe como una realizacin de la variable aleatoria ......... V).
puede utilizarse como v a lo r e s tim a d o p a ra y0: el estadgrafp tom ado por base (p (.Y,.........Y)
se denom ina en este con texto un estimador (para y). Por tanto, un estim ad or es una va
riable aleatoria, cuyos valores pertenecen al conjunto T de los posibles valores del p ar
m etro; un valor estim ado es un nm ero real (e F ).
Para diferenciar las estimaciones que en el caso particu lar proporcionan nmeros (pun
tos sobre el eje real), de las llam adas estimaciones por intervalo, que se introducirn ms
tarde, denom inarem os a las prim eras estimaciones puntuales. N aturalm ente, como estim a
dores puntuales se aspira u tilizar estadgrafos que proporcionen una aproxim acin lo " m e
jo r posible del p arm etro a estim ar, sobre la base de sus propiedades terico probabils-
ticas.

E je m p lo . Supongamos que la poblacin X posee una distribucin norm al con la va


rianza D 2X = a l (ct0 conocida, por ejemplo. o 0= l ) . y que el valor esperado E X es desco
nocido. Por tanto, hacemos y = E X y T= R 1. Si (A",........ X J es una m uestra m atem tica
de tam ao n de esta poblacin, entonces el estadgrafo

a (T;
posee el valor esperado y('y= y), y se cumple que D 2 y = ----- . Sobre la base de la de-
n
sigualdad de Chebyshev (ver 7.1, corolario 1) se cum ple p a ra todo e > 0 la relacin

ne2
o sea, lim P (|y -y |< e ) =1

converge estocsticam ente hacia y. (Estas proposicio-

nes se cum plen p a ra todo yeT = R 1, en p a rtic u la r, p a ra el valor verdadero y0.) P a ra


un tam ao n de la m uestra suficientem ente g rande se puede esp erar que la m edia aritm
tica x n. de los elem entos de u n a m uestra concreta (x v ..., x J represente un valor estim a
do pasable p a ra el p a r m e tro desconocido. (Por lo dem s, en las reflexiones anteriores no
hemos tom ado en consideracin que la poblacin X posee una distribucin norm al; es su
ficiente saber que la poblacin X posee una v arian za (finita) p a ra todo valor del parm e-
tr o .)

Como m uestra el ejemplo dado, en la valoracin de un estadgrafo como estim ador p a ra


un p arm etro desconocido, es de gran significacin el com portam iento asinttico, esto es,
el com portam iento p a ra =. E n la aplicacin prctica, las proposiciones sobre el com
portam iento asinttico son de utilidad solo cuando el tam ao n de la m uestra en cuestin
es grande; en realidad, no se puede in d icar exactam ente qu se debe entender por un ta-
m a o grande de la m uestra, lo cual depende tam bin estrecham ente del problem a con
siderado. Adem s, se debe llam ar la atencin de que en vinculacin con una estim acin

157

www.FreeLibros.com
puntual para un parmetro desconocido no se obtienen automticamente proposiciones
acerca de la exactitud de los valores estimados (si, por ejemplo, el estadgrafo utilizado
como estimador es una variable aleatoria continua, entonces la probabilidad de que la es
timacin proporcione el valor verdadero del parmetro es igual i cero. Esto no significa
que cuando se halla un valor estimado este no pueda estar situado muy cerca del valor
verdadero del parmetro, lo cual es de esperar incluso en el caso en que n > > 1 ). Ahora,
si se desean proposiciones sobre la exactitud o si el tamao n de la muestra es pequea,
planteamos la tarea de construir, sobre la base de una muestra matemtica (A',,..., X J ,
un intervalo J(XV ..., X J que contenga al parmetro desconocido con una probabili-
dad determinada de antemano (por lo general, cercana a un o). Los puntos extremos de
este intervalo dependen de las variables de la muestra X v .... X por tanto, son ellos mis
mos variables aleatorias. U n intervalo J(XV ..., X J aleatorio en este sentido, se denomina
estimador por intervalo de confianza o intervalo d e confianza. Para una muestra concreta
(*,, ..., x J se obtiene, sobre la base de un intervalo de confianza J(X ,,..., X J , un
intervalo J(xv xJ denominado intervalo estim ado concreto para el parmetro
desconocido. Las estimaciones por intervalo deben, por una parte, proporcionar interva
los estimados concretos lo ms pequeos posibles y por otra, deben contener al parme
tro desconocido con una probabilidad lo ms cercana a uno.

En los epgrafes 10.5 y 10.6 nos ocuparemos, detalladamente, de los estimadores por
intervalo; los epgrafes que siguen estn dedicados a los estimadores puntuales.

10.2 Estimadores puntuales (propiedades)


Como se dijo en el epigrafe 10.1, entenderemos por un estimador puntual -brevemente:
estimador- y, para un parmetro desconocido y, un estadgrafo PAfj, ..., X J , cuyos va
lores pertenecen al conjunto T de los posibles valores del parmetro. En este epgrafe de
hacer
una valoracin y comparacin de estimaciones, en relacin con un mismo problema de es
timacin. Para ello partiremos siempre de la situacin bosquejada en el epigrafe 10.1 (Po
blacin X, distribucin de probabilidad dependiente de un parmetro
y e r E R ,(A'1, ..., X J una muestra matemtica de tamao n de la poblacin X .)
A
D e f in ic i n 1. U n estimador yw se denomina estimador insesgado para y, si el valor
esperado de y -calculado bajo la suposicin de que y es el valor verdadero del parmetro-
es igual a y para todo y el". Para esto escribimos brevemente

E y Y =Y (yer) (1)

La validez de (1) se exige para todo y el"; con esto se cumple (1) en particular para y0,
el valor verdadero del parmetro.

E je m p lo 1. Supongamos que X posee una distribucin uniforme sobre el intervalo


[0,>], b > 0 y que b sea desconocido. Hagamos y = b y T = {y : y > 0 }. Adems, sea
(X, ..., X J una muestra matemtica de tamao n de la poblacin X. Para el estadgrafo

1S8

www.FreeLibros.com
se cumple (ver 5.3 (3)) que

.... X J = n =
n 2 2
A
para el estimador y=2<p(A'1, .... .Y,) = 2A" se obtiene de aqu que

o sea. y es un estimador insesgado para y.


En relacin con los estimadores sesgados se utiliza el concepto sesgo (error sistemtico)
que caracterizaremos en la definicin siguiente.

D e f in ic i .. c ea y. un estimador para y. Se denomina sesgo (error sistemtico)' de


y, con respecto a y a
bn(y) = j - y (yeT). (2 )

Por tanto, para los estimadores insesgados y de y se cumple que bn(y) = 0 para todo
y e r . La variable aleatoria y Y se llama error aleatorio de y y la variable aleatoria
yn- y = ( y ii yyn) ->-(yYy), que se obtiene de la suma del sesgo de yn con respecto a y y
/\ ^ # A
el error aleatorio de yn, indica la desviacin aleatoria del estimador y de y.

E je m p lo 2. Consideremos la situacin bosquejada en el ejemplo 1 e investiguemos el


estadgrafo

y=mx(A'r .... X n}.

Para el clculo de .,y necesitamos la funcin de distribucin o la densidad de y, que


queremos denotar con Gy y g.r respectivamente, suponiendo que y es el valor verdadero del
parmetro. Se cumple (ver 9.4, teorema 1) que Gy (x ) = [F 7(x)]n, donde con F t denotamos
la funcin de distribucin de la poblacin X, suponiendo que y es el valor verdadero del
parmetro. Con

0 para x ^ O ,

F.t (x ) = para 0 $ y,
y
1 para y.

obtenemos
0 para 0,

Gy(x)

1 para x > y.

y con esto,

0 para x < 0 y para x > y ,

gx)

y"

159

www.FreeLibros.com
Para ry se obtiene entonces que

,?= I x g (x )d x = In d x = ^ y
Jo r n+ l
A
y para el sesgo bn(y) de y con respecto a y, tenemos que
a n y
b(y) = E yyy = ------- y y ---------- (y > 0).
n+l n+l
Observemos que lim b (y) = 0 y, por tanto, se cumple que lim E yyn= y para todo y.

La definicin siguiente sirve para caracterizar, de forma general, el comportamiento


analizado al final del ejemplo 2.
A A
D e f in ic i n 3. Una sucesin (y) de estimadores y para y, se denomina asinttica-
mente insesgada, si se cumple que

lim Ery=Y(yer). (3)

(En caso de que se cumpla (3) para un estimador y, se dice tambin que yn es asintti-
camente insesgado.)

Por lo general, utilizaremos estimadores insesgados, o al menos, asintticamente inses-


gados. Como el hecho de que un estimador sea insesgado nada dice acerca de si la dis
tribucin de probabilidad del mismo est concentrada o no alrededor del parmetro des
conocido, ni del modo en que lo hace, se preferirn especialmente aquellos estimadores
que cuando n se concentran alrededor del parmetro desconocido. Desde el punto de
vista matemtico expresaremos esta concentracin por medio de los tipos de convergen
cia de la Teoria de probabilidades (ver 7 .2 ), en las definiciones siguientes.

D e f in ic i n 4 . U na sucesin (y) de estimadores para y se denomina (dbilmente) con


sistente, si para todo nmero positivo e se cumple que

lim PT(| y-y| > e) = 0 (yel"); (4)

aqu es P r(| y -y | > e ) la probabilidad del suceso ( |y - y |> e)> calculada bajo la suposicin
de que y es el valor verdadero del parmetro. (En caso de que se cumpla (4) para un es
timador y. se dice tambin que y es (dbilmente) consistente.)

Por consiguiente, la consistencia de una sucesin de estimadores significa que existe una
convergencia en probabilidad. Las condiciones suficientes para la consistencia, menciona
das en el teorema siguiente, se pueden verificar con frecuencia ms fcilmente que (4).

T e o r e m a 1. Las condiciones siguientes son, ambas juntas, suficientes para la consis


tencia (dbil) de una sucesin (y) de estimadores yn para y.

1. lim E v=y(Y er),


2. lim D* yn= 0 ( y e r ) ; aqu D*yn significa la varianza de yn calculada bajo la suposicin
de que y es el valor verdadero del parmetro.

D e m o s t r a c i n . Sobre la base del teorema 1(7.1) se cumple para un e positivo arbi


trario

P j \y - y \> e )< 7-

160

www.FreeLibros.com
A hora, se cum ple que

, ( Y - Y ) 2= , ( Y - , Y . - ., Y, - Y ) 2

= ,[(-/ - yy ) 2+ 2 ( y - E j J (.,y , - Y ) + ( , Y , , - Y ) 2]
= , ( Y - yY ) 2+ 0 + ( Yy - y ) 2

= D ; y + ( ; / - Y ) 2.

Si las condiciones nom bradas en el teorem a se satisfacen, entonces resulta de aqui direc
tam ente que lim y (y - y ) 2= 0 y con esto lim Pr(|y - y |> e) =0.

E j e m p lo 3. Considerem os el estim ador yn2 X n. investigado en el ejemplo 1. Se cum-


a a 4 Y2 Y2
pen las relaciones .,y =Y yD 2y = n = (ver 5.3(4)). Segn elteorem a 1 la
n2 12 3n
sucesin (y,) es dbilm ente consistente.

E j e m p lo 4 . C onsiderem os el estim ador y=mx{A'1....... X n], investigado ya en el ejem-


a n a
po 2. Como fue averiguado all, se cum ple que lim Ty = l i m ------- y=y. P a r a D 2y
n+ l
obtenemos que

D 2ryn= E vy l - (Eyyn) 2= J x 2g.,(x) d x - ( E ry 'j2

= n d x -( yY = Y2- ( y )'
y" ^ m+1 ' n + 2 ' + 1'

y2.
(n + l ) 2( + 2 )

Luego, para la sucesin (y), y=mx (Af,, .... X j se satisfacen las condiciones nombra
das en el teorema 1, y con esto la sucesin (y,) es tambin consistente.
A A
D e f in ic i n 5. U na sucesin (y) de estimadores y para y se denomina fuertem ente
consistente si se cumple que

Py (lim y=y) =1 (yer). (5)

Por consiguiente, la consistencia fuerte de una sucesin de estimadores significa que


existe una convergencia con probabilidad uno.

Si para una poblacin X existe el valor esperado EX. entonces la sucesin (y),

=*=
" 7=1
es una sucesin de estimadores fuertem ente consistente para y = E X . sobre la base de la Ley de los gran
des nmeros de Kolmogorov (ver 7.4. teorema 6 ).

Con las definiciones siguientes tendremos distintas posibilidades para comparar diver
sos estimadores insesgados, por medio de sus varianzas en relacin con un mismo proble
ma de estimacin. Para ello designe el conjunto de todos los estimadores insesgados pa
ra y, sobre la base de una muestra matemtica de tamao n con varianza positiva finita;
A A A A
por tanto para Y ,e r n se cumple que ry=y y que 0 < D 2y < ~ para todo y e I\

www.FreeLibros.com
D e fin ic i n 6. Un estimador y e tn se llama mejor que un estimador 7 e, si se cum
ple que
D;yn* D-y (yeT). (6)
La razn D 2yn:D 2yn indica el grado en que y es mejor que yn.
E jem p lo 5. Consideremos de nuevo la situacin ilustrada en el ejemplo 1 y compa
remos los estimadores
~ 2 SH .. a + l
y=2X = > X, y y= mx U , ........X}.
n n

Se cumplen las proposiciones


~ ~ y2
Eyy = y, D2Y=
3n
(ver ejemplos 1 y 3),

Y2
Eyy=Y, D;y = -
n(n+2)
(ver ejemplos 2 y 4).
Luego, ambos estimadores son insesgados y poseen una varianza finita para todo
y>0(Yef, Y e f ) .
En virtud de

D 2y = = D % (y > 0 ),
n(n + 2) 3n

el estimador y es mejor que el estimador y. (Se debe reflexionar otra vez sobre la sig
nificacin de ambos estimadores, desde el punto de vista del contenido, para este proble
ma de estimacin.) El grado en que el estimador y es mejor que el estimador y tiene el
valor

Dy y* "("+2) _ 3
D 2y y1 n+2
3n
y es, por tanto, independiente de y. Para n - 4 se obtiene, por ejemplo, quedichogrado

es igual a - j - ; para n ~ este converge montonamente hacia cero.

D e f in ic i n 7. Un estimador Y*er se denomina estimador eficiente, sipara todos los


estimadores Yefn se cumple que
D 2y* ^ D % (yeT). (7)
El grado en que un estimador eficiente Yef es mejor que yef, es decir,
D 2y*
e ( Y ) : = ^ (Y^r) (8)
D2y
se llama eficiencia de y.

www.FreeLibros.com
Luego, un estimador eficiente es el estimador con menor varianza en el conjunto f , de
estimadores considerado.
Bajo condiciones bastante generales para la distribucin de probabilidad de la pobla
cin considerada,
A A
se puede indicar una cota inferior positiva
A A
para las varianzas de los es-
timadores Y e r n. Si se ha encontrado un estimador Y Jet,,, cuya varianza es igual a esta
cota inferior, entonces y* es evidentemente un estimador eciente. A continuacin trata
remos esta problemtica de modo ms exacto.

Sea X una variable aleatoria, cuya distribucin de probabilidad depende de un parmetro yeT. Su
pongamos que X posee, para cada y e r , una distribucin continua, y designemos con / Tla densidad co
rrespondiente. Adems, supongamos que la funcin y (x) (yeT) es dos veces continuamente diferen-
ciable con respecto a y para todo x e R 1 y que el conjunto {x: / y (x) > 0 } es el mismo para todo y e r .

T e o r e m a 2. Para todo estimador y,er se cumple, bajo las condiciones de regularidad nombradas,
la desigualdad

,A 1
D ;y> -------(y eH (9)
(y)

, / d l n f (AT) \
/(y) =nD> ( -------1----- 1 (10)
dn

La desigualdad (9), que proporciona para un estimador y dado una proposicin acerca de su exac
titud, se denomina en la literatura desigualdad de informacin o desigualdad de Rao-Cram er (en el m
bito de los paises de habla inglesa) o desigualdad de Frchet-Darmois (en los pases de lengua francesa).
La magnitud dada por la expresin (10) se denomina informacin de Fisher; ella es una medida para
la informacin contenida en la muestra sobre el parmetro que se debe estimar, y depende, en general,
tanto de y( com o del tamao n de la muestra. En particular, extraemos de la expresin (10) que.
bajo las condiciones adicionales halladas, las varianzas de los estimadores y de una sucesin de esti
madores insesgados pueden converger hacia cero a lo sumo en el orden .

E je m p lo 6 . Supongamos que X posee una distribucin N(y., o j ) ; sea n desconocido y oj; conocido.
Hagamos y = n y T = R 1. Entonces se cumple que

1 2a*
f p t ) = = e ( - - < x < , y e R*),

y se satisfacen las condiciones adicionales indicadas anteriormente, para esta poblacin. Para /(y) ob
tenemos, en virtud de D* X=<s%, que

/ - . < > ! ( ! oS ? L ) . d ; ( ( .
' dy ' 'rfy ' 2o ' '

V 4 ) 0q "
y con esto se cumple para todos los estimadores insesgados yn para y que

T>\y > (ye R l).


n

Para el estimador y= 2 x cumple que Eyy=y y que D)y = (ver para ello el ejem
=' "
po del epgrafe 10.1). Luego y= ^ X es un estimador eficiente para y.

163

www.FreeLibros.com
Queramos cerrar esta problemtica con algunas otras proposiciones interesantes sobre la desigualdad
de Rao-Cramer.

T e o r e m a 3 . Sean satisfechas las condiciones nombradas anteriormente con respecto u la pobla


cin X. Entonces se cumplen las proposiciones siguientes:
A , A 1
1. Si existe un estimador insesgado Y con D v = ------- (Yel") .entonces f y posee la representacin
/(Y)
f y ( x )= e x p lA(y)B{x) +C(y) + D (x )} ( - < i < , y e O .

o sea, f y es del llamado tipo exponencial.


2. Si f y es del tipo exponencial, es decir, si se cumple que

f y(x) = exp {/4(y)BU) +C(y) + D ( x ) } ( - ~ < x < , Y e r ),

a 1 V *
y y= B{X) es un estimador insesgado para Y, entonces se cumple que
n Tf
2 A 1
d ] y = -------,
IJM
o sea, y es un estimador eficiente para Y-

3. Si existe un estimador insegado y con D y y = --------, entonces yn es el nico estimador insesgado


W)
con esta propiedad.
Ilustraremos este teorema con un ejemplo.

E j e m p lo 7 . La densidad considerada en el ejemplo 6

i (yx Y' X* r \
f x ) = - - _ .... e = exp I ------ -------- - ln ^ 2* a 0 I
VS H 2og /
y y2 i x2 \

timador
( ^(Y) = , B(x) = x , C(Y) = --------, D(x) = - l n y 2 n o0= ------------- I. Para el es-
2o /

--------------- V ^ *---------------------------------------------------------------------------------------
ir fT
se cumple que E yyn= y. Por tanto, sobre la base de la proposicin 2 del teorema 3, y es un estimador
eficiente para y (esto lo hemos verificado ya directamente en el ejemplo anterior) y en virtud de la pro
posicin 3, Y es el nico estimador insesgado eficiente para y.
Muchos de los estimadores utilizados comnmente poseen, para un tamao de la mues
tra suficientemente grande, una distribucin aproximadamente normal. Precisaremos este
comportamiento en la definicin siguiente.
A A A
D e f in ic i n 8. Una sucesin (Y) de estimadores TieT n para y se dice que est distribui
da normalmente de form a asinttico, si se cumple que

lim Py ( = - 2 < x J= (x ) ( o o < x < o o , Ye r) (11)


"" v V oiT '
A f A
(En caso del cumplimiento de (11) para una estimador yx se dice tambin que y posee una
distribucin asintticamente normal.)

Luego, la propiedad caracterizada mediante la definicin 8, significa que existe una


convergencia en distribucin hacia una variable aleatoria N(0 ,1 ).

www.FreeLibros.com
E je m p lo 8 . Sea A un suceso aleatorio que se presenta en el m arco de un experimento
aleatorio con la probabilidad p: p sea desconocida (0 < p < 1).
Consideremos la variable aleatoria X.

f l . en caso de la ocurrencia de A,
lo, en caso de la ocurrencia de A.

y pongmonos la tarea de estimar el prametro y - p sobre la base de una muestra mate


mtica (Jf,...... A"n) de tam ao n de la poblacin X. Para ello utilicem os el estimador
1 ".
Y= > X, que indica la frecuencia relativa aleatoria de la ocurrencia de A en una
Zf
serie de n repeticiones independientes del experimento considerado. Se cumplen las pro
posiciones
A A V (1 V )
E yyn= y y D \ y = - ( 0 < y < l )
n

(ver 4.5 , teorema 4 ): luego (y,) es una sucesin de estimadores para y = p = P (A ) dbilmen
te consistente y fuertemente consistente tambin (ver 7.3, teoremas 1 y 6 ). D el Teorema
integral de D e M oivre-Lapiace (ver 7.5, teorema 1) se obtiene directamente

( - o o < x < = , O < y < 1), es decir, la sucesin (y) posee una distribucin asintticamente
normal.

10.3 Sobre la construccin de estimadores puntuales


En los ejemplos analizados hasta ahora hemos partido siempre de estimadores puntuales
dados y los hemos investigado con respecto a propiedades especiales (por ejemplo, si es
insesgado, consistente, eficien te). Ahora se impone naturalmente la pregunta de cm o ob
tener estimadores puntuales, sobre todo cuando se exigen, adems, ciertas propiedades de
los mismos (por ejemplo, la consistencia). Para ello han sido desarrollados una serie de
mtodos, por ejemplo, el llam ado mtodo d e mxima verosim ilitud (en la literatura inglesa
Maximum-Likelihood-Methode) -que est en estrecha relacin con el mtodo de la suma
de los m nim os cuadrados- y el denom inado m todo d e los momentos. Aqui trataremos bre
vemente el mtodo de mxima verosimilitud y despus haremos referencia al mtodo de
los momentos.
El m todo de mxima verosimilitud se basa en el principio de estimacin siguiente.
Como valor estimado para un pa metro desconocido de una distribucin de probabilidad
se utiliza aquel valor del parmetro para el cual a la muestra concreta le corresponde una
probabilidad lo mayor posible. A si se aclara el nombre de este m todo en la bibliografa
inglesa (likelihood- probabilidad, pero ms en el sentido del lenguaje usual que en el sen
tido m atem tico).

www.FreeLibros.com
165
El punto de partida para la exposicin de este mtodo es una variable aleatoria X. cuya
distribucin de probabilidad depende de un parmetro yeT. En el caso de una variable
aleatoria continua X, designemos con / ( x) la densidad de X en el punto x, bajo la su
posicin de que y es el valor verdadero del parmetro; en el caso discreto sea
f y(x) = Py(X = x ). Adems, sea (X i....... X J una muestra matemtica de tamao n de la po
blacin X , es decir, un vector aleatorio -dimensional, cuyas componentes son indepen

dientes y estn distribuidas idnticamente que X. Si .V es continua, entonces indi-


i I
ca el valor de la densidad de probabilidad del vector aleatorio (X ....... X J en (x,..........x J .
bajo la suposicin de que y es el valor verdadero del parmetro (ver 6.4. teorema 2); en
el caso de una variable aleatoria discreta se cumple que

f [ / T(jc1) = ^ J f 1= x 1........ X = x J
'=i

(ver 6.4, teorema 1).

D e f i n i c i n 1. Si (x,........ x J es una muestra concreta de tamao n de la poblacin


X, entonces la funcin definida sobre F por

L(x,, .... x n; y) = J | / , (x,) (y er) (1)


1=1

se denomina fu n ci n de verosim ilitud (Likeiihood Function) de la m uestra concreta


(x,, , x J .

Por tanto, segn las explicaciones que se dieron anteriormente., L(xt........ x; y) indica
en el caso discreto la probabilidad de que la muestra matemtica (X, .... X J tome el va
lor (x,, ..., x) (bajo la suposicin de que y es el valor verdadero del parmetro); en el
caso continuo, L(x,, ..., x n; y) indica el valor de la densidad de la muestra matemtica
(Jif,, . . . , X J en ( X j , . . . , x J , bajo la misma suposicin.

El principio de estimacin sobre el cual se basa el mtodo de mxima verosimilitud con-


siste en utilizar como valor estimado para el parmetro desconocido un valor tal, que pa
ra una muestra concreta (xr ..., x j dada, la funcin de verosimilitud tome un valor
mximo. Para la determinacin de un valor estimado semejante se utiliza con frecuencia
el clculo diferencial -supuestas las propiedades de diferenc-iabilidad correspondientes de
la funcin de verosimilitud que se satisfacen comnmente en casos de aplicacin. Como
las funciones y * L (x v ..., x; y) y *ln L(x ..., x; y) (y e r ) toman valores mximos
en los mismos puntos, nos ocuparemos, por conveniencia, no de la ecuacin

d
L(x,, ..., x; y) = 0 ,
dy
d
sino de la ecuacin (en muchos casos ms sencilla) ln L (x v ..., x; y) =0.
dy

D e f i n i c i n 2. Si (xr ..., x j es una muestra concreta de tamao n de la poblacin


X, entonces la ecuacin

ln L(x,, ..., x, y ) = 0 (2)


dy

166

www.FreeLibros.com
es conocida como ecuacin de verosimilitud (Likelihood -Equation) de la muestra concreta
(x,, *)
Si se sustituyen en la solucin de esta ecuacin los valores x, de la muestra concreta por
las variables A', de la muestra ( i = l , n), se obtiene un estimador yn= q>(Xv ..., X J .

D e f in ic i n 3. Un estimador y = (p(A'1, X J que para toda muestra concreta


(x,....... x j es una solucin de la ecuacin de verosimilitud (o sea, para el que se cumple
d = 0 ) y a la vez, es un punto para el cual la
la relacin ln L(x,........x n; y)
y ~ <pU,. . .. x;
dy
funcin de verosimilitud tiene.un mximo, se denomina estimador mximo verosmil para
y (Mximum Likelihood-Estimatipn for y).
(En nuestra exposicin introductoria del mtodo de mxima verosimilitud hemos exclui
do interrogantes acerca de la existencia de estimadores mximo verosmiles y de su uni
cidad.)
Ahora queremos demostrar el mtodo de mxima.verosimilitud en dos ejemplos.

E je m p lo 1. Supongamos que X posee una distribucin exponencial con el parmetro


a (ver 5.5. definicin 1); a sea desconocido. Luego hagamos y = a , y > 0 . Entonces se cum
ple que

0 para x ^ 0
ye '> para x>Q .

Sea (x,....... x j una muestra concreta de tamao n de la poblacin X. Para la funcin


de verosimilitud de esta muestra se obtiene que

T T T T -'I*
L(x,........x,; y) = J J / r(x,) = J | y e ' '= y !' e ->
1=1 1=1

y de aqu

ln L(x ..., x; y) =w ln y - y ^
1=1

Por consiguiente, la ecuacin de verosimilitud es

d n
ln L(x ..., x; y )= > x ,= 0 .
dy y T*,

La nica solucin de esta ecuacin es y = --------------- ; en virtud de


1 ^

d2 n
ln L(x ..., x ' y) ------ ---------------- < 0
dy2 y2

se trata del punto de un mximo de la funcin de verosimilitud.


Por consiguiente, para una muestra concreta se obtiene como Valor estimado, segn el
mtodo de mxima verosimilitud, el reciproco de la media aritmtica de los valores de la

167

www.FreeLibros.com
muestra. Si sustituimos ahora los valores de la muestra, por las variables correspondien
tes, obtenemos como estimador mximo verosimil para y

E je m p lo 2 . Supongamos que X posee una distribucin de Poisson con el parmetro


X (ver 4.7, definicin 1); X sea desconocida. Luego hagamos y = K y > 0 . Entonces se cum-
pie que

f p ) = p { x ; y ) = P t f = x ) = t - e ' (x = 0 ,l,2 ,...) .


x!

Sea (x,, ..., x j una muestra concreta de tamao n de la poblacin X. Para la funcin
de verosimilitud de esta muestra se obtiene

i
L(x ..., x.; y) = f t / | W = [ - ^ 7 e -y= e y y -'
i= i i-i x i!

y de aqu

Por consiguiente, la ecuacin de verosimilitud es

La nica solucin de esta ecuacin es y = - x, en virtud de

se trata del punto de un mximo de la funcin de verosimilitud. Por consiguiente, para


una muestra concreta se obtiene como valor estimado, segn el mtodo de mxima vero
similitud, la media aritmtica de los valores de la muestra. Si sustituimos ahora los va
lores de la muestra por las variables correspondientes, obtenemos como estimador mximo
verosimil para y

La significacin del mtodo de mxima verosimilitud consiste en que -bajo condiciones


bastantes generales- proporciona estimadores con propiedades convenientes. Si existe, por
ejemplo, un estimador insesgado y eficiente r* para y, este estimador se obtiene de forma
univoca, segn el mtodo de mxima verosimilitud, y adems, resulta que una sucesin
de estimadores semejantes es consistente y posee una distribucin asintticamente normal.

168

www.FreeLibros.com
Sin embargo, en el marco de nuestra exposicin no podemos tratar estas proposiciones
ms detenidamente.
Queremos concluir nuestras explicaciones sobre el problema de la construccin de es
timadores puntuales con algunas observaciones sobre el mtodo de los momentos.

Sea de nuevo el punto de partida una poblacin X . cuya distribucin de probabilidad depende de un
parm etro y e l-; adems sea (X t, .... X ) una m uestra matem tica de tam ao n de la poblacin X . Su
pongamos que X posee momentos iniciales hasta de orden k. 1 (ver 4.3, definicin 3 y 5.2, defini
cin 3). Estos momentos iniciales sern entonces, por lo general, funciones de y e r

m = E y xi= fj (y) (y e r); > = i........* (3)

Ahora queremos suponer que en la relacin (3) se puede despejar unvocamente y para j = j .

(4)

El principio de estimacin sobre el cual se basa el mtodo de los momentos consiste en sustituir la

variable m h en cada ocasin, por el estadgrafo - Jtf.). De esta forma se obtiene por medio de

(4) un estimador y), para y,

que se denomina estim ador por el mtodo de los momentos.

E je m p lo 3. Supongamos que X posee una distribucin exponencial con el parm etro a; a sea des
conocido . Hagamos y = a , y > 0 . Entonces se cumple (ver S.S, teorem a 1) que

y
y con esto

y= =j7 (,).
m.

Si sustituimos ahora m, por el estadgrafo obtenemos con esto el estimador

A 1

p ara y. (Por tanto, en este caso se origina el mismo estimador por el mtodo de los momentos que por
el mtodo de mxima verosimilitud, ver ejemplo 1.)
(Otro estimador por el mtodo de los momentos -en realidad, ms complicado y tambin menos con
veniente en sus propiedades- es el que se obtendra sobre la base de

m J= E yX * = D j X H E , X ) >= 1 + - = - = f y ) ;
Y1 Yy1
i V*
Y1

es decir,

www.FreeLibros.com
169
y entonces

7-.= ---------r-
X]

H?
La sencillez del mtodo de los momentos habla en m uchos casos a favor de su aplicacin prctica;
no se necesita m s que una relacin funcionrl entre el parm etro y un m omento inicial que se pueda
despejar de forma univoca, y solo se utilizan estadgrafos del mism o tipo. A decir verdad, desde el pun
to de vista terico no se conoce todava m ucho acerca de los estim adores por el mtodo de los momen-
tos. En esencia, se sabe solo que los estadgrafos que sustituyen los momentos iniciales son estimadores
de los momentos iniciales insesgados, fuertem ente consistentes y con una distribucin asintticam ente
normal.

10.4 Ejemplos importantes de estimadores puntuales


En este epgrafe presentamos algunos estimadores puntuales utilizados con frecuencia en
las aplicaciones; en particular, se obtienen aqu estimadores puntuales para los parme
tros fundamentales que se presentan en las distribuciones de probabilidad tratadas por
nosotros.

10.4.1 Estimador puntual para un valor esperado desconocido


El valor esperado E X de una variable aleatoria X se debe estimar sobre la base de una
muestra matemtica (Xv ..., X) de tamao n de la poblacin X. Luego, hagamos y = E X
y T = R l. Como estimador puntual y para y utilicemos la media aritmtica de las varia
bles de la muestra X v ..., X,

x,---------------------------------------------------
n

El estimador puntual y es insesgado,

E y= E y ( > X, ) = > Ey X ,= y = y (ye R>)


' n ' n 7 n

con respecto a la poblacin X solo se supuso que el valor esperado E X existe.


Adems, se cumple bajo la suposicin de que X, independientemente del valor del pa
rmetro, posee una varianza finita (D 2yX < para todo y e R 1) que

D] y ( - 5 ' 2 a f r - T " -+o


' n i 7 n 1=i n n
para todo y e R 1. D e aqu resulta con el teorema 1 (10.2) la consistencia (dbil) de la su
cesin (y ,), una proposicin que tambin se obtiene directamente de las explicaciones so
bre la Ley de los grandes nmeros (ver 7.4, teorema 3). (Por lo dems puede renunciarse
a la condicin D] X < e (ye R 1) , (ver 7.4, teorema 4 ); adems se comprueba que la su
cesin (y) es fuertemente consistente sobre la base de la Ley de los grandes nmeros de
Kolmogorov (ver 7.4, teorema 6 ).) El estimador puntual y posee para n grande una dis

170

www.FreeLibros.com
tribucin aproxim adam ente N l y, I (ver la observacin 2 despus del teorem a 2
A V * '
(9.4)), y, por consiguiente, (y) posee una distribucin asintticam ente norm al (ver 10.2,
definicin 8).
En especial obtenemos con (1) estim adores puntuales p a ra el parm etro u de una va
riable aleatoria con distribucin norm al y p a ra el parm etro X de una distribucin de
Poisson.

10.4.2 E stim a d o res p u n tu a le s p a ra u n a v a ria n z a d esconocida

La varianza D 2X de u n a variable aleatoria X se debe estim ar sobre la base de una m uestra


m atem tica de tam ao n de la poblacin X. Luego hagam os y = D*X y r = { y : y > 0 }. n
lo que sigue diferenciarem os dos casos:

a) na= E X conocido
Como estim ador puntual yn p a ra y utilizarem os la m edia aritm tica de los cuadrados de
las desviaciones de las variables de la m uestra X l(i = l, n) del valor esperado (co
mn) H0,

= S *= > ( * ,- H 0) 2. (2)
" T
A
El estim ador y es insesgado,

E yyn= E y ( ^ ( * 1 - ^ 0) 2) = 5 Y(* ,-H o )2= n *Y = Y (yer).


\ n +-4 / rc n
A
Adems se com prueba que la sucesin (y) es fuertem ente consistente sobre la base de la
Ley de los grandes nm eros de Kolmogorov.
En especial, obtenemos con (2) un estim ador puntual p a ra el p arm etro cr2 de una va
riable aleatoria con distribucin norm al cuando el p arm etro |i= n0 es conocido.
b) \ = E X desconocido
En este caso utilizam os el estadgrafo

,= ^ = (* ,- x y (3)
n- 1 T
como estim ador pun tu al p a ra y.
El estim ador (3) es un estim ador insesgado p ara y. Con esto proporciona (3) un esti
m ador p u n tu al insesgado -y por lo dem s tam bin consistente- p a ra el parm etro a 2 de
una variable aleato ria con distribucin norm al, cuando el p arm etro u es desconocido.
O b s e r v a c i n . El estim ador puntual dado por (2) no es utilizable aqu, ya que en (2)
aparece p ara el caso considerado un parm etro desconocido. Si se sustituye este por Xn,
entonces se obtiene con (2) un estim ador no insesgado p a ra y, pero s asintticam ente in
sesgado.

10.4.3 E stim a d o r p u n tu a l p a ra u n a p ro b a b ilid a d desco n o cid a

Como valor estim ado p a ra la probabilidad (desconocida) p de un suceso aleatorio A uti


lizamos la frecuencia relativa de la o cu rren cia de este suceso en una serie de n repeticio-

! 71

www.FreeLibros.com
ncs Independientes de tuMnismo experimento, en el cual el suceso A tiene la probabilidad
p. El estimador puntual y, sobre el cual se basa este procedimiento fue investigado en 10.2
(ejemplo 8 ); este se mostr como un estimador insesgado para p y all se estudi tambin
que la sucesin (y.) es consistente y posee una distribucin asintticamente normal.

10.4.4 Estimador puntual para una funcin de distribucin


desconocida
El problema de la estimacin del valor desconocido de la funcin de distribucin F de una
variable aleatoria X en un punto x e R, o sea, de F\x), es equivalente al problema de la
estimacin de la probabilidad del suceso aleatorio ( X < x ) . Si existe una muestra concreta
(x,, ..., x j de la poblacin X, entonces se utiliza como valor estimado para F(x) -de
acuerdo al modo de proceder en 10.4.3- el valor de la funcin de distribucin emprica
WHde la muestra concreta (x t, ..., x j (ver 9.3, definicin 1) en el punto x, es decir, el
nmero w(x). El estimador puntual tomado aqui por base es el valor de la funcin de dis
tribucin emprica W mde una muestra matemtica (Af,, X J (ver 9.3, definicin 2) de
la poblacin X en el punto x. A l respecto observemos an que se puede comprobar que
el estimador Wm{x) es insesgado y que la sucesin (W m(x)) es consistente mediante la re-
lacin (1) y el teorema 1 de 9.3, respectivamente.

10.4.5 Estimador puntual para un coeficiente de correlacin


desconocido
Sea (X,Y) un vector aleatorio bidimensional (ver 7.1) con el coeficiente de correlacin
(desconocido) p (ver 6 .2 , definicin 3 y 6.3, definicin 3). El parmetro y = P debe esti
marse sobre la base de una muestra matemtica ((Af,, K,), ..., (Jf., Y J ) de tamao n de
la poblacin (X, 7 )- esta es, por tanto, un vector aleatorio n dimensional, cuyas compo
nentes (X,, Y ) son independientes y estn distribuidas idnticamente que (Af, Y). Para ello
se utiliza el estadgrafo.

(4)

En el caso de una muestra concreta ((x,,?,), ...,(*, y j ) se obtiene como valor estimado,
utilizando este estimador puntual para el coeficiente de correlacin, el coeficiente de co
rrelacin emprica

(5)

El anlisis del estimador puntual R , y el tratamiento de problemas referentes a esto (por


ejemplo, intervalo de confianza para el coeficiente de correlacin, dcimas de hiptesis

172

www.FreeLibros.com
sobre la independencia de variables aleatorias) son tareas parciales del llamado anlisis
de correlacin, de un procedimiento de anlisis estadstico, que desempefta un gran papel
en los distintos campos de aplicacin de la Estadstica matemtica. En el marco de nues
tra introduccin no podemos tratar esto de forma ms detallada. Solo advertimos (sin de
mostracin) que, en el caso de un vector aleatorio (X , Y) con distribucin normal, se cum
plen las proposiciones

(1 -p V
E , R ~ p y D\ R ~ (n l).
n

10.5 Estimaciones por intervalo de confianza


Nos ocuparemos en este epigrafe de estimaciones por intervalo de confianza, que se uti
lizan especialmente cuando se desea un grado de exactitud de la estimacin de un par
metro desconocido, que no se puede obtener con una estimacin puntual (por ejemplo, a
causa de un tamao de la muestra muy pequeo). La situacin de partida es, por tanto,
la misma que para las estimaciones puntuales: La distribucin de probabilidad de una po-
blacin X depende de un parmetro y e T g R 1; el valor verdadero -pero desconocido- del
parmetro y se denota con y,. Adems, sea (Xv .... X J una muestra matemtica de ta
mao n de la poblacin X. Como se acord en el epgrafe 10.1, entenderemos por un in
tervalo de confianza J (Xx........X J un denominado intervalo aleatorio, es decir, un inter
valo cuyos extremos son magnitudes dependientes de las variables de la muestra -luego son
variables aleatorias; para toda muestra concreta (x,, ..., x j , J(xv ..., xm) es un intervalo
comprendido en I \
De importancia decisiva para una estimacin por intervalo de confianza es la probabi
lidad de que el intervalo aleatorio J(XV ..., X J contenga al valor verdadero y, del par
metro; para este suceso aleatorio escribiremos (J(XV ..., X J s y j . Por consiguiente, nos in
teresa Py (J(X, - ,X J * y j . Pero como no conocemos a y,, nos ocuparemos de forma ms
general con la probabilidad de que el intervalo aleatorio J(XV ..., X J contenga al valor
y e r , calculada bajo la suposicin de que y es el valor verdadero del parmetro, o sea, con
Py (J(XV ..., X J sy) para y e r.

D e f in ic i n 1. Sea J(XV ..., X J un intervalo de confianza. El nmero

e= m n PJJiX,........X J * y ) (1)
se denomina coeficiente de confiabilidad del intervalo de confianza J(XV ..., X J .

D e f in ic i n 2. U n intervalo de confianza J(XV ..., X J se denomina un intervalo de


confianza para y con el nivel de confiabilidad 1 - a ( 0 < a < l , dado) si

~Py (JVC,........X J 3 7 ) 1 - a (y eH (2 7
o sea, si se cumple que e > 1 a.
La probabilidad de que el intervalo aleatorio J(XV ..., X J contenga al valor y, calcu
lada bajo la suposicin de que y es el valor verdadero del parmetro, tiene al menos el
valor 1 - a para un intervalo de confianza con el nivel de confiabilidad 1 - a . Aqu se exige
la validez de (2) para todo y e r ; con esto se cumple (2) en particular para yv el valor ver
dadero del parmetro.

173

www.FreeLibros.com
E je m p lo 1. Supongamos que la variable aleatoria X est uniformemente distribuida
sobre el intervalo [0,], >>0; b sea desconocido. Hagamos y = b y T = {y: y > 0 }. Quere
mos indicar para y un intervalo de confianza con el nivel de confiabilidad 1 - a (0 < a < 1,
fijo). Para ello utilicemos el estimador puntual y = mx ..., X ) (ver ejemplo 2
(10.2)). Fijemos el intervalo aleatorio en la forma

J(XV X J = [5jY^ 6j y j con 1 < 8 ,< 8 2.

(En principio esto es algo arbitrario, pero razonable.) Ahora determinemos 8, y h v de mo-
do que se cumpla la desigualdad Pl(J(Xi........X J av) 5* 1 - a para todo v e f . Se cumple que

Py W X V ..., X J ay) = P (81yA< 82 y j = P y ( - < Y < - )


v 82 8,

Si observamos ahora que la funcin de distribucin F y ia variable aleatoria y -cal


culada bajo la suposicin de que y es el valor verdadero del parmetro- est dada por

0 para 0,

( ) para 0 < y,

1 para x > y

(ver 9.4, teorema 1), obtenemos que

Py (J(Xv ..., X j B y ) = F f ( - ) * > ( x ) = ( J L Y - ( J L Y = J -----L


" V 8I ' - V f i , ' V iy / V 5jY / gn 6n

Escojamos, por ejemplo 8t = .. y 82= - con a , 0, a 2> 0 , a, + a 2= a , enton-

V i
ces se cumple que

Py(J{Xi........X J By) =1 - a j - a j = l - a ,

osea,
A A

JWi....... X J ^ ^ ^ , - 7 = ] (a,>0, a2>0, a,-i-a2=a)


V ; - a \K J
es un intervalo de confianza para y con un nivel de confiabilidad 1 - a. Para una muestra
concreta (xv ..., x j se obtiene por medio de este estimador el intervalo estimado concreto

J(xv ..., x j = r . ... g y< - 4 ^ 1

con x mlJ=m x {x,, ..., x j (ver fig. 46 a). Para a ,= 0 , a 2= a se obtiene el intervalo esti
mado concreto (ver fig. 46 b),

www.FreeLibros.com
y p a ra a 2 0, a I a se obtiene el intervalo estim ado concreto (ver fig. 46 c)

J x v ..., x) = ( y : ----- +

J {x r..,x J

b -t-

v 1 Figura 46

P or medio de un intervalo de confianza con el nivel de confiabilidad 1 - a se obtiene


p a ra una m uestra concreta (x,, ..., x) un intervalo J ( x v xj y se decide comn
m ente a favor de que y0e./(xl,..., x j . E sta decisin ser v erd ad era o falsa en el caso
concreto; en todo caso ella n ad a tiene que ver con la casualidad y no se tra ta tam poco
de una proposicin que sea correcta con probabilidad > 1 a. A decir verdad, se puede
estim ar la probabilidad 8 de una decisin err n ea p a ra el principio tom ado por base en
la decisin concreta ilustrada. U n a decisin err n ea o cu rre siem pre y cuando el valor ver
dadero y0 del p arm etro no pertenezca al intervalo J (x v ..., x). Luego, se cumple que

6 =P1' W X l, X J jy J . (3)

En virtud de (2) resulta que a, independientem ente de qu valor posea y0 en T. Con


esto se a clara tam bin el papel del p a r m e tro a; con el principio de decisin descrito se
necesita calcu lar como p rom edio con no m s de 100 a % de decisiones errneas, y de
acuerdo con esto -considerando n atu ralm en te el planteam iento de la ta re a concreta y en
particular, las consecuencias de u n a decisin errnea- se fijar a. (Con frecuencia se elige
a = 5 %, a = 2 % o a = l %.) A qu se tiene que reflexionar, en especial, que el hacer a ms
pequeo conduce, por lo general, a un intervalo estim ado concreto de m ayor longitud.
(Para a = 0 se obtiene forzosam ente como intervalo estim ado, p a ra todas las m uestras
concretas (x,, ..., x), el conjunto T de todos los posibles valores del pa r m e tro ; por
tanto, en este caso no se u tiliza la inform acin contenida en la m u estra acerca del valor
verdadero del p arm etro .)

En la construccin de un intervalo de confianza con un nivel de confiabilidad 1 - a dado, est pre


sente an -como mostr el ejemplo 1 - una cierta arbitrariedad (eleccin del estimador puntual tomado
por base y sustitucin para los extremos del intervalo aleatorio).
Por ello nos queremos ocupar un poco ms detenidam ente de la valoracin y -sobre este basamento-
de la comparacin de intervalos de confianza. U n medio auxiliar esencial para esto es la denominada
funcin de bondad.

D e f i n i c i n 3 . Sea J(X V .... X) un intervalo de confianza. Entonces la funcin B,

B(r. Y ')= P r (/(X X ja y '), (4)

definida sobre T x T se denomina funcin de bondad del intervalo de confianza dado.

www.FreeLibros.com
El valor B(y, y ) de la funcin de bondad B en el punto (y. y") x T indica, por consiguiente, la pro
babilidad de que el intervalo de confianza considerado contenga al parmetro y \ calculada bajo la su
posicin de que y es el valor verdadero del parmetro. Luego, se cumple siempre que O B(y. y") S 1.
Si J(X........X J es un intervalo de confianza con el nivel de confiabilidad 1 - a, entonces se cumple que
B (y, y ')S 1 - a para todo y e l\

E je m p lo 2. Calculemos la funcin de bondad del intervalo de confianza

con el nivel de confiabilidad 1 - a , dado en el ejemplo 1. Para y > 0 , y '> 0 se cumple que

Para a ,= 0 , a = a , o sea, para el intervalo de confianza (ver fig. 46 b)

con el nivel de confiabilidad 1 - a , obtenemos la funcin de bondad B v

para 0 < y ' a y,

y
para y 4 y '

Observemos que se cumple que B t (y, y') < B t(y, y ) = l - a para todo y > 0 , y > 0 con y^ y'.

La propiedad hallada por ltimo en el ejemplo 2 nos dice que todo valor falso" del parmetro est
contenido en el intervalo de confianza con una probabilidad menor que para el valor verdadero de este,
independientemente de qu valor del parmetro es el verdadero. Expresaremos este hecho de forma ge
neral en la definicin siguiente.

176

www.FreeLibros.com
D e f i n i c i n 4 . U n intervalo de confianza J (X t........ X j se denom ina adm isible, si para la funcin
de bondad B se cum ple que

B(Y, y ) > fl(Y, Y") ((Y. Y l e r x T ). (5)


Por ltim o advertim os que la com paracin de intervalos de confianza (en el m arco de un m ism o pro
blema de estimacin) se reduce fundam entalm ente a la com paracin de las funciones de bondad corres
pondientes.

D e f i n i c i n 5 . Sean J l(Xl........X j y J X x.......... X j intervalos de confianza (en el m arco de un m is


mo problema de estimacin) con las funciones de bondad B t y B r El intervalo de confianza
J(X....... X j se llama mejor que el intervalo de confianza (X, . . . , X j , si se cumple que

B , (Y, y ) B (Y. Y") Y. YT e T x T, y*YT (6)


El m otivo para esta definicin est claro de acuerdo con lo que precede y a la definicin de funcin
de bondad.

E j e m p lo 3 . Como continuacin del ejemplo 1 considerem os el intervalo de confianza (ver fig. 46c)

A
y.
U*........x j =

con el nivel de confiabilidad 1 - a , que se obtiene del intervalo de confianza J(XV .... X j con el nivel
de confiabilidad 1 - a , deducido en el ejem plo 1, a travs del paso (formal) al lim ite a , -*a. Para la fun
cin de bondad correspondiente se obtiene que

para 0 *cy'-

Bj(Y, YO =
para y

(Observemos al margen que JJJCV .... X j no es admisible; por ejemplo, se cum ple que
Y
B( Y, y ' ) = l > B , ( y , Y )= l - a para todo (Y, Y") con Y > 1 , Y > 0 ).
\J l - a

Si comparamos esta funcin de bondad con la funcin de bondad B , del intervalo de confianza

Y, - considerada en el ejemplo 2 , obtenem os que

fl,(y, y ' ) ^ B , ( y , y") (y > 0 , y '> 0 , y^yT,


es decir, que el intervalo de confianza J l(Xl.......... X j es mejor que el intervalo de confianza
J X ,....... X j .

10.6 Ejemplos importantes de estimaciones por intervalo


de confianza
E n e s te e p g r a fe in d ic a m o s in te r v a lo s d e c o n f ia n z a c o n e l n iv e l d e c o n f ia b ilid a d 1 a
(0 < a . < l ) p a r a lo s p a r m e tr o s d e u n a v a r ia b le a le a t o r ia c o n d is tr ib u c i n n o r m a l, la p r o

177

www.FreeLibros.com
habilidad de un suceso aleatorio y la funcin de distribucin de una variable aleatoria. Se
recomienda al lector que reflexione acerca de la significacin de los extremos del intervalo
de confianza (limites de confianza), que motive con esto la sustitucin qu se hace en cada
ocasin para el intervalo de confianza y que investigue la influencia de a, n y, dado el
caso, de otras magnitudes caractersticas.

10.6.1 Intervalos de confianza para los parmetros


de una distribucin normal
Sea X una variable aleatoria con distribucin normal y parmetros (i y o 1, y adems, sea
(Xv X J una muestra matemtica de tamao n de la poblacin X. En los extremos de
los intervalos indicados a continuacin se utilizan los estadgrafos X n, S\ y S * 2(yer 9.4) y
tambin los percentiles de la distribucin normal estandarizada y de las distribuciones t
y x 2 (ver 5.6, definiciones 1,2, y 3; tablas 3, 4 y 5); aqu denominamos con zp el percentil
de orden p de la distribucin normal estandarizada (Q(zp) =p). Para indicar intervalos de
confianza con el nivel de confiabilidad 1 - a para 7=H, tenemos que diferenciar si a 2 es
conocida o no; de la misma forma, para indicar intervalos de confianza para y=cr3 tene
mos que diferenciar si u es conocido o no.

a) y= m o 2- a l (conocida)

T e o r e m a 1. Sean a, y a 2 nmeros positivos con aj + a2= a . Entonces

( 1)

es un intervalo de confianza para y con el nivel de confiabilidad 1 - a .

D e m o s t r a c i n . Se debe mostrar que se cumple

B(y, y) =P y (J(X, ..., X J ay) > 1 - a para todo y e R 1:

B(y, y) =PSJ(XV ..., X J ay) = P r ( X - z , ^ X .+ z, - ' )

= l - a 1- [ l - ( l - a 2)] = l - ( a 1+ a 2) = l - a .

(Aqu fue utilizado el hecho de que para una variable aleatoria con distribucin N (y, cr2) ,
---------------------------- r X - y -------------------------------------------------------------------------
la variable aleatoria yn ----- posee una distribucin iV(0 1), ver en 9.4 la primera obser-

vacin despus del teorema 2.)

Observemos que la longitud (en este caso no aleatoria) del intervalo de confianza es

igual a ( z,_a+ z,_aj 2_; ella se hace mnima para a j = a 2= , es decir, para el lla m a d o
yjn 2
intervalo de confianza simtrico.

178

www.FreeLibros.com
b) y = n , o 2 (desconocida).

T e o r e m a 2 . Sean a, y a } nmeros positivos con a , + a 2= a Entonces

j(x v .... x j x+tn_u (2)

es un intervalo de confianza para y con el nivel de confiabilidad 1 - a ; aqu denota


al percentil de orden 3 de la distribucin con n - 1 grados de libertad.

O b s e r v a c i n . En comparacin con el intervalo de confianza (1) indicado en el


teorema 1, han sido intercambiados en (?) cr y los percentiles de la distribucin 7V(0,1)
por S*n y los percentiles de la distribucin t con n - 1 grados de libertad, respectivamente.

Dem ostracin
fl(Y, Y) = P J (X V ..., X J 3 y)

xy
< ' -u i- ,

= 1 - a , - [ l - ( 1 - a , ) ] - l - ( 0 , + dj) = 1 - a .

(Aqu fue utilizado el hecho de que para una variable aleatoria con distribucin N(y. a 1), la variable
Jf-Y
aleatoria ------ pos ee una distribucin t con n - 1 grados de libertad, ver 9.4, teorem a 5.)
Si

O bservem os que el v alo r esp erad o de la longitud del in te rv a lo de confianza para

a, = a , = se hace m nim o.
2_____________ _____________________________________
c) y = ct2, H=H0 (conocida)

T e o r e m a 3. S ean a , y a 2 n m eros positivos con a ,-i-a 2= a . Entonces

J (X V......... X ) = [ 1 con s : = 2 W

es un in terv alo de co n fian za p a ra y con el nivel de co n fiab ilid ad 1 a ; aqu ,, denota


el percentil de o rd e n [i de la d istrib u ci n x ! con n g rad o s de libertad.

D em ostracin
( nS*!
B(Y, Y) =PJJ(Xl.......X J 3Y) =P, l ------------------------ Y?: ---------- I
X .l- , X. a,

( \
= Py \ K . a ------ X ; i ^=1 - a , - a 2= l -a .

(Aqu fue utilizado el hecho que para una variable aleatoria X con distribucin jV(h . Y), la variable

aleatoria ------- posee una distribucin x 2 con n grados de libertad, ver 9.4, teorema 3.)
7

www.FreeLibros.com
179
d) y = o J, n (desconocido)

T e o r e m a 4 . Sean a , y a 2 nmeros positivos con a,-t-a2= a . Entonces

*r,..... = [< ^ ! L .
L x L .m - ., x.1;a, j

es un intervalo de confanza para y con el nivel de confiabilidad 1 - a .


Demostracin

*(Y, Y ) = W , .... X , ) 3Y) =/,


1-a, ^tn-l; a,

X-1:< ----------- t j- 1 - ., ^ = 1 -0 ,"O,=1-0-

(Aqui fue utilizado e l hecho de que para una variable aleatoria con distribucin A ' n , y ) , l a variable
( n - 1 ) Sj
aleatoria ------------- posee una distribucin y* con n - 1 grados de libertad, ver 9.4, teorem a 4.)

10.6.2 Intervalo de confianza para una probabilidad desconocida


Sea A un suceso aleatorio que ocurre en el marco de un experimento con la probabilidad
p; p sea desconocida (O < /> < ! ). Consideremos la variable aleatoria X,

en caso de que A ocurra,


H 1;en caso de que A ocurra,
y plantemonos la tarea de indicar para el parmetro y = p un intervalo de confianza con
el nivel de confiabilidad 1 a, sobre la base de una muestra matemtica de tamao n de
la poblacin X. Para ello tomemos por base el estadgrafo

M = F '{A ) = J

que proporciona la frecuencia absoluta de A en n experimentos. La variable aleatoria M


posee una distribucin binomial con los parmetros n y y, en el caso que y sea el valor
verdadero del parmetro. Expresamos el intervalo de confianza J(XV ..., X) en la forma

J(Xy........ X n) = [ Pi( M ) , p M ) \ (5)


luego, los extremos deben ser funciones de la variable aleatoria M.

T e o r e m a 5 . El intervalo de confianza (5) es un intervalo de confianza con el nivel


de confiabilidad 1 - a , si para toda realizacin m de M los extremos p(m) y p 2(m) del
intervalo de confianza concreto \p m ) , p 2(m) ] estn fijados de modo que se cumplan las
relaciones

2 ( ) b i ( w ) 1* l 1 ~Pi <m >]" '*= ~ (6)

2 ( " ) tPj"]* [1 - p p n ) ] - * = (7)

180

www.FreeLibros.com
Renunciaremos a la demostracin de esta proposicin. Los extremos del intervalo p,(w)
y pjtm) pueden ser tomados de tablas y diagramas para a especiales (a = 5%, a = l% ) y n
no muy grandes (n < 30). Para n mayores se utilizan frmulas para el clculo de los lmi
tes de confianza que se obtienen del teorema siguiente.

T e o r e m a 6 . Para el intervalo de confianza (5) se cumple que

lim p v ([[/?,(A/), Pj(M) ]] ay) > 1- a (0 < y < 1 ) (8)


(o sea, (5) es un intervalo de confianza con el nivel de confiabilidad 1 - a para -.<, si
se hace

2M +z- z

pM) = ---------------------------------------------------------------------------- (9)

2(" +zU )

/
n+ r
' T>r

2
La demostracin de este teorema se base esencialmente en el Teorema Integral de De
Moivre-Lapiace (ver 7,5, teorema 1), segn el cual se cumple en particular que
/i M -ny
lim P, 1 = 1 -a .
f)
De aqu se obtiene, despus de algunos clculos, los lmites de confianza indicados en (9)
y ( 10).
Ilustraremos el teorema 6 con un ejemplo numrico.

E jem p lo n u m r ic o . Para n - 200 y m =88, se obtiene como valor estimado para la


88
probabilidad desconocida -----=0,44. Si escogemos a = 5 %, entonces z =1,96, yobte-
200
nemos como limite de confianza inferior el nmero 0,37, segn (9), y como lmite de con
fianza superior el nmero 0,51, segn (10). Como intervalo estimado concreto para la
probabilidad desconocida se tiene el intervalo [0,37; 0,51]. Si escogemos por el contrario
a = l% entonces obtenemos como intervalo estimado concreto el [0,35; 0,53],
Por ltimo queremos advertir que existen medios grficos auxiliares para el clculo de
los lmites de confianza concretos.

10.6.3 Intervalo de confianza para una funcin de distribucin


desconocida
El problema de la estimacin por intervalo de confianza del valor (desconocido) de la fun
cin de distribucin F de una variable aleatoria X en un lugar x e R 1, es equivalente con

181

www.FreeLibros.com
el problema de la estimacin por intervalo de confianza de la probabilidad del suceso
aleatorio (X < x ). Asi. este se puede tratar, en principio, con los mtodos expuestos en
1 0 .6 .2 .

N o obstante, queremos explicar otra posibilidad para el tratamiento de este problema. Esta se basa
sobre la estrecha relacin entre la funcin de distribucin empirica W a de una muestra matemtica
(JT,,..., X J de tamao n de la poblacin A" y la funcin de distribucin F de esta poblacin, aclarada
en el epgrafe 9.3. Para ello supongamos que F es continua.

T e o r e m a 7. Para el intervalo aleatorio

J X V ..., X )= W n( x ) ^ , w jx ) + ~ r ( 11)
J yjn yn L
considerado como intervalo de confianza para y = F (x ), se cumple que

lim PJx(Xv ..., X J ?y) > 1 - a (x e R 1, O y 1) ( 12)

(o sea, ( 1 1 ) es un intervalo de confianza con el nivel de confiabilidad 1 - a para n - . >); aqu y es so-
lucin de la ecuacin

f c ( y ) = ] j ( - l ) V 2*= l - a . (13)

D e m o s t r a c i n . Se cumple que

lim Py (Jx(Xv ..., X J sy) = lim P., '.(*) yaJ= < y< w n( x )+ ya \
-J= I
yjn V"
= lim Py f \/ | W n{x) -y |< y )

> lim Py 0 sup IW n(x) - y |< r a)

= K (y J = 1 - o ;

aqui hemos utilizado el teorema 3 (9.3) (que a decir verdad no hemos demostrad en este libro).

Para una muestra concreta (x,, ..., x j se calcula la funcin de distribucin emprica correspondiente
w (ver 9.3, definicin 1) y se utiliza -suponiendo un tamao de la muestra suficientemente grande

Jx (x xj = W(x) - pr, W(x) + A . i (14)


J V" V L
como intervalo estimado concreto para F(x) ; el nmero puede ser tomado de tablas. La ventaja con
siste evidentemente en que se obtienen simultneamente para todo x e IR1 intervalos de confianza con
cretos para F (x). Para la aplicacin de esta estimacin por intervalo de confianza se pueden utilizar
medios grficos auxiliares.

182

www.FreeLibros.com
11. Introduccin a la teora de la docimasia
de hiptesis

El siguiente capitulo contiene una introduccin a la teoria de la docimasia de hiptesisr


un campo central ampliamente extendido de la Estadstica matemtica. Ella ha encontra
do una gran aplicacin en las ms diversas disciplinas cientlcas. La tarea que se plantea,
de forma general, la teora de la docimasia de hiptesis, consiste en indicar mtodos y
procedimientos adecuados e investigar, sobre la base de la Teora de probabilidades, con
cules de ellos pueden realizarse decisiones objetivas sobre hiptesis -estas son suposicio
nes en el marco de un modelo estocstico con ayuda de muestras. La ventaja de la uti
lizacin de tales procedimientos de decisin estriba tambin en que permiten valorar
cuantitativamente el nmero de las posibles decisiones errneas.

Despus de la introduccin de los conceptos bsicos fundamentales de la teoria de la


docimasia de hiptesis (epigrafe 11.2), pasaremos a la denominada dcima de significa
cin (epigrafe 11.3) e indicaremos para ella una serie de ejemplos en los epigrafes 11.4
y 11.5 (entre ellos, dcima t, dcima F y dcima x2) Por ltimo el epigrafe 11.6 contiene
un ejemplo de aplicacin.

11.1 Tareas que se plantea la teora de la docimasia


deJhiptesis
Como se bosquej ya, la tarea fundamental que se plantea la teoria de la docimacia de
hiptesis, consiste en indicar y analizar mtodos para la verificacin de suposiciones acer
ca de parmetros desconocidos de un modelo estocstico, denominadas hiptesis estadio
ticas (o brevemente: hiptesis), sobre la base de muestras. La verificacin de una hip
tesis se realiza con ayuda de una denominada dcima de hiptesis (o brevemente: dci
m a). Una dcima tiene por objeto producir una decisin acerca de la aceptacin o recha
zo de una hiptesis, sobre la base de la muestra. Si contamos con una muestra concreta

183

www.FreeLibros.com
(x,........ x), entonces se tomar con ayuda de una dcima la decisin *>se rechaza la hi
ptesis o la decisin se acepta la hiptesis . (Advertimos expresamente que la decisin
se acepta la hiptesis no significa que ella sea correcta; ver tambin 9.1.) Luego, una
dcima se puede caracterizar en principio por el conjunto de todos los (x,, ..., x), que
provocan la decisin se rechaza la hiptesis . Este conjunto se denomina regin critica
o regin de rechazo (de la hiptesis considerada).

Antes de que nos ocupemos ms exactamente en el epgrafe 11.2 de los conceptos b


sicos mencionados y de otros de la teoria de la docimasia de hiptesis, y en especial, con
las exigencias mnimas para establecer de forma adecuada lo que llamamos una regin
critica, queremos considerar un ejemplo para ilustrar la problemtica y tambin el pro
cedimiento tpico que se utiliza.

E je m p lo . Supongamos que la poblacin X posee una distribucin normal con varianza


D 2X = o l (o0 conocida, por ejemplo, o 0= 1); el valor esperado E X sea desconocido. Haga
mos y = E X y designemos con y0 el valor verdadero (pero desconocido) del parmetro y.
Queremos verificar la hiptesis H: y0=y* con ayuda de una muestra matemtica
(X v ..., X j de tamao n de la poblacin X (y* es un nmero real dado; puede ser un va
lor supuesto, pretendido o tambin dudoso para el parmetro desconocido; con frecuencia
tiene el significado de un valor previsto). Para lograr lo anterior consideremos el estad

grafo X n= ^ X } el cual representa un estimador apropiado para y (ver 10.4.1). En


" TT . - ( \
el caso de que la hiptesis H: Y0=y* sea verdadera, X n posee una distribucin ,VI y*. I
_ x -y * n
(ver teorema 2(9.4)) y de esto se deriva que T = \ n ------- posee una distribucin A'(0,1)
0
Para una muestra concreta (x,, ..., x j se rechazar la hiptesis H : y0=y* cuando
x y*
n ------ calculado, se haga muy grande (ver 5.4, frmulas
. ao
(17) hasta (19) y figura 35). Para precisar este procedimiento daremos un nmero peque-
o a ( 0 < a < l , por ejemplo, a 0,05) y determinaremos un nmero f > 0 , de modo que
se cumpla que Pr (| r |> * ) = a , o sea, de manera que la probabilidad de que se rechace la
hiptesis H: y0=y* sea igual al nmero a dado- en el caso de que la hiptesis sea cierta.
En virtud de que Pr (| 7|> r*) =1 - P T ( |r | ^ *) =1 -(21>(f*) - 1 ) =2(1 <D(f*)) = a
a
Se obtiene para t* el percentil de orden 1 -------de la distribucin normal estandarizada,
2
o sea, t* = z ver tambin la figura 47. (Para a = 0 ,0 5 , se obtiene f* 1,96.) Si se cum-
2" i i I -X Y*
pie la inecuacin |f|> para el valor t = \ n ------ calculado a partir de una mues-
' 2 ao
tra concreta (xr ..., x), entonces se rechaza la hiptesis H: y0= V , en caso contrario
no se rechaza. Con esto, la regin crtica K de H est dada por

X ~ T >2
* = {(* .... X j \n

y se cumple que:

Pr ((Xv ..., X j e K ) = P r ( M > z JL) = a .

184

www.FreeLibros.com
Densidad de T, en el
caso que H es verdadera
(distribucin N ( 0 ,1 ) )

a
2

Figura 47

La probabilidad de que se rechace H: y0- y * es igual a a -en el caso de que H sea ver
dadera. Aqu no hemos re p a ra d o en la probabilidad de que la hiptesis H: y0=Y* no se
rechace en el caso de que sea falsa-, o sea, no hemos p restad o atencin a Py ( |r |< z )
2
p a ra y0*y*. Por tanto, con el procedim iento indicado com probam os slo si la hiptesis H
es com patible con la m uestra o si existen diferencias significativas.

11.2 Conceptos fundamentales de la teora de la docimasia


de hiptesis
En la form ulacin m atem tica general de la ta re a que se p lan tea la teora de la docim acia
de hiptesis p artim os de una poblacin X, cuya funcin de distribucin F depende de un
parm etro y e r . Designemos nuevam ente con y0 el v alo r v erd ad ero (pero desconocido) del
parm etro. Por una hiptesis (estadstica) entendem os u n a proposicin de la form a: y0 es
un elem ento de un subconjunto no vaco dado F0 de T. P a ra ello escribimos abreviadam en
te H : 7 0e r o. Si r o contiene un solo elemento, T0= {y*}, entonces se habla de una hiptesis
simple y escribimos H: y0=y*. En el o tro caso la hiptesis H: Y0e r o se denom ina una
hiptesis compuesta. Si ju n to a una hiptesis //: y0e r se considera o tra hiptesis
Ha: y0e r , r \ T 0, entonces H a se denom ina hiptesis nula y HA hiptesis alternativa.
Sea ah o ra (Xv ..., X J una m u estra m atem tica de tam a o n de la poblacin X. E nten
demos por una dcim a, m s exactam ente, p o r u n a dcim a de la hiptesis nula H 0 frente
a la hiptesis altern ativ a H A. un procedim iento con el cual es posible una com paracin de
las hiptesis H a y H A con respecto a la m uestra (X, X J y que conduce p a ra toda mues
tra concreta (xv . . . , x j a una de las decisiones " // se rech aza (//A se ace p ta ) o H se
rechaza (H 0 se a ce p ta ) . En lo sucesivo nos lim itarem os fundam entalm ente al caso de la
hiptesis a ltern ativ a K : y0 e r \ T 0 y nom brarem os sencillam ente una dcim a de H 0: yero
frente a esta hiptesis a ltern ativ a una dcim a de H 0. A qu utilizarem os p a ra las decisio
nes correspondientes las form ulaciones se rech aza y " H a no se rechaza , y evitare
mos h ab lar en este caso de la aceptacin de la hiptesis H 0. U n a dcim a semejante se des
cribe com pletam ente a travs del conjunto K de todas las m uestras concretas (jCj........x j ,
p a ra las cuales se tom a la decisin "H 0 se rechaza", o sea, a travs de la regin critica
o regin de rechazo de H 0. Luego, no es necesario diferenciar entre una dcima. y la regin
crtica K correspondiente: en el fu tu ro hablarem os de la dcim a K. si la dcim a posee la
regin crtica K. Con esto n ada se ha dicho an sobre el establecim iento adecuado de la
regin crtica. A ntes que nos ocupem os con ciertas exigencias m nim as que se deben ob

www.FreeLibros.com
servar en el establecimiento de la regin critica, queremos considerar los posibles errores
en el procedimiento de decisin que se realiza en el marco de una dcima:

Ha : Y0ero es verdadera H y0e r \ T # es verdadera

H 0 se rechaza D ecisin falsa (error de D ecisin correcta


primer tipo)

H 0 no se rechaza D ecisin correcta D ecisin falsa (error de se-


gundo tipo)
U n error de primer tipo se presenta siempre y cuando la muestra concreta est situada
en la regin critica de H y H sea verdadera. Las probabilidades de cometer errores de
primer tipo se pueden estimar (segn lo expuesto) mediante

s u p (Py (* ,, ..., X )e K ) ;

en el caso de una hiptesis simple H 0: Y0=y*, la probabilidad de un error de primer tipo


es igual a Pr ((* ,,..., X J e K ) .
U n error de segundo tipo se presenta siempre y cuando la muestra concreta no est si
tuada en la regin critica de H 0 y H sea verdadera las probabilidades de cometer errores
de segundo tipo se pueden e stimar de forma correspondie nte mediante

> p J \( * i. > X J < t K ) = l - M P y (Xv X n) e K ) .


Esto nos conduce a valorar una dcima K de H 0 por medio de la funcin de potencia de
finida a continuacin

D e f i n i c i n 1. Sea K una dcima de H 0. Entonces la funcin definida sobre T por

G(y) = P y((Xv X n) e K ) (yeT) (1)

se denomina funcin de potencia de la dcima K (fig. 48).

Posible, grfico Grfico ideal


de una funcin de de una funcin
potencia de potencia

L _J i -
"V , r r0 . v
j- Figura 48
r
Por tanto, el valor de la funcin de potencia en el punto y (e r ) indica la probabilidad
de que la hiptesis H 0 se rechace, calculada bajo la suposicin de que y es el valor ver-
dadero del parmetro. Las probabilidades de comete r errores de primer tipo se describen
por medio del grfico de G sobre r o, las probabilidades de cometer errores de segundo tipo
por medio del grfico de 1 - G sobre r \ T 0.
E je m p lo 1 . Calculemos la funcin de potencia G de la dcima indicada en el epigra
fe 11.1 de la hiptesis H 0 : y0=y*, para una poblacin X con distribucin N (y, o2) y con
y0 desconocido y o 2 conocido. Para y e r = R 1 se cumple que

G(y) = P y((Xv ..... X) eK) = P / |7 j > 2 )


2

186

www.FreeLibros.com
= i - p 7(|r |< z _.)=i - p A - z < ^ x J L <z \
2 V 2 2 /

= 1- pA - z a - f n y^ < f n ^ l < z - f n y^ - )
v 2 ct0 o0 2 a0 '

Observemos ahora que para una variable aleatoria X con distribucin N{y, cr), la variable
y
Vn y
posee una distribucin JV(0,1) (ver en 9.4 la observacin 1 despus del
o
teorema 2 ), de modo que con $ ( - * ) =1 (x) (ver 5.4 (15)) obtenemos (fig. 49)

G(y)
v 2 CT / v 1 2 cr

y* Figura 49

Ahora se intentar establecer la regin critica, de modo que las probabilidades de co


meter errores de primer y segundo tipos sean lo ms pequeas posibles. Como no se pue
den minimizar ambas al mismo tiempo, se procede por lo general en la determinacin de
una dcima, de manera que se busca en la clase de todas las dcimas, para las cuales las
probabilidades de cometer errores de primer tipo no sobrepasen un nmero a dado
(0 < a < 1), una para la cual las probabilidades de cometer errores de segundo tipo se ha
gan minimas. La exigencia de que las probabilidades de cometer errores de primer tipo
no sobrepasan una cota a dada, se considera una exigencia mnima para una dcima.

D e f in ic i n 2 . Sea a ( 0 < a < l ) un nmero dado. Entonces una dcima K de H 0:


y0e r 0 con la funcin de potencia G se denomina una dcima de significacin con el nivel
de significacin a (tambin: dcima de significacin con la seguridad estadstica 1 - a ) , si
se cumple que (fig. 50)
G (y )= P & X v ..., X) <=K)^a (y TJ. (2 )

E je m p lo 2 . La dcima indicada en el epigrafe 11.1 de H 0 : y0=Y* para una poblacin


X con distribucin N (y0> cr2) y con y0 desconocido y o2 conocido, es una dcima de sig
nificacin con el nivel de significacin a (ver tambin el ejemplo 1; se cumple que

G (y )= < -z _ _ )+ * (-

187

www.FreeLibros.com
Posible grfico de una funcin
de potencia de una dcima de hiptesis

En el epigrafe 11.3 nos ocuparemos an ms detalladamente de las dcimus de signi


ficacin: los epgrafes 11.4 y 11.5 contienen una serie de ejemplos importantes de tales
dcimas.

N os ocuparemos un poco de la valoracin y la comparacin de dcimas. El tratamiento de estas ta


reas se realiza por medio de las funciones de potencia, sobre la base de las definiciones siguientes:

D e f i n i c i n 3 . Una dcima K de //: y0e r o con la funcin de potencia G se llama adm isible, si
se cumple que

inf G (Y) > supGfy). (3)


re rr, yr.

Si H es una hiptesis simple (//: y0=y*>, entonces una dcima de / / 0 es. segn definicin, admisible
si se cumple que

G(y) G ( y*) (v e H . (4)

Luego, para una dcima admisible de H la probabilidad de que se rechace H 0 siendo H una hip
tesis falsa, no es menor que para el caso en que H< sea una hiptesis verdadera, hablando sin mucha
precisin.

E j e m p lo 3 . Consideremos de nuevo la dcima expuesta en el epigrafe 11.1 Para la funcin de po


tencia de esta dcima se cumple (ver ejemplo 1 ) que

o 27 V o0 27
Se verifica fcilmente que se cumple

G(y) +1>( ^ )= C (y * )= a
"2 '2
pura todo y y*, es decir, que la dcima tomada por base es admisible (fig. 4 9).

D e f i n i c i n 4 . Sean K t y K dos dcimas de H: Y0e r o con las funciones de potencia G, y C, res


pectivamente. La dcima C, se denomina mejor, .si se cumple que

G ,( y ) ? G jfy ) ( Y e r \ r ) . (5 )

Si Af, es mejor que K, entonces la probabilidad de que se rechace la hiptesis H 0 para la dcima K v
calculada bajo la suposicin de que yer\T0
es el valor verdadero del parmetro, es para todo y seme
jante al menos tan grande como para la dcima K, o -hablando sin mucha precisin- la probabilidad
de rechazo de una hiptesis falsa es para K , al menos tan grande como para K.
En todas las consideraciones hechas hasta ahora, hemos tomado por base un tamao de la muestra
constante. Radica en la naturaleza de la situacin el que se puedan hacer proposiciones, por lo general
ms confiables, a medida que crece el tamao n de la muestra: ms confiables en el sentido de una dis
minucin de las probabilidades de cometer errores de primer y segundo tipos. Por ello se investigan su-

188

www.FreeLibros.com
cesiones (K) de dcimas -en particular, dcim as de significacin con el nivel de significacin a
(0 < a < l , dado com o dato, independiente de n) en dependencia de n: por consiguiente, aqui se cumple
para las regiones criticas que K n R" (n e N ) .

D e f i n i c i n 5. Sea (Kn) una sucesin de dcimas K de H a: Y0e r o con la funcin de potencia


G Jn e IN). La sucesin (K) se llam a consistente, si se cum ple que

lim G(y) = 1 (yerNT,,). (6 )

Por tanto, para una sucesin consistente (Kn) la probabilidad de que se rechace H, calculada bajo
la suposicin de que y e r \T 0 es el valor verdadero del parmetro, converge cuando n - hacia 1 , o
-hablando sin mucha precisin- la probabilidad de rechazo de una hiptesis falsa tiende a 1 .

E j e m p lo 4 . Consideremos la sucesin (K n) de dcimas de H: Y0=Y* para una poblacin X con dis


tribucin MYq, o) y con y0 desconocido y conocida: aqu Kn es la dcima de significacin indicada
en el epigrafe 11.1 con el nivel de significacin a. Para la funcin de potencia G se cum ple (ver el
ejemplo 1 ) que

lim .I W -l im [ ( i / - , , f ) * . ( - V I l U - , , _ . ) ]

J 1 + 0 = 1 para y > y * 1
= 1 f = l para y * r ,
<0+1=1 para y<Y* )

o sea. la sucesin (K) es consistente.

11.3 Procedimiento general para realizar una dcima


de significacin
De acuerdo con la definicin, se entiende por dcima de significacin con el nivel de sig
nificacin a ( 0 < a < l , dado) una dcima de H 0 : y0s r 0 con la regin critica K, cuya fun
cin de potencia G satisface la condicin

G(y) = P 1({XV ..., X) e/O a (Ver,) (1)

(ver 11.2, definicin 2). Luego, en una dcima de significacin las probabilidades de co
meter errores de primer tipo (H t se rechaza, aunque H B sea verdadera) no sobrepasan un
nmero prefijado a -el nivel de significacin; errores de segundo tipo (H 0 no se rechaza,
aunque H 0 sea falsa) no se toman en consideracin. Por ello, las dcimas de significacin
se utilizan solo cuando, sobre la base de una muestra concreta (x,, ..., x j de la poblacin
X considerada, debe valorarse si una hiptesis H a sobre la distribucin de esta poblacin
es compatible con la muestra concreta (x,, x), o si se presentan diferencias significa
tivas (aseguradas estadsticamente). En este ltimo caso se rechaza H 0 sobre la base de la
dcima, en el otro nada se puede esgrimir en contra de la hiptesis H v El nivel de sig
nificacin a se debe fijar atendiendo al planteamiento concreto del problema y, en par
ticular, a las consecuencias de un error de primer tipo; aqui no se trata propiamente de
un inters matemtico. (Con frecuencia se eligen en las aplicaciones a = 5 %, a = 2 % o
o = l %.).

189

www.FreeLibros.com
En la determinacin de la regin critica K R" se procede por conveniencia, de modo
que K se describa mediante condiciones impuestas a los valores de un estadgrafo apro
piado T. M s exactamente, si <p es una funcin real definida sobre el conjunto R" y T
denota al estadgrafo ..., X J , T=<Sf{Xv ..., X n), entonces se elige para el nivel de sig
nificacin a prefijado una parte K* (lo menor posible) de la imagen de T, tal que se cum
pla que Py ( T e K * ) ^ a para todo yer,,. Para la regin crtica T= {(* ,, x j:
<p (xv . . . , x j eA!*) se cumple entonces que

Py((X, ..., X J e K ) ^ a para todo y e r o,

es decir, K es una dcim a de significacin con el nivel de significacin a (ver el ejemplo

del epgrafe 11.1 all es T = \ f ^ y Af*= j r : ||> z 1.)


ct0 l jI

La variable aleatoria T se llam a en este contexto variable de dcima. Para fijar la re


gin crtica imagen K*, de m odo que se cumpla que Py ( T e K* ) < a (ye r ), se tiene que co
nocer totalmente la distribucin de la variable de dcima 7" bajo la suposicin de qr H 0
es verdadera , por lo m enos asintticam ente -en el caso de que el tamao de( la muestra
n sea grande (o sea, cuando n IN). Se recomienda utilizar como variables de dcima
aquellas variables aleatorias que se deriven de estim aciones puntuales para el parmetro
desconocido. Como K* determina de forma univoca la regin critica K de H 0, se puede
renunciar a la indicacin explcita de K y designar entonces K* como regin critica o de
rechazo de H 0.
En la mayora de los casos K* es de la forma { t: t< a } , { t : > b } o { t : t < a o t > b ) .

El procedimiento general para realizar una dcima de significacin con el nivel de sig
nificacin a prefijado, se puede esquematizar de la manera siguiente (ver tambin el ejem
plo a continuacin):

0. Condiciones sobre la poblacin

1. Planteamiento de una hiptesis H a .

2. Construccin de una variable de dcima o estadgrafo T.

3. Eleccin de la regin crtica K*.

4. Regla de decisin: Para una muestra concreta existente (x,, ..., xn)se calcula el valor
t del estadgrafo T. Si se cum ple que teK*, entonces se rechaza a H 0, en caso contrario
(ttfK*), nada hay que objetar contra H 0 (fig. 51).

190
www.FreeLibros.com
Los pormenores de una dcima, en particular, la eleccin del nivel de significacin y
de la regin critica, se deben prefijar necesariamente antes de la utilizacin de una mues
tra concreta. En caso contrario, es siempre posible -mediante una eleccin aceptable del
nivel de significacin y o mediante una fijacin ingeniosa de la regin critica- proceder
con la hiptesis segn nuestros deseos , por ejemplo, producir un rechazo si este es el
deseo del que trabaja. Est claro que para un proceder semejante la aplicacin de los m
todos de la Estadstica matemtica pierde todo sentido objetivo.

Consideremos an un ejemplo; con l queremos tambin abordar la estrecha relacin


entre las estimaciones por intervalo de confianza y las dcimas de significacin.
E je m p lo s
0. Supongamos que X posee una distribucin uniforme sobre el intervalo [0,yo] y que
y0> 0 es desconocida.
1. H 0: y0=Y* (y* nmero positivo prefijado).
2. H 0 es seguro falsa si para una muestra concreta (x,, ..., x j de la poblacin X se cum
ple la relacin mx {x,, ..., x}>Y*. Esto sugiere utilizar como variable de dcima la va
riable aleatoria 7"=mx {A'1, ..., X j , donde (Jf,, ..., X J es una muestra matemtica de
tamao n de la poblacin X. Si H 0: y0=y* es verdadera, entonces la funcin de distribucin
F t de la variable de dcima T est dada a travs de _____________________

0 para x < 0,

para 0 < x < y*,

1 para x Y*.

(ver 10.2, ejemplo 2).


3. Establezcamos la regin critica en la forma AT*= { : t < s o t > b } con 0 ^ a<><
la hiptesis Ha ser rechazada si para una muestra concreta (x,, ..., x j se cumple una
de las inecuciones mx {x r ..., x} < a o mx (x ,......x}>>. Ahora deben determinarse
los nmeros a y b de modo que se cumpla que

P r (T e K *) = P t ( T < a ) + P r ( T > b ) = a .

Para esto sean primeramente a, y a 2 nmeros no negativos cualesquiera con a , + a 2= a . D e

resulta que b = \ 1 - a , y*. Para K* = { t : t <c \[a ~ y* a t > \j l - a , y*} se cumple con esto

que Pr ( T e K * ) = a
4. Regla de decisin: Si para una muestra concreta (x,, ..., x j se cumple una de

las inecuaciones mx (x ,, ..., x } < \ a t y* o mx (x,, ..., x } > \ l - a , y*, entonces

H0: y0=Y* se rechaza; en caso contrario nada hay que objetar contra H B sobre la base
de esta dcima.

191

www.FreeLibros.com
Con esto hemos descrito totalmente una dcima de significacin con el nivel de signi
ficacin a para la hiptesis H 0: y0=y* sobre el parmetro y0 de una variable aleatoria dis
tribuida uniformemente sobre el intervalo [ 0, y0 ]. Para la ejercitacin de los conceptos
introducidos en el epigrafe 11.2 retomaremos an este ejemplo ms adelante.

La funcin de potencia Gde esta dcima est dada, como el lector puede comprobar, a travs de

1 para 0 < y < y*,

GM= ( a, para y a , y ^ y i y j 1 - 0 , y,

1 - a -O ) para V 1 - 0 ! y-

Si consideramos la sucesin (K *) de dcimas de significacin con el nivel a y con

K * = { t . t < \ f a , y o t> ^ l - o , y*},o,+o,=o,

entonces se cumple para la sucesin (G) de las funciones de potencia correspondientes la relacin
lim G(y) = 1 ( y * y *), es decir, la sucesin ( K * ) es consistente (ver 11.2, definicin 5).

Escojamos especialmente a ,= 0 y a ,= a , entonces obtenemos a = \ [ a y* y 6= y*. Para la regin critica

X* de la hiptesis H 0: Y=Y*se cumple entonces que K * = { t : f < \ [ a y o i> y*} = :*,*; para la funcin de

potencia G, correspondiente se obtiene que


para 0 < y^ \[a >*,

G,(Y)= a ) para y j a Y* < Y< Y

para y* ^ Y-

Se verifica fcilmente que se cumple G,(y) i G,(y*) =o. La dcima K t es, por tanto, una dcima admisible
(ver 11.2, definicin 3). Escojamos por el contrario a ,= a y a ,= 0 , entonces obtenemos que a = 0 y que

b= l - y*. Para la regin critica A* de la hiptesis W ,: y = Y* se cumple entonces que

K* = { i : t < 0 o f> Y*}= : iC,*; para la funcin de potencia G, correspondiente se obtiene que

r0 paraO < Y < V T T Y*.

C ,W - < i (1 a)
Y* \ / ----------
11 ^ J para \ l - a y * y .

La dcima K \ no es admisible, por ejemplo, se cumple que G \ Z y ' ) =0 <G,(y*) = a. Por lo demis,

las dcimas JCJ y K$ se pueden comparar (en el sentido de la definicin 4 (11.2)), y asi, la dcima re
sulta mejor que la dcima ATJ, es decir, se cumple que G,(y) Gy) para todo y> 0. (El lector debe re
flexionar en cada ocasin acerca de la significacin desde el punto de vista del contenido de estas propo
siciones.)

Como hablamos anunciado, queremos sealar sobre la base de este ejemplo la estrecha
relacin entre las estimaciones por intervalo de confianza y las dcimas de significacin.

www.FreeLibros.com
El intervalo de confianza J(X,........X J con el nivel de confiabilidad 1 - a , indicado en el
ejmplo 1 (10.5),

J(X,........X j = | y" ---------------- - --------------1 c

V1
contiene exactamente, para una muestra concreta (x ,........x), el valor y* para el cual la
hiptesis H0 : y0=y * no se rechaza en la dcima K* anterior con el nivel de significacin

a. (Esto quiere decir que y*e ./(x,......x ,). o sea. -------------- $ y * < ----- -------, con

V 1" 0. Vi"

= m.x{x,........ x}.es equivalente a \ / 1 a, y*, o a t<K*. y esto es lo mis

mo que decir que H 0: y0= y* no se rechaza.


De forma general, si J(X........X J es un intervalo de confianza con el nivel de confia
bilidad 1 - a (0 < a < 1) para un parmetro y. entonces la regla de decjsin siguiente define
una dcima de significacin de H 0:y=y* con el nivel de significacin a: Para una muestra
concreta (.r,.........*) se construye el intervalo de confianza concreto 7(x,...........x j . Si se
cumple que y J (x ,........jc). se rechaza a //, en el otro caso (y * e /(x ,...........x j ) no.

11.4 Ejemplos importantes de dcimas paramtricas


Denominaremos dcima paramtrica a aquella destinada a la verificacin de una hiptesis
sobre un parmetro desconocido de una distribucin de probabilidad por lp dems cono
cida; aqui se utiliza fundamentalmente el conocimiento acerca de la distribucin de pro
babilidad.
A continuacin brindamos algunos ejemplos importantes de dcimas paramtricas. En
ellos se trata de dcimas de significacin (con el nivel de significacin a prefijado,
0 < a < l ) , y se toma por base el esquema general indicado en 11.3. Estas dcimar. para-
mtricas son:
U na dcima para el parmetro n de una poblacin con distribucin normal y varianza
desconocida (dcima t simple).
Una dcima para la igualdad de los valores esperados de dos poblaciones independientes
con distribuciones normales y varianzas iguales (aunque desconocidas) (dcima ( doble).
U na dcima para el parmetro o 1 de una poblacin con distribucin normal y valor es
perado desconocido (dcima de varianza i 1).
Una dcima para la igualdad de las varianzas de dos poblaciones independientes con dis
tribucin normal y valores esperados desconocidos (dcima F ), y por ltimo:
Una dcima para una probabilidad desconocida.

11.4.1 Dcima t simple


0. Supongamos que X es una variable aleatoria con distribucin N (yToj); y, y sean
desconocidas.

193

www.FreeLibros.com
1. // : y0=y* (y* nmero real prefijado).
Esta hiptesis es, tomada rigurosamente, una hiptesis compuesta que se deberia carac-
terizr de forma ms exacta por H 0 : (y0, o) e {(V, a 2) : a 2> 0}. Si a es conocida, entonces
se trata de una hiptesis simple y se utiliza la dcima indicada en el epigrafe 11.1).
2. Para la construccin de la variable de dcima tomemos por base el estadigrafo
1
X = / X, que en 10.4.1 se mostr como estimador puntual adecuado para y0. La

" X
variable ^ n posee, en el caso en que H a sea verdadera, una distribucin / S J\

(ver 9.4, teorema 2). Estimemos el parmetro desconocido ct02 por medio del estimador

puntual S [ = ^ ^ (XX , ) 2 (ver 10.4.2 b)) y utilicem os como variable de dcima la

r~ x y*
variable aleatoria T = y n ------:----------
{s i

que, en el caso en que H 0 sea verdadera, posee una distribucin t con n - 1 grados de li
bertad (ver 9.4, teorema 5) (fig. 52).

Densidad de T, en el caso
que H0 es verdadera
(distribucin t con n - i
grados de libertad)
a
2

Figura 52

3. Establezcamos la regin critica K* en la forma K* = { : | >f*} (ver fig. 52) y deter


minemos f de modo que se cumpla que

Pr(TeK*) = P v.(|7>f*) = 1 - P ,. ( - * < f ) =a.

. a
D e aqu se obtiene para f* el percentil de orden 1 de la distribucin t con n - 1 gra

dos de libertad (<*=fn , , ) y con esto la regin critica K *= j i : | | > |

4. R egla de decisin: Para una muestra concreta (xt, ..., x) se calcula x y j j;, de aqu

r~ X y*
t = \ j n ------ --------- , y se rechaza H 0 : y0- y * si y solo si se cumple que te K * , es decir,
{si

194

www.FreeLibros.com
11.4.2 Dcima t doble
0. Sea X una variable aleatoria con distribucin JVu,,^) y Y una variable aleatoria con distribucin
AT(Uj,t^). Sean'A" y Y variables aleatorias mutuamente independientes; los nm erosn,, n. a | y a; sean
desconocidos y partamos de la condicin (La ltima condicin se verifica, dado el caso, con la
dcima F que se presenta en 11.4.4.) Adems, sean (JC,, ..., X) y (K,........ Y) muestras matemticas
de tamao m y n, respectivamente, de las poblaciones - f y f a que corresponden.
1. tf0: n, = n2
2. Variable de dcima

Yn- X m / m n ( m + n - 2)

V <"-S+(-S. m+n

J ?=- % n
m 7^7 n i=i

sm=- 5 s .- $ (y-yj1
T f n- 1

La variable de dcima T posee, en el caso en que H 0 sea verdadera, una distribucin i con m + n - 2
grados de libertad.
(Esto puede verificarse sin dificultad considerando la independencia de X y Y. utilizando los teoremas
2 y 4 de 9.4 y los teoremas 6 y 7 de 6 .5 .)

3. Regin crtica = : |f| > ^

4. Regla de decisin: Para muestras concretas (x,, ..., x j y (y ,........>) se calcula x m. y. r m y sf ,


de aqu

/ m n (m + h - 2)

\ j ( m - l ) s :x + ( n - l ) s 2
y
Y m+ n

y se rechaza / / 0:u ,= n si y solo si /e J \ es decir, si se cumple que 2., i -

Si los nmeros crf y son conocidos (no necesariamente iguales), se utiliza entonces la variable de
dcima

T=-

V L + fi

que, en el caso en que H sea verdadera, posee una distribucin N(Q, 1), y la regin crtica

K* =

La interrogante ms general acerca de la verificacin de la igualdad de los valores esperados de ms


de dos variables aleatorias independientes con distribucin normal conduce a problemas que pertenecen
a la rama del llamado anlisis de varianza. En el marco de nuestra introduccin^ la Estadstica ma
temtica no podemos adentrarnos en esto.

195

www.FreeLibros.com
11.4.3 Dcima xJ
0; Sea X una variable aleatoria con distribucin Afl(MY*); M y Y# sean desconocidos.
1. H.y,=y*(y* nmero positivo prefijado).
2. Para la construccin de la variable de dcima tomemos por base el estadgrafo

que en 10.4.2 b) se mostr como estimador puntual adecuado para yr La variable alea
toria

T_ (n -l)S l
Y*

posee, segn el teorema 4(9.4), en el caso en que H 0 sea verdadera, una distribucin x*
con n - 1 grados de libertad.
3. Establezcamos la regin critica en la forma K * = { t : t < a o t > b ) (fig. 53) y detera-
a
nemos a y b de modo que se cumpla que P T < a ) = P i&T>b) = , y por consiguiente,
2 q g
que PyTeK*) = a . De aqui se obtiene para a y b los percentiles de orden y 1 -------,
2 2
respectivamente, de la distribucin XJ con n - 1 grados de libertad, osea, _ y
b=%1m Con esto obtenemos la regin critica 1

= . o >X*-_I;I_ .}-

Densidad de T, en el caso
que es verdadera
(distribucin X' con n 1 gndos
de libertad)

* *=(/:/< x
Figura 53

4. Regla de decisin: Para una muestra concreta (x,, ..., x j se calcula de aqui

t = ^ J*, y se rechaza H t :Y0- Y * n y solo si fe A* , es decir, si se cumple t<x* o


y* m~ 'T
> * * ...

11.4.4 Dcima F

0. Sean X y F variables aleatorias con distribuciones y N (m,,jJ), respectivamente. Sean las


variables aleatorias X y Y mutuamente independientes; loa nmeros u,, U* o? y of sean desconocido*.

196

www.FreeLibros.com
Adems, sean (X,........Xm) y ( y ,.......... K) muestras matemticas de tamao m y n. respectivamente,
de las poblaciones X y Y a que corresponde cada una
1. H0 : 07 = a;
2. Dcima de prueba:

con S = ( X - X J K S; = J ( K,- y j 1-
S; m -1 ^ n -1 ^7

La variable de dcima T posee, en el caso en que H 0 sea verdadera, una distribucin F con
(m -1 . n - 1 ) grados de libertad (ver 9.4. teorema 6).
3. Regin crtica:

K*= jt: t< F m i m l. o l > F m t < j: aflu* denota al percentil de orden P

de la distribucin F con ( m -1 . n - 1 ) grados de libertad (fig. 54).


4. Regla de decisin: Para muestras concretas (*,, .... x) y (y,....... y) se calcula m y s2y n, de aqui
Si ni , >
l = y se rechaza Ha \<s\=<r1 si y solo si ie.JP es decir, si se cumple que K F ^ , 0

1>F

Densidad de /. en el caso que H e s verdadera


I distribucin / con/ 1 .11I grados de liber
tad)

K* = \t:t< F
Figura 54

11.4.5 Dcima para una probabilidad desconocida


0. Sea A un suceso aleatorio que se presenta en el marco de un experimento aleatorio
con la probabilidad p 0=P(A)\p0 sea desconocida. Consideremos la variable aleatoria
H en el caso en que A ocurra,
U) en el caso
< en que A ocurra.

Adems, sea (Xv ..., X J una muestra matemtica de tamao n de la poblacin X.


1 . H 0:p = ]P (p* nmero prefijado entre cero y uno).
2. Variable de dcima
M -n p *
T =-
V np*(l - f )
(Luego, la variable aleatoria M indica la frecuencia aleatoria absoluta de A en n repeti
ciones indepedientes del experimento aleatorio tomado por base y posee con esto, en el
caso en que H 0 sea vtrdadera, una distribucin binomial con los parmetros n y p*.) La

197

www.FreeLibros.com
variable de dcima T posee, en el caso en que H0 sea verdadera, asintticamente (es decir,
cuando n <*>) una distribucin JV(0.1), sobre la base del Teorema Integral de De Moivre-
Lapiace.
3. Regin critica: K *= j f : || > z ( j (Se cumple que

lim P / T e K * = lim p J / M np* \


>2, - i
\ V np*(1 -P*) 7
=1 - lim P M -np*

V "P*(1 - P*)

= l-(l-a )= a ,

o sea, K* define para n * una dcima de significacin con el nivel de significacin a.)
4. Regla de decisin: Para una muestra concreta (x, x) ( = n-plo de los nmeros

cero y uno) se halla m x, ( = nmero de la ocurrencia de A en n experimentos), se


i=i
calcula
mnp*
V np*( 1 -p *)

y se rechaza a H 0: p0=p* si y solo si tsK*, es decir, si se cumple que

m -np*

yj np*( 1 -p>)

O b s e r v a c i n . Si n es tan pequea que una aplicacin del Teorema Integral de De


Moivre-Lapiace no nos parece justificada, se construye una dcima de significacin par
tiendo directamente de la distribucin de la variable de dcima /(distribucin binomial
con los parmetros n y p*, en el caso en que Ha:p0 =p* sea verdadera).

11.5 Ejemplos importantes de dcimas no paramtricas


Por una dcima no paramtrica entendemos aquella destinada a la verificacin de una hi
ptesis acerca de una poblacin, para la cual no se toman en consideracin los conoci
mientos sobre el tipo de distribucin de probabilidad de la poblacin considerada.
Como ejemplos importantes de dcimas no paramtricas presentaremos a continuacin,
utilizando de nuevo el esquema general indicado en 11.3, dos dcimas de ajuste (dcima
de ajuste X \ dcima de Kolmogorov), dos dcimas de homogeneidad (dcima de homoge
neidad X2, dcima para dos distribuciones) y una dcima de independencia (dcima de in
dependencia X2).

198

www.FreeLibros.com
Por una dcima de ajuste entendemos, de forma general, una dcima para la hiptesis
de que la verdadera funcin de distribucin F0 verdadera (pero desconocida) de una po
blacin es igual a una funcin de distribucin F* prefijada. Se denomina dcima de ho
mogeneidad a una dcima sobre la igualdad de las distribuciones de probabilidad (dcsco-
nocidas) de varias poblaciones. Por una dcima de independencia se entiende aquella que
sirve para la verificacin de la hiptesis de que dos o ms variables aleatorias conside
radas sean mutuamente independientes.

11.5.1 P c im a de ajuste X 1

1. H n:F0= F , (F* funcin de distribucin prefijada).


2. Construccin de la variable de dcima: Se realiza una particin de la imagen
de X en k intervalos = 4,. |1. j 1............ k -denominados clases- con
- o < , < <*j< ... < <n < t4. i < + <*>, siendo 2) un nmero natural arbitrario. Para una
muestra matemtica (Xv ..., X r) de tamao n de la poblacin considerada, denote M : la
denominada frecuencia de clase (aleatoria) de la clase Ir esto es. el nmero (aleatorio)
de las variables de la muestra X , que estn situadas en l f (Luego se cumple que

^ M = n ) . La variable aleatoria A/; est distribuida binomialmente con los parmetros


j -1
n y p t con p.=F *(; ,) en el caso en que // : F0=F* sea verdadera 0 = 1........ k):

posee asintticamente (es decir, cuando *<>) una distribucin V(0,1)

(ver teorema 1(7.5)). Se puede mostrar que la variable aleatoria (utilizada ms adelante
como variable de dcima)

en el caso en que H 0 sea verdadera, posee asintticamente (es decir, cuando n * ~ ) una
distribucin x1 con k 1 grados de libertad. (Renunciaremos a la demostracin relativa
mente difcil de esto.)
3. Si para una muestra concreta (x,, .... x), las frecuencias de clase m) halladas se di
ferencian notablemente de los valores np esperados, dada la validez de //, entonces la
variable de dcima T aceptar valores grandes y se rechazar a H 0. Por ello establezca
mos K* en la forma K* = {t: t> t * } y fijemos r*, de modo tal, que se cumple que

lim Pp (T e K *) =lim Pp ( T > t * ) =a.

Como T, en el caso en que / / 0:F 0= F sea verdadera, posee asintticamente (es decir,
cuando n ) una distribucin y} con k 1 grados de libertad, se obtiene para t* el per
centil de orden 1 - a de la distribucin x 2 con fc-1 grados de libertad o sea, r*=
y con esto X* = { / : f (fig. 55).
4. Regla de decisin: Para una muestra concreta (x,, ..., x j se halla, con respecto a
la particin en clases elegida, las frecuencias de clase absolutas m {j = 1........ k). se cal
culan las probabilidades p f j = 1, ..., k) fijadas por la hiptesis //, y con esto

199

www.FreeLibros.com
Si se cumple que teK*, o sea, si

2 ------>X _i:, - 0.
7-7 "Pj
entonces se rechaza a H 0:Fa=F *, en el otro caso no.

Densidad de T para n - ~ , en el caso


que Ha es verdadera (distribucin x 2
| con k - 1 grados de libertad)

Figura 55

Para la fuerza de la dcima de ajuste X1 es naturalmente importante la eleccin de la


particin en clases. En la prctica se eligen frecuentemente intervalos de igual longitud
(en algunos casos con excepcin de los intervalos de los extremos). Se ha mostrado con
veniente elevar el nmero de las clases para mayor tamao n de la muestra (por ejemplo,
/c=lgn, k=> yj; aqu se recomienda fijar las clases l, de modo que se cumpla que n p ^ 1
0 = 1 ........ k).

11.5.2 Dcima de Kolmogorov


0. Supongamos que la funcin de distribucin F0 de la poblacin X es continua.
1. HF<=F* (F* tuncin de distribucin continua prefijada).
2. Variable de dcima: T = \[ sup IWn(x) - f * ( x ) |; aqu Wn(x) denota el valor de la funcin de
-* <*<
distribucin emprica de una muestra matemtica de tamao n de la poblacin X en el punto x. La va
riable de dcima T posee para n -* , en el caso en que H a sea verdadera, la funcin de distribucin
K (ver 9.3, teorema 3), dada por

0 para 0,

m -
para y > 0 .

3. Regin crtica: K* = {l:l> y 0 ), aqu ya denota la solucin de la ecuacin AT(y) = l = - a . (La pro
babilidad de que T tome valores > y a converge, en el caso en que // sea verdadera, hacia a para
n <.)
4. Regla de decisin: Para una muestra concreta (jc,........x) se halla la funcin de distribucin em

prica concreta w . correspondiente, se calcula ( = V.......sup |w(x) - / ( x ) |y se rechaza a H .:F 0=F*


-o < -
si y solo si e/C*, es decir, si se cumple que

V* sup |w(jc) -F * (x ) | .

200

www.FreeLibros.com
11.5.3 Dcima de homogeneidad y}
0. Supongamos que las variables aleatorias X y Y son independientes. Denotemos la
funcin de distribucin (desconocida) de X y Y con F0 y Gv respectivamente.
1. H0:F0= G 0.
2. Construccin de la variable de dcima: Se realiza una particin de la imagen
(cmun) de las variables aleatorias X y Y en k intervalos disjuntos fj = 1, ..., k)\ aqu
fc(> 2) es un nmero natural arbitrario. S M, denota la frecuencia de clase (aleatoria) de
la clase /,, para una muestra matemtica (A',, ..., X J de tamao m de la poblacin X y
N la de la clase /, para una muestra matemtica (K,....... y ) de tamao n de la poblacin
Y, entonces la variable de dcima

posee, en en el caso en que H 0 sea verdadera, asintticamente (es decir, cuando m * ~


y n + <*>) una distribucin x1 con k \ grados de libertad.
3. Si para muestras concretas (x,, ..., x j y (y,, .... y) las frecuencias de clase relativas

y 0=1 > k) se diferencian notablemente, entonces T aceptar valores grandes


m n
y se rechazar a H 0. Por ello, fijemos K* en la forma K* = {t : f >XLi;i-J- (La probabili
dad del suceso (TeK*) converge hacia a cuando m ~ y n - t , dada la validez de H.
(fig. 55.)
4. Regla de decisin: Para muestras concretas (x,, ..., x j y (y,, ..., y j se halla con res
pecto a la particin en clases elegida las frecuencias de clase absolutas m) y
n f j = l , ..., k), se calcula de aqu

y se rechaza a H<: F0= G 0 si y solo si se cumple que t > t \ _ _a .

11.5.4 Dcima para dos distribuciones


La dcima para dos distribuciones se puede realizar rpidamente, es una denominada d
cima rpida, con objeto de verificar la hiptesis H 0:F0= G 0 sobre la igualdad de las fun
ciones de distribucin desconocidas, supuestas continuas, de dos poblaciones independien
tes X y Y, sobre la base de muestras de igual tamao de estas poblaciones. En especial
se aplica cuando se espera que F0^ G 0. En principio, la dcima para dos distribuciones es
una dcima para una probabilidad desconocida (ver 11.4.5). En el caso en que H 0 sea ver

dadera, el suceso aleatorio A = ( X - Y < 0) < y) posee la probabilidad . Se verifica


1 2
entonces la hiptesis H 0 : P(A) = (por ejemplo, con la prueba indicada en 11 4.51 y se
2
rechaza a H 0, si H se rechaza.

201

www.FreeLibros.com
1 1 .5 .5 D c i m a d e i n d e p e n d e n c i a x 2

El punto de partida es una poblacin bidimensional (.V. K). En la explicacin de la dcima


de independencia x:. que se denomina tambin dcima de independencia en tablas de con
tingencia, queremos limitarnos para una mayor sencillez al caso de variables aleatorias
discretas X y Y y aceptar que X \ Y toman los valores 1....... r y 1.........s , respectivamente.
1. // : X y Y son mutuamente independientes (equivalente a esto es la validez de la re
lacin
p lk=P(X=i. Y - = k ) = P ( X = i ) P ( Y = k ) = p , -Pt

para i - 1........ r y fc = 1, ..., s (ver 6.4, teorema 1).


2. Construccin de la variable de dcima. Sea ((X,. Y , )....... (X. Yn)) una muestra ma
temtica de tamao n de la poblacin (bidimensional) (X, y ) . Denotemos con N lk el nme
ro (aleatorio) de las variables de la muestra, cuya primera componente es igual a i y la
segunda a k. Adems, sea

(Se cumple entonces que

Consideremos la variable aleatoria

Se puede mostrar qae T posee, en el caso en que H0 sea verdadera, asintticamente (es
decir, cuando n ) una distribucin x : con ( r - l ) ( \ 1) grados de libertad.__________
3. Regin critica: K* = { t : i > Z(2r l)(_1);1_a} (La probabilidad del suceso (TeK*) converge
hacia a cuando n o, dada la validez de H .
4. Regla de decisin: Para una muestra concreta ((x,, y ,) , ..., (x, y j ) se hallan los n
meros nlk ( = nmero de los elementos (i,k) en la muestra),

/U1
se calcula de aqui

y se rechaza a H 0 si y solo si se cumple que t>% (Lim-Di-c


Pau la realizacin prctica de esta dcima se recomienda la representacin de la mues
tra concreta en una llamada tabla de contingencia, que contiene todos los valores num
ricos necesarios para la dcima.

202

www.FreeLibros.com
entradas o tablas de 2 x 2)

11.6 Ejemplo de aplicacin


En 286 aspirantes para estudiar M atemtica fueron investigadas dos caracteristicas, la
calificacin X del examen de ingreso y la nota Y de la prueba de nivel en la asignatura
Matemtica. El resultado est agrupado en la tabla de frecuencia siguiente (tabla de con
tingencia); posteriormente aclararemos la significacin de los nmeros indicados en p a
rntesis y corchetes:

203

www.FreeLibros.com
Concebimos X y Y como variables aleatorias (discretas) y queremos verificar la hip
tesis H 0 : X y Y son mutuamente independientes, con la prueba de independencia '(} (tra
tada en i 1.5.5) con el nivel de significacin a = 5%. Para nuestro ejemplo se cumple que
r = 4 , j= 3 y, por tanto, ( r - l ) ( - l ) = ( 4 - l ) ( 3 - 1 ) = 6 . Como el percentil de orden
1 a = 0 ,9 5 de la distribucin y} con 6 grados de libertad es igual a 2,6, se obtiene para
la regin crtica, K* = {t:t> 12,6}. Calculemos ahora el valor t,


22 -
i.".k
n

de la variable de dcima T para nuestro ejemplo.


Se cumple que = 2 8 6 , r = 4, 5 = 3 . Los nmeros nk, , y n k se deben tomar directamen
te de la tabla de contingencia indicada anteriormente. En esta tabla hemos sealado den

tro de los parntesis los nmeros y dentro de los corchetes los nmeros
n n n
| n . - -|(/= 1 , 2, 3, 4,; fc = l , 2, 3). Con esto se obtiene

13,62* 10,87a 2,7 4 2 11a 6a 5


~ 26,38 19,87 2,74 77 58 8

6 ,5 4 2 7,0 5 J 0 ,5 1 J 18,08J 9 ,8 3 J 8 ,2 5 J
+ " + 1 - + 1 + + ........
14,54 10,95 1,51 36*08 27,17 3,75

= 7 ,0 3 + 5 ,9 4 + 2 ,7 4 + 1 ,5 7 + 0 ,6 2 + 3 ,1 2 + 2 ,9 4 + 4 ,5 4 + 0 ,1 7 + 9 ,0 6 + 3 ,5 6 + 18,16
=59,45
Por consiguiente, el valor t est situado en la regin critica y rechazamos la hiptesis
H0 de que la calificacin del examen de ingreso para estudiar Matemtica y la nota de la
prueba de nivel en la asignatura Matemtica sean mutuamente independientes. (Al mismo
resultado llegaramos tambin utilizando el nivel de significacin a = 1%; se cumple que
X l .* = 1 6 ,8 < 5 9 ,4 5 .)

204

www.FreeLibros.com
12. Tablas de algunas distribuciones importantes

Las tablas sobre las distribuciones binomial, de Poisson y normal, dadas en los epgrafes
12.1, 12.2 y 12.3, ofrecen una visin numrica sobre estas distribuciones de probabilidad.
Por el contrario, las tablas dadas en los epgrafes 12.4, 12.5, y 12.6 para las distribucio
nes de prueba de la Estadstica matemtica (distribuciones x1, t y F) contienen solamente
algunos percentiles, los cuales deben ser suficientes para la realizacin prctica de las ms
importantes estimaciones por intervalo de confianza y dcimas de significacin tratadas
en este libro. La utilizacin de las tablas se demostrar con un ejemplo.
Se puede encontrar en otra bibliografa tablas ms completas para la realizacin de pro
cedimientos de la Estadstica matemtica.

12.1 Tabla de la distribucin binomial


La tabla 1 contiene probabilidades de la distribucin binomial,

P {X=k)-b(k; ^ p k (1 -/>)"*, k = 0, 1, ..., n,

para n = l, 2......... 10, 15. 20 y algunos 0,50. Los lugares vacos significan aqui
b(k; n,p) <0,0005.
Para p > 0,50 se utiliza la relacin b(k; n.p) = b ( n - k ; n , 1 p) (ver 4.5, teorema 1, fr-
mula (4)).
Para n grandes y p pequeos con n p ^ 20, se iguala n p = k y se toma como base la re
lacin b (k;n. p) ~ p (k;X) , derivada del teorema limite de Poisson (ver 4.7, teorema 3 y
frmula (9)). Para esto se toman los nmeros p(k;k) de la tabla de la distribucin de Pois
son (ver 12.2).
Para n grandes se recomienda la aproximacin de la distribucin binomial a travs de
la distribucin normal sobre la base del Teorema Integral de De M oivre-Lapiace (ver 7.5,
teorema 1 y frmula ( 2 ) ).

205

www.FreeLibros.com
Tabla 1

Ejemplo: b(3; 8 , 0,30) =0 254

n k p = 0,01 0,02 0,05 0,10 0,15 0,20 0,25 0,30 0,40 0,50

1 0 0,990 0,980 0,950 0,900 0,850 0,800 0,750 0,700 0,600 0,500
1 0,010 0,020 0,050 0,100 0,150 0,200 0,250 0,300 0,400 0,500

2 0 0,980 0,960 0,902 0,810 0,722 0,640 0,562 0,490 0,360 0,250
1 0,020 0,039 0,095 0,180 0,255 0,320 0,375 0,420 0,480 0,500
2 0,002 0,010 0,022 0,040 0,062 0,090 0,160 0,250

3 0 0,970 0,941 0,857 0,729 0,614 0,512 0,422 0,343 0,216 0,125
1 0,029 0,058 0,135 0,243 0,325 0,384 0,422 0,441 0,432 0,375
2 0,001 0,007 0,027 0,057 0,096 0,141 0,189 0,288 0,375
3 0,001 0,003 0,008 0,016 0,027 0,064 0,125

4 0 0,961 0,922 0,815 0,656 0,522 0,410 0,316 0,240 0,130 0,062
1 0,039 0,075 0,171 0.292 0,368 0,410 0,422 0,412 0,346 0,250
2 u ,001 0,002 0,014 0,049 0,098 0,154 0 ,211 0,265 0,346 0,375
3 0,004 0,011 0,026 0,047 0,076 0,154 0,250
4 0,001 0,002 0,004 0,008 0,026 0,062

5 0 0,951 0,904 0,774 0,590 0,444 0,328 0,237 0,168 0,078 0,031
1 0,048 0,092 0,204 0,328 0,392 0,410 0,396 0,360 0,259 0,156
2 0,001 0,004 0,021 0,073 0,138 0,205 0,264 0,309 0,346 0,312
3 0,001 0,008 0,024 0,051 0,088 0,132 0,230 0,312
4 0,002 0,006 0,015 0,028 0,077 0,156
5 0,001 0,002 0,010 0,031

6 0 0,941 0.886 0,735 0,531 0,377 0,262 0,178 0,118 0,047 0,016
1 0,057 0,108 0,232 0,354 0,399 0,393 0,356 0.303 0,187 0,094
2 0,001 0,006 0,031 0,098 0,176 0,246 0,297 0,324 0,311 0,234
3 0,002 0.015 0,041 0,082 0,132 0,158 0,276 0,312
4 0,001 0,005 0,015 0,033 0,060 OJ38 0,234
5 0,002 0,004 0,010 0,037 0,094
6 0,001 0,004 0,016

7 0 0,932 0,868 0,698 0,478 0,321 0,210 0,133 0,082 0,028 0,008
1 0,066 0,124 0,257 0,372 0,396 0,367 0,311 0,247 0,131 0,055
2 0,002 0,008 0,041 0,124 0,210 0,275 0,311 0,318 0,261 0,164
3 0,004 0,023 0,062 0,115 0.173 0,227 0,290 0,273
4 0.003 0,011 0,029 0,058 0,097 0,194 0,273
5 0.001 0,004 0,012 0,025 0,077 0,164
6 0.001 0,004 0,017 0,055
7 0,002 0,008

206

www.FreeLibros.com
n k p = 0.01 0,02 0.05 0.10 0 ,15 0.20 0.2 5 0.3 0 0 .4 0 0 ,5 0

8 0 0.923 0.851 0,663 0.4 3 0 0.272 0 .168 0.100 0.058 0.017 0 ,004
1 0.075 0.139 0,27 9 0.383 0.385 0 .336 0 .2 6 7 0.198 0.090 0.031
2 0.003 0.010 0.051 0.149 0.238 0.294 0.311 0.296 0.209 0 ,109
3 0.005 0.033 0.0 8 4 0.147 0.2 0 8 0,254 0.279 0 .219
4 0.005 0.018 0.0 4 6 0.0 8 7 0.136 0.232 0.273
5 0.003 0.009 0.023 0.047 0.124 0 .219
6 0.001 0 .0 0 4 0.010 0.041 0 .109
7 0,001 0.008 0.031
8 0.001 0.004

9 0 0.914 0.834 0,63 0 0.387 0.2 3 2 0.134 0 075 0,0 4 0 0.010 0.002
1 0,083 0,153 0,299 0.387 0,368 0.302 0.2 2 5 0.156 0.0 6 0 0.018
2 0.003 0.013 0.063 0,172 0.2 6 0 0,302 0.3 0 0 0.267 0.161 0 .0 7 0
3 0.001 0.008 0.045 0,1 0 7 0,176 0 ,2 3 4 0.267 0.251 0 .164
4 0,001 0,007 0.028 0.066 0.117 0.172 0.251 0.2 4 6
5 0.001 0.005 0.017 0 .0 3 9 0.074 0 .167 0.246
6 0.001 0,003 0 .0 0 9 0.021 0 .074 0.164
7 0.001 0,0 0 4 0.021 0.0 7 0
8 0 .004 0,018
9 0,002

10 0 0,904 0.817 0,599 0.3 4 9 0.197 0,107 0.0 5 6 0.028 0 .006 0.001
1 0.091 0,167 0.315 0.387 0.347 0.268 0.1 8 8 0 .12 1 0.0 4 0 0.010
2 0,004 0.015 0.075 0,1 9 4 0.2 7 6 0.3 0 2 0.2 8 2 0.233 0 .12 1 0.0 4 4
3 0,001 0,010 0.057 0.1 3 0 0,201 0 .2 5 0 0 .267 0.215 0.117
4 0.001 0.011 0 .0 4 0 0.088 0 .1 4 6 0.200 0.251 0.205
5 0.001 0.008 0,0 2 6 0.058 0,103 0,201 0,2 4 6
6 0.001 0.006 0 .0 1 6 0 .037 0. 1 1 1 0.205
7 0.001 0 .003 0.0 0 9 0.042 0.117
8 0.001 0.011 0.044
9 0.002 0.010
10 0.001

5 0 0.860 0.739 0.463 0.206 0,087 0.035 0 .013 0.005 0.000 0.000
r 0.130 0,226 0,366 0.343 0.231 0.1 3 2 0.0 6 7 0.031 0.005 0.000
2 0.009 0.032 0.135 0,267 0.286 0.231 0.1 5 6 0.092 0.022 0.003
3 0.003 0,031 0.1 2 9 0.218 0.2 5 0 0 .2 2 5 0 .170 0.063 0.014
4 0.005 0.043 0.1 1 6 0.188 0 .225 0 .219 0.127 0.042
5 0.001 0.010 0.045 0.103 0 .165 0 ,206 0.186 0.092
6 0.002 0.013 0.043 0 .092 0 .147 0.207 0.153
7 0.003 0.014 0 .0 3 9 0.081 0.177 0.1 9 6
8 0.001 0.1X13 0 .013 0.035 0.118 0.196
9 0.001 . 0 .003 0.012 0.061 0.153
10 0.001 0.003 0.024 0.0 9 2
11 0.001 0,007 0.042
12 0,002 0.014
13 0.003
14
15

207

www.FreeLibros.com
Tabla I (continuacin)

n k p = 0,01 0.02 0.05 0.10 0.15 0,20 0.25 0.30 0.40 0.50

20 0 0.818 0.668 0,358 0.122 0,039 0,012 0,003 0.001 0.000 0.000
1 0.165 0.272 0.377 0,270 0.137 0,058 0.021 0.007 0,000 0.000
2 0.016 0.053 0.189 0.285 0,229 0.137 0.067 0.028 0.003 0,000
3 0.001 0.006 0.060 0,190 0,243 0.205 0,134 0.072 0.012 0,001
4 0,001 0.013 0.090 0.182 0.218 0.190 0,130 0,035 0,005
5 0.002 0,032 0,103 0.175 0.202 0.179 0.075 0,015
6 0.009 0,045 0.109 0.169 0,192 0.124 0,037
7 0.002 0.016 0.055 0 .112 0.164 0.166 0,074
8 0,005 0.022 0.061 0,114 0.180 0,120
9 0.001 0,007 0.027 0,065 0,160 0,160
10 0.002 0.010 0,031 0,117 0.176
11 0.003 0,012 0,071 0.160
12 0,001 0,004 0,035 0,120
13 0,001 0,015 0,074
14 0,005 0,037
15 0,001 0,015
16 0,005
17 0,001
18
19
20

12.2 Tabla de distribucin de Poisson


En la tabla 2 se recogen probabilidades de la distribucin de Poisson

i*
P ( X = k ) = p { k; X) = e - \ k = 0 , 1, 2........................
k\

para algunas 20. Los lugares libres significan que p(k : X) <0,00005.

Tabla 2

Ejemplo: p(J ; 2,0) = 0,1804

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8

0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4493


1 0,0905 0,1637 0,2222 0,2681 0,3033 0,3293 0,3476 0,3595
2 0,0045 0,0164 0,0333 0,0536 0,0758 0,0988 0,1217 0,1438
3 0,0002 0,0011 0,0033 0,0072 0,0126 0,0198 0,0284 0,0383
4 0,0001 0,0003 0,0007 0,0016 0,0030 0,0050 0,0077
5 0,0001 0,0002 0,0004 0,0007 0,0012
6 0,0001 0,0002

208

www.FreeLibros.com
k
0.9 1.0 1.5 2.0 2.5 3.0 3.5 4,0

0 0,4066 0.3679 0.2231 0.1353 0.0821 0.0498 0,3020 0,0183


1 0.3659 0.3679 0.3347 0.2707 0.2052 0.1494 0,1507 0,0733
2 0.1647 0.1839 0.2510 0.2707 0.2565 0,2240 0,1850 0,1465
3 0.0494 0.0613 0.1255 0.1804 0.2138 0.2240 0,2158 0,1954
4 0.0111 0,0153 0.0471 0,0902 0,1336 0.1680 0,1888 0,1954
5 0.0020 0,0031 0,0141 0.0361 0,0668 0,1008 0,1322 0,1563
6 0.0003 0,0005 0,0035 0,0120 0,0278 0,0504 0,0771 0,1042
7 0.0001 0,0008 0,0034 0,0099 0,0216 0,0385 0,0595
8 0,0001 0,0009 0,0031 0,0081 0,0169 0,0298
9 0,0002 0,0009 0,0027 0,0066 0,0132
10 0,0002 0,0008 0,0023 0,0053
11 0,0002 0,0007 0,0019
12 0,0001 0,0002 0.0006
13 0,0001 0,0002
14 0,0001

4,5 5,0 6,0 7,0 8,0 9,0 10,0

0 0,0111 0,0067 0,0025 0,0009 0,0003 0,0001


1 0,0500 0,0337 0,0149 0,0064 0,0027 0,0011 0,0005
2 0,1125 0,0842 0,0446 0,0223 0,0107 0,0050 0,0023
3 0,1687 0,1404 0,0892 0,0521 0,0286 0,0150 0,0076
4 0,1898 0,1755 0,1339 0,0912 0,0573 0,0337 0,0189
5 0,1708 0,1755 0,1606 0,1277 0,0916 1,0607 0,0378
6 0,1281 0,1462 0,1606 0,1490 0,1221 0,0911 0,0631
7 0,0824 0,1044 0,1377 0,1490 0,1396 0,1171 0,0901
8 0.0463 0.0653 0.1033 0.1304 0.1396 0.1318 0.1126
9 0,0232 0,0363 0,0688 0,1014 0,1241 0,1318 0,1251
10 0,0104 0,0181 0,0413 0,0710 0,0993 0,1186 0,1251
11 0,0043 0,0082 0,0225 0,0452 0,0722 0,0970 0,1137
12 0,0016 0,0034 0,0113 0,0264 0,0481 0,0728 0,0948
13 0,0006 0,0013 0,0052 0,0142 0 , 02 ' 3 0,0504 0,0729
14 0,0002 0,0005 0,0022 0,0071 0,0169 0,0324 0,0521
15 0,0001 0,0002 0,0009 0,0033 0,0090 0,0194 0,0347
16 0,0003 0,0014 0,0045 0,0109 0,0217
17 0,0001 0,0006 0,0021 0,0058 0,0128
18 0,0002 0,0009 0,0029 0,0071
19 0,0001 0,0004 0,0014 0,0037
20 0,0002 0,0006 0,0019
21 0,0001 0,0003 0,0009
22 0,0001 0,0004
23 0,0002
24 0,0001

209

www.FreeLibros.com
I 'u h h i k o n lin u .K i n l

k
12 14 16 18 20

1 0.0001
2 0.0004 0.0001
3
0.0018 0.0004 0.0001
4
0.0053 0.0013 0.0003 0.0001
5
0.0127 0.0037 0.0010 0.0002
6 0.0255 0.0087 0.0026 0.0007 0.0002
7 0.0437 0.0174 0.0060 0.0019 0.0005
8 0.0655 0.0304 0.0120 0.0042 0.0013
9 0.0874 0.04 3 0.0213 0.0083 0.0029
10 0.1048 0.0663 0.0341 0.0150 0.0059
11 0.1144 0.0844 0.0496 0.0245 0.0106
12 0.1144 0.0984 0.0661 0.0368 0.0176
13 0.1055 0.1060 0.0814 0.0509 0.0271
14 0.0905 0.1060 0.0930 0.0655 0.0387
15 0.0724 0.0989 0.0992 0.0786 0.0517
16 0.0543 0.0866 0.0992 0.0884 0.0645
17 0.0383 0.0713 0.0934 0.0936 0.0760
18 0.0256 0.0554 0.0830 0.0936 0.0844
19 .0161 0.0409 0.0699 0.0887 0.0888
20 0.0097 0.0286 0.0559 0.0798
21 0.0055 0.0191 0.0426 0.0684 o .o W
22 0.0030 0.0121 0.0310 0.0559 0.0769
23 0.0016 0.0074 0.0216 0.0438 0.0669
24 0.0008 0.0043 0.0144 0.0328 0.0557
25 0.0004 0.0024 0.0092 0.0237 0.0445
26 0.0002 0.0013 0.0057 O'0164 0.0343
27 0.0001 0.0007 0.0033 0.0109 0.0254
28 0.0003 0.0019 0.0070 0.0*81
29 0.0002 0.0011 0.0044 0 .f2 5
30 0.0001 0.0006 0.0026 0.0084
31 0.002 0.0015 0.0053
32 0.0001 0.0009 0.0034
33 0.0001 0.0005 0.0020
34 0.0003 0.0013
35 0.0001 0.0007
36 0.0004
37 0.0002
38 0.0001

210

www.FreeLibros.com
12.3 Tabla de la distribucin normal
La tabla 3 da una panorm ica sobre la funcin de distribucin > de la distribucin nor
mal estandarizada

<P(x)= < p = e 'd t.


J . y2n

p ara 0 ^ 3,9. Para x < 0 se utiliza la relacin O(jc) =1 (ver 5.4 (15)).

((r ,_i ) - ~ )

En la tabla siguiente se agrupan algunos percentiles de la distribucin norm al estanda


rizada, los cuales se utilizan frecuentem ente en la realizacin prctica de las estimaciones
por intervalo de confianza, indicadas en los epgrafes 10.6.1 a) y 10.6.2, y de las dcimas
de significacin, descritas en los epgrafes 11.1 y 11.4.5.

211

www.FreeLibros.com
Tabla 3

Ejemplo: ,43) =0,923642

X 0,00 0,01 0,02 0,03 0,04

0,0 0,500000 0,503989 0,507978 0,511966 0,515953


0,1 0,539828 0,543795 0,547758 0,551717 0,555670
0,2 0,579260 0,583166 0,587064 0,590954 0,594835
0,3 0,617911 0,621720 0,625516 0,629300 0,633072
0,4 0,655422 0,659097 0,662757 0,666402 0,670031
o.s 0,691462 0,694974 0,698468 0,701944 0,705402
0.6 0,725747 0,729069 0,732371 0,735653 0,738914
0,7 0,758036 0,761148 0,764238 0,767305 0,770350
0,8 0,788145 0,791030 0,793892 0,796731 0,799546
0,9 0,815940 0,818589 0,821214 0,823814 0,826391
1,0 0,841345 0,843752 0,846136 0,848495 0,850830
1.1 0,864334 0,866500 0,868643 0,870762 0,872857
1.2 0,884930 0,886861 0,888768 0,890651 0,892512
1.3 0,903200 0,904902 0,906582 0,908241 0,909877
1.4 0,919243 0,920730 0,922196 0,923642 0,925066
1,5 0,933193 0,934478 0,935744 0,936992 0,938220
1.6 0.9452Q1 0,946301 0,947384 0,948449 0,949497
1,7 0,955434 0,956367 0,957284 0,958185 0,959070
1.8 0,964070 0,964852 0,965620 0,966375 0,967116
1.9 0,971283 0,971933 0,972571 0,973197 0,973810
2,0 0,977250 0,977784 0,978308 0,978822 0,979325
2,1 0,982136 0,982571 0,982997 0,983414 0,983823
2,2 0,986097 0,986447 0,986791 0,987126 0,987454
2,3 0,989276 0,989556 0,989830 0,990097 0,990358
2,4 0,991802 0,992024 0,992240 0,992451 0,992656
2,5 0,993790 0,993963 0,994132 0,994297 0,994457
2.6 0,995339 0,995473 0,995604 0,995731 0,995855
2,7 0,996533 0,996636 0,996736 0,996833 0,996928
2.0 U,777443 U,777323 U, *77377 u,777073 0,777744
2,9 0,998134 0,998193 0,998250 0,998305 0,998359

0,0 0,1 0,2 0,3 0,4

3,0 0,998650 0,999032 0,999313 0,999517 0,999663

212

www.FreeLibros.com
X 0,05 0.06 0,07 0,08 0,09

0,0 0.519938 0,523922 0,527903 0,531881 0,535856


0.1 0,559618 0,563560 0,567495 0,571424 0,575345
0,2 0,598706 0,602568 0,606420 0,610261 0,614092
0,3 0,636831 0,640576 0,644309 0,648027 0,651732
0,4 0.673645 0,677242 0,680822 0,684386 0,687933
0,5 0,708840 0,712260 0,715661 0,719043 0,722405
0.6 0,742154 0,745373 0,748571 0,751748 0,754903
0.7 0,773373 0,776373 0,779350 0,872305 0,785236
0.8 0,802338 0,805106 0,807850 0,810570 0,813267
0.9 0,828944 0,831472 0,833977 0,836457 0,838913
1.0 0,853141 0,855428 0,857690 0,859929 0,862143
1,1 0,874928 0,876976 0,879000 0,881000 0,882977
1.2 0,894350 0,896165 0,897958 0,899727 0,901475
1,3 0,911492 0,913085 0,914656 0,916207 0,917736
1.4 0,926471 0,927855 0,929219 0,930563 0,931889
1,5 0,939429 0,940620 0,941792 0,942947 0,944083
1,6 0,950528 0,951543 0,952540 0,953521 0,954486
1,7 0,959941 0,960796 0,961636 0,962462 0.963273
1,8 0,967843 0,968557 0,969258 0,969946 0,970621
1.9 0,974412 0,975002 0,975581 0,976148 0,976704
2.0 0.979818 0,980301 0,980774 0,981237 0,981691
2,1 0,984222 0,984614 0,984997 0,985371 0,985738
2,2 0,987776 0,988089 0,988396 0,988696 0,988989
2,3 0,990613 0,990862 0,991106 0,991344 0,991576
2,4 0,992857 0,993053 0993244 0,993431 0,993613
2,5 0,994614 0,994766 0,994915 0,995060 0,995201
2,6 0,995975 0,996093 0,996207 0,996319 0,996427
2,7 0,997020 0,997110 0,997197 0,997282 0,997365
2,8 0,997814 0,997882 0,997948 0,998012 0,998074
2.9 0,998411 0,998462 0,998511 0,998559 0,998605

0.5 0,6 0.7 0.8 0.9

3,0 0,999767 0,999841 0,999892 0,999928 0,999952

213

www.FreeLibros.com
12.4 Tabla de la distribucin x 2
La tabla 4 contiene algunos porcentiles xi,r de la distribucin /' con m grados de libertad
(ver 5.6, definicin 2) p ara m = l. 2...... 30. 40...... 100. los cuales se u tili/an frecuente
m ente en la realizacin p rctica de las estimaciones por in ic r\a lo de confianza, indicadas
en los epgrafes 10.6.1 (c) y (d). \ de las dcimas de significacin descritas en los epgrafes
11.4.3, 11.5.1, 11.5.3 y 11.5.5 (dcima de dispersin /'. dcima de ajuste / dci ma de
homogeneidad x !- dcima de independencia x 2).

Tahla 4

E jem p lo: 12.59

p = 0.99 0 .975 0.9 5 0.05 0.025 0.01


m
(1 - / > = 0 . 0 1 ) (0.025) (0.05) (0.95) (0.975) (0.99)

1 6 .635 5.024 3.841 0 .0 0 3 9 0.0 0 1 0 0 .0002


2 9.210 7.378 5.991 0.1026 0.0506 0.0201
3 11.34 9.348 7.815 0.3518 0.2 1 5 8 0.1148
4 13.28 11.14 9 .488 0.7107 0.4844 0.2971
5 15.09 12.83 11.07 1.145 0.8312 0 .5 5 4 3

6 16 .8 1 14.45 12.59 1.635 1.237 0.8721


7 18.48 16 .01 14.07 2 .167 1.690 1.239
8 2 0.09 17 53 15.51 2.733 2.180 1.646
9 21.67 19.02 16.92 3 .325 2 .700 2.088
10 23.21 20.48 ,18.31 3.940 3 .247 2.558

214

www.FreeLibros.com
r - 0.99 0.475 0.45 0.05 0 . 0 :5 0.01
|I-/> = 0 .0 I| < 0.025t (0.05 1 '( il.9 5 l (0.975 (0.99l-

11 19.68 4.575 3 .816 3.053


12 26.22 2 3 .34 21.03 5 .2 2 6 4 .404 3.571
13 27.64 24.-74 22.36 5.8 9 2 5 .009 4 .1 0 7
14 .I 4 26 .1 2 23.68 6.571 5 .629 4 .660
15 30.58 2 .49 2 5 . (K) 7.261 6 .2 6 2 5.229

16 32.00 2 8 . X5 26.30 7.9 6 2 6 .908 5.812


H 3 3.41 '0 .1 9 27.59 8 .672 7.5 6 4 6.408
1K 34.81 31.53 28 .8 7 9.390 8 .231 7.<)|5
19 3 6.14 .12.85 30 .1 4 10.12 8 .4 0 '.6 3 3
20 3 '.5 34.17 31.41 1 0.85 9.591 8.260

3 8.93 3 5 .48 3 2 . 6 11.59 10 2 8 8 .8^7


4 0.29 36.'8 33 .9 2 12.34 10.98 9 .5 4 2
23 4 1.64 38.08 35.17 1. 1.0 9 11.64 10.20
24 42.48 34.36 36 .4 2 1 3.85 12 .4 0 10.86
44.31 4 0 .65 3 1 .65 14.61 1 3.12 1 1.52

4 5.64 41.42 38.84 15.38 13 8 4 12.20


4 6.46 4 3.14 4 0.11 16.15 14.57 12.88
28 48.28 4 4 .4 6 41.34 16.93 15.31 1 3.56
29 49.59 4 5.72 42.56 17.71 16.05 14.26
30 50 .8 9 4 6 .98 4 3.17 18.49 16 .7 9 14.95

40 6 3.69 5 9 .34 5 5 .76 26.51 24.43 22 .1 6


50 76.15 71.42 67 .5 0 3 4 .76 3 2.36 2 9.71
60 88 .3 8 83.3 0 79.08 4 3.19 4 0.48 37.48
70 100.42 95.02 9 0 .53 51.74 48.76 4 5.44
80 I 12.31 1 06.63 101.88 60.39 57.15 53.54

90 124.12 118 .1 4 1 1 3.14 6 9.13 6 5 .65 6 1 .75


100 1 - 5 . SI 124.56 124.34 77 .9 3 74.22 70.06

215
________ 1
www.FreeLibros.com
12.5 Tabla de la distribucin t
La tabla 5 contiene algunos percentiles tmf de la distribucin t con m grados de libertad
(ver 5.6, definicin 3) para m = 1, 2, 30, 40, 60, 120, , los cuales se utilizan frecuen
temente en la realizacin prctica de las estim aciones por intervalo de confianza, indica
das en el epigrafe 10.6.1b), y en las dcimas de significacin descritas en los epgrafes
11.4.1 y 11.4.2 (dcima t simple, dcima t doble).

Tabla 5

Ejemplo: ,,= 2 ,1 1 0

/>= 0,9 0,95 0,975 0 ,9 9 0 ,995


m
(1 - p = 0 , l ) (0,05) (0,025) (0 , 0 1 ) (0,005)

1 3,078 6 ,314 12,706 31,821 63,657


2 1,886 2,920 4,303 6,965 9,925
3 1,638 2,353 3,182 4,541 5,841
4 1,533 2 ,132 2,776 3,747 4 ,604
5 1,476 2,015 2,571 3,365 4 ,032

6 1,440 1,943 2,447 3,143 3,707


7 1,415 1,895 2,365 2,998 3,499
8 1,397 1,860 2,306 2,896 3,355
9 1,383 1,833 2,262 2,821 3,250
10 1,372 1,812 2,228 2,764 3,169

11 1,363 1,796 2,201 2,718 3,106


12 1,356 1,782 2,179 2,681 3,055
13 1,350 1,771 2,160 2,650 3,012
14 1,345 1,761 2,145 2,624 2,977
15 1,341 1,753 2,131 2,602 2,947

16 1,337 1,746 2,120 2,583 2,921


17 1,333 1,740 2 ,110 2,567 2,898
18 1,330 1,734 2,101 2,552 2,878
19 1,328 1,729 2,093 2,539 2,861
20 1,325 1,725 2,086 2,528 2,845

216

www.FreeLibros.com
p= 0,9 0.95 0,975 0.99 0.995
m
(1 - /> = 0 , 1 ) (0.05) (0,025) (0 . 0 1 ) (0.005)

21 1,323 1,721 2,080 2.518 2.831


22 1,321 1.717 2.074 2.508 2,819
23 1,319 1,714 2.069 2.500 2.807
24 1,318 1,711 2.064 2.492 2.797
25 1,316 1.708 2,060 2.485 2.787

26 1,315 1,706 2,056 2.479 2.779


27 1,314 1.703 2,052 2.473 2.771
2 , 1,313 1.701 2,048 2.467 2.763
29 1.311 1.699 2,045 2.462 2.756
30 1,310 1,697 2.042 2.457 2.750

40 1,303 1.684 2.021 2.423 2.704


60 1,296 1,671 2.000 2.390 2.660
120 1,289 1.658 1.980 2.358 2.617
oo 1,282 1,645 1.960 2.326 2.576

12.6 Tabla de la distribucin F

Las tablas 6a) y 6b) contienen los percentiles F r de la distribucin F con (m,. m,)
grados de libertad (ver 5.6. definicin 4) para p-= 0.95 y p = 0.99. respectivamente. Estos
percentiles se necesitan especialmente para la realizacin prctica de la dcima de signi
ficacin descrita en el epgrafe 11.4.4 (dcima F)con el nivel de significacin a = 10% o
a = 2 % . Adems, los nmeros Fm m , r para p - 0.95 y p = 0.99 pueden tomarse de las ta
blas 6a) y 6b) en virtud de la frmula

217

www.FreeLibros.com
Tabla 6

Ejem plo: Fj, = 3.37.

* a 15-o.ot
3.09

a) >=0,9$ (1 -p-0. 5)

1 2 3 4 5 6 7 8 9

1 161.4 199.5 215.7 224.6 230.2 2 3 4,0 236.8 238,9 240,5


2 18.51 19.00 19.16 19.25 19.30 19.33 19,35 19,37 19.38
3 10.13 9.55 9,28 9.12 9.01 8,94 8.89 8.85 8.81
4 7.71 6.94 6.39 6.59 6,26 6.16 6 .0 9 6,0 4 6,00
5 6.61 5.79 5.41 5,19 5.05 4.95 4.88 4,8 2 4.77
6 5.99 5.14 4.76 4,53 4.3 9 4,28 4.21 4.1 5 4.10
7 5.59 4.74 4.35 4.12 3.97 3.87 3,79 3.73 3.68
8 5.32 4.46 4,07 3,84 3.69 3,58 3.50 3.44 3.39
9 5.12 4.26 3.86 3.63 3.48 3,37 3.29 3.23 3.18

10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.0 7 3.02


11 4.84 3.98 3.59 3,36 3.20 3.09 3.01 2.95 2,90
12 4.75 3.89 3.49 3.26 3 . II 3.0 0 2.91 2.85 2.80
13 4,67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2,71
14 4,60 3.74 3.39 3.11 2.96 2.85 2.76 2 .70 2.65

15 4,54 3.68 3.29 3.06 2.90 2 .79 2.71 2.64 2.59


16 4,49 3.63 3.24 3.01 2.85 2.74 2.66 2 .59 2.54
17 4,45 3.59 3.20 2.96 2.81 2 .70 2.61 2.55 2.49
18 4,41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46
19 4,38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42

20 4.35 3,49 3.10 2.87 2.71 2 ,60 2.51 2.45 2.39


21 4.32 3.47 3.07 2.84 2.68 2 .5 7 2,49 2.42 2,37
22 4.30 3.44 3.05 2.82 2,66 2.55 2.46 2.4 0 2.34
23 4.28 3.42 3.03 2.80 2.64 2,53 2.44 2.37 2.32
24 4.26 3.40 3.01 2.78 2.62 2.51 2,42 2.36 2.30

25 4,24 3.39 2.99 2.76 2.60 2 .49 2.40 2,34 2.28


26 4.23 3,37 2.98 2.74 2.59 2.47 2,39 2,32 2,27
27 4,21 3.35 2.96 2.73 2.57 2.46 2,37 2,31 2.25
28 4,20 3,34 2.95 2.71 2.56 2.45 2,36 2.29 2.24
29 4,18 3.33 2.93 2.70 2.55 2.43 2,35 2 .28 2.22

30 4,17 3.32 2,92 2.69 2,53 2 .42 2,33 2.27 2.21


40 4,08 3.23 2,84 2.61 2,45 2.34 2,25 2.18 2 .12
60 4,00 3.15 2.76 2.53 2.37 2.25 2.17 2 ,10 2.04
120 3,92 3.07 2,68 2,45 2.29 2 .17 2.09 2.02 1.96
<30 3,84 3.00 2,60 2,37 2,21 2 .10 2.01 1.94 1.88

218

www.FreeLibros.com
10 12 15 20 24 30 40 60 120

1 241.9 243,9 245.9 248,0 2 4 9.1 2 5 0.1 251.1 2 52.2 253.3 254.3
2 1 9.40 19,41 19,43 1 9 ,45 1 9 ,45 1 9.46 1 9 .47 19,48 19.49 1 9 .50

3 8 .79 8,7 4 8,70 8 ,66 8.64 8.6 2 8 .59 8.57 8.5 5 8.53
4 5 .96 5,91 5,86 5,8 0 5,77 5,75 5.72 5 .69 5.66 5.63

5 4 ,74 4 ,68 4 ,62 4 ,56 4,53 4 .50 4 .46 4.43 4 .40 4 .36

6 4 ,06 4 ,00 3 .94 3 .87 3 ,84 3.81 3 .77 3 .74 3.7 0 3 .67
7 3.64 3,57 3 ,51 3 ,44 3,41 3 .38 3 .34 3 .30 3.27 3 .23
8 3.35 3,28 3 .22 3.15 3 .12 3,08 3 .04 3.01 2.97 2 .93
-5- 3 ,14 3 ,07 --------3 . 0 1 2 .94 - 2 .90 2,86 2.83 2.79 2.75 2,71

10 2 .98 2,91 2.85 2 .77 2,74 2 ,70 2 ,66 2 ,62 2.58 2,54

11 2 .85 2.7 9 2,72 2 ,65 2,61 2 ,57 2,53 2 .49 2.45 2 .40
12 2 .75 2.69 2,6 2 2,5 4 2 ,51 2,47 2 ,43 2 .38 2,3 4 2 .30
13 2.67 2 .60 2.53 2.4 6 2 ,42 2.38 2 .34 2 .30 2,25 2.21
14 2 .60 2 .53 2.4 6 2.3 9 2 ,35 2.31 2.27 2,22 2.18 2 .13

15 2.54 2 .48 2.4 0 2,33 2 .29 2 .25 2.2 0 2 ,16 2,11 2.07
16 2,49 2.42 2 .35 2 .28 2 ,24 2,19 2.15 2,11 2,06 2 ,01
17 2,45 2 .38 2.31 2 .23 2 .19 2.15 2.1 0 2.06 2,01 1 ,96
18 2,41 2,34 2,27 2.1 9 2.15 2.11 2.0 6 2.02 1.97 1 .92
19 2.38 2,31 2,23 2.1 6 2.11 2,07 2 .03 1.98 1.93 1.88

20 2.35 2.28 2 ,20 2.1 2 2.08 2.0 4 1 .99 1.95 1.90 1,84
21 2.32 2,2 5 2,18 2.1 0 2,05 2,01 1,96 1.92 1.87 1.81
22 2 ,30 2 ,23 2,15 2,07 2.03 1,98 1,94 1.89 1 .84 1,78
23 2,27 2 ,20 2 ,13 2.05 2,01 1 .96 1,91 1,86 1,81 1,76
24 2.25 2,18 2,11 2,03 1,98 1 .94 1 ,89 1.84 1,79 1.73

25 2,24 2,16 2 ,09 2,01 1,96 1,92 1.87 1.82 1,77 1.71
26 2,22 2,15 2,0 7 1 ,99 1.95 1,90 1 ,85 1,80 1,75 1 ,69
27 2 .20 2 ,13 2.06 1 .97 1,93 1,88 1 ,84 1 ,79 1,73 1 ,67
28 2,19 2 ,12 2,0 4 1 ,96 1,91 1,87 1,82 1,77 1,71 1,65
29 2.18 2 .10 2 .03 1 ,94 1,90 1 ,85 1,81 1,75 1,70 1,64

30 2.16 2 ,09 2.01 1.93 1,89 1 ,84 1,79 1 ,74 1,68 1 ,62
40 2,08 2 ,00 1,92 1,84 1,79 1 ,74 1,69 1 ,64 1,58 1,51
60 1.99 1,92 1,84 1,75 1,70 1,65 1 ,59 1,53 1 ,47 1 ,39
120 1,91 1.83 1,75 1 ,66 1,61 1 ,55 1,5 0 1,43 1,35 1,25
=o 1,83 1.75 1,67 1 ,57 1,52 1 ,46 1 ,39 1 ,32 1,22 1 .00

219

www.FreeLibros.com
Tabla 6 (continuacin)

b) p = 0,99 (1 - p = 0 , 0 \ )

\m ,
1 2 3 4 5 6 7 8 9

"N i 4052 4999,5 5403 5625 5764 5859 5928 5982 6022
2 98,50 99,90 99,17 99,25 99,30 99,33 99,36 99,37 99,39
3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,35
4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66
5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16
6 13,75 10,92 9,78 9.15 8,75 8,47 8,26 8,10 7,98
7 12,25 9,5J 8,45 7.85 7,46 7,19 6,99 6,84 6,72
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91
9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35
10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89
16 8,53 6,23 5,29 4.77 4,44 4,20 4,03 3,89 3,78
17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68
18 8,29 6,01 5,09 4,58 4.25 4,01 3,84 3,71 3,60
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40
22 7,95 5.72 4,82 4,31 3.94 3,76 3,59 3,45 3,35
23 8 8 5,66 4,76 3,26 3,71 3,71 3,54 3,41 3,30
24 7,82 5,61 4,72 4.22 3.90 3,67 3,50 3,36 3,26
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18
27 7,68 5.49 4,60 4,11 3,78 3,56 3,39 3,26 3,15
28 7,64 5,45 4,57 4,07 3.75 3,53 3,36 3,23 3,12
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56
- 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2.41

220

www.FreeLibros.com
\ m ,
10 12 15 20 24 30 40 60 120

1 6056 6106 6157 6209 6235 6261 6287 6313 6339 6366
2 9 9 ,4 0 9 9 ,4 2 9 9 ,4 3 9 9 ,4 5 9 9 ,4 6 9 9 ,4 7 9 9 ,4 7 9 9 ,4 8 9 9 ,4 9 9 9 .5 0
3 2 7 ,2 3 2 7 ,0 5 2 6 ,8 7 2 6 ,6 9 2 6 ,6 0 2 6 ,5 0 2 6 ,4 1 2 6 ,3 2 2 6 ,2 2 2 6 ,1 3
--------------------4 j 4 5 5 14 37 14 20 14 0 2 13 93 13 84 13 75 13 6 5 11 1 1 46

5 1 0 ,0 5 9 ,8 9 9 ,7 2 9 ,5 5 9 ,4 7 9 ,3 8 9 ,2 9 9 ,2 0 9 ,1 1 9 ,0 2
6 7 ,8 7 7 ,7 2 7 ,5 6 7 ,4 0 7 ,3 1 7 ,2 3 7 ,1 4 7 ,0 6 6 ,9 7 6 ,8 8

7 6 ,6 2 6 ,4 7 6 .3 1 6 ,1 6 6 ,0 7 5 ,9 9 5 ,91 5 .8 2 5 ,7 4 5 ,6 5
8 5 ,8 1 5 ,6 7 5 ,5 2 5 ,3 6 5 ,2 8 5 ,2 0 5 ,1 2 5 ,0 3 4 ,9 5 4 ,8 6
9 5 ,2 6 5 ,1 1 4 ,9 6 4 ,8 1 4 ,7 3 4 ,6 5 4 ,5 7 4 ,4 8 4 ,4 0 4 ,3 1

10 4 ,8 5 4 ,7 1 4 ,5 6 4 ,4 1 4 ,3 3 4 ,2 5 4 ,1 7 4 ,0 8 4 ,0 0 3 .9 1
11 4 ,5 4 4 ,4 0 4 ,2 5 4 ,1 0 4 ,0 2 3 ,9 4 3 ,8 6 3 ,7 8 3 ,6 9 3 ,6 0
12 4 ,3 0 4 ,1 6 4 ,0 1 3 ,8 6 3 ,7 8 3 ,7 0 3 ,6 2 3 ,5 4 3 ,4 5 3 ,3 6
13 4 ,1 0 3 ,9 6 3 ,8 2 3 ,6 6 3 ,5 9 3,51 3 ,4 3 3 ,3 4 3 ,2 5 3 ,1 7
14 3 ,9 4 3 ,8 0 3 ,6 6 3 ,5 1 3 ,4 3 3 ,3 5 3 ,2 7 3 ,1 8 3 ,0 9 3 ,0 0

15 3 ,8 0 3 ,6 7 3 ,5 2 3 ,3 7 3 ,2 9 3 ,2 1 3 ,1 3 3 ,0 5 2 ,9 6 2 ,8 7
16 3 ,6 9 3 ,5 5 3 ,4 1 3 ,2 6 3 ,1 8 3 ,1 0 3 ,0 2 2 ,9 3 2 ,8 4 2 ,7 5
17 3 ,5 9 3 ,4 6 3 ,3 1 3 ,1 6 3 ,0 8 3 ,0 0 2 ,9 2 2 ,8 3 2 ,7 5 2 ,6 5
18 3 ,5 1 3 ,3 7 3 ,2 3 3 ,0 8 3 ,0 0 2 ,9 2 2 ,8 4 2 ,7 5 2 ,6 6 2 ,5 7

19 3 ,4 3 3 ,3 0 3 ,1 5 3 ,0 0 2 ,9 2 2 ,8 4 2 ,7 6 2 ,6 7 2 ,5 8 2 ,4 9
20 3 ,3 7 3 ,2 3 3 ,0 9 2 ,9 4 2 ,8 6 2 ,7 8 2 ,6 9 2 ,6 1 2 .5 2 2 ,4 2
21 3 ,3 1 3 ,1 7 3 ,0 3 2 ,8 8 2 ,8 0 2 ,7 2 2 ,6 4 2 ,5 5 2 ,4 6 2 ,3 6

22 3 ,2 6 3 ,1 2 2 ,9 8 2 ,8 3 2 ,7 5 2 ,6 7 2 ,5 8 2 ,5 0 2 ,4 0 2 ,3 1
23 3 ,2 1 3 ,0 7 2 ,9 3 2 ,7 8 2 ,7 0 2 ,6 2 2 ,5 4 2 ,4 5 2 ,3 5 2 ,2 6
24 3 ,1 7 3 ,0 3 2 ,8 9 2 ,7 4 2 ,6 6 2 ,5 8 2 ,4 9 2 ,4 0 2 ,3 1 2 ,2 1

25 3 ,1 3 2 ,9 9 2 ,8 5 2 ,7 0 2 ,6 2 2 ,5 4 2 ,4 5 2 ,3 6 2 ,2 7 2 ,1 7
26 3 ,0 9 2 ,9 6 2 ,8 1 2 ,6 6 2 ,5 8 2 ,5 0 2 ,4 2 2733 2 ,2 3 2 r t 3 --------------------
27 3 ,0 6 2 ,9 3 2 ,7 8 2 ,6 3 2 ,5 5 2 .4 7 2 .3 8 2 ,2 9 2 ,2 0 2 ,1 0

28 3 ,0 3 2 ,9 0 2 ,7 5 2 ,6 0 2 ,5 2 2 ,4 4 2 ,3 5 2 ,2 6 2 ,1 7 2 ,0 6
29 3 ,0 0 2 ,8 7 2 ,7 3 2 ,5 7 2 ,4 9 2,41 2 ,3 3 2 ,2 3 2 ,1 4 2 ,0 3

30 2 ,9 8 2 ,8 4 2 ,7 0 2 ,5 5 2 ,4 7 2 ,3 9 2 ,3 0 2 .2 1 2 ,1 1 2 ,0 1

40 2 ,8 0 2 ,6 6 2 ,5 2 2 ,3 7 2 ,2 9 2 ,2 0 2 ,1 1 2 ,0 2 1 ,9 2 1 ,8 0
60 2 ,6 3 2 ,5 0 2 ,3 5 2 ,2 0 2 ,1 2 2 ,0 3 1 ,9 4 1 ,8 4 1,73 1 ,6 0
120 2 ,4 7 2 ,3 4 2 ,1 9 2 ,0 3 1 ,9 5 1 ,8 6 1 ,7 6 1 ,6 6 1,53 1 ,3 8
oo 2 ,3 2 2 ,1 8 2 ,0 4 1 .8 8 1 ,7 9 1 ,7 0 1 ,5 9 1 ,4 7 1 .3 2 1 ,0 0

221

www.FreeLibros.com
13. Breve bosquejo de la historia del clculo
de probabilidades

Despus que hemos expuesto la construccin matemtica, usual hoy da, de la teora de
probabilidades y tratado algunas tareas esenciales que se plantea la estadstica matem
tica, queremos dar en este ltimo captulo una breve panormica de la historia del clculo
de probabilidades, con la cual deben ser completadas, perfiladas y clasificadas las obser
vaciones histricas incluidas en los captulos precedentes.
El clculo de probabilidades pertenece a las disciplinas matemticas relativamente j
venes; ella tiene solo escasamente tres siglos de existencia. Sin embargo, el mundo mis
terioso de la casualidad interes a los sabios en el ms temprano estadio del pensamiento
cientfico. As, el concepto probabilidad surgi ya en la filosofa griega antigua. La idea
de que las regularidades de la naturaleza se expresan mediante un nmero enorme de fe
nmenos aleatorios, se presenta tambin en los materialistas griegos de la antigedad.
(Esta idea toma cuerpo muy claramente, por ejemplo, en la poesa De rarum natura"
(Sobre la naturaleza de las cosas) de Lukrez (un siglo antes de nuestra era).) Pero el de
sarrollo hacia una disciplina cientfica independiente comienza solo en la mitad del siglo
XVII. Estimulado por preguntas acerca de las probabilidades de ganancia en juegos de
azar, formuladas por un jugador apasionado amigo suyo, el caballero de Mr, el notable
matemtico francs Blaise Pascal (1623-1662) estableci en el ao 1654 un intercambio de
correspondencia con el no menos famoso Pierre de Fermat (1601-1665), en la cual fueron
desarrollados -yendo ms all del propio motivo- fundamentos importantes del clculo de
probabilidades. Ya desde antes, hubo sabios que se ocuparon con problemas especiales so
bre las probabilidades en juegos de azar, como por ejemplo, el monje franciscano Luca de
Pacioli (1445-1514) en su libro publicado en 14 9 4 Summa de Arithmetica, Geometria,
Proportioni e Proportionalita , el mdico milans Hieronimo Cardano (1501 hasta 1576)
en su obra Liber de ludo aleae (Libro sobre los juegos de azar) y tambin Galileo Ga-
lilei (1564-1642). El clculo de probabilidades fue concebido por primera vez como un
medio adecuado para la investigacin de fenmenos aleatorios por Pascal y Fermat.
Tambin el fsico, matemtico y astrnomo holands Christiaan Huygens (1629-1695)
estuvo consciente de la significacin de esta nueva direccin matemtica. As escribi l
en su libro De ratiociniis in ludo aleae (Sobre los clculos posibles en juegos de azar),
publicado en 1658 y en el que se toma como referencia las ideas expresadas por Pascal
y Fermat: ... que el lector observa en un estudio atento del objeto, que no se trata solo

222

www.FreeLibros.com
de juegos, sino que aqui se desarrollan las bases de una teoria muy interesante y produc
tiva. 1
Solo que a causa del nivel relativamente bajo de desarrollo de las ciencias naturales fue
ron en este tiempo los juegos de azar, las interrogantes de la estadstica poblacional y las
tareas de aseguramiento, los nicos problemas concretos sobre la base de los cuales pudo
ser desarrollado el clculo de probabilidades.
En el libro mencionado de Huygens no aparece, por lo dems, el concepto probabili
dad : en l siempre se habla de "vajor de la esperanza, magnitud que hoy denominamos
valor esperado. El concepto probabilidad se defini por primera vez en el libro publicado
en 1713 Ars conjectandi" (El arte del suponer) de Jakob Bernoulli (1654-1705); aqui se
entendi por probabilidad el grado de certeza, que con respecto a la certeza se comporta
como la parte al todo !, una definicin que tiene ms carcter filosfico que matemtico.
La obra Ars conjectandi, que se puede considerar como primer libro de texto del
clculo de probabilidades, contiene, adems de un tratamiento completo de todos lofc pro
blemas sin solucin sealados por Huygens, una deduccin notablemente exacta (no solo
para las condiciones de aquel entonces) de la proposicin formulada hoy como Ley de los
grandes nmeros de Bernoulli; con ella se da, por consiguiente, una explicacin terica
de la estabilizacin de la frecuencia relativa de este hecho observado una y otra vez y co
nocido ya antes de Bernoulli. El mrito de Bernoulli no consiste, por tanto, en el descu
brimiento de este fenmeno -con referencia a esto, el propio Bernoullrescribi en Ars
conjectandi": 'A cada uno le est claro tambin que no es suficiente para valorar un fe
nmeno cualquiera hacer una o dos observaciones, sino que es necesario un nmero gran
de de ellas. Por esta razn, el hombre ms limitado sabe por s mismo y sin ninguna ins
truccin anterior (lo cual es asombroso), que cuanto ms observaciones se tomen en con
sideracin tanto menor ser el peligro de no lograr el objetivo ; el mrito de Jakob Ber
noulli consiste sobre todo en la explicacin terica, rigurosamente fundamentada, de esta
situacin. Para esta poca fue caracterstico que hechos empricos -como por ejemplo, la
estabilizacin de las frecuencias relativas- fueran conocidos, pero que no se buscaran fun-
damentaciones tericas para ellos; estos hechos fueron considerados ms bien como ma
nifestaciones del orden divino, que no requeran ninguna otra aclaracin.
El matemtico francs Abraham D e Moi'vre (1667-1754) logr entonces, entre otras co
sas. la formulacin cuantitativa de la Ley de los grandes nmeros de Bernoulli con la pro
posicin que hemos denominado como Teorema integral de D e Moivre-Lapiace, y tam
bin, relacionado con esto, descubri la distribucin normal (ver el final de 5.4).
La indicacin explcita de la llamada definicin clsica de probabilidad se encuentra
por primera vez en la obra fundamental aparecida en 1812 Theorie analytique des pro-
babilits (Teoria analtica de las probabilidades) del importante matemtico y fsico fran
cs Pierre Simn Laplace (1749-1827). A ll se considera -en completa concordancia con
la concepcin actual- la definicin clsica de probabilidad, no tanto como una definicin,
sino como una frmula para el clculo deprobabilidades en casos concretos, para los cua
les se satisfacen ciertas condiciones;Laplace escribi: La probabilidad de un suceso es
la razn del nmero de casos propicios y el de todos los posibles, suponindose los dis
tintos casos como igualmente posibles.

1B.V : La cita fue tomada de [13],

2B.V.: La cita fue tomada de [6].

3 La cita fue tomada de [15].

www.FreeLibros.com
La nombrada obra de Laplace contiene una exposicin sistemtica de los resultados cl
sicos del clculo de probabilidades, se demuestran los teoremas conocidos entonces, en
particular la proposicin denominada hoy da como Teorema Integral de D e Moivre-La-
place; adems, Laplace expuso el mtodo de la suma de los minimos cuadrados desarro
llado por l (e independientemente y casi al mismo tiempo por Cari Friedrich Gauss
(1777-1855) y por Adrien Marie Legendre (1752-1833)) en relacin con problemas del
clculo de errores y de compensacin. l se ocup tambin de la aplicacin del clculo
de probabilidades a interrogantes de la estadstica poblacional y realiz investigaciones es
tadsticas sobre la base de un amplio material numrico.
Los trabajos de Laplace sobre el clculo de probabilidades junto con los trabajos del
matemtico francs Simon Denis Poisson (1781-1840), forman parte importante de los
grandes progresos en esta especialidad en las postrimeras del siglo XVIII e inicios del XIX.
Poisson realiz una generalizacin de la Ley de los grandes nmeros de Bernoulli -de l
provino tambin el concepto Ley de los grandes nmeros -al caso de experimentos ift-
dependientes en los cuales la probabilidad de la ocurrencia de un suceso es dependiente
del nmero del experimento. Adems, extendi el Teorema integral de D e Moivre-Lapiace
a este caso y descubri con esto la distribucin de probabilidad que lleva su nombre; l
aplic los resultados obtenidos, en particular, a la balstica.
Mediante D e M oivre, Laplace y Poisson sobrevino un incremento considerable en el de
sarrollo de mtodos analticos especiales del clculo de probabilidades, con numerosos re
sultados hermosos y valiosos; los problemas de las ciencias naturales (por ejemplo, de la
balstica y la astronoma) y las interrogantes relacionadas con la teora de los errores de
observacin sirvieron sobre todo de estmulo para esto.
Es verdad que en aquel tiempo existieron bastantes valoraciones errneas en cuanto a
las posibilidades de aplicacin del clculo de probabilidades, a las cuales dieron lugar sus
representantes ms prominentes. A s por ejemplo, fue intentado -con intercesin y favo-
recimiento enrgico de Laplace y Poisson- abarcar por medio del clculo de probabilida
des el contenido de verdad del veredicto de un jurado llevado a cabo por mayora de vo
tos. Esto repercuti desventajosamente en el desarrollo del clculo de probabilidades. S o
bre la base de los -forzosamente declarados- fracasos se convirti en desilusin el entu
siasmo existente al principio por el clculo de probabilidades en los centros cientficos de
Europa Occidental, surgieron dudas o incluso rechazo; en el mejor de los casos fue con
cebido el clculo de probabilidades como objeto de la conversacin matemtica.
Frente a esto, el desarrollo impetuoso de la fsica impuso elevadas exigencias a la ma
temtica, en general, y al clculo de probabilidades, en particular. En este tiempo se de
sarroll una fuerte escuela del clculo de probabilidades en la entonces ciudad de San Pe-
tersburgo. Ella fue fundada por Pasnudi Luovich Chebyshev (1821-1894), quien public en
total solo cuatro trabajos sobre el clculo de probabilidades, pero cuya influencia sobre
el desarrollo posterior de esta disciplina es considerable. Los mritos de Chebyshev con-
sisten, sobre todo, en que hizo estimaciones acerca de las posibles desviaciones de las re
gularidades limites y en que elabor mtodos apropiados para describir esto. Adems, im
puso la exigencia hacia un rigor absoluto en las demostraciones de los teoremas lmites
e indic el lugar central correspondiente a los conceptos variable aleatoria y valor es
perado en el sistema de conceptos del clculo de probabilidades. Famosos representantes
de la escuela rusa del clculo de probabilidades fundada por Chebyshev fueron Andrei
Andreevich Markov (1856-1922) y Alexander M ikailovich Liapunov (1857-1918); nos en
contramos estos nombres ya, en el tratamiento de las leyes de los grandes nmeros y de
los teoremas lmites del clculo de probabilidades.

www.FreeLibros.com
N o obstante la importancia de los resultados logrados al final del siglo pasado y al ini
cio del nuestro en el clculo de probabilidades y en su aplicacin, este permaneci atrs
en comparacin con otras teorias, en lo referente al desarrollo de los fundamentos de la
teoria matemtica. D e forma sorprendente, el clculo de probabilidades no fue alcanzado
durante largo tiempo por la enorme transformacin de la m atem tica en el siglo XIX, que
estuvo caracterizada por la construccin axiomtica de teoras matemticas, lgicamente
compatibles, cerradas en s y desligadas de la realidad (por ejemplo, la Teora de Conjuntos,
la Topologa). Dijimos ya anteriormente (vase para ello l introduccin de 2) que en el
segundo Congreso Internacional de M atemticos en Pars en el ao 1900, David Hilbert
(1862-1943) mencion como uno de los problemas matemticos ms importantes la acla
racin de los conceptos bsicos del clculo de probabilidades. Con esta tarea se ocuparon
muchos matemticos, entre ellos el matem tico austraco Richard Von M ises (1883-
1953), cuya tentativa para la solucin de esta tarea provoc vehementes -y por lo dems
fructferas- discusiones y estimul el inters de muchos matemticos. U na solucin satis
factoria del problema formulado por Hilbert se realiz con la publicacin (1933) del fa
moso matemtico sovitico Andrei Nikolaevich Kolmogorov (nacido en 1903), quien des
pus de numerosos trabajos preliminares logr emprender una construccin axiomtica
del clculo de probabilidades, de acuerdo con el espritu de la matemtica moderna. Aqui
fueron representados los sucesos aleatorios mediante conjuntos y la probabilidad se con
cibi como una funcin definida sobre estos conjuntos con determinadas propiedades, ca
racterizadas mediante axiomas. Esta construccin condujo no solo a la aclaracin de los
fundamentos lgicos del clculo de probabilidades, sino tambin permiti, en particular,
la utilizacin de disciplinas matemticas modernas altamente desarrolladas, por ejemplo,
de la Teoria de Conjuntos y del Anlisis, en especial, de la Teoria de la M edida y de la
Integracin. El clculo de probabilidades se desarroll desde entonces impetuosamente,
tanto respecto a la teora matemtica, como al campo de aplicacin de esta teoria.
Hoy en dia un gran nmero de centros de altos rendimientos se ocupan de la Teora
de probabilidades, la Estadstica matemtica y las numerosas disciplinas especiales surgi
das de estas. U na funcin rectora corresponde a los tericos soviticos de las probabilidades
cuyos trabajos son de inters y poseen reconocim iento internacional. En los primeros
aos despus de la Revolucin de Octubre, se concentr el circulo de los que se ocupaban
en la URSS de la Teora de las probabilidades, sobre todo en Mosc, alrededor de Ale-
xander Jakovlevich Kinchine (1894-1959), uno de los representantes ms significativos de
la Teoria de probabilidades de nuestro siglo, y de A .N . Kolmogorov; hoy existe una mul
titud de centros de la Teora de probabilidades en la UR SS, considerados internacional-
mente. En la R D A ocupa la Teora de las probabilidades un lugar fijo en el marco de la
formacin en universidades e institutos de enseanza superior y tambin en la investiga
cin matemtica. En el camino hacia este objetivo fue muy provechoso el magisterio de
B. V. Gnedenko en el ao 1953, en la U niversidad de Humboldt, en Berln, y muchos de
los matemticos de la R D A que hoy investigan en el cam po de la Teoria de probabilidades
fueron formados en la U nin Sovitica o permanecieron all para realizar estudios.
D esde hace algunos aos se hacen mayores esfuerzos -tambin en marcos internaciona
les- para incluir el Clculo 'ie Probabilidades, de forma adecuada, en la formacin ma
temtica en las escuelas de enseanza general.

225

www.FreeLibros.com
B ibliografa

Solo se enum eran titulos sobre Teoria de probabilidades y Estadstica m atem tica en lengua alem ana,
que han sido publicados o se pueden adquirir en la R D A , sin pretender con ello citar todos los exis
tentes sobre esta tem tica; las escasas anotaciones com plem entarias deben auxiliar en la seleccin de
la bibliografa.
[1] M l l l r , P .H . (editor y autor coordinador), L exikon d er Sto k a stik (W ahrscheinlichkeitstheorie und
M athem atische Statisik). 2. A uflage, Akadem ie - Verlag, Berlin, 1975.
Se explican y se resumen lexicogrficam ente, en palabras claves, las ideas esen ciales de la Teoria
de probabilidades, la Estadstica m atem tica y algunas im portantes disciplinas especiales que han
surgido de stas.
[2] M l l e r , P .H ., P. N E U M A N N y R . S t o r m , Tafeln der M athem atischen S ta tisik , 2. Auflage, VEB Fach-
buchverlag, Leipzig, 1975.
Esta coleccin de tablas contiene un programa bsico en tablas, con cuya ayuda pueden tratarse la
mayor parte de los problemas prcticos de la Estadstica m atem tica.
[3] M a i b a u m , G ., Wahrscheinlichkeilsrechnung, 2. Auflage, Volk und W issen Volkseigener Verlag, Ber
ln, 1975.
Este libro ha sido concebido com o texto para las clases facultativas en la escuela m edia superior am
pliada (grados 11 y 12); contiene una exposicin detallada del Clculo de probabilidades en la me
dida en que esto es preciso para la realizacin de un curso de esta disciplina, sobre la base de los
programas vigentes.
[4] D o n a t , C . D . y G . M a i b a u m , W ahrscheinlichkeilsrechnung (Fachlichm ethodische H inw eise zu m Lehr-
gang W ahrscheinlichkeitsrechnung im R ah m en des fa k u lta tiven Vnterrichts in d er 11. und 12. Klas-
se ), V olk und W issen V olkseigener V erlag, Berlin, 1972.
El objetivo de este folleto se hace evid en te a travs del subtitulo. [3] constituye el punto de refe
rencia de las indicaciones m etodolgicas.
[5] C l a u s , G . y H. E b n e r , G rundlagen d e r S ta tisik fiir Psychologen, Pdagogen und Soziologen, Volk
und W issen Volkseigener Verlag, Berlin, 1974.
Junto a una exposicin, realizada conscientem ente de m anera sencilla, de lo s fundam entos m atem
ticos, e l libro contiene una serie de procedim ientos estadsticos que se aplican de m anera creciente
en la investigacin pedaggica, psicolgica y sociolgica. A qui se tratan detalladam ente problemas
especficos de la aplicacin de procedim ientos estadsticos a interrogantes de estas ramas. Los nu
merosos ejem plos de este libro proceden por entero de los dom inios de la pedagoga, la psicologa
y la sociologa.
[6 ] Rnyi, A, B riefe ber die W ahrscheinlichkeit, 2. A uflage, VEB D eutscher V erlag der W issenschaften,
Berlin, 1972 (traduccin del hngaro).
En este pequeo libro se explican las cuestiones fundam entales del Clculo de probabilidades de for
m a sumamente agradable, desde el punto de vista literario. El lector encuentra, adem s, detalles
interesantes acerca de los inicios del C lculo de probabilidades.

226

www.FreeLibros.com
Los tres ttulos que se m en cionan a con tin u acin son co leccio n es de ejercicios; [7] y [8] contienen,
adem s, breves exposiciones de la m ateria.
[7 ] S w eschnikow , S .A ., W ahrscheinlichkeitsrechnung u nd M ath em atische S ta tisik in Anfgaben, BSB B.
Teubner V erlagsgesellschaft, Leipzig, 1 9 7 0 (traduccin del r u so ).
[8] W e n t z e l , E .S. y L .A . O w t s c h a r o w , A u fgabensam m lung zu r W ahrscheinlichkeitsrechnung, Akadem ie-
V erlag, Berlin, 1973 (traduccin del ruso).
[9] W ahrscheinlichkeitsrechnung u nd M a th em a tisch e S ta tisik (bungsaufgaben zur M athem atik, H eft 8,
T U D resden, Sektion M ath em atik). Im preso com o m anuscrito 1971.

Los siguientes titulos pueden tom arse para am pliar y profundizar e l estud io de la T eoria de proba
bilidades, la E stadstica m atem tica y -com o se puede apreciar de lo s titulos- otras ram as especiales de
la estocstica.
[10] A h r e n s , H., Varianzanalyse, A kadem ie-V erlag, B erlin, 1967.
[ l 1 ] A h r e n s , H . y J. L a u t e r , M e h rd im en sio n a le V arianzanalyse, Akadem ie-V erlag, B erlin, 1974.
[12] B a n d e m e r , H. y otros, O p lim a le Versuchsplanung, A kadem ie-V erlag, Berlin, 1973.
[1 3 ] F a bian , V ., S taisisch e M ethoden, 2 . A u fla g e, VEB D eu tsch er V erlag der W issenschaften, Berlin,
1 970 (traduccin del c h e c o ).
[14] Fisz, M ., W ahrscheinlichkeitsrechnung u n d m athem atisch e S a tislik , 7. A uflage, VEB D eutscher
V erlag der W issenschaften, Berlin, 1973 (traduccin del p o la co ).
[15] G n e d e n k o , B .W ., Lehrbuch d e r W ahrscheinlichkeitsrechnung, 6. A u flage, A kadem ie-V erlag, Berlin,
1970 (traduccin d el ruso).
[16] J a h n , W . y H. V a h l e , D ie F aktoranalyse u n d ihre Anw endung, V erlag D ie W irtschaft, Berlin,
1970.
[17] N ollau, V ., Statistisch e A nalysen, V E B Fachbuchverlag, L eipzig, 1975.
[18] P a w l o w s k i,Z ., Einfiihrung in d ie m a th em a tisch e S ta tistik , V erlag D ie W irtschaft, B erlin, 1971 (tra
duccin del p olaco).
[19] R ao, C .R ., L ineare statistische M eth o d en un d ihre Anw endungen, A kadem ie-V erlag, Berlin, 1973
(traduccin del in g l s).
[20] R a s c h , t> E lem en ta re E infiihrung in d ie m athem atisch e S ta tistik , 2. A u flage, VEB Deutscher
Verlag der W issenschaften, Berlin, 1970.
[21] R n y i , A ., W ahrscheinlichkeitsrechnung m it ein em A n hang ber Inform ationstheorie, 3. A uflage,

VEB D eutscher V erlag der W issenschaften, Berlin, 1971.


[22] R o s a n o w , J .A ., W ahrscheinlechkeistheorie, 2. A uflage, A kadem ie-V erlag, Berlin, 1972 (traduccin

del ruso).
[2 3 ] J .A ., Stochastische P rozesse, Akadem ie-V erlag, Berlin, 1975 (traduccin del ruso).
R osa n o w ,
[24] N .W . y l.W . D u n i n - B a r k o w s k i , M ath em atische S ta tistisk in d e r Technik, 3. A uflage, V E B
S m ir n o w ,
D eutscher Verlag der W issenschaften, Berlin, 1973 (traduccin del ruso).
[25] S t o r m , R ., W ahrscheinlichkeitsrechnung. M ath em ath ische S ta tistik . Statisch e Q u alittskont rolle, 5.
A uflage, VEB Fachbuchverlag, L eipzig, 1974.
[26] V incze , I . , M ath em atische S ta tistik m it industriellen Anw endungen, A kadm iai K iad, B udapest,
1971.
[27] W eber, E ., G rundriss d e r biologischen S ta tistik , 7. A uflage, V E B G ustav F ischer V erlag, Jena,
1972.
[28] W e b e r , E ., E infiihrung in d ie F aktorenanalyse, VEB G ustav F ischer V erlag, Jena, 1974.
Por ltim o, llam am os la aten cin de que [15] contiene un bosquejo de la historia d el C lculo de pro
babilidades.

www.FreeLibros.com
227
www.FreeLibros.com