Professional Documents
Culture Documents
y estadstica matemtica
Gert Maibaum
www.FreeLibros.com
Teora de probabilidades
y estadstica matemtica
www.FreeLibros.com
Teora de probabilidades
y estadstica matemtica
GertMaibaum
EDITORIAL
PUEBLO Y EDUCACIN
www.FreeLibros.com
Tom ada de la edicin en alem n de la editorial D eutscher Verlag der W issenschaften, B erln,
1976.
r im e n reim presin, 1 9 8 8
SN L C :R A 0 1 .1 3 5 6 0 .0
www.FreeLibros.com
N o ta a la edicin en espaol
Fo r m a c i n y Pe r f e c c io n a m ie n t o d e Pe r s o n a l P e d a g g ic o
www.FreeLibros.com
P refacio
www.FreeLibros.com
n d ice
0.
I n tr o d u c c i n ............................................................................................................................................
11
P r o b a b ilid a d ............................................................................................................................................
26
2.1
2.2
2.3
2.4
2.5
27
29
32
35
37
3.
3.1
3.2
3.3
3.4
3.5
P r o b a b ilid a d c o n d ic io n a d a
.........................................................................................................
Definicin de probabilidad condicionada ......................................................................................
Teorema de la m ultiplicacin para probabilidades ..................................................................
Independencia de sucesos aleatorios ................................................................................................
Frmula de la probabilidad total ......................................................................................................
Frmula de Bayes ....................................................................................................................................
40
41
43
45
47
49
4.
4.1
4.2
4.3
4.4
4.5
4.6
4.7
V a r ia b le s a le a t o r ia s d is c r e ta s .....................................................................................................
Definicin general de variable aleatoria .......................................................................................
D efinicin de variable aleatoria discreta ......................................................................................
Caractersticas num ricas de las variables aleatorias discretas ..........................................
Distribucin discreta uniforme ..................................... ......................................................................
Diftribucin binom ial ..............................................................................................................................
Distribucin hipergeom trica ...............................................................................................................
Distribucin de Poisson ..........................................................................................................................
51
51
55
58
63
64
69
71
5.
V a r ia b le s a le a t o r ia s c o n t in u a s
...................................... ............................................................
74
5.1
74
www.FreeLibros.com
www.FreeLibros.com
5.2
5.3
5.4
5.5
5.6
5.6.1
5.6.2
5.6.3
-6.
6.1
6.2
6.3
6.4
6.5
7.
7.1
7.2
7.3
7.4
7.5
7.6
T e o r e m a s lm ite s .............................................................................................................................
Desigualdad de Chebysher ................................................................................................................
Tipos de convergencia en la Teora de probabilidades .......................................................
Teoremas de Bernoulli y de Poisson (Ley de los grandes nmeros) ..............................
Generalizacin de la Ley de los grandes nmeros ................................................................
Teorema local de De Moivre-Laplace ........................................................................................
Teorema central del lmite ..............................................................................................................
1,7
118
120
124
126
129
132
8.
8.1
8.2
8.2.1
8.2.2
8.3
8.4
136
136
140
140
141
142
146
9.
9.1
9.2
9.3
9.4
146
146
148
150
153
10.
10.1
10.2
10.3
10.4
10.4.1
10.4.2
10.4.3
10.4.4
10.4.5
10.5
10.6
10.6.1
10.6.2
10.6.3
In tr o d u c c i n a la T e o r a d e la e s tim a c i n ...................................................................
Tareas que se plantea la Teora de la estimacin ................................................................ '
Estimadores puntuales (propiedades) ...........................................................................................
Sobre la construccin de estimadores puntuales .....................................................................
Ejemplos importantes de estimadores puntuales .....................................................................
Estimador puntual para un valor esperado desconocido .....................................................
Estimadores puntuales para una varianza desconocida ........................................................
Estimador puntual para una probabilidad desconocida ........................................................
Estimador puntual para una funcin de distribucin desconocida ..................................
Estimador puntual para un coeficiente de correlacin desconocido ...............................
Estimaciones por intervalo de confianza ....................................................................................
Ejemplos importantes de estimaciones por intervalo de confianza ..................................
Intervalos de confianza para los parmetros de una distribucin normal ...................
Intervalo de confianza para una probabilidad desconocida ..............................................
Intervalo de confianza para una funcin de distribucin desconocida ..........................
*56
156
158
165
170
170
171
171
172
172
173
177
178
180
181
11.
11.1
11.2
11.3
11.4
11.4.1
I n tr o d u c c i n a la teo r a d e la d o c in u is ia d e h ip te s is .........................................
Tareas que se plantea la teora de la docimasia de hiptesis ...........................................
Conceptos fundamentales de la teora de la docimasia de hiptesis ..............................
Procedimiento general para realizar una dcima de significacin ..................................
Ejemplos importantes de dcimas paramtricas ......................................................................
Dcima simple ...................................................................................................................................
183
183
185
189
193
195
www.FreeLibros.com
77
11.4.2
195
11.4.3
11.4.4
11.4.5
11.5
11.5.1
1 1.5.2
11.5.3
11.5.4
11.5.5
11.6
D cim a
....... ............................................................................................ '................................................
Dcim a F .........................................................................................................................................................
Dcim a para una probabilidad desconocida .................................................................................
Ejemplos im portantes de dcim as no param tricas .....................................................................
D cim a de ajuste X ...................................................................................................................................
D cim a de K olm ogorov ............................................................................................................................
D cim a de hom ogeneidad x .................................................................................................................
D cim a para dos distribuciones ...........................................................................................................
D cim a de independencia x .................................................................................................................
Ejemplo de aplicacin ...............................................................................................................................
1%
197
197
198
199
200
201
201
202
203
12.
205
12.1
12.2
12.3
12.4
12.5
12.6
Tabla
Tabla
Tabla
Tabla
Tabla
Tabla
205
207
211
214
216
217
13.
222
de
de
de
de
de
de
la
la
la
la
la
la
Bibliografa
distribucin
distribucin
distribucin
distribucin
distribucin
distribucin
................................................................................................ ..............................................
www.FreeLibros.com
226
0.
In trod u ccin
www.FreeLibros.com
11
12
www.FreeLibros.com
1.
S ucesos aleatorios
En este captulo nos ocuparemos de los sucesos aleatorios, que son aquellos que pueden
presentarse bajo determinadas condiciones, pero no de forma obligatoria; nosotros los
concebiremos como resultados de experimentos aleatorios, que son los que tienen un de
senlace incierto en el marco de distintas posibilidades. Junto a la explicacin detallada de
estos y otros conceptos, trataremos en este captulo las operaciones entre surcsos aleato
rios. Por ltimo, llegaremos a conocer el concepto lgebra de sucesos, de gran importancia
para la construccin axiomtica de la Teora de probabilidades. Analizaremos tambin la
relacin entre lgebras de sucesos, lgebras de Boole y lgebras de conjuntos.
1.1
Experimentos aleatorios
Entendemos por experimento aleatorio aquel cuyo resultado es incierto en el marco de dis
tintas posibilidades y se puede repetir un nmero de veces arbitrario (al menos mental
mente), manteniendo las mismas condiciones exteriores que caracterizan a dicho experi
mento.
Ejemplos
1. El lanzamiento de una moneda es un experimento aleatorio. Los posibles resultados
de este experimento estn caracterizados por "estrella arriba y "escudo arriba
2. La tirada nica de un dado despus de agitarlo en un cubilete es un experimento
aleatorio. Los posibles resultados de este experimento estn caracterizados por el nmero
que aparece en la cara superior del dado.
3. Las tiradas de un dado despus de agitarlo en un cubilete pueden considerarse como
un experimento aleatorio. Si solo nos interesamos porque aparezca el nmero seis, este ex
perimento tiene n + 1 resultados. (Las veces que aparezca el nmero seis es una llamada
variable aleatoria discreta que puede aceptar los n + 1 valores 0, 1. 2, .... n.)
4. La extraccin al azar de una muestra de n objetos de una poblacin (por ejemplo,
la produccin diaria de una fbrica) de N objetos, que contiene un nmero M de defec
www.FreeLibros.com
13
tuosos, puede entenderse com o un experimento aleatorio. Aqui se realiza una extraccin
(sin reposicin) de la muestra y cada uno de los N objetos en total tiene la misma opor
tunidad de ser sacado. Si solo nos interesam os por el nmero de objetos defectuosos en
la muestra, este experimento tiene n + 1 desenlaces, en el caso que se cumpla Ai > rt. (El
nmero de objetos defectuosos es tambin una variable aleatoria discreta, cuya distribu
cin de probabilidad desem pea una importante funcin en el control estadstico de la ca
lidad.)
5.
Toda m edicin (por ejemplo, de una longitud, un ngulo, un tiempo, una magnitud
fsica), puede concebirse com o un experimento aleatorio. D e una parte, las mediciones
realizadas en un mismo objeto son, por lo general, diferentes a causa de las insuficiencias
del observador para llevarlas a cabo con precisin una y otra vez. Por otra parte, las me
diciones realizadas en varios objetos iguales conducen tambin a resultados distintos,
como consecuencia de las diferencias existentes entre estos.
Por tanto, en un experimento aleatorio existen influencias que no son consideradas en
su descripcin, es decir, en la enum eracin de las condiciones que lo caracterizan y que
conducen a que el resultado de este sea incierto en el m arco de distintas posibilidades.
En la explicacin anterior hemos tambin destacado, que los experimentos aleatorios
pueden repetirse - a l m enos m en ta lm en te- un nmero de veces arbitrario. Esta condicin permite el estudio de aquellas regularidades, que solo pueden reconocerse mediante
un nmero elevado de repeticiones del experimento aleatorio correspondiente. (Expresa
mos tambin esta particularidad diciendo que los fenm enos en que se investigan tales re
gularidades son m asivos.) El estudio de las regularidades que se presentan en los fenme
nos aleatorios es el objetivo principal de la Teoria de probabilidades.
1.2
Sucesos aleatorios
3. Av
el nmero seis al
www.FreeLibros.com
Los sucesos seguros son los que se presentan obligatoriamente bajo las condiciones que
caracterizan al experimento aleatorio considerado; los sucesos imposibles son los que no
se pueden presentar nunca.
Designaremos, de forma nica, los sucesos seguros con 2 (se lee: omega mayscula) y
los sucesos imposibles, con 0 (con el smbolo del conjunto vacio).
E je m p lo . El experimento aleatorio consiste en la tirada nica de dos dados despus de
agitarlos en un cubilete. Un suceso seguro es, por ejemplo, que la suma de los nmeros
obtenidos sea menor o igual que 12: un suceso imposible es, digamos, que la suma de los
nmeros obtenidos sea menor que 2.
A menudo se pueden ilustrar los sucesos aleatorios por medio de subcor\juntos sobre la
recta numrica o en el plano.
Ejemplos
1.
El experimento aleatorio consiste en rotar un disco al cual se ha lijado un indicador.
Los infinitos resultados imaginables de este experimento son las posiciones que puede te
ner el indicador cuando el disco permanece quieto. Cada una de estas posiciones puede
caracterizarse mediante la amplitud del ngulo <p formado entre el eje positivo de las x
y el indicador (fig. 1).
l n <p
Figura 1
De esta forma, todo suceso A relacionado con este experimento aleatorio puede descri
birse por medio del conjunto A de aquellas amplitudes de ngulos q> que son convenien
tes para el suceso considerado, y decimos esto en el sentido de que el suceso A se pre
senta si y solo si la posicin del indicador cuando el disco no se mueve se describe por
una de las amplitudes de ngulos del conjunto A. Si, por ejemplo, el suceso A consiste en
que el indicador permanezca quieto en el tercer cuadrante, le asociamos a este suceso el
3n
intervalo de n a sobre el eje <p, o sea, el conjunto
2
4 = j<(>:
<p^
2.
El experimento aleatorio consiste en tirar sobre un disco con diez c ircunferencias
concntricas de radios r ,> r ,> .. . > r 10> 0 (fig. 2).
Todo suceso A. relacionado con este experimento, puede describirse mediante el conjun
to A de todos los puntos "convenientes" en el plano x, y para el suceso considerado, y de
cimos convenientes en el sentido de que A se presenta si y solo si el tiro acierta sobre un
punto de A. Si, por ejemplo, el suceso A es que el tiro disparado sea certero, se describe
este suceso por medio del conjunto
A = {{x ,y ): x ' + y ^ r;}.
www.FreeLibros.com
15
El conjunto
= { ( * ,y): r5< xJ+ y J4 rj}
representa al suceso B que se presenta si y solo si el tiro acierta en el anillo circular li
mitado por las circunferencias de radios r2 y r,.
Para consideraciones generales se ilustran tambin los sucesos aleatorios mediante con
juntos de puntos en el plano. Posteriormente analizaremos ms exactamente la estrecha
relacin entre los sucesos aleatorios y los conjuntos (ver l.S ).
A continuacin queremos definir una relacin entre sucesos aleatorios con la cual se
pueda despus concebir tambin la igualdad de sucesos aleatorios en forma matemtica.
Adems, nos imaginaremos siempre que los sucesos aleatorios observados pertenecen a un
determinado experimento aleatorio.
D e f in ic i n 1. Si a la ocurrencia del suceso aleatorio A est siempre unida la ocu
rrencia del suceso aleatorio B, escribimos
A ZB,
y se lee: A entraa B. A implica B o A es una parte de B (fig. 3).
16
www.FreeLibros.com
Luego utilizamos aqu un smbolo de la teora de conjuntos (ver MfL Tomo 1, 1.5); la
figura 3 debe recordarnos el comportamiento correspondiente en conjuntos. (Se puede ha
cer corresponder a un sistema de sucesos, perteneciente a un experimento aleatorio, un
sistema de subconjuntos de un conjunto universo, de forma tal que la relacin A G fl exista
para sucesos aleatorios A, y B si y solo si el conjunto asociado al suceso A es un subconjunto del asociado al suceso B. En particular, se hace corresponder al suceso seguro el
conjunto universo y al suceso imposible, el conjunto vaco (ver 1.5).
E je m p lo . Tirada de un dado.
A ... El nmero obtenido al tirar el dado es igual a 6 (v4 = {6}).
B ... El nmero obtenido al tirar el dado es par (B = {2,4,6}).
1
>=>A E B
>
Con la definicin 1 se confirma enseguida que para todo suceso aleatorio A se cumplen
las proposiciones siguientes:
<>QA. A g A . A S2.
(1)
A ^B. B S C s /liC .
(2)
1.3
En este epgrafe tratamos las operaciones entre sucesos aleatorios, cuya aplicacin es muy
conveniente y con frecuencia conduce a una formulacin muy clara de distintos hechos.
Aqu se presentan smbolos de operaciones conocidos del tratamiento de la teora de con
juntos (ver MfL Tomo 1, 1.4). Aclaramos que si se sustituyen los sucesos que aparecen
por conjuntos, surgen siempre de las proposiciones siguientes (sobre sucesos) proposicio
nes verdaderas de la teora de conjuntos y viceversa, se obtiene de las proposiciones co
rrespondientes de la teora de conjuntos proposiciones verdaderas sobre sucesos aleato
rios, si se sustituyen los conjuntos que aparecen por esos sucesos. (La fundamentacin de
esto lo proporciona un teorema sobre el isomorfismo entre las lgebras de sucesos y 4as
lgebras de conjuntos, que trataremos en el epgrafe l.S .) Las figuras dadas a continua
cin de las siguientes definiciones de las operaciones entre sucesos aleatorios deben servir
17
www.FreeLibros.com
para recordar las definiciones de las operaciones correspondientes con conjuntos. Todos
los ejemplos de este epgrafe se refieren, para mayor sencillez, al experimento aleatorio
consistente en la tirada nica d.e un dado.
1.3.1
Suma de sucesos
Figura 4
E je m p lo . Tirada de un dado.
A ... El nmero obtenido es par (4 = {2,4,6}).
B ... El nmero obtenido es mayor o igual que 3 (B = {3,4,5,6}).
A^j B ... El nmero obtenido es distinto de 1 (A
= {2 ,3 ,4 ,5 ,6 }).
(1)
(2)
(3)
(4)
tambin con
U A ,.
1=1
tambin con
U
A ,.
18
www.FreeLibros.com
1.3.2
P r o d u c t o de sucesos
Figura 5
E j e m p lo . T ira d a de un dado.
A ... H1 nm ero obtenido es p a r M ={2.4.6}).
B ... El nm ero obtenido es m enor que 3 (/?= ! 1.2}).
A n B ... El n m ero obtenido es igual a 2 (.4 n B = {2}).
Las proposiciones siguientes son tam bin fciles de v erificar:
A rio = o. A n A = A . A n i = A .
A ^ B QA. A n B Q B .
A n B = B r\A (co n m u ta tiv id a d ).
A n( B nC") =(A n B ) n ( ' (a so cia tiv id a d ).
(5)
(6)
(7)
(8)
,.
i-1
G en eralizan d o , podem os designar al suceso que o c u rre si ysolo sic ad a uno de los su
cesos de la sucesin (infinita) A r A 2. ... de sucesos 4,( = 1.2.
...) o curre, m ediante
A , n A n ...
o tam bin
.4
1
Aqu querem os in tro d u cir an dos conceptos sobre los cuales volverer os posteriorm en-
www.FreeLibros.com
19
www.FreeLibros.com
Figura 6
D e f in ic i n 6 . Un conjunto {A v A, ..., A
un sistema completo de sucesos, si se cumple
---------- Ar\Ak=<
>(j^k),-----------------------------------------------------------------A,<jA2u ... ui4,u... =.
E je m p lo . Tirada de un dado.
A , ... El nmero obtenido al tirar el dado es igual a i (i'= l,2 ,3 ,4 ,5 ,6 ).
{Av Aj, Ay A4, A,, At) es un sistema completo de sucesos.
De modo general, si consideramos un experimento aleatorio que tiene siempre como re
sultado la ocurrencia de exactamente uno de los sucesos aleatorios Av A,
A ..., en
tonces el conjunto de estos resultados forma un sistema completo de sucesos.
1.3.3
Figura 7
E je m p lo . Tirada de un dado.
A ... El nmero obtenido es menor e igual que 3 (^4 = {l,2 ,3 } ).
A ... El nmero obtenido es mayor que 3 (A = {4,5,6}).
Evidentemente para un suceso A cualquiera se cumplen las relaciones
y
A n A 0.
20
www.FreeLibros.com
(9)
(10)
AQB^B^A,
A r>B = A u B , ms general: O
1=1
A u B = A n B , ms general:
(11)
A ^ ^ J A ,,
1=1
(12)
A = ( ~ ) A,.
(13)
(14)
(15)
(16)
Figura 8
1.3.4
Diferencia de sucesos
www.FreeLibros.com
E je m p lo . Tirada de un dado.
A ... El nmero obtenido es par (. = {2,4,6}).
B ... El nmero obtenido es menor e igual que 3 (2 ? = {l,2 ,3 }).
A \ B ... El nmero obtenido es igual a 4 a 6 (>4\B = {4,6}).
B \A ... El nmero obtenido es igual a 1 a 3 ( f i\^ = { l,3 } ).
Y a que la op eracin \ se puede expresar sobre la base de la relacin
A \B = A n B
(17)
1.3.5
i A B
Figura 10
(18)
1.4
lgebras de sucesos
U n lgebra de sucesos es un conjunto de sucesos aleatorios que, hablando sin mucho rigor,
contiene, adems de los sucesos interesados directamente en relacin con un experimento
aleatorio, a todos aquellos que resultan de estos mediante la aplicacin de las operaciones
tratadas. La fijacin exacta de este concepto es el contenido de la definicin siguiente.
D e f i n i c i n 1. U n conjunto A de sucesos aleatorios se llam a un lgebra de sucesos,
si posee las propiedades siguientes:
1. El suceso seguro pertenece a A: l e A .
22
www.FreeLibros.com
A e A.
/=i
Si A y B son elem entos del lgebra de sucesos A , en to n ces resulta, sobre la base de las propiedades
2 y 3 del lgebra de sucesos, que A n B e A y de aqui (aplicando de nuevo las propiedades 2 y 3 ), que
A \ B e A y A /\B eA ,
A \ B gA y A cJisA .
3.
Se cum ple
f"') A =
= i
A (ver 1.3 (1 2 ).) Si A- (i = 1 ,2 ,...) son elem entos del lgebra de su.<=i
cesos A , entonces resulta a con secu en cia de la propiedad 3 del lgebra de sucesos A te A (i = l ,2 , . .. ) .
C onsiderando la propiedad 4 se obtiene
^
i-i
f'l
-d,eA .
i=i
www.FreeLibros.com
Concluimos este epgrafe con la definicin del llamado suceso elemental y con una ob
servacin sobre la estructura matemtica del lgebra de sucesos.
D e f in ic i n 2 . Sea A un lgebra de sucesos. Un suceso A sA se llama suceso elemen
tal (con respecto a A) si no existe un suceso B e A , B*<p y B ^ A , tal que se cumpla B ^ A .
En caso contrario A se llama suceso compuesto.
C o r o la r io . Las siguientes proposiciones son equivalentes:
1. A eA es un suceso elemental.
2. A eA no se puede representar de la forma A = B u C con B e A, C e A, B it A y C *A .
3. A eA est constituido de modo que para todo B e A se cumple Ar\B=<> o A ^ B .
Desde el punto de vista de la estructura matemtica, un lgebra de sucesos es un lgebra de Boole.
Antes de fundamentar esto recordemos la definicin de un lgebra de Boole.
D e f i n i c i n 3 . Sea M un conjunto sobre el cual estn definidas dos operaciones + y (es decir,
funciones que asocian a cada dos elementos x e M y y s M los elementos x-t-y y x y pertenecientes a M).
M se llama un lgebra de Boole, si se satisfacen las proposiciones siguientes para cualesquiera elemen
tos x . y . z de M:
1. xy=y-*-x, x y = y
x (conmutatividad).
0 = 0 y x-*-e=e.
6. Para todo x e M existe un x 'eM (el llamado complemento de x) con x x '= 0 y x-t-x=e.
C o r o la r io 3 . Toda lgebra de sucesos es un lgebra de Boole.
D e m o s t r a c i n . Como operacin + empleamos a u y como operacin . a n sobre un lgebra
de sucesos A. Entonces se cumplen las proposiciones 1 hasta 4 de la definicin 3. Como elemento neutro
respecto a la adicin ( + ) utilizamos el suceso imposible 0 : como elemento neutro de la multiplicacin
(_), el suceso seguro y, por ltimo, empleamos como complemento de A eA el suceso complementario
A correspondiente a A. Estos elementos poseen las propiedades exigidas en la definicin 3 y pertenecen
todos a A. Con esto A es, por tanto, un lgebra de Boole.
1.5
Ahora estudiaremos la estrecha relacin que existe entre los sucesos aleatorios y los con
juntos, ms exactamente entre las lgebras de sucesos y las lgebras de conjuntos. Para
ello recordemos la definicin de un lgebra de conjuntos.
D e f in ic i n 1. Un sistema A de subconjuntos de un conjunto universo 2 se llama un
lgebra de conjuntos (sobre ) , si posee las propiedades siguientes:
1. El conjunto universo S2 pertenece a A: JeA.
2. Si dos subconjuntos de U pertenecen a A, este contiene tambin su unin:
.4 sA , B eA = > A u B eA .
3.
Para todo subconjunto de 2 perteneciente a A, este contiene tambin su complemen
to respecto al conjunto universo:
^ eA ^ ^ eA .
24
www.FreeLibros.com
A ,e A.
i=i
www.FreeLibros.com
2.
P robabilidad
En este capitulo nos dedicaremos al concepto probabilidad, que constituye el concepto cen
tral y fundamental de la Teora de probabilidades y tambin de la Estadstica matemtica.
j'Vqu caracterizamos al concepto probabilidad mediante axiomas, de acuerdo con un pro
cedimiento usual hoy en da en la matemtica moderna (epgrafe 2.4). Para la formacin
del sistema de axiomas partiremos de las propiedades comunes de la frecuencia relativa
(epgrafe 2.1) y del as llamado concepto clsico de probabilidad (epgrafes 2.2 y 2.3). El
concepto clsico de probabilidad se basa en la en realidad no universalmente aplica
b l e - definicin clsica de probabilidad, que en realidad no es universalmente aplicable,
y segn la cual la probabilidad de un suceso aleatorio es igual al cociente del nmero de
resultados del experimento convenientes para el suceso observado, entre el nmero total
de posibles resultados; en una relacin semejante se dice que un resultado del experimento
es conveniente para un suceso, cuando este implica la ocurrencia del suceso considerado.
Las consideraciones sobre la frecuencia relativa deben convencernos, en particular, de
que el grado de indeterminacin de la ocurrencia de un suceso aleatorio se puede concebir
siempre de forma objetiva mediante un nmero. En este contexto llamamos la atencin de
que el concepto probabilidad utilizado en el lenguaje comn muestra con frecuencia ca
racteres subjetivos y que con este slo se intenta dar en muchas ocasiones una proposicin
cualitativa con respecto al propio convencimiento de la ocurrencia de una situacin de
terminada.
Se calcularon probabilidades antes de que existiera una construccin axiomtica del
Clculo de probabilidades (por ejemplo, en el marco de la estadstica poblacional, en pro
blemas de aseguramiento y tambin en juegos de azar). N o obstante, el desarrollo impe
tuoso de la tcnica y de las ciencias naturales desde el comienzo de nuestro siglo situ al
clculo de probabilidades exigencias elevadas. D e aqu se desprendi la necesidad de cons
truir el Clculo de probabilidades, y con esto la Estadstica matemtica, como una disci
plina matemtica rigurosamente fundamentada. La solucin de este problema, uno de los
23 grandes problemas de la matemtica nombrados por el famoso matemtico alemn D.
Hilbert (1862-1943) en el Segundo Congreso Internacional de M atemticos en Pars
(1900), fue lograda por el importante matemtico sovitico A .N . Kolmogorov (nacido en
1903), quien public en 1933 una construccin axiomtica de Clculo de probabilidades,
que se ha convertido en la base de todos los libros de texto modernos existentes, sobre la
Teora de probabilidades.
www.FreeLibros.com
2.1
Frecuencia relativa
D e sig n e m o s p or A un su c e so a le a to r io q ue e st en r e la c i n co n un e x p e r im e n to a lea to r io
c u a lq u ie r a (por ejem p lo , A p u e d e ser o b te n e r un 6 c u a n d o se tira u n d a d o u n a sdla v e z ).
R e p ita m o s e s te ex p e r im e n to -v ec e s, in d e p e n d ie n te m e n te u n a v ez d e o tra , y c o n tem o s
c u n ta s v e c e s o c u r r e el su c e so A en e sto s e x p e r im e n to s. S i A o c u r r e en to ta l m v e c e s, en
to n c es m se lla m a f r e c u e n c i a ab so lu ta d e A y , f r e c u e n c i a re lativa de A en e sto s n ex
p erim en to s.
. .. ,
1,
n y p a ra
la fre c u e n c ia
r e la tiv a f (A ) ,
lo s n m ero s 0 ,
,
n
,
n
1.
0 ^ f(A )^
1.
2 / ( H ) = l.
3. f ( A u B ) =f( A) +f( B) p a ra Ar\B=<t>.
4. / (0) =0.
5. f(A) = 1 f n( A ) .
6. f(A u B ) = f S A ) + f n(B) f n(A n B ) .
7. D e A E B r e su lta f(A) = / (B ).
O b ser v e m o s e n r e la c i n c o n la s p r o p ie d a d e s 2 y 4 , q ue d e f(A) = 1 o f(A) = 0 n o se p u e
de d e d u c ir q ue A sea u n su c e so seg u ro o im p o sib le .
P o d e m o s c o n c e b ir la c o r r e sp o n d e n c ia A *f(A) (n e s u n n m e r o n a tu ra l fijo) c o m o u n a
fu n c i n que a c a d a su c e so a le a to r io A , q ue e s t e n r e la c i n c o n e l e x p e r im e n to a le a to r io
o b se r v a d o , le h a c e c o r re sp o n d er u n n m e r o situ a d o e n tre c e r o y u n o , m o str n d o se la s
p r o p ie d a d e s p r in c ip a le s d e e s ta fu n c i n en e l c o r o la r io 1. E l d o m in io d e d e fin ic i n d e e sta
www.FreeLibros.com
funcin es, por tanto, un conjunto de sucesos aleatorios; queremos suponer siempre que
se trata de un lgebra de sucesos.
Hn relacin con el corolario 1 se debe hacer hincapi en una cuestin importante para la forma de
proceder en la caracterizacin axiomtica del concepto probabilidad: toda funcin r e a l/d e fin id a sobre
un lgebra de sucesos que posea las propiedades 1, 2 y 3, posee tambin las propiedades 4, 5, 6 y 7.
Aqui queremos demostrar esto solo en un ejemplo; mostremos que de las propiedades 2 y 3 resulta la
propiedad 5: se cumple A r \ A = <t> y por la propiedad S
, J [ A v A ) = J { A ) + f l . A ) . A cada causa de que
A v A = l se cumple, por la propiedad 2, la relacin/(/) \j A) = 1. Luego, se cumple 1 =J{A) + A A ) , es de
cir. se cumple f[A ) = 1 J{A)
Analizaremos ahora hasta dnde la frecuencia relativa de un suceso (en una serie de
n repeticiones de un mismo experimento, realizadas independientemente una de otra), es
una medida apropiada para el grado de indeterminacin de la ocurrencia de este suceso.
Para determinar un valor concreto de la frecuencia relativa se tiene que realizar pri
mero una serie de experimentos semejante; por lo dems se obtendr generalmente un va
lor distinto al repetir la serie de experimentos considerada. Pero si se llevan a cabo largas
series de repeticiones independientes de un mismo experimento y se indaga cada vez la
frecuencia relativa del suceso aleatorio considerado, se comprueba que estos nmeros se
diferencian poco unos de otros, es decir, que la frecuencia relativa muestra una cierta es
tabilidad. Luego, las frecuencias relativas del suceso A varian ligeramente, por lo general
alrededor de un cierto valor que frecuentemente desconocemos. Queremos llamar a este
valor la probabilidad del suceso A. Est claro que no podemos calcular la probabilidad de
un suceso por esta va, sino solo obtener un valor estimado para esa probabilidad. Sin em
bargo, con esto hemos logrado el convencimiento de que el grado de indeterminacin de
la ocurrencia de un suceso aleatorio se puede caracterizar de forma objetiva mediante un
nmero.
E je m p lo . Tomamos este ejemplo de la literatura. Cientficos significativos como, por
ejemplo, el Conde de Buffon (1707-1788), creador de un mtodo terico-probabilstico pa
ra la determinacin aproximada del nmero n, y K. Pearson (1857-1936), fundador de
una famosa escuela en la rama de la Estadstica matemtica en Inglaterra, estudiaron el
efecto de la estabilizacin de la frecuencia relativa, en el ejemplo de la tirada de la mo
neda, entre otros. Sea A el suceso nmero arriba.
Nmero de tiradas
de la moneda: n
Frecuencia absoluta
de A:Fn (A)
Frecuencia relativa
de A:f(A) ----------n
DE
bu ffo n
K. PEARSON
K. PEARSON
4 040
12 000
24 000
2 048 (2 020)
6 019 (6 000)
12 012 (12 000)
0,5080
0,5016
0,5005
www.FreeLibros.com
2.2
www.FreeLibros.com
29
, * , = * = J . - . o . 86=86%.
k
150
50
(2)
es decir, la condicin de que los resultados sean igualmente posibles se refleja en que los
sucesos elementales A ( j = \ , 2 ,. .. ,k ) tienen la misma probabilidad.
A continuacin enunciaremos algunas propiedades y reglas de clculo para el concepto
clsico de probabilidad, y con esto para la funcin A *P(A) sobre A dada por (1), cuya
demostracin dejaremos al lector (ver 2.1, corolario 1).
Corolario 1
1. 0 < W <
1.
2. P ( n ) = l .
3. P(A u B ) =P(A) +P(B) para AnB=<j>.
4. P(<>) = 0 .
5. P ( A ) = l- P { A ) .
6. P(A u B ) =P{A) +P{B) P(A n B ).
7. D e A S B resulta P(A) < P{B).
Como suplem ento de las propiedades 2 y 4 aclaram os que de P{A) = 1 o P(A) = 0 se deduce que A = S l
o>< = 0. U n suceso aleatorio A tiene, por consiguiente, la probabilidad uno o cero si y solo si es un su
ceso seguro o imposible.
Adem s, se debe llam ar la atencin de que es suficiente dem ostrar las proposiciones 1 hasta 3, ya
que com o fue explicado en el epgrafe 2 .1 , toda funcin real definida sobre un lgebra de sucesos que
posea las propiedades 1 hasta 3, posee tambin la s propiedades 4 hasta 7.
www.FreeLibros.com
interesan, o sea, el clculo del nmero de los casos posibles y del de los convenientes en
cada ocasin, se efecta, por lo general, con los mtodos de la combinatoria (ver MfL, To
mo 1,3.6). Esto no es siempre muy sencillo.
Ejemplos
1. Calculemos la probabilidad para ganar la lotera * en 5 de 35 (suceso G), es decir,
para acertar tres nmeros (suceso A ), cuatro (suceso B) o cinco (suceso C). Se cumple
t = ( 35\
V5
( 5 \ / 3 0 \ 5 -4
3 0 -2 9
*W =(
) l
) = ---------------------- = 4 350,
' 3 / V 2 / 1 -2
1 -2
- = C
) C
) = T >
g(B)
150
P ( B ) = -----------------------= 0,0005 (probabilidad de obtener cuatro),
k
324 632
P(C) =
k
www.FreeLibros.com
31
Para el clculo de la probabilidad buscada tenemos que averiguar ahora el nmero g(A)
de los resultados favorables para A. Es mucho ms conveniente calcular primero el n
mero g(A) de los desenlaces favorables para A. El suceso A consiste en que entre las n
personas elegidas no haya dos o ms que cumplan aos el mismo dia, es decir, en que ca
da una de las n personas cumpla aos un da distinto al de todos los dems. El nmero
de los resultados favorables para A es igual (considerando de nuevo la sucesin) a
= ------n factores
:---------
/365 \
a . i U
k
(_ !6> ' .
365"
de donde resulta, segn una frmula anterior (ver corolario 1, proposicin 5), la proba
bilidad buscada
P tA )= l-P (A )= l-
(" >
365"
En la tabla siguiente damos, para distintas n, la probabilidad de que entre n personas, por
lo menos dos cumplan aos el mismo da.
n
10
20
22
23
24
30
40
50
P(A)
0,12
0,41
0,48
0,51
0,54
0,71
0,89
0,97
2.3
www.FreeLibros.com
2.
los sucesos A y B, a los cuales corresponden dominios parciales de igual medida (por
ejemplo, intervalos de igual longitud, conjuntos de puntos en el plano de igual rea, cuer
pos en el espacio tridimensional de igual volum en), posean tambin la misma probabili
dad, se calcula la probabilidad de un suceso A. que est en relacin con un experimento
semejante, segn la frmula
P{A) =
m(A)
m(E)
(1)
Figura 11
m(E) = 6 0 60
2
33
www.FreeLibros.com
V 4 /
m{E)
La probabilidad del encuentro con 15 min de espera es, por tanto, algo menor que 0,5.
Dejamos al lector que verifique que, por ejemplo, la probabilidad del encuentro con
30 min de espera es igual a 0,75. Adems, el lector puede deducir fcilmente una relacin
general entre la probabilidad del encuentro y el tiempo de espera.
Obsrvese que a los sucesos aleatorios a los cuales corresponde un dominio parcial, que
posee una dimensin ms pequea que el dominio bsico E (por ejemplo, un punto sobre
una recta numrica, una recta en el plano, un plano en el espacio), les corresponde la
probabilidad cero.
La definicin geomtrica de probabilidad dio m otivo en pocas anteriores a todo tipo de falsos en
tendim ientos, equivoco? y criticas; esta condujo incluso en cierta medidai a un rechazo del clculo de
probabilidades com o disciplina cientfica. Para fundamentar esto se hizo referencia a problemas cuya
solucin es dependiente del m todo utilizado, es decir, que conducen a distintos resultados con mtodos
de solucin diferentes. La causa de esto no radica en cualesquiera contradicciones del concepto geom
trico de probabilidad, sino en la insuficiente precisin en el planteam iento del problema. Traem os un
ejemplo que es conocido en la literatura com o la paradoja de Bertrand; este proviene, como otros mu
chos ejemplos semejantes, del m atem tico francs J. Bertrand (1822-1900).
P r o b l e m a . En una circunferencia se traza de forma aleatoria (arbitraria) una cuerda. Cul es la
probabilidad de que su longitud supere la del lado de un tringulo equiltero inscrito en la circunfe
rencia (suceso A)1
S o l u c i n 1. Fijemos una direccin de la cuerda y observemos un dimetro perpendicular a dicha
r
3r
direccin (fig. 13). El suceso A ocurre si y solo si la cuerda corta al dimetro entre y ----- .
2
2
Luego se cumple
mtA)
r
1
P{A) = ------------------- .
m ()
Ir
2_____________________________________________________________________
S o l u c i n 2.
la circunferencia
dicho punto (fig.
medio. Luego se
la cuerda sobre la
circunferencia,
un tringulo equiltero inscrito en
ella con un
y solo si la cuerda
cae en el sector
^ ) = ^ L = i l = _L.
m(E)
34
www.FreeLibros.com
tracemos la
vrtice en
angular del
Figura 13
(i)'-
m(E)
rb:
Figura 15
En el planteam iento del problema no est fijado qu se entiende por el trazado aleatorio de una cuer
da. En las soluciones dadas esto fue concebido cada vez de m anera diferente. En la solucin 1 se parti
del m odelo de la tirada aleatoria de un punto sobre un intervalo de la longitud 2r; en la 2, del lan
zam iento aleatorio de un punto sobre un intervalo de la longitud it , y en la 3, de la tirada aleatoria
de un punto sobre la superficie de un crculo con radio r. entendindose cada vez la palabra aleatoria
tal como se indica en la definicin geom trica de probabilidad. Las tres soluciones dadas no son, por
tanto, soluciones del problema anterior, sino de otros 3 problem as distintos entre s; el problema mismo
no es, sin precisin de lo que se entiende por trazado aleatorio de una cuerda, soluble en la forma
dada.
2.4
www.FreeLibros.com
35
Os: p ( A 1.
Con el axioma 1 se establece, por tanto, el dominio de definicin y la imagen de la fun
cin P; P es una funcin real definida sobre un lgebra de sucesos con valores entre cero
y uno. El axioma 1 lleva implcito tambin que todo suceso aleatorio posee una probabi
lidad bien determinada.
A x io m a 2. La>probabilidad del suceso seguro es igual a uno:
P ( l ) = 1 (axioma de norm acin).
Observemos al respecto que un lgebra de sucesos al cual pertenezcan los sucesos alea
torios A y B contiene tambin, segn definicin, a A u , o sea, que junto con A y B tam
bin A j B pertenece al dominio de definicin de la funcin P.
Utilizando solamente el axioma 3 se puede demostrar con el principio de induccin
completa la proposicin siguiente:
C o r o la r io 1. D ados n (n > 2) sucesos aleatorios mutuamente excluyentes dos a dos
del lgebra de sucesos considerada, la probabilidad de que ocurra uno de ellos es igual
a la suma de las probabilidades de estos sucesos:
y ^ e A O ^ l^ ,...,/! ) ,
A ,r \A k=4>(i^k; i,k = l,2 ,...,n )
U na regla de clculo correspondiente, para la probabilidad de la suma de un conjunto
infinito numerable de sucesos aleatorios incompatibles dos a dos, no se puede demostrar
con el axioma 3; no obstante, subordinamos tambin al concepto general de probabilidad
la validez de una regla de clculo semejante de forma conveniente.
36
www.FreeLibros.com
Advertimos que un lgebra de sucesos a la cual pertenezcan los sucesos >4^' = 1 ,2 ,...)
contiene tambin, segn definicin, a
1" 1
;=1
Aj pertenece al dom inio de definicin de la funcin P. El concepto lgebra de sucesos
est fijado de tal modo, que todos los sucesos que aparecen en los axiomas y en las pro
posiciones del epgrafe 2.5, que se deducen de estos, pertenecen al lgebra de sucesos, es
decir, al dom inio de definicin de la funcin P.
La propiedad expresada en el axioma 4 se designa com o o-aditividad de la m edida de probabilidad
P. Esta conduce a una propiedad de continuidad en el sentido siguiente.
T e o r e m a 1. Sea (^ )u n a sucesin de sucesos aleatorios A) e \ ( j = l ,2,...).
X ^ A j )
V j=\
lim
PiAJ.
A l = l i m
!~~
PiA>-
N o dem ostrarem os este teorem a, pero lo com entarem os un poco. Si (d;) es una sucesin de subcon
juntos (de un conjunto universo i), entonces las sucesiones con A, ^ A E y A , 2 a } 2 . . . son conver
gentes en el sentido del lim ite algebraico conjuntista, y se cum ple que
lim A k=
k~~
At y lim A k=
,=1
,=1
significan
la
validez
de
Los axiomas 1 hasta 3 proporcionan que se pueden demostrar en el caso en que se apli
que la definicin clsica de probabilidad (ver 2.2 , cololario 1, proposiciones 1 hasta 3).
Asim ism o son vlidas proposiciones semejantes para la funcin f , que hace corresponder
a cada suceso aleatorio A e A la frecuencia relativa de la ocurrencia de A en n repeticiones
realizadas independientes unas de otras del experimento aleatorio observado (ver 2.1,
corolario 1, proposiciones 1 hasta 3 ). N o formularemos com o axiomas para el concepto
general de probabilidad las otras propiedades com unes establecidas para la frecuencia
relativa y el concepto clsico de probabilidad, porque ellas se pueden deducir de los
axiomas 1 hasta 3 (ver 2 .5 ). Tam poco exigirem os que A sea un suceso seguro cuando se
cum pla que P{A) = 1 , ya que esta proposicin no es verdadera en el m arco de la definicin
geom trica de probabilidad (ver 2 .3 ). En este contexto introducirem os dos conceptos.
D e f i n i c i n 1. Si se cum ple que P{A) = 1 {P{A) = 0 ) , entonces se llam a al suceso alea
torio A ( e A ) un suceso casi seguro (suceso casi im posible. )
A continuacin dam os las definiciones de dos conceptos frecuentem ente utilizados en la
teora de probabilidades.
www.FreeLibros.com
37
2.5
0.
( 1)
D e m o s t r a c i n . Se cumple que 0e2 (ver 1.4, corolario 1, proposicin 1), o sea, que
el suceso imposible pertenece al dominio de definicin de P. A causa de que 0m>= tp, se
cumple, segn el axioma 3, que
/\* v 0 = P (# + F (6 = 2 P (0 .
Como 0 u 0 = 0 , se cumple que P(<j>yj<t>) =P{<j>) y con esto que P(<t>) =2P(</>), de donde se ob
tiene (1).
T e o r e m a 2 . Para todo suceso aleatorio A e A se cumple que
P ( ) = \- P { A ) .
(2)
www.FreeLibros.com
P(A r ,B ) .
D e m o s t r a c i n . Se cumplen
(3)
A u B = A u (B r\A )
A u B = B u(A r> B )
A ^ B = ( A n B ) v ( B r .A ) v ( A n B )
donde los sumandos situados a la derecha son en todos los casos mutuamente excluyentes
dos a dos (fig. 8). D e la aplicacin del axioma 3 y del corolario dado a continuacin de
este se obtiene que
P(A ^ B ) = P ( A ) + P ( B n A ) ,
P(A j B) = P ( B ) + P ( A r , B ) , _
P(A \ j B ) = P ( A n B ) + P [ B n A ) + P ( A r > B ) .
Si formamos la diferencia entre la suma de las dos primeras ecuaciones y la tercera ecua
cin, se obtiene (3).
T e o r e m a 4 . Si la ocurrencia del suceso aleatorio A e A implica la ocurrencia del suceso aleatorio B e A (o sea, si se cumple que A Q B ) , entonces se cumple que P A ) ^ P ( B )
D e m o s t r a c i n . Se cumple (fig. 16) que
B -A u (B n A )
con A n ( B n A ) = 0 .
Figura 16
www.FreeLibros.com
39
3.
3.1
www.FreeLibros.com
<i>
f n (B)
Si el experimento aleatorio observado posee fc(< <*>) resultados y estos son igualmente po
sibles, entonces se cumple para la probabilidad P(A\B) del suceso A bajo la condicin de
que el suceso B ocurra, segn la definicin clsica, la relacin
g(A nB )
F U \ B ) - * m L = --------i --------,2)
m
m _
m
k
denotando g(C ), como antes, el nmero de los resultados que provocan la presencia del
suceso C.
Las relaciones (1) y (2) son la base para la siguiente definicin general de probabilidad
condicionada.
D e f in ic i n 1. Sea A un lgebra de sucesos, P una probabilidad sobre A y B e A un
suceso aleatorio de probabilidad positiva (P(B) > 0 ) . Entonces se llama a
P(A\B) = p (A n B )~
P(B)
(3)
www.FreeLibros.com
1-------- 1
II
I--------1
III
_________p________________ Q_____________ 1 ~ ( p + q)
I m m W iWWiWWWW |
\-------------------------1
--------------------- .--------------------- - 1
1- p
Figura 18
Ahora,
P{B)
p im
Con P(A) = q y P{B) =1 P(B) =1 - p (fig. 18), obtenemos
P(A\B) = - i - ,
1
-P
P i 4 \ m = = p (a ).
42
www.FreeLibros.com
(4)
es una funcin definida sobre el lgebra de sucesos A para up suceso fijo B e A de proba
bilidad positiva P(B) > 0 . Designemos esta funcin con PB; se cumple por tanto que
P M ) =P(A\B) = P{A nB ) ,
P(B)
El siguiente teorema, cuya demostracin recomendamos mucho al lector, contiene pro
piedades esenciales de la funcin PB.
T e o r e m a 1. Sea [A,P] una familia de probabilidades y B e A un suceso aleatorio de
probabilidad positiva. La funcin PB definida por (4) posee todas las propiedades que se
expresan en los axiomas 1 hasta 4 (epgrafe 2.4), es decir, [A .P j es tambin una familia
de probabilidades.
La probabilidad condicionada PB posee tambin, a causa de la validez del teorema 1,
todas las propiedades que fueron demostradas para la probabilidad (incondicionada) P
(ver 2.5, teoremas 1 hasta 5).
Por ltimo, advertimos que se puede interpretar la probabilidad (incondicionada) como
probabilidad condicionada con respecto al suceso seguro; se cumple para todo suceso
aleatorio A e A que
P ( l)
3.2
Trataremos en este capitulo el clculo de la probabilidad del producto de dos suceso^ alea
torios A y B. Para ello supongamos que A y B poseen probabilidades positivas. (En caso
contrario se cumple, en virtud de A n B A y A n B E B, la relacin P(A nB ) = 0 (ver 2.5,
teorema 4), de modo que entonces toda investigacin ulterior es innecesaria). La proba
43
www.FreeLibros.com
(1 )
La probabilidad del producto de dos sucesos aleatorios con probabilidades positivas es,
por tanto, igual a la probabilidad condicionada de un suceso respecto al otro por la pro
babilidad (incondicionada) del otro.
De (1) s obtiene directamente la siguiente relacin, que necesitaremos ms tarde:
P(A\B)
P(B\A)
P{A)
P{B)
(2)
3 '
(Se puede obtener tambin este resultado directamente por medio de la definicin clsica
de probabilidad:
-------
P{A) =
1 2
1 -2
1 0 -9
www.FreeLibros.com
(3)
3.3
(1)
o sea, si la probabilidad del producto de los sucesos es igual al producto de las probabi
lidades de dichos sucesos.
O b s e r v a c i n . En esta definicin no hemos prestado atencin a la limitacin, dada
desde un inicio, de que A y B posean probabilidades positivas. D os sucesos aleatorios, de
los cuales uno por lo menos posee la probabilidad cero, se pueden concebir como inde
pendientes uno de otro segn la definicin 1, ya que siempre se satisface (1).
Los conceptos mutuamente excluyentes e independientes se deben diferenciar rigurosamente. La ex
clusin m utua de dos sucesos A y B significa que A n B = & y por tanto se cum ple que P(A nB ) = 0 . Por
el contrario, la independencia significa que P(A nB ) = P( A ) P(B). Por consiguiente, dos sucesos m utua
m ente excluyentes de probabilidad positiva no son independientes uno de otro.
www.FreeLibros.com
45
= m
= n Q = =
36
2
P(A nB) = I \A n C ) = P {B n C ) = =
36
4
Los sucesos A, B y C son, por tanto, independientes dos a dos. Sin embargo, se cumple
por ejemplo que P[C\a n B ) = 0 * P (C ), es decir, el suceso C no es independiente del suceso
A n B . Por consiguiente, no designaremos a los sucesos A. B y C como completamente in
dependientes unos de otros.
D e f in ic i n 2. Los sucesos aleatorios A v A...... A se llaman completamente indepen
dientes (entre si), si para todo nmero natural
n y para nmeros naturales cualesquie
ra i,......ik, con 1 ^ i , < .. . < i k< n se cumple la relacin
(2 )
Los sucesos aleatorios A v A v ...,A n,... de una sucesin infinita se llaman completamente in
dependientes si para todo nmero natural n los sucesos A v A P...,A son completamente
independientes.
C o r o la r io 2. Si los sucesos A v A V...,A Hson completamente independientes, entonces
son tambin independientes dos a dos.
Esta proposicin se obtiene directamente de la definicin 2. Como muestra el ejemplo
anterior, el reciproco es falso, es decir, de la independencia mutua (dos a dos) no resulta
la independencia completa.
Par finalizar este epgrafe, queremos indicar un teorema que proporciona ideas interesantes sobre
las familias de probabilidades y sobre el concepto independencia.
T e o r e m a 1. (Lema de Borrl-Cantelli)
Sea [A,/) una familia de probabilidades y (AJ N una sucesin de sucesos aleatorios AeA . Con A m
denotamos al suceso aleatorio que tiene lugar si y solo si ocurre un nmero infinito de sucesos de la
sucesin
N.
a) Si se cumple que
www.FreeLibros.com
Este teorem a,
las leyes fuertes
posicin de este
piedades de un
que no querem os dem ostrar, desem pea una funcin importante en la dem ostracin de
de los grandes nmeros. Sin embargo, queremos fundam entar por lo m enos que la pro
teorem a es razonable, o sea, que se cum ple
A. Esto resulta en virtud de las pro
lgebra de sucesos (ver 1.4, definicin 1 y corolario 1) sobre la base de la relacin
A m= O
=0 k=n
A_=
(~)
Ak
n=0 Jk=n
es el llam ado limite superior de la sucesin W )6 N: se cum ple que x e A _ si y solo si x es elem ento
de un nm ero infinito de subconjuntos A n. )
3.4
(1)
O b s e r v a c i n . La frm ula (1) se llam a frm ula de la probabilidad total o tambin com pleta por
que con ella se puede calcular la probabilidad (incondicionada) de un suceso B a partir de sus probabilidades condicionadas, que en este contexto se designa com o probabilidad total o com pleta
(fig. 19).
Figura 19
(B n A ,).
www.FreeLibros.com
47
P (B \A ) P (A ),
Receptor
Canal interferido
(x ~ y)
{*)
(y)
Figura 20
0,2
0,5
0
0,1
0,2
0,7
www.FreeLibros.com
3.5
Frmula de Bayes
.l .
K u w
( t = 1 , 2.......(1)
r w
2
1=1
PIB)
D e aqui resulta
P J B jA J W
PB)
Como las condiciones para la aplicacin de la frmula de la probabilidad total se satis
facen (ver 3.4, teorem a 1), obtenemos con esto
W .U ) -
(fctr 2,......
1=1
o sea, se cumple (1).------------E je m p lo . Continuamos con el ejemplo del epigrafe 3 .4 y nos interesamos ahora por
la probabilidad rjk de que~la seal x k haya sido la enviada una vez que se ha recibido ya
la seal yf Con las notaciones anteriores se tiene que r/k= P (A kBJ) . Por medio de la fr
mula de Bayes obtenemos
rik=PiAh\B ) ^
l
P(B)
q,
( k = 1, 2 ,..., n; j = 1, 2 , .. ., m ),
donde los nmeros qt estn dados por q.
p ljp l( j = l ,2 , .. ., m ) .
=i
0,70
0,18
0,12
0 ,40
0,20
0,60
0,24
0
0,56
www.FreeLibros.com
49
(Por ejemplo, se cumple que rll= PaP% = 2 --3 = 0,24, es decir, la probabilidad de
q,
0,25
que la seal x 2 haya sido enviada cuando se recibi la seal y, es de 0,24.)
Queremos fundamentar un poco la significacin de la frmula de Bayes. Para ello po
demos partir de la consideracin de un experimento aleatorio en el cual, en cada opor
tunidad, ocurre exactamente uno de los sucesos aleatorios A, A ,..., A n. Imaginemos que
no es posible una observacin directa del experimento con respecto a la ocurrencia de los
sucesos A v A j,..., A n, pero que las probabilidades de estos sucesos son conocidas o que
existen valores estimados para ellas. (En esta relacin se denominan tambin las proba
bilidades PA) ( = l , 2 ,..., ti) como probabilidades a priori.) Si se puede observar ahora
la ocurrencia del suceso B en la realizacin del experimento, se procura utilizar esta in
formacin en la toma de la decisin sobre cul de los sucesos A v A v ..., A n ocurre en el
experimento. Para ello se calcularn las probabilidades condicionadas P{Ak\B) de los su
cesos A k( k = 1, 2 ,..., n) con respecto a B segn la frmula de Bayes. (En este contexto se
denominan tambin las probabilidades P{Ak\B) (fc= l, 2 ,..., n) como probabilidades a posteriori.)
Una regla de decisin posible y muy clara consiste en que ante la presencia del suceso
B se considere como ocurrido aquel de los sucesos A k{ k = 1, 2 ,..., n) que tiene la mayor
probabilidad bajo la hiptesis de que el suceso B ocurre; por tanto, se elige entre los su
cesos v4t(fc= l, 2 ,..., rt) aquel que, dando por sentado a B, tiene mayor probabilidad. Na
turalmente, esta decisin no est excenta de error, pero, se puede indicar la probabilidad
de una decisin falsa. Sobre este principio de decisin se basan muchas reflexiones, par
ticularmente de la Estadstica matemtica; el principio se debe a un clrigo ingls, Thomas Bayes (fallecido en 1763), pero fue solo conocido y aplicable despus de una nueva
formulacin hecha por P.S. Laplace.
E je m p lo . Si aplicamos el principio de decisin descrito al modelo considerado de un
sistema de trasmisin de noticias, esto significa que ante la recepcin de la seal y con
sideramos como enviada aquella seal x,, para la cual la probabilidad rt es el mximo del
conjunto de los nmeros rjk (fc= l, 2 ,..., n), es decir, que tiene la mayor robabilidad de
haber sido enviada. Para el ejemplo numrico esto significa, que ante la recepcin de las
seales y v y 2 y y t se decidi por x v x 2 y x }, respectivamente. (Estas tres decisiones estn
provistas de errores; la probabilidad de una decisin falsa asciende a 0,3 para la deduc
cin de y, a x,, 0,4 para la de y a x y a 0,44 para la de y a x,.)
50
www.FreeLibros.com
4.
4.1
Los epgrafes siguientes contienen muchos ejemplos y motivaciones para los conceptos que
se introducen aqu de forma general, de modo que se obtendr pronto una cierta familiarizacin con estos conceptos.
5!
www.FreeLibros.com
(1)
(2)
www.FreeLibros.com
n=i
P (X < a ) = lim (A"<x), o sea, F(a) = lim F(x), con lo cual est demostrada la continuidad por la iz
quierda de F.
4.
La existencia de los lim ites sealados resulta de la monotona y del acotam iento de F (proposicio
nes 1 y 2); adems, se cum ple evidentem ente que 0 ^ lim F(x) lim F(x) 1. Por tanto, es suficien
te demostrar que se cum ple lim F ( - n ) = 0 y lim
naturales. Para ello considerem os los sucesos m utuamente excluyentes dos a dos
( j= 0 , 1 , 2 , . . . ) . Entonces se cum ple (ver 2 .4, axiomas 2 y 4) que
X<j),
(3)
(4)
(5)
(6)
53
www.FreeLibros.com
que en unin con (1) muestran cmo se calcula, mediante la funcin de distribucin FA,
la probabilidad de que la variable aleatoria X acepte un valor de un intervalo arbitrario
dado.
Ahora queremos tratar brevemente las funciones de variables aleatorias. Primero nos
ocuparemos de la igualdad de variables aleatorias. Las variables aleatorias son funciones
y, por tanto, ya est definida en principio la igualdad de dos de ellas. En la Teoria de
probabilidades es conveniente y usual definir un concepto igualdad un poco ms general,
el cual considere la particularidad del dom inio de definicin comn (conjunto universo de
un espacio de probabilidad) de una forma adecuada.
D e f i n i c i n 3: D os variables aleatorias X y Y definidas sobre un espacio de proba
bilidad comn [SI,A,/*] se denominan iguales (simblicamente: X = Y ) , si se cumple que
/ >({a)e:A'(a)) = y(co)}) = 1 ,
o sea, si el suceso (X = Y ) es casi seguro.
T e o r e m a 2 . Sea [Si,A, P ] un espacio de probabilidad, X una variable aleatoria (sobre
[2, A ,P]) y g una funcin real continua definida sobre el eje real. Entonces la funcin
g(X) definida por
[g(J0 ](<a) =g(A(o>)), coe
(8)
(9)
( 10)
a
2. Para Y =X * se cumple que
para
0,
para x > 0 .
( 11)
para x > 0 .
www.FreeLibros.com
(12)
x-b \ i
x-b
\
x-b
X > ------- J = 'l - p \ X s --------- j = 1 - /rv l ---------*-0
a
'
a '
' a
o sea. (10).
2. Para xsS 0 se cumple que F }(x) =P( X*<x) = 0 . Para x > 0 se obtiene que
F ,< x) = P(X><x) = P ( \ x |<>/T)
4.2
A.
V.
P !
n2
...
p>
www.FreeLibros.com
P( X = x)
Jki.
Figura 21
El teorema siguiente muestra, entre otras cosas, que mediante la tabla de distribucin
se fija realmente la funcin de distribucin de la variable aleatoria considerada.
T e o r e m a 1. Sea X una variable aleatoria discreta con la tabla de distribucin (1).
Entonces se cumplen las proposiciones siguientes:
1. Pk> 0,
2. Fx(x) = ^
k:x^<x
ir*. 22).
y
i
y-FJx)
l
l
l1
i
0
X,
Figura 22
Se dice tambin que X posee una distribucin puntual (en el punto x ,) . Por consiguiente,
una variable aleatoria distribuida en un punto posee siempre, independientemente del re
sultado del experimento, un mismo valor. Este caso puede concebirse como caso extremo
de lo casual.
Concluiremos este epigrafe con un ejemplo.
E je m p lo . La probabilidad de que un cazador acierte un objetivo es de 0,4 en cada
tiro. Se acuerda que solo en caso de no acertar con el primer tiro se tire una segunda vez.
56
www.FreeLibros.com
Si entonces el objetivo tampoco es acertado, se dispara una tercera y hasta una cuarta
vez, en caso de no dar en el blanco con el tercer tiro. Independientemente de si el cuarto
tiro fue certero o no, no se dispara despus ninguna otra vez. Designemos con X el n
mero de los tiros disparados por los cazadores; X es una variable aleatoria discreta. Los
valores posibles de esta variable aleatoria son los nmeros 1, 2, 3 y 4. Calculemos ahora
las probabilidades individuales p k= P { X = k ) para k = 1, 2, 3 y 4. Para ello introduzcamos
los sucesos siguientes:
A ... El tiro nmero i es certero ( i = l , 2, 3, 4).
Se cumple que P(A) = 0 ,4 y P() = 0 ,6 . Adems, los sucesos A v A P A y A 4 son completamente independientes (ver 3.3, definicin 2). As, por ejemplo, la probabilidad del
suceso da en el blanco con el tercer tiro es igual a la probabilidad de este suceso bajo la
condicin de que los tiros anteriores fueran certeros; por tanto, en esta reflexin no posee
ninguna significacin el que, por ejemplo, no se disparen otros tiros en caso de dar en el
blanco con el primero.
Expresemos los sucesos (A'= 1), ( X = 2 ) , (X = 3) y (X = 4 ) mediante los sucesos A v A }, A,
y av
(X = l ) = A V
(JT=2 ) = A l n A v
( X = 3 ) = A i n A 1n A r
( X - 4 ) = A n A }nA.
Luego, se muestra que no necesitamos para esto al suceso A t.
Considerando la independencia de los sucesos A A A, y A , obtenemos
Pl= P ( X = l ) = P < A = 0 , 4 ,
Pl= P ( X = 2 ) = P [A 1n A ^ =P (A i)P (AJ = 0,6 0 ,4 = 0 ,2 4 ,
p , = P ( X = 3) = ^ , 0 ^ ^ , ) =P{AP{AJ>P{AJ = 0 ,6 0 ,6 0 ,4 = 0 ,1 4 4 ,
P a= P { X = 4) ^ P i A ^ A ^ A J = P { A l)P (A P {A J = 0 ,6 0 ,6 0 ,6 = 0 ,2 1 6 .
(El clculo de p A hubiramos podido hacerlo ms sencillo, ya que los sucesos (A"= 1),
(X = 2 ) , (X =3 ) y (X = 4) forman un sistema completo de sucesos y con esto se cumple que
Pl +P>+Pi + P * = l) La tabla de distribucin de la variable aleatoria X tiene* por consiguiente, la forma si
guiente (comparar con fig. 23):
1
0,4
0,24
0,144
0,216
P ( X = x)
57
www.FreeLibros.com
U = 0 ,4
Fx(x) = p ( X < x ) = l p t + p t= 0 , 6 4
P ^ + P i =0,784
\P l + P i + P } + P 4 = l
1,
1 <x 2,
2 <xS 3,
3 < x < 4,
x>4.
Figura 24
4.3
(1)
se llama valor esperado de la variable aleatoria X; aqu se supone que la serie situada en
el miembro derecho de (1 ) converge absolutamente, o sea, que se cumple que
^
nmero finito de valores, de modo que a toda variable aleatoria discreta con un nmero
finito de valores le corresponde, segn (1 ), un valor esperado.)
Por consiguiente, el valor esperado de una variable aleatoria discreta es la media pe
sada de todos los valores x t de X, emplendose como peso de todo valor x k la probabilidad
individual correspondiente p k. (Aqu no se presenta explcitamente la divisin por la suma
de todos los pesos, usual para, la media pesada, ya que esta suma es igual a uno.)
58
www.FreeLibros.com
La tabla de distribucin de una variable aleatoria discreta que toma los valores xk con las probabi
lidades pk, se ilustra bien com o un sistema de masas puntuales que posee en los lugares xk m asas pk (y
tiene, por tanto, la masa total u n o ). En esta ilustracin corresponde al valor esperado de la variable
aleatoria el centro de gravedad del sistema de m asas puntuales.
0,24 + 3
0,144 + 4
0,216 =2,176.
(2)
(3)
^
k
Eg(X) = J l x j p k.
k
(4)
(xk- c y p k
(5)
59
www.FreeLibros.com
y
E \ X - c \ >=
siempre y cuando la serie situada a la derecha de (6) sea convergente.
Variables aleatorias con el mismo valor esperado pueden diferenciarse considerable
mente en las tablas de distribucin, ya que el valor esperado no ofrece ninguna informa
cin de cmo se desvan los valores individuales de la variable aleatoria del valor espe
rado. La llamada varianza es la medida ms utilizada de la desviacin de los valores res
pecto al valor promedio de la variable aleatoria, que se describe por el valor esperado.
D e f in ic i n 2 . Sea X una variable aleatoria discreta con el valor esperado EX, que
toma los valores x k con las probabilidadesp k= P ( X = x k). Entonces el nmero D 2X definido
D 'X = E (X -E X )'= 2
(xk- E X ) ' p k
(7)
{ d x
(8)
www.FreeLibros.com
(8)
D * =
* * - * )* A =
- ^
e x h e x
) 2) p k
Veamos ahora una proposicin que se corresponde bien con nuestras ideas acerca del
contenido del concepto varianza.
T e o r e m a 4 . La varianza de una variable aleatoria discreta es igual a cero, si y solo
si la variable aleatoria posee una distribucin puntual.
Dejamos la demostracin al lector; ella se obtiene directamente de (7).
T e o r e m a 5. Sea X una variable aleatoria discreta con la varianza D 2X, y sean a y
b nmeros reales cualesquiera. Entonces se cumple que
D 2 (a X + b ) = a 2D 2X.
( 10 )
(ID
y
(1 2 )
www.FreeLibros.com
61
x
El paso de la variable aleatoria X a la --------
se llam a normar.
\D*X
X E X
Para la variable aleatoria Z = ----------------- se cumple, por tanto, que E = 0 y D %
Z = 1;
yjD>X
X E X
----------------- se llama estandarizar.
el paso de l a
\ I d *X
Las caractersticas tratadas hasta ahora: valor esperado y varianza, pertenecen a los denom inados
momentos. A continuacin traem os la definicin de los momentos.
D e f i n i c i n 3 . Sea X una variable aleatoria discreta que toma los valores x k con las probabilidades
p adem s, sea j .un nmero natural y c, un nmero real arbitrario. Entonces los nmeros
n/c) = E ( x - c y = 2
(**~c)yp*
(13)
a,(c) = e \x - c \i = ^
k
\x k ~ c\JPk
<14)
se llaman, respectivam ente, m om ento ordinario y m om ento absoluto d e orden j con respecto a c, supo
nindose la convergencia absoluta de la serie situada a la derecha en (13) (o sea, la convergencia de
la serie situada a la derecha en (1 4 )). Para c = 0 se habla de m om entos iniciales y para c = E X , de mo
m entos centrales (suponindose la existencia de E X ).
A simple vista se observa que se cum plen las ecuaciones u(0) = E X , n,(Jf) = 0 ,u ,(0 ) = E X 1, 0,(0) = E X 1
y \iJ(E X )= D * X = a j(E X ). La ecuacin (9) plantea que n ,(J0 = M-a(0) -[n ,(0 ) l1.
An queremos dar y demostrar una inecuacin sobre momentos.
T e o r e m a 6 . Sea X una variable aleatoria discreta con la varianza D*X y c un nmero real arbi
trario. Entonces se cumple que
Z ) y r n a(c);
(15)
k'
H,(c) = E ( X - c ) 1=
(x k ~ c ) 1Pk=
^
k
k
=
x l P k -2 c 2
k
(x i - 2 c x t + c J) p k
x k P k + cl 2
k
Pk
k
= E X - 2 c E X + c
^ E X * -(E X ) + (E X ) - 2 c E X + c 1
= D tX + ( E X ~ c ) i > D 'X ,
de donde se obtiene la proposicin del teorem a 6.
El teorem a 6 m uestra que la varianza es el ms pequeo de los m omentos de segundo orden. El lector
debiera comparar esta proposicin con la correspondiente sobre m omentos de inercia.
El teorem a siguiente, sin dem ostracin, contiene algunas otras proposiciones sobre momentos, utili
zndose para los m om entos iniciales ordinarios de orden j la notacin (0 )); para los momen
tos centrales ordinarios de orden j, la notacin \ij (iij=\iJEX))y para los m omentos iniciales absolutos
de orden j, la notacin P/Py=dj(0)).
62
www.FreeLibros.com
(c) = a fe).
) m/
,/=2
, _
j _
(Para
j= 2
proporciona
esto
* .
Las caractersticas derivadas de los momentos, dadas en la siguiente definicin, son de importancia
para la apreciacin de una distribucin de probabilidad.
D e f i n i c i n 4 . Sea X una variable aleatoria discreta con varianza positiva. Entonces se llam a
(coeficiente de variacin),
11=
E {X -E X )*
n4
- 3 = 3 (curtosis).
(16)
(17)
(18)
4.4
( k = l , 2 ,...,n ).
(1)
Se dice tambin, entonces, que X posee una distribucin discreta uniforme (en los valores
x x,,...,x ).
U na variable aleatoria discreta distribuida uniformemente est caracterizada, por tan
to, porque solo puede tomar un nmero finito de valores, que tienen todos la misma pro
babilidad. Evidentemente no puede existir una distribucin uniforme en un nmero in
finito numerable de valores.
63
www.FreeLibros.com
(2)
luego se obtiene la media aritmtica de los valores; para la varianza se cumple (ver 4.3
(9)) que
(3)
4.5
Distribucin binomial
La distribucin binomial es una distribucin discreta que posee gran significacin prcti
ca. Adems, representa un medio auxiliar apropiado para la investigacin de regularida
des de fenmenos aleatorios, que son de importancia fundamental para la teora de pro
babilidades y para su aplicacin prctica.
D e f in ic i n 1. Sea n un nmero natural arbitrario y p, un nmero situado entre cero
y uno. Una variable aleatoria X que tome los valores 0, 1, 2 ,..., se denomina distribuida
binomialmente con los parmetros n y p, si se cumple que
P (*=fc) = ( ^ ) pHX-pV-"
(1)
para k = 0, 1, 2,...,n. Se dice tambin que X posee una distribucin binomial con los pa
rmetros n y p.
Antes de que investiguemos de forma ms exacta la distribucin binomial, queremos
ocuparnos de su existencia. El punto de partida lo constituye un suceso aleatorio A, que
se presenta en el resultado de un determinado experimento aleatorio con la probabilidad
P(A) =p. El nrneu (aleatorio) F(A), de la ocurrencia de A en n repeticiones realizadas
independientemente unas de otras del experimento aleatorio considerado, es una variable
aleatoria discreta con los n + 1 valores 0, 1, 2......n. Ahora queremos calcular las proba
bilidades
p k=P(Fn(A) =k) para k = 0, 1, 2,...,n .
El suceso (F(A) =fc)_ocurre si y solo si en la serie de experimentos descrita, el suceso A
ocurre k veces y el A, (n - k ) veces. Toda sucesin de sucesos semejante posee, a causa
de la independencia de cada uno de los experimentos, la probabilidad p k(l p)"~k. Como
64
www.FreeLibros.com
existen
C)
A, se obtiene
P(F(A) = k ) =
(2 )
p V - p )"
(:)
C)
p k (i - p Y
(3)
0,122
0,270
0,285
0,190
0,090
0,032
0,009
0,002
65
www.FreeLibros.com
y P^C=k) <0,0005 para k = 8, 9 ,...,2 0 (ver tabla 1 (12.1) y fig. 25). Con esto se demuestra
que el resultado descrito anteriormente de la muestra (5 piezas fo n dimensiones no ade
cuadas en la muestra aleatoria de 20 piezas), suponiendo que p = 0 ,1 0 , posee una proba
bilidad que es aproximadamente igual a 0,03 (= 3 % ). Por tanto, sobre la base de esta
muestra se pondrn seriamente en duda los informes del productor. Si se quiere estimar
la probabilidad p de producir una pieza con dimensiones no adecuadas, sobre la base de
la muestra independientemente de los informes del productor, entonces se utilizar como
valor estimado p la frecuencia relativa de la presencia de piezas con dimensiones
no-----adecuadas
en
la----- muestra,
es
decir,
se
utilizar
el
nmero
A 5
1
A
p = = = 0,25 (25 %). (Se reflexiona fcilmente que p es aquel nmero para el cual
20
4
A
la funcin p *b(5;20,P) acepta el mximo, o sea, que p es aquel valor para el cual es
mayor la probabilidad de obtener una muestra como la extrada.)
(4)
b ( k + l ; n, p) = -2 b(k;n,p),
k+1
1 p
(5)
66
www.FreeLibros.com
(6)
Las demostraciones de las frmulas indicadas son fciles de realizar mediante el empleo
de la definicin de los coeficientes del binomio y utilizando (3). La frmula (4) muestra
que para hacer tablas nos podemos limitar al caso 0 < p ^ 0,5; las frmulas (5) y (6) son
frmulas para el clculo recursivo de b(k + 1; n,p) y b(k 1; n,p) a partir de b(k;n,p).
Por lo dems, se debe tener en cuenta que el clculo de b(k; n,p) tropieza con dificultades, particularmente para n grandes y p pequeas; con posterioridad conoceremos frmulas de aproximacin, convenientes precisamente para estos casos.
Nos dedicaremos ahora a la determinacin del valor esperado y de la varianza de va
riables aleatorias distribuidas binomialmente.
T e o r e m a 2 . Sea X una variable aleatoria distribuida binomialmente con los parme
tros n y p. Entonces se cumple que
EX=np,
D 1X = n p ( l - p ) ,
(7)
(8)
(9)
= np [p + (l -/>)]"-* = np.
Asi vemos que, en concordancia con nuestras ideas sobre este contenido, el valor espe
rado de la frecuencia absoluta F(A)' de la ocurrencia de A en n repeticiones independien
tes de un experimento, es igual al producto del nmero n de experimentos por la proba
bilidad P{A) de este suceso, y que la varianza para p = 0 y p = 1 es igual a cero y para
p = , es mxima.
2
El teorema siguiente da informacin sobre el coeficiente de variacin 0, el coeficiente de asimetra
Y y la curtosis ti de una distribucin binomial.
67
www.FreeLibros.com
T e o r e m a 3. Sea X una variable aleatoria distribuida binomialmente con los parm etros n y p. En
tonces se cumple que
(10)
np
y=
12p
(11)
\]n p (\-p )
^ J-W -P ).
n p ( l- p
(12)
Renunciaremos a la demostracin de (11) y (12); (10) se aclara sobre la base de (7) y (9). Obser
vemos que en el caso p = , y es igual a cero. En este caso, se cumple que P ( X = k ) = P ( X = n - k ) , lo
2
1
cual es equivalente a la simetra de la distribucin binomial con los parm etros n y p = .
2
(13)
(14)
)
n
'
np = p =P (A ) ,
= D*FA) = Pd - p ) =
n1
n2
_ 0 (n - * ~ ) .
n
Las relaciones (13) y (14) muestran que entre la probabilidad de un suceso aleatorio,
introducida axiomticamente, y las frecuencias relativas de este suceso, halladas de forma
prctica, existen nexos muy estrechos. La validez de las relaciones sealadas constituye
un motivo suficiente para estimar la probabilidad de un suceso- aleatorio mediante fre
cuencias relativas; este valor estimado representar tanto mejor un valor aproximado de
la probabilidad cuanto mayor sea el nmero de los experimentos realizados. La posibili
dad de estimar probabilidades de modo razonable hace de la teoria de probabilidades una
disciplina matemtica de aplicacin prctica.
68
www.FreeLibros.com
4.6
(1 )
P( X =k) =
V1 /
69
www.FreeLibros.com
b) P( X= 1) =
100 \
/1 0 0
10 /
V. 10
Nos asalta entonces la idea, de que cada una de las probabilidades de la distribucin
hipergeomtrica y binomial no se diferencian esencialmente, si el tamao de la muestra
n es pequea en relacin con el tamao N del lote de merbancias ( n N ) . En este caso,
por ejemplo, la no reposicin de un objeto defectuoso tiene una influencia muy pequea
sobre la distribucin de probabilidad para la prxima extraccin. (En esta relacin es in
teresante la proposicin siguiente: tambin en una muestra sin reposicin la probabilidad
de extrer un objeto defectuoso es igual para las distintas extracciones; esta es igual a
(2)
(3)
1
N- 1
(4)
www.FreeLibros.com
4.7
Distribucin de Poisson
(1)
para k = 0, 1, 2 ,... Se dice entonces que X posee una distribucin de Poisson con'el par
metro X.
La evidencia de que mediante (1) est definida una probabilidad, se obtiene directaXk
<*.<
mente aplicando el desarrollo en serie de la funcin exponencial el = > ---*=o k !
(2)
(3)
(4)
D e m o s t r a c i n . Solo demostraremos (3); el lector debe demostrar (4) como ejercitacin. Se cumple que
A*
ex
x kPt =
k
x> = 2 * = T 7 e ~
k
k=0
T til
T ,
kl
xj
->
(t-l)l
e x=X ex e~x=X.
j -o J-
El siguiente teorema ofrece ms informacin sobre la influencia del parm etro X en la distribucin
de Poisson.
www.FreeLibros.com
T e o re m a 2. Sea X una variable aleatoria distribuida segn Poisson con el parm etro >.>0. Enton
ces se cumple que
(' = ----- (coeficiente de variacin).
(5)
(6)
>
V= (curtosis).
).
O)
( n ^
V * '
np >.=. consl.
I
De mo s t r a c i n . Con p =
n
(" )
V k t
(8)
se cumple que
o - f )-
n nn
_
k! '
A V
n '
( i - A V
V
n '
(9)
Como los nmeros b(k; n,p) son difciles de calcular, especialmente para el caso > > 1
y p < < 1, la relacin (9) es muy til para la determinacin numrica de probabilidades de
la distribucin binomial. Para el clculo de las probabilidades de la distribucin de
Poisson, que se necesitan tambin en la aplicacin de (9), son convenientes las frmulas
recursivas dadas en el siguiente teorema.
T e o r e m a 4 . Se cumplen las relaciones
p(k + 1; X) ----------p(k\ X), k ^ O
k+1
(10)
p{k 1; X) = p(k\ X ) , k ^ \ .
X
(11)
www.FreeLibros.com
73
www.FreeLibros.com
5,
En este capitulo queremos tratar las variables aleatorias continuas, cuya caracterstica co
mn consiste en que el dominio de valores es un intervalo (estando tambin permitido el
conjunto R ). En relacin con variables aleatorias continuas nos interesa particularmente
que la variable aleatoria considerada tome valores de un intervalo arbitrario dado. La
probabilidad de que una variable aleatoria continua tome un valor determinado cualquie
ra, es siempre igual a cero, de modo que no se puede caracterizar la distribucin de pro
babilidad de una variable aleatoria continua indicando probabilidades particulares. Lue
go, las variables aleatorias continuas se caracterizan por el hecho de que la probabilidad
de tomar valores de un intervalo cualquiera se obtiene como el rea entre el eje x y la
llamada densidad de probabilidad sobre el intervalo considerado. Esto conduce, por tan
to, a la aplicacin del concepto de integral y en especial, a la utilizacin de integrales im
propias.
Observe el lector la aualoga de las definiciones, frmulas y proposiciones de este cap
tulo con las correspondientes del capitulo 4; estas solo se diferencian con frecuencia en
que en lugar del smbolo de sumatoria y de la probabilidad particular estn el smbolo de
integral y la diferencial de la funcin de distribucin, respectivamente.
Utilizando una teoria general de la integracin y la medida, se puede tra tar al mismo tiempo varia
bles aleatorias discretas y continuas. De esta forma se pueden representar de forma nica, mediante
integrales adecuadas, las probabilidades, el valor esperado, la varianza y los momentos de orden su
perior que nos interesan, obtenindose, naturalm ente, tanto en el caso discreto como continuo, las de
finiciones, frmulas y proposiciones dadas en este libro.
5.1
b (fig. 26).
74
www.FreeLibros.com
Figura 26
Desde el punto d)e vista del Clculo de probabilidades, podemos entender que una va
riable aleatoria continua X est dada cuando conocemos la funcin f x. La funcin
se
llama densidad de probabilidad (tambin: densidad de distribucin, densidad o funcin de
densidad) de la variable aleatoria X. El teorema siguiente muestra que mediante la fun
cin de densidad est fijada realmente la funcin de distribucin de la variable aleatoria
considerada (ver 4.2, teorema 1).
T e o r e m a 1. Sea X una variable aleatoria continua con la funcin de densidad f x. En
tonces se cumplen las proposiciones siguientes:
1. f / x ) 0 para todo x e R,
2. F J x ) = J
f x(x )dx = l.
U t ) dt (fig. 21).
Fx ( x o ) - P ( X<x<, )
Fx ( b ) ~ F ( a ) P( a <
X <, b)
Figura 27
Tambin aqui dejamos la demostracin al lector; se debe observar que para una varia
ble aleatoria continua X y para un nmero real cualquiera c, se cumple que (ver 4. i (3)).
www.FreeLibros.com
Figura 28
Esta funcin es no negativa y se cumple que J" J[x)dx = 1 (fig. 28). Si una variable
aleatoria continua X posee esta funcin / como funcin de densidad ( /* = /) , entonces se
cumple que, por ejemplo,
P(X^ a)
P{X> >)=1.
Para la funcin de distribucin F correspondiente a esta variable aleatoria (fig. 29) se ob
tiene que
0
para x ^ a,
V b-a
F(x) = P(X <x) -
para af~
a+ b
ii.
~ 2 (V
b - a f)
a+ b
para ------- x ^ b,
para x ^ b.
La distribucin de probabilidad caracterizada por la densidad de probabilidad / o la funcin
de distribucin F, se denomina distribucin triangular.
> '= H v )
Y
1
1
2
a +b
Figura 29
www.FreeLibros.com
para x=S 0,
fM ) = 1
(3)
para x > 0 .
2fx
-r,f x(x) + f - x )
(4)
para x > 0 .
La demostracin de este teorema se obtiene fcilmente con el teorema 3 del epigrafe 4.1,
aplicando la proposicin 3 del teorema 1.
5.2
(1)
se llama valor esperado de la variable aleatoria X; aqu se supone que la integral situada
en el miembro derecho de (1) converge absolutamente; o sea, se cumple que
J
|x |f / x ) d x < o o .
77
www.FreeLibros.com
I.os teoremas siguientes son tiles para el clculo con valores esperados.
T e o r e m a 1. Sea X una variable aleatoria continua con el valor esperado E X y sean
a 9*0 y b, nmeros reales cualesquiera. Entonces se cumple que
E (aX +b ) = a E X + b .
(2)
U x ) ~ u f x ( Lr )
(ver S .l, teorema 2, proposicin 1). Con esto obtenemos aplicando (1) y
E V = E ( a X + b ) = j ' r f x ) d x = J ~ Xp-| f x
= j f (at+ b )f t) d t = aj
f t)d t= i
dx
tf t)d t+ b j U t)d t
=aEX+b.
(En el clculo se debe realizar una diferenciacin de casos con respecto al signo de a. )
Por tanto, se cumple en particular para una variable aleatoria continua X, la relacin
E(X-EX) =0.
(3).
(4)
78
www.FreeLibros.com
(5)
E \ X - c \ > = j \ x - c \ f x ) dx
(6)
( x - E X ) 2 f / x ) dx
(7)
(8 )
=2 f
J)
i t1 - i - ( l - J - )
b a '
b a '
d t=
24
( b - a ) 2.
x 2f x( x ) d x - [ j x f x ) d x y = E X > - ( E X ) K
va
(9)
= a 2D 2X.
(10)
consiguiente, para una variable aleatoria continua X se cumplen tambin las rela
D \ - X ) = D 2X
www.FreeLibros.com
(11)
D 2\
\ D 2X
1=1-
(12)
C o m o e n e l c a s o d e la s v a r ia b le s a le a t o r ia s d is c r e ta s , se u t iliz a t a m b i n p a r a la s c o n tin u a s
X
e l c o n c e p to c e n tr a r p a r a e l p a s o d e A" a X - E X , e l d e n o r m a r p a r a e l d e X a ---------------
X -E X
y e l de e s ta n d a r iz a r p a r a e l d e X a ----------------
y j 'X .
Por ltimo queremos advertir que el valor esperado y la varianza, como para el caso de las variables
aleatorias discretas, son m omentos especiales que caracterizarem os en la definicin siguiente.
D e f i n i c i n 3 . Sea X una variable aleatoria continua con la densidad de probabilidad f x , j un n
mero natural y c un nmero real. Entonces se llaman
* - cc)), '== lJ
n/c)I = E ( X
a / c ) = |J T c|
( x - c ) f x ) dx
\ x - c \ f / x ) dx
(13)
(14)
los momentos ordinario y absoluto d e orden j con respecto a c respectivam ente, suponindose la conver
gencia de la integral situada a la derecha en (14). Para c = 0 se habla de m omentos iniciales y para
c = E X de m omentos centrales (se supone la existencia de E X ).
Las proposiciones sobre momentos dadas a continuacin de la definicin 3 (4 .3 ), se cum plen tambin
para variables aleatorias continuas. D e igual modo que para las variables aleatorias discretas, se de
finen para las continuas las caractersticas numricas derivadas de los momentos: coeficiente de va
riacin, coeficiente de asim etra y curtosis (ver 4.3, definicin 4 ).
5.3
para a ^
b,
b -a
=<
(i)
para los dems.
Se dice tambin que X posee una d is tr ib u c i n u n if o r m e (sobre el intervalo [a, 6]) o una d i s
trib u c i n r e c ta n g u la r (fig. 30).
80
www.FreeLibros.com
y - f x( *)
b-a
Figura 30
para x < a,
x-a
fA 0dt= <
(2)
b a
1
para x > b.
(3)
y para la varianza
ianza se tiene
D*X
(4)
Para una variable aleatoria continua existe una distribucin uniforme, si y solo si esta
toma valores de subintervalos de igual longitud pertenecientes a su dominio de valores y
que es a su vez un intervalo, con igual probabilidad. En casos de aplicacin se acepta que
una variable aleatoria est distribuida uniformemente, si sta -hablando sin mucha pre
cisin- no prefiere ninguno de los subintervalos de igual longitud (de su dominio de va
lores) .
5.4
Distribucin normal
www.FreeLibros.com
2"' ,
<x<~.
(1 )
Se dice tambin que X posee una distribucin normal con los parmetros n y a 2 o una distribucin N(\l, a 2) (fig. 32).
y =f x m
+o
Figura 32
La demostracin de que mediante (1) est definida realmente una densidad de proba
bilidad, se basa fundamentalmente sobre la ecuacin
j ' e~ dt=' .
Para la densidad de probabilidad de una variable aleatoria distribuida normalmente
con los parmetros ti y o 1, se utiliza generalmente la notacin q>, donde la dependencia
de n y o 1 queda expresada en la forma
<p(x: u. o * )=
2
-x.z)'
e ** ,- o o < x < >
\2 a
(2)
- I e
V2no*'
w dt.
(3)
www.FreeLibros.com
- lju
w dt
(4)
\2 n a J - -
(5)
(6 )
D 2X = a 2.
D e m o s t r a c i n . Con t y J
EX=
x / , ( x ) d x = f x<p(x; n, o 2) dx = ^- j x e
\2n a J
i r
__
te "L
dt + u 1 r jf e
y2n J
2 dx
d t= n .
\2n
e 2dt= y2
se obtiene que
D *X m f
( x - E * ) 2/ / x ) d x = J
(x - n )2 cp(x; u, o 2) dx
r= -r = ^ \2 n o
= f
y2n
(x -n )2 e
w dx
t1 e 2d t = crJ.
a carac
T e o r e m a 2. Sea X una variable aleatoria distribuida normalmente con los parmetros y o 1. Entonces se cumple que________________________________________________________________________________
H2t+l( J 0 = ( J r - ^ ) 2*+1=O, *.= 1 ,2 ,...,
(7)
ti,t( j 0 = y r - j i r ) = i -3 ...(2 fc- n o21, * = i , 2 .........
(8)
o
(9)
(i
(10)
(11)
83
www.FreeLibros.com
El lector puede realizar independientem ente la dem ostracin sencilla de estas frmulas. Aadimos,
que una variable aleatoria distribuida normalmente con los parmetros u > o ! es simtrica con respecto
a x = n y aseguramos que todos los m omentos de orden impar referidos a n, as como el coeficiente de
asimetra, son iguales a cero. La curtosis est definida, precisam ente, de modo que esta caracterstica
numrica sea igual a cero para el caso especial de la distribucin normal.
Trataremos ahora la distribucin JV(0,1). Queremos denotar con <p la densidad de pro
babilidad de una variable aleatoria distribuida normalmente con los parmetros 0 y 1. y
con
la funcin de distribucin correspondiente. Se cumple (figs. 33 y 34), por tanto,
(12)
\2 n
(x)
(13)
Figura 34
La funcin (y adems
(14)
(15)
www.FreeLibros.com
(16)
(u - 3o) ( v - 2 o) ( f t - o )
1
<j )
(j + o )
3 '
* 2 o) (fi 3o)
F ig u ra 35
Aqu hemos utilizado (15) y P(X=c) = 0 (X, variable aleatoria continua y c. nmero real).
Para = 1,2,3 obtenemos, por consiguiente, (ver tabla 3(12.3) y fig. 35).
P ( Z < 1 ) =0,683 =68,3% ,
P ( X < 2) =0.955= 95,5% ,
P ( X < 1 ) =0,997 =99,7% .
(17)
(18)
(19)
La relacin (19) expresa que es prcticamente seguro, que una variable aleatoria distribui
da normalmente con los parmetros n = 0 y o * = l tome solo valores entre - 3 y +3. Ob
serve el lector que la probabilidad de que una variable aleatoria distribuida normalmente
con los parmetros 0 y 1 tome valores de un intervalo arbitrario dado, es positiva, pero
que es prcticamente imposible que una tal variable aleatoria tome valores de un intervalo
disjunto con {x : x e R A - 3 < x < 3 } .
Mostraremos ahora como se pueden calcular los valores (x; n, o1) de la funcin de
distribucin de una variable aletoria distribuida normalmente con parmetros cuales
quiera n y a 1, sobre la base de los valores O (x) de la funcin de distribucin 4 de una
variable aleatoria distribuida normalmente con los parmetros |i= 0 y crJ= l.
T eo r e m a 3. Para todo nmero real x se cumple que
( 20)
(2 1 )
Demostracin
<p(x; u, o 1) =
y2n a
1
<P
a
85
www.FreeLibros.com
T e o r e m a 4. Si
bucin Ar(0,1).
Demostracin
F x_Jx) = P ( X
B
'
** < x ) = P ( X < x o + n )
0
= ( xct+
'
h;
n , a 2) = >
+-
11 ^ = < t > ( x ) .
X -n
(Observemos que en virtud de E X = n y D 1X = t s \ la variable aleatoria ------- posee
a
siempre el valor esperado cero y la varianza uno; la proposicin fundamental del teorema
X \i
4 consiste en que si X est distribuida normalmente, e n to n ce s------- tambin lo est.)
o
Estas proposiciones permiten calcular de forma sencilla, utilizando una tabla para 4>,
la probabilidad de que una variable aleatoria X distribuida normalmente con los parme
tros u y o 2 tome un valor de un intervalo arbitrario. Se cumple que
( 22 )
(23)
(ver (16)), de donde se obtiene para fc = l,2 ,3 , utilizando (17), (18) y (19)
F(pir-n|<<T) -0 ,6 8 3 = 68,3% ,
(24)
P(|jr-U|<2CT)-0 ,9 5 5 = 9 5 ,5 % ,
(25)
#(|jiri|<3cr) 0 ,9 9 7 = 9 9 ,7 %.
(26)
Luego, es prcticamente seguro que una variable aleatoria distribuida normalmente con
los parmetros n y o 2 tome solo valores entre n - 3 o y u + 3 o , o sea, que estn a una dis
tancia del valor esperado u menor que el triplo de la desviacin estndar o. Esta regla
se llama regla 3 o (ver fig. 35).
Queremos tratar ahora la existencia de la distribucin normal. Para muchas variables
aleatorias que aparecen en planteamientos de problemas prcticos, se muestra (por ejem
plo, sobre la base de los valores observados de la variable aleatoria considerada especial
mente) que la distribucin de probabilidad se puede describir muy bien a travs de una
distribucin normal. Una caracterstica comn de estas variables aleatorias consiste fre
cuentemente, en que estas se obtienen mediante superposicin aditiva de un nmero ele
vado de efectos aleatorios, independientes unos de otros, teniendo cada uno una influen
cia insignificante sobre la variable aleatoria considerada, en comparacin con la suma de
los otros efectos. Posteronhente daremos la fundamentacin matemtica de que tales va
riables aleatorias puedan concebirse, en buena aproximacin, distribuidas normalmente
(ver 7.6). Aqui solo queremos informar que los errores de observacin en un proceso de
modicin (por ejemplo, en mediciones de longitud) y las propiedades de un producto, en
una fabricacin en serie, que se pueden describir numricamente (por ejemplo, la resis86
www.FreeLibros.com
(28)
A la divulgacin de la distribucin normal contribuy decisivamente el cientfico belga A. Qutelet
(1796-1874), quien fue activo en numerosos campos, y se considera como descubridor de la distribucin
normal para la Biometra y de quien provino tambin el nombre de distribucin normal. Esta denomi
nacin dio motivo a todo tipo de interpretaciones errneas. Uno de los mritos de K. Pearson (18571936, quien se ocup adems intensivamente de la historia de la d bucin normal), es haber comprobado que en la naturaleza existen variables aleatorias que no estr distribuidas normalmente y que
esto no es algo anormal.
5.5
Distribucin exponencial
www.FreeLibros.com
D e f in ic i n
para
0,
(1)
para x > 0 .
Se dice tambin que X posee una distribucin exponencial con el parmetro a (fig. 36).
(El lector debe reflexionar si mediante (1) est defin' realmente una distribucin de
probabilidad, es decir, si se cumple en particular que
f x (x )d x= 1).
y
2
Figura 36
(2 )
.=/; ( .v), a = 2
.i'
Figura 37
www.FreeLibros.com
dx
"
Jo
= b e
1
-------e~
-t-------a
a
E X - I x f j i x ) d x = Ix a e " d x = lim
z--
Ixae
Jo
Si
E s ta s p ro p o s ic io n e s c o in c id e n b ie n co n la id e a d e la d is trib u c i n ex p o n e n cial, q u e se lo g ra
^ = \-e
= 1 e -1=0,63.
5.6
Distribucin
www.FreeLibros.com
para el cual la probabilidad de que X tome valores mayores que xp sea igual a 1 p
(P (X > x p) =1 p). Tales valores se denominan percentiles de orden p, cuya caracteriza
cin exacta, utilizando la funcin de distribucin
es el objeto de la definicin siguiente.
D e f in ic i n 1. Sea X una variable aleatoria continua (densidad de probabilidad f r
funcin de distribucin Fx) y p un nmero situado entre cero y u o. Entonces un nmero
xp se llama percentil de orden p, si se cumple que (fig. 38)
FM P) =PUn percentil de orden p =
.2
se llama mediana.
x.
Figura 38
5.6.1
Distribucin x 2
0,
ix1 e 2
(2)
para x > 0 .
Se dice tambin que X posee una distribucin X2 con m grados de libertad (fig. 39). De
notamos el percentil de orden p de la distribucin x 2 con m grados de libertad con X2mpEn (2) T es la llamada funcin gamma completa definida por
(3)
Figura 39
90
www.FreeLibros.com
La funcin gamma se debe a L. Euler (1707-1783), el m atem tico m s productivo, al m enos del si
glo XVIII. Aunque Euler perdi la vista de un ojo en 1735 y en 1766 qued com pletam ente ciego, es
cribi en total 886 m anuscritos, entre los cuales se encuentra un nm ero asombroso de libros de texto.
Para nuestros intereses es suficiente conocer las proposiciones siguientes sobre la fun
cin gamma. Se cumple que
F(z) = ( z l ) r ( z - l ) , para z > l ,
rq)=i,r (
(5)
(7)
(8)
(ver 5.5).
2
La distribucin x 2 est en estrecha relacin con la distribucin normal. Para mostrarlo
demostraremos la siguiente proposicin especial.
T e o r e m a 2. Sea X una variable aleatoria con una distribucin 7V(0,1). Entonces la va
riable aleatoria Y = X 2 posee una distribucin x 2 con un grado de libertad.
D e m o s t r a c i n . Se cum ple (ver 5.1, teorem a 2, proposicin 2) que
0
para
0,
f r W =<
para x > 0 .
2yjx
Con
\& t
para
fy (x )=<
2<P(Vs)
0.
2
para x > 0 .
Mi)
con lo cual est dem ostrada la proposicin del teorema.
www.FreeLibros.com
91
La distribucin xl fue descubierta en 1876 por R. Helmert (como distribucin de la suma de cuadra
dos de variables aleatorias independientes con distribucin N(0 ,1 )) y vuelta a hallar en 1900 por K.
Pearson, fundador en Inglaterra de una escuela de Estadstica matemtica de altos rendimientos: por
eso esta distribucin se denomina de H elm ert o de Helmert-Pearson.
5.6.2
Distribucin t
(r f i)
(9)
f x M =
Se dice tambin que X posee una distribucin t con m grados de libertad (fig. 40). Deno
tamos el percentil de orden p de la distribucin t con m grados de libertad con tmp.
En (9), F es He mievo
smbolo para la funcin gamma completa. Observemos que la
densidad de la distribucin t con m grados de libertad es una funcin par ( f - x ) = / t<x).
para todo x e R ), cuya representacin grfica no se diferencia sustancialmente de la cur
va de la campana de Gauss para m grande (ver fig. 33).
Para m = \ obtenemos especialmente (fig. 40) la funcin de densidad
( 10 )
U *) =
1+x2
(11)
D 'X = -
(12)
m -2
92
www.FreeLibros.com
Aadimos que una variable aleatoria que tenga una distribucin t con m grados de libertad posee solo
momentos de orden / t w - 1 . Por tanto, la distribucin de Cauchy no posee, en particular, ningn va
lor esperado.
La distribucin / fue descubierta e investigada (1908) por W.S. Gosset (1876-1937). quien publicaba
bajo el seudnimo Student: por esta razn se encuentra tambin la distribucin ( con el nombre de dis
tribucin de Student.
5.6.3
D istribucin F
~r
r ^ ------ J m ,- m 2
i. ,
para x > 0 .
(13)
/><x) =
para x ^ 0.
Se dice tambin que X posee una distribucin F con (m,, m 2) grados de libertad (fig. 41).
Denotamos el percentil de orden p de la distribucin F con (mv m 2) grados de libertad
Fw
Figura 41
EX=
(m2> 3),
(14)
> 5 ).
(15)
m -2
D X =
>m <
m ^ m , - 2 )2 (m2- 4 )
Observemos que el valor esperado no depende de m l y que E X = \ para m 2 1. Ade
ms, aadimos que para m 2< 2 no existe valor esperado y para
4 no existe va
rianza.
La distribucin F se debe a R.A. Fisher (1890-1962), uno de los representantes ms conocidos de la
Estadstica matemtica en Inglaterra, quien adems trabaj en el campo de la teora de la informacin
matemtica.
93
www.FreeLibros.com
6.
Los vectores aleatorios son aquellos cuyas componentes son variables aleatorias. Estos se
utilizan para representar, desde un punto de vista matemtico, algunas caractersticas que
se pueden describir numricamente en un fenmeno aleatorio. As, por ejemplo, la longitud, ancho y altura de una pieza de trabajo en forma de cubo, producida automtica
mente, y la talla y peso de un hombre, se pueden describir por medio de un vector alea
torio.
Despus de la definicin general y la caracterizacin terico-probabilstica de un vector
aleatorio (epgrafe 6 .1 ), trataremos en el epgrafe 6.2 los llamados vectores aleatorios dis
cretos lo cual realizaremos apoyndonos en el tratamiento de las variables aleatorias dis
cretas (ver 4.2 y 4 .3 ), y en el epgrafe 6.3 nos ocuparemos de los denominados vectores
aleatorios continuos, para lo cual partiremos de los estudios sobre variables aleatorias con
tinuas (ver 5.1 y 5.2).
Las caractersticas numricas para la comprensin de la dependencia mutua, de la re
lacin entre las componentes de un vector aleatorio, son de especial inters; estudiare
mos, en particular, los llam ados coeficientes de correlacin para la dependencia lineal en
tre dos variables aleatorias. En el epgrafe 6.4 trataremos el concepto independencia de
variables aleatorias, que constitutuye un concepto central de toda la teora de probabili
dades. Aqu tambin deduciremos consecuencias de la independencia, que resultan muy
tiles para el trabajo prctico con variables aleatorias independientes. Por ltimo, se rea
liza en el epgrafe 6.5 la caracterizacin de la distribucin de probabilidad para la suma,
diferencia, producto y cociente de dos variables aleatorias continuas independientes; los
teoremas sealados aqu se necesitarn especialmente en la parte correspondiente a la Es
tadstica matemtica.
6.1
www.FreeLibros.com
= O (Xk< x k)
k^\
resulta que {wei:A'j(oj) < x , ...... X J a ) < x J e A .
Si denotamos abreviadamente el subconjunto {cofci: A'j(co) < x , ...... A(co) < x j de 2 por
(A", < x , ,..., An< x n), entonces es razonable hablar de la probabilidad del suceso aleatorio
( A , < x ,...... X n< x n) ; para esta probabilidad escribiremos de forma abreviada
P ( A ,< x ,,...,A n< x n).
D e f i n i c i n 2. Sea [i,A,P] un espacio de probabilidad y (XVX H..., X) un vector
aleatorio. La funcin F,x A,
definida por
. xn> ( x r x 2...... x) = P ( X l < x l^ X 2< x 2...... X < x n)
(xke R, A:= 1,2...... n),
(1)
se denomina funcin de distribucin del vector aleatorio (Xv X 2,..., X) o funcin de dis
tribucin conjunta de las variables aleatorias X v X 2...... X.
.</)
Figura 42
La funcin de distribucin de un vector aleatorio -dimensional es, por tanto, una fun
cin real de n variables reales. Por medio de la funcin de distribucin de un vector alea
torio se pueden expresar las probabilidades de casi todos los sucesos aleatorios que estn
en relacin con este. As, por ejemplo, se cumple en el caso n = 2 (fig. 42)
P(a^ X < b , c < Y < d ) = F IXY)(b,d) - F txr)(b,c) - F txy)(a,d) +F ,x n(a,c).
(2)
www.FreeLibros.com
95
F(x,, x 2,..., x ) = l.
+ x 2+ ... +X,,,
www.FreeLibros.com
(3)
A continuacin nos lim itarem os al caso n = 2 ; por lo tanto, tratarem os los vectores alea
torios bidim ensionales (X, Y) . M uchas veces es de inters, por ejemplo, la distribucin de
probabilidad de la variable aleatoria X en el m arco del vector aleatorio (X, Y) . Se cumple
(ver 2.4, teorem a 1) que
F x)= P (X < x)= P [X < x. r < ~ )
= lim P (A '< x r Y < y ) = lim F (r)1(;c,y).
D e f i n i c i n 2 . La funcin de distribucin F x dada por
F x ) = lim F{Xr)(x,y)
(4)
6.2
(1)
con las cuales el vector aleatorio (A. Y) tom a estos valores. Por ello, se puede caracterizar
tambin un vector aleatorio bidim ensional (A, Y) por la llam ada tabla de distribucin.
www.FreeLibros.com
97
2j/>,* = l-
(3)
i.k
P ( X = x , Y = y k) =
P*
(4)
i'-r, <r
*>*<>----------------------------- I |1<I
extendindose la sumatoria sobre todos los i y k para los cuales se cumple que x t< x y
>'*<.>'
Ahora queremos caracterizar las distribuciones marginales de un vector aleatorio discreto
(X, y). La distribucin marginal de X ps una distribucin discreta; X toma los valores x,
con las probabilidades
P ,=
Y = y k).
k
(5)
(6)
p ( x = x r = : y j-
i.k
Eg(X, Y) = ^ g ( x , , y k) p lk
(7)
tk
98
www.FreeLibros.com
(8)
= 2
y D 2Y= 2
< ^ - y ) 2A*-
(10)
i.k
= 2
X'P' + 2
I
X,Plk+ 2
t.k
VkP,k
ik
VkP.k=EX+Ey.
) = E X ^ E X 1+ . .. 4-EX.
(11)
Observemos que para el clculo del valor esperado de una suma de variables aleatorias
discretas, no se necesita su distribucin conjunta; para ello es suficiente el conocimiento
de las distribuciones de probabilidad de cada una de las variables aleatorias. Para la va
rianza esto se comporta de otra forma.
T e o r e m a 3. Sea (X.Y) un vector aleatorio discreto. Entonces se cumple que
D \ X + Y ) = D 2X + D 2Y + 2 ( E X Y - ( E X ) (E Y)),
(12)
www.FreeLibros.com
99
D e f in ic i n 2 . Sea (X,Y) un vector aleatorio discreto,que toma los valores (x,,y,.) con
las probabilidades p ik. Entonces el nmero definido por
cov(X y) = E ( X - E X ) ( Y - E Y ) = ^ ( x - E X ) ( y k- E Y ) p ik
i.k
(13)
2
i.k
( x ,- E X ){ y k- E Y ) Pik.
(14)
(15)
co\(X, Y) \
D 2Y
(16)
se denomina matriz de covarianza del vector aleatorio (X,Y). En general, la matriz (btl) ,
bt =co\(X,X)) , asociada a un vector aleatorio discreto -dimensional, (A\,A2,..., X J , se
llama matriz de covarianza; en la diagonal principal estn las varianzas de las compo
nentes del vector aleatorio (6l)=cov(A'1,A') = D 2X,).
D e f in ic i n 3. Sea (X, Y) un vector aleatorio discreto que toma los valores (x, > y k)
con las probabilidades p llt. Entonces el nmero definido por
J
, r ) = ------- 2 ^ 2 ----------
i.k
(x , -E X )(y k- E Y ) p d
................-
---- ------------------
(.7)
1.
100
www.FreeLibros.com
cov(JT.
D X
E ( X - E X )( Y - E Y )
= p(X,Y).
Con D 1Jf0= D l y (1= l obtenemos con esto (ver (15))
D \X y) = D 'X 0+ D 1Y0 2 co\{X v YJ
=2(ip(jr,y)).
D 'Y
\ D 2Y
y b= E Y T E X
V d x
b) Si se cumple que Y - a X + b (a ,b reales), entonces se cumple que E Y = a E X + b (ver 4.3, teorema 1),
D Y = a ,D X (ver 4.5, teorema 5) y con esto
---------- Iw r.n l-
------------------------------------------------------------------
IE (X -E X ) ( a X + b - a E X - b ) \
ja 'D 'X
yD>xyfa
\a \E (X -E X )2
j \' D 'X
\flV X
D*X
D 'X
lineal si y solo si el valor absoluto del coeficiente de correlacin es igual a uno. Retro
cederemos al caso p=0 en el epgrafe 6.4; de todas formas, de p=0 no resulta que entre
las variables aleatorias X y Y no pueda existir una dependencia funcional, es decir, una
relacin de la forma Y = g ( X ) .
101
www.FreeLibros.com
6.3
b y
(1)
d.
/<*.r)(w.v)dvdM.
3x3y
(2)
y la densidad de probabilidad f {XY)y
= / ( ..).
(3)
De manera semejante que en el tratamiento de los vectores aleatorios discretos, nos ocu
paremos primeramente con las distribuciones marginales y nos interesaremos por las ca
ractersticas numricas especiales para los vectores aleatorios continuos; aqui las defini
ciones y proposiciones son anlogas a las correspondientes del epigrafe 6.2.
La distribucin marginal de la variable aleatoria X en el marco del vector aleatorio
continuo (X,Y), es una distribucin continua; en virtud de
F x) =lim F(Xn( x , y ) = j j
f iXY){t,y)dydt,
102
www.FreeLibros.com
H)
(5)
Ahora sealaremos, sin demostracin, una frmula para el clculo del valor esperado
de una funcin de un vector aleatorio continuo.
T e o r e m a 1. Sea (X.Y) un vector aleatorio continuo con la densidad de probabilidad
f y n y sea g una funcin real continua definida sobre el conjunto de todos los pares de n
meros reales. Si la integral J
cir, si se cumple j " j
Eg(X. y ) = J ' J
g(x,y)f(Xri(x ,y)dxd y
(6)
E X = j ~ x U x ) d x , E Y = j y f y ) d y ,
D 2X = j i x - E X ) f / x ) d x , D 2Y = J ( y - E Y ) ' f y ) dy,
(7)
(8 )
(9)
( x + y ) f iXY)(x .y)dxdy
www.FreeLibros.com
E (X +Y) =
f>
= j
f IJY]( x , y ) d y ) d x + j
x f/x )d x + j
( y j f (r r>( x , y ) d x ' j d y
yj fy iy ) dy
=EX+EY.
Por consiguiente, el valor esperado de una suma de variables aleatorias continuas es.
como en el caso de variables aleatorias discretas, igual a la suma de los valores esperados.
Con esto se cumple tambin la frmula
D \ X + Y) = D 1X + D 1Y + 2 ( E X Y - { E X ) ( E Y ) )
(<10)
(11)
II
. - J --
(x - E X ) ( y - E Y ) f txr)(x ,y)dxd y
.
( x - E X ) 2f x ) d x y
-----------:
j
www.FreeLibros.com
f r - n . ) 1-- U -I Q P -U J
------------- ------------- * ^
2n
( 00< X < < ,
CTjCTj
_______________
______
3)
\jl-p *
o o < y < o o ) .
t= i
I
Vi - p 1
on
( i ^ L _ p I i )
'o ,
CT. /
e ^ ( = V 7 , la relacin
_L z ii r -
f x ) * -------- e 2
i
e
2 n '
= <p(x,U
,* =
-----
\2 n a,
ejJ) ,
o sea, X posee una distribucin normal con los parmetros |,(= T ) y aj ( = D 2X ). Con esto est claro
que Y posee una distribucin normal con los parmetros n ,(= K ) y a i ( = D IY).
Para la covarianza
cov(X, Y) =
L L
( x - E X ) [ y - E Y ) / # n (x, y) dx d y
x-Hi
y -\
ue
2n V l - P
105
www.FreeLibros.com
(v-pu),
t-
te 2d l= 0 , el valor p tt^ 2 n
: considerando que
D e esta forma podemos armar que las distribuciones marginales de una distribucin
normal bivariada son tambin distribuciones normales. Para concluir, observemos que en
el caso p = 0 se cumple la relacin
(14)
es decir, que en el caso p = 0 el producto de las densidades de distribucin marginales es
igual a la densidad de probabilidad conjunta.
6.4
F<x.rM<y) = F x )F y )
para todos los nmeros reales x y y.
106
www.FreeLibros.com
(1 )
Advertimos que en todos los casos se pueden determinar las funciones de distribucin
marginales de las variables aleatorias X y Y a partir de la funcin de distribucin con
junta de estas variables aleatorias (ver 6.1, denicin 2). En caso de independencia de X
y Y, el recproco tambin es posible; se puede calcular la funcin de distribucin conjunta
a partir de las funciones de distribucin marginales, segn (1).
Los dos teoremas siguientes contienen formulaciones equivalentes de la independencia
de dos variables aleatorias X y Y, para el caso en que (X, y) posea una distribucin dis
creta y para el caso continuo respectivamente; estas formulaciones se realizan sobre la
base de las probabilidades particulares o de las densidades de probabilidad, pueden comprobarse fcilmente en la situacin concreta.
T e o r e m a 1. Sea (X.Y) un vector aleatorio discreto, que toma los valores (xy k) con
las probabilidades p ik. Las variables aleatorias X y Y son mutuamente independientes si
y solo si
P ( X = x t, Y = y k) = P ( X = x ) P ( Y = y k),
o sea, si se cumple que
Pk= P . P -t
para todo i, k.
(2)
Y < y k + e)
* i< *
k:yk<y
p,k=
l:x < x
k.yk <y
PtPk={
i:x f< x
i) ( 2
x:yk < y
(3)
www.FreeLibros.com
- fM
f r (v) dvdy
Mv)dvdy
= F x )F y ),
o sea, se cumple (1).
3. p(jr,y)=o.
4. D H X +Y)= D*X +D }Y .
(En 3 y 4 se supone la existencia y positividad de las varianzas de X y Y.)
D e m o s t r a c i n . Las proposiciones 2, 3 y 4 se obtienen directamente de la proposicin 1 (para el
caso discreto (ver 6.2 (14), (17) y (15)). Por tanto, es suficiente demostrar la proposicin 1.
a) Sea {X, Y) un vector aleatorio discreto. Entonces se cumple, con el teorema 1 (ver tambin 6.2 (7)
para g(x,y) = xy), que
FXY=
xykp k=
x jM P t
(6) para
x y fx (x )fjy )d x d v
108
www.FreeLibros.com
(4)
'M * ( * ) )
=>
Expck- > ( E X y -2
t
f l*
i<t
(EXt-(EX)*)+2
i.i
= D V I+2
-i
>
>
(EX>(EX
i
j<k
[EX-Xk-(E X )(E X J )
i
><*
5
co^XJ.
i
X*
Si se cumple ahora que p iXt X = 0 para j+k, entonces se tiene que cov (Xf X =0 para j + k y, por
tanto, se cumple (4).
www.FreeLibros.com
.. . Fxj x r)
(5)
para todos los nmeros reales x,, x 2,..., x n; aqu Fx denota la funcin de distribucin mar
ginal de X ( i = l , 2 ,..., n).
D e la independencia completa de las variables aleatorias X v X 2,..., X n resulta eviden
temente la independencia mutua de ellas tomadas dos a dos; el recproco de esta propo
sicin no se cumple (ver el ejemplo del epgrafe 3.3).
Si (XVX 2,..., X J es un vector aleatorio discreto o continuo, entonces a la independencia
completa de las variables aleatorias X VX 2,..., X n es equivalente una proposicin anloga
a la frmula (2) o (3).
En el trabajo con variables aleatorias independientes se necesita a veces la proposicin
siguiente, muy evidente en cuanto al contenido, pero que no queremos demostrar.
T e o r e m a 6 . Sean X VX 2,..., X n variables aleatorias independientes y gv g2,..., gn fun
ciones reales continuas definidas sobre el conjunto de los nmeros reales. Entonces,
Si^i) >2(^1) ...... 8J.XJ son tambin variables aleatorias independientes.
Concluiremos este epgrafe con la aclaracin de qu se entiende por una sucesin de va
riables aleatorias independientes.
D e f in ic i n 4 . Una sucesin infinita X VX V..., X n... de variables aleatorias se deno
mina una sucesin de variables aleatorias independientes, si para todo nmero natural
2 las variables aleatorias X VX 2,..., Xn son completamente independientes entre s.
6.5
110
www.FreeLibros.com
D e m o s t r a c i n .
Los valores de Z
/ = 0 , 1 , 2 , __
J=0
o sea, Z posee una distribucin de Poisson con el parmetro X+|.i; aqui hemos utilizado
el teorema 1(6.4), la definicin de la distribucin de Poisson (ver 4.7, la definicin 1 y la
frmula (2)), la definicin del coeficiente binomial y, por ltimo, el teorema del binomio.
N os ocuparemos ahora del caso de las variables aleatorias continuas. Primeramente de
duciremos una frmula-, la llamada frmula de descomposicin, para la densidad de pro
b ab ilid a d de dos variables aleatorias no necesariamente independientes.
T e o r e m a 3. Sea (X, Y) un vector aleatorio continuo con la densidad de probabilidad
f xrr Entonces, la densidad de probabilidad f z de la variable aleatoria Z = X + Y est dada
(1 )
D e m o s t r a c i n . Se cumple "que
Fz) =P {Z < z) = P ( X + Y < z ) =
n(x, y) dxdy,
V
de lo que resulta
111
www.FreeLibros.com
Figura 43
(2)
2. La variable aleatoria continua Z = X - Y posee la densidad de probabilidad
(3)
3. La variable aleatoria continua Z - X Y posee la densidad de probabilidad
dx, OO< z < o.
(4)
X
4. La variable aleatoria continua Z = posee la densidad de probabilidad f v
Y
(5)
112
www.FreeLibros.com
f vin{ x , z - x ) d x .
W x , z - x ) = f x ) f z - x )
(v er 6 .4 , te o r e m a 2) y c o n esto -----------------------------------------------------------------
/ A a ) = J ' f A x ) f z - x ) dx.
Las proposiciones contenidas en los teoremas siguientes se obtienen aplicando las pro
posiciones del teorema S; necesitaremos de estas ms adelante en el tratamiento de m
todos especiales de la Estadstica matemtica. En estos teoremas aparecen las distribucio
nes x1, t y F (ver 5.6) y se motiva tambin el concepto grado de libertad que encontramos
en estas distribuciones.
T e o r e m a 6 . Si las variables aleatorias X y Y son independientes y poseen una distri
bucin %1 con los grados de libertad m l y m v respectivamente; entonces Z - X + Y posee
una distribucin x 1 con m 1+ m 2 grados de libertad.
D e aqu seobtiene, por una parte, que f z (z) = 0 para z < 0 y, por otra, que f z (z) = I f x ) f Y( z - x ) d x
Jo
para z > 0 .
Si sustituim os aqu las densidades f x y f r obtenemos que
iL-i
p x -
f z) = m. ; r-sn : r -1
e > -* )2
Jo
rrti+m,
*-
e
2 dx
x /!
2 I
"Y
e JJo
1
(1 -)
dt.
B(P.9)=
- P > 0 ,q > 0 )
Tip+q)
r (p+ q)
Jo
m =
para z < 0,
m,+m.
i
z
para z > 0 ,
www.FreeLibros.com
113
D e m o s t r a c i n . D e la independencia de X y Y resulta la de X y
Y \ l -----
y m
ma 6 ). Luego, por la proposicin 4 del teorema 5 se cum ple que f /( z ) = f
Fy(x) = P ( Y < x ) = P ( V
? ~
) = P ( Y < m x t) = F y(m x T)
dFy(x)
y con esto (ver 5.1, teorema 1) fy ( x ) -------------- = f r(m x t)2 m x ;
dx
para
0 se cumple f / x ) = 0.
f l 2 ) = I xf A x z ) fA m xl) *m x x
4 Ja
2 m m
21
[ x e V x m 2e
xm e
^ (
t)
r(f)
x dx
Jo
\ T 2 r ( - = )
dx
iJo
(z!4 m)
114
www.FreeLibros.com
/ / * ) dx.
Con r
1=
(=r)-f
e~' d t
(=r)
2 /
f z ( z ) = -----------------------
por ltim o
1
-----------r ^ r r r
M )
('+t F
x
o sea, Z = ----- ------
posee
mi
~
x
_
r
D e m o s t r a c i n . Oe la independencia de X y Y resulta la de X - ---- y Y = ----- (ver 6 .4, teore-
m,
/ A 2) =J
En virtud de que* / j / x ) =
(m,jc) y f / x ) = m f i/ m x) (ver 5.1, teorem a 2) resulta que
f t m* )j x=mf
f z ) = m lm J "
Como X y Y poseen una distribucin x 1, se cum ple (ver 5.6, definicin 2) que f (m ,x z ) = 0 para
x z 0 y fyim jX ) = 0 para x ^ 0.
De aqui se obtiene, por
Jo
Si sustituimos aquf las densidades f x y f r obtenemos
f{z )= ----------------------------------
2 r( i ) A
2
m.
m,
( i)
|\xx(mx
( m lx z )
Jo
T:
2 (mx) 2
2dx
dx
Jo
r(li)r( 7 )
e ' dt.
(^ +m'z)
115
www.FreeLibros.com
Con r
\
----------- J
f
1
'i
1
e
w
O sea, Z
(m ,+ m ,r)
116
www.FreeLibros.com
7.
Teorem as lmites
Los teoremas limites de la teoria de probabilidades ocupan un lugar central en esta dis
ciplina matemtica y, en principio, poseen importancia tambin en la estadstica matem
tica; el contenido de estos teoremas son proposiciones acerca del comportamiento lmite
de sucesiones de variables aleatorias, siendo de particular inters de acuerdo con las ne
cesidades prcticas, las proposiciones sobre la distribucin de la suma de n variables
aleatorias independientes cuando n <>.
Los epgrafes 7.1 y 7.2 constituyen una introduccin a los teoremas limites de la teoria
de probabilidades. Para ello tratamos en el epigrafe 7.1 la llamada desigualdad de
Chebyshev, que desempea una importante funcin como medio auxiliar en la demostra
cin de teoremas limites especiales, y en el epigrafe 7.2 presentamos los tipos de conver
gencia ms importantes utilizados en la teoria de probabilidades para sucesiones de va
riables aleatorias. Los epgrafes 7.3 y 7.4 estn dedicados a la denominada Ley de los
grandes nmeros. Una ley de los grandes nmeros consiste, hablando sin mucha precisin,
en la indicacin de condiciones suficientes para que la media aritmtica de una sucesin
de variables aleatorias tienda hacia una constante, a medida que crece el nmero de los
sumandos. La Ley de los grandes nmeros de Bernoulli, tratada en el epigrafe 7.3, facilita
una visin ms clara y exacta de la relacin entre la frecuencia relativa y la probabilidad
de un suceso aleatorio; el epigrafe 7.4 proporciona una panormica sobre las versiones
ms generales de la Ley de los grandes nmeros.
Los epgrafes 7.5 y 7.6 estn dedicados al denominado teorema central del limite. Un
tal teorema consiste, hablando sin mucha precisin, en la indicacin de condiciones su
ficientes para que la distribucin de la suma de una sucesin de variables aleatorias tienda
hacia la distribucin normal, a medida que crece el nmero de sumandos. El teorema in
tegral D e Afoivre Laplace, expuesto en el epgrafe 7.5, plantea una proposicin semejante
a la del teorema central del limite para una sucesin de variables aleatorias distribuidas
binomialmente, y constituye la base para una frmula de aproximacin que est destinada
al clculo prctico de probabilidades relacionadas con la distribucin binomial (parmetro
n > > 1 ). Por ltimo, el epigrafe 7.6 informa acerca de las versiones ms generales del
teorema central del limite que, en las aplicaciones prcticas, justifican en muchas ocasio
nes el hecho de considerar distribuida normalmente una variable aleatoria determinada.
117
www.FreeLibros.com
7.1
Desigualdad de Chebyshev
i-,
P ( \ X - E X \ > k \ D 2X
(1)
que se cumple para todo nmero natural k. Adems, esta desigualdad es muy til en la
demostracin de las leyes de lqs grandes nmeros (ver epigrafe 7 .3 ). Deduciremos la de
sigualdad (1), que se denomina desigualdad de Chebyshev en honor al importante mate
mtico ruso P.L. Chebyshev (1821-1894), como corolario del teorema siguiente.
T e o r e m a 1. Sea Y una variable aleatoria no negativa (o sea, se cumple que
P ( y > 0) = 1 ) con el valor esperado E Y y 8, un nmero positivo cualquiera. Entonces se
cumple que
EY
P {Y > 5) S ----5
o,
(2)
(3)
2
k
y kp k>
2
k :
62
*
p *=bP^Y > 6 )
* : yk > 6
www.FreeLibros.com
(4)
D e m o s t r a c i n .
Hagamos 8 = e j
P [Y ^ 0) = 1 ,8 > 0 y E Y = E X - E X \i - D
D*X
P (IX -E X ]* ^ e1) ^ ------ . Consideremos,
E2
y solo si si lo hace el suceso (| X - E X ^
Observaciones
1. La desigualdad de Chebyshev solo tiene sentido para aquellas variables aleatorias
que poseen una varianza (finita).
2. La forma dada en un inicio de la desigualdad de Chebyshev se obtiene de (4) para
3.
Las desigualdades (2) y (3) y las desigualdades (4) y (5) se cumplen, en particular,
(con varianza finita), la probabilidad de que tome valores cuya distancia del valor espe----------------------------------------------------------------- 7-----------------------------------------------------------8
rado sea menor que el triplo de la desviacin estndar, es por lo menos igual a ,
9
Radica en la naturaleza del problema el que una proposicin tan general como la de
sigualdad de Chebyshev, que no requiere m s que el valor esperado y la varianza de la
distribucin de probabilidad de la variable aleatoria considerada, pueda ser muy burda
en casos especiales. Por ejemplo, en el caso de que X posea una distribucin normal, se
obtiene que P (\X E X \< 5 \ [ d *X) = 0 ,9 9 7 (ver 5.4 (2 6 )). Sin embargo, la desigualdad de
Chebyshev no se puede mejorar, como muestra el ejemplo siguiente, sin la adopcin de
condiciones adicionales sobre la clase de variables aleatorias considerada.
E je m p lo . Supongamos que la variable aleatoria X posee los valores k, k y 0 (fc es
aqui un nmero arbitrario mayor o igual que 1), y se cumple que
P { X = k) = P {X = k ) = , P (X = 0 ) = 1
2k1
.
fcJ
www.FreeLibros.com
(7)
o, en una form ulacin equivalente,
(8 )
N o dem ostrarem os la desigualdad de K olm ogorov; solo observarem os que para n = l se obtiene la de
sigualdad de Chebyshev.
7.2
( 1)
Por tanto, la convergencia con probabilidad uno se presenta si el conjunto de todas las
coel, para las cuales la sucesin numrica (Xn (<*>)) converge al nmero X((), posee la
probabilidad uno, es decir, si el suceso (lim X = X ) es un suceso casi seguro o prctica
mente cierto. Por esto, la convergencia casi segura en la T eoria de probabilidades se co
rresponde, en su esencia, con la convergencia ordinaria de una sucesin de funciones en
el Anlisis.
El teorem a siguiente ofrece una caracterizacin interesante de la convergencia con probabilidad uno.
c.s.
T e o r e m a 1. Se cum ple que X , ----- * X si y solo si para todo nm ero positivo e se cum ple la rela-
(2)
D e m o s t r a c i n . Sea e > 0 arbitrario. Introduzcam os la s notaciones siguientes:
www.FreeLibros.com
Entonces se cumple que fl+1() E B(e), por consiguiente Cn+1(e) C(e) y, por tanto, (ver 2 .4 , teo'
rema 1)
lim J(C(6) = P \
> *=1
Ct(e) ) .
'
C .S.
1. Supongamos que se cumple que X H ----- X, o sea, que P(C) = 1 . Entonces tenem os que f
1 C(6)
!
= <t> y. por tanto, lim
cumple (2).
2. Supongamos que se cum ple (2), o sea, que lim P(BJie ) ) = 0 . Entonces tenem os que D(e) 9 B n(e) para n = 1 ,2 ,... Por consiguiente, se cum ple que P (D (z)) 0. D e C i
c.s.
P\C) = 0 , o sea, que es P(C) = 1 , lo que es equivalente a X ----- X.
* -i
D ( I
V k '
resulta
que
D e f in ic i n 2 . Se dice que una sucesin (X J converge en probabilidad (o: converge estocsticamente) a X, si para todo nmero positivo e se cumple que
lim P {(o )en : |X n(e>) -X (m ) |< e}) = 1.
(3)
(4)
c.s.
rema 1. D e X n ---------X resulta, con el teorem a 1, que lim P (B ,(t)) = 0 . En virtud de AJfi)
(e)
se obtiene de aqui directam ente que lim P(An( t) ) = 0 , es decir, se cumple que lim P ( \x n- x ^ s) = 0 ,
lo cual es equivalente a lim / * ( | Jf|< e) = 1 y con esto a X X.
(5)
X.
121
www.FreeLibros.com
X --------X=>XK ---------X.
(6)
e*) ^ = E {X' X ) *
e*
entonces resulta
jp
> e) = 0 para todo e > 0 , es decir, se cum ple que X H ----- X.
que
(7)
(8)
PiAJ
www.FreeLibros.com
FVCk< x \a J
y
lim ^ J = l i m
-.a
*-
P ^ X .- ^ lf s )= 0
la relacin
lim inf Fx (x) > F / x - e ) .
Si x es un punto de continuidad de F# obtenemos para e -*0 las desigualdades
Mm sup Fx (x) < Fx) y lim inf Fx (x) > F x ).
Por tanto, se cumple que lim FXn(x) ~Fx) en todos los puntos de continuidad de Fx, es decir, se cumc.d.
pie que X , > > X.
C on esto hem os m ostrado que la convergencia en distribucin es la ms dbil entre los
tipos de convergencia aqu definidos. Si la variable aleatoria X posee una distribucin
puntual, o sea, si existe un nm ero c con P (X -c) = 1 , y la sucesin (XJ converge en dis
tribucin a X, entonces ella converger tambin estocsticam ente a X. (Para esto escribiP
m os abreviadam ente X x ------c y decim os que la sucesin (X J converge estocsticam ente
hacia c.) Se cum ple, por consiguiente, el teorem a siguiente:
T e o r e m a 5 . Sea X una variable aleatoria distribuida puntualmente. U na sucesin
(XJ converge estocsticam ente a X si y solo si converge en distribucin a X.
D e m o s t r a c i n . Sea X una variable aleatoria distribuida puntualm ente. Sin restric
cin de la generalidad podem os suponer que P(X=0 ) = 1 . Sobre la base del teorem a 4 solo
tenem os que demostrar que la convergencia estocstica resulta, bajo esta condicin, de la
convergencia en distribucin.
Por consiguiente se cumple
para x > 0 ,
en todos los puntos de continuidad de F # es decir, se cumple que
ln
i
*
Fx (x) =
Fx.M
= |\
l l11
www.FreeLibros.com
123
7.3
(1)
(2)
es decir, la sucesin (f,(A )) converge estocsticamente hacia p (Ley de los grandes nmeros
de Bernoulli, 1712).
D e m o s t r a c i n . Se cumple que E fn(A) = p (n = 1 ,2 ,...) y DYJiA) = 0 para
n
o
(ver 4.5 (13) y (1 4)). A plicando la desigualdad de Chebyshev (ver 7.1, teorema 2,
y sustituir X por f n(A )) se obtiene, para e > 0 arbitrario, la desigualdad
P ilfM ) - p !>
>s
neJ
- ( < 7 ^ 7 )V
4ne2 /
de donde resulta la proposicin (2) del teorema por paso al limite cuando n *
La Ley de los grandes nmeros de Bernoulli plantea que la probabilidad de que la di
ferencia entre la frecuencia relativa f (A) de un suceso A y la probabilidad P(A) - p de
este suceso sea menor que un nmero positivo 6 cualquiera dado, est arbitrariamente cer
ca de uno, si el nmero n de las repeticiones del experimento aleatorio considerado es su
ficientemente grande. Esto significa que para un nmero de experimentos suficientemente
grande, la probabilidad de que exista una diferencia insignificante entre la frecuencia re
lativa y el nmero p es aproximadamente igual a uno. En particular, la Ley de los gran
des nmeros de Bernoulli muestra que todo suceso aleatorio con probabilidad positiva,
por pequea que esta sea, ocurre al menos una vez en una serie de experimentos suficien
temente grande con una probabilidad situada arbitrariamente cerca de uno. D e estas ex
plicaciones se deduce por qu se denomina la proposicin del teorema 1 como Ley de los
grandes nmeros.
124
www.FreeLibros.com
Queremos an deducir una proposicin que contiene al teorema 1 como caso particular:
la llamada Ley de los grandes nmeros de Poisson. Constituye el punto de partida una se
rie de n experimentos aleatorios independientes, en los cuales ocurre un suceso A con una
probabilidad que, en contraposicin con el esquema de experimentos de Bernoulli consi
derado anteriormente, depende del nmero del experimento aleatorio (esquema de expe
rimentos de Poisson). Designemos con pk la probabilidad del suceso A en el experimento
k. Consideremos la variable aleatoria X k tal que
1 en
en
p k+ 0 ( l - p k) = p k
(X1+X 2+ . .. + X n),
( g _L
V
o para * \
4n
'
- Pl + -
se cumple que
+ -P" | < e ) = !
(3)
(4)
www.FreeLibros.com
Verifiquemos, por una parte, que en el caso de que la probabilidad del suceso A sea
igual en todos los experimentos (pk~ p para todo k), se obtiene de aqui la Ley de los gran
des nmeros de Bernoulli; pero observemos tambin por otra, que una proposicin corres
pondiente a la Ley de los grandes nmeros de Bernoulli se obtiene tambin con premisas
menos limitantes. El epgrafe siguiente trata sobre otras generalizaciones de la Ley de los
grandes nmeros de Bernoulli.
7.4
El prximo objetivo consiste en indicar condiciones suficientes para que una sucesin de
variables aleatorias satisfaga la Ley de los grandes nmeros.
Algunas proposiciones importantes en esta direccin se deben a nombrados representan
tes de la escuela rusa de la teoria de probabilidades, fundada por P.L. Chebyshev, la cual
represent el centro de la investigacin terica en este campo al inicio de nuestro siglo (en
especial se deben a P.L. Chebyshev y su famoso discpulo A .A . Markov (1856-1922), y
y A .N . Kolmogorov, el funda
dor de la teora axiomtica de probabilidades.
T e o r e m a 1. (Ley de los grandes nmeros de Markov)
Sea (XJ una sucesin de variables aleatorias, que satisfacen la condicin
(2)
126
www.FreeLibros.com
D e aqui resulta que se cumple la condicin de Markov y con esto hemos demostrado la
validez de la .Ley de los grandes nmeros para la sucesin (X J , en virtud del teorema 1.
Como caso especial de la Ley de los grandes nmeros de Chebyshev se obtiene direc
tamente la Ley de los grandes nmeros de Poisson (ver 7.3, teorema 2; all se cumple para
todo k que D 2X k= p k( l - p J ^ a causa de que (K p k^ 1).
En la formulacin de otras proposiciones utilizaremos un concepto, que estableceremos
en la definicin siguiente.
D e f in ic i n 2. Los elementos de un conjunto de variables aleatorias se denominan
distribuidos idnticamente, si todas la variables aleatorias de este conjunto poseen una
misma funcin de distribucin.
En relacin con esta definicin llamamos la atencin desque las variables aleatorias dis
tribuidas idnticamente no tienen que ser iguales; en cambio, las variables aleatorias igua
les poseen una distribucin idntica, como es natural. El lector debe aclararse a si mismo
este comportamiento.
T eo r e m a 3. Sea (XJ una sucesin de variables aleatorias independientes, distribuidas
idnticamente, con el valor esperado (comn) n y la varianza (comn) o*. Entonces la su
cesin (XJ satisface la Ley de los grandes nmeros. En particular, la sucesin
127
www.FreeLibros.com
( t
&
v a lo r e s p e r a d o (co m n ) |i.
L a p r o p o s ic i n d e e ste te o r e m a se o b tie n e d ir e c ta m e n te d e la L ey d e lo s g r a n d e s n m e
ros de C h eb y sh ev ; el le c to r d eb e v e r ific a r esto . E n la p a r te r e la tiv a a la E s ta d stic a m a
te m tic a h a r e m o s u n e m p le o p r o v e c h o s o de la p r o p o s ic i n d e l teo r e m a 3. P o r ltim o , a d
v e r tim o s que la L e y de lo s g r a n d e s n m e r o s de B e r n o u lli (v er 7 .3 , teo r e m a 1) se o b tie n e
d ir e c ta m e n te c o m o c a s o e s p e c ia l d e este teo r e m a .
Hs de notar que se puede renunciar a la condicin de la existencia de la varianza.
T e o r e m a 4. (Ley de los grandes nmeros de Kinchine). Sea (Xk) una sucesin devariables alea
torias independientes, distribuidas idnticamente, con el valor esperado (comn) u. Entonces, la suce-
(-& )
converge
estocsticamente a n.
Queremos exponer an algunas proposiciones sobre la denominada Ley fuerte de los grandes n
meros.
D e f i n i c i n 3. Se dice que una sucesin (A"t) satisface la Ley fuerte de los grandes nmeros, si la
sucesin (y),
-S
Xk- E X k),
converge casi seguro a cero, suponindose la existencia de los valores esperados EXk. (Si estos no exis
ten. entonces se dice que la sucesin (Xk) satisface la Ley fuerte de los grandes nmeros, si existe una
1 ^
n
Las definiciones 1 y 3 solo se diferencian en el tipo de la convergencia de la sucesin (K) hacia cero;
(3)
128
www.FreeLibros.com
"
2. Si la sucesin l -
Xk
c.s.
------------------ n.
i
Z
* =>
1
buida puntualmente, es decir, existe un nmero a, tal que
ces EXV y se cumple que E X = a .
"
V
c.s.
y , Xk----- a. Adems, existe enton-
hT
Renunciaremos a la demostracin de este teorema, que es muy difcil; esta se realiza haciendo re
ferencia al lema de Borel-Cantelli (ver 3.3, teorema 1). Advertim os an que, sobre la base de la pri
mera proposicin del teorema 6, la Ley de los grandes nmeros de K inchine (ver teorema 4) puede con
siderarse tambin como Ley fuerte de los grandes nmeros.
7.5
>
(Xk- E X k),
converja estocsticamente (o incluso, casi seguro) hacia cero, de donde resulta la conver
gencia en distribucin de la sucesin (Z J hacia cero (ver 7.2, teorema 4).
Muchas veces, y de casos semejantes nos ocuparemos en este y en el prximo epgrafe,
los teoremas lmites consisten en la indicacin de condiciones suficientes para la convergencia de una sucesin de funciones de distribucin hacia la funcin de distribucin de
una variable aleatoria distribuida normalmente con los parmetros u = 0 y ctj= 1; con esto
se obtienen tambin caracterizaciones significativas de la distribucin normal.
* Esta proposicin fue considerada por primera vez en 1909 por el matemtico francs
E. Borel (1871-1956) ; por ello se denomina tambin Ley de los grandes nmeros de Bo>
re.
129
www.FreeLibros.com
>2r = D'F.(A) = p {^ - L
n2
n
y, por tanto, se cumple que
lim D 2Y = 0.
El comportamiento diferente de la funcin de distribucin limite se hace pausible, de
esta forma.
Ahora queremos considerar la sucesin (Z J que se obtiene mediante estandarizacin de
la sucesin (F(/4)),
______ n~
Fn(A) -E F ,(A )
\ D 2F(A)
F M ) ~nP
'
\j np(l p)
H ~EF
\ D 2Fn
F, - n p
V nP(X~P)
130
www.FreeLibros.com
- L - e l dt,
J y in
(1)
o sea, la sucesin (Z J converge en distribucin hacia una variable aleatoria con distribu
cin # (0 ,1 ).
U na demostracin clara de este teorema exige medios auxiliares que sobrepasan los
marcos de este libro. Por eso, nos limitaremos a aclarar la significacin del teorema 1 y,
en particular, la utilizacin de esta proposicin en casos de aplicacin.
Si X es una variable aleatoria distribuida binominalmente con los paramtros n (n 1)
y p(0 < p < 1), entonces el clc,ulo de las probabilidades
es complicado, como habamos dicho ya en el epgrafe 4.5. Sin embargo, en este caso
( n l ) , no nos interesamos tanto por tales probabilidades particulares, que son en su
mayora muy pequeas, sino por los valores que toma X de un intervalo cualquiera dado.
A plicando el teorema 1 se obtiene para P (a ^ X < b )
a np
P(a^S X < b ) = P
X -n p
V np{\ - p )
\ np(\ - p )
b -n p
y np( 1 - p )
( 2)
(La expresin sealada representa al mismo tiempo una aproximacin para las probabilidades P (a< X b), P ( a < X < b) y P ( a < X < b ) .------------------------------------------------------------Una variable aleatoria distribuida binomialmente con los parmetros n ( l ) y
p(0 < p < \ ) posee aproximadamente una distribucin normal con los parmetros \i= n p y
a 2= n p ( l - p ) .
E je m p lo . U na fbrica suministra bombillitos en cartones de 1 000 cada uno. Se sabe
que la fbrica produce un promedio de bombillitos defectuosos del 3 %. Luego, en un car
tn con 1 000 bombillitos es de esperar que alrededor 30 estn defectuosos. N os intere
samos por la probabilidad de que en un cartn se encuentren de 20 a 40 bombillitos de
fectuosos. Para ello designemos con X el nmero (aleatorio) de los bombillos defectuosos
en un cartn. La variable aleatoria X est distribuida binomialmente con los parmetros
n = 1 000 y 7=0,03; se cumple entonces que
E X = 1 000
*=20
*=20
131
www.FreeLibros.com
Con esta frmula no se puede calcular de forma prctica la probabilidad buscada. Si uti
lizamos la frmula de aproximacin (2) con a =20, b=40. n=1000. n = 0 m y 1 _ j,= o o
obtenemos que
P { lO ^ X 4 0 )=
2 0 - 1 000 0,03
4 0 - 1 000 0,03
=<D
10
. /
129,1
129,1
= 2
10
-1 0
-1
129,1
= 2 ( 1 ,8 5 ) - 1 = 2
0 ,9 7 - 1 = 0 ,9 4 = 94%
7.6
1- p
X:
(ver en 7.3 las explicaciones posteriores a la formulacin de la Ley de los grandes nmeros
F EF
de Bernoulli). Las variables aleatorias Z = -------------- - de la sucesin (Z J conside-
EXk y D JF = ^ D 2X k, en la forma
EXJ
Z =-
(1)
*-1
132
www.FreeLibros.com
Z =
( 1)
converge en distribucin hacia una variable aleatoria con distribucin N (0,1), es decir, si
para la sucesin (FZJ de las funciones de distribucin de Z se cumple la relacin
( 2)
Luego, en esta form ulacin se supone la existencia de los valores esperados y las varianzas que apa
recen, asi como que D X l > 0 . Si estas m agnitudes no existen, entonces se dice que la sucesin (Xk) sa
tisface al teorem a central del lim ite, si existen sucesiones num ricas (a) y (>). >*0, tales que la su
cesin (Z),
(3)
converge en distribucin hacia una variable aleatoria con distribucin JV(0,1).
El prximo objetivo consiste en indicar condiciones suficientes para que una sucesin de
variables aleatorias satisfaga al teorema central del lmite. Para ello afirmamos primera
mente que, sobre la base del teorema integral de D e Moivre-Lapiace, una sucesin (X k)
de variables aleatorias independientes, distribuidas idnticamente en dos puntos, satisface
al teorema central del lmite. A continuacin se muestra que se puede renunciar a la con
dicin de la distribucin en dos puntos.
T e o r e m a 1. Sea (Xk) una sucesin de variables aleatorias independientes, distribuidas
idnticamente y con varianza finita y positiva. Entonces la sucesin (X k) satisface al
teorema central del limite.
Este teorema se debe a J.W. Lindeberg (1922) y P. Lvy (1925); por eso se denomina
tambin como Teorema lm ite de Lindeberg-Lvy. En la estadstica matemtica este teo
rema es de gran significacin; en l se plantea que las sumas estandarizadas Z de varia
bles aleatorias X k independientes y distribuidas idnticamente, poseen asintticamente una
distribucin # (0 ,1 ) y (es decir, cuando el nmero de los sumandos tiende a <), si para
los sumandos X y exista, junto al valor esperado (comn) m la varianza (comn) ct2
(o2< ~ ) y esta es positiva (oJ> 0 ).
Esto significa que las variables aleatorias
(4)
133
www.FreeLibros.com
grande.
'D 'X k
y J ^ \x k-Exk\> y c,=yj^t
4=1'
(5)
' *-1
b,
= 0 (condicin de Lyapunov),
c.
(6)
D 1 Xk
mx ------------- = 0 .
2
,
/1
(7)
D' x
Esta relacin expresa que la varianza de cada sumando X k es pequea en comparacin con la varianza
de la suma JT,+J!',+...+Jr..
Por ltimo, W. Feller dem ostr (1935) que, suponiendo que (7) se cumpla, para la validez del teorema
central'del lim ite es necesaria la satisfaccin de la condicin de Lindeberg.
Estos teoremas son de gran importancia, tanto en el aspecto terico -en especial tericocognoscitivo como en el aspecto de sus aplicaciones prcticas. D e estos teoremas se obtie
ne con frecuencia la justificacin para describir aproximadamente la distribucin de una
variable aleatoria como una distribucin normal. Asi, por ejemplo, se puede suponer que
una variable aleatoria posee una distribucin normal si se obtiene mediante superposicin
de un nmero considerable de efectos aleatorios mutuamente independientes, donde cada
uno de estos efectos tiene una influencia insignificante sobre la variable aleatoria consi
134
www.FreeLibros.com
derada, en comparacin con la suma de los otros efectos (ver (7)). Con esto, el conoci
miento de los valores esperados y las varianzas es lo nico que se necesita saber acerca
de las distribuciones de probabilidad de los efectos aleatorios que intervienen en la super
posicin. El resultado de una tal superposicin se describe muy bien mediante la distri
bucin normal, si el nmero de los efectos aleatorios es elevado.
Estas notables regularidades en los fenmenos aleatorios, que se expresan en forma cuantitativa en
los teoremas centrales del limite y en forma cualitativa, en las leyes de los grandes nmeros, han con
ducido a realizar y homenajear a la distribucin normal; reproducimos en una traduccin libre una
G alton (1822-1911):
Y o no sabra nombrar algo que pudiera impresionar tanto la fantasa como la forma maravillosa del
orden csmico, que se expresa en la Ley de los grandes nmeros. Si los griegos hubieran conocido esta
ley, la hubieran personificado y adorado como divinidad. Con serenidad y com pleto desconocim iento
de si misma ejerce su poder en m edio del m is salvaje desorden. M ientras m is gigantesco es el conjunto
y mayor la aparente anarqua, tanto m is completa es su fuerza. Ella es la ley superior del caos. Tan
pronto una gran m asa de elem entos sin reglas se ordenan m edianamente, se muestra que una imprevista
y maravillosa regularidad, sumamente armnica, estaba ya oculta en ellos.
13S
www.FreeLibros.com
8.
E stadstica descriptiva
e n ltim a in s ta n c ia ,
en lle g a r a p r o p o s ic io n e s
m s
g e n e r a le s s o
bre u n a d e n o m in a d a p o b la c i n . P a r a e s to s ir v e n lo s m to d o s y p r o c e d im ie n to s d e la E s
ta d s tic a m a te m tic a (d el c a p tu lo 9 al 1 1 ). lo s c u a le s se b a s a n e n la T e o r a d e p r o b a b i
lid a d e s.
E n c o r r e s p o n d e n c ia c o n el o b je tiv o p la n te a d o p a r a e ste lib ro , n o s o c u p a r e m o s d e fo rm a
d e ta lla d a d e la E s ta d s tic a m a te m tic a y s o la m e n te a b o r d a r e m o s lig e r a m e n te lo s m to d o s
y p r o c e d im ie n to s u tiliz a d o s e n la E s ta d stic a d e s c r ip tiv a . A s tr a ta r e m o s en e l e p g r a fe 8 .1
lo s m to d o s p a r a u n a c a r a c te r s tic a m ed ib le . y e n el e p ig r a fe 8 .3 . lo s m to d o s p a r a d o s
c a r c te r is tic a s m ed ib le s.
A d e m s , p r e s e n ta r e m o s a lg u n a s m e d id a s e s ta d s tic a s tp ic a s (e p g r a fe s 8 .2 y 8 . 4 ) , la s c u a
les a p a r e c e r n d e n u e v o , e n su m a y o r a , e n lo s c a p tu lo s p o s te r io r e s r e la tiv o s a la E s ta d s
tic a m a te m tic a .
8.1
L a b a se d e u n a in v e stig a c i n e s ta d s tic a e s u n c o n ju n to d e o b je to s e n e l c u a l u n a o v a r ia s
c a r a c te r s tic a s d e b e n se r in v e stig a d a s . E n e s te y e n e l p r x im o e p g r a fe p a r tir e m o s d e que
se d eb e in v e stig a r u n a c a r a c te r s tic a m e d ib le X\ m s g e n e r a l,
u n a c a r a c te r s tic a q u e se
p u e d e d e sc rib ir n u m r ic a m e n te e n n o b je to s, y d e s ig n a r e m o s c o n x , , . . . ,
lo s v a lo r e s
d e m e d ic i n (n m er o s) o b te n id o s, lo s c u a le s n o t ie n e n q u e ser n e c e sa r ia m e n te d ife r e n te s
u n o s d e o tro s.
136
www.FreeLibros.com
Se puede tratar, por ejemplo, del nmero de puntos obtenidos en un trabajo de control
por n estudiantes, o de las medidas del cuerpo de n estudiantes de la misma edad, o de
las temperaturas del medioda en n lugares diferentes, o tomando un ejemplo de la tc
nica, de la diferencia entre el dimetro real y la medida prevista en n pernos producidos
en un taladro automtico.
En el marco de la Estadstica matem tica se considera a X como una variable aleatoria, y a x ,...... x
como valores observados de X en n experim entos concretos.
Los nmeros x ,,..., x forman una serie de mediciones (de tamao n). La agrupacin
de los elementos de una serie de mediciones en la sucesin en que van surgiendo, se denomina lista originaria.
E je m p lo 1. La tabla siguiente contiene el resultado de un trabajo de control realizado
por 100 estudiantes. Aqu se represent el rendimiento de cada uno de esos estudiantes
de acuerdo con una puntuacin determinada, pudindose alcanzar como mximo 15 punTabla 1
7
4
9
12
3
6
9
11
11
8
6
8
8
9
4
13
10
7
9
12
13
3
12
8
13
2
10
5
10
8
7
12
3
10
0
14
9
2
15
11
11
14
9
6
6
4
10
12
11
13
10
8
5
11
3
9
10
1
10
12
13
11
4
7
8
5
10
7
13
10
8
10
9
11
6
9
12
13
8
14
14
2
8
11
7
9
0
6
12
12
10
14
15
12
13
6
12
10
14
9
Tabla 2
Tarjado
n
l
ni
mi
mi
ni
m ii
U+1 1
Frecuencia
2
1
3
4
4
3
7
6
Puntos
8
9
10
11
12
13
14
15
Tarjado
U+1 UH
U+1 U+1 1
W1 U+1 III
U+1 U+1 1
U+1 lili
U+1 III
U+1 1
II
Frecuencia
10
11
13
9
11
8
6
2
137
www.FreeLibros.com
Como se puede apreciar las tablas de frecuencia son ms comprensibles y pequeas que
las listas originarias, asi como ms apropiadas para emitir un juicio sobre la distribucin.
En ellas no se pierde informacin con respecto a las listas originarias. Las tablas de fre
cuencia se pueden ilustrar bien mediante representaciones grficas.
E je m p lo 3. Ilustraremos la tabla de frecuencia dada en el ejemplo 2 mediante repre
sentaciones grficas (fig. 44).
Una representacin grfica como la de la figura 44a se llama polgono escalonado o histograma; la representacin grfica dada en la figura 44b se denomina polgono de frecuencia (o abreviadamente: polgono). Si lo que se quiere es comparar varias series de medciones de distintos tamaos (en el marco de un mismo problema), se representa sobre el
eje de las ordenadas en lugar de la frecuencia absoluta, la frecuencia relativa.
Qtd
0
1 2
5 6 7 8 9 10 11 12 13 14 15
Puntos -
Puntos
Figura 44
www.FreeLibros.com
( Nota 5 )
(N o ta 4 )
(N ota 3) (N o ta 2) (N ota 1)
N otas
Figura 45
1:
2:
3:
4:
5:
0 ,1 ,2 ,3 ,4 puntos
5,6,7
8,9,10
11,12,13
14,15
(La evaluacin de los rendimientos con las notas 1 hasta 5 constituye la fundamentacin
para esta particin en clases; de aqu, corresponde a la clase 1 la nota 1, a la clase 2 la
nota 2 y asi sucesivamente.)
Los resultados se resumen en la tabla siguiente -en una denominada tabla de distribu
cin secundaria- y en la figura 45 se ilustran grficamente.
Clase
1
2
3
4
5
Tabla 3
Nota
(5)
(4)
(3)
(2)
(1)
Tarjado
.WitfT lili
jj+T j+rf m i
j+rf j+rf j+rT MJ+fT j-H mi
jj+r j+tf MrMf.urr ni
m ni
Frecuencia
Frecuencia
relativa
14
16
34
28
8
0,14
0,16
0,34
0,28
0,08
139
www.FreeLibros.com
Observemos que a la par que se gana en claridad mediante una clasificacin del ma
terial numrico, surge una prdida de informacin (con respecto a la lista originaria o a
la tabla de distribucin primaria).
8.2
Para valorar una serie de mediciones se introducen con frecuencia magnitudes, las deno
minadas medidas estadsticas, que se calculan a partir de los valores de medida. Quere
mos ocuparnos, en primer lugar, de las medidas de tendencia central, las cuales carac
terizan a una serie de medidas mediante un nico valor, un valor promedio, y tratar
a continuacin las medidas de dispersin empricas, que ponen de manifiesto la desviacin
de los valores de medida en la serie de mediciones.
8 .2 .1
M e d id a s d e te n d e n c ia c e n tr a l
(2 )
www.FreeLibros.com
ejemplo se obtiene como moda emprica x=10.) Las modas empricas de una serie de me
diciones son los puntajes de mayor frecuencia en la serie de mediciones considerada.
La medida geomtrica x de una serie de valores x...... x est dada por
ella est definida solamente para series de mediciones con puntajes positivos. En compa
racin con la media aritmtica est menos influenciada por los valores extremos de la se
rie de mediciones. En la prctica se utiliza frecuentemente en la Estadstica econmica
(por ejemplo, en la caracterizacin de un tiempo de crecimiento promedio).
8 .2 .2
M e d i d a s d e d is p e r s i n
Una primera idea sobre la dispersin de una serie de mediciones nos la puede dar el re
corrido 8,, el cual se define como la diferencia del mximo y el mnimo de los puntajes,
o sea,
JCm4= nx {*,>> *}.
6,=*uu-*mta con
jcmi=mn
x}.
(3)
(*)
( x - J 1,
'
(5)
www.FreeLibros.com
E je m p lo . Para el material numrico del ejemplo 1 (8.1) se obtiene segn (6), con
2
xf=9216 y ^ x ,= 8 9 2 , la varianza emprica j ;, j^ = 12,72, de donde resulta para
1=1
i=i
la desviacin estndar emprica s el nmero 3,57. (Utilizando la particin en clases del
ejemplo 4 (8.1) se obtiene j;= 1 3 .3 5 y de ah se deriva que j= 3,65.)
Por ltimo queremos llamar la atencin sobre el coeficiente de variacin emprica (o
coeficiente de variabilidad) v,, para una serie de mediciones, definido para x * 0 por
(8)
El coeficiente de variacin se utiliza para comparar varias series de mediciones con res
pecto a sus desviaciones estndar empricas, considerando sus medias aritmticas respec
tivas y frecuentemente se da en tanto por ciento.
8.3
La agrupacin de los pares (x,, y ) segn el orden en el cual van surgiendo, se denomina
nuevamente lista originaria. Racionalmente, tambin se pasa en este caso, a la confeccin
de una tabla de distribucin prim aria (tabla de frecuencia), la cual para cada posible valor
(x.y) de (X,Y) contiene la frecuencia (absoluta o relativa) de la aparicin de este par en
el material numrico considerado (ver el ejemplo siguiente), donde dado el caso se realiza
una particin en clases para las caractersticas X y Y. Para hacer ms comprensible lo anterior sirven las representaciones grficas del material numrico, por ejemplo, mediante
puntos en el plano x ,y o en forma de histogramas (especiales). N o profundizaremos ms
y terminaremos este corto epgrafe con un ejemplo.
E je m p l o . A 100 nios recin nacidos se les midi la talla X (en cm) y el permetro
de la cabeza Y (en cm ). Obviemos la lista originaria y demos la tabla de frecuencia co
rrespondiente en la cual aparecen redondeados los pares de valores de medicin (los cua
dros en blanco se interpretan como si tuvieran ceros).
Como se aprecia, aparecen con ms frecuencia, e n tr e los 100 recin nacidos investigados
nios con una talla entre 48 y 52 cm, y un p e r m e tr o d e la cabeza, entre 33 y 36 cm. Con
trariamente, aparecen muy pocos nios peque:''.' , v mies) q u e presenten un gran (peque
o) permetro de la cabeza.
142
www.FreeLibros.com
Tabla 4
\
y
X
N,
32
47
33
34
35
36
37
38
39
5
48
49
10
50
51
14
52
12
53
14
21
54
24
55
56
3
8.4
17
33
25
14
(100)
v = Z
<*-*) (y.- )-
(i)
143
www.FreeLibros.com
pricas sxn=
2 ^ (x ,-x ) ( y - y )
(2 )
(3)
(4)
Queremos finalizar las explicaciones sobre la es adisnca descriptiva con una observa
cin general sobre las propiedades de aplicacin de las frmulas dadas en los epgrafes
144
www.FreeLibros.com
8.2 y 8.4. Para la deducin de estas frmulas hemos partido siempre de que los valores
numricos utilizados son resultados de procesos de mediciones, para los cuales se utiliz
una escala de unidades, o con otras palabras, de que los valores de observacin utilizados
se pueden comparar (en el sentido de mayor que, igual que y menor que), de donde se ob
tiene que las diferencias de los valores de las m ediciones tambin se pueden interpretar
racionalmente.
En especial, en las investigaciones pedaggicas, pero tambin en los psicolgicas y en
las sociales, se investigan con frecuencia caractersticas que no se pueden medir con una
escala de unidades, conocidas como caractersticas cualitativas (piense por ejemplo en la
caracterstica resultado de una prueba ; esta caracterstica se puede describir numri
camente, digamos con las notas del 1 al 5, pero la diferencia entre las notas no se puede
interpretar razonablemente. Otro ejemplo para esto seria la caracterstica procedencia
social ). En estos casos no se pueden aplicar las frmulas de manera irreflexiva; no
obstante existe una serie de posibilidades de describir numricamente, por ejemplo, la
dependencia mutua de caracteristicas cualitativas, es decir, de aquellas que no se pueden
expresar por medio de una escala de unidades (por ejemplo, mediante el clculo del lla
mado coeficiente de correlacin del rango o del denominado coeficiente de contingencia).
www.FreeLibros.com
145
9.
9.1
www.FreeLibros.com
www.FreeLibros.com
147
9.2
Poblacin y muestra
www.FreeLibros.com
cin 12. Por tanto, una muestra sin reposicin de tamao n es una muestra de tamao n
en el sentido de la definicin 1. Por consiguiente, en una muestra sin reposicin cada ele
mento coe2 puede ser extrado a lo sumo una vez, y para el tamao de la muestra n se
cumple que n 4 N.
Muchas selecciones de muestras que se hacen con fines econmicos, en especial, en el
m arco del con trol estadstico de la calidad, y para otras investigaciones cientficas, se ba
san en el modelo de una muestra sin reposicin. El objetivo de esta seleccin consiste, con
frecuencia, en obtener informacin sobre la parte de los elementos de una poblacin que
estn caracterizados por una determinada propiedad P (por ejemplo, por una caracters
tica cualitativa particular). Para ello se puede describir una muestra de tamao n median
te variables aleatorias X v X v ..., Xn, de la manera siguiente:
f 1, si el elemento tomado en la fe-sima extraccin posee la propiedad P"
k= 1
10, si el elemento tomado en la fc-sima extraccin no posee la propiedad P
En una muestra con reposicin, las variables aleatorias X v X 2...... X n son independien
tes y estn distribuidas idnticamente. La variable aleatoria S - X + X + ...+ X que in
dica el nmero (aleatorio) de los elementos con la propiedad P " en la muestra, est dis
tribuida binomialmente con los parmetros n = tamao de la muestra y p =probabilidad de
la propiedad P " en la poblacin. En una muestra sin reposicin, las variables aleatorias
X v Af,,..., XHestn tambin distribuidas idnticamente, pero no son independientes entre
si. La variable aleatoria
+ X n posee una distribucin hipergeomtrica. El re
sultado concreto de la seleccin de una muestra, igual si es con o sin reposicin, puede
describirse por una sucesin finita de los nmeros cero y uno.
En nuestras consideraciones posteriores describiremos las muestras mediante variables
aleatorias. Para ello sea [12, A, P] un espacio de probabilidad, y sea X una variable alea
toria sobre este espacio de probabilidad. Para obtener informacin sobre la distribucin
de probabilidad de la variable aleatoria X, por lo general desconocida, se repetir n veces
un experimento de forma independiente, observndose cada vez un valor concreto, es de
cir, una realizacin de la variable aleatoria. Con esto obtendremos los nmeros
x x ,,..., jc, que son realizaciones de la variable aleatoria X. Si concebimos el nmero
x k, o sea, la realizacin de la variable aleatoria X en el fc-simo experimento, como re
alizacin de una variable aleatoria X k, entonces las variables aleatorias X v X v ..., Xn son
independientes entre si y estn distribuidas idnticamente que X. Esto constituye el fun
damento para la definicin siguiente:
D e f i n i c i n 2. Sea X una variable aleatoria con la funcin de distribucin F. Enton
ces el vector aleatorio (Xv X_,..., X J , cuyas componentes X k son independientes y estn
distribuidas idnticamente que X, se llam a una m uestra m atem tica de tamao n de a po
blacin X con la funcin de distribucin F. Las variables aleatorias A',.
..., X n se deno
minan en este contexto variables d e la muestra y a una realizacin (x,
x J del vec
tor aleatorio (xt, X v ..., X J se le llama muestra concreta de tamao n de la poblacin X
con la funcin de distribucin F.
O b s e r v a c i n . Anteriormente hemos dicho que por una poblacin se debe entender el
conjunto universo de un espacio de probabilidad. Este espacio de probabilidad est carac
terizado, en este caso, por el conjunto de todos los n-uplos de nmeros reales, es decir,
por el conjunto R" y por la distribucin de probabilidad del vector aleatorio
(A\, AT,,..., X J . La distribucin de probabilidad del vector aleatorio (Xv X v ..., X J est
www.FreeLibros.com
jr.i
9.3
para x > mx x, se cumple que w(x) = 1. Estas propiedades muestran que vv es una fun/<<
cin de distribucin (ver en 4.1 la observacin despus del teorema 1); esto justifica tam
bin la denominacin introducida en la definicin 1. Podemos reconocer en qu sentido
esta funcin vv es una aproximacin de la funcin de distribucin F de la poblacin, si
tenemos en cuenta la totalidad de todas las posibles muestras concretas, y con esto, la to150
www.FreeLibros.com
talidad de todas las posibles funciones de distribucin empricas para un tamao n fijo de
las muestras de la poblacin dada. Escojamos ahora, como punto de partida, una muestra
matemtica (Xv X v .., X J de tamao n de la poblacin X con la funcin de distribucin
F. Para un nmero real x arbitrario designe M n(x) el nmero de las variables de la mues
tra que son menores que x. Entonces M n (x) es una variable aleatoria y la magnitud
m n(x), definida anteriormente, puede concebirse como una realizacin de M n(x). De
acuerdo con la forma de proceder seguida en el caso de una muestra concreta, conside
raremos ahora la variable aleatoria W n(x) =
_______________________________________________ n
MAx)
--------n
D W jW . f W < 1 - fl|X))
n
(1)
-.0 (n
>.
(2)
Por tanto, el valor esperado del valor de la funcin de distribucin emprica W n de una
muestra matemtica {XVX }, ..., X J de tamao n de la poblacin X, en el punto x, es igual
independientemente del tamao de la muestra- al valor de la funcin de distribucin
F de esta poblacin en el punto x, y la varianza de la variable aleatoria W x) converge
www.FreeLibros.com
151
hacia cero a medida que crece el tamao n de la muestra ( *<). La relacin entre la
funcin de distribucin emprica W , de una muestra y la funcin de distribucin F d la
poblacin considerada, se demuestra an ms claramente en el teorema siguiente, que
constituye una forma debilitada del teorema fundamental de la Estadstica matemtica.
T e o r e m a 1. Para todo nmero positivo e y todo nmero real x se cumple que
(3)
o sea, para todo nmero real x la sucesin ( J ^ M ) converge estocsticamente hacia F(x).
D e m o s t r a c i n . Sea x un n m e r o r e a l a r b itr a r io , t n t o n c e s ^ ( x ) e s ig u a l a la frecuencia relativa (aleatoria) / (A) del suceso A = (X < x ) en una serie de n repeticiones in
dependientes de un mismo experimento, consistente en la realizacin de la variable
aleatoria X y A posee en cada ocasin la probabilidad p= P (A ) = P (X < x ) =F (x). Sobre la
base de la Ley de los grandes nmeros de Bernoulli (ver 7.3, teorema 1) se cumple para
todo nmero positivo e que
lim P{\f(A) - p |< e ) = 1 , o sea. lim P(| W n (x) -F (x ) |<e) = 1 ,
lo que queramos demostrar.
Ya que la Ley de los grandes nmeros de Bernoulli puede considerarse tambin como ley Tuerte de
los grandes nmeros (ver 7.4. Ley de los grandes nmeros de Borel). la proposicin del teorema 1 puede
agudizarse de la forma siguiente:
l im
W n{x) = F (x )) = 1 .
Hsto significa que para todo nmero real x. la sucesin (W-^tx)) converge casi seguro hacia F (x ). El
contenido del teorema siguiente es un resultado esencialm ente ms fuerte, que se debe al m atemtico
sovitico V .I. Glivenko (1933).
T e o r e m a 2 (Teorema de G livenko). Se cumple que
P (lim
sup
| Wn(x) F(x) |= 0 ) = 1.
(5)
N o demostraremos este teorema, pero queremos an aclarar algo. La proposicin (4) muestra que
se cumple lim |w (x) -F ( x ) |=0) = 1 para todo nmero real x. o sea. que para todo nmero real x
la sucesin (Z>(jr)). Z>(x) = |w'(1(x) F(x) |, converge casi seguro hacia cero. La proposicin (5) significa
que esta convergencia es incluso uniforme (en x ) , o sea. que la sucesin (D),
Z)=
sup
|w^B( x ) - F ( x ) |
converge casi seguro hacia cero. La relacin, expresada por medio de (5), entre la funcin de distri
bucin emprica de una muestra m atem tica y la funcin de distribucin de la poblacin, se denomina
teorema fundamental de la Estadstica matem tica.
C oncluyendo este crculo de problemas indicamos sin dem ostracin, una form ulacin cuantitativa
del teorema fundamental de la Estadstica matemtica.
T e o r e m a 3 (Teorema de K olm ogorov). Si la funcin de distribucin F de la poblacin es continua.
entonces se cumple que
con
para y > 0 ,
(6)
para >< 0.
152
www.FreeLibros.com
Para la explicacin de este teorem a observem os que sobre la base del teorem a de G livenko la suce
sin (/>). D = sup | W Jx) - F (x ) |. converge casi seguro hacia cero, luego, hacia una variable ale
atoria distribuida puntualmente. H1 teorema de Kolm ogorov m uestra que la sucesin ( \[ D J converge
en distribucin hacia una variable aleatoria, cuya funcin de distribucin es la funcin K. N otable es,
en particular, que esta funcin de distribucin lim ite K no depende de F, bajo la sola condicin de que
F sea continua. En esta proposicin se basan dcim as de hiptesis para la distribucin de una pobla
cin; los valores necesarios de la funcin K pueden encontrarse en tablas de la Estadstica matemtica.
9.4
Estadgrafos
(1)
(2)
una funcin real <p(A',,..., X J sobre el conjunto 2, que en este contexto se denomina es
tadgrafo, y que consideraremos siempre-como una variable aleatoria (sobre [2, A, P]).
A continuacin damos algunos ejemplos de estadgrafos que desempearn tambin un
papel en las explicaciones posteriores; aqu introduciremos algunas abreviaturas que se
utilizarn en lo que sigue.
E je m p lo s
2. <p(*,...... X J =
3. ip(A'1,..., x j = - L .
" -1
>
( x - x y = -s i.
4. (pAf,,..., X J = m x {A",,..., X j .
5. <p(A'1...... X J = m n {X x...... X}.
El conocimiento de la
cisiva importancia en la
tica; aqu nos interesan
fo <p(A'p ..., X J para un
www.FreeLibros.com
(3)
(4)
= \ - ( \ - F Xl( x ) ) . . . ( \ - F xpc))
= 1 -[1 - h
I V
x=
1
n
>
,,
1.
a1 \
n '
Observaciones
/ X [t
1. D el teorema 2 resulta directamente que \n ------ es una variable aleatoria con
o
una distribucin N(0, 1).
2. Supongamos acerca de la poblacin X considerada, que se cumple 0 < i ? 1A T<. En
tonces la sucesin
154
www.FreeLibros.com
que posee una distribucin N (0 ,1) (ver 7.6, teorema 1). Luego X n posee para n grande
D 2X \
EX, y
n S*2
T e o r e m a 3 . El estadgrafo ----- con
a2
X2 con n grados de libertad.
X -]i
D e m o s t r a c i n . Las variables aleatorias Yt = ----- ( i = l , . . . , n) son independientes
------------------------------------------------------------------------------- a
y poseen una distribucin N(0, 1). Luego, segn el corolario 1 (6.S)
nSj
n
n
arf21 ~ 7
nn
7T
o2
T e o r e m a 4 . El estadgrafo
=
(
posee una distribucin x 2
a2
^77 '
o
'
con n - 1 grados de libertad.
Renunciaremos a la demostracin de este teorema algo difcil.
X n
T e o r e m a 5. El estadgrafo "
V?
libertad.
La proposicin de este teorema se obtiene de los enunciados de los teoremas 2 y 4, de
que X my SJ son estocsticamente independientes y por ltimo, de la proposicin del teo
rema 7 (6.5).
T e o r e m a 6 . Sean (A',,..., X J y (Y ,,..., Y J dos muestras matemticas de tamao m
de una poblacin X con una distribucin iV(Hj, a 2) y de tamao N de una poblacin Y con
una distribucin AT(nr 0a) respectivamente . Adems, sean X y Y estocsticamente indeS2
pendientes. Entonces el estadgrafo - ; con
s i.
2
(X -X J 2y
_ L _ 2 ) ( y - y j 2,
( m - l) S *
( n - l ) S 2y
D e acuerdo con ella, ------------- y ------------- poseen una distribucin x 2 con m - 1 y
ctj
a2
n 1 grados de libertad respectivamente. Como X y Y son independientes, esto se cumple
(iwl)S _
( n -l) 5f..,
www.FreeLibros.com
155
10.
10.1
www.FreeLibros.com
rm etro y e T \ considerarem os para ello una m uestra m atem tica (.V,.......... V,.) de tam ao
n de la poblacin .V. La Teora de la estim acin tiene, pues, la larca de h allar estadgrafos
adecuados ip (x ]............x,,) p a ra la estim acin de y > de investigarlos con respecto a la de
pendencia de sus correspondientes distribuciones de probabilidad del p arm etro y. Luego.
si (.x,....... x J es una m uestra concreta de tam ao n de la poblacin .V. entonces el nm ero
ip(.v,...... x). que se concibe como una realizacin de la variable aleatoria
......... V).
puede utilizarse como v a lo r e s tim a d o p a ra y0: el estadgrafp tom ado por base (p (.Y,.........Y)
se denom ina en este con texto un estimador (para y). Por tanto, un estim ad or es una va
riable aleatoria, cuyos valores pertenecen al conjunto T de los posibles valores del p ar
m etro; un valor estim ado es un nm ero real (e F ).
Para diferenciar las estimaciones que en el caso particu lar proporcionan nmeros (pun
tos sobre el eje real), de las llam adas estimaciones por intervalo, que se introducirn ms
tarde, denom inarem os a las prim eras estimaciones puntuales. N aturalm ente, como estim a
dores puntuales se aspira u tilizar estadgrafos que proporcionen una aproxim acin lo " m e
jo r posible del p arm etro a estim ar, sobre la base de sus propiedades terico probabilsticas.
E je m p lo . Supongamos que la poblacin X posee una distribucin norm al con la va
rianza D 2X = a l (ct0 conocida, por ejemplo. o 0= l ) . y que el valor esperado E X es desco
nocido. Por tanto, hacemos y = E X y T= R 1. Si (A",........ X J es una m uestra m atem tica
de tam ao n de esta poblacin, entonces el estadgrafo
a
(T;
posee el valor esperado y('y= y), y se cumple que D 2 y = ----- . Sobre la base de la den
sigualdad de Chebyshev (ver 7.1, corolario 1) se cum ple p a ra todo e > 0 la relacin
ne2
o sea, lim P (|y -y |< e ) =1
converge estocsticam ente hacia y. (Estas proposiciones se cum plen p a ra todo yeT = R 1, en p a rtic u la r, p a ra el valor verdadero y0.) P a ra
un tam ao n de la m uestra suficientem ente g rande se puede esp erar que la m edia aritm
tica x n. de los elem entos de u n a m uestra concreta (x v ..., x J represente un valor estim a
do pasable p a ra el p a r m e tro desconocido. (Por lo dem s, en las reflexiones anteriores no
hemos tom ado en consideracin que la poblacin X posee una distribucin norm al; es su
ficiente saber que la poblacin X posee una v arian za (finita) p a ra todo valor del parm etr o .)
Como m uestra el ejemplo dado, en la valoracin de un estadgrafo como estim ador p a ra
un p arm etro desconocido, es de gran significacin el com portam iento asinttico, esto es,
el com portam iento p a ra =. E n la aplicacin prctica, las proposiciones sobre el com
portam iento asinttico son de utilidad solo cuando el tam ao n de la m uestra en cuestin
es grande; en realidad, no se puede in d icar exactam ente qu se debe entender por un tam a o grande de la m uestra, lo cual depende tam bin estrecham ente del problem a con
siderado. Adem s, se debe llam ar la atencin de que en vinculacin con una estim acin
157
www.FreeLibros.com
10.2
(1)
La validez de (1) se exige para todo y el"; con esto se cumple (1) en particular para y0,
el valor verdadero del parmetro.
E je m p lo 1. Supongamos que X posee una distribucin uniforme sobre el intervalo
[0,>], b > 0 y que b sea desconocido. Hagamos y = b y T = {y : y > 0 }. Adems, sea
(X, ..., X J una muestra matemtica de tamao n de la poblacin X. Para el estadgrafo
1S8
www.FreeLibros.com
bn(y) = j - y (yeT).
Por tanto, para los estimadores insesgados y de y se cumple que bn(y) = 0 para todo
y e r . La variable aleatoria y Y se llama error aleatorio de y y la variable aleatoria
yn- y = ( y ii yyn) ->-(yYy), que se obtiene de la suma del sesgo de yn con respecto a y y
/\
^
#
A
el error aleatorio de yn, indica la desviacin aleatoria del estimador y de y.
E je m p lo 2. Consideremos la situacin bosquejada en el ejemplo 1 e investiguemos el
estadgrafo
y=mx(A'r .... X n}.
Para el clculo de .,y necesitamos la funcin de distribucin o la densidad de y, que
queremos denotar con Gy y g.r respectivamente, suponiendo que y es el valor verdadero del
parmetro. Se cumple (ver 9.4, teorema 1) que Gy (x ) = [F 7(x)]n, donde con F t denotamos
la funcin de distribucin de la poblacin X, suponiendo que y es el valor verdadero del
parmetro. Con
0 para x ^ O ,
F.t (x ) =
para 0 $
y
1 para
y.
y,
obtenemos
0
para
0,
para x > y.
Gy(x)
y con esto,
0
gx)
y"
159
www.FreeLibros.com
x g (x )d x =
In
d x = ^ y
Jo
n+ l
D e f in ic i n 3. Una sucesin (y) de estimadores y para y, se denomina asintticamente insesgada, si se cumple que
lim Ery=Y(yer).
(3)
(En caso de que se cumpla (3) para un estimador y, se dice tambin que yn es asintticamente insesgado.)
Por lo general, utilizaremos estimadores insesgados, o al menos, asintticamente insesgados. Como el hecho de que un estimador sea insesgado nada dice acerca de si la dis
tribucin de probabilidad del mismo est concentrada o no alrededor del parmetro des
conocido, ni del modo en que lo hace, se preferirn especialmente aquellos estimadores
que cuando n se concentran alrededor del parmetro desconocido. Desde el punto de
vista matemtico expresaremos esta concentracin por medio de los tipos de convergen
cia de la Teoria de probabilidades (ver 7 .2 ), en las definiciones siguientes.
D e f in ic i n 4 . U na sucesin (y) de estimadores para y se denomina (dbilmente) con
sistente, si para todo nmero positivo e se cumple que
lim PT(| y-y| > e) = 0 (yel");
(4)
aqu es P r(| y -y | > e ) la probabilidad del suceso ( |y - y |> e)> calculada bajo la suposicin
de que y es el valor verdadero del parmetro. (En caso de que se cumpla (4) para un es
timador y. se dice tambin que y es (dbilmente) consistente.)
Por consiguiente, la consistencia de una sucesin de estimadores significa que existe una
convergencia en probabilidad. Las condiciones suficientes para la consistencia, menciona
das en el teorema siguiente, se pueden verificar con frecuencia ms fcilmente que (4).
T e o r e m a 1. Las condiciones siguientes son, ambas juntas, suficientes para la consis
tencia (dbil) de una sucesin (y) de estimadores yn para y.
1. lim E v=y(Y er),
2. lim D* yn= 0 ( y e r ) ; aqu D*yn significa la varianza de yn calculada bajo la suposicin
de que y es el valor verdadero del parmetro.
D e m o s t r a c i n . Sobre la base del teorema 1(7.1) se cumple para un
trario
P j \y - y \> e )<
7-
160
www.FreeLibros.com
positivo arbi
= ,[(-/ - yy ) 2+ 2 ( y - E j J (.,y , - Y ) + ( , Y , , - Y ) 2]
= , ( Y - yY ) 2+ 0 + ( Yy - y ) 2
= D ; y + ( ; / - Y ) 2.
Si las condiciones nom bradas en el teorem a se satisfacen, entonces resulta de aqui direc
tam ente que lim y (y - y ) 2= 0 y con esto lim Pr(|y - y |> e) =0.
E j e m p lo 3. Considerem os el estim ador yn2 X n. investigado en el ejemplo 1. Se cuma
a
4
Y2
Y2
.,y =Y yD 2y = n = (ver 5.3(4)). Segn elteorem a 1 la
n2
12
3n
sucesin (y,) es dbilm ente consistente.
= n
y"
x 2g.,(x) d x - ( E ry 'j2
d x -(
(n + l ) 2( + 2 )
yY =
Y2- (
y )'
^ m+1 '
n + 2 ' + 1'
y2.
Luego, para la sucesin (y), y=mx (Af,, .... X j se satisfacen las condiciones nombra
das en el teorema 1, y con esto la sucesin (y,) es tambin consistente.
A
y=y) =1 (yer).
(5)
=*=
"
7=1
es una sucesin de estimadores fuertem ente consistente para y = E X . sobre la base de la Ley de los gran
des nmeros de Kolmogorov (ver 7.4. teorema 6 ).
Con las definiciones siguientes tendremos distintas posibilidades para comparar diver
sos estimadores insesgados, por medio de sus varianzas en relacin con un mismo proble
ma de estimacin. Para ello designe
el conjunto de todos los estimadores insesgados pa
ra y, sobre la base de una muestra matemtica de tamao n con varianza positiva finita;
A
A
A
A
por tanto para Y ,e r n se cumple que ry=y y que 0 < D 2y < ~ para todo y e I\
www.FreeLibros.com
(6)
SH ..
a + l
> X, y y=
mx U , ........X}.
n
= D % (y > 0 ),
3n
el estimador y es mejor que el estimador y. (Se debe reflexionar otra vez sobre la sig
nificacin de ambos estimadores, desde el punto de vista del contenido, para este proble
ma de estimacin.) El grado en que el estimador y es mejor que el estimador y tiene el
valor
Dy y* "("+2) _
D 2y
y1
3
n+2
3n
y es, por tanto, independiente de y. Para n - 4 se obtiene, por ejemplo,
quedichogrado
los
(7)
www.FreeLibros.com
(8)
(9)
(y)
, / d l n f (AT) \
/(y) =nD> ( -------1----- 1
dn
(10)
La desigualdad (9), que proporciona para un estimador y dado una proposicin acerca de su exac
titud, se denomina en la literatura desigualdad de informacin o desigualdad de Rao-Cram er (en el m
bito de los paises de habla inglesa) o desigualdad de Frchet-Darmois (en los pases de lengua francesa).
La magnitud dada por la expresin (10) se denomina informacin de Fisher; ella es una medida para
la informacin contenida en la muestra sobre el parmetro que se debe estimar, y depende, en general,
tanto de y(
com o del tamao n de la muestra. En particular, extraemos de la expresin (10) que.
bajo las condiciones adicionales halladas, las varianzas de los estimadores y de una sucesin de esti
madores insesgados pueden converger hacia cero a lo sumo en el orden
E je m p lo 6 . Supongamos que X posee una distribucin N(y., o j ) ; sea n desconocido y oj; conocido.
Hagamos y = n y T = R 1. Entonces se cumple que
2a*
f p t ) = = e
y se satisfacen las condiciones adicionales indicadas anteriormente, para esta poblacin. Para /(y) ob
tenemos, en virtud de D* X=<s%, que
/ - . < > ! ( ! oS ? L ) . d ; ( ( .
'
dy
'
V 4 )
'rfy '
0q
2o
' '
"
y con esto se cumple para todos los estimadores insesgados yn para y que
T>\y > (ye R l).
n
Para el estimador y=
='
"
^
163
www.FreeLibros.com
Queramos cerrar esta problemtica con algunas otras proposiciones interesantes sobre la desigualdad
de Rao-Cramer.
T e o r e m a 3 . Sean satisfechas las condiciones nombradas anteriormente con respecto u la pobla
cin X. Entonces se cumplen las proposiciones siguientes:
A
y y=
V *
n Tf
2
] y = -------,
IJM
o sea, y es un estimador eficiente para Y3. Si existe un estimador insegado y con D y y = --------, entonces yn es el nico estimador insesgado
con esta propiedad.
Ilustraremos este teorema con un ejemplo.
W)
i
f x ) = - - _ .... e
(yx
Y'
X*
r
\
= exp I ------ -------- - ln ^ 2* a 0 I
VS H
y
2og
/
i
y2
x2 \
timador
--------------- V
2o /
^
ir
*-------------------------------------------------------------------------------------- fT
se cumple que E yyn= y. Por tanto, sobre la base de la proposicin 2 del teorema 3, y es un estimador
eficiente para y (esto lo hemos verificado ya directamente en el ejemplo anterior) y en virtud de la pro
posicin 3, Y es el nico estimador insesgado eficiente para y.
D e f in ic i n 8. Una sucesin (Y) de estimadores TieT n para y se dice que est distribui
da normalmente de form a asinttico, si se cumple que
lim Py ( = - 2 < x J= (x ) ( o o < x < o o , Ye r)
""
v V oiT
(11)
'
A
(En caso del cumplimiento de (11) para una estimador yx se dice tambin que y posee una
distribucin asintticamente normal.)
Luego, la propiedad caracterizada mediante la definicin 8, significa que existe una
convergencia en distribucin hacia una variable aleatoria N(0 ,1 ).
www.FreeLibros.com
lo,
en caso de la ocurrencia de A.
V (1 V )
( - o o < x < = , O < y < 1), es decir, la sucesin (y) posee una distribucin asintticamente
normal.
10.3
En los ejemplos analizados hasta ahora hemos partido siempre de estimadores puntuales
dados y los hemos investigado con respecto a propiedades especiales (por ejemplo, si es
insesgado, consistente, eficien te). Ahora se impone naturalmente la pregunta de cm o ob
tener estimadores puntuales, sobre todo cuando se exigen, adems, ciertas propiedades de
los mismos (por ejemplo, la consistencia). Para ello han sido desarrollados una serie de
mtodos, por ejemplo, el llam ado mtodo d e mxima verosim ilitud (en la literatura inglesa
Maximum-Likelihood-Methode) -que est en estrecha relacin con el mtodo de la suma
de los m nim os cuadrados- y el denom inado m todo d e los momentos. Aqui trataremos bre
vemente el mtodo de mxima verosimilitud y despus haremos referencia al mtodo de
los momentos.
El m todo de mxima verosimilitud se basa en el principio de estimacin siguiente.
Como valor estimado para un pa metro desconocido de una distribucin de probabilidad
se utiliza aquel valor del parmetro para el cual a la muestra concreta le corresponde una
probabilidad lo mayor posible. A si se aclara el nombre de este m todo en la bibliografa
inglesa (likelihood- probabilidad, pero ms en el sentido del lenguaje usual que en el sen
tido m atem tico).
www.FreeLibros.com
165
El punto de partida para la exposicin de este mtodo es una variable aleatoria X. cuya
distribucin de probabilidad depende de un parmetro yeT. En el caso de una variable
aleatoria continua X, designemos con / ( x) la densidad de X en el punto x, bajo la su
posicin de que y es el valor verdadero del parmetro; en el caso discreto sea
f y(x) = Py(X = x ). Adems, sea (X i....... X J una muestra matemtica de tamao n de la po
blacin X , es decir, un vector aleatorio -dimensional, cuyas componentes son indepen
dientes y estn distribuidas idnticamente que X. Si .V es continua, entonces
indii I
ca el valor de la densidad de probabilidad del vector aleatorio (X ....... X J en (x,..........x J .
bajo la suposicin de que y es el valor verdadero del parmetro (ver 6.4. teorema 2); en
el caso de una variable aleatoria discreta se cumple que
f [ / T(jc1) = ^ J f 1= x 1........ X = x J
'=i
(ver 6.4, teorema 1).
D e f i n i c i n 1. Si (x,........ x J es una muestra concreta de tamao n de la poblacin
X, entonces la funcin definida sobre F por
L(x,, .... x n; y) = J | / , (x,) (y er)
1=1
(1)
www.FreeLibros.com
(2)
para x ^ 0
T T
T T
-'I*
->
y de aqu
ln L(x ..., x; y) =w ln y - y ^
1=1
Por consiguiente, la ecuacin de verosimilitud es
d
dy
La nica solucin
d2
dy2
n
ln L(x ..., x; y )= > x ,= 0 .
y T*,
de esta ecuacin es y = --------------- ; en virtud de
1 ^
n
ln L(x ..., x ' y) ------ ---------------- < 0
y2
www.FreeLibros.com
muestra. Si sustituimos ahora los valores de la muestra, por las variables correspondien
tes, obtenemos como estimador mximo verosimil para y
e -y= e y y -'
y de aqu
x, en virtud de
www.FreeLibros.com
(3)
Ahora queremos suponer que en la relacin (3) se puede despejar unvocamente y para j = j .
(4)
El principio de estimacin sobre el cual se basa el mtodo de los momentos consiste en sustituir la
variable m h en cada ocasin, por el estadgrafo -
y
y con esto
y=
m.
=j7 (,).
p ara y. (Por tanto, en este caso se origina el mismo estimador por el mtodo de los momentos que por
el mtodo de mxima verosimilitud, ver ejemplo 1.)
(Otro estimador por el mtodo de los momentos -en realidad, ms complicado y tambin menos con
veniente en sus propiedades- es el que se obtendra sobre la base de
m J= E yX * = D j X H E
, X ) >= 1 + - = - = f y ) ;
y1
i
V*
Y1 Y
Y1
es decir,
www.FreeLibros.com
169
y entonces
7-.=
---------r-
H?
X]
La sencillez del mtodo de los momentos habla en m uchos casos a favor de su aplicacin prctica;
no se necesita m s que una relacin funcionrl entre el parm etro y un m omento inicial que se pueda
despejar de forma univoca, y solo se utilizan estadgrafos del mism o tipo. A decir verdad, desde el pun
to de vista terico no se conoce todava m ucho acerca de los estim adores por el mtodo de los momentos. En esencia, se sabe solo que los estadgrafos que sustituyen los momentos iniciales son estimadores
de los momentos iniciales insesgados, fuertem ente consistentes y con una distribucin asintticam ente
normal.
10.4
x,---------------------------------------------------
>
X, ) =
>
'
Ey X ,= y = y (ye R>)
n 7
n
D] y
( -
' n
' 2 a f r - T "
1=i
-+o
www.FreeLibros.com
'
(9.4)), y, por consiguiente, (y) posee una distribucin asintticam ente norm al (ver 10.2,
definicin 8).
En especial obtenemos con (1) estim adores puntuales p a ra el parm etro u de una va
riable aleatoria con distribucin norm al y p a ra el parm etro X de una distribucin de
Poisson.
( * ,- H 0) 2.
(2)
^ ( * 1 - ^ 0) 2) =
+-4
/
rc
n *Y = Y (yer).
Adems se com prueba que la sucesin (y) es fuertem ente consistente sobre la base de la
Ley de los grandes nm eros de Kolmogorov.
En especial, obtenemos con (2) un estim ador puntual p a ra el p arm etro cr2 de una va
riable aleatoria con distribucin norm al cuando el p arm etro |i= n0 es conocido.
b) \ = E X desconocido
En este caso utilizam os el estadgrafo
,= ^ =
(* ,- x y
n- 1 T
(3)
www.FreeLibros.com
(4)
En el caso de una muestra concreta ((x,,?,), ...,(*, y j ) se obtiene como valor estimado,
utilizando este estimador puntual para el coeficiente de correlacin, el coeficiente de co
rrelacin emprica
(5)
www.FreeLibros.com
sobre la independencia de variables aleatorias) son tareas parciales del llamado anlisis
de correlacin, de un procedimiento de anlisis estadstico, que desempefta un gran papel
en los distintos campos de aplicacin de la Estadstica matemtica. En el marco de nues
tra introduccin no podemos tratar esto de forma ms detallada. Solo advertimos (sin de
mostracin) que, en el caso de un vector aleatorio (X , Y) con distribucin normal, se cum
plen las proposiciones
E , R ~ p y D\ R ~
(1 -p V
(n l).
10.5
Nos ocuparemos en este epigrafe de estimaciones por intervalo de confianza, que se uti
lizan especialmente cuando se desea un grado de exactitud de la estimacin de un par
metro desconocido, que no se puede obtener con una estimacin puntual (por ejemplo, a
causa de un tamao de la muestra muy pequeo). La situacin de partida es, por tanto,
la misma que para las estimaciones puntuales: La distribucin de probabilidad de una poblacin X depende de un parmetro y e T g R 1; el valor verdadero -pero desconocido- del
parmetro y se denota con y,. Adems, sea (Xv .... X J una muestra matemtica de ta
mao n de la poblacin X. Como se acord en el epgrafe 10.1, entenderemos por un in
tervalo de confianza J (Xx........X J un denominado intervalo aleatorio, es decir, un inter
valo cuyos extremos son magnitudes dependientes de las variables de la muestra -luego son
variables aleatorias; para toda muestra concreta (x,, ..., x j , J(xv ..., xm
) es un intervalo
comprendido en I \
De importancia decisiva para una estimacin por intervalo de confianza es la probabi
lidad de que el intervalo aleatorio J(XV ..., X J contenga al valor verdadero y, del par
metro; para este suceso aleatorio escribiremos (J(XV ..., X J s y j . Por consiguiente, nos in
teresa Py (J(X, - ,X J * y j . Pero como no conocemos a y,, nos ocuparemos de forma ms
general con la probabilidad de que el intervalo aleatorio J(XV ..., X J contenga al valor
y e r , calculada bajo la suposicin de que y es el valor verdadero del parmetro, o sea, con
Py (J(XV ..., X J sy) para y e r.
D e f in ic i n 1. Sea J(XV ..., X J un intervalo de confianza. El nmero
e= m n PJJiX,........X J * y )
(1)
(2 7
www.FreeLibros.com
(En principio esto es algo arbitrario, pero razonable.) Ahora determinemos 8, y h v de modo que se cumpla la desigualdad Pl(J(Xi........X J av) 5* 1 - a para todo v e f . Se cumple que
Py W X V ..., X J ay) = P (81yA<
82 y j = P y ( - <
v 82
Y < - )
8,
ia variable aleatoria y -cal
culada bajo la suposicin de que y es el valor verdadero del parmetro- est dada por
0
para
(
1
0,
para 0 <
y,
para x > y
" V 8I '
Escojamos, por ejemplo 8t = ..
( x ) = ( J L Y - ( J L Y = J -----L
- V f i , '
V iy /
V 5jY /
gn
6n
V i
ces se cumple que
Py(J{Xi........X J
By)
=1 - a j - a j = l - a ,
osea,
A
JWi....... X J ^ ^ ^ ,
V ; - a
g y< - 4 ^ 1
con x mlJ=m x {x,, ..., x j (ver fig. 46 a). Para a ,= 0 , a 2= a se obtiene el intervalo esti
mado concreto (ver fig. 46 b),
www.FreeLibros.com
J {x r..,x J
b -t-
v 1
Figura 46
X J jy J .
(3)
X ja y '),
www.FreeLibros.com
(4)
con el nivel de confiabilidad 1 - a , dado en el ejemplo 1. Para y > 0 , y '> 0 se cumple que
y
para y 4 y '
Observemos que se cumple que B t (y, y') < B t(y, y ) = l - a para todo y > 0 , y > 0 con y^ y'.
La propiedad hallada por ltimo en el ejemplo 2 nos dice que todo valor falso" del parmetro est
contenido en el intervalo de confianza con una probabilidad menor que para el valor verdadero de este,
independientemente de qu valor del parmetro es el verdadero. Expresaremos este hecho de forma ge
neral en la definicin siguiente.
176
www.FreeLibros.com
(5)
Por ltim o advertim os que la com paracin de intervalos de confianza (en el m arco de un m ism o pro
blema de estimacin) se reduce fundam entalm ente a la com paracin de las funciones de bondad corres
pondientes.
D e f i n i c i n 5 . Sean J l(Xl........X j y J X x.......... X j intervalos de confianza (en el m arco de un m is
mo problema de estimacin) con las funciones de bondad B t y B r El intervalo de confianza
J(X....... X j se llama mejor que el intervalo de confianza
(X, . . . , X j , si se cumple que
B , (Y, y ) B (Y. Y") Y. YT e T x T, y*YT
(6)
El m otivo para esta definicin est claro de acuerdo con lo que precede y a la definicin de funcin
de bondad.
E j e m p lo 3 . Como continuacin del ejemplo 1 considerem os el intervalo de confianza (ver fig. 46c)
A
y.
U*........x j =
con el nivel de confiabilidad 1 - a , que se obtiene del intervalo de confianza J(XV .... X j con el nivel
de confiabilidad 1 - a , deducido en el ejem plo 1, a travs del paso (formal) al lim ite a , -*a. Para la fun
cin de bondad correspondiente se obtiene que
para 0 *cy'-
Bj(Y, YO =
para y
(Observemos
al margen
que JJJCV
....
X j
no es
admisible;
Y
B( Y, y ' ) = l > B , ( y ,
Y )= l
- a para todo
(Y, Y")
con
Y >
por ejemplo,
se cum ple
que
1 , Y > 0 ).
\J l - a
Si comparamos esta funcin de bondad con la funcin de bondad B , del intervalo de confianza
Y,
(y > 0 ,
'> 0 ,
y^yT,
177
www.FreeLibros.com
X .+ z, - '
= l - a 1- [ l - ( l - a 2)] = l - ( a 1+ a 2) = l - a .
(Aqu fue utilizado el hecho de que para una variable aleatoria con distribucin N (y, cr2) ,
---------------------------- r X - y -------------------------------------------------------------------------
la variable aleatoria yn ----- posee una distribucin iV(0 1), ver en 9.4 la primera obser-
www.FreeLibros.com
b) y = n , o 2 (desconocida).
T e o r e m a 2 . Sean a, y a } nmeros positivos con a , + a 2= a Entonces
j(x v .... x j
x+tn_u
(2)
denota
xy
< ' -u i- ,
= 1 - a , - [ l - ( 1 - a , ) ] - l - ( 0 , + dj) = 1 - a .
(Aqu fue utilizado el hecho de que para una variable aleatoria con distribucin N(y. a 1), la variable
Jf-Y
aleatoria ------
pos ee una distribucin t con n - 1 grados de libertad, ver 9.4, teorem a 5.)
Si
se hace m nim o.
2_____________ _____________________________________
1 con s : =
,, denota
D em ostracin
( nS*!
B(Y, Y) =PJJ(Xl.......X J 3Y) =P, l ------------------------ Y?: ---------- I
X .l- ,
= Py \ K . a ------
X ;
i ^=1
X. a,
- a , - a 2=
l -a .
(Aqu fue utilizado el hecho que para una variable aleatoria X con distribucin jV(h . Y), la variable
aleatoria
-------
x 2 con n
9.4,
teorema
3.)
www.FreeLibros.com
179
d) y = o J, n (desconocido)
T e o r e m a 4 . Sean a , y a 2 nmeros positivos con a,-t-a2= a . Entonces
*r,..... = [< ^ ! L .
L x L .m - .,
x.1;a,
1-a,
X-1:< ----------- t j-
1 - .,
^tn-l; a,
^ = 1 -0 ,"O,=1-0-
(Aqui fue utilizado e l hecho de que para una variable aleatoria con distribucin A ' n , y ) , l a variable
( n - 1 ) Sj
aleatoria ------------- posee una distribucin y* con n - 1 grados de libertad, ver 9.4, teorem a 4.)
(5)
2 ( " ) tPj"]* [1 - p p n ) ] - * =
180
www.FreeLibros.com
(6)
(7)
1-
a (0 < y < 1 )
(8)
pM) = ----------------------------------------------------------------------------
(9)
2(" +zU )
n+ r
' T>r
2
La demostracin de este teorema se base esencialmente en el Teorema Integral de De
Moivre-Lapiace (ver 7,5, teorema 1), segn el cual se cumple en particular que
/i
M -ny
lim P,
1 = 1 -a .
f)
De aqu se obtiene, despus de algunos clculos, los lmites de confianza indicados en (9)
y ( 10).
Ilustraremos el teorema 6 con un ejemplo numrico.
E jem p lo n u m r ic o . Para n - 200 y m =88, se obtiene como valor estimado para la
88
www.FreeLibros.com
W n( x ) ^ ,
w jx ) + ~
yjn
yn
( 11)
( 12)
(o sea, ( 1 1 ) es un intervalo de confianza con el nivel de confiabilidad 1 - a para n - . >); aqu y es solucin de la ecuacin
f c ( y ) = ] j ( - l ) V 2*= l - a .
(13)
D e m o s t r a c i n . Se cumple que
lim Py (Jx(Xv ..., X J sy) = lim P.,
\
'.(*) yaJ= < y< w n( x )+ ya
-J= I
yjn
V"
sup
IW n(x) - y |< r a)
= K (y J = 1 - o ;
aqui hemos utilizado el teorema 3 (9.3) (que a decir verdad no hemos demostrad en este libro).
Para una muestra concreta (x,, ..., x j se calcula la funcin de distribucin emprica correspondiente
w (ver 9.3, definicin 1) y se utiliza -suponiendo un tamao de la muestra suficientemente grande
Jx (x
xj =
V"
(14)
V L
182
www.FreeLibros.com
11.
11.1
www.FreeLibros.com
183
(x,........ x), entonces se tomar con ayuda de una dcima la decisin *>se rechaza la hi
ptesis o la decisin se acepta la hiptesis . (Advertimos expresamente que la decisin
se acepta la hiptesis no significa que ella sea correcta; ver tambin 9.1.) Luego, una
dcima se puede caracterizar en principio por el conjunto de todos los (x,, ..., x), que
provocan la decisin se rechaza la hiptesis . Este conjunto se denomina regin critica
o regin de rechazo (de la hiptesis considerada).
Antes de que nos ocupemos ms exactamente en el epgrafe 11.2 de los conceptos b
sicos mencionados y de otros de la teoria de la docimasia de hiptesis, y en especial, con
las exigencias mnimas para establecer de forma adecuada lo que llamamos una regin
critica, queremos considerar un ejemplo para ilustrar la problemtica y tambin el pro
cedimiento tpico que se utiliza.
E je m p lo . Supongamos que la poblacin X posee una distribucin normal con varianza
D 2X = o l (o0 conocida, por ejemplo, o 0= 1); el valor esperado E X sea desconocido. Haga
mos y = E X y designemos con y0 el valor verdadero (pero desconocido) del parmetro y.
Queremos verificar la hiptesis H: y0=y* con ayuda de una muestra matemtica
(X v ..., X j de tamao n de la poblacin X (y* es un nmero real dado; puede ser un va
lor supuesto, pretendido o tambin dudoso para el parmetro desconocido; con frecuencia
tiene el significado de un valor previsto). Para lograr lo anterior consideremos el estad
grafo X n= ^ X } el cual representa un estimador apropiado para y (ver 10.4.1). En
" TT .
(
\
el caso de que la hiptesis H: Y0=y* sea verdadera, X n posee una distribucin ,VI y*. I
_ x -y *
n
(ver teorema 2(9.4)) y de esto se deriva que T = \ n ------- posee una distribucin A'(0,1)
0
Para una muestra concreta (x,, ..., x j se rechazar la hiptesis H : y0=y* cuando
x y*
o sea, t* = z
I -X Y*
i i
* = {(*
.... X j \n
X ~ T
>2
y se cumple que:
Pr ((Xv ..., X j e K ) = P r ( M > z
JL) = a .
184
www.FreeLibros.com
Densidad de T, en el
caso que H es verdadera
(distribucin N ( 0 ,1 ) )
a
2
Figura 47
La probabilidad de que se rechace H: y0- y * es igual a a -en el caso de que H sea ver
dadera. Aqu no hemos re p a ra d o en la probabilidad de que la hiptesis H: y0=Y* no se
rechace en el caso de que sea falsa-, o sea, no hemos p restad o atencin a Py ( |r |< z )
2
p a ra y0*y*. Por tanto, con el procedim iento indicado com probam os slo si la hiptesis H
es com patible con la m uestra o si existen diferencias significativas.
11.2
En la form ulacin m atem tica general de la ta re a que se p lan tea la teora de la docim acia
de hiptesis p artim os de una poblacin X, cuya funcin de distribucin F depende de un
parm etro y e r . Designemos nuevam ente con y0 el v alo r v erd ad ero (pero desconocido) del
parm etro. Por una hiptesis (estadstica) entendem os u n a proposicin de la form a: y0 es
un elem ento de un subconjunto no vaco dado F0 de T. P a ra ello escribimos abreviadam en
te H : 7 0e r o. Si r o contiene un solo elemento, T0= {y*}, entonces se habla de una hiptesis
simple y escribimos H: y0=y*. En el o tro caso la hiptesis H: Y0e r o se denom ina una
hiptesis compuesta. Si ju n to a una hiptesis //: y0e r se considera o tra hiptesis
Ha: y0e r , r \ T 0, entonces H a se denom ina hiptesis nula y HA hiptesis alternativa.
Sea ah o ra (Xv ..., X J una m u estra m atem tica de tam a o n de la poblacin X. E nten
demos por una dcim a, m s exactam ente, p o r u n a dcim a de la hiptesis nula H 0 frente
a la hiptesis altern ativ a H A. un procedim iento con el cual es posible una com paracin de
las hiptesis H a y H A con respecto a la m uestra (X, X J y que conduce p a ra toda mues
tra concreta (xv . . . , x j a una de las decisiones " // se rech aza (//A se ace p ta ) o H se
rechaza (H 0 se a ce p ta ) . En lo sucesivo nos lim itarem os fundam entalm ente al caso de la
hiptesis a ltern ativ a K : y0 e r \ T 0 y nom brarem os sencillam ente una dcim a de H 0: yero
frente a esta hiptesis a ltern ativ a una dcim a de H 0. A qu utilizarem os p a ra las decisio
nes correspondientes las form ulaciones
se rech aza y " H a no se rechaza , y evitare
mos h ab lar en este caso de la aceptacin de la hiptesis H 0. U n a dcim a semejante se des
cribe com pletam ente a travs del conjunto K de todas las m uestras concretas (jCj........x j ,
p a ra las cuales se tom a la decisin "H 0 se rechaza", o sea, a travs de la regin critica
o regin de rechazo de H 0. Luego, no es necesario diferenciar entre una dcima. y la regin
crtica K correspondiente: en el fu tu ro hablarem os de la dcim a K. si la dcim a posee la
regin crtica K. Con esto n ada se ha dicho an sobre el establecim iento adecuado de la
regin crtica. A ntes que nos ocupem os con ciertas exigencias m nim as que se deben ob
www.FreeLibros.com
Y0ero es verdadera
H y0e r \ T # es verdadera
H 0 se rechaza
D ecisin correcta
H 0 no se rechaza
D ecisin correcta
U n error de primer tipo se presenta siempre y cuando la muestra concreta est situada
en la regin critica de H y H sea verdadera. Las probabilidades de cometer errores de
primer tipo se pueden estimar (segn lo expuesto) mediante
s u p (Py (* ,, ..., X )e K ) ;
en el caso de una hiptesis simple H 0: Y0=y*, la probabilidad de un error de primer tipo
es igual a Pr ((* ,,..., X J e K ) .
U n error de segundo tipo se presenta siempre y cuando la muestra concreta no est si
tuada en la regin critica de H 0 y H sea verdadera las probabilidades de cometer errores
de segundo tipo se pueden e stimar de forma correspondie nte mediante
> p J \( * i. > X J < t K ) = l - M P y (Xv
X n) e K ) .
Esto nos conduce a valorar una dcima K de H 0 por medio de la funcin de potencia de
finida a continuacin
D e f i n i c i n 1. Sea K una dcima de H 0. Entonces la funcin definida sobre T por
G(y) = P y((Xv
X n) e K ) (yeT)
(1)
Grfico ideal
de una funcin
de potencia
L _J
"V
r
, r
r0
j-
i -
. v
Figura 48
186
www.FreeLibros.com
= i - p 7(|r |< z
_.)=i - p A - z
2
= 1- pA - z
v
< ^ x J L <z
a - f n y^ < f n ^ l <
2
ct0
o0
- f n y^ - )
2
a0 '
Observemos ahora que para una variable aleatoria X con distribucin N{y, cr), la variable
y
Vn
CT /
y*
1 2
cr
Figura 49
(2 )
www.FreeLibros.com
re rr,
(3)
yr.
Si H es una hiptesis simple (//: y0=y*>, entonces una dcima de / / 0 es. segn definicin, admisible
si se cumple que
G(y) G ( y*) (v e H .
(4)
Luego, para una dcima admisible de H la probabilidad de que se rechace H 0 siendo H una hip
tesis falsa, no es menor que para el caso en que H< sea una hiptesis verdadera, hablando sin mucha
precisin.
E j e m p lo 3 . Consideremos de nuevo la dcima expuesta en el epigrafe 11.1 Para la funcin de po
tencia de esta dcima se cumple (ver ejemplo 1 ) que
27
o0
27
+1>(
"2
^ )= C (y * )= a
'2
pura todo y y*, es decir, que la dcima tomada por base es admisible (fig. 4 9).
D e f i n i c i n 4 . Sean K t y K dos dcimas de H: Y0e r o con las funciones de potencia G, y C, res
pectivamente. La dcima C, se denomina mejor, .si se cumple que
G ,( y ) ? G jfy ) ( Y e r \ r ) .
(5 )
Si Af, es mejor que K, entonces la probabilidad de que se rechace la hiptesis H 0 para la dcima K v
calculada bajo la suposicin de que
es el valor verdadero del parmetro, es para todo y seme
jante al menos tan grande como para la dcima K, o -hablando sin mucha precisin- la probabilidad
de rechazo de una hiptesis falsa es para K , al menos tan grande como para K.
En todas las consideraciones hechas hasta ahora, hemos tomado por base un tamao de la muestra
constante. Radica en la naturaleza de la situacin el que se puedan hacer proposiciones, por lo general
ms confiables, a medida que crece el tamao n de la muestra: ms confiables en el sentido de una dis
minucin de las probabilidades de cometer errores de primer y segundo tipos. Por ello se investigan su-
yer\T0
188
www.FreeLibros.com
cesiones (K) de dcimas -en particular, dcim as de significacin con el nivel de significacin a
(0 < a < l , dado com o dato, independiente de n) en dependencia de n: por consiguiente, aqui se cumple
para las regiones criticas que K n R" (n e N ) .
D e f i n i c i n 5. Sea (Kn) una sucesin de dcimas K de H a: Y0e r o con la funcin de potencia
G Jn e IN). La sucesin (K) se llam a consistente, si se cum ple que
lim
G(y) = 1 (yerNT,,).
(6 )
Por tanto, para una sucesin consistente (Kn) la probabilidad de que se rechace H, calculada bajo
la suposicin de que y e r \T 0 es el valor verdadero del parmetro, converge cuando n - hacia 1 , o
-hablando sin mucha precisin- la probabilidad de rechazo de una hiptesis falsa tiende a 1 .
E j e m p lo 4 . Consideremos la sucesin (K n) de dcimas de H: Y0=Y* para una poblacin X con dis
tribucin MYq, o) y con y0 desconocido y
conocida: aqu Kn es la dcima de significacin indicada
en el epigrafe 11.1 con el nivel de significacin a. Para la funcin de potencia G se cum ple (ver el
ejemplo 1 ) que
lim .I W -l im
( i /
- , ,
) *
( - V
I l U
- , , _ . ) ]
J 1 + 0 = 1 para y > y * 1
= 1
f = l para y * r ,
<0+1=1 para y<Y* )
o sea. la sucesin (K) es consistente.
11.3
De acuerdo con la definicin, se entiende por dcima de significacin con el nivel de sig
nificacin a ( 0 < a < l , dado) una dcima de H 0 : y0s r 0 con la regin critica K, cuya fun
cin de potencia G satisface la condicin
G(y) = P 1({XV ..., X) e/O a (Ver,)
(1)
(ver 11.2, definicin 2). Luego, en una dcima de significacin las probabilidades de co
meter errores de primer tipo (H t se rechaza, aunque H B sea verdadera) no sobrepasan un
nmero prefijado a -el nivel de significacin; errores de segundo tipo (H 0 no se rechaza,
aunque H 0 sea falsa) no se toman en consideracin. Por ello, las dcimas de significacin
se utilizan solo cuando, sobre la base de una muestra concreta (x,, ..., x j de la poblacin
X considerada, debe valorarse si una hiptesis H a sobre la distribucin de esta poblacin
es compatible con la muestra concreta (x,,
x), o si se presentan diferencias significa
tivas (aseguradas estadsticamente). En este ltimo caso se rechaza H 0 sobre la base de la
dcima, en el otro nada se puede esgrimir en contra de la hiptesis H v El nivel de sig
nificacin a se debe fijar atendiendo al planteamiento concreto del problema y, en par
ticular, a las consecuencias de un error de primer tipo; aqui no se trata propiamente de
un inters matemtico. (Con frecuencia se eligen en las aplicaciones a = 5 %, a = 2 % o
o = l %.).
189
www.FreeLibros.com
1.)
jI
190
www.FreeLibros.com
para x < 0,
para 0 < x < y*,
para x Y*.
\j l - a ,
que Pr ( T e K * ) = a
4. Regla de decisin: Si para una muestra concreta (x,, ..., x j
se cumple una de
www.FreeLibros.com
191
Con esto hemos descrito totalmente una dcima de significacin con el nivel de signi
ficacin a para la hiptesis H 0: y0=y* sobre el parmetro y0 de una variable aleatoria dis
tribuida uniformemente sobre el intervalo [ 0, y0 ]. Para la ejercitacin de los conceptos
introducidos en el epigrafe 11.2 retomaremos an este ejemplo ms adelante.
La funcin de potencia Gde esta dcima est dada, como el lector puede comprobar, a travs de
1
para y a , y ^ y i y j 1 - 0 , y,
( a,
GM=
y*,
1 - a
-O )
para V 1 - 0 !
y-
^ l - o , y*},o,+o,=o,
entonces se cumple para la sucesin (G) de las funciones de potencia correspondientes la relacin
lim G(y) = 1 ( y * y *), es decir, la sucesin ( K * ) es consistente (ver 11.2, definicin 5).
Escojamos especialmente a ,= 0 y a ,= a , entonces obtenemos a = \ [ a y* y 6= y*. Para la regin critica
X* de la hiptesis H 0: Y=Y*se cumple entonces que K * = { t : f < \ [ a y o i> y*} = :*,*; para la funcin de
potencia G, correspondiente se obtiene que
para 0 < y^ \[a >*,
G,(Y)=
para
y* ^
Y-
Se verifica fcilmente que se cumple G,(y) i G,(y*) =o. La dcima K t es, por tanto, una dcima admisible
(ver 11.2, definicin 3). Escojamos por el contrario a ,= a y a ,= 0 , entonces obtenemos que a = 0 y que
b=
K* = { i : t < 0
o f>
C ,W
- <
11
i (1 a)
Y* \
/ ----------
para \ l - a y * y .
La dcima K \ no es admisible, por ejemplo, se cumple que G \ Z y ' ) =0 <G,(y*) = a. Por lo demis,
las dcimas JCJ y K$ se pueden comparar (en el sentido de la definicin 4 (11.2)), y asi, la dcima
re
sulta mejor que la dcima ATJ, es decir, se cumple que G,(y) Gy) para todo y> 0. (El lector debe re
flexionar en cada ocasin acerca de la significacin desde el punto de vista del contenido de estas propo
siciones.)
Como hablamos anunciado, queremos sealar sobre la base de este ejemplo la estrecha
relacin entre las estimaciones por intervalo de confianza y las dcimas de significacin.
www.FreeLibros.com
y"
---------------- - --------------1 c
V1
contiene exactamente, para una muestra concreta (x ,........x), el valor y* para el cual la
hiptesis H0 : y0=y * no se rechaza en la dcima K* anterior con el nivel de significacin
a.
(Esto quiere decir que y*e ./(x,......x ,). o sea. -------------- $ y * < ----- -------, con
V 1" 0.
Vi"
11.4
www.FreeLibros.com
sean
193
1
X = / X, que en 10.4.1 se mostr como estimador puntual adecuado para y0. La
" X
^ n posee, en el caso en que H a sea verdadera, una distribucin
variable
S J\
(ver 9.4, teorema 2). Estimemos el parmetro desconocido ct02 por medio del estimador
puntual S [ = ^
r~ x y*
Densidad de T, en el caso
que H0 es verdadera
(distribucin t con n - i
grados de libertad)
a
2
Figura 52
f ) =a.
.
a
D e aqu se obtiene para f* el percentil de orden 1 de la distribucin t con n - 1 gra
dos de libertad (<*=fn , , ) y con esto la regin critica K *= j i : | | > |
4.
R egla de decisin: Para una muestra concreta (xt, ..., x) se calcula x y j j;, de aqu
r~ X y*
t = \ j n ------ --------- , y se rechaza H 0 : y0- y * si y solo si se cumple que te K * , es decir,
{si
194
www.FreeLibros.com
11.4.2 Dcima
doble
0. Sea X una variable aleatoria con distribucin JVu,,^) y Y una variable aleatoria con distribucin
AT(Uj,t^). Sean'A" y Y variables aleatorias mutuamente independientes; los nm erosn,, n. a | y a; sean
desconocidos y partamos de la condicin
(La ltima condicin se verifica, dado el caso, con la
dcima F que se presenta en 11.4.4.) Adems, sean (JC,, ..., X) y (K,........ Y) muestras matemticas
de tamao m y n, respectivamente, de las poblaciones - f y f a que corresponden.
1. tf0: n, = n2
2. Variable de dcima
Yn- X m
/ m n ( m + n - 2)
V <"-S+(-S.
?=-
7^7
%
i=i
m+n
sm=- 5
s .- $ (y-yj1
n- 1
T f
La variable de dcima T posee, en el caso en que H 0 sea verdadera, una distribucin i con m + n - 2
grados de libertad.
(Esto puede verificarse sin dificultad considerando la independencia de X y Y. utilizando los teoremas
2 y 4 de 9.4 y los teoremas 6 y 7 de 6 .5 .)
3. Regin crtica
: |f| >
- 2)
m+ n
2., i -
L + fi
que, en el caso en que H sea verdadera, posee una distribucin N(Q, 1), y la regin crtica
K* =
La interrogante ms general acerca de la verificacin de la igualdad de los valores esperados de ms
de dos variables aleatorias independientes con distribucin normal conduce a problemas que pertenecen
a la rama del llamado anlisis de varianza. En el marco de nuestra introduccin^ la Estadstica ma
temtica no podemos adentrarnos en esto.
195
www.FreeLibros.com
11.4.3 Dcima xJ
0; Sea
que en 10.4.2 b) se mostr como estimador puntual adecuado para yr La variable alea
toria
T_ (n -l)S l
Y*
posee, segn el teorema 4(9.4), en el caso en que H 0 sea verdadera, una distribucin x*
con n - 1 grados de libertad.
3. Establezcamos la regin critica en la forma K * = { t : t < a o t > b ) (fig. 53) y deteraa
nemos a y b de modo que se cumpla que P T < a ) = P i&T>b) = , y por consiguiente,
2
q
g
que PyTeK*) = a . De aqui se obtiene para a y b los percentiles de orden y 1 -------,
_ y
1
. o >X*-_I;I_ .}-
Densidad de T, en el caso
que
es verdadera
(distribucin X' con n 1 gndos
de libertad)
* *=(/:/< x
4.
Figura 53
de aqui
y*
m~ 'T
> * * ...
11.4.4 Dcima
196
www.FreeLibros.com
S;
( X - X J K S; =
n -1
J
^7
( K,- y j 1-
La variable de dcima T posee, en el caso en que H 0 sea verdadera, una distribucin F con
(m -1 . n - 1 ) grados de libertad (ver 9.4. teorema 6).
3. Regin crtica:
K*= jt: t< F m i m l. o l > F m t <
j:
aflu*
Si ni
m y s2y n, de aqui
>
1>F
.11
K* = \t:t< F
Figura 54
2. Variable de dcima
T =-
M -n p *
V np*(l - f )
(Luego, la variable aleatoria M indica la frecuencia aleatoria absoluta de A en n repeti
ciones indepedientes del experimento aleatorio tomado por base y posee con esto, en el
caso en que H 0 sea vtrdadera, una distribucin binomial con los parmetros n y p*.) La
197
www.FreeLibros.com
variable de dcima T posee, en el caso en que H0 sea verdadera, asintticamente (es decir,
cuando n <*>) una distribucin JV(0.1), sobre la base del Teorema Integral de De MoivreLapiace.
3. Regin critica: K *= j f : || > z (
lim P / T e K * = lim p J
/ M np*
\ V np*(1 -P*)
=1 - lim P
\
>2, - i
M -np*
V "P*(1 - P*)
= l-(l-a )= a ,
o sea, K* define para n * una dcima de significacin con el nivel de significacin a.)
4. Regla de decisin: Para una muestra concreta (x,
cero y uno) se halla m
calcula
mnp*
V np*( 1 -p *)
y se rechaza a H 0: p0=p* si y solo si tsK*, es decir, si se cumple que
m -np*
yj np*( 1 -p>)
O b s e r v a c i n . Si n es tan pequea que una aplicacin del Teorema Integral de De
Moivre-Lapiace no nos parece justificada, se construye una dcima de significacin par
tiendo directamente de la distribucin de la variable de dcima /(distribucin binomial
con los parmetros n y p*, en el caso en que Ha:p0 =p* sea verdadera).
11.5
www.FreeLibros.com
Por una dcima de ajuste entendemos, de forma general, una dcima para la hiptesis
de que la verdadera funcin de distribucin F0 verdadera (pero desconocida) de una po
blacin es igual a una funcin de distribucin F* prefijada. Se denomina dcima de ho
mogeneidad a una dcima sobre la igualdad de las distribuciones de probabilidad (dcsconocidas) de varias poblaciones. Por una dcima de independencia se entiende aquella que
sirve para la verificacin de la hiptesis de que dos o ms variables aleatorias conside
radas sean mutuamente independientes.
11.5.1 P c im a de ajuste X 1
1. H n:F0= F , (F* funcin de distribucin prefijada).
2. Construccin de la variable de dcima: Se realiza una particin de la imagen
de X en k intervalos
=
4,. |1.
j 1............
k -denominados clases- con
- o < , < <*j< ... < <n < t4. i < + <*>, siendo
2) un nmero natural arbitrario. Para una
muestra matemtica (Xv ..., X r) de tamao n de la poblacin considerada, denote M : la
denominada frecuencia de clase (aleatoria) de la clase Ir esto es. el nmero (aleatorio)
de las variables de la muestra X , que estn situadas en l f (Luego se cumple que
^
j -1
(ver teorema 1(7.5)). Se puede mostrar que la variable aleatoria (utilizada ms adelante
como variable de dcima)
en el caso en que H 0 sea verdadera, posee asintticamente (es decir, cuando n * ~ ) una
distribucin x1 con k 1 grados de libertad. (Renunciaremos a la demostracin relativa
mente difcil de esto.)
3.
Si para una muestra concreta (x,, .... x), las frecuencias de clase m) halladas se di
ferencian notablemente de los valores np esperados, dada la validez de //, entonces la
variable de dcima T aceptar valores grandes y se rechazar a H 0. Por ello establezca
mos K* en la forma K* = {t: t> t * } y fijemos r*, de modo tal, que se cumple que
lim Pp (T e K *) =lim Pp ( T > t * ) =a.
Como T, en el caso en que / / 0:F 0= F sea verdadera, posee asintticamente (es decir,
cuando n ) una distribucin y} con k 1 grados de libertad, se obtiene para t* el per
centil de orden 1 - a de la distribucin x 2 con fc-1 grados de libertad o sea, r*=
y con esto X* = { / : f
(fig. 55).
4.
Regla de decisin: Para una muestra concreta (x,, ..., x j se halla, con respecto a
la particin en clases elegida, las frecuencias de clase absolutas m {j = 1........ k). se cal
culan las probabilidades p f j = 1, ..., k) fijadas por la hiptesis //, y con esto
199
www.FreeLibros.com
Figura 55
0 = 1 ........ k).
para
m -
0,
para y > 0 .
3. Regin crtica: K* = {l:l> y 0 ), aqu ya denota la solucin de la ecuacin AT(y) = l = - a . (La pro
babilidad de que T tome valores > y a converge, en el caso en que // sea verdadera, hacia a para
n <.)
4. Regla de decisin: Para una muestra concreta (jc,........x) se halla la funcin de distribucin em
prica concreta w . correspondiente, se calcula ( = V.......sup
si y solo si e/C*, es decir, si se cumple que
V*
sup
|w(jc) -F * (x ) |
-o < -
200
www.FreeLibros.com
2
rechaza a H 0, si H se rechaza.
201
www.FreeLibros.com
1 1 .5 .5 D c i m a d e i n d e p e n d e n c i a x 2
El punto de partida es una poblacin bidimensional (.V. K). En la explicacin de la dcima
de independencia x:. que se denomina tambin dcima de independencia en tablas de con
tingencia, queremos limitarnos para una mayor sencillez al caso de variables aleatorias
discretas X y Y y aceptar que X \ Y toman los valores 1....... r y 1.........s , respectivamente.
1.
// : X y Y son mutuamente independientes (equivalente a esto es la validez de la re
lacin
p lk=P(X=i. Y - = k ) = P ( X = i ) P ( Y = k ) = p , -Pt
para i - 1........ r y fc = 1, ..., s (ver 6.4, teorema 1).
2. Construccin de la variable de dcima. Sea ((X,. Y , )....... (X. Yn)) una muestra ma
temtica de tamao n de la poblacin (bidimensional) (X, y ) . Denotemos con N lk el nme
ro (aleatorio) de las variables de la muestra, cuya primera componente es igual a i y la
segunda a k. Adems, sea
Se puede mostrar qae T posee, en el caso en que H0 sea verdadera, asintticamente (es
decir, cuando n ) una distribucin x : con ( r - l ) ( \ 1) grados de libertad.__________
3. Regin critica: K* = { t : i > Z(2r l)(_1);1_a} (La probabilidad del suceso (TeK*) converge
hacia a cuando n o, dada la validez de H .
4. Regla de decisin: Para una muestra concreta ((x,, y ,) , ..., (x, y j ) se hallan los n
meros nlk ( = nmero de los elementos (i,k) en la muestra),
/U1
se calcula de aqui
www.FreeLibros.com
entradas o tablas de 2 x 2)
11.6
Ejemplo de aplicacin
www.FreeLibros.com
203
22
i.".k
n
dentro
de
los
corchetes
los
nmeros
13,62*
~ 26,38
19,87
6 ,5 4 2
+ "
6a
77
10,95
1,51
58
7,0 5 J 0 ,5 1 J 18,08J
+
14,54
2,74
1 +
36*08
8
9 ,8 3 J
27,17
8 ,2 5 J
+ ........
3,75
= 7 ,0 3 + 5 ,9 4 + 2 ,7 4 + 1 ,5 7 + 0 ,6 2 + 3 ,1 2 + 2 ,9 4 + 4 ,5 4 + 0 ,1 7 + 9 ,0 6 + 3 ,5 6 + 18,16
=59,45
Por consiguiente, el valor t est situado en la regin critica y rechazamos la hiptesis
H0 de que la calificacin del examen de ingreso para estudiar Matemtica y la nota de la
prueba de nivel en la asignatura Matemtica sean mutuamente independientes. (Al mismo
resultado llegaramos tambin utilizando el nivel de significacin a = 1%; se cumple que
X l .* = 1 6 ,8 < 5 9 ,4 5 .)
204
www.FreeLibros.com
12.
Las tablas sobre las distribuciones binomial, de Poisson y normal, dadas en los epgrafes
12.1, 12.2 y 12.3, ofrecen una visin numrica sobre estas distribuciones de probabilidad.
Por el contrario, las tablas dadas en los epgrafes 12.4, 12.5, y 12.6 para las distribucio
nes de prueba de la Estadstica matemtica (distribuciones x1, t y F) contienen solamente
algunos percentiles, los cuales deben ser suficientes para la realizacin prctica de las ms
importantes estimaciones por intervalo de confianza y dcimas de significacin tratadas
en este libro. La utilizacin de las tablas se demostrar con un ejemplo.
Se puede encontrar en otra bibliografa tablas ms completas para la realizacin de pro
cedimientos de la Estadstica matemtica.
12.1
p k (1 -/>)"*, k = 0, 1, ..., n,
www.FreeLibros.com
Tabla 1
Ejemplo: b(3; 8 , 0,30) =0 254
0,02
0,05
0,10
0,15
0,20
0,25
0,30
0,40
0,50
0,980
0,950
0,050
0,900
0,100
0,850
0,150
0,800
0,020
0,200
0,750
0,250
0,700
0,300
0,600
0,400
0,500
0,500
0 0,980
1 0,020
2
0,960
0,039
0,902
0,095
0,810
0,180
0,722
0,255
0,002
0,010
0,022
0,640
0,320
0,040
0,562
0,375
0,062
0,490
0,420
0,090
0,360
0,480
0,160
0,250
0,500
0,250
0 0,970
1 0,029
2
0,941
0,058
0,857
0,135
0,007
0,729
0,243
0,027
0,614
0,325
0,057
0,003
0,512
0,384
0,096
0,008
0,422
0,422
0,141
0,016
0,343
0,441
0,189
0,027
0,216
0,432
0,288
0,064
0,125
0,375
0,375
0,125
0,522
0,368
0,098
0,410
0,410
0,154
0,026
0,316
0,422
0,130
0,346
0,346
0,154
0,026
0,062
0,250
0,375
0,250
0,062
p = 0,01
0 0,990
1 0,010
0,001
0,001
3
4
0 0,961
1 0,039
2 u ,001
0,922
0,075
0,002
0,815
0,171
0,014
3
4
5
0 0,951
1 0,048
2 0,001
0,904
0,092
0,004
3
4
5
6 0 0,941
1 0,057
2 0,001
0,774
0,204
0,021
0,001
0,656
0.292
0,049
0,004
0,590
0,328
0,073
0,008
0,011
0,001
0,444
0,392
0,138
0,024
0,002
0.886
0,108
0,006
0,735
0,232
0,031
0,002
3
4
5
0,531
0,354
0,098
0.015
0,001
0,377
0,399
0,176
0,041
0,005
0,002
0,047
0,004
0,240
0,412
0,265
0,076
0,008
0,328
0,410
0,205
0,051
0,006
0,237
0,396
0,264
0,088
0,015
0,168
0,360
0,309
0,132
0,028
0,078
0,259
0,346
0,230
0,077
0,001
0,002
0,010
0,031
0,156
0,312
0,312
0,156
0,031
0,178
0,356
0,297
0,132
0,033
0,004
0,118
0.303
0,324
0,158
0,060
0,010
0,001
0,047
0,187
0,311
0,276
OJ38
0,037
0,004
0,016
0,094
0,234
0,312
0,234
0,094
0,016
0,133
0,311
0,311
0.173
0,058
0,082
0,247
0,318
0,227
0,097
0,025
0,004
0,028
0,131
0,261
0,290
0,194
0,077
0,017
0,008
0,055
0,164
0,273
0,273
0,164
0,055
0,008
0,262
0,393
0,246
0,082
0,015
0,002
0 ,211
6
7
0 0,932
1 0,066
2 0,002
3
4
5
0,868
0,124
0,008
0,698
0,257
0,041
0,004
0,478
0,372
0,124
0,023
0.003
0,321
0,396
0,210
0,062
0,011
0.001
0,210
0,367
0,275
0,115
0,029
0,004
0,012
0.001
0,002
206
www.FreeLibros.com
p = 0.01
8 0 0.923
1 0.075
2 0.003
0,02
0.05
0.10
0 ,15
0.20
0.2 5
0.3 0
0 .4 0
0 ,5 0
0.851
0.139
0,663
0,27 9
0.051
0.005
0.4 3 0
0.383
0.149
0.033
0.005
0.272
0.385
0.238
0.0 8 4
0.018
0.003
0 .168
0 .336
0.294
0.147
0.0 4 6
0.009
0.100
0 .2 6 7
0.311
0.2 0 8
0.0 8 7
0.058
0.198
0.296
0,254
0.136
0.047
0.017
0.090
0.209
0.279
0.232
0.124
0.041
0.008
0 ,004
0.031
0 ,109
0 .219
0.273
0 .219
0 .109
0.031
0.004
0.010
3
4
5
0.001
0.023
0 .0 0 4
0.010
0,001
8
9
0 0.914
1 0,083
2 0.003
3
4
5
0.001
0.834
0,153
0.013
0.001
0,63 0
0,299
0.063
0.008
0,001
0.387
0.387
0,172
0.045
0,007
0.001
0.2 3 2
0,368
0.2 6 0
0,1 0 7
0.028
0.005
0.001
0.134
0.302
0,302
0,176
0.066
0.017
0,003
0.010
0.002
0.021
0.0 6 0
0.161
0.251
0.251
0 .167
0 .074
0,0 0 4
0.021
0.018
0 .0 7 0
0 .164
0.2 4 6
0.246
0.164
0.0 7 0
0,018
0 075
0.2 2 5
0.3 0 0
0 ,2 3 4
0.117
0 .0 3 9
0 .0 0 9
0,0 4 0
0.156
0.267
0.267
0.172
0.074
0.001
0 .004
0,002
10
0 0,904
1 0.091
2 0,004
0.817
0,167
0.015
0,599
0.315
0.075
3
4
5
0,001
0,010
0.001
0.3 4 9
0.387
0,1 9 4
0.057
0.011
0.001
0.197
0.347
0.2 7 6
0.1 3 0
0 .0 4 0
0.008
0.001
0,107
0.268
0.3 0 2
0,201
0.088
0,0 2 6
0.006
0.001
0.0 5 6
0.1 8 8
0.2 8 2
0 .2 5 0
0 .1 4 6
0.058
0 .0 1 6
0 .003
0.028
0 .12 1
0.233
0 .267
0.200
0 .006
0.0 4 0
0.001
0.010
0 .12 1
0.0 4 4
0.117
0.205
0,2 4 6
0.205
0.117
0.044
0.215
0.251
0,103
0 .037
0.0 0 9
0,201
0. 1 1 1
0.001
0.011
0.002
0.042
10
5
0 0.860
0.206
0.343
0,267
0.1 2 9
0.043
0.001
0.010
0.002
0.001
10
11
12
0.739
0,226
0.032
0.003
0.463
0,366
0.135
0,031
0.005
0,087
0.231
0.286
0.218
0.1 1 6
0.045
0.013
0.003
r 0.130
2 0.009
3
4
5
0.035
0.1 3 2
0.231
0.2 5 0
0.188
0.103
0.043
0.014
0.1X13
0.001
0 .013
0.0 6 7
0.1 5 6
0 .2 2 5
0 .225
0 .165
0 .092
0 .0 3 9
0 .013
. 0 .003
0.005
0.031
0.092
0 .170
0 .219
0 ,206
0 .147
0.081
0.035
0.001
0.003
0.012
0.001
0.000
0.005
0.022
0.063
0.127
0.186
0.207
0.177
0.118
0.061
0.024
0,007
0,002
13
14
15
0.010
0.001
0.000
0.000
0.003
0.014
0.042
0.092
0.153
0.1 9 6
0.196
0.153
0.0 9 2
0.042
0.014
0.003
207
www.FreeLibros.com
Tabla I (continuacin)
0.10
0.15
0,20
0.122
0,039
0.137
0,229
0,243
0.182
0,103
0,045
0.016
0,005
0.001
0,007
p = 0,01
20 0 0.818
1 0.165
2 0.016
3 0.001
0.02
0.05
0.668
0,358
0.377
0.189
0.060
0.013
0,270
0.285
0,190
0.090
0,032
0.009
0.002
0.272
0.053
0.006
0,001
4
5
0.002
0.25
0.30
0.40
0.50
0,012
0,003
0.001
0,058
0.137
0.205
0.218
0.175
0.109
0.055
0.021
0.000
0,000
0.000
0.000
0,000
0,001
0.010
0.007
0.028
0.072
0,130
0.179
0,192
0.164
0,114
0,065
0,031
0.003
0,012
0,001
0,004
0.022
0.002
10
11
12
0.067
0,134
0.190
0.202
0.169
0 .112
0.061
0.027
0,001
13
14
15
16
17
18
19
0.003
0.012
0,035
0.075
0.124
0.166
0.180
0,160
0,117
0,071
0,035
0,015
0,005
0,005
0,015
0,037
0,074
0,120
0,160
0.176
0.160
0,120
0,074
0,037
0,015
0,005
0,001
0,001
20
12.2
Tabla 2
Ejemplo: p(J ; 2,0) = 0,1804
0,1
0 0,9048
1 0,0905
2 0,0045
3 0,0002
4
5
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,8187
0,1637
0,0164
0,7408
0,6703
0,2681
0,0536
0,0072
0,0007
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,4966
0,3476
0,1217
0,0284
0,0050
0,0007
0,4493
0,3595
0,1438
0,0383
0,0077
0,0001
0,5488
0,3293
0,0988
0,0198
0,0030
0,0004
0,0011
0,0001
0,2222
0,0333
0,0033
0,0003
0,0001
208
www.FreeLibros.com
0,0012
0,0002
k
0.9
0 0,4066
1 0.3659
2 0.1647
3 0.0494
4 0.0111
5 0.0020
6 0.0003
7
1.0
1.5
2.0
2.5
3.0
3.5
4,0
0.3679
0.3679
0.1839
0.0613
0,0153
0,0031
0,0005
0.2231
0.3347
0.2510
0.1255
0.0471
0,0141
0,0035
0,0008
0.1353
0.2707
0.2707
0.1804
0,0902
0.0361
0.0821
0.2052
0.2565
0.2138
0,1336
0,0668
0,0278
0,0099
0,0031
0,0009
0.0498
0.1494
0,2240
0.2240
0.1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,3020
0,1507
0,1850
0,2158
0,1888
0,1322
0,0771
0,0385
0,0169
0,0066
0,0023
0,0007
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0053
0,0019
0.0006
0.0001
0,0001
0,0120
0,0034
0,0009
0,0002
10
11
12
0,0002
0,0002
0,0001
13
14
0,0002
0,0001
0,0002
0,0001
X
4,5
0 0,0111
1 0,0500
2 0,1125
3 0,1687
4 0,1898
5 0,1708
6 0,1281
7 0,0824
8 0.0463
9 0,0232
10 0,0104
11 0,0043
12 0,0016
13 0,0006
14 0,0002
15 0,0001
16
17
18
19
20
21
22
23
24
5,0
6,0
7,0
8,0
9,0
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0.0653
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0.1033
0,0688
0,0413
0,0225
0,0113
0,0052
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0.1304
0,1014
0,0710
0,0452
0,0264
0,0142
0,0071
0,0033
0,0014
0,0006
0,0003
0,0027
0,0107
0,0286
0,0573
0,0916
0,0001
0,0011
0,0021
0,0002
0,0001
0,0009
0,0004
0,0002
0,0022
0,0009
0,0003
0,0001
0,1221
0,1396
0.1396
0,1241
0,0993
0,0722
0,0481
0 , 02 ' 3
0,0169
0,0090
0,0045
0,0002
0,0001
0,0050
0,0150
0,0337
1,0607
0,0911
0,1171
0.1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
0,0029
0,0014
0,0006
0,0003
0,0001
10,0
0,0005
0,0023
0,0076
0,0189
0,0378
0,0631
0,0901
0.1126
0,1251
0,1251
0,1137
0,0948
0,0729
0,0521
0,0347
0,0217
0,0128
0,0071
0,0037
0,0019
0,0009
0,0004
0,0002
0,0001
209
www.FreeLibros.com
k o n lin u .K i n l
I 'u h h i
12
1 0.0001
2 0.0004
3
4
5
0.0018
0.0053
0.0127
6 0.0255
7 0.0437
8 0.0655
9 0.0874
10 0.1048
11 0.1144
12 0.1144
13 0.1055
14 0.0905
15 0.0724
16 0.0543
17 0.0383
18 0.0256
19 .0161
20 0.0097
21 0.0055
22 0.0030
23 0.0016
24 0.0008
25 0.0004
26 0.0002
27 0.0001
28
29
30
31
32
33
34
35
36
37
38
14
16
18
20
0.0001
0.0004
0.0001
0.0013
0.0003
0.0037
0.0087
0.0174
0.0304
0.04 3
0.0663
0.0844
0.0984
0.1060
0.1060
0.0989
0.0866
0.0713
0.0554
0.0409
0.0286
0.0191
0.0010
0.0121
0.0074
0.0043
0.0024
0.0013
0.0007
0.0003
0.0002
0.0001
0.0026
0.0060
0.0120
0.0213
0.0341
0.0496
0.0661
0.0814
0.0930
0.0992
0.0992
0.0934
0.0830
0.0699
0.0559
0.0426
0.0310
0.0216
0.0144
0.0092
0.0057
0.0033
0.0019
0.0011
0.0006
0.002
0.0001
0.0001
0.0001
0.0002
0.0007
0.0019
0.0042
0.0083
0.0150
0.0245
0.0368
0.0509
0.0655
0.0786
0.0884
0.0936
0.0936
0.0887
0.0798
0.0684
0.0559
0.0438
0.0328
0.0237
O'0164
0.0109
0.0070
0.0044
0.0026
0.0015
0.0009
0.0005
0.0003
0.0001
0.0002
0.0005
0.0013
0.0029
0.0059
0.0106
0.0176
0.0271
0.0387
0.0517
0.0645
0.0760
0.0844
0.0888
o .o W
0.0769
0.0669
0.0557
0.0445
0.0343
0.0254
0.0*81
0 .f2 5
0.0084
0.0053
0.0034
0.0020
0.0013
0.0007
0.0004
0.0002
0.0001
210
www.FreeLibros.com
12.3
La tabla 3 da una panorm ica sobre la funcin de distribucin > de la distribucin nor
mal estandarizada
<P(x)=
<
J .
p ara 0 ^
'd t.
y2n
((r ,_i
) - ~
211
www.FreeLibros.com
Tabla 3
Ejemplo: ,43) =0,923642
0,00
0,01
0,02
0,03
0,04
0,0
0,1
0,2
0,3
0,4
0,500000
0,539828
0,579260
0,617911
0,655422
0,503989
0,543795
0,583166
0,621720
0,659097
0,507978
0,547758
0,587064
0,625516
0,662757
0,511966
0,551717
0,590954
0,629300
0,666402
0,515953
0,555670
0,594835
0,633072
0,670031
o.s
0.6
0,7
0,8
0,9
0,691462
0,725747
0,758036
0,788145
0,815940
0,694974
0,729069
0,761148
0,791030
0,818589
0,698468
0,732371
0,764238
0,793892
0,821214
0,701944
0,735653
0,767305
0,796731
0,823814
0,705402
0,738914
0,770350
0,799546
0,826391
1,0
1.1
1.2
1.3
1.4
0,841345
0,864334
0,884930
0,903200
0,919243
0,843752
0,866500
0,886861
0,904902
0,920730
0,846136
0,868643
0,888768
0,906582
0,922196
0,848495
0,870762
0,890651
0,908241
0,923642
0,850830
0,872857
0,892512
0,909877
0,925066
1,5
1.6
1,7
1.8
1.9
0,933193
0.9452Q1
0,955434
0,964070
0,971283
0,934478
0,946301
0,956367
0,964852
0,971933
0,935744
0,947384
0,957284
0,965620
0,972571
0,936992
0,948449
0,958185
0,966375
0,973197
0,938220
0,949497
0,959070
0,967116
0,973810
2,0
2,1
2,2
2,3
2,4
0,977250
0,982136
0,986097
0,989276
0,991802
0,977784
0,982571
0,986447
0,989556
0,992024
0,978308
0,982997
0,986791
0,989830
0,992240
0,978822
0,983414
0,987126
0,990097
0,992451
0,979325
0,983823
0,987454
0,990358
0,992656
2,5
2.6
2,7
2.0
2,9
0,993790
0,995339
0,996533
U,777443
0,998134
0,993963
0,995473
0,996636
U,777323
0,998193
0,994132
0,995604
0,996736
U, *77377
0,998250
0,994297
0,995731
0,996833
u,777073
0,998305
0,994457
0,995855
0,996928
0,0
0,1
0,2
0,3
0,4
0,998650
0,999032
0,999313
0,999517
0,999663
3,0
212
www.FreeLibros.com
0,777744
0,998359
0,05
0.06
0,07
0,08
0,09
0,0
0.1
0,2
0,3
0,4
0.519938
0,559618
0,598706
0,636831
0.673645
0,523922
0,563560
0,602568
0,640576
0,677242
0,527903
0,567495
0,606420
0,644309
0,680822
0,531881
0,571424
0,610261
0,648027
0,684386
0,535856
0,575345
0,614092
0,651732
0,687933
0,5
0.6
0.7
0.8
0.9
0,708840
0,742154
0,773373
0,802338
0,828944
0,712260
0,745373
0,776373
0,805106
0,831472
0,715661
0,748571
0,779350
0,807850
0,833977
0,719043
0,751748
0,872305
0,810570
0,836457
0,722405
0,754903
0,785236
0,813267
0,838913
1.0
1,1
1.2
1,3
1.4
0,853141
0,874928
0,894350
0,911492
0,926471
0,855428
0,876976
0,896165
0,913085
0,927855
0,857690
0,879000
0,897958
0,914656
0,929219
0,859929
0,881000
0,899727
0,916207
0,930563
0,862143
0,882977
0,901475
0,917736
0,931889
1,5
1,6
1,7
1,8
1.9
0,939429
0,950528
0,959941
0,967843
0,974412
0,940620
0,951543
0,960796
0,968557
0,975002
0,941792
0,952540
0,961636
0,969258
0,975581
0,942947
0,953521
0,962462
0,969946
0,976148
0,944083
0,954486
0.963273
0,970621
0,976704
2.0
2,1
2,2
2,3
2,4
0.979818
0,984222
0,987776
0,990613
0,992857
0,980301
0,984614
0,988089
0,990862
0,993053
0,980774
0,984997
0,988396
0,991106
0993244
0,981237
0,985371
0,988696
0,991344
0,993431
0,981691
0,985738
0,988989
0,991576
0,993613
2,5
2,6
2,7
2,8
2.9
0,994614
0,995975
0,997020
0,997814
0,998411
0,994766
0,996093
0,997110
0,997882
0,998462
0,994915
0,996207
0,997197
0,997948
0,998511
0,995060
0,996319
0,997282
0,998012
0,998559
0,995201
0,996427
0,997365
0,998074
0,998605
0.5
0,6
0.7
0.8
0.9
0,999767
0,999841
0,999892
0,999928
0,999952
3,0
www.FreeLibros.com
213
12.4
Tabla de la distribucin x 2
La tabla 4 contiene algunos porcentiles xi,r de la distribucin /' con m grados de libertad
(ver 5.6, definicin 2) p ara m = l. 2...... 30. 40...... 100. los cuales se u tili/an frecuente
m ente en la realizacin p rctica de las estimaciones por in ic r\a lo de confianza, indicadas
en los epgrafes 10.6.1 (c) y (d). \ de las dcimas de significacin descritas en los epgrafes
11.4.3, 11.5.1, 11.5.3 y 11.5.5 (dcima de dispersin /'. dcima de ajuste / dci ma de
homogeneidad x !- dcima de independencia x 2).
Tahla 4
E jem p lo:
12.59
p = 0.99
(1 - / > = 0 . 0 1 )
1
2
6 .635
9.210
0 .975
0.9 5
0.05
0.025
0.01
(0.025)
(0.05)
(0.95)
(0.975)
(0.99)
5.024
3.841
7.378
5.991
0.1026
0.0506
0.0201
9.348
7.815
0.3518
0.2 1 5 8
0.1148
9 .488
0.7107
0.4844
0.2971
11.07
1.145
0.8312
0 .5 5 4 3
12.59
1.635
1.237
0.8721
11.34
13.28
11.14
15.09
12.83
16 .8 1
14.45
0 .0 0 3 9
0.0 0 1 0
0 .0002
18.48
16 .01
14.07
2 .167
1.690
2 0.09
17 53
15.51
2.733
2.180
1.646
21.67
19.02
16.92
3 .325
2 .700
2.088
10
23.21
20.48
,18.31
3.940
3 .247
2.558
214
www.FreeLibros.com
1.239
0.99
0.475
0.45
|I-/> = 0 .0 I|
< 0.025t
(0.05
r -
11
19.68
0.05
0 . 0 :5
'( il.9 5 l
(0.975
(0.99l-
3 .816
3.053
4.575
0.01
12
26.22
2 3 .34
21.03
5 .2 2 6
4 .404
13
27.64
24.-74
22.36
5.8 9 2
5 .009
4 .1 0 7
14
.I 4
26 .1 2
23.68
6.571
5 .629
4 .660
3.571
15
30.58
2 .49
2 5 . (K)
7.261
6 .2 6 2
5.229
16
32.00
2 8 . X5
26.30
7.9 6 2
6 .908
5.812
3 3.41
'0 .1 9
27.59
8 .672
7.5 6 4
6.408
7.<)|5
1K
34.81
31.53
28 .8 7
9.390
8 .231
19
3 6.14
.12.85
30 .1 4
10.12
8 .4 0
'.6 3 3
20
3 '.5
34.17
31.41
1 0.85
9.591
8.260
3 8.93
3 5 .48
3 2 . 6
11.59
10 2 8
8 .8^7
4 0.29
36.'8
33 .9 2
12.34
10.98
9 .5 4 2
23
4 1.64
38.08
35.17
1. 1.0 9
11.64
24
42.48
34.36
36 .4 2
1 3.85
12 .4 0
10.20
10.86
44.31
4 0 .65
3 1 .65
14.61
1 3.12
1 1.52
4 5.64
41.42
38.84
15.38
13 8 4
12.20
4 6.46
4 3.14
4 0.11
16.15
14.57
12.88
28
48.28
4 4 .4 6
41.34
16.93
15.31
1 3.56
29
49.59
4 5.72
42.56
17.71
16.05
14.26
30
50 .8 9
4 6 .98
4 3.17
18.49
16 .7 9
14.95
40
5 9 .34
5 5 .76
26.51
24.43
50
76.15
71.42
67 .5 0
3 4 .76
3 2.36
60
6 3.69
88 .3 8
83.3 0
79.08
4 3.19
4 0.48
22 .1 6
37.48
70
100.42
95.02
9 0 .53
51.74
48.76
4 5.44
2 9.71
80
I 12.31
1 06.63
101.88
60.39
57.15
53.54
90
124.12
118 .1 4
1 1 3.14
6 9.13
6 5 .65
6 1 .75
100
1 - 5 . SI
124.56
124.34
77 .9 3
74.22
70.06
215
www.FreeLibros.com
________ 1
Tabla de la distribucin t
12.5
Tabla 5
Ejemplo:
/>= 0,9
(1 - p = 0 , l )
0,95
(0,05)
0,975
(0,025)
0 ,9 9
(0 , 0 1 )
0 ,995
(0,005)
12,706
4,303
3,182
2,776
2,571
31,821
6,965
4,541
3,747
3,365
63,657
9,925
5,841
4 ,604
4 ,032
1
2
3,078
3
4
5
1,638
1,533
1,476
6 ,314
2,920
2,353
2 ,132
2,015
1,440
1,415
1,397
1,383
1,372
1,943
1,895
1,860
1,833
1,812
2,447
2,365
2,306
2,262
2,228
3,143
2,998
2,896
2,821
2,764
3,707
3,499
3,355
3,250
3,169
1,363
1,356
1,350
1,345
1,341
1,796
1,782
1,771
1,761
1,753
2,201
2,718
2,681
2,650
2,624
2,602
3,106
3,055
3,012
2,977
2,947
1,337
1,333
1,330
1,328
1,325
1,746
1,740
1,734
1,729
1,725
2,583
2,567
2,552
2,539
2,528
2,921
2,898
2,878
2,861
2,845
8
9
10
11
12
13
14
15
16
17
18
19
20
216
,,= 2 ,1 1 0
1,886
2,179
2,160
2,145
2,131
2,120
2 ,110
2,101
2,093
2,086
www.FreeLibros.com
21
22
23
24
25
26
27
2 ,
29
30
40
60
120
oo
12.6
0.95
(0.05)
0,975
(0,025)
0.99
(0 . 0 1 )
0.995
(0.005)
1,323
1,321
1,319
1,318
1,316
1,721
1.717
1,714
1,711
1.708
2,080
2.074
2.069
2.064
2,060
2.518
2.508
2.500
2.492
2.485
2.831
2,819
2.807
2.797
2.787
1,315
1,314
1,313
1.311
1,310
1,706
1.703
1.701
1.699
1,697
2,056
2,052
2,048
2,045
2.042
2.479
2.473
2.467
2.462
2.457
2.779
2.771
2.763
2.756
2.750
1,303
1,296
1,289
1,282
1.684
1,671
1.658
1,645
2.021
2.000
2.423
2.390
2.358
2.326
2.704
2.660
2.617
2.576
p= 0,9
(1 - /> = 0 , 1 )
1.980
1.960
Tabla de la distribucin
217
www.FreeLibros.com
Tabla 6
Ejem plo: Fj,
* a 15-o.ot
= 3.37.
3.09
a) >=0,9$ (1 -p-0. 5)
1
2
161.4
18.51
10.13
7.71
199.5
19.00
9.55
6.94
215.7
19.16
9,28
6.39
224.6
19.25
9.12
6.59
230.2
19.30
9.01
6,26
2 3 4,0
19.33
8,94
6.16
236.8
19,35
8.89
6 .0 9
238,9
19,37
8.85
6,0 4
240,5
19.38
8.81
6.61
5.99
5.59
5.32
5.12
5.79
5.14
4.74
4.46
4.26
5.41
4.76
4.35
4,07
3.86
5,19
4,53
4.12
3,84
3.63
5.05
4.3 9
3.97
3.69
3.48
4.95
4,28
3.87
3,58
3,37
4.88
4.21
3,79
3.50
3.29
4,8 2
4.1 5
3.73
3.44
3.23
4.77
4.10
3.68
3.39
3.18
13
14
4.96
4.84
4.75
4,67
4,60
4.10
3.98
3.89
3.81
3.74
3.71
3.59
3.49
3.41
3.39
3.48
3,36
3.26
3.18
3.11
3.33
3.20
3 . II
3.03
2.96
3.22
3.09
3.0 0
2.92
2.85
3.14
3.01
2.91
2.83
2.76
3.0 7
2.95
2.85
2.77
2 .70
3.02
2,90
2.80
2,71
2.65
15
16
17
18
19
4,54
4,49
4,45
4,41
4,38
3.68
3.63
3.59
3.55
3.52
3.29
3.24
3.20
3.16
3.13
3.06
3.01
2.96
2.93
2.90
2.90
2.85
2.81
2.77
2.74
2 .79
2.74
2 .70
2.71
2.66
2.63
2.61
2.58
2.54
2.64
2 .59
2.55
2.51
2.48
2.59
2.54
2.49
2.46
2.42
20
21
22
3,49
3.47
3.44
3.42
3.40
3.10
3.07
3.05
3.03
3.01
2.87
2.84
2.82
2.80
2.78
2.71
23
24
4.35
4.32
4.30
4.28
4.26
2.64
2.62
2 ,60
2 .5 7
2.55
2,53
2.51
2.51
2,49
2.46
2.44
2,42
2.45
2.42
2.4 0
2.37
2.36
2.39
2,37
2.34
2.32
2.30
25
26
27
28
29
4,24
4.23
4,21
4,20
4,18
3.39
3,37
3.35
3,34
3.33
2.99
2.98
2.96
2.95
2.93
2.76
2.74
2.73
2.71
2.70
2.60
2.59
2.57
2.56
2.55
2 .49
2.47
2.46
2.45
2.43
2.40
2,39
2,37
2,36
2,35
2,34
2,32
2,31
2.29
2 .28
2.28
2,27
2.25
2.24
30
40
60
4,17
4,08
4,00
3,92
3,84
3.32
3.23
3.15
3.07
3.00
2,92
2,84
2.76
2.69
2.61
2.53
2,45
2,37
2,53
2,45
2.37
2.29
2 .42
2.34
2.25
2 .17
2,33
2,25
2.17
2.09
2.27
2.18
2.21
2 .12
2 ,10
2.02
2.04
1.96
2,21
2 .10
2.01
1.94
1.88
3
4
5
6
7
8
9
10
11
12
120
<30
2,68
2,60
2.68
2,66
2.66
218
www.FreeLibros.com
6,00
2.22
10
241.9
12
243,9
15
245.9
20
24
248,0
2 4 9.1
30
2 5 0.1
40
251.1
60
2 52.2
120
253.3
254.3
1 9.40
19,41
19,43
1 9 ,45
1 9 ,45
1 9.46
1 9 .47
19,48
19.49
1 9 .50
8 .79
8,7 4
8,70
8 ,66
8.64
8.6 2
8 .59
8.57
8.5 5
8.53
5 .96
5,91
5,86
5,8 0
5,77
5,75
5.72
5 .69
5.66
5.63
4 ,74
4 ,68
4 ,62
4 ,56
4,53
4 .50
4 .46
4.43
4 .40
4 .36
4 ,06
4 ,00
3 .94
3 .87
3 ,84
3.81
3 .77
3 .74
3.7 0
3 .67
3.64
3,57
3 ,51
3 ,44
3,41
3 .38
3 .34
3 .30
3.27
3 .23
3.35
3,28
3 .22
3.15
3 .12
3,08
3 .04
3.01
2.97
2 .93
-5- 3 ,14
3 ,07
--------3 . 0 1
2 .94
2 .90
2,86
2.83
2.79
2.75
2,71
2 ,62
2.58
2,54
2 .98
2,91
2.85
2 .77
2,74
2 ,70
2 ,66
11
2 .85
2.7 9
2,72
2 ,65
2,61
2 ,57
2,53
2 .49
2.45
2 .40
12
2 .75
2.69
2,6 2
2,5 4
2 ,51
2,47
2 ,43
2 .38
2,3 4
2 .30
13
2.67
2 .60
2.53
2.4 6
2 ,42
2.38
2 .34
2 .30
2,25
2.21
14
2 .60
2 .53
2.4 6
2.3 9
2 ,35
2.31
2.27
2,22
2.18
2 .13
15
2.54
2 .48
2.4 0
2,33
2 .29
2 .25
2.2 0
2 ,16
2,11
2.07
16
2,49
2.42
2 .35
2 .28
2 ,24
2,19
2.15
2,11
2,06
2 ,01
10
17
2,45
2 .38
2.31
2 .23
2 .19
2.15
2.1 0
2.06
2,01
1 ,96
18
2,41
2,34
2,27
2.1 9
2.15
2.11
2.0 6
2.02
1.97
1 .92
19
2.38
2,31
2,23
2.1 6
2.11
2,07
2 .03
1.98
1.93
1.88
20
2.35
2.28
2 ,20
2.1 2
2.08
2.0 4
1 .99
1.95
1.90
21
2.32
2,2 5
2,18
2.1 0
2,05
2,01
1,96
1.92
1.87
1.81
22
2 ,30
2 ,23
2,15
2,07
2.03
1,98
1,94
1.89
1 .84
1,78
23
2,27
2 ,20
2 ,13
2.05
2,01
1 .96
1,91
1,86
1,81
1,76
24
2.25
2,18
2,11
2,03
1,98
1 .94
1 ,89
1.84
1,79
1.73
25
2,24
2,16
2 ,09
2,01
1,96
1,92
1.87
1.82
1,77
1.71
26
2,22
2,15
2,0 7
1 ,99
1.95
1,90
1 ,85
1,80
1,75
1 ,69
27
2 .20
2 ,13
2.06
1 .97
1,93
1,88
1 ,84
1 ,79
1,73
1 ,67
1,84
28
2,19
2 ,12
2,0 4
1 ,96
1,91
1,87
1,82
1,77
1,71
1,65
29
2.18
2 .10
2 .03
1 ,94
1,90
1 ,85
1,81
1,75
1,70
1,64
30
2.16
2 ,09
2.01
1.93
1,89
1 ,84
1,79
1 ,74
40
2,08
2 ,00
1,92
1,84
1,79
1 ,74
1,69
1 ,64
1,58
1,51
60
1.99
1,92
1,84
1,75
1,70
1,65
1 ,59
1,53
1 ,47
1 ,39
120
1,91
1.83
1,75
1 ,66
1,61
1 ,55
1,5 0
1,43
1,35
1,25
=o
1,83
1.75
1,67
1 ,57
1,52
1 ,46
1 ,39
1 ,32
1,22
1 .00
www.FreeLibros.com
1,68
1 ,62
219
Tabla 6
(continuacin)
b) p = 0,99 (1 - p = 0 , 0 \ )
\m ,
1
i
2
3
4
4052
98,50
34,12
21,20
4999,5
99,90
30,82
18,00
5403
99,17
29,46
16,69
5625
99,25
28,71
15,98
5764
99,30
28,24
15,52
5859
99,33
27,91
15,21
5928
99,36
27,67
14,98
5982
99,37
27,49
14,80
6022
99,39
27,35
14,66
5
6
7
8
9
16,26
13,75
12,25
11,26
10,56
13,27
10,92
9,5J
8,65
8,02
12,06
9,78
8,45
7,59
6,99
11,39
9.15
7.85
7,01
6,42
10,97
8,75
7,46
6,63
6,06
10,67
8,47
7,19
6,37
5,80
10,46
8,26
6,99
6,18
5,61
10,29
8,10
6,84
6,03
5,47
10,16
7,98
6,72
5,91
5,35
10
11
12
13
14
10,04
9,65
9,33
9,07
8,86
7,56
7,21
6,93
6,70
6,51
6,55
6,22
5,95
5,74
5,56
5,99
5,67
5,41
5,21
5,04
5,64
5,32
5,06
4,86
4,69
5,39
5,07
4,82
4,62
4,46
5,20
4,89
4,64
4,44
4,28
5,06
4,74
4,50
4,30
4,14
4,94
4,63
4,39
4,19
4,03
15
16
17
18
19
8,68
8,53
8,40
8,29
8,18
6,36
6,23
6,11
6,01
5,93
5,42
5,29
5,18
5,09
5,01
4,89
4.77
4,67
4,58
4,50
4,56
4,44
4,34
4.25
4,17
4,32
4,20
4,10
4,01
3,94
4,14
4,03
3,93
3,84
3,77
4,00
3,89
3,79
3,71
3,63
3,89
3,78
3,68
3,60
3,52
20
21
22
23
24
8,10
8,02
7,95
8 8
7,82
5,85
5,78
5.72
5,66
5,61
4,94
4,87
4,82
4,76
4,72
4,43
4,37
4,31
3,26
4.22
4,10
4,04
3.94
3,71
3.90
3,87
3,81
3,76
3,71
3,67
3,70
3,64
3,59
3,54
3,50
3,56
3,51
3,45
3,41
3,36
3,46
3,40
3,35
3,30
3,26
25
26
27
28
29
7,77
7,72
7,68
7,64
7,60
5,57
5,53
5.49
5,45
5,42
4,68
4,64
4,60
4,57
4,54
4,18
4,14
4,11
4,07
4,04
3,85
3,82
3,78
3.75
3,73
3,63
3,59
3,56
3,53
3,50
3,46
3,42
3,39
3,36
3,33
3,32
3,29
3,26
3,23
3,20
3,22
3,18
3,15
3,12
3,09
30
40
60
120
-
7,56
7,31
7,08
6,85
6,63
5,39
5,18
4,98
4,79
4,61
4,51
4,31
4,13
3,95
3,78
4,02
3,83
3,65
3,48
3,32
3,70
3,51
3,34
3,17
3,02
3,47
3,29
3,12
2,96
2,80
3,30
3,12
2,95
2,79
2,64
3,17
2,99
2,82
2,66
2,51
3,07
2,89
2,72
2,56
2.41
"N
220
www.FreeLibros.com
\ m
,
10
6056
15
12
6157
6106
9 9 ,4 2
9 9 ,4 0
2 7 ,0 5
2 7 ,2 3
j 4 5 5 14 37
--------------------4
20
6209
24
30
6261
40
6287
9 9 ,4 3
2 6 ,8 7
9 9 ,4 5
6235
9 9 ,4 6
2 6 ,6 9
2 6 ,6 0
2 6 ,5 0
9 9 ,4 7
2 6 ,4 1
14 20
14 0 2
13 93
13 84
9 9 ,4 7
60
6313
120
6339
6366
9 9 ,4 8
9 9 ,4 9
9 9 .5 0
2 6 ,2 2
13 75
2 6 ,3 2
13 6 5
2 6 ,1 3
1 1 46
9 ,1 1
6 ,9 7
11
1 0 ,0 5
9 ,8 9
9 ,7 2
9 ,5 5
9 ,4 7
9 ,3 8
9 ,2 9
9 ,2 0
7 ,8 7
7 ,7 2
7 ,5 6
7 ,3 1
7 ,2 3
7 ,1 4
7 ,0 6
6 ,6 2
6 ,4 7
6 .3 1
7 ,4 0
6 ,1 6
9 ,0 2
6 ,0 7
5 ,9 9
5 ,91
5 .8 2
5 ,7 4
5 ,6 5
5 ,8 1
5 ,6 7
5 ,5 2
5 ,3 6
5 ,2 8
5 ,2 0
5 ,1 2
5 ,0 3
4 ,9 5
4 ,8 6
6 ,8 8
5 ,2 6
5 ,1 1
4 ,9 6
4 ,8 1
4 ,7 3
4 ,6 5
4 ,5 7
4 ,4 8
4 ,4 0
4 ,3 1
10
4 ,8 5
4 ,7 1
4 ,5 6
4 ,4 1
4 ,0 8
4 ,0 0
3 .9 1
4 ,5 4
4 ,4 0
4 ,2 5
4 ,1 0
4 ,2 5
3 ,9 4
4 ,1 7
11
4 ,3 3
4 ,0 2
3 ,8 6
3 ,7 8
3 ,6 9
12
4 ,3 0
4 ,1 6
4 ,0 1
3 ,8 6
3 ,7 8
3 ,7 0
3 ,6 2
3 ,5 4
3 ,4 5
3 ,3 6
13
14
4 ,1 0
3 ,9 6
3 ,8 2
3 ,6 6
3 ,5 9
3 ,4 3
3 ,3 4
3 ,2 5
3 ,1 7
3 ,9 4
3 ,8 0
3 ,6 6
3 ,5 1
3 ,4 3
3,51
3 ,3 5
3 ,2 7
3 ,1 8
3 ,0 9
3 ,0 0
15
3 ,8 0
3 ,6 7
3 ,3 7
3 ,2 9
3 ,2 1
3 ,1 3
3 ,0 5
2 ,9 6
2 ,8 7
3 ,2 6
3 ,1 8
3 ,1 0
3 ,0 2
2 ,9 3
2 ,8 4
2 ,7 5
3 ,1 6
3 ,0 8
3 ,0 0
2 ,9 2
2 ,8 3
2 ,7 5
2 ,6 5
3 ,6 0
16
3 ,6 9
3 ,5 5
3 ,5 2
3 ,4 1
17
3 ,5 9
3 ,4 6
3 ,3 1
18
3 ,5 1
3 ,3 7
3 ,2 3
3 ,0 8
3 ,0 0
2 ,9 2
2 ,8 4
2 ,7 5
2 ,6 6
2 ,5 7
19
3 ,3 0
2 ,9 2
2 ,8 4
2 ,7 6
2 ,6 7
2 ,5 8
2 ,4 9
3 ,2 3
3 ,1 5
3 ,0 9
3 ,0 0
20
3 ,4 3
3 ,3 7
2 ,9 4
2 ,8 6
2 ,7 8
2 ,6 9
2 ,6 1
2 .5 2
2 ,4 2
21
3 ,3 1
3 ,1 7
3 ,0 3
2 ,8 8
2 ,8 0
2 ,7 2
2 ,6 4
2 ,5 5
2 ,4 6
2 ,3 6
22
3 ,2 6
3 ,1 2
2 ,9 8
2 ,8 3
2 ,7 5
2 ,6 7
2 ,5 8
2 ,5 0
2 ,4 0
2 ,3 1
23
24
3 ,2 1
3 ,1 7
3 ,0 7
2 ,9 3
2 ,7 8
2 ,7 0
2 ,6 2
2 ,5 4
2 ,4 5
2 ,3 5
2 ,2 6
3 ,0 3
2 ,8 9
2 ,7 4
2 ,6 6
2 ,5 8
2 ,4 9
2 ,4 0
2 ,3 1
2 ,2 1
25
26
3 ,1 3
3 ,0 9
2 ,9 9
2 ,9 6
2 ,8 5
2 ,8 1
2 ,7 0
2 ,6 2
2 ,5 8
2 ,5 4
2 ,4 5
2 ,3 6
2 ,5 0
2 ,4 2
2733
2 ,2 7
2 ,2 3
2 r t 3 -------------------2 ,1 0
2 ,6 6
2 ,1 7
27
3 ,0 6
2 ,9 3
2 ,7 8
2 ,6 3
2 ,5 5
2 .4 7
2 .3 8
2 ,2 9
2 ,2 0
28
3 ,0 3
2 ,9 0
2 ,7 5
2 ,6 0
2 ,5 2
2 ,4 4
2 ,3 5
2 ,2 6
2 ,1 7
2 ,0 6
29
3 ,0 0
2 ,8 7
2 ,7 3
2 ,5 7
2 ,4 9
2,41
2 ,3 3
2 ,2 3
2 ,1 4
2 ,0 3
30
40
2 ,9 8
2 ,8 4
2 ,7 0
2 ,5 5
2 ,4 7
2 ,3 9
2 ,3 0
2 .2 1
2 ,1 1
2 ,0 1
2 ,8 0
2 ,6 6
2 ,5 2
2 ,3 7
2 ,2 9
2 ,2 0
2 ,1 1
2 ,0 2
1 ,9 2
1 ,8 0
60
2 ,6 3
2 ,5 0
2 ,3 5
2 ,2 0
2 ,1 2
2 ,0 3
1 ,9 4
1 ,8 4
1,73
1 ,6 0
120
2 ,4 7
2 ,3 4
2 ,1 9
2 ,0 3
1 ,9 5
1 ,8 6
1 ,6 6
1,53
1 ,3 8
oo
2 ,3 2
2 ,1 8
2 ,0 4
1 .8 8
1 ,7 9
1 ,7 0
1 ,7 6
1 ,5 9
1 ,4 7
1 .3 2
1 ,0 0
221
www.FreeLibros.com
13.
Despus que hemos expuesto la construccin matemtica, usual hoy da, de la teora de
probabilidades y tratado algunas tareas esenciales que se plantea la estadstica matem
tica, queremos dar en este ltimo captulo una breve panormica de la historia del clculo
de probabilidades, con la cual deben ser completadas, perfiladas y clasificadas las obser
vaciones histricas incluidas en los captulos precedentes.
El clculo de probabilidades pertenece a las disciplinas matemticas relativamente j
venes; ella tiene solo escasamente tres siglos de existencia. Sin embargo, el mundo mis
terioso de la casualidad interes a los sabios en el ms temprano estadio del pensamiento
cientfico. As, el concepto probabilidad surgi ya en la filosofa griega antigua. La idea
de que las regularidades de la naturaleza se expresan mediante un nmero enorme de fe
nmenos aleatorios, se presenta tambin en los materialistas griegos de la antigedad.
(Esta idea toma cuerpo muy claramente, por ejemplo, en la poesa De rarum natura"
(Sobre la naturaleza de las cosas) de Lukrez (un siglo antes de nuestra era).) Pero el de
sarrollo hacia una disciplina cientfica independiente comienza solo en la mitad del siglo
XVII. Estimulado por preguntas acerca de las probabilidades de ganancia en juegos de
azar, formuladas por un jugador apasionado amigo suyo, el caballero de Mr, el notable
matemtico francs Blaise Pascal (1623-1662) estableci en el ao 1654 un intercambio de
correspondencia con el no menos famoso Pierre de Fermat (1601-1665), en la cual fueron
desarrollados -yendo ms all del propio motivo- fundamentos importantes del clculo de
probabilidades. Ya desde antes, hubo sabios que se ocuparon con problemas especiales so
bre las probabilidades en juegos de azar, como por ejemplo, el monje franciscano Luca de
Pacioli (1445-1514) en su libro publicado en 14 9 4 Summa de Arithmetica, Geometria,
Proportioni e Proportionalita , el mdico milans Hieronimo Cardano (1501 hasta 1576)
en su obra Liber de ludo aleae (Libro sobre los juegos de azar) y tambin Galileo Galilei (1564-1642). El clculo de probabilidades fue concebido por primera vez como un
medio adecuado para la investigacin de fenmenos aleatorios por Pascal y Fermat.
Tambin el fsico, matemtico y astrnomo holands Christiaan Huygens (1629-1695)
estuvo consciente de la significacin de esta nueva direccin matemtica. As escribi l
en su libro De ratiociniis in ludo aleae (Sobre los clculos posibles en juegos de azar),
publicado en 1658 y en el que se toma como referencia las ideas expresadas por Pascal
y Fermat: ... que el lector observa en un estudio atento del objeto, que no se trata solo
222
www.FreeLibros.com
de juegos, sino que aqui se desarrollan las bases de una teoria muy interesante y produc
tiva. 1
Solo que a causa del nivel relativamente bajo de desarrollo de las ciencias naturales fue
ron en este tiempo los juegos de azar, las interrogantes de la estadstica poblacional y las
tareas de aseguramiento, los nicos problemas concretos sobre la base de los cuales pudo
ser desarrollado el clculo de probabilidades.
En el libro mencionado de Huygens no aparece, por lo dems, el concepto probabili
dad : en l siempre se habla de "vajor de la esperanza, magnitud que hoy denominamos
valor esperado. El concepto probabilidad se defini por primera vez en el libro publicado
en 1713 Ars conjectandi" (El arte del suponer) de Jakob Bernoulli (1654-1705); aqui se
entendi por probabilidad el grado de certeza, que con respecto a la certeza se comporta
como la parte al todo !, una definicin que tiene ms carcter filosfico que matemtico.
La obra Ars conjectandi, que se puede considerar como primer libro de texto del
clculo de probabilidades, contiene, adems de un tratamiento completo de todos lofc pro
blemas sin solucin sealados por Huygens, una deduccin notablemente exacta (no solo
para las condiciones de aquel entonces) de la proposicin formulada hoy como Ley de los
grandes nmeros de Bernoulli; con ella se da, por consiguiente, una explicacin terica
de la estabilizacin de la frecuencia relativa de este hecho observado una y otra vez y co
nocido ya antes de Bernoulli. El mrito de Bernoulli no consiste, por tanto, en el descu
brimiento de este fenmeno -con referencia a esto, el propio Bernoullrescribi en Ars
conjectandi": 'A cada uno le est claro tambin que no es suficiente para valorar un fe
nmeno cualquiera hacer una o dos observaciones, sino que es necesario un nmero gran
de de ellas. Por esta razn, el hombre ms limitado sabe por s mismo y sin ninguna ins
truccin anterior (lo cual es asombroso), que cuanto ms observaciones se tomen en con
sideracin tanto menor ser el peligro de no lograr el objetivo ; el mrito de Jakob Ber
noulli consiste sobre todo en la explicacin terica, rigurosamente fundamentada, de esta
situacin. Para esta poca fue caracterstico que hechos empricos -como por ejemplo, la
estabilizacin de las frecuencias relativas- fueran conocidos, pero que no se buscaran fundamentaciones tericas para ellos; estos hechos fueron considerados ms bien como ma
nifestaciones del orden divino, que no requeran ninguna otra aclaracin.
El matemtico francs Abraham D e Moi'vre (1667-1754) logr entonces, entre otras co
sas. la formulacin cuantitativa de la Ley de los grandes nmeros de Bernoulli con la pro
posicin que hemos denominado como Teorema integral de D e Moivre-Lapiace, y tam
bin, relacionado con esto, descubri la distribucin normal (ver el final de 5.4).
La indicacin explcita de la llamada definicin clsica de probabilidad se encuentra
por primera vez en la obra fundamental aparecida en 1812 Theorie analytique des probabilits (Teoria analtica de las probabilidades) del importante matemtico y fsico fran
cs Pierre Simn Laplace (1749-1827). A ll se considera -en completa concordancia con
la concepcin actual- la definicin clsica de probabilidad, no tanto como una definicin,
sino como una frmula para el clculo deprobabilidades en casos concretos, para los cua
les se satisfacen ciertas condiciones;Laplace escribi: La probabilidad de un suceso es
la razn del nmero de casos propicios y el de todos los posibles, suponindose los dis
tintos casos como igualmente posibles.
1B.V : La cita fue tomada de [13],
2B.V.: La cita fue tomada de [6].
3 La cita fue tomada de [15].
www.FreeLibros.com
www.FreeLibros.com
N o obstante la importancia de los resultados logrados al final del siglo pasado y al ini
cio del nuestro en el clculo de probabilidades y en su aplicacin, este permaneci atrs
en comparacin con otras teorias, en lo referente al desarrollo de los fundamentos de la
teoria matemtica. D e forma sorprendente, el clculo de probabilidades no fue alcanzado
durante largo tiempo por la enorme transformacin de la m atem tica en el siglo XIX, que
estuvo caracterizada por la construccin axiomtica de teoras matemticas, lgicamente
compatibles, cerradas en s y desligadas de la realidad (por ejemplo, la Teora de Conjuntos,
la Topologa). Dijimos ya anteriormente (vase para ello l introduccin de 2) que en el
segundo Congreso Internacional de M atemticos en Pars en el ao 1900, David Hilbert
(1862-1943) mencion como uno de los problemas matemticos ms importantes la acla
racin de los conceptos bsicos del clculo de probabilidades. Con esta tarea se ocuparon
muchos matemticos, entre ellos el matem tico austraco Richard Von M ises (18831953), cuya tentativa para la solucin de esta tarea provoc vehementes -y por lo dems
fructferas- discusiones y estimul el inters de muchos matemticos. U na solucin satis
factoria del problema formulado por Hilbert se realiz con la publicacin (1933) del fa
moso matemtico sovitico Andrei Nikolaevich Kolmogorov (nacido en 1903), quien des
pus de numerosos trabajos preliminares logr emprender una construccin axiomtica
del clculo de probabilidades, de acuerdo con el espritu de la matemtica moderna. Aqui
fueron representados los sucesos aleatorios mediante conjuntos y la probabilidad se con
cibi como una funcin definida sobre estos conjuntos con determinadas propiedades, ca
racterizadas mediante axiomas. Esta construccin condujo no solo a la aclaracin de los
fundamentos lgicos del clculo de probabilidades, sino tambin permiti, en particular,
la utilizacin de disciplinas matemticas modernas altamente desarrolladas, por ejemplo,
de la Teoria de Conjuntos y del Anlisis, en especial, de la Teoria de la M edida y de la
Integracin. El clculo de probabilidades se desarroll desde entonces impetuosamente,
tanto respecto a la teora matemtica, como al campo de aplicacin de esta teoria.
Hoy en dia un gran nmero de centros de altos rendimientos se ocupan de la Teora
de probabilidades, la Estadstica matemtica y las numerosas disciplinas especiales surgi
das de estas. U na funcin rectora corresponde a los tericos soviticos de las probabilidades
cuyos trabajos son de inters y poseen reconocim iento internacional. En los primeros
aos despus de la Revolucin de Octubre, se concentr el circulo de los que se ocupaban
en la URSS de la Teora de las probabilidades, sobre todo en Mosc, alrededor de Alexander Jakovlevich Kinchine (1894-1959), uno de los representantes ms significativos de
la Teoria de probabilidades de nuestro siglo, y de A .N . Kolmogorov; hoy existe una mul
titud de centros de la Teora de probabilidades en la UR SS, considerados internacionalmente. En la R D A ocupa la Teora de las probabilidades un lugar fijo en el marco de la
formacin en universidades e institutos de enseanza superior y tambin en la investiga
cin matemtica. En el camino hacia este objetivo fue muy provechoso el magisterio de
B. V. Gnedenko en el ao 1953, en la U niversidad de Humboldt, en Berln, y muchos de
los matemticos de la R D A que hoy investigan en el cam po de la Teoria de probabilidades
fueron formados en la U nin Sovitica o permanecieron all para realizar estudios.
D esde hace algunos aos se hacen mayores esfuerzos -tambin en marcos internaciona
les- para incluir el Clculo 'ie Probabilidades, de forma adecuada, en la formacin ma
temtica en las escuelas de enseanza general.
www.FreeLibros.com
225
B ibliografa
Solo se enum eran titulos sobre Teoria de probabilidades y Estadstica m atem tica en lengua alem ana,
que han sido publicados o se pueden adquirir en la R D A , sin pretender con ello citar todos los exis
tentes sobre esta tem tica; las escasas anotaciones com plem entarias deben auxiliar en la seleccin de
la bibliografa.
[1] M l l l r , P .H . (editor y autor coordinador), L exikon d er Sto k a stik (W ahrscheinlichkeitstheorie und
M athem atische Statisik). 2. A uflage, Akadem ie - Verlag, Berlin, 1975.
Se explican y se resumen lexicogrficam ente, en palabras claves, las ideas esen ciales de la Teoria
de probabilidades, la Estadstica m atem tica y algunas im portantes disciplinas especiales que han
surgido de stas.
[2] M l l e r , P .H ., P. N E U M A N N y R . S t o r m , Tafeln der M athem atischen S ta tisik , 2. Auflage, VEB Fachbuchverlag, Leipzig, 1975.
Esta coleccin de tablas contiene un programa bsico en tablas, con cuya ayuda pueden tratarse la
mayor parte de los problemas prcticos de la Estadstica m atem tica.
[3] M a i b a u m , G ., Wahrscheinlichkeilsrechnung, 2. Auflage, Volk und W issen Volkseigener Verlag, Ber
ln, 1975.
Este libro ha sido concebido com o texto para las clases facultativas en la escuela m edia superior am
pliada (grados 11 y 12); contiene una exposicin detallada del Clculo de probabilidades en la me
dida en que esto es preciso para la realizacin de un curso de esta disciplina, sobre la base de los
programas vigentes.
[4] D o n a t , C . D . y G . M a i b a u m , W ahrscheinlichkeilsrechnung (Fachlichm ethodische H inw eise zu m Lehrgang W ahrscheinlichkeitsrechnung im R ah m en des fa k u lta tiven Vnterrichts in d er 11. und 12. Klasse ), V olk und W issen V olkseigener V erlag, Berlin, 1972.
El objetivo de este folleto se hace evid en te a travs del subtitulo. [3] constituye el punto de refe
rencia de las indicaciones m etodolgicas.
[5] C l a u s , G . y H. E b n e r , G rundlagen d e r S ta tisik fiir Psychologen, Pdagogen und Soziologen, Volk
und W issen Volkseigener Verlag, Berlin, 1974.
Junto a una exposicin, realizada conscientem ente de m anera sencilla, de lo s fundam entos m atem
ticos, e l libro contiene una serie de procedim ientos estadsticos que se aplican de m anera creciente
en la investigacin pedaggica, psicolgica y sociolgica. A qui se tratan detalladam ente problemas
especficos de la aplicacin de procedim ientos estadsticos a interrogantes de estas ramas. Los nu
merosos ejem plos de este libro proceden por entero de los dom inios de la pedagoga, la psicologa
y la sociologa.
[6 ] Rnyi, A, B riefe ber die W ahrscheinlichkeit, 2. A uflage, VEB D eutscher V erlag der W issenschaften,
Berlin, 1972 (traduccin del hngaro).
En este pequeo libro se explican las cuestiones fundam entales del Clculo de probabilidades de for
m a sumamente agradable, desde el punto de vista literario. El lector encuentra, adem s, detalles
interesantes acerca de los inicios del C lculo de probabilidades.
226
www.FreeLibros.com
Los tres ttulos que se m en cionan a con tin u acin son co leccio n es de ejercicios; [7] y [8] contienen,
adem s, breves exposiciones de la m ateria.
[7 ] S w eschnikow , S .A ., W ahrscheinlichkeitsrechnung u nd M ath em atische S ta tisik in Anfgaben, BSB B.
Teubner V erlagsgesellschaft, Leipzig, 1 9 7 0 (traduccin del r u so ).
[8] W e n t z e l , E .S. y L .A . O w t s c h a r o w , A u fgabensam m lung zu r W ahrscheinlichkeitsrechnung, Akadem ieV erlag, Berlin, 1973 (traduccin del ruso).
[9] W ahrscheinlichkeitsrechnung u nd M a th em a tisch e S ta tisik (bungsaufgaben zur M athem atik, H eft 8,
T U D resden, Sektion M ath em atik). Im preso com o m anuscrito 1971.
Los siguientes titulos pueden tom arse para am pliar y profundizar e l estud io de la T eoria de proba
bilidades, la E stadstica m atem tica y -com o se puede apreciar de lo s titulos- otras ram as especiales de
la estocstica.
[10] A h r e n s , H., Varianzanalyse, A kadem ie-V erlag, B erlin, 1967.
[ l 1 ] A h r e n s , H . y J. L a u t e r , M e h rd im en sio n a le V arianzanalyse, Akadem ie-V erlag, B erlin, 1974.
[12] B a n d e m e r , H. y otros, O p lim a le Versuchsplanung, A kadem ie-V erlag, Berlin, 1973.
[1 3 ] F a bian , V ., S taisisch e M ethoden, 2 . A u fla g e, VEB D eu tsch er V erlag der W issenschaften, Berlin,
1 970 (traduccin del c h e c o ).
[14] Fisz, M ., W ahrscheinlichkeitsrechnung u n d m athem atisch e S a tislik , 7. A uflage, VEB D eutscher
V erlag der W issenschaften, Berlin, 1973 (traduccin del p o la co ).
[15] G n e d e n k o , B .W ., Lehrbuch d e r W ahrscheinlichkeitsrechnung, 6. A u flage, A kadem ie-V erlag, Berlin,
1970 (traduccin d el ruso).
[16] J a h n , W . y H. V a h l e , D ie F aktoranalyse u n d ihre Anw endung, V erlag D ie W irtschaft, Berlin,
1970.
[17]
[18]
[19]
[20]
[21]
[22]
N ollau,
P a w l o w s k i,
del ruso).
J .A ., Stochastische P rozesse, Akadem ie-V erlag, Berlin, 1975 (traduccin del ruso).
N .W . y l.W . D u n i n - B a r k o w s k i , M ath em atische S ta tistisk in d e r Technik, 3. A uflage, V E B
D eutscher Verlag der W issenschaften, Berlin, 1973 (traduccin del ruso).
[25] S t o r m , R ., W ahrscheinlichkeitsrechnung. M ath em ath ische S ta tistik . Statisch e Q u alittskont rolle, 5.
A uflage, VEB Fachbuchverlag, L eipzig, 1974.
[26] V incze , I . , M ath em atische S ta tistik m it industriellen Anw endungen, A kadm iai K iad, B udapest,
[2 3 ]
R osa n o w ,
[24]
S m ir n o w ,
[27]
W eber,
1971.
E ., G rundriss d e r biologischen S ta tistik , 7. A uflage, V E B G ustav F ischer V erlag, Jena,
1972.
[28] W e b e r , E ., E infiihrung in d ie F aktorenanalyse, VEB G ustav F ischer V erlag, Jena, 1974.
Por ltim o, llam am os la aten cin de que [15] contiene un bosquejo de la historia d el C lculo de pro
babilidades.
www.FreeLibros.com
227
www.FreeLibros.com