You are on page 1of 191

,

PROBABILIDAD
Y APLICACIONES ESTADISTICAS
Paul L. Meyer
Departamento de Matemticas
Washington Stute Univcrsity

Versin en espmiol por

Carlos Prado Campos


Departamento de Estadistica
Instituto de Matemticas
Universidad Catlica de Chile

Con la colaboracin de

Germn Ardila C ullar


Departamento de Matemticas y Estadistica
Universidad Nacional de Colombia

ADDISON-WESLEY IBEROAMERICANA
Argentina Brasil Chile Colombia Ecuador Espal'\8
Estados Unidos Mxico Per Puerto Rico Venezuela

l'rtfodto

11

Prefacio a la primera edicin


,, e' poner"' meno' ,tlgunns de los aspectos ma' unportaJllcs en el lirea general de la mfcrcnc'tadi\IICU.
1 1 ~xit u potencia l de una presentacin panicular de la materia no debera ser juzgado
sulamcnte en funcon de las rdea' cspecific:r~ aprendidas y de la; tcnica~ espeerlicas adquind,,, , d JUICIO ftnal debe tener en cuenta tambtn si el estudiante est b1en preparado pam
..:ontinuar estudiando el tema bien por s mismo o por med io de un curso forma l adicional.
Sr 'e considera que c>le cnteno e\ rmponante, se hace ev1dente que debiera insistirsc en los
''l>nccptos b.'tsrco, y en ht' t.Xni.:as fundamcnwlc>. relegando al mi>mo !lempo lo> mtodos
y lema:. muy especializados a un papel secundario. Esto tambin result ser un litctor import.mt~ en lo dccis1n -obre temas a incluir
b dilidl exagcntr la importa ncra de la teora de la probabilidad. El modelo matemat1co
apmpiado para el estudio de un gran nmero de fenmenos observables es probabilistico
en Wl de determoniMco. Adem{ts, el tema completo de la rnfercnc1a estadstica est basado
en consideraciones probabilsticas. Las tccnicas estadst ica~ se cuentan en tre algunas de las
h.:rr~micnt:t~ m,, importantes de cientficos e ingenieros. Pard poder uhlizar esas tcnicas
llllchgentemcnte e~ necesarm una profunda comprensin de los conceptos probabilsticos.
Se espera que, 11dem>. de fam1harin1r~c con muchos mtodos espccrlicos y conceptos,
d kctor de\arrollc crerto criterio pensar probabtlisticamente su,tituycndo pregunta~ tales
como: Durante cunto trcmpo li.oncionar<i este mc"Canismo? por Cuill es la probabolrdad
d~ r.ruc c<.tc mccani,mo funcione durant<.' m!:. de cien hom~ '?>>. En muchus ~ituacioncs, la se,gund<t pregunta puede no slo :.cr la mh atinada ''"o. de hecho. la nica perunente.
fradicionalmentc, muchos de los concepto; rmportantcs de la probabilidad han sodo
Ilustrado. con la ayuda de varios <juegos de azar : lanzar monedas o dados. sacar carlas de
un" baraJa, hacer ~rur una ruleta, cte. Aunque yo no he evitado por completo referirme a
t,Jc\ juegos. porque sirven para ilustrar bien nociones b,icfl\, he intentando poner al cstudrank con ilustraciones ms pertinentes de las aplicaciones de la probabilidad: la emisin de
p.tniculas a de um1 fuente radiactrva. muc'>trco de lote, la duracrn de mstntmcmo:. elcctwnicos y los problemas :"ociado' de mr.:canismos y conliabilidad del sistema , etc.
1 sto~ r~acio a m~ncronar una de la~ caractcristrc-.Js m,, importantes en cualquier tc\lo
.le matemticas: Jo, problemas; y. srn embargo, puede valer la pena sealar que el tntbajar
cun problema debe ser considerado parte integran te del curso. Slo mediante el acto pcr\Onal de plantear > resohcr los eJerciciO' put.'<le el estudoante dC\Urrollar una compren,in
> apreciacin de las idea:.. as como familiari~ar:.e con las tcnicas pertonentes. Es por eso
que mas de 330 problema~ se han incluido en el texto y las respuestas a ms de la mitad de
ello~ figur.Jn al fiml del hbro.
l:.sic libro ha sodo escrito en una manera bastante consecutiva: la comprensin de lu ma\lHI:J de Jo, captulos requocre fam1haridad con lo:. anteriores; sin embargo. es posible tratar
'uperlicialmente con Jos C'dpitulos 10 y 1f ~~ se est intere;;ado. en particular. en dedicar ms
tiempo a la> aplicaciones estadsticas examinadas en los captulos 13 a 15.
Como debe suc~>der a qurenqu1era que escribe un te.~to, debo estar agradecido a muchas
per>onas: a mis colegas, por muchas convcrsacrones e.~timulantes y tiles: a mis propios
prr.lfcsores. por el conocimiento del tema y su inters en l; a los revisores de las primeras
\c~oones del manu-crito. por su mucha~ sugerencias llles y crticas: a Addison-Wesley
l'ubltshm; Company, por su gran ayuda y cooperacin desde las primeras etapas de este
proyecto hasta su finali;wci6n: a la seorita Carol Sloan, por ser una mccangrufa muy elil.'tcnlc y activa: a O Van Nostrand. lnc . The Free Pres.~. lnc. y Macmillan Publishing Compuny, por us permisos para reproducir las tabla~ 3, 6 y l. respectivamente; a McGraw-llill
R,lUk Company. loe.. O~ford Universty Press. lnc .. Pergamon Press. Ud. y J>rcntice-Hall.
lnc., por sus permisos para incluir ciertos ejemplos en el texto: y. finalmente. a mi e-posa.

,.,,1

htc tex.t.o est destinado pano un curso de un ', .


al, cmc~tr~ o para ~os _cursos trime:.trales de inun ano de calculo difen:ncoal e mtegral N y ~unas de ~us apiJcacronc,. El pn:rrcquisito e:.
o cstadbllca. En la Washington S tate u'niv;r supone conocomiemo previo de probabilidad
JJ,odo_ha >~do en-cado durante vario, aos s ly . el ~~rso para el cual este texto fue dcsarrongemcna o en '"enca; naturales. la ma ~. pnncrpalm~:mc. a t'S!UdJantes gradundose en
semestre al cstudil' de ~:sta matcrr't s
ybon,J de tales estudrantes slo pueden dediMtr un
1 1
' 111 em argo com
.
~
con e ca culo. pueden empezar drcho tud. . . o esos estudantc;. estn f:rmiliari.-ados
Muchos temas matemticos pueden ~~r ~~"~as aJJ del_ mvel estnctamente elemental.
esto es realmente cierto de la probabTd d
escntado, a doversus grados de dificultad
que 'uponen los conocimientos mate~~c~s ~ ~s:e teto se prelcnde aprovechar la vent~j~
lenguaJC matem;tico prccr~o pero se r,
'de ector, ~n sobrepasarlo~. Se usa en 'J un
en d t U
. .
'
lene cu1 ado de n0 u .
.
'
e a es matcmatrco; innece,aroos EM
.
egar a profundr7ar demasiado
se prcsent.ln y exponen vanos conce .lo~ ~eno es crertamente un libro de cocina. Aun ue
rema~ son enunciados cuidadosamc~e .S una ma~era mformaJ, la;. definiciones y Jos t~oUad:r de un teorema al m.
d
. ' no es posrblc. o deseable una dcmostra .. d
.

cnos se a un bosqu d
cron ctacar.tctemtrcas dostJnllvas de este lcMo son 1 CJOh e 1as !deas ms imponante;,. Una de las
lo~ lcoremas Y definiciones; en ella;.. el ~csul~~ M servacrones que siguen a la mayora de
mrnado_ desde un punto de vista imuitho
o particular o el concepto presentado es e~aDebrdo a la re;tnccin autompuesta d. . . .
matc!ra que abarca una extensa rea. hub~ ::nbrr un texto rel_;uivamente breve sobre una
clu"on o c~clusin de cierto, tema~. Par~-cc seresdad de seleccionar en relacin con la inproblema. ( rcrtamente, yo no sosten o u
que no hay manera obvia de resolver este
ha~r encontmdo sitio: ni plctendo ~u~ ~ p~ra algunos de los temas excluidos. no se podra
bar;o. se ha hecho hmc-dprc en ~rao par~~n~:;a~ater!al P~a haber sido omitrdo. Sin emdet:r.llc consrderablc. Solamente el ctptulo J 1
~ocoon~.-.._ tundumentales. presentadas Coll
;~,,.~::;;ro de lujo: pero. aun aqu, cr~o que~~ n: ~e conha?ilidud. puede ser collsiderado
' '
.son de mters para mucha, personas A ' ~es asociadas con problemas de conliaun medro CXI.'Cienlc para ilustrar muchas d 1. .:emas, los conceptos de confiabilidad son
d A~" SI se piensa que la c~tensin ha sid: ~i::it~~: presenl~das am~riormente en el libro.
o una _seleccrn amplia y ra?onablc de lema. U
. por el trempo disponible, se ha logra
;lera cvodentc que unas tres cuartas partes d:j t nta OJeada al lodice general muestra de muda cuarta parte est dedicada a una expost~i de~ ~ Ira~ de tema~ probabilsticos micnlra\
. e C\traordinario en t'Sia dlvrsin partcula~ d:;" .eren~~a estadostica. Aunque no hay nad;~
<:leo lJUe un conocimiento profundo de los . . . cnfa~~~ en tre probabilidad Y estadstica
d J
flllncJpro<, basrco, de la probabilidad es
,
vo para una compren,rn pro
bab,hdad debera ser scgu'odopa e os mctodos eMadstico~. Idealmente un curormpel"atr.
. .

por otro en reo


, . .

, en proc.omo llldqu anteriormente. la mayora de lo na e.dst.adJSIIca y mcrodofogiu: sin embargo


toempo para d
s estu rantes q

o' semc~tres de c~posicrn con estas mat . ue 1oman C>te curso no tienen
ena; y, por tanto. me sent ()bJigdo

lrod~ccoon ~ la teora de la probabolidad

&

'1

tiii

Prefatio

no slo por la paciencta mantenida durante el e;,fuerzo sino tambin por dejarme y llevarse
a nuestros dos hijos a visitar a sus abuelos d u ran te dos cruciales meses de verano. durante
los cuales pude convertir nuestro hogar en un taller desordenado pero tranquilo, del cual
emergi milagrosamente la ltima, final, versin de este libro.
Pullman. Washington

PAUL

L.

lndicc general

MIYER

Prefacio a la segunda edicin


e "IJlulo 1 Introduccin a la p robabilidad
En vista del considerable nmero de comentarios favorables que he recibtdo tanto de estud ian tes como de profesores que han utilizado la primera edicin de este libro, se han hecho
en l relativamente pocos cambios. Durante mi propio repettdo uso del texto he encontrado
q ue su organizacin bsica y el nivel general de presentacip (p. ej.: la mccla de argumentos
matemticos rigurosos con presentaciones y ejemplos ms informales) son los ms apropiados para el tipo de estudiante q ue toma este curso.
Si n embargo, se han hecho varios cambios y adiciones. En primer lugar se hiLo un esfuerzo para eliminar varias erratas de imprenta y otros errores que aparecieron en la primera
ed icin. El a utor est muy agradecido a los muchos lectores que. no slo descubrieron algunos de ellos. smo que se interesaron lo suficente como para indicrmelos.
En segundo lugar se intent hacer mts claras las relaciones entre varias distribuciones
de probabilidades. de modo que el estudiante pueda conseguir una comprensin mayor de
cmo usar varios modelos probabtlisticos para ;tproximarlos entre si.
Finalmente, algunos p roblemas nuevos han sido aadido> a la ya larga lista incluida en
la primet;a edicin.
El a utor desea agradecer nuevamente a Addison-Wesley Publishing Company su cooperacin en todos los aspectos que condujeron a esta nueva edicin.

1.1
1.2
1.3

1.4
15
1.6
1.7
1.8

Modelos matemticos
Introduccin a los conjuntos
EJemplos de experimentos no determini~ttcos
El espacio muestra!
Sucesos . . .
Frecuencia relnt iva
Nociones bsicas de probabilidad
Varias observ;tciones.
Problemas . . .

Espacio<; mue!>trales finitos


El espacio muestra! finito .
2.2 Resultados igualmente probables
2.3 Mtodos de enumeracin
Problemas . . .

P. L. M.

8
10
12
13

16
18

e apitulo 2

21

2.1

22
24
31

Probabilidad coodicional e inde~ndencia


Probabilidad condicional . . . . . .
3.2 Teorema de Bayes . . . . . .
3.3 Sucesos independientes. . . . . . . - . . :
Consideraciones esquemticas; probabilidad condietonal e mdepcndencm
3.4
Problemas

('apitulo 3
Pullman, Washington

1
3

3.1

( apit ulo 4
4. 1

4.2

4.3
4.4

4.5
4.6

4.7
4.8

Variables aleatorias unidimensionales .


Nocin general de una variable ;tleatona
Variables aleatorias discretas .
La distribucin binomial
variables aleatorias continuas
Funcin de distribucin acumulativa
Distribuciones mixtas .
Variables aleator ias distribuidas uniformentc
Una observacin
Problemas . . .
ix

34
40
42

48
50

55
60

63
67
71

75
76
77

78

'

lndlce

lndln

(aptulo 5 Funcones de variables aleatoria~


5.1 Un ejemplo . . . . . . . .
5.2 Sucesos equivalentes . . . . .
5.3 Variables aleatorias discretas .
5.4 Variables aleatorias continuas.
Problemas . . . . . . . . .
Captulo 6 Va riables aleatoria~ bidimensionales y de mayor dimensin
6.1 Variables aleatorias bidimensionales . . . . . . . . .
6.2 Distribuciones de probabilidades marginales y condicionales.
6.3 Variables aleatorias independientes . . . . . . . . . . .
6.4 Funciones de una variable aleatoria . . . . . . . . . . .
6.5 Distribuciones del producto y el cociente de variables aleatorias independientes . . . . . . . . .
6.6 Variable' aleatoria~ n-dimensionales .
Problema~
.....
Captulo 7
7.1
7.2
7.3

7.4
7.5
7.6
7.7

7.8
7.9
7.10
7.1 1

Otras caracterstica~ de las variables aleatorias


El valor esperado de una variable aleatoria . .
Esperanza de una funcin de una variable aleatoria
Variables aleatorias bidimensionales .
Propiedades del valor esperado . . . . . . . . .
La varianza de una variable aleatoria. . . . . . .
Propiedades de lu varianza de una variable aleatoria
Expresiones aproximadas para la esperanza y la varianza
Desigua ldad de Chebyshcv .
El coeficiente de correlacin
Esperan?a condicional .
Regresin del promedio
Problemas . . . . . .

Captulo 8 La variable aleatoria de Poio;son y otras variables aleatorias


8.1 La distnbucin de Poisson . . . . . . . . . . . . . . . . . . . . .
8.2 La distribucin de Poisson como una aproximacin a la distribucin binomial. . . . . .
8.3 El proceso de Poisson . .
8.4 La distnbucin geomtraca
8.5 La distribucin de Pascal .
8.6 Relacin entre las distrabuciones binomial y de Pascal
8.7 La distribucin hipergeomtrica .
8.8 La distribu~1n muhinomial .
Problemas
..... .
Captulo 9 Algunas >arlo bies aleatoria~ continuas importantes
9.1 Introduccin . . . . . . . . . . .
9.2 La distribucin normal. . . . . . .
9.3 Propiedades de la distribucin normal
9.4 Tabulacin de la distribucin normal.
9.5 La diWibucin exponencial.

83
83
86

88
93
95

101
105
108
112
114
117

120
126
131
132

138
140
143
146

148
152
154
158

164
165

170
175
178

179
180
181
183

187
187

188
191

195

) l'rop1euadcs de la distribucin exponencial


l.a d 1strabuc1n gama
'I.X Propiedades de la distribucin gama
IJ,') l.a J1~tribucin de 1.-cuadrado
1) 10 C'ompur.tcin entre varias distribuciones
1) 11 L<l dl'tribucin normal bivariada
'1. 12 n 1,tnbucloncs truncadas .
Problema'
IJ.I>
IJ 7

( up1lulu 10
1() 1
10.1
111 '
104
1115
ltl 6
1ti. 7

La runcin generadora de momentos


1ntroducc1n .
. . . .
la func 1n generadora de momentos

[cmplos de funciones generadoras de momentos.
Propiedades de la funcin generadora de momentos
Prop1cdades reproductivas .
Sucesiones de variables alcatonas
Nota final . . .
Problema'

( 11111111111 11 Aplicaciones 3 h teora de la confiabilidad


11.1 Concepto' bsicos .


11.2 La ley normal de fallas . .
11.3 Ll ley exponencial de fallas :
11.4 l.~ ley exponencial de fallas y la distribucin de Polsson .

11.5 La ley de f1llas de Weisbull
11.6 Conli<~bilidad de los sistemas
Problemas . . .
( nplulu 12
12.1
12.2
123
12.4
12.5

Sumas de variables .aleatorias


1ntroduccin .
.
1 ,1 ley de los grandes n mcr~s . . . : . .:

Apro,1macin normal a la d1stnbuc1on banom1.11


l'ltcorcma del lmite centr.1l

1, da.tribuciones aproximadas por la d1~tribucin mlrm<ll: Pm"on.


Pa,cal ) gama . . . . . . .


12.6 La di,tribucin de la suma de un n(lmero finito de \araablcs alea tonaProblema>

om

( up1tulu 13 \luc\tras) di.,trbuconcs muestrales


U.l Introduccin
13.2 Muestras aleatorias
13.3 [ ,tadigrafos
IJ4 -\lgunos estadgrafo> importante>
ns La transform<ICIn integral .
Problemas
....
( 11111111IH 14 E~timacin de los parmetros
14 1 Introduccin . . .
14 2 Criterios para estimadores
14.3 Algunos ejemplos . . . .

196

199
201
203
205

206
208
212
217
~IR

219
221

225
229
230
230
233
236
237
240
242

243
247

252

252
255
259
264
265
270
273

274
277
277

284
287

290
291

294

\ll

lndlcc

14.4 Estimadores de mxima vcros1mili1ud


14.5 El mtodo de los mnimos cuadn~dos.
14.6 El coeficiente de correlacin .
14.7 lntcnalos de confianza
14.8 la distribucin r de Stude~t . .
14.9 Ms sobre los intervalos de confian/a.
Problemas . . . . .
cu,)iuln 15 l)ocimasia de hipt~i~
15.1 Introduccin .
15.2 F?rmulacin gc~er~JI: dist~ibu~in
15.3 EJemplos ad1ciona les
15.4 Dcima para la bond~d d~ aJu~t~
Problemas . . . . . . . . .
Referencia;
Ap('lldicc
Rc\puc<.ta\ a problemas scl~cionados.
lndice de materias . . . . . . . . .

~orn;ai con v~ri~n~a .con~cida

298

307
310

Introduccin a la probabilidad

311

313
315
319

324
329
333
336

343

346
348
362
368

1.1

Modelos matemticos

Fn este capitulo se tratar el tipo de fenmeno de que nos ocuparemos en


c.'tc hbro. Adems, formularemos un modelo matemtico que nos servir para
mvcstlgar, en forma bastante precisa, este fenmeno.
Al principio es muy importante distinguir entre el fenmeno observable
en si mismo y el modelo matemtico para dicho fenmeno. Evidentemente, no
111nuimos en manera alguna sobre lo que observamos; sin embargo, al elegir
un modelo, si podemos aplicar nuestro juicio crtico. Esto ha sido muy bien expresado por el Profesor J. Neyman, quien escribi*:
Cada vez que utilizamos las matemticas con el objeto de estudiar fenmenos observables es indispensable empezar por construir un modelo matemtico (determinstico o
probabilstico) para estos fenmenos. Necesariamente, este modelo debe simplificar las
cosas y permitir la omisin de ciertos detalles. El xito del modelo depende de si los detalles
que <;e omit1eron tienen o no importancia en el desarrollo de los fenmenos estudiados
la solucin del problema matemtico puede ser correcta y an asi estar muy en desacuerdo con los datos observados, debido sencillamente a que no estaba probada la validez
de las suposiciones bsicas que se hicieron. Corrientemente, es bastante dificil afirmar
con certeza si un modelo matemtico es adecuado o no, antes de obtener algunos datos,
mediante la observacin. Para verificar la validez del modelo, debemos deducir un cierto
nmero de consecuencias del mismo y luego comparar con las observaciones esos resultados predichos>>.

Tendremos presentes las ideas anteriores mientras estemos considerando


nlgunos fenmenos obtenidos en la observacin y los modelos apropiados para
~u descripcin. Examinemos primero lo que podra llamarse adecuadamente un
modelo dererminstico. As designamos al modelo que estipula que las condiciones
bajo las cuales se verifica un experimento determinan el resultado del mismo.
flor ejemplo, si colocamos una batera en un circuito simple, el modelo matemtrco que posiblemente describira el nujo observable de corriente sera 1 = E/ R,
que es la ley de Ohm. El modelo predice el valor de 1 tan pronto como se dan
University of Califomia Publications in Stllll\lto. Vol. 1, niversity of California
l'rcss, 1954.

1.1

E Y R. ln otras palabms, si se repitiese el experimento anterior cierto nmero


de ~ccc~. emplean~? cada vez el mcsmo c1rcuito (esto es, manteniendo fijos E y R)
po~1ble~cnte buble.ramos es~rado observar el mismo valor de J. Cualqu 1er
?csvcac1on que pu~~~~ ocurnr sena tan pequea que la mayor parte de los objCilvos de la d~cnpc10n anterior (que e:. el modelo) se cumpliran. La rcahdad
es q.ue la batena, el alambre y el ampermetro utilizados para generar y medir la
comente Y nuestra destreza para usar los instrumentos de medida, determinan
el. resultado de c~d.a repeticin. (Hay ciertos factores que pueden muy bien ser
d1~tmtos de repetiCIn en repeticin tuc. >in embargo. no afectann el rcbultado
de una ma~era notable. Por ejemplo. la temperatura y la humedad en el Juboratono.~ h1cn la altura de
per~ona que l~:c el 1mpermetro se puede considerar,
con r<l7.011. que no llenen 111fluencia en el rcsullado).
Hay muchos.e~emplos de experimentos> en la naturaleza para los cuales los
mod~los determmJshcos son apropiado~>. Por ejemplo, las leyes gravitacionales
d~S:Cr1ben muy exactamente lo que sucede a un cuerpo que cae bajo ciertas con
d1c1ones Las leyes de Kepler oos ind1can el comportamiento de los planetas.
En ~ada caso, el m~delo seala que las condicione~ en las cuales se verifican ciertoi>
fenomenos determman el ~alor de ciertas variables observables: la magnitud de
la veloc1dad, el rea recornda durante cierto perodo de tiempo, etc. Esta~ c1fras
aparecen en muchas de las frmulas con la~ cuales estamos familiarizados. Por
ejem plo, sabemos que bajo ciertas condiciones la distancia recornda (verticalmente sobr.e el s~~l~} por un objeto est dada por: s = - 16t1 = v0 t, en donde vo
es lu ~elocJd:1cl .m1cml y t es el tiempo empleado. Lo que queremos destacar 110
es la torma part1cu.lar de 1~ ecuacin <Interior (que es cuadrtica), sino el hecho de
que hay una relac1on defin1da entre 1 y .1, tue ddermma unvocamente tu cantidad
del pr1mer m1embro de la ecuacin, si se dan las del segundo miembro.
En muchos casos el modelo matemtico determiostico descrito antenormente
es sufic1cntc. S!n. em~a~go, hay tambin muchos fenmenos que neces1tan un
modelo matemat1co d1stmto para su investigacin. Esos son los que llamaremos
modelo~ 11o determi~sticos o probabilsticO.~. (Otro trmino muy usado es modelo
f!l/o{'<:'llml. Postenormente, e~ . este captulo constderaremos en forma muy
prt:<.t.sa cmo se pueden descnb1r tales modelos probabilsticos. De momento
constderurernos unos pocos ejemplos.
, Supongamos que tenemos un pedazo de material radiactivo que emite partlculas ex. Con. la ayuda .d.e un dispositivo para medir, podramos registrar el num~ro de parhculas em1t1das durante un determinado intervalo de tiempo. Es
ev1dente que no podemos predecir exactamente el nmero de partculas emitidas
aunqu~ sepamos la fo~a exacta, la dimens1n, la composicin qumica y la mas~
del ob;eto que ~e cons1dera. Asl oo parece haber un modelo determinist1co ra7onabl~. que nos indique el nmero de partculas emitiaas. digamos n, como una
func1on de vanas ~actersticas prop1as de la fuente de radiactividad. En su
lugar, debemos cons1derar un modelo probabiHstico.
A manera de otro ejemplo consideremos la siguiente situacin meteorolgica.
Deseam~s ~ete~minar cu~nta lluvia caer dcb1~0 a una tormenta que pasa por
una zon.1 espectfica. Los mstrumentos para reg1strar la cantidad de lluvia estan

!a

l.l

lntrodutcfoll

11

los conjun<>

h~tos. Las observaciones meteorolgicas pueden darnos mucha informacin del


Ir ente de mal tiempo que se aproxima: la presin baromtrica en diversos puntos,
tus cambios de presi n la velocidad del viento, el origen y la direccin de la tor
menta, y adems otro; datos tomados a grao altura. Pero esta informa.ci?n ~n
valiosa como es para predecir de modo muy general la forma de la prectplla~n
(tlbil, regular, intensa), sencillamente no pe~te indicar con, mucha exaclltu~
ulnta lluvia caer. De nuevo, estamos cons1derando un fenomeoo que .~~ SI
11
mismo no se presta a un tratamjeoto determinlstico. Un modelo probabl11shco
ucbCribe la situacin con mayor exactitud.
En principio podramos indicar cunta lluvia cay, si la teora se ~~bi.era
desarrollado (lo que no se h izo). Por lo tanto, usamos un modelo probab1hsttco.
( .n el ejemplo relacionado con la desintegracin radiactiva, debemos usar un
modelo probabilistico an e n principio.
Aun a riesgo de adelantarnos a discutir u concepto que se definir ms tarde,
mdiquemos simplemente que en un modelo determins~co se supone qu~ ~1 re,ultado real (sea numrico o de otra especie) est determmado por las cond1c1ones
bajo las cuales se efecta el expe~e~to o prOCC:dimiento. En un modelo oo delcrministico, sin embargo, las cond1ctones expenmentales dete.rmman. ~olamente
el comportamiento probabilistic{) (ms especficamente, la d1stnbuctoo probabilistica) de los resultados observables.
.
.
En otras palabras, en un modelo determinstico utilizamos cons1dera.c~o~es
lis 1cas para predecir el resultado, mientras que en un modelo pro.ba~thst.I~O
usamos la misma clase de consideraciones que para espectficar una d1stnbuc1on
de probabilidades.
1.2 lntroduecin a los conj untos
Con el fin de discutir los conceptos bsicos del modelo probabistico que
deseamos desarrollar , ser muy conveniente tener presentes algunas ideas Y con
ceptos de la teora matemtica de conjuntos. ~ste. tema es .muy extenso Y se ha
escrito mucho acerca de l. Sin embargo, aqu1 solo necesitaremos algunas nociones bsicas.
Un conjunto es una coleccin de objetos. Co.m.nmente. los conjuntos se. designan con tetras maysculas A , B, etc. para descnbtr qu objetos estn cootemdos
en el conjunto A, se dispone de tres mtodos.
.
. .
(a) Podemos anotar los elementos de A. Por ejemplo, A = {1,2, 3, 4} mdtca
el conjunto que contiene los enteros positivos 1, 2, 3 y 4.
.
,
(b) Podemos describir al conjunto A con palabras. Por ejempl~, pod~1amos
decir que A est formado por todos los nmeros reales entre O y 1, mclus1ve.. .
(e) Para describir el conjunto anterior, simplemente podemos escnbtr
A = {x 1O s x s 1}; es decir, A es el conjunto de todas las x, en donde x es un
nmero real comprendido entre O y 1, inclusive.
Los objetos que forman la coleccin del conju nto A se llaman miembro.~ o
elementos de A. C uand o l)>es un elemento de A escribimos a E A Y cuando a
no es un elemento de A escribimos a f: A.

lnlroduccii>n 1 pmbbllldod

1.2

Hay dos conjuntos especiales que a menudo son de inters. En la mayor parte
de los problemas, estamos interesados en el estudio de un conjunto definido de
objetos, y no de otros, por ejemplo, en todos los nmeros reales, en todos los artculos que salen de una linea de produccin durante un perodo de 24 horas, etc.
Definimos el conjunto rmiversal como el conjunto de todos los objetos que se consideran. Corrientemente este conjunto se designa U.
Otro conjunto que se debe destacar especialmente, puede aparecer como
sigue. Supongamos que se describe el conjunto A como el conjunto de todos los
nmeros reales x que satisfacen la ecuacin x 2 + 1 = O. Evidentemente sabemos
que no pueden existir tales nmeros. El conjunto A no contiene ningn elemento!
Esta situacin ocurre tan a menudo que justifica la introduccin de un nombre
especial para tal conjunto. Por lo tanto, definimos el conjunto nulo o vaco como
el conjunto que no contiene elementos. Generalmente este conjunto se desgina ~
Puede suceder que dados dos conjuntos A y B un elemento de A es tambin
un elemento de B. En tal caso se dice que A es un subconjunto de B y se escribe
A e B. Se da una interpretacin semejante a B e A. Decirnos que dos conjuntos
son el mismo A = B, si y slo si A e By B e A. Esto es, dos conjuntos son iguales
si y slo si contienen los mismos elementos.
Las dos propiedades siguientes del conjunto nulo y del conjunto universal
son inmediatas.
(a) Para cualquier conjunto A , se tiene ~ e A.
(b) Una vez que el conjunto universal se ha acordado, entonces para cualquier conjunto A considerado que est en U, tenemos A e U.
1.1. Suponga que U = todos los nmeros reales, A = {x 1x 2 +
2x - 3 = 0}, B ={x j(x - 2)(x 2 +2x-3)=0}. y e={xjx= -3, 1,2}. Entonces A e B y B = C.
EJEMPLO

Ahora consideremos la idea importante de combinar conjuntos dados con el fin


de formar un nuevo conjunto. Se consideran dos operaciones bsicas. Estas son
paralelas, en ciertos aspectos, a las operaciones de suma y multiplicacin de
nmeros. Supongamos que A y B son dos conjuntos. Definamos e corno la unin
de A y B (algunas veces llamada la suma de A y de B) de la manera siguiente:
e = {xjxe A o

xe B (o ambos)}.

Escribimos e = A v B. As e est formado por elementos que estn en A, o en B,


o en ambos.
Definimos D como la Interseccin de A y B (algunas veces designado como
el producto de A y B) como sigue:
D ={ xjxeA

y xeB}.

Escribamos esto como D = A n B. Es as como D posee todos los elementos que


estn en A y en B.
Finalmente presentamos la idea del complemento de un conjunto A como
sigue: el conjunto designado por A, formado por todos Jos elementos que no

lntrudun lhu " lu" -.unJunlo"

12

"

~~tltn en A (sino en el conjunto univer~al U) se llama el complemento de A.

l s loc~. A = {xlx~ Al .

fl
Se puede usar con mucha ventaja un recurso grfico. co~octdo co~o gra 1cn
,,. ltmt cuando se combinan conjuntos de la manera mdtcada antenormente.
1 n cada uno de Jos grficos de la figura 1.1 , la regin sombreada representa el
~"nJunto considerado.

o
A nB

Au B

FIGURA 1.1
FJIIMPLO 1.2. Supngase que U = { 1, 2, 3, 4. 5. 6, 7. 1:1, 9. JO ); A -= { 1, 2, 3. 4}.

{3, 4,5,6}. Hallamos que fl = {5.6.7,8.~, 10 ), A u 8 ={1.2.3 .4,5, 6} ~


1 n 8 = {3,4}. Ntese que al describir un conJunto (tal como A v B) anotamos
utkt demento exactamente una vez.

La~ operaciones anteriores de unin e interseccin .definida~ JUSta~ncnt~ p:~~a


1 11 ~ conJ untos pueden extenderse de una manera obv1a para cualqu1er numc1 ~
linltO de conJLH110S. As definirnos A V 8 u
~o mo A u . (8 u C) o (~ u, 8) ':-' e:
IJIII! es el m 1 ~mo. como fki lmente se puede venficar. De tgual manera: defnnnos
1 ,-, 8 n
como A n (8 n C) o (A n 8) n que. tambin. pued~ vcnlcarsc que
"'11 iguale~. y es evidente que podemos continuar esas construcciones de conjunt11, nuevo~ con nwlqtliPr nmero finito de conJuntos dados.
Afirm~1bamos que ciertos conJuntos eran lo mismo. por CJempl_o A "(8 " e
) ( 1 n 8) n C. Resulta que hay un nmero de tale~ conJuntO!. qwralt-1111'\. algunm. de los cuales ~e indtca n ms adelante. Si recordamos q~c .dos conJuntos son
1 ~ualcs s 1cmpre que contengan los mismos elementos. es fac1l venfcar qu~ los
cnuncmdo~ c:.tablecidos son verdaderos. l:l lector debe convencerse por ~~ m1smo
t:oln ;L)Uda de los diagramas de Venn.

e
e

(a)Av B = B v A.
(e) A V (B V C)

= (A V

lb)AnB=BnA.
B) u

c.

(ti) A n (8 n C} = (A n B)n

(1.1)

referimos a (a) y (b) como las propiedades conmutativas. y (e) Y (d) como las
rropredadcs asociativas.
..
JI ay otros conjtmtos idemidades que contienen unin, .inter~eccton Y comp1emcntacin. Lo~ ms importantes de estos se indican a contmuac16n. En cada caso,
,n va lidez puede verificarse con ayuda de un diagrama de Vcnn.
Nus

lntrodoccin a la probabllldlld

(e) A v (8 f"l C)
(1) A f"\ (8 V C)
(g) A f"l f) = f'.

= (A v
= lA f"\

1.2

8) 0 (A v

CJ.

8) V (A

C).

f"\

( 1.2)

(h) A v f}
A
) (A f"l 8) = ~ v 8,

(i) (A V 8)
(k) A
A.

e te

Definicin. Sean A y 8 dos conunto 1 d ' ..


siano de A y 8 escrito como AJ x 8 s.l ~ lea remos como el producto curte
el conjunto de todos los ,
a conju nto {(a, b). a E A,IJ E Bl. esto cs.
1
pares ordenados en donde el primer e lemen to
se toma de A
Y e segundo de B.
EJEMPLO

Entonces

1.3.
A

1 '" conceptos presentados anteriormente, aunque representan slo un breve


ht1HfUCJO de la teora de conJuntos. son suficientes para nuestro propsito: describir
, tlll ngur y precisin considerables. las ideas bsicas de la teora de la probabilidad.

A f"l B.

Observamos que (g) y (h) indican u ~ . ,


re~pccto a las opcracione~
e f"l) q
~omporta entre los conjuntos (con
(con respecto a las operaciones de s:~oy ~ lat~c e~ n_t:~m)ero cero entre nmeros
Para 1

u tp ccacron .
dtdos doso(oquc , s)rgue se necesita una construccin adicional de un conJunto
'
mas COnJUntOS.

11

Sea A -- ,' 1. 2_3 . 8 = : 1.2. 3.4:.


8 -{ (1.1). (1.2)..... (1.4). (2.1)..... (2.4), (3.1)..... (3.4)1.

Ob~ervacin: en gcncnll A x 8 i' B x A.

La nocin anterior puede extenderse com 0 .. ' .

entonces A x Al x ... x A _ {a
sigue. A .A. son conuntos.
1
todos los n-tuplos ordenados~ - ( "al a.). a e A;}, esto es el conJUnto de
Un caso especialmente Importante . . . .
d
carteSiano de un conJunto consgo m , ,p,trcce cuan o tomamo-. el producto
.
1snw. C\IO c-. 4 x A o A
1
1 E
P1os asr aparecen cuand
. 1
x ' x 1
Jem
donde R es el conju~to ~en~~drocsalcoson~mo~ con el plano euclidiano. R x R. en
num eros reales y el espacio e l'd '
.
.
.
uc 1 rano Ind 1mens10nal se representa R x R x R.
El nmero de e/emell(o~ en

un nmero finito de clcm~ntos u;n c~nJ~n~o nos .,er de mucha utilidad. Si hay
finito. Si hay un nmero infinito de e.l gamos U. "2 .. a. decrmo~ que A es
ementos en A que pueden pone
correspondencia uno-a-uno con los ent
..
.
rsc en una
o infinito numerable (Se puede de
t eros positivo~. dectmos que 4 es nmtahle
nmeros racionales. es infinito n;os rar por eJe~plo. que el conJunto de todos los
~so de un conjunto inlinito no':u:~~:~~blc): ~~n~lmente debe~os considerar c1
lllfinito de elementos que no
d
e. T .Jics conJuntos contienen un nmero

pue en .;er en umerados Se p d d


CJemp1o. que para dos nmeros reales cualesquier b .
ue_ e emos trar. por
x S b} tiene un nmero no numerable d 1
a > a. el conjunto A
{x 1a S
con cada nmero real un punto sobre lae ;e~r~entos. Pu~sto que debemos asociar
expresa que cualquier llltervalo (no d
~~:e los n~meros _reale~. lo anterior
contable de puntos.
egenera o) contrene mas de un nmero

l.\

E,jcmplos de experimentos no dcterminstieos

1 \tamos ahora listos para discutir lo que entendemos por un experimento


ult .ttoro o <<no dctcrministico. (Ms precisamente. daremos eJemplos de
k u u menos para los cuales los modelos no dcterministicos son apropmdos. Esta
una distincin que el lector deber mantener presente. As nos referiremos
hnucntemente a expenmentos no determinsticos o aleatorios. cuando en realidad
.t.unos hablando de un modelo no detcrminstico para un experimento). No
111 ,ttnderemos dar una derin icin precisa de diccionario para este concepto. En su
lutnr, daremos numerosos ejemplos que la ilustran.
Se lanza un dado y se observa el nmero que aparece en la cara superior.
Se lanza una moneda cuatro veces y se cuenta el nmero total de caras

1
1
1

obtenidas.
Se lanza una moneda cuatro veces y se observa la sucesin de cara:. y sellos
obtenidos.
1 1 Se fabrican artculos en una lnea de produccin y se cuenta el nmero de
~1rtculos defectuosos producidos en un perodo de 24 horas.
1 ,. El ala de un aeroplano se arma con un gran nmero de remaches. Se cuenta
el nmero de remaches defectuosos.
Se fabrica una bombilla. Luego se prueba su duracin ponindola en un porta
1,
lmparas y se anota el tiempo transcurrido (en horas) hasta que se quema.
En un lote de 10 artculos hay 3 defectuosos. Se elige un articulo despus
de otro (sin sustituir el artculo elegido) hasta que se obtiene el lumo articulo
defectuoso. Se cuenta el nmero total de artculos sacados del lote.
1 " Se fabrican artculos hasta producir 1O no defectuosos. Se cuenta el nmero
total de artculos manufacturados.
1 Q Se lanza un proyectil. Despus de un tiempo determinado 1, se anotan las
tres componentes de la velocidad v,. ''r y v,.
/ 10 Se observa un proyectil recin lanzado en tiempos. l~oll.. . . t. En cada
oportunidad se anota la altura del proyectil sobre el suelo.
1 11 Medir la resistencia a la tensin de una barra de acero.
1 ,: De una urna que contiene slo esfc.:nt\ negras. se escoge una e~fera y se
1
anota su color.
11 11 : Un termgrafo anota la temperatura. continuamente. en un periodo de 24
horas. En un sitio y en una fecha sealados. leen> dicho tcrmgrafo.
1' 14 : En la situacin descrita en E 13 . se anotan x e y, las temperaturas mnima y
mxima del periodo de 24 horas considerado.

11

~Qu tienen en comn los experimentos anteriores? Los siguientes aspectos


importantes para nuestra descripcin de un experimento aleatorio.

\llO

1!

lnlruduccin a lu Joroboblldad

1...1

(n) F\ posible repet1r cada experimento cndefm1damente sen cambiar esencialmente las condiciones.
(bJ Aunque en general no podemos indicar cul sed un resultado mrtcular.
podemos describir el conjunto de todos los resultados po.\ibles del experimento.
(e) A medida que el experimento se repite. lo-; resultado\ individuales parecen
ocurrir en forma capnchosa. Sin embargo. como el experimento se repite un gran
numero de veces, aparece un modelo definido de regularidad. Esta regularidad
hace posible la construccin de un modelo matemtico preciso con el cual analizarnos el experimento. T endremos m;s que decir acerca de !a naturale7.a e importancia
de esta regularidad m;b adelante. Por el momento. el lector nccc~ita pensar solamente en lanzamientos repetidos de una moneda regular. Aunque las caras y sellos
apa recen'tn, sucesivamente. de una manera casi arbitraria, es bien conocido el
hech o emprico de que. despus de un gran nmero de lanzamientos. la proporcin
de caras y sellos ser:'t aproximadamente igual.
dcscntos anteriormente sau~faccn
la ltima camctenstica mencconada
solamente ~e puede verificar por experimentacin: deJaremos a la intuicin del
lector creer que si el experimento se repitiese un gran nmero de veces la regularidad
mencionada Sl!ra evidente. Por eJemplo. si se probase un nmero de bombillas del
mismo fabricante. po~cblemente el nmero de bomb1llas quemadas en m~ de 100
bor~. dcgamos, podra ser predicha con bastante exactitud). Ntese que el experimento E 1 tiene la peculiaridad de que slo es posible un resultado. En general
tales experimentos no sern de intcn!s, por el hecho de que no sabemos qu resultado particular ocurrin't cuando se realice un experrmcn.o y qu lo hace interesante
para nosotros.
Debe notarsc que todos los

experimento~

esta~ caractersticas generales. (Naturalmente.

Ob,ermfin : al descnbtr tos dvcr,os expenmentos. hemos especificado no slo el pro-

cedimiento quu se realiz:r smo que tambin lo que eswmos interesados en ob~ervar (ver, por
ejemplo, lu diferencia CniJc E2 y E, mencionados previamente). Este es un punto muy unporlanre al cual no~ refenremos ms adclanre cuando discutamos las variable> aleatoria' Por
el momento. obsenemos 'Implemente que, como una con...:cuencia de un solo procedimiento expenmcntal o ta ocurrencia de un solo fenmeno. se pudieron c-.Jk'Uiar l'ario> valor~-s
numricos diferentes. Por CJcmplo. si se escoge una per;ona cn1re un gran grupo de personas
(y la eleccin propiamente dicha se hace segn el procedimiento experimental indicado previamente). podramos cst:rr rnteresados en la altura. peso, ingreso anual, nmero de nio,, cte..
de la per~ona. Naturalmente. en la mayora de los caso' sabemos. antes de ~-omenzar nuc,lro
cxpcnmcnco. Ja, caraclcri~ltca, numnca' qu.: nos interesan.

1.4

Con cada cxperimt.!nto

s,

p,.2,J,4.5.6}.

S 1 : (O. l. 2, 3, 4}.

.
.
a en donde cada
'Todas las sucesiones posibles de la forma a.,.uz,aJ. 4.
}
.'i ' :
0 S se n si aparece cara 0 sello en el i-scmo lanzamcento
-'
.....
donde N es el nmero mximo que pudo ser productdo
1d
en 24 horas.
'i; , {0, 1, 2, ... M}, en donde M es el nmero de remaches insta a os.
,.,, . j tjt ~ 0}.
1

~~O, 1~2

~}.en

' {3,4,5.6. 7,8,9, 10}.


~.

{10. 11, 12}.

,:.,;

{v v1 v lv v v, nmeros reales }.
{IJ~.. : . : ,;.,{~O, i = 1,2-; .... . n}.

,\ 11

{SIS

'
s,,

~O).

{esfera negra}.
1
1 s importante de los que aqu consideramos.
Este espac1o muestra es e m

1 cardad
Debemos suponer prcticamente que la tc~~ratura en ccel rta od . .' , s
va
ores,d 1de
gamo
especifica nunca puede su b .cr o baja r con relac1on .a .ccertos
1
"bTd
que
M m Fuera de esta restriccin, debemos admitir a pose 1 a.
cualquier
con determinadas caractersticas..
el rfico no tenga saltos (esto es, representar una f~nclon contmua .
Ad!ms el grfico tendr ciertas caractersticas de suavcdad que
resumirse matemticamente al decir que el grfico represen!~ una ~~: oc~
diferenciable. As podemos enunciar finalmente que el espacco mues

apa~e~a

1;

del tipo que consideramos. definimos el

e.\pucio mue.,tra/ como el conJunto de todo~ los resultado~ posible~ de r..


Usualmente designamos este conJunto como S. (En nuestro contexto. S
representa el conJunto univcr~al descrilo previamente).

Consideremos cada uno de los experimentos anteriores y describamos el espacio


muestra! de cada uno. El espacio muestra! S; se refenr: al experimento E,.

~rfico

PosJble~ent~
ruc~~n

lflf una funcin difcrenciable, que satisface m .::;; /(t) ::;;

M . para todo t}.

,,,,.. {(x,y)jm .::;; x::;; Y.::;; M}. Es decir. S,4 consta ~e todos los puntos que cstan
sobre y en un tringulo en el plano bi-dlmensconal x, y.

ti n este libro no nos preocuparemos por los espacios mues, rales de la copemprolejpac
d~:
.
b
1 1 espac1os muestra es aparecen.

~:c~~~~i~a ;nn;~~it~~n ;~e~Kt~~a: :s avanzadas que las que presuponemos.)


A fin de describir un espacio muestra! asociado con un experimento, ~~~m~~

tener una idea muy clara d e lo que mcdi.mos u observamos;i:~:tt~n~~ ~=z ~~a~el
h,blar de un espacio muestra! asociado con. un ex pe
S
S
1 A ' te repecto obsrvese la dcferencca entre 2 Y J
.
el resultado de un experimento no
ser:n
Por eJemplo en E3 cada resu ltado es una sucesin de caras Y ~e os. n f9 Y .' o
l'Hda resultado
consiste en un vector, meen
t ras
, que en E J J conSiste en una unc1 n.

~p~~te~u:~:in q~:

El CSJlllcio muestra!
Definicin.

1 1 ...., ..... '"""'''"'

necesi:~

;m~o.

Ser importante discutir de nuevo el mmero de resultadosfid~ un .e~ga~~ :~::


'bTd d
1espacio muestra! puede ser 111cto, m 1111
Ira l. Surgen. tres pose ' J a, cb~: e R fi;indonos a los ejemplos anteriores notemos
ruble o mfm rto no numera e. e
bl
S S S
, S 2 S J, S4 S s, S 7 y S 12 son finitos, Ss es infinito numera e, y 6 9 O
4!UCSs,
.lJ h S 13, S 14 son infinitos no numerables.

10

lntroduccia la probabilidad

I .S

A e~t~ altura po~ra ~er til comentar la diferencia entre un espacio muestra!
matemaucamente Idealizado y uno realizable experimentalmente. Para este
pr?psito, consideremos el experimento E 6 y su espacio muestra! asociado S 6 . Es
ev1dente que cuando anotamos el tiempo total t durante el cual funciona una
bombllla, somos vctimas de la precisin de nuestros instrumentos de medida.
Supo~gamos q_ue tenemos un instrumento que es capaz de anotar el tiempo con
dos cifras dectmales, por eJemplo, 16,43 horas. Con esta restriccin impuesta
nuestr~ espac1o mu~stral llega a se~ infinito nu~1erable : {0,0; 0,01; 0,02, .. .}.
Aun mas, es muy realista suponer que nmguna bomb11la puede durar posiblemente
ms d~ H horas, donde H_podra ser un nmero muy grande. As, parece que si
som~s completamente realistas en la descripcin de este espacio muestra l. estamos
considerando un espacio muestra! finito: {0,0; 0,01; 0,02, ... , H}. El nmero total
del resultado sera (H/0,01) + 1, que sera un nmero muy grande aun si H es
moderadamente grande, por ejemplo. H = 100. Resultara matemticamente
m~ simple y conveniente, suponer que todos los valores de 1 ~ Oson resultados
pOSibles Y por tanto considerare! espacio muestra! S 6 como se defini originalmente.
1.5 Sucesos

. Otra nocin b~sica es el concepto de un suceso. Un suceso A (respecto a un espaCIO muestra! part1cular S asociado con un experimento e) es simplemente un
COnJUnto ~e resultados posibles. En la terminologa de conjuntos, un suceso es
u_n ~bconJunto del espacio muestra! S. En vista de nuestra discusin previa, esto
s1gmfica q~e ~ m1smo es un suceso y tambin lo es el conjunto vaco~- Cualquier
resultado md1v1dual puede tambin ser considerado como un suceso.
Los siguientes son ejemplos de sucesos. Otra vez, nos referimos a los experi~entos anotados antenormente: A 1 se referir a un suceso asociado con el expcnmento E1
A,: Un nmer~ par ocurre; esto es, A 1 = {2, 4, 6}.
A2: {2}; es dec1r, ocurren dos caras.
A3: {CCCC, CCCS, CCSe, CSCC, SeCC}: es decir, salen ms caras que sellos.
A4: {O}; es decir, todos los artculos fueron no defectuosos.
A,: {3,4, ... , M}; es decir, ms de dos remaches fueron defectuosos.
A6: {tlt < 3}; es decir, la bombilla se quema en menos de tres horas.
A t4: {(x, Y)IY = x + 20}; es decir, el mx 1mo es 20~ mayor que el mnimo.

Cuando el. espacio muestra! S es finito o infinito numerable, rodo subconjunto


se puede considerar como un suceso. [Es un eJercicio fcil de verificar. y que haremos en breve, ~i S ti~ne n elementos, hay exactamente 2" subconJuntos (sucesos).]
Sm embarg?, SI S es mfimto no numerable. aparece una dificultad terica. Resulta
que cualqu1er subconJunto concebible no se puede considerar como un suceso.
Por .r~zones que escapan al nivel de esta presentacin, ciertos subconjuntos no
adm1s1bles>l deben ser excluidos. Afortunadamente tales conjuntos no admisibles

Sllt~

1~

11

upunccn realmente en las aplicaciones y. por tanto. no nos interesarn aqu.


l n In que s1gue ~e supondr tcitamente que cada vez que mencionemos un suceso

110

la clase que nos est permitido considerar.


Podemos usar ahora los dijversos mtodos para combinar conJuntos (es decir,
"'~'lh) y obtener los nuevos conjuntos (es decir. sucesos) que presentamos al

l'l 1 lh:

~lllll iCIILO.

(a)
u~

Si A y 8 son sucesos. A

Bes el suceso que ocurre si y slo si A o B (o ambos)

u tren

tb) S i A y B son sucesos, A r. Bes el suceso que ocurre si y slo si A y B ocurren.


Si A es un suceso, A es el suceso que ocurre si y slo si A no ocurre.
Id) S1 A 1 , A. es cualqUJer colecc1n finita de sucesos. entonces vi 1 A,
,.~ el suceso que ocurre si y slo si al menos unq de los sucesos A1 ocurre.
(e) Si A" ... A. es cualquier coleccin finita de sucesos, entonces f"'l7. , A
~' el suceso que ocurre si y slo si todos los sucesos A ocurren.
(f) Si A 1 , , A. es cualquier coleccin infinita (numerable) de sucesos,
,ntonccs vf. 1 A 1 es el suceso que ocurre si y slo si a lo menos uno de los sucesos
t,ocurre.
(g) Si A " ... A., ... es cualquier coleccin infinita (numerable) de sucesos.
.:ntonccs f"'l'{' 1 A 1 es el suceso que ocurre si y slo si wdos los sucesos A, ocurren.
(h} Supngase que S representa el espacio muestra! asociado con un experimento e y realiza t dos veces. Entonces S x S se puede utilizar para representar
todos los resultados de esas dos repeticiones. Es decir ( s,, s 2) e S x S significa
11ue ,, result cuando se realiz t la primera vez y Sz cuando r. se realiz la setunda vez.
(i) Evidentemente. ol ejemplo h se puede generalizar. Consideremos 11 repeticJOncsdeuncxperimentoecuyoespaciomuestralesS.EntoncesS x S x x S=
:ts 1 .\ 2 . . . . . s.}.s1 e S, i = l. ... , n} representa el conjunto de todos los resultados
posibles cuando e se realiza 11 veces. En cierto sentido, S x S x x S es un
espacio muestra! en s mismo, o sea el espacio muestra! asociado con n repeticiones
de e.
(e)

Defmicin. Se dice que dos sucesos, A y B, son mut11amen1e excluyentes si no


pueden ocurrir JUntos. Expresamos esto escribiendo A f"'l 8 = ~; es decir.
la interseccin de A y B es el conJunto vaco.
E.IF.MPLO 1.4. Se prueba un artefacto electrnico y se anota el tiempo total de
uso. d1gamos t. Supongamos {tlt 2: 0}.
Sean A, B. y e tres sucesos definidos como sigue:

A
Entonces

= {tjt <

100};

= ltlt S200};

e=

C = {tjt > ISO}.

A f"'l B = {jSOit ~ lOO };


B r.e=(ti JSO <t$200}; A f"'IC= ~;
{rlr < 100 o r > ISO}:
A = {rj1 2: 100};
C = {tlt ~ ISO}.

Av 8

BvC ={tl t~SO};

A u

B = (t!SO S t ~ 200};

12

lntnJducrln u la probabilidad

1.1>

Como se discuti en la seccin anterior. una de las caracterstica~ bs1cas del


concepto de experimentO>> es que no sabemos qu resultado particular se obtendr
a_l realizar el experime~to: En otras palabra\, si A es un suceso asociado con un expenmento, no podemos md1car con certeza que A ocurrir o no. Por lo tanto. llega a ser
muy 1mportan~e _t~atar de asociar un nmero con el suceso A que med1r. de alguna
manera. la pos1b1lldad de que el suceso A ocurra. Esta tarea nos conduce a la teora
de probabilidades.

1.6 Frecuencia relativa


~ara motivar el enfoque adoptado como solucin del problema anll:rior.
cons1~eremos e l procedimiento siguiente. Supngase que repetimos 11 veces el
cxpenmento r. y sean A y B dos sucesos a~ociados con e. Sean 11,. y 11 8 el numero
respectivo de veces que el suceso A y el ~ucc~o 8 ocurrieron en las 11 repeticiones.
Definicin. J,. = nA}11 se llama la .frt'cUellcia relatir>a del suceso A en las 11
repeticiones de e. La frecuencia relativa,. tiene las siguientes propiedades
unportantes. que son verificable~ f;cllmente.

o S.j,. S. l.
(2) f,. = 1 si y slo si A ocurre coda Pez en las n repeticiones.
(1)

.f,. = Osi y slo si A mmca ocurre en las n repet iciones.


(4) Si A Y ~son dos suces_os que se excluyen mutuamente y si .f~uu es la
1 1
frecuencia relallva asociada al suceso A u 8 entonces j u8
.
~
;l
- ' ' . "
(5) ,r;.. ~~sada en las 11 n:pt:ticiones del experimento y considerada p;1r;1 U11.1
(3)

func1on de n. converge>> en cierto sentido probabilstico a P( 1)


cuando 11 - 'X..

Obs.-rcacin: la propiedad (5) anterior obvoameme est indicada de una manera va:a
en e> te momento. Slo posteriormente (Sce<:1n t 2.2) podremos prec1sar m;h esta 1dca. Por
ahora mdiquemos simplemente que la Prop1edud (5) encierra la notacin bastante mtu111va
de que la frecuencia relativa basada en un nmero crec1ente de observaciones tiende a c~
tabilizarsc en la proximidad de un valor delinit1vo. Esto 110 es lo mismo que el conccp;o
~or~1entc d_c convergencia que se encuentra en otra parte en matemticas. De hecho. como se
md1~6. aqu1, esta no es del lodo una conclusin matcmtica. sino simplemente una rea lidad
emp1nc;1.
la mayor parte de nosotros intuitivamente estamos concientes de este fenmeno de eslabil!zacin a~nquc puede. ser que nunca lo hayamos verificado. Hacerlo requiere una
~nlldad cons1dera_ble de ll~mpo y pac1cncia. ya que requiere un gran nmero de rcpcllcloncs de un cxpenmento. Sm embargo. alguna' VL'CCS podemos ser observadores mocelllc>
de este fenmeno como Jo Ilustra el sigu1ente CJCmplo.
EJEMPLO 1.5. Supngase que estamos parados en una acera y nos fiJamos
en dos losas de cemento adyacentes. Imaginemos que empieza a llover de tal
manera que en realidad podemos distinguir unas gotas de otras y les seguimos

,1 p 1su para a\'cnguur s1 caen en una losa o e~1 otra Co~tmu~mos observ_a~d~
11 gnt.ts llllliv 1duales y anotamos su punto de 1mpacto S1mboh~ando la 1-es1ma
11.,,,1 por \,.en donde X, - 1 si la gota cae en una losa y O SI cae en la ot~~-;
l"'tlnanl{ls observar una succs1n tal como J. J. O. l. O. O. O. 1: O. O. l. Ahora ~t.
d, 1rn que no podemos predecir en donde: .:uera la gotu. pamcular. (Nuestro ~x1,..nmcnto con~ 1 ste en una especie de situacin metcorolo~1~a que causa la ~a1~a
d, ,1, gotas de lluvia.) Si calculamos '-~ frecuenc1a rclat~va del suces~ A -:- 1_1a
t 1 , 3 c en la losa 111, entonces la suces1on anterior de resultados da ongen a las
1,,.:11,11ck1s relativa~ siguientcs (con ba>o.: en la ob~crvacin de l. 2. 3: gotas):
1 .1 -~ ' * 4 4 (~
Esos valo1.:~ muestran un grado cons1derable de
1 1 \t4'ib'3<Jt0
t
.
.
, , 1 1 111 ~: 1 6n. especialmente al comienzo. lntuitivame~te es claro que _s1 se co~tm~a.1 1 111 cklm1dam.:ntc el expcnmcnto antcnnr. c~a~ lrccucnc1:ts rclat1vas se establl_l1rmn prximas al valor ~- Porque tencmo~ toda la nt/t~ pa~a creer que despues
de 1uc haya trascurndo cierto tiempo las dos losa'> cstanan 1gual~ente moJa~~s.
hta prop1cdad de estabilidad de la frecuenc1a relauva es aun. una noc1on
h.1stantc intuitiva y slo podremos precisarla matemaucamcnte mas tar~e. Lo
unrortante de esta prop1cdad es que si se realiza un cxpcnmcnto un gran numero
.te veces. la frecuencia relativa con que ocurre un suce~o 1 uende a vana_r menos
1 111 cnos cuando el nmero de repeticiones aumenta. A e~ta caractensuca se le
k , 1gna como regularidad estadstica.
. . .
Tambin hemos s1do algo imprecisos en nue~tra dcf1111C10n de experimento.
1 ,.,1ctamentc. ,cundo un procedimiento o mecant~mo e~ un cxpenmen to en
1111 ~stra opinin. succptiblc de ser estudiado matemtic;uncntc mcd1antc un mo
.tdu no determinstico'! Previamente indicamos que debe ser pos1ble efc~tuar
11 n experimento repetidamente sin cambiar las mism;1s_ cond1c1onl:s ~cnctalc~.
p 1,demos agregar ahora otro requisito. Cuando el cxpcnmento se _realiza rer_cu.t.1mente debe presentar la regularidad c~tadi>tica a que nos rdenmos antenor
mente. Mils adelante d1scuuremos un teorema U11mado la ley de los grandes
numerosl que muestra que la regularidad e~tadsuca es de hecho una consecuen''" de la pruncra condic16n : la repeticin.

1.7

Nociones bsicas de probabilidad

Volvamos ahora al problema propuesto anteriormente: asignar un nmero


,1 cada suceso A que medir la posibilidad de que A ocum1 cua~do el expe_mncn1<1 se realiza. Un enfoque posible podra ser el siguiente: repet1r el expen.mcnto
un gran nmero de veces. calcular la frecm:nci<t n:lativa _/A. y usar cst~ num~~o.
( liando recordamos las propiedades;.. es claro que este numero dnuna mdtcac1on
muy dcfin1da de qu posibilidad existe de 4ue A ocurra. A~n m;is: como sabe~os
, uc el experimento ,e repite ms y mils Yece~. la frecuenc1a rclall\a se ~stab1hza
1
<<:rCa de algun nmero. digamos p. Sin embargo hay dos obec1ones senas a e-.te
nfoque. (al No cst;i claro cmo de grande debe ser 11 ante; de que conozcamos
d numero. ,1000'! r.2000? 10.000'1 (b) Una vet que se ha descnto completamente
el experimento y se ha especificado el suceso A. el nmero que buscamos no debe

14

lntroducdn a la probabilidad

1.7

depender del experimentador o de una racha de suerte en particular con la que l


experimenta. (Por ejemplo, es posible que con una moneda perfectamente balanceada que se lanz 10 veces, resulten 9 caras y 1 sello. La frecuencia relativa del
suceso A ={salen caras} es as igual a -fu. Aunque es posible que en los 10 lanzamientos siguientes el modelo de caras y sellos pueda estar invertido.) Lo que
queremos es un medio de obtener tal nmero sin recurrir a la experimentacin.
Naturalmente, para que el nmero estipulado sea significativo, cualqui er experimento debera dar una frecuencia relativa "cercana" a l valor estipulado, en especial
si el nmero de repeticiones en las cuales se calcul la frecuencia relativa es muy
grande. Procederemos formalmente como sigue.

Noci~ b'.-k"' de probabilidad

t .7

t5

Teorema 1.1. Si ~ es e l conjunto vaco. entonces P(~) = O.

Dl'mostracin: podemos escribir, para cualquier suceso A~ A,= A u~- Pu~s~


, c A y 0 son mutuamente excluyentes. se deduce d~. la Propteddd 3 que P(A _ ~
111
1 1 u~~~ = P(A) + P(\:1). A partir de esto la conclus10n del teorema es mmed1ata.
1

de ver mas
tar de que e 1 reclproco. del teoreman anterior
OIISIrvaci11 : tendremos ocas16n
e\
verdadero.
Esto
es.
si
ptA)
=
O,
en
general
no podemos concluir que A = ": porque
1111
l~o~y \ltuaciones en que astgnamos probabilidad cero a un suceso que puedl' ocurnr.

Teorema 1.2. Si A es el suceso complementario de A, entonces


Defmicin. Sea e un experimento. Sea S un espacio muestra! asociado con
e. Con cada suceso A asociamos un nmero real, designado por P(A)
y llamado la probabilidad de que A satisfaga las siguientes propiedades.
(1) O~ P(A) ~ l.
(2) P(S) = l.
(1.3)
(3) Si A y B son sucesos que se excluyen mutuamente, P(A u B) = P(A)
+ P(B).
-(4) Si A~. A 2 , , A., ... son sucesos que se excluyen mutuamente de
par en par, entonces

P(ur;. 1 A1)

11

P(A) = 1 - P{A)

podemos escribir S
Demosrracron:
~ ' obtenemos 1 = P(A) + P(A).

(1.4)

A v A y' usando las Propiedades 2

"t"l
rquc indica que cada vez que deseamos
Obwrvaci11 : este es un resultad o muy u 1 po
.
d
r susptA) podemos calcular P(A) en su lugar y obtener el resultado desea o po
~;;,~~it~. Veremos despus que en muchos problemas es ms rcil calcular P(A) que P(A).

1 1

Teorema 1.3. Si A y B son do~ sucesos cualesquiera, entonces


P(A u B) = P(A)

= P(A 1) + P(A 2) + + P(A.) +

+ P(8)

- P(A) n 8).

(1.5)

Observemos que de la Propiedad 3 se dedttce de inmediato que para cualquier


finito,

La Propiedad 4 no sigue; sin embargo, cuando consideremos el espacio muestra!


idealizado, esta condicin ser necesaria y por tanto se incluye aqu.
La eleccin de la lista de propiedades de las probabi)jdades est obviamente
motivada por las caractersticas correspondientes de las frecuencias relativas.
La propiedad anteriormente mencionada como regularidad estadstica se ligar
con esta definicin de probabilidad ms tarde. Por el momento indicamos slo
que demostraremos que los valores de P(A) y f,. estn prximos uno al otro
(en cierto sentido), si f,. se basa en un gran nmero de repeticiones. Este hecho
es el que justifica el empleo de P(A) para medir la probabilidad de que A ocurra.
Por el momento no sabemos como calcular P(A). Solamente hemos anotado
algunas propiedades generales que posee P(A). El lector tendr que tener paciencia un poco ms (basta el prximo captulo) antes de que aprenda como
calcular P(A). Antes de volver a este tema indiquemos y probemos varas consecuencias relativas a P(A) que se deducen de las condiciones, y que no dependen
de como calculamos P(A) en realidad.

fiOIJKA

1.2

Demostracin: la idea de esta demostracin es descomponer A u 8 Y B ~n


sucesos que se excluyen mutuamente y luego aplicar la Proptcdad 3. (Ver el dtagrama de Venn en la figura 1.2.)
As escribimos
A u 8 = A u (B n A),

8 = (A n B) u (8 n A).

lotnNiuttin

lit

la prubobilidod

1.11

IIC

Por lo tanto
P(A u 8)
P(B)

= P(A) +
=

P(A

f"l

P(B

8)

f"l

A).

+ P(B f"l A).

Sustrayendo la segunda ecuacin de la primera


P(A u 8) - P(B)

= P(A) -

P(A

f"l

B)

Y por tanto se obtiene el resultado.

. Observacin: este teorema representa una exrensi6n obvia de )a Propiedad 3


r
A n 8 - \l, obtenemos de lo anlerior el enunciado de la Propiedad 3.
' po que

81

Teorema 1.4.
P(A

Si A. B. Y e son tres sucesos cualesquiera entonces

u Bu C) = P(A) + P(B) + P(C) - P(A


- P(B f"l C)

f"l

B) _ P(A

f"l

C)

+ P(A f"l B f"l e).

(1.6)

Demost~acin : la demostracin consiste en escribir A u 8 u

e Y aplicar el

e como A u 8
resultado del teorema anterior. Dejamos Jos detalles al( lecto/

A Observackitln: una cxlensin. obvta del teorema antertor se sugiere por si misma. Sean
,, ... , A, sucesos cualesqutera. Entonces
P(A, u A, u .. u At) -

:[ P(A 1)

P(A,n A,)

I<J 2

1 1

~ r<J<r
..E ) P(A,nA1 n A,} +"+(- I)' 'P(A,nA,nnA.).
"
(l. 7)

Esre resultado se puede C$lableccr fcilmente por induccin matemrica.

Teorema 1.5.

Si A e B, entonces P(A) ~ P(B).

tua~::~~stracn: .pod~mos descompon~r

8 eo dos sucesos que se excluyen ~u


~ P(A) como sgue. B =~u (8 f"l A). Por lo tanto P(B) = P(A) + P(B f"l A)
, puesto que P(B f"l A) ~ O segn la Propiedad 1.

cad o:servacin: este resultado es intuirivamentc atractivo. Porque dice que si 8 dtbt ocurrir
a ez que A ocurre, enlonces 8 es al menos lan probable como A.

1.8

Varias observaciones

(a) Cabe aqu una advertencia. De la discusin previa se pod ('


correctamente)
d
na mtenr m
.
.
q~e cuan o e 1egmos un modelo probabilstico ara la descri
CJn de algun fcnomeno observable descartamos todas las relacio~es determins~-

c. L~. NuJu puede estar ms lejos de la verdad. Mantenemos todava el hecho de


IJIIc por eJemplo, la ley de Ohm 1 = 1::/ R es vitlida en ciertas circunstancias. La
,tLJcrenciu ~cr de mterpretacin. En vez de decir que la relacin anterior deterIIILIIU 1 para E y R dados, reconoceremos que E (y/o) R pueden variar de una
manen1 a leatoria e imprecisa y que por lo tanto 1 variar tambin de una ma11 r:1 aleatoria. Para E y R dados. todava 1 se determina por la relacin anterior.
1 o Importante es que cuando adoptamos un modelo probabilstico para la des''I))CJn de un circuito, consideraremos la posibilidad que E y R pueden variar
dt una manera imprecisa que slo se puede describir probabilsticamentc. As.
ruu:qo que ser de importancia considerar slo la probabi/idQd de que E y R
tomen ciertos valores. llega a ser significativo hablar slo de la probabilidad
1k que 1 tome ciertos valores.
(b) La elecci n entre adoptar un modelo detcrministico o probabilstico puede
r dLiicil de hacer algunas veces. Puede depender de lo intrincado de nuestra
ll'l.;nica de medida y la precisin asociada. Por ejemplo. si las medidas precisas
on tan diliciles de obtener que las lecturas repetidas de la misma cantidad prohllcan resultados variables, un modelo probabilstico es indudablemente ms
11kcuado para describir la situacin.
(e) Sealaremos brevemente que bajo ciertas circunstancias, estamos en pocn de hacer hiptesis adicionales acerca de la conducta probabilstica de
nucslros resultados experimentales que nos conducirn a un mtodo para evalnnr las probabilidades bsicas. La eleccin de esas hiptesis adicionales puede
,.,tur basada en consideraciones fisicas del experimento (ciertas propiedades de
,ametra por eJemplo). evidencia emprica. o en algunos casos, simplemente un
rucio personal basado en una experiencia previa con una situacin similar. La
lrecuencia re lativa puede JUgar un papel importante en nuestra decisin acerca
de una asignacin numrica de P(A). Sin embargo. es importante darse cuenta
de que cualquier suposicin que hagamos acerca de P(A) debe ser tal que se satL~fagan los axiomas del ( 1) al (4) de la Definicin (1.3).
(d) En el transcurso del desarrollo de las ideas bsicas de la teora de prohabilidades. haremos algunas referencias a ciertas aoalogias de la mecnica. La
rrimera de ellas puede ser apropiada aqu. En mecnica. asignamos la masa a
l'ada cuerpo 8, digamos m(B). Luego hacemos varios clculos y llegamos <1 diversas conclusiones acerca de la conducta de 8 y su relacin con otros cuerpos.
muchos de los cuales implican su masa m(B). El hecho de que en realidad tengamos que recurrir a alguna aproximacin para obtener m(B) para un cuerpo
especfico no disminuye la util idad de l concepto de masa. De igual manera, establecemos para cada suceso A. asociado con el espacio muestra) de un experimento. un nmero P(A) llamado la probabilidad de A y que satisface los axiomas
bsicos. En realidad a l calcular P(A) para un suceso especfico, tenemos que
hacer hiptesis adicionales o bien obtener una aproximacin basada en la evidencia emprica.
(e) E~ muy importante darnos cuenta de que hemos postulado la existencia
de l nmero P(A) y que hemos postulado ciertas propiedades que este nmero
posee. La validez de las diversas consecuencias (teoremas) derivadas de esos pos-

t8

tntrtlduttln a t probabilidad

tulados de ninguna manera depende de cmo obtenemos un valor numenco


para P(A). Es vital que este punto est claro. Por ejemplo, hemos supuesto que
P(A v 8) = P(A) + P(B). A fin de usar esta relacin para la etalllucin actual
de P(A v 8). debemos conocer el valor de P(A ) y de P(B). Discutiremos brevemente como, bajo ciertas circunstancias, debemos hacer suposiciones adicionales que
conduzcan a un mtodo para evaluar esas probabilidades. Si estas (u otras) suposiciones no estn garantizadas, debemos recurrir a la experimentacin para
aproximar el valor de P(A) de los datos reales. La frecuencia relativa fA desempear un papel importante en esto, y de hecho, se usar como una aproximacin de P(A).
Sin embargo, es importante tener presente que fA y P(A ) no son lo mismo.
que simplemente usamos fA como aproximacin de P(A), y que cada vez que
nos referimos a P(A) nos estamos refiriendo al valor postulado. Si identificamos
fA con P(A) debemos verificar que simplemente sustituimos un valor postulado
por uno aproximado obtenido experimentalmente. Qu tan buena o mala pueda
ser esta aproximacin, de ninguna manera influye en la estructura lgica de
nuestro modelo. Aunque el fenmeno que pretende representar el modelo se
consider a l construirlo, nos hemos separado del fenmeno mismo (temporalmente al menos), cuando entramos en el dominio del modelo.

1.1>. Los articulos provemcntc<> de una lmca de produccin ...: c~as1f1can dclcctuoso~ ~~~
.1 r
(N) Se obscrv-1n los artculos y...: anota su condcon. Este proceso seco

11 110

uCteCtUOSOS

'

'

,:','.:,',
v~l

~rticulos,

er't'icadO
ayan v 1 .
cualesquiera que ocurra primero. Describir un cspaco mucstral para este

hasta que se produzca n dos artculos defectuosos con~ecut vos o se


1 11
r mento.

N bomb111as tiene t1r < N) umdades con lilamentos rotos. E.truo


1 7 a) U na caja con
'b'
t 1
,. ptllcban una por una, hasta que se encuentra una defectuosa. Dcscn 1r un espacto mues ra

lMiil este experimento.


.
(b) Supngase que las bombillas anteriores se prueban una p<>r una: hasta que se prueban
, las defectuosas. Descnbr el espacio mucstral para este cxpenmento.
1

""1.

1 8 Considrense cuatro objetos. a. b. 1 y J Supngase que el ordttt en el cual se anotan


, "'' ~betos representa el resultado de un cxpcrimento .. Sean A y 8 los suce;,os defi01dos

A 1 ,, est en el nrimcr
lugar ' B {b esta en el segundo lugar}.
UIIlO Sigue:
,.
' '
'
(a) Anote todos los elemento> del espacio muestra l.
(b) Anote todos los elementos de los sucews A ,.., B Y A u 8

"
5 10 15
50 libra~. Supo' ngase que al
1 9 Un lote conuene aruculos que pc~n .
.
~ ~ dos artculos de cada peso se encuentran all. Se ehgen dos anculo~ del l~te. lden:
lllltuese por X el peso del primer artculo elegido y por Y el peso. del segun~.o damculloia~~

(X . Y) representa un solo resultado


el par d e numcros
. . del cxpcnmcnto. Us.1n o e P
\ ) mdiquese el espacio muestra! y los sucesos s1guentes

111 11 5

= Y}
(b) {Y > X}
.
(e) El segundo articulo pesa el doble del pnmero.
(d) El primer artculo pesa 1O hbras menos que el segundo.
(e) El promedio de peso de los dos articulo' es menos de 30 hbras.

(a) {X

PROBLEMAS
1.1. Supngase que el COnjunto un iver~ l consta de los enteros positivos de 1 a 10.
Sean A - {2. 3. 4}, B = {3. 4, 5}. y e - {5, 6, 7}. Anote los elementos de los sguentel> conJUntos.
(a) A r-. 8
(b) A u 8
(e) A r-. 8
(d) A n (8 r-. C)
(e) A r-. (8 u C)

1.2. Supngase que el conjunto universa l U est dado por U


lxiO ~ x s, 2}. Sean
los conjuntos A y B definidos como s1gue: A = lx H < l ~ 11 y 8 - l ~ 1! ~ x < i}. !~
criba los cOnjuntos siguiente~:
(a) A u 8
(b) A u 8
(e) A n 8
(d) A n 8

1.3. Cules de las siguientes relaciones son verdaderas'/


(a) (A u B) r-. (A u C) ~ A u (8 r-. e)
(b) (A u 8 ) -(A n 8) u R
(e) A r-. 8 = A u 8
(d) (A u 8) n e
A n 8 r-. e

(e) (A r-. 8),.., (B,.., C) -

11

(a) Describa el espacio muestra!.


(b) Descnba y d 1buje los "guentes sucesos en el plano X Y
(i) El circuito funciona durante una hora o menos.
.
(ii) El circUitO funciona en el tiempo z en donde z es algn intervalo durante el penodo dado de 24 horas.
f

d
del
(iii) El circuito empieza a funcionar antes del tiem!>C? r, Y de;a de .unconar espu ~
tiempo 12 (en donde otra vez 11 < r1 son dos mtervi!IOs de uempo durante e pe-

1.4. Supngase que el cor ' mto universal consta de todos los puntos (x , y) cuyas coordenadas son enteros y quedan dentro o sobre el contorno del cuadrado acotado por las
rectas x = O, y = O, x - 6, y = 6. Indique los elementos de los COnjuntos siguientes.
(a) A ,. {(x, y) 1x 2 + y 2 S, 6}
(b) 8 = {(x, y) 1y S, x1 }
(e) e {(x, y) 1x S y 2 }
(d) 8 n e
(e) (8 u A) n C
1.5. Use los diagramas de Venn para establecer las Siguientes relac10ncs.
(a) A e: 8 y 8 e e implican que A e C
(b) A e 8 implica que A
(e) A e: B implica que 'B e: A
(d) A e 8 implica que A u e e: 8 u
(e) A n 8 = \) y e e: A implica que 8 n e = 11

ia

::0~;
1 lO. En un penodo de 24 horas. en un momento X. un nterruptor ~ pone en
tn "encenddo" Postenormcnte, en un momento y (todav.a en el m"mo per od .d
'
1
6 "pagado" Supngase que X y Y se m en

'4 horas) el mterruptor se pone en a posc n 3


.
d d 1 _
en horas en el eJe de tiempo con el com ienzo del penodo como ongcn. El resu1ta o e ex
p:nmcnto consta del par de nmeros (X. Y).

=An

rodo cspecilicado)
. .
(v) El ctrcuito funciona el doble de lo que sera mterrumpdo.
l.ll.

Sean A. B. y

e tres sucesos asociados con un cxpenmen to. Exprese las siguientes

proposiciones verbales en notacin de conjunto>.


(a) Al menos uno de los sucesos ocurre.
(b) Exactamente uno de los sucesos ocurre.
(e) Exactamente dos de tos sucesos ocurren.
(d) No ocurren ms de dos sucesos simultncamente.

1.12.

Demuestre el teorema 1.4.

241

louwdncdlm " lo probohllldod

1.13. (a Demostrar que para dos sucesos cua lesquiera, A 1 y A 2 , tenemos P(A 1 u A 2)
S P(A 1)

+ P(A 2).

Fspacios muestrales fmitos

(b) Demuestre que para n sucesos cualesquiera A 1, ... . A. tenemos


P(A 1

u u A.) S P(A t) + + P(A.).

[Consejo: Use una induccin matemtica. El resultado que se indica en (b) se llama desigualdad de Boolc.)

1.14. El teorema 1.3 trata de la probab1hdad de que al menos uno de los sucesos A o
B ocurra. La propos1c1n S1gu1ente trata de la probabilidad de que exactamente uno de los

suce<;os A o B ocurra.
Demo>trar que (P(A n 8) u (8 n A) ~ P(A) + 1'(8) - 2P(A ,.., B}
1.15. Cierto tipo de motor elctnco falla por obstruccin de los COJinetes. por combustin del embobmado o por desgaste de las escobillas. Supngase que la probabilidad de
la obstrucc1n e> el doble de la de combustin, la cual es cuatro veces ms probable que la
inut1li1.acin de la' eseoh1lla~ ,C'ul e.~ la probabilidad de que el fallo sea por cada uno de
eso;. tres mecani;.mos'!

1. 16. Supngase que A y 8 >On sucesos para los cuales P(A) = x, P(8) = y. y P(A ,.., 8)
Expresar cada una de las probabilidades siguientes en trminos de x, y, y z.
(a) P(A u B)

1.1 7.

(b) P(A n 8)

(e) P(A u B)

= z.

(d) P(A n 8)

Supngase que A, 8 , y e son sucesos tales que P(A) = P(B) = P(e) = i. P(A ,.., 8)
P(A ,.., C) - A. Calcular la probabilidad de que al menos uno de los su
8, o e ocurra.

= P(C,.., 8) O, y
ccsos

A,

1.18. Una instalacin consta de dos calderas y un motor. Sea A el suceso de que el motor
est en buenas condiciones, 1mentras que los sucesos 8.(k = 1. 2) son los sucesos de que la

k-esima c:tldera est en buenas cond iciones. El suceso Ces que la in,talac1n pueda luncionar.
Si la instalac1n funciona cada ve que el motor y al menos una caldera 1unc1one. exprese
C y C en func1n de A y de los sucesos JJ,.
1.19. Un mecanismo tiene dos tipos de repuestos, digamos 1 y 11. Suponga que hay
dos del upo 1 y tres dclt1po JI . Defintr los sucesos A t . k = 1, 2, y 8 1, j = 1, 2, 3 como sigue:
A.: la k-sima unidad del t1po 1 esta funcionando correctamente ; 81: la j-sima unidad del
tipo JI est funcionando correctamente. Finalmente e representa el suceso: el mecanismo
funciona. Dado que el mecanismo funciona si al menos una unidad del tipo 1 y dos unidades del tipo JI func1onan, exprese el suceso e en funcin de los A. y los 81.

l. 1 El espac io muestra! finito


1 n este captulo nos ocuparemos slo de los experimentos para los cuales el
,pacio muestra! S consta de un nmero finito de elementos. Es decir, s uponemos
, 1uc S se puede escribir como S = {a,. a 2 , ,a. }. Si nos referimos a los eJemplos
~~~ c~pacios muestrales de la seccin 1.4, observamos que S,. Sz, S3, S4, S$. S,
y S 11 son todos finitos.
/1 fin de caracterizar P(A) en este modelo consideraremos primero el s uceso
que est constituido por un solo resultado, 11amado algunas veces un suceso ele,,.,tal, digamos A
{a 1}. Pr<>cedemos como s igue.
/1 cada uno de los sucesos elementales {ar} asignamos un nmero p,, llamado
lu prob:tbilidad de {a1}, que satisface las condiciones siguientes:
(a) Pr 2:. O.
i = l. 2, k,
(b) P1 + Pz + + P = l.
Puesto que {a1} es un s uceso, estas condiciones d eben cs1ar de acuer~o con
1." postul adas para las probabilidades de sucesos en general, como se h1zo en
,, ecuacin ( 1.3). Es muy seoci11o verificar que es as.
A continuacin, supongamos que un suceso A est cons tituid o por r resultados,
1 r ~ k, digamos

donde j 1.h. ,j, representa cualquier ndice r d e l. 2, ,k. Por lo tanto,


deduce de la ecuacin ( 1.3), Propiedad 4. que
P(A) = PJ. + p), + + Pi,
(2.1)
1'.1ra resumir: la asignacin de probabilidades p1 a cada uno d e los sucesos elementales {a 1}. sujeto a las condiciones anteriores (a) y (b), determina d e un modo
unu:o P(A) para cada uno de los sucesos A e S, en donde P(A) est dad o por
1.1 ecuacin (2.1 ).
A fin de evaluar las Pi se deben hacer algunas suposiciones respecto a los
resultados individuales.

1'11

1 JI MPtO 2. 1. Supongamos que slo son posibles tres resultados en un experimento. digamos a ., a 2 y a 3 . Adems, supongamos que la ocuncncia de a. es dos
veces ms probable que la de a2 , la cual, a su vez, es dos veces ms probable que a3.
21

z.z
4p3

Por tanto. p. = 2p2 y Pz = 2P3 Puesto que p 1 + p 2 + p3 = l. tenemos que


+ 2pJ + P3 = l. lo que finalmente da
P3

2.2

= ~.

P2 = '

Pt = ~.

Resultados igualmente probables

La suposicin que ms comnmente se hace para espacios muestrales finitos


es que todos los resu ltados son igualmente probables. De ninguna manera esta
suposicin pu~dc darse como un hecho; debe justifcarse cuidadosamente. Hay
muchos expenmentos para los cuales se garantiza tal suposicin, pero tambin
hay muchas situaciones experimentales en las cuales sera un error hacer tal suposicin. Por ejemplo, sera muy poco realista suponer que es tan probable no
recibir llamadas telefnjcas en una central entre la 1 a.m. y 2 a.m. como entre las
5 p.m. y las 6 p.m.
Si los k resultados son igualmente probables, se deduce que cada p1 = 1/k.
Porque la condicin p1 + + Pt = 1 llega a ser kp = 1 para todo i. De esto
se deduce que para cualquier suceso A que conste de r resultados, tenemos
P(A) = r/k.

Este mtodo de evaluar P(A) a menu<J o se indica como sigue:


P(A) = nme~o de maneras en que e puede ocurrir favorable a A .

numero total de maneras en que t puede ocurrir


Es Importante comprender que la expresin anterior de P(A) es slo una consec~encla de la suposicin de que todo:. los resultados son igualmente probable!>
Y solo es aplicable cuando se satisface esta suposicin. Indudablemente no sirve
como una definicin general de probabilidad.
2.2. Se lanza un dado y se supone que todos los resultados son
igualmente probables. El suceso A ocurre si y slo si aparece un nmero mayor
que 4. Esto es, A ={5,6}. Por lo tanto P(A) = / +! = i.
EJeMPLO

EJt:MPLO 2.3. Se lanza una moneda normal. Sea A el suceso: {aparece una
cara}. Para evaluar P(A ) un anlisis del problema podra ser de la manera siguiente.
El es~acio muestra! es S = {0, l. 2}. en donde cada uno de Jos resultados representa
un numero de caras que ocurren. Por lo tanto P(A) = j! Este anlisis es obviamente incorrecto, puesto que en el espacio muestra! considerado anteriormente.
todos los resultados no son igualmente probables. A fin de aplicar el mtodo
anterior deberamos considerar en su lugar, el espacio muestra! S' = {CC, CS.
SC, SS}. En este espacio muestra! todos lo~ resultados son igualmente probables y.
por lo tanto. obtenemos para la solucin correcta a nuestro problema P(A) = i = !.

p 1 tdnamo~ emplear corrcclllmcntc el espacio mueMral S como sigue: los resultados

> 2 ~on 1gualmcntc posibles, mientras que el resultado 1 es probablemente el


lllhlc de cada uno de los otros. Por lo tanto. P(A) = ~. lo cual concuerda con
l,t re\pucsta anterior.

(1

1 stc ejemplo ilustra dos puntos. Primero. debemos estar .completamente


,cguros de que todos los resultados que se pueden suponer son Igualmente pro
h.thle~ antes de utilizar el procedimiento anterior. Segundo, ~~ menudo pod7mos
Hducir el problema a uno. en el cual todos los resu ltados son 1gualmente post~lcs.
, 11 cdiante una eleccin apropiada del espacio mues tra!. Cada vez que sea pos1ble
,,. debe hacer esto, puesto que generalmente simplifica los c.11culos. Se tratar
1 \te punto nuevamente en ejemplos subsecuentes.
.
.
.
M uy a menudo la manera como se realiza un cxpenmcnto detcrmma SI los
tt'\Uitados son o no igualmente probables. Por ejemplo, supo.ngamos q.ue v~mos
1 escoger un perno de una CaJa que contiene tres de tamao dtferente. S1 ekg1mos
1 perno acercndonos a la caja y sacando el pnmero que tocamos. es obv1o que
d perno ms grande tendr una probabilidad. de ser cscog1do. mayor que la de
lo' otro~ do:.. Sm embargo. si rotulamos cutdado~amente cada perno con un
u umero. lo escnbimos en una etiqueta. y escogemos una de. ~llas, podemos tr~tar
d: a>egura r que cada perno, de hecho, tiene la misma probabtlldad de ser escog1do.
As quizs tengamos que afrontar considerables dificultades a fin de asegurarnos
que la suposicin matemtica de resultados igualmente probables es de hecho
upropiada.
.
..
En ejemplos anteriores y muchos otros subsecuentes, nos tnteresa la .elecc1on
.11 aza r de uno o ms objetos de una coleccin dada. Definamos ms precisamente
esta nocin. Supongamos que tenemos N objeto~. digamos a az , . aN.
(a) Escoger al azar un objero de Jos N, significa que cada uno de los objeto>
ttcne la misma probabilidad de ser escogido. Esto cs.
Prob(clcgira;) = l /N.

= 1.2.

,N.

(b) E~coger al a::ar dos objeros entre N. objetos ~ignfica que .c~da 11110 de los
ures de objetos {sin con~idcrar el orden) ttcnc la m~ma pr~babtltdad de ser esl!og1do que cualquier otro par. Por ejemplo, si debemos eleg1r dos ObJetos a l azar
de (a 1, a 2 a 3, a 4), y luego obtener a 1 y a 2 es tan probabt7 como obt.ener az Y a3. :te.
Esta afirmacin nos lleva inmediatamente a la cuestin de cuan/os p~res dtfer.:ntes hay. Supongamos que hay K de tales pares. Entonces la probab tltdad de
cada par seria 1/ K. Muy pronto aprenderemos a calcular K. . .
(e) Escoger al a:ar 11 objews (n ~ N) entre N ObJetos S1g~11ica que cada
n-tuplo,a.,, a,, ... , a1 tiene tantas probabilidades de ser cscogtdo como cuallJUier otro n-tuplo.
Obs~rvacion antenormentc ya sugerimos que se debe tener mucho cuidado en la parle
cxpenmcnlat para a..cgurar que la suposctn ma1em11ca de escoger al azar ;e cumpla.

24

2.3

t:spacos mue.rrall'S fiultos

2.3

Mtodos de enumeracin

Tenemos que hacer un allo a fin de aprender cmo enumerar. Nuevamente


consideraremos la forma anterior de P(A) llamada P(A) = r/ k. en donde k es
el nme,ro tota l de maneras en que e puede ocurrir mientras que res igual al nmero de maneras en que A puede ocurrir. En los ejemplos presentados hasta ahora.
se encontr poca dificultad pa ra calcular r y k. Pero es necesario considerar situaciones slo ligeramente ms complicadas para apreciar la necesidad de contar
sistemticamente o de procedimientos de enumeracin.
EJEMPLO 2.4.
Un lote de cien artculos contiene 20 defectuosos y 80 no
defectuosos. Se eligen diez artculos a l azar, sin sustituir un articulo antes que sea
elegido el prximo. i.Cul es la probabilidad de que exactamente la mitad de los
artculos escogidos sean defectuosos?
Para analizar este problema, consideremos el siguiente espacio muestra! S.
Cada uno de los elementos de S consta de d1ez artculos posibles del lote. digamos
U1. i2. . .. i 1ol ,Cuntos hay de tales resu ltados? Y entre estos res uliados, ;,cuntos
tienen la caractcrst ica de que exactamente la mitad sean defectuosos? Evide ntemeo~ necesitamos saber contestar tales interrogantes para resolver el problema
propuesto. Muchos problemas similares dan origen a preguntas an logas. En las
prximas secciones presentaremos a lgunos procedimientos sistemticos de enumeracin.
A. Principio de multiplicacin. Supongamos que un procedimiento. designado como 1 puede hacerse de n 1 maneras. Supongamos que un segundo procedimiento designado como 2, se puede hacer de n2 maneras. Tamb1~ supongamos
que cada una de las maneras de efectuar 1 puede ser seguida por cualqllicra de
las maneras de efectuar 2. Entonces el procedimiento que consta de 1 seguido
por 2 se puede hacer de n 1n 2 maneras.
Para indicar la validez de este principio es ms sencillo considerar el siguiente
enfoque esquemtico. Consideraremos un punto P y dos rectas L 1 y L 2 . El procedimiento 1 consiste en ir de P a L 1 mientras que el procedimiento 2 consiste
en ir deL, a Lz. La flgura 2.1 indica cmo se obtiene el resultado final.

Mtodos de enumtrucln

l..l

25

fJI:MPLO 2.5. Un artculo manufacturado debe pasar por tres controles. En


uno de los controles, se inspecciona una caracterstica particular del art~ulo
y se la anota de conformidad. En el primer control, hay tres mediciones P?~bles
mientras que en cada uno de los dos ltimos controles hay cuatro med1ctones
posibles. Por lo tanto hay 3 .'4 4 = 48 maneras de anotar el artculo.

~:a tia

B. Principio de adicin. Supongamos que un procedimiento, designado como


1. se puede hacer de n 1 maneras. Supongamos que un segundo procedimiento,
tlcsignado como 2, se puede hacer de n2 maneras. Supongamos adems que no es
posible que ambos. 1 y 2, se hagan juntos. Entonces el nmero de maneras como
se puede hacer 1 o 2 es 111 + 112Usemos otra vez el enfoque esquemtico para convencernos de la validez
del principio de adicin, como se indica eu la figura 2.2.
p

FIGURA

2.2

Observaciti.' tambin este principio puede generalizarse como sigue: si hay k procedimientos y el i-simo procedimiento se puede hacer en 111 maneras. i = 1, 2.... k. entonces el
nmero de man~ras como podemos hacer el procedimiento 1, el procedimiento 2 o o el
procedimiento k est dado por 11 1 + n2 + + n,, suponiendo que los procedimientos no
se pueden realizar conjuntamente.

EJEMPLO 2.6. Supongamos que proyectamos un viaje y debemos decidir


entre el transporte por bus o tren. Si hay tres rutas para el bus y dos para el tren,
entonces hay 3 + 2 = 5 rutas disponibles para el viaje.
C. P ermutaciones
(a) Supongamos que tenemos n objetos difer~ntes. De cuntas .maneras,
digamos .P., se pueden agrupar (permutar) estos.ob~etos? Por eJemplo, SI tenemos
los objetos a, b, y e, podemos considerar las stgu1entes agrupaciOnes: abe, acb,
bac, bca, cab y rba. Asi la :respuesta es 6. En general, considerem~s el esquema
siguiente. Agrupar Jos n objetos es equivalente a ponerlos en una caJa con n compartimentos, en algn orden especifico.

FIGURA 2.1

L,

Observacin: obviamente este principio puede extenderse a cualquier nmero de procedimientos. Si hay k procedimientos y el i-sirno procedimiento se puede hacer de,, maneras.
i = l. 2..... k. entoncos el procedimiento que consiste en l. seguido por 2, .... seguido por
el procedimiento k puede hacerse en n111 2 n, maneras.

La primera casilla se puede llenar en una cualquiera de las n maneras, la segunda de cualquiera de las (11 - l) maneras, ,y la ltima casilla de slo una
manera. P or tanto, aplicando el principio de multiplicacin anterior, vemos que

2.1

la caja se puede llenar de n(n - l)(n - 2) 1 maneras. Este nmero ocurre tan
a menudo en matemticas que presentamos un nombre y un smbolo especiales
para l.
Definicin. Si n es un entero positivo, definimos 11! = (n)(n - 1)(n - 2) 1
y lo llamamos n-factorial. Tambin definimos O! = J.
As el nmero de permutaciones de n objetos diferentes est dado por

MNo~ln olo l'"""'''""'tl"'

l.'

1 ,, umcro aparece en muchos contextos en matemticas y. por lo tanto. se emplea


un \111lbolo especial para designarlo. Escribiremos

r!(n ~ r)! = G}
11

1'.11 ;t nuestros propsitos. (:) se define slo si n es un entero positivo y si r e~ un


rmero O ~ r ~ n. Sin embargo. podemos definir (:) muy ampliamente para cuallllocr nmero real n y para cualquier entero no negativo r como sigue:

") =
(r

P. =n!

(b) Nuevamente consideremos n ObJetos diferemes. Esta vez deseamos e~coger


y permutamos el r elegido. Indiquemos el nmero
de maneras de hacerlo, por .P,. Recurrimos nuevamente al esquema anterior de
llenar una caJa que tiene 11 compartimientos: ahora nos detenemos despus que
se ha llenado el compartimiento r-simo. As, el primer cornpar!imiento puede llenarse den maneras, el segundo de (n - 1) maneras, ... , y el r-simo compartimiento
de n - (r- 1) maneras. As se puede realizar el procedimiento completo; de
nuevo usando el principio de multiplicacin, de

r de esos objetos, O ~ r ~ n.

11(11 - l)(n - 2) (n - r

+ L)

O. Combinac iones. Consideremos nuevamente n objetos diferentes. Esta vez


estamos interesados en contar el nmero de maneras corno podernos escoger r
de esos 11 objetos sin considerar el orden. Por ejemplo, tenemos los objetos a, b, c.
y d, y r = 2; desearnos contar ab. ac, ad, bc,lul, y cd. En otras palabras. no contarnos
ab y ba puesto que los mismos ObJetos cstan relacionados y slo difiere el orden.
Para obtener el resultado general recordemos la frmula derivada anteriormente: el nmero de maneras de elegir r objetos entre 11 y permutar los r elegidos
es igual a 11 !/(n - r)! Sea C el nmero de maneras de elegir r entre 11, sin considerar
el orden. (Esto es, el nmero buscado es C). Observe que una vez que se han escogido los r artculos. hay r! maneras de permutarlos. P or tanto, aplicando nuevamente el principio de multiplicacin junto con el resultado anterior, obtenemos
Cr! =

n!
{11 - r)!

As el nmero de maneras de elegir r entre n objetos diferentes. si n :::onsiderar


el orden, est dado por

e=

n!
rl(n - r)!

N. tlel T. Esta expresin se conoce tambin como arreglo o variacin.

11(11 -

1){n - 2) .. (n - r

+ 1) .

r!

1 '"nmero~ a menudo se llaman coeficit'ntes binomiales. porque aparecen como


wcfoc1entes en el desarrollo de la expresin binomial (a +
S1 11 e~ un entero
pu~1t1vO. (ll + b)" = (a + b)(a + b) (a + b). Cuando se efecta h1 multiplicacin.
, .od.a uno de los trminos consta de el producto de k acs y (11
k l bees. k O. l.
1
n. ,Cuntos trminos sern de la forma tNI' ! Contemos simplemente el
numero de maneras como podemos elegir k entre 11 aes. sin cons1derar el orden.
!'ero es to cst precisamente dado por (:). As. te nemos lo que se conoce como
/o'(lfl'lllll del bi110111i0

br.

(a

maneras. Usando la notacin factorial introducida anteriormente, podernos


escribir

p n!
" ' - (11 - r)!'

rl

+ b)" = L: (11) ab"


k

o k

(2.2)

l .us nmeros (:) tienen muchas propiedades in teresantes de las cuales slo dos
mencionaremos aqu. (A no ser que se indique otra cosa. suponemos que ''es un
,ntero positivo y r un entero. O ~ r ~ 11.)
(a)

(b)

G) = (n~,)

C) G=:) +
=

(11

~ ').

1 ~ muy fcil verificar algebraicamente las dos identidades anteriores. Simplemente escribimos. en cada uno de los casos. el lado izquierdo y derecho de las
1dent1dades anteriores y notamos que son iguales.
Sm embargo, hay otro mtodo de verificar esas idcnttdades que hace uso de
la mtcrprctacin que hemos dado a (:). llamada el nmero de maneras de escoger r entre 11 objetos.
(a) Cuando escogemos r entre 11 objetos simultneamente "deJamos atrs~
(11
r) objetos y. por tanto. escoger r de n es equivalente a escoger (11 - r) de 11.
l:sta es precisamente la primera proposicin que se debe verificar.
(b) EsCOJamos cualquiera de los " objetos. sea este el primero. a,. Al elegir
r Objetos. a 1 est incluido o excluido pero no las dos cosas. Por tanto al contar
el nmero de maneras como podemos escoger r objetos. podemos aplicar e l princi pio de adicin tratado al comienzo.

J. 1

Si a, est excluido, debemos escoger los r objetos que se desean de los (n- 1)
objetos restantes y hay (, 1) maneras de hacer esto.
Si a, va a incluirse. slo (r - 1) objetos ms deben escogerse de los restantes (n - 1) obJetos y esto se puede hacer de (~ = l) maneras. Asi el nmero pedido
es la s11ma de esos dos. lo que verifica la segunda identidad.
. Ob~erva~in : en lo expuesto anteriormente los coeficientes binomiales (:) son signficauvos solo SI 11 y k son enteros no negativos con O ~ k $ n. Sin embargo. si escribimos
n(n- 1) (n -k

11!

k!(n

k)!

y as sucesivamente.
Utilizando esta versin extendida de los coeficientes binomiales. podemos indicar la forma generalizada c/elteortmtl t/el binomio:
=

~o

(") x
k

Esta serie es significativa para cualquier 11 rea l y para todas las x ta les como lxl < 1. Observemos que si 11 es un entero positivo, las series infinitas se reducen a un nmero finito de trminos puesto que en ese caso() Osi k > 11.
EmMI'I n 2.7. (a) Cuimtos comits de tres miembros se pueden elegir con
oc.ho personas? Pues~o que dos comits son el mismo si estn formados por los
m1smos m1cmbros (SIJ) considerar en el orden en el cual fueron elegidos), tenemos
= 56 comits posibles.
(b) i.Cuntas seales con tres banderas pueden obtenerse con ocbo banderas
diferentes? Este problema se parece mucho al anterior. Sin embargo, aqu el orden
constituye una diferencia, y. por lo tanto. obtenemos 8 !j5! = 336 seales.
(e) ~~grupo de ocho personas consta de cinco hombres y tres mujeres. Cuntos comlles que consten de dos hombres exactamente se pueden formar? Aqu
debemos hacer dos cosas~escoger dos hombres (entre cinco) y escoger una muJer
(entre tres). As obtenemos el nmero pedido (H U) = 30 comits.
(d) Ahora podemos verificar una proposicin formulada anteriormente decamos que el nmero de subconJuntos de un conjunto que tiene 11 elemdntos
es 2" (contando el conJunto vaco y el conJunto mismo). Simplemente clasificamo~ cada elem~nto con un uno o con un cero, sea que el elemento vaya a ser incluidO, o exclUido en el subconjunto. Hay dos maneras de clasificar cada uno
de los elementos, y hay n elementos. Luego el principio de multiplicacin nos
dtce que hay 2 2 2 2 = 2" clasificaciones posibles. Pero cada una de las
clasificaciones en particular representa una eleccin de un subconjunto. Por ejemplo. (1, 1, O, O, O, ,O) con~istiria en el subconjunto formado por a, y a 2 pre-

Nuevamente. (1, J. , 1) representara S y (0, O, , 0) representara

CU I1JUntO VaCO.

(~) Podemos obtener el resultado anterior usando el principio de adicin


unto sigue. Para obtener subconjuntos debemos escoger el conjunto vaco. los
uh,onJuntos que constan de slo un elemento. los que constan de slo 2 elemento
.. y el conJunto mismo que consta de todos los 11 elementos. Esto se puede
h.II:Cf de

(~) + (~) + G) + ... + (:)

k!

- 3)"' (-3)(-4)(-7)
( 5
5!
'

+ x)

11

1)

observamos que la ll1ma expresin es significativa si n es cualquier nmero real y k es cualquier entero no negativo. As.

( 1

~~ntcnte.

n111ncras. Sin embargo. la suma de esos coeficientes binomiales es simplemente


.1 desarrollo de (1 +
= 2".
Ahora volvamos al ejemplo 2.4. De un lote que consta de 80 artculos buenos
~ 10 artculos defectuosos. e~cogemos 10 al azar (sin sustitucin). El nmero de
m.1neras de hacer esto es (110). Por tanto la probabilidad de encontrar 5 artculos
.r,tcctuosos y 5 no defectuosos entre los lO elegidos est dada por

1r

(2s0 Ws0 )
(11~0)

Mediante logaritmos de factoriales (que estn tabulados) se puede evaluar lo


untcrior y es igual a 0,021.
EJtlMI'LO 2.8.

Generalicemos el problema anterior. Supngase que tenemos

N <artculos. Si elegimos n de esos al azar, sm sustitucin. hay (~)muestras posi-

hlcs diferentes. todas las cuales tienen la misma probabilidad de ser escogidas.
Si los N artculos estn rormadosde r~> A y r 2 B (con r1 + ''2 = N). entonces la
prl1babilidad de que los n artculos elegidos contengan exactamente s 1 A y (11 - s,)
11 est dada por

(::) (, ~\.)
(~)
(La anterior se llama probabilidad lriperceomtricct y se encontr<ar de nuevo.)
Observacin: es muy importante especificar. cuando hablamos de escoger articulo~ ;~lazar.
,, l'SCOgemos con o sin sustiwcin. En una descripcin ms reahst;~ propondremos esta ltima. Por eJemplo. cuando ins~ionamos un nmero de artculos m;mufactumdo;, con el
obJeto de descubrir cuantos defectuosos podra haber, generalmente no pretendemos mspcccionar el mismo artculo dos veces. Previamente hemos observado que el nmero de maneras de escoger r objetos entre n. sin considerar el orden. est dado por (~) Fl nmero de
maneras de escoger r articulos entre n, con sustitucin. est dado por n'. Aqu estt1mos interesados en el orden en que se escogieron los artculos.

l'rubloouos
EJEMPLO 2 9. Supngase que escogemos dos objetos al azar entre cuatro
objetos clasilicados a, b, e, y d.
(a) Si escogemos sin sustitucin, el espacio muestra) S se puede representar
como sigue:

= {(a, b); (a, e); (b, e); (b, d): (c. d); (a, d)}.

Hay (i) = 6 resultados posibles. Cada uno de los resultados individuales indica
slo cules fueron IM dos Objetos escogidos y no el orden en que se escogieron.
(b) Si escogemos con sustitucin. el espacio muestra! S', se puede representar como stguc:
S' _

{(tl. a); (a. b): (a, e): (a. d): (b. a); (b. b): (b, e): (b, d);}.
(c. a): (c. b): (c. e): (c. d): (d. a); (d. b); (d, e): (d, d)

Hay 42 = 16 resultados postbles. Aqu cada uno de los resultados individuales


indica cules objetos se escogieron y el orden de seleccin. Escoger al azar implica
que si escogemos sin sustitucin. todos los resultados en S son igualmente probables. mientras que si escogemos con sustitucin, entonces todos los resultados
en S' son tgualmente probables. As. si A es el suceso {el objeto e es elegido}, entonces tenemos de S. P(A) ~
! si escogemos sin sustitucin, y de S', P(A) =
-[~ si escogemos con sustitucin.
E. PN mutacioncs cm1n tlu no todos los objetos son diferentes. En todos los mtodos de enumeracin presentados. hemos supuesto que todos los objetos considerados eran diferentes (esto es, distinguibles). Sin embargo, no siempre es este
el caso.
Supongamos, entonces. que tenemos 11 objetos tales que hay n, de una clase,
112 de una segunda clase. ltk de una k-sima clase, en donde 11 1 + n2 + +
"t = n. Entonces el nmero de permutaciones de esos objetos est dada por

n!
La deduccin de esta frmula se deja al lector. Ntese que si todos los objetos
~Oit diferentes. tenemos 11,
l. i = l. 2.... k. y. por tanto. la frmula antenor
se reduce a 11 !, el resultado obtenido previamente.
Obs~rl'tldn mMsttmos una ,ez ma> en que la asignacin real de probabilidades a los
resultados mdovtdu<tles de un cspacto muestra! (o a una coleccin de resultados. es decir,
un suceso) es algo que.l!..O puede obtenerse matemticamente: debe obtenerse de otras consi
deraciones. Por CJemplo. podemos utilizar ciertas caractersticas de simetra del expenmcnto
para observar que todo> lo; resultados son igualmente probables. Nuevamente podemos
hacer un mtodo de muestreo (es dectr. escoger uno o varios individuos de una poblacin
especificada) de tal mancr:~ que sea razonable suponer que todas las elecciones son igualmente
probables. En muchos otros casos. cuando ninguna suposicin b-sica es aproptada, debemos
recurrir al enfoque de la frecuencia relativa. Repetimos 11 veces el experimento y anotamos
la proporcin de veces que ha ocurrido el resultado (o suceso) que se considera. Al usar sta
como una aproximacin. sabemos que es altamente improbable que esta frecuencia relativa

lt

.e ddcrcncoc de la probabo lidad verdadera (cuya e xistencia ha sodo especificada por nuestro
IIH>dclo tcnco) en u na cantidad a pareciabk si 11 .:s suficien temente grande. Cuando es im>osohlc hacer suposiciones razon ables acerca de la p robabilidad de un resu ltado y es tambin
olllP<lstble repetir el experimento un gran nmero de veces (debido a l costo o a constderacio"''' de uempo. por CJCmplo) es realmente muy poco significativo proscguor con un estudio
po obab1hstico del experimento e xcepto sobre una base completamente terica (Para una
nuta <tdtcoonal sobre el mismo tema, ver seccin 3.5.)

l'ROBLEMAS
2.1 En una habitacin se encuentra el siguiente grupo de persona;: 5 hombres mayores
liL 21.4 hombre> menores de 21.6 muJeres mayores de 2t y 3 muJeres menores de 21. Se chge
1111.1 persona al azar. Se definen los sucesos siguientes: A = (la persona es mayor de 2fl:
11
[la persona es menor de 21}: C ={ la persona es hombre}: D (la persona es muJCr}.
1 v;lluar las siguientes:
I'(B u D)
(b) I'(A V C)

()

2.2. En una habitacin 10 personas tienen insignias numeradas del l a l JO. Se e ligen
1res

personas al azar y se les pide que dejen la ha bitacin inmed iatamente y se anotan los
nmeros de las insignias.
(u) i.('ul es la probabilidad d e que el n me ro me nor de las insignias sea 5'1
(b) i.Cul es la probabilidad d e que el nme ro mayor de las insignias sea 5'1

2.3. (a) Supngase que se escriben tres dgitos t . 2 y 3 en un orden a leatorio. ,Cul es
1,1 probabilodad de que al menos un dgito ocupe su lugar propio?
(b) Lo mismo que (a) con los dgitos 1, 2, 3, y 4.
(e) Lo mismo que (a) con los dgitos 1, 2. 3, ,
(d) Doscutir tu respuesta de (e) sin es grande.

2.4.

11.

[Indicacin: usar ( 1.7).]

Un cargamento de 1500 lavadoras contiene 400 defectuosas y 1100 no defectuosas.

Se eligen al azar doscientas lavadoras (sin sustitucin) y se clasifican.


(a) .('ul es la probabilidad de que se encuentren exactamente 90 anculos defectuosos?
(b) ~cul es la probabilidad de que se encuentren al menos 2 artculo; defectuosos?
2.5.

DteL fichas numeradas del 1 al 10 se mezclan en una palangana. Se sacan de la pa-

langana do> fichas numeradas (X, Y) una y otra vez sin susutucin. iC'ul e; la probabilidad
de que X+ Y 10'1
2.6. Un lote consta de 10 artculos buenos, 4 con pequeos defectos, y 2 con defectos
gr:tves. Se elige un artculo al azar. Encontrar la probabilidad de que:
(a) no tenga defectos.
(b) tcngu un defecto grave.
(c) que sea bueno o que tenga un defecto grave.

2.7. Si del mismo lote de artcu los descritos en


(sin sustitucin) encuentre la probabilidad de que:
(a) ambos sean buenos,
(b)
(e) a lo menos uno sea bueno.
(d)
(e) exactamente uno sea bueno.
(f)
(g)

el problema 2.6 se escogen dos artculo,

ambos tengan defectos graves.


a lo ms uno sea bueno.
nmguno tenga defectos graves.
ninguno sea bueno.

2.8. Un producto se arma en tres etapas. En la primera etapa hay 5 lineas de armado.
en la segunda etapa hay 4 lineas de arm:tdo. y en la tercera etapa hay 6 lnea~ de armado. De
cuntas maneras puede moverse el producto en el proceso de armado'?

2.18. Entre los nmeros t, 2. . - . 50 se escoge un nmero al azar. i.Cul es la probabi


h<lud de que el nmero escogido sea divisible por 6 o por 8?
2. 19. De 6 nmeros positivos y 8 nmeros negativos, se eligen 4 nmeros al a~r (sin
tl\lltucon) y se multiplican. cul es la probabilidad de que el producto sea un numero
l"l\ltovo'/
2.20. Cierta sustancia qumica se forma mezclando S lquidos di_stintos. Se propone verter
liquodo
en un estanque y agregar sucesivamente los otros liquodos. T~as las combma1111
unnes posibles se deben probar para establecer cul da meJor resultado. Cuntas pruebas
deben hacerse?

2.9. Un inspector visita 6 mquinas diferentes durante el da. A lin de impedir a los opcradorc> que sepan cundo m~peccoonar. varia el orden de las visitas. i.Dc cuntas maner."
puede hacerlo?

2.21. Un lote contiene n artculos. Si se sabe que r artculos ~o~ defec~uosos Y se ms


p-.:coonan en un orden aleatorio. cul es la probabilidad de que el k-esomo articulo (k ~ r) msl~<:coonado sea el ltimo defectuoso en el lote?

2.10. Un mecanosmo compleJO puede fallar en 15 partes diferentes. Si falla en 3 parte,.


i.de cuntas maneras puede ~uccdcr?

2.

2.11. Hay 12 maneras en las cuales un artculo manufacturado puede tener un pcqueoio
defecto y 10 maneras en las cuales puede tener un defecto mayor. ;,De cuntas manera,
puede ocurrir un defecto menor y uno mayor? 2 defectos menores y 2 defectos noayores'?
2.12. Un mecanismo puede ponerse en cuatro posiciones digamos, a. b. c. y d. Hay 8 de
tales mecanismos en un sistema.
(a) i.Oe cuntas manerus puede instalarse este s"tema'?
(b) Supngase que dichos mecan ismos estn instalados en algn orden (lineal) pre-osignado. ,De cuntas maneras posibles se instalan los mecanismos si dos mecanismos adyacentes
no estn en la mismo posicin'!
(e) i.Cuntas maneras son posibles si slo se usan las posiciones a y b con la misma frecuencia?
(d) i.Cuntas maneras son posibles si slo se usan dos posiciones diferentes y una de ella'
aparece tres veces ms a menudo que la otra'/
2.13. Supongamos que de N ObJetos elegimos" al azar. con sustitucin. ;,Cu31 es la probabilidad de que ningn obJeto sea elegido ms de una >ez? (Suponga que n < N.)
2.14. De las letrasa.b.c,d,f'.y f, cuntas palabras de clave de 4 letras se pueden formar si.
(a) ninguna letra se puede repetir?
(b) cualquier letra se puede repctor cualquoer nmero de veces?
2.15. Suponga que (9l} ~ a y (949 ) - b. Expresar ('90,0) en funcin de a y b. [lndicaC"un
"" calcule las expresiones anteriores para resolver este problema.]
2.16. Una CUJa contiene esferas numeradas l. 2. . n. Se escogen dos esfera, al a1.1r
Encontrar la probabilidad de que los nmeros sobre las esferas sean enteros consecutiVO> ;.o
(a) las esferas se escogen sin sustitucin.
(b) las esferas se escogen con sustitucin.
2.17. /.Cuntos subconJuntos que contengan al menos un elemento se pueden formar
de un conjunto de 100 elementos?

2.22. r nmeros (O < r < 10) se escogen al azar (sin sustitucin) entre los nmeros O. l.
9. Cul es la probabilidad de que dos no sean iguales?

l'robllbllldd condlclmllll

1.1

Probabilidad condicional e independencia

\'

Cad:1 vez que calcularnos P(B 1A) estamos esencialmente calculando P(B)
al espacio muestra/ reducido de A en vez del espacio muestra! origin.tl ~ Consideremos el diagrama de Venn en la figura 3.1.
Cuando calculamos P(B) nos preguntamos qu tan probable es que estemos
, n 8, sabiendo que debemos estar en S, y cuando evaluamos P(B 1A) nos preI(Untamos qu tan probable es que estemos en 8 , sabiendo que debemos estar
en A. (Esto es, el espacio muestra! se ha reducido de S a A.)
Pronto daremos una definicin formal de P(B 1 A). Por el momento, Sin cmbarll" ~egui remos con nuestra nocin intuitiva de probabilidad condicional y conltlcraremos un eJemplo:
11111 rcs~cto

3. 1

Probabilidad condiciona l

EJEMPLO 3.1. Se lanza n dos dados normales y se anotan los resultados


.x 2 ) en donde x 1 es el resultado del i-simo dado i = l. 2. Por tanto. el espacio
muestra! S se puede representar por el siguiente cuadro de 36 resultados igu;lmcnte posibles:

(\ 1

Consideremos de nuevo, la diferencia 4ue existe entre elegir al azar en un lote.


un articulo, con o sin sustitucin. En el ejemplo 2.4, el lote que considerbamos
tenia la siguiente composicin: 80 artculos sin defectos y 20 defectuosos. Supngase 4ue eliJamo> do> artculo> de e> te lote: (a) con sustitucin: (b) sin sustitucin.
Definamos los sucesos siguientes:
A = {el primer artculo es defectuoso}.
8 = {el segundo artculo es defectuoso}.

Si escogemos co11 sustitucin, P(A) = P(B) =lo% = ~-Cada vez que elegirnos.
en el lote hay 20 artculos defectuosos de un total de 1OO. Sin embargo, si elegirnos sin sustitucin, los resu ltados no son completamente inmediatos. Todava
es verdad, naturalmente, que P(A) = ~- Pero, i.cul es el valor de P(B)? Es evidente
que con el fin de calcular P(B) deberamos conocer la composicin del lote, cua11do
se escoge el segundo artculo. En otras palabras, deberamos saber si el suceso A
ocurri o no. Este eJemplo indica la necesidad de presentar el siguiente concepto
importante.
Sean A y 8 dos sucesos asociados con un experimento t. Indiquemos con
P(B 1A) la probabilidad condicio11al del suceso 8, dado que A ha ocurrido.
En el ejemplo anterior. P(B I A) = ~3. Porque si A ha ocurrido. entonces al
sacar por segunda vez quedan slo 99 artculos. de los cuales 19 son defectuosos.
S

(1, 1)

S=

(2,: 1)

(l. 2)
(2, 2)

(2, 6)

(6, 1)

(6, 2)

(6, 6)

( 1o 6)

<'onsideremos los dos sucesos siguientes:


A

= {(x" x 2 ) 1 x. +

X2

= 10},

= {(x,, x2l 1 x , > x2}.

As A = {(S, S), (4, 6), (6, 4) y B = {(2, 1), (3, 1), (3, 2), . (6. S)}. Por tanto,
I'(A) = .6 y P(B) = ~. Adems P(B 1 A) = t, ya que el espacio muestra! es ahora
t, (que son tres resultados) y slo uno de ellos es consistente con el suceso B.
nc una manera semejante, nosotros podemos calcular P(A l B) = .~ .
Finalmente, calculemos P(A (') B). El suceso (A (') 8) ocurre, si y slo si la
urna de los dos dados es 1O y el primer dado indica un valor mayor que el segundo dado. Hay solamente un resultado y, por tanto P(A (') B) =-A. Si observamos
~uidadosamente los diversos nmeros que hemos calculado anteriormente, deducimos que se cumple lo siguiente:

P(A 18) = P(A () B)


P(B)

P(B 1 A)

P(A (') 8)
P(A) .

FIGURA 3.1

34

Sucede que esas relaciones no solamente aparecen en los eJemplos p;rticulares


4uc hemos considerado, sino que son completamente generales y nos dan un
medio de definir formalmente la probabilidad condicional.
Para justificar esta definicin volvamos al concepto de frecuencia relativa.
Supongamos que se ha repetido un experimento t n veces. Sean n,., n8 y n,.nB el
nmero respectivo de veces que los sucesos A, B, y A (') B han ocurrido en las n
repeticiones. cul es el significado de nAnB!nA? Representa la frecuencia relativa de B entre esos resultados en los que A ocurri. Esto es, nAnafnA es la frecuencia relativa condicional de B, dado que A ocurri.

Prohahllldad nulldmutl ,.

.\!1

lnd~k:ndcnda

1.1

Podemos cscnb1 r n Mr/11,. como sigue:


IIA O H

IIAOB(II

f,.

en donde }40/J y f,. '>On las frecuencias relativas de los sucesos A ,...., B y A. rcspec!J\,tmcntc. Como ya lo hemos indicado (y como lo demostraremos ms adelante). si 11. el nmero de rcpellcioncs es grnde. f,.n 11 estar prximo a P(A ,...., B)
y r.. estar pr.\1111<1 a PI A). Por lo tanto. la relacin anterior sugiere que IIA O R ""
estar prxima a P(8 jA). As haccmo:. l.t siguiente definicin formal:

dado que

P(A)

P(A) > O.

(b) Es muy sencillo comprob.tr que P(B 1A) para un valor de A lijo. satisface los diversos
postu lado> de la probabilidad ecuacin ti.J). {Veo problema 3.22.) bw e,. tcncmo,:
( 1')

O <: J>(B I A) S I.

(2')

I'(S 1 A)

l.

(3')

P(B, u

/h 1 A)

(4')

P(81u8,u lt1)
para i t ).

(e)

Si A

S. P(8 1S)

1'181 1 A) + P(B 2 1 A)

si

81 r-. 8 2

I'(B 1 I A) + P(B~I A1+

1'(8 r-. S), P(Sl

= ~-

si

(3.2)

B 1 r-.8 1 = (l

40

30

70

20

ro

30

60

40

100

ollctna. escoge una mquina al azar. y descubre que cs. nu.cva. ,C~l es la probabilidad de que sea elctrica'? En trminos de la notacton tntroduc1da deseamos
calcularP(E I NJ.
.
.
, .
Slo considerando el espacio muestra! reductdo N (es dec1r. las 70 maq.utnas
nuevas), tenemos que: P(E I N)=~ = ~- Usando la definicin de probabilidad
co ndiciona l, tenemos que:
P(E n N) 40/ 100 4
P(E 1N) = P (N)- = 70/ 100 = 7.
La consecuencia ms importante de la delnicin de probabilidad condicio nal
se obtiene escribindola de la manera siguiente:
P(A n B)

/'(8).

(d) Con C<1da suceso /J e: S podemo> <ISocmr dos nmeros. P(B). la probabilidad (no
cond1cional) de 8 . y P!8 l A). la probabilidad condicional de B. dado que algn su~-cso A
(para el. cual P(A) 0) hu ocurndo. En general. esas dos medidas de probabilidad asignarn
probab111dadc> d"tmtas al suceso 8. como se md1c en los ejemplos prec.:edcnte>. En bree
estudtaremos un Importante c-Jso csx.>c1al en el cual P(B) y P(B A) son la misma
(e) Ntese que la probabilidad cond1c1onal esl defimda en trminos de la medida de
probabilidad no condicional P hlo cs.'' conocemos P(B) para cada 8 e: S podemos calcular
P(B A) para cada 8 e: S.

As tenemos dos maneras de calcular la probabilidad condicional P(8 A):


(a) Directamente considerando la probabilidad de 8 con respecto al espac1o
muestra! reducido A.
(b) Usando la dclinic1n antenor. donde P(A "8) y P(A) se calculan con
respecto al e~pac10 muestra( onginal S.
Ob~ertttdll . si A S. obtenernos P!B I S) "' P(8 r-. S), P(S) = P(BJ. puesto que PIS) 1
B. As debe ser. porque decJt que S ha ocurrido. slo indica que el experimento
Y 8 ,.., S
ha sido rca 1izado.

(3.1)

Obwrwdtlll<'' (a) h nnponante da~c cuenta de que lo anterior no es un teorema


(no demostramos nada). 111 tampoco un ax1oma. Simplemente prescnlamos la noc1n intuJtiv:t
de probabilidad cond1cional y luego h1cimos la definicin formal de lo que enlendemos por
esta nocin. El hecho de que nues1r:1 definicin formal corresponde a nucslra nocin intuitiva
est comprobado por el prr:1fo que precede a la delinicin.

3.1

TABLA

Definicin.
P(8 A)

17

btoMPLO 3.2. Supngase que una oficina tiene 100 mquinas ca l culadora~.
Algunas de esas mquinas son elctricas (E). mientras que otras son manuales
(.\f) Adems, algunas son nuevas (N). mientras las otras son usadas (U). Latabla 3. 1 da el nmero de mquinas de cada categora. Una persona entra en la

}A O B

P(A n B)

l'rol!abllld ad Cllndklonl

1.1

= P(81 A)P(A)
(3.3a)

lo que equivale a,
P(A

n 8) = P(A i 8)P(8).

bto a veces se conoce como el teorema de nwltiP.Iicacin de P.robabilidadcs. .


Podemos aplicar este teorema al clculo de la probJbilidad de la ocurrencta
>tmultnca de los dos sucesos A y 8.
EJLMI'LO 3.3. Consideremos otra vez el lote discutido al comtcnLo de la
secctn 3.1. el cual consta de 20 artculos defectuosos y 80 sin defectos. Si escogemo> 2 artculos al azar. sin sustitucin, ,cul es la probabtltdad de que ambos
artculos sean defectuosos'?
Como ante!>. definimos los sucesos A y 8 como sigue:

A = lcl primer artculo es defectuoso},

8 = {el segundo artculo es defectuoso}.

Por Jo tanto. necesitamos P(An 8), que puede calcularse de acuerdo con la frmula anterior. como P(8 1A)P(A). Pero P18l A) = ~ mientras que P(A) = !. Por
lo tanto
P( A n 8) = 4!/A

38

Probabilidad condicional e Independencia

Observacin : se puede generalizar el anterior teorema de la multiplicacin a ms de


dos sucesos de la siguiente manera:
P[A, nA, n nA.] = P(A ,)P(A 2 1 A ,)P(A 3 j A, A 2)

P(A. j A, , A. -

1).

(3.3b)

Consideremos por un momento si podemos hacer una afirmacin general


acerca de la magnitud relativa de P(A 1 B) y P(A). Consideremos los 4 casos ilustrados por los diagramas de Venn en la figura 3.2. Tenemos:
(a) P(A 1 B) = O ~ P(A) puesto que A no puede ocurrir si B ha ocurrido.
(b) P(A 1 B)
(e) P(A 1 B)

= P( A~"~ B)f (P(B) = [P(A)/ P(B)] ~ P(A), puesto que O ~ P(B) ~


= P(A 1"1 B)/P(B) = P(B)/ P(B) = 1 ~ P(A).

l.

(d) En este caso no podemos hacer ninguna afirmacin acerca de la magnitud


relativa de P(A 1B) y P(A) .

.----- --,s .--------.s

00
(a) A n B - IJ

C
(b) A

eB

(e) B e A

(d) Ninguno de estos casos

FtGURA 3.2

Ntese que en dos de los casos anteriores P(A) ~ P(A 1 B). en un caso, P(A) ~
P(A 1 B), y en el cuarto caso no podemos hacer ninguna clase de comparaciones.
Anteriormente, usamos el concepto de probabilidad condicional, con el fin de
evaluar la probabilidad de la ocurrencia simultnea de los dos s ucesos. Podemos
aplicar este concepto de otra manera para calcular la probabilidad de un so lo
s uceso A. Necesitamos la siguiente definicin.
Definicin. Decimos que los sucesos B 1 , B 2 ,
cin del espacio muestra! S si:
(a)

B1 1"1 Bj

(b)

UB

= ~

para todo

, 8k

I_epresentan una parti-

JIJ

Sea A algn suceso con respecto a S y sea B, B 2 , Bk una particin de S.


Fl diagrama de Venn de la figura 3.3 ilustra esto para k = 8. Por tanto, podemos
escr ibir
A = A 1"1 B 1 u A 1"1 B 2 u u A 1"1 Bk
J>or cierto que algunos de los conjuntos A 1"1 Bj pueden ser vacos, pero esto no
mvalida la anterior descomposicin de JI. Lo importante es que todos los sucesos A 1"1 B" , A 1"1 Bk son mutuamente excluyentes. Por lo tanto, podemos
aplicar la propiedad aditiva para este tipo de sucesos (ecuacin 1.3) y escribir:
P(A) = P(A 1"1 B)

+ P(A r. B 2 ) + .. + P(A 1"1 Bk).

Sin embargo, cada trmino P(A 1"1 B) se puede expresar como P(A 1Bj)P(B) y,
por lo tanto, obtenemos el llamado teorema de la probabilidad total:
P(A) = P(A 1 B,)P(B,)

P(A 1 B 2 )P(B2)

+ + P(A 1Bk)P(Bk).

(3.4)

13ste resultado representa una relacin muy til , ya que frecuentemente cuando
se busca P(A) puede ser dificil calcularlo directamente. Sin embargo, con la informacin adicional de que B ha ocurrido, podemos calcular P(A 1B) y entonces usar la frmula anterior.
EJEMPLO 3.4. Consideremos (por ltima vez) el lote de 20 artculos defectuosos y 80 sin defectos, de los cuales escogemos 2 artculos sin sustitucin. Nuevamente definimos A y B:
A = {el primer articulo elegido es defectuoso} ,
B = {el segundo artculo elegido es defectuoso} ,

podemos ahora calcular P(B) como sigue:


P(B) = P(B 1A)P(A)

+ P(B 1A)P(A).

Usando uno de los clculos ya hechos en el ejemplo 3.3 encontramos que

i ,, j.

l' robabllldMd condlclonMI

.1.1

P(B) = ~ !

= S.

+ ~ ~

!.

i= l

(e) P(B1) > O

para todo

Este resultado puede ser un poco sorprendente, particularmente si el lector


recuerda que al comienzo de la seccin 3.1 encontramos que P(B) = ! cuando
escogemos los artculos con sustitucin.

i.

En otras palabras: cuando se efecta


el experimento e, ocurre uno y slo
uno de los sucesos 8 1

FIGURA

3.3

(Por ejemplo. en el lanzamiento de un dado 8, = {l. 2). 8 2 = r3. 4. 5}. y B 3 =


representaran una particin del espacio muestra!. mientras que C, =
{1.2. 3, 4}
= {4. 5. 6: no).

:6:

y e,

EJEMPLO 3.5. Cierto artculo es manufacturado por tres fbricas, sean 1, 2 y 3.


Se sabe que la primera produce el doble de artculos que la segunda y que sta
y la tercera producen el mismo nmero de artculos (durante un periodo de produccin especificado). Se sabe tambin que el 2 por ciento de los artculos producidos por las dos primeras es defectuoso mientras que el4 por ciento de los manufac-

40

trobahilidad condlcion11l e lrulct~<ndcncl

1.2

t~rados por la _tercera es defectuoso. Se colm:an juntos todos los artcu los produCidos en una fila y se escoge uno al a:wr. ,,Cul es la probabilidad de que este
artculo sea dcfcctuo~o'!
Definamos los siguientes sucesos:

A = (el artculo es defectuoso},


81 = {el artculo proviene de 2}.

= {el artculo proviene de 1},

8,

P(B, 1 A)- (0.02)(1/2)

B3 = (el artculo proviene de 3}.

Nosotros necesitamos P(A) y. usando el resultado anterior, podemos escribir:

Ahora P(~ ) = !. mientras que P(8 2 ) = P(8 3 ) = i. Tambin P(A 1 8.) = P(A IB1 )
= 0.02, mientras que P(A 1 BJ) = 0.04. Poniendo sus valores en la expresin anterior obtenemos P(A) 0.025.
Obsntacin. en qumtca se ha observad,, la siguiente analoga con el teorema de la
probabilidad total. Supngase que k matraces que contienen diferentes soluciones de la misma
sal, h~1cen un litro. Sea P(Br) el volumen del i-simo matraz y P(A J 8 1) la concentracin de la
soluctn en el i-simo matraz. Si combinamos todas las soluciones en un matraz y suponemos que P(A) indica la concentraci n de la solucin resultante, obtenemos:
P(A)

I'(A j lJ 1)P(8 1) -t

+ P(A j B.)P(B.).

3.2 Teorema de Rayes


Podemos usar el ejemplo 3.5 para JUStificar otro resultado importante. Supongamos que del depsito se escoge un artculo y se encuentra que es defectuoso. i.Cul es la probabilidad de que se produjese en la primera fbrica?
Usando la notacin. presentada previamente, necesitamos P(B 1 1 A). Podemos
calcular esta probabilidad como una consecuencia de la siguiente. Sean 8 1 _ B
una particin del espac1o muestra! S. Sea A un suceso asociado con S. Aplicando la definicin de probabilidad condicional. podemos escribir:
P(B,I A)

:E~

P(A 1B!)P(B,) _
t P(A j B) P( Bi)

1, 2... ,k.

mente es perfectamente correcto; slo la eleccin impropia para P(81) hace el


r~>ultado objetable.
Volvtcndo a la pregunta propuesta anteriormente y aplicando ahora la ecuann (3.5). obtenemos:
(0.02)( 1 2)

+ (0.02)(1 '4) + (0,04)(1

- 4
4) -O. O.

Ohwrwl'ion. otra vez podemos encontrar una analoga con el 1eorema de Ba)'C\. en
.uimica. En k matraces tenemos soluciones de la misma sal. pero de concenlractone\ dtre-rcntc~. Supongamos que el volumen total de la soluc1n es un lttro. Indicando el volumen
de la >olucin en el t-simo matra1 por P(8.) e mdicando la conccntractn de la sal en ese
rntsmo matraz por P(A IB1). encontramos que la ecuacin (3.5) da la proporctn de la c-anttdad
completa de sal encontrada en el i-stmo matraz.

La siguiente ilustracin del teorema de Bayes nos dar una oportunidad de


presentar la idea de un diagrama de rbol. un mtodo muy til para anali1ar ciertos problemas.
Supngase que muchas cajas estn llenas de caramelos de dos tipos. diga
mos A y B. El tipo A contiene 70 por ciento dulce y 30 por ciento (leido. mientras
que en el tipo 8 dichos porcentajes son al revs. An ms, supngase que el 60
por cien to de todas las cajas de caramelos son del tipo A mientras que el resto
son del tipo B.
Ahora estamos ante el siguiente problema de decisin. Usted recibe una ca a
de dulces de tipo desconocido. Se le permite sacar una muestra de un caramelo
(una situacin ciertamente no real. pero que nos permite presentar las ideas importantes sin mucha complicacin) y con esta informacin debe decir si cree que
el tipo A o el tipo B le ha sido ofrecido. El siguiente "diagrama de rbo l" (llamado as por las diversas trayectorias o ramas que aparecen) nos ayudar a ana li zar
el problema. (Sw y So indican la eleccin de un caramelo dulce o {tcido. rc~pccti
vamcn tc.)

(3.5)

Este resultado se conoce como teorema de Bayes. T ambin se le llama frmula


para la probabilidad de las "caus:~s''. Puesto que las B, son una particin del espacio muestra). uno y slo uno de lo~ sucesos 8 1 ocurre. (Esto es, uno de los sucesos 8; debe ocurrir y solamente uno). Por lo tanto, la frmula anterior nos da
la proba?ilidad de u~ B1 particular (esto es, una "causa"), dado que el suceso A
ha ocumdo. Para aplicar este teorema. debemos conocer los valores de las P(B1).
Muy a menudo esos valores no son conocidos, y esto limita el uso del resultado.
Ha habido considerable con troversia acerca del teorema de Bayes. Matemtica-

Hagamos unos pocos clculos:


P(A) = 0,6; P(B)

= 0.4;

P(So 1 A) = 0.3: P(Sw 1B)

P(Sw 1 A)

= 0,3;

= 0.7;

P(So 1 B) = 0.7.

42

l'rubabildod tiHidlciuuol e indep<>ndcncla

1'

Lo que realmente deseamos saber es P(..tl S..,), P(A 1S0 ) P(B 1Sw) y P(B 1S0 ).
Esto es, supo niendo que realmente escogimos un caramelo dulce. Qu decisin
estaramos ms inclinados a hacer? Comparemos P(A 1 Sw) y P(B 1 Sw). Utilizando la frmula de Bayes tenemos
PA IS
(

_
w) -

P(Sw i A)P(A)
P(Sw 1 A)P(A) + P(Sw 1 B)P(B)

~~
<0:.:...7)..:.:(_:0,6,..;.)_ _ = 7
{0,7)(0.6) + (0,3)(0,4) 9.

Un clculo similar nos da P(B 1Sw) = 2/9.

As. con base en la evidencia que tenemos (es decir. la obtencin de un cara-

melo dulce) es 2! veces ms probable que estemos considerando un depsito


del tipo A que del tipo B. Por lo tanto. decidiramos. posiblemente, que el cara melo se obtuvo de una C<lja tipo A. (Podramos estar equivocados. naturalmente.
Lo interesante del anlisis anterior es que elegimos la alternativa que parece
ms probable con base en los datos limitados que tenemos.)
En trmin os del diagrama de rbol. lo que realmente necesitbamos (e hicimos) en los clculos precedentes fu~.: un anlisis "hacia atrs". Esto es, dado lo
que observamos. Sw en este caso. ;,qu tan probable era escoger el tipo A?
Una si tuacin un poco ms interesante aparece si se nos permite elegir dos
caramelos antes de decid ir si el tipo A o el tipo 8 es escogido. En este caso el diagrama de rbo l aparecer{ como sigue.

1cncmos el caso, ya discutido anteriormente. en que B => A y, por lo tanto,


/'(8 111)
l.
Fn cada uno de los casos anteriores, sabiendo que B ocurri. se nos dio una
111rormacin precisa referente a la probabilidad de la ocurrencia de A. Sin embargo,
hay muchos casos en los cuales se sabe que si un suceso B ocurre, no tiene innuencia
.1lguna en la ocurrencia o no ocurrencia de A.
L'IPLO 3.6. Supongamos que se lanza un dado normal dos veces. Definiremos los sucesos A y 8 como sigue:

= {el pr imer dado muestra un nmero par},

B = {el segundo dado muestra un 5o un 6}.


Por intuicin sabemos que los sucesos A y B no estn relacionados. Saber que 8
ocurre. no proporciona informacin acerca de la ocurrencia de A . De hecho,
d s1guiente clculo lo pone de manifiesto. Tomando como nuestro espacio muestra! los 36 resultados igualmente posibles considerados en el ejemplo 3.1, encontraremos que P(A) = t~ = !-. P(B) = :\i = j, mientras que P(A f'l B) =A= t
Por lo tanto
P(A iB)

= P(A

n B) =

P(B)

L!J = ~.
(

t)

As encon tramos. como era de suponer, que la probabilidad no condicional


es igual a la probabili dad condicional P(AIB). De modo semeJante
P<BiA) = P(B nA)= W
P(A)
( t)

En el problema 3.26 se le pide decidir sobre uno de los dos tipos. A o B. que
usted muestra. segn los tres resultados experimentales posibles que usted observa.

3.3 S ucesos independientes


Hemos considerado dos sucesos A y B que no pueden ocurrir simultneamente. esto es A n 8 =- !'). Tales sucesos se designaron mutuamente excluyentes.
Indicamos previamente que si A y B son mutuamente excluyentes. entonces
PIAIB) = O. porque la ocurrencia de B impide la ocurrencia de A. Por otra parte.

=1=

P(B).

Por lo tanto. podramos estar inclinados a decir que A y 8 son independientes


si y slo si P(BjA) = P(A) y P<BIA) = P(B). Aunque sera muy apropiado, hay
otro mtodo que evita la dificultad encontrada aqu, es decir que ambos P(A)
y P(B). deben ser diferentes de cero antes de que las igualdades anteriores sean
significativas.
Consideremos P(A n 8 ). suponiendo que las probabilidades condicionales
anteriores sean iguales a las probabilidades no condicionales correspondientes.
Tenemos

=
B) =

P(A n B)

P(A 1B)P(B) = P(A)P(B).

P(A n

P(B 1A)P(A)

P(B)P(A).

As encontramos que. como ni P(A) ni P(B) so n iguales a cero. las probabilidades


no condicionales son iguales a las probabilidades condicionales si y slo si
P(A f'l B) = P(A)P(B). Aqu hacemos la siguiente definicin formal. (Si P(A)
o P(B)_es igual a cero, esta definicin es an vlida.]
---

4-1

Probabilidad condicional e independencia

Defmicio.

3.3

ror tndcp.:ndencta. P{E 1"1 N) = P(E)P(N) fo. Por lo tanto, la entrada en


In tabla que indica el nmero de mquinas elctricas nuevas est dada por el

A y B son sucesos independientes si y slo si


P(A 1"1 8) = P(A)P(B).

(3.6)

Observacin: ~'Sta definicin es equivalente a la sugerida anteriormente, es decir. que


l B} - P(A). Esta ltima forma es ligeramente ms intuitiva. porque dice precisamente lo que hemos estado tratando de decir antes:
A y 8 son independientes si el conocimiento de la ocurrencia de A no influye de modo alguno
en la probabilidad de la ocurrencia de B.
Que la definicin formal adoptada tambin tiene un cierto carcter intu11ivo, puede verse
al considerar el siguiente ejemplo.
A y 8 son independientes si P(B i A} "' P(B} y P(A

EJEMPLO 3.7. Veamos otra vez el ejemplo 3.2. Consideremos primero la


tabla siguiente slo con los valores marginales dados.

40

70
30
100

~~ ~~ ~~
60

40

(a)

100

N~70
U~30
60

40
(b)

lOO

= {primer artculo no es defectuoso},

B = {segundo articulo no es defectuoso}.

Esto es. hay 60 mquinas elctncas y 40 manuale~. Del total. 70 son nuevas mientras
que 30 son usadas. Hay muchas maneras de llenar los datos de la tabla, consistcntemente con los totales marginales dados. AbaJO anotamos algunas de esas
posibilidades.

EJEMPLO 3.8. Consideremos un lote grande de artculos, digamos 10.000.


Su pongamos que el 1O por ciento de estos artculos es ddeetuoso y el90 por ciento
no. Se escogen dos artculos. Cul es la probabilidad de que ambos oo sean delectuosos?
Definamos los sucesos A y B as:

~[
60

nmero 42. Las otras entradas se obtuvieron de un modo semejante.


En la mayor parte de las aplicaciones supondremos la independencia de los
dos sucesos A y 8 y luego usaremos esta hiptesis para calcular P(A 1"1 8). como
P(A)P(8). Generalmente, las condiciones lisicas bajo las cuales se realiza el exrerimento harn posible determinar si tal suposicin es JUStificada o al menos
aproxi madamente justificada.

f42 281

70
U ~ ! ~ 30
60
40 100
(e)

Consideremos la tabla (a). Aqu 10das las mquinas elctricas son nuevas,
y todas las usadas son manuales. As hay una relacin obvia (no necesariamente
causal) entre las caractersticas de ser elctricas y ser nuevas. Igualmente, en la
tabla (b) todas las mquinas manuales son nuevas y todas las usadas son elctricas.
Otra vez parece existir una relacin definida entre esas caractersticas. Sin embargo.
cuando observamos la tabla (e) el panorama es muy diferente. Aqu no existe
una relacin aparente. Por ejemplo, 60 por ciento de todas las mquinas son elctricas y exactamente el60 por ciento de las mquinas usadas son elctricas. De modo
semejante, el 70 por ciento de todas las mquinas son nuevas, y exactamente el 70
por ciento de las mquinas manuales son nuevas, etc.... As, ninguna indicacin
nos muestra que las caractersticas de ser nuevas y Ser elctncas tengan alguna
relacin entre s. Naturalmente, esta tabla fue elaborada precisamente de modo que
exhiba esta propiedad. Cmo se obtuvieron los datos de esta tabla? Simplemente
aplicando la ecuacin (3.6); es decir, como P(E) = ~y P(N) = lo% debemos tener.

Si suponemos que el primer articulo se sustituye antes de escoger el segundo,


entonces se puede suponer que los suceso~ A y 8 son independientes y, por tanto
P(A 1"1 8) - (0.9)(0.9) = 0.81. Sin embargo. en forma ms real. el segundo artculo
se escoge sin sustituir el primero. En este caso,
P(A r. 8)

P(8 1A)P(A)

= &m (0,9)

que es aproximadamente 0.81. As, aunque A y 8 no son independientes en el


segundo caso, la suposicin de independencia que simplifica considerablemente
los clculos, causa slo un error despreciable. (Recuerde el objetivo de un modelo
matemtico como el que se describi en la seccin 1.1). Si hubiese habido slo
pocos artculos en el lote. digamos 30. la suposicin de independencia habra
producido un grao error. As, se hace importante verificar cuidadosamente las
condiciones bajo las cuales se realiza el experimento, a fin de establecer la validez
de la suposicin de independencia entre varios sucesos.
EJEMPLO 3.9. Supngase que un mecanismo est formado por dos componentes acoplados en serie, como se indica en la figura 3.4. Cada componente tiene
una probabilidad p de no funcionar. i,Cul es la probabilidad de que el mecanismo
funcione?
FIGURA

3.4

Es evidente que el mecanismo funcionar si y slo si ambos componentes


funcionan. Por tanto
Prob. (Mecanismo funcione)= P rob. (C 1 funcione Y C2 funcione).

46

l'robbilidad condclonal t lndcpcndtnca

La informacin que hemos dado no nos permtte seguir. a menos que sepamos
(o supongamos) que los dos mecanismos trabajan independientemente. Esta
puede o no ser una suposicin realista, que depende de cmo se acoplan las dos
partes. Si suponemos que los dos mecanismos trabajan independientemente, obtenemos para la probabilidad pedida (1 - p)l.
Ser muy importante para nosotros extender la nocin de independencia
a ms de dos sucesos. Consideremos primero tres sucesos asociados con un experimento, digamos: A, 8. C. Si A y 8, A y C, 8 y C, son mutuamente independientes (en el sentido dado anteriormente), entonces no se deduce, en general. que
no haya dependencia entre los tres sucesos A. 8 y C. El siguiente eJemplo (algo
artificial) ilustra este punto.
EJEMPLO 3.10. Supongamos que lanzamos dos dados. Definamos los sucesos
A. B y C. como sigue:
A

EJEMPLO 3.11. La probabilidad de cerrar cada uno de los rels del circuito
que se indica en la figura 3.5 est dada por p. Si to?os los rels funcionan indepcmhentemente ;.cul es la probabilidad de que extsta una comente en los termmales 1 y D?
Sea A1 el suceso que representa {rel i e,t(t cerntdo}. i = l. 2. 3.4. Sea E el su~'\!so que representa {la corriente pasa <k 1 .1 /):. Por tanto E
(A 1 n A 1l ~
(AJ n A4 ). (Note que A 1 f"\ A 2 y A 3 n A 4 no son mutuamente excluyentes.) Ast
P(E) = P(A 1 f"\ A 2 )

= {el primer dado muestra un nmero par},

pz + 11 z _

+ P(A 3 n A4) -

r4 = 2Pz

P(A 1 n Az n A3 f"\ A4)

_ p4.

8 = {el segundo dado muestra un nmero impar},

e= {ambos dados muestran nmeros pares o nmeros impares}.


Tenemos P(A) = P(8) = P(C) = l An ms, P(A n 8) = P(A n C) = P(8 n
C) = !. Por lo tanto, los tres sucesos son mutuamente independientes. Sin embargo, P(A n 8 n C) = O ,. P(A)P(8)P(C).
Este ejemplo motiva la siguiente definicin.
Defmicin. Decimos que los tres sucesos A. 8 y e son muruamente independie/lles si y slo si todas las condiciones siguientes se mantienen:
P(A n 8) = P(A)P(8),
P(8 n C)

P(8)P(C)

P(A n C) - P(A)P(C),
P(A n 8 n

e =

P(A)P(8)P(C).

(3.7)

Finalmente generalizaremos esta nocin a n sucesos. dando la siguiente definicin.


Defmicin. Los 11 sucesos A1 A 2 ,A. son mutuamente independientes
si y slo si tenemos para k = 2, 3. . n.
P(A 1, n A 1, n n A1,)

(Hay 2" -

11 -

= P(A 1,)P(A1,) P(A 1.).

(3.8)

1 condiciones juntas anotadas; ver el problema 3- 18).

Observacin: en la mayor parte de las aplocacione~. no necesitamos verificar todas estas


<'<lndiciones. porque generalmeme suponemos la independencia. (con base en lo que sabemos
a~-erca del experimento). Nosotros. entonces. u-amo> esta suposicin para calcular. digamos:
P(A, " A,, " " A;,)

C(lmO

P(A,,)P(A 1,) P(A 1,).

FtGURA 3.6

EJEMPLO 3.12. Supngase otra vez que en el circuito de la figura 3.6. la prcbabilidad de que cada uno de los rels est cerrado es p y que todos los rels func1onan independientemente. i.Cul es la probabilidad de que exista una corriente
entre los terminales 1 y D'?
Usando la misma notacin como en el eJemplo 3.11, tenemos que
P(E) = P(A 1 n A 2)

P(A~)

+ P(A 3 n

A4) - P(A, n Az nAs)


- P(A 1 n A 2 n A 3 n A4)- P!As n A3 f"\ A4)
+ P(A 1 n A 2 f"\ A 3 n A4 nAs)
pz + p + pz _ PJ _ p4 _ PJ + ps = p + 2pz _ 2pJ _ p4

+ ps.

Para cerrar este capitulo indiquemos un;~ solucin muy comn, pero errnea.
del problema.
EJEMPLO 3.13. Suponga que entre sc1s pernos. dos son ms cortos que una
long1tud especthca. St ~e escogen dos pcrn<h al aLar. cul es la probabilidad de
que lo~ dos ms cortos sean los escogido,' Sea A, el suceso {el -simo perno elegido es corto}, i = l. 2.

48

l'robubilidd condlclonul e Independencia

( onl\idl'rSIICiUil\'' t'"JU\'fnitirll\

1.~

Por lo tanto queremos evaluar P(A 1 n A 2 ). La solucin correcta se obtierc.


naturalmente. al escribir
P(A 1 n A2) - P(A 2I A t!P(A tl =

! ~ =k

La solucin comn pero incorrecra es escribir:


P(A 1 n Az) - P(A 2 )1'( , 11)

Supongamos ahora que deseamos calcular P(B 1 A). As slo necesitamos


t'lllts1derar A; esto es. A' puede ignorarse en los clculos. Notemos que la proporlin de 8 en A es 1/4. (Podemos verilicar esto tambin al aplicar Ec. (3.1): P(B 1A) =
/'(A n 8)/ P(A) = 0,1/0,4 = 1/ 4). Por lo tanto P(B' 1 A) = 3/4, y el diagrama que
1cprcsenta esta probabilidad condicional estara dado por la ligura 3.9.

=! ~ = fs .

Lo imporlantc. en realidad. e~ que aunque la respuesta es correcta. la identilicacin de ~con P(Az) es mcorrecta; ! reprc~nta P( A 2 1 A 1). Para evaluar P(Az)
en forma correcta. escnb1mo~

1.0

B'

3.4

49

Consideraciones esquemticas; probabilidad condicional e independencia

La soluci n csqucmt ti c.t s1guicn te puede ser til para comprender el concepto
de probabilidad condicional. Supngase que A y B son dos sucesos asociados
con un espacio muestra! para el cual las distintas probabilidades se indican en
el diagrama de Venn que aparece en la ligura 3.7.

FIGURA 3.7

0.2

~--------------~

0.25
o
L-----A----~------~~A~'

FIGURA

3.9

N tese tambin que si se da A como ocurrido, todas las probabilidades (~s


decir 1) se deben asociar con el suceso A mientras que ninguna de las pr?bablhdades (es decir 0) est asociada con A' . An ms, ntese que en el reetan~ulo
11quierdo, que representa A, solamente las entradas individuales han camb1ado
de la ligura 3.8 a la ligura 3.9 (sumando 1 en vez de 0,4). S m em.bargo.~ propor\:iones dentro del rectngulo han permanectdo 1guales (es dectr , 3: 1).
- Ilustremos la nocin de independencia, usando la solucin esquemtica presentada anteriormente. Supngase que los sucesos A y 8 se dibujan en la figura 3.1 O.
ln ese caso las proporciones en los dos rectngulos, que representan A y A', son
las mismas: 3:1 en ambos casos. As tenemos P(B) = 0,1 + 0.15
0.25. Y
I'(H n A) = 0.1 /0.4 = 0,25.

Por lo tanto P(A n 8) = 0, 1, P(A) 0.1 + 0,3 = 0,4 y P(B) = 0,1 + 0.4 = 0.5.
En seguida. representemos las diversas probabilidades por las reas de los
rectngulos como en la ligura 3.8. En e<tda caso, las regiones sombreadas indican
el suceso 8 : en el rectilngulo de la izquierda representamos A n 8 y en el de la
derecha A' n B.
06
0.2

0.15

06

0.4
0.45

8'

B'

0.3

u~

0.15

A'

8'

0.4

81

0.3
0.4

' 0.1

3. 10

FIGURA 3.8

A'

F'tGURA

Finalmente, obsrvese que simplemente mirando la ligura 3.8 podemos calcular las otras probabilidades condicionales: P(A 18) = 1/5(puesto que 1/5 del
rea total rectangular que representa 8 est ocupada por A). P(A 'I 8) = 4/ 5.

50

l'robabllldnd condlci~mu l e lndept'lldcncia

PROBLEMAS
3.1. La urna 1 contiene x esferas blancas e y roJas. La urna 2 contiene: esferas blancas
y v roJas. Se escoge una csferu al a.tar de la urna 1 y se pone en la urna 2. Emonces se escoge
una esfera al azar de la urna 2. ,.Cul es la probabilidad de que esta esfera sea blanca'!
3.2. Dos tubos defectuosos \C confunden con dos buenos. Los tubos se prueban. uno
por uno. hasta encomrar los defectuosos.
(a)
(b)
(e)
(d)

i.Cual es la probabolidad de encontrar el ltimo tubo defectuoso en la segunda prueba'!


~.Cu{ol es la probaboli.dad de encontrar el ltimo tubo defectuoso en la tercera prueba'!
<.Cua 1 es la probabohdad de encontrar el ltomo tubo defectuoso en la cuan a prueba'!
Agregue los nmeros obtenodos anteroormentc en (a). (b) y (e). i.Es sorpren<Jcntc el
rc,ultado'!

3.3. Una CaJa contoene 4 tubos malos y 6 hucnos. Se sacan dos a la ez. Se prueba uno
<le ellos Y se encuentra que es bueno. i.Cual es la probabolidad de que el otro tambin sea bueno'!
_3.4. En el problema anteroor los tubos se vcrofiean sacando uno al azar. se prueba y se
repote el proceso ha,la que se encuentran los cuatro tubos malos. i.Cuiol es la probabilidad
de encontrar el cuarlo 1ubo malo.
(a} en la quoma prueba'!
(b) en la dcima prueba?
. 3.5. Su~ngase que A y 8 son dos su~'CSOs indcper.dicntcs asociados con un expcrimcnlo.
So la prob~bolodad de que A o 8 ocurra es igua l a 0.6. mientras que la probabilidad de que A
ocurra es ogual a 0.4. determinar Id probabiliddd de que B ocurra.
3.6. Vcinlc arlculos. 12 de los cuales son defectuosos y 8 no defectuosos, se inspeccionan
uno despus de Olro. Si esos artculos se escogen al azar, ,cul es la probabil oJad de que:
(a) los dos primeros :trliculo~ inspeccoonados sean defectuosos?
(b) los do~ primeros a11cu los inspeccionados sean no dcfccluosos'l
(e) cn1re los dos primero~ arlculos inspeccionados haya uno defec1uoso y uno no defectuoso?
3.7. Supngase que ICncmos 2 urna~. 1 y 2. cada una con dos caJOnes. La urna 1 1icne
una moneda de oro en un CaJn y una de plata en el otro. mientras que la urna 2 1iene una
mo~cda de oro en cada uno de los caJOnes. Se escoge una urna al azar; y de sta se escoge un
Cajor. al azar. La moneda cncomrada en este CUJn resulta -crdc oro. ,Cul es la probabilidad
de que la moneda provenga de la urna 2'1

e,

3.11. Tres componcnlcs de un mecanismo, digamos


e, y e 3 estn col=odos en serie
(rn una lnea recta). Supngase que esos mecanismos estn agrupados en un orden aleatorio.
sea R el suceso {C1est a la derecha de C.}. y sea S el suceso {el es1 a la derecha de e,.
1.Son ondependientes los sucesos R y S? i Por qu?
3.12. Se lanza un dado e, independientemente, se escoge al azar una carta de una bardja
normal. Cul es la probabilidad de que:
(a) el dado muestre un nmero par y la carta sea de un palo rOJO?
(b) el dado muestre un nmero par o la cana sea de un palo rojo?
3.13. Un nmero binario est compuesto slo de los dgitos cero y uno. (Por eJemplo,
1011, 1100, etc.) Esos nmeros juegan un papel imponante en el uso de los compuladores
electrnicos. Supngase que un nmero binario est formado por n dgitos. Supngase que
la probabilidad de que aparezca un dgito incorrecto es p y que los errores en dignos dtfcrentes son independientes uno de otro. Cul es la probabilidad de formar un ntmero incorrecto?
3.14. Se lanla un dado n veces. Cul es la probabilidad de que
vez en los n lanzamientos?

6>~

3.15. Dos personas lanzan tres monedas regulares cada una. Cul es la probabilidad
de que obtengan el mismo nmero de caras?
3.16. Se lanzan dos dados. Puesto que las caras muestran nmeros difercnles. ,cual
es la probabilidad de que una cara sea 4?
3. 17. En la fabricacin de cierto artculo se encuentra que se presenta un tipo de defectos
con una probabilidad de 0,1 y defectos de un segundo tipo con probabilidad 0,05. (Se supone
la independencia entre los tipos .de defectos). Cul es la probabilidad de que :
(a) un articulo no tenga ambas clases de defectos?
(b) un artculo sea defectuoso?
(e) suponiendo que un articulo sea defectuoso, tenga slo un lipo de defecto?
3.18. Verifique que el nmero de condiciones indicadas en la ecuacin (3.8) est dado
por 2" - n- l.
3.19.

Probar que si A y B son sucesos independientes. tambin lo son A y

3.8. Un bol<.o conloene !re; monedas. u n.o de las cuales esta acuada con dos c.oras mocoIras que las otras dos monedas son normales y no son sesgadas. Se escoge una moneda ;ol
aza~ ~el bolso Yse lanza cual ro ''-'CCS en forma succsova. Si cad<1 vez sale cara, ;.cul es la probabohdad de que s1" -.ea l<t moneda con dos car.IS'!
3.9.. ~n una f{tbrica de pernos. las mquinas 4. 8 y C fabrican 25. 35 y 40 por ciento de la
produccoon IOial, re;.pectovamcnlc. De lo que pwducen. 5. 4 y 2 por ciento. respectivamente.
son pernos dcfectuo~os. Se e\C<lgc un perno al a1.ar y se encuentra que es defectuoso. ,Cul
es la probabolod"d que el perno provenga de la mquina A'/ 8'! Cl
. 3.10. Sean A y 8 do\ su~x:so~ asocoado~ con un experimento. Supngase que P(A) ~ 0.4
moentras que P(A v 8) 0.7. Scu P(8) p.
(a) ,Para qu eleccin de p ~on A y B mutuamente excluyentes?
(b) i.Para qu eleccin de p son A y 8 indepcndienles'!

salga al menos una

8, A y 8, A y B.

(a)

(b)
FIGURA 3.11

3.20. En la figura 3.11 (a) y (b) se supone que la probabilidad de que cada rel est cerrado es p y que cada rel se abre o se cierra independientemente de cualquier otro. Encontrar en cada caso la probabilidad de que la corriente pase de 1 a D.

52

t>rohlcnu"

Probabilidad condldonal e indepcnd~ncla


TABLA

Nmero
de fallas

!l.l

3.27. Cada vc1 que 'e hace un experimento. la ocurrencia de un suceso particular A es
1ual a 0,2. El experimento se repite. indepcndcntcmente, ha;,ta que A ocurre. Calcule la proll.lbJhdad de que sea necesario realizar un cuarto experimento.

3.2

0.1

0.2

0.3

0.2

0.09

0.07

0.04

0.3

0.1

0.1

0.1

0.1

0.15

0.15

3.2 1. Dos mquinas, A. B, que se accionan independientemente. pueden tener un cierto


nmero de fa ll as cada da. La tabla 3.2 da la di~tribucin de probabi lidades de las fallas de
cada una. Ca lcular las siguientes probabilidades:
(a) A y 8 tienen el mismo nmero de fallas.
(b) El nmero de fallas es menor que 4; menor que 5.
(e) A t1ene ms fallas que B.
(d) 8 t1ene el doble de fallas que A.
(e) 8 tiene 4 fallas. cuando se sabe que 8 tiene pOr lo menos 2 fallas.
(r) El nmero mnimo de fallas de las dos mtqumas es 3; es menor que 3.
(g) El nmero mximo de fallas de las mqumas es 3; es ms que 3.

3.28. Supngase que un mecanismo tiene N tubos. todos los cuales son necesarios para
u fuocJonamicnto. Para localizar el tubo que func1ona mal. se reemplaza sucesivamente
~.1da uno de ellos pOr uno nuevo. Calcular la probabilidad de que sea necesario verilicar N
tubos si la probabilidad (constan te) es p de que un tubo est daado.
3.29.

Probar : Si P(A 1B) > P(A) entonces P(8 1A) > P{8).

3.30. Un tubo al vaco puede provenir de uno cualquiera de tres fabricantes con prolmbilidadcs p1 0,25, p2 ~ 0,50 y p3 = 0,25. Las probabi lidades de que el tubo funcione
~orrectamen te durante un perodo de tiempo especilicado son iguales a 0.1, 0.2 y 0,4. respecllvamente, para los tres fabricantes. Calcular la probabilidad de que un tubo elegido alcatonamenle funcione durante el perodo de tiempO especilic:tdo.
3.31. Un sistema elctrico consta de dos interruptores del tipo A, uno del tipO B. y cuatro
del tipO C. conectados como aparece en la ligura 3.12. Calcule la probabilidad de que no sc
rueda elimmar una falla en el circuito. con la llave K slos mtcrruptores A. By C estn abiertos
(C> decir. fuera de servicio) con probabilidade' 0.3. 0.4. 0.2. respectivamente y si dlns funCIOnan independientemente.

3.22. Al vcrilicar la ecuacin (3.2), se observa que para A liJO. P(8 1 A) satisface los diversos postulados de la probabi lidad.
3.23. Si cada uno de los elementos de un determ inante de segundo orden es cero o uno.
cu l es la p_robabilidad de que el valor del determinante sea positivo? (Supngase que las
entradas mdiVIduales del determmantc se escogen independientemente, se supone que cada
uno de los valores tiene probabilidad!.)
. 3.24. Verifique que el teorema de la multiplicacin P(A r1 B) = P(A 1 8)P(8), estableCido para dos sucesos. se puede generalizar p.ra tres sucesos como sigue:
P(A rl B rl C)

= P(A 1B r1 C)P(B 1C)P(C).

3.25: Un conJunto electrnico consta de dos subsistemas. digamos A y B. A partir de


una sene de pruebas prev1as, se presupOnen las siguientes probabilidades:
P(A fa lle)

= 0,20

P(B slo falle) 0,15


P(A y 8 fallen) 0,15

Calcular las probabilidades siguientes.


(a) P(A falle 18 haya fallado).
(b) P(A falle solamente).

3.26. Finalice el anlisis del ejemplo dado en la seccin 3.2 decidiendo cul de los tipOS
de tarros de caramelos. A o B. es el escogido con base en el conocimiento de los dos caramelos que fueron muestreados.

fiGURA

3.12

3.32. La probabilidad de que un sistema se sollrecargue es 0.4 durante cada conJunto


de ensayos de un experimento. Calcule la probabi lidad de que el sistema deje de funciOnar
en tres ensayos independientes del experimento si las probabilidades de fallar en 1, 2 3 ensayos son iguales a 0,2, 0,5 y 0.8, respectivamente.
3.33. Se em iten cuatro seales de rad io sucesivamente. Si la recepcin de cualquier seal
es independiente de la recepcin de otra y estas probabi lidldcs son 0.1; 0.2; 0.3 y 0.4 respectivamente, calcule la probabilidad de que la seal k sea recibida por k = O, 1, 2. 3, 4.

3.34. Un aficionado usa el siguiente sistema para pronosticar el tiempO atmosfrico.


Clasilica cada da como SCCO>> o <<mOJado y supone que la probabilidad de que cualquier
da dado sea igual al precedente est dada pOr una constante p(O < p < 1). Con base en anotaciones anteriores. se supOne que el 1 de enero tiene una probabhdad {J de ser seco. SupOniendo que JJ. probabilidad (el n-simo da del ao es seco). obtener una expresin
para P. en funcin de P y p. Evaluar tambin lim.-,.JJ. e mterpretar su resultado.
(IndiCacin: expresar (1. en funcin de P.- 1).

S4

Probabilidad condicional e independencia

3.35. En una ciudad se publican los peridicos A, B y C. Una encuesta reciente de lectores indica lo siguiente: 20 por ciento lee A, 16 por ciento lee B, 14 por ciento lee C, 8 por
cien to lee A y B, 5 por cien to lee A y C, y 2 por ciento lee A, B y C. Para un adulto escogido al azar, calcular la probabilidad de que (a) no lea ninguno de los peridicos (b) lea exactamente uno de los peridicos (e) lea al menos A y B si se sabe que lee al menos uno de los
peridicos publicados.

4
Variables aleatorias unidimensionales

3.36. Una moneda normal se lanza 2. veoes.


(a) Obtener la probabilidad de que haya un nmero igual de caras y sel los.
(b) Verificar que la probabilidad calculada en (a) es una funcin decreciente den.
3.37. Cada una de las urna 1, urna 2, , urna n, contiene a esferas blancas y p esferas
negras. Se pasa una esfera de la urna l a la urna 2 y luego se pasa una de la urna 2 a
la u rna 3, etc. Finalmente, se escoge una esfera de la urna n. Si la primera esfera que se pas
era blanca, cul es la probabilidad de que la ltima esfera elegida sea blanca? Qu sucede
cuando. n-+ oo? [Indicacin: sea p. = Prob (n-sima esfera pasada sea blanca) y exprese p.
en functn de p. _ 1.)
3.38. La urna 1 contiene a esferas blancas y P esferas negras mientras que una urna 2
con tiene a esferas blancas y Pnegras. Se escoge una esfera (de una de las urnas) y luego se dev~elve a esa urna. Si la esfera escogida es blanca, se escoge la esfera siguiente de la urna 1;
so la esfera escogtda es negra, se escoge la siguiente de la urna 2. Contine de esta manera.
Co,m o la primera esfera e~ogida proviene de la urna l , obtener Prob (n-sima esfera escogida
sea blanca) y tambtn el bmlte de esta probabilidad cuando n .... oo.
3.39. Una mquina impresora puede imprimir n letras, digamos a 1 , . , a . Esta
mquina es operada por impulsos elctricos y cada letra es producida por un impulso diferente.
Supngase que exista. una probabilidad constante p de imprimir la letra correcta y tambin
suponga mdependenc1a. Uno de los n impulsos, escogido al azar, aliment la mquina dos
v~ces Y las. dos veces se imprimi la letra cx 1 Calcule la probabilidad de que el impulso escogidO estuv1ese proyectado para imprimir cx 1

4. 1 Nocin general de una variable aleatoria

Al describir el espacio muestra! de un experimento. no especificamos que un


resultado individual necesariamente tiene que se r un nmero. De hecho, hemos
citado varios ejemplos en los cuales el resultado del experi mento .no fue una
cantidad numrica. Por ejemplo, al clasificar un artculo manufacturado si mplemente podramos usar las categoras defectuoso y <<no defectuoso. En otro
caso. para observar la temperatura durante un perodo de 24 horas sencillamente podramos mantener un registro de la curva trazada por el termgraro. 'Sin
em bargo, en muchas situaciones experimentales vamos a interesarnos en medir
algo y anotarlo corno un nmero. An en los casos citados anteriormente podremos asignar un nmero
cada uno de los resultados (no numricos) del
experimento. Por ejemplo, pudimos asignar el valor uno a artculos no defectuosos y el valor cero a los defectuosos. Pudimos anotar la temperatura mxima del da, o la mnima, o el promedio de las temperaturas mxima y mnima.
Las ilustraciones anteriores son caractersticas de una clase muy general de
problemas. En muchas situaciones experi mentales deseamos asignar un nmero rea l x a cada uno de los elementos s del espacio muestra! S. Esto es, x = X(s)
es el valor de una funcin X del espacio muestra! a los nmeros reales. Teniendo
esto presente, hagamos la siguiente definicin form al.

Defmicn. Sea un experimento ; y S el espacio muestra! asociado con el


experimento. Una funcin X que asigna a cada uno de los elementos
se S, un nmero rea 1 X(s), se llama variable aleatoria.
Observaciones: (a) La terminologa anterior es algo desarortunada. pero como es tan
universa lmente aceptada. nosotros no nos apartaremos de ell a. Hemos hecho lo ms claro
postble que X es unafuncilr y todava la llamamos variable (aleatori>l).
(b) Resulta que no toda runcin que se conciba puede ser considerada como una variable
aleatoria. Una exigencia (aunque no la ms general) es que para todo nmero real x el suceso
f X(s) = x} y para todo intervalo 1, el suceso {X(sJ E 1} tiene probabilidades bien definidas y
consecuentes con los axiomas bsicos. En la mayora de las aplicaciones no aparece esta dificultad y no haremos rererencia posterior.
55

56

Vurablr~

nlculora' unldlrncn,Junulcs

4.t

(e) En algunos cabos el resultado ' del c~pac1o muestra! es ya la caracterstica numrica
que queremos anotar. Sencillamente tomemos X(s) o: s. la funcin identidad.
. (d) En la mayora de las di~cusione, de variables aleatorias que siguen. no necesitamos
md1car la naturale7a funciomtl de X . Generalmente nos tnleresamos en Jos valores po.,ibles
de X. en vez de mdagar de dnde provienen esos valores. Por ejemplo. supongamos que lanza.
mos dos monedas y con,1dcremos el espacio muestra! asociado con este experimento. Esto es,
S

{CC.CS. SC.SS I.

Definamos la vanable aleatorm X como "gue: Y es el nmero de caras obtenida,. en los dos
huuamientos. Por lo tanto \'(('(') .:!. ,\((SI - .\'(SC) "' 1. y X(SSJ =o.

F IGURA 4. 1

JC) Es muy importante comprender ljue una exgcnc1a bsica de una funcin (una-variada):
a cada" e S le corresponde Hactameme un valor X(s). Esto se demuestra esqucmilticamcnte
en la figura 4.1. Valore> diferentes de s pue1lm dar el mismo valor de X . Por eJemplo en la
ilustracin anterior encontramo; que X(CSI X(SC) = l.

El espacio Rx. el conJunto de todos los valores posibles de X, se llama algunas veces el recorrido. En ciertos sentidos podemos considerar a Rx como
otro espacio muestra l. El espacio muc'>tral (original) S corresponde a los resultados
no numricos (posiblemente) del experimento. mientras que Rx es el espacio muestra! asociado con la variable aleatona X. que representa la caracterstica numnca
que puede ser de mtcr-,. Si X(s) - s. tenemos S = Rx.
~un~uc cMamos consc1cntcs del peligro pedaggico que existe al dar muchas
exphcac~one~ de la m1sma coMJ. sealemos sin embargo que podemos concebir
una \'anable aleatona X de dos maneras:
(a) Realizamos el cxpenmcnto r. que tiene como resultado s E S. Luego evaluamos el nmero ,\ (s).
(b) Efectuamos c. y obtenemo~ el resultado s. e (inmediatameme) calculamos X(s). El nmero .\ (.~) se considera entonces como el resuhado obtenido en
el experimento y Rx llega a ser el espacio muestra! del experimento.
. La dtfcrencta entre las Interpretaciones (a) y (b) es muy dificil de captar. Rela!Jv~mentc es muy pequea. pero es digna de atencin. En (a) el experimento
termma. de hecho. con la observacin de s. La evaluacin de X(s} se considera
como algo que se hace posteriormente y que no est afectada por la aleatoriedad de 1:. En (b) se considera que el experimento no est terminado hasta que

Nodo)n tncrftl dt unu riubl< lculnrl

1.1

57

el nmero X(s) ya se ha calculado y ha resultado as en el espacio muestra! Rx.


Aunque la primera interpretacin, (a), es la que se pretende corrientemente, el
,cgundo punto de vista, (b), puede ser muy til y el lector deber recordarlo.
Lo que queremos decir. y esto ser ms evidente en las ltimas secciones, es que
al estudiar variables aleatorias estamos ms interesados respecto a los valores
4'eJ.Q_ma X q~e de su forma funcional. Por lo tanto, en muchos cas~s ignoraremos
completamente el espacio muestra! sobre el cual se puede dcfimr X.
EJEMPLO 4.1. Supongamos que se pone una bombilla en un portalmparas.
Se considera que el experimento termina cuando la bombilla se apaga. cul
es un resultado posible, digamos s? Una manera de describir s seria anotando
"mplemente la fecha y la hora del da en la cual la bombilla se quema, por
eJemplo 19 de mayo, 4:32 p.m. Por lo tanto el espacio muestra! se puede repre
presentar como S = {(d. t) 1d = fecha, t = hora del da}. Posiblemente la vartable aleatoria de inters es X, la duracin del encendido. Ntese q!!.e_!!!l!L vez
4ue se ha observado s = (d, t), la evaluacin de X(s) no indica ninguna aleato
ricdad. Cuando est~ _especificado s, ~(s) est completamente determinado.
Los dos puntos de vista expresados anteriormente pueden aplicarse a este
eJemplo como sigue. En (a) consideramos que el experimento termina con la observacin s = (d, t), la fecha y la hora del da. El clculo de X(s) se efecta, entonces, haciendo una sencilla operacin aritmtica. En (b) consideramos que el
experimento est terminado slo despue~ de que se haya calculado X(s) y el
nmero X(s) = 107 horas, por ejemplo, se considera como el resu ltado del experimento.
Podra seflalarsc que un anlisis similar se podra aplicar a otra variable
aleatoria de inters, por ejemplo, Y(s) la temperatura en la habitacin en el instante en que la bombilla se quem.
EJI!MI'LO 4.2. En una mesa se lanzan tres monedas. Tan pronto como las
monedas caen . en la mesa, la fase "aleatoria" del experimento ha terminado.
Un solo resultado s podria consistir en una descripcin detallada de cmo y
dnde cayeron las monedas. Posiblemente estamos interesados slo en ciertas
caractersticas numricas asociadas con este experimento. Por eJemplo, podramos calcular
X(s) = nmero de caras que aparecen,
Y(s) = distancia mxima entre dos monedas cualesquiera,

Z(s) = distancia mnima de las monedas de cualquier arista de la mesa.


Si la variable aleatoria X es de inters, como indicamos en el ejemplo anterior
podramos incluir la evaluacin de X(s) en la descripcin del experimento y por
lo tanto indicar simplemente que el espacio muestra! asociado con el experimento es {O, 1, 2, 3}. que corresponden a los valores de X. Aunque muy a menudo

58

V1riabi''S lleatoriiiS unidlnwnslonales

Nocibn g<n~rol de "''" ihh llotla

4.1

adoptaremos precisamente e~lc punto de vista, es importante establecer que la


cuenta del nmero de caras se hace despus de que ba terminado la parte aleatoria del experimento.
~bservacwn . al referirnos a variables aleatorias usaremos, casi sin excepcin, letras
mayusculas tales como X. Y. Z , etc. Sin embargo, cuando hablamos del valor de esas variables
aleatorias suponemos que en general usaremos letras minsculas tales como x, y, z, ere. Esta es
una disrincin muy imporranre que debemos hacer y el estudian re debe considerarla detenidamenre. Por CJC~plo, cuando hablamos de escoger al azar una persona de alguna poblac1n
sealada Y med1r su altura (en pulgadas, por ejemplo). podamos referimos a los resultados
posibles como una variable alearoria X . Podramos luego hacer varias pregunras acerca de X
raJes como P(X) ~ 60 . Sin embargo, una vez que escogemos una persona y medimos su altura:
obrenemos un valor especfico de X , por ejemplo x. As no sea importante preguntar por
P(x ~ 60) puesro que x es o no ~ 60. Esta distincin entre una variable aleatoria y su valor
es Importante. y haremos refercnctas poMeriores a ella.

As como nos interesamos por los sucesos asociados con el espacio muestra!
S, tambin ser necesario tratar sucesos con respecto a la variable aleatoria X.
esto es, subconJunto del recorrido Rx. Muy a menudo ciertos sucesos asociados
con ~ estn relacionados (en un sentido que luego describiremos) con sucesos
asoc1ados con Rx de la manera siguiente.
Definicin. Sea e un experimento y S su espacio muestra!. Sea X una variable aleatoria definida en S y sea Rx su recorrido. Sea B un suceso respecto a Rx ; eslo es, Be: Rx. Supongamos que A se define

A = {se S I X(s)

B}.

(4.1)

En palabras: A consta de todos los resultados en S para los cuales


X(s) E B (figura 4.2). En este caso decimos que A y B son sucesos equi-

valemes.

-- - -

f iGURA

4.2

Obser~c1anes: (a) Expresando ms informalmente lo anterior. A y 8 son sucesos equivalentes Siempre que ocurran JUntos. Esto es. siempre que A ocurre, ocurre 8 y viceversa.
Si ocurri A. en ronces se obruvo un resultado s para el cual X(s) E 8 y por lo tanto ocurri
B. R~procamentc, si 8 ocurri, se observ un valor X(s) para el cual sE A y por lo ranto
ocumo A.
(~) Es importante destacar que en nuestra definicin de sucesos equivalentes, A y 8 estn
asoc1ados con espacios muestralcs dlferenres.

!N

4.3. ConMdcremos el lanzamiento de dos m&nedas. En este caso


{ CC. CS. SC. SS}. Sea X el nmero de caras obtenidas. En este caso Rx =
lO,
Sea B = { 1}. Puesto que X(CS) = X(SC)
1 si y slo si X(s)
l . tenemos que A = {CS. SC} es equivalente a B.
rJLMI't.O

.'i

u:.

Ahora damos la siguiente definicin importante.


Definicin. Sea 8 un suceso en el recorrido Rx. Deji11imos entonces P(B)
como sigue:
(4.2)
A = {sE S I X{s) E B}.
P(8) = P(A).
en donde
En palabras: Definimos 1'(8) igual a la probabilidad del suceso A e: S.
que es equivalente a B. en el sentido de la ecuacin {4.1).
Observaciones (a) Suponemos qu~ las probabilidades se pueden asociar con suce50S en
S Por tanto la definicin anterior hace posible ~sig!!!.!:_ probabilidades a sucesos a'>ociados
con Rx en funcin de probabilidades definidas en S.
lb) Realmente es posible probar que P(B) debe ser como se dcfinr. Sin embargo. esto

implicara alguna dilicultad terica que queremos evitar y, por tanto, prosegUiremos como
antes.
(e) Puesto que en la formulacin de la ecuacin (4.2) los sucesos A y 8 se rcliercn a espacios mucstrales diferentes, realmente deberamos usar una notacin diferente cuando nos
referimos a las probabilidades .definidas en S y para las definidas en Rx, por CJemplo algo
como P(A) y Px(B). Sin embargo, no haremos esto ~ino que continuaremos escribiendo simplemente P(A) y P(B). El contexto dentro del cual aparecern estas expresiones harn evidente la interpretacin.

(d) Las probabilidades asociadas con sucesos en el espacio muestra! S (orip.inal) cst~n,
en un M:n tido, dclcrminadas por fuerzas que escapan a nuestro control>> o, como _se d1ce
algunas veces ((por naturaleza. La constitucin de una fuente radioactiva que em1te partculas. la d1~.tribucin de un gran nmero de personas que podra hacer una llamada telefnica durante cierta hora y la agitacin trmica que resulla de una corriente o las condiciones atmosfricas que dan origen a una fuente de tormenta. ilustran este punto. Cuando
introducimos una variable aleatoria X y >U recorrido asociado Rx. ndudmo.< probabildade:. sobre lo~ sucesos asociados con Rx que se determinan e.~trictamente si las posibilidades
asocrada:. con los sucesos en S estan espco.:ficadas.
EJilMPt.O 4.4. Si las monedas consideradas en el eJemplo 4.3 son <mormales. tenemos P(CS) = P(SC) =!. Por tanto P(CS. SC) =! + ! == !. (Los clculos anteriores son una consecuencia directa de nuestra suposicin bsica que
se refiere a la regularidad de las monedas.) Puesto que el suceso {X = 1} es equivalente al suceso {CS.SC}. usando la ecuacin {4.1), tenemos que P(X :.. 1) =
P{CS. SC) = 1. [Realmente no haba eleccin acerca del valor de P(X = 1), consistente con la ecuacin (4-2), una vez que se determin P(CS. SC). En e~te sentido se inducen las probabilidades asociadas con sucesos Rx.]
Ob.,ervodtln: ahora que hemos establccdo la existencia de una funcin de probabilidades inducidas sobre el recorrido de X (ecuaciones 4.1 y 4.2) encontraremos conveniente suprimir la naturaleza funcional <le X. Por lo tanto escribiremos (como lo hicimos en el eem-

641

Variabl"" olatorla unidtncn~illllales

plo amerior), P(X


1) l. Lo que se quiere decir es que un suceso en el espac1o muestra!
S, lla~ado {CS,s~.l
{si X(s) 1} ocurre con probabi lidad . Por lo tanto as1gnamos
esa m1sma probab1hdad al suceso {X - 1} en el recorrido. Continuaremos escribiendo expresiones como P(X 1), P(X S 5), el c. Es muy importante que el lector se d cuen1a de
lo que esas expresiones representan realmente.

.. Una vez q.ue se han determinado (o ms exactamente inducido) las probabilidades asoc1adas con varios res ultados (o sucesos) en el recorrido Rx ignoraremos a menudo el cspac10 muestra! original S que dio lugar a esas probabilidades. As. en el eJemplo anterior. estamos simplemente interesados en RA = {0.
l. 2} Y las probabilidades asociadas (!.t.!). El hecho de que estas probabilidades estn determinadas por una funcin de probabilidad definida en el espacio
muestra! ongmal S no nos preocupa SI estamos interesados slo en estudmr los
valores de la vanable aleatoria X.
Al discutir. en detalle. muchos de los conceptos importantes asociados con
variables a~eatorias. enc~ntra_rcmos conveniente distinguir dos casos importantes: las var~able~ aleatonas d1scretas y las continuas.

4.2

Definicin. Sea ,\ una variable aleatoria discreta. Por tanto Rx. e l recorrido
de ,\ . con~ta. a lo ms. de un nmero de valores. x1.x2. mnmto numerable. Con cada resultado posiblex1asociamos un nmero p(:<)
P( .\ = X).
llamado la probabilidad de x1. Los nmeros p(x,). i
l. 2. deben
~allsfacer las condiciones siguientes:

(al

p(x) ~

(bl

(4.3)

para todo i.

p!x,)

l.

t a func1n p definida anteriormente se llama funcin d' probubiliclud (O funcin


111.' probabi lidad puntual) de la variable aleatoria X. La colecc1n de pare'> {x, p(x,)).
1. 2..... se llama algunas veces distribucin de prohuhilidud de X.

Variables aleatorias disc retas


Defmicin. Sea X una variable aleatoria. Si e l nmero de valores posibles
de X (es to cs. Rx. e l recorrido) es fini to o in finito numerab le. llamamos
a X una 11ariab/e aleatnria discr;a. Esto es. se pueden anotar los valores
pos ib les de X como x" xl. x. En el caso fini to la lista term ina
Y en el caso infini to numerab le la lista contina indefinidamente.

EJEMPLO 4.5. Una fuente radioactiva emite partculas alfa. Un contador observa la emisin de esas partculas durante un periodo de tiempo especificado.
La siguiente variable aleatoria es de inters: X = nmero de partculas observadas. i.Cules son los valores posibles de X? Supondremos que estos valores
constan de todos los enteros no negativos. Esto es, Rx = {0. 1. 2..... n, .. }.
Una objecin que vimos anteriormente puede aparecer de nuevo en este punto.
Podra argirse que durante un intervalo de tiempo especificado (finito) es Imposible observar m> de N partculas, por eJemplo. en donde N puede ser un
entero positivo muy grande. Por tanto los valores posibles de X realmente serian:
O, l. 2. . N. Sin embargo resulta que matemticamente es ms sencillo considerar la descripcin Idealizada dada anteriormente. De hecho. cada vez que
suponemos que los valores posibles de una variable aleatoria X son infinitos
numerables estamos cons1derando en ese momento una representacin idealizada de X.

En vista de nuestros comentarios previos sobre la descripcin probabilstica


de s ucesos con nmero finito de elementos o infinitos numerables. la descripcin
probabi lstica de una variable aleatoria discreta no nos causar ninguna dificultad. P rocederemos como se indica a continuacin.

F IGURA

4.3

0/l.wrtJCiciones : (a) La eleccin particular de los nmeros p(x,) posiblemente ~stit dctcnm
11uda por la funcin de probabilidad asociada con sucesos en el espacio muestra! S sobre
d cual se define X. Esto cs. p(x 1) = P(s 1 X(s) = x 1). (Ver ecuaciones 4.1 y 4.2.) Sin embargo.
1111~'to que slo estamos interesados en los valores de X. eslo es Rx. y en la, probubdidadcs
1w~iadas con esos valores, omitimos nuevamente la naturaleza funcional de X. (Ver figu1.1 4.31. Aunque en la mayoria de los c-asos. de hecho. los nmeros se dclcrminar:in de la distllhucln de probab1hdades en algn espacio muestra! fundamcnla l S. n~tdcuiN conJunto
tic nmero. p( ,,que ~usfaga la ecuacin (4.3) puede ~erv1r como una dc,cripcin probabl
ll\ltca propm de una variable alea10ria discreta.
tbJ St ,\ toma slo un nmero linito de valores. por CJemplo '(,. ..'(,. cnloncc'o p(\) - O
para 1 > N. y por lo tanto la serie infimta en la ecuacin (4.3) lle~a a -.cr una <,urna fimta
{e) Nuevamente podemo ob.enar una analogia con la mcc<in1ca al cons1dcrar una ma>a
hltal unttana d1s1nbU1da sobre la recta real con la masa completa ub1cada en lo .. puntos
' 1 '(z, Los nmeros p(x,) representan la cantidad de masa ub1cada en '
(d) La mterprctaC1n geomtrica (figura .t.4) de una d1s1nbuctn de probahllidad~-. C'o
,tempre uttl.
p(.'()

~~~~~~~-x
x 1 x 2 xa

FIGURA

x,.

4.4

FIGURA 4.5

62

Variables aleatoria unldlmenionales

4.2

Sea B un suceso asociado con la variable aleatoria X. Esto es Be R11 (figura 4.5).
Especficamente, supongamos que B = {x1,, x12, -}. Por tanto
P(B) = P[siX(s)e B]

(puesto que estos sucesos son equivalentes)

= P[siX(s) = x,.j =

1, 2, ] =

"'
L:

p(x).

Oh\tFJadcmes: aqui empleamos el rc.ultado de que la serie Y''Omttrica 1 + r ~ r +


.,11\Cr.!e a 1 (1 - r) s1cmpre que 1ri < l. A este resultado nos referiremos vanas vec..'S. Sul'""i!'"e que queremos calcular P(A). en donde A se define como 1El experimento termina
11 .pui:s de un nmero par de repeticiones!. Usando la ecuacin (4.4), tenemos
2

P(A) =

(4.4)

..

p(211) =

:1

j = 1

3
16

En palabras:J.!t probabilidad de un suceso Bes igual a la suma de las probabilidades


de los resultados individuales asociados con B.

= 1~(1 +-J\+)

Observaciones: (a) Supngase que la variable aleatoria discreta X puede tomar slo un
nmero finito de valores, por eJemplo x, . "" S cada resultado es igualmente probable,
obviamente tenemos p(x 1 ) = = p(x,.) = 1/N.
(b) Si X toma un nmero infinito numerable de valores, entonces es imposible tener todos

= 16 1 - ; . : 5.

lQL!:CSultadqs igualmente probables. Porque no podemos satisfacer posiblemente la cOdicin I:~ , p(x1) = l si debemos tener p(x1) = e para todo i.
(e) En cada intervalo finito habr cuando ms un nmero finito de valores posibles de
X . Si uno de tales intervalos no contiene ninguno de los valores posibles le asignamos probabilidad cero. Esto es, si Rx = {x,x 2 , , x.} y si ningn x1 e(a,b), entonces P[a ~ X

::; b)

=o.

EJEMPLO 4.6. Supngase que se pone un tubo de radio en un soporte y se


prueba. Supngase que la probabilidad de que el control sea positivo es igual
a i: por tanto la probabilidad de que el control sea negativo es !. Supngase
adems, que probamos una gran cantidad de tales tubos. La prueba contina hasta
que aparece el primer tubo positivo. Definase la variable aleatoria X como sigue:
X es el nmero de pruebas necesarias para finalizar el experimento. El espacio
muestra! asociado con este experimento es
S = { +.-

+.- - +,- - - +, .. }.

Para determinar la distribucin de probabilidades de X razonamos como sigue.


Los valores posibles de X son ! , 2, , n, (obviamente estamos considerando
el espacio muestra! idealizado). Y X = n si y slo si los primeros (n - 1) tubos son
negativos y el n-simo tubo es positivo. Si suponemos que la condicin de un tubo
no afecta la condicin de otro podemos escribir
p(n) = P(X

= n) = (if- '(l),

= !, 2,

..

Para verificar que estos valores de p(n) satisfagan la ecuacin (4.3), observemos que

L
G()

p(n) = -3 ( 1 + -1 + -1
4

=_*=1.

16

+ ...)

1>3

L.a dbtrlbudn normal

4.3

3
256

+ ...

La distribucin binomial

En los captulos linaJes consideraremos, en forma detallada diversas variables


h:atorias discretas importantes. Por el momento slo estudiaremos una de estas
y luego la usaremos para ilustrar varios conceptos importantes.

,1

EJtMPL.O 4.7. Supngase que los artculos que salen de una lnea de produci:In se clasifican como defectuosos (D) o no defectuosos (N). Supongamos que se
11gcn al azar tres artculos de la produccin de un da .Y se clasifican de acuerdo
con este esquema. El espacio muestra! para este cxpcnmcnto, d 1gamos S, puede
descri birse as:

S= {DDD. DDN. DND,NDD. NND. NDN. DNN. NNN}.

(Otra manera de describir S es como S= S 1 x Sz x SJ, el producto cartesiano


oc S, S2. y S 3 , en donde cada S1 = {D, N}.)
Supongamos que con probabilidad 0,2 un articu lo es defectuoso y por lo tanto
con probabilidad 0,8 un artculo no es defectuoso. Supongamos que esas .probablhdades son iguales para cada artculo al menos durante nuestro estud1o. Fmalmentc,
supongam()S que la clasificacin de cualquier artculo particular. e.s independiente
de la clasificacin de cualquier otro artculo. Usando estas supostc1oncs. se deduce
que las probabilidades asociadas con los diversos resultados del espacio muestra! S
como se describi anteriormente son

(0,2) 3 , (0,8)(0,2) 2 (0,8)(0,2) 2 , (0,8)(0,2) 2 , (0,2)(0.W, (0,2)(0,W, (0,2)(0.W. (0,8)

Corrientemente nuestro inters no se enfoca hacia los resultados individuales de S;


sino que, simplemente, deseamos saber cuntos artculos defectuosos se encuentran
(sin considerar el orden en que ocurrieron). Es decir. deseamos considerar la
variable aleatoria X que asigna a cada uno de los resultados se S el nmero de
artculos defectuosos encontrados en s. Por tanto el conjunto de valores posibles
de X es {0, 1, 2, 3}.

6-1

V nlabl<"i al<alorias unidimensionale

4.3

Pod.emos obtener la distribucin de probabilidades para X. p(x1)


como s1gue:

X=
X=
X=
X =

O
1
2
3

si y slo si ocurre
si y slo si ocurre
si y slo si ocurre
si y slo si ocurre

P(X _ x 1)

NNN:
DNN. NDN. o NND:
DDN. DND, o NDD;
DDD.

= P(X

= O)= (0,8)3,
2

p(t)

p(2) == P(X = 2) = 3(0.2) (0.8).

= P(X
p(3)

binomial

Dl'mo.ltracin. com1dcremos un elemento particular del espacio muestra) e


que ,au~faga la cond1c1n de que X = k. Tal resultado aparecera. por ejemplo.
1 l.es pnmeras k repeticiOnes de & resultasen en la ocurrencia de A mientras que las
uhunas 11 - k repeticiones res ultasen en A. es decir :
1

L.__

1) = 3(0,2)(0.8)2.

P(X

~l,trlboa<UNI

AAA ... A AAA ... A

(Ntese que {NNN} es equivalente a {X= O}. cte.) Por Jo tanto

~0)

l.o

11

3) = (0.2)3.

Nt~s~ que la suma de estas probabilidades es igual a 1. porque la suma puede


escnb1rsc (0.8 + 0.2)3

S = {DDD, DDN. DND, NDD. NND, NDN, DNN, NNN}

licnen las probabilidades dadas por el ejemplo 4.7, que determina el valor de p(.~) para todo
xeRx.

Generalicemos ahora las nociones presentadas en el ejemplo anterior.


Definicin. Consideremos un expenmento e y sea A un suceso asociado con c.
Supon~amos. que P(A) == P Y por lo tanto P ()l) = 1 - p. Consideremos 11
repeticiones mdependientes de t. Por lo tanto el espacio muestra) consiste
en ~odas las sucesiones posibles {a ~o a2 , a.}. en donde cada a1 es A 0 A,
~gu~ que .A o ~ ocurra en la i-sima repeticin de e. (Hay 2" de tales suceclone~.~ Aun mas, supongamos que P(A ) = p es el mismo para todas las
repet1c1ones. Definamos la variable aleatoria X como sigue: x = nmero
de ve~es que ocurri el suceso A. Llamamos a X una variable aleatoria
b111omwl con los ~armctros 11 y p. Sus valores posibles obviamente son
0: 1, 2. , n. (Dec1mos en forma equivalente que X tiene una distribucin
btnomtal} Las repeticiones individuales de se llamarn ensayos de

Bemoullt.

Teorema 4.1. Sea X una variable benomial basada en n repeticiones. Entonces

(4.5)

Puesto que todas las repeticiones son independientes, la probabilidad de esta


>ll~:csi n particular seria pk( l - p)" - k. Pero exactamente la m isma probabilidad
,.,lara asociada con cualquier otro resultado para el c ual X "" k. El nmero total
tic tales resuhat.los es igual a (Z). por lo que debemos elegir e xactamente k posiciones
(l-ntre n) para las A. Pero esto produce el resultado anterior ya que esos (~) rcsull.tdos son mutuamente excluyentes.
Ob:wrtacimw.~.

(a) Para vcrolicar nucslros c. lculos ob:.cr"cmo~ que. usando el leorema


[p + ( 1 p)] = 1 = l. como
0 P(X = kj =
0 ()p'( 1 - pr
okbera ser. Puc<.IO que la' probabilidades (;)p'll
pr \C oblienen al desarroiiM la expre,Qn bmom1al (p + (1 - p)]". a sla llamamos dlmlbucln bmomml.
tb) Cada veL que rcalitamo :repc:ticionc> mdcpcndienlcs de un experimenlo y nos tnlcresamos slo en una d1cotoma- - defectuosos o no defectuosos. dureza sobre o baJO un
.-1cr1o valor estndar. novel de ruido en un sistema de comun ocacooncs sobre o baJO un margen
prcasignado - considcramo~ potencialmenle un espacio mucslral en el cual podemos dclilllr una variable aleatoria binomial. Si las condiciones del cxpcrimen lo permanecen sufiI"ICn tcmcnlc uniformes de modo que la probabilidad de algn atributo, por ejemplo A. permanezca conslante. podemos usar el modelo anterior.
(e) Si n es pequeo. los trminos individuales de la distribucin binomial son relativamenlc sencillos de calcular. Sin embargo. si n es razonablemente grande es1os clculos llegan
,, scr un poco complicado,. Afortunadamente. las probab11idade'> bonomiales han sido calcul.lda . Exislen mucha\ de tales labulaciones. (Ver Apndice.)

t:

.Id bmomio. tenemo' I:~

Ob;erwcin: la presentacin an1erior olustra cmo las probabilidades en el rccorndo


Rx (en e;le caso {0, l. 2. 3}) son inducidas por las probabilidades delinodas en el espac1o
muemal S. porque la suposicin de que los ocho resuhados de

JI -

EJI \11'1 u. 4.8. Supongamos que un tubo de rad1o puesto en cierto tipo de
t:quipo tiene una probabilidad de 0.2 de funcionar ms de 500 horas. Si probamos
20 tubos. ,cul es la probabilidad de que exactamente k de ellos funcionen ms
de 500 horas. k - O, 1, 2, . 2CY/
Si X es el nmero de tubos que funcionan ms de 500 horas. supondremos
c.ue X tiene una distribucin binomia l. As P(X = k) "" ( 2k0 )(0,2)k(0.8)2 - k.
Los s iguientes valores pueden leerse en la tabla 4.1.

TABLA

---;x = 0) = 0.012

P(X

= 4) =

4.)

0,218

P(X - 8) = 0,022

= 0.007

P(X

= 1)

0.05!!

P(X = 5)

= 0.175

P(X

9)

P(X

= 2) =

0.137

P(X = 6) = 0.109

P(X

10)

P(X

= 3) = 0.205

= 7) =

P(X

k) =

P(X

0.055

(Las probabilidades reMan tes son menores que 0.001 ).

= 0,002

para k

11

66

Variablf:)

~ nrlltbk-. albllurla' continu'

.. 1

ale11oria~ unidinN!ft~ioaal~

Si dibujamos esta distribucin de probabilidades obtenemos el grfico que se


mues tra en la figura 4.6. El modelo que observamos aqu es muy general: las
probabilidades binomiales aumentan montonamente basta que alcanzan un
valor mximo y luego disminuyen montonamente. (Ver problema 4.8.)

1>7

1' r lo t1nto y e Y2 son variables aleatonas independientes Y X = Y, .+ Yz.


,~ x 'k si 'y slo si y1 = r e y2 = k - r, para cualquier entero r que sa11sfaga

r :o;; 11 1 y O :o;; k - r ~ llz.


.

Las restricciones anteriores sobre r son equtvalentes a O ::;; r S n, Y k - llz ~


k. Combinndolas podemos escribir

P(x)

11 2 ) ~ r

mx (0. k -

S m in (k, 11, ).

l'"r tanto tenemos

P(X

k)=,

.:t::.:~.,{":)f(l - p, - (/~ ,)P~ - (1 - Pzr ,-(t - t.

1 'o n la convencin corriente de que

1,

1
O 1 2

3 4

S 6 7

4.9. Al operar una mquina, existe cierta probabilidad de que el


operario cometa un error. Puede suponerse de manera realista que el operario
aprende en cuanto sabe que la probabilidad de cometer errores disminuye cuando
l use repetidamente la mquina. Supongamos que el operario hace n intentos y
que los n ensayos son estadsticamente independientes. Supongamos especificamente que P(un error cometido en la i-sima repeticin) = 1/( + 1), i = 1, 2, .. , n.
Supongamos que se consideran 4 intentos (esto es, n = 4) y que se define la variable
aleatoria X como el nmero de operaciones hechas si n error en la mquina. Observemos que X no est distribuida binomialmente porque la probabilidad de xito
no es constante.
Para calcular la probabilidad de X = 3, por ejemplo, procedemos como sigue:
X = 3 si y slo si hay exactamente un intento no exitoso. Esto puede suceder en el
primero. segundo, tercero, o cuarto ensayo. Por lo tanto
EJEMPLO

P(X = 3)

P(X = k)=

8 9 10 11 12 13 14 15 16 17 18
FtGURA 4.6

=HH +HH + HH + HH -= h

EJEMPLO 4.10. Consideremos una situacin semejante a la descrita en el


ejemplo 4.9. Esta vez supondremos que hay una probabilidad constante p, de no
cometer error en la mquina durante cada uno de los primeros n 1 intentos y una
probabilidad constante p 2 ~ p, de no cometer error en cada una de las siguientes
n 2 repeticiones. Sea X el nmero de operaciones exitosas de la mquina durante
los n = n 1 + n 2 intentos independientes. Encontramos una expresin general
para P(X = k). Por la misma razn dada en el ejemplo precedente, X no est
distribuida binomialmente. Para obtener P(X = k) procedemos como sigue.
Sea Y1 el nmero de operaciones correctas durante los primeros n 1 intentos y
y sea Y2 el nmero de operaciones correcta~ durante los segundos n 2 intentos.

(~) = O cada vez que b > a o h < O, podernos

,cribir la probabilidad anterior como

l'or eJemplo, si Pt
llega a ser

P(X

E ( r')p;(l- p)"' - (k -

11 2

11

=<>

= 0.2. Pz = 0.1. 111 = 112 =

= 2) =

t (' 0) (0,2)'(0,8)'

,or

'(

10. y k

)P~- '(1

- Pz)"'-H'. (4.6)

= 2. la probabilidad anterior

lO ) (0.1) 2 - '(0.9)

2-r

'

= 0,27,

despus de un clculo elemental.

1')

1 ecuacin (4 6) se reducira a

Ob~<rl'acin: supongamos que p,


Pa En este caso. ~
.. :
.
.
.
'(1 _ p
puesto que ahora la variable aleatoria X llene una dtstnbuctn bmomtal.
,cr
esto es as. obsrvc:.c que podemo'> e,cribir (puc,to que n, + n! = 11)

~:r~

r-.

q~e

P(x = k)

t.o- p,r .~J~)V~

Para mo strar que la suma antertor iguala (:) comprense stmplemente los coclictcnte:. de

las potcnctas
de x' en ambos lados de la idcnttdad [1 + ")'' ( 1 + x )" [1 + x)'' ..,

4.4

Variables aleatorias continuas

Supongamos que el recorrido de X cslI formado por un gran nmero de v:~lores:


por eJemplo todos los valores x en el intervalo O~ x $ ~ de 1~ forma 0:0.01
0.02: . ... 0,98; 0.99: 1.00. Con cada uno de esos valores e~ta asoctado un .num7~o
no negativo p(x;) = P(X = x 1). = t. 2.... , cuya suma es tgua1 a l. Esta Sltuacon
se representa geomtricamente en la figura 4.7.
.
. . . .
.
Hemos sealado antes que podra ser matemticamente mas facll 1dcahzar la

11

anterior descripcin probabilstica de X al suponer que X puede tomar todos l o~


valores posibles, O S x S l . Si hacemos esto, i.qu le sucede a las probabilidade~
puntuales p(x)? Puesto que los valores posibles de X no son contables. no podemo'
hablar realmente del i-simo valor de X y por lo tanto p(x1) pierde significado.
Lo ~ue haremos es sustituir la funcin p. definida slo para x 1.x2 por una
func1n f ?efinida (en el contexto presente) para todos los valores de x. O s x s 1.
Las propiedades de la ecuacin (4.3) se sustituirn por ./(x) ;;::, O y JlJI.x)dx
1.
Procederemos formalmente como sigue.

P{x)

ldllllillllillld 11 !-.

((j IJnu consccucncta de la descripcin probabilstica de X pura cuulqui<r valor cspcc111 n tic X por ejemplo x 0 es que tenemos P(X = xo) = O. puesto que P(X
x.,) f~~{(x)dx
n 1 ,e rc\ultado puede parecer muy contraro a nuestra intuicin. Debemos establecer.
111 embargo. que SI permitimos que X tome todos los valores en un mtervalo. entonces la
puhab1hdad cero no es equivaleme con la imposibilidad. Por tanto, en el caso con tinuo.
1~ tJ ()no implica A =~-el conjunto vaco. (Ver teorema l. l.) Para decirlo de un modo
llll m formal. consideremos que elegimos un punto al azar en el segmento {x 1O S ~ S 2}.
t\unquc quisiramos estar de acuerdo (como un objetivo matemtico) con que ccu/u punto
nn~cb1ble del segmento pud1csc ser el resultado de nuestro expenmento. no> sorprende
1111110' mucho si en realidad escogiramos precisamente el punto medio del segmento. o
,utlqu1cr otro punto especfico de ese elemento. Cuando indicamos esto en un lenguaje ma
h 1n.1t1CO preciso. decimos que el suceso tiene probabilidad 0. En v1sta de estas consldera(lunc,.la~ sigu1entcs probabilidades son todas iguales si X es una variable alea tona continua:

P(c S X S d).

FIOURA 4.7

P(c s; X < d),

P(c < X S ti).

P(c < X < d).

(d) Aunque no verificaremos los detalles aqui. puede demoMrarse que la untenor a~1gna
de probabilidades a los sucesos en Rx satisface los axiomas bi1sicos de probabilidades
((u:tcin 1.3), en donde podemos tomar {x 1 - oo < x < + oo} como el e>pacio muestra l.
(e) Si una funcin satisface las condiciones, f *(x) ~ O. para lodo x. YJ ~ / *(x)dx
K.
t'll donde K es un nmero positivo real {no necesariamente igual a 1), entonces tw satislu~c todas las condiciones para ser una fdp. Sin embargo. podemos delnir ftcilmcnlc una
nueva funcin, por ejemplo f, en funcin de como sigue:
, 11111

Definicin. Se die~ yue X es una variable al~tutoria concinua si existe una funcin
f llamada funcin de densidad de probabi lidad (fdp) de X, que satisfce las
siguientes condiciones:

(a) f(x) 2:.

(b)

(e)

para todo

x.

f(x) =f*(x)

: f(x)dx = l.

(4.7)
l'm tanto

Para cualquier a, b. tal que - oo < a < b <


tenemos P(a S X S b) = J~f(x)dx.

+ oo.
(4.8)

~bser~~ciones: {a) Fundamentalmente queremos decir que X es una vanable aleatoria


contmua s1 X puede tomar todos los valores en algn interva!o (c. ti) en donde 1- y d pueden
ser .-. r Y +-c. respectivamente. La existencia e>tipulada de una fdp es un mtodo matcmattco_ ~ue llene una base mtu1tiva considerable y hacen ms sencillos nuestros clculos.
En rclac10~ con esto, de nuevo se debe sealar que cuando suponemos que X es una varia
ble aleatona contmua. estamos considerando la descripcin idealizada de x.
{b) P(c < X < ti) representa el rea bajo el grlco en la lgura 4.8 de la fdp 1 entre x = e

y X= d.

para todo x.

satisface todas las condiciones de una fdp.

(O Si X slo toma valores en un intervalo lnito (a, b], simplemente podemos establecer
O para todo x .,[a, b). Por tanto la fdp est delnida para Jodo., los valores reales de
1, y debemos exigir que f! ':f(x)dx
l. Cuando quiera que la fdp se especifique slo para
(lcrlos valores de x. ~upondremo.s qu~o pa~lquier otro.
(g) i/(.x) no representa la probabilidad de nada! Hemos observado ~~tes qu: P(X
2)
O. por ejemplo. y por tanto f{2) ciertamente no representa esta probabohdad. Slo cuando
la func1n se integra entre dos lmites produce una probabilidad. Sin embargo. podemos
dar una mterprctacin de f{x)x como sigue. Del teorema del valor med1o del clculo ~
deduce que

/( ~)

.X

/(x)

~
FIOURA

4.8

'X

S' S x

+ x.

S1 t:..x es pequeo. f(x)ilx es aproximudamenre igual a P(x S X S x + x). Si f e5 continuo


por la derecha. ~ta aproximacin llega a ser ms segura cuando lJ..x - 0.)
(h) Deberamos sealar nuevamente que la distribucin de probabilidades (en este caso
la fdp) es mducida en Rx por las probabilidades asociadas con sucesos en S. As cuando
escribimos P(c < X <ti). queremos decir, como siempre P[c < X(s) < d], que a su vez es
1gual a P(s 1 e< X(s) < d]. puesto que estos sucesos son equivalentes. La definicin antenor ccuac16n {4.8), estipula esencialmente la existencia de una fdp f definida en una Rx
1al que
P[s lc < X{s) < d] = tf(x)dx.

Foocn de di-aribudol cumuiCI

~ucvamente eliminaremos la naiUraleza funciona l de X y por tanlo estaremos interesados


solo en Rx y la fdp f.
. (i) En el .caso continuo. nuevamente podemos considerar la siguiente analoga con la m<~
camca: supongase que tenemos una masa total de una unidad, distribuida continuamente
en ,el mtervalo a S: X S: b. Entonces f(x) representa la densidad de la masa en el punto x
Y J,f(x)dx representa la masa total contenida en el intervalo e s; x :5 d.

t 'laracm:ntc.j (x) F: O y f ~ ~f(x)dx = J~2xdx = l. Para calcular P(X ~!J. debemos


evaluar simplemente la integral fl,J2(2x)dx =!.
~1 concepto de probabilidad condicional tratado en el captulo 3 se puede
,1plicar debidamente a las variables aleatorias. Por ejemplo, en el ejemplo anterior
debi mos evaluar P(X 5 !11 ::; X 5 j). Aplicando directamente la definicin de
probabilidad individual, tenemos

~EMPL? 4.11. En la discu~in precedente sobre variable aleatoria, se supuso


la extst.encla .de una fdp. Cons1de~emos un eJemplo simple en el cual podamos
determmar fac1l~~nt~ la fdp. hac~endo una suposicin apropiada acerca de la
conducta pr?babthsttca de la vanable aleatoria. Supngase que escogemos un
punto en el mtervalo (0, 1). Repre:.entemos la variable aleatoria X cuyo valor es
la coordenada x del punto escogido.
. Suposicin : si 1 es cualquier intervalo entre (0, 1), entonces la Prob(X e f] es
d1reetamente proporcional a la longitud de/, por ejemplo L(/). Esto es, Prob[X E /)
= kL(J), en donde k es la constante de proporcionalidad. (Es fcil ver, tomando
1 = (0, 1) y observando que L((O, 1)) = 1 y Prob[X E (0. J)] = 1, que k= l.)
Obviamente X toma todos los valores en (0. !).Cules su fdp? Esto es,,podemos
encontrar una func16n J ta l que

P(a < X < h) = Stf(x)dx'?


. Ntese que si " < b < O o 1 < a < h, P(a < X < b) = O y por tanto f(x) = o.
S1 O< a < b < 1, P(a < X < b) = h - a y por tantof(x) = l . As encontramos,

J(x)

1,
{ O,

f(x)

0 < X< 1,

para cualquier otro valor.


f(x)

L---+-----------~---x

X=tSOO

FIGURA

4.9

FIGURA

4.10

EJeMPLO 4.12. Supngase que la variable aleatoria X es continua. (Ver


figura 4.9.) Sea la fdpfdada por

f(x) = 2x,
= O,

0 <X< 1,

para cualquier otro valor.

71

tt

P(X 5 -z

')

s; X 5 :J

P(t 5 X ::; !)
= 1'(-}
s; X s; J)
J: 1 ~ 2xdx
5/36
= Jii~2xdx = 1/3

= 12

EJtiMPLO 4.13. Sea X la duracin (en horas) de cierto tipo de bombilla elctrica. Supngase que X es una variable aleatoria continua y supngase que la fdp
f de X est dada por

J(x)

= af x 3 ,
= O,

1500 5 x 5 2500,
para cualquier otro valor.

(Es decir. asignamos probabilidad cero a l suceso {X 5 1500} y {X > 2500}.)


Para evaluar la constante a. debemos acudir a la condicin I ~'f:..f(x)dx ~ 1 que en
este caso llega a ser JH88a/x 3 clx = l. De esto obtenemos a = 7, 031, 250. El gr{11ico
dcj parece en la figura 4 . 10.
En un captulo posterior estudiaremos. con mucho detalle, diversas varibles
aleatorias importantes, discretas y continuas. Mediante el uso de los determinsticos
sabemos que ciertas funciones desempean un papel mucho ms importante que
otras. Por ejemplo, las funciones lineales, cuadrticas, exponenciales y trgonomtncas Juegan un papel primordial al describir modelos determinsticos. Al desarrollar los modelos no determinsticos (es decir, probabilsticos) encontraremos que
ciertas variables aleatorias son particularmente importantes.
4.5

Funcin de distTibucin a cumulativa


Queremos presentar otro importante concepto general en este cap tulo.
Definicin. Sea X una variable aleatoria, discreta o continua. Definimos
que F es la fimcin de distribucin acumulativa de la variable aleatoria X
(abreviada fda) como F(x) = P( X 5 x).
Teorema 4.2. (a) Si X es una variable aleatoria discreta,
F(x)

= 2: p(x).

(4.9)

en donde la suma se toma sobre todos los ndices j que satisfacen x1 5 x.

4.5

(b) Si X es una variable aleatoria continua con fdp f,

F(x) =

..,J(s)ds.

F(x)

(4. 10)

Demostracin: ambos resultados se deducen inmediatamente de la definicin.


F(x)

:b !

FIGURA 4. 12

1
3

o X

FIGURA 4. 11

EJEMPLO 4.14. Supongamos que la variable aleatoria X toma los tres valores
O, 1, Y 2 con probabilidades;, i , y t. respectivamente. Entonces

F(x) =O
= !
= t
= 1

si
si
si
si

X< O,
0 ~X < 1,
J ~X < 2,
X~ 2.

(Ntese que es muy importante indicar la inclusin o exclusin de los puntos


extremos a l describir los diversos intervalos.) El grfico de F se da en la figura 4. 11.
EJEMPLO

4.15.

Supongamos que X es una variable aleatoria continua con fdp


f(x) = 2x,

0 < X< J,
para cualquier otro valor.

= O,
Por lo tanto la fda F est dada por
F(x)

=O
=

= 1

si

SI

si

El grfico aparece en la figura 4.12.

Teorema 4.3. (a) La funcin Fes no decreciente. Esto es, si x 1 S x 2 ,tenemos


F(x.) S F(x2).
(b) limx ~ .., F(x) = O y limx ~ o F(x) = l. [A menudo esto lo escribimos
como F( -co) = O, F(co) = l.]

Demostracin : (a) Definamos los sucesos A y B como sigue: A

x ~ O.

0 < X S J.
x > l.

={ X~

x.},

B = {X S x 2 } . Entonces, puesto que x 1 S x 2 , tenemos Ac By por el teorema 1.5,


P(A) s P(B), que es el resultado pedido.

(b) En el caso continuo tenemos


F( -co) =

rx2sds = x 2

Jo

Los grficos obtenidos en las figuras 4.11 y 4. 12 para las fda (en cada uno de
los casos) son muy tpicos en el siguiente sentido.
(a) Si X es una variable aleatoria discreta con un nmero finito de valores
posibles, el grfico de la fda F se formar de trazos horizontales (se llama funcin
escalonada). La funcin F es continua excepto para los valores posibles de X ,
llamados, x., , x. En el valor x1 el grfico tendr un salto de magnitud
p(Xj) = P(X = XJ)
(b) Si X es una funcin aleatoria continua, F ser una funcin continua para
todo x.
(e) La fda F est definida para todos los valores de x , lo cual es una razn
importante para considerarla.
Hay dos propiedades importantes de la fda que resumiremos en el teorema
siguiente.

F(co)

lim J x > f(s)ds = O,

x- -w

lim

x -~

fx-,.,f(s)ds =

En el caso discreto el argumento es anlogo.


La funcin de distribucin acumulat iva es importante por varias razones.
Esto es particularmente cierto cuando tratamos con una variable aleatoria continua,
po rque en este caso no podemos estudiar la conducta probabilstica de X al calcular

74

Vorlbl<-s tleotorias ,..idimensklea~

4.5

P(X = x). _Esa ~r_obabilidad es siempre igual a cero en el caso continuo. Sin embargo.
podemos mqumr acerca de P(X :s; x) y, como lo demostramos en el prximo
teorema, obtener la fdp de X.

J)istribuciones mixtas

4.6
EJEMPLO

4.16.

Supongamos que una variable aleatoria continua tiene fda F

dada por

F(x) = O.
x ;S O,
=1-e-"'.
x >O.

Teorema 4.4. (a) Sea F la fda de una variable aleatoria continua con fdp .
Luego

f(x)

Entonces

= dxd F(x),

F'(x)

=e

"' para x

> O, y as la fdp fes dada por


X~

(b) Sea X una variable aleatoria discreta con valores posibles x 1 x 2


Y supongamos que es posible rotular esos valores de modo que x 1 < x: '<
2
Sea F la fda de X. Entonces
..

= P(X = x) = F(x)- F(x1 _ 1).

(4.12)

Demostracin:, (a) F(x) = P(X :s; x) = r -..,f(s)ds. As, aplicando al teorema


fundamental del calculo obtenemos, F'(x) = f(x).
(b) Puesto que supusimos x 1 < x 2 < .. , tenemos
F(x)

= P(X = XJ u
=p(x)+ p(x1 _

= X

1 )

u u X = x.)

+ + p{x 1).

F(X - ) = P(X =X - 1 u X = X - 2 u ... u X =X)


= p(x- 1) + p{x _ z) + .. + p(x.).

Luego

F(x) - F(x1 _.) = P(X = x)

= p(x1).

. _Obsert'tlci6n : reconsideremos brevemente (a) del teorema anterior. Recordemm la delimcn de denvada de la funcin F:
. F(x + 11) - F(x)
F'(X ) -_ 11m
-
11
= lim P(X S x + 11) - P(X S x)
-

lim

.--o

O,

para cualquier otro valor

para toda x en la cual Fes diferenciable.

p(x1)

75

11
1
[P(x < X S x
1'

+ 11)).

Observacin: una advertencia sobre la terminologa puede ser de utilidad. Esta terminologa, aunque no es muy uniforme, ha llegado a estandariz.arsc. Cuando hablamos de la
distribucin de probabilidades de una variable aleatoria X indicamos su fdp f si X es contmua, o de su funcin de probabilidad puntual p definida para x 1 x:. s X es discreta
Cuando hablamos de la funcin de distribucin acumulativa, o algunas veces slo de la
funcin de disuibucitl, siempre nos referimos a F, en donde F(x) = P(X S x).

4.6

Distribuciones mixtas

Hemos restringido nuestra exposicin slo a variables aleatorias que son discretas o continuas. Tales variables aleatorias ciertamente son las ms importantes
en las apl icaciones. Sin embargo, hay situaciones en las cuales podemos encontrar
va riables del tipo mixto: la variable aleatoria X puede tomar ciertos valores distintos, por ejemplo x 1 , , Xn , con probabilidad positiva y tomar tambin todos
los valores en algn intervalo, por ejemplo a :s; x :s; h. La distribucin de probabilidades de tales variables aleatorias se obtendra al combinar las ideas consideradas
anteriormente para la descripcin de las variables aleatorias discretas y continuas
como sigue. A cada uno de los valoresx se le asigna un nmero p(x) tal que p(x} ~ O,
para todo . y tal que I: . 1 p(x1) = p < l. Entonces delinimos una funcin f que
satisface f(x) ~ O, J!f(x) dx = l - p. Para todo a. b. con - c:o < a < b < + c:o,
P(a :s; X ::;; b) =

f(x}dx

+ 1r,.E, ..,b1 p(xr).

De esta manera satisfacemos la condicin

P(S} = P(- c:o < X < c:o) = l.

As si 11 es pequeo y positivo
F' (x)

= /(x) ,

P(x

<X S
h

+ "l.

Es dcc1r, /(x) e~ aproximadamente gual a la cantidad de probabilidad en el mtervalo


(.~. x + h) por longnud h>>. De aqu el nombre de funcin densidad de probabilidad.

Una variable aleatoria del tipo mixto puede aparecer como sigue. Supngase
que estamos probando un equipo y sea X el tiempo de funcionamiento. En la
mayora de los problemas describiramos X como una variable aleatoria continua
con valores posibles x ~ O. Sin embargo, hay algunos casos en los cuales hay
una probabilidad positiva, de que el artculo no funcione del todo, es decir, falla al
tiempo X = O. En tal caso desearamos modilicar nuestro modelo y asignar una

711

4.7

Vribt<os tcohri ootdlnwoh kMolcs

probabi lidad positiva, por ejemplo p. al resultado X = O. Por tanto. tendramos


P(X = 0) = p y P(X > O) = 1 - p. As el nmero p describira la distribucin
de X en O, mientras que la fdp f describira la distribucin de va lores de X > O
(figura 4.13).

Unu ui!M!nudn

4.H

TI

EJL.MI'I o 4.17.
Un punto se e lige al azar sobre el segmento de linea (0. 2J.
,Cul es la probabilidad de que el punto escogido quede entre 1 y i?
Representando la coordenada del punto elegido por X, tenemos que la fdp
de X est dada por f(x) =!.O < x < 2, y por tanto P(l ~ X ~ ~)

= a.

f(x)

fo"" f(x) dx

F(x)

t- p

L-------------------_.x

' X

x=a

FtCURA 4 . 13

FtCURA

4.14
FIGURA

4.15

4.7 Variables aleatorias distribuidas uniformemente


En los captulos 8 y 9 estudiaremos detalladamente diversas variables aleatorias
importantes, discretas y continuas. Ya hemos presentado la importante variable
aleatoria binomial. Consideremos brevemente ahora una variable continua de
importancia.

Defmicin. Supongamos que X es una variable a leato ria continua que toma
todos los va lores en e l intervalo [a, b]. en donde ambos a y b son finitos.
S i la fdp de X est dada por

EJI'.Mt'l o 4.18. Se puede suponer que la dureza, H . de una muestra de acero


(medida en la escala Rockwell) es una variable aleatoria continua distribuida uniformemente sobre (50, 70] en la escala 8. Por tanto

/(11) =

50</ < 70,

= O,

1
1 (x) = b- - ,

a ~ x ~ b,

- a

= O,

(4.13)

para cualquier otro valor

EJEMPLO 4.19. Obtengamos una expresin para la fda de una variable aleatoria distribuida uniformemente

F(x) = P(X

decimos que X est distribuida uniformemente en el intervalo [a, b]. (Ver


figura 4.14.)
Observacione~:

(a) Una variable aleatoria unirormemente distribuida tiene una rdp que
es una constanlt en el mtervalo de definicin. A fin de satisraccr la condicin f ~';/(x)dx 1,
esta constante debe ser igual al recproco de la longitud del intervalo.
(b) Una varoable aleatoroa distribuoda unirormente representa la analoga continua a los
resullados igualmente posob1es en el sentido siguiente. Para cuaJquier sub-intenalo (c. d).
en donde a ~ e < d ~ b, P(c ~ X ~ d) es la misma para todos lo sub-intenalo que tienen
la misma longitud. Esto es,

P(c ~ X ~ d) -

J.

, f(x)dx

d- e
a

=b _

y as slo depende de la longitud del intervalo y no de la ubicacin del intervalo.

(e) Ahora podemos hacer precisa la nocin intuitiva de elegir un pumo P al azar en un
intervalo, por ejemplo La, b]. Con esto sencillamente indicaremos que la coordenada x del
punto elegido, por C)emplo X. est distribuida unirormemente en [a, bJ.

para cualquier otro valor.

~ x) =

f ..

/(s) ds

=O

si

x <a,

x-a
= b-a

si

a~

=1

si

x < b,

b.

El grfico aparece en la figura 4.15.

4.8 Una observacin


H emos sealado repetidamente que en alguna etapa del desarrollo de nuestro
modelo probabilstico, deben asignarse algunas probabilidades a los resultados
sobre la base de alguna evid encia experimental (tal como la frecuencia relativa,
por ejemplo) o algunas otras consideraciones, tales como experiencias pasadas

con l?s fen~rnenos estudiados. El interrogante siguiente se le podra presentar al


cstud1ant~: 1.por qu no podramos obtener todas las probabilidades en las cuales
estarnos mteresados P?r un medio no deductivo? La respuesta es que muchos
sucesos ~uyas ~ro~~b1hda~cs deseamos conocer son tan complicados que nuestro
conocnmcnto .mtuat1vo es msufciente. Por ejemplo, supongamos que diariamente
salen 1000 arllculos de una lnea de produccin. algunos de los cuales son defectuosos. J?escarnos conocer la probabilidad de tener 50 o ms artculos defectuosos
en un daa dado. Aun ~i. estarnos familiarizados con el comportamiento general
del proceso de producc1on. nos podra ser difcil asociar una medida cuantitat 1va
al s~ces.o: 50 o menos artc~los son defectuosos. Sin embargo, podramos afirma r
que IndiVIdualmente cualqUier artculo tena la probabilidad 0.10 de ser defectuoso.
(Esto. es, las expcre~cias anteriores nos dan la informacin de que cerca del JO
po~ Ciento. de_los artlculos son defectuosos.) An ms, podramos suponer que Jos
art1culos IndiVIduales son defectuosos o no defectuosos independientemente.
uno de otro. Ahora podemos proceder deductivamente y deriuar la probabilidad
del suceso que se cons1dera. Esto es. si X = nmero de defectuosos.
P(X S 50)=

.ro ('~)0.10f(0. 9o'ooo-k.

Lo que se d~staca aqu es que los diversos mtodos para calcular probabilidades
que ~ emos derJVIIdO (y los que estud iaremos posteriormente). son de much a importancia puesto que co n ellos podemos calcular las probabilidades asociadas con
s uce~~s ms complicados lo cual sera dificil de obtener con medios intuitivos 0
empmcos.

(a) Para qu valores de a es significativo el modelo anterior?


(b) Verificar que lo anterior representa una distribucin de probabilidades legitima.
(e) Dcmotrar que para dos enteros positivos cualesquiera s y 1,
P(X > s + ti X > s) = P(X 2: 1).
4.5. Supngase que la mquina 1 produce {diariamente) el doble de arliculos que la mquana 2. Sin embargo, cerca del4 por ciento de los artculos de la mquina 1 t iende a ser defectuoso mientras que la mquina 2 produce slo alrededor de 2 por ciento defectuosos. Supongamos que se combina la produccin diaria de las dos mquinas. Se toma una muestra
aleatoria de 10 del resultado combinado. i.Cul es la probabilidad de que esta muestra
contenga 2 defectuosos?

4.6. Se lanza una serie de cohetes basta que el primer lanzamiento exitoso tiene lugar.
Sa e:,to no ocurre en 5 ensayos, el experimento se detiene y se inspecciona .el equipo. Supngase que hay una probabilidad constante de 0,8 de tener un lanzamiento exitoso y que los
ensayos sucesivos son independientes. Adems, el costo del primer lanzamaento es K dlares
maentras que los lanzamientos que siguen cuestan K/3 dlares. Cada vez que hay un lanzamiento exitoso, se obtiene cierta cantidad de informacin que puede expresarse como una
ganancia financiera de C dlares. Si Tes el costo neto del experimento, encontrar la distribucin de probabilidades de T.
4.7. Calcular P(X - 5), en donde X es la variable aleatoria definida en el ejemplo 4.10.
Supongamos que n 1 = 10, n2 = 15, p, = 0,3 y Pz = 0,2.
4.8. (Propiedades de las probabilidades binomiales.) En la discusin del ejemplo 4.8 se
sugiri un modelo general para las probabilidades binomales!=)p'(l - p - , Indiquemos estas
probabilidades por p.(k).
(a) Demostrar que para O S k < n tenemos

p.(k

1)/ p.(k) = [(n - k)/ (k

+ ll)(p/(1 - p)).

(b) Usando (a), demostrar que

PROBLEMAS
4.1. Se sabe que en una moneda ~le cara tres veces ms a menudo que sello. Esta moneda se la~za tres veces. Sea X el nmero de caras que aparecen. Establecer la di>tribucin
de probabahdades de X y tamban la fda. Hacer un grfico de ambas.
4.2. De un lote que contiene 25 artcul~. 5 de los cuales son defectuoscs. se eligen 4
al axar.. Sea X el nmero de artculo~ defectuosos encontrados. Obtener la distribucin de
probabahdadcs de X ~i
(a) los artculo' se e:.cogcn con ~u~titucin.
(b) los artculos se c,cogen ~m suslltucan.
4.3j .Supngese que la variable alcatona X taenc valores posibles 1. 2. J ..... y PtX = )
= 1/2. J
1, 2....

(a) Calcular P(X es par).


(b) Calcu lar P(X 2: 5).
(e) Calcular P(X es divi;ible por 3).
4.4. Considrese una variable aleatoria X con resultados posibles: O, L 2 ... Supongamos que P(X 2 ) ( 1 - tt)<l. j _ O, 1.2, ...

(i) p.(k
(ii) p.(k
(aii) p.(k

1) > p.(k)

+ 1) = p.(k}
+ 1) < p,.(k)

si k < np - (1 - p),
si k = np - { 1 - p),
si k > np - (1 - p).

(e) Demostrar que si np - (1 - p) es un entero, p.(k) toma su valor mximo para dos
valores de k, llamados k 0 = np - (1 - p) y k = np - {1 - p) + l.
(d) Demostrar que si np - (1 - p) no es un entero entonces p.(k} toma su valor mhimo
cuando k es agua! al entero ms pequeo mayor que k0 .
(e) Dcm~trar que sa np - (l - p) <O, p.(O) > p.(l) > > p.(n) mientras que si np (1 - p) =O, p.(O)- p.(l) > p.(l) > > p.{n).

4.9. La variable aleatoria continua X tiene fdp f(x) = x/2, O S x S 2. Se hacen dos
determinaciones independientes de X. Cul es la probabilidad de que ambas determinacaones sean mayores que uno? Si se han hecho tres determinaciones independientes, icut
es la probabilidad de que exactamente dos sean mayores que uno?
4.10. Sea X la duracin de un tubo electrnico y supongamos que X se puede representar como una variable aleatoria continua con fdp /{x) = be - o., x 2: O. Sea p .. PUS X < j
+ 1). Demostrar que p1 es de la forma (1 - a}a' y determine a.
4. 11. La variable aleatoria continua X tiene la fdp j(x) = 3x 2 ,
un nmero que satisface - 1 < b < O, calcular P(X > b 1 X < b/ 2).

1 S x S O. Si b es

l'mbhnt'

4.12. Supongamos que f y g son fdp en el mismo intervalo, a$ x s b.


(a) Demostrar que f + g no es una fdp en ese intervalo.
(b) Demostrar que para todo nmero P. O < p < 1, P/(x) + (l - p)g(x) es una fdp en
ese intervalo.
4.13. Supongamos que el grlico de la ligura 4.16 representa la fdp de una variable
aleatoria X.
(a) i.Cul es la relacin entre ct y b?
(b) Si a > O y b > O, i.qu~ puede Ud. decir acerca del mayor valor que puede tomar b'!
(Ver ligura 4.16.)

fl.x)

(a) F(.~) ~ xf5, 0 S X $ 5


(e) F(x)
e3 x, -oo < x S O

XI

(b) F{x) ; (2/ n) sen '(j x). O S x S 1


{d) F(x) = x 3/ 2 + , - 1 S x <; l.

4.18. Sea X la duracin de un instrumento electrnico (medido en horas). Supngase


4ue X e~ una variable aleatoria continua con fdp /(x) ; k/x". 2000 S x S 10.000.
{a) Para n - 2, determinar k.
{b) Para n = 3, determinar k.
(e) (>ara , en general. determinar k.
(d) i.Cul es la probabilidad de que el instrumento falle ante~ de 5000 hora; de func10
nam1ento?
(e) DibUJar la fda F(r) para (e) y determinar su forma algebra1ca.
4.19 Sea X una variable aleatoria distribuida binomialmente con base en 10 repetl
cione; de un experimento. Si p = 0,3, calcular las siguientes probabtlidade;,, usando la tabla
de la distribucin binomial del Apndice.
(a) P(X S 8)
(b) P(X = 7)
{e) P(X > 6).

fiGURA 4.16
4.14. El porcentaJe de alcohol (IOOX) en cierto compuesto se puede considerar como
una variable aleatoria, en donde X , O < X < 1, tiene la siguiente fdp:

f(x) ~ 20xJ( I - x),

O< x < l.

(a) Obtener una expresin para fda F y dibujar su grlico.


(b) Calcular P(X S ~).
(e) Supngase que el precio de venta del compuesto anterior depende del contenido alcohol. Espeelicamente, si~ < X < ~. el compuesto se vende por C 1 dlarcsjgaln; de otro
modo se vende por C 1 dlares/galn. Si el costo es C 3 dlares/galn, encontrar la distribucin de probabilidades de la utilidad neta por galn.
4.15.

Sea X una variable aleatoria continua con fdp


/(x) ax,

a,
.. - ax

= O,

OS

f dada por:

x S 1,

1 S X S 2,

+ 3a,

2 S x S 3,
para cualquier otro valor.

(a) Determinar la constante a. (b) Determinar F. la fda y dibujar el grlico.


(e) Si X t. X 1. y X 3 son tres observaciones independientes de X cul es la probabilidad
de que exactamente uno de esos tres nmeros sea mayor que 1,5?
4.16. Se supone que el dimetro de un cable elctrico, digamos X es una variable aleatoria
continua con fdp /(x) 6x(l - x), O s x s l.
(a) Verilicar que la anterior es una fdp y dibujarla.
(b) Obtener una expresin para la fda de X y dibuJarla.
(e) Determinar un nmero b tal que P(X < b) = 2P(X > b).
(d) Calcular P(X S 11! < X < j).
4.17. Cada una de las siguientes funciones representa la fda de una variable aleatoria
continua. En cada caso F(x) = O para x < a y F(x) = 1 para x > b, en donde [a, bJ es el
intervalo indicado. En cada uno de los casos, dibuJar la funcin F, determinar la fdp f y
dibujarla. Tambin verilicar que f es una fdp.

4.20. Supngase que X est distribuida uniformemente ~n [ - oc. +.:x J: en donde :x > 0.
Cada vez que sea posible, determinar a de modo que se sattsfaga lo s1gu1ente.
(a) P(X > 1)
j
(b) P{X > 1) = ~
(e) P(X < !l
0,7
(d) P(X < !l - 0,3
(e) P(jXI < 1) = P(IXI > 1).
4.21. Suponiendo que X est distribuida uniformemente en [O. a]. oc > O responder las
preguntas del problema 4.20.
4.22. Se escoge un punto a l azar de un segmento de longitud L. i.Cu{l l es la probabilidad de que la razn del segmento ms corto con relacin al mils largo sea menor que }'/
4.23. Una fbrica produce diariamente JO recipientes de vidrio. Se puede suponer que
hay una probabilidad constante p = 0,1 de producir uno defectuoso. Antes de que estos
depsitos se almacenen son inspeccionados y los defectuosos puestos aparte. Supongamos
que hay una probabi lidad constante r = 0,1 de que un recipiente defectuoso sea m?l cla
silicado. Sea X igual al nmero de recipientes clasificados como defcc~uosos al tr.mmo. de
un da de produccin. (Suponemos que todos los recipientes que se fabncan en un d1a se tns
pcccionan ese mismo dia.)
(b) Obtener una expresin para P(X k).
(a) Calcular P(X = 3) y P(X > 3).
4.24. Supngase que el 5 por ciento de los artculos que salen de una lnea de producctn
son defectuoso>. Se escogen 10 de tales artculos y se inspeccionan. i.Cual es la probab1hdad
de que se encuentren a lo ms dos defectuosos?
4.25. Suponiendo que la duraccin {en horas) de cierto tubo de radio es una 'ariable
alcatorta continua X con fdp f(x) = 100/ xl. x > 100 y O para cualqu1er otro valor.
(a) 1.Cu1 es la probabilidad de que un tubo dure menos de 200 horas S I se sabe que el
tubo todava funciona despus de !50 horas de servicio?
(b) Cul es la probabilidad de que si se instalan 3 de tales tubos en un conJunto, exac
tamcnte uno tenga que ser sustituido despus de 150 horas de serv1c1o?
(e) i.Cul es el nmero mximo de tubos que se pueden poner en un conJunto de modo
que haya una probabilidad 0.5 de que despus de 150 horas de servicio todos ellos todava
funcionen'/
4.26. Un experimento consta de n ensayos independientes. Se puede suponer que ~ebi
do al aprendizaje>, la probabilidad de obtener un resultado exitoso aumenta con el nume

5
ro de ensayos real indos. Especficamente ~u pongamos que P(xito en la i -Csima repeticin)
+ 1)/(i + 2). i ~ 1, 2, .. 11.
(a) Cul es la probabilidad de tener tres resultados exitosos a lo menos en ocho repe
ticiones?
(b) Cul es la probab1hdad de que el pnmer resultado exitoso ocurra en la octava repeticin?
(i

4.27. Refirndonos al eJemplo 4.10,


(a) calcular P(X 2) ,1 11 4,
(b) para un 11 arbitrario. demo;trar que P(X
exitoso) es igual a [1/(n + 1)) I:~ 1 (1/ i).

=n -

Funciones de variables aleatorias

1) = P (exactamente un intento no

4.28. St la variable aleatoria K est distribuida uniformemente en (0. 5) i.cul es la probabthdad de que las races de la ecuacin 4x 2 + 4xK + K + 2 = O sean reales?
4.29. Supngase que la variable aleatoria X tiene valores posibles 1, 2, 3, ... y que
P(X = r) ok( l
py 1,0 < (1 < l.
(a) Determinar la constante k.
(b) Encontrar la modll de esta distribucin (es decir, el valor de r que da el mayor valor
de P(X = r)).
4.30. Una variable aleatoria X puede tomar cuatro valores con probabilidades ( 1 + 3x)/4,
(1 - x)/4, (1 + 2x)/4. y (1 - 4x)/4. i.Para qu valores de X es sta una distribucin de pro-

babi lidades?

S.l

Un ejemplo

Supongamos que el radio X de la entrada de un tubo muy bien calibrado


2
se considera como una variable aleatoria continua con fdp f. Sea A = nX el
rea de la seccin de la entrada. Es evidente que, puesto que el valor de X es el
resultado de un experimento aleatorio, tambin lo es el valor de A. Es decir, A es
una variable aleatoria (continua), y podramos obtener su fdp, digamos g. Espe
raramos que puesto que A es una funcin de X, la fdp g es obtenible de alguna
manera, conociendo la fdp f. En este captulo trataremos problemas de esta naturaleza. Antes de fami liarizarnos con algunas tcnicas especficas necesarias.
formularemos ms precisamente los conceptos anteriores.

Rx

Ry

G,__~x--18-l
=_x-t--.!.!..H_...;Q
fiGURA 5.1

5.2 Sucesos equivalentes


Sea & un experimento y sea S un espacio muestra! asociado con &. Sea X una
variable aleatoria definida en S. Supongamos que y = H(x) es una funcin real
de x. Entonces Y = H(X) es una variable aleatoria puesto que para cada se S.
se determina un valor de Y, sea y= H[X(s)]. Esquemticamente tenemos la
figura 5.1. Como antes, llamamos Rx al recorrido de X, el conjunto de valores
posibles de la funcin X. De igual modo, definimos como Rr al recorrido de la
variable aleatoria Y, el conjunto de valores posibles de Y. Previamente (ecuacin 4.1)
definimos la nocin de sucesos equivalentes en S y en Rx. Extendamos ahora este
concepto de la siguiente manera natural.
83

5.2

Definicin.

Sea C un suceso (subconjunto) asociado con el recorrido de

r.

Ry. como se describi anteriormente. Definase 8 e:: Rx como sigue:


8

= {x E Rx: H(x) E C}.

(5. 11

En palabras: 8 es el conJunto de los valores de X tales que H(x)E C. Si


8 y C estn relacionados de esta manera los llamamos sucesos equivalentes.
Obsermdone.\ (a) Como diJimos antes. la mterpretacin informal de lo anterior es que
B y e son sucesos eqmvalcntcs si y slo si B y e ocurren juntos. Esto es. cuando ocurre
B. ocurre

e y recprocamente.

(b) Supngase que A e;, un suceso asociado con S lo que equivale a un suceso 8 asociado
con Rx. Luego, si e> un suceso asocmdo con R, que es equivalente a 8, tenemos que A es
equivalente a C.
(e) Nuevamente. es Importante reafirmar que cuando hablamos de sucesos equivalentes
(en el sentido anterior). esos sucesos estn asociados con espacios muestrales diferentes.

5.1. Supongamos que H(x) = nx 2 como en la seccin 5.1. Luego


los sucesos 8: {X > 2} y e: {Y > 4n} son equivalentes. Porque si Y= nX 2
entonces ocurre {X > 2} si y slo si ocurre {Y > 4n}, puesto que en el presente
contexto X no puede tomar valores negativos. (Ver figura 5.2).
EJEMPLO

~.2

L:n palabras: la probabilidad de un suceso asociado con el recorrido de Y


csti1 definida como la probabilidad del suceso equivalente (en funcin
de X). como aparece en la ecuacin (5.2).
Ol>.'<'rtacion~s : (a) La definicin anterior harit posible calcular las probabilidades relaCionada" con ~ucesos con Y si conocemos la di;tribucin de probab1hdadcs de X y podemos
detcrmrnar el suceso equivalente en cuestin.
(b) Puesto que lo discutido previamente (ecuaciones 4.1 )' 4.2) relaciona probabilidades
asoe1adas con Rx con probabilidades asociada~ con S. podemos escribir la ecuacin (5.2)
corno s1gue:

P(C)
E.J,MI'LO

5.2.

P[{xeRx: H(x)EC)]

= P[{~ E S: H(X(s)) EC}J.

Sea X u na variable aleatoria con fdp

f(xl

= e- ".

x > O.

(Una integracin sencilla indica queJ e - 'dx = 1.)


Supngase que 1/ (x) = 2x + l. Por tanto Rx - {x 1 x > 0}. mientras que
l~r
{J'IY > I}.Supngasequeelsucesoeestdefinidocomosigue:C {Y~ 5}.
Ahora y ~ 5 si y slo si 2x + 1 G! 5 lo que a su vez da x ~ 2. Po r lo tanto e es
2
equivalente a 8 = {X G! 2}. (Ver figura 5.3). Ahora P(X ~ 2) S e 'dx - lfe
Por lo tanto aplicando la ecuacin (5.2) encontramos que

FIGURA

5.2

Obsen:acuin . otra ve; es important~ sealar que se usa una notacin taquigrfica cuando
escribimos expresione;, tale;, como {X > 2} y : Y> 4n}. Cuando nos referimo> a los ,aJores
de X ) de Y. o sea {s 1X(s) > 2) y : \ Y(x) > 4n l.
fiGURA

5.3

Como lo hicimos en el capitulo 4. (ecuacin 4.2), nuevamente haremos la definicin siguiente.


Defmicin. Sea X una variable aleatoria en el espacio muestra! S. Sea Rx

el recorrido de X. Sea 11 una funcin real y consideremos la variable aleatoria Y = H(X) con recorrido Ry. Para cualquier suceso e e:: Ry. defi
nimos P( C) como sigue:
P(e) = P[{x E Rx: H(x) E C}).

(5.2)

Of>w ,.nuunw' (a) Nuevamente es conveniente sealar que debemos cons1clerar incorporadas la c,aJuacin de x = X(s) y la evaluacin de y = ll(x) en nuestro experrmento y.
por tanto. considerar simplemente Rr. el recorrido de Y. como el espacio muestra! de nuestro
experimento.
Estrictamente hablando. e1 espacio muestra! del experimento es S y el resultado del ex
perimcnto e~ s. Todo lo que hagamos a continuacin no cst innucnciado por la nllturaleza
aleatoria del experimento. La determinacin de x = X(.~) y la eva luacin de Y
/f(x) son

Varioble.. oleotorlo. dl..cret""

K7

S.J

estrictamente procesos detcrminsticos una vez que se ha observado s. Sin embargo, como
discutimos previamente, podemos incorporar estos clculos en la descripcin de nuestro
experimento y as relacionarlos directamente con el recorrido Rr.
(b) As como la distribucin de probabilidades fue inducida en Rx por la distribucin
de probabilidades sobre el espacio muestra! original S, as la distribucin de probabilidades
de Y, se determina si se conoce la distribucin de probabilidudes de X. Por eJemplo. en el
anterior ejemplo 5.2, la distribucin especifica de X determin completamente el valor de
P(Y C!: 5).
(e) Al considerar una fun~in de una variable aleatoria X, digamos Y = H(X), debemos
comentar que no se puede permitir toda funcin fl concebible. Sin embargo, las funciones
que aparecen en las aplicaciones estn inmediatamente entre aquellas que podemos considerar y, por tanto, no nos referiremos posteriormente a esta pequea dificultad.

El proc:edimiemo general para situaciones como la descrita en el ejemplo an.


terior es como s1gue:
representemos como x;., X,,-.-. x-'' los valores de X
que tienen la propiedad H(x 1J) =y, para todo j. Luego
q(y1)

= P( Y =

y 1)

= p(x1,) + (x,,) +

En palabras: para calcular la probabilidad del suceso {Y = y,}, encuentre el


suceso equivalente en funcin de X (en el recorrido Rx) y luego agregue todas las
probabilidades correspondientes. (Ver figura 5.4.)

5.3 Variables aleatorias discretas


Caso 1 . X es una variable aleatoria discreta. Si X es una variable aleatoria
discreta e Y = II(X). entonces se deduce de inmediato que Y es tambin una variable aleatoria discreta.
Porque supngase que se pueden enumerar los valores posibles de X como
x., x 2 , . , x. ... Con seguridad los valores posibles de Y se pueden enumerar
como y 1 = H(x}, y2 = H(x 2), (Algunos de los valores anteriores de Y pueden
ser iguales, pero esto ciertamente no impide el hecho de que esos valores puedan
enumerarse).
5.3. Supngase que la variable aleatoria X tome los tres valores
- 1, O y 1 con probabilidades -l.!. y t. respectivamente. Sea Y = 3X + l. Entonces
los valores posibles de Y son -2, 1 y 4. supuestos con probabilidades !. ~ y !EJeMPLO

Este ejemplo sugiere el siguiente procedimiento general: si x., ... , x., .. . son
los valores posibles de X. p(x1) = P(X = x 1), y H es una funcin tal que a eada
valor de y le corresponda exactamente un va lor de x. entonces la distribucin
de probabilidades de Y se obtiene como sigue:
Valores posibles de Y:
Probabilidades de Y:

y,= H(x,), i = l, 2, ... , n, ... ;


q(y) = P( Y = y) = p(x;).

Muy a menudo la funcin H no tiene la caracterstica anterior, y puede suceder


que varios valores de X den el mismo valor de Y, como ilustra el siguiente ejemplo.
EJEMPLO 5.4. Supngase que consideramos la misma variable aleatoria X
que en el anterior ejemplo 5.3. Sin embargo, introducimos Y = X2 En e~te easo
los valores posibles de Y son cero y uno, supuestos con probabilidades!.!- Porque
Y = 1 si y slo si X = - 1 o X = 1 y la probabilidad de este ltimo suceso es
i + t = t- En razn de nuestra terminologa anterior los sucesos B: {X = 1}
y C: {Y= 1} son sucesos equivalentes y por lo tanto segn la ecuacin (5.2) tienen
probabilidades iguales.

FIGURA

EJEMI'LO

P(X = n) =

5.5. Tonga X los valores posibles 1, 2, ... ,11,


Sea

...

5.4

y supngase que

f.

Y ~ 1

=-

si

X es par,

si

X es impar.

Luego y toma los dos valores - 1 y + 1. P_~esto que Y_= 1 si y slo si X = 2.


0 X = 4, o X = 6. o .... aplicando la ccuac1on (5.2) se llene
P( r

= 1> = 1 + ro + ~ + -- = ! -

Luego
P(Y = -l)= 1 - P(Y = l)=i-

Caso 2. x es una variable aleatoria continua. Puede suceder que X sea


una variable aleatoria continua mientras que Y es discreta. Por eJemplo, supongamos que x puede tomar todos los valores reales mientras q_ue ~e d~~ne que Y
sea + 1 si x ;;::: o y que y = - L si X < O. Para obtener la ?1stnbuc1on de probabilidades de Y, determinemos simplemente el suceso equ1valente (e~ el recorrido Rx) que corresponde a los diferente~ va~ores_ de Y. En el caso antenor._r =~
si y slo si x > o mientras que Y = - 1 s1 y solo SI X < O. Porlo tanto P(Y - 1) P(X ;;:: 0) mie-;;tr~s que P(Y = -1) = P(X <O). Si se c?noce la fdp de X, _pueden
calcularse estas probabilidades. En el caso general, SI {Y = y,} es equivalente
a un suceso, sea A, en el recorrido de X. entonces
q(y1)

= P(Y

= y 1)

= J./(x)dx.

5.4

5.4

A fin de evaluar la derivada de G. G'(y). usemos la regla de la cadena para la

Variables aleatorias continuas

derivacin como sigue :


El caso ms importante (y el que se encuentra con ms frecuencia) aparece
c uand o X es una variable aleatoria continua con fdp f y H es una funcin continua. Po r tanto Y = H(X) es una variable aleatoria continua, y ser nuestro
propsito obtener su fdp, digamos g.
El procedimiento general ser as:
(a) Obtener G, la fda de Y, en donde G(y) = P(Y :::;; y), al encontrar el suceso A
(en el recorrido de X) que es equivalente al suceso {Y :::;; y}.
(b) D iferenciar G(y) con respecto a y para obtener g(y).
(e) Determinar estos valores de y en el recorrido de Y para los cuales {/(Y) > O.
EJEMPLO 5.6.

Supngase que X tiene fdp

/(x) = 2x.
= O.

dG(y)
dG(y) du
-y
= ---,; dy.

y- 1
en donde u = -3~

por tanto
G'(y)

(y-

Jt

en otra parte.

G(y) - P( Y :::;; y)

Jl

ll/3

2xdx

= [(y-

P(e- x S: y)

- P(X ~ - In y)

1 - (-In

=J

1.,,

2x dx

.d.

Por tanto g(y) = G'(y) = -2 In y/). Puesto que /(x) >O para O< x ~ l. encontramos que y(y) > O para 1/e <y< 1. (Ntese que el s1ro algebra1c~ -~ar~
g(y) es correcto puesto que In y < O para 1/e < y < 1.) El gr,fico de g(y) estd d
buJado en la figura 5.8.

:::;; y)

= P(X :::;; (y - 1)/ 3)


=

5.6

En;MI'LO 5.7. Supngase que una variable aleatoria continua tiene fdp como
en el ejemplo 5.6. Sea H(x)
e-x. Para encontrar la fdp de Y 1-I(X) procedemos como sigue (ver figura 5.7):

O < x < 1,

= P( Y :::;; y) = P(3X + l

FI(;URA

como antes. En la figura 5.6. aparece el grfico de la fdp de Y. (Para verificar los
clculos ntese que g(y)dy - 1.)

Sea H(x) = 3x + l. Por tanto para encontrar la


fdp de Y = H(X) tenemos (ver figura 5.5)
G(y)

1) 1

F'(u)3 =J(u)3 =2 - 3- 3.

1)/3]2.

As

g(y) = G'(y) = ~(y - l).

Puesto que /(x) > O para O < x < l. encontramos


que g(y) > O para 1 < y < 4.

FIGURA

5.5

g(y)

Observacin : el suceso A, mencionado atrs, que es equivalente al suceso {Y !> y). es


simplemente {X S: (y - t)/3}.

Hay otro mtodo ligeramente diferente, para obtener el mismo resultado y


que posteriormente ser til. Consideremos nuevamente

L-L-~---------.x

r iGURA

G(y) = P(Y :::;; y)=

P(x : :; y~ 1) = Ft ~ 1).

FIGURA

5.7

5.8

Otra vez podemo~btencr el resultado anterior con un enfoque ligeramente


diferente que esbozarem s brevemente. Como antes.
:::;; y) = P(X ~ - In y)

en donde F es la fda de X, esto es.


F(x) = P(X :::;; x).

y l

x= -ln ''

X :::;; - In y)

=1

F( -In y).

5.4

en donde como ntes Fes la fda de X. A fin de obtener la derivada de G usamos


otra vez la regla
rivacin en cadena como sigue:

Variables aleatorias continuas

91

en donde x se expresa en funcin de y. Si H es creciente, entonces g es distinta de cero para los valores de y que satisfacen H(a) < y < H(b). S H es
decreciente, entonces g es dist inta de cero para los valores de y que satisfacen H(b) < y < H(a).

Demostracin: (a) Supongamos que H es una funcin estrictamente creciente.


As

Por tanto
G'(y)

= -F'(u) ( - ~) = +2 In y ( - ~).

como antes.
Generalicemos ahora el enfoque sugerido por los ejemplos anteriores. El paso
crucial en cada uno de los ejemplos se efectu al sustituir el suceso {y s; y} por
el suceso equivalente en funcin de la variable aleatoria X. En los problemas
anteriores esto fue relativamente sencillo puesto que en cada uno de los casos
la funcin fue una funcin de X estrictamente creciente o estrictamente decreciente.
En la figura 5.9 y es una funcin estrictamente creciente de x. Por lo tanto
podemos reso lver y = H(x) para x en funcin de y, digamos x = H - I(y), en donde
1
H - se. llama funcin inversa de H. As, si Hes estrictamente creciente, {H(X) s; y}
es equ1valente a {X s; H - I(y)} mientras que s H es estrictamente decreciente
'
{H(X) s; y} es equivalente a {X~ H - I(y)}.
y

G(y) = P(Y s; y)= P(H(X) $y)


= P(X $ H - '(y)} = F(H - I(y)).
Diferenciando G(y) con respecto a y, obtenemos, al usar la regla de la cadena
para las derivadas,
en donde

x = H - '(y).

As
G'(y)

= dF(x) dx = f(x)
dx dy

dx.
dy

(b) Supongamos que H es una funcin decreciente. Por lo tanto

G(y)

= P( Y s; y) = p(H(X) s; y) = P(X s; W

(y))

= l - P(X s; W '(y))= 1 - F(W 1 (y)).


Procediendo como anteriormente, podemos escribir

dG(y)
dy

dG(y) dx
dx dx

d [
] dx
f
dx
1 - F(x) - = - (x) -
dx
dy
dy

-- = --- = -

FIGURA

Observacin: el signo algebraico obtenido en (b) es correcto puesto o~e. si y es una funcin decreciente de x, x es una funcin decreciente de y y por lo tanto dxfdy < O. As, al usar
el smbolo del valor absoluto en torno a dx/dy, podemos combinar el resultado de (a) y (b)
y obtener la forma final del teorema.

5.9

El mtodo empleado en los ejemplos anteriores se puede generalizar ahora


como sigue.
Teorema 5.1. Sea X una variable aleatoria continua .c on fdp f , en donde
f(x) > O para a < x < b. Supngase que y = H(x) sea una funcin de x
estrictamente montona (creciente o decreciente). Supngase que esta
funcin es derivable (y por tanto continua) para toda x. Luego la variable
aleatoria Y definida como Y = H(X)tiene una fdp g dada por,
g(y) = f(x)

1:;1 ,

(5.3)

EJEMPLO 5.8. Reconsideremos los ejemplos 5.6 y 5.7, aplicando el teorema 5.1.
(a) En el ejemplo 5.6 tenamos f(x) = 2x, O < x < l, e y = 3x + l . Por lo
tanto x = (y - 1)/ 3 y dxfdy = !. As g(y) = 2((y - 1)/ 3}! = MY - 1). 1 < y < 4,
lo que concuerda con el resultado obtenido previamente.
(b) En el ejemplo 5.7, tenamos f(x) = 2x, O < x < 1, e y= e- ". Por tanto
x = - In y y dxfdy = - 1/y. As g(y) = - 2(1n y)/y, lfe < y < 1 lo que de nuevo
est de acuerdo con el resultado anterior.
S y = 1-l(x) no es una funcin montona de x, no podemos aplicar directamente el mtodo anterior. En su lugar, volveremos al mtodo general bosquejado
anteriormente. El ejemplo siguiente ilustra este procedimiento.

Yl

Funclot1cs de .. rlblc olcolt>ri'


g(y)

PROBLEMAS
5.1. Supngase que X est:i. distribuida uniformemente en (- 1, 1). Sea Y = 4 - X1 . Encontrar la fdp de Y. sea g(y). y dibujarla. Tambin \Cnric:1r que q(y) e una fdp.

5.2. Supngase que X est distribuida uniformemente en (l. 3). Obtener las fdp de las
siguientes variables aleatorias:
(a) Y = JX + 4
(b) Z = ,;e,
Verificar en cada uno de los casos que la funcin obtenida es una fdp.

5.3. S11pngasc que la variable aleatoria X tiene fdp f(x)


fdp de las siguientes variables aleatorias:
(a) Y = X3
(b) Z = 3/(X + 1)2.
X=J

FIGURA 5.10
EJEMPLO

5.9.

FIGURA 5.11

!.

- l<x < l.

= O,

para cualquier otro valor.

Sea H(x)
x . Esta obviamente no es una funcin montona en el intervalo
[ 1.1] (figura 5.10). Por lo tanto obtenemos la fdp de Y = X 2 como sigue:

G(y) = P(Y S y) = P(X 2 S y)


= P(-

jY S

= F(.jy) -

X S

Jj)

= G'{y) = f(Jy) _

2JY

/(-

JY>

5.7. Supngase que el radio de una esfera es una variable aleatoria continua. (Debido
a la imprecisin del proceso de fabricacin, los radios de esferas diferentes pueden ser diferentes.) Supngase que el radio R tenga fdp f(r) = 6r( l - r), O < r < 1. Encontrar la fdp
del volumen V y del ilrea superficial S de la esfera.

f(v) = a1121'- .

-2jj

27Y [!(Jy) + f(- Jy>].

t>

As g(y) = (l/2jy)(t +
= lf2JY, O < y< l. (Ver figura 5.11.)
El mtodo usado en el ejemp lo anterior da el siguiente resultado general.
T eorema 5.2. Sea X una variable aleatoria continua con fdp
Entonces la variable aleatoria Y tiene fdp dada por

5.6. Supngase que X est distribuida uniformemente en ( l. 1). Encontrar la fdp de


las siguientes variables aleatorias:
(a) Y = sen (n/2)X
(b) Z = cos (nf2)X
(e) W
lXI.

5.9. La velocidad de una molcula en un gas unirorme en equilibrio es una variable


aleatoria V cuya rdp est dada por

5.4. Supngase que la variable aleatoria discreta X tome los valores 1, 2, y 3 con igual
probabilidad. Encontrar la distribucin de probabilidades de Y = 2X + 3.

5.8. Una corriente elctrica 1 que nucta se puede considerar como una variable aleatoria distribuida umrormemente en 1:1 intervalo (9.11 ). Si esta corriente pasa por una resistencia de 2-ohm. encontrar la fdp de la potencia P 211 .

F( -jy),

en donde Fes la fda de la variable aleatoria X . Por tanto


g(y)

f.

Sea y = x2.

11 > O,

en donde b .. mf2 kT y k. T. y m denotan la constante de Boltzman, la temperatura absoluta.


y la masa de la molcula. rcspectivanu-nte.
(a) Calcular la constante a (en funcin de b). [l11dicaci11: use el hecho de que JO' e- dx =
fif2 e integre por partes.]
(b) Derivar !:1 distribucin de la variable aleatoria W - m V 2f2, que representa la energa
cintica de la molcu la.
5.10. Un voltaje aleatorio X est distribuido uniformemente en el intervalo (-k,k). Si
X es la energa recibida de un arteracto no lineal, con las caractersticas que se indican en la
figura 5.12, encontrar la d1stnbucin de probabilidades de Y en los tres casos siguientes
(a) k

Demostracin: ver ejemplo 5.9.

Encontrar las

5.5. Supngase que X est distribuida uniformemente en el intervalo (0. 1). Encontrar
la fdp de las siguientes variables aleatorias:
(a) Y = X 1 + 1
(b) Z = 1/(X + 1).

Supongamos que

f(x) =

= e- , x > O.

<a

(b) a < k < x 0

(e) k

> x0

Observacin : la distribucin de probabilidades de Y es un CJemplo de una distribucin


mixra. Y toma el valor cero con una probabilidad positiva y tambin toma todos los valores
en ciertos intervalos. (Ver seccin 4.6.)

'M

Foociones de

nrlable~

aleotories

6
y

Variables aleatorias bidimensionales y de mayor dimensin

-------_+..-,,---~a~~aL---~+-------x
"

'11

FIGURA

5.12

5.11. La energa radiante (en Btufbr/ft 2) est dada como la funcin siguiente de la temperatura _T (en grados fahrenheit): E= 0,173(T/ 100}4 Supongamos que la temperatura r
est consrderada que es una variable aleatoria continua con fdp
/(1)

= 200t- 2,
= O,

40 S t S 50,

para cua lquier otro valor.

Encontrar la fdp de la energla radiante E.


5.12. Para medir las velocidades del aire, se usa un tubo (conocido como el tubo esttico de Pitot) que nos permite medir la diferencia de presin. Esta diferencia de presin est
2
d~da por P = (~/2}dV , donde des la densidad del aire y V es la velocidad del viento (kph~
Sr V es una vanable aleatoria distribuida uniformemente en (10, 20), encontrar la fdp de P.
5.J3. Supngase que P(X S 0,29) = 0,75, en donde X es una variable aleatoria continua
con a lguna distribucin definida en (0, 1). Si Y = 1 - X, determinar k de modo que P(Y s; k)
- 0,25.

6. 1 Variables aleatorias bi.dimens ionales


En nuestro estudio de las variables aleatorias hemos considerado. hasta aqu.
slo e l caso unidimensional. Es decir, e l resultado del experimento se poda registrar como un solo nmero x.
En muchos casos. sin embargo, nos interesa observar dos o ms caractersticas numricas simultneamente. Por ejemplo. la dureza H y la rcsrstcncia a la
tensin T de una pieza manuracturada de acero pueden ser de inters y consideraramos (Ir, t) como un solo resultado experimental. Podramos estudiar la altura A y el peso P de alguna persona determinada. que dara lugar al resultado
(p, a). Finalmente, podramos observar la cantidad de lluvia tota l, LL y el promedio de temperatura T en cierta regin durante un mes especfico, que dara
lugar al resultado (//, t).
Haremos la siguiente definicin rormal.
Definicin. Sea r. un experimento y S un espacio muestra! asocrado con t:.
Sean X = X(s) e Y = Y(s) dos runciones que asignan un nmero real a
cada uno de los resultados sE S (figura 6.1 ). Llamamos a (X, Y) variable
aleatoria bidimensional (algunas veces llamada vector ale(llorio.)
Si X, = X 1(s}, X 2 = X 2(s), ... , X. - X .(s) son n runcioncs cada una de
las cuales asigna un nmero real a cada resultado sE S. llamamos (X 1
. . . . X.) variable aleatoria n-dimensional (o un vector alcatorro n-dimensional).
S
X

FtOUKA 6. 1

95

~6

\ arlahl""

lcvtorl~

hldlnom\looale.. y d~ mayor dlmtnsl6n

fl. t

Ohsero>acin: como en el caso unidimensional. !l!l nos interesar la naturaleza funcional


de X(s) L Y(s), sino los valores que toman X y Y. Hablaremos nuevamente del recorrido
d~ ~X. l'l: digamos Rx.r. como el conJunto de todSTos valores posibles de (X, Y). En el caso
b1d1mens1onal, por eJemplo, el recorrido de (X, Y) ser un subconJunto del plano euclidiano.
Cad~ u~o de los resultados X{s), Y(s) se puede representar como un punto (x, y) en el plano.
Supnm1remos nuevamente la naturaleza funcional de X y Y al escribir. por ejemplo, P[X s a,
Y S b) en vez. de P(X{s) S a. Y(s) s b].
Como en el caso unidimensional, distinguiremos entre dos tipos bsicos de variables alea
torias: las vanables aleatorias discretas y las continuas.

Defmicio.

(X, Y) es una variable aleatoria bidimensional discreta si los valores posibles de (X, Y) son finitos o infinitos numerables. Es decir, los
valores posibles de (X, Y) se pueden representar como (x;. y 1), i = 1, 2 . .. ,

n, ... ; j = 1, 2..... m. ...

(X. Y) es una variable aleatoria bidimensional continua si (X, Y) puede


tomar todos los valores en un conjunto no numerable del plano euclidiano.
[Por ejemplo, si (X, Y) toma todos los valores en el rectngulo {(x, y) 1
a.~ x ~ b, e ~ y~ d} o lodos los valores en el crculo {(x, y) 1 x 2 + y2 ~ 1},
dtnamos que (X, Y) es u na variable aleatoria continua.]
0/,servaciones; (a) En otras palabras, (X, Y) es una variable aleatoria bidimensional
si representa el resu ltado de un experimento aleMorio en el cua l hemos medido las dos carac-teristicas numricas X y Y.
(b) Puede suceddr que una de las componentes de (X, Y), digamos X, sea discreta, mientras
que la otra es continua. Sin embargo, en la mayor parte de las aplicaciones nos interesamos
slo por los casos discutidos anteriormen te, en los cua les ambas componentes son discretas,
o ambas continuas.
(e) En muchas situaciones las dos variables aleatorias X y Y. consideradas en conJunto.
son el resultado de un solo experimento. como se ilustr en los ejemplos anteriores. Es as
como X Y Y ~ueden re~re:.entar la altura y el peso de un mismo individuo. etc. Sin embargo.
no es necesano que ex1sta esta clase de conexin. Por ejemplo, X podra ser la corriente
que circula por_un _circuito en un momento especfico, mientras que Y podra ser la tempera
tura en la hab11ac1n en ese mstante, entonces podramos considerar la variable aleatoria
bidimensional (X, Y). En la mayor parte de las aplicaciones hay una razn importante para
considerar X y Y en cOnJunto.
Para describir la d1strtbuc16n de probabilidades de {X. Y) procedemos de un modo anlogo
al caso unid1mens1onal.

Defmicin. (a) Sea (X. Y) una variable discreta bidimensionaL Con cada
resultado posible (x, y1) asociamos un nmero p(x;. y1) que representa
P(X = x, Y = YJ) y que sa tisface las condiciones siguientes:
(1} p(x,y1)'2:0

""

(2)

:L

J 1

para todo

..,

:L
i l

p(x" Y1>

= L.

11.1

La funcin p definida para todo (x1 y1) en el recorrido de (X. \') se llama
.frmcin de probabilidad de (X. Y). El conjunto de ternas (.~. y1 p(x,, y1)).
i.j = 1, 2, ... , es llamada en algunos casos la distriburin de prohabilidacles de (X, Y).
(b) Sea (X. Y) una variable aleatoria continua que toma todos los valore:;
en una regin R del plano euclidiano. La fimtin de dt>midml de probabilidades conjuntas f es una funcin que sa tisface la ~ siguiente~ condiciones:
~ O

(3)

f(x. y)

(4)

JJJ(x. y) dx dy =

para todo

(x. y) e R.

l.

(6.2)

R
Ob.'><'rt'UCIOtteS
(a) La analoga a una distrobuc1n de ma.as e' otra el ondudablc Te
nemo; una mas:1 unitaria distribuida en una regin en el plano. En el caso di~crcto. todu la
masa est concentrada en un nmero frnito o infinito numerable. de puntos con ma'a p(Y,. y 1)
ubicado; en (:c1 y). En el caso continuo. la masa se encuentra en todos lo' puntos de un con
JU nto no numerable en el plano.
(b) La condicin 4 indica que el volume11 total baJO la superficie dada )'IOr la ecuacin
z - /(x. y) es igua l a l.
(e) Como en el caso unidimensional. f(:c. y) no repr.:scnta la probabilidad de algo. Sin
embargo, para x y y suficientemente pequei\os y positivos. (lx, y) t~ y es aproximada
mente igual a f>(;c S X S x + llx. y S Y S y + y).
(d) Como en el caso unid imensional adoptaremos la convencin de que f (x. )') O SI
(x, y) rt R. Por tanto, podemos considerar I definida para todo (x. y) en el plano y la condicin
4 anterior llega a ser
f ~: f(;c, y) dx dy = l.
(e) Nuevamente su~rimiremQs la naturaleza funcional de la variable aleatoria bidimensional (X. Y). Deberamos escribir proposiciones de la forma f>[X(s)
x 1, Y(s} v1]. cte. Sin
embargo, si se entiende nuestra notacin taquigrMica no debe surgir, ninguna dificultad.
(f) De nuevo. como en el caso unidimensional. la distribucin de probabilidade~ de (X. Yl
es realmente mducida por la probabilidad de sucesos asociados con el espacio muestra! origi
nal S. Sin embargo, principalmente nos interesaremos por los valores de (X. Yl y por tanto
relacionados directamente con el recorrido de (X. Y). No obstante. el lector no debe perder de
vista el hecho de que si P(A) est espcc1ficad:o para todos los oucc.,o A e S. entonces est
determinada la probabilidad asociada con suceso> en el rccorndo de (X. Y) f's decir. si B
est[l en el n:corrodo de (X. Y). tenemos

r::.::

P(B) = P[(X(s), l'(s))eB) = P(si (Xcs). Y(v))e 8).

Esta ltima probabihdad se refiere a un suceso en S y por tanto d~ttrmmtl la probab1hdad


de B. En nuestra terminologa previa. 8 y {-' 1(X(s). Y(s))e 8 } son succ>O\ cwwlelllt:\ (fi
gura 6.2).

(x, y),

(6.1)
PtGUI\1\ 1\.2

'JH

\ uriubh."' ah:.lorilh bidimcn~iun:alc\ ) dt mayor diflll'll'in

6.1

Variablh llcalotiM'' 'uidh..te~~oual''

6. 1

Si 8 est en el recorrido de (X. } ) tenemos


P(B)

'A

LLPlX,,y,).

(6.3)

y - ~~------~-----+----

si (X. Y) es discreta. la suma se toma con todos los ndices (i,j) para los cuales (x1, y) E 8.
y
P( 8)
f(x. y) d.\ dr.
(6.41

fJ

Y - ~4-----~r------r----

si (X. Y) es continua.
EJEMPLO 6.1. Dos lneas de produccin manufacturan cierto tipo de artculo. Supngase que la capacidad (en cualquier da dado) es 5 artculos para la lnea 1 y 3 artculos para la lnea 11. Supngase que el nmero verdadero de artculos
producidos por cada una de las lneas de produccin es una variable aleatoria.
Sea (X. Y) la representacin de la variable aleatoria bidimensional que da el
nmero de artculos producidos por la lnea 1 y por la lnea 11 respectivamente.
La tabla 6.1 da la distribucin de probabilidades conjunta de (X. Y). Cada entrada representa

~------+-------r------ x

FIGURA

con la siguiente fdp conJunta {ver figura 6.3):


si

f(x, y) = e

= P(X

- 2, Y

= 3) =- 0.04. etc.

Por lo tanto si 8 csti1 definida como

5000 :=:; x :;;; 10.000

y 4000 :;;; Y :;;; 9000.

en otro caso.

=0
As p(2. 3)

6.3

"'
Para detcrmmar
e usamos el hecho d e que J+- ,.

J+"'
- oo f( x, Y) dx dy --

+oo J+oo f(x, y) dx dy =J9000 JIO.OOO f(x, y) clx ely =


-oo
4000 SOOO
J

8 = {Ms artculos producidos por la lnea 1 que por la lnea 11}

1 Por tanto

c[5000)

- 00

encontramos 4uc
P(B)

0.01

As e = (5000)- 2 Por tanto s B = {X ~ Y}. tenemos

+ 0.03 + 0.05 + 0,07 + 0,09 + 0.04 + 0.05 + 0.06


+ 0,08 + 0.05 + 0.05 + 0.06 4 0,06 + 0.05

1 19000
(5000) 2 sooo

P(B) = J - -

- 0.75.
l:JEMPLO 6.2. Supngase que un fabricante de bombillas est mteresado en
el nmero de stas que le han sido pedidas durante los meses de enero y febrero.
X y Y indican el nmero de bombillas ordenadas durante esos dos meses respectivamente. Supondremos que (X, Y) es una variable aleatoria bidimensional
TABLA

~
o
1
2
3

6.1

0.01
0.02
0.03
0.02

0.03
0.04
0.05
0.04

0.05
0.05
0.05
0.06

0,07
0,06
0.05
0.06

0.09
0.08
0,06
0.05

0,01
0.01
0.01

J1
sooo

clx el y

1 19000
17
1 - ------
[y - 5000) ely = 25.
(5000) sooo

Observacin: en el ejemplo anterior X y Y obviamente deben ser_ nmeros enteros puesto


que no podemos ordenar un nmero rraccionurio de bomb1llas. Sm embargo, nuevamente
tratamos con una situacin idealizada en la cual permitimos que X tome todos los valores
entre 5000 y 10.000 (inclusive).
EJeMPLO 6.3. Supngase que la variable aleatoria continua bidimensional
(X, Y) tiene una fdp conjunta dada por

f(x, y) = x
= O,

xy

+ 3,

0 :;;;

X :;;;

1,

0 :;;; y :;;; 2,

para cualquier otro punto.

,..
I'(H}

aria!.Jil'\ alcatoi"i:b bidim<n~ionaln y dt' ma)or dimt'n'!!in

Para verificar que

+oo

- r

J!; J ~

1>.1

(t.2

f(x. y) dx dy "' 1:

J+oo f(x.y)dxdy =
-,..

f' (x

(2

JoJo

6.2
2

= ~

+h =

Con cada variable a lea t oria bidimensio na l (X. Y) asociamos dos variables
aleatorias unidimensionales. llamadas X y Y respect ivamente. Es decir. podemos
interesarnos por la distribucin de probabilidades de X o por la distribucin
de probabilidades de Y.

+ xy)dxdy

I G~)

dy -

EJEMPLO 6.4. Consideremos otra vez el ejemplo 6.1. Adems de los dato~
de la tabla 6.1. calculemos t amb in los tolalcs marginales". esto cs. la suma de
las 6 columnas y 4 tilas de la tabla. (Ver tabla 6.2).
Las probabilidades que aparecen en lo~ mrgenes de las filas y columnas representan la distribucin de probabilidadc~ de Y y X. respectivamente. Por eJem
plo, P( Y = 1) ~ 0,26, P(X = 3) = 0,21, etc. Debido a la forma de la tab la 6.2 nos
referimos, generalmente, a lu distribucin marginal de X o a la d istribucin mar
ginal de Y. cada vez que tenemos una variable aleatoria bidimensional (X, Y)
sea discreta o continua.

~ )' + ;~ 1:

l.

Sea B = {X + Y<:! 1}. (Ver figura 6.4) Calcularemos P(B) al evaluar 1 - P(Bl.
en donde 8 = {X + Y < 1}. Por lo tanto

P(B)

=1-

I Jofl " (x2 + Jxy) dy dx


0

)'

x)

+ -x( 1 -

x)

Distribuc iones de pro babilidades marginaJes y condicionales

6.2

T ABLA

dx

~
o

Al estudiar variables aleatorias unidimensionales.encontramos que F. la funcin de dbtribucin


acumulativa.Jugaba un papel importante. En el caso
bidi mensiona l podemos defi nir otra vez u na funcin acumulativa como se indica a continuacin.

L - - - - " ' - -- x
fiGURA

6.4

Sea (X. Y) una variable aleatoria bidimensional. La fu11ci11 de


distribt1ci11 acumulativa (fda) F de la variable aleatoria bidimensional

Oefmic in.

0.03
0.04
0,05
0.04

0.05
0.05
0,05
0.06

0.07
0,06
0.05
0.06

0.08
0.06
0.05

0.25
0.26
0.25
0.24

0.16

0.21

0.24

0. 2M

1.00

1
2
3

0.01
0.01

0.01

0.01
0,02
O.OJ.
0.02

Suma

0.03

0,08

O.O'J

Suma

En el caso discreto procedemos as: puesto que X = x 1 debe ocurrir con Y = y


para una j. y puede ocurrir con Y = y para una j. tenemos:
p(x1)

= P(X =

x 1) = P(X

= x 1 Y = y 1 o X

X.

y2 o)

co

(X. Y) est definida por

p(X, y).

j= 1

F(x. y)

= P(.\'

~ x. Y ~ J').

Observacin: F es una funcin de tlos vanables y tiene un nmero de propiedades an:'J.


logas a las discut idas para la fda unidimensional. (Ver seccin 4.5). Mencionaremos slo la
siguiente propiedad importante.
Si F es fda de una variable bidimensional con fdp cOnJunta (. entonces
il 2 F(x. y) 1ilx'y = f(x. y)
dondeq uiera que F sea diferenciable. Este resultado es an logo al del teorema 4.4 en el cual
probamos que (djdx)F(x) = f(x). en donde f es la fdp de una variable aleatoria unidimensional X.

Definida la funcin p para x 1 x 2 . . representa la distribtlciII maryinal de pro


habilidades de X. Anlogamente definimos q(y) = P( Y.= Y1) = I:f 1 p(x1,y) como
la distribucin marginal de probabilidades de Y.
En el caso contimw procedemos como sigue: sea f la funcin densidad de
probabilidades E'njunta de la variable aleatoria continua bidimensional (X. Y).
Definimos g y 11 las funciones densidad de probabilidades margi11ales de X y Y.
respectivamente. como sigue:
+oo

+>

y(x) =

f(x, y) dy;

_
00

il(y) "'

_ ~ f(x, y) dx.

11)2

ariabh.~

MlcMioriiA'

bidimcn,ion ~~tl c'

y de mayor dimt n\In

{1.2

l::.stas fdp corresponden a las fdp b:hica' de las variables aleatona-. unidimensionales X y Y. respectivamente. Por ejemplo
P(c~X~d) .... P[c~X~d.

-rt+:
r

co< Y< ro]

2(x

= O,

y - 2xy).

(x. y)

j(x. y) = rea(R)

R.

Encontramos que
2

rea( R) = fo' (x - x )dx =

EJEMPLO 6.5. El empuje X y la razn de la mezcla Y son dos caracteristicas


de l funcionamiento de un motor a reaccin. Supngase que (X. Y) es una variable aleatoria bidimensional continua con fdp conjunta:

Por tanto
1

f(x. y) dy dx

y(x) dx.

f(x. y)

EJEMPLO 6.6. Supngase que la variable aleatoria bidimensional (X. Y) est


distribuida uniformemente en la regin sombreada R. indicada en la figura 6.5.

O ~ x <:: l.

O ~y ~ l.

k-

Luego la fdp est dada por

f(x. y) = 6.
=

en otro caso.

O.

(x. y) E

R
FIGURA

(x. y) lj R.

6.5

En las ecuaciones sigu ientes encontramos las fdp ma rgina les de X Y Y.


(Las unidades se han ajustado para usar valores entre O y 1.) La fdp margina l de
X est dada por
y(x) =

2(x

+y

2xy) dy = 2(xy

= l.

Es decir, X est distribuida uniformemente en


La fdp marginal de Y est dada por
/(y) =

2(x

+y

+ y 2/2 -

ll(y)

[0. 1].
+ xy - x 2 yliA

o ~ y~ l.

Por lo tanto Y tambin est distribuida uniformemente sobre [0. 1].


Defmicin. Decimos que una variable aleatoria continua bidimensional est
distribuida uniformemente en una regin R en un plano euclidiano. si

= O.

r:

OS

f(x. y) dx =

ix

6 dy

x ::;;

J:

1;

6 tlx

O S y ~ l.

Los grficos de estas fdp aparecen en la figura 6.6.


El concepto de probabilidad condicional se puede presentar de una manera
muy natural.

6.7. Consideremos otra vel los ejemplos 6.1 y 6.4. Supngase que
2). De acuerdo con
queremos evaluar la probabilidad condicional P(X = 2IY
la definicin de probabilidad condicional tenemos
EJ EMPLO

P(X - 21 y

= 2) =

P(X

~ 2. y = 2)
P( Y
2)

= ~05 "" 0.20.


0.25

para (x. y) E R.

para todo otro punto.

Debido a la condicin ~ +";f(x. y) dx dy - l. lo anterior implica que la


constante es igual a !/rea (R). Su ponemos que R es una regin con rea
fi nita d istinta de cero.

Observacin: esta definicin presenta la a na logia bidimensional con la vanablc aleatoria


unidimensional distribuida uniformemente.

f(x. y) tly -

'$

= 6(./Y- y).

f(x, y) = const.

+ <>

= 6(x - x 2 ).

xy JIA

O <:: x~l.

2xy) dx = 2(x 2/2

= l.

fl(x) -

Podemos efectuar tal clculo muy general para el caso discreto. Tenemos
p(x1 1)>)

= P(X =
=

p(x, y)
CJ(Yi)

x, 1 Y = y)

si

O.

(6.5)

> O.

(6.6)

q(y) >

q(y 1Xr) = P(Y = YJ 1 X = x;)

p{X. )')
- -- -

p(x,)

si

p(x;)

IOJ

\ ariablt' ;,leatoria~ bidinu:n~onalt>-.' de mll)or dimcn~in

\iariabl' alutoria> indtpmdlcnl'"'

1>.2

HJS

Por tanto ft8 y(x)dx representara la probabthdad del suceso 15,8 $ X $ 6} prescmdiendo
del peso Y. r;, 8 y(xll50)dx se interpretara como P(5,8 $X$ 61 Y= 150). Estrictamente
hablando, esta probabilidad condicional no cst definida en los trm inos de nuestra convencrn previa con la probabilidad condicional, puesto que P(Y !50)= O. Sin embargo, slo
usamos la integral anterior para definir esta probabilidad. Sobre una base mtuttiva, ciertamente ste debe ser el significado de este nmero.

g(x)

X=~

(1, 0)

(1, 0)

(a)

E JEMPLO

6.8.

Refirindonos al e.1cmplo 6.3. tenemos

(b)

g(x) -

6.6

FIGURA

L'

}:_ p(x::ll!
1 q(y,l

p(X; 1y,)

= q(y) .,

ll(y) =

En el_ caso continuo la formulaci n de la probabilidad co ndicional presenta


a lguna dfcullad pucs~o que para cualquier x 0 , y0 , dado. tenemos P(X = x ) =
0
P( Y = J'o)
O. Enunc1emo~ las delinic1ones forma le~ siguiente>.
Oefmicin. Sea (X. Y) una var.iable bidimensional continua con fdp conJunta .f. Sean g y Ir las fdp margmales de X y Y respectivamen te.
La fdp condicional de X para Y y dada. est definida por
1/(X

1')

1)') = ll(y) . .

xr)j

dy

= 2x 2 + 2 x.
3

> 0.

!J(y)

J.o

xy)

+ 3

t/x =

6y +

1
3.

Por tanto.

l.

c(J)

g(x 1 y) -

/(x.

z ( x2 +

Obsenaci11: para una j dad.o . p(x; 1 y) S<Hi;f;~cc todas la, condiciones de una d istri bucin
de probabi lidades. Tencmo< 1(x11J');::: Oy tambin

f.

11

lx
(y

x 2 + xy/3
6x 2 + 1xy
1/3 + y/6 2+y

O ~ x ~ l. O ~ y ~ 2;

x 2 + xy/3 _ 3x2 + xy _ 3x + y
) - 2x 2 + 2/3(x) - 6x 2 + 2x - 6x + 2

y :S 2. 0

~ X

:S J.

Para verificar que y(x 1 y) es una fdp, tenemos

f.

+ 1xy dx = ~ y= 1
2+y
2 +y

6x2

(6.7)

para todo y.

Un clculo semejante se puede hacer para h(y 1 x).

La fdp condicional de Y para una X = x dada se define


6.3
11(y x) = j(x. J').

g(x) >O.

f/(X)

(6.8)

Obserl'll~io11es: . (a) Las fdp condicionale> anleriorcs satisfacen toda:. las exigencias de
una fdp untdtmenstonal. A'>. para y fijo, tenemos g(x 1 J) :::: O y

r:

g(x 1 y)dx

~ f(x.
J-"' h(y)

y) /.

J'.

h(y)

' .

- - 1 ~--

/(\.

/r(y)

)dx = -

II(J'l

l.

Un clculo an logo se puede hacer para hlv 1 x). Por tanto. la> ecuaciones (6.7) y (6.8) defi1um
las fdp en Rx y Rr. respcctrv:unente.
(b) Una mtcrpretacn mtuiuva de g(.\ 1y) :;e obtiene " consideramo, que la superficte
representada por la fdp conJunta l es cortado digamos por el plano y 1. La interseccin
del ~Jan o con la superficie z f(x, y) resu ltar en una fdp unidimensional, llamada la fdp
de ,\ para Y c. Esta ser precisamente !/(X 11').
(e) Supongamos que (X. Y) representen respectivamente la altura y el peso de una per-.ona. Sea f la fdp conJunta de (X. Y) y :;ea 1/ la fdp marginal de X (prcscmdiendo de Y).

Variables aleatorias independientes

Tal como definimos el concepto de independencia entre dos sucesos A y 8 ,


definiremos ahora las variables aleatorias independientes. Lo que queremos decir
intuitivamente es que X y Y son variables aleatorias independientes si el resultado de X , digamos, de ninguna manera innuye en el resu ltado de Y. Esta es una
nocin extremadamente importante y hay muchas situaciones en que tal suposicin se justifica.
EJEMPLO 6.9.
Consideremos dos fuen tes de material radiactivo situadas a
cierta distancia una de otra, que emiten partculas ex. Supongamos que estas dos
fuentes se observan durante un perodo de dos horas y se anota el nmero de
partculas emitidas. Supngase que las siguientes variables aleatorias son de
inters: X 1 y X 2 , el nmero de partculas emitidas por la primera fuente durante
la primera y la segunda hora. respectivamente; Y 1 y Y2 , el nmero de partculas
emitidas por la segunda fuente durante la primera y la segunda hora, respectivamente. Parece intuitivamente obvio que (X 1 y Y1), o (X 1 y Y2 ), o (X 2 y Ytl. o (X 2

106

Variab~~

all'atoria.!t

bidiru~n.!tiooa.lt"t

d~

ntayur

dirue~in

Variables al.. torla' lnd<ptnditntr'

Id
TABLA

y Y2 ) son todas pares de variables aleatorias independientes. Las X dependen slo


de las caractersticas de la fuente 1 mientras que las Y dependen de las caractersticas de la fuente 2, y posiblemente no hay razn para suponer que una fuente
influya de manera alguna en el comportamiento de la otra. Cuando consideramos la posible independencia de X 1 y X 2 el asunto no es tan definido. El nmero de partculas emitidas durante la segunda hora es influenciado por el nmero
emitido durante la primera hora? Para responder a este interrogante tendramos
que obtener informacin adicional acerca del mecanismo de emisin. Ciertamente
que no podramos suponer a priori, que X 1 y X 2 son independientes.
Hagamos ahora ms precisa la anterior nocin intuitiva de independencia.
(a) Sea (X. Y) una variable aleatoria bidimensional discreta. Decimos que X y Y son variables aleatorias independientes si y slo si p{x;, y) =
p{x;)q(YJ) para todo i y j. Esto es, P(X = xr. Y= y)= P(X = x 1)P(Y =y).
para todo i y j.
(b) Sea (X. Y) una variable aleatoria bidimensional continua. Decimos que
X y Y son variables aleatorias independientes si y slo si f(x. y) = g(x)h(y)
para todo (x. y), en donde f es la fdp conJunta, y g y , son las fdp marginales de X y Y respectivamente.

111'7

6.3

o
0.1

0.2

0.2

0.5

0.04

0.08

0.08

0.2

0.06

0.12

0.12

0.3

p(xr)

0,2

0.4

0.4

1.0

Defmicio.

Observacin : si comparamos la definicin antenur con la dada para sucesos independientes,


!;1 semejanza es aparente: esencialmente necesitarnos que la probabilidad conjunta (o fdp

conjunta) pueda ser factorizada. El teorema siguiente indica que la definicin anterior es
equivalente a otro enfoque que podramos haber tomado.

Teorema 6. 1. (a) Sea (X, Y) una variable aleatoria bidimensional discreta.


Entonces X y Y son independientes si y slo si p(x1 1 y) = p{x1) para todo
i y j (o lo que es equivalente. si y slo si q(y 1 x 1) = q(yj) para todo i y j).

...

(b) Sea (X, Y) una variable aleatoria bidimensional continua. Entonces


X y Y son independientes si y slo si g(x 1 y) = (gx). o lo que es equivalente,
si y slo si IJ(y 1x) = h(y). para todo (x. 1').

Demostracin: ver problema 6.10.


EJEMPLO 6.10. Supongamos que una mquina se usa para un trabajo especfico en la maana y para uno diferente en la tarde. Representemos por X y Y
el nmero de veces que la mquina falla en la maana y en la tarde. respectivamente.
La tabla 6.3 da la distribucin de probabilidades conjunta de (X, Y).
Un clculo fcil revela que para todas las entradas de la tabla 6.3 tenemos

EJEMPLO 6.11. Sean X y y la duracin de dos dispositivos electrnicos.


Supngase que su fdp conjunta est dada por

f(x, y) =

e - l.d "'

x ~ O.

y <::: O.

Puesto que podemos factorizar j(x. yl = e-~e-'. se establece la independencia


de X y Y.

EJEMPLO 6.12. Supngase que flx. y) = 8xy,


o ~ x ~ y ~ 1. (El dominio est dado por la regin sombreada en la figur~ 6.7). Aunque f ya
est escrita en forma factonzada. X Y Y no. ~~n
independientes, puesto que el dominio de defintc1on

{(x, y) 1O ~ x ~ Y ~ 1!
es tal que para una x dada. y puede tomar slo valores mayores que la x dada y menores que 1. Por
tanto X y Y no son independientes.

fiGURA

6.7

Obsertacin: de ta defimc16n de la Jstribucin marginal d~ probabilidades (en cu~lqu1era


de los casos discreto 0 conunuo) es claro que
distribucon . C:OnJunta de probabilidades
determina en forma nica la distribucin margmal de probabilidades. Es dec1r. qu~ conociendo ta rdp conjunta. ~demos obtener las fdp marginales g y .1. Sin embargo. lo mverso
no es cierto. Es decir, en general. el conocimiento de las fdp ~argmale~ g Y h no deter:';:t~
la fdp conJunta .J. Esto slo es verdadero cuando X y Y son mdcpendentes. porque e
caso tenemos f(x. y) ~ g(x)h(y).

!a

El resultado siguiente indica que nuestra d~fmicin d.e vanables a~eatorias


independientes est de acuerdo con nuestra defimc16n prevta de sucesos mdependientes.

As X y Y son variables aleatorias independientes. (Para comparar vase tambin


el ejemplo 3.7.)

X Y) una \ariable aleatoria bidimensional. Sean A Y B


T eorema 6 .2 . Sea (
.
d x
y
esucesos cuya ocurrencia (o no ocurrenc1a) depende solo. e
Y ~espe
tivamente. (Esto es, A es un subconj unto de Rx, el recorndo de X. mtentra:.

\ arl1ble. aleatorl'" bidimcn,ooalts) de ma)or dmen,in

1011

6.4

qu~ Bes un sub~onj~n to de Rr, el recorrido de Y.) Entonces. si X y y son


vanables a leatonas mdependientcs. tenemos P(A n B) = P(A)P(B).

Demostracin: (slo el caso continuo):


P(A n 8) =

JI

f (x, y) dx dy =

An 8

=
6.4

SJ

y(x)h(y) dx dy

AnB

J.. y(x) dx J h(y) ely= P(A)P(B).


8

Funciones de una variable aleatoria

Al definir una variable aleatoria X. sealamos. muy enfticamente. que X es


una f uncin definida del espacio muestra! S a los nmeros reales. Al definir una
variable aleatoria bidimensional (X, Y), tratamos un par de funciones X = X(s).
Y = !(s), cada una de las cuales est definida en el espacio muestra! de algn
e~penmento y cada una de las cuales asigna un nmero real a cada se S. produCiendo a~ el vector bidimensional [X(s), Y(s)].
. Cons1deremos a hora Z = Ha(X, Y), una funcin de las dos variables a lcator~as X Y Y. Debe estar claro que Z = Z(s) es otra vez una variable aleatoria. ConSideremos la siguiente sucesin de pasos:
(a) Se realiza el experimento ; y se obtiene el resultados.
(b) Se evalan los nmeros X(s) y Y(s).
(e) Se evala el nmero Z = H 1 [X(s), Y(s)].
El valor de Z depende claramente de s, el resultado original del experimento.
Esto es, Z = Z(s) es una funcin que asigna a cada resultado ~e S un nmero
~eal, Z(s). Por lo tanto, Z es una variable aleatoria. Algunas vanables aleatorias
Importantes que nos van a interesar son X + Y, X Y. X Y, mjn (X, Y), max (X, Y).
etctera.
. ~1 pro?lema que resolvimos en el captulo anterior para la variable aleatoria
~ntd1mens10nal aparece otra vez: dada la distribucin de probabilidades conJunta de (X, Y), cul es la distribucin de probabilidades de z = H 1 (X. Y)?
(Debe ha~er ~ued~do claro en 1?~ numerosas discusiones previas sobre este punto.
que ~na d1stnbuc10n de probab1ltdades se induce en Rz, el espacio muestra) de Z.)
S1 (X, Y) es. una variable aleatoria discreta, este problema se resuelve muy
fc1lmente. ~up?ngase qu.e (X, Y) tiene la distribucin dada e n los ejemplos 6.1
Y ~.4. Las s1gu1entes vanables aleatorias (unidimensionales) podran ser de interes:

= min (X, Y) = el menor nmero de artculos producidos por las dos lineas:
Y = max (X, Y) - el mayor nmero de artculos produ~ido por las dos lneas:
W = X + Y = nmero total de artculos producido por las dos lneas.
Par~ obtener la distribucin de probabilidades de U, por ejemplo, procedemos
como s1gue. Los va lores posibles de U son: O, 1, 2 y 3. Para eva luar P(U = O)
argumentamos que U =O si y slo si ocurre uno de los casos siguientes: X = O.
Y= O o X= O, Y = lo X = O, Y = 2 o X = O, Y = 3 o X = 1, y = 0 o X = 2.
U

t+unrh.HietJ dt Wll \'Utulblr aletona

.4

IOQ

Y = Oo ,\ = 3, Y Oo X = 4, Y = Oo X - 5, Y = O. Por lo tanto P( U = O) - 0,28.


El resto de las probabilidades asociadas con U se pueden obtener de una manera
semeJante. Por tanto, la distribucin de probabilidades de U se puede resumir
como s1gue: u: O, l. 2. 3; P (U = u): 0,28: 0.30; 0,25; 0,17. La distribucin de probabilidades de las variables aleatorias V y W como se defini anteriormente se
pueden obtener de una manera semejante. (Ver problema 6.9).
Si (X. Y) es una variable b idimensional continua y si Z = /J 1 (X, Y) es una
funcin continua de (X, Y). entonces Z ser una variable aleatoria continua (unidimensional) y el problema de encontrar su fdp es algo ms complicado. Para
resolver este problema necesitamos un teorema que vamos a indicar y discutir
a continuacin. Antes de hacerlo, bosquejemos brevemente la idea basica.
Para encontrar la fdp de Z = H 1 (X. Y) es a menudo ms simple introducir
una segunda variable aleatoria, digamos W = H 2 (X. Y), y obtener primero la fdp
conjunta de Z y W, digamos k(z, w). Conociend o k(z, 111), podemos entonces obtener la fdp de
digamos g(z). al integrar si mplemente k(z, w) con respecto a w.
Esto es,

z.

g(z) =

r: k(z. w)dw.

L os problemas que quedan son (1) cmo encontrar la fdp conjunta de Z y W,


y (2) cmo elegir la variable aleatoria apropiada W = H 2 (X, Y). Para resolver
el ltimo problema. simplemente. digamos que generalmente hacemos la elecc1n
ms sencilla posible de W. En el contexto presente, W desempea slo un papeJ.
mter mediario, y realmente no nos interesa en s misma. Con el fin de encontrar
la fdp conJunta de Z y W necesitamos el teorema 6.3.
Teorema 6.3. Supongamos que (X. Y) es una variable aleatoria bidimensional continua con fdp conjunta f Sea Z = f/ 1(X, Y) y W = H z(X, Y), y
supongamos que las funciones H 1 y H 2 satisfacen las condiciones siguientes:
(a) Las ecuaciones z = H 1 (x, y) y w = H 2 (x, y) se pueden resolver nicamente para x y y en funcin de z y w, digamos x = G 1(z, 111) y y = G 2(z. w).
(b) Las derivadas parciales oxfiJz, iJxfow, oy/oz, y oyfolll existen y son
continuas.
Luego la fdp conjunta de (Z, W). d1gamos k(z, w), est dada por la expresin
siguiente: k(z, w) = f[G 1(z, 111), G2(z. w)] IJ(z, w)!, en donde J(z, w) es el
siguiente determinante 2 x 2.

J(z, w)

iJx

iJx

ilz
ily
az

(w

ay

ow

Este determmante se llama Jacobiano de la


y algunas veces se escribe as o(x. y)fo(z, 111).
distinta de cero para esos valores de (z, w)
de (x. y) para los cuales f(x, y) es distinta de

transformacin (x, y)- (z. 111)


Observemos que k(z, 111) ser
que corresponden a valores
cero.

honcionC'> de una arlable aleatoria

b.-1

..

(a)

FIGURA

6.8

(b)

Observaciones: (a) Aunque no demostraremos este teorema, por lo menos indicaremo.


lo que necesita ser demostrado y dnde se encuentran las dificultades. Considrese la fda
conjunta de la vanable aleatoria bidimensional (Z, W),
K(z, w) = P(Z S z, W S w) =

f"' "' J'., k(s,t)dsdt,

en donde k es la fdp buscada. Pueslo que se supone que la transformacin (x. y)-> (z. w) es
de uno a uno (vase la suposicin (a) anterior), podemos encontrar el suceso. equivalente
{Z S z, W $ w}, en funcin de X y Y. Supngase que este suceso se ind1ca como C. (Ver
figura 6.8). Esto es, {(X, Y) e C} si y slo si {Z $ z, W S w}. Por tanto

S_ ., S ., k(.1,1) ds dt
w

FIGURA

i'x
lr

arp

EJEMPLO 6.13. Supngase que estamos apuntando a un blanco circular de


radio uno, que ha sido colocado de modo que su centro est en el origen de un
sistema de coordenadas rectangulares (figura 6.9). Supngase que las coordenadas
(X, Y) de los puntos de impacto estn di~tribuidas uniformemente en el crculo.
Es decir,
-

si (x. y) queda en el interior o sobre el circulo,


en otro punto.

ox

ay

cos rp - r sen 4>

) :o

r
=f cJf(x,
y) dx dy.

Puesto que se supone que fes conocido. puede calcularse el segundo miembro de la integral.
Diferencindola con respecto a z y w obtenemos la fdp pedida. En la mayora de los textO>
de clculo avanzado se demuestra que estas tcnicas conducen al resultado formulado en
el teorema anterior.
(b) Ntese la gran semejan za entre e l resultado anterior y el obten ido en el caso unidimensional tratado en e l captulo anterior. (Ver teorema 5.1). La condicin de monotona
de la funcin y fl(x) se sustituye por la condicin de que la correspondencia entre (x. y)
y (z, w) es uno a uno. La condicin de diferencialidad es sustituida por ciertas suposiciones
acerca de las derivadas parciales consideradas. La solucin final obtenida es tambin muy
semejante a la obtenida en el caso unidimensional: las variables x y y sencillamente se sustituyen por sus expresiones equivalentes en funcin de z y w, y el valor absoluto de dxfdy se
sustituye por el valor absoluto del Jacobiano.

6.9

Supngase que estamos mteresados en la variable aleatoria R que representa


2
la distancia del origen. (Ver figura 6.10). Es decir. R = .JX 2 + Y Encontraremos la fdp de R. digamos r. as: sea <1> = tan 1 (Y /.\"). Por tanto. X = H 1(R. <1>)
y Y = H 2(R, <I>) donde x = ii 1(r, rjl) = r cos <f> y y = H2(r, <f>) = r sen rjl. (Simplemente hemos introducido coordenadas polares).
El Jacobiano es

sen <P

o<f>
2
cos <f> + r sen 2 4> =

fJr
- r

f(x. y) = 1/ rt
= O,

tl t

cos <f>

r.

Bajo la transformacin anterior. el crculo unitario en el plano x y se aplica en


el rectngulo en el plano rjlr en la figura 6.11 . Por tanto la fdp conJunta de (<1>. R)
est dada por

,.

y(I/>, r) = - ,

O ::; r ::; l.

O$

<f

< 2rt.

1--

- - - - - , ( 2.., 1)

L ._

FIGURA

___

6.10

FIGURA

-.~..!

__

<b

6.11

Asi la fdp pedida de R, d1ga mos ir. est dada por


ir(r) =

g y(<f>.r)d<f>

= 2r.

O $ r ~ l.

Observacin : este ejemplo seala la impoo1:1nc1a de obtener una representacin prec1sa


d e la regin con los valores posibles introducidos por la nueva variable aleatoria.

bldlmenslona~

..

112

Variables aleatorias

y de mayor dimelbln

6.5

Distribuciones del producto y del cociente de variables aleatorias independientes

Entre las funciones de X y Y ms importantes que deseamos considerar estn


la suma S = X + Y, el producto W = X Y, y el cociente Z = X / Y. Podemos usar
el mtodo de esta seccin para obtener las fdp de cada una de esas variables a leato rias bajo condiciones muy generales.
En el captulo 12, investigaremos la suma de variables aleatorias con mayor
detalle. Por tanto, postergaremos la discusin de la distribucin de probabilidades de X + Y hasta entonces. Sin embargo, consideraremos el producto y el cociente en los dos teoremas siguientes.
Teorema 6.4. Sea (X, Y) una variable aleatoria bidimensional continua
y supongamos que X y Y son independientes. Por tanto la fdp f ~ puede
escribir como f(x, y) = g(x)h(y). Sea W = X Y.
Luego la fdp de W, digamos p, est dada por

))e ullcrs es la variable aleatoria E = 1R (el voltaje en el circuito). Sea p la fdp de E.


Segn el teorema 6.4 tenemos
p(e)

O s; i s; 1

x. As x

= 11 y y= wfu.

-w

-u1

p(e) =

El Jacobiano es

s(w, u)= g(u)lr

el 1

2i .2
91

O s; e/i s; 3.

di

-~e2.!1'

;~,3

= ~e(3 - e),

Por tanto la fdp conJunta de W = X Y y U = X es

p(e)

o
J =

di.

Estas dos desigualdades son, a s u vez, equiv.tlentes a e/ 3 s; i s; l. Por tanto.


la integral anterior llega a ser

<3

= xy y u =

U) 171

Se debe tener cuidado al resolver esta integral. Ntese primero que la variable
de integracin no puede tomar valores negativos. Segundo, n!ese con el fin de
que el integrando sea positivo, ambas fdp que aparecen en el mte~rando deben
~cr positivas. Considerando los valores para los cuales g y h no son aguales a cero
encontramos que deben satisfacerse las condiciones siguientes:

(6.9)

Demostracin: sea w

= r~ y(i)ll

O s; e :5 3.

Un ci1lculo fcil demuestra que


(Ver figura 6.12.)

f;' p(e)de =

e=l
l.

FIGURA

6.12

Teorema 6.5. Sea (X, Y) una 'ariable aleatoria continua bidimensional y se


supone que X y Y son independientes. (Por tanto, la fdp de (X , Y) puede
escr ibirse como f(x, y) = g(x)h(y).] Sea Z = X / Y. Luego la fdp de Z.
digamos q. est dada por

(~) ~~~-

La fdp marginal de W se obtiene al integrar s(w, u) con respecto a u, que da


el resultado pedido. Los valores de w para los cuales p(w) > Odepende de los valores (x, y) con los cuales f(x, y) > O. - --

-ka

q(z) = J_,g(vz)ll( v)ivl dv.

Observacin : al evaluar la integral anterior se puede usar el hecho de que

Demostracin: sea;= x/ y y sea r =y. Por tanto, x = vz y y= r. El Jacobiano


es

J =
EJEMPLO 6.14. Supngase que tenemos un circuito en el cual varan de un
modo aleatorio la corriente 1 y la resistencia R. Supngase especficamente que
1 y R son variables aleatorias continuas independientes con las siguientes fdp.

1: g(i) = 2i,
R:

h(r) = r 2 /9.

O~

i s; 1

y Oen otra parte;

Os; r s; 3

y Oen otra parte.

(6.10)

Por tanto, la fdp conJunta de Z

~1 = v.

1~

= X/ Y y

t(z, v)

V = Y es igual a

g(vz)ll(t>)ivl.

Integrando esta fdp conJunta con respecto a t'- da la fdp marginal de Z.

fl.h

Varlobl"' ~orlas bidimen,iOtlal y d moyor dimt'n,ln

114

6.15. Representemos por X y Y la duracin de dos bombillas fa


bri~das median~e ~os procedimientos distintos. Supongamos que X y Y son
vanables aleatonas mdependientes con fdp f y g respectivamente, en donde
E.li!MPLO

x ~ O,

f(x) = e-x,
g(y) =

y ~

2e- 21,

O,

t '.araclcrizamo' la d1~tnbucin de probabilidades (X,, .... X.) como sigue:

\IStc una funcin densidad de probabilidades conJunta que satisface las condiCiones siguientes:
(a) /(.'( 1 x.)

y Oen otra parte;

(b)

y Oen otra parte.

~ O para

todo(x., .... x.).

+~ +; f(x 1 , x.)dx 1 .. dx.

= l.

Con la ayuda de esta fdp definimos


De inters podra ser la variable aleatoria X / Y, que representa la razn de las dos
duraciones. Sea q la fdp de Z.
Segn el teorema 6.5 tenemos q(z) = j !:~ g(vz)h(v)lvl dv. Puesto que X y y
pueden tomar slo cantidades no negativas, la integracin anterior slo necesita
ser_calculada sobre los valores positivos de la variable de integracin. Adems,
el mt~gra~do ser positjvo slo cuando las dos fdp que aparecen sean positivas.
Esto 1mphca que debemos tener v ~ O y vz ~ O. Puesto que z > O, estas desigualdades implican que v ~ O.
As lo anterior se convierte en
q(z)
q(z) =

oo

Jo e

oo

"'2e- 2"vdv=2Jo ve-U+:>dv .

P[(X" .... X.) e CJ =

J J.f(x,, .... x.) dx 1 .. dx.,


e

en donde C es un subconJunlo del recorrido de (X 1 X.).


Con cada variable aleatoria n-dimensional podemos asociar un nmero de
varia bles alea10rias de dimensin inferior. Por eJemplo. si 11 = 3. enlonces
+

J , J , f(x,,xz ..\.l)dx
S

't'

tiXz- 1/(XJ).

en donde y es la fdp marginal de una variable aleatoria unidimensionaJ X 3


mientras que

Una fcil integracin por partes da

q(z)

= (z +

en donde l1 representa la fdp conjunta de la variable aleatoria bidimensional


2)2,

z ~ O.
FIGURA

6.13

(Ver figura 6.13). De nuevo es un eJercicio


fcil venficar que J~ q(z) dz = l.

6.6

Va riables aleatorias n-dimensionales

H ~sta ahora nuestra exposicin se ha restringido a variables aleatorias bidimenslona l_es. Sm embargo, como lo indicamos al comienzo de este captulo,
pode~os mteresarnos en tres o ms caractersticas numricas simultneas.
. Solo haremos una brevsima exposicin de las variables aleatorias n-dimenSJOnale~.. La "_layor parte de los conceptos presentados anteriormente para el
caso b1d1mens1onal se pueden extender al caso n-dimensional. Nos limitaremos
al caso continuo. (Ver la nota al final de este captulo).
Supongamos que (X., ... , X.) puede tomar todos los valores en una regin
del espacio n-dimensional. Esto es, el valor es un vector n-dimensional.

(X 1 (s), ... , X.(s)).

(X, X 2 ), etc. El concepto de variables aleatorias independientes est tambin


extendido de una manera natural. Decimos que (X 1 X .l son variables aleato-

rias independientes si y slo si sus fdp COnJuntas j(x 1,

x.) se pueden factori-

zar en
g (x 1) g.(x.).
Hay muchos casos en los cuales deseamos considerar las variables aleatorias
n-dimensionales. Daremos unos pocos ejemplos.
(a) Supngase que estudiamos el modelo de precipitacin debido a un sistema particular de tormentas. Si tenemos una red de, digamos, S estaciones de
observacin y si X 1 es la lluvia cada en la estacin i debido a un sistema frontal
particular, querramos considerar la variable penta-dimensional (X,, X 2 , X 3 ,
X4, X s).
(b) Una de las aplicaciones ms importantes de las variables aleatorias
n-dimensionales aparece cuando tratamos con medidas repetidas de una variable
alea10ria X. Supngase que se pide la informacin acerca de la duracin X. de
cierto tubo electrmco. Un fabricante produce un gran nmero de estos tubos.
de los cuales probamos n. Sea X 1 la duracin del i-s1mo tubo. i = l. .... n. Por
tanto (X., . .. , X.) es una variable aleatoria 11-dimensional. Si suponemos que
cada X 1 tiene la misma distribucin de probabilidades (puesto que todos los tubos

11 6

l'rubl~ma'

Variabi<S a lea lorlll> bldlone n,lon a les y de mayor dim4!n,l6n

se producen de la misma manera) y si suponemos que las X, son todas variable-.


aleatorias independientes (puesto que. posiblement.:. la produccin de un tubo
no afecta la produccin de los otros), podemos suponer que la variable aleatoria
n-dimensional (X, ... X .l est formada de las componentes X" .... X. independientes e idnticamente distribuidas. (Debe ser obvio que aunque X 1 y X 2
tienen la m isma distribucin, no necesitan adoptar el m ismo valor).
(e) Otra manera como aparecen las variables aleato rias n-d i mensionale~
es la siguiente. Representemos por X(t) la potencia requerida por cierta empresa
industrial durante un tiempo 1. Para t fijo, X(t) es una variable aleatoria unidimensional. Sin embargo, podemos e~tar interesados en establecer la potencia
pedida en determinados n tiempos espcdficos. 1 1 < 1 2 < < t. As descamo~
estudiar la variable aleatoria n-dimensional.
[X(/ 1). X(t 2 )

representa P[(X. l')EAj. Am\logamente. si 1 repre~nta la rdp conJunta de( ,\ 1 ... . X.l
'"'once'

S.. Jf(xl ..... x.)dxl .. dx.


11

P[(X 1

\',) E

R).

PROBLEMAS
6.1. Suponga que la tabla srguiente represenld la drstnbucin de probabrhdad~ conJunta
de la variable aleatoria discreta (X, Y). Calcular todas las d1stnbucrones margrnales Y con
diciona les.

X (t.)].

Este tipo de problemas se estudia a un nivel ms avanzado. (Una referencia excelente para este tema es el libro Stodw.wic Processes por Emanuel Parzen.
San Francisco: Holden-Day. 1962.)
Oh.wrl'tlcin : en al[!una parte de nuest ra ~'pos1c1n nos hemos rerendo al concepto de
espaclon. Resumamos un poco alguna> de las 1deas bsicas necesanas.
Con cada nmero real x. podemos asoc1ar un punto sobre la recta de los nmeros reales
y recprocamente. Anlogamente, con cad<t par de nmeros reales (x~ox 2). podemos asociar
un punto en el plano rectangular de coordenadas y recprocamente. Finalmente. con cad<t
cOnJunto de tres nmeros rea les (x~o x 2 x 3 ). podemos asociar un pun to en el espacio tridimensional de coordenadas y recprocamente.
En muchos de los problemas que nos interesan. tratamos un conjunto de 11 nmeros reales,
(x 1. x 2 x.). tambin llamado un 11-tuplo. Aunque no podemos dibupr ningn grfico.
si n > 3. podemos contmuar adoptando la terminologa geomtrica sugerida por los casos
de dimensin menor. citados anteriormente. As. hablaremos de un punto en un espacio ndimensional determinado por el ntuplo (x., . . . . x.). Definiremos como espacio 11 (algunas
veces llamado espacio n euclidiano) el conjunto de todos los (x 1, .... x.). en donde x 1 puede
ser cualquier nmero real.
Aunque realmente no necesitaremos evaluar integra les n-dimensionales, vamos a encontrar que es un concepto muy til y algunas veces necesitamos expresar una cantidad como
una integral mltiple.
Si recordamos la definicin de

117

ti

111

1-=

--6.2.

-=

-h

Supngase que la variable aleatona bidimensional (X. Y) tenga fdp conJ unta
/(X. y)

b(X - )').

0<

.~

< 2.

< )' <

X.

en otra parte.

O.

(a) Evaluar la constante k.


(b) Encontrar la rdp marginal de X.
(e) Encontrar la rdp margina l de Y.
6.3. Supngase que la rdp conjunta de la variable aleatoria bidimensional (X. Y) est
dada por

f(x.y)

z
X

ff f( x . ' 1J\ dy.


A

xy

+J.

O.

0 <X< l.

0<y<2.

en otra parte.

en donde A es una regin del plano (x. y). entone~' la extensin de este concepto a

S Sflx1.. . .

~.ldx 1

Jx.

en donde R es una regin en el espacio n sera JU>tificada. Si f representa la fdp conJunta de


la variable aleatoria bidimensional (X. Y) entonces

ff f(x. y) dx dy
A

Calcular lo siguiente.
(a) P(X

> t);

(b) P(Y < X);

(e) P(Y <

11X

<

t).

6.4. Suponga que se sacan dos cartas al azar de una baraja de cartas. Sea X el nmero
de ases obtenidos y sea Y el nmero de reinas obtenido.
(a) Obtener la distribucin de probabilidades conJunta de (X . Y)
(b) Obtener la distribucin marginal de X y de Y.
(e) Obtener la distribucin condicional de X (dado Y) y de Y (dado X).

118

Vari able<~

Problemas

aleatorias bidimensionales y de mayor dlmen,l6n


1' ''

119

una fdp conjunta de (X. Y) en la rcgtn

lormementc en (10. 20). Supngase, adems, que las variables aleatorias X e 1 son independtentes. Encontrar la fdp de la variable aleatoria H.

6.6. Supngase que la variable aleatoria contmua bidimensional (X. Y) est dtslributda
umformemcnte en el cuadrado cuyos vruc;c,. son (l. 0). (0, 1), (- 1, 0) y (0. - 1). Encontrar
la fdp marginales de X y de Y.

6.12. La intensidad de la luz en un punto dado est dada por la relacin 1 = C/D en
donde e es la potencia luminosa de la fuente y D es la distancia de la fuente al punto dado.
Supngase que e est distribuida uniformemente en (1,2). mientras que D es una variable
aleatoria continua, con fdp f(d) =
d > O. Encontrar la fdp de / , si e Y D son independientes. [Indicacin : hallar primero la fdp de D2 y luego aplicar tos resultados de este capitulo.)

6.5. Para qu valores de k es f(x, y)


0 < X < l, 0 < y < 1?

ke

6.7. Supngase que las dimensiones, X y Y. de una plancha metlica rectangular se pueden
considerar como variables aleatorias continua> independientes con las siguientes fdp.

X: g(x) = x- l.

1 <X$ 2,

= -x + 3.
Y:

=o.
h(y) = t.
-o.

2 <X< 3,

en otra parte.

en otra parte.

6.8. Representemos por X la duracin de un dispositivo electrnico y supongamos que X


es una variable aleatoria continua con fdp
1000
,
X1

= O,

x > 1000,

en otra parte.

Sean X, y X 2 dos determinaciones independientes de la anterior variable aleatoria X. (Es


decir, supngase que estamos probando la duracin de dos de tales dispositivos). Encontrar
la fdp de la variable aleatoria Z = X ,X 2
6.9. Obtener la distribucin de probabilidades de las variables aleatorias V y W presentadas en la p. 95.
6.1 O.

e-.

6.13. Cuando una corriente de 1 (amperes) pasa por una resistencia de R (ohms). la potencia generada es dada por W = 12 R (watts). Supngase que 1 y R son variables aleatorias
independientes con las siguientes fdp.
1:

j(i)

2 <y< 4,

Encontrar la fdp del rea de la plancha, A - X Y.

f(x) =

Oemost rar el teorema 6.1.

6.11. La fuerza magntica H en un punto P. a X unidades de un alambre que transporta


una corriente/, est dada por H = 2/{X. (Ver figura 6.14). Supngase que Pes un punto
variable. Es decir. X es una variable aleatoria cont inua distribuida uniformemente en (3,5~
Supngase que la corriente 1 es tambin una variable aleatoria con tinua, distribuida uni-

FIGURA

6.14

R: g(r)

= 6i(l

- i),

= O.

en otra parte.

O S i $ 1.

= 2r.

O < r < l.

=0.

en otra parte.

Determinar la fdp de la variable aleatoria W y dibuJar su grfico.


6.14. Supngase que la fdp conJunta de (X. Y) es dada por

f(x.y) = e- 1 ,

= O.
(a) Encontrar la [dp marginal de X.
(b) Encontrar la fdp m(lrginal de Y.
(e) Evaluar P(X > 21 Y < 4).

para x > O.
en otra parte.

y> x,

7.1

El .alor perado de uno rlnblc ulculorlo

ll l

7
hasta que se encuentra el primer articulo defectuoso. As un res ultado tpico
del experimento sera de la forma NNNND. Por tanto X(NNNND) 5. Los
valores posibles de X son: l. 2, ... , n ... P uesto que X = k si y slo si los primeros (k - l) artculos no son defectuosos y el k-simo artculo es defectuoso.
asignamos la probabilidad siguiente al suceso { X = k}: P(X = k) - p( l - p'/- 1 ,
k - 1. 2, .... " . . . Para verificar que esta es una legitima distribucin de probabilidades observemos que

Otras caractersticas de las variables aleatorias

:L"

p(l - pt- ' = p(l +( 1 -pl+(l-p)z+ ...]

1
= p--

1 - (1 - p)

7. 1

El valor esperado de un a variable a leatoria

Consideremos la relacin determm~tica ax + by = O. Reconozcmosla como


una relacin lineal entre x y y. Las constantes a y b son los parmetros de esta
relacin en el sentido de que para cualquier eleccin particular de a y b obtenemos una funcin lineal especfica. En otros casos uno o ms parmetros pueden
representar la relacin que se considera. Por ejemplo, si y = ax 2 + bx + e, son
necesarios tres parmetros. Si y= e- h, es suficiente un parmetro. No slo una
rell\cin particulr se caracteriza por los parmetros sino. recprocamen_te. por
una cierta relacin podemos defin ir varios parmetros pertmentes. Por eJemplo,
si ay + bx = O, entonces m = - b/a representa la pendiente de la recta O, si
y= ax 2 + bx +c. entonces - bf2a representa el valor para el cual existe un
mximo relativo o un mnimo relativo.
En los modelos matem ticos no determinsticos o a leatorios que hemos venido considerando, los parmetros tambin pueden usarse para sealar la distribucin de probabilidades. Con cada distribucin de probabilidades podemos
asociar ciertos parmetros que dan informacin valiosa acerca de la distribucin
(tal como la pendiente de una recta da una informacin til acerca de la relacin lineal que representa).
EJEMPLO 7.1. Supongamos que X es una variable aleatoria continua con
fdp f(x) = ke- b. x ~ O. Para verificar que esta es una fdp observe queJ ke - bdx
= 1 para toda k > O. y que ke - 1 " > O para k >O. Esta distribucin se llama
distribucin exponencial, que est udiaremos ms adelante con mucho detalle. Es
una distribucin muy til para representar la duracin. digamos X. de cierta
clase de componentes de eq uipos. La interpretacin de k, en este sentido, se discutir tambin posteriormente.
EJEMPLO 7.2. Supongamos que en una lnea indefinida de montaJe se produce un artculo dado. La probabilidad de que un artculo sea defectuoso es
y
este valor es el mismo para todos los artculos. Suponiendo tambin que los artc~,;los sucesivos son defectuosos (D) o no defectuosos (N), independientemente
uno de otro. Sea la variable aleatoria X el nmero de artculos inspeccionados

1'

120

= 1

si O <

IPI <

l.

As el parmetro p puede ser cualquier nmero que satisfaga O < p < l.


Supongamos que se especifican una variable aleatoria y su dbtribucin de
proba bilidades. Hay alguna manera de establecer esta distribucin en funcin
de escasos parmetros numricos apropiados?
Antes de investigar la pregunta anterior, motivemos nuestra prese ntacin al
considerar el siguiente ejemplo.
EJEMPLO 7.3. Una mquina corta alambre de una longitud determinada.
Debido a cierta imprecisin del mecanismo de corte. el largo del alambre cortado (en pulgadas). digamos X. se puede considerar como una variab le aleatoria
distribuida unforrnenente en [11,5, 12,5]. El largo especfico es de 12 pulgadas.
Si 11,7 ~ X < 12,2, el alambre se puede vender con una utilidad de $ 0,25. Si
X ~ 12,2, el alambre se puede cortar de nuevo, y por consiguiente se <lbtiene
una utilidad de $0,10. Y si X < 11,7, el alambre se desca rta con una prdida
de $ 0.02. Un clculo sencillo indica que P(X ~ 12,2) = 0,3, P( 11,7 ..,; X < 12,2)
= 0,5. y P(X < 11 ,7) = 0,2.
Supongamos que se corta un gran nmero de muestras de alambre. digamos
N. Sea Ns el nmero de muestras para las cuales X< 11,7. N 11 el nmero de
muestras para las cuales 11,7 ~ X < 12,2. y N L el nmero de muestras para las
cuales X ~ 12.2. Por tanto, la utilidad total obtenida de la produccin de N
muestras e~ igual T = Ns( - 0.02) + N 11(0.25) + Nt.(O.IO). La 11tilidcul total por
alambre cortado. digamos W. es igual W = (Ns/ NX - 0.02) + (NRf N)(0.25) +
(N JNXO.I ). (Observemos q ue W es una variable aleatoria, puesto que N s. N R
y N,_ son variables aleatoria s.)
Ya hemos mencionado q ue la frecuencia relativa de un suceso est prxima
a la probabilidad de ese suceso si el nmero de repeticiones en las que se basa
la frecuencia relativa es grande. (Discutiremos con ms precisin esto en el captulo 12.) Por tanto, si N es grande, esperaramos que Ns/ N fuera prximo a
0.2, N JN sea prximo a 0,5 y N JN sea prximo a 0,3. Luego para N grande,
W podra aproximarse como sigue:

w :;:,:

(0,2)( -0,02) + 0,5(0,25) + (0,3)(0, 1)

= $0.151.

7. 1

122 Otras caracteristlcas de las varlablf!l aleatorios

As. si se produjese un gran nmero de alambres. esperaramos tener una utilt


dad de $0,151 por alambre. El nmero 0.15 1 se llama valor esperado de una variable aleatoria_.!f.

Defmicia. Sea X una variable aleatoria discreta con valores posible~


x 1, ... , x., ... Sea p(x1) = P(X = x 1), i = 1, 2, ... , n. ... El valor esperado
de X (esperanza matemtica de X). denotada por E(X), se define como
E(X) =

..

L:

x,p(x,)

(7.1)

i= 1

si la serie :Ej. 1 x 1p(x1)converge absolutamente, es decir, si Lf=1lx 1lp(x1) < 'X>.


Este nmero tambin se d esigna como el valor promedio de X .

Observaciones: (a) Si X toma slo un nmero finito de valores, la expresin anterior llega
a ser E{X) = I:7. 1p(x1)x1 Esta se puede considerar como un promedio ponderado de los
valores posibles x., ... x. Si todos los valores posibles son igualmente probables. E( X) =
(lfn)I:7. 1x, lo que representa el promedio aritmtico ordinario de los n valores posibles.
(b) Si se lanza un dado regular y la variable aleatoria X designa el nmero de puntos
que salen, entonces E(X) l/6( 1 + 2 + 3 + 4 + 5 + 6) = 7/2. Este ejemplo sencillo ilustra,
categricamente, que E(X) no es el resultado que esperaramos cuando X se observa una
sola vez. i De hecho, en la situacin anterior, E( X) = 7/2 no es siquiera un valor posible de
X! Por el contrario, sucede que si obtenemos un gran nmero de observaciones indepen
dientes de X, tales como x" ... , x., y calculamos el promedio aritmtico de esos resultados,
entonces, bajo condiciones generales regulares, el promedio aritmtico estar cerca a E(X)
en un sentido probabilstico. Por ejemplo, en la situacin anterior, si lanzramos el dado
un gran nmero de veces y luego calculramos el promedio aritmtico de los diversos resu ltados, esperaramos que este promedio llegase a estar ms prximo a 7/2 cuanto ms a menudo fuese lanzado el dado.
(e) Se debe observar la similitud entre la nocin de valor esperado como se defini an
teriormente (especialmente si X puede tomar slo un nmero finito de valores) y la nocin
del promedio de un COnJunto de nmeros como, z 1, ... , z. Corrientemente definimos
z = 1/n) I:7. 1 z1 como el promedio aritmtico de los nmeros z, ... , z. Supngase, adems
que tenemos los nmeros z', . . . , z, donde z ocurre n1 veces, I:l: 1n1 = n. Haciendo / 1 = nJn,
., = 1, definimos el promedio ponderado de los nmeros z'. .. . , zi como

7.t

1-'1 t11r ~per1do dr un .. ,l.tol~ l~otml

mente representa los resultados den medidas repetidas de la can1cter~tica numrica


\ .)Sea x e l promedio aritm tico de esos n nmeros. Entonces, como discutiremos
mucho ms precisamente en el captulo 12, si "es suficientemente grande, x estar
pr xima a E( X) en un determinado sentido. Este resultado est muy relacionado
\:On la idea (que tambin ser discutida en el captulo 12) de que la frecuencia relativa
1. asociada con n repeticiones de un experimento estar prxima a la probabilidad
f>(A) sif,. est basada en un gran nmero de repeticiones de e.
EJEMPLO 7.4.
Un fabricante produce artculos de 1al modo que el 1O por ciento son defectuosos y el 90 por ciento no lo son. Si se produce un artculo defectuoso, el fabricante pierde $1 , mientras que un articulo sin defectos le produce una
utalidad de $5. Si X es la utilidad neta por artculo, entonces X es un a variable aleatoria cuyo valor esperad o es calculado como E(X) = - 1(0, 1) + 5(0,9) = $4,40.
Supongamos que se produce un gran nmero d e tales artculos. Entonces, puesto
q ue el fabricante perder $1 alrededor del 10 por ciento de las veces y ganar $5
alrededor del 90 por ciento de las veces. l esperar ganar alredor de $4,40 por
artculo a la larga.

Teorema 7. 1. Sea X una variable aleatoria distribuida binomialmente con


parmetro p. basada en n repeticiones de un experimento. Entonces

E(X) = np.

Demostracin : puesto que P(X


E(X)

= L" k k=O

= L:

L n,z = L f ,zj.

n'

E(X) =

L:

- 1

n'

p)"

- - pk( l - p)"
k!(n - k)!

tenemos

k,

n!
k( t
n-
(k - l)!(n - k)!p
- p

n( n-

s:O

i l

Aunque hay un fuerte parecido entre el promedio ponderado anterior y la


definicin de E( X), es importante sealar que este ltimo es un nmero (parmetro)
asociado con una distribucin de probabilidades terica, mientras que el primero
es simplemente el resultado de combinar un conjunto de nmeros de una manera
especial. Sin embargo, es ms que un parecido superficial. Consideremos una
variable aleatoria X y sean x 1 , , x. los valores obtenidos cuando el experimento
que da origen a X se realiz n veces independientes. (Es decir, x, ... , x. simple-

= k) = (k)p~( 1 -

(ya que el trmino con k = O es igual a cero). Sea s = k - 1 en la s uma anterior.


Como k toma valores de uno hasta n, s toma valores de cero hasta (11 - 1). Sustituyendo k en todas partes por (s + 1) obtenemos

r.,_

12.1

= np

1) ,r+

.L:-'(" -s l)
,. .- o

(1 - p)" -

p'(t - pr- 1 -

La suma en la ltima ex presin es simplemente la suma de probabilidades binomiales con n sustituido por (n - 1) [esto es Jp + (1 - p))" 1] que. por tanto, es
igual a uno. Esto establece el resultado.

Observacin: el resultado a nterior corresponde ciertamel)te a nuestra nocin intuitiva.


Porque se supone que la probabilidad de algn suceso A es 0.3. por eJemplo. cuando se rca-

124 O cras u racterisclcas de las variables aleacoria.~

7. 1

El valor esperado de una variable aleacorla

7. 1
f(x)

liza un experimento. Si repetimos este experimenco 100 veces, por ejemplo, esperariamQ<.
que A ocurriera alrededor de 100(0,3) = 30 veces. El concepto de valor esperado, presentado anteriormente para variables discretas, se extender brevemente en el caso continuo.
EJEMPLO 7.5. Una mquina impresora tiene una probabilidad constante de
0,05 de fallar en cualquier da. Si la mquina no tiene fa llas durante la semana,
se obtiene una utilidad de $S. Si ocurren 1 o 2 fallas, se obtiene una utilidad de $ R
(R <S). Si ocurren 3 o ms fa llas, se obtiene una uti lidad de$( -L). (Suponemos
que R, S, y L son mayores que cero; tambin suponemos que si la mquina falla
cualquier da, permanece fuera de uso durante el resto del da.) Sea X la utilidad
obtenida en una semana de cinco das. Los valores posibles de X son R, S y (- L).
Sea B el nmero de fallas por semana. Tenemos

~ -'
x=l500

1
f(x) = (150W x,

= O, 1, ... , 5

Puesto que X = S si y slo si B = O, X = R si y slo si B = 1 2, y X = (- L)


si y slo s B = 3, 4, 5, encontramos que,

= O) + RP(B =

+ (- L)P(B = 3, 4 5)
= S(0,9W + R[5(0,05)(0,95)4 + 10(0,05)Z(0,95)l]
+ (- L) [10(0,05) 3(0,95) 2 + 5(0,05)4 (0.95) + (0,05) 5 ] dlares.
1 2)

x=3000

FIGURA 7.1

EJEMPLO 7.6. Vamos a delfn ir la variable aleatoria X como sigue. Supongamos


q ue X es el tiempo (en minutos) durante e l cual un dispositivo elctrico se utiliza
a su mxima carga cierto perodo de tiempo determinado. Supongamos que X es
una variable aleatoria continua con la siguiente fdp:

= (

E( X) = SP(B

125

0 ~X~ 1500,

- 1
) (x - 3000),
1500 2

O.

1500 ~ x ~ 3000,

para cualquier otro valor.

As

E(X) =
=

Defmicin. Sea X una variable a leatoria continua con fdpf E l valor esperado
de .X se define como

r oooo xf(x)dx

r1

1
[
soo xldx (1500)(J5{)0) Jo

J3000 x(x -

3000)dx]

I SOO

= 1500 minutos.
+oo

E(X) =

-oo

xfi.x)dx

(7.2)

Nuevamente puede suceder que esta integral (impropia) no converja. Por


lo tanto decimos que E(X) existe si y s lo si

<JO

lxif(x)dx

es finita.
Observacin: debemos observar la analoga entre el valor esperado de una variable aleatoria y el concepto de <<centro de masa en mecnica. Si una masa unitaria est distribuida
a lo largo de la recta en los puntos discretos x,, ... ,x., . . . y si p(x 1) es la masa en x 1, vemos
entonces que !:'; 1 x 1p(x) representa el centro de masa (respecto al origen). De modo se
mejante, si una masa unitaria est distribuida continuamente en una recta, y si f(x) represen
ta la densidad de masa en x, entonces J ~~ xf(x) dx se puede interpretar nuevamente como
el centro de masa. En el sentido anterior, E(X) puede representar <<Un centro de la distribucin de probabilidad. Tambin, E(X) se llama algunas veces medida de tendencia central
y est en las mismas unidades que X.

(Ver figura 7.1.)


EJ EMPLO 7.7. El contenido de ceniza en el carbn (porcentaje), digamos X.
se puede considerar como una variable a leatoria continua con la siguiente fdp:
f(x) = ;rb; x 2 , 10 ~X ~ 25. P or lo tanto E(X) = <r&s
x 3dx = 19,5 por ciento.
As el contenido esperado de ceniza en la muestra particular de carbn que se
considera es 19,5 por ciento.

rn

T eorema 7.2. Supongamos a X distribuida uniformemente en el intervalo


[a, bJ. Entonces
E(X) - a + b
2 .

Demostracin: la fdp de X est dada porf(x) = 1/(b- a), a~ x


E(X)

[b_ x _ dx

Jl.b - a

=_

1_

x21b

b - a2.

=a +2 b

b. Por tanto

126

Otra'< cuncterl,tlcus de las variables alealorlas

7.2

(Ntese que esto representa el punto medio del intervalo [a.b]. como intuiiiV<I
mente lo esperaramos.)
Obserwcin. valdra la pena recordar en e' le punto que una variable alea1ona ..\ e' una
func1n de un espacio muestra! S con relacin al r~-comdo Rx. Como repetidamente lo hemo-.
sealado. para la mayora de las aplicac1one~ ~ta nos ha interesado slo en el recomdo
y en las probabilidades definidas en l. Esta noc1n de valor esperado fue completamente
definida en funcin del recorrido [ver ecuaciones (7.1) y (7.2.)). Ocasionalmente, sin embar
go, debcramo; observar la naturaleza funcional de X. Por ejemplo, cmo expresarnos lu
ecuacin (7.1.) en funcin de resultados se S. suponiendo que S es finito? Puesto que x 1 X(~)
para una se S y puesto que

Esperanza de "" f_,ltl de una variable aleatorio 117

7.2

(a) Si Y es unu variable uleatoria discreta con valores posibles y,.y 2


y si q(y,) - P( Y= y 1), definimos
a:

E( Y)

= 'L

(b) Si Y es una variable aleatoria continua con fdp y. definimos

E( Y) =

podemos escribir
E(X)

= L
i

x,p(x,i

L X(s)P(s).

(7.3)

en donde P(s) es la probabilidad del suceso (')e S. Por ejemplo. si el experimento conmte
en clas1ficar tres artculos como defectuosos ID) o no defectuosos IN), un ~pacto mu~tral
para este expenmento seria
S= {NNN,NND,NDN,DNN,NDD,DND,DDN,DDD).

Si X est definida como el nmero de defectuoso. y si se supone que todos los resu ltados
anteriores son igualmente posibles, tenemos de acuerdo con la ecuacin (7.3.)
E(X)

=L

l(t) + l(t) + I(A) + 2U} + 2(!) + 2{t) + 3(!)

Sea X una variable aleatoria y sea Y = H(X).

{a) Si X es una variable aleatoria discreta y p(x1)

Se habra podtdo obtener este resultado ms fctlmente al aplicar directamente la ecuac1n


(7.1.) Sin embargo. es bueno recordar que para emplear la ecuacin (7.1) necesttbamo;

E( Y)

co-

nocer los valores p(x,), lo que a su vez significaba la necesidad de un clculo tal como el ut
!izado anteriormente. Lo importante es que una vez que se conoce la distribucin de pro
babilidades sobre Rx [en este caso los valores de p(x1)), podemos suprimir la relacin fun
cional entre Rx y S.

Sea X una variable aleatoria y sea Y= H(X).

= P(X = x;).

"' li(x )p(x ).


E(H(X)) = L
1
1

tenemos
(7.6)

(b) Si X es una variable aleatoria continua con fdpf. tenemos

Espe ranza de una funcin de una variable aleatoria

Como lo expusimos previamente, si X es una variable aleatoria y si Y //(X).


es una funcin de X. entonces Y es tambin una variable aleatoria con una distribucin de probabilidades. Por lo tanto ser mleresante y significativo evaluar E( Y).
Hay dos maneras de evaluar E( Y) que resultan equivalentes. D emostrar que en
general son equivalentes no es trivial y probaremos slo un caso e,pccial. Sin
embargo. es Importante que el lector comprenda los dos enfoques presentados
a continuacin.

E( Y)

Oefmicin .

(7.5)

yo(y)dy.

Observacin: naturalmente estas definiciones son enteramente consistentes con la definicin previa dada para el valor esperado de una variable alealoria. De hecho, lo anterior
representa simplemente una repeticin en funcin de Y . Una i<dcsventaja>> de aplicar la definicin anterior a fin de obtener E( Y) es que la distribucin de probabilidades de Y (es decir,
la distribucin de probabilidades en el recorrido Rr) es necesaria. En los captulos anteriores,
expusimos mtodos mediante los cuales podemos obtener o las probabilidades puntuales
t(y1) o g, la fdp de Y. Sm embar go, el problema que aparece es.!! p.QQemos obtener E( Y)
sin encontrar primero la distribucin de probabilidades de Y, slo a partir del conocimiento de la distribucin de probabilidades de X. La respuesta es afirmativa como lo indica el
siguiente teorema.

Teorema 7.3.

7.2

r.

X(s)P(s)

= O (t) +

=l

(7.4)

y;q(J,).

i 1

E(H(X))

HO

= _"

1/(x)flx)dx.

(7.7)

Observacin: este teorema hace mucho ms sencilla la evaluacin de E( Y), porque quiere
decir que no necesitamos encontrar la distribucin de probabilidades de Y a fin de evaluar
E( Y). Es suficiente el conocimiento de la distnbucin de probabilidades de X.

Demostracin: [slo demostraremos la ecuacin (7.6). La demostracin de la


ecuacin (7.7) es algo ms complicada). Consideremos la s uma I:j':, H(x)p(x1) =
H(x 1)p(x1)). en donde la suma interior se toma sobre todos los ndices i
para los cuales H(x1)
y. para un y fijo. P or tanto todos los trminos H(x;) son
constantes en la suma interior. Por tanto

r.o.,(r.,

7.2

128 Olras uraclerisllca~ de la< .. rtables alealorlas

"'
I:

H(x)p{x)

= L"

1 1

Por tanto, r.j. 1 H(x)p(x)

129

E.li:Mf'LO 7.9. En muchos problema~ nos in teresa slo la mag11itud de una


variable aleatoria sin consideracin a su signo algebraico. Es decir. nos interesa
lXI. Supongamos que X es una variable aleatoria continua con la siguiente fdp:

Y L p{x).
i

Pero.

L1 p(x)

Esperanza de una runcln dt una .. rtable alu lorla

7.2

= L P[x ll-l(x) =y,] =q(yj).

e"

j(x) = 2

= f.'J- 1 YA(Y). lo que establece la ecuacin (7.6).

~O.

si

si

x >O.

Observacin : el mcodo de demostracin e, equivalente esencialmente con el mtodo


de contar en el cual ponemos JUntos todos los artculos que tienen el mismo valor. As. s1
queremos encontrar la suma total de los valores l. l. 2. 3. 5. 3. 2. l. 2. 2. 3. podemos sumarlo,
directamente o indicar que puesto que hay 3 unos. 4 do~ 3 treses y 1 cinco. la suma cotal
es igual
3( 1) + 4(2) + 3(3) + 1(5) = 25.

Sea Y = lXI. Para obtener E( Y) debemos proceder de una de las dos maneras.
(a) Usando el teorema 7.3. tenemos
E( Y) = r.,"'lxlf(x)dx

7.8.

Sea V la velocidad del vcento (kph) y supongamos que V est


distribuida uniformemente en el intervalo (0. 10). La presin, W(en lbfpie 2), sobre
la superficie del ala de un aeroplano est dada por la relacin: W = 0.003 V~
Para encontrar el valor esperado de W. E(W), podemos proceder de dos maneras:
EJEMPLO

1) = 1.

G(y) = P( Y::; y) = P[lxl ::; y] = P[ - y ::; X ~ y) = 2P(O ::; X ::; y).

lb/pie 2

puesto que la fdp de X es simtrica respecto al cero. Por lo tanto

,f. .

0.003r 2
es una funcin montona de v, para v ;;;:: O. Podemos aplicar el teorema 5.1 y
=

obtenemos

G(y) = 2

f.'' -

.((x)dx = 2

1! - x

o 2

As tenemos para g, la fdp de Y,g(y) = G'(y)


S~ yg(y)dy = J~ ye- 1 dy = 1, como antes.

1 [dvl
IOtiW

EJEMPLO

o~"'~ 0.3.

para cualqucer otro valor.

Por tanto
E(W)

= fo 0,003v2 !IOdv

(b) Usando la definicin de E( W), necesitamos encontrar primero la fdp de

= O.

(x)l' 'dx

(b) Para evaluarE(Y)usando la definicin, necesitamos obtener la fdpde Y = lXI.


!/ Sea G la fda de Y. Luego

W. g,y luego evaluar J!:: wg(w)dw. Para encontrarg(w),observemosque w

+[

= Joro0,003v 2f(v)llv
= 0,1

g(w)

-x)exdx

=H I +

(a) Usando el teorema 7.3., tenemos

E( W)

1[faJ (

ro.J wg(w)dw =0,1

=Jo

-e- +

= e- 1 ,y;;::, O.

l.

Por lo tanto E(l? =

7.10. En muchos problemas podemos usar el valor esperado de

una variable aleatoria a fin de hacer ciertas decisiones de una manera ptima.
Supngase que un fabricante produce cierto tipo de aceite lubricante que pierde
alguno de sus atributos especiales si no se usa dentro de cierto perodo de tiempo.
Sea X el nmero de unidades de aceite pedidas al fabricante durante cada ao.
(Una unidad es igual a 1000 galones.) Supongamos que X es una variable aleatoria
continua, distribuida uniformemente en [2. 4). Por lo tanto la fdp f tiene la forma.
f(x) =

despus de un clculo sencillo. As, como lo indic el teorema las dos evaluaciones
de E(W) producen el mismo resultado.

dx =

= O,

~X~

4,

para cualquier otro valor.

130 O tras caroctcri~llcn de lo' variables oleolorlas

7.Z

Supongamos que por cada una de las unidades vendidas se obtiene una utilidad
de $300, mientras que cada una de las unidades no vendidas (durante un ao
determinado) produce una prdida de $100, ya que una unidad no utilizada tendn
que ser descartada. Suponiendo que el fabricante debe decidir pocos meses antes
del comienzo de cada ao cunto producir, y que decide fabricar Y unidades.
(Y no es una variable aleatoria. est especificada por el fabricante.) Sea Z la utilidad
por ao (en pesos). Aqu Z es evidentemen te una variable aleatoria puesto que es
una funcin de la variable aleatoria X. Especficamente, Z = H(X) en donde
//(X) = 300 Y

- 300 X

si

+ (-

Y.

7.3

Vorlable'i aleatoria' bldlmcn\lonalcs

7.3

Variables aleatorias bidimensionales

Los conceptos discutidos anteriormente para el caso unidimensional tambin


se mantienen para el caso de variables aleatorias de mayor dimensin. En particular
para el caso bidimensional. hacemos la siguiente definicin.
Defin icin. Sea (X. Y) una variable aleatoria bidimensional y sea Z
H(X. Y)
una funcin real de (X. Y). Por lo tanto Z es una variable aleatoria (unidimensional) y definimos E(Z) como sigue:

(a) Si

100)( Y - X).

si

X < Y.

z es una variable aleatoria discreta con valores posibles Zt. Z2

y con

= z1).

p(z1) = P{Z
(L;t ltima expresin puede escribirse como 400X -

A fin de obtener E(Z) aplcaremo~ el teorema


7.3 y escribimos

E(Z)

=J.::
f

1/(x)f(x)dx

~}

100 1').

entonces

~------1-----1--t-------

H(x)dx.

1 1

FIGURA

E(Z)

si
4.

(b) Si Z es una variable aleatoria con tinua con fdp f. tenemos

E(Z) =

7.2

2 <Y< 4

La pregunta siguiente es de inters. Cmo elegira el fabricante el valor de Y


a fin de maximizar la utilidad esperada? Podemos responder fcilmente esta
pregunta al poner simplemente dE(Z)fd Y = O. Esto produce Y= 3,5. (Ver figura 7.3.)

r,

(7.9)

zj(z)dz.

Como en el caso unidimensional, se puede demostrar el teorema siguiente


(an logo a l teorema 7.3.)
Sea (X. }') una variable aleatoria bidimensional y sea Z =

(a) Si (X. }') es una variable aleatoria discreta y si


p(X, YJ)

= P(X =

X.

y=

,l'j).

i.j

= l. 2, ....

tenemos
oe

E(Z) =

i 1

E(Z)

(7.8)

:p(Z).

i = 1

Teorema 7.4.
H(X . }').
y~

= L

Para eval uar esta integra l debemos considera r tres casos: Y < 2, 2 s; Y s; 4.
y Y > 4. Con ayuda de la figura 7.2 y despus de algunas si mplificaciones obtenemos
E(Z) = 300 Y
si
Y s; 2
= - 100 Y2 + 700 Y - 400
= 1200 - IOOY
si

131

L: H(x. y)p(x,. y1).

(7.10)

;: l

(b) Si (X. Y) es una variable aleatOria continua con fdp conJunta f. tenemos
E(Z) =

r~2

r -3,5 r - 4

FIGURA

7.3

+oo J+_"'oo H(x. y)f(x. y)dxdy.


-oo

f.

(7.11)

Obsertacin : no demostraremos el teorema 7.4. Otra vez. tal como en el caso unidtmen
sJonal. este es un resultado muy til puesto que indica que 110 necesitamos encontrar la dis
trbucn de probabilidades de la variable aleatoria Z a fin de evaluar su esperanza. Pode
mos encontrar directamente E(Z) a partir del conocimiento de la distribucin conJunta
de (X , l ).

132 Otras caractcri>ticas de la> variables uleatorias

7.11.

EJEMPLO

7.4

Reconsideremos el ejemplo 6.14 y encontremos E(E) en donde

E = 1R. Encon tramos que 1 y R son variables aleatorias independientes co n la>

Propiedades del valor esperado

7.4

Propiedad 7.2. Supongamo$ que


es una constante y X es una variable
a leato ria. Entonces E(CX) = CE(X).

siguientes fdp y y h respectivamen te:


g(i) = 2i,

o ::;; i ::;;

Demostracin: E(CX) =

1;

133

Tambin encontramos que la fdp de E es p(e) = ~e{3 - e), O ::;; e ::;; 3. Puesto que
1 y R son variables aleatorias independ ientes, la fdp conjunta de(/. R) es sencil lamente el producto de las fdp de 1 y R: f(i, r = ~ir 2 O ::;; i ::;; 1, O ::;; r ::;; 3. Para
evaluar E(E) usa ndo e l teorema 7.4 tenemos

+"'

- w

Cx.f(x)dx

.. xj(x)dx = CE(X).
= CI+
_.,-

Propiedad 7.3. Sea (X. Y) una variable aleatoria bidimensional con una
distribucin de probabilidades conjunta. Sean Z = H,(X , Y) y W =
H2(X , Y). Entonces E(Z + W) = E(Z) + E(W).

Demostracin
E(Z

Usando directamente la definicin (7.9). tenemos

E(E) =

ep(e)de =

r
0

=~
7.4

(3e

e)de

= ~.

e es

F(x)

f "' J +oo
-co

+ E( W).

H ix,y)f(x,y)dxdy

-co

e[ _"",_/'(x)dx =

=X. y Hz(X. Y)= Y.

Observaciones: (a) Combinando las propiedades 7. 1, 7.2 y 7.4 observamos el sigu iente
hecho importa nte: si Y = a X + b, en donde ti y b son constan tes, entonces E( Y) = aE( X) + b.
En palabras: la esperanza de una fu ncin lineal es esa misma funcin lineal de las esperanzas. Esto no es cierto a menos que est implicada una funcin lineal y es un error comn
creer de otro modo. Por ejemplo, E(X 2) (E(X)) 2 , E( lnX)
lnE(X), etc. As si X toma los
valores - 1 y + 1, cada uno con probabi lidad t, entonces E( X) = O. Sin embargo.

E(X 2) = (- 1)2H)

C.

~---+----------------.x

x=C

FIGURA

7.4

Observacin: el significado de X igual e es el siguiente. Puesto que X es una funcin del


espacio muestra l a Rx. el significado de lo anterior es que Rx consta de un solo valor C.
Por tanto X es igua l a si y slo si P[X(s) = e] = 1 Esta nocin se explica mejor en funcin
de la fda de X. Llamada, F(x) =O. si x <e: F(x) es igual a 1, si x 2: e (figura 7.4). Ta l variable aleatoria se llama degenerada algunas veces.

Il, (x,y)f(x,y)dxdy

->

Propiedad 7.4. Sea n X y Y dos variables aleatorias cualquiera. Entonces


E(X + Y) = E(X) + E(Y).

- - - -- --F(x) a l

+oo
_..,
Cf(x)dx =

f "' I+oo

[en donde fes la fdp conjunta de (X, Y)]

Demostracin: esta se deduce de inmediato d e la propiedad 7.3 al hace r H 1(X , Y)

Demostracin
E( X) =

[H 1 (x, y)+ H 2 (x. y)]f(x, y)dxdy

= E(Z)

Haremos una lista de propiedades del va lor esperado de una variable a leatoria
que ser muy t il en el trabajo futuro. En cada caso supondremos que existen todos
los valores esperados a los cuales nos referimos. Daremos las demostraciones
slo para el caso continuo. El lector debe ser capaz de dar e l argumento para el
caso discreto sustitu yendo sencillamente las integrales por sumatorias.

r:r:
-oo

Propiedades del valor esperado

Propiedad 7. 1. Si X =
en donde
una constante. entonces E(X) = C.

W) =

(~e(3 -

e )de

+ (l)'(t) =

*0

(b) En general. es dificil obtener expresiones pa ra E( 1/ X) o E( X 112), por ejemplo. en funcin


de 1/ E(X) o (E(X)) 112 . Sin embargo. estn disponibles algunas desigualdade-~. que son muy
fciles de derivar. (Ver los artcllllos de Flciss. Murthy y Pillai. y Gurland en los nmeros de
febrero y diciembre de 1966 y abril de 1967. respect ivamente. de The American Statisrician.)
Por ejemplo, tenemos:
(1) Si X toma solo valores positivos y tiene una esperanza fini ta, entonces E(I/ X) 2: 1/ E(X).
(2) Bajo la misma hiptesis q ue en (1). E(X 112 ) .$ (E(X)) 112.

Propiedad 7.5. Sean X 1 ,


E(X,

. ,

X,. n variables aleatorias. Entonces

+ .. +X.)=

E(X,)

+ .. + E(X.).

t 34 Otn caractcr,clca> de las ariables alcatorl~

7A

Dtmo.~traciu: esta se deduce inmediatamente de la propiedad 7.4 al <tplicar


la induccin matemtica.

Obwrmcitm combinando esta propiedad cun l.c antcrcor. obtenemos

en donde

la~ 111

son constantes.

Propltdades del valor e.perado

7.4

IJS

igual a p y es la m1sma para todas las personas. An ms, los resultados de las
pruebas para las personas del mismo grupo que se examina son independientes.
Sea X = nmero de pruebas necesarias para determinar la caracterstica que se
estudia para todas las N personas. y sea X; = nmero de pruebas necesarias para
examinar personas en el i-simo grupo, i = 1, ... 11.
Luego X= X 1 ++X., y por lo tanto E(X) = E(Xc) + + E(X.), lo
cual es igual a nE(X 1), puesto que todos los X 1 tienen la misma esperanza. X,
slo toma dos va lores: 1 y k + l . Adems,
P(X 1 = 1) = P (todas las k personas en el grupo 1son negat ivas).

Propi<:dad 7.6. Sea (X. }')una variable aleatoria bidimensional y supongamos


que X y Y son independientes. Entonces E( X Y) = E(X)E( Y).

= (1

pt.

Por tanto

Demo.lt radn :
E( X Y) =

_~'

f.'

;q '{(x. y)dxdy

+ X f +~

f
f

= _"'
=

+ >

P(X 1 =k+ 1) = 1 - (1 -

pt

y luego
E(X 1 ) = 1 (1-

p'f +(k+ 1)(1 -

= k(1 - (l - p)"
-<yy(x)lr(y)dxdy

_ ' xy(x)dx

f. . .

As
E(X)

ylr(y)dy = E(X)E( Y).

0/s~rtlldtt : la hiptesis adiciona l de independencia es necesaria para establecer la pro


piedad 7.6. mientras que no se necesit ninguna suposicin para obtener la propiedad 7.4.

EJEMPLO 7.12. (Este ejemplo se basa en un problema de An lntrodllction to


Probability 111eory and lts Applications de W. Fcllcr, pgina 225.)
Supngase que necesitamos examinar un gran nmero de personas. buscando
cierta caracterstica. con resultados positivo o negativo. Ms an, supongamos
que se toman muestras de varias personas y se prueba la muestra combinada como
una unidad, tal como puede ser el caso en ciertos tipos de exmenes de sangre.

S1tpo.1iciu: la muestra combinada dar un resultado negativo si y slo si todas


las muestras componentes son negativas.
As. en el caso de resultados positivos (de la muestra combinada). todas las
muestras deben ser individualmente probadas de nuevo para determinar cuillcs
s~n positivas. Si las N personas son divididas en n grupos de k personas (supomendo N = kn) aparecen las siguiente~ elecciones:
(a) Examinar a todas las N personas individualmente, solicitando N pruebas.
(b) examinar grupos de k muestras, lo cual puede necesitar tan pocos como
11 = N/ k o tantos como (k+ l)n = N + n pruebas.
Nuestro objetivo ser estudiar el nmero esperado de pruebas necesanas
en (b) y luego compararlas con N.
Suposicin : la probabilidad de que el resultado de la prueba sea positivo es

= nE(X

1)

+ k-

(1 -

p]

].

= N[l - (1 - p) +k ').

(La frmula anterior es vlida slo para k > 1, puesto que para k= J da
E(X) = N + p11, lo cual obviamente es falso.)
Un asunto de inters es la eleccin de k para el cual el anterior E(X) es ms
pequeo. Esto puede ser fcilmente manejado por algn procedimiento numrico.
(Ver problema 7.11a.)
Finalmente. observemos que para que la prueba en grupo sea preferible a
la prueba individual. deberamos tener E(X) <N, esto es. 1- (1- p'/ + k - 1 <l.
lo cual es equcvalente a k 1 < ( 1 - of. Esto no puede ocurrir si ( 1 - p)< ~. Porque
en ese caso (1 - p'f < i 1 < 1/k. la ltima desigualdad proviene del hecho de
que 21 > k. As obtenemos la siguiente conclusin importante: si p. la probabilidad
de un a prueba positiva en cualquier persona determinada, es mayor que~, entonces
no es aconsejable agrupar las muestras antes de examinar. (Ver problema 7. J 1b.)
EJBMPLO 7.13. Apliquemos algunas de las propiedades anteriores para derivar
(nuevamente) la esperanza de una variable aleatoria distribuida binomialmente.
El mtodo usado puede apl icarse con ventaja en muchas situaciones semejantes.
Consideremos n repeticiones independientes y sea X el nmero de veces que
ocurre un suceso A. Sea p igual a P(A) y supongamos que este nmero es constante
para todas las repeticiones consideradas.
Definamos las variables auxiliares Y, ... , Y. como sigue:

Yr = l

= O,

si el suceso A ocurre en la i-sima repeticin,


en cualquier otro caso.

7.4

136 Otras carocterlstlcas de la rlobles aleatorias

- J\(C 2

Por lo tanto

7.4

C 1)

137

~ni + IC2

~~ - ~ + 1

X=Y1 +Y2 ++Y.

CJ)

,.a o

np(n)

- N(C, + CJ)

p(ll)

n- O

y aplicando la propiedad 7.5, obtenemos


E( X)

Propiedade<. d~l valor t\t>l'rodo

= N(C 2

= E( Y) + + E( Y,,).

C.J + (C 2

+ C 3)[ 1:.

1111(11) - N

"

()

~11)(11- N).

11(11)J

n O

Sin embargo,
E(Y,) = l(p)+O(l -p)=p.

para todo i.

As E(X) = np, lo que concuerda con el resultado previo.


Observacin: reinterpretemos este importante resollado. Consideremos la variable aleatoria X /n. Esta representa la frecuencia relativa del suceso A entre las n repeticiones de c. Usando la propiedad 7.2, tenemos E( X fn) = (np)/n = p. Esto, intuitivamente. es como debera
ser, porque expresa que la frecuencia relativa esperada del suceso A es p. donde p ~ P(A).
Representa la primera verlcacin terica del hecho de que hay una relacin entre la frecuencia relativa de un suceso y la probabilidad de ese suceso. En un captulo posterior, obtendremos ms resollados que dan una relacin mucho ms precisa entre la frecuencia relativa y la probabilidad.

Supngase que la demanda D. por semana, de cierto producto


es una variable aleatoria con determinada distribucin de probabilidades,
P(D = 11) = p(n), 11 = O. 1, 2, . . . Supngase que el costo del fabricante es e 1
dlares por artculo. mientras que l vende el artculo por e 2 dlares. Cualquier
artculo que no se venda al trmino de la semana debe almacenarse con un costo
de 3 dlares por artculo. Si el fabricante decide producir N artculos al comienzo
de la semana, cul es su utilidad esperada por semana? Para qu valor de N es
mxima la utilidad esperada? Si Tes la utilidad por semana, tenemos
EJEMPLO 7.14.

si

D >N.
si

D =:;;N.

si

D :::; N.

C.)+ (Cz + C3)

= N!C 2-

Supongamos que se sabe que para D es apropiada la siguiente distribucin de


probabilidades: P(D = 11) = !.11 = 1, 2. 3. 4. S. Por tanto

E(T) = N(C 2

C 1)

+ (Cz; C 3 )[N(N + 1)/2 -

= N(C 2

C 1)

+ (C1 +

Supongamos que C 2

C 3 )~{1S

$9, C, = $3. y C .,

E(T)

N 2]

SI

N :::; S.

si N > 5.

SN)

$1. Por tanto

6N+2[N(N/ I)

6N + 2( 15 - SN)

7N - N 2

SI

30- 4N

si N

N2 ]
SI

N =:;; 5.

SI

N > S.

N :::; 5.
.>

S.

E(T)

Reescribiendo lo anterior. obtenemos

T=N(ez-e 1)

si

D > N.

Por tanto la utilidad esperada se obtiene como sigue:


FIGURA

E(T) = N(e2

e,)P(D >N)+ (e 2 + e 3 )

L:
~t=O

np(n)

7.5

Luego el mximo ocurre para .V = 3.5. (Ver figura 7.S.) Para N = 3 4. tenemo~
E(T) = 12. el cual es el mximo obtenible puesto que N es un entero.

118 OtrO\ rararttrstiras dt

7.5

la~

7.~

.. rlabl"" aleatorias

Supongamos que para una variable alea tona X encontramos que E( X) es igual
a 2. ,Cuitl es la importancia de esto'! Es importante que no atribuyamos mi~
significado a esta informacin que la justificada. Significa, sencillamente, que
si consideramos un gran nmero de valores de X, x 1 x., y promed iamos esos
va lores de X. este promedio se aproximar{ a 2 si 11 es grande. Sin embargo. es
muy importante que no demos mucha importancia a un valor esperado. Por
eJemplo supngase que X representa la duracin de una bombilla que se recibe
de un fabricante. y que E(X) - 1000 horas. Esto podra significar una de varias
pos1b1hdades. Podra significar que se espera que la mayor parte de las bombillas
dure entre 900 y 1100 horas. Tambin podra significar que las bombillas que
se entregan estn formadas por dos tipos de bombillas muy diferentes: alrededo r
de la mitad s0n de muy a lta calidad y con duracin de cerca de 1300 horas, mientras que la otra mitad son de muy ma la ca lidad y durar n cerca de 700 horas.
l lay una necesidad obvia de presentar una medida cuantitativa que distinga
entre tales situaciones. Varias medidas se sugieren por s mismas. pero la siguiente e, la cantidad usada ms comnmente.

=:

E(X 2

=:

E(X 2 )

+ [E(X)] 2 }
2E(X)E(X) + [ E(XJ]l

= E(X 2 )

[E(XJ]l.

2XE(X)

[Recurdese que E( X) es una constante.]

EJEMPLO 7.15. La orici na meteorolgica clasifica el tipo de ciclo que es vistblc en relacin con los grados de nubosidad. Se usa una escala con 11 categoras: O. l. 2..... 10. en donde O representa un cielo perfectamente claro. 10
reprc~cnta un cielo completamente cubierto, mientras que los otros valores representan diversas condiciones intermedias. Supongamos que tal clasificacin
se hace en una estacin meteorolgica determinada en un da y hora determinados. Sea X la variable aleatoria que toma uno de los 11 va lores anteriores. Supongamos que la distr ibuci n de probabilidades de X es

P1

= PIO = 0,05;
= P2 Ps = pq = 0.15:

PJ

=:

Po

=:

P4 = Ps = p., - P1 = 0,06.

Sea X una variable aleatoria. Definimos la varia11;:a de X. de-

notada por V( ..\') oJ, como sigue:

Por tanto

1(0,15) + 2(0.15) + 3(0,06) + 4(0.06) + 5(0.06)


+ 6(0.06) + 7(0.06) + 8(0. 15) + 9(0. 15)
+ 10(0.05) = 5.0.

E( X)

V(X)

=:

(7. 12)

E[X - E(XJ]2.

La raz cuadrada pOSitiva de V(X) se llama desviacin


est denotada por (Jx.

estndt~r

de X y

A fin de calcular V(X) necesi tamos calcular E(X 2 ).

Obsertaciones: (a) El miml!ro 1 1 \ 1 est expresado en unidades cuadradas de X. Esto es.


si X se mide en horas. entonces V(X) est expresada en (horas) 2 Esta es una razn para
considerar la desviacin estndar. Se expresa en las mismas unidades que X.
(b) Otra medida posible podra haber sido t:IX - E(XJI. Por diferentes ratOnes, una de
las cuales es que X 2 es una funcin mejor comportada que lXI, se prefiere la varianza.
(e) Si interpretamos a E( X) como el centro de una masa unitaria distribuida sobre una recta,
podemos interpretar V(X) como el momento de inercia de esta masa, respecto a un eJe perpendicular a travs del centro de masa.
(d) V(X) como se defim en la ecuacin (7.12) es un caso especial del concepto ms general siguiente. El k-simn mnnwnto de la variable aleatoria X respecto a su esperanza se
define como ll = E[X - E(XI]'. Evidentemente para k = 2. obtenemos la varianza.

E(X 2 )

1(0.15) + 4(0.15) + 9(0.06) + 16(0.06) + 25(0.06)


+ 36(0,06) + 49(0.06) + 64(0,15) + 81(0.15)
+ 100(0.05) =: 35,6.
fl.x)

El c1lculo de V(X) se simplifica con la ayuda del resultado siguiente.


F IGURA

7.6

(E(X)) 2

=:

Teorema 7.5.
Luego
V(X) = E(X 2 )
E(Xl] 2

Demostracin: desarrollando E[X y usando las propiedades de la


establecidas previamente, obtenemo~

e~peranza

UY

E[ X - E(X)] 2

1'( \)

La varianza de una va riable aleatoria

Definicin.

La varianza de un rlable alealorl

7.~

y la desviacin estndar

11

3.25.

35.6 - 25

=:

10,6.

140 Otras caracterlsllcas de las variables al.,.torias


EJEMPLO

7.16.

7.6

Supongamos que X es una variable aleatoria continua con

fdp

f(x) = 1 + x,
= 1 - x,

- ( :5; X~ 0.
O~x~l.

J~ 1 X 2 (1

+ J
Por tanto V(X) =

x 2 (1 - x)dx =

i.

i;.

Observacin: supngase que una variable aleatoria con tinua tiene una fdp que es simtrica respecto a x = O. Es decir, f( - x) = f(x) para todo x. Luego, siempre que exista E( X).
E(X) = O, que es una consecuencia inmediata de la definicin de E( X). Esto puede extenderse
a un punto arbitrario de simetra x = a, en tal caso E(X) = a (Ver el problema 7.33).

7.6

Y) = V(X)

+ Y)

= E(X + Y) 2 - (E(X + Yl)l


= E(X 2 + 2XY + Y2) - (E(X))l- 2E(X)E(Y)- (E(Y)) 2
= E(X 2 ) - {E(X)j2 + E(Y 2 ) - (E(Y)j2 = V(X) +V( Y).

Observacin: es importante establecer que, en general, la varianza PlO es aditiva como


lo es el valor es!J!:rado. Con la hiptesis adiciona l de independencia, la propiedad 7.9 es vlida. La varianza no posee la propiedad de linealidad que dimos ~a la esperanza, es decir.
V(aX + b) # a V(X) + b. En su lugar tenemos V(aX + b) = a 2 V(X).

Propiedad 7.10.
tonces

Sean X

1. ,

x. n

variables aleatorias independientes. En-

V(X 1 ++X.) = V(X 1)

Propiedades de la varianza de una variable aleatoria

(7.1 5)

V(Y).

Demostracin:
V(X

+ x)dx

14 1

Propiedad 7.9. Si (X. Y) es una variable aleatoria bidimensiona l. y si X y


Y son independientes entonces
V(X

(Ver figura 7.6.) Debido a la simetra de la fdp. E(X) = O. (Ver la observacin


abajo.) Ms an.
E(X 2 )

Propiedades de la varianu de una variable aleocora

7.6

+ +

V(X.).

(7.1 6)

Demostracin: sta se deduce de la propiedad 7.9 con induccin matemtica.


Hay varias propiedades importantes. en parte anlogas a las expuestas para
la esperanza de una variable aleato ria, que se mantienen para la varianza.
Propiedad 7.7.

Si

Propiedad 7.11. Sea X una variable aleatoria con varianza fin ita. Luego
para cualquier nmero real a,

es una constante,
V( X )
V(X

+ C)

= V(X).

= E[(X

+ C) -

E(X) -

e] 2

Observacin: esta propiedad es intuitivamente evidente, porque al agregar una constante a un resultado X no cambia su variabi lidad. que es lo que mide la varianza. Simplemen te
<<desplaza los valores de X a la derecha o a la izquierda. dependiendo del signo de C. '

Si

es una constan te,


(7.14)

Demostracin:
V(eX)

[E(X) - oc] 2

(7.17)

Demostracin : ver el problema 7.36.

+ C) = E[(X + e) - E(X + C)J2


= E [ X - E(X)J 2 = V(X).

Propiedad 7.8.

E [(X - a) 2 ]

(7 .1 3)

Demostracin:
V(X

= E(eX)2 =e

[E(X

(E(eX)j2
) -

= e 2E(X 2) - e2(E(X>)l

(E(Xj)2]

e V(X).
2

Obse,.vaciones: (a) Esta es una extensin obvia del teorema 7.5, porque al hacer a= O
obtenemos el teorema 7.5
(b) Si interpretamos V(X) como el momento de inercia y E(X) como el centro de una
masa unitaria, entonces la propiedad anterior es una formulacin del teorema muy conocido en mecnica de los ejes paralelos: el momento de inercia respecto a un punto arbitrario
es igual al momento de inercia respecto al centro de masa ms el cuadrado de la distancia
de ,este punto arbitrario al centro de masa.
(e) E[ X - a]l es minimizado si a = E(X). Esto se deduce de inmediato de la propiedad
anterior. As el momento de inercia (de una masa unitaria distribuida en una recta) respecto a un eje que pasa por un punto arbitrario se minimiza si este punto se escoge como el
centro de masa.
EJEMPLO 7. 17. Calculemos la varianza de una variable aleatoria distribuida
binomialmente con parmetro p.
Para calcular V(X) podemos proceder de dos maneras. Puesto que ya conocemos que E(X) = np, sencillamente debemos calcular E(X 2 ) y luego calcular
V(X) como E(X 2) - (E(X)) 2 . Para calcular E(X 2 ) usamos el hecho de que

142 O tras caractcristicas de las ariables aleatorias

7.7

P(X =k)= (Z)pk(J - pn-k, k= O. 1, ... , n. Por tanto E(X 2 ) = l:Z . 0 kl(Z)p(t p-k. Esta suma puede calcularse fci lmente, pero en vez de hacer esto, emplearemos un mtodo ms simple.
Nuevamente usaremos la representacin de X presentada en el ejemplo 7.13,
X = Y 1 + Y 2 + + Y . Observemos que las Y 1 son variables aleato rias independientes puesto que el valor de Y 1 depende solo del resultado de la i-sima
repeticin, y se supone que las repeticiones sucesivas son independientes. Por
tanto podemos aplicar la propiedad 7. 10 y obtener

Por tanto

V(X) = V(Y 1 + + Y.) = V(Y 1) + + V(Y.).

Pero V(Y 1) = E(Y 1jl- [E(Y1)]2. Ahora


E(Y 1)

= l(p) + 0(1 - p) = p,

E(Y 1jl

= 12 (p) + 0~(1

- p) =p.

Por tanto
V(Y 1) = p- p2

= p(l

- p) para todo i. As V(X) = np(l - p).

Observacin: consideremos V( X) = np( 1 - p) como una funcin de p para un n dado.


Dibujemos un grfico como se muestra en la figura 7.7.
Resolviendo (d/dp)np(1 - p) = O encontramos que el valor mximo para V(X) ocurre
cuando p =l. El valor mnimo de V(X) ocurre evidentemente en los extremos del intervalo
en p = O y p = l. Esto es intuitivamente como debera ser. Recordando que la varianza e'
una medida de la variacin de la variable aleatoria X definida como el nmero de veces que
ocurre el suceso A en n repeticiones, encontramos que esta variacin es nula si p = O 1 (es
decir, si A ocurre con probabilidad O 1) y es mxima cuando estn sin certeza como podemos estar>> acerca de la ocurrencia o no ocurrencia de A, es decir. ~uando P(A) = ...

Expresiones aproximoda> para la espernnz y la varlan.a

V(X)

= E(X 2 ) - [E(X)Jl = (b

- a)
12

t 43

despus de un clculo sencillo.


Observaciones: (a) Este resubtado es intuitivamente significati vo. Indica que la varianza
de X no depende individualmente de a y b sino s lo de (b- a)2 , es decir, del cuadrado de su
diferencia. Por tanto dos variables aleatorias distribuidas cada una uniformemente en un
intervalo (no necesariamente el mismo) tendrn iguales varianzas mientras las l01rgitudes
de los intervalos sean iguales.
(b) Es bien sabido el hecho de que los momentos de inercia de una barra delgada de
masa M y longitud L respecto a un eje transversal que pasa por el centro estn dados por
ML 2 / 12.

7.7 . Expresiones aproximad:a s para la esperanza y la varianza


Ya hemos observado que para evaluar E(Y) o V(Y), en donde Y= H(X).
no necesitamos conocer la distribucin de probabilidades de Y , sino que podemos trabajar directamente con la distribucin de probabilidades de X. De un
modo semejante, si Z = H(X, Y), podemos calcular E(Z) y V(Z) sin obtener
primero la distribucin de Z.
Si la funcin H es muy complicada, la evaluacin de la esperanza y varianza
anteriores puede conducir a integraciones (o sumas) que son muy dilici les. De
aqu que sean muy tiles las aprox imaciones siguientes.
Teorema 7.6. Sea una variable aleatoria X con E(X)
Supongamos que Y = H(X). Luego
E( Y) ~ H{t)

V(X)

+ H"(

= J.l,

V( Y) ~ [ H'(J.l)) 2 q 2 .

y V(X)

= q 2.
(7.18)
(7.19)

(A fin de hacer t iles las aprox imaciones anter iores necesitamos evidentemente que H sea a lo menos diferenciable dos veces para x = J.l).
L-------~----~~--.p

P=~
F IGURA

Demostracin: (slo un bosq uejo): a linde establecer la ecuacin (7.18), desarrollemos la funcin H en una serie de Taylor para x = J.l con dos trminos. As

7.7

Y = H(t) + (X - J.l)H'(J.l) + (X - 1 H" (t) + R .,

7.18. Supngase que la variable a leatoria X est distribuida unifo rmemente en [a, b]. Como lo calculamos previamente, E( X) = (a + b)/2.
Para calcular V(X) bailemos el valor de E(X 2 ):
E JEMPLO

en donde R 1 es un resto. Si descartamos el trmino resto R., entonces, tomando el valor esperado en ambos miembros. tenemos
E( Y)~ H(J.l)

+ H'?) q 2 ,

7.7

144 Otra~ caractcrlstlcas de 1 arlables aleatoria~

puesto que E(X - JI)


O. A fin de establecer la ecuacin (7.19). desarrollemo~
11 en una serie de T aylor para :x = JI con un trmino. Luego Y = H (JI) + (X JI)/I'(JI) + R 2 . Si descartamos el resto R 2 y tomamos la varianza en ambos lados.
tenemos

EmMPLO 7.19. Bajo ciertas condiciones la tensin superficial de un lquido


(dma/cm) est dada por la frmula S= 2(1 - 0.005T}J. 2 donde Tes la temperatura del lquido (grados centgrados).
Supongamos que T e~ una variable aleatoria continua con la siguiente fdp.

/(1)

30001- 4
l;?: 10,
O, para cualquier Olro valor.

Exprcsionc~

7.7

E(T) = J 1 ~ 30001- 3 d1 = 15 (grados centgrados).

y
V(T)

E( S) .,.. 1/( 15) + i75H"( 15)


1.82 (di nas cm).
V(S) :.: 75[ H'(15)]2 = 0,87 (dinasjcm) 2 .
Si z es una funcin de dos variables, Z - JI(X. Y), se es tablece un resu ltado
an logo.
Teorema 7.7. Sea (X. Y) una variable aleatoria bidimensional. Supongamos
que E(X) = Jlx E( Y) = J11 ; V( X)
y V( Y) =
Sea Z
II(X . Y).
[Supondremos que existen las diversas derivadas de H para (JI,. JI,).]
Luego si X y Y son independientes. tenemos

= ai

dt - 225

= 75 (grados centgrados) 2

Para calcular E(S) y V(S) tenemos que calcular las integrales siguien tes

ro (

dt

J.~ (1 - 0.0051) 2 ' 4 1

dt.

1 - 0,0051)

1 2

En ve7 de evaluar esas expresiones, obtendremos aproximaciones para E(S) y


V{S) al usar las ecuaciones (7.18) y (7.19). A fin de usar esas frmulas tenemos
que calcular f/'(15) y 1/"( 15), en donde H(t)
2( 1 - 0,0051)1.2. Te nemos

H '(r)

V(Z) :.:

E(T 2 ) - (lsl

= J(; 3000t

= 2.4(1

0,005t)0 2 (

- 0.005)

-0.0 12( 1 -

0,0051) 0 2 .

0.0 l.

[12//

2+ payH2 a,2]

{Jx 2 11x

en donde todas las derivadas parciales se evalan en (JI,. JI,.).

Demostracin : la demostracin implica el desarrollo de H en una serie de


Tay lor en el punto (Jix,Jt1) con uno y dos trmin~s, descartando el r~sto, Y luego
tomando la esperanza y la varianza en a mbos mtembros como se htt.o en la demostracin del teorema 7.6. Dejaremos los detalles al lector. (Si X y Y no son
independientes, se puede derivar una frmula ligeramente ms complicada.)
Ohser~aci11: el re\uh:1d0 anterior puede extcnc.lcr'e a una funcin de 11 'arablcs aleatorias independientes .Z
//( ,\ , .... X,). Si t::(.\,) 11 V(X;) =<~f. tenemo' la' \guientcs aprox imaciones. suponiendo que todas las derivadas existan.

1 " f1 2 H
E(.Z) ""' H (J,, ... JI,) t 2 1Ll ('IX2 "'
l

11( 15) = 1,82. H '( 15)

+ 21

a;.

iJx a; + [i}/1]2
ily a;.
[i}f/]2

V(Z) :::.:

Luego

145

A't tenemos

E(Z) :.: H(JI,. Jl1)

Luego

aproxlnoada' para la e~pcranta y la arlanta

r. (:H)2 <lf.
1

l'X,

en donde las derivadas parciales son evaluada, en el punto {Jt, ... ,).

De un modo semejante,
ll"{t) = - 0,0024( 1

0,0051)- 0 8 ( -0.005)- 0,000012(1 - O,OOSt)- 0 8 .

Por lo tanto
1/"(15)

0.000012
(0.925)0 8

= o+.

EJEMPLO 7.20. Supngase que te nemos un circu it o s imple para el cual el


voltaje, M, se expresa por la ley de Ohm como M = 1R, e n donde 1 y R son la
corriente y la resistencia del circuito respectivamente. Si 1 y R son vanables aleatorias independientes. entonces M es una variable aleatoria y. usando el teorema
7.7. podemos escribir

E[M]:.: E(I)E(R).

V[M] z [E(R)] 2 V(T) + [E(IJ]ZV(R).

146 Otro' conctcri\tlro' de lo, rloble\ aleatorio>

7.8

7.H

Desigualdad de Chebyshev

Hay una desigualdad muy conocida del matemtico ruso Chebyshev que desempea un papel tmportantc en lo que resla de nuestra obra. Adems, nos dari1
un medio para comprender cabalmen1e como la varianza mide la variabilidad
~sx:cto al valor esperado de una variable aleatoria.
Si conocemos la distribucin de probabilidades de una variable aleatoria ,\
(la fdp en el caso contrnuo o la probabilidad puntual en el caso discreto). podemos calcular E( X) y V( Y). s1 extsten. Sin embargo. lo recproco no es verdadero.
Esto es. conoctendo E(.\') y V(X) no podemos reconstruir la distribucin de probabilidades de X y por tanlo no podemos calcular cantidades tales como P[IX
- E(XJI ~ C]. Srn embargo. resulta que aunque no podemos evaluar tales probabilidades [a partir de un conocimiento de E(X) y V(X)]. podemos dar una cota
2u~rior (o inferior)_!!}uy tiles para tales probabilidades. Este resultado est
contenido en lo que se conoce como la desiguladad de Chebyshe\.
Desigualdad de Chebyshev. Sea X una variable aleatoria con E(X) = JI y sea
e un nmero real cualquiera. Entonces. si E(X - c) 2 es finita y E es cualquier
nmero positivo. tenemos

el

P[!X

;:>

E]

2
2E(X - c)
E

(7.20)

Las formas siguientes. equiva lentes a (7.20). son inmediatas:


(a) Al considerar el suceso compkmcntario obtenemos:

P[IX

(7.20a)

(c) Eltgicndo e

JI }

Var X

JI ~ E] ~--,
E"

(7.20b)

P[lx-

Jll

~ ku] ~ k- 2

(7.21)

Esta ltima forma (7.21) rndica especialmente cmo la varianza mide el grado
de concentracin de la probabiltdad prxima a E(X) = p.
Demo>lraciu (Demostraremos slo 7.20 puesto que las otras se deducen como
se indic. Tratan:mos slo el caso contmuo. En el caso discreto. el argumento
es muy parecido al de las intcgn~J..:, ... ubstituidas por sumas. Sin embargo. ha}
que tener cuidado con los punto' extremos de los intervalos):
Consideremos

P[IX -

~
en donde

r (x -2 e)2 f{x) dx,

JR

R = {x: lx

- el ~ E}.

Esta integral, a su vez. es


~
lo que es igual

(x
e)2
-.
.
-rf(x)dx
J
+co

1
E

E[X -e)1.

como se peda demostrar.


Observacio11es: (a) Es importante darse cuenla de que el rcsullado anterior es notable
precisamente debido a lo poco que se presupone acerca de la conducta probabilstica de la
variable aleatoria X.
(b) Como podramos suponer, una informacin adiciona l respecto a la distribucin de
la variable aleatoria X nos permitir mejorar la desigualdad que deducimos. Por ejemplo,
si C ~ ;, tenemos, de la desigualdad de Chebyshev,

P[IX -

JI!~

d ~ E)

= Jx:lx -rl ~.J(x)dx.

P[IX - JI! ~ 1o] = P[IX -

= 1-

ku. en donde u 2 = Var X > O. obtenemos

147

(Los lmites de la integral dicen que estamos integrando entre


co y e E y
entre e+ E y +co.)
Ahora lx - el ~ E es equivalente a (x - c) 2/ :<?:: J. Puesto que la integral
anterior es

io)!!:

= 0,44.

Supongamos que tambien sabemos que X est dis1ribuida uniformemcnle en (1


1 + t/ j3). Por lo tanto E(X) = t, V(X) = ~ y asi

(b) Al elegir e - JI obtenemos

P[lx

Oesleu ldod de Cheby~hu

7.K

ti ~ ~] = 1 -

P(! <X < i)

P[IX -

= 1-

~J

1/fi.

11 < ~]
0, 134.

Ntese que aunque la relacin obtenida de la desigualdad de Chebyshev es consecuente


con este resultado, la llima es una relacin ms precisa. Sin embargo, en muchos problemas
ninguna suposicin referente a la distribucin especfica de la variable alcatorra e~t JUSloficada. y en tales casos la desigualdad de Chebyshev puede damos una informactn tmportantc acerca del comportamiento de la variable aleatoria.

Como lo observamos en la ecuacin (7.21). si V(X) es pequea. la mayor parte


de la distribucin de probabilidades de X esiconcentrada prxima
E( X).
Esto se puede expresar ms detalladamente en el teorema siguiente.

Teorema 7.8. Supongamos que V(X) =O. Luego P[X =JI) - l. en donde
11 = E(X). (Informalmente, X = JI, con probabilidad 1.)

148 Otras caracrerlsllcas de las variables aleatorias

7.~

P[IX - 1l ~ t]

O para cualquier

tl < E] = 1 para

P[IX Puesto que puede elegirse


trado.

de corrclocin

14Y

E{[X - E(X)][Y- E(Y)]} = E[XY- XE(Y)- YE(X) + E(X)E(Y)]


= E(XY) - E(X)E(Y) - E(Y)E(X) + E(X)E(Y)
= E( X Y) - E(X)E( Y).

> O.

cualquier t > O.

arbitrariamente pequeo, el teorema queda demos-

Teorema 7.10. Si X y Y son independientes. entonces p

=O.

Demostraci11: se deduce inmediatamente del teorema 7.9. puesto que

Observaciones: (a) Este teorema demuestra que la varianza cero no implica que toda la
probabilidad est concentrada en un solo punto, a saber E(X).
(b) Si E(X) - O, luego V(X) E(X 2 ). y por tanto en este caso. E(X2) = O implica L'l
misma conclusin.
(e) En el sentido anterior decimos que una variable aleatoria X es degenerada: toma slo
un valor con probabilidad l.

7.9

coenci~nre

Demo.\trcrcin: consideremos

Demostracin : de la ecuacin (7.20b) encontramos que

Luego

7.1}

El coeficiente de correlacin

Hasta ahora nos hemos interesado en los parmetros asociados con la distribucin de variables a leatorias unidimensiona les ta les como E(X) y V(X). Estos
parmetros miden, en el sentido ya descrito previamente, ciertas caractersticas
de la distribucin. Si tenemos una variable aleatoria bidimensional (X, Y), se encuentra un problema an logo. Naturalmente, podemos presentar nuevamente las
variables aleatorias unid imensionales X y Y asociadas con (X, Y). Sin embargo.
surge la pregunta de si hay un par1metro significativo que mida de alguna manera
el grado de asociacin enlre X y Y. Esta es una nocin ms vaga que ser precisada en breve. Demos la siguiente definicin rormal.
Definicin . Sea (X, Y) una variable aleatoria bidimensional. Definimos Pxy
el EJeflcielll e de correlacin, entre X y Y, como sigue:
_ E~ E(X)][Y- E(Y)]}.
j 'V(X)V(Y)

Px, -

E(XYl

= E(X)E(Y)

si X y Y son independien tes.


Observaci11 : el reciproco del teorema 7.10 no es verdadero en general. (Ver el problema 7.39.) Esto es. po<lemos tener p = O. y an as X y Y no necesitan ser independientes.
Si p - O decimos que X y Y son M correlacionodos. As. soendo no corrclacoonado~ e independientes no son. en general. equivalentes. El eJemplo siguiente ilustra este punto.
Sean X y Y variables aleatorias cualesquiera que tienen la misma distribucon. Sea U ..
X - Y y V = X+ Y. Luego E( U) = Oycov(U, V) = E[(X- Y)(X + Y)) E(X 2 - Y2) = O.
Luego U y V son no correlacionados. An si X y Y son independientes. U y V pueden ser
dependientes, como lo indica la eleccin siguiente de X y Y. Sean X y Y los nmeros que
aparecen respectivamente en el primero y segundo dados. cuando se han lanzado un par de
dados regulares. Ahora. por ejemplo, hallamos que P[V
4 1U ., 3) O (puesto que s
X - Y - 3, X + Y no puede ser igual a 4). mientras que P( V = 4) 3/36. As U y V son
dependientes.

Teorema 7.11.
inclusive.)

- 1 ::; p ~ l. (Esto es, p toma los valores entre - 1 y


q(t)

q(t)

(7.22)

Observaciones: (a) Suponemos que todas las esperanzas existen y que ambas V(X) y V( Y)
son distintas de cero. Cuando no hay duda de cuales variables aleatorias estn implicadas
escribiremos simplemente p en vez de Pxr
(b) El numerador de p, E{[X - E( X))[ Y - E( Y))}. se llama la covarianza de X y Y, y
se denota algunas veces como Oxr
(e) El coeficiente de correlacin es una cantidad adimensional.
(d) Antes de que la delimcin anterior pueda ser significativa. debemos establecer exactamente lo que mide p. Esto lo haremos al considerar un nmero de propiedades de p.

+1

(b)

(a)
fiGURA

7.8

Demostracin: consideremos la siguiente funcin de la variable real t:


q(t) = E[V

+ tW]2.

Teorema 7.9.
_ E(XY)- E(X)E(Y)
p- - jV(X)V(Y)
.

El eJemplo en este prraro est tomado de una exposicin de un articulo titulado Mu


tually Exclusive Events, Independence and Zero Correlation. por J. D. Gibbons. que apareci en Tire American Statisrician. 22. nm. 5, diciembre 1968. p.~gs. 31-32.

7.Y

ISO O tras caracterslicas de las variables aleatorias

en donde V= X- E(X) y W = Y- E( Y). Puesto que [V + 1W] 2 ~O, tenemos


que q(t) ~ O para todo t. Desarrollando obtenemos

J::l coeficiente d~ correlacin

7.Y

151

0f'llroslracin: puesto que Y = AX +B. tenemos que E( Y) = AE(X) + 8 y


V( Y) = A 2 V(X).
Tambin
E(X Y) = E[X(AX

+ 8)] =

BE(X).

E(X)[AE(X)
V(X)A 2 V(X)

+ 8JlZ

AE(X 2 )

Luego
[E(X Y) - E(X)E(Y)] 2
P V(X)V(Y)

As q(t) es una expresin cuadrtica en 1. En generaL si una expresin cuadrtica q(1) = at 2 + bt + e tiene la propiedad de que q(t) ~O para todo 1. significa
que su grfico corta el eje 1 en solo un punto o en ninguno, como se indic en
la figura 7.8. Esto, a s u vez. indica que el discriminante b 2 - 4ac debe ser !5:0.
puesto que b 2 - 4ac > O significara que q(t) tien e dos races reales distintas.
Aplicando esta conclusin a la funcin q(1) que consideramos anteriormente.
obtenemos

2 _

- {AE( X Z)
-

[AE(X 2 )

8E(X) - A(E(Xj)l - BE(X)] 2

A 2(V(X)) 2

_ A 2 {E(X 2 ) - [E(X)J2 } 2 _
Al 2 (V(Xj)2
- l.

Esto implica que


[E(VW)]2

+ 8E(X)-

< l

E(V 2 )E(W 2) -

'

y por tanto
{E[X - E(X)][Y - E(Y)JlZ =
V(X)V(Y)

< l.

p -

As - l !5: p !5: l.
Supongamos que p 2 = l. Luego (con probabilidad l e n e l
sentido del teorema 7.8). Y = AX + 8 , en donde A y 8 son constantes.
En palabras: si el coeficiente de correlacin p es l . entonces Y es una
funcin linea l de X (con probabilidad 1).

Teorema 7.12.

Demostracin: consideremos nuevamente la funcin q(l) descrita e n la demostracin de l teorema 7.11. Es sencillo observar en la demostracin de ese teorema
que si q(t) > O para todo t. entonces p 2 < l. Luego la hiptesis del presente teorema, a saber p 2 = L. implica que debe existir al menos un va lor de 1, sea 10 tal
que q(1 0) = E(V + t 0 W) 2 =O. Puesto que V+ t 0 W = [ X - E(X)] + 10 [YE( Y)], tenemos que E( V + t 0 W) = O y por tanto la varianza (V+ 10 W) = E( V+
t 0 W) 2 . As encontramos que la hiptesis del teorema 7.1 2 conduce a la conclusin de que la varianza de (V + t 0 W) = O. Por tanto. del teorema 7.8 podemos
concluir que la variable aleatoria (V + 10 W) =O (con probabilidad J). Por tanto
[X- E(X)] + t 0 [Y- E( Y)]= O. Reescribiendo encontramos que Y= AX + 8
(con probabilidad 1), como se iba a demostrar.
Observaciones: el reciproco del teorema 7.12 tambin se mantiene como se demostr en
el teorema 7. 13.

Teorema 7.13. Supongamos que X y Y son dos variables aleatorias para


las cuales Y = AX + 8 , en donde A y 8 son constantes. Entonces p 2 = l.
Si A > O, p = + 1; si A < O, p = - l.

(La segunda afirmacin del teorema se deduce al observar que jA2 = IAI.)
Observacin: los teoremas 7. 12 y 7.13 establecen las s iguientes caractersticas importantes del coeficiente de correlacin: el coeficiente de correlacin es una medida del
grado de linealidad entre X y Y. Los valores de p prximos a + 1 - 1 indican un alto
grado de linealidad mientras que los valores de p prximos a Oindican una ausencia de tal
linealidad. Los valores pOSitivos de p muestran que Y tiende a aumentar con valores
crecientes de X , mientras que los valores negativos de p muestran que Y tiende a
disminuir con valores crecientes de X. Existe una idea considerablemente errnea acerca
de la interpretacin del coeficiente de correlacin. Un valor de p prximo a cero slo
indica la ausencia de una relacin li11eal entre X y Y. No impide la posibilidad de alguna
relacin no lineal.
EJ6MPLO 7.21. Supongamos que la variable aleatoria bidime nsiona l (X. Y)
est distribuida uniformemente en la regin triangular

R = {(x. y) 1 0 <

< y < 1}.

(Ve r la figura 7.9.) Luego la fdp est dada como

(x. y) e R ,
para cualquier otro va lor.

f(x. y) = 2.
=

O,

Luego las fdp marginales de X y Y son


g(x)

= J!(2)dy = 2(1

lr(y) =

- x).

J (2) dx = 2y.

O !5: y !5: l.
FtGURA

Por tanto
E( X} = J~ x2(1 -

E(X

O$ x $ 1;

x) dx =

= J~ x 2( 1 - x)

t,

dx = ~-

E( Y)= J~ y2ycly = j;

E( Y 2) = J~ y 2 2y dy =

i;

7.9

1S2

Otra caractcrblicas de '"' arlablcs aleatorias

7. 111

EsP"ronta condicional

7. 10

Teorema 7.15.
E( X Y)

S~ S~ xy2 dx dy =

(7.25)
(7.26)

E[E(X 1 Y)] = E(X).


E[E(Y 1 X)]= E( Y).

!.

153

L uego
fl -

Demostracin: (caso continuo solamente): por delinicin.

E(XY) - E(X)E(Y)
1
J V(X)V(Y)
=

Tal como hemos andicado. el coeficiente de correlacin es una canlldad su1


dimensin. Su valor no se afecta por un cambio de escala. Se puede demostrar
el siguiente teorema fitcilmcnte. (Ver problema 7.41.)
Teorema 7.14.

S1 flxr es el coeficiente de correlacin entre X y Y. y s1


V = AX + 8 y ~iCY + D. en donde A. 8. C y D son constantes. entonces Ptw = (AC 'I ACI) flxy (Suponemos que A"#
e"# 0.)

E(X l y) =

+ oo

- oo

xg(x 1y) dx

f+or x f(x(. )y) dx.


-ao

11)

en donde fes la fdp conJunta de (X. Y) y, es la fdp marginal de Y.


Por tanto

o.

7.10 Esperanza condicional


Tal como delinimos el valor esperado de una variable aleatoria X (en funcin
de su distribucin de probabilidades) como J ~~ xf(x) dx o l:';. 1 x;p(x;). asi podemos delinir la esperanza condicional de una variable aleat oria (en funcin de
s u distribucin condicional de probabilidades) como sigue.

Definicin.

(a) Si (X. Y) es una variable a leatoria cont inua bidimensional.


delinimos la esperanza condicional de X para Y = y dado como
E(X 1 y)= S ~: xy(x 1 y)dx.

(7.23)

(b) Si (X. Y) es una variable aleatoria discreta bidimensional. delinimos


la esperanza condicional de X para Y
Yi dado como

L"'

E( X 1y,) =
j

Xp(X 1yj)-

(7.24)

La esperanza cond1cional de Y para X dado se deline anlogamente.


Obsen'{Jcion~s (a) La Interpretacin de la esperanza condicional es como sigue. P uesto

que g(x 1y) representa la fdp condicional de X para Y = y dado, E(X 1y) es la esperanza de
X condicionada al suceso { Y - y}. Por ejemplo. s1 (X. Y) representa la resistencia a la tensin
y la dureza de una muc\tra de acero. entonce:. EIX y = 52.71 es la resistencia esperada a la
tensin de una muestra de acero eleg1da al azar del unierso de muestras cuya dureza (medida en la escala Rock\1-cll) es 52.7.
(b) Es importante dare cuenta de que en general E( X 1y) es una funcin de y) por lo tanto
es una variable aleatoria Anlogamente E( Y 1 x) es una funcin de x y tambin es una vanable aleatoria. (Estrictamente hablando. E( X 1 y) es el valor de la variable aleatoria E(X 1 Y).)
(e) Puesto que E( Y 1 X) y E( X 1 Y) son variables aleatorias. ser preciso hablar de sus
esperanzas. Asi podemos cons1derar E[ E( X 1 Y)]. por ejemplo. Es importante establecer que
la esperanza interna se toma respecto a la distribucin condiciona l de X dado que Y es igual
a y, mientras que la esperan7.a exterior se toma respecto a la distribucin de probabilidades
de Y.

Si todas las esperanzas e xisten. es posible escribir la integral iterada anterior


con el orden de integracin invertido. As

E[E(X

Y)]= s ~~

[J~:; f(x,y)dy] dx

=S';; xy(x)dx-

E(X).

[Se puede usar un argumento semejante para establecer la ecuac i n (7.26)). Este
teorema es muy til como lo ilustra e l s iguiente ejemplo.
EJIJMI'LO 7.22. Supngase que varios cargamentos que traen diverso n mero de repuestos llegan diariamente. Si N es e l nm ero de a rtculos en el ca rgamen to. la distribucin de probabilidades de la variable a leatoria N est dada

como sigue:

n:
P(N = n):

10
0.05

11
12
13
14
0.10 0,10 0.20 0.35

15
0.20

La probabilidad de que cualquier repuesto particular sea defectuoso es la misma


para todos los repuestos y e s igual a 0,10. Si X es el nmero de repuestos defectuosos que llegan cada da, cul es el valor esperado de X? Para N dado igual
n. X tiene una distribucin binomial. P uesto que el mismo N es una variable
aleatoria, procedemos como sigue.
Tenemos que E(X) = E[E(X 1N)]. Sin embargo. E(X 1N) = 0.10 N puesto
que para un N dado. X tiene una distribucin binomial. Luego

E(X) = E(0,10N) = O.IOE(N)


- 0,10[10(0.05) + 11(0,10) + 12(0.10)
= 1.33.

13(0.20) + 14(0.35) + 15(0.20)]

Teorema 7. 16. Supngase que X y Y son variables aleatorias independientes. Entonces

7. 11

154 Otras carocleri~licas de las variables altolorias

E(XI)') = E(X)

155

E( X (y)

E( Y lx)

E(YiX) = E(Y)

Regrc,in del prooncdio

7. 11

Demostracin: ver problema 7.43.


EJEMPLO 7.23 Supngase que el suministro de potencia (kilowatts) de una
compaa hidroelctrica durante un periodo de tiempo especfico es una variable
aleatoria X. la que supond~emos que tiene una distribucin uniforme en [10, 30].
La demanda de potencia (kilowatts), Y, tambin es una variable aleatoria que
supondremos que est distribuida uniformemente en [ 10. 20]. (Luego. en promedio.
se suministra ms potencia que la que se pide puesto que E(X) = 20, mientras
que E( Y) = 15.) Por cada kilowatt suministrado la compaa obtiene una utilidad
de $0,03. Si la demanda excede el suministro, la compaa obtiene una potencia
adicional de otra fuente y obtiene una utilidad con esta potencia de $0,01 por
kilowatt suministrado. Cul es la utilidad esperada durante el tiempo especfico
que se considera'!
Sea Testa utilidad. Tenemos

= 0,03 Y
si
Y < X,
= 0,03X + O,OI(Y - X)

si

(b)

(a)
FIGURA

7.10

Y > X.

Para evaluar E(7) escribmosla como E[E(TiX)]. Tenemos


f~ 0 0,03yr\,dy

E(T 1 x) =

{ m0,03yr\, dy

ro[O,O 15x 2

lo

_ { 0,05
0,45

+ f;O(O,O iy + 0,02x}r\dy
si 20 <

1.5

si 10 < x < 20,

+ 2 + 0,4x

- 0,005x 2

0.02x 2]
SI 10 <

< 20,

si 20 < x < 30.

+ 0,04x

- 0.001x 2
si 20 < x < 30.

F tGURA

EJEMPLO 7.24. Supongamos que (X. Y) est distribuida uniformemente en


la se micircunferencia indicada en la figura 7.11. Luego f(x, y) 2/n. (x. y) e semicircunferencia. As

si 10 < x < 20.


I)(X) =

r~ 2

2 1"1--:2
= ; y 1- X

.fi=Y

= -~-

Jo

Por tanto
E[ E(T 1 X)] =
7. 11

1o J:~ (0,05 + 0,04x

7. 11

< 30,

lt(y) =

- 0 ,001 x 2 ) dx + -f, g~ 0,45 dx = $0,4 3.

Regresin del promed io

Como lo sealamos en la seccin anterior, E( X 1 }') es el valor de la variable


aleatoria E(X 1 Y) y es una funcin de y. El grfico de esta funcin de }' se conoce
la curva de regresin (del promedio) de X sobre Y. Anlogamente, el grfico de
la funcin de x. E( Y 1x) se llama la curva de regresin (del promedio) de Y sobre
X. Para cada uno de los y fiJOS, E(X 1y) es el valor esperado de la variable aleatoria (unidimensional) cuya distribucin de probabilidades est definida por la
ecuacin (6.5) (6.7). (Ver la figura 7.10). En general, el valor esperado depender de y. [Se pueden hacer interpretaciones anlogas para E( Y 1x).]

; dy

2dx

-~=r n

O ~y~

l.

Por tanto
,J

!1\X

1y) =

lr(y 1x)

Luego
E( Y lxl

2" 1 - y
1

=J1-

x2

r-::;; yl t(y l x)dy

= Jo

- V~yl
1 - y

O~ Y

JJ=Xi.

Jit - - yl;

15()

Otras taratterlslltas de 1

rlable<~

7. 11

aleatorias

7. 11
)'

)'

(1, 2)

(1, 2)

De modo semejante

J+./i
'
- ./t ,,

E(X IY) =

=f ./t

,.

./i ,,

xo<xly)dx

\'

' 1
~ + Jr - '
,d.\~
1
2" 1 - ,.2" 1 - r 2 .!1=7
1

o.
Puede suceder que una o ambas cunas de regresin sean en realidad lneas
rectas (figura 7.12). Es decir. E( Y 1x) puede ser una funcin lim>a/ de x y 'o ECX 1y)
puede ser funcin lineal de y. En este ca~o decimos que la regresin del promedio de Y sobre X (por eJemplo) es lineal.

rtGURA

rtGURA

7. 13

7. 14

)'

Teorema 7.17. Sea (X. Y) una variable aleatoria bidimensional y supongamos que
E( X) = Jlx

E( Y) = 11,,

V(X) =

u;.

V(Y)

u;.

Sea p el coeficiente de correlacin entre X y Y. Si la regresin de Y sobre


X es lineal, tenemos
FIGURA

7.1 2

7.25. Supongamos !-JUe (X. Y) e~ t distribuida uniformemente en


el tringulo indicado en la figur; 7. 13. Por tanto j'(x. y) = l. (x, y) e T. Las expresiones siguientes para las fdp marginal y condicional se verifican fcilmente:
EJEMPLO

!J(X) - 2x.
!J(X 1)') =

;S; X ;S;

. y/ 2 <:;

2 - ,.
2 J

lr(y) =

X ;S; ) ;

lr(y x) =

)'

Asi E( Y 1x) = J~' ylr(y 1x)dy


E( X 1J')

1;

J,r

=r

2X

. O s; y s; 2x.

J,

X
2

2
dx
2- y

= J: + ~
4

As ambas regresiones de Y sobre X y de X sobre Y son lineales (figura 7.14).


Resulta que si la regresin del promedio de Y sobre X es lineal. por ejemplo
E( Y 1 x) = (XX + {1, podemos expresar fcilmente los coeficientes :x y {1 en funcin de ciertos parmetros de la distribucin conjunta de (X, Y). Tenemos el
teorema siguiente.

+p

u,.

(x - 1,,).

(7.27)

U ,,

Si la regresin de X sobre Y es lineal. tenemos


E(X 1 y) = ll.r

J~ y( 1 2x)dy = x. De modo semeJante.


\'1/(X 1)') dx

o ~ y ~ 2.

E( Y 1 x) = t,.

+ p Ux (y
u,.

- t,).

(7.28)

Demc>.\trtlcin: la demostracin de este teorema est bosquejada en el problema 7.44.


Ohserr'aC'tme.,, (a) Como se sugiri en la exposicin antenor. e' po>tble que 111111 de las
rcgrcstonc:. del promedto sea lineal mientras que la otra no lo sea.
(b) Ntese el tmportante papel desempeado por el coelicientc de correlacin ~n las expresiones interiores. Si la regresin de X sobre Y. por eJemplo. es lmeat. y , p O. cntoncc> (nuevamente) encontramos que E( X 1y) no depende de y. Nteoe tambtn que el stgno
algebraico de p determina el signo de la pendiente de regresin.
.
(e) Si ambas funciones de regresin son lineales. encontramos. al resolver las ccuactoncs
(7.27) y (7.28) simult:'lneamcnte. que las rectas de regresin se cortan en el centro de la dtstribucin, (/1, 11,).

ISll Olrn ~aracltrlsdu~ dr hos uriablos alfatorlas

Problm'

<?~mo lo hemos observado (ejemplo 7.23, por ejem plo), las funciones de rcgrcsiOn no necesitan ser lineales. Sin embargo, an nos podra interesar el tratar
de apr~ximar la curva de regresin con una funcin lineal. Corrientemente se hace
recumen?o al principio de los mnimos cuadrados, lo que en el contexto presente
es como ~~g.uc: se escogen las constantes a y b de modo q ue E[ E( y 1 X) - (aX + b)Jl
sea mm1m1zada. Anlogamente se escogen las constantes e y d de modo que
E[E(X 1 Y) - (e Y + d)] 2 sea minimizada.
La~. rectas Y = ax + b Y x = ey + d se llaman las aproximaciones mnimas
c.uadratrcas a las correspondientes curvas de regresin E( Y 1x) y E(X 1y) respcc.
t1vamente. El. teorema siguiente relaciona esas rectas de regresin con' las expuestas antcnormente.

7.5. Cierta aleacin se forma al combinar la mezcla fundida de dos metu1es. La aleaCIn que resuha contiene cierto porcentaje de plomo. X . que puede considerarse como una
~ariable aleatoria. Supongamos que X tiene la Siguiente fdp:
/(x)

= iiO

E(Y lx)

= a'x + b',

~).

sx(tOO -

0 S X S 100.

Supongamos que P. la utilidad net:t obtenida a l vender esta aleacin (por libra). es la siguiente funcin del porcentaJe del contenido de plomo: P ('1 + C 2 X. Calcular la utilidad es
perada (por libra).

7.6. Supngase que un instrumento electrnico tiene una duracin X (en unidades de
1000 horas) que se considera como una variable aleatoria continua con la siguienle fdp:
j(x)

Teorema 7.18.. Si )' = ax + b es la aproximacin mnima cuadrtica a


E( Y 1x) Y SI E( Y 1x) es en realidad una funcin lineal de x, es decir

t SY

=e

'.

x > O.

Suponiendo que el costo de fabricacin de tal articulo es $2.00. El fabricante vende el articulo por $5.00. pero gurantiza un reemboho tNal si X S 0.9. ,Cul es la utilid;d esperada
del fabricante por articufo?
7.7. Lns 5 primeras repet iciones de un experimento cuestan $10.00 cada una. Todas
repeticones que siguen cuestan $5.00 cada una. Suponiendo que el experimento se repite
hasta obtener el primer resultado exi1oso. S1 la probabilidad de un resultado e~uoso es siempre igual a 0,9 y si las repeticiones son indcp.:ndientes. cu:il es el costo esperado de la operacin completa'/
la~

entonces a = a' Y b = b'. Para la regresin de X sobre Y , se mantiene


una proposicin anloga.
Demostracin: ver el problema 7.45.

7.8. Se sabe que un lote contiene 2 aniculos defectuosos y 8 no defectuosos. Si estos


artculos se mspeccionan al azar. uno despus de otro, ,cul es el nmero esperado de artcu los que se deben escoger par.a i11specci11 u fin de sacar todos los defcc1uosos?

PROBLEMAS
7.1. Enco111rar el valor esperado de las siguientes variables aleatorias.
la) La var!able aleatoria X definida en el problema 4.1.
(b) La vanable aleatoria X defmida en el problema 4.2.
(e) La var~ablc aleatoria T definida en el problema 4.6.
(d) La vanable a leatoria X definida en el problema 4.18.
7.2. Demo>lrar que E(X) no existe para la variable aleatoria X definida en el proble>
ma 4. 2 5.

7:3. Lo siguiente representa la distribucin de probabilidades de D. la demanda d'a


1 n3
de Cierto producto. Calcular E(D).
el; l. 2, 3. 4. 5,
P(D = ): 0.1, 0,1, 0.3. 0,3, 0.2.
1.4. En la fabricac!n del pet~leo. la temperatura de destilacin T (grados centgrados).
es cruc1al para. determmar la cahdad del producto final. Supongamos que T se
'd
como una vanable aleatoria distribuida uniformemente en ( 150,300).
consl era
Supongamos que cuesta 1 pesos producir un galn de petrleo. Si el aceite destila a
una te~pera~ura me~or que 200 C, el producto se vende como nafta y se vende a e,
os
por !!alon. S1 ~e dcst1la a una temperatura mavor que 200
se conoce
dpes
lado refinad 0
d
C
'
'
COmo ace1te CStlgaln).
Y se ven e en 3 pesos por galn. Encontrar la utilidad neta esperada {por

7.9. Un lote de 10 motores elctricos debe ser rechazado totalmente o bien vendido.
segn el resultado del Siguiente proceso: se escogen al aar dos motores y se inspeccionan.
Si uno o ms son defee1uosos. el lote es rechazado: de otro modo es aceptado. Supngase
que cada uno de los motores cuesta $75 y se vende por $ 100: si e l lote contiene 1 motor defectuoso. ,cul es la utilidad esperada del fabricante?
7.10. Suponiendo que D. la demanda dmna de un articulo. es una variable aleatona con
la siguiente distribucin de probabilidades:

P(D

= C'l"/el!.

el

l. 2. 3.4.

(a) Evaluar la conslante C.


(b) Calcular la demanda esperada.
(e) Suponer que un artcu lo se vende por $5.00. Un rubrican te produce diariamente K
artculos. Cualquier articulo que no se venda .JI trmino del da. debe descartarse con una
prdida de $3,00. (i) Encontrar la distribucin de probabilidades de la utilidad diaria, como
una funcin de K. (ii) ;.Cuntos artculos deberan fabricarse para maximizar la utilidad diaria
esperada?
7. 11. (a) Con N = 50. p = 0.3. efectuar al!!unos ailculos para encontrar cul es el valor
de k que mmimiza E(X) en el cemplo 7.12.
(b) Usando los valores anteriores de N y '' y usando k = 5. 10. 25. determinar para cada
uno de los valores de k si es preferible el examen del grupo>>.
7.12.
fdp:

Suponiendo que X y )' >On variable' alcatonas independientes con las siguientes

('(x)

= 8/x 3

x > 2;

O{y)

= 2y.

O < J' < l.

t60 Otras coroeterlstltas de las nrlables aleatorias

l'roblernu'

(a) Encontrar la fdp de Z


X Y.
(b) Obtener E(Z) de dos maneras: (i) usando la fdp de Z como se obtuvo en (a); (ii) d1
rectamente, sin usar la fdp de Z.

7.13. Suponiendo que X tiene fdp

/(x) .. 8/x 3 ,

ole aleatoria que representa la distancia del impacto al centro. Suponiendo que la fdp de
R ~ea f(r) 2/tr.( 1 + r 2), r > O. Calcular el va lor esperado del puntaje despus de 5 disparos.

7.28. Supngase que la variable aleatoria continua X tiene la fdp


x > 2.

j(x)

Sea W =! X.
(a) Calcular E(W), usando la fdp de W.
(b} Calcular E(W), sm usar la fdp de W.

Sea Y

= 2xe-'.

7.15. Encontrar el valor esperado y la varianza de la variable aleatoria Y y Z del problema 5.2.
Encontrar el valor esperado y la varianza de la variable aleatoria Y del proble-

7.17. Encontrar el valor esperado y la varianza de las variables aleatorias Y y z del


problema 5.5.

Y.

7.30. Suponiendo que (X. Y) est distribuida uniformemente en el tn:\ngulo de la figura 7.16.

(a) Obtener la fdp marginal de X y de Y.


(b) Evaluar V(X) y V( n
y
(2, 4)

V y S del

7.20. Encontrar el va lor esperado y la varianza de la variable aleatoria Y del problema 5.10 para cada uno de los tres casos.
7.21.
ma 6.7.

2:0.

(b) obteniendo primero la fdp de Y.


7.29. Suponiendo que la variable aleatoria bidimensional (X. Y) est d1\lnbmda umformemente en el triitngulo de la figura 7.15. Evaluar V(X) y V( Y).

7.18. Encontrar el valor esperado y la varianza de las variables aleatorias Y, z y W


del problema 5.6.
7.19. Encontrar el valor esperado y la varianza de las variables aleatorias
problema 5.7.

X 2 Calcular E( Y):

(a) directamente sin obtener primero la fdp de

7.14. Se lanza un dado regular 72 veoes. Puesto que X es el nmero de veces que apareoc el seis. evaluar E(X 1).

7.16.
ma 5.3.

t 6t

Encontrar el valor esperado y la varianza de la variable aleatoria A del proble-

7.22 Encontrar el va lor esperado y la varianza de la variable aleatoria H del problema 6.11.

(-' ,,
1
:::;:~X
(1, ,,

7.23. Encontrar el valor esperado y la varianza de la variable aleatoria W del problema 6.13.
7.24. Supngase que X es una variable aleatoria para la cual E(X} = JO y V(X) - 25.
Para qu valores positiVOS de a y b llene Y = aX - b esperanza O y varianza 1?
7.25. Supngase que S. un voltaje aleatorio, varia entre O y 1 volt y est distribuido uniformemente en ese intervalo. Suponiendo que la seal S es perturbada por un ruido aleatorio independiente aditivo N, que est distribuido uniformemente entre O y 2 volts.
(a) Encontrar el voltaje esperado de la seal, tomando en cuenta el ruido.
(b) Encontrar la potencia esperada cuando la seal perturbada se aplica a una resistencia de 2 ohms.
7.26. Supngase que X est distribuida uniformemente en [-a, 3a]. Encontrar la varianza de X.
7.27. Un blanco est formado por tres crculos concntricos de radios 1/.J'r. 1 y .j'J
pies. Los disparos dentro del circulo interior valen 4 puntos, dentro del anillo siguiente 3 puntos,
Y dentro del tercer anillo 2 puntos. Los disparos fuera del blanco valen cero. Sea R la varia-

FIGURA

7.15

FIGURA

7.16

7.31. Supngase que X y Y son variables aleatorias para las cuales E( X) 1' E( Y) l'r
V( X)
y V( Y)=
Usando el teorema 7.7 obtenga una aproximacin para E(Z) y V(Z).
en donde Z
X Y.

a;

a:.

7.32. Supngase que X y Yson variables aleatorias independientes. d1stnbmdas cada una
uniformemente en (l. 2). Sea Z =X/ Y.
(a) Usando el teorema 7.7 obtener expresiones aproximadas para E(Z) y V(Z).
(b) Usando el teorema 6.5 obtener la fdp de Z y luego encontrar el valor exacto de E(Z) y
V(Z). Comparar con (a).
7.33. Demostrar que si X es una variable aleatoria continua con fdpfque tiene la propiedad
de que el grfico de fes simtrico respecto a x = a. luego E( X) = a. dado que existe E( X).
(Ver el cemplo 7.16.)
7.34. (a) Supngase que la variable aleatoria X toma los valores - l y l cada uno con
probabilidad 1/ 2. Considerando P[IX - E(X}I 2: kjV{X)] como una funcin de k, k > O.

l'robl<m'

162 O tra;, coracterl~llcos de In vu lables aleatorios

DibuJe esta funcin de k y. en el mismo SIStema de coordenadas. dibuje la cota superior de lu


probabi lidad anterior corno estll dada por la desigua ldad de Chebyshev.
(b) Lo mismo que en (a) excepto que P(X = - 1) = 1/ 3. P(X = 1) = 2/3.

t 6.\

7.40. Supngase que A y B son dos sucesos asociados con un experimenlo c. Supngase
que P(A) > O y 1'(8) > o. Se definen las variables aleatorias X y Ycomo sigue
X = 1

7.35.. Comparar la cota superior de la probabilidad P[IX - E(X)I ;a 2jV(Xl] obtenida


de la des1gualdad de Chebyshev con la probabilidad exacta de X. si X est distribuida uniformemente en ( - l. 3).

si A ocurre y Oen otro ca,o.

Y = 1 si B ocurre y Oen otro caso.


Demostrar que p., - O implica que X y Y son independientes.

7.36. Verificar la ecuacin (7.17).


7.37. Supngase que la variable aleatoria bidimensional (X. l') est distribuida uniformemente en R. donde R est definida por ((x.y)lx 2 + y 2 :S l .J' ;;:,_O}. (Ver la Fig. 7. 17.) Evaluar
,,. el coclicicnle de correlac1n.

7.41. Demostrar el teorema 7.14.


7.42. Para la variable aleatoria (X. Y) definida en el problema 6.5. calcu!tr E(X y~
E( Y x) y verificar que ECX) = E[ECX 1Y)] y E{ Y) = E[ECY I X>).
Dcmo~trar el teorema 7.14.
7.42. Para la variable aleatoria (X. Y) definida en el problema 6.5. calcular E( X 1y).
E( Y x). y verificar que E( X)= E[ E(X 1 Y)) y El Y) = E[E! Yl Xl).

7.41.

7.43. Dcmo~trar el teor~ma 7.16.


7.44. Demostrar el teorema 7. 17. [lmlicacin : en el caso continuo. muluploque la ccuac1n
E( Ylxl Ax + B por y(x). la fdp de X. e integre de -<X a -:t;,. Haga lo onisono. u'ando 'I!(X) y
luego resuelva las dos ecuaciones resultantes para A y para B].
7.45. Demostrar el teorema 7.18.

FtOVRI\ 7. 17

FlGVRI\ 7.18

7.38. Supngase que la variable aleatoria bid imensiona l (X, Y) tiene la fdp dada por
O <x<y< l

O,

para cualquier otro valor.

(ver la figura 7.18). Encontrar el coeficiente de correlacin Pr

7.39: El eJem~lo sig~iente ilustra que p


O no implica independencia. Suponiendo que
(X. Y) t1ene una d1stnbuc1n conJunta de probabilidades dada por la tabla 7.1.
(a) Demostrar que e( X Y) E(X)E( Y) y luego p = O.
(b) Indicar por qu X y Y no son Independientes.
(e) De~ostrar_quc este ejemplo puede generalizarse como sigue. La eleccin del nmero 1/8
no es cruc1al. Lo Importante es que todos los valores dentro de un circulo son los mismos.
T ABLA 7.1

X
- 1

o
1

- 1

CD

[[J

CD

[I] o []]
CD [[] CD

7.46. Si X. Y. y z son variables aleatorias no correlacionadas con desviaciones cstmdar


5, 12 y 9. I'Cspectivamentc y si U = X + Y y V = Y + Z. eva luar el coclicientc de correlacin
entre U y V.
7.47. Supngase que ambas curvas de regresin de los promedios son rcalonentc lineales.
Especificamcntc. suponiendo que E(Yix) = -~x - 2 Y E(Xiy) - - h 3.
(a) Determinar el coeficiente Je correlacin p.
(b) Determinar E(X) y ECY)
7.48. Considrese el pronstico del tiempo en dos alternativa': ll uvia o <<J.o lluvia en
las prx1mas 24 horas. Suponiendo que p = Prob(lluvia en las prximas 24 hor,ts) > !. El
prono,ueador anota 1 punto si acierta y O si no. Al hacer 11 pronsticos. un pronostiCador sin
destreza elige al a1.ar r das cualesquiera (O :S r :S 11) para decir llueve>> y los 11 - r di as restantes
para dec1r no llue\'C. Su puntaje total anotado es
Compute E(S.) y VaoiS.) y encuentre el
valor de r para el cual E(S.) es el mayor. (111ditaci11: sea X1 = 1 O dependiendo M el i-"mo
pronstico~ correcto o no. Luego s. = :1:7. 1 X ,. Ntese que los X 1 no son mdependientes).

s.

La dblribucin d< l'oi'-'>011

IS.l

La variable aJeatoria de Poisson y otras variables aleatorias

ce

Demostracin:

"('

:L -

E(X) =

k=o

16!\

"el
Q)
e a.a.J.
- = L -,--k!
k=l (k
1)!

llaciendo s = k- 1, encontramos que se transforma

De modo semejante,

Haciendo nuevamente s =k - 1, obtenemos


8.1

La distribucin de t)oisson

~al como en los modelos determinsticos, en los cuales ciertas relaciones

funcJOnalc_~ desempean u~ papel import~te (tales como lineales, cuadrticas,

e~p?nenc1ales, tngonomtncas, etc.) tamb1n, al elaborar modelos no detcrmi


n1St1cos. ~ara fenmenos observables, encontramos que ciertas distribuciones de
probabilidades aparecen. ~s a ~enudo que otras. Una razn de esto es que,
como en el caso determm1St1co, c1ertos modelos matemticos relativamente simples parecen ser capaces de describir un gran nmero de fenmenos.
. En este capitulo expondremos con mucho detalle diversas variables aleatorias
d1scretas. En el captulo siguiente haremos lo mismo con variables aleatorias
continuas.
. Presentemos formalmente la siguiente variable aleatoria. Posteriormente indicaremos bajo qu condiciones esta variable aleatoria podra representar al
resultado de un experimento aleatorio.

Defmicin. Sea X una variable aleatoria que toma los valores posibles:
O, 1, ... , n, ... Si

e at

P(X = k)=~,

k= O, 1, ... , n, ... ,

decimos que X tiene una distribucin de Poisson con parmetro a >

(8.1)

o.

.. Para verificar que la anterior representa a una legitima distribucin de probabilidades, sencillamente observemos que I:f=o P(X = k)= I::'. o(e al/k!) =e
e"=l.
Observaci?n : puesto .que .estamos definiendo directamente la variable aleatoria en funcin
de. ~u recorndo Y d1Stnbuc1n de probabilidades, sin referencia a ningn espacio mueslral
ongn~_al S, pode~os suponer que el espac~o muestra) S ha sido identificado con Rz y que
X(s) - s. Es dec1r, los resultados del expenmento son sencillamente los nmeros 0 2,
Ylas probabilidades asociadas con cada uno de esos resultados estn dados por la ecua~in

(li. ji.

Teorema 8.1. Si X tiene una distribucin de Poisson con parmetro oc, entonces E(X) = a y V(x) = a.
164

(puesto que la primera suma representa E(X) mientras que la segunda suma es
igual a uno]. Luego
V(X)

= e(X 2 )

(E(X)) 2

= oc 2

+oc - a 2 = oc.

Ob~ert>acin
~peranza

8.2

nte.-.c la intere~tnle propeduc.l que posee lu variable alea1onu de Poi:.son:


es gual a su varianza.

La distribucin de Poisson como una aproximacin a la distribucin binomial

La distribucin de Poisson desempea un papel importante por derecho propio como un modelo probabilstico apropmdo para un gran nmero de fenmenos
aleatorios. Este punto se expondr en la seccin siguiente. Aqu nos interesa la
im portancia de esta distribucin para aproximar las probabilidades binomiales.
EJEMPLO !U . Suponiendo que la~ llamadas telefnicas llegan a una gran
cen tral telefnica y que en un periodo especial de tres horas (180 minutos) se han
recibido un total de 270 llamadas, o sea 1.5 llamadas por minuto. Supngase
que, con base en la evidencia anterior, queremos calcular la probabilidad de recibir O, 1, 2, etc. llamadas du rante los prximos tres minutos.
Al considerar el fenmeno de llamadas recibidas, podramos llegar a la conclusin de que en cualquier instante es tan probable que ocurra una llamada
telefnica como en cualquier otro instante. Es decir, la probabilidad permanece
constante en un intervalo de tiempo. La dificultad es que an en un intervalo
de tiempo muy corto, el nmero de puntos no slo es infinito sino que no puede
ser enumerado. Esto nos lleva a una serie de aproximaciones que describiremos
ahora.
Para empelar. podramos considerar la subdivisin del intervalo de tres minutos en nueve subintervalos de 20 segundos cada uno. Podramos considerar
entonces cada uno de esos nueve intervalos como un experimento de Bernoulli
durante el cual observamos una llamada (xito) o ninguna llamada (fracaso) con
P(xito) = (1,5) 20/fiJ = 0.5. As podramOS'eStar inclinados a decir que la pro-

11>6

Lo vorloble aleatoria de l'ob>011 y otros nlble.; aleatorias

R.l

habilidad de dos llamadas durante el intervalo de tres minutos (es decir, 2 xitos
en 9 experimentos con P(x.ito) = (0,5) es igual a tn(l /2) 9 = 9/ 128.
La dificultad con esta aproximacin es que ignoramos las posibilidades de,
digamos, dos o tres, etc., llamadas durante uno de nuestros ensayos con perodos
de 20 segundos. Si esta posibilidad se tomase en consideracin, el uso anterior
de la distribucin binomial no sera legtimo ya que esa distribucin es aplicable
slo cuando existe una dicotomia una llamada o ninguna llamada.
Para evitar esta dificultad hacemos la aproximacin siguiente- y, realmente,
nos lleva a una sucesin completa de aproximaciones. Una manera de estar ms
o menos seguro de que al menos se recibe una llamada en la central durante un
pequeo intervalo de tiem{>O, es hacer que ese intervalo sea muy corto. Asi, en
vez de considerar nueve intervalos de 20 segundos de duracin, consideremos
los 18 intervalos siguientes, cada uno de JO segundos de largo. Podemos representar ahora nuestro experimento como 18 experimentos de Bernoulli con P(xito) = P(recibir una llamada durante un subintervalo) = (1,5)10/60 = 0,25. Por
tanto P(dos llamadas durante el intervalo de tres minutos)= (18)(0,25) 2 (0,75)' 6
Ntese que aunque ahora tratamos una distribucin binomial diferente a la de
antes (es decir, que tiene parmetros n = 18, p = 0,25 en vez de n = 9, p = 0,5),
el valor esperado es el mismo, a saber np = 18(0,25) = 9(0,5) = 4,5.
Si continuamos de esta manera, aumentando el nmero de subintervalos
(es decir, n), disminuiremos al mismo tiempo la probabilidad de recibir una Uamada (es decir, p) de tal manera que np permanece constante.
As, el ejemplo precedente nos conduce a formular la pregunta siguiente:
qu sucede a las probabilidades binomiales (Z)pk( - p) - k sin ..... oo y p --+O, de
tal manera que np permanezca constante, es decir, np = a?
Los clculos siguientes dan la respuesta a esta pregunta muy importante.
Consideremos la expresin general para la probabilidad binomial,
P(X

= k) = (")
pk(J
k
=

n(n -

- p) - t

n!

k!(n- k)!

l)(n - 2) (n - k
k!

pk(J - p)" - k

+ 1)

jl(1 - p)" - k.

Hagamos np = a. Por tanto p = rx/ n, y 1 - p = 1 - af n = (n - a)/n. Sustituyendo todos los trminos que contienen p por sus expresiones equivalentes en
funcin de a, obtenemos
P(X = k)

=
=

n(n - 1) (n - k

:l(L) (

1-

k!

+ 1) (~)k("
n

~) ( 1 - ~) ". ( 1 -

= ~(l)(t - ~)(t - ~) .. (1 (~ - ~Y(~-~rk.


X

-n tt.)-k

J[1 - ~J-k

k :

1
)

k:

1
)]

lu dlstrlbu~l611 de PoisSCin a lo

H.2

di~trlbuci6n

binomial

1(17

Ahora hagamos 11 -> oo de ta l manera que np = a permanezca constante. Esto


significa obviamente que p --+ O cuando 11 --+ oo, porque de otra manera np no
podra permanecer constante. (Anlogamente, podramos necesitar que n -+ oo y
p -+ O de tal manera que np -+ a.)
En la expresin anterior los trminos de la forma (1 - 1/n), (1 - 2/n), ...
tienden a uno cuando n tiende a infinito, tal como lo hace (1 - af n) - k. Es bien
sabido (de la definicin del nmero e) que (1 - af n)"-+ e- cuando n-+ oo.
As, lim.-., P(X = k) = e - ak/ k! Es decir, en el lmite obtenemos la distribucin de Poisson con parmetro a. Resumamos este importante resultado en
el siguiente teorema.
Teorema 8.2. Sea X una variable aleatoria distribuida binomialmente con
parmetro p (con base en n repeticiones del experimento). Esto e.~.

t.

Supngase que cuando 11 -+ oo, np =


(constante), o equivalente, cuando
n -+ oo, p --+ O tal que np --+ a. Bajo estas condiciones tenemos
e-ak

lim P(X = k) = - k- 1-

".-oo

la distribucin de Poisson con parmetro a.


Observaciones: (a) El teorema anterior, esencialmente, dice que podemos aproximar la~
probabilidades binomiales con las probabilidades de la distribucin de Poisson siempre que
11 sea grande y p pequeo.
(b) Ya hemos verificado que si X tiene una distribucin binomial. E(X) = np, mientras
que si X tiene una distribucin de Poisson (con parmetro <X), E(X) = "'
(e) La distribucin binomial est caracterizada por dos parmetros, n y p. mientras que
la distribucin de Poisson est caracterizada por un solo parmetro, "' = np, que representa
al nmero esperado de xitos por unidad de tiempo (o por unidad de espacio en algn otro
caso). Este parmetro tambin se designa como la imensidad de la distribucin. Es importante distinguir entre el nmero esperado de ocurrencias por unidad de tiempo y el nmero esperado de ocurrencias en el tiempo especificado. Asi, en el ejemplo 8.1 la intensidad es 1,5 llamadas por minuto y por lo tanto el nmero esperado de llamadas es un perodo de 10 minutos, por ejemplo, seria 15.
(d) Tambin podemos considerar el siguiente argumento para evaluar la varianza de una
variable aleatoria X de Poissoo con parmetro <X: X se puede considerar un caso limite de una
variable aleatoria Y distribuida binomialmente con parmetro n y p, en donde " --> w y p - O
de tal manera que np __.o:. Puesto que E( Y) = np y Var(Y) = 11p(l - p), observemos que en
el lmite Var(Y) __.o:.

Hay extensas tablas disponibles para la distribucin de Poisson. (E. C. Molna, Poisson's Exponential Binomial Limit, D. Van Nostrand Company, lnc., New
York, 1942). Una breve tabulacin de esta distribucin se da en el apndice.

168

La variable aleatoria de l'of~son y otras variabfH afutorfu

11.2

<;on_side~?mos otros tres ejem_plos adicionales que ilustran las apltcaciones de


la d1stnbuc1on de Po1sson menciOnadas previamente.
EJEMPLO 8.~ .. En una concurrida interseccin de trfico la probabilidad p de
que un automovd ~enga un acc1dente es muy escasa, digamos p = 0.0001. Sin
embargo, duran.te_clcrta parte del_da, entre las 4 p.m., y las 6 pm.. un gran n~ero de automovllcs pasa por la mterseccin, digamos 1000. Bajo dichas condiCiones, cul es la probabilidad de que dos o ms accidentes ocurran durante
ese perodo?
F?rmulemos algu~as hiptesis. Supongamos. en primer lugar. que el valor
antenor de P es el_mtsmo pafa _ca?a uno de los automviles. En segundo lugar,
supongamos q~e SI un automvil ttene o no accidentes. no depende de lo que suceda ~ cualqUier otro automvil. (Esta suposicin, obviamente, no es realista
pero s1_n embargo la formularemos). Podemos suponer as que si X es el nmero
de acc1dentes entre los 1000 automviles que llegan, entonces X tiene una distribucin binomial con p = 0,0001. (O tra hiptesis, no indicada explicitamente. es
qu~ 11, el nmero de automviles ~ue pasa por la interseccin entre 4p.m. y 6p.m..
e~ta predete~mmada en 1000. Evidentemente. un enfoque ms realista sera conSI_d erar n mts'?'a c~mo una variable aleatoria cuyo valor depende de un mec~
nlsmo alcatono. Sm embargo, no haremos e~to aqu, sino que consideraremos n
como fiJa). Por tanto podemos obtener el valor exacto de la probabilidad buscada:

P(X ~ 2) = 1 - P(X

0) - P(X = 1)

= 1 - (0.9999) 1000

1000(0.0001)(0,9999) 999

La evaluacin de los valores anteriores da origen a una dificultad considerable. Puesto que n es grande y pes pequeo. aplicamos el teorema 8.2 y obtenemos la aproximacin siguiente:
P(X = k) ::

1!

0 1
'

(0.1f

k!

Por tan to.


P(X ~ 2):: 1 - e0 1 (1

+ 0,1)

= 0,0045.

EJEMPLO 8.3. Supngase que un proceso de fabricacin produce articulos de


tal mane~a que ~ierta proporcin (constante) de artculos. digamos p. son defectuosos. S1 se obuene un lote 11 de tales artculos. la probabilidad de obtener exactamente k defectuosos puede ser calculada de la distribucin binomial como
P_
( X =k) = (;)pt(J - p)" - 4, en donde X es el nmero de defectuosos en el lote.
S1 11 es grande y p es pequea (como a menudo es el caso), debemos aproximar

la probabilidad anterior por

P(X = k) ;:, e

"P(npr
k!
.

Supngase, por eJemplo. que un fabricante produce artculos de los cuales alrededor de 1 en 1000 son defectuosos. Esto es, p = 0,001. Por tanto. usando la dis-

11.1

Lo di.,.rtbucf6n de l'obson a la di-.l rfiKtdlht blnumfal

16'1

tnbuc1n binomial, encontramos que en un lote de 500 artculos la probabilidad


de que ninguno sea defectuoso es (0,999) 500 = 0,609. Si aplicamos la aproximaccn de Poisson, esta probabilidad puede escribirse como e - o.s = 0,61. La probabilidad de encontrar 2 o ms artculos defectuosos es, de acuerdo con la aproximacin de Poisson, 1 - e - 0 5 (1 + 0,5) = 0,085.
EJEMPLO 8.4. [Sugerido por una exposicin en Clculo de Probabilidades de
A. Renyi (en alemn), VEB Deutscher V.:rlag der Wissenschaft, Berlln, 1962].
En la fabricacin de botellas de vidrio, :;e encuentran partculas duras y pequeas en el vidno fundido del cual se hacen las botellas. Si aparece una sola
partcula en una botella, la botella no pu~!dc ser usada y debe ser desca:lada. Puede
suponerse que las partculas estn esparc1das al azar en el vidrio fundido. Supondremos que el vidrio fundido se produce de tal manera que el nmero de partculas
es (en promedio) el mismo para una cantidad constante de vidno fundido. Supngase en particular que en 100 kilos de vidrio fundido, se encuentran x de tales
partlculas y que es necesario 1 kilo de vidrio fundido para hacer una de estas
botellas.
Pregunta: .qu porcentaJe de botellas tendr que ser descartado debido a que
son defectuosas? A primera vista la solucin)) de este problema podra ser como
sigue. Puesto que el material para tOO botellas contiene x partculas, aproximadamente el x por ciento de las botellas deber ser descartado. Una pequea reflexin indicar. sin embargo, que la solucin anterior no es correcta, ya que una
botella defectuosa puede tener ms de 1 partcula, bajando as el porcentaje de
botellas defectuosas obtenidas del materia l que sobra.
A fin de obtener una solucin correcta, hagamos las siguientes hiptesis
simplifcantes: (a) cada una de las partculas puede aparecer en el material de
cada una de las botellas con igu~ probabiiTdad y (b) la distribucin de cualquier
partcula es independiente de cualquier otra P!'rtcula. Con estas hiptesis, podemos
reducir nuestro problema al siguiente modelo de urna>>. Entre N urnas, se distribuyen al azar 11 esferas. Cul es la probabilidad de que en una urna elegida
aleatoriamente, se encuenuren exactamente k esferas? (Las urnas evidentemente
corresponden a las partculas.)
Siendo Z el nmero de esferas encontradas en una urna escogida aleatoriamente, se deduce, de la hiptesis anterior, que Z est distribuida binomialmente
con parmetro 1/ N. Luego.

P(Z

= k) = (;)(~Y(I - ~)"-k.

Supngase ahora que el vidrio fundido se prepara en cantidades muy grandes.


En realidad, supongamos que se prepara en unidades de 100 kilos, y que se han
suministrado M de tales unidades. Luego N - lOOM y n = xM. Sea = x/lOO,
lo que iguala la proporcin de partcula~ por botella. Asi N = n/a y la probabilidad anterior puede escribirse como
P(Z = k) =

11)
(k

(a)t ( -;a)-.
11

1-

170

La rloblt llleotorl ckll'ol.,wn y otro n rlablts aleatorias

K..l

Asi , cuundo el proceso de pmduccin contina (esto es, M -" oo y luego n


obtenemos
en donde IX=

100

f.)

Calculemos la probabilidad de que deba descartarse una botella. Esta es igual a


1 - P(Z = 0). Luego P(botella defectuosa)==< 1 - c-1100. Si el nmero de botellas producidas es muy grande, debemos identificar obligadamente la probabilidad de una botella defectuosa con la frecuencia relativa de botellas defectuosas.
Por tanto el porcentaJe de botellas defectuosas es aproltimadamente 100( 1 e- '"1' 00j. Si desarrollamos 100(1 -e-" ' 00 ) en una serie de Maclaurin, obtenemo~

<{

1- ( 1-

1~ + 2(1~)2 - 3!{;~)3 + .. )]
x2
=X-

2(100)

xl

+ 6(100)2

As, si x es pequea, la proporcin de botellas descartadas es aproximadamente x


como se sugiri primero. Sin embargo, para un x mayor esto no es vlido. En
caso que x = 100, el porcentaje de botellas descartadas no es 100, si no que 100
(1 - e- 1) = 63.21 por ciento. Este, naturalmente, es un caso extremo y no se encontrara en un proceso controlado razonablemente. Supongamos que x = 30 (un
nmero ms rea lista). Por tanto en vez de descartar el 30 por ciento (nuestra so lucin inicial n uevamente), descartaramos slo 100(1 - c- 0 3 ) = 25,92 por ciento.
Podramos observar que s i x es razonab lemente grande, es ms econmico producir botellas ms pequeas. Por ejemplo, si necesitamos solo 0.25 kilos de vidrio
fundido por botella en vez de 1 kilo, y si x = 30. entonces el porcentaje descartado
se reduce de 25,92 por ciento a 7,22 por ciento.

8.3

El proceso de Poisson

En la seccin anterior se us la distribucin de Poisson como un medio para


aproximar una distribucin conocida, a saber, binomial. Sin embargo, la distribucin de Poisson desempea un papel muy importante por derecho propio,
puesto que representa un modelo probabilstico apropiado para un gran nme
ro de fenmenos observables.
Aunque no vamos a dar una deduccin completamente rigurosa de algunos
resultados que vamos a exponer, el enfoque general es de tal importancia que se
deber tomar en cuenta para comprenderlos, an cuando no podamos justificar
cada uno de los pasos.
Para referimos a un ejemplo especifico mientras concluimos los detalles matemticos, consideremos una fuente de material radiactivo que emite partculas IX.
Sea definido X, como el nmero de partculas emitidas durante un periodo especificado de tiempo (0, 1). Vamos a enunciar algunas hiptesis acerca de la variable aleatoria (discreta) X, que nos permitirn determinar la distribucin de

K.1

1.1 pn~~:tn d lul"""

171

probabilidades de X,. La posibilidad de estas hiptesis (recordando lo que X,


representa) est comprobada por el hecho de que la evidencia emprica sostiene
una cantidad muy considerable de resultados tericos que vamos a derivar.
Puede ser til sealar que en la deduccin de cualquier resultado matemtico.
debemos aceptar algunos postulados o axiomas fundamentales. En la bsqueda
de axiomas para describir fenmenos observables, algunos axiomas pueden ser
ms apropiados (y menos a r bitrarios) que otros. Por ejemplo, al describir el moVImiento de un obJeto impulsado hacia arriba con cierta velocidad inicial, podramos suponer que la distancia sobre el suelo, llammosla s, es una funcin cuadrtica del tiempo t: es decir. s = af + bt + c. Esta sera, dificilmente, una hiptesis intuitiva, de acuerdo con nuestra experienia. En lugar, podramos suponer
q ue la aceleracin es una constante y luego deducir de esto que ~ debe ser una
funci n cuadrtica de t. Lo importante, naturalmente, es que si debemos suponer
algo con el objeto de elaborar nuestro modelo matemtico, preferiramos suponer
lo que es apropiado, en vez de lo que no lo cs.
El mis mo objetivo nos gua a elaborar un modelo probabilstico para la emisin de partculas IX de una fuen te radiactiva. La variable aleatoria X, definida
anteriormente puede tomar los valores O, 1, 2, ... Sea p.(t) = P[X, = n], n = O,
1, 2, ...
Vamos a enunciar ahora las cinco hiptesis siguientes.
A 1: El nmero de partculas emitidas durante interva los de t iempQ.J:!_o

sobrepuestos son variables aleatorias independientes.


A 2 : Si X, se define como antes y si Y, es igua l al nmero de partculas
emitidas durante (t, t 1 + t), para cualquier t 1 >O, las vuriables aleatorias X, y Y, tienen la misma distribucin de probabilidades. (En
otras palabras, la distrib11cin del nmero de partculas emitidas durante cualquier intervalo depende slo de la longitud del intervalo y
no de los puntos extremos.)
A 3 : p 1(l1t) es igual aproximadamente a Mt , si llt es suficien temente pequea, donde .il es una constante positiva. Esto lo escribimos como
p,(l:J.t) ~ ll:J.t. En esta seccin a(l:J.t) - b{llt) significa que a(l'lt)/h(llt)- _1
cuando llt .... O. Tambin supondremos que llt > O. (EMa h1potesos
expresa que si el intervalo es suficientemente pequeo, la probabil~
dad de obtener exactamente una emisin durante ese intervalo~~
rectamente proporcional a la longitud del intervalo).
A.. : r.t 2 p.(l1t) - - 0. {Esto implica que P(llt)- O, k ~ 2.) Esto nos dice
que la probabilidad de obtener do~s emisiones en un intervalo
suficientemente pequeo es despreciable.
A ~: X 0 ~ O. o eqUivalentemente. p 0 {0) = l. Esto equivale a una condicin
inicial para el modelo que estamos describiendo.
Como lo demostraremos en breve, las cinco hiptesis anotadas anteriormente
harn posible que deduzcamos una expresin para p.(t) = P[X, = n]. Saquemos
ahora ciertas conclusiones de las hiptesis anteriores.

172 La Ylrloble aleororla de Pob<'iOfl y olrls varloblet alurorios

(a) Las hiptesis A 1 y A 2 juntas implican que la variable aleatoria X"' y [Xr+Ar
- X,] son variables aleatorias independientes con la misma disrribucin de probabilidades. (Ver ligura 8.1.)

K..1

Luego

p.(r

, + IJ.t
FIGURA

=1-

p,(6r) -

p~(l) =

pt(6t) - 1 - l 6t.

(8.2)

(e) Podemos escribir

po{t

+ 61)

= P[Xr+At = Ol
= P[X, =O

lXr+or- X,) = O]

q',(t)

= J.,

- Po(ll( 1 - A. 61 J.

[Ver ecuacin (8.2).]

qi(t)

= J.q 1(t} =

+ 6c) -

Haciendo tJ.r -+ O. y observando que el lado izquierdo representa al cociente


de la diferencia de la funcin p0 y por tanto tiende a p0(c) (ms precisamente. a
la derivada por la derecha. puesto que tJ.t > 0). tenemos
P(t) = - ,t,
Po(t)

Integrando en arnbos miembros con respecto a t, obtenemos In p 0 (t) = -A.t + e,


en donde e es una constante de integracin. De la hiptesis A 5 encontramos,
al hacer 1 = O. que e - O. Luego

(8.3)
As, nue~!ras hiptesis nos han conducido a una expresin para P[X, = O]. Utilizando esencialmente el mismo enfoque. obtendremos ahora p.(r) para " 2: l.
(e) Considerando p.(t + 6c) = P[X, +6 , = n].

= n si y slo si

n. Utilizando las hiptesis A 1

+ tJ.t) =

X,= x y [Xr +Ar- X,]= n - x,x =O, l. 2, ... ,


y A2 tenemos

p..(t)p.-..(6t)

" o
-2

=L

px(t)p.-..(61)

y por tanto

.Pe,

y por tanto

p.(t) = e -''(J.t)"/ n!,

o, equivalentemente,

n = 1, 2, ...

q 1(c) = J.t;
(J.r)2
q 2(1)
2 .

En general, q~(t) = lq. - 1(t) y por tanto q.(t) = (J.tf/11! Recordando la delinicin
de q., linalmente obtenemos

Po(l)

6t

Po(l) = - A.po(t)

+ J.p. - 1(1),

Esta representa a un sistema lineal inlinito de ecuaciones diferenciales de diferencias. El lector interesado puede verificar que si delinimos la funcin q. por la
relacin q.(t) = eJ.J p.(e), el sistema anterior se transforma en q~(r)
J.q. 1(t), 11 = l.
2, ... Puesto que p 0(t) = e-J.J, encontramos que q0 (c) = l. [Ntese tambin que
q.(O) = O para n > 0.] As obtenemos, recursivamente,

[Ver conclusin (a).]

Po(r

p.(t

- lp.(t)

= Po(t)po(t.t).
(d) Luego tenemos

Ahora X,+A,

+ ~~ - p.(t) - J.p.- t(t) - J.p.(t).

Nuevamente haciendo llt ..... O, y observando nuevamente que el lado izquierdo


re presenta el cociente diferencial de la funcin p., obtenemos

8.1

(b) De las hiptesis A 3 y A 4 podemos concluir que


Po(6r)

l!..l

+ Po - t(l)p,(6t) + p.(t)po(6t).

x O

Utilizando las hiptesis A 3 y A4 y tambin la ecuacin (8.2), obtenemos


p.(l + 61)- Po - t(I)A.tJ.r + p.(l)[l - A.61].

11 = O, l. 2, . . .

(8.4)

Hemos demostrado as que el nmero de partculas emitidas durante el interva lo de tiempo [0, 1) de una fuente radiactiva, bajo las suposiciones hechas anteriormente, es una variable aleatoria, con una distribucin de Poisson con parmetro (..t t).
Obserll(lcioroes: (a) Es importante darse cuenra de que la distribucin de Poisson apareci como una consecuencia de ciertas suposiciones que hicimos. Esto significa que cada vez
que dichas suposiciones sean vlidas (o al menos lo sean aproximadamente) la distribucin
de Poisson debe usarse como un modelo apropiado. Resulta que hay una gran cantidad de
fenmenos para los cuales es apropiado el modelo de Poisson.
(i) Representemos por X, el nmero de llamadas telefnicas que llegan a una central
telefnica durante un periodo de tiempo de longitud 1. Las suposiciones anteriores se
satisfacen aproximadamente, en especial durante el perodo congesrionado del dia.
Luego X, tiene una distribucin de Poisson.
(ii) Representemos por X, al nmero de electrones que salen del ctodo de un tubo
al vaco. Nuevamente las suposiciones son apropiadas y, por tanto. X, ttenc una dtstribucin de Poisson.
(iii) El ejemplo siguiente (de astronoma) indica que el razonamiento anterior puede
aplicarse no slo al nmero de ocurrencias de un suceso durante un perodo de tempo liJg
sino tambin al nmero de ocurrencias de un suceso dentro de los limues liJados de un
drea o un volume11. Supngase que un astrnomo investiga una parte de la Va Lctea
y supngase que en la parte considerada la densidad de estrellas. llammosla .<. es constante. (Esto significa que en un volumen de V (unidades cbicas}, se encontraran. en
promedio, .<V estrellas). Sea X v igual al nmero de estrellas encontradas en una parte
de la Va Lctea, que tiene un volumen V. Si se satisfacen las suposiciones anteriores (sus-tituyendo volumen por tiempo), entonces P[Xv = n] ~ (.<V)"e An! (Las suposiciones, interpretadas en el ejemplo presente, estableceran esencialmente que el nmero

174

Lo vurinblr aleatoria de Pol,sson y otras varlbles aleatorias

de estrellas que aparecen en partes no sobrepuestas del firmamento. representa variable.'


a leatorias independientes y que la probabilidad de que aparezca ms de una estrella en
una porcin pequea del cielo es cero.)
(iv) Se nos ocurre otra aplicacin en el campo biolgico. si hacemos que X A sea el
nmero de clulas sanguneas visibles bajo el microscopio, en donde el rea de la superficie
visible bajo el microsopio es dada por A unidades cuadradas.
(b) La constante A. apareci originalmente como una constante de proporcionalidad en
la hiptesis A3 . Vale la pena mencionar las siguientes interpretaciones de ..1.: si X, representa
el nmero de ocurrencias de un suceso durante un intervalo de tiempo de longitud 1, entonces,
E(X,) = J.t, y por tanto A.= [E(X,)]ft representa la razn esperada con la cual se emiten las
partculas. Si X v representa al nmero de ocurrencias de algn suceso dentro de un volumen
especificado V, entonces E(X v) =).V, y por lo tanto ). = [E( X v)/V representa _la densidad
~perada con la cual aparecen las estrellas.
(e) Es importante sea lar que nuestra exposicin en la seccin 8.3 no se refiri slo a una
variable aleatoria X que posee una distribucin de Poisson, sino que para cada t >O, encontramos que X, tenia una distribucin de Poisson con un parmetro dependiente de t. Tal
coleccin (infinita) de variables aleatorias tambin se conoce como un proceso de Poisson.
(Recprocamente, se genera un proceso de Poisson cada vez que ocurre un suceso en algn
intervalo de tiempo de modo que se satisfagan las hiptesis A1 hasta A5 .) De manera anloga
podemos delnir un proceso de Bemoulli: si X 1 X 2 , .. , X., ... son los nmeros de ocurrencias de sucesos en 1, 2.. . n. experimentos de Bernoulli, entonces la coleccin de variables
aleatorias X,_ .. . X ... se llaman un proceso de Bernoulli.
EJEMPLO 8.5. Una complicada maqu inaria. cuando funciona perfectamente,
puede producir una utilidad de C pesos por hora (C > 2) a una compaia. Sin
embargo. esta mquina tiene una tendencia a fallar a horas inesperadas e impredecib les. Supngase que el nmero de fallas durante cualquier perodo de longitud 1 horas es una variable aleatoria con una distribucin de Poisson de perodo 1.
Si la mquina falla x veces durante t horas, la prdida ocasionada (la improductividad de la mquina ms la reparacin) es igual a (xl + x) ~esos. Luego la utilidad total P durante cualquier perodo de t horas es igual a P = Ct - (X 2 + X).
en donde X es la variable aleatoria que indica el nmero de fallas de la mquina.
Por tanto P es una variable a leatoria, y podra ser de inters elegir t (lo que est
a nuestra voluntad) de manera tal que la utilidad esperada sea maximizada. Tenemos

E(P)

= Ct

- E(X 2

X).

Segn el teorema 8.1 encontramos que E(X) = t y E(X 2 ) = 1 + (1) 2 Luego


se deduce que E(P) = Ct- 2t - t 2 Para encontrar el valor de t para la cual
E(P) es maximizada. diferenciamos E(P) e igualamos la expresin resu ltante a cero.
Obtenemos C- 2- 2t = O, obteniendo t = ~(C- 2) horas.
EJEMPLO 8.6. Sea X, igual al nmero de partculas emitidas por una fuente
radiactiva durante un intervalo de tiempo de longitud t. Supngase que X, tiene
una distribucin de Poisson con parmetro a.t. Se instala un instrumento para
anotar el nmero de partculas emitidas. Supngase que hay una probabilidad
constante p de que cualquier partcula emitida no sea contada. Si R, es igual al
nmero de partlculas contadas durante el intervalo especfico, cul es la distribucin de probabilidades de R,?

La dislrlbu~lfmcom~lrlco

11.4

1 7~

Para X, = x, dado la variable aleatoria R, tiene una distribucin binomial


conbaSe en repeticiones con parmetro ( 1~ p). Esto es,

P(R, =k 1X,

x) =

(~) (1 _

p)kpx - k.

Usando la frmula de la probabilidad total, (ecuacin 3.4). tenemos


P(R, = k) =

L:

P(R, = k 1 X,

= x)P(X, = x)

x=k

Sea i = x - k. Entonces

P)k e-

J_
P(R, = k) = ( - p

--

k1

co

(pa.t)i+k

=O

l.

As encontramos que R, tiene una distribucin de P oisson con parmetro (1 - p)at.

8.4

La distribucin geomtrica

Supngase que efectuamos un experimento e y estamos interesados slo en


la ocurrencia o no ocurrencia de algn suceso A. Supngase como en la presentacin de la distribucin binomial, que repetidamente efectuamos &, que las repeticiones son independientes, y que en cada una de las repeticiones P(A) = p
y P(A) = 1 - p = q permanecen constantes. Supngase que repetimos el experimento hasta que A ocurre por primera vez. (Aqu nos separamos de las hiptesis
que conducen a la distribucin binomial. All el nmero de repeticiones era predeterminado, mientras que aqu es una variable aleatoria.)
Definamos la variable aleatoria X como el nmero de repeticiones necesarias hasta incluir la primera ocurrencia de A. As, X toma los valores posibles
1, 2, ... Puesto que X = k si y slo si las primeras (k - 1) repeticiones de e resultan en A mientras que la k-sima resulta en A, tenemos
P(X

= k) = qk -

p,

= 1, 2, ...

(8.5)

Se dice que una variable aleatoria con una distribucin de probabilidades ecuacin (8.5), tiene una distri bucin geomtrica.

176 La variable altatorla de l'oi!>SOII y olras variables aleatorias

KA

Un clculo sencillo indica que la ecuacin (8.5) define una distribucin 1.k
probabilidades legitima. Obviamente tenemos P(X = k) ~ O. Y

i: P(X = k) = p(l + +
1

q2

+ . ) =

p[-'-]
1- q

= 1.

11.4

negativas antes de la primera positiva? Haciendo que Y sea el nmero de reac


ciones negativas antes de la primera positiva. tenemos
P( Y = k)

= l :L l

-P

kpql-1

d""L

dq

= p l :L l -dq if

qt=p- - - = -1 .
dq 1 - q
p

(El intercambio de diferenciales y sumatorias se justifica aqu puesto que la serie


converge para lql < 1). Un clculo similar ensea que V(X) = qf p 2 (Nuevamente
obtendremos los dos resultados en el capitulo 10, usando un enfoque distinto.)
Para resumir lo anterior tenemos el teorema siguiente.
Teorema 8.3.
cin (8.5).

Si X tiene una distribucin geomtrica como se da en la ecuaE(X) = l / p

Observacin: el hecho de que E( X) sea el recproco de p es interesante intuitivamente,

= P(A) se necesitan muchas repeticiones

EJEMPLO 8.7. Supngase que el costo de efectuar un experimento es S 1000.


Si el experimento falla, se incurre en un costo adicional de S 300 debido a ciertos
cambios que deben efectuarse antes de que se intente un nuevo ensayo. Si la probabilidad de xito en cualquiera de los ensayos es 0,2, si los ensayos aislados son
independientes y si los experimentos continan basta que se obtiene el primer
resultado exitoso, cul es el costo esperado del procedimiento completo?
SiC es el costo y X el nmero de ensayos necesarios para obtener xito, tenemos
que C = IOOOX + 300(X - 1) = 1300X - 300. Luego

E(C)

= 1300E(X) -

300

(0.6)l(0.4)

= 0.92.

Ob.~ervacin: Si X tiene una distribucin geomtrica como se describi en la ecuacin(8.5)


si hacemos z - X - 1, podemos interpretar a Z como el nmero de fallas que preceden
al primer xito. Tenemos que P(Z = k) = tfp. k = O. 1, 2, .... en donde p P(x1to )y q =
P(falla).

La distribucin geomtrica tiene una propiedad interesante que est rcSUJVI


da en el teorema siguiente.
Teorema 8.4. Supngase que X tiene una distribucin geomtrica dada por
la ecuacin (8.5). Entonces para dos enteros positivos cualesquiera s y t
P(X ~

s + 1 1X >

s) = P(X ~ t).

(8.6)

Demosr racin: ver el problema 8.18.

puesto que dice que con va lores pequci\os de p


a fin de que ocurra A.

P( Y < 5)
y

d[q]

kk 1

k = O. l. 2....

Podemos obtener el valor esperado di! X como sigue.


00
.,
d
E(X)

= (0.6)t(0.4),

Luego

= 1300 0_12 -

300 = 86200.

EJEMPLO 8.8. En cierta regin la probabilidad de que una tormenta con


truenos ocurra en un dia cualquiera durante el verano (digamos enero y febrero)
es igual a 0,1. Suponiendo la independencia de un da con otro. cul es la probabilidad de que la primera tormenta con truenos del verano ocurra el 3 de
febrero?
Sea X el nmero de das (empezando el 1 de enero) hasta la primera tormenta y buscamos P(X = 34) la cual es igual (0,9) 33(0,1) = 0,003.
EJeMPLO 8.9. Si la probabilidad de que cierto examen d una reaccin pO
sitiva igual a 0,4. ,cul es la probabilidad de que ocurran menos de 5 reacciones

Observaciones: (a) El teorema anterior indica que la dislribucin geomtrica <mo (icnc
memoria>> en el sentido siguiente. Supongamos que el suceso A 110 ha ocurrido durante las
primeras s repeticiones de t. Entonces la probabilidad de que no ocurra durante las fli"xi
mas r repeticiones es la misma que la probabilidad de que no ocurra dur;mtc las flrlmeus t
repeticiones. En otras palabras. la informacin de ningn xi to es olvidada en lo que se
refiere a clculos subsecuentes.
{b) El reciproco del teorema anterior, es tambin cierto: si la ecuacin (8.6) es vit lid:a parn
una variable aleatoria que toma slo valores positivos, entonces la varaable alcaloria debe
tener una distribucin geomtrica. (No demostraremos esto aqu. Se puede cncontnar tal
cxpo~icin en An lntroducricn ro Probability 11uory und lts Applicutiom, de leller, John
Wiley and Sons, lnc., 2. edicin , New York, 1957, pg. 304.)
(e) Observaremos en el captulo siguiente que existe una variable aleatoria contmua con
una distribucin que posee una propiedad anloga a la ecuacin (8.6}. es decar la distribucin
exponencial.
EJEMPLO 8.10. Supongamos que un mecanismo es inspeccionado al finalizar
cada da para ver si an funciona regularmente. Sea p = P (falla durante cualquier da dado]. Por tanto si X es el nmero de inspecciones necesarias ~ara
obtener la primera falla. X tiene una distribucin de probabilidades geomtncas
y tenemos P(X = 11) = (1- pr - p. Anlogamente, (1 - pr - p = P(el art~ulo
se encontrar que ha fallado en la n-sima inspeccin y no en la (n - 1) s1ma
inspeccin.]
El valor mximo de esta probabilidad se obtiene resolviendo

d
- P(X = n) =O.

dp

178

La variable aleatoria de l'oi!!OOO y otras vurlabll'S aleatorias

Esto da
2(-1)+(1-p)-

(1(11- 1)(1 -p)"

Relacin entre las dltrl~lone' hlnnonlal y dt l'n,clll

H.~

es igua l

" (k - 1)1 q, _,

=0.

2:

lo que equivale a

t r

(1 - p)"

[(1 - p) - (n- l)p) =O,

La distribucin de Pascal

Una generalizacin obvia de la distribucin geomtrica aparece si hacemos


la siguiente pregunta. Supongamos que un experimento se contina hasta que un
suceso particular A ocurre por r-sima vez. Si
P(A) = p.

Sea
Z 1 = nmero de repeticiones nece~rias hasta incluir la primera ocurrencia de A.
Z 2 = nmero de repeticiones necesarias entre la primera ocurrencia de
A hasta incluir la segunda ocurrencia de A.

P(A) = q = 1 - p

en cada una de las repeticiones, definimos la variable aleatoria Y como sigue.

Z, = nmero de repet iciones necesarias entre la (r - 1) ocurrencia hasta


incluir la r-sima ocurrencia de A .

Y es el nmero de repeticiones necesarias a lin que A ocurra exactamente r veces.

Necesitamos la distribucin de probabilidades de Y. Debe ser evidente que si


= 1, Y tiene la distribucin geomtrica dada por la ecuacin (8.5).
Ahora Y = k si y slo si A ocurre en la k-sima repeticin y precisamente A
ocurri (r - 1) veces en las (k- 1) repeticiones previas. La probabilidad de este
suceso es simplemente p{~ :)p'- 'qk - , puesto que lo que sucede en las primeras
(k - 1) repeticiones es independiente de lo que sucede en la k-s ima repeticin.
Luego
r

P(Y = k) =

1)

k ( r - 1 p'qk - ,

k= r, r + 1, ...

(8.7)

Se ve muy sencillamente que para r = 1, lo anterior se reduce a la ecuacin (8.5).


Una variable aleatoria que tenga una distribucin de probabilidades dada por
la ecuacin (8.7) tiene una distribucin de Pascal.
ObserMcin : la distribuctn de Pascal es tambin conocida comnmente como la distribucin binomialneymira. La ramn para esto e' que al verificar la condicin

2:

obtenemos

(k - ')p'qA'
r -

P(Y = k) = 1

'

2:~

p'

...

(k 1')
r -

~ -

= p'(l

q-

lo cual obviamente es igual a l. La ltima igualdad resulta del desarrollo en serie de


( 1 - t) ' =

,..o

(-') ( -q)",
n

r -

despus de algunas simplificaciones algebraicas y recordando la definicin del coeficiente


bi nomial (generalizado) (ver la observacin antes del ejemplo 2.7). Debido al exponente negativo (- r) en la expresin anterior esta distribucin se llama distribucin binomtal negativa.
Para calcular E(Y) y V(Y) podemos proceder directamente, tratando de calcular las d"crsas sumas, o bien podemos proceder de la siguiente manera.

de la cual obtenemos p = 1/ 11.


8.5

17')

As vemos que todas las Z 1 son variables aleatorias independientes, que tiene
cada una, una distribucin geomtrica. Tambin. Y= Z, + + Z,. Por tanto
usando el teorema 8.3, tenemos el siguiente teorema.
Teorema 8.5. Si Y tiene uma distribucin de Pascal dada por la ecuacin (8.7).
luego
V( Y) = rqf p2.
(8.8)
E(Y) = rfp,
EJEMPLO 8.11. La probabilidad de que un experimento sea exitoso es 0,8.
Si el experimento se repite hasta que ocurran cuatro resultados exitosos, cul
es el nmero esperado de repeticiones necesarias? De lo anterior, tenemos E(nmero de repeticiones) = 4/0,8 = 5.

8.6

Relacin entre las distribuciones binomial y de Pascal

Sea X una distribucin binomial con parmetros n y p. (Es decir, X = nmero de xitos en n ensayos de Bernoulli con P(xito) = p). Sea Y una di stribucin
de Pascal con parmetros r y p. (Es decir, Y = nmero de ensayos de Bernoulli
necesarios para obtener r xitos con P(xito) = p.) Por tanto se establece la siguiente relacin
(a) P(Y ~ n) = P(X ~ r),
(b) P(Y > n) = P(X < r).

Demostracin: (a) Si hay r o ms xitos en los primeros 11 ensayos, entonces


es necesario 11 o menos ensayos para obtener los primeros r xitos.
(b) Si hay menos que r xitos en los primeros n ensayos entonces se necesitan
ms de n ensayos para obtener r xitos.

t80 t. vurluhl~ 111e11torlu d l'ol"or' y otr11' urlubtc~ ulcutorlas

H.?

Oh~c'rt>acimws: (H) Las propH!dadcs anteriores hacen posible el empleo de la distribucin


binomial tabulada para evaluar probabilidades asociadas con la distribucin de Pascal. Po1
ejemplo, supngase que deseamos calcular la probabilidad de que ms de 10 repeticiones
sean necesarias para obtener el tercer x110 cuando p = P(xito) = 0,2. Tenemos. usando la
notacin anterior para X y Y.

P(Y '> 10)

,fo

PtX < 3)

(~')

N - n

(b) V(X) = npq N _ l ;

Supngase que tenemos un lote de N artculos. de los cuales r son defectuosos


y (N - r) no son defectuosos. Supngase que escogemos, a l azar, 11 artculos del
lote (11 ~ N), sin sustitucin. Sea X el nmero de artculos defectuosos encontrados. Puesto que X - k si y slo si obtenemos exactamente k artcu los defectuosos
(de los r defectuosos del lote) y exactamente (n - k) no defectuosos [de los (N - r)
no defectuosos del lote]. tenemos

(~)(~ - k)

(a) E(X) = np;

('~ }0.2)"(0.8) 10 - = 0.678

La distribucin hipergeomtrica

P(X - k) =

k=

o. 1, 2, .. .

(8.9)

Se dice que una variable aleatoria discreta que tiene la distribucin de probabilidades de la ecuacin (8.9) tiene una distribucin hipergeombrica.
Obsmacin: puesto que 1;: Ocada ve7 que b >u. si a y b son enteros negativos. podemos
defintr las probabilidades anteriores para todo k - O. l. 2. . . . Obviamente no podemos
obtener ms que r defcctuo<;Os. pero la probabilidad cero ser asignada a ese suceso segn
ecuacin (8.9).

8.12. Se embarcan motores elctricos pequeos en lotes de 50.


Antes de que tal cargamento sea aceptado, un inspector elige 5 motores y los
inspecciona. Si ninguno de los motorel> probadol> es defectuoso, ello te es aceptado.
Si se encuentra que uno o ms son defectuosos. se inspecciona el cargamento
completo. Supongamos que. en realidad, hay tres motores defectuosos en el lote.
Cul es la probabilidad de que sea necesaria una inspeccin de 100 por ciento?
Si hacemos que X sea el nmero de motores defectuosos encontrados, se necesitar una inspeccin de 100 por ciento si y slo si X ~ 1. Luego.

(e) P(X

1) = 1 - P(X = 0) = 1 -

(~~!;;) = 0,28.

=k)~

G)

1(1 - p)"

para N grande.
Demostracin: deJaremos los detalles de la demostracin al lector. (Ver problema8.19.)
Ob.wrracicJn. la propiedad (e) del teorema 8.6 establece que si el tamao N Jel lote es
suficientemente grande, la distribucin de X puede ser aproximada por la distribucin binomial. Esto es razonablemente intuitivo. La distribucin binomial se aplica cuando muestreamos t'OII sustitucin (puesto que en e~ caso la probabilidad de obtener un articulo defectuoso pennanccc constante). mientras que la distribucin hipergeomtrica se apli~ cuando
mucstrcam'Os'Sm sust1luC1n. SI Cliiiao del lote es grande, no se:-mucha la diferencia si
un artculo en particular es dc~uelto o no al lote antes de ~oger el siguiente. Lu propiedad
(e) del teorema 8.6 es simplemente una expresin matemtica de ese hecho. Ntese tambin
que el valor esperado de una va riable aleatoria hipergeomtrica X es el mismo que el de
la variable aleatoria correspondiente distribuida binomialmente, mienlrus que la varian1JI de X es un poco ms pequea que la correspondiente en el caso binOmial. El <<trmino
de correccin>> (N - lt}/(N- 1) es aproximadamente igual a l. pura un N grande.

Podemos ilustrar el significado de (e) con el siguiente ejemplo sencillo. Supngase que queremos eva luar P(X = 0).
Paran - l.obtenemosdeladistribucinhipergeomtrica,P(X = 0)- (N- r)/
N = 1 r/N = q. De la distribucin binomial obtenemos directamente P(X =
O) = q. Por tanto estas respuestas son las mismas, como deberan ser, adems,
para n
l.
Para n - 2. obtenemos de la distribucin hipergcomtrica
P(X = 0)

EJEMPLO

P(X

1111

Teorema 8.6. Sea X una distribucin hipergeomtrca dada por la ecuacin (8.9). Sea p = rfN, q = l - p. Luego tenemos

(de la tabla del apend>CC).


(b) Comparemos brevemente las distnbuc1ones binomial y de Pascal. En cada uno de
los casos. nos mtcrcsan lo' ensayos repe11dos de Bernoulli. La distribucin bmomial apar~
cuando constderamos un nmero fiJO (digamos n) de tales ensayos y estamos interc~ados en
el nmero de xitos que ocurren. La distribucin de Pascal se ecuentra cuando prdiJamo-.
tl.!!_mero de xitos que debcmo:. obtener y luego anotamos el nmero de ensayosde Bcr
noulli necesarios. Esto es particularmente til para un problema estadstico que presentaremos con mas detalles ms larde (ver eJemplo 14.1).
8.7

L dl<trlbucln mulllnomlal

K. K

N~ r N;~~ 1 = ( 1 - ~) ( 1 -

~ 1) .

Oc la distribucin binomial obtenemos P X = 0) = q 2 . Debe observarse que


( 1 - r N) - q. mientras que [ 1 - r/(N - 1)] es casi igual a q.
En general. la aproximacin de la distribucin hipergeomtrica mediante la
dtstribucin binomial ~uy buena si n/ N < 0,1.
8.8

La distribucin multinomial

Finalmente, consideremos una variable aleatoria discreta importante de mayor


dimensin. que puede ser considerada como una generalizacin de la distribucin binomial. Consideremos un experimento e, su espacio muestra! S, y una

182

L.a arlable lutorla de l'ob!oo y otns arlables altatociA!>

particin de S en k sucesos mutuamente excluyentes A, ... , A . (Es decir, cuando


se efecta e uno y slo uno de los sucesos A 1 ocurre). Considrese n repeticiones
independientes de e. Sea p1 = P(A 1) y supngase que p1 permanece constante
durante todas las repeticiones. Evidentemente tenemos !~= 1 p1 = l. Definamos
las variables aleatorias X 1 , , X 1 como sigue.
X,es el nmero de veces que A1 ocurre entre las n repeticiones de e, i = 1, ... , k.
Las X, no son variables aleatorias independientes puesto que!~ 1 X 1 = n. Entonces tan pronto como el valor de cualquiera de las (k - 1) variables aleatorias es
conocido, se determina el valor de la otra. Tenemos el resultado siguiente.

TeoremA 8.7.

Si X;, i

= 1,

Probltm"'

11.11

183

Tenemos
p, = P(A.) = 0,25.

P2 = P(A 2)

= 0.65,

Pl = P(A3)

= 0,1.

As si se fabrican 10 de tales barras, la probabilidad de obtener exactamente 5 barras


de longitud menor que 10,5 pulgadas y exactamente 2 de longitud mayor que
1J ,8 pulgadas est dada por
lO!

5 !3 !2! (0,25) (0,65) (0,1) .

2, ... , k. estn definidas como antes, tenemos

P(X 1 =n.,X2=nz, ... ,X. =nt)=

n!
fJ'l'p';',
n, 1
"21.... n.1

(8.10)

en donde !~. 1 n1 = n.

PROBLEMAS

Demostracin : el argumento es idntico al utilizado para establecer las probabilidades binomiales. Simplemente debemos observar que el nmero de maneras
de agrupar n objetos, n 1 de los cuales son de una clase, n 2 de los cuales son de segunda clase, ... , " de los cuales son de una k-sima clase est dado por

8.1. Si X tiene una distribucin de Poisson con parmetro {1. y si P(X = 0) = 0.2 calcular P(X > 2).

n!
Observaciones: (a) Si k = 2 lo anterior se reduce a la distribucin binomial. En este caso
designamos los dos sucesos posibles <<xito y fracaso.
(b) La distribucin anterior se conoce como la distribucin multinomfal de probabilidades.
Recordemos que los trminos de la distribucin binomial se obtuvieron del desarrollo de
la expresin binomial (p + (J - p)]" = r;. 0 (;)p(l - p) - . De una manera anloga, las
probabilidades anteriores pueden obtenerse de un desarrollo de la expresin multinomial
{p, + Pl + + Pr

Teorema 8.8. Suponiendo que (X 1 , X 1) tiene una distribucin binomial


dada por la ecuacin (8.10). Entonces
E(X 1) = np1

V(X 1) = np,{i - p1),

1, 2, ... , k.

Demostracin: sta es un a consecuencia inmediata de la observacin que


cada X, como se defini anteriormente t iene una distribucin binomial con probabiljdad de xito (es decir, la ocurrencia de A1) igual a p1
EJEMPLO 8.13. Se fabrica una barra de un largo especfico. Suponiendo que
el largo verdadero X (pulgadas) es una variable aleatoria distribuida uniformemente en [10, 12]. Supngase que slo es de inters saber si ha ocurrido uno de
los tres sucesos siguientes:

A 1 ={ X < 10,5}. A2 = {10,5 s; X!:> 11,8}, y

A3 ={X> 11,8}.

8.2. Sea X una distribucin de Poisson con parmetro A. Encon trar el valor de k para
el cual P(X ~k) es la mayor. [Indicacin: comparar P(X ~ k) con J>(X = k - 1).)
8.3. (Este problema es tomado de Probabilit)' and Stmistkal ltljerence for Enyineers
por Oerman y Klem. Oxford University Press. LonJr<"-. 1959.) El nmero de buques tanques.
digamos N. que llegan cada dia a c1erta refinera llene una dstribucin de Poisson con parmetro.! 2. Las actuales instalaciones portuaria~ pueden despachar tres buques a l da. Si
m~ de tres buques tanques llegan en un dia. los que estn en exceso deben enviarse a otro
puerto.
(a) En un da determinado, cul es la probabilidad de tener que hacer salir buques tanques?
(b) En cunto deben aumentarse las instalaciones actuales para permitir la atencin a
todos los buques tanques aproximadamente el 90 por ciento de los das?
(e) Cul es el nmero esperado de buques tanques que llegan al da?
(d) Cul es el nmero ms probable de buques tanques que llegan diariamente?
(e) ~Cul es el nmero esperado de buques tanques atendidos diariamente?
(f) ,Cul es el nmero esperado de buques tanques devueltos diriamente?
8.4. Supngase que la probabilidad de que un articulo producido por una mquina especial sea defectuoso es igual a 0,2. Si lO artculos producidos, se seleccionan al azar, cul
es la probabilidad de que no se encuentre ms de un articulo defectuoso? Use las distribuciones binomial y de Poisson y compare las respuestas.
8.5. Una compaia de seguros ha descubierto que slo alrededor del 0.1 por ciento de la
poblac1n tiene cterto tipo de accidente cada ao. Si los 10.000 asegurados fueran seleccionados aleatoriamente en la poblacin, cul ser la probabilidad de que no ms de 5 de estos
clien tes tengan un accidente de ese tipo el prximo ao'/
8.6. Supngase que X tiene una distribucin de Poisson. Si
P(X = 2) - iP(X = 1).

calcular P(X

= O) y P(X = 3).

1114 La vMriobl< oh:atorlo dt

Pols><~n

l'whlltna~

y otras arlables aleatorias

8.7. Un productor de pelculas produce 10 rollos de una pelcula especialmente sensible


cada ao. Si la pelcula no se vende dentro del ao. debe descartarse. Experiencias pasadas
indican que D, la demanda (pequea) para la pelcula es una variable aleatoria distribuida
de Poisson con parmetro 8. Si se obtiene una utilidad de$ 7 en cada rollo vendido, mientras
que ocurre una prdida de $ 3 en cada rollo que debe ser descartado, calcular la utilidad esperada que el fabricante puede obtener con los JO rollos que produce.
8.8 Supngase que una fuente radiactiva emite partculas y que el nmero de tales partculas emitidas durante el perodo de una hora tiene una distribucin de Poisson con parmetro l. Se emplea un instrumento para contar y para anotar el nmero de las partculas emitidas. Si ms de 30 partculas llegan durante cualquier perodo de una hora. el instrumento
para anotar es incapaz de controlar el exceso y simplemellteanota 30. Si Y es la variable aleat~
ra defimda como el nmero de partculas anotadas por el instrumento que cuenta. obtenga
la distribucin de probabilidades de Y.
8.9. Supngase que una fuente radiactiva emite particulas y que el nmero de las mismas
emitidas durante un perodo de una hora tiene una distribucin de Poisson con parmetro )..
Consideremos que el instrumento para contar esas emisiones falla ocasionalmente en anotar
una partcula emitida. Supngase, especlficamente, que cualquier particula emitida tiene una
probabilidad p de ser anotada.
(a) Si Y est definida como el nmero de particulas anotadas, cul es una expresin
para la distribucin de probabilidades de Y?
(b) Calcu le P( Y O) si ). 4 y p .. 0,9.

8.10. Supngase que un depsito contiene 10.000 partculas. La probabilidad de que


una de esas particulas salga del depsito es igual a 0,0004. Cul es la probabilidad de que
ocurran ms de S sal idas? (Puede suponerse que las diversas salidas son independientes unas
de otras.)
8.11. Supngase que un libro de 585 pginas contiene 43 errores tipogrficos. Si esos
errores estn distribuidos aleatoriamente en el libro, ~cul es la probabilidad de que 10 pginas. seleccionadas al azar, estn libres de errores? [Jndlcaci6n : suponga que X = nmero
de errores por pgina tiene una distribucin de Poisson.)

8.12 Se observa una fuente radiactiva durante 7 intervalos de 10 segundos de duracin


cada uno y se cuenta el nmero de partculas emitidas durante cada perodo. Suponiendo
que el nmero de partculas emitidas, digamos X , durante cada periodo observado tiene una
distribucin de Poisson con parmetro 5,0. (Es decir, las pa rtculas son emitidas a razn
de 0,5 partculas por segundo.)
(a) Cul es la probabilidad de que en cada uno de los 7 intervalos de tiempo. sean emi
tidas 4 o ms partculas?
(b) Cul es la probabilidad de que al menos en uno de los 7 intervalos de tiempo. sean
emitidas 4 o ms partculas?
8.13. Se ha encontrado que el nmero de fallas de transistores en un computador electrnico en cualquier periodo de una hora puede considerarse como una variable aleatoria
que tiene una distribucin de Po1sson con parmetro 0.1. (Es decir, en promedio hay una falla
de un transistor cada 10 horas). Se mcia cierto prooeso que necesita 20 horas de tiempo de
cmputo.
(a) Encuentre la probabilidad de que el proceso anterior pueda ser completado exitosamente sin una falla. (Se supone que la mquina llega a ser inoperante slo si fallan 3 o ms
transistores).

1H~

(b) Lo mtsmo que en (a) excepto que la mquina llega a ser Inoperante SI fallan 2 o ms
transi:.tores.

8.14. Al formar nmeros bmarios con n dgitos. la probabilidad de que aparezca un


dig1to mcorrecto es. digamos, 0.002. Si los errores son independientes, ,cul ~., la probabilidad
de encontrar cero. uno o ms de un dgito incorrecto en un nmero h.nano de 25 dgitos?
St el computador rorma JO& de tales nmeros de 25 dgitos por <cgundo. cul e> la probabilidad de que 'iC forme un nmero incorrecto durante cualqUJer periodo de un segundo?
8.15. Se emplean dos procedimientos independ~tntes en la operacin de lanzamicnt''
de cohete:.. Supongase que cada uno de los procedimientos se contmila hasta que -;e produce
un lanlamtento exlloso. Se supone que al usar el procedimiento 1, P(S). la probabtlidad de
un lanzam1ento exuoso es gual a p., mientras que para el procedmcnto 11. P(S) p 1 Se
:.upone ademas, que cada semana se hace un 1ntento con cada uno de lo:. dos m6todo,. Rcpre
:.entemos con.\ , y X 2 al nmero de semanas necesarias para obtener un lanzamtcnto cx1to:.o
por med1o de 1 y JI respectivamente. (Luego X, y X 2 son vana bies alcatori,ts mdependientes.
que t1cne cuda una una dtstnbucin geomtrica). Sea W el min1mo (X" Y z) y sea el miXImo (X 1, \' zl Por tanto W representa al nmero de semanas nect."'arias para obtener un
lanzamiento e~to:.o mtentras que Z representa el nmero de semanas necesanas para obtener
lanzamtcntos exitosos con ambos procedimientos. (Luego si el procedimiento 1 resulta en ~SSS.
mientras que el procedimiento U resulta en SSS, tenemos W
3. Z
4)
(a) Obtener una expresin para la distribucin de probabilidades de W [1 mlil-adtl.
exprese en runcin de X, y X,, el suceso l W = k}.)
(b) Obtener una expresin para la distribucin de probablltdades de .t.
(e) Escribir nuevamente las expresiones anteriores si f>
f>>

8.16. Se arman cuatro com p<mentes en un ~olo aparato. Las componentes originan
1,2,3, 4.
fuentes independientes y p 1 = P(i-sima componente es defectuosa), i
(a) Obtener una expresin de la probabilidad para que el aparato completo funcione.
(b) Obtener una expresin de la probabilidad' para que al menos tres componentes funCIOnen.
(e) Si p, p, ~ 0,1 y Pl = P = 0,2. calcule la probabilidad de que runCIOnen c~acta
mentc dos componentes.
8.17 Un mecnico mantiene un gran nmero de arandelas en un depSitO. El 50 por
ciento de esas arandelas son de i pulgada de dllimetro, el 30 por cento <on de A pulgada de
d1metro. y el 20 por ciento restante con i pulgada de dimetro. Se supone que 'e chgen
10 arandela:.
(a) t.Cual o la probab1hdad de que haya exactamente cinco arandelas de 1 pulgada. cuatro
de l de pulgada, y una de i de pulgada?
(b) ,Cul es la probabilidad de que slo haya dos clases de arandela\ entre las elcgtdas?
(e) Cul es la probabthdad de que las tres clases de arandelas estn entre las elegtdas?
(d) Cual es la probabilidad de que haya tres de una clase, tres de otra clase. y cuatro de
la tercera clase en una muestra de 10?
8.18.

Demostrar el teorema 8.4.

8. 19

Demostrar el teorema 8.6.

8.20. El nmero de partculas emitidas pof una fuente radaCU\~ duranl~ un periodo
especfico es una vanable aleatoria con una distribucin de Poisson. Si la probabilidad de
ninguna emisin es gual a t, cul es la probabilidad de que ocurran 2 o ms emisiones?

1116

t a variable aleatoria de P oisson y otras variables aleatorias

8.21. Supngase que X,. el nmero de partculas emitidas en 1 horas por una fuente
radiactiva. tiene una distribucin de Poisson con parmetro 201. ;,Cul es la probabilidad
de que exactamente S partculas sean emitidas durante un perodo de 15 minutos'l

9
Algunas variables aleatorias continuas importantes

8.22. La probabilidad de un lanzamiento ex itoso es igual a 0,8. Supongamos que se hacen


ensayos de lanzamientos hasta que han ocurrido 3 lanzamientos exitosos. _Cul es la probabi lidad que sean necesarios 6 in ten tos? ,Cul es la probabilidad de que sean necesarios
menos de 6 intentos?
8.23. En la situacin descrita en el problema 8.22, supongamos que los ensayos de lanzamiento se hacen hasta que ocurren tres lanzamientos conseculivos ex itosos. Responda las
preguntas formuladas en el problema previo en este caso.
8.24. Considere nuevamente la situacin descrita en el problema 8.22. Supngase que
cada uno de los ensayos de lanzam iento cuesta $5.000. Adems, un lanzamiento que fracase
produce un costo adicional de $500. Calcular el costo esperado para la situacin descrita.

9.1

8.25. Con X y Y definidas como en la seccin 8.6. probar o refutar lo siguiente:


P(Y < 11)

= P(X

> r).

Introduccin
En este captulo proseguiremos la tarea que nos impusimos en el captulo 8,

y estudiaremos con mucho detalle varias variables aleatorias contin uas importantes y sus caractersticas. Como lo sealamos antes, muchos problemas llegan
a ser matemticamente ms sencillos al considerar un recorrido idealizado
para una variable aleatoria X , en el cual todos los nmeros reales posibles (en
a lgn intervalo especfico o conjuntos de in tervalos) pueden considerarse como
resultados posibles. De esta manera llegamos a las variables aleatorias con tinuas.
Muchas de las variables aleatorias que presentaremos ahora tiel)en aplicaciones
importantes y pospondremos hasta un captulo posterior la exposicin de algunas
de sus aplicaciones.
9.2

La distribucin normal
Una de las variables aleatorias continuas ms importantes es la siguiente.
Defmicin. La variable aleatoria .\'. que toma todos los va lores reales
- co < x < co, tiene una distribucin normal (o Gaussiana) si su rdp es
de la forma

[X - p] 2),

f(x) = -1- exp ( - -1 - .j2ii (J


2
(J

-CO

<X<

OO .

(9. 1)

Los parmetros p y u deben satisracer las condiciones -co < 11 < co.
u > O. Puesto que tendremos muchas ocasiones de referirnos a la distribucin anterior utilizaremos la notacin siguiente: X tiene la distribucin N(p, u 2 ) si y s lo si su distribucin de probabilidades est dada por
la ecuacin (9.1). [Frecuentemente usamos la notacin exp(t) para representar e'.]
Esperaremos hasta el captulo 12 para exponer la razn de la gran importancia de esta distribucin. Indiquemos sencillamente ahora que la distribucin
11!7

1KK

Al ~unu\

t11rlnhll''

ai~1U 01h'

cuntlnuo'\ hnpor1untc\

9.1

normal sirve como una aproximacin excelente a una gran cantidad de distribuciones
que tienen mucha importancia prctica. An ms, esta distribucin tiene varias
propiedades matemticas apreciables que hacen posible deducir importantes resu hados tericos.

9.3

Propiedades de la distribucin no rmal

(a) Digamos que f es una rdp legitima. Evidentemente f(x) ~ O. Adems


debemos verificar que J+~ f(x) dx = l. Notemos que al hacer t = (x - Jl)f q, podemos escribir
/(X) dx como (1 /.../'Iii) J!~ e'' 12 dt = /.
El truco utilizado para evaluar esta integral (y esto es un truco) es considerar
en vez de l . el cuadrado de esta integral. llamada / 2 As

J:

l'ropiedodr' dr lo dl'l rlbucln norml

9.1

El parmetro u puede interpretarse geomtricamente. Observemos que para


ll el grfico de f es cn cavo hacia abajo. Cuando x -+ ce, f(x) ..... O, asinttieamente. Puesto que f(x) ~ O para todo x, esto sign ifica que para grand es
valores de x (positivos o negativos). el grfico de .f es cncavo hacia arriba. El
punto en el cual cambia la concavidad se llama punto de innexin. y se determina
al resolver la ecuacin f"(x) = O. Cuando hacemos esto, encontramos que los
puntos de innexin ocurren en x = Jl u. Esto es, u unidades a la derecha y a
la izquierda de Jl el grfico de f cambia de concavidad. As, si u es relativamente
grande. el grfico de f, tiende a ser achatado. mientras que si q es pequeo
el grfico de f tiende a ser muy aguzado.
(e) Adems de la interpretacin geomtrica de los parmetros 11 y u, la siguiente interpretacin probabilstica puede asociarse con esas cantidades. Considrese

f"'"' xexp (' - -21 [X


.j2q _

E(X) = - 1-

00

1n

f +oo f "'"" e l'"'''l'2 dsdt.


00

= r sen a.

Luego el elemento de rea ds dt se transrorma en ,. dr da. Cuando s y 1 varan


entre -ce y +ce, mientras que r vara entre O y ce, mientras que a vara entre
O y 2n. Luego
fl..x)

12"1""o re ': dr da
2

12 = - 1
2n o
=1
2n

1
=2n

f 2 -e-''12io da

f +oo (qz + p)e -='

dz

-oo
1 u f +oo ze- ='12 dz + ll
~

v 2n

E(X 2 ) =

_"'

1
pe

v 2n

f +oo 1'

''

12 dz.

..

) f+"'

r-;::
x 2 exp
v 2n u _ "'

2
( - -2)[X_;:;:_p
]
) dx.
u

Haciendo nuevamente ;: = (x - Jl)/t!. obtenemos

l.

E(X 1 ) =
Por lo tanto/ = 1 como se iba a demostrar.

dx.

La primera de las integrales anteriores es igual a cero puesto que el integrando.


11\lmmoslo g(z), tiene la propiedad de que g(z) = -g( -z), y, por lo tanto, g es
una funcin impar. La segunda integral (sin el factor p) representa el rea total
bajo la rdp normal y, por lo tanto, es igual a la unidad. Luego E(X)
1.
A continuacin consideremos

f 2 d:x -

};;;:

v 2n

Introduzcamos coordenadas polares para evaluar la integral doble:

= r cos a,

p] 2)

Haciendo z = (x- 11)/ u y observando que ,/'( = u dz, obtenemos


E(X) =

1119

FIGURA

9.1

(b) Consideremos la rorma del grfico de f. Tiene la muy conocida rorma de


campana indicada en la figura 9.1. Puesto que f depende slo de x mediante la
expresin (x - JJ) 2 , es evidente que el grfico de f ser simtrico respecto a 1.
Por ejemplo, si x = Jl + 2, (x - JJ) 2 = (Jl + 2 - JJ) 2 = 4, mientras que para
x = Jl - 2, (x - p) 2 = (1 - 2 - 11) 2 = 4 tambin.

!._f+"' (uz + J1) 2e-='12 dz

fl . .,

+ 11 2 -)- f +ao e -''12 dz.


.j'i

-<O

liJO

Al~un'

rlabl<'' torio tonlinu' lmpnrlanl<"'<

Tabuhorl6n do '" dl,lrlbucl4n nnrrn11l

Y.4

La segunda integral nuevamente es igual a cero por el argumento usado anteriormente. La ltima integral (sin el factor Jl 2) es igual a la unidad. Para calcular
(l/j27i) r: ~ z 2e-:lz dz, integramos por partes haciendo ze-:l/2 = dv y z = u.
Luego v = -e zlz mientras que dz = du. Se obtiene

Demo.\lwcin : el hecho de que E( Y)

a1

+ b y que V( Y)

11/1

a u 2 se deduce

inmediatamente de las propiedades de la esperanza y la varianza expuestas en


el captulo 7. Para demostrar que de hecho Y est distribuida normalmente,
podemos aplicar el teorema 5.1. puesto que aX + b es una funcin de X decreciente o creciente. segn del signo de a. Luego. si g es la fdp de Y. tenemos

[y-b
] )111a
a
2

g(y)

Luego, E(X 2) = u 2 + 1 2, y por tanto V(X) = E(X 2 ) - (E(X)) 2 = u 2 As encontramos q11e los dos parmetros Jl y u 2 que caracterizan la distribucin normal son
la esperanza y la varianza de X, respectivamellle. Para ponerlo en forma distinta.
si sabemos que X est distribuido normalmente, slo sabemos que su distribucin de probabilidades es de cierto tipo (o pertenece a cierta familia). Si adems,
conocemos E(X) y V(X), la distribucin de X est especificada completamente.
Como anteriormente lo mencionamos, el grfico de la fdp de una variable aleatoria distribuida normalmente es simtrica respecto a Jl. El achatamiento del
grfico se determina por u 2 en el sentido de que si X tiene una distribucin
N(Jl, ut) y Y tiene distribucin N(1,
en donde uf > u~, entonces sus fdp
tendran las formas relativas que se muestran en la figura 9.2.

un,

= -1- exp ( - 12 - v'21i u

2u

-J

1
1
. exp(- - 2 2 [y- (at
, '2n ual
2u a

+ b)) 2)

que representa la fdp de una variable aleatoria con distribucin N(u1

-lo

b. a 2 u 2 ).

Corolurio: si X tiene distribucin N(. u 2 ) y si Y - (X - 1) 11. entonces Y


t icne d ist ri bucin N (0. 1).
Demostracin: es evidente que Y es una funcin lineal de X. y por tanto se aplica

el teorema 9.1.
0/Js~nacitr: la importancia de este corolario es que al C'<mobiw /(ls mritf(l(/es en la~ cuales
se mide la variable podemos obtener la distribucin estandarizada (ver d). Al hacer esto. oir
tenemos una distribucin donde ningn parmetro es no especificado. lo cua l es una situacin
muy propicia baJO el punto de vista de la tabulacin de la distribucin (ver la prxima ~cccin).

9.4 Tabulacin de la distdbucin normal


FIGURA

Supngase que X tiene distribucin N(O. 1). Luego

9.2

(d) Si X tiene una distribucin N(O, 1) decimos que X tiene una distribucin
normal estandarizada. Esto es, la fdp de X puede escribirse como

(9.2)
(Usaremos la letra 1f! slo para la fdp de la variable aleatoria X anterior). La importancia de la distribucin normal estandarizada se debe a que est tabulada.
Cada vez que X tiene una distribucin N(1. u 2) siempre podemos obtener la forma
estandarizada, tomando simplemente una funcin lineal de X como lo indica
el teorema siguiente.
Teorema 9.1. Si X tiene la distribucin N(Jl, u 2 ) y si Y= a X
Y tiene la distribucin N(aJl + b. a 2 u 2 ).

+ b. entonces

P(a :5X:5b)=

~fhe- x' 2 dx.

v 2n

Esta integral no pue.de evaluarse por mtodos ordinarios. (La dificultad proviene
del hecho que no podemos aplicar el Teorema Fundamental del Clculo puesto
que no podemos encontrar una funcin cuya derivada sea igual a e xl 2 ). Sin embargo. los mtodos de integracin numrica pueden usarse para evaluar integrales de la forma anterior. y de hecho ha sido tabulado P(X :5 s).
La fda de la distribucin normal estandarizada se denotar permanentemente
como <1>. Esto es.
"'(
..., s) =

1
Pi::

I' -

y21T. _,.,

xl

d x.

(9.3)

192

9A

Algunas variables aleatorias conlinuas importantes

(Ver figura 9.3). La funcin <1> ha sido tabulada ampliamente, y en el Apndice


se da un extracto de tal tabla. Podemos usar ahora la tabulacin de la funcin <1>
con el objeto de evaluar P(a ~ X ~ b). en donde X tiene la distribucin estandarizada N(O, 1) puesto que
P(a

b)

~.4

Tabulacin de la distrlbudlm nurmul

1'1.1

Ntese que la probabilidad. anterior es independiente de J.l y cr. En palabras: la


probabilidad de que una variable aleatoria con distribucin N(JJ, u 2 ) tome valores
dentro de k desviaciones estndar del valor esperado depende slo de k y est
dado por la ecuacin (9.6).
Observacin: tendremos muchas oportunidades para referirnos a funciones tabuladaS>>.
En un sentido dado, cuando una expresin puede escribirse en trm inos de fu nciones tabuladas,
el problema est <<resuelto. (Con la disponibilidad de medios modernos de computacin,
muchas funciones que no son tabuladas pueden evaluarse fcilmente. Aunque no esperamos
que todos tengan fcil acceso a un computador. no parece ilgico suponer que ciertas tablas

= <l>lb) - <l>(a).

4>(x)

com unes estn disponibles). As, nos deberamos sentir tan cmodos con la funcin <t>(x) =
(1/ JZit)J'!..,. e- '12 ds como con la funcin f(x) = .jX. Ambas funciones estn tabuladas,
y en algunos casos podramos tener a lguna dificultad para calcular directamente la funcin

para x = 0,43, por ejemplo. Varias tablas de algunas de las funciones mils importantes que
encontraremos en nuestro trabajo aparecen en el Apndice. Ocasionalmente se harn referencias a otras tablas que no aparecen en este texto.
FIGURA

9.3

La importancia particular que tiene la tabulacin anterior se debe al hecho de que


si X tiene cualquier distribucin normal N(.t, cr 2 ), la funcin tabulada <1> puede
usarse para evaluar probabilidades asociadas con X.
Simplemente usamos el teorema 9.1 para observar que si X tiene distribucion
N(JJ, cr 2 ), entonces Y = (X - .t)/cr tiene distri bucin N(O, 1). Por tanto
P(a

EJEMPLO 9.1. Supngase que X tiene distr ibucin N(3,4). Deseamos encontrar un nmero e tal que
P(X > e) = 2P(X

e).

Observemos que (X - 3)/ 2 tiene distribucin N(O. 1). Por tanto

~X~ b) = P(a: J.l ~Y~ b: J.l)

P(X > e) = P -X-3


(

> c-3)
- 2

= 1 - <1> (c
- - - 3)

Tambin,
(9.4)

Es tambin evidente de la definicin de <1> (ver figura 9.3) que


<1>( - x) = 1 - <l>(x).

(9.5)

Esta relacin es muy ti l puesto que en la mayora de las tablas la funcin <1> se
tabula slo para valores positivos de x .
Calculemos finalmente P(.t - ku ~ X ~ J.l + ka), en donde X tiene distribucin N(.t, u 2 ). La probabilidad anterior puede expresarse en funcin de el>
escribiendo
P(.t - ku ::;; X

~ J.1

+ ku)

= P ( -k ~ -Xu- J.l ~ k)

P(X ~e) = p ( -X -2-

3 e- -2-3)
~

= <1>

(e- -2 -3) .

La condicin anterior puede escribirse, por tanto, como 1 - <l>[(c - 3)/ 2] =


2cJ>[(c - 3)/ 2]. Esto se reduce a Cl>[(c - 3)/ 2] = j. Por tanto (de la tabla de la di stribucin normal), encontramos que (e - 3)/2 = -0,43, dando e = 2. 14.
EJEMPLO 9.2. Supngase que la resistencia a romperse de un gnero de algodn (en libras), llammosle X , est distribuida normalmente con E(X) = 165
y V(X) = 9. Suponiendo adems que una muestra de este gnero se considera
defectuosa si X < 162, cul es la probabilidad de que un gnero elegido al azar
sea defectuoso?
Debemos calcular P(X < 162). Sin embargo,

= <l>(k) - el>(- k).

P(X < 162)

Usando la ecuacin (9.5), para k > O tenemos,


P(.t - ku ~ X ~ J.1

+ ku)

2Cl>(k) - l.

(9.6)

p(X - 165 < 162; 165)


3

= <1>(- 1) = 1 - ((>(! ) = 0,159.

9..1

Obserracro" una ohccrn mmcdiata al uso de la distribucin normal puede encontrar\<'


aqu. E. obvio que X. la re'lstencia del gnero de algodn. no puede tomar valores negatrvos.
mientras que una variable alcatoritl distriburda normalmente puede tomar todos los valores
positivos y negatovos. Sm embargo. el modelo anterior (aparentemente imalidado en v1;,ta
de las obcc10ncs encontradas) as1gna una probabrhdad despreciable al suceso 1X <
Esto es.

Por tanto. la utilidad esperada (por tobera) p uede escribirse como


E(T) = C, ( <1>(12 - J.l) - <1>(10 - J.l)

- C2 [<1>(10 -1)] - C3(l - <1>(12 - J.l)]

o:

P( \

< 01

p(-'

165

<o

165)

= <1>( -55)-- o.

La srtuacrn que <~parece aqu ocurnr con rrecuencra: se supone que cierta variable aleatoria :<
que sabemos que no puede lomar valores ncgatrvos trene una distribucin normal. tomando
as (tencamente. a lo menos) ambos. valores po>rtlvos y negativos. M ientras que se escoan
los parmetros 1' y a 1 de modo que J>( \' < 01 sea prcticamente cero. tal representacin cs
perrectamente vlida

= (C 1 +

C 3 ) <1>(12- Jl) - (C,

Cz)<I>(IO - J.l)- C3.

Supngase que el proceso de fabricacin puede alterarse de modo que se puedan


obtener diferentes valores de J.l Para qu valor de Jl es mxima la utilidad esperada? Debemos calcular dE{n/(dJ.I) e igualarla a cero. Denotando. como es corriente, la fdp de la distribucin N(O. 1) por ~. tenemos
dE(T)= (C1
dJl

C 3)( -~(12- J.l)]- (C 1 + Cz)[ -q>( IO - 1)).

Luego
El problern;t de encontrar la fdp de una funcin de una va ri able aleatoria.
!lamrnosla Y - //( ,\ ). como se e;~;puso en el captulo 5, aparece en el contexto
presente en el cual la vartable aleatoria X est distribuida normalmente.
EJEMPLO 9.3. Supngase que e l radio R de un cojinete de esferas estil distribuido normalmen te con valor esperado 1 y varianza 0.04. Encuentre la fdp
del volumen del COJinete.
La fdp de la variable aleatoria R es t dada por

o
Asi

.f{r)

( 1[,.0.2
- 1] )

J2rr (0.2) exp - 2

Puesto que V es una funcin de R montonamente creciente. podemos aplicar


directamente el teorema 5. 1 para la fdp de V= 4 13nR 3 y obtener g(l') = .f(r)(drdr,).
en donde en todas partes r est expre~ado en funcin de t'. De la relacin anterior.
obtenemos r
,;i1i'4n. Luego dr dt = (1 '4rr)(3t 41t)- 2 3 . Al sustituir esas expresiones en la ecuacin anterior. obtenemos la fdp deseada de V.
EJEMPLO 9.4. Supngase que X. el dimetro interior (milmetros) de una
tobera. es una varrable aleatoria distribuida normalmente con esperanza 11 y
varianza l. Si A no satrsface crertas cspecrficaciones. le produce una prdida al
fabricante. Ms exactamente. supngase que la utilidad T (por tobera) es la siguiente funcin de X:

C 1 (pesos)

si 10 .::; X .::; 12.

p = 11 -

t ln(~: : ~:)

[Es fcil para el lector verificar que lo anterior da un valor mximo para E(T)].

Obseroaciones: (a) Sr 1 = 3 , es decir, si el dimetro X es muy grande o muy pequet1o,


igualmente son derectos importantes. entonces el valor JJ para el cual se obtiene el valor mtximo
de E(T) es JJ - 11. Si e1 > e 3, el valor de JJ es > 11, mientras que si e1 < el. el valor de JJ
es < 11. Cuando JJ-+ + oo, E(D-+ - e 3, mientras que si JJ-+ - oo, E(D-+ - el
(b) Consrdrense los valores de los costos siguientes:
$10.
$3. y
$2.
~ In [H]
$11.04.
Entonces el valor de JJ para el cual E(D se maximiza es igual a JJ - 11
Luego el valor mximo obtenido por E(n es igual a $6,04 por tobera.

e,

9.5

e1

el

La dis tribucin exponencial


Defmic:io. Se dice que una variable aleatoria continua X que toma todos
los valores no negativos tiene una distribucin exponencial con parmetro
a positivo si su fdp est dada por

-C 2

si X < 10.

f(x) = ae-=,

-C 3

s i X > 12.

= O,

x > O

para cualquier otro valor.

(9.7)

1%

Algunu' rioblts

olcatoria~ continua~

l'rnpicdadl"i dt la dl,trlbuci6n expon<'f1riol

hnpor1 ant""

As el valor esperado es igual al recproco del parmetro a. [Simplemente redenominando el parmetro ':1. = 1/{J. podramos haber escrito la fdp de X como ((x) =
(1 /p)e-" ' De esta manera. el parmetro f1 es igual al valor esperado de X. Sin
embargo. continuaremos usando la forma de la ecuacin (9.7).]

(Ver la figura 9.4) [Una integracin inmediata indica que

J; f(x)dx =

197

(e) La varianza de X puede obtenerse con una integracin semejante. Encontramos que E(X 2) = 2/':1. 2 y por tanto

y, por tanto. la ecuacin (9.7) representa una fdp.]


f(x)

V(X)

= E(X 2 ) -

(EtX)) 2

= ':1.~.

(9.10)

(d) La distribucin exponencial tiene la importante propiedad siguiente.


anloga a la ecuacin (8.6) descrita para la dis tribucin geomtr ica. Considerando para cualquier s. 1 > O. P(X > s + 1 : X > s). T enemos

P(X > s
FIGURA 9.4

Propiedades de la distribucin exponencial


(a) La fda F de la distribucin exponencial est dada por:
F(x)

= P(X

:S x )

J:

':le- di

= 1-

e-u.

= O.

~O

(9.8)

(b) El valor esperado de X se obtiene como sigue:

= J"'o xa.e - " dx .

Integrand o por partes y haciendo a.e -= dx


du = dx. Luego.
E(X)

= dv. x

"' i"'

= [ -xe-=]!o +

P(X > ' + 1) e-t+t


= - - =e-.,.
P(X > s)
e ...

P(X >

+ 11 X >

.\1

~ P(X

> 1).

(9.11)

As hemos demostrado que la distribucin exponencial tambin tiene la propiedad


de no tener memoria como ia distribuci<'n geomtrica. (Vase la observacin
que sigue al teorema 8.4). H acemos uso con,derable de esta propiedad a l apl icar
la distribucin exponencial a los modelos de fatiga en el capitulo 11.
Obsen>acin: como en el caso de la distribucin geomtrica. la inversa de la propiedad (d)
tambin es cierta. La nica variable aleatoria continua X que toma valores no negativo>
para los cuales P(X > s + 1 X > s) = P(X > 1) para s.1 > O. es una variable aleatoria
distribuida exponencialmente. [Aunque no demostraremos ~to aqu. podra sealarse que
la base del argumento implica el hecho de que la n1ca runcin continua G que tiene la propiedad que G(:c + y) . G(x)G(y) para todo X. y > o. es G(x) - (' b. Se ve racilmente que si
definimos G(.~) 1 F(x). en donde Fes la rda de \'. luego G satisrar esta condicin.]

para cualquier otro valor.

[Por tanto P(X > x) = e-""].

E(X)

s) =

Por tanto

La distribucin exponencial desempea un papel importante en la descripcin


de una gran clase de fenmenos, especialmente en el rea de la teora de la confiabilidad. Dedicaremos el captulo 11 a algunas de estas aplicaciones. Por el momento, investiguemos sencillamente algunas de las propiedades de la distribucin
exponencial.

9.6

+ 1! X >

=u. obtenemos ,, = -e-u.

e -u dx

= -.
1
a

(9.9)

EJEMPLO 9.5. Supngase que un fusible tiene una duracin X que puede
considerarse como una variable aleatoria continua con una distribucin exponencial. H ay dos procesos mediante los cuales se puede rabricar el fusib le. El
proceso 1 da una duracin esperada de LOO horas (esto cs. el parmetro es igual
a 100- 1) , mientras que el proceso JI da una duracin esperada de 150 horas (esto
es. el parmetro es igual a 1so-. Suponiendo que el proceso ll es dos veces ms
costoso (por ru sible) que el proceso l . el cual cuesta e por fusible. Supngase.
adems. que si un fusible dura menos de 200 horas, se carga una prdida de K pesos
en contra del fabricante. Qu proceso se d.:ber usar'! Calculemos el costo espe
rado para cada uno de los procesos. Para el proceso l. tenemos

e, =

costo (por fusible) = C

si

= C

+K

X > 200
si

X :S 200.

IYH

;\l~un;~' uerhebll" alcwturlu~ conllnuutt Importante--,

Y.(o

Por tanto.
E(Cr)

= CP(X > 200) + (C + K)P(X

~ 200)

=ce-<' ooJ2oo + (C + K)(l _e -" oo,zoo


= Ce - 2 + (C + K)(l - e 2 ) = K (l - e- 2 ) +C.

9.7

usa este tubo cuesta C 1 pesos/hora para funcionar. M len tras la maquina est
funcionando, se obtiene una utilidad de C 2 pesosjhora. Debe contratarse un
operador para un nmero prefijado de horas, digamos H, y obtiene un pago de C3
pesos/hora. Para qu valor de Hes mayor la utilidad esperada?
Obtengamos primero una expresin para la utilidad, !lamrnosla R. Tenemos

Con un citlculo semejante encontramos que


413)

E(Cu) = K(l - e

si

+ 2C.

~ H.

N tese q ue R es una variable aleatoria puesto que es una funcin de T. Luego

Luego
E(Cu)- E(C,)

= C + K(l.'

4 13 )

= C- 0,13K.

+ (C2

Por tanto, preferimos el proceso 1 dado que C > 0.13K.

(x > ~)

f(x)

- C,)

J0 tPe - P dt

e,- eJ)e-'" - C3H(I - e


+ (Cz - e ,)[p-' - e-'"(p- 1 + H)]

= H(C 2

9.6. Supngase que X tiene una distribucin exponencial con parmetro~. Entonces E(X) = 1/ fl. Calculemos la probabilidad de que X sobrepase
su valor esperado (ligura 9.5). Tenemos
EJEMPLO

= (C 2

C,)[He- ' 11 +

p- - e - ' "<P

' ")

+ H)] - C3H.

P ara obtener el valor mximo de E(R) lo diferenciamos con respecto a H y


hacemos la derivada igual a cero. T enemos

= e - OiJ

= e- <t.

dE(R) = (C 2 - C,)(H(- {J)e - PH


dH
= (Cz - C,)e - PII - eJ.

e - PII

- e

Pll

+ (p

+ H)(/J)e- Pll] -

c3

Luego dE(R)/ dH = O implica que

FIGURA

9.5

9.7. Supngase que T. el t1empo para que falle un componente.


est distribuido exponencialmente. Luego f(l) = fle - . Si se instalan 11 de tales
partes, cul es la probabilidad de que la mitad o ms de esas partes funcionen
an a l trmino de 1 horas? La probabilidad pedida es
EJEM PLO

i2

k /2

(n)

(1

i (k )(1 - e - "')"
(+
11

EJEMPLO

-e- "')" k(e

"'~)
4

(e

s111 es par;

[A !in de que la solucin anterior sea signilicativa, debemos tener H > O lo que
ocurre si y slo si O < C 3 /(C 2 - C 1 ) < 1, lo que a s u vez es equivalente a Cz- C, > O
y C 2 - C 1 - C 3 > O. Sin embargo, la ltima condicin requiere sencillament.e
q ue las cifras del costo sean de una magnitud tal que pueda obtenerse una utilida d.]
Su poniendo en particular que p = 0,01, C 1 - $3, C2 = S 10, y C3 = $4.
Luego H = - lOO In [4] = 55,9 horas ~ 56 horas. Luego, el operador debe ~er
contratado por 56 horas a fin de obtener la utilidad mxima. (P ara una modllicacin ligera del ejemplo anterior, ver el problema 9.18.)

sin es impar.

1) 2

9.8. Supngase que la duracin en horas, !lamrnosla T, de cierto

tubo electrnico es una variable aleatoria con una distribucin exponencial con
parmetro /J. Esto es, la fdp est dada por f(t) =Pe-'' t >O. Una mquina que

9.7

La distribucin gama

P resentemos primero una funcin que es muy importante no slo en la teora


de probabilidad, sino en muchas reas de las matemticas.

'1.7

Oefinicion.

La frmdn Gama denotada por

J'

r(pJ

xt 'e

'{v

'

()

r.

Sl!

define corno sigue:

definida para p > O.

(9.12)

l'ropicdade\ de 111 dltrtbucl6n 11"'""

9.R

tSta dbtribucin depende de los do> fWI'fniE'II'OS. /' y :X. de lOS CUaleS pedirnOS
r > O, ex > O. [ Debido a la definicin de la funcin Gama. es fcil ver que
J~ ~ f(x)dx = 1.] La figura 9.6 muestra el grfico de la fdp de la ecuacin (9. 16)
para diversos valore~ de r y :x = l.

[Puede _demostrarse que existe la_ intcgral impropia anterior (converge) si


P > 0). Si rntegramos por partes. hacrendo t ' x dx = dt y xP - 1 = 11. obtenernos

+ (p

= (p -

1)

e ' >:p

f(x)

l tfX

l)r(p - 1).

(9.13)

As ~ernos der~ostrado que la funcin Gama sigue una importante relacin recursrva. Supon~~ndo que p es un l!lllero positivo. hagamos p = n. Entonces aplicando la ecuacron (9. 13) repetidamente. obtenemos
r(n)

Sin embargo, r( 1)

J e

2111

fiGURA

9.8

(11 - l)r(n - 1)
- (11

1}(n - 2)r(n - 2)

- (11

1}(11 - 2) r( 1).

Propiedades de la distribucin Gama

(a) Si r = 1, la ecuacin (9.16) se tran sforma en f(x) = rxe u. Luego la distribucin exponencial es un caso especial de la distribucin Gama. (Si res un entero
pt>sitivo > l. la distribuci n gama est relacio nada ta mbin con la distribucin

exponencial. pero de ttn modo ligeramente diferente. Nos referiremos a esto en


el capt ul o 10).

dx - l. por tanto tenemos


r(n) - (11 - 1)!

9.6

(9.14)

(si '' es un enter~ positivo). (Luego podemos considerar que la funcin Gama es
una g<:_ncralt7acron de la funci n factorial). Tambin es fcil verificar que
(9.15)
(Ver problema 9.19).

(b) En la mayora de nuestras aplicaciones, el parmetro ,. ser un entero


positivo. En este caso, una relacin interesante existe entre la fda de la distribucin
galtla y la distribucin de P osson. que desarrollaremos ahora.
Considerand la integral 1 = J;> (e- 1 y' 1r!)dy, en donde res un entero positivo y a > O. Luego r!I =
e-r-y dy. Integrando por partes, haciendo u = y' y
dv = e- 1 dy, obtendremo-s du = ry- 1 dy y v = -e r_ Luego r! 1 = e " +
rJ:' e 'y- 1 dy. La integral en esta expresin es exactamente de la misma forma
que la integral original con la sustitucin de r por (r - 1). As, al continuar integrando por partes. puesto que r es un entero positivo, obtenemos

J:'

Con la ayuda de la funci n G;ima podemos presentar ahora la distribucin


Gama de probabilidad<.:,.
Defmicin. . Sea X una vanable aleatoria continua que toma slo valores
n_o negatrvo~ Dccnnos que X tiene una tlistribucin de probabilidacle.\ Gama
SI su fdp esta dada po r

r!I = e-[

+ r- 1 + r(r-

l)-

+ .. + r!].

Por tanto
r

f(x)

:X

f{r)

- O.

(::.t'l:}'

e '.

= L:

X> O

para cualquier otro valor

P(Y =k).

k=O

(9. 16)

en donde Y tiene una distribucin de Poisson con parmetro a.

..

9.11

Consideremos ahora la fda de la va ri ab le aleato ria cuya fdp est dada por
la ecuacin {9.16). Puesto que r es un entero positivo, la ecuacin {9.16) puede
escribirse como

l.u d,lrbucl6n Xo(:IIHdrdn

9.9

e~perado de ocurrencias de A durante un intervalo de tiempo unitario. Sea T


cesario para observar r ocurrencias de A. Tenemos

/1(1)

P(T $ 1) = 1 - P(T

=1= 1-

>

2U.l

tiempo ne-

1)

P(menos que r ocurrencias de A acontecen en (0. 1))


P(X < r)

y por consiguiente la fda de X se transforma en


Comparando esto con la ecuacin (9.17) se est;,hlece la rel:!cin deseada.

F(x) = 1 - P(X > x)

(e) St X tiene una distribucin Gama dada por la ecuacin (9.16). tenemos
E(X) =

Haciendo (as) = u. encontramos que esto se transforma en

F(x) = 1 -

J.

""-u'( -_'e
r

"

11

dtt,

X> 0.

9.9

e - x('lxt/k!.

x >O.

1
zl l
( ) _
/ z - 2"12 r(n/ 2)

(9.17)

Por tanto. la fda de la distribucin Gama puede expresarse mediame la fda tabulada de la distribucin de Poisson. (Recordamos que esto es vlido si el parmetro r es un entero positivo.)
el resultado indicado en la ecuacin (9.17). que relaciona larda de la distribucin de Poisson con la rda de la d>tribucn Gama. no es tan sorprendeme como podra
aparecer al pnnc1p10. tal como lo md1car la ~guente exposicin.
Primero que todo, recordemos la relacin entre las distribuciones de Pascal y binomial
(ver observacin (b) secc1n 8.6). Una relacin >imilar existe entre la distribucin de Poisson
YGama considerando que la ltima e; un" dJ>tribucin continua. Cuando tratamos una distribucin de Poisson estamos interesados e>pecialmente en el nmero de ocurrencias de algn
suceso durante un periodo lijo de tiempo. Y. como se indicar. la distribucin Gama aparece
cuando pedimos la distribucin del tiempo necesario para obtener un nmero especificado
de ocurrencias del suceso.
Especilicamente, supngase que X ~ nmero de ocurrencias del suceso A durante (0. t).
Entonces bajo condiciones semeJantes (es decir, satisraciendo la hiptesis A 1 hasta As en la
seccin 8.3) X tiene una distribucin de Poisson con parmetro crt. en donde ;x es el nmero

La distribucin x-cuadrado

Un caso especial. muy importante: de la distribucin Gama ecuacin (9.16)


se obtiene si hacemos a = j- y r = n/2. en donde n es un entero positivo. Obtenemos una familia de distribuciones de un parmetro con fdp

(9.18)

Demostracin : ver el problema 9.20.

Esta integral es precisamente de la forma considerada anteriormente. llam ndola 1 (con a = ax), luego

F(x) = 1 -

r/7..

- '1! =12

> o.

(9.19)

Una variable aleatoria Z que tiene fdp dada por la ecuacin (9.19) se dice que
ttene una distribttCII x-cuadrado con n grados de libertad (denotada por x,!). En
la figura 9.7. la fdp paran = 1. 2 y n > 2. Una consecuencia inmediata de la ecuacin (9.18) es que si Z tiene fdp de la ecuacin {9.19). tenemos
E(Z)

Oh<t'TI'arinn :

f(:)

n.

(9.20)

V{Z) = 2n.

f(z)

f(:)

fiGUR,t.

9.7

..

'

204

AlgWih varloblc' oleatorl"' conlinua importantes

9.111

hta ltima probabilidad puede obte~erse directamen~e de las tab.las. de ~~ di~


tribuctn de x-cuadrado (si m es conoctdol puesto que V llene una dtstnbuciOn X
Puesto que E(V 2 ) = 1 y la varianza (V 2 ) = 2 [ver la ecuacin (9.20)]. encontramos directamente

La distribucin x-cuadrado tiene muchas aplicaciones imponantcs en inferencia estadstica, 'algunas de las cuales citaremos posteriormente. Debido a su
importancia, la distribucin de x-cuadrado est tabulada para diversos valores
del parmetro n. (Ver el Apndice). Por tanto. podemos encontrar en la tabla qu
valor, denotado por x;, satisface P(Z S x:J = ex, O < ex < 1 (figura 9.8). El eJemplo 9.9 trata un caso especial de una caracterizacin general de la distribucin
de x-cuadrado que estudiaremos en un captulo posterior.

E(K)

f(z)

m/2

Oh~'''"'ci11 : la tabulacin de la distribucin de x-cuadrado que o;e da en el Apndtcc.


-.lo da lo' ,alores para los cuales n. el nmero de grados de libertad. !!'> menor que o tgual
a 45. La razn de ~toes que si "es grande, podemos apro~imar la dtstr.bucin de r.-cuadrado
con la dt~tnbucin normal. como se indica ell el teorema sig~iente.

Teorema 9.2. Supngase que la variable aleatoria Y tiene una distrt~ucin X~


Entonces para n suficientemente grande la variable aleatoria , 2 Y aproximadamente tiene la distritucin N(~ L 1). (La demostracin no
se da aqu).

FIGURA

9.8

EJEMPLO 9.9. Supngase que la velocidad V de un objeto tiene distribucin


N(O, 1). Sea K = mV 2 j2 la energa cintica del objeto. Para encontrar la fdp de K ,
busquemos primero la fdp de S = V2 Aplicando el teorema 5.2 directamente
tenemos

g(s) =

1
r. [rp( fi) +(rp - f i)]
2...;s

-_ s -

1/2

P(Y S

t)

~ P(j2Y

fi)

P(j2Y - ~S j2r - j2n

:><

<!>(

1)

J2t - .;;;-:. 1).

El valor de <1> puede obtenerse de las tablas de la distribucin normal.

1 s/2 .
--e

.fi

Si comparamos esto con la ecuacin (9.19) y recordamos que r(t) = ft, observamos que S tiene una distribucin xf. Luego encontramos que el cuadrado de
una variable aleatoria con distribucin N(O, 1) tiene una distribucin X~ (Este es
el resultado que generalizaremos posteriormente).
--Ahora podemos obtener la fdp h de la energa cintica K . Puesto que K es una
funcin montona de V2 cuya fdp est dada por la g anterior, tenemos directamente

A fin de evaluar P(K S 5) por eJemplo, no necesitamos usar la fdp de K sino que
podemos usar sencillamente la distribucin tabulada de x-cuadrado como sigue:

P(K S 5)

Este teorema puede utilizarse como sigue. Suponiendo que necesitamos


P( y ~ r). en donde Y tiene la distribucin x.7 y n es tan grande que la probabilidad
ant erior no puede obtenerse directamente de la tabla de la distribucin de x
cuadrado. Usando el teorema 9.2 podemos escribir

= P ((m/2) V 2 s

5)

= P(V 2 S

10/m).

9.10 Comparacin entre varias distribuciones


Hasta ahora hemos presentado diver~as distribuctones de probabilidades
importantes, tanto discretas como continuas: la binomial, Pascal y Poisso n entre
las discretas y la exponencial. geomtrica y Gama entre las continuas. No volveremos a dar las di versas hiptesis que conducen a esas distribuciones. Nuestro
mtcrs principal aqu es sealar ciertas analogas (y diferencias) entre las variables
aleatorias que poseen esas distribuciones.
1. Supngase que se efectan experimentos de Bernoulli independientes.
(a) variable aleatoria: nmero de ocurrencias del suceso A en un nmero
fijo de experimentos.
distribucin: binomial
(b) variable aleatoria: nmero necesario de experimentos de Bernoulli para
obtener la primera ocurrencia de A
distribucin: geomtrica

..

9.11

(c) variab le aleatoria: nmero necesario de experimentos de Bernoulli para


obtener la r-sima ocurrencia de A
distribucin: Pascal
2.

Supngase un proceso de Poisson (ver la nota (e) del ejemplo 8.5 precedente~
(d) variable aleatoria: nmero de ocurrencias de un suceso A en un intervalo
de tiempo determinado
distribucin: Poisson
(e} variable aleatoria: tiempo transcurrido hasta la primera ocurrencia de A
distribucin: exponencial

La dlstrlbbCibn norml blvorloda

'1.1 t

Teorema 9.3. Suponiendo que (X, Y) tiene la fdp como se da en la ecuacin (9.21 ). Entonces
(a) las distribuciones marginales de X y de Y son N(llx.ai) y N (JI,,;),
respectiva mente:
(b) el parmetro p que aparece anteriormt:nte es el coeficiente de correlacin entre X y Y;
(e) las distribuciones condicionales de X (dado que Y
que X = x) son respectivamente

(f) variable aleatona: tiempo transcurrido hasta la r-sima ocurrencia de A

diStribucin: Gama.

len

11 (Y-JJ-,).11x(l-p
N [ llx+Pa
JC

2>]

= y) y de

Y (dado

N [ Jl1 + p a,
a" (x - Jlx). a 12 ( 1 - p 2 ) .

Obsertucion . ntese la snmluud entre (a) ) td). (b) y (e). y finalmente entre (e) y (f).

Demosrracin: ver el problema 9.2 l.


9.11 La distribucin normal bivariada
Todas las variables aleatorias que hemos presentado han sido variables aleatorias unidimensiona les. Como lo mencionamos en el captulo 6. las variables
aleatorias de mayor dimensin desempean un papel importante para describir
resultados experimentales. Una de las mils importantes variables aleatorias bidimensionales conlinuas. una generalizacin directa de la distribucin normal
unidimensional. se define como sigue.
Definicin. Sea (X. Y) una variable aleatoria continua. bidimensional que
toma todos los valores en el plano euclidiano. Decimos que (X. Y) tiene
una distrihucin normal hivariada si su fdp conjunta est dada por la expresin siguiente:

/(x. J') =

2[(X - Jlx)l -

2( 1 - p )

La fdp normal bivariada tiene varias propiedades interesantes. Estableceremos


algunas en un teorema. dejando la demostracin al lector.
Teorema 9.4. Considrese la superficie z = f(x, y), en donde f es la fdp
normal bivariada dada en la ecuacin (9.3).

1= =

21ri1.<J,~

X exp {-

Obsmaciones: (a) El reciproco de (a) del teorema 9.3 no es verdadero. Es posible tener
una fdp cOnJunta que no es normal bivariada aunque las fdp de X y de Y son normales unidimensionales.
(b) Observemos de la ecuacin (9.21) que si p ~ O. la fdp conjunta de (X. Y) puede factori7arse y, por tanto. X y Y son independientes. Luego en el caso de la distribucin normal bivuriada, encontramos que la correlacin cero y la independencia son equivalentes.
(e) La parte (e) del teorema anterior demuestra que ambas funciones de regresin del
promedio son lineales. Tambin demuestra que la varianza de la distribucin condicional
se reduce en la misma proporcin que (1 - p 2 ). Esto es, si p est prxima a cero, la varianza
condicional es esencialmente la misma que la varianza incondicional. mientras que si p est
prximo a l.la varianza condicional est prxima a cero.

11x

Jly)l]}.
a,

2p (X - Jlx)()' - 117) + ()' 11xl1y

-ro< x <ro.

-ro< y< ro.

(9.21}

La fdp anterior depende de 5 parmetros. Para que f defina una fdp legtima [o sea. f(x,y) ~O.~::; ~::; j(x.y)dxdy = 1). debemos poner las
siguientes restricciones a los parmetros: -ro < Jlx < ro: -ro < 11, < ro:
a,> 0: a,> O: - 1 < p < l. Las siguientes propiedades de la distribucin
normal bivariada pueden verificarse fcilmente.

(a} z = e (constante) corta la superficie en una elipse. (Estas se llaman.


algunas veces. contornos de una densidad de probabilidades constante).
(b) Si p = O y 11x = 117 la elipse anterior se transforma en una circunferencia. (Qu sucede a la elipse anterior cuando p- 1?).

Demosrracitl: ver el problema 9.22.


Observacin: debido a la importancia de la distribucin normal bivariada. se han tabulado
diversas probabilidades asociadas a ella. (Ver D. B. Owen, Handbook of Sllllisrical Tab/es,
Addison-Wcsley Publishing Company. Inc.. Reading. Mass .. 1962.)

..

9.12

9. 12

'1.12

Distribuciones truncadas

en donde
tiene distribucin N(t. u 2 ). An logamente a lo an teri or tenemos la
siguiente delinicin.

EJEMPLO 9. 10. Supngase que se fabrica cierto tipo de perno y su longitud.


llammosla Y. es una variable aleatoria con distribucin N(2.2. 0.01). De un gran
lote de tales pernos se saca un nuevo lote. descartando todos aquellos pernos para
los cuales Y > 2. Por tanto. si X es la variable aleatoria que representa el largo
de los pernos en el nuevo lote. y si F es su fda tenemos

Defmicin. Decimos que la variable aleatoria X tiene una distribucin


normal truncada a la izquierda de X = y. si su fdp fes de la forma
f(x) = O

F(x) = P(X ~ x)

= P( Y $
= P( Y

1 Y S 2)

~ -.)/ PI Y S

=1

Si

> 2.

2)

si

= F'(x)

- fo(O, I) exp ( -

exp (11

K =

Hx ~.12.2J)

si

<D( - 2)

2
FIGURA

11

1-<D

si

~ y.

(9.23)

. -Jl)]-1
(.:u

Los conceptos presentados anteriormen:e para la distribucin normal pueden


extenderse de una manera evidente a otra~ distribuciones. Por eJemplo. una variable aleatoria X distribuida exponencialmente. truncada a la izquierda de X = y,
tendra la siguiente fdp:

S 2

f(x) = O

H'~ J)

Nuevamente, K se determina. de la cond icin J:':::f(x) clx = 1 y as

x > 2.

si

x < y,

2.

(Ver la ligura 9.9). Luego/la fdp de X. est dada por


/(x)

si

si

< y,
(9.24)

Nuevamente. C es t determinada por la condicin

9.9

r::: .f(x) clx

1 y po r tanto

e= e''

puesto que

(<D. como es lo usual. es la fda de la distribucin N(O. 1)].


La anterior es una ilust racin de una distribucin normal truncada (truncada
a la derecha de X
2, especilicamente). Este ejemplo puede generalizarse como
sigue.

Tambin podemos considera r una variable a leatoria truncada en el caso discreto. Por ejemplo, si una variab le aleatoria X tiene una dis tribucin de Poisson
(con parmetro J.) est truncada a la derecha en X = k + l. signilica que X tiene
la distribucin siguiente:

P(X = i) =O

si i

J.i

=C -'1 e-
Defmicin. Decimos que la variable aleatoria X tiene una distribucin
normal truncada a la derecha de X = r si su fdp fes de la forma
/(x) ~

x >

si

- K

+ 1,

sii=O, l. ... ,k.

(9.25)

l.

De la cond1cin 1:'_ 0 P(X = ) = 1 determinamos C y encontramos

r.

[X - p]2)

exp ( - -1 - ,j'iu
2
u

si

Ntese que si K se determina de la condicin J ~: f(x) tlx


K ~

~k

1
<D((r - p)f u]

P(Z Sr)

X~ T.

= 1 y por tanto

(9.22)

As
P(x

J..i ..-t
= 1') = :
l.

1
('it. r

~j -O A

'J

. otro va1or.
= o, l ... .. k y o para cua 1qurer

Lru; distribuciones truncadas pueden aparecer en muchas aplicaciones importantes. Consideraremos algunos ejemplos a con tinuacin.

2 1O

Algunas >ario bies aleatoria~ continuo' importante>

'1.12

EJEMPLO 9.1 l. Supngase que X representa la duracin de una componen te.


Si X est distribuida normalmente con

E(X) = 4

V(X) = 4.

9, 12

1 a dl,tribucin nu rtnol h luorhul

s llegan ms de 1res partculas durante un perodo de tiempo especificado. el dispositivo deja de funcionar debido a que se produce un Cierre). Por tanto. st Y
es el nmero de partculas anotadas durante el intervalo de te01po especfico.
Y ttene los valores posibles O, 1 y 2. As.

encontramos que

e-

P(Y =k)=

P(X < 0) = <1>( - 2) = 0.023.

k!

= O,
As, este modelo no es muy preciso puo.:sto que asigna una probabilidad 0.023
a un s uceso que sabemos que 110 p11ede o~:urrir. En s u lugar. podramos considerar.
la variable aleatoria X anterior truncad;~ a la izquierda en X = O. Por tanto supondremos que la fdp de la variable aleatoria X est dada por
f(x)
=

=O

si

x S O,

~)( 2) exp[- ~(x ; YJ1>:2)


4

si

EJEMPLO

que funcionan independientemente y tien e cada uno la misma probabilidad p


de funcionar correctamente. Cada vez que el sistema funciona mal, se inspecciona
a fin de establecer cuntos y cules son los componentes que fallan. Definamos
la variable aleatoria X como el nmero de componentes que fallan en un sistema
descompuesto. Si suponemos que el sistema falla si y slo si al menos un componente falla, entonces X tiene una distribucin binomial truncada a la izquierda
en X = O. Por el hecho de que /raya fallado el sistema impide la posibilidad de
que X = O. Especficamente tenemos
P(X =k)= (Z)(I - p)kp k
P(sstema falla)

k = 1, 2, .... n.

Puesto que P (el sistema falla) = 1 - p", podemos escribir


P(X =k)= (Z){I - p)kp - t
1 - p"

j(x) - O

= 1' 2, ... ' /l.

EJEMPLO 9.13. Supngase que una fuente radiactiva emite partculas de


acuerdo con una distribucin de Poisson con parmetro l. Un dispositivo para
contar esas emisiones funciona slo si llegan menos de tres partculas. (Esto es.

e-l[l +A+ (Az/2)]'

k= O. 1.2.

para cualquier otro valor.

x ~ r.

si

>O.

9.12. Supngase que un sistema est formado por n componentes

A4

Puesto que la di str ibucin normal truncada es muy importante, considcre1110S


el problema siguiente asociado con esta distribucin.
Supngase que X es una variable aleatoria distribuida normalmente trun cada
hacia la derecha en X = r. Luego la fdp fes de la forma

Obsen'{lcin: hemos indicado que a menudo u:.amos la distribucin normal para repre.entar
una variable aleatoria X de la cual sabemos que no puede tomar valores negativos. (Por eJemplo.
el 11empo para rallar, el largo de una varilla. etc). Para ciertos valores de los parmetros
2
1
E(X) y 11 ~ V(X) el valor de P(X < O) ser despreciable. Sin embargo, si no es este
el caso (como en el ejemplo 9.1 1) deberiamos considerar el uso de la distribucin normal truncada a la izquierda en X = O.

2 11

flnaex p[

-~(x:'J] <l>[(t ~ JI)/a]

si

xsr.

Por tanto tenemos


E( X)

:r.:

1
] f'
= f+
"' xf(x) dx = - [exp [ - ~ (x - Jl) ]
..,
<1> (r - )f a
.., v ..rc
2
a
-

--

;;-;;;

<l>[( r - JA)/u] v 2rt


<l>[(r

-JI+
JI-

f<- pi/ (sq + 1)e

~ JA)fq] [JI<l>

e:

_ l_ e

<1>[(-r -

dx

'12 ds

-oo

JI) + q ~ [ , .,,. se-'12 ds]

<1>[(-r - Jl)fq] .j'i


11

'2(-l)ll!,'

- 1- exp [
JI)/ a] .j'i

- 1
2

(t -'')
q

2
]

Ntese que la e xpresin obtenida para E(X) se expresa mediante las funciones
tabuladas. La funcin <l> naturalmente es la fda corriente de la distribucin N(O, 1),
mientras que (l/Me - '12 es la ordenada de la fdp de la distribucin N(O, 1)
y tambin est tabulada. En realidad, el cociente

(l/~e

x> 2

x)
esta tabulado. (Ver O . B. Owen. Handbook of Sta11stical Tables. Addison-Wesley
Publishing Company. lnc.. Reading, Mass .. 1962.)

Al~"""" >arlabl~~

212

alulorla' continua; lmporlanh:.

'1.12

Utilizando el resultado anterior. podemo' formular ahora la sig111ente pregunta: para 11 y u dados, ,dnde debera ocurrir la truncacin (esto es, ,cul debera
ser el valor de r?) de modo que el valor esperado despus de la truncac1on tenga
algn valor A pre asignado'? Podemos responder esta pregunta con ayuda de la
distribucin normal tabulada. Supngase que 11 = 10, t1 = 1. y necesitamos que
sea A = 9.5. Debemos reso lver por tanto
9.5 ,., 10-

e- lr- 101'/2.

<l>(r - 10), ::!n

= (J/fo)e

Ir

IOt,2

<l>(r - 1O)

Utilizando las tab las ya citadas. encontramos que T

10 = 0.52. luego r = 10.52.

Ob~ertaci11 :

el problema presen1ado anteriormcnle slo puede resolverse para cienos


valore> de /1. <1, y A . Esto e,. para 11 y <1 dados. puede no ser posible un valor especifico de A.
Consideremos la ecuacin que puede resolverse
11

<1

(f -")

1 exp [ - -1 - -

<b[(r - 11!/<1J fo

x2

9.9. Una distribucin muy relacionada con la distribucin normal es la distribucin


2
lo(l 11 ormul. Supngase que X esl distribuida normalmcnle con promedio JI y varia.nza ~
Sea y = ,X. Enlonccs Y tiene la distribucin log normal. (0 sea Y es log normal SI y solo
si In )' es normal). Encuentre la fdp de Y. Observaciti11 : las variables aleatorias sigu ientes pueden
representarse por la distribucin anterior: el dimelro de partculas pequeas despus de un
proceso de trituracin. el tamao de un organismo bajo la accin de pequeos impulsos y la
duracin de cienos articulo:..

9.10. Supngase que X t1cne una dislribuc1n N(1.u1 ). De1ermine e (como una funcin
de JI y U) tal que P(X ~ (')

El segundo miembro de esta ecuacin es evidentemente pos1t1vo. Luego debemos tener


(p - A) > O con e l objelo de que el problema anterior tenga solucin. Esta condicin no es
muy inesperada puesto que sencillamente expresa que el valor esperado (despus de una truna la derecha) debe ser menor que el valor esperado original.

c~ cin

PRO BLEMAS
9.1. Supngase que X licnc una distribucin N(2,0,16). Use la tabla de la distribucin
normal, para evaluar las probabilidades siguientes.
(a) P(X ~ 2.3)

9.7. Supngase que e:.tarnos de1erminando la posicin de un objeto en un plano. Sean


X y Y los errores en las medidas de las coordenadas x y y respectivamente. Supngase que X
y Y son independientes y distribuidas idnticamente N(O, .,z. Encuentre la fdp de R
J + yz. (La distribucin de R se conoce como la distribuci11 tle Rayleig!J). [lt~dicacill:
sea X R cos 1/J y Y R sen 1/J. Obtenga la fdp conjunta de (R, 1/J) y luego obtenga la densidad marginal de R.]

9.8. Encuentre la fdp de la variable alea10ria Q X f Y, en donde X y Y cSJiln distribuidas


como en el problema 9.7. (La distribucin de Q se conoce como la distribucin de Cauchy).
Puede us1ed calcular EIQ)?

Esto se 1ransforma en
~

9.6. Podemos inleresarnos slo en la magn1tud de X, llamemos Y = l XI. S X tiene una


dstnbucin N(O, 1). determme la fdp de Y. y calcule .; (Y) y V( Y).

(b) P(l,8 ~X <;; 2.1)

9.2. El dimetro de un cable elctrico est d istribuido normalmente con promedio 0,8
y ,arianza 0,0004. Cul es la probabilidad de que el dimetro sobrepase 0.81 pulgadas?
9.3. Suponiendo que el cable en el problema 9.2 se considere defectuoso SI el dimetro
se d1ferencia de su promedio en ms de 0,025. Cul es la probabilidad de obtener un cable
defectuoso?
9.4. Se sabe que los errores en cierto instrumento para medir longitudes estim distribuidos
normalmente con valor esperado cero y desviacin estndar de 1 pulgada. Cul es la probabilidad de que al medir los errores, sean mayores de 1 pulgada. 2 pulgadas, 3 pulgadas?
9.5. Suponiendo que la duracin de los instrumenlos electrnicos D, y 0 2 tienen distribuciones N(40. 36) y N(45, 9) respectivamenle. Cul debe preferirse para usarlo durante
un periodo de 45 horas? ,Cul debe preferirse para usarlo duran1e un perodo de 48 horas?

2P(X > (').

9.11. Supngase que la tcmperalura (mcdada en gmdos cenligrado>) cstil distribuida


normalmen1e con espcran7..a 50 y varianza 4. ,C'u;'J es la probabilidad de que la tempera Jura T
esl en1re 48" y 53' centigrados?
9. 12. Se especifica que el dimetro ex1erior do.: una flecha. llamemoslo D. debe ser de 4 pulgadas Supngase que D el> una variable aleatoria dislribuida normalmenle con promedio
4 pulgadas y varianza 0.01 pulgada 2 Si el dimetro real se diferencia del valor especificado
por ms de 0,05 pulgada pero en menos de 0.08 pulgada. la prdida del fabncante es de .$0.:-o.
S1 el dimetro real se diferencia del dimetro especificado en ms de 0,08 pulgada. la perd1da
e~ de $1,00. La prdida L, puede considerarse como una variable alealoria. Encuentre la
distribucin de probabilidades deL y calcule E(/.).
9. 13. Compare la cota SIIJUtrior,de la probabi lidad P(IX - E(X)I 2: 2Jii(X)) obtenida
con la desigualdad de Chebyshev con la probabilidad exacta en cada uno de los casos
siguenles:
(a) X tiene distribucin N(JL u 1 ).
(b) X tiene distribucin Po1sson con parmetro k
(c) X tiene distribuc1n exponencial con par:'unctro .
9. 14. Supngase que X es una variable aleatoria para la cual E(Xl JI y V(X) = .,z.
Suponiendo que Y est distribuida uniformemente en el intervalo (11, b). determine a y b de
modo que E(X) = E( Y) y V( X) = V( Y).

9.15. Supngase que X. la resislencia a la ruptura de una cuerda (en libras). tiene distribucin N(IOO. 16). Cada 100 pies de alambre para cuerda produce una utilidad de $25,
si X > 95. Si X :S 95. la cuerda puede utilizarse con un objetivo diferente y se obtiene una
utilidad de $10 por alambre. Encuenlre la u1ilitlad esperada por alambre.
9.16.

Sean X 1 y X 2 variables alea10rias independientes cada una con una distribucin

l'robltn
Sea Z(t)
X 1 cos wl + X 1 sen wr. Esta variable aleatoria es de inters en el estudio
de seales aleatorins. Sea V(t) dZ(t)/dt. (Se supone que w es constante.)

N(J1.1Tl).

(a) Cu l es la distribucin de probabilidades de Z(t) y V(t) pam cualquier t fija'/

(b} Demuestre que Z(t) y V(t) no estn correlacionados. [Observacin: puede demostrarse
que Z(t) y V(t) l>On independientes pero es ms difcil de hacer].

9.17. Un combustible para cohetes va a contener cierto porcentaje (llammoslo X) de


un compuc'to partrcular. Las C>pecificacrones exigen que X est entre 30 y 35 por ciento. El
fabricante tendr una utilidad neta en el cumbustible (por galn) que es la siguiente funcin
de X :
T(X)
SO. lO por galn
si 30 < X< 35,

$0,05 por galn

si

35 5 X < 40 25 < X 5 30.

- $0,10 por galn.


(a) Si X tiene distribucin N(JJ. 9). calcule E(n.
lb) Supngase que el fabricante desea aumentar su utilidad esperada E(T) en 50 por ciento.
aumentando su utihdad (por galn) en aquellas partidas de combustible que satisfacen las
especificaciones. 30 < X < 35. Cul debe ser su utilidad neta?
9.!8. Consideremos el CJCmplo 9.8. Suponiendo que se le pagan el dlares/ hora al operador mientras la mllquina est funcionando y C dlaresjhora(C4 < C 3 ) por el resto del tiempo
durante el cual ha sido contratado despus de que la mquina ha fattado. Determine nuevamente para qu valor de H (el nmero de horas que el operador es contratado), la utilidad
esperada es mxima.
X =

9.19. Demostrar que f{!) ~ .fif. (Ver 9.15). [Indicacin: h.acer el cambio de variables
u 2/ 2 en la integral f(t} a fr. X l i le > lfx.]

9.20. Verificar las expresiones de E(X) y V(X,, cuando X tiene una distribucin Gama.
[Ver ecuacin (9.18)).

9.21.

Demostrar el teorema 9.3.

9.22.

Demostrar el teorema 9.4.

9.23. Supngase que In vnriablc aleatoria X tiene una distribucin de X cuadrado con
10 grados de libertad. Sr se nos pidiera encontrar dos nmeros a y b tales que P(a < x < b) =
0.85. podramos verificar que exi~ten muchos pares de esa clase.
(a) Encuentre dos conjuntos diferentes de valores (a. b) que satisfagan la condicin anterior.
(b) Supngase que adems de lo anterior. necesitemos que

P(X < a)

= P(X > b~

Cuntos COOJunto~ de valores hay'!


9.24. Supngase que V, la veloc1dad (cmjseg) de un objeto que tiene una masa de 1 kilo,
es una variable alea torra que tiene una distribucin N(O. 25). Representemos por K =
IOOOVl/2 - SOOVl la energa emtica (KE) del objeto. Calcule P(K < 200). P(K > 800).
9.25. Supngase que X tiene distribucin N(Jl, u 2 ). Obtener una expresin aproximada
para E( Y) y V( Y), usando el teorema 7.7. Si Y ~ In X .
9.26. Supngase que X tiene una distrahucin normal truncada a la derecha como se da
en la ecuacin (9.22). Encontrar una exprc"i>n para E(X) mediante funciones tabuladas.

1 t~

9.27. Supngase que X tjene una distribucin exponencial truncada a la izquierda como
est dada en la ecuacin (9.24). Obtener E(X).
9.28. (a) Encontrar la distribucin de probabilidades de una variable aleatoria distribuida binomiatmente (con base en n repeticiones de un experimento) truncado a la derecha
en X = n ; esto es. X = n no puede ser observado
(b) Encontrar el valor esperado y la varianza de la variable aleatoria descrita en (a).
9.29. Supngase que una variable aleatoria distribuida normalmente con valor esperado JJ y varian7..a u 1 est truncada a la izquierda en X = t y a la derecha en X y. Encontrar
la fdp de esta variable aleatoria truncada doblemente>>.

9.30 Supngase que X , el largo de una varilla tiene distribucin N(IO, 2). En vez de
medir el valor de X, sblo se especifica si se cumplen ciertas exigencias. Especficamente. cada
varilla fabricada se clasifica como sigue: X < 8, 8 !> X < 12, y X e::. 12. Si se fabrican 15 de
tales varillas. cul es la probabilidad de que un nmero igual de varillas caiga en cada una
de las categoras anteriores?
9.31. Se sabe que la ttuvia anual que cae en cierta regin es una variable aleatoria distribuida normalmente con promedio igual a 29.5 pulgadas y desviacin standard 2.5 pulgadas.
Cuntas pulgadas de lluvia (anuales) caen en exceso alrededor del 5 por ciento de las veces?
1

9.32. Suponiendo que X tiene una distribucin N(O, 25), calcule P(l < X < 4).
9.33. Sea X, el nmero de partculas emitidas en 1 horas por una fuente radiactiva Y
se supone que X, tiene una distribucin de Poisson con parmetro {Jt. Sea T el numero de
horas hasta la primera emisin. Demuestre que T tiene una distribucin exponencial con
parmetro {1 [lmlictlcin: encuentre el suceso equiva lente (mediante X,) del suceso T > t).
9.34. Supngase que X, est definida como en el problema 9.33 con P 30. ,Cul es
la probabilidad de que el tiempo entre emisiones sucesivas sea > S minutos? > 10 minutos?
< 30 segundos?
9.35. En algunas tablas de la distribucin normal H{x) ~ (1/Jiii) f~ e-'12 tlt est tabulada para valores positivos de x (en vez de ~(x) como aparece en el Apndice). Si la variable
aleatoria X tiene distribucin N(1, 4) expresar cada una de las probabilidades siguientes
mediante valores tabulados de la funcin H.

(a) P[IXI > 2]

(b) P[X < 0).

9.36. Supngase que un dispositivo para telemedir satlites recibe dos clases de seales
que pueden anotarse como nmeros reales, X y Y, y que X y Y son variables aleatorias continuas independientes con fdp f y g. respecthamente. Supngase que durante cualquier periodo de t1empo especifico slo puede recibirse una de esas seales. y lueg? retransmitida a
la uerra, la seal que primero llega. Adems la seal que origina X llega pnmero con probabilidad p y por tanto la seal que origina Y llega primero con probabilidad 1 - p. Denotemos
por z la variable aleatoria cuyo valor realmente es recibido y transmitido.
Expresar la fdp de Z mediante f y g.
Expresar E(Z) mediante E(X) y E( Y).
Expresar V(Z) mediante V(X) y V( Y).
Supngase que X tiene distribucin N(2, 4) y que Y tiene distribuctn N(3, 3). Si
p
i. calcule P(Z > 2).
(e) Suponiendo que X y Y tienen distribuciones N(JI, aD y N(111, ai} respectivamente.
D~muestre que si 1 , . JJl, la distribucin de Z es un-modal)), esto es la fdp de Z tiene un
mximo relativo nico.
(a)
(b)
(e}
(d)

&

'

216

Alguno~

.. rlioble, ltoiOrla ronllnuu Impon ente

10

9.37. Supngase que el nmero de accidentes en una fbrica se puede representar por un
proceso de Po1sson con un promedio de 2 accidentes por semana. Cul es la probabilidad
de ~ue (a) elt1empo entre un accidente y el siguiente sea mayor de 3 das, (b) el tiempo de un
acc1dente al tercero sea mayor de una semana? (Indicacin: en (a), sea T = tiempo (en das)
y calcule P(T > 3)).
9.38. Un proceso de fabricacin produce en promedio un artculo defectuoso entre 300 fabricados. Cul es la probabilidad de que aparezca el tercer artculo defectuoso:
(a) antes de que sean producidos 1000 artculos?
(b) cuando se produce el 1000 simo artculo?
(e) despus de que sea producido ellOOO simo artculo?
[1ndicacin: supngase un proceso de Poisson).

La funcin generadora de momentos

10.1 Introduccin
En este capitulo presentaremos un concepto matemtico importante que tiene
muchas aplicaciones en los modelos probabilsticos que estamos considerando.
Con el objeto de presentar un desarrollo riguroso de este tema, habran sido necesarias matemticas de un nivel considerablemente mayor del que estamos suponiendo aqu. Sin embargo, si queremos evitar ciertas dificultades matemticas que
aparecen y si aceptamos que ciertas operaciones son vlidas, entonces podemos
obtener una comprensin suficiente de las principales ideas implicadas a fin de
usarlas inteligentemente.
Con el objeto de motivar lo que sigue. recordemos nuestro primer encuentro
con el logaritmo. Fue presentado slo como una ayuda para calcular. Con cada
nmero real positivo x, asociamos otro nmero, designado como log x. (El valor
de este nmero pudo obtenerse de tablas.) A lin de calcular xy, por ejemplo, obtenemos el valor de log x y log y y luego calculamos log x + log y, que representa
log xy. Conociendo log xy, pudimos obtener luego el valor de xy (con la ayuda de
tablas nuevamente). De manera semejante podemos simplificar con ayuda de los
logaritmos la elaboracin de otros clculos aritmticos. El enfoque anterior es
til por las siguientes razones:
(a) A cada nmero posit ivo x le corresponde exactamente un nmero. log x ,
y este nmero se obtiene fcilmente de las tablas.
(b) A cada valor de log x le corresponde exactamente un valor de x , y este valor
nuevamente se obtiene de tablas. (Luego. la relacin entre x y log x es uno a uno.)

~2~~

- -----~~ +~'
___

log x

---L

f iGURA 10.1
2 17

'

218

l .a /unci,, generador d momenlos

111.2

(e) Ciertas operaciones aritmticas que relacaonan los nmeros x y y. tales


como multiplicacin y divisin, pueden reemplazarse por operaciones ms sencillas.
tales como adicin y sustraccin, mediante los nmeros transformados log x
y log y (ver el esquema de la figura 10.1).
En vez de efectuar las operaciones directamente con los nmeros x y y, obtenemos primero los nmeros log x y log y, hacemos nuestros clculos con esos nmeros. y luego los transformamos de nuevo.

10.2

La fmcin generadora de momentos

Ahora consideremos una situacin ms complicada. Supngase que X es una


variable a leatoria; es decir, X es una funcin del espacio muestra! a los nmeros
reales. Al calcular diversas caractersticas de la variab le aleatoria X, tales como
E( X) o V(X), trabajamos directamente con la distribucin de probabilidades de X
[la distribucin de probabilidades est dada por una funcin: la fdp en el caso
continuo, o las probabilidades puntuales p(x,) = P(X = x 1) en el caso discreto.
La ltima se puede tambin considerar como una funcin que toma valores distintos
de cero slo si X = X, i = 1, 2, ... ]. P osiblenente, podemos presentar otra funcin
y hacer los clculos necesarios mediante esta nueva funcin (tal como antes asocibamos con cada nmero, un nuevo nmero). Esto es, en realidad, lo que precisamente haremos. Primero daremos una definicin formal.
Definicin. Sea X una variable aleatoria discreta con distribucin de probabilidades p(x1) = P(X = x 1),i = 1,2, ... La funcin M.,, llamada la/uncin
generadora de momentos de X, est definida por

"" e'x1p(x1).
= :E

J';jernpto, d funciones generadora. tk rnomtnl.,.

tO.l

Por tanto pueden suceder que la fgm no est definida para todos los valore:. de 1. s.in embargo no nos interesar esta posible dificultad. Cada vez que hagamos uso de la fgm, s1empre
supondremos que existe. (Para 1 ; O, la fgm existe siempre y es igual a 1.)
(e) Hay otra funcin muy relacionada con la fgm que a menudo se usa en su lugar. Se
llama la funcin caruclerlslica, se denota como Cx. y se define por C~(l) ~(e"x), en donde
i .. ,:- r, ta unidad imaginaria. Por razones tericas. hay una ventaja consaderable al us:v
Cx(l) en vez de M x(l). [Por esta razn, Cx(l) existe siempre para todos los valores de 1J s.m
embargo, a fin de evitar c lculos con nmeros complejos restringiremos nuestra exposacaon
a la funcin generadora de momentos.
(1) Postergaremos hasta la seccin 10.4 la exposic1n de la razn para llamar a Mx la
funcin generadora de momentos.

10.3

Ejemplos de funciones generadoras de momentos

Antes de considerar algunas aplicaciones importantes de la fgm a la teora de


la probabilidad, evaluemos algunas de estas funciones.
EJEMPLO 10.1. Supngase que X est distribuida uniformemente en el intervalo [a, b). Por tanto, la fgm est dada por

M x(t) =

~ adx

= -(/> - a)r

[eb - e"'], L# O.

Mx(t) =

Si X es una variable aleatoria continua con fdp f, definimos la funcin


generadora de momentos por

} 1

t~o eG)

(n)

k ~O

,1(1-

Pr-

(pe')t( 1 - p)" - t

10.5)

= [pe'+ ( 1 - p)]".
(10.2)
Observaciones: (a) Tanto en el caso discreto o en el continuo, M z(l) es samplemente el
valor esperado de e'". Luego podemos combinar las expresiones anteriores y escribir
Mx(l)

= E(e'x).

(10.3)

(b) M x(l) es el valor que toma la funcin Mx. la variable (real) 1. La notacin que indica
la dependencia de X, se usa porque podemos desear considerar dos variables aleatorias, X
y Y, y luego investigar la funcin generadora de momentos de cada una, M x y Mr .
(e) Usaremos la abreviacin fgm para la funcin generadora de momentos.
(d) La fgm como se defini anteriormente, se escribe como una serie infinua o integral
(impropia), segn que la variable aleatoria sea discreta o continua. Tal sene (o mtegral) puede
que no exista siempre (es decir, que converja a un valor infinito) para todos los valores de 1.

( 10.4)

EJEMPLO 10.2. Supngase que X estt distribuida binomialmente con parmetros n y p. Luego

( 10.1)

M.,(t)

2t9

(Esta ltima igualdad se deduce de una aplicacin directa del teorema del
binomio.)
EJEMPLO

10.3. Supngase que X tiene una distribucin de Poisson con par-

metro J.. As
Mx(t)

""

e ;.t

k O

k!

= :E e'k = e- e"-'

= e-

= <" -

"" (J..e'f

:E - k =O

11

k!

(10.6)

(La tercera igualdad se deduce del desarrollo de e" en 1:.:" &o(JI'/n !). Usamos esto
con y= U).

'

.,ropi..-dudc.-.. de la funcin JtCn('raduru dt mumtnlc"

ttl.4

EJ~Mt'LO 10.4. Supngase que X tiene una distribucin exponencial con


parmetro c.c. Por tanto.

M x(t)

EJilMPLO 10.6. Sea X una distribucitII Gama con pariametros


ecuacin (9.16)). Entonces

= J~ e'x(1.f! - "" dx = (1. JO" ex(l - a) dx.

M (t)
x

(Esta integral converge slo si 1 < 11.. Por tanto, la fgm existe slo para esos valores
de t. Suponiendo que se satisface esta condicin. continuamos.) Luego
Mx(t) =

r'

= - ::~'

f."' . . - e -xt

::~ J., e"'(::~x)'- 1 e

r<r) "

(1, ext ->1""

t-11.

11. -

<

t'

(Esta integral converge si

J+" exp (tx


-

c.c

dx

=(::~ _ ;)r(r)

x / 2)dx

= (1

- 21) - ''

((1,

~ ,)'

re

r:,J:

Supngase que X tiene distribucin N(Ji, a


Mx(l) -

Sea (x - t)/a

= s;

2 ).

Entonces

...

luego x ,_ as + JI y dx

1
M x(t) = - -

..2n

dx.

11;

luego

e tlu

1) '

e tlu.

C1

= ads.

J... exp [t(as +


"'

Por tanto

Ji)] e-'1 2 ds

2
= e'P .J12n J+"'
- oc exp(- ![s -

(-(1. ):

(10.9)

:X -

Obseroodones: (a) Si r = 1, la funcin Gama se convierte en la distribucin exponencial.


Observemos que si r = l , las ecuaciones (10.7) y (10.9) son iguales .
(b) Puesto que la distribucin de X cuadrado se obtiene como un caso especial de la distribucin Gama al hacer a = 1/2 y r = n/2 (n es un entero positivo). tenemos que si Z tiene
distribucin x!. entonces
(10.10)

11] )dx.
-J+w euexp(- ~[x.J2n
2
2

C1

'

Puesto que la integral es igual a r(r). tenemos

M x(l) =
10.5

dx

despus de una integracin inmediata.


EJEMPLO

y r (ver la

t).

(t/u) ('l -

=
2

y obtenemos
M x(t)

.~

> 1). Sea .~1" - t) =

( 10.7)

(1,,

Ohsnrarin- puesto que la fgm es slo un valor esperado de X. se puede obtener la fgm
de una funcin de una variable aleatoria sin obtener su distribucin de probabilidades primero (ver el teorema 7.3). Por CJCmplo, si X tiene distribucin A'(O.I) y deseamos encontrar
la fgm de Y = X 2 ; podemos proceder sin obtener primero la fdp de Y. Simplemente podemos escribir
-:,
1
... ;1[

= r(r)

'l

221

10.4
2ats])ds

Propiedades de la funcin generadora de momentos

Daremos ahora la razn para llamar M x la funcin generadora tl1 mome11to.~.


Recordemos el desarrollo en serie de Maclaurin de la funcin e~:
x2

x3

r= 1 +x+-+-+
.. +-+"
2!
3!
11!
= e'P+o''' 12

Seas - at

J12n J+""
_, exp(-t[s -

(Se sabe que esta serie converge para todo~ los valores de x.) As

at)l)ds.
e'x = 1

= v; luego ds = dv y obtenemos
Ahor"

(10.8)

(tx)2

+ IX + -2!

Mx(t) = E(e'x) =E ( 1 + tX

t- .. '

(tX)

+-

(txr
11!

+ ."

+ ... +

(t X)"

, + ...

11

Hemos demostrado que para una suma finita, el valor esperado de la suma
es igual a la suma de los valores esperados. Sin embargo. considerando una suma

'

222

1,n fum..liln ~t.'n('ndnnt de nwrncnto'

lOA

infinita como la anterior no podemos aplicar, inmediatamente, tal resultado.


Sin embargo. resulta que bajo condiciones justamente generales esta operacin
es todava vlida. Supondremos que las condiciones pedidas se satisfacen y por
consiguiente procedemos.
Recordemos que tes una constante en lo que respecta a la esperanza y podemos
escribir
M x(t) = 1 + tE( X)

r2 E(X 2 )
2

+ .. +

t" E( X")
- n-! -

Haciendo

t" - 1 E( X")

2!

(n - 1)!

+ ...

M'(O) = E! X).
Luego la primera derivada de la fgm calculada en t = Oda el valor esperado de la
variable aleatoria. Si calculamos la segunda derivada de Mx(l), nuevamente procederemos como antes, y obtenemos

+ tE(X 3 ) + +

t" - 2 E( X")
(n- 2)!

Continuando de esta manera obtenemos el siguiente teorema [suponiendo que


M <"l(O) existeJ.
(10.11)

Esto es, la n-sima derivada de M x(t) calculada en t = Oda E( X").


Observaciones: {a) Los nmeros E( X"), n = 1, 2, ... , se llaman los n-simos momentos
de la variable aleatoria X respecto al cero. Por tanto hemos demostrado que conociendo la
funcin M x. pueden generarse>> los momentos. (De aqu el nombre de fwrcin ge~reradora

de

mome~rto.m.)

(b) Recordemos el desarrollo en serie de Maclaurin en general de una funcin h.


lr(t) = lr(O)

h"{O)t 2
2!

lr'"'(O)t"
n!

+ lr'(O)t + - - + .. + - - + ..

en donde Jl

= E(X1, i = 1, 2, ...
Y(X)

En particular,

= E{X2) -

(E{X))'

= M"(O) -

[M'(O)J'.

(e) El lector puede preguntarse si el mtodo anterior es del todo til. No sera ms simple
{y ms elemental) calcular directamente los momentos de X en vez de obtener primero la
fgm y luego diferenciarla? La respuesta es que para muchos problemas este mtodo es ms
sencillo. El siguiente lo ilustrar.
EJEMPLO 10.7. Supngase que X tiene una distribucin binomial con parmetros n y p. Por tanto (ejemplo 10.2), Mx(t) = [pe' + q]". Por tanto

+ qr'pe',

M"(t) = np[e'(n- 1)(pe' + q)"- 2 pe' +(pe'+ q)-e]


Por tanto E(X)
Tambin, E(X 2 )

= M'(O) =

np, que concuerda con nuestro resultado anterior.


= M"(O) = np[(n - 1 )p + 1]. Luego
V(X) = M"(O) - [M'(0)] 2 = np(1 - p),

EJEMPLO 10.8. Supngase que X tiene distribucin N(ex, fJ2). Por tanto (ejemplo 10.5),Mx(t) = exp (ext + tp 2 t 2 ). As

E(X 2).

Teorema 10.1.

M~1(0)t"

= Mx(O) + Mx(O)t + + -n!-- + ..

lo que nuevamente concuerda con lo encontrado previamente.

+ ,

y haciendo e = O, tenemos

M"(O) =

= O. Aplicando este ro-

Jl t"

M'(t) = n(pe'

= O encontramos que slo subsiste el primer trmino y tenemos

M"(e) = E(X 2 )

Mx(t)

+ ..

t 2 E(X 3 1

= E(X) + tE(X 2 ) + - - - + ... +

en donde h1" 1(0) es la n-esima derivada de la funcin h calculada en 1


sultado a la funcin Mx, podemos escribir

223

= 1 + Jlal + }.1212 /2! + .. + -"+ ..


n!

Puesto que M x es una funcin de la variable real t, podemos considerar que tomamos
la derivada de M x(t) con respecto a t. esto es, [d/(dr)]M x{t) o por brevedad, M'(t).
Nos encontramos nuevamente con una dificultad matemtica. La derivada de una
suma finita siempre es igual a la suma de las derivadas. (Suponiendo, naturalmente
que todas las derivadas existen.) Sin embargo, para una suma infinita esto no
siempre es as. Deben satisfacerse ciertas condiciones a fin de justificar esta
operacin. Simplemente supondremos que esas condiciones existen y continuamos. (En la mayor parte de los problemas que encontraremos tal s uposicin est
justificada.) As,

M'(t)

Propledll<les de la fundn generadora de momL'IIIOS

10.4

M'(t)

= e + P' 'f2(P2t + ex),

M"(t) = elt2+p2

+ (P2t + ex)2eftl't2+,

y M'(O) = ex, M"(O) = p2 + ex 2 , dado E(X) = ex y V(X) = P2 como antes.


Usemos el mtodo de las fgm para calcular la esperanza y la varianza de una
variable aleatoria con distribucin de probabilidades geomtrica, ecuacin (8.5).
EJEMPLO 10.9. Sea X una distribucin de probabilidades geomtrica. O sea,
P(X =k)= qk-p,k = 1,2, ... (p + q = 1). As

224

La funcin gcncradoru de nwmenlos

10.4

Si nos restringimos a aq ucllos valores de r para los cuales O < qe' < 1[esto es,
t < ln(1/q)] podemos entonces sumar la serie anterior como una serie geomtrica
y obtener

M x(t) = ~ qe'[l
q

q1 -

l'ropk'CINdl"i reproductl>as

EJEMPLO JO. lO Supngase que X tiene distribucin N(~, u 2 ). Sea Y = aX + {J.


Luego Y est de nuevo d istribuida normalmente. Del teorema 10.2 la fgm de Y
es M r(t) = eP' M x(at). Sin embargo, del ejemplo J0.5 tenemos que

qe' =

Por tanto

pe'
1 - qe'

M y(t) = eP'[eP+I~''IZ]

Por tanto
,

M(t)

(1 - qe') pe' - pe't -qe')

(1 - qe') 2

= (1 -

pe'

'

Por tanto
E(X) = M'(O) = p/(1 - q)1 = 1/ p,
E(X 2 ) = M"(O) = p(1 + q)l1 - q) 3 = (1 + q)/p 2 ,
V(X)

= (l + q)f p2

(l / p)2

T eorema 10.4. Supngase que X y Y son variables aleatorias independientes.


Sea Z = X + Y . Sean M x(t), y M r(t) y M z(t) las fgm de las variables aleatorias X, Y y Z, respectivamente. Luego

= q/ p2.

Tenemos as una verificacin del teorema 8.5.


Los dos teoremas siguientes sern de mucha importancia en nuestras ap licaciones de la fgm.

M z(t) = M x(t)M r(t)


M z(t) = E(eZ')

(10.12)

+ fl, calculamos

la fgm de

(10.13)

Demostracin:

Teorema 10.2. Supngase que la variable a leatoria X tiene fgm Mx. Sea Y =
aX + {l. Entonces M r, la fgm de la variable aleatoria Y est dada por

En palabras: para encontrar la fgm de Y = a X


X en at (en vez de 1) y multiplicamos por eP'.

e<JI+plre<~''l2.

Pero sta es la fgm de una variable aleatoria d istribuida normalmente con esperanza a~ + P y varianza a 2 u 2 Luego, de acuerdo con el teorema 10.3, la distribucin de Y es normal.
El teorema siguiente tambin desempea un papel vital en nuestro trabajo
posterior.

qe') 2 '

M"(t) = (1 - qe') pe'- pe'2( 1 - qe')( - qe')= pe'(! + qe'?


(1 - qe') 4
(1 - qe') 3

225

+ ce' + (qe') 2 + ]

p qe'

10.5

= ere<X +YlJ = E(eXeY')

= E(ex')E(er')

= M x(t)M r(l).

Observacin: este teorema puede generalizarse como sigue: si X, ... , X., son variables
aleatorias independientes con rgm M r 1 i = 1, 2, ... , n, entonces la fgm de

z = x, + ... + x .
est dada por
Mz(!)

= Mx,(t) Mx.(!).

(10.14)

Demostracin:
M r(t) = E(e Yr) = E[e1X+P)']
=

e6' E(e"'x) = eP M x(at).

T eorema 10.3. Sean X y Y dos variables aleatorias con fgm, Mx(t) y Mr(l) respectivamente. Si M x(l) = M r(l) para todos los valores de t, entonces X y Y
tienen la misma distribucin de probabilidades.

Demostracin: la demostracin de este teorema es muy dilci l para darla aqu.


Sin embargo, es muy importante comprender exactamente lo que establece el
teorema. Dice que si dos variables aleatorias tienen la misma fgm, tienen la misma
distribucin de probabilidades. Esto es, la fgm determina unvocamente la distribucin de probabilidades de la variable aleatoria.

10.5

Propiedades reproductivas

H ay varias distribuciones de probabilidades que tienen la notable y til propiedad siguiente: si dos (o ms) variables aleatorias independientes que tienen cierta
distribucin se suman, la variable aleatoria que resulta tiene una distribucin del
mismo tipo que la de los sumandos. Esta propiedad se llama propiedad reproductiva,
y la estableceremos para varias distribuciones importantes con ayuda de los
teoremas 10.3 y 10.4.
EJEMPLO 10.11. Supngase que X y Y son var iables aleatorias independientes
con distribuciones N(~, aD y N~ 2 , an respect ivamente. Sea Z = X + Y. Por
tanto

22b

1 funcin

ge~Wrodora d~

Mz{r)

mom<nlos

10.5

= M x(I)Mr(l) = exp (p 11
= cxp [(JI

+ /l2lt +

1-

a~t 2/2) exp (p 2 t

(ai + ai}r 2/2].

+ a~t 2/2)

Sin embargo, esto representa la fgm de una variable aleatoria distribuid a normalmente con valor esperado p 1 + p 2 y varianla a~ + a~. As Z tiene esta distr ibuc i n normal. (Ver el teore ma 10.3.)
Observacin: E(Z) = 1 1 i 1 2 y V(Z) = ol + <d pudo haberse obtenido in mediatamente
de los resultados anteriores relacionados con las propiedades de la esperanza y la varianza.
Pero establecer que Z es nuevamente distribuida normalmente necesit el uso de la fgm.
(Hay otro enfoque de este resultado que se mencionar en el captulo 12.)
EJt\II'LO 10.1 2. La longitud de una varilla es una variable aleatoria distribuida normalmente con medida 4 pulgadas y varianza 0,0 1 pulgada 2 Dos de tales
vari llas se ponen extremo con extremo y se aj ustan en una muesca. El largo de esta
muesca es de 8 pulgadas con una tolerancia de 0,1 de pulgada. Cul es la probabilidad de que se ajusten las dos var illas'!
Representando por L 1 y L 2 las longitudes de la vari lla 1 y la varilla 2. tenemos
que L = L 1 + L 2 est distribuida normalmente con E(L) = 8 y V(L) = 0.02. Por
tanto
79 - 8
L- 8
8.1 - 8]
P(7.9 S L ~ 8.1] = P[ _:
- ~
~- 0. 14
0,14
0,14

= <1>(+0.7 14) - <1>( - 0.714) - 0.526.

227

EJEMPLO 10. 13. Supngase que el nmero de llamadas que llegan a una
central telefnica entre las 9 a.m. y 10 a.m .. es una variable aleatoria X 1 con
una distribucin de Poisson con pa rmetro 3. Anlogamente, el nmero de llamadas, que llegan entre las 10 a.m. y 11 a.m., digamos X 2 , tambin tiene una
distribucin de Poisson, con parmetro 5. Si X 1 y X 2 son independientes, cul
es la probabilidad de que se reciban m s d e 5 llamadas entre las 9 a.m. y las
11 a.m.?

Sea Z = X, + X 2 Del teorema anterior. Z tiene una distribucin de Poisson


con parmetro 3 + 5 = 8. Por tanto

P(Z > 5)

= 1 - P(Z :S 5) = 1 -

1 - 0,1912

= 0.8088.

i:_ e-a(8f
tO

k!

Otra distribucin con una propiedad reproductiva es la di stribuci n de chi


c uadrado.

x;,.

T eorema 10.7. Supngase que la distribucin d e X es


i - 1, 2, ... k, en
donde los X , son variables aleatorias independientes. Sea Z - X 1 + +
x . Entonces Z tiene distribucin x!. en donde n = 11 1 + .. ttl.

i = l.

2, ... ' k.
Luego

(la propiedad reproductiva de la distribucin normal). Sean

X. n variables aleatoria~ independientes con distribucin


N(p;. ar). i = l. 2.... , 11. Sea Z = X + +X. Luego Z tiene distribucin
X 1, X 2 ,

Propicdade' rtproducllll"

Demostracin: d e la ecuacin (10.10) tenemos Mx,(t) = ( 1 - 21)

de las tablas de la distribucin normal.


Podemos generali7.ar el resu lt ado anterior en el teorema siguiente.
Teorema 10.5.

lO. S

. ,

N('1:7: ,t;. r.

,af).

La distribucin de Poisso n tambin posee una propiedad reproducti va.


Teorema 10.6. Sean X,, ... , X. variables aleatorias independientes. Supngase que X; tiene una distribucin de Poisson con parmetro oc;, i =
l. 2... , n. Sea Z = X 1 + + X . Luego Z tiene una distribucin de
Poisson con parmetro

Demostracin : co nsideremos primero e l caso de

M x,(t) =

Teorema 10.8. Supngase que X 1 X son variables aleatorias independientes. donde cada una tiene distribucin N(O.I). Entonces S= Xt +
Xi + + Xf tiene distribucin xf.

x.

:x = a, ++a.

M x,(l) = edc' - 1.

Pero esta es la fgm de una variable aleatoria que tiene la distribucin X~


Ahora podemos dar una de las razones de la gran importancia de la distribu
cin de ch i cuadrado. En el ejemplo 9.9 encontramos que si X tiene distribucin
N(O,I), X 2 tiene distribucin xf. Combinando esto con el teorema 10.7, tenemos el resultado siguiente.

11

= 2.

e>(e'-11.

Luego M z(t) = e< +zll<" 11 Pero esta es la fgm de una variable aleatoria con una
distri bucin de Poisson que tiene parmetro :~e 1 + a 2 Ahora podemos completar
la demostracin del teorema con ayuda de la induccin matemtica.

EJEMPLO 10.14. Supnga se que X,. ....


son variables aleatorias independientes cada una con distribucin N(O.I). Sea T = .jX} + .. +
De
nuestra exposici n previa sabe mos que T 2 tiene di st ribucin ;d.
Para encontrar la fdp de T. llamada Ir. prosegui remos como es corriente:

x;.

21M

1\

tuneiOn grm.rutlou de

H'(t)

21" - ,, - ,,
-

2" 2 f(, 21

SI

1 ~ .

Observaciones: (a) Si 11 = 2. la distribucin anterior se conoce como una distribucin tle


Rayleigll. (Ver problema 9.7.)
(b) Si n = 3, la distribucin anterior se conoce como distribucin de Maxwell (o, algunas
veces, distribucin de velocidad de Maxwell) y tiene la siguiente interpretacin importan
te. Supngase que tenemos gas en un depsito cerrado. Representemos por (X. Y. Z) las
componentes de la velocidad de una molcula escogida al azar. Supondremos que X. Y y
Z son variables aleatorias independientes cada una con una distribucin N(O, a 2 ). (Suponer
la misma distribucin para X. Y y Z. significa que la presin en el gas es la misma en todas
direcciones. Suponer que las esperanzas son iguales a cero, significa que el gas no est esca
pndose.) Por lo tanto la velocitlad de la molcula (es decir. la magnitud de su velocidad)
est dada por S = X 2 + Y 2 + Z 2 Observemos que Xfr. Y/ a y Z/ a estn distribuidas
N(O.J). As S/11 = (Xj 11) + (Yj u)2 + (Z/u)2 , tiene la distribucin de Maxwell. Por tanto
g, la fdp de la velocidad S, est:\ dada por

El grfico de y se da en la figura 10.2 para a = 2. Observe que valores muy grandes o muy
pequeos de S son muy improbables. (Puede demostrarse que la constante u que aparece
como un parmetro en la distribucin anterior. tiene la siguiente interpretacin fsica: a =
.Jk777Vr. en donde T es la temperatura absolu ta. M es la masa de la molcula. y k se cono
ce como la constante de Boltzmann.)
Hemos expuesto a lgunas distribucion e> t.ue tienen la propiedad reproductiva. Consideremos la distribucin exponencia l que. hablando estr ictamente. no
posee la propiedad reproductiva. pero que. sin embargo. tiene una propiedad
anloga.
g(s)

v:uiahle~

ltlt-aWrhts

229

Sean X ;. i = l. 2, .. . . J. es r vanahJ.:, aleatorias independientes, con idnti


ca distribucin exponencial con par111~11o 'Y.. Luego de la ecuacin (10.7) tenemos
Mx;Ul = 7./(x - t).

Por tanto. tenemos


h(l)

Succsione.\ de

IU.5

ruuttlt'uto'

v'2/ u
FIGURA

10.2

Luego s i Z = X 1 + + X,. tenernos M z(l) = ["J./ 'Y. - 1]'. que precisamente es


la funcin generadora de rnoh1entos de la d ist ribucin Gama con parmetro
:x y r. (ecuacin 10.9.) A menos que r = l. esta no es una fgm de una distribucin
expo nencia l. luego esta distribucin no posee una propiedad reproductiva. Pero
tenemos una caracterst ica muy interesan te de la d ist ribucin Gama, que resumimos en el teorema siguiente.
Teorema 10.9. Sea Z = X 1 + + X,, en donde los X ; son r variab les
a leatorias independientes e idnt icamente distribuidas, donde cada una
tiene una distribuc1o6n ell.ponencia 1 con el mismo parmetro ex. Se cumple
entonces que Z tiene una distribucin Gama con parmetros ex y r.
Observaciorres: (a) El teorema 10.9 no se cumple si los parmetros de las diversas distribuciones exponenciales son diferentes. Esto llega a ser evidente cuando consideramos la
fgm de la suma de las variables aleatorias que resulta.
(b) El corolario siguiente del teorema anterior tiene mucha importancia en ciertas aplicaciones estadsticas: la variable aleatoria W = 2aZ tiene distribucin x~ . Esta es una consecuencia inmediata del hecho de que Mw(l) = Mz(2at) = [af(a - 2at))' = (1- 21- 2'"
Comparando esto con la ecuacin (tO. IO) da el corolario anterior. Luego podemos usar
la distribucin tabulada de x cuadrado a fin de calcular ciertas probabilidades asociadas
con Z. Por ejemplo. P(Z .s; 3) = P(2Z s; 6a). Esta ltima probabilidad puede obtenerse
directamente de las tablas de la distribucin de 7. cuadrado, si se dan a y r.

10.6

S ucesiones de variables a leatorias

Suponiendo que tenernos una sucesin d.: variables aleatorias X., X 2 , .. ,


X,, ... Cada una de esas variables aleatorias puede describirse mediante F;.
s u fd a. siendo F;(ll = PI X ; ~ 1). i = l. 2. . . . M u y a menudo nos interesa lo que
sucede a F; cuando i--. oc;. Es decir, hay a lguna funcin de distribucin lmile F correspondiente a alguna variable aleatoria X tal que de alguna manera.
las variables alea torias X; conveqan en X'! La respuesta es afirmativa en muchos
casos, y hay justamente un procedimiento directo para determinar F.
Ta l situacin puede aparecer cuando consideramos n observaciones independientes de una variable a leatoria X. !lamrnoslas X,, ... , X,. Podramos interesarnos por e l promedio aritmtico de esas observaciones X,= (1/ n)(X 1 +
+ X.). De nuevo X. es una variable aleatoria. Sea F. la fda de X. Podra ser
de inters aprender lo que sucede a la distr ibucin de probabilidades de X.
cuando n llega a ser grandle. As nuestro problema implica la conducta lmite de
F, cuando n ... oo. El teorema sigu iente, establecido sin demostracin. nos permi
tir resolver este y o tros problemas semejan tes.

230

l.a (uncin

gcn~rodora d~

Teorema JO. JO. Sean X 1 , X., una sucesin de variables aleatorias con
fda f h F. ... y fgm M 1 M., .. . Supngase que lim. _ 10 M.(l) =
M(t). en donde M(O) = l. Luego M(l) es la fgm de la variable aleatoria
X cuya fda F est dada por lim. _ 10F.(l).
Observaci6n : el teorema 10.10 dice que pa ra obtener la distribucin lmite buscada, es
suficiente estudiar las funciones generadoras de momentos de las variables aleatorias que se
consideran. Obtenemos el valor lmite de las sucesiones M 1, . . . , M~ ... , llamada M(t~
Debido a la propiedad de unicidad de la fgm, existe slo una distribucin de probabilidades
que corresponde a la fgm M(t). Podemos aceptar M como la fgm de una distribucin conocida (tal como la normal, Poisson, etc.) o bien podemos usar mtodos ms avanzados para
determinar la distribucin de probabilidades de M . Tal como podemos obtener la fgm ~
nociendo la fdp, tambin podemos obtener (en condiciones completamente generales) la fdp
conociendo la fgm. Esto implicara ciertos teoremas de inversin y no continuaremos ms
con esto.

10.7

Nota fanal

Hemos visto que la fgm puede ser una herramienta muy poderosa para estudiar diversos aspectos de las distribuciones de probabilidades. En particular,
encontramos muy til el uso de la fgm para estudiar sumas de variables a leatorias independientes e idnticamente distribuidas y obtener diversas leyes reproductivas. Estudiaremos nuevamente las sumas de variables aleatorias independientes en el captulo 12. sin usar la fgm. pero con mtodos semejantes a los
que usamos cuando estudiamos el prod ucto y el cociente de variables aleatorias
en el capitulo 6.
PROBLEMAS
10.1. Suponiendo que X tiene fdp dada por

/(x)

l'ruhl\:mu~~ro

111.7

morncnlus

= 2x.

O s; x s; l.

(a) Determine la fgm de X.


(b) Usando la fgm, calcule E( X) y V(X) y verifique su respuesta. (Ver observacin, p. 232.)
10.2. (a) Encuentre la fgm del voltaje (incluyendo el ruido) tal como se expuso en el problema 7.25.
(b) Usando la fgm, obtenga el valor esperado y la varianza de este volta,e.
10.3. Suponiendo que X tenga la fdp siguiente

f(x) = le

.te><.

x ;:: a.

(Esta es conocida como una dlstribuci6n exponencial con dos parmetros.)


(a) Encontrar la fgm de X .
(b) Usando la fgm, encontrar E( X} y V( X).
10.4. Sea X el resultado cuando se lanza un dado regular.
(a} Encontrar la fgm de X .
(b) Usando la fgm, encontrar E( X) y V( X).

2l l

10.5. Encontrar la fgrn de la variable aleatoria X del problema 6.7. Usando lu fgm. encontrar E(X) y V(X).
10.6. Supngase que la variable aleatoria continua X tenga fdp

f(x) = ~e-11,

-oo < x < oo.

(a) Obtener la fgm de X.


(b} Usando la fgm, encontrar E(X} y V(X).
10.7. Usando la fgm, demostrar que si X y Y son variable~ aleatorias independientes
con distribuciones N(x cri) y N(JJ,. U:> resrccuvamente. entonces Z = aX + bY estt nuevamente distribuida normalmente. en donde 11 y b son constantes.
10.8. Suponiendo que la fgm de una vanablc aleatoria X es de la forma
MJ{t} ~ (0,4e'

+ 0,6)8

(a) Cu<il es la rgm de la variable aleatoria Y ~ 3X + 2?


(b) Calcular E(X).
(e) Puede verificar su respuesta (b) por algn otro mtodo? (Tr:lle de reconocer
M x(t)).
10.9. Varias resistencias R,, i = 1,2. .... 11. se ponen en serie en un circuito. Suponiendo
que cada una de las resistencias est distribuida normalmente con E(R 1) - 10 ohms y
V(R 1) , . 0.16.
(a) Si " = 5, cul es la probabil idad de que la resistencia del circuito sobrepase los
49 ohms?
(b) ,Cul debe ser el va lor de " de modo que la probabilidad de que la resistencia total
sobrepase los 100 ohms sea aproximadamente 0.05'!
10. 10. En un circuito se ponen n resistencias en serie. Supngase que cada una de las
resistencias est distribuida unirormemente en (0,1) y supngase adems. que todas las
resistencias son independientes. Sea R la resistencia total.
(a) Encontrar la fgm de R.
(b) Usando la fgm, obtener E(R) y V(R}. Verifique su respuesta con un c lculo directo.
10.11. Si X tiene una distribucin

x;.

utilit.ando la fgm. demuestre que E(X)

=" y

V(X) ,.. 211.

10.12. Supngase que V , la velocidad de un objeto (cmfseg). tiene distribucin N(0.4~


Si K = mV2 /2 ergs es la energa cintica del objeto (donde m - masa). encuentre la fdp de
K. Si m = 10 gramos, calcule P(K s; 3}.
10.13. Supngase que la duracin de un artculo est distribuida exponencialmente
con parmetro 0.5. Supngase que 10 de tales artculos se instalan sucesivamente, de modo
que el i-simo articulo se instala <<inmediatamente despus de que el (i - 1) artculo ha
fallado. Sea T, el tiempo para fallar del i-simo articulo, i - 1, 2, .... 10, medido siempre
desde el tiempo de instalacin. Luego S= T 1 + ... + T 10 represen ta el tiempo total de
funcionamiento de los 10 artculos. Suponiendo que los T 1 son independientes, calcule
P(S ;:: 15,5).
10.14. Supngase que X 1, . . . , X 80 son variables aleatorias independientes, donde cada
una tiene distribucin N(O,l). Calcular P[Xf + + X30 > 77). [l11diracin : use el teorema 9.2.)

232

11

La funcin generadora de nu>noentos

10.15. Demuestre que si X 1, i = 1,2, .. . . k representa el nmero de xitos en n1 re


ticiones de un experimento, en donde P(xito) = p, para todo i, entonces X, + + x.
tiene una distribucin binomial. (Esto es la distribucin binomial tiene la propiedad reproductiva.)

Aplicaciones a la teora de la confiabilidad

10.16. (La distribucin de Poisson y la multinomial.) Supngase que X, i = l, 2, . .. , n


son variables aleatorias independientes con una distribucin de Poisson con parmetros
'.i, i = 1, ... , n. Sea X = :E7. 1 X 1 Entonces la distribucin de probabilidades condicional
conjunta de X 1 , , X. dado X = x est dada por una distribucin multinomial. Esto es,
P(X,

= x, ... , X.= x.IX = x) = x!f(x,! ... x.!)(x,/:E7=or)"' ... (a.f:E7= orf".

Obtener la fgm de una variable aleatoria que tiene una distribucin geomtrica.
Posee esta distribucin una propiedad reproductiva bajo la adicin?
10.17.

10.18. Si la variable aleatoria X tiene una fgm dada por Mx(r)


desviacin estndar de X.

= 3/(3- 1), obtener

la

10.19. Encontrar la fgm de una variable aleatoria que est distribuida uniformemente
en ( -1,2).
10.20. Cieno prooeso industrial produoe un gran nmero de cilindros de aoero cuyas
longitudes estn distribuidas normalmente con promedio 3,25 pulgadas y desviacin estndar 0,05 pulgada. Si se eligen al azar dos de tales cilindros y se ponen extremo con extremo,
cul es la probabilidad de que la longitud combinada sea menor de 6,60 pulgadas?
Observacin: al calcular MX{I), en 1 =O, puede aparecer una forma indeterminada. Es
decir, M.\-(0) puede ser de la forma 0/0. En tal caso debemos tratar de aplicar la regla de
L'Hopital. Por ejemplo, si X est distribuida uniformemente en [O, 1] encontramos fcilmente que Mx(1) = (e'- 1)/1 y Mx(l) = (te'- e'+ 1)/11 . Por tanto para 1 = O, MX(I) es
indeterminada. Aplicando la regla de L'Hopital, encontramos que lim1-o MX(1) = lim1-o
te'/21 = 1. Esto concuerda, puesto que M.\-(0) = E(X), que es igual a l para la variable
aleatoria descrita aqu.

11 .1

Conceptos bsicos

En este captulo investigaremos un rea creciente y muy importante en la cual


se aplican algunos de los conceptos presentados en los captulos anteriores.
Supngase que consideramos un componente (o un conjunto completo de
componentes armados en un sistema) que se pone bajo una especie de tensin.
Podra ser una barra de acero bajo una carga, un fusible puesto en un circuito.
un ala de aeroplano bajo la innuencia de fuerzas, o un instrumento electrnico
puesto en servicio. Supngase que puede definirse un estado que designaremos
como falla para cualquier componente (o el sistema). Es decir. la barra de
acero puede agrietarse o romperse, el fusible puede quemarse, el a la puede doblarse, o el instrumento electrnico puede dejar de funcionar.
Si tal componente se pone bajo condiciones de tensin a un tiempo determinado, t = O, y observamos hasta que falla {es decir, deja de funcionar correctamente bajo la tensin aplicada), el tiempo para fallar o la duracin llammoslo
T , puede considerarse como una variable aleatoria continua con una fdp f. Hay
mucha evidencia emprica para indicar que el valor de T no puede ser predicho
por un modelo determinstico. Es decir, componentes idnticos sometidos a
esfuerzos idnticos fallarn en tiempos diferentes e impredecibles. Algunos
fa llarn muy al comienzo de su servicio y otros en etapas posteriores. Natura lmente, que la manera de fallar depender del tipo de artculo que se considera. Por ejemplo, un fusible fallar de improviso en el sentido de que en un momento dado funciona perfectamente y al momento siguiente no funciona. Por
otra parte. una barra de acero bajo una carga pesada se debilitar probablemente en el trascurso de un perodo largo de tiempo. En cualquier caso, el uso
de un modelo probabilstico. considerando T como una variable aleatoria. parece ser el nico enfoque realista. Presentamos ahora el siguiente concepto importante.
Definicin. La cotfiabilidad de una componente (o sistema) en el tiempo l.
llammosla R(r), est definida como R(r) = P(T > t), en donde T es la
duracin de la componente. R se llama .fimcin de cotfiabilidad.
Observacin: aunque el trmino <<cOI!fiabilitlad tiene muchos significados tcnicos direrentes, la acepcin anterior se est aoeptando m~s comnmente. La definicin dada aqu
233

234

Apllcocione; u la feorla de la cooOabllldad

11.1

expresa sencillamente que la conriabilidad de una componente es igual a la probabilidad de


que la componente no falle durante el intervalo (0.1 J{o, equivalentemente, la conriabilidad e;
igual a la probabilidad de que la componente est an funcionando despus de un tiempo 1).
Por ejemplo. si para un artculo particular, R(t,) ~ 0,90 esto signirica que aproximadamente
el 90 por ciento de tales artculos, usados en ciertas condiciones, estarn todava funcionando
despus de un tiempo 11
Med1ante la fdp de T. llammosla f. tenemos
R(t)

= J:

11.1

Demostracin: puesto que R(t)


Z(t)

' Zi~) ds =
r.o

Mediante la fda de T. llammosla F. tenemos

f(t)
l - F(t)

= f(t)

R(t)'

( ll.l)

Observaci11: a fin de interpretar Z(t) consideremos la probabilidad condicional

+ tiT> 1),

+ t iT>

t)..
~

'

f(x)dxj P(T > t)

= tf(~)/R(t)..

Teorema 11. l. Si T, el tiempo para fallar, es una variable aleatoria continua con fdp f y si F(O) = O en donde F es la fda de T, entonces f puede
expresarse mediante la tasa de falla Z como sigue

= Z(t)e - J~ZflU

R'(t).

R(l)

i'

-R'(s) ds = -

o R(~

1nR(~llo

l nR(O) = - 1nR(r).

f(l) = F'(1) =

!!_ [1 - R(l}] = Z(l}e

ZI14

di

!!$

finito. entonces
E(T) =

Jg

( 11.3)

R(1)d1.

Dl'mosl racin: considerando

Jo R(l)dl = J,; [J,"' f(s)ds]cll.

en donde t S ~ 5: 1 + l .
La ltima expres1n (para un l pequeno y suponiendo que fes continua t) es aproximadamente igual a tZ(t). Asi, en un lenguaJe informal tZ(I) representa la proporcin de artculos
que estar entre 1 y 1 + 61, entre aquellos anculos que an funcionan en el instante t.
De lo anterior observamos que f. la fdp de T, determina unvocamente la tasa de fallas Z.
Indicaremos ahora que lo recproco tambin es vlido: la tasa de fallas Z determina univocamente la fdp f

f(t)

= -

Luego

P(t < T 5: t + t)
P(T> t)

J:

(1)
R(t)

dado que hay 1nR(O) = O lo que es vlido si y slo si R(O) - J. [Esta ltima condicin se satisface si F(O) = O. Simplemente expresa que la probabilidad de una
falla inicial es igual a cero~ haremos esta suposicin durante el resto de la exposicin.] Por tanto

Tcorl'ma 11.2. Si E(T)

es decir, la probabilidad de que el articulo falle durante las prximas l unidades de tiempo,
dado que el artculo est funcionando correctamente en el instante 1. Aplicando la definicin
de probabilidad condicional, podemos escribir lo anterior como
P(t $ T$ t

- j (t).

As hemos demostrado que la tasa de fallas Z determina unvocamente la fdp f.


Existe una relacin interesante entre la funcin de conliabilidad R y el tiempo
promedio de fa lla. E(T).

definida para F(t) < l.

P(t 5: TS t

= - F'(l) -

F(r).

Defmicin. La tasa de falla (instantnea) Z (algunas veces llamadas funcin


de riesgo) asociada con la variable aleatoria T est dada por

=j

= - 1nR(I) +
= 1-

Adems de la funcin confiabilidad R. otra funcin desempea un papel importante para describir las partes que fallan de un artculo.

Z(t)

F(t), tenemos R '(t)

Integrando ambos miembros de O a 1:

f(s)ds.

R(t) - 1 - P!T5: t)

= 1-

Luego

( 11.2)

Integrando por partes. hacemos J,' f(s) ds = u y clt = dt>. Luego t' - f(l) cit. As
R(t) di = ( s.~ f(s) ds 1 + J~ tf(t) cit.

y du -

I6

La segunda integral del segundo miembro representa E(T). Por tanto la demostracin est completa si podemos demostrar que IJ,"' f(s) ds se anula en 1 = O
y cuando t - oo. La anulacin en t = O es inmediata. Sabiendo que E(T) es finita. el lector puede completar la demostracin.
Los conceptos de confiabilidad y tasa de fallas estn entre las herramientas
necesarias ms importantes para un estudio de los modelos de falla. Brevemente vamos a ocuparnos de las siguientes preguntas:
(a) ,C:ules son las <~leyes de ralla fundamentales que razonablemente se
pueden suponer? (Es decir. (.qu forma tendra la fdp de T'!)

236

lll

Aplicaciones a la teoria de la conOabilidad

(b) Supngase que tenemos dos componentes, C, y C 2 , con leyes de falla


?conocidas. Suponiendo que dichas componentes se combinan en serie

La ley

11.3

o en paralelo
= 1 - -J-

foa

= 1 - <l>

J'

exp

-oo

2
-2 [l - )

LNuevamente observamos que el tiempo para fallar T , debe ser mayor que (o
igual) a cero. Por tanto, a fin de que el modelo anterior sea aplicable debemos
insistir en que P(T < O) sea forzosamente cero.] Como la forma de la fdp normal
lo ind ica, una ley normal de fallas implica que la mayor parte de los artculos
fallan alrededor del tiempo promedio de falla, E(T) = J.l y el nmero de fallas
disminuye (simtricamente) cuando IT - J.li aumenta. Una ley normal de fallas
significa que alrededor del 95,72 por ciento de las fallas tiene lugar para los valores
de t que satisfacen {t l lt - J.li < 2a}. (Ver figura 11.1.)
R(t)

I J1o- 21T

FiGURA 11.1

237

1.)

(- -[X-=J.1]2)
a
J

dx

La figura 11.2 muestra una curva general de confiabilidad para una ley normal
de fallas. Ntese que a fin de obtener una confiabilidad alta (0,90, o mayor) el
tiempo de operacin debe ser considerablemente menor que ., la duracin esperada.
EJEMPLO 11.1. Suponiendo que la duracin de una componente est d istribuida normalmente con una desviacin estndar igual a 10 (horas). Si la componente tiene una confiabilidad de 0.99 para un perodo de operacin de 100
horas, cul debera ser su duracin esperada?
La ecuacin anterior se transforma en

0,99 = 1 - <l>

(' 001~ J.I)-

De las tablas de la distribucin normal (lOO - .)/ 1O = - 2,33. Luego J.1 = 123,3
horas.
La ley normal de fallas representa un modelo apropiado para los componentes en los cuales la falla se debe a a lgunos efectos de uso. Sin embargo, no est
entre las ms importantes leyes de fallas que existen.
l 1.3 i.a ley exponencial de fallas
Una de las leyes de fallas ms importantes es aquella cuyo tiempo para fallar
se describe mediante una distribucin exponencial. Podemos describirla de varias
maneras, pero probablemente la manera ms sencilla es suponer que la tasa de
fallas es constante. Es decir, Z(t) = a. Una consecuencia inmediata de esta suposicin es, segn la ecuacin (11.2), que la fdp asociada con el tiempo para fallar
T , est dada por
f(t) = ~Xe- ",
t > O.
El recproco es tamb in inmediato: si f tiene la forma anterior, R(l) = 1 - F(t)
= e- y por tanto Z(t) = f(t)/ R(c) = IX. Luego tenemos el siguiente resu ltado
importante.

Pf

1=1'

(1111~

(t ~ Jl)-

11 .2 La ley normal de fallas


Hay muchos tipos de componentes cuya conducta de falla puede representarse por la distribucin normal. Es decir, T es la duracin de un artculo, su fdp
est dada por
1 exp ( 1 - a -.]
f(t) = foa

de

La funcin de confiabilidad de la ley normal de fallas puede expresarse mediante la funcin de distribucin ormal acumu lat iva tabulada <1>, como sigue:

R(t) = P(T > t) = 1 - P(T

para formar un sistema, cul es la ley de fa llas (o confiabilidad), del sistema'!


La pregunta cul es una ley de fa llas razonable nos devuelve a un problema
que hemos presentado antes: cul es un modelo matemtico razonable para la
descripcin de algunos fenmenos observables? Desde un punto de vista estrictamente matemtico, prcticamente podemos supone.r cualquier fdp para T y
luego estudiar sencillamente las consecuencias de esta suposicin. Sin embargo,
si estamos interesados en tener un modelo que represente (tan exactamente como
sea posible) los datos de fallas realmente disponib les, nuestra eleccin del modelo debe tener esto en cuenta.

~XIKMicnclal

t - 1' + 2a

fiGURA IJ.2

Teorema 11.3. Sea T, el tiempo para fallar, una variab le aleatoria continua que toma todos los valores no negativos. Luego T tiene una distribucin exponencial si y slo si tiene una tasa constante de fallas.

Z3ll

11.3

Aplicuci<IIICS la teorla d< la conOobildod

Observacirr: la suposicin de que una tasa constante de fallas puede ser interpretada como
una indicacin de que despus de que el artcu lo ha sido usado, su probabi lidad de fallar no
ha cambiado. Dicho de una manera ms informal, no hay efecto de <<uSO cuando se estipula
el modelo exponencial. Existe otra manera de expresar esto que hace esta parte an ms
evidente.
Considrese para Al > O, P(t ~ T ~ 1 + AtiT > t). Esta representa la probabilidad de que
el artculo falle durante las prximas Al unidades, dado que no ha fallado en el instante 1.
Aplicando la definicin de probabi lidad condicional, encontramos que
P(t $ T $

e+

AtiT > t)

e_.,, -

+ AtiT > 1) =

1 - [ 1 - aAc

= aAc

= 1- e .

l
+ - - - - - + ..
(a6t)

2!

(C!Ar)

pieza de acero est expuesta a una tensin continua, evidentemente s ufrir un


deterioro, y por tanto se debe considerar un modelo distinto al exponencial.
Aunque previamente discutimos las distintas propiedades de la distribucin
exponencial, resummosla nuevamente alinde tenerlas disponibles para el objetivo
siguiente. (Ver la figura 11.3.) Si T, el tiempo para fallar, est distribuido exponencialmente (con parmetro a), tenemos
E(T) = 1/ !X;

V(T) = l /a 2 ;

+ I!(At).

Para muchos tipos de componentes la hiptesis que conduce a la ley exponencial de fallas no es s lo intuitivamente a tractiva sino que en realidad est
sostenida por evidencia emprica. Por ejemplo, es muy razonable suponer que
un fusible o un cojinete de rubes es tan bueno como nuevo mientras est funcionando. Es decir, si el fusible no se ha fundido, prcticamente est como nuevo.
Tampoco e l cojinete cambiar mucho debido a l uso. En estos casos, la ley exponencial de fallas representa un modelo apropiado para estudiar las caractersticas que fallan en un artculo.
Sin embargo, debemos dar aqu una palabra de precaucin. Hay muchas
situaciones que implican estudios de fallas para los cuales las h iptesis bsicas
que conducen a una ley exponencial no sern satisfechas. Por ejemplo. si una
R(t)

F(l)

F(t) = P(T s; t) = L -e- ';

R(t) =

e-.

EJEMPLO 11.2. Si se da el parmetro !X y se .especifica R(t), podemos encontrar


t , el nmero de horas, de operacin. As, si a = 0,01 y R(t) es igual a 0,90. tenemos

0,90 = e- o.otr
Luego 1 = - 100 In (0,90) = 10,54 horas. Por tanto, si las 100 componentes funcionan durante 10,54 horas, aproximadamente 90 no fallarn durante ese periodo.

3!

en donde /r(At) llega a ser despreciable para Ar pequeo. Luego para !!.e suficientemente pequeo
la probabilidad anterior es directamente proporcional a 61.

/{1)

23Y

e - a(t+.(lt)

Por tanto esta probabilidad condicional es independiente de t y slo depende de Al. Es en este
sentido que podemos decir que una ley exponencial de fallas implica que la, probabilidad de
fallar es independiente del pasado. Es decir, mientras el artculo funcione es <<tan bueno como
nuevo.
Si desarrollamos el segundo miembro de la expresin anterior en una serie de Maclaurin
obtenemos
P(t < T< t
-

La ley cxwncnclal de fallo'

11.3

Observaciones: (a) Es muy importante darse cuenta de que en el caso excepcional podemos
identificar el tiempo de operacin (de algn valor inicial arbitrario lijo) con la edad para funcionar. Porque en el caso exponencial un artculo que no ha fallado es tan bueno como nuPvo
y, por tanto, su conducta durante cualquier perodo de servicio depende slo de la longitud
de ese perodo y no de su historia anterior. Sin embargo, cuando se supone una ley de falla no
exponencial (tal como la ley normal o una de las distribuciones que consideraremos en breve),
la historia pasada no tiene efecto sobre el comportamiento del artculo. Por tanto. mientras
podamos definir Tcomo el tiempo en servicio (hasta la falla) para el caso exponencial, debemos
definir Tcomo la duracin total hasta la falla para los casos no exponenciales.
(b) La distribucin exponencial que hemos presentado en relacin con la duracin de los
componentes, tiene muchas otras aplicaciones importantes. En realidad, cada vez que una
variable aleatoria continua Tque toma valores no negativos satisface la hiptesis P(T > s +
tiT > s) = P(T > 1) para todo s y t, entonces T tendr una distribucin exponencial. As, si T
representa el tiempo que demo:ra un tomo radiactivo en desintegrarse, podemos suponer que
T est distribuida exponencialmente, puesto que la suposicin anterior parece satisfacerse.
EJEMPLO 1 1.3. No es irrazonable suponer que cuesta ms producir un artcu lo
con una gran duracin esperada que uno con una esperanza pequea de duracin.
Especficamente suponemos que el costo C para producir un artculo es la siguiente
funcin de ., el tiempo promedio para fallar,

Supngase que se obtiene una utilidad de D pesos por cada hora que el artculo
funcione. Luego la utilidad por artculo est dada por
FIOURA 11.3

24()

\rolkuciuu' :o tu tcnrln d In cunfiuhilldad

''"'

en donde Tes el nmero de horas que el arth:ulo funciona correctamente. Luego la


util idad esperada est dada por

La ley exporwncial de fallas y la dl>1rlbucln de Pol<sOn

11.4

con parmetro o:t. Supngase que la falla en [0, t] se produce si y slo si al menos
uno de tales accidentes ocurre. Sea Tel tiempo para fallar, que supondremos que es
una variable aleatoria continua. Luego,
F(l)

Para encontrar para qu valor de 11 esta cantidad es mxima, sencillamente


hacemos dE(P)jd1 igual a cero y resolvemos para Jt. El resu ltado es 11 = D/ 6 y por
tanto la utilidad esperada mxima por artcu lo es igua l E(P),.., = D 2/ 12.
EJEMPLO 11.4. Reconsideremos el ejemplo 11.3. haciendo las suposiciones
adicionales siguientes. Supngase que T, el tiempo para fallar, est distribuido
exponencialmente con parmetro :;x. Luego 11. el tiempo esperado pa ra fa lla r.
est dado por JI = 1/<X. Supngase, adems, que si el artculo no funciona correctamente al menos un nmero especfico de horas, digamos c0 , se fija un castigo de
K(c 0 - T) pesos. en donde T(T < 10) es el tiempo en el cual tiene lugar la falla.
Por tanto. la utilidad por artcu lo estit dada por
s1

= DT - 3tl2 - K(to -

= DJ't0 C'Y.e- "dc -

s1

T < co.

31 2 r:- "

+ (D + K)J c:;xe-"dc -

F(t)

E(P) = D1 - 3t 2 + K[ll -

111! - roiP -

J.

eo

Ntese que si K = O. esto se reduce a l resultado obtenido en el ejemplo 11.3.


Podramos formularnos una pregunta anloga a la que apareci en el ejemplo
previo: para qu va lor de JI toma E(P) su valor mximo? No proseguiremos con
los detalles de este problema puesto que implica la solucin de una ecuacin
trascendenta l que debe resolverse numricamente.

1 - P(X, = O)

1-

e.

Esto representa la fda de una ley exponencial de fallas. Encontrarnos as que la


Las ideas anteriores se pueden generalizar de dos maneras.
(a) Nuevamente suponemos que los accidentes aparecen de acuerdo con un
proceso de Poisson. Suponemos, adems, que cada vez que aparece tal accidente
hay una probabilidad constante p de que no producir fallas. Por tanto. si Tes el
tiempo para fallar, tenemos, corno antes,
P(T~

e)= 1 - P(T > t).

Esta vez, T > 1 si y slo si (durante [0, 1)) no ocurre n ingn accidente. u ocurre un
accidente y ninguna falla aparece, o dos accidentes ocurren y no aparece ninguna
falla, o. . . Por tanto.

+ Kr0)( 1 - e").

Despus de unas integraciones inmediatas lo anterior puede escribirse como

1 - (P(T > t).

causa anterior de las fallas implica una ley exponencial de fallas.

F(t) = 1 -

(3JI 2

F(t) =

Luego la uti lidad esperada (por articulo) puede expresarse como


E(P)

= P(T~ 1) =

Ahora T > t si y slo si ningn accidente ocurre en [0, t]. Esto acontece si y slo
si X, = O. Luego

T>co.
7)

241

1-

[e- + (at)e-"'p + (o:1) e;; p


2

e ~ (o:lp)k =
k sO

k!

l -

e-"'e'P =

+ ]
1-

e-< 1- P>.

Luego Ttiene una ley exponencial de fallas con parmetro IX(I - p). (Ntese que
si p = O, tenemos el caso expuesto previamente.)
(b) Supngase nuevamente que los accidentes aparecen de acuerdo con un
proceso de Poisson. Esta vez supondremos que las fallas ocurren cada vez que ro
ms accidentes (~ 1) ocur ren durante un intervalo de longitud l. Por tanto, si
Tes el tiempo para fallar, tenemos, como antes,
F(t) = 1- P(T > 1).

11.4 La ley exponencial de fallas y la distribucin de Poisson


Hay una conexin muy prxima entre la ley exponencial de fallas descrita en la
seccin previa y un proceso de Poisson. Supngase que la falla ocurre debido a la
aparicin de ciertos accidentes aleatorios. Estos pueden c\eberse a fuerzas
externas tales como una repentina rfaga de viento o un aumento de voltaje o por
causas internas tales corno una desintegracin qumica o un mal funcionamiento
mecnico. Sea X, el nmero de accidentes que ocurren en un intervalo de tiempo
de longitud e y supongamos que X,, 1 ;a O. determina un proce~o de Poisson. Es
decir. para cualquier t fijo, la variable aleatoria X, tiene una distribucin de Poisson

En este caso. T > 1 si y slo si (r - 1) o menos accidentes ocurren. Por tanto


F(c) = 1 -

r - 1 (o:lle- '

L:

ho

~-=-

k!

De acuerdo con la ecuacin (9.17) lo anterior es igual a .fb [o:/(r - 1) !) (o:s)'" 1 e -~ds
y por tanto representa la fda de una distribucin Gama. As, encontramos que la
causa anterior de fallas sigue una ley Gama de fallas. (Si r = 1, naturalmente, esta
se transforma en una distribucin exponencial.)

242

Allcdon'' la lrHri de 1 tiNollobllldod

11 .5

la ley de fallas de Weisbull

11 .~

Modifiquemos la nocin de tasa constante de fallas que condujo a la ley exponencial de fallas. Supngase que la tasa de fallas Z. asociada con T. la duracin
de un artculo. tiene la forma siguiente:
Z(l) = ('X{I)I- - 1

e "'

> o. 'X. p >o

( 11.5)

Se dice que la variable aleatoria que tiene la fdp dada por la ecuacin (11.5) tiene
una distribucin de Weisbu/1. La figura 11.4 muestra la fdp para rx = 1 y fl = 1. 2. 3.
La funcin de confiabihdad R est dada por R(t) = e ' que es una funcin decreciente de 1.
f(t)

E(T)=rx - "rG+ 1).

FIGURA 11.4

1,2

Obseroocin . la distribucin exponencial e' un caso especial de distribucin de Wcisbull


puesto que obtenemo; la distribuCIn exponencoal si hacemos (1 = 1 en la ecuac1n ( 11.4).
La suposicin (ecuacin 11.4) establece que .Z(t) no es una constante. sino que es proporcional
a ias potenc~as de 1. Por eJemplo. si (1
2. Z e' una runcin lineal de t: si{/ = 3. es una (uncin
cuadrtica de 1: etc. Luego Z C'> una runc1n crecente. decreciente o constante de 1. segn el
valor de /1. como se md1c6 en la figura 11 .5.

Z(t)

Z{t)

Z{t)

Demostracin : ver el problema 1 1.8.


Observacin: la distribucin de Weisbull representa un modelo apropiado para una ley
de ralla siempre qu,e el sistema est compuesto por cierto nmero de componentes y la ralla se
debe principalmente al de recto ms grave en un gran nmero dederectos del sistema. Tambin
utilizando la distribucin de W.eisbull, podemos obtener una tasa de rallas creciente y decreciente al hacer sencillamente una eleccin apropiada del parmetro {1.
En ningn caso hemos agotado el nmero de leyes de ralla razonables. Sin embargo. las
que hemos mencionado son por cierto extremadamente importantes para representar modelos
significativos para e l estudio de las caractersticas que rallan en componentes o en SIStemas de
componentes.
Confiabildad de los sistemas

Ahora que hemos considerado un nmero importante de distribuciones de


fallas podemos volver a la segunda pregunta propuesta en la seccin 11.1 : cmo
podemos evaluar la confia bilidad de un sistema si conocemos la confiabilidad de
sus componentes? Este puede ser un problema muy difici l y s lo discutiremos un
caso ms sencillo (pero relativamente importante).
Supngase que las dos componentes estn acopladas en serie.

Esto significa que, para que el sistemu anterior funcione, ambas componentes deben
funcionar. Si, adems, suponemos que las componentes funcionen independietlle
mellle, debemos conocer la confiabilidad del sistema, llammos1o R(t), mediante la
confiabilidad de las componentes, llammoslo R 1(1) y R 2(1). como sigue:
R(l) = P(T > 1)

(en donde Tes el tiempo para fallar del sistema)

= P(T1 > t y T2 > 1)

= P(T

fJ 1
Z es conManlc

0</J<I
Z

CS CfCCICnlc

FIGURA 11.5

Z es decreciente

( 11.6)

( 11.7)

11.6

0.8

243

Teorema 11.4. Si la variable aleatoria T tiene una distribucin de Weisbull


con fdp dada por la ecuacin (11.5). tenemos

(11.4)

en donde 'X y fi son constantes positivas. De la ecuacin ( 11.2) obtenemos la expresin


siguiente para la fdp de T;
/(t) - (rx/{)1-

C'unllbllld11d de lu' ,l,tcnu"

ll.h

(en donde T 1 y T2 son los tiempos para fallar de


los componentes e 1 y e2 respectivamente)

> 1)P(T2 > 1) = R 1(t)Rl(t).

Encontramos as que R(l) s min [R 1(1). R 2 (t)]. Es decir, para un sistema formado
por dos componentes independientes en serie, la confiabilidad del sistema es menor
que la confiabilidad de cualquiera de sus partes.
La presentacin anterior puede generalizarse naturalmente a n componen tes
y obtenemos el teorema siguiente.

244

i\pllcl'lullc' 1 teorlu de 1 conlloblltd1d

1t.tl

Teorema 11.5. Si n componentes, que funcionan independientemente, estn


conectadas en serie, y si la i-sima componente tiene confiabilidad R(t).
la confiabilidad del sistema completo. R(t), est dada por
R(t) = R 1(1) R 2 (t) R.(t).
:~Ct

( ll.KI

En particular, si T 1 y T 2 tienen leyes de falla exponenciales con parmetros


y IXz, la ecuacin (11.8) se transforma en

11.6

Otro sistema importante es un sistema en paralelo en el cual las componente>


.:stn conectadas de tal manera que el sistema deja de funcionar slo si todas la~
componentes dejan de funcionar. Si slo do< componentes estn implicadas. el
,istema puede dibujarse como en la figura 11.6. Nuevamente suponiendo que lacomponentes funcionan independientemenre unas de otras, la confiabilidad del
)istema. llammosla R(t), puede expresarse mediante la confiabilidad de las componentes, R 1(r) y R 2(r). como sigue:
R(l)

= P(T > 1) =

1-

= 1-

Luego la fdp del tiempo para fallas del sistema. llammoslo T, es dado por

P(T~ 1)

P[T1 ~ t y T2 ~ t]

1 - P(T1 ~ t)P(Tz ;s; r)

= 1-

As hemos establecido el resultado siguiente.

Teorema 11.6. Si dos componentes que funcionan independientemente y


tienen leyes de falla exponencial con parmetros 1X 1 y IXz estn conectadas
en serie, la ley de falla del sistema resultante es nuevamente exponencial
con parmetro igual a IX + cx 2
(Este teorema evidentemente puede generalizarse a n componentes en serie.)
EJilMl'LO 11.5. (Tomado de l. Bazovsky, Reliability Theory and Prac1ice,
Prentice-1-lall, lnc., Englewood Cliffs, N. J.. 1961.) Se considera un circuito electrnico que consta de 4 transistores de silicona, 1O diodos de silicona, 20 resistencias
compuestas, y JO condensadores de cermica en una operacin continua en serie.
Suponiendo que bajo ciertas condiciones de esfuerzo (es decir, voltaje prefijado,
corriente y temperatura), cada uno de esos artculos tiene la siguiente tasa constante de fallas.
diodos de silicona:

0,000002

transistores de silicona:

0.00001

resistencias compuestas:

0,000001

condensadores de cermica:

0,000002

+ 4(0,00001) + 20(0.000001) + 10(0,000002)

P(T1

> t}][l - P(T2 > t)]}

1 - (1 - R 1(t}][l - R 2(1))

= R 1 (t)

+ R2(t)-

R,(r)R 2 (t).

La ltima frmula indica que R(l);;:: mximo [R 1 (1). R 2 (t)]. Es decir. un sistema
compuesto por dos componentes que funcionan independientemente en paralelo
ser ms confiable que cualquiera de las componentes.

FtOURA

11.6

Todas las ideas presentadas anteriormente para dos componentes pueden generalizarse en el teorema siguiente.
Teorema 11.7. Si n componentes que funcionan independientemente actan
en paralelo. y si la i-sima componente tiene confiabilidad R(t). entonces,
la confiabilidad del sistema. llamada R(t), est dada por

Debido a la tasa constante de fallas supuesta, la distribucin exponencial representa


la ley de falla para cada una de las componentes anteriores. Debido a la conexin
en serie, el tiempo para fallar del circuito completo est de nuevo distribuido
exponencialmente con parmetro (tasa de falla) igual a:
10(0,000002)

{(1 -

R(t) = 1 - (1 - R1(1)] [1 - R 2(1)] (1 - R.(t)].

A menudo sucede que todas las componentes tienen igual con fiabilidad. digamos
que R~t) = r(r) para todo i. En este caso la expresin anterior se transforma en
R(l)

= 0,0001.

Por tanto la confiabilidad del circuito est dada por R(t) = e- 0 0001 '. Luego, para
un perodo de 10 horas del funcionamiento. la probabilidad de que el circuito no
falle est dada por e- 0 0001110 > = 0,999. El tiempo esperado para que el circuito
falle es igual a 1/0.0001 = 10.000 horas.

(11.9)

1 - [1 - r(1))".

(11.10)

Consideremos. en particular. dos componentes en paralelo. cada uno de ellos con


tiempo de falla distribuido exponencialmente. Luego,
R(t) = R(t)

+ R 2(t)-

R 1(t)R 2 (t) =

e- ' + e-,, - e- 1 +" 1'.

24()

ll.h

Apliccion<"> a la eeora d 1 ronfiablidud

As la fdp del tiempo de falla del sistema en paralelo. llammoslo T. est dada por

= :x.e- + :x 2e

f(t) = - R'(t)

' '' - (:x 1

+ :x 2)e- 1' ' +>1'.

Por tanto Tno est distribuido exponencialmente. El valor esperado de Tes igual a:
1

E(T) = IX

+ -1.X2

(al

I.X+IX2

Por cuanto a menudo una serie de operaciones es obligatoria (es decir. un nmero
de componentes debe funcionar para que el sistema funcione). frecuentemente
usamos una operacin en paralelo a fin de aumentar la confiabilidad del sistema.
El ejemplo siguiente ilustra esta parte.
EJEMPLO 11.6. Supongamos que tres unidad es estn trabajando en paralelo.
Sup ngase que cada una tiene la misma tasa constante de fa llas a = 0,01. (Es decir,
el tiempo para fallar de cada una de las unidades est distribuido exponencialmente
con parmetro a = 0,01.) Por tanto, la confiabilidad para cada una de las unidades
es R(t) = e- 0 011 , y as la confiabilidad en un perodo de operacin de 10 horas
es igual a e- 0 1 = 0,905 o alrededor del 90 por ciento. Cunta ventaJa puede
obtenerse (mediante el aumento de la confiabilidad) al funcionar tres de tales unidades en paralelo?

lb) Paralelas en serie

Serie' en pnrillclo
FIGUKA

11 .8

sencillamente nombraremos solo alguna~. (Ver la figura 11.8.) Algunas de las


preguntas que aparecen e n relacin con esas combinaciones se considerarn en los
problemas al fi'lal del captulo.
(a) Series en paralelo. (Consideramos aqu grupos de componentes en paralelo
como en un circuito que tiene. por O.:Jcmplo. m componentes en serie cada
uno.)
(b) Paralelas en serie.
(e) Sistema sostcmdo. Consideramo~ aqu dos componentes de las cuales la
segunda componente se mantiene y funciona s y slo '' la prm~ra
componente falla. En c'tc ca~o. la s.:gunda componente es rcquenda (mstantneamente) y funciona en el lugar de la primera componente.
Expongamos brevemente el concepto de .factor de seguridad. Supngase que la
fuerza S aplicada a una estructura se consilh:ro.: como una variab le aleatoria (continua). Anlogamente. la resistencia de la estructura. llammosla R. se puede considerar tambin como una variable aleatoria continua. Definamos el factor de
seguridad de la estructura como la razn de R a S.

R(t)

T= R S.
S R y S son varsblcs aleatorias ndcpo.:ndientes con fdp y y Ir respectivamente,
entonces la fdp de Tcstil dada por
lO 50

100

200

300

400

FIGURA

11.7

La confiabilidad de tres unidades que funcionan en paralelo durante 10 horas


sera
R(lO) = 1 - [1 - 0,905) 3 = 1 - 0,00086
= 0,99914,

o alrededor del 99,9 por ciento.

En la figura 11.7 vemos las curvas de confiabil idad de la unidad nica versus las
tres unidades en paralelo. Para la unidad sola, R(t) = e -. mientras que para las
tres unidades en paralelo, R(t) = 1 - (1 - 1! ") 3 con :x = 0.0 l.
Hemos considerado. hasta ahora. slo las maneras ms sencillas para combinar
unidades individuales en un sistema. llamadas operaciones en serie y en paralelo
de las componentes. Hay muchas otras maneras de combinar componentes. y

.f(t)

=Jo' y(ts)h(s)s tls.

(Ver el teorema 6.5.) La estructura fallaril si S > R. es decir. s T < l. Por tanto la
probabilidad de fallar P, = Jj(t)dt.

PROBLEMAS
11.1. Supngase que T. el tiempo para rallar. de un artculo est distnbuedo nor~almente
con E(T) = 90 horas y desviacin estndar 5 hones. A fin de oblener una conliabldad de
0.90. 0.95. 0.99, cuntas horas de operacin deben considerarse?
11.2. Suponiendo que la duracin de un instrumento electrnico e:. distribuida exponen
cialmente. Se sabe que la conliabilidad del instrumento (para un perodo de operacin de 100
horas) es 0.90. Cunta~ horas de operacin deben considerarse para obtener una confiabilidad
de 0,95?

UK

A>licacione' a la tcoritrdt tu conliabilidad

11.3. Suponiendo que la duracin de un insuumento tiene una tasa constante de falla
y una tasa constante distinta
para r :2: r0 . Determinar la fdp de T. el
tiempo para falla r. y dibujarla.

eo para O < r < 10

e,

11.4. Supngase que la tasa de fallas Z est dada por


O < t < A.

Z(r) =O.

=c.

1 :2:

A.

(a) Encon trar la fdp asociada con T. el tiempo para fallar.


(b) Ca lcula r E(T).

11.5. Supon iendo que la ley de fallas de una componente tenga la sigu iente fdp:
1

>

o.

(a) ,Para qu valores de A y res la an terior una fdp'?


(b) Obtener una expresin para la funcin de confiabilidad y la fu ncin de riesgo.
(e) Demostrar que la funcin de riesgo es decreciente en 1.
11.6. Supngase que la ley de fallas de una componen te es una combinacin lineal de k
leyes exponenciales de fallas. Es decir.la fdp del tiem po para fallar est dada por

(a)
(b)
(e)
(d)

L 1 cf~e-M
J J

> o.

/1 >

(e) C(L,m)

11.7. Cada uno de los seis tubos de un eq uipo de radio tiene una duracin (en aos) que
puede considerarse una variable aleatoria. Supngase que esos tubos fu ncionan independientemente uno de otro. Cul es la probabilidad de que ningn tubo tenga que ser reemplazado
du rante los primeros dos meses de servicio si:

11.8.

~''. r

25 '.

> O?
r > O?

11.9. La duracin de un sa tlite es una variable a leatoria distribuida exponencialmente


con un t iempo de duracin esperado de 1.5 aos. Si tres satlites se lanzan simu ltneamente,
cu l es la probabilidad que a lo menos dos estarion an en rbita despus de 2 aos?

FtGURA

11.9

11.10. Tres componentes que funcionan mdependtentemcn te estn conectadas en un


sistema aislado como se indica en la figura 11 .9. Suponiendo q ue la confiabilidad de cada com1oncnte para un periodo de r horas de opera.:tn est dada por

= ('

O.OJt

m)

si L '2:. m.

= 2 si L < m,
= 5(L - m) si L '2:. m.

(En cada uno de los casos, dibuje un grfico de E(C) como funcin de m.)

Observaci11: evidentemente es una variable aleatoria puesto que es una funcin de L


que es una variable aleatoria. E(C) es una funcin de m. y el problema simplemente pide encontrar el valor de m que minimiza E(C). sujeta a la restriccin que m :2: 0.01.
11.13. Suponiendo que la tasa de fallas asociada con la duracin Tde un artcu lo est
dada por la funcin siguiente:
Z(t)

Demostrar el teorema 11.4.

R(t)

11.12. (Sacado de Derman and Klein, Probuhility a11d Statistical/if'erence. Oxford University Press, New York, 1959.) La duracin (Ll en meses de cierto tubo al vaco usado en un
equipo de radar est distribuida exponencialmente con parmetro /1 = 2. Al establecer su
programa preventivo de mantencin, una compaia desea decidir cuntos meses (m) despus
de la instalacin deberla remplazarse el tubo para minimizar el coste esperado por tubo.
El costo por tubo en dlares est denotado por C. El tiempo til ms corto empleado entre la
instalacin y la sustitucin es 0,01 mes. Obedeciendo a esta restriccin. ,qu valor de m minimiz
E( e), el costo esperado en cada una de las situaciones siguientes. en donde el costo e es la
funcin dada de L y m?
(a) e(L,m)=3IL - ml.
(b) C(L, m) = 3
si L < m.

= S(L -

o.

,Para qu valores de C es la an terior una fdp'/


Obtener una expresin para la funcin de confiabilidad y la funcin de riesgo.
Obtener una expresin del promedio del tiempo para fallar.
Responder (b) y (e) si /1 = /1 para todo j.

(a) La fdp del tiem po para fallar es.f(r) = SOte


(b) La fdp del tiempo para fallar esf(t) = 25re

11.11. Supngase que 11 componentes que estn funcionando independientemente son


conectadas en una agrupacin en serie. Suponiendo que el tiempo para fallar de cada una de
las componentes est distribuido normalmente con esperanza 50 horas y desviacin estndar
5 horas.
(a) Si n = 4. cul es la probabilidad de que el sistema funcione despus de 52 horas de
operacin?
(b) Sin componentes se conectan e11 paralelo. ,cul debera ser el valor de 11 a fin que la probabil idad de fallar durante las primeras 55 horas sea aproximadamente igual a 0.01?

(Esto implica que ninguna falla ocurre antes de T = A.)

f( t) =

Si Tes el tiempo para fallar del sistema completo (en horas). cutl es la fdp de T! ,Cu!I es la
confiabilidad del sistema?; cmo se compara con e- 0 03''!

O S 1 < 10 ,
= Co,
= C0 + C,(l - lo).

r '2:. 10 .

Observaci11 : sta representa otra generalizacin de la distribucin exponencial. Lo anterio1


reduce a una tasa constante de fallas (y por tanto a la distribucin exponencial) si C, = O
(a) Obtener la fdp de T, el tiempo para fallar.
(b) Obtener una expresin para la confabi lidad R(l) y dibujar su grfico.
11.14. Supngase que cada uno de tres instrumentos electrnicos tiene una ley de falla
dada por una distribucin exponencial con pariom~tros ., {1 2 , y /1 3 Supngase que los tres
instrumentos funcionan independientemente y estn conectados en paralelo para formar un
solo sistema.
(a) Obtener una expresin para R(1), la confiabilidad del sistema.
(b) Obtener una expresin para la fdp de T, el tiempo para fallar el sistema. Dibujar la fdp.
(e) Encontrar el promedio de tiempo para fallar del sistema.

250

l'ro~l'"'"

Aplkadon<' a la !<orla de la CIHIOabllldad

FIGURA

251

11.10

11.15. (a) Supngase que n componentes esl;in conectados en una agrupacin en serie.
Luego k de tales conexiones en serie se conectan en paralelo para formar un sistema completo.
(Ver la figura 11 .10.) Si cada una de las componentes tiene la misma con fiabilidad, R, para un
periodo determinado de operacin, encuentre una eKpresin para la conriabi lidad del sistema
completo (para ese mismo periodo de operaciones).
(b) Supngase que cada una de las componentes anteriores sigue una ley exponencial de
fallas con tasa de falla 0,05. Supngase adems que el tiempo de operacin es 10 horas y que
n = 5. Determinar el valor de k a fin de que la confiab1hdad del sislema completo sea igual a

0,99.

11.16. Supngase que k componentes estn conectados en paralelo. Luego n de tales


conexiones en paralelo son unidas en serie en un solo sistema. (Ver la figura 11.11.) Responder
(a) y (b) del problema 11.15 para esta situacin.

(b)

FIGURA ) 1.1 :!

los casos. [Indicacin: en el segundo caso (figura 11.12 (b)), use consideraciones de probabilidad condicional:)

11.20. Si todas las componentes considerada' en el problema 11.19 tienen la m1sm tasa
constante de fallas A, obtenga una expresin para la confiabilidad R(l) del sistema 1nd1cado
en la figura 11.12 (b). Tambin encontrar el tiempo medio para que falle este sistema.
11.2 1. La componente A tiene una confiabilidad 0,9 cuando se utiliza con un propsito
par11cular. La componente 8 que puede usarse en lugar de la componente A. tiene una confiabilidad de slo 0,75, cul es el nmero mimmo de componentes del tipo B que tendran que
concretarse en paralelo a fin de obtener la confiabilidad que la componente A tiene por s
misma?
11 .22. Supngase que dos componentes que funcionan independientemente, cada una
con la misma tasa constante de falla estn conectadas en para lelo. Si Teltiempo para fu llar del
sistema resultante. obtcng.1 la fgm de T. Tambin determinar E(T) y V(T), usando la fgm.

FIGURA

11.11

11.17. Supngase que n componentes, que tienen cada una la misma tasa constante de
fallas A, estn conectadas en paralelo. Encontrar una expres1n para el tiempo promedio para
fallar del sistema resultante.
11.18. (a) Un sistema de propulsin areo consta de tres motores. Supngase que la tasa
constante de fallas para cada uno de los motores es A .. 0,0005 y que los motores fallan inde>
pendientemente uno de otro. Los motores estn conectados en para lelo,cui1l es la confiabilidad
de este sistema de propulsin para una misin que necesita 10 horas si al menos dos motores
deben resistir?
(b) Responder la pregunta anterior para una misin que necesita 100 horas; 1000 horas.
(Este problema sugerido por una exposicin en l. Bazovsky, Reliabili1y 7heory and Prac1ice.
Prentice- Hall, lnc., Englewood CliiTs, N. J., 1961.)
11.19. Consideremos las componentes A, A'. B. B' y C conectadas como se indica en las
figuras 1l. 12 (a) y (b). (La componente C puede pensarse que representa un ((seguro si ambas
A y B dejaran de funcionar.) Representando porRA, RA: R11, R11., y R~ las confiabilidades de las
componentes individuales (y suponiendo que las componentes funcionan independientemente
una de otra). obtener una expresin para la confiabilidad del sislema completo en cada uno de

11.23. Cada vez que hemos considerado un sistema formado por diversas componentes.
,iempre hemos supuesto que las componen~ funcionan independientemente una de otra.
Esta suposicin ha simplificado considerablemente nuestros clculos. Sin embargo, esto puede
no ser siempre una suposicin realista. En muchos casos es sabido que el comportamiento de
una componente puede afeet.ar el comportamiento de las otras. Esto es, en general, un problema
muy dificil para enfrentar, y slo consideraremos un caso especial aqu. Supongamos especficamente que dos componentes. e, y e, siempre fallan juntas. Es decir, falla e, si y slo si
falla C 2 Demostrar qu<' en este caso. P(C 1 falh1 y C 2 falla) = P(C, falle)= P(C 1 falle).

FIGURA 11. 13

11.24. Considren>e cuatro componentes C~o C1 , CJ y c. conectadas como se indic en


la figura 11.13. Suponiendo que las componentes funcionan independientemente una de otra
con la excepcin de e 1 y C 2 que siempre fallan Juntas como se describi en el problema 11.23.
Si T, el tiempo para fallar de la componente Cr. es distribuido exponencialmente con parmetro {1 1, obtener la confiabilidad R(t) del sistema completo. Obtener tambin la fdp de T, el
tiempo para fallar del sistema.
11.25. CoosidC:rese el mismo sistema tal como se describi en el problema 11.24, exceptuando esta ve:z que las componenles C, y CJ fallan juntas. Responder a las preguntas del
problema 11.24.

12

12.2

Sumas de variables aleatorias

lanzado, se aumenta, X. el nmero total de cohetes que fallan dividido por N.


debera converger de algn modo al nmero 0.05. Este importante resultado
puede indicarse ms precisamente como la ley de los grandes nmeros.
La ley de los grandes nmeros (forma de Bernoulli). Sea t un experimento y
sea A un suceso asociado con t. Considerando 11 repeticiones independientes de &. sea 11A el nmero de veces que ocurre A en las n repeticiones,
y ~ea fA = 11..;11. Sea P(A) = p (q~up~ igual para todas las re pe.:
ticiones.)
Luego para cualquier nmero positivo t , tenemos

12.1 Introduccin

Prob[IJA-

PI ~ t] ~

Prob(lf,.-

PI < E] ~ 1 - -;;E'
p(l - 2 p) .

p(l -; p)
llE

o. equivalente

En este captulo queremos precisar algo que hemos estado indicando a travs
del texto. Esto es, cuando el nmero de repeticiones de un experimento aumenta.
f A la frecuencia relativa de un suceso A, converge (en un sentido probabilstico
que describiremos) a la probabilidad terica P(A). Es este hecho lo que nos permite
identificar la frecuencia relativa de un suceso. basada en un gran nmero de
repeticiones, con la probabilidad del suceso.
Por ejemplo, si se produce un artculo nuevo y no tenemos conocimiento previo
acerca de qu tan probable es ese artcu lo defectuoso, podramos proceder a
inspeccionar un gran nmero de esos artculos, digamos N. contar el nmero
de artculos defectuosos entre ellos, sea " y luego usar nf N como una aproximacin para la probabilidad de que un artculo sea defectuoso. El nmero n/ N es
una variable alea toria y su valor esencialmente depende de dos cosas. Primero.
el valor n/ N depende de la probabilidad fundamental p (posiblemente desconocida) de que un artculo sea defectuoso. Segundo, 11/ N depende de los 11 artculos
que en partic11/ar hemos inspeccionado. Lo que demostraremos es que si el mtodo de elegir los N artculos es aleatorio. entonces el cociente nf N ser prximo a p (en un sentido que se va a describir). (Evidentemente, la eleccin aleatoria de los N artculos es importante. Si furamos a elegir slo esos artculos que
presentan alguna caracterstica lisica externa. por ejemplo, podramos prejuiciar
gravemente nuestro c:\lculo.)
12.2 La ley de los grandes nmeros
Con la ayuda de la desigualdad de Chebyshev (ecuacin 7.20). podemos
derivar el resultado citado anteriormente. Consideremos nuevamente un ejemplo. Supongamos que un cohete dingido tiene una probabilidad de 0.95 de
funcionar correctamente durante un cierto perodo de operaciones. As. si disparamos N cohetes que tienen la conliabilidad anterior, y si X es el nmero de
cohetes que no funcionan correctamente. tenemos E(X) = O,OSN, puesto que
podemos supqner que X est distribuida binomialmente. Es decir, esperaramos
que fallara alrededor de un cohete entre 20. Cuando N, el nmero de cohetes
252

( 12.1)

Demostracin: sea nA el nmero de veces que ocurre el suceso A. Esta es una


variable aleatoria distribuida binomialmente. Luego E(nA) - np y V(n,.) = np(1 p). Como fA = nAfn, luego E(j A) = p y V(JA) = p(l - p)f n.
Aplicando la desigualdad de Chebyshev a la variable aleatoria f A obtenemos

P[I!A - PI< kJp(l - p)] ~ 1-...!...

k2
ll

Sea e ~ k j p( 1 - p)f n. Luego k 2 = (n)/ (p(l - p)]. y as


p [ 1lj

A-

p1 <E)

- p)-
1 - p{J
-nt 1

Observaciones: (a) El resultado anterior puede establecerse en otras maneras alternas


equivalentes. Est claro que lo anterior implica inmediatamente que
lim P[lf,. - PI < E)= 1

para todo E > O.

En este sentido decimos que la frecuencia relativa f A converge>>a P(A).


(b) Es importante observar la diferencia entre la convergencta cttada antenonnente
(llamada convergencia en probabilidad) y el tipo de convergencia citada a menudo en clculo.
Cuando dectmos que r converge a cero cuando n -. > significa que para un 11 suficiente
mente grande 2 se transforma y permanece arbitrariamente prximo a cero. Cuando decimos
que fA = 11Aj11 converge a P(A) indicamos que la probabilidad del suceso

{lnAfn - P(A)! < E}


puede hacerse arbitrariamente prxima a uno tomando un 11 suficientemente grande.
(e) Se obtiene an otra forma de la ley de los grandes nmeros cuando nos formulamos
la siguiente pregunta. Cuntas repeticiones de e deberan hacerse a fin de tener una probabilidad de0,95 a lo menos, de que la frecuencia relativa difiera de p = P(A) en menos de 0,01?

12.2

Es dcc_ir, pura E 0,01 de>eamo~ escoger n de modo que - p(l - p)/[n(O,Ot)'] ~ 0,95.
Resolviendo para n obtenemos n ~ p(l - p)/(0,01) 2 (0,05). Sustituyendo Jos valores especficos
de 0,05 y 0,01 por; y E. respectivamente, tenemos
cuando

>

n-

1!15

que producen el promedio aritmtico X). De las propiedades de la esperanza y de la vananza


inmediatamente tenemos, E(X) = p y V(Jl) = a2 /n. Apliquemos la desigualdad de Chebyshev
a la variable aleatoria X:

p(l - p)
E l(i

Nuevamente debera msistirse en que tomando n ~ p(l- p)/E2 li no garamiza nada acerca
de lf,. - pj. Slo hace probable que 11.. - PI sea muy pequeo.
-

12.1. Cuntas veces habra que lanzar un dado regular a fin de


e~tar al menos 95 por ciento seguro de que la frecuencia relativa que salga un seis
d1ste 0,01 de la probabilidad terica !?
Aqu p = !. 1 - P = ~. E= 0.01 y 6 = 0,05. Luego de esta relacin encontramos que 11 2:: (!X~)/(0,01) 2(0,05) = 27.778.

Sea ka/Jn

Observaciot~es: (~) Recordemos que la ,. es una variable aleatoria y .no precisamente


un v~lor observado. S lanzamos ahora 27.778 veces un dado y luego calculamos la frecuencia
relatva ~ue su.lga un seis, este nmero dista o no 0,01 de 1/6. Lo importante del ejemplo anterior
es qu.e SI lanzara~os 27.778 veces un dado en cada una de 100 habitaciones. en 95 de las habnacone~ aproximadamente, la frecuencia relativa observada distaria 0.01 de 1/6.
(b) En mucho~ problemas no conocernos el valor de p = P(A) y por tanto no podemos
us~r. la cota antenor den. En ese caso podemos usar el hecho de que p(l - p) toma su valor
m~x 1 ~1o cuando P ~ ! y este valor mximo es igual a 1/ 4. As, ciertamente estaramos seguros
s mdcarnos que para , ~ I/4E2b tenemos

1 - ;;.

12.2. Algunos artculos se producen de tal manera que la probabl.ltdad de que un artculo sea defectuoso es p (supuesto desconocido). Un gran
numero de artculos, n, se clasifica como defectuosos o no defectuosos. Cul
debe ser el tam_a o de. n de modo que podamos estar el 99 por ciento seguros de
que la frecuenc1a relativa de los defectuosos se diferencia de p en menos de 0,05?
. Puesto que no sabemos el valor de p debemos aplicar la ltima forma estableCida de la _ley de los gra ndes nmeros. Luego con E = 0,05, 6 = 0,01 encontramos que SI 11 2:: 1/4(0,05) 2 (0,01) = 10.000, se satisface la condicin pedida.
Como. e~ nuestro. e!emplo en la desigualdad de Chebyshev, encontraremos que
un con~~~m1ento ad1c1onal acerca de la distribucin de probabilidades dar una
prop?S.ICIOn <meJorada>~. (Por ejemplo podramos tener un nmero pequeo de
repetiCIOnes Y todava hacer la misma proposicin referente a la proximidad
de fA a p.)
EJeMPLO

Obserraci : se puede obtener otra forma de la ley de los grandes nmeros como sigue.
Supongamos que X., ... ,x. son variables aleatorias distribuidas independientes e idnticamente con promedio y varianza finita. Sea E(X1) = p y V(X 1) = a 2 Definamos J? =
(1/n~(X + + X.). luego X es una runcin de X., . .. X llamado su promedio aritm~co y. ~r tanto, nuevamente es una variable aleatoria. (Estudiaremos esta variable aleatona con mas detalle en el captulo 13. Por el momento djgamos simplemente que podemos
pensar que X., ... , x. como medidas independientes de una caracterstjca numrica x.

= E. Luego k - Jn tfa y podemos escribir


P[IX

ElBMPLO

P[lr. - PI< E] ~

Apruximadn n<lrnllt a la di; ulbucltl biMntlal

t l ._l

- #Jl < E) ~ 1 -

ql

2
En

(122)

Cuando " - co el lado derecho de la desigualdad anterior se aproxima a uno. Esto en


el sentido en el cual el l?romed io aritmtico COnverge>> a E(X).

r,

ElBMPLO 12.3. Se prueba un gran nmero de tubos electrnicos. Sea


el
tiempo para fallar del i-simo tubo. Supngase, adems, que todos los tubos
provienen del mismo lote y que puede suponerse que todos estn distribuidos
exponencialmente con el mismo parmetro ce.
Luego E( T 1) = a- 1 Sea T = (T 1 + + T .)fn. La forma anterior de la ley
de los grandes nmeros dice que si n es muy grande, sera muy probable que el
valor obtenido para el promedio aritmtico de un gran nmero de tiempos de fallas
estuviera prximo a ce- 1

12.3

Aproximacin normal a la distribucin binomial

La ley de los grandes nmeros como se estableci anteriormente se relaciona


.:sencialmcnte con la variable aleatoria X distribuida binomialmente. X fue definida como el nmero de xitos en n repeticiones independientes de un experimento y necesitamos asociar simplemente xito con la ocurrencia del suceso A a fin de reconocer esta relacin. As el resultado anterior puede establecerse informalmente al decir que la frecuencia relativa de xito, X fn, converge
a la probabilidad de xo p, en el sentido indicado previamente, cuando el nmero de repeticiones del experimento se aumenta.
Sin embargo. saber que X/n ser prxima a p para un n grande, no nos
indica cmo se obtiene esta proximidad. A fin de investigar esto debemos estudiar la d istribucin de probabilidades de X cuando n es grande.
Por ejemplo, supngase que un proceso de fabricacin produce lavadoras.
de las cuales alrededor del 5 por ciento son defectuosas (es decir, muchas). Si
se inspeccionan 100 lavadoras, cul es la probabilidad de que menos de 4 sean
defectuosas?
Siendo X el nmero de lavadoras defectuosas encontradas, la ley de los grandes
nmeros nos dice simplemente que X/ 100 debera ser prximo a 0,05. Sin embargo, no nos indica cmo calcular la probabilidad deseada. El valor exacro
de esta probabilidad est dado por
P(X < 4) =Jo C~) (0,05)*(0.95)oo- *.

12.3

Esta probabilidad seria ms dificil de calcular directamente. Ya hemos estudiado un mtodo de aproximacin para las probabilidades binomiales, tal
como la aproximacin de Poisson. Consideraremos ahora otra aproximacin
importante para tales probabilidades que se aplica cada vez que 11 es suficientemente grande.
Considerando que P(X = k) = ()pk(l - p-t. Esta probabilidad depende de
11 de un modo muy complicado y no hay una indicacin evidente de lo que sucede a la expresin anterior si 11 es grande. A fin de investigar esta probabilidad.
TABLA

12.1

12..\

2..~7

Aproximacin IK)rmol la dl\lrlbudiMI lllnonlal

Finalmente puede demostrarse que para 11 grande,

P(X :::; k) = p [

:::::

X - np :::; k - 11p
jnp( l - p) ~ 1 - p)

1 J(t-p)/.JiiPfl-""pl

72n

e- '12 dt.

( 12.5)

->

As tenemos el siguiente resultado importante (conocido como la aproximacin


de DeMoivre-Laplace para la distribucin binomial):
Aproximacin normal a la distribucin binomial. Si X tiene una distribucin
binomial con parmetro n y p y si

n!

../in e- n"+om

Oirerencia

Direrencia
n!

X- np
Y = [np( 1 _ p)]l fl

1
2
120
(3,6288)10
(9,3326)10151

0.922
1.919
118,019
(3.5986)10
(9,3249)10'"

0,078
0.081
1,981
(0,0302) 106
(0.0077)10'"

0,08
0,04
0.02
0.008
0,0008

luego. para un 11 grande. Y tiene una distribucin N{O,I) aproximadamente


en el supuesto que lim.- 00 P( Y :::; y) = <l>(y). Esta aproximacin es vlida para valores de n > 10 suponiendo p prximo a l Si p es prximo
a O 1, 11 debera ser algo mayor para asegurar una buena aproximacin.

2
5
10
100

necesitamos usar la fmwla de Stirling, una aprox imacin muy conocida de 11!
Esta frmula establece que para un 11 grande,

Observaciones: (a) El resultado anterior no es slo de considerable inters terico sino


tambin de mucha importancia prctica. Indica que podemos usar la distribucin normal,
muy tabu lada. para calcular probabilidades que provienen de la distribucin binomial.
(b) En la tabla 12.2 la exactitud de la aproximacin {12.4) se demuestra para diversos
va lores de 11, k y fl.

( 12.3)
TABLA

en el supuesto de que lim.-..,(11!)/{.ji;e- ll+l/ 2) =l. {Una demostracin de


esta aproximacin puede encontrarse en muchos textos de clculo avanzado.)
La tabla 12.1 puede dar una idea al lector de la exactitud de esta aproximacin.
Esta tabla est tomada de W. Feller. Prohability Theory a11d lts App/iratio11s.
1." edicin. New York: John Wiley and Sons. lnc.. 1950.
Obsert>Ocin : aunque la dtrcrcncia entren! y 'u aproximacin llega a ser mayor cuandu
oo. lo importante de observar en la tabla 12.1 es que el porcentaje de error (la him
columna) llega a ser cada vez ms pequeo.

n--+

Usando la frmula de Stirling para Jo, diversos factoriales que aparecen en


la expresin de P(X = k), puede demostrar~e {despus de muchas operaciones).
que para un 11 grande.

P(X =k)=

(~)p*(l

- p)" - *

]2)

1
( 1 [ k - 11p
::::: )21t11p(l - p) exp - 2 jnp(1 - p)

{12.4)

11

= 8, p = 0.2

12.2

n = 8, p = 0,5

11 "'

25, p - 0,2

o
1
2
3
4
5
6
7
8
9
10
11

Aproximacin

Exacto

Aproximacin

Exacto

Aproximacin

Exacto

0,130
0,306
0.331
0,164
0.037
0.004
0+
0+
0+
0+
0+
0+

0,168
0.336
0.294
0,147
0.046
0.009
0.001
0+
0+
0+
0+
0+

0,005
0,030
0.104
0,220
0,282
0.220
0.104
0,030
0,005
0+
0+
0+

0,004
0,031
0.109
0,219
0,273
0.219
0.109
0,031
0,004
0+
0+
0+

0,009
0,027
0.065
0,121
0,176
0.199
0.176
0.121
0,065
0,027
0,009
0,002

0.004
0,024
0.071
0,136
0,187
0.196
0.163
0,111
0,062
0,029
0,012
0.004

Volviendo al ejemplo antenor, observamos que


E(X) = np = 100{0,05) = 5,
V(X) = np{1 - p) = 4,75.

12.1

Luego podemos escribir

l.l ICotl'"'" dl'l lltt1lt1 nntntl

t2.4

12.4

El teorema del limite cen tral

La aproximacin anterior representa slo un caso especial d~ un re~ul~ad?


general. A fin de verificar esto. recordemos que la variable ale~to~1a X dtst!tbutda binomialmente se puede representar como la s11ma de las s1gu1entes vartables
aleatorias independientes:

P(X S J) = p (O- 5 < X- 5 < 3- 5)

J 4,75- ) 4,75- J4,75

= <l>( -0.92) - <l>( - 2,3) = 0.168,


de las tablas de la distribucin normal.

X,= 1
=0

Observacin : al usar la aproximacin normal a la distribucin binomial, estamos aproxr


mando la distribucin de una variable aleatoria discreta con la distribucin de una variable
aleatoria continua. Por tanto hay que tener algn cuidado con los puntos extremos del intervalo
considerado. Por eJemplo. para una variable aleatoria continua, P(X = 3) = O, micntms que
para una variable aleatoria discreta esta probabilidad puede ser positiva.
Se ha encontrado que la siguiente correccitt para continuidad mejora la aproximacin
anterior:
(a) P(X =k) o. P(k -

S X S k

(b) P(a S X S b) o. P(a -

tS

+ i).

X S

t + b).

Usando esta ltima correccin para la evaluacin anterior de P(X


P(X S 3) - P(O $ X S 3)

= P( - 1 $

X$

3), tenemos

31)

"" <1>( - 0,69) - <1>( - 2,53) = 0,239.

E11lMPLO
12.4. Supngase que un sistema est formado por 100 componentes cada una de las cuales tiene una confiabilidad igual a 0,95. (Es decir, la
probabilidad de que la componente funcione correctamente durante un tiempo
especfico es igual a 0,95.) Si esas componentes funcionan independientemente
una de otra, y si el sistema completo funciona correctamen te cuando al menos
funcionan 80 componentes, cul es la confiabilidad del sistema?
Sea X el nmero de componentes que funcionan, debemos evaluar

P(80 5 X S 100).
Tenemos
E(X) = 100(0.95) - 95;

V(X)

= 100(0.95)(0.05) =

4.75.

Luego, usando la correccin para continuidad. obtenemos

P(80 S X S 100) ::.. P(79.5 5 X S 100.5)


= p(79,5 - 95 S X - 95 < 100,5 - 95)

2,18

2,18

:;, <1>(2,52) - <1>( - 7,1)

= 0,994.

2~1

2,18

si el xito ocurre en la i-sima repetiCIn;


si la falla ocurre en la i-sima repetiCIn.

Luego X
X 1 + X 2 + + X . (Ver el eJemplo 7.14.) Para esw variable aleatoria hemos demostrado que E( X) = np. V(X) = 11p( 1 - p) y. adem;h. que para
un 11 grande. (X - 11p), ~ 11p(f - p) tiene la distribucin aproximada N(O. ~).
Si una variable aleatoria X puede representarse como una SIIIIICI de 11 tarwl>le.l
alemoria~ i11depe1Uiie111es c11alesquiera (satisfaciendo ciertas condiciones que son
vlidas en la mayor parte de las aplicaciones). entonces esta suma para un 11 suficientemente grande est distribuida aproximadamente normal. Este resultado
notable se conoce como el teorema del lmite central. Se puede estab lecer una
forma de este teorema como s tgue.
Sea X,, X 2 . . X., ... una sucesin de variables
aleatorias independientes con E(X,) = p. y V( X)
al. i - l. 2... Sea
X _ X 1 + X 2 + + X.,. Luego bajo ciertas condiciones generales (que
no se indicarn explcitamente aqu),

Teorema del limite central.

z. =

X - I:f: t JI
----;
,
vLf,. q

ti ene apro;>.imadamente la distribucin N(O. 1). Es decir, si G. es !:1 fda


de la variable aleatoria z. tenemos lim.-,.. G. (z) = <!>(:).
Ohsert'll<'tme.,: (a) Este teorema representa una genemlizacin obvm de la aproxnnactn
de DeMoivre-Laplace. Las \'ariables aleatorias independientes.\ que toman '>io Jo, valo~~
1 y O han stdo sustituidas por variables aleatorias q~ poseen cualquier cla"l! de dt.,tnbuc1on
(mientras tengan e:.peranzas y \'ariaozas finitas). El hecho de que las X1 pueden tener (evtdentemente) cualquier clase de distribucin y an as la suma X
X, + . .\. pucd~ ser
aprox1mada por una variable aleatoria distribuida normalmente. representa la ra1on bs1ca
para la 1mportanc1a de la distribucin normal en la teora de probab1ltdad~. Re,ulta que en
muchos problemas, la variable a leatoria que se considera. puede ser. representada como la
~urna den variahles aleatorias independientes y. por tanto. su distnbucrn puede aproxrmar:>e
por la distnbuc16n normal.
Por CJemplo. el consumo de electricidad en una ciudad en cualqurer hom dada es la s~ma
de los pedidos de un gran nmero de consumidores individuales. Puede considerarse la canttdad
de agua de un embalse como la representacin de la suma de un gran nmero de contnbuc1ones
individuales. Y el error de medida en un experimento fi sico est compuesto de muchos crrorc'
pequeos no observables que pueden considerarse aditivos. El bombardeo molecular 'ohrc

12.4

un u rartculu ,u,rcnd1da en un lquido es la causa que la obliga a desplazarse en una direccin


y una magnitud aleatorias, y su posicin (despus de un tiempo especificado) puede considerarse
como una suma de desplazamientos individuales.
(b) Las cond1ciones generales citadas en la formulacin anterior del teorema del lmite
central pueden resumirse informalmente eomo sigue: los trminos individ ua les en la suma
contribuyen con una cantidad despreciable a la variacin de la suma y es muy improbable
que cualquier tamao individual haga una gran contribucin a la suma. (Parece que los errores
de medida llenen esta caracterstica. El error final puede ser representado eomo una suma de
muchas pequc~as contribuciones ninguna de las cuales contribuye mucho al error completo).
(e) Hemos establecido ya (teorema 10.5) que la suma de cualquier nmero fmito de variables
aleatorias independientes distribuida normalmente es de nuevo distribuida normalmente.
El teorema del limite central establece que los sumandos no necesitan estar distribuidos
normalmente a fin de que la suma sea aprox imada a una distribucin normal.
(d) No podemos demostrar el teorema anterior aqu, sin exceder el nivel de presentacin
programado. Sin embargo. hay un caso especialmente importante de este teorema que estableceremos y para el cual damos al menos un bosqueJo de demostracin.

Teorema 12.1. Sean X 1 , x. n variables aleatorias independientes que


tienen la misma distribucin. Sean JI = E( X 1) y u 2 = V(X ;) la esperanza
y varianza comn. Sea S = I:7= 1X 1 Entonces E(S) = IIJI y V(S) = nu 2,
y para un gran 11, tenemos q ue T. = (S - nJI)/Ju tiene aproximadamente la distribucin N(O.l) considerando que lim.- 00 P(T. ~ 1) = <1>{1).

Demostracin (bosquejo) : (El lector hara bien en revisar los conceptos bsicos de la fgm presentados en el captulo 10). Sea M la fgm (comn) de las X 1
Puesto que las X, son independientes, M 5 , la fgm de S, est dada por Ms(1) =
[M(t))", y puesto que T. es una funcin lineal de S. (usando el teorema 10.2) la
fgm de T. est dada por
Mr.(t) =

e-t,'~l [M

(}n u)l

t.lt-tma del limlt U11UII

12.4

Luego
In Mr0 (1)

r: ...
[
Jll
(JI2 + u2)t2
R].
=-~
+ 11 In 1 + --r-: +
+
2 2
q
yiiU
11(1

Usaremos ahora el desarrollo de Maclaur in para In( !

1n ( 1

In Mr.(l) = -_;;JI r + nln M

x2

+ x) -- x - -2 +

(Este desarrollo es vlido para

.xl <
JIL

x=

J 11 u

x3
3

+ x):

l. En nuestro caso

+ (JI2 + q2)2 + R.
2nu 2

'

y para 11 suficientemente grande. el valor absoluto de este desarrollo ser menor


que uno). As. obtenemos

.Ji.E
+ n[(.,n
'J!-:u + (JI2 + u 2) 2nu + R)
u
2
_21(::;;-;,
Jll + (2 + u2) ~ + R) + .. ].
2nu
12

lnMr(l) =

Puesto que simplemente estamos bosquejando los pasos principales de _la demostracin sin dar todos los detalles, omitamos algunos pasos al~ebratcos e
indiquemos simplemente lo que estamos haciendo. Q~ere~os mve~llgar la expresin anterior (In M r (t))cuando n-+ co. Cualquier termmo que llene una potencia positiva de n en el denominador (tal como n- 112 por ej~mplo) tender
a cero cuando 11 -. co. Despus de un proceso algebratco muy d1recto. pero tedioso, encontramos que

As

261

(i u)

lim In Mr.(t) = 12/2.

Luego tenemos
(Observemos a esta altura que la idea de la demostracin consiste en investigar
Mr.(t) para grandes valores de n).
Desarrollemos M(t) en una serie de Maclaurin:
2

M(t)

= 1 + M '(O)t + M"~O)I + R,

en donde R es el trmino del resto. Recordando que M'(O) =JI y M"(O) = J1 2 + u 2,


obtenemos
M(t) = 1 + JIL

+ ( JI +

2)12

+ R.

1 1 /2

lim Mr.(l) =e

Esta es la fgm de una variable aleatoria con distribucin N(O, 1). De~ido a la
propiedad de unicidad de la fgm (ver el teorema 10.3) podemos conclur qu_e la
variable aleatoria T. converge en distribucin (cuando n-+ co) a la dtstnbucin N(O, 1).
Obst!rvaciones: (a) Aunque la anterior no representa una demostracin rigurosa, an as
debera dar alguna idea al lector para la deduccin de este importante teorema. La forrna ms
general del teorema del limite central (como se estableci originalmente) se puede demostrar
usando un enfoque semejante al utilizado aqui.

11.4

(b) La forma espcci~l del teorema del lmite central como se estableci a 1
.
que el prom.cd1o aritmtico (l/ n)I:7
de n observaciones de la mi~e;~~:~:~~
a ea ona t1ene aproxomadamente una distribucin normal, para una 11 grande.
(e) Aunq~e una demostracin matemtica e,tableceria la validez de un teo e
d
que n~ contnbuya .mucho a la id~ intuitiva del resultado. Por lo tanto presentam~s ~a~j~;~l~
que s1gue para QUienes estn onentados ms numricamente.

e~p:es~

El t eorema del limite C<ntral

12.4

,x,

0,225

0.125

P(N=II)

.d EJ~MP:' 12.5. Considrese una urna que contiene tres clases de objetos
ent ea os ~mo O, 1 Y 2. Suponiendo que hay 20 ceros, 30 unos y 50 doses.
~e saea u~ a.ruc~~o al azar y se anota su valor, digamos X. Supngase ue X

--- ',

llene la dlstnbuctOn siguiente. (Ver la figura 12.1.)

3"

0,036 0,114 0.207 0,285

0,008

P(N = n)

263

''

'

,/'

''

P(X

= x)

1
1

/f

0,2 0,3 0,5

1
j

Supngase que el artculo escogido primero se substituye y luego se escoge un

, /'

L - - - : - I . _ _ I . _ _ X

0,1

0,2

FIGURA

12. 1

FIGURA

11

FIGURA

12.3

12.2

segundo artculo Y se anota su valor. Y. Considrese la variable aleatoria M (X + Y)/ 2 y su distribucin (figura 12.2~
-

Las distribuciones de probabilidades de las variables aleatorias M y N ya estn


mostrando signos de normalidad. Es decir, la aparicin de la rorma de campana de la curva de distribucin empieza a ser evidente. Empezando con la d istribucin de X , que es muy simtrica, encontramos que el promedio de slo tres
observaciones tiene una distribucin que ya muestra signos de normalidad.
Natura lmente, el ejemplo anterior no demuestra nada. Sin embargo, representa una ilustracin numrica d e los resultados expuestos previamente de una manera ms matemtica. El lector debera continuar este ejemplo agregando una
observacin ms y luego encontrar la distribucin de probabilidades del promedio de las cuatro observaciones obtenidas. (Ver el problema 12.1 0.)

P(M - m)

P(X - x)

P(M = m) 0.04 0.12 0,29 0,30 0,25


Los valores anteriores de P(M) los obtuvimos como sigue:
P(M = 0) = P(X = O. Y =O)= (0.2) 2 = 0,04;
P(M = !) = P(X = O, Y = J) + P(X = 1, Y= 0)
= (0,2)(0,3) + (0,3)(0,2) = 0,12, etc.
Finalmente, supongamos que despus de que el segundo artculo ha sido tambin
re~plazado. se .escoge un tercer artculo y se anota su valor z. Considerar la
vanable aleatona N =(X + Y + Z)/3 y su distribucin (figura 12.3):

EJEMPLO 12.6. Supongamos que tenemos cierto nmero de voltajes, V r.


i = 1, 2.... , n, que se reciben en lo que se llama un sumador. (Ver la figura 12.4.) Sea V la suma de los voltajes recibidos. Es decir, V = 1:7. 1 v,. Supngase que cada una de las variables aleatorias V 1 est distribuida unirormemente
en el intervalo (0,10]. Luego E(V1) = 5 volts y var (V 1) = 100/ 12.
De acuerdo con el teoerema del Umite central. si n es suficientemente grande.
la variable aleatoria
v.

= (V -

5n)jl2tofi

ticn aproximadamente la distribucin N(O. 1).


Luego si 11 = 20 podemos calcular la probabilidad
de que el voltaJe total de entrada sobrepase 105
volts. como sigue:
105 - 100 )
V - 100
P(V > 105) = p ( (10fJi 2k/ W > (10/ )12)j20
~

1 - <1>(0,388) = 0,352.

FIGURA

12.4

..

2tw

1>111111>

12.5

12$

de arlabltS alutoria.

Otras distribuciones aproximadas por la distribucin normal : Posson,


Pascal y G ama

12.(1

sentar como una suma de ,. variables aleatorias independientes distribuidas exponencialmente. Luego para un r grande. se aplica nuevamente el teorema del
limite central.

Hay cierto nmero de distribuciones importantes distintas a la binomial expuestas en la seccin 12.3 que se pueden aproximar por la distribudin normal.
Y en cada caso, como lo haremos notar, la variable aleatoria cuya distribucin
aproximaremos puede ser representada como una suma de variables aleatorias
independientes, dando as una aplicacin del teorema del lmite central como
se expuso en la seccin 12.4.
(a) La distribuci6n de Poisson. Recordamos que una variable aleatoria de
Poisson aparece (sujeta a ciertas condiciones) cuando estamos interesados en
el nmero total de ocurrencias de un s uceso en un interva lo de tiempo de longitud t. con una intensidad (es decir, tasa de ocurrencias por unidad de tiempo)
a (ver la seccin 8.2). Tal como se expuso en esa seccin, podemos considerar
el nmero total de ocurrencias como la suma de las ocurrencias en intervalos muy
pequeos, no sobrepuestos, haciendo as aplicables los resultados de la seccin
anterior.
EJEMPLO 12.7. Supngase que las llamadas a una central telefnica particular ocurren a razn de 2 por minuto. Cul es la probabilidad de que se reciban 22 o menos llamadas en un perodo de 15 minutos? (Suponemos, naturalmente. que la intensidad permanece igual durante el periodo considerado.) Si
X = nmero de llamadas recibidas, entonces E(X) = 2(15) = 30. Para calcular
P(X S 22), aplicando la correccin para la continuidad (ver la ecuacin (b) que
precede al ejemplo 12.4), tenemos

22+-l--30)
P(X S 22)~ P ( Y S ~Oen donde Y t iene distribucin N(O, 1). Luego la probabilidad anterior es igual
a <1l( - 1,37) = 0,0853.
(b) La disrribuci6n de Pascal. Si Y = nmero de ensayos de Bernoulli necesa rios para tener r xitos. entonces Y tiene una distribucin de Pascal y se puede
representar como la suma de r variables aleatorias independientes (ver la seccin 8,5). Luego para un r suficientemente grande, se aplican los resultados de
la seccin anterior.
En!MPLO 12.8.

Encontrar un valor aproximado de la probabilidad de que


se necesiten 150 o menos ensayos para obtener 48 xitos cuando P(xito) = 0,25.
Haciendo X = nmero de ensayos, tenemos (ver la ecuacin 8.8) E(X) = r/p =
48/0,25 = 192. y Var X = rq/p2 = (48)(0,75)/(0,25) 2 = 576. Luego
P(X :S 150)

~ <1>

eso VA7~

192
) = <1l( - 1.73) = 0.0418.

(e) La distribuci6n Gama. Como se indic en el teorema 10.9 una variable


aleatoria que tiene una distribucin Gama (con parmetros IX y r) se puede repre-

12.6

La distribucin de la suma de un nmero finito de variables aleatorias

El ejemplo 12.6 sirve pa ra motivar la exposici~ si~uiente. ~abemos. que 1~


suma de cualquier nmero finito de variables aleatonas mdepend1entes dtstrtbu~
das normalmente est distribuida normalmente otra vez. Del teor~ma del hmite central podemos concluir que para n ~rande, la suma de n vanables aleatorias independientes est distribuida aproxtmada~ente normal. Queda por resolver la pregunta siwiente: supngase que consideramos X 1
+ X en
donde las X son variables aleatorias independientes (no necesanamente normales) y 11 no es suficientemente grande para j ustificar e.' uso d~l teorema ~el
lmite central. Cul es la distribucin de esta suma~ Por eJemplo. ~.~ul es la diStribucin del voltaje de entrada V (eJemplo 12.6), SI 11 = 2 o n = 3 . .
P rimero consideraremos el im portante caso de la suma de dos vanables aleatorias. Puede establecerse el resultado siguiente.

+:

T eorema 12.2 Supngase que X y Y son variables aJelloria~ independientes con fdp g y 1 respectivamente. Sea Z = X + Y y denotese la fdp de
por s. Entonces.

s(z)

= J+: o( w)ll(z -

w) d"-.

Demosrraci11 : P uesto que X y Y son independientes. su fdp conJunta


factorizarse:

( 12.6)

puede

J(x. y) = t(xlll(y).

Usando la transformacin :
Z

Luego x

= w.

+ y.

11'

X.

El Jacobiano de esta transformucin es


y = z - ...
~.
J =

~~

11 :; -

- 1

l.

Luego el valor absoluto de J es 1 y por tanto la fdp conjunta de Z = X

W = X es
k(z. w}

= y(w)ll(z -

Y Y

w).

La fdp de z se obtiene a hora a l integrar k(z. w) de - oo a oo con respecto a w.


de donde se obtiene el resu hado anterior.
Ob~ervacio11es: (a) La integral antenor que relaciona las funciones g y h ocurre en ~uchos

temas matemticos diferentes. A menudo se le menciona como la integral de convolucin de 9


y h; algunas veces se escribe como g h. .
.
, .
(b) La evaluacin de la integral antenor debe hacerse con mucho cu1dado. En rcahdad.

266

Sumas de variabl.s aleatorias

12.6

la misma dificultad que apareci en la evaluacin de la fdp de un producto o un cociente


aparece nuevamente. Las funciones g y h a menudo ser n distintas de cero slo para ciertos
valores de sus argumentos. Por tanto el integrando en la integral anterior ser distinto de
cero slo para aquellos valores de la variable de integracin w para los cuales ambos factores
del integrando son distintos de cero.
(e) La frmula anterior ecuacin (12.6) puede usarse repetidamente (con dificultad creciente, sin embargo) para obtener la fdp de la suma de cualqu ier nmero fnito de variables
aleatorias continuas e independientes. Por ejemplo, si S = X + Y + W, podemos escribir
esto como S = Z + W, en donde Z = X + Y. Luego podemos usar el enfoque anterior para
obtener la fdp de Z, y luego, conociendo la fdp de
usar este mtodo otra vez para obtener
la fdp de S.
(d) Podemos derivar la ecuacin (i 2.6) de otra manera sin usar la nocin de jacobiano.
Denotemos por S la fda de la variable aleatoria Z = X + Y. Luego

z.

S(z)

= P(Z $

z)

= P(X + Y $

z)

La dlstribucito de la ""ma d~ 1101 llO!IItro

12.6

g(t 1 ) = a,e- ,
h(t 2) = a2e-"'''.

lo cual a su vez es equivalente a O~

t 1 ~ 1.

(Ver la figura 12.6.) Luego la integral

s(t) = J~ a~e -'''01 2 e - " - ' ' 1dt 1


= a 101 2e - ,, J~ e- < -1dt 1

$ z}.

01012 (e - -e- ,

a2

= J~~ J:.-~ g(x)h(y)dx dy


= f~ ~ g(x) [f:..-~h(y)dy]dx.
FIGURA

12.5

Diferenciando S(z) con respecto a z (bajo el signo integral, lo cual puede justificarse) obtenemos
s(z)

t ~O.

anterior llega a ser

(Ver la fgura 12.5). Luego


S(z)

O.

El integrando es positivo si y slo si ambos factores del integrando son positivos; es decir, cada vez t 1 ~O y 1 - t 1 ~ O. Esto es equivalente a t, ~ O y t1 ~ t,

= {(x.y)lx + y

/2 ~

s(t) = J:: g(t 1)h(t - t 1 )dtt.

en donde
R

~O,

t1

( Para todos los otros valores de t 1 y t 2 , las funciones g y h se suponen igual a


cero!). Luego usando la ecuacin (12.6) encontramos que la fdp de T, + T2 = T
est dada por

= SJ g(x)h(y)dx dy,

167

Observaciones: (a) Ntese que la suma de dos variables aleatorias independientes,


distribuidas exponencialmente, no est distribuida exponencialmente.
(b) Para a 1 > a 2 , el grfico de fdp de T se muestra en la fgura 12.7.
(e) La expresin anterior para la fdp no est defnida para a, = a 2 , es decir, para el caso
que T, y T2 tengan la misma distribucin exponencial. A fin de cuidar de este caso especial,
consideremos la primera integral de s(t) y hagamos a = a, = a 2 Obtenemos
s(t) = fhae - "'ae- < - '1dt 1

= S'(z) = f~~ g(x)h(z - x)dx,

lo que est de acuerdo con la ecuacin ( 12.6).


(e) Puesto que la distribucin de X + Y debera posiblemente ser la misma que la distribucin de Y + X, podramos verificar que J ~~ g(x)h(z - x)dx = f !~ h(y)g(z - y)dy. Haciendo
sencillamente z - x = y en la primera integral, producir la segunda forma. Algunas veces
indicamos esta propiedad al escribir g h = h g. Ver la observacin (a).

t ~ O.

para

a1

= a 2 e- "' J(.dt 1 = rx 2 te- ',

t ~O.

Esta representa a una distribucin Gama (ver la ecuacin (9.16). El grfico de esta fdp aparece
en la fgura 12.8. El mximo ocurre para 1 = l/a = E(T 1) =E(T2 ).
s(r)

s(r)

- - -- t - - - - - + -- - ---+1
r lGURA 12.6

12.9. Se consideran dos instrumentos electrnicos, D 1 y D 2 Supngase que D, tiene una duracin que puede representarse con una variable
a leatoria T, que tiene una distribucin exponencial con parmetro 01 1. Mientras
que D2 tiene una duracin que puede representarse con una variable aleatoria T 2
que tiene una distribucin exponencial con parmetro a 2 . Suponiendo que D1
y D2 estn conectadas de tal manera que D2 empieza a funcionar en el momento
que D, deja de funcionar. Entonces T = T 1 + T 2 representa el tiempo total
que el sistema formado por los dos instrumentos est funcionando. Suponiendo
T 1 y T 2 son independientes, podemos aplicar el resultado anterior para obtener
EJEMPLO

t [ln {a1/a2))/{a1 - a2)


FIGURA

1=

12.7

1/ a

FIGURA

12.8

EJEMPLO 12.10. Reconsiderando el ejemplo 12.6, relacionado con la suma


de dos voltajes aleatorios independientes V 1 y V 2 , cada uno de los cuales est
distribuido uniformemente en [0, 10]. Luego

f(vtl
g(v2l

=ru.
=ru.

o::;; VI
o::;; V2

::;;

10,

JO.

268

Sum~> de ribles alcacorl"'

12.6

(Recurdese nuevamente que las runciones .f y y son cero para cualquier ot ro


valor). Si V = V 1 + V 2 tenemos

l.a di Crlbudfl de lo "'m tk un rnnrwro

12.6

2CI9

Suponcendo que z = X + Y. en donde X y Y son variables aleatorras ndependientes. cada una con distribucin NJO. 1). Entonces

) _ 1 -r2
/ ( x - y; e
.

s(o) = r~ /(o.)g(o- o,)do,.

Razonando como en el ejemplo 12.8. observamos que el integrando no es cero


slo para aquellos valores de v 1 que satisracen O::;;; v1 ::;;; 10 y Os v- 111 ::;;; 10.
Esas condiciones son equivalentes a O S 11 1 ::;;; 10 y a v - 10 s v, s 11.

g(y) =

~e-,!2,

<X<

CO.

-co <y< co.

..2n

Luego la rdp de Z est dada por


v - IO O

10

(a)

v,

O v- IO
FIGURA

10

12.9

s(z\

..,

= h> /(x)g(z- x)dx = _!_ r+

J,

2n

1!

+oo

(v)

- 1
e
- 2n _,

Existen dos casos. como se indic en la figura 12.9.


(a) v - 10 S 10 y O ::;;; o S 10 que JUntas implican que O ::;;; v s JO.
(b) O S v - 10 ::;;; 10 y o ~ JO que JUntas implican que JO S v s 20.

J "'

Ct!2ll+=- 2:.+1 dx

+"

1 e -!2
e--:xldx
2n
-,
Completando el cuadrado en el exponente del mtcgrando. obtenemos

En el caso (a). o, puede tomar los valo res entre O y o. mientras que en el caso (b).

o, puede tomar los valores entre o - 10 y JO.


As obtenemos
para O S o::;;; 10:

para 10::;;; v S 20:

s(o)=

s(o) =

"
l

Luego

1 1

-JO -IOdo, = 100

r: rli 1~
10

Sea fi<x - z/2) = u; entonces dx = du/}2 y obtenemos

dv, =

25foo V

Luego la rdp de V tiene el grfico que se muestra en la figura J2.10.

s( z)

1
- :> 4
1 f +ao -ulf2 _,
= Jiicj:
e
~
e
uu.
2n 2
.. 2n - co

La integral anterior (incluyendo el ractor 1/ J2n) es igual a uno. Luego


s(r)

1
e
- ~V/2

s(z) -

FIGURA

12.10

EJEMPLO 12.11. Como un a ilustracin final de las sumas de variables aleatorias. reconsideremos un resultado que ya hemos probado. usando el mtodo
ms indirecto de las runciones generadoras de momentos (ver el eJemplo 10.11),
esto es. la suma de dos variables aleatorias normales e independientes est nuevamente distribuida normalmente. A fin de evitar a lgunas manipulaciones algebraicas complicadas. consideremos slo un caso especial.

e1/211/.l!P

Pero sta representa la rdp de una va riabl e aleatoria con distribucin N(0,2)
lo qu e se iba a demostrar.
Al presentar la distribucin de la suma de dos variables a leatorias independientes. nos hemos reducido a variables aleatorias continuas. En el caso discreto
el problema es algo ms sencillo, al menos. en ciertos casos. como lo indica el
teorema siguiente.
Teorema 12.3. Supngase que X y Y 'on variables aleatorias independientes cada una de las cuales puede tomar slo valores enteros no negativos. Sea p(k} = P(X =k). k= O. t. 2.... y sea q(r) = P(Y = r). r = O. l.
2.... Sea z = X + Y y sea w(i) = P(Z = i). Entonces

270

!:>u"'"' d rlable,' aleatoria>

12.6
i

IV(i) =

p(k)q(i - k).

k~O

=o. J. 2... .

Demos/ racin:
ll'(i) = P(Z = i)

P[X
i

= O, Y = i o X =

P[X =k, Y =

l. Y = i - 1 ... X

i - k] =

ke O

= i, Y = O]

p(k)q(i - k)

k =O

l'wbl<noU

271

12.3. (a) Un sistema compuesto est formado por 100 componentes que funcionan independientemente. La probabi lidad de que cua lquier componente falle durante el periodo
de operacin es igual a 0,10. A fin que funcione el sistema completo, al menos deben funcionar 85 componentes. Calcular esta probabi lidad.
(b) Supngase que el sistema anterior est formado por n componentes. cada una con
una confiabilidad de 0,90. El sistema funcionar si al menos el 80 por ciento de las comp~
nentes funciona correctamente. Determinar n de modo .]ue el sistema tenga una confiabibilidad de 0,95.

puesto que X y Y son independientes

12.4. Supngase que 30 instrumentos electrnicos, D., .... D30 se usan de la manera
sigu iente: tan pronto como D, falla empieza a actuar D 2 Cuando D2 falla empieza a actuar

Obsel'vacill: ntese la similitud entre esta suma y la integra l de convolucin derivada


en el teorema 12.2.

D3, etc. Supngase que el tiempo para fallar de D;, es una variable aleatoria distribuida expo
nencialmente con parmetro p = 0,1 hora - l . Sea T el tiempo total de operacin de los 30
instrumentos. Cul es la probabilidad de que Texceda 350 horas?

EJEMPLO

12.12.

X y Y representan al nmero de emisiones de partculas

~de dos fuentes de material radiactivo durante un perodo de tiempo especificado

de duracin l. Suponiendo que X y Y tengan distribuciones de Poisson con parmetros /111 y /1 2t. respectivamente. Z = X + Y representa el nmero total de
partculas ~ emitidas por las dos fuentes. Usando el teorema 12.3. obtenemos
P(Z = k) =

p(k)q(i - k)

k: O

(La ltima igualdad se obtiene aplicando el teorema del binomio a la suma anterior). La ltima expresin representa la probabilidad que una variable aleatoria que tiene una distribucin de Poisson con parmetro {l 1t + /f 2t tome el
valor i. As hemos verificado lo que ya sabamos: la suma de dos variables aleatorias independientes de Poisson tiene una distribucin de Poisson.

PROBLEMAS
12.1. (a) Una fbrica produce determinados artculos de tal manera que el 2 por ciento
resulta defectuoso. Se inspecciona un gran nmero de tale.~ artculos, n, y se anota la frecuencia
relativa de defectuosos, / 0 . Cul debera ser el tamao de n a fin de que la probabilidad sea
0,98 de que j 0 difiera de 0.02 en menos de 0,05?
{b) Conteste la (a) si 0,02, la probabilidad de tener un artculo defectuoso se sustituye
por p que se supone desconocida.
12.2. Supngase que se obtiene una muestra de tamao de un gran conjunto de pernos.
el 3 por ciento de los cuales son defectuosos. Cul es la probabilidad de que a lo ms el 5
por ciento de los pernos elegidos sea defectuoso si:
(a) 11 =

6?

(b)

11

= 60?

(e)

11

= 600?

12.5. Al sumar nmeros, un computador aproxima cada nmero al entero ms prximo.


Supongamos todos los errores de aproximacin son independientes y distribuidos uniformemente entre ( - 0,5, 0,5).
{a) Si se suman 1500 nmeros, cu l es la probabilidad deque la magnitud del error t~
tal exceda 15?
(b) Cuntos nmeros pueden sumarse juntos a fin de que la magnitud del error total sea menor que 1O, con probabilidad 0,90?
12.6. Supngase que X" i = l, 2, . . . , 50, son variables aleatorias independientes que
tienen cada una distribucin de Poisson con parmetro ..t = 0,03. Sea S = X 1 + + X so
(a) Usando el teorema del limite central, calcular P(S ~ 3).
(b) Comparar la respuesta en (a) con el valor exacto de esta probabilidad.
12.7. En un circuito simple se conectan dos resistencias R 1 y R2 en serie. Por tanto, la
resistencia total est dada por R = R 1 + R 2 Supngase que R 1 y R 2 son variables aleatorias
independientes que tiene cada una la fdp

/(rrl

10- r 1

=so

O<

< 10,

= 1,2.

Encontrar la fdp de R, la resistencia total y dibujar su grfico.


12.8. Supngase que las resistencias en el problema 12.7 estn conectadas en paralelo.
Encontrar la fdp de R, la resistencia total del circuito (establezca slo, en forma de integral).
[Indicacin: la relacin entre R, y R., y R 2 est dada por 1/R = 1/R, + 1/R2 .]
12.9. Al medir T, la duracin de un artculo, se puede cometer un error que puede suponerse
distribuido uniformemente entre ( -0,01 y 0,01). Luego el tiempo anotado (en horas) se puede
representar como T + X, en donde T tiene una distribucin exponencial con parmetro 0,2
y X tiene la distribucin uniforme ya descrita. Si Ty X son independientes, encontrar la fdp
de T+ X.
12.10. Supngase que X y Y son variables aleatorias independientes distribuidas idnticamente y que la fdp de X (y por tanto de Y) est dada por
f(x) = a/ x 2 ,
x > u.
a >O,
= O, para cualquier otro valor.
Encuentre la fdp de X

+ Y.

[Indicacin: use fracciones parciales para la integracin.]

13
12.1 J.

Realizar los cillculos sugerido ;a l final del ejemplo 12.5.

Muestras y distribuciones muestrales

12.12. (a) Un instrumento tiene un toempo de ralla T cuya distribucin est dada por
N( 100,4). Su pngase que a 1anotar Tse comete un error cuyo valor puede representarse como una
variable aleatoria X distribuida unirormemente en ( - J. 1). Si X y T son independientes.
obtener la rdp de S = X + Tmediante <1>. la rdp de la distribucin N(O,I).
(b) Calcular P(IOO S S S 101). [Indicacin: use la regla de Simpson para aproximar la
integral.)
12.13. Supngase que un nuevo aparato se prueba repetidamente baJO ciertas condiciones
de esruerzo hasta que ralla. La probabilidad de rallar en cualquier ensayo es p 0 Sea X ogual al
nmero de ensayos necesarios hasta incluir la primera ralla, Tambin se prueba un segundo
aparato hasta que ralla. Supngase que una probabilidad constante de ralla p2 est asociada
con l. Sea Y igual al nmero de ensayos necesarios hasta incluir su primera ralla. Supngase
que X Y Y son independientes y haga Z = X + Y. Por tanto. Z es igual al nmero de ensayos
necesarios hasta que ambos aparatos hayan rallado.
(a) Encontrar la distribucin de probabilidad de z.
(b) Calcular P(Z 4) si Po = 0,1, p 2 = 0.2.
(e) Discutir (a) si Po p 2

13. 1 Introduccin
Consideremos nuevamente un problema expuesto previamente. Supngase
que tenemos una fuente de material radiactivo que emite partcula) :x y que la
hiptesis establecidas en el captulo 8 son vlidas. as que la variable aleatoria X
delinida como el nmero de partculas emitidas durante un perodo de tiempo
especilieado 1 tiene una distribucin de Poisson con parmetro lt.
A lin de usar este modelo probabilstico para describir la emisin de partculas a necesitamos conocer el valqr de l. Las hiptesis que formulamos slo
conducen a la conclusin de que X tiene una distribucin de Poisson con un
parmetro A.t. Pero si deseamos calcular P(X > 10), por ejemplo, la respuesta
ser mediante A. a no ser que conozcamos su valor numr ico. Anlogamen te, los
parmetros importantes asociados con la distribucin tales como E(X) y V(X)
son funciones de l.
Para buscar un valor numrico de ). debemos dejar el mundo de nuestros
modelos matemticos tericos y entrar a l mundo de las observaciones. al menos
por ahora. Es decir, en este instante debemos observar la emisin de las partculas.
obtener los valores numricos de X y luego utilizar esos valores de una manera
sistemtica a lin de obtener una informacin atinada de ..l
Es importante para el lector tener una idea precisa acerca de la relacin entre
la verilicacin emprica y la deduccin matemtica que aparece en muchas reas
de matemticas aplicadas. Esto es muy importante cuando construimos modelos
probabilsticos para el estudio de los fenmenos observables.
Consideremos un ejemplo trivial de la trigonometra elemental. Un problema
tpico puede implicar el clculo de la altura de un rbol. Un modelo matemtico
para este problema podra obtenerse al postular que la relacin entre la altura
desconocida Ir. el largo de la sombra s, y el ngulo :x es de la forma Ir = s tg a.
(Suponemos que el rbol permanece derecho y perpendicular al suelo. ligura 13.1.)

FIOURA

273

13.1

174

Muclfl< y dl"rlbuciOtlt!l miOt'll tMits

13.2

Por tanto, si s y oc son conocidos, con ayuda de una tabla apropada. podemo~
calcular 11. El hecho importante que aqu formulamos es que s y a deben ser cono
cidos antes de que podamos calcular h. Es decir, alguien debe haber medidos y a.
La deduccin matemtica que conduce a la relacin h = s tg a es completamente
independiente de los medios mediante los cuales medimos s y oc. Si esas mediciones son exactas, entonces s tg a representar un valor exacto de h (suponiendo
que el modelo es vlido). Dicindolo en forma diferente. no podemos deducir
simplemente el valor de Ir con nuestros conocimientos de trigonometra y con la
ayuda de las tablas trigonomtricas. Debemos dejar nuestro santuario (cualquiera que sea) y hacer algunas mediciones! Y. precisamente. cmo se hicieron
esas mediciones. de ninguna manera innuyen en la validez de nuestra deducci n
matemtica, aunque deba resolverse un problema importante.
Al usar los modelos probabilisticos necesitaremos entrar nuevamente al mundo
emprico y hacer algunas mediciones. Por ejemplo, en el caso que consideramos
se usa la distribucin de Poisson como modelo probabilstico y por tanto necesitamos conocer el valor del parmetro ..t. A fin de obtener alguna informacin
acerca de ). debemos hacer algunas mediciones y luego usar esas mediciones de
una manera sistemtica con el objeto de calcular ..t. En el capitulo 14 describiremos
la manera de hacer este clculo.
Finalmente, debemos insistir aqu en dos puntos. Primero, las mediciones
necesarias para obtener informacin respecto a ). sern generalmente ms fciles
de obtener que las que produciran mediciones para e-(..ttt /k! (tal como es ms
fcil obtener mediciones para el largo de la sombra s y el ngulo IX que para la
altura 11). Segundo, la manera como obtenemos mediciones para ). y la manera
como usamos esas mediciones de ninguna manera invalida (o confirma) la aplicacin del modelo de Poisson.
El anterior es un ejemplo tpico de una gran cantidad de problemas. En muchos
casos ~lativamente natural (y apropiado) formular la hiptesis de que una
variable aleatoria X tiene una distnbucin particular de probabilidades:- Ya
hemos visto un nmero de ejemplos que indican que hiptesis muy simples acerca
de la conducta probabilstica de X conducirn a un tipo determinado de distribuciones tales como la binomial, exponencial, normal, Poisson y otras. Cada una
de esas distribuciones depende de ciertos parmetros. En algunos casos el valor
de uno o ms parmetros puede .s er conocido. (Tal conocimiento puede provenir
debido al estudio previo de las variables aleatorias). Muy a menudo, sin embargo,
no conocemos el valor de los parmetros implicados. En tales casos debemos
proceder como se sugiri anteriormente y obtener algunos valores empricos
de X y luego usar esos valores de alguna manera apropiada. Veremos cmo se
hace esto en el captulo 14.

13.2 Muestras aleatorias


Previamente hemos presentado la nocin de muestreo aleatorio con o sin
sustitucin de un conjunto finito de objetos o poblacin de objetos. Tenemos
que considerar una poblacin especifica de objetos (personas. artculos manu-

ll.l

facturados. etc.) acerca de la cual queremos hacer inferenca sin mirar cada objeto.
As! muestreamos. Es decir. tratamos de considerar algunos objetos tpiCos
de los cuales esperamos extraer alguna informacin que de algn modo ~ca caracterstica de la poblacin completa. Seamos ms precisos.
Supngase que designamos consecutivamente cada uno de los elementos de
una poblacin finita, de modo que sin perder generalidad una poblacin que consta
de N objetos puede representarse como l. 2, .... N. Elijamos ahora 11 artculos.
de la manera como vamos a describir a continuacin. Definamos la siguiente
variable aleatoria.

X 1 =valor poblacional obtenido cuando se escoge el i simo artculo. i = l. 2..... 11.


La distribucin de probabilidades de las variables aleatorias X .... X. depende
evidentemente de cmo vamos a muestrear. Si el muestreo es con sustitucin.
cada vez escogemos un objeto al azar. las variables aleatorias son independientes
e idnticamente distribuidas. Es decir, para cada X1 i = 1, 2, ... , 11 tenemos
P(X 1 = J} = l /N.

= 1, 2.. .. N.

Si el muestreo es sin sustitucin, las variables aleatorias X .... X. ya no son


independientes. En este caso, su distribucin conjunta de probabilidades est
dada por
P[X 1 =}., .... X.

=J.]= NCN

-1)-~(N

-11+1)'

en dondej., .. . . j. son 11 valores cualesquiera de (l. .... N). (Podemos demostrar


que la distribucin marginal de cualquier X,, independientemente de lo~ valores
tomados por X" .... X, ,, X 1 ~ 1 , X . es la misma que la anterior cuando
el muestreo se hace con sustitucin).
En nuestra exposicin hasta ahora. hemos supuesto que existe una poblacin
principal, 1. 2.. .. , N que es finita y acerca de la cual queremos tener una informacin basada en una muestra de tamao 11 <N. En muchos casos no hay
una poblacin finita de la cual obtengamos muestras; en realidad podemos tener
dificultades al definir una poblacin principal de cualquier clase. Consideremos
los ejemplos siguientes.
(a) Se lanza una moneda. Definamos la variable aleatoria X1 =nmero de
caras obtenidas. Bajo un solo aspecto podemos pensar que X es una muestra
de tamao uno de la poblacin de todos los lanzamientos posibles de esa moneda. Si lanzamos la moneda una segunda vez y definimos la variable aleatoria X 2
como el nmero de caras obtenidas con el segundo lanzamiento, X ., X 2 posiblemente pudo considerarse como una muestra de tamao dos de la misma poblacin.
(b) La precipitacin total anual en cierta localidad d.urante el ao 1970 podra
definirse como una variable aleatoria X 1 Durante los aos siguientes las variables
aleatorias X 2 , X. pudieron definirse anlogamente. Podemos considerar

tU

nuevamente (X 1, .... \'.J como una muestra de tamao n. obtcn1da de la po


blacin de toda~ la~ precipitaciones anuales posibles en esa localidad especifica
y podra ~u ponerse reulisticumente que las X 1 son variables aleatorias independientes e idnticamente distribuidas.
(e) La duracin de una bomb1lla fabncada mediante cierto procedimienw
en una fbrica se c~tudia escogiendo 11 bombillas y midiendo su duracin.
T, .... , T. Podemo~ considerar (T1..... T.) como una muestra aleatona de la
poblacin de toda' ltl\ duractones po~ibles de las bombillas fabncadas de esa
manera especfica.
Formalicemos esas nocones como sigue.
Defmicin. Sea \' una vanable aleatoria con cierta distribucin de probabilidadc.... Sean \' , ..... Y. 11 variables aleatorias independientes que llene
cada una la rmsma d"tribucin que X. Llamamos entonce~ a (X 1, .... ;\ .l
11110 mrw\lra alemoriatlt latariable alatoria X.
Obserradone.\. (U) FstablcJcamos m:is informalmente lo anterior: una muestra aleatona
de tamao 11 de urm vanablc aleatoria ,\ corresponde a 11 mediciones repetidas de \". hecha'
bsicamente b;IJO las mr . . mas condiciOnes. Como lo hemos dicho anteriormente en otro'
pitrrafos. la nocin matemilticamente idealizada de una muestra aleatoria se puede aproximar
meJor slo por las cond1c1one~ experimentales reales. A fn de que X 1 y X, tengan la misma
distribucin, todas las condicione~ relevantes baJO las cuales se realiza el experimento.
deben ser las misma' cuando se observa X 1 que cuando se observa X 2 Las condiciones experimentales nunca se pueden duplicar idnticamente. por supuesto. Lo importante es que
esas condiciones. que son diferentes. deben tener poco o ningn efecto en el resultado del
experimento. Sin embargo. algn cuidado deber tenerse para asegurarnos de que realmente
obtengamos una muestra aleatoria.
Por eJemplo. supngase que lu variable aleatoria que se considera es X. el nmero de llamadas que llegan a una central telefnica entre las 4 p.m. y las 5 p.m. el mircoles. A fin de
obtener una muestra alcatoriu de X . posiblemente deberamos elegir,, mircoles al azar y
anotar el valor de X 1. . X Tendramos que el>tar seguros de que todos los mircolc;.
son miercolc> cdipicos. Por eJemplo. podramos no incluir un mircoles particular si coincide
con Navidad.
Nuevamente. tratemo~ de obtener una muestra aleatoria de la vanablc aleatoria X definida como la durac16n de un '"'trumento electrnico que se fabrica con determinada> c,pe.
cificacronc.... de><:-:1riamo' a'cgurnrnos de que no se ha obtenido un valor muestra! de un
articulo producido durante un momento en que el proceso de produccin estaba fallando.
(b) St ,\ e' una vartable aleatona continua con fdp f } si X 1 X e' una mue...tra
alea tona de \ cntoncc... y. la fdpconJunta de,\ 1..... X. puedeescribir:.ecomoXx1. . .. x.)
f(xl) f(.\.1. Si \"e, un, \ariable aleatoria d1screta y p(x1) = P(X = x,) entonces

1'(,\ 1

~, X.=

x.] = p(x 1)p(x.).

(e) Tal como 1<> hicimo' antenormcntc. usaremos letras maysculas para lus vanable,
alea tonas y letra' mrn~culas para el valor de la variable ale-.ttoria. Luego los valores que tOill<l
una muc,tro IX 1..... X.1 M: denotarn por (x1..... x.l. A menudo hablaremos del ptmlo
muestra/ (x 1..... ~.). Con c~to mdicarcmos simplemente que consideramos a (x 1 \.)
como las coordenadas de un punto en un e. . pacio euclidiano, dimensional.

11.4

13.3

Estadlgrafos

Una vez que hemos obtenido los valores de una muestr<~. habitualmente
queremos usar esos valores muestrales con el objeto de hacer alguna 111rcrencia
de la poblacin representada por la muestra que en el pitrraro actual representa
la distribucin de probabilidades de la variable aleatoria que se cstt muestreando.
Pue~to que los diversos parmetros que caracteri7.an una distribucin de probabilidades son numeros. es apenas natural que queramos calcular ciertas caracterstica~ numricas especificas que se obtienen de los valore mue,tralt!j,. lo que
nolt podra ltervir para hacer proposiciones apropiadas acerca de los valores de
lo~ parmetro~ que a menudo no son conocidos. Definamo~ el sguientc <:oncepto
importante.
Definicin. Sea X 1. .' ... X. una mu.:stra aleatoria de una variable aleatoria
X y sean .'( 1, .... x.los valores lomados por la muestra. Sea 11 una funcin
definida para el " tuplo (x 1, .... '(.). Se define que Y 1/(X 1..... X.)
sea un t'.\tadra(o. que toma el valor y= fl(xt ... \'.).
Fn palabras: un estadgraro es una funcin real de la muestra. Algunas
veces usamos el trmino estadgrafo para rercrirnos al valor de la funcin.
Luego podemos hablar del estadigraro y = /l(x , .... x,) cuando realmente
deberamos decir que y es el valor del cstadgrafo Y 1/(X 1.... , X,).
0/J.,er,.acirr : de acuerdo con la dcrinicin ;1111crior. i un e~llldlgrufo c... una variable alea
oria! b muy importante recordar esto. Ser til ahora considerar la distribucin de pro-

babilidades de un c~tudigrafo, su esperanza y su varian7..a. Cuando una variable :licatoria e>


rea lmente un cst<tdlgr<tfo. e.< decir, una funcin de una muestra. hablamos a menudo de su
tliMril>ucilt mrlt'~lrul en vez de su distribucin de probabilidades.
Como lo sugerimos al comienzo de este capitulo. usan:mos la inrormacin
obtenida de una muestra con el objeto de cstrmar ciertos purrnctros desconocidos
asociados con una distribucin de probabilidades. Fncontraremos que ciertos
e'tadigrafos desempean un papel importante en la solucin de este problema.
Antes de que consideremos esto con ms detalles (en el capitulo 14). estudiemos
algunos estadigrafos importantes y sus propiedades.
13.4

Algunos estadigrafos importantes

llay ciertos estadigraros que se em:uentran frecuentemenll.:. Anotaremos


algunos de ellos y expondremos algunas de sus propiedades importantes.
Definicin. Sea (X 1 X.) una muestra aleatoria de la vuriablc alc:ttoria X.
Lo~ siguientes estadigrafos son de inters.
(al X=

(1/n)Li'~ 1

X ; se llama el P.!:!!lllediolmwstra/.

N. de/1'. El ;IUtor emplea la palabra swti~lics. que hcmo' traduc1do por cstadgrafo
por ~cr la ms comnmente empleada en espaol.

13.4

(b) sz = [1/(u - 1)] :E~. , (X1 - X) 2 se llama la varianza muestra/. (Explicaremos brevemente por qu dividimos por (n - 1) en vez de elegir
simplemente n).
(e) K = m in (X,, ... , X.) se llama el mnimo de la muestra. (K representa
simplemente el valor observado ms pequeo).
(d) M = max (X., ... , X.) se llama el mximo de la muestra. (M representa
el mayor valor observado).
(e) R = M - K se llama el recorrido muestra/.
{f) X~,ll = j-sima observacin mayor en la muestra, j = 1, 2, ... , n.
(Tenemos que X~') = M mientras que X~1 =K).
Observaciones: (a) Las variables aleatorias X'!'.j = 1, 2.... , 11. se llaman estadgraros
de orden asociados con la variable a leatoria X 1, . X . Si X es una variable aleatoria continua podemos suponer que X~" > X~2 l > > x~l.
(b) Los valores extremos de la muestra (en la notacin anterior, X~'' yx~ 1 son a menudo
de inters considerable. Por ejemplo, en la construccin de represas para controlar inundaciones, la mayor altura que ha alcanzado un ro en los 50 aos anteriores puede ser muy importante.

Naturalmente hay muchos otros estadgrafos importantes como los que encontramos, pero evidentemente los mencionados desempean un papel importante
en muchas apl icaciones estadsticas. Estableceremos (y demostraremos) algunos
teoremas que se refieren a los estadigrafos anteriores.
Teorema 13.1. Sea X una variable aleatoria con esperanza E(X) = ll y
varianza V(X) = (J 2 Sea X el promedio muestra! de una muestra aleatoria
_de tamao n. Entonces

= ll
(b) V(X) = q 2fn.
{e) Para n grande, (X - t)f(qf.J) tiene aproximadamente la distribucin
N(O, 1).
{a) E(X)

Demostracin: (a) y (b) se deducen inmediatamente de las propiedades de


la esperanza y de la varianza establecidas anteriormente:
_
E(X)
= E (-'

.L:

X 1) =-:-)

n i-=- t

n
.L:

n ;= J

E(X 1) = -1 np = 11
n

Puesto que los X 1 son independientes

(1

1 .L:

n
)
V(X) =V - LX
= 2
n; = J

i =- J

V(X) = -r mr 2 = (J2
- .

(e) se deduce de una aplicacin directa del teorema del l mite central. Podemos
escribir X= (1/n)X; + + (1/ n)X., como la suma de variables aleatorias inQ.eJXlndientemente distribuidas.

13.4

Observacio11es: (a) Cuando el tamao de muestra aumenta. el promedio muestra! X


tiende a variar menos y menos. Esto es intuit ivamente evidente y corresponde a nues1ra ex:periencia con datos numricos. Considrese. por ejemplo, el conjunto siguiente de 18 nmeros
- J. 3. 2. - 4. - 5. 6. 7. 2.

o. l. -2. -3, 8. 9. 6. -3. o. 5.

Si calculamos el promedio de esos nmeros. tomando dos a la vez en el orden anotado. obtenemos el siguiente conjunto de promedios:

l. - 1' 0.5; 4,5: 0.5. - 2.5; 8,5; 1,5; 2,5.


Si promediamos el conjunto original de nmeros. tomando tres a la vez. obtenemos

1,3, -1.3. -1.3. 7. 7,0.7.

Finalmente. si promediamos los nmeros. tomando seis a la vez obtenemos

0.2. 0,8, 4, J.

La varianza en cada uno de esos conjuntos de promedios es menor que en el conjunto


anterior, debido a que en cada caso el promedio est basado en un nmero mayor de valores.
El teorema anterior indica precisamente cmo la variacin de X (medida mediante su varianza) disminuye cuando aumenta 11. (En relacin con esto vase la ley de los grandes nmeros, seccin 12.2 y en particu lar la ecuacin 12.2).
(b) Si n no es suficientemente grande para asegurar la aplicacin del Teorema del lmite
central, podemos tratar de encontrar la distribucin exacta de probabilidades de X por un
medio directo (pero generalmente ms complicado). En la seccin 12.5, sugerimos un mtodo
mediante el cual podemos encontrar la distribucin de probabilidades de la suma de variables aleatorias. Con una aplicacin repetida de este mtodo podemos obtener la distribucin de probabilidades de X, especialmente si n es relativamente pequeo.
(e) El teorema 13.1 indica que para un n suficientemente grande, el promedio muestra! X
est distribuido aproximadamente normal (con esperanza ~ y varianza u 2/ 11).

Encontramos que no slo X sino la mayor parte de las funciones con buen
comportamiento de X tienen esta propiedad. En este nivel de presentacin no
podemos dar un desarrollo ms explicativo de este resultado. Sin embargo, el
resultado es de mucha importancia en muchas aplicaciones para sostener a lo
menos un argumento heurstico, intuitivo.
Supngase que Y = r(X) y que r puede desarrollarse en una serie de Taylor
respecto a ll Luego r(X) = r(ll) + (X - IJ.)r'{~t) + R, en donde R es el trmino
del resto y puede expresarse como R = [(X- t) 2 /2]r"(z), en donde z es un valor
comprendido ent re X y 11 Si n es suficientemente grande, X esta r prxima a IJ..
y por tanto (X - 1!)2 ser pequea comparada con (X - 11). Para n grande, podemos por tanto considerar que el resto es despreciable y aproximar r(X) como
sigue:
r(,Y) '-=" r(IJ.) + r'(Jl)(X - .t).
Vemos que para un n sulicientemente grande, r(X) se puede aproximar por una
funcin lineal de X. Puesto que X ser aproximadamente normal (para un n
grande), encontramos que r(X) tambin ser aproximadamente normal, puesto
que una funcin lineal de una variable aleatoria distribuida normalmente est
tambin distribuida normalmente.

l.l4

11.4

De la e:-. presin anterior de r(X) encontramos que

y(s)

E(r(X')) ::::: r(t).

Teorema 13.2. Sea X una variable aleatoria continua con fdp .f y fda F.
Sea X, .. .. X., una muestra aleatoria de X y sean K y M e l mnimo y
el mximo de la muestra respectivamente. Luego:
(a) la fdp de M est dada por g(m) .,.. 11[F(m)] 1 f(m).
(b) la fdp de K est dada por /(/, 1 11 [ 1 - F(k)]- 1.f(k).
Demostracin: sea G(m) = P(M::::;; m) la fda de M. Ahora {M ::::;; m} es equi
valente al suceso {X1 ::::;; m, para todo
Luego puesto que los X; son indepen
dientes, encontramos

r:.

= P[X,

::::;; m y X 2 $ m y X. $ m] = (F(m)]".

Por tanto
o(m) = G'(m) =

nl F(m)]"

f(m).

La obtencin de la fdp de K se deja al lector. (Ver el problema 13.1).


EJEMPt..O 13.1. Un instrumento electrnico tiene una duracin T que est
distribuida exponencia lmente con parmetro"' = 0.001; es decir. su fdp es .f(t) =
O.OOie- 0 0011 . Supngase que se prueban 100 de tales instrumentos. que dan
valores observados T., .... T, 00 .
(a) Cu(ll es la probab ilidad de que 950 < f < 1100? Puesto que e l tamao
de muestra es muy grande, podemos aplicar el teorema del lmite central y proceder como sigue:
1
1
E(T) = O.OOI = 1000.
V(T)
(0.00W 2
10.000.
100

Como(f
1

~,."

1000)/ 100 t1ene aproximadamente la distribucin N(O.I). Por tanto

P(950 <

T<

0,001\

'19'

en donde y es la fdp de T 1 + + T1011. Luego la fdp de Testa dada por

As para un 11 suficientemente grande. vemos que la distribucin de r(X) es aproximadamente N(r(JI). [r'(J1>]2u 2/n) (bajo condiciones muy generales de la funcin r).

G(m)

(().()() !1' .,...,.,('

11 00) = P( -0.5 < T

~~OOO <

1)

= <1> ( 1) - <1>( - 0.5)

(O. I)'""t''"t o.oi

J (1)

<)<) 1

Luego 7 tiene un distribucin Gama con panimctrm 0,1 y 100.


(b) Cul es la probabilidad de que e l mayor va lor ob~crvado sobrepase
7200 horas'? Necesitamo~ c.ue P(M > 7200)
1 - P(M ~ 7200) Fl valor mximo
ser menor que 7200 si y slo si cada valor de muestra e~ menor que 7200. Luego
P(/\1 > 7200) = 1 [F(7200}1 100.
Para calcular f-'(7200). rccordemo' que la variable aleatoria d1~tribu1d:1 exponenc ialmente con parmetro 0,001 . F(l) = 1 e- 0 001 '. Luego.
F(7200)

1-

eo.ooH7200o

1- e

0.99925

7,2

As la probabilidad ped1da es 1 (().99925, 100 que es 1gual a 0.071.


(e) Cul es la probabilidad de que e l tiempo ms corto para fallar sea menor
que 10 horas'? Pedimos que P(K < 10) = 1 P(K "2: 10).
El mnimo de la muestra ahora es mayor que o 1gual a 1Os1 y slo si cada valor
muestra! es myor que o igual a 10. Luego

P(K < 10)

1 - [1 - F(10J]' 00 .

Usando la expresin de F como >C dio en el antenor (b), tenemos


1 - F( 10) = ,.

0 00 H 101

e o.o 1 - 0.99005.

Luego

P( K < 10)

1 - (0. 99005) 100

0.63.

La ltima parte del eJemplo antenor puede generalizarse como lo mdica el teorema
siguiente.
Teorema 13.3. Sea X distnbuida exponencialmente con parmetro "X y
sea (X,: ... , X.) una muctra aleatona de X. Sea K - min(X 1 .... X.).
Entonces K est tambin distribuida exponencialmente con parmetro ""'

= 0.532.
de las tablas de la distribucin normal.
Obsertl(tcitll: en el caso presente podemos obtener inmediatamente la distribucin exacta

de T sin recurrir al teorema del lim1tC central. Demostramos en el teorema 10.9 que la suma
de variables aleatorias independientes distribuidas exponencialmente tiene una distribucin
gama: es decir.

Demostrucitin : sea 11 la fda de K . Luego


1/(k) = P(K::::;; k)

1 - P(K "> k) = 1 - (1 - F(k)]".

en donde F t:s la fda de X . Como F(x)


1 - e ". Luego H(k) = 1 - e-*
Derivando 1/(k) respecto a k da. h(k) = mxe ""k

13.4

Observacin: este teorema puede generalizarse como sigue. Si X 1 , X. son variables


aleatorias independientes y si X, tiene una distribucin exponencial con pantmetro a 1
i = l, ... , n, entonces K = m in (X, ... , X.) tiene una distribucin exponencial con parmetro a 1 + + a,. Para una demostracin de esto. ver el problema 13.2.

t3.4

Puesto que ,\ 1 y X 2 estn distribuidos indcpcndicnlcmentc con distribucin


N(Jt. u 2). encontramos que (X 1 - X 2 ) tiene distribucin N(O. 2a 2 ). Luego

El teorema 13,4 nos da informacin acerca de la estadstica S2


Teorema 13.4. Suponiendo que X" .... X., es una muestra aleatoria de
una variable aleatoria X con esperanza Jl y varianza u 2 Sea
S2 = _ 1_
11 -

en donde

X es el promedio

(X,- X)2,

! 1= 1

muestra!. Entonces se tiene lo siguiente:

(a) E(S 2) = u 2
(b) Si X est distribuida normalmente, [(n - l)/ u 2
bucin x cuadrado con (n - 1) grados de libertad.

Demostracin:

JS 2

tiene una distri-

(X- X) 2 =

(X - Jl + JI - .\') 2

ja J

L"

[(X- t)2

+ 2(Jl-

+ (t-

X)(X - Jl)

Observacin: aunque S 2 se define como la suma de ' los cuadrados den trminos, esos 11
trminos no son independien~s. En realidad. (X 1 - X) +(X 2 - X! + +(X.- X) =
L-7. 1 X 1 - nX =O. Luego hay una relacin lineal entre los 11 trminos lo que indica que tan
pronto como (n - 1) sean conocidos. el 11 simo est determinado.

Finalmente. establezcamos (sin demostracin) un resu ltado que se refiere


a la distribucin de probabilidades del recorrido de muestra R.

(a) Escribiendo

(s i

tiene distribucin x cuadrado con un grado de libertad. (Ver el teorema 10.8).


La demostracin para un n general sigue una lnea semejante. Debemos demostrar que :E'. , (X 1 - X) 2 fo: 2 puede descomponerse en la suma de (11- 1) cuadrados
de variables aleatorias independientes, cada una con distribucin N(O, 1).

.X)2]

Teorema 13.5. Sea X una variable aleatoria continua con fdp f. Sea
R = M - K el recorrido de muestra basado en una muestra aleatoria
de tamao n. Luego la fdp de R est dada por

i= 1

_L

(X; - Jt)

+ 2(t - X) !:

1=

(X;- Jl)

+ n(Jl-

X) 2

!:

(X, - Jt) 2

2n(Jl- X) 2

+ n(Jl-

EJEMPLO 13.2.

X) 2

n- l

(X - Jl)

1!(,\' -

g(r) = n(n - 1) _t="'- , r"- 2 f(s)f(s

E(X; -

jc

O.

Un voltaje aleatorio V est distribuido uniformemente en

t)2

Luego
1

parar~

muestra! R. Encontramos que la fdp de R es


2

i= 1

E(-

+ r)ds,

[0. 1]. Se obtiene una muestra de tamao n. Va. ... . V,, y se calcula el recorrido

i= 1

= L"

g(r) = n(n- l).f:.<e_ ,JJ:':f'(x)dx]" - 2 /(s)f(s

1 1

1
X) 2 ) = - 11 -

[nu
1

2
-

n 0'

<12.

Observacin: si hubisemos dividido por n en vez de (n- 1) a l definir


antenor no habra sido vlida.

s2. la propiedad

(X, - X) 2 + (X2 - X) 2 =[X , - t(X, +

x2w + [X2

- HX,

= !(2X, - X,- X 2] 2 + ![2X2 - X 1


= !((X,- X2) 2 + (X 2

+ X2)] 2
-

X 2] 2

X) 2J =[X,- X 2)2
2

g(r)

Tenemos f(s) = f (s + r) - 1 para cualquier


O ::; s ::; 1 y O ::; s + r :::; 1, las que juntas implican
que O ::; s ::; 1 - r. Luego

k(r) =

(b) No demostraremos (b) sino que slo hacemos posible su validez al considerar el caso especial siguiente: Considerando :E7e 1 (X 1 - X) 2 paran= 2. Luego

+ r) ds.

11(11 -

= 11(11 -

1) J _, ,... - z ds
l)r" -

2( 1

- r).

r (n-2)/ (n-1)

O ::; r ::; l.

FIGURA

r= t

13.2

Para 11 > 2, el grfico de la fdp de R tiene la forma que se indica en la figura 13.2.
Observe que cuando n-> oo el valor de r en el cual ocurre un mximo se desplaza
a la derecha. Luego, cuando el tamao de la muestra se aumenta, llega a ser ms
y ms posible que el recorrido R sea prximo a 1, que es intuitivamente lo que
esperaramos.

284

13.5

Mtwotrlls y dl,..rlbuclnnt"' no...,.Crl

13.5

La transformacin integral

Una muestra de una variable aleatoria X puede usarse para obtener informacin acerca de parmetros desconocidos asociados con la distribucin de probabilidades de X. Sin embargo, podemos usar una muestra con un objeto diferente.
Podramos tomar algunas observaciones de una variable aleatoria cuya distribucin est completamente especilcada y luego usar esos valores muestrales
para aproximar ciertas probabilidades que seran muy dificiles de obtener con
un clculo matemtico directo. Por ejemplo, suponiendo que X tiene una distribucin N(O, 1) y queremos estudiar la variable aleatoria Y= e-x sen X . En especial, supongamos que queremos calcular P(O $; Y $; ) A fm de obtener la
respuesta exacta, necesitamos encontrar G. la fda de Y y luego calcular GH) - G(O).
Encontraramos mucha dificultad para hacer esto. Sin embargo. podemos usar
otro enfoque que est basado en la idea de simular el experimento que da origen
a la variable aleatoria Y. Entonces usamos la frecuencia relativa como una aproximacin a la probabilidad buscada. Si esta frecuencia relativa se basa en un
nmero de observaciones sulcientemente grande, la ley de los grandes nmeros
justilca nuestro procedimiento.
Especficamente, supngase que tenemos una muestra aleatoria de la variable
aleatoria anterior, cuya distribucin est completamente especificada, X t. . . . , X .
Para cada X, definimos la variable aleatoria Y1 = e -x; sen X 1 Luego, evaluamos
la frecuencia relativa n,.fn, en donde n,. es igual al nmero de valores Y~o sean y,
que satisfacen O ~ y, ~ !. Luego n,./n es la frecuencia relativa O ~ Y~ !, y si n
es grande, esta frecuencia relativa estar prxima a P [O ~ Y ~ !) segn ta
ley de los grandes nmeros.
Para aplicar el procedimiento anterior, debemos encontrar un medio de
~ene~ar una muestra aleatoria X 1, . , x. de la variable aleatoria cuya distnbucJn es N(O, 1). Antes de indicar cmo se hace esto, expongamos brevemente
u~~ ~istribucin para la cual este trabajo ya se ha realizado debido a la dispombhdad de tablas. Supngase que X est distribuida uniformemente en el intervalo [0, 1]. A ln de obtener una muestra aleatoria para tal variable aleatoria
slo necesitamos ver una tabla de nmeros aleatorios (ver el Apndice). Esa~
tabl~s se han hecho de manera que sean tiles para este propsito. Para usarlas,
sencillamente selecciOnamos una ubicacin al azar en la tabla y luego obtenemos
nmeros a lo largo de lilas o columnas. Si queremos usar esos nmeros tabulados
para representar valores entre O y 1, slo necesitamos poner una coma decimal
al comienzo del nmero. As, el nmero anotado 4573 se usarla para representar
al nmero 0,4573, etc.
La disponibilidad de esas tablas de nmeros aleatorios hace la tarea de obtener una muestra aleatoria de una distribucin arbitraria relativamente sencilla
debido al resultado contenido en el teorema siguiente.
Teorema 13.6. Sea X una variable aleatoria con fdp f y fda F. [Se supone
que /(x) = O, x t: (a, b)). Sea Y la variable aleatoria delnida por Y = F(X).
Luego Y est distribuida uniformemente en [O, 1] (Y se designa como la
transformacin integral de X).

1 1.~

1.a tra11"luumdu t'IUtru

1K4f

DemoMraci11 : puesto que X es una variable aleatorin contmua, la fda J.' es


una funcin continua estrictamente montona con una inversa. F 1 E~ decir,
)' = F(X) puede resolverse para X mediante Y: X = F '(Y). (Ver la rigura 13.3.)
[S F(x) = O para x $; a. definimos p - 1 (0) = a. Anlogamente. si F(x) = 1 para
x C!: 1>. delnimos p - 1 (1) = b.]
Sea G la fda de la variable aleatoria Y delnida anteriormente. Luego

G(yl

= P( Y ~ )') =

P(F(X) ~y)

Por tanto la fdp de Y. g(y)

= G'(y) =

= P(X

.-- 1 (y)) = F(F

(.)'1) - y.

J. Esto establece nuestra demostracin.

Ob~erruciones: (a) Comentemos brevemente cmo se exumma rc.tlmente el valor de


una variable aleatoria Y. Dado un valor x, de la variable aleatoria X. calculamos luego el valor
de Y - f (X) como y= F(x). en <londe Fes la fda de X (conocida~
(b) El teorema 13.6 enunciado y demostrado anteriormente para variable:; aleatorias
continua~ tambin es vlido para variables aleatorias diserela>. Hay que hacer un pequeo
cambio en la demootracin puesto que la fda de una variable aleatoria discrela es una
funcin e:.calonada y no tiene una inversa nica.

F-'(y)

FIGURA 13.3

Podemos usar ahora el resultado anterior a ln de generar una muestra aleatoria de una variable a leatoria con una distribucin especfica. Consideraremos
nuevamente slo el caso continuo. Sea X una variable aleatoria continua con
fda F de la cual se pide una muestra aleatoria. Sea y 1 un valor (entre O y 1) obtenido
de una tabla de nmeros aleatorios. Puesto que Y = F(X) est distribuida uniformemente en [O. 1), podemos consldeiira )-;-; cOio una observacin de esa
variable aleatoria. Resolviendo y 1 = F(x 1) para x, (lo que es posible si X es
conun ua). obtenemos un valor de una variable aleatoria cuya fda es F. Continuando este procedimiento con los nmeros y 2 , . )' obtenido~ de una tabla
de nmeros aleatorios, tenemos x;, i = l. ... , 11, como solucin de la ecuacin
y1 - F(x1), y por tanto. tenemos nuestros valore~ muestrales buscados.
EJEMPLO 13.3. Supngase que queremos obtener una muestra de tamao
cinco de una variable a leatoria con distribucin N(2. 0,09) y supngase que obtenemos los valores siguientes de una tabla de nmeros aleatorios: 0,487; 0,722;
0,661; 0.194; 0.336. Definamos x 1 como sigue:

13.5

fx'

0,487 = .j2nj (0, 3) _ "" exp -

=- -

Jlx o-2)/0 ,3

.j2n -..,

( _

( -

1 0,32)2]dt
Z
52)ds = $ (X
' _2) .
- -

exp - 2

0,3

De las tablas de la distribucin normal encontramos que (x 1 - 2)/0,3 = - 0,03.


Luego x, = (- 0,03)(0,3) + 2 = 1,991. .Este nmero representa nuestro primer
_valor de muestra de la distribucin especificada. Continuando de la misma manera
con los otros valores obtenernos los siguientes valores adicionales de muestra:
2,177; 2,124; 1,742; 1,874.
El procedimiento anterior puede generalizarse como sigue. Para obtener un
valor de muestra x 1 de la distribucin N(.t, rJ 2 ), obtenemos un valor muestra! y 1
(entre O y 1) de una tabla de nmeros aleatorios. El valor pedido x 1 est definido
por la ecuacin <J>((x, - .t)fq) = y ,.
Observaciones: (a) Hay mtodos alternos al sugerido anteriormente, para generar
muestras aleatorias de una distribucin especfica. Ver el problema 13.8.
(b) Uno de los aspectos que hace til este enfoque de Simulacin>> es la posibilidad de
tener una muestra aleatoria muy grande. Esto es posible, especialmente, si se dispone de un
computador electrnico.

E.II!MPLO 13.4. El empuje T de un pro pelen te slido de un sistema de cohetes


es una funcin muy complicada de un nmero de variables. S i X = seccin de
la ga rganta, Y = factor tasa del encendido, Z = rea donde se quema el propelente slido, W = densidad del propelente slido. n = coeficiente de encendido.
y e; = constante, i = 1, 2, 3, podemos expresar T como sigue:

T - e, YWZ

)111-oX + ez (YWZ
X )'1
1-t)+el.
z

En exposiciones anteriores las siguientes hiptesis posibles : X , Y, W y son variables aleatorias independientes distribuidas normalmente con promedios y
varianzas conocidos. C ualquier intento para obtener la distribucin de probabilidades de la variable aleatoria T o an de expresiones exactas para E(T) y V(T)
fracasar debido a la relacin compleja entre X , Y, W, Z y T.
~i pudiramos genera r una muestra aleatoria (grande) de X , Y, Z y W, por
_ejemplo obtener cuaternas (X r, Y1, Z;, W1), podramos luego generar una gran
muestra de T, llammosla (T., .. . , T.) e intentar estudiar las caractersticas de
la variable aleatoria ~mp ricarnente (mediante la muestra). Supngase, por
ejemplo, que deseamos calcular P(a ~ T =::; b). Para aplicar la ley de los grandes
nmeros, simplemente necesitamos obtener la frecuencia relativa del suceso
{a ~ T ~ b} de nuestra m uestra (grande), y luego poder tener una certeza razonable de que la frecuencia relativa se diferencia muy poco de la probabilida~ terica que est siendo buscada.

1 3.~

Hasta ahora nos hemos interesado slo en el problema de aproximar una


probabilidad exacta cop una frecuencia relativa basada en un gran nmero de
observaciones. Sin embargo, el mtodo que hemos sugerido puede usarse para
obtener soluciones aproximadas de problemas que son de naturaleza completamente no probabilstiC'a. [ndicaremos slo uno de los muchos tipos de problemas
que pueden considerarse de esta manera. El enfoque general se designa como el
mtodo de Monte-Cario. Una descripcin muy buena de este mtodo aparece
en Modern Mmhematics for tire Engineer, de E. F. Beckenbach. publicado por
M cGraw-Hill Book Co., l nc., New York, 1956, captulo 12. El ejemplo 13.5 se
obtuvo de este libro.
EJEMPLO 13.5. Supngase que deseamos calcular la integral JA x dx sin recurr ir
a los procedimientos triviales pa ~a obtener su valor t. Se p rocede como se ind ica.
Se obtiene, de una tabla de nmeros aleatorios, una muestra a lea toria de la variable aleatoria distribuida uniformemente en [O, 1]. Suponiendo que los valores
m uestrales son 0,69; 0.37; 0,39; 0,97; 0,66; 0,51; 0,60; 0,41; 0,76 y 0,09. Puesto
que la integral pedida representa a E(X). en donde X es la variable aleatoria
uniformemente distribuida que se muestrea, parece razonable que podamos aproximar E(X) usando el promedio aritmtico de los va lores muestrales. Encontramos que X = 0,545. (Si hubisemos tomado una muestra mayor, tendramos
una buena razn para esperar una exactitud mayor).
Esta ilustracin trivial indica la idea bsica tras muchos mtodos de Mon teCario. Estos mtodos han sido usados exitosamente pa ra evaluar integrales mltip les sobre ciertas regiones complicadas y reso lver algunas ecuaciones diferencia les.
Observacirr: los medios para obtener muestras de una distribucin arbitraria como se
describi en la seccin t 3.5. pueden llegar a ser muy complicados. Debido a la gran importancia de la distribucin nonnal. existen tablas dispon ibles (Ver la tabla 7 en el Apndice)
que eliminan una gran parte de los clculos descritos anteriormente. La tabla 7 da. directamente, muestras de la distribucin N(O, 1). Estos valores muestrales se llaman desviaciones
normales. Si se necesitan n valores muestrales x, ... , x. de la distribucin N(O, 1), se toman
directamente de la tabla 7 (escogiendo el punto de partida de alguna manera aleatoria posible,
como se describi para la tabla de los nmeros a leatorios).
De una manera sencilla, tambin puede usarse esta tabla para obtener muestras de una
distribucin normal arbitraria N(.1, o- 2 ). Senci llamente se multiplica x,, el valor escogido
de la tabla, por a y luego se le suma .t. Es decir, se forma y, = ax, + .1. Luego Yr ser un valor
muestra! de la distribucin pedida.

PROBLEMAS
t 3.1.

Deducir la expresin para la fdp del mnimo de una muestra. (Ver el teorema 13.2.)

13.2. Demostrar que si X,, .. . , X. son variables aleatorias independientes, que tiene
cada una distribucin exponencia l con parmetro a,, i = 1, 2, .... 11 y si K = min (X,..... x.),
entonces K tiene una distribucin exponencial con parmetro a, + '+ ~ . (Ver el teorema
13.3.)

13.3. Supnga~c que X tiene una distribucin geomtrica con parmetro p. Sea X 1, ... , X.
una muestra :tleatoria de X y sea M
max (X 1..... X.) y K = m in (X 1. . ... X.). Encontrar
la distribucin de probabilidades de J\.1 y de K. [lndicucitin: P{M = m) = F(m)- F(m- 1).
'en donde Fes la fda de M.]
13.4.

Se obtiene una muc.tra de tamailo 5 de una "ariable aleatoria con distribucin

N(l~4).

(a) Cultl es la probabilidad de que el promcJ1u muestra! exceda 13?


(b) Cul es la probabilidad de que el minnno de la muestra sea menor que lO?
(e) ,Cul e\ la probabilidad de que d m""""' dl la mu~lra ~'<'eda 1~
13.5. La durac16n de un :~rticulo (en horas) c't distribuida exponencialmente con par
metro {1 = 0.001 Se prueban 'ICI~ articulo~ y \C anotan sus tiempos para fallar.
(al ;.Cuf1l e' la probab1hdud de que nmgun artculo ralle antes de que hayan transcurrido

!!00

hora~

13. 11. Se toman muestras independientes de tamao 10 y 15 de una 1arablc alcatoriu


distribuida normalmente con esperanza 20 y varianza 3. Cu l es la probabilidad de que el
promedio de las dos muestras se direrencie (en valor absoluto) en m{" de 0.3'/
13.12. (Para este ejercicio y los tres siguientes, lea la observacin al final del capitulo 13.)
u~ la tabla de las desviaciones normales (tabla 7 del Apndice) y obtenga una muestra de
tamao 30 de una variable aleatoria X que tiene una distribucin N( l. 4). Usar esta muc>tra
para responder lo siguiente:
(a) Comparar P(X :2: 2) con la rrecuencia relativa de ese suoeso.
(b) Comparar el promedio muestra! X y la 1arianza muestra! S 2 con 1 y 4 re~pccuvamentc.
(e) Construir un gr.fico de F(l) = P(X .$ 1). Usando el mt~mo >IStcma de coordenad~.
obtener el grfico de la funcifl de disrribuci11 emprica F. definida como sigue:
FA(I) =O

(b) ,Cul es la probabilidad de que nmgn artculo dure ms de 3000 horas'?

=k n
=1

13.6. Supng;se que X 11cne diStribucin f\ (0. 0.09). Se obtiene una muestra de tamao 25
de X. sea X 1.... X B ,Cul e' la probabilidad de que I.fS 1 Xf exceda 1.5?
13.7. Utili7.ando una tabl:t de nmero~ nk;~torios. obtener una muestra aleatoria de tamai\o 8 de una variable alcatona que tiene las distribuciones siguientes:
(a) exponencial. con parltmctro 2.
(b) x cuadrado con 7 grados de lbert:td,
(C) N(4, 4).
13.8. En la seccin 13.5 hemos dado un mtotlo con el cua l puede generarse una muestra
aleatoria de una distribucin cspccilicada. ll ay muchos mtodos distintos con los cuales puede
hacerse esto. algunos de los cua les pueden prercrirsc al dado. especialmente si hay instrumentos
de cmputo disponibles. Uno de tales mtodo~ es el siguiente. Supngase que deseamos
tener una muestra aleatoria de unu vamtblc a leatoria .ue tiene una distribucin de X cuadrado
con 2k grados de libertad. Proccderemo~ como >igue: se obtiene una muestra aleatoria de
tamao k (con ayuda de la tabl:t de nmeros aleatorios) de una variable aleatoria que est
distribuida unirormcmcnte en (0.1). sea U,, ... U,. Luego calculemos X 1 ~ -2 1n(U 1
U, ... U,)
2I:t 1 ln(U 1). La variable aleatoria X, tendr entonces la distribucin pedida,
como lo indicaremos a continuacin. Luego. continuando con este esquema. obtenemos
otra muestra de tamao k de una variable aleatoria distribuida unirormemente y encontramos
as el segundo valor muestra! X 2 Ntese que este procedimiento necesita k observaciones de
una variable aleatoria diMribuida unirormemente para cada observacin de l.~ Para verificar
la proposicin que se h1.ro antenormente procederemos como sigue.
(a) Obtener la runctn generadora de momentos de la variable aleatoria -21n (U1). en
donde U es distnbuda u01rormemente en (0. 1).
(b) Obtener la runcin generadora de momentos de la variable aleatoria
In (U1).
en donde la U, son variables aleatorias independientes cada una con la distribucin anterior.
Se compara esta fgm con la de la distribucin l. cuadrado y luego se obtiene la conclusin
buscada.

-2r.:.,

13.9. Usando el esquema bosquejado en el problema 13.8. obtngase una muestra aleatoria de tamao 3 de la distribucin X~
13.10. Una vanable aleatoria continua X est distribuida unirormemente en (- i.l~
Se obtiene una muestra de tamao 11 de X y se ealcula el promedio muestra! X. Cuill es la
desviacin estndar de X?

si

1 < X111

si

X 1" .$

si

1;;!;

< ,'( 1. . "

X"''

en donde X 111 es la i-sima mayor observacin en la muestra (es decir. Y" 1 es el e,tadigraro
de i-simo orden). [La runcin F. se usa frecuentemente para aproxmar lo rda F. Puede deF(t).]
mostrarse que bajO condiciones muy generales lim.-" F.(l)
13.13. Tenga K una distribucin N(O, 1). De la tabla 7 en el Apndice. obtener una muestm
de tamao 20 de esta distribucin. Sea Y = lXI.
(a) Usar esta muestra para comparar P[l < Y .$ 2] con la rrccucncia relativa de ese
suceso.
(b) Comparur E( Y) con el promedio muestra! Y.
(e) Comparar la rda de Y. F(t) = P( Y .$ 1) con F. la fda emprica de Y.
13.14. Supngase que X tiene distribucin N(2, 9). Sea X 1
toria de X obtenida con ayuda de la tabla 7. Calcu lar

X 20 una muestra alea-

y comparar con (S 2 ) = 9.
13.15. Tenga X una distribucin N(O.l). Sea X, ..... X 30 una muctr;t alcatona de X
obtenida. usando la tabla 7. Calcular P(X 2 :2: 0.10) y comparar C>te valor con la frecuencia
relativa de ese suceso.

14

14.2

Estimacin de Jos parmetros

Puesto que esta puede ser la primera vez que el lector encuentre preguntas de
esta clase, vale la pena comentar brevemente la naturaleza general de este problema.
A muchas preguntas matemticas, existe una respuesta definida. Esta puede ser
muy dificil de encontrar, puesto que implica muchos p roblemas tcnicos y debemos
contentarnos con una aproximacin. Con todo, habitualmente es evidente cuando
tenemos una respuesta y cuando no. (P or ejemplo, supongamos q ue nos piden
encontrar una raz rea l de la ecuacin 3x5 - 4x 2 + 13x - 7 = O. U na vez que
hemos encontrado una solucin, es muy sencillo verificar si es la correcta: slo
necesitamos sustituirla en la ecuacin dada. Si tenemos dos respuestas aproximadas, r 1 y r 2 , es tambin sencillo decidir cu l aproximacin es mejor.)
Sin embargo, el problema actual , particularmente la estimacin de p. no admite
un anl isis tan sencillo. En primer lugar, puesto que nunca podemos conocer el
valor verdadero de p (en cualquier situacin real a l menos), no tiene sentido decir
que nuestra estimacin {J es correcta. Segundo, si tenemos dos estimaciones
de p, llammoslas p1 y p2 , debemos encontrar algn medio para decidir cul es
mejor. Esto significa que debemos establecer algn criterio que podamos aplicar
para decidir si una estimacin es preferible a o tra.

14.1

Introduccin

En el capi tulo anterior sugerimos que una muestra de una variable aleatoria X
puede usarse con e l objeto de est imar uno o varios parmetros (desconocidos)
asociados con la d istribucin de probabilidades de X. En este capitulo cons ideraremos en detalle este problema.
A fi n de desarrollar un ejemplo especifico. consideremos la situacin s iguiente.
Un fabricante nos ha enviado 100.000 pequeos remaches. Un empalme perfectamente remachado necesita que cada remache ajuste perfectamente en un hueco y
por consiguiente se tendr a lguna dificultad cuando el remache lo exceda. Antes
de aceptar este cargamento. queremos tener alguna idea acerca de la magnitud
de p. la proporcin de remaches defectuosos (es decir. los que exceden el hueco).
y procedemos como sigue. Se inspeccionan n remaches escogidos a l azar en el lote.
Debido al gran tamao del lote, podemos suponer que escogemos con sustit ucin
_!!!!_nque realmente no procederamos as. Se definen las s iguientes variables aleatorias : X r = l. si el i-simo artculo es defectuoso, y O de otro modo i = 1, 2 . ... n.
Luego podemos considerar que X 1 X., sea una muestra de la variable aleatoria
X cuya distri bucin est dadap~ P(X = 1) = p. P(X = O) = 1 - p.
La distribucin de probabilidades de X depende del parmetro desconocido p de
una manera muy sencilla. Podemos usar la muestra X., .... X. de alguna manera
con el objeto de estimar el valor de p? Hay algn estadgrafo H tal que
H(X ,, ... , X.,) puede usarse como un estimador (puntual) de p?
Debera ser evidente que una muestra de tamao n. en donde 11 < 100.000.
nunca puede permitirnos reconstruir la verdadera composicin del cargamento
sin im portar cun hbi lmente usemos la informacin obtenida de la m uestra.
En otras palabras, a. no ser que inspeccionemos cada uno de los art culos (es decir.
tomemos n = 100.000) nunca podremos conocer el valor verdadero de p. (Esta
ltima frase se refiere evd~ntemenle a muestreo s in susti tucin.)
Luego, cuando proponemos a p como un estimador de p realmente no esperamos
_que p sea igua l a p. (~ecordamos ql~ p~variable aleatoria y, por tanto, puede
tomar muchos valores.) Este dilema da origen a dos preguntas importa ntes:
(1) ,Qu caractersticas queremos que posea un buen estimador?
(2) Cmo decidimos que un estimador es mejor que otro?
2.90

Crllerl"" pon r.tlmodnrt'

291

14.2 Criterios para estimadores


Definiremos ahora algunos conceptos importantes que nos ayudarn a resolver
el problema sugerido anteriormente.
De fmicin. Sea X una variable aleatoria con una distribucin de probabilidades que depende de un parmetro desconocido O. Sea X,, ... , X. una
muestra de X y sean x., ... , x. los valores muestra les correspondientes.
Si g(X" ... , X.) es una funcin de la muestra que va a ser usada para
estimar 9 nos referimos a g como un estimador de 9. E l valor que toma g,
es decir g(x 1 . , x.), ser mencionado corno una estimacin de 9 y habitualmente es escri to como O= g(x 1 , x.). (Ver la observacin s iguiente.)
Observacin: en este captulo violaremos una regla que hemos observado muy cuidadosamente hasta ahora: hacer una distincin cuidadosa entre una variable aleatoria y su valor.
Es decir, a menudo hablaremos de O
, contra la estimacin de cuando realmente deberamos
hablar del estimador g(X 1, , X.). Tambin escribiremos E(O) cuando, realmente. indicamos
E[g(X 1 , , X.)]. Sin embargo, en la parte en ta cual nos tomemos esta libertad eliminaramos
cualquier ambigedad posible.

e,

D efmicin. Sea Ouna estimacin del parmetro desconocido 8 asociado con


la distribucin de la variable aleatoria X . Entonces (}es un estimador insesgado (o estimacin insesgada ; ver la observacin anterior) para 8 si E(b) = 9
para cua lquier 9.
Observacin: cualquier estimacin buena debera ser <lprxima>> al valor que est estimando.
lnsesgadura significa principalmente que el valor promedio de la estimacin estar prximo
al valor verdadero del parmetro. Por ejemplo. si el mismo estimador se usa repetidamente y

14.2

promedtamos esos valores. esperaramos que el promedio fuera prximo al valor verdadero
del parmetro. Aunque es deseable que un estimador sea insesgado, puede haber ocasione>
en las cuales podramos preferir estimadores sesgados (ver ms abajo). Es posible (y rea lmente
es fciO encontrar ms de un estimador insesgado para un parmetro desconocido. A Jin de
hacer una buena eleccin en tales casos presentamos el concepto siguiente.
Sea O una estimacin inscsgada de O. Decimos que O es una
estimacin iiiSI'S!!llda tlt rarian:w muima de Osi para todas las estimaciones
O* tales que E(O*) = O. tenemos VII}J $ V(O*) para cualquier O. Es decir.
entre todas las estirnacione~ insesgada~ de O. rJ tiene la varianza ms pequea.

Definicin.

14.2

o equivalentemente, si
lim Prob

[lO- Ol ~ E]

= 1

para todo

> O.

Observaciones: (a) Esta definicin establece que una estimacin es convergente SI aumenta
el tamao de muestra, Oconverge en el sentido probabilstico anterior a O. Nuevamente. esta
es una propiedad intuitivamente atractiva que debe poseer una estimacin. Porque dice que
cuand o aumenta el tamao de muestra (lo que Significara, en circunstancms muy razonables.
que se dispone de ms informacin) la estimacin llega a ser mejom en el sentido ind1cado.
(b) Es relativamente fcil verilicar si una estimacin es insesgada o no. Tambin es muy
elemental compara r las varianzas de dos estimaciones insesgadas. Sin embargo, venJicar la
convcrgencta aplicando la definicin anterior. no es tan sencillo. El teorema srgutente es algunas
veces muy til.

Teorema 14.1. Sea una estimacin de O basada en una muestra de tamao n.


Si lim. _.., E(O) = O. y si lim. _,. V(b) = O, entonces Oes una estimacin
convergente de O.

Demostracin: usaremos la desigualdad de Chebyshev, ecuacin (7.20). Luego


escribamos:
F tGIJRII

14. 1

FiGURA

14.2

Obserl!acio11es: (a) La varianza de una va riable alea toria mide la variabi lidad de la
variable a leatoria respecto a su v;1lor esperado. Por tanto, es intu itivamente atractivo pedir que
un estimador inscsgado tenga una varianza pequea, porque as la variable aleatoria tiende a
aprox imarse a su promedio. lo cual en el caso de un estimador insesgado, significa aproximarse
a l valor verdadero del paritmetro. Luego si 6, y 6z son dos estimaciones de O. cuya fdp est
bosquejada ~n la Jig~ra 14. 1, posiblemente preferiramos d, a 62 Ambas estimaciones son insesgadas, y V(O,) < V(Oz).
E~ el caso de las estimaci!'nes 03 y 04 la decisin ~o es la'! evidente (figura 14.2) ya que
03 es msesgad~ mientras que
no cs. Sin embargo. V(0 3) > V(04 ). Esto significa que mientras
en promedio 03 estar prxima a O. su mayor 'arianza indica que no serian sorprendentes
desviaciones considerables de O. por otra parte tl4 tendera a ser algo mayor que O. en promedio
y podria an estar mas prxima a O que 6, (\cr ligura 14.2.).
(b) Existen tcnicas para encontrar e\limac10nes insesgadas de varianza mnima en general.
Sin embargo no podremos presentarlas aqui. Haremos uso de este concepto principalmente
COn el ObJeto ~e elegir entre dos O m\ estimacrorycs inses~das disponibles..Es decir. SI 01 y 02
son ambas csumactones msesgadas de O. y si V(ll 1) < V(0 2 ). preferiramos 01

o.

Otro criterio para discernir entre eslimaciones es algo ms dilicil de formular


y se basa en la siguiente delinicin.
Definicin. Sea O una estimacin (basada en una muestra X 1 X.) del
parmetro O. Se dice que 6 es una estimacin convergente de O, si
li rn P rob [10

- 01 > E] = O

para todo

>O

P[iO - Ol

~ t] ~ ~1 E[O- 0]2

~E[O- E(O) + E(0) - 0] 2


E

=~E{[O- E(0)] 2 + 2[0

E(Q)][E(UJ - O]

+ [E(0)- 0] 2 }
=

~ {Var 6 +O+
E

[E((1) - 0] 2 }.

Luego haciendo que n- oo y utilizando la hiptesis del teorema . encontramos


que lim. _,., P[IO - 01~ E] $O e igualamos as a O.

Observacin : si el estimador
ticamente.

Oes

insesgado. la primera condic1n se sat1sface autom-

Un criterio linal que se aplica a menudo para estimar puede formularse como
sigue. Suponiendo que X" ... , X. es una muestra de X y Oes un parmetro desconocido. Sea Ouna funcin de (X" ... , X.).
Defmicin. Decimos que Oes el mejor estimador i11sesgado de O si:
(a) E(O) = O.
(b) O 1:7 1 a1X 1 Es decir, Oes una funcin li11eul de la muestra.
(e) )1{0) $ V( O*), en donde O* es cualquier otro estimador de O que satisface
las relaciones (a} y (b) anteriores.

Posteriormente, consideraremos un mtodo muy general que nos dar buenas


estimaciones para un gran nmero de problemas, dado que ellas satisfarn uno o

294

t\Umocln de los porimelro..

14.3

ms de los criterios anteriores. Antes de hacer esto, consideraremos senctllamente


algunos estimadores que intuitivamente son muy razonables, y luego verificaremos
precisamente qu tan buenos o qu tan ma los son mediante los criterios anteriores.

Observacin: que el resultado demostrado en el ejemplo 14.1 es un caso c'pecral del tcore
ma 14.2, se deduce cuando observamos que la proporcin de defectuosos en la muestra, Y/n.
puede escribirse como (t/n)(X 1 + + X.). en donde los X 1 toman los va lores uno Y cero.
segn que el artculo inspeccionado sea o no ddectuoso.

14.3 Algunos ejemplos

El promedio muestra! citado en el teorema 14.2 es una funcin lineal de la


muestra. Es decir, es de la forma a, X 1 + azX z + + a.x., con a, == a.
1/ n. Fcilmente se observa que p. = .E7 = 1a;X; e_s un estimado~ .i~ses~ado de 1'
para cualquier eleccin de lo~ coeficientes que satisfacen ~~- condlcton .E, ; ra; =. l.
Surge la siguiente pregunta mteresantc. Para qu eleec1on de los a; (S~Jetos a
.E7 ; 1a1 = 1) es ms pequea la varianza de .t7. ,a1X1? ~esulta ~ue 1~ vananza es
minimizada si a, = 1/n para todo i. Es decir, X, es el es11mador hneal msesgado de
varianza mnima.

Los criterios anteriores de insesgados. varianza mnima. convergencia y linealilidad nos dan al menos una pauta para juzgar un estimador. Consideremos ahora
algunos eJemplos.
Reconsideremos el problema anterior. Hemos muestreado n
y encontrado que la muestra (X 1 , X.) produce exactamente k
defectuosos; es decir, Y = .Ef. 1 X 1 = k. Debido a nuestras hiptesis. Y es una
variable aleatoria distribuida binomialmente.
El estimador intuitiyamente ms sugestivo del parmetro p es p = Y11, la
proporcin de defectuosos encontrados en la muestra. Apliquemos algunos de los
criterios anteriores para ver qu tan bueno es un estimador p.
EJBMPLO 14.1.

rema~hes

E(p) =

Luego

p es

jY) =~(llp)
11

\11

p.

Para verificar esto. consideremos

P.=

"

L:" a1X 1

Luego
Var i

C12

. (y)
-; = ,
1

(11p)(l - p)

L:" al

1 t

un estimador insesgado de p.
V(p) = V

l.

ll

. 1

i l

=p(l-p)

11

Luego V(p) -+ O cuando 11 -+ oo, y por tanto pes estimador convergente. Como lo
hemos sealado anteriormente, puede haber muchos estimadores insesgados para
un parmetro, a lgunos de los cuales pueden ser muy malos. adems. Por eJemplo,
considerando en el contexto del ejemplo presente el estimador p* definido as:
p* = 1 si el primer artculo elegido es defectuoso, y O en otro caso. Es decir, es
evidente que no es muy buen estimador cuando observamos que su valor es una
funcin slo de X" en vez de X t. . . . , X . Sin embargo. p* es insesgado. porque
E(p*) = !P(X = 1) + OP(X =O)= p. La varianza de p* es p(l
p). la que se
compara muy mal con la varianza de p cons1derada anteriormente. co-to ~
p(l - p)/11. especialmente si 11 es grande.
El resultado obtenido en el ejemplo anterior es un caso especial de la siguiente
proposicin general.
Teorema 14~. Sea X una variable aleatoria con esperanza finita lA y varianza
u 2 Sea X el promedio muestra!, obtenido en una muestra de tamao n.
Luego X es un estimador insesgado y convergente de lA

Demosrracin: sta se deduce inmediatamente del teorema 13.1 donde demostramos que E(X) = 11 y V(X) = u 2 /11 que tiende a O cuando 11-+ ~-

puesto que los X 1 son variables aleatorias independientes con vananza comun
Escribimos

f. tf, = (a

1 -

l/ 11)2

+ -:1- (a,. -

l / n} 2

+ (2/ ll)(a, + -1

a.) - n( 1/ rl

CT

2
)

1 l

=(a, _ l/ n)2

+ ... + (a.

- 1 11) 2

111 (puesto que 1t, a = 1)

Luego esta expresin es minimizada evidentemente si a; = 1/11 para todo i.


EJEMPLO 14.2. Supngase que T. el tiempo para fallar de una componen!~.
est distribuido exponencialmente. Es decir. la fdp de Test dada por /(1) = Pe '
Supngase que probamos 11 componentes. ~notando el momento en que falla
1 ~
cada una. sea n T1, T,.. Deseamos una estimactn msesgada del tiempo ~sperado
para fallar E(1) = L//J. basada en la muestra (T1 T.l Uno de tales estimadores
es f = ( 1'11) .E7; 1 T. Del teorema 14.2 sa~mos qu~ E(T) = 1 {J. Puesto que V<!>.=
1/P2. el teorema 13.1 nos afirma que V(T) = 1 fl n. Sin emb~rgo. Tno es elumco
estimador insesgado de l fl. Consideremos. en efecto, el mm1mo de la ~ue_str~,
z = min (T1 , r;,). De acuerdo con el teorema 13.3. nuevamente Z es_t~ diStribuida exponencialmente con parmetro 11P. Luego el estimador nZ tamb1en es un
estimador insesgado de 1/ P.

o.

14.3

En la tabla. k es el nmero de partculas observadas en una umdad de t1empo


(unidad = i minuto), mientras que nl es el nmero de intervalos en los cuales
k partculas fueron observados. Si hacemos que X sea el nmero de partculas
emitidas durante el intervalo de tiempo de ! (minuto) de duracin. y suponemos
que X sigue la distribucin de Poisson. tenemos

Para evaluar la \ananza calculamos


V(11Z)

As. aunque los dos estimadores 11Z y Tson inscsgados. el ltimo tiene una varianza
ms pequea ) por tanto debera preferirse.
Sin embargo. en esta situacin especial hay otra consideracin que podra
1nfluir en nuestra eleccin entre los dos estimadores sugeridos. Las 11 componentes
podran probarse simultneamente. (Por eJemplo. podramos poner 11 bombillas
en 11 portalmparas y anotar el tiempo en que se queman.) Cuando usamos 11Z como
estimador. la prueba puede terminarse tan pronto como la primera componente
falle. Al usar Tcomo estimador debemos esperar hasta que todas las componentes
hayan fallado. l s muy pos1ble que transcurra mucho tiempo entre la primera y la
lt1ma falla. D1c1ndolo de una manera distinta, si Les el tiempo necesario para
probar los 11 artculos y calculamos la estimacin para 1/ /J. usando 11Z, tenemos
L = min (T .... r,,). mientras que a l usar T. tenemos L = max (T1, ... 7;,). Luego,
si el tiempo necesario para efectuar la prueba es de cualquier efecto serio (digamos
en trminos de costo). podramos preferir al estimador con mayor varianza.
EJEMPLO

!l!o kllt
11

1j

11

EJEMPLO 14.5. En la fabricacin de explosivos pueden ocurrir c1erto nmero de inflamaciones al azar. Sea X el nmero de inflamaciones por da. Suponiendo que X tiene una distribucin de Poisson con parmetro J.. La tabla 14.2
da algunos datos que se van a emplear para la estimacin de )..

ti.

EJEMPLO 14.4. Fn la tabla 14.1 reproducimos los datos oht<.:nH.los en el famoso experimento realizado por Rutherford (Rutherford y Gcig<.:r. Phi/. Mag.
S6. 20. 698 ( 1910)) sobre la em1s1n de partculas ~ por una fuente radiactiva.

TAilLA 14.1

57

f11,

203

383

525

TABLA 14.2

(a) Aunque d1vid1r por (11 - 1) en vez de 11 es diStinto cuando 11 es relativamente pequeo. para un 11 grande ltt diferencia es pequci\:o cualquiera que scu el cslllnudor que
se use.
(b) El ejemplo 14 3 ilustra una slluacin muy comn: puede suceder que un C'>timador
de un parmetro (1. sea sesgado en el scnt1do El/h. = k(l e n tal ca>o consideramo s simplemente
al nue\O ~timador {i1 k. que ser inse,gado.
(e) Puede demostrarse. aunque no lo haremos aqu. que el estimador anterior de 11 2 es convergente.

L:!X

Obsenaciou~, ;

532 40K

273

10

11

Total

49

27

10

2612

139

= 3.87 parttcu1as.

Por tanto un estimador inscsgado de A.. basado en el promedio muestra! es igual


a 30,96 (que puede interpretarse como el nmero esperado de partculas emitdas por minuto).

Ll = O llk

14 3. Suponiendo que se desea un estimador insesgado de la varianza

(f

iVf

k-, -

Puesto que E(X) = !A.. podemos usar el promedio muestra! para obtener un
estimador insesgado de k.A. Para A., obtenemos entonces el estimador = 8X.
Para calcular X simplemene evaluamos

a 2 de una \anable aleatoria, basada cn una muestra X 1.... X .

Aunque podramos considerar ( 1/ n) L/ _ 1 (X 1 - .\')2 , resulta que este estadgrafo


1)/n]a 2 . (Ver el teorema 13.4.) Luego un estitiene un va lor esperado igual a [(n
2
mador inscsgado de a se obtiene al tomar

e - P 81

P(X=k) =

Nmero de inflamaciones, k

Numero de d1as con k inflamaciones. n t

75 90 54 22

---

1-

Total

250

Usando nuevamente el promedio muestra! para la estimacin de J.. obtenemos


). = I:t knt = 1.22 nmero de inflamaciones por da.
I:t lit
.
EJEMPLO 14.6. Se ha establecido que el contenido de ceniza en el carbn
est distribuido normalmente con parmetros J.t y a 2 Los datos de la tabla 14.3
representan el contenido de ceniza en 250 muestras de carbn analizadas. [Datos
obtenidos de E. S. Grummel and A. C. Dunningham (1930); Britislr Sumdards
Imtillltiort 403, 17.] n,. es el nmero de muestras que tienen un porcentaJe x de
ceniza.

A fin de estimar los parmetros 1 y a 2 usaremos los estimadores in sesgados


presentados antes:

p = ~x XI~ =
250

16.998.

1
- 2 = 7.1.
a. 2 = -L:n,.(x
- p)

249

ZYH

Estimacin de los prlunctros

t 4.4

TABLA

14.3

Contemdo de \:COlla en el caroon


X
11,

"
X

"
X

9,25
1

9,75

10,25
2

10,75
1

11 ,25
1

11,75
2

12,25
5

12,75
4

13.25
7

13.75
6

14,25
13

14,75
14

15,25
15

15,75
13

16,25

24

16,75
15

17.25
19

17,75
23

18,25
22

18,75
12

19,25

19,75

20.25

20,75

12

21,25
6

21,75
4

22,25
2

22,75
2

23.25

23.75
3

24,25

24.75

25,25
1

"
Total
de mue~tras

250

..

Obsert'tlCIOn. supongase que tenemos un estimador msesgado O. de un pan\ metro O. Puede


~ucedcr.que estemos i.nteresados slo en estimar una runcin g(O), de O. [Por eJCmplo, si X esta

~1stnbu1da exponenc~almentc con parametro O, posible~ente estaremos intere.ado~ pn tj 8.


es de~1r, E( X)]. Oeberu1 s~ponersc que todo lo que nece~1tamos hacer es considerar 1/0 0 (0) 2,
por ejemplo, como el cst1mador 1nsesgado apropiado de 1/0 o (0) 2 Enrticamcntc esto no es
asi. t:ln realidad, una de las desventajas del criterio de insesgamicnto es que si hemos encontrado
un estimador insesgado de O, en general debemos partir del comienzo para encontrar una
estimacip para g(O): Slo si g(O) = aO +. b, es dcci!, si g es una runcin lineal de O, es cierto
qu~ E[g(O)] = ~[E(O)]. En general, E(g(O)) 'f g[E(O)]. Supngase por ejemplo, que X es una
va~mble al~atona con E( X) J-1_y V(X) = u2. Hemos visto que el promedio mu1.':>tral X es un
estimador msesgado de p. E~ X' un estimador insesgado de (p)2 ? La respue~ta ~no como
lo mdica el clculo sigu1ente. Puesto que V(X) ~ E(X)2 - (E(X))Z. tenemos

E(X) 2 ~ V(X) + (E(X))l u 2{ t1 + (JJ) 2 #- (Jl) 2

Aunque los ejemplos anteriores demuestran muy convincentemente, que en general

resulta qu: en muchos casos la igualdad es vlida. aproximadamente al menos. ~pecialmente


'1 el ~amano de muestra es grande. As, en el ejemplo anterior encontramos que E{X) = Jl
Y E( X)' = J-1 2 + U 2/n, (con 6 ~ X y g(z) = z2 ], que aproximadamente es igual a 11 z si n es
grande.

14.4 Estimadores de mxima verosimilitud


. Slo hemos considerado ciertos criterios con los cuales podemos Juzgar un esttmad~r. Es decir, conocido un estimador que se propone para un parmetro desconoctdo, podemos verificar si es insesgado y convergente. y podemos calcular

14.4

(al menos en pnnctpto) su varianza y compararla con la varianza de otro estimador. Sin embargo. no tenemos an un procedimiento general con el cual podamos encontrar un estimador razonable. Varios de tales procedimientos existen, y expondremos uno de ellos, llamado el mtodo de la mxima verosimilitud.
En muchos casos este mtodo da estimadores razonables.
A fin de evitar la repeticin de nuestra exposicin para el caso discreto y el
continuo, convengamos en la terminologa siguiente para los propsitos de la
exposicin presente.
Escribiremos j(x; 0) tanto para la fdp de X (calculada en x) como para
P(X = x) si X es discreta. Incluimos O (en la notacin) a fin de acordarnos que
la distribucin de erobabilidades de X depende del parmetro O en el cual estamos interesados.
Sea X 1 , , X. una muestra aleatoria de la variable aleatoria X y sean
x~. ... , x. los valores muestrales. Definamos la Junci11 de probabilidad L como
la siguiente funcin de la muestra y de O.
L(X, ... , X.; 8) =/(X a; O)f(X z; 8) .. f(X.; 0).

( 14.1)

Si X es discreta, L(x 1 . . . , x.; 8) representa P[X 1 = x, ... , X. = x .] mientras que si X es continua, L(x, ... , x.; O) representa la fdpconJunta dc(X 1 .. , X.).
Si se ha obtenido la muestra (X 1, X.). los valores muestrales (x,, ... , x.)
son conocidos. Puesto que O es desconocido. podramos hacernos la siguiente
pregunta. Para qu valor de O ser mayor L(x 1 , , x.; O)? Poniendo distintamente, supongamos que tenemos dos valores de 8, sean 8, y Oz. Supongamos
adems que L(x, ... , x.; 8,) < L(x, ... , x.; 01). Preferiramos entonces 82 a 8,
para los valores muestra les dados (x, .. . , x.). Porque, si 0 2 es realmente el
valor verdadero de O, entonces la probabilidad de obtener valores muestrales
tales como los que tenamos es mayor que si 8 1 fuese el valor verdadero de 8.
Informalmente, preferimos el valor del parmetro que hace tan probable como
sea posible que el suceso en realidad ocurri. Es decir, deseamos elegir el valor
ms probable de O despus de obte"er los datos, suponiendo que cada valor de 8
fuese igualmente posible antes que los datos fuesen obtenidos. Hagamos la siguiente definicin formal.
Defmicin. El estimador de mxima verosimilitud de O, llamado O, basado
en una muestra aleatoria X, . .. , x~ es el valor de 8 que maximiza a
L(X 1 , , X.; 8), considerando como una funcin de O para una muestra
dada X,, ... , X., en donde L est definida por la ecuacin (14.1). (Este
habitualmente se designa como el estimador ML.)
Observaciones : (a) Oser naturalmente un estadgraro y por tanto una variable aleatoria
puesto que su valor depender de la muestra (X 1o . , X.). (No consideraremos como solucin
u-naoonstante.)

(b) En la mayor parte de nuestros ejemplos Orepresentar un solo nmero real. Sin embargo,
puede suceder que la distribucin de probabilidades de X dependa de dos o ms valores paramtricos (como se hace en la distribucin normal, por eJCmplo). En tal caso 6 puede representar
un vector, O=(a. /f) o 6 - (or. p, y), etc.

14.4
(e) A fin Je encontrar el estimador M Ldebemos determinar el valor mximo de una funcin.
Asi. en muchos problemas podemos aplicar algunas de las tcnicas estndar del clculo para
encontrar este mximo. Puesto que In x es una funcin credeutl! de x.

14.4

Supngase que se prueban 11 de tales componentes. da ndo los tiempo~ de falla


T, . . . . T .
La funcin de verosimilitud de esta muestra por lo tanto est dada por

lnL(X, ... . . x.;O)


obtendr su va lor mximo para el mismo valor de O que lo obtendr L(X 1 X.; 0). Luego
bajo condiciones muy generales. suponiendo que O es un numero real y que L(X 1.. .. . \ . : /])
es una functn diferencmble de O, podemos obtener el estimador ML Oal resolver lo que se
conoce como la ecuacin de verosimllirud.

1n

P - P!.7

, T,. Por tanto,

(14.2)

i'Oin L(X,, .... X.; O) =O

Si O = (11.. {J). la ecuacin anterior debe sustituir,e por las ecuaciones de probabilidad simu ltneas
(t

i; In L(X 1. . . . . X.;x.(J) = O.

( 14.3)

NI In L(X 1 . X.: 2. Jl) =

= 11

iJ

c1

Luego 1n L

O.

Nuevamente se insistir en que el enfoque anterior no siempre es til. Sin


embargo, en un gran nmero de ejemplos importanlcs (algunos de los cuales
presentaremos brevemente) este mtodo proporciona el estimador M L pedido
con relativa facilidad.

Propiedades de los estimadores de mtixima verosimilitud:


(a) El estimador ML puede ser sesgado. Muy a menudo tal sesgo puede evitarse multiplicando por una constante apropiada.
(b) Bajo condiciones muy generales, los estimadores ML son convergentes.
Es decir, si los tamaos de muestra sobre los cuales se basan es grande, el estimador M L estart prximo al valor del parmetro que se estima. (Los estimadores ML poseen otra propiedad muy importante. la propiedad del c<gran tamao de muestra>> que se expondr posteriormente.)
(e) Los estimadores ML poseen la muy importante propiedad de i11varianza.
Supngase que B. es el estimador ML de O. Puede demostrarse que el estimador
ML de g(O) es g(O). Es decir, si el estadstico A toma sus medidas en pies2 y el estadstico B mide en pies y si el estimador ML de A es 6, entonces el de B sera
Recordamos que esta propiedad no la tienen los estimadores insesgados.
Consideraremos ahora ciertas aplicaciones importantes de los estmadores M L.

JO.

EJEM PLO 14.7. Suponiendo que el tiempo para fallar T, de una componente tiene una distribucin exponencial con parmetro p. La fdp de T por lo tanto
est dada po r

da i = 1/f donde Tes el promedio muestra! de los tiempos de falla. Puesto que
el valor esperado de T, el tiempo promedio para fallar, est dado por 1/ /J. usando
la propiedad de invarianza de los estimadores ML. encontramos que el es~
mador ML de E(T) est dado por T. el promedio muestra!. Sabemos que E(T)
= 11/1 y por tanto T. el estimador ML de E(T), es insesgado.
0/lsenacin: en general, no es fitci l encontrar la distribucin de probabilidades de los esli
madorcs M L. esx:cialmente si el tamao de muc,tra es pequeo. (Sin e> grande. encontraremos
que e' po>ible una wlucin general.) Sin embargo, en el CJCmplo actual podemos obtener 1~
distribucin de lo' estimadores ML. Del corolario del teorema 10.9 cncontramo> que 2n{JT
tiene distribucin x~ . Luego P(T S t) = P(211{JT 5. 211(Jt). Esta probabilidad se lec directamente de la tabla de la distribucin de X cuadrado sin, {J, y t son conocidos.
EJEMPLO 14.8. Se sabe que cierta proporcin (fiJa), p. de detonantes. es defectuosa. De una gran partida, se eligen n al azar y se prueban. Definamos las
variables a leatorias siguientes.

X,

1 si el i-simo detonante es defectuoso y O en otro caso, i = 1, 2, ....

11

Por tanto (X 1 , X.) es una muestra aleatoria de la variable aleatoria X que


tiene la distribucin de probabilidades P(X = 0) f(O; p)
1 - p. P(X = 1) =
j( 1; p) = p. Es decir. f(x. p) = p~( 1 - p) 1 ~. x = O. t. Luego
L(X 1 ,

X.,; p) = pt(l - p)- t,

en donde k = !.~ 1 X 1 = nmero total de defectuosos. Luego 1n L(X 1


= k In p + (11
k)l n (1 - p). Por tanto

X.: p)

Si k O o 11 encontramos directamente. al considerar la expresin de L. qoe el


valor mximo de L se obtiene cuando p = O l. respectivamente. Para k :1: O
o 11. hacemos ltn L/c p = O y encontramos como solucin p = k/n =X. el pro-

302

K,tlmacln de los parmelros

14.4

!,;>limadores de mhlma

14.4

medio muestra!. Luego nuevamente encontramos que el estimador ML da un


estimador insesgado del parmetro buscado.

~ro.lmllllucl

301

L(X, . .. , X,., a)

EJEMPLO 14.9. Supngase que la variable aleatoria X est distribuida normalmente con esperanza p y varianza l. Es decir, la fdp de X est dada por

1 e ( l /2)(x-~J'

f(x) =

./2n
Si (X ~o ... , X.) es una muestra aleatoria de X , la funcin de verosimilitud de
la muestra es
L{X 1,

21 1

Por lo tanto

lnL =-~2 ln(2n) -!2 .t.


~(Xr- r")2
Luego iJ I n Lfop = O da

1 exp [ - 1 ~
(Xr- 1) 2
x.;t) = ( n)"'
2 2

P. =

Si (X 1 ,

Para encontrar E(a) calculamos

o OJl
lnL = ;
~(X)
1 - JI

E(a)

= r~ ig(i) di = f' i 11
jo

X, el promedio muestra l.

Hasta ahora hemos considerado situaciones en las cuales


pudimos encontrar el valor mximo de L al derivar simplemente L(o 1n L) con
respecto al parmetro y hacer esta derivada igual a cero. Que esto no siempre
es efectivo, se ilustra con el ejemplo siguiente.
Supngase que la variable aleatoria X est distribuida uniformemente en el
intervalo (0, a] en donde a es un parmetro desconocido. La fdp de X est dada
por
f(x) = 1/a, O s x sa,
=O,
para cualquier otro valor.
EJEMPLO

Jo

11

,.

i: da
1

'X

11

= rx ;+! o = 11 +

14.10.

X.) es una muestra de X. su funcin de verosimilitud est dada por

14.3

FIGURA

1 rx.

Luego ,X no es un estimador insesgado de a; tiende a subestimar rx. Si queremos


un estimador inscsgado. podemos usar
11 + 1
a=
- max(X 1 ,

X.).

11

Observemos que aunque E(a) '# a: tenemos que lim.- 00 E(a) = rx. As, para verificar la convergencia debemos demostrar an que V(ci) -+O cuando 11 -+ oo. (Ver
el teorema 14.1.) Debemos calcular E(i) 2;

O S X 1 S a para todo i,
para cualquier otro valor.

L{X, ... , X.; a)= {1/a)",


=

O,

Considerando L como una funcin de a para (X., ... , X.) dada, se observa que
debemos tener a ~ X 1 para todo i a fin de que L sea distinta de cero. Esto es equivalente a pedir que a ~ max(X., ... , X.). Luego, si dibujamos L como una
funcin de a obtenemos el gr:ico que se muestra en la figura 14.3. De este grfico, es inmediatamente evidente qu va lor de a maximiza L, es decir

Luego
V(a) = E(a)2 - (E(a)j2 = n : 2 (X2

11 :

1T
(X

(X2

[(n + 2)(~ + 1)1

a= max(X ~o ... , X.).

Luego V(ci) _, O cuando n ..... oo y por tanto la convergencia est demostrada.

Estudiemos algunas propiedades de este estimador. Del teorema 13.2 obtenemos


la fdp de g(a) = n(F(a)]-l f(a). Pero F(x) = xfa, O S x S a, y j(x) estn dados
anteriormente. Luego obtenemos

14.11. Consideremos un ejemplo en el cual los dos parmetros


(ambos desconocidos) especifican la distribucin. Supngase que X tiene distribucin N(p. a 2). Luego la fdp de X es

a:

_ [ti]-(t)

g(a) = n -

11(ar'
--

a"

EJEMPLO

f(x)

-h-:
v 2n a exp ( -

1
2

[~]
)
a

304

Estinuodn de loo! par,nottros

14.4

Si (X" ... , X.) es una muestra de X, su funcin de verosimilitud est dada por

X.~.a) -- (2na2)-12 exp {- -2,1 .L= 1[X;


- -- -~]2}

L(x " ... ,

~Mimadores

14.4

p=

(1

L (-~)In (2na
=

~ E(X'- ~)
2
2

) -

1 1

aOG
In L =O
.

Tenemos

iJ In L

--a;- =

E(X

1 -

1 .

JI) _ O

(12

'

lo que da ji = X , el promedio muestra l. Y

iJ 1n L
n
(X 1 - 11)2
- - =--+:E
- 3- = 0 ,
OG

(1

1 1

(1

1 1n (" -

To

k) '

o, para la estimacin de 1/ {J el promedio de tiempo para fallar,

()p

(1

Debemos resolver simultneamente

servando que p es una funcin creciente de /1), obtenemos el estimador ML de


fl sencillamente al resolver la ecuacin 1 - e - ITo = k/ n. Un clculo fcil da

Luego
In

de mhlm '"'"lnolllcud

- To
~ (,-, --=--k)-/1-=1

En todos los eJemp los presentados, el mtodo ML da ecuaciones que eran


relativamente sencillas de.resolver. No es lo mismo en muchos problemas y a
menudo debemos recurrir a mtodos numricos (a proximados) a fin de obtener
los estimadores. El ejemplo siguiente ilustra tales dificultades.
EJEMPLO 14. 13. Como ya lo observamos, la distribucin Gama tiene aplicaciones imporlantes para probar la duracin. Supongamos. por ejemplo. que
el tiempo para fallar de un generador elctrico tiene una duracin X cuya fdp
est dada por
).'x' 1
X~ 0.
/(x) = r(r) e l.x.

que da
-2
(1

1 ~
2
1
-z
=- _, (X,-~) =- L (X,- X) .

n i= J

n ,. ,

Observe que el mtodo ML produce un estimador sesgado de a 2 , puesto que


ya hemos visto que un estimador insesgado es de la forma 1/ (n - 1)1:~ 1 (X 1 - X) 2
EJEMPLO 14.12. Anteriormente consideramos (Ejemplo 14.7) el problema de
estimar el parmetro fl en una ley exponencial de falla, al probar n artculos y
anotar sus tiempos de falla, T 1, . , T . Otro mtodo podra ser el siguiente.
Supngase que sacamos n artculos, los probamos, y despus que ha transcurrido cierto tiempo, T 0 horas, sencillamente contamos el nmero X de artculos
que han fallado. Nuestra muestra consiste en X 1, , X., en donde X 1 = 1 si
el i-simo artculo ha fallado en el perodo especificado, y O de otra manera.
Luego la funcin de verosimilitud de la muestra es

en donde r y ). son dos parmetros positivos que deseamos estimar. Supngase


que es posible una muestra (X" ... , X.) de X. (Es decir. se han probado 11 generadores y anotado sus tiempos para fallar.) La funcin de verosimilitud de
la muestra es
1
x;,
=<A.r'< nr ~x,y- exp(-A.t,X 1)
L(x 1 - r)
[r(r)]"
,
lnL

"' lnA.+(r - 1)

Xl-nlnr(r).

i=l

Luego debemos reso lver simultneamente, iJ 1n L/iJA. = O y


Esas ecuaciones llegan a ser

o In L/ ilr = O.

o lnL

-'},= -nr). - 1L 1 X; = O,

or

11

1n ). +

t_
1 1

1n X 1 -

Lueg_o iJ In L/iJA. =O da directamente~ =


por A., encontramos que In L/or = O da

r '(r)
1n r - - r(r)

Utilizando el resultado del ejemplo 14.8, encontramos que el estimador ML


de p es p = k/ n. Aplicando la propiedad de invarianza del estimador ML (ob-

1nX,-A.

0 1n L =

en donde k = 1:7. 1 X 1 = nmero de artculos que han fallado y p = P(ob (el


artculo falla). Ahora p es una funcin del parmetro que se est estimando; es
decir,

11

r/X . Por

= 1n X -

r '(r) = O.
r(r)

tanto, despus de sustituir).

1
- L 1n X 1

11 i=l

Es evidente que debemos resolver la ecuacin anterior para r, obtener r, y


luego l = ;x. Afonunadamente, la funcin r'(r)jr(r) ha sido tabulada. Un m-

306

Estimacin de los parmetros

14.4

El mtodo de los mlnlm.,.. uodtodos

14.5

todo muy rpido para obtener las soluciones pedidas ha sido presentado en un
artculo por D.G. Chapman (Anna/s of Mathematical Statistics, 27,498-506, 1956).
Este ejemplo muestra que la solucin de las ecuaciones de verosimilitud puede
conducir a dificultades matemticas considerables.

TABLA

Como lo hemos mencionado anteriormente, los estimadores ML poseen otra


propiedad que los hace muy apreciados, especialmente si las estimaciones se
hacen en una muestra muy grande.
Propiedad asinttica de los E:Stimadores de mxima verosimilitud. Si & es un
estimador ML para el parmetro 8, definido sobre una muestra aleatoria X, ... ,
X. de una variable aleatoria X, entonces para n suficientemente grande, la variable aleatoria &tiene aproximadamente la distribucin

N(o.~).

endonde

B=nE[: tnf(X;O)J ;

(14.4)

'

aqu f es la funcin de probabilidad puntual o fdp de X , dependiendo si X es


discreta o continua y en donde O se supone que es un nmero real.

Observaciones: (a) La propiedad anterior, por cierto, es mucho ms fuerte que la propiedad de convergencia que hemos mencionado antes. La convergencia expresa que sin es sufi-

cientemente grande, esl!lr prximo a O. Ahora esa propiedad nos describe cul es la conducta probabilstica de (J para una n grande.
(b) No demostraremos esta afirmacin, sino que simplemente ilustraremos su uso con
un ejemplo.

ti =

EJEMPLO 14.14. Reconsideremos el ejemplo 14.7. Encontramos que


1/f
es el estimador ML de {J. La fdp de T fue dada por f(t; {J) = {Je - 11'. t > O. La propiedad anterior nos dice que si n es suficientemente grande, = 1/f tiene aproximadamente la distribucin N({J, 1/ B), en donde B est dado por la ecuacin
(14.4).
Para encontrar B, consideremos 1nf(T; {J) = 1n {J - {JT. Luego

ti

14.5

[~ 1nf(T;{J)J =

2 -

2
{JT + T 2 .

14.4

X (altura, m)

Y (temperatura, q

X (altura, m)

Y (temperatura. q

1142
1742
280
437
678
1002
1543
1002
1103
475
1049
566
995

13

13

1008
208
439
1471
482
673
407
1290

1609

7
14
16
13
11

11l
14
14
18
13

16
7
6
9

11

910

10
15

1277

410

14

10

El mtodo de los mnimos cuadrados

14.1 5. Estamos familiarizados con el hecho de que la temperatura del aire disminuye con la altura del lugar. Los datos dados en la tabla 14.4 y
el diagrama de dispersin asociado (grfico de puntos) (figura 14.4) lo refuerzan.
El grfico de puntos no slo indica que la temperatura Y disminuye con la altura X , sino que una relacin lineal es evidente.
Las observaciones representan la altura (metros) y la temperatura (grados
centgrados) en las primeras horas de la maana en cierto nmero de puestos de
observacin en Suiza. Los datos provienen del Observatorio Basel-St. Margarathen.
Cul es un modelo razonable para los datos anteriores? Supondremos que
Y es una variable aleatoria cuyo valor depende, entre otras cosas, del valor de X.
Supondremos, especficamente, que
EJEMPLO

('Jf'J{J) 1nf(T; {J) = (1/p)- T.

Por tanto

Y = aX + {J +E,
y

Puesto que

E(T) = 1/{J

E(T 2 ) = V(T) + [E(T)] 2 = 1jp2 + 1jp2 = 2jp2,

tenemos

] =p12 --pp+
2 1
1
p22 =p2.

E 'J{J1nf(T;{J)

Luego encontramos que tiene aproximadamente la distribucin N({J, fJ 2 /n), para


un n grande. (Esto verifica la propiedad de convergencia del estimador puesto
que P2/ n--+ O cuando n ..... oo.)

307

FIGURA

14.4

14.!1

en donde a y fJ son constantes (desconoc1das). X es la altura (conocida) desde


la cual se mide Y, y E es una variable a leatoria. El anlisis de este modelo lineal
depende de las hiptesis que hagamos acerca de la variable aleatoria E. (Esencialmente decimos que la temperatura es un resultado aleatorio cuyo valor puede
descomponerse estrictamente en una componente aleatoria ms un trmino que
depende de la altura X de una manera lineal.) La hiptesis que haremos acerca
de E es la siguiente:
E(t) =O;

V(E) =

u2

14 .~

Derivando S respecto a a y a {J, obtenemos

-as = L: 2[Y;- (ax; + /1)](-x;) =


001

iJ{J

Es decir, el valor esperado y la variancia de E no dependen del valor de X. L uego


E( Y) = a X + P y V( Y) = a 2 Observemos que el modelo que hemos establecido depende de los tres parmetros a, p y a 2 No podemos usar el mtodo de la
mxima verosimilitud para estimar esos parmetros a no ser que hagamos ms
hiptesis acerca de la distribucin de E. Nada se ha supuesto acerca de la distribucin de la variable aleatoria E; slo se formul una hiptesis acerca de su
valor esperado y su varianza. (Posteriormente mencionaremos una modificacin
de este modelo.)
Antes de establecer cmo estimar los parmetros respectivos, digamos unas
pocas pa!Pbras acerca del significado de una muestra aleatoria en e l contexto
presente. ..upongamos que se escogen n valores de X , x., ... , x . (Recordemos
otra vez que aq ui X no es una variable aleatoria.) Para cada x 1, sea Y 1 una observacin independiente de la variable aleatoria Y descrita anteriormente. Por
tanto (x 1. Y 1) , , (x., Y.) puede ser considerada como una muestra aleatoria
d e la variable aleatoria Y para los valores (x 1 , , x.) de X dados)
Definicin. Supngase que tenemos E( Y) = aX + {1, e n donde a, {J y X son
como se e xpres anteriormente. Sea (x., Y 1 ) , (x., Y.) una muestra aleatoria de Y . Los estimadores de cuadrados mnimos de a y p son los valores
a y fJ que minimizan

L:" 2[Y;- (ax; + {1)]( -1) =

Obsert'OCin: la interpretaCIn del criterio anterior es muy evidente. (Ver la figura 14.5.)
Para cada par (x,. Y1) calculamos la d1screpanc1a entre Y, el valor observado, y ax1 + JI, el valor
esperado. Puesto que slo estamos interesados en la magnitud de esta discrepancia elevamos
al cuadrado y sumamos todos los puntos de muestra. La lnea buscada es aquella para la cual
esta suma es ms pequeila.

as

=o.

1~1

js)

il

i=-1

x1 =

L xZ + p L

aL

X;

[Y;-

X;-

(1].

L x 1 Y1,

( 14.5)

a 1

+ n/1 = L

(14.6)

Y;.

il

i= t

Tenemos as dos ecuaciones lineales e n las incgnitas a y {1. La solucin


puede obtenerse de la manera corriente, o por una eliminacin directa o usando
determinantes. Denotando las soluciones por y
encontramos fcilmente que

a fi,

1
en donde

LX,

X=

(14.7)

11 l

j = y -

ax,

en donde

1
y =- L Y,.
n ,

(14.8)

Las so luciones anteriores son nicas y siempre se o btienen dado que

Esta condicin, sin embargo, se satisface cada vez que todos los X no son iguales.
El estimador del parmetro a 2 no puede obtenerse por los mtodos anteriores. Establezcamos simplemente que el estimador corriente de a 2 , mediante
los estimadores de mnimos cuadrados
y j, es

1 1

ap

-2

L [Y, -(~X+ {1)] 2.

[x; Y, - xr - flxt],

fa 1

Luego iJSfiJ = O y iJSfiJfJ = O pueden escribirse, respectivamente, como sigue:

para todo X.

A fin de obtener los estimadores pedidos para


~ y fJ procedemos como sigue. Sea S(a.fl) = 1:7. 1
[Y; - (ax; + /1))2. Para minimizar S(:x./1). debemos
resolver las ecuaciones

L:

-2

1 1

E( Y)

u 2 = - - L [y 1 n- 2; s )

(G!X

+ P>] .

Obsert>aciones: (a) es evidentemente una funcin lineal de los valores muestrales


Y, . Yr
(b) ti tambin es una funcin lineal de Y1 , .. , Y. como lo indica el clculo s1gu1ente:

i=v-a:x
"
= n-1 I:
Y -

I:
1

X
1(x1 -

[1 _

"

_ I:

x)2 1

{x, -

xl Y

(x1 - .X)
= l:Y;--X
-2
,. ,
n
:E1. 1(x; - x)
fiGURA 14.5

(e) Es un ejercicio sencillo demostrar que E(a) =y que E(#)


Asi. ti y i son ambos estimadores insesgados.

= fl. (Ver el problema 14.34.)

310

E..,limacin dt k>s par6mdros

14Ji

(12

ve> -- "'"

->'

"'i l X - X

(14.9)

(e) Los estimadores ,X y Pson realmente los mejores estimadores lineales inscsgados de a y p.
Es decir, entre todos los estimadores insesgados lineales, stos tienen la varianza mnima.
Este es un caso especial del teorema general de Gauss-Markoff, que establece que bajo ciertas
condiciones los estimadores de cuadrados mnimos y los mejores estimadores lineales insesgados son siempre los mismos.
(f) El mtodo de los cuadrados mnimos puede aplicarse a modelos no lineales. Por ejemplo,
2
si E( Y) = aX + px +y, podemos estimar a. {1 y y de modo que

1 1

EJEMPLO 14.16. Este ejemplo es presentado por Y. Y. Linnik en Metllod oj


Least Squares and Principies of the Tlleory oj Observations, Pergamon Press,
New York, 1961. Los datos de este ejemplo fueron obtenidos por Mendeljev
Y presentados en Foundations of Chemistry. (Ver la tabla 14.5.) Relacionan la
solubilidad de nitrato de sodio (NaN0 3 ) con la temperatura del agua (0 C). A
la temperatura indicada, las Y partes de NaN0 3 se disuelven en LOO partes de
agua. Graficando esos datos se obtiene el diagrama de dispersin que se muestra
en la figura 14.6.
r
14.5

1'

66,7
71,0
76,3
80,6
85,7

29
36
51
68

92,9
99,4
113,6
125,1

4
10
15
21

laternlo. dt confllllta

31t

variable aleatoria. Sin embargo, hay variables aleatorias bidimensionales (X, Y)


que dan origen a una muestra aleatoria (X 1 , Y 1), , (X., Y.). Uno de los parmetros ms importantes asociado con una variable aleatoria bidimensional es
el coeficiente de correlacin Pxr
TABLA

14.6

X(velocidad, kmjseg)

11,93

11 ,81

11,48

10,49

10,13

8,87

Y (altura, km)

62,)6

57,78

53,10

48,61

44,38

40,57

[Y; - (axf + ax1 +y)]'

es minimizada.
(g) Si hacemos la hiptesis adicional de que la variable aleatoria E tiene distribucin
2
N(O, u ), podemos aplicar el mtodo de la mi1xima verosimilitud para estimar los parmetros
a y P. Esos estimadores son los mismos que los estimadores de cuadrados mnimos obtenidos
anteriormente. (Esto no siempre es cierto, es una consecuencia de la hiptesis de normalidad.)

TABLA

14.7

80

FIGURA

El estimador que se acostumbra usar para p es el coeficiente de correlacin muestra/, definido como sigue:

Ntese que para propsitos computacionales, es ms fcil calcular r como


sigue:
r =

nl:f=t X;Y; - l:7=t X;L';'s t Y,


)nl:7~ t x- (L7e J X;) 2 Jnl:f. , Yl- (l:f=t

YY

EJEMPLO 14.17. Los datos anotados en la tabla 14.6 representan la velocidad


(km/seg) y la altura (km) de la estrella fugaz nm. 1242 como se inform en la
Smithsonian Contributions lo Astrophysics>> en el Proceedings of the Symposium
on Astronomy and Physics oj Meteors. Cambridge, Mass., agosto 28-septiembre 1, 1961. Un clculo directo da r = 0,94.

14.6

14.7 Intervalos de confianza

60'---+---+---+---Y
20

40

60

Este sugiere un modelo de la forma E(Y) = bT + a. Usando el mtodo de


los. cuadrados mnimos bosquejado anteriormente, encontramos que b = 0,87
y a = 67,5.
14.6 El coeficiente de correlacin
En la seccin anterior estuvimos interesados en pares de valores (X, Y), pero.
como lo hemos sealado repetidamente. X no iba a ser considerada como una

Hasta ahora slo nos hemos interesado por la obtencin de un estimador


puntual para un parmetro desconocido. Como lo insinuamos al comienzo de
este captulo, existe otro enfoque que conduce a menudo a resultados muy significativos.
Supngase que X tiene distribucin N(J.L, 0' 2 ), donde 0' 2 se supone conocido,
mientras que Jl es el parmetro desconocido. Sea X" ... , X. una muestra alea_
toria de X y sea X el promedio muestra!.
Sabemos que X tiene distribucin N(J.L, u 2 /n). Por tanto Z = [(X- J.L)fq],j
tiene una distribucin N(O, 1.) Ntese que aunque Z depende de Jl, su distribucin de probabilidades no. Podemos usar este hecho a nuestra conveniencia
como sigue.

.112

Kllmatin d lo parilll<'lru

14.7

X;

11

fi s

dlot riiHt~llu

1 d S ludnt

11l

1,96uf.Jn). Cuando hacemos la afirmacin de que 500,4 < 1 < 502,0 sencilla mente estamos adoptando el criterio de creer que algo es as cuando sabemos
que es verdadero la mayor parte del tiempo .

Considerar
2<1>(z) - 1 = P ( -z

14.H

z)

.. r(- 7,;- x ~ - ~~ s + 7,;- x)


=P(x-y,;sJISX+J,}
Esta ltima proposicin probabilstica debe interpretarse muy cuidadosamente.
No significa que la probabilidad que el parmetro 11 caiga en el intervalo mencionado sea igual a 2Cil(z) - 1; es un parmetro y est o no en el intervalo an-

JI

Ob~en>acin : el intervalo de confianza construido no es nico. Precisamente hay tantos


como estimadores (puntuales) del parmetro, as que podemos construir muchos intervalos
de confianza. Aunque no discutiremos el problema de lo que podramos designar por un intervalo de confianza mejom. establezcamos sin embargo un hecho obvio. Si se comparan
dos intervalos de conrtanza que tienen el mismo cocrtciente, preferiramos el que tiene menos
longitud.
La longitud L del intervalo de ~nfianza considerado anteriormente puede escribirse
como
L - (X +n- 12a KI - </2)-(X-11- 112aK 1 - . 2 ) - 2<711 12 K 1 2

Luego L es una constante. Adems, resolviendo la ecuacin anterior para

11

da

n = (211K 1 - . 2/ L) 2

FIGURA

14.7

terior. En su lugar, lo anterior debera ser interpretado como sigue: 2<1>(z)- 1


es igual a la probabilidad que el intervalo aleatorio (X- zu/.J, X + zu/.J)
~ng~ Jl:... A tal intervalo se le l_lama intervalo de confianza para el parmetro
1!:. Puesto que z queda a nuestro criterio. podemos elegirlo de modo que la probabilidad anterior sea igual a 1 - a. Por tanto z est definida por la relacin
<l>(z) = 1 - a/2. Ese valor de z, denotado por K 1 -t 2 , puede obtenerse de las
tablas de la distribucin normal. (Ver tambin la figura 14.7.) Es decir, tenemos
<I>(K, - . 12) = 1 - a/2.
Para resumir: el intervalo (,Y - 11 1 2uK 1 - . 12 X + n-" 2 uK, 12 ) es un intervalo de confian:r.a para el parmetro JI con coeficiente de confianza (1 - oc).
o un (1 -!X) 100 por ciento de intervalo de confianza.
Supngase que X representa la duracin de una pieza de un equipo. Supngase que se probaron 100 piezas. que dieron una duracin promedio de X= 501.2
horas. Se sabe que (1 es 4 horas y que deseamos tener un intervalo del 95 por ciento de confianza para 11 Encontramoh por tanto el siguiente intervalo de confianza
para JI = E(X):

501.2 - fu(l.96). 501.2

+ Th(l.96).

llega a ser

(500.4 ; 502.0)

Nuevamente es til un comentario. Al establecer que (500,4; 502,0) es un intervalo


de 95 por ciento de confianza para
no estamos diciendo que el 95 por ciento
de las veces el promedio muestra! 4t1cdar en ese intervalo. La prxima vez que
saquemos una muestra aleatoria. X ser posiblemente distinto. y por tanto los
extremos del intervalo de confianta scrtn direrentes. Estamos diciendo que el
lJ5 por ciento de las veces u estar contenido en el intervalo (X - 1.96uf, l n. X -1

JI.

Luego podemos determinar n (para a y 11 dadas) de modo que el intervalo de confianza tenga
una longitud prefijada. En general, (como se ilustr en el ejemplo anterior), L ser una funcin
decreciente de n: cuanlo ms pequeo deseemos tener a L ms grande debe tomarse a n. En
el caso anterior especialmente debemos cuadruplicar 11 a fin de dividir a L,

14.8

La distribucin t de Student

El anlisis de l ejemplo anterior dependa mucho de l hecho de que la varianza


era conocida. Cmo debemos modificar el procedimiento si no conocemos
el valor de u 2?
Supongamos que estimamos u 2 utilizando el estimador inscsgado
(1

q2

= - - L (X - X)2.
11- 11 1

Consideremos la variable aleatoria


1

(X- Jllfi .

(14.1 0)

(1

Debera ser intuitivamente evidente que la distribucin de probabilidades de la


variable aleatoria t es considerablemente ms complicada que la de Z = (X - JI)
,fiiju. Ya que en la definicin de 1 tanto el numerador como el denominador
~on variables aleatorias, mientras que Z sencillamente es una runcin lineal de
X 1, ... X . Para obtener a distribucin de probabilidades de 1 usemos los
hechos siguientes:
(a) Z = (X- Jl)..// u_ tiene distribucin N(O, 1).
(b) V = ~7- , (X1 - X) 2/u2 tiene una distribucin de x cuadrado con (11 - 1)
grados de libertad. (Ver el teorema 13.4.)
-(e) Z y V son variables aleatorias independientes. (Esto no es muy rcil de demostrar, y no lo verificaremos aqu.) Con ayuda del teorema siguiente podemos
obtener ahora la rdp de t.

E.~limacie

314

de los parimetros

14.11

Teorema 14.3. Suponiendo que las variahles aleatoriasZ y V son independientes


y tienen respectivamente distribuciones N(O,l) y xi, Definimos

Ms sobre los lnlrrnlt,. de c01ollonu

14.\1

De una manera completamente anloga a la usada en la seccin 14.7, obtenemos


el siguiente intervalo de confianza para JI. con coeficiente de confianza ( 1 -a):

(X- n - ' 12 uc. - ~.~-.1 z.

.J[V!k5'

Luego la fdp de t est dada por


~)-< + 1 ,12
f(k/2)ftk 1 + k
,

_ r[(k + 1)/2] (
hk(t) -

- co < t < co.

(14.11)

Esta distribucin se conoce como la distribucin 1 de Student con k grados de


libertad.
Observaciones: (a) La demostracin de este teorema no es dada aqu pero se sugiere en
la seccin de problemas. (Ver el problema 14.17.) Tenemos las herramientas disponibles con
las cuales podemos encontrar h,(l) muy fcilmente. Primero necesitamos determinar la fdp
de ../V1[ que es obtenida fcilmente conociendo la fdp de V. Slo necesitamos aplicar el
teorema 6.5 que da la fdp del cociente de dos variables aleatorias independientes.
(b) El teorema anterior puede ser aplicado directamente para obtener la fdp de 1 = (X - Jl)
la variable aleatoria considerada antcriormeme. Esta variable tiene la distribucin
1 de Student con (11 - 1) grados de libertad. Note que aunque el valor de 1 depende de l. su
distribucin no.
(e) El grfico de 111 es simtrico. como se indic en la figura 14.8. En realidad.~ejl!_
al grfico de la distribucin normal, y el lector puede demostrar que

;a,

lim lltr{l)

-oo

-"~

x + , - 112ut.-e. t -tzl.

Luego el intervalo de confianza anterior tiene la misma estructura que el previo,


con la diferencia importante de que el valor conocido de a ha sido sustituido por
el estimador (j y la constante K 1 -. 2 , obtenida anter iormente de las tablas de la
distribucin normal, ha sido sustituida por tn-1.1 - .12 , obtenida de las tablas de la
distribucin t.
Obs~rhacitin: el largo L del in'tervalo de conlianza anlcrior es igual a

L = 2n - 112t,. -

t.l - 2120.

Luego Lno es una constante puesto que depende de


de los va lores muestrales (X, ..... X.).

uque a su vez depende

EJEMPLO 14.18. Se hicieron diez mediciones sobre la resistencia de cierto


tipo de alambre. que dieron los valores X., .... X 10 Supngase que X= 10,48
ohms y (j = J~L.l2 1 (X 1 - X) 2 = 1,36 ohms. Supongamos que X tiene distribucin N(JI. a!) y que deseamos obtener un intervalo de confianza para JI con
coeficiente de confianza 0.90. Luego 01 = 0.10. De las tablas de la distribucin 1
encontramos que 19 . 0 .95 = 1,83. Luego el intervalo de confianza pedido es

= (1/jbc)e-'12.

( 10,48 -

)m (1,36)(1,83), 10,48 + )m (1,36)(1,83))

= (9,69, 11,27).

(d) Debido a su importancia esta distribucin ha sido tabulada. (Ver el apndice.) Para
un IX dado. 0,5 <IX < l. los valores de 1. satisfacen la condicin

f_~~.(t) di= IX
estn tabulados. (Ver la figura 14.9.) (Para los valores de IX que satisfacen O <IX < 0.5, podemos usar los valores tabulados debido a la simetra de la distribucin.)
(e) Esta distribucin se llama as en honor del estadstico ingls W. S. Gosset, quien public su trabajo bajo el pseudnimo de <<Student.
11(1)

Lts:

14.9

Ms sobre los intervalos de confianza

Aunque no intentemos dar una presentacin general de este tema, deseamos


continuar considerando algunos ejemplos importantes.
Algunas veces deseamos obtener un intervalo de confianza para una funcin
particular de un parmetro desconocido, conociendo un intervalo de confianza
P!!ra el parmetro mismo. Si la funcin es montona esto puede satisfacerse como
lo ilustra el ejemplo siguiente.

FIGURA 14.9

R(1;

R-~---------!

o 1

Volvamos ahora al problema presentado al comienzo de esta seccin. Cmo


obtenemos un intervalo de confianza para el promedio de una variable aleatoria
distribuida normalmente si la varianza es desconocida?

l'l

o 1'

FIGURA 14.10

B.-- .

Ti

~=-~--~--4-----------~1'

FIGURA

14.1 1

14.!1
EH!MPLO 14.19. Suponiendo que la duracin X de un artculo tiene distribucin N(J1, u 2). Se supone que u 2 es conocido. La confiabilidad del artculo para
un tiempo de servicio de t horas es dado por

R(t;l) = P(X > 1) = 1- <l>c

('- )

R = 1- <1> - u -

encontramos que P(R ~ R ~ R) = P(Jl .::;; ll ~ i) = 1 - o:, y que por tanto


(R, R) no representa n intervalo de confianza para R(t; /l) con coeficiente de
confianza (1 -o:). (Ver figura 14.11.)
Usemos los valores muestrales obtenidos en la seccin 14.7 para ilustrar este
procedimiento. Supngase que deseamos un intervalo de confianza para la confiabilidad de la componente cuando se us durante t = 500 horas. Puesto que
encontramos p. = 500,4 y p. = 502,0, obtenemos
~ =

1-

(Ver la figura 14.12.) La probabilidad anterior


puede escribirse como sigue:

Hasta ahora slo hemos considerado intervalos de confianza bilaterales. Es


decir, hemos obtenido dos estadgrafos (llamados algunas veces cota superior e
inferior de confianza), sean L(X t. . , X.) y (U( X 1 , , X.), tales que P[ L ~ () .::;;
U] = 1 - o:, en donde() es el parmetro desconocido.
A menudo estamos interesados slo en obtener intervalos de confianza unilaterales de la forma siguienre:

P[L.::;; O] = 1 -o:.

Ilustremos lo anterior con ejemplos.


14.20. Supngase que X tiene distribucin N(p.. u 2 ) y deseamos
obtener un intervalo de confianza unilateral para el parmetro desconocido u 2
Sea X 1 , . . . , X. una muestra aleatoria de X.
Del teorema 13.4 sabemos que 1:7- I(XI- X) 2 /u 2 tiene distribucin -1 Por
tanto de las tablas de la distribucin de X cuadrado podemos obtener un nmero
l. 1 - tal que
EJEMPLO

x;

x;_

p[

L"

(X 1

- -2
O'

X)

2
2

~X.-1.1-o

FIGURA

14. 12

EIEMPLO 14.21. Supngase que la duracin X de un instrumento electrnico


est distribuida exponencialmente con parmetro 1/fJ. Luego E(X) = p. Sea
X., ... X. una muestra de X. Hemos encontrado en el ejemplo 14.7 que
1:1 1 X1/n es el estimador de p. Del colorari_o del teorema 10.9 encontramos que
2nX/ P tiene distribucin ;d. Luego P [2nX/fJ ~ x~. -.] =o:, en donde el nmero x~ . 1 - se obtiene de las tablas de distribucin x cuadrado.

Si deseamos un intervalo de confianza (inferior) para la confiabilidad R(t; {J) =


P(X > t) = e- '1', procedemos como sigue. Se multiplica la desigualdad anterior
por ( - 1) se reagrupan los trminos, y se obtiene

P[(-t/fJ) ~- -tX~ . 1 -JX2n] = 1 - a.


Esto a su vez implica que, puesto que e es una funcin creciente de x ,

p { R(t; p) =

ll7

,(x2 )

Luego (1:7. 1 (X, - X) 2 /x1- . 1- ro) es el intervalo de confianza unilateral pedido para u2
con coeficientes de confianza (1 - o:).

500 - 500,4)
4 - = 0,6554,
(

P[ O ~ U] = 1 - o:

h,.

d~ ~onflonto

~ ll).

Puesto que oR(t ;J1)/iJJ1 > 0 para todo Jl, tenemos que para cada t fijo, R(I;J1)
es una funcin creciente de ll (Ver la figura 14. JO.) Luego podemos proceder como
sigue para obtener un intervalo de confianza para R(t; Jl). Sea (}J, ji) el intervalo de
confianza para ll obtenido en la seccin 14.7. Sean B y R respectivamente los
extremos inferior y superior del intervalo de confianza pedido para R(t ; Jl). St
definimos a R y R por las relaciones

Mh liObre lo lnltrulo

14.9

e-'1 ~ exp [

LX~.
x2n1 - ]}

= 1 -o:.

Luego (exp ( - tXi . 1 -JX2n], ro) es un intervalo de confianza unilateral para


R(t; p) con coeficiente de confianza (1 - o:).
Como una ilustracin final de un intervalo de confianza, encontramos un intervalo de confianza para el parmetro p asociado con una variable aleatoria X
distribuida binomialmente. Slo consideraremos el caso en donde n el nmero de
_[epeticiones del experimento que da origen a X es bastante grande de modo que
P._Odamos usar la aproximacin normal.
Representemos por X /n = h la frecuencia relativa de un suceso A en n repeticiones de un experimento para el cual P(A) = p. Por tanto, E(h) = P Y V(h) = pq/ n.
en donde q = 1 - p.
. .
Usando la aproximacin normal a la distribucin binomial, podemos escnbtr
P

[~.::;; KJ= P(ih - Pi ~ K JPc/n] ~ ;J:Ke '' 12dt


= 2$(K)- 1,

=1-o:.

12

en donde, como siempre <l>(K) = (1/.foW-.., e-'' dt. Luego, si hacemos igual a
(1 - a) la probabilidad anterior, podemos obtener el valor de K de la tabla de

14.1)

la distribucin normal. Es decir, 2<1>(K) - 1 = 1 - ex implica K = K t-! 2 Puesto


que estamos interesados en obtener un intervalo de ~onfianza para p, debemos
volver a escribir la desigualdad anterior (111 -Pi ~ K j pqfn} como una desigualdad
en p. Como {111- Pi ~ K j pqfn} es equivalente a {11 - p) 2 ~ K 2 (1 - p)pfn}. Si
consideramos un sistema de coordenadas (11, p) la desigualdad anterior representa
el contorno y el interior de una elipse. La forma de la elipse es determinada por
K y n: a mayor n, ms fina es la elipse.
Considrese un punto Q(il, p) en el plano hp. (Ver la figura 14.13.) Q sen1 un
punto aleatorio puesto que su primera coordenada h ser determinada por el
resultado del experimento. Puesto que Q quedar dentro de la elipse s i y slo si
(ill- PI~ K jpqj11}, la probabilidad de que esto ocurra ser 2<1>(K)- l. Si
p

P2 =

+ (K 2/ 2) +

K[il( 1 11

es suficientemente

Observacin: recurdese que en la ecuacin (14.12), Ir= X/n, en donde X= nmero de


ocurrencias del suceso A. Luego X = n/1 y 11 - X = n(l - 11). Si adems de n, tanto X y n - X
son grandes, p 1 y p 2 pueden aproximarse respectivamente, por
Pt"' h- -

.J

jh(l=lt), P2 "' h

r.: jh(J- 11).

yll

EmMPLO 14.22. En cierto proceso de produccin se fabrican 79 artculos


durante cierta semana. De esos, se l::ncontr que 3 eran defectuosos. Luego 11 =
3/ 79 = 0,038. Usando el procedimiento anterior, obtenemos (0,013; 0,!06) como
un intervalo de confianza para p = P(el artculo es defectuoso) con un coeficiente
de confianza 0,95.

14. 13

deseamos tener esta probabilidad igual a ( 1 - ex) debemos elegir adecuadamente


a K, es decir K = K t - !2
Actualmente p es desconocido. (Este. naturalmente, es nuestro problema.)
La recta 11 = e (constante) cortar la elipse en dos lugares, sea n p = p t y p = P2
(Fcilmente puede verificarse que dados ex y h, siempre habr dos valores distintos
de p.)
Los va lores p 1 y p 2 pueden obtenerse como solucin de la ecuacin cuadrtica
(en p): (11 - p) 2 = K 2 (L - p)pfn. Las soluciones son:

h11

11

EJEMPLO 14.23. Una fbrica t iene un gran almacenam iento de artculos,


algunos de los cuales provienen de un mtodo de produccin considerado insatisfactorio actualmente, mientras que otros provienen de un proceso moderno. Del
almacenam iento se escogen al azar 3.000 artculos. Se encuentra que de stos
1.578 se han fabricado segn el proceso insatisfactorio. Utilizando la aproximacin
anterior para p1 y p 2 , el clculo siguiente da un intervalo de confianza de 99 por
ciento para p = proporcin de articulos del proceso insatisfactorio.

h=c
FIGURA

normal. Recordamos que este procedimiento es vlido s lo si


grande p~ justificar la aproximacin normal.

K2

ll)11

+ (K 2/4)] 1' 2

(14. 12)

Por tanto {iil - Pi ~ K j pqfn} es equivalente a {P ~ p ~ P2 l Luego si se escoge


K de modo que e l s uceso anterior tenga probabilidad (l -ex), obtenemos un
intervalo de confianza para p. sea (p., p 2 ). con coeficiente de confianza (1 - ex).
Para resumir: con el objeto de obtener un intervalo de confianza para p = P(A)
con coeficiente de confianza (1 - 1)(), realizar el experimento n veces y calcular la
frecuencia relativa del suceso A.llammosla h. Luego se calculan P y P2 de acuerdo
con las ecuaciones ( 14.12). en donde K se determina de las tablas de la distrfblici

h=
PI

1578
3000

= 0,526,

K = 2,576,

2,576
0,526 - J3000 j(0,526)(0,474)

P2 = 0,526

= 0,502,

2,576

+ j 3000 j(0,526)(0,474) = 0,550.

PROBLEMAS
14. 1. Supngase que se mide un objeto independientemente con dos procedimientos
de medida diferentes. Sean L, y L 2 las longitudes medidas obtenidas con el primer y segundo mtodo respectivamenle. Si ambos mtodos son correctamente calibrados podemos suponer que E(L 1) = E(L 2 ) = L , la longitud verdadera. Sin embargo, la exactitud de los mtodos no es necesariamente la misma. Si medimos la exactitud mediante la varianza, entonces V(L,) '1 V(L2 ) . Si usamos la combinacin lineal Z = aL, + (1 - a)L 2 como nuestro
estimador de L, inmediatamente tenemos que E{Z) = L. Es decir, 2 es un estimador insesgado de L. Para qu valor de a, O < a < 1, es mnima la varianza de 2?
14.2. Sea X una variable aleatoria con esperanza J1 y varianza u 2 Sea (X" ... , x.)
una muestra de X. Hay muchos otros estimadores de 11 2 que se sugieren adems del ya propuesto. Demostrar que C!~ : : (X; - X) 2 es un estimador insesgado de u 2 para un valor
apropiado de C. Encontrar el valor de C.

.l20

l'roblom

i!slintamm de los pllr6mctws

14.3. Supngase que se obtienen 200 observacoones independientes X 1.. , X 200 de


una variable aleatoria X. Se dice que r.l2? X, = 300 y que r.r2? Xl = 3754. Usando esos
valores obtener un estimador insesgado de E(X) y V(X).

Una variable aleatoria X tiene fdp f(x) = (p + l)xft, O < x < 1.


(a) Obtener el estimador ML de p, basndose en una muestra X 1 .. . x .
(b) Evaluar la estimacin si los valores muestrales son 0,3; 0.8; 0.27; 0,35: 0,62 y 0.55.

14.4.

14.10. Se prob una componente que se supone que tiene una distribucin exponencial
de fallas y se observaron las siguientes duraciones (en horas): 108. 212. 174. 130. 198. 169.
252, 168, 143. Usando esos valores muestrales. obtener una estimacin M L para la conlia
bilidad de la componente cuando se usa durante un periodo de 150 horas.
14.11.

Frecuencia

Espesor (pulg.)

FI'C<.:Uio!IH.:i~l

1,0
1,3
1,6
1,9
2,2

2
29
62
106
153
186
193
188
151

3.7
4,0
4,3
4,6
4,9
5,2
5,5

123
82
48
27
14

2,5

5
1

Total frecuencias: 1370

Supngase que T , el tiempo para fallar (en horas) de un instrumento electrnico,


tiene la siguiente fdp:
f(r) = Pe- P - J e > 10 > O,
= O,
para cualquier otro valor.
14.6.

(T tiene una distribucin exponencial truncada a la izquierda en 10 ). Supngase que se


prueban 11 artculos y que se anotan los tiempos para fallar T ,, . . .. T .

(a) Suponiendo que c0 es conocido, obtener el estimador ML de p.


(b) Suponiendo que 0 es desconocido, pero P es conocido, obtener el estimador ML
de

1 ~1m1mn~ l ~lml~l~ l m l m1~

1757, 1783, 1796. 0809, 1828, 1834, 1871, 1881. 1936. 1949, 2007.

De los valores de la muestra anterior obtener la estimacin M L para la confiabi lidad de tales
bombillas elctricas cuando se usan durante 1600 horas. suponiendo que la duracin est
distribuida normalmente.

14.4

Espesor (pulg.)

2,8
3,1
3,4

Los datos siguientes representan la duracin de bombillas elctricas (en horas):


1009, 1085. 1123. 118 1, 1235, 1249, 1263, 1292. 1327. 1338, 1348.
1352, 1359, 1368. 1379, 1397, 1406, 1425, 1437, 1438. 1441, 1458.
1483, 1488, 1499, 1505, 1509, 15 19, 154 1, 1543, 1548. 1549. 1610.

Los datos de la tabla 14.4 se obtuvieron de la distribucin del espesor de la ma


dera en los postes telefnicos. (W. A. Shewhart. Eco11omic Comrol of Qua lit y of Mam!facwred
Products. Macmillan and Co, New York, 1932. p. 66.) Supngase que la variable aleatoria
que se considera tiene distribucin N(o, a') obtener el est imador ML de t y a'.
14.5.

TABLA

Jll

t0

14.7. Considrese la misma ley de falla descrita en el problema 14.6. Esta vez se prueban
N artculos durante T 0 horas (T0 > t0 ) y se anota el nmero k de artcu los que fallan. Res
ponder la pregunta (a) del problema 14.6.
14.8. Supngase que X est distribuida uniformemente en (- oc, a). Encontrar el estimador ML de oc, basndose en una muestra a leatoria de tamao n. X, ... , X .
14.9. (a) Se efecta un proceso hasta que un suceso A ocurre por primera vez. En cada
repeticin P(A) = p. Se supone que son necesarias"' repeticiones. Luego se repite el experimento y esta vez son necesarias n 2 repeticiones para producir el suceso A. Si se baoe esto k
veces, obtenemos la muestra n 1 . . , " Basado en esta muestra, obtener el estimador M L de p.
(b) Supngase que k es muy grande. Encontrar el valor aproximado de E(jj) y V(jj) en
donde pes el estimador ML obtenido en (a).

14.12. Supngase que se usan dos bombillas ta l como se describieron en el proble


ma 14. 11 en (a) una conexin en serie y (b) en una conexin en paralelo. En cada uno de los
casos encontrar la estimacin ML de la confiabilidad durante una operacin de 1600 horas
del sistema, basndose en Jos valores muestrales dados en el problema 14.11.
14.13. Supngase que una fuente radiactiva emite partculas oc de acuerdo con una distribucin de Poisson. Es decir, si X es el nmero de partculas emitidas durante un intervalo
de t minutos, Juego P(X = k) = e- "(J.t)'/k' En vez de anotar el nmero rea l de partculas
em itidas, supngase que observamos el nmero de veces que no fue emitida ninguna partcu
la. Especficamente, supngase que se observan durante 50 minutos 30 fuentes radiactivas
que tiene la misma potencia y que en 25 casos al menos una partcula fue emitida. Obtener
la estimacin ML de A con base en esta informacin.
14.14. Una variable aleatoria X tiene distribucin N(Jl. 1). Se toman veinte observaciones de X, pero. en vez de anotar su valor observamos slo si X era negativa o no. Suponiendo que el suceso {X < O} ocurri exactamente 14 veces, uti lizar esta informacin para
obtener la estimacin M L de 1'
14.15. Suponiendo que X t.iene una distribucin gamma; es decir, la fdp est dada por
f(x)

Supngase r conocido. Sea X 1 ,


basndose en esta muestra.

l(Ax)'- 'e-''
r(r)

x > O.

X. una muestra de X, obtener el estimador M L de 4.

14.16. Supngase que X tiene una distribucin de Weisbull con fdp


.f(x) = (A.a)x" - e - ,

x > O.

Supngase que oc es conocido. Encontrar el estimador ML de A basado en una muestra de


tamao n.
14.17.

Demostrar el teorema 14.3. [lndi<:acin: ver la observacin (a) que sigue a este

teorema.]
14.18. Comparar el valor de P(X ~ 1), en donde X tiene distribucin N(O. 1). con P(t ~ 1~
en donde e tiene una distribucin t de Student con:
(a) 5 gl. (b) 10 gl. (e) 15 gl. (d) 20 gl. (e) 25 gl.

t'n>hlcm
14.19. Supngase que X tiene una distribucin N(p, a 2). Una muestra de tamao 30,
sea X,, .... X 30 da los valores siguientes: I:f~, X 1 = 700,8; !.~2 , Xf = 16.395,8. Obtener
un intervalo de confianza de 95 por ciento (bilateral) para p.
14.20. Supngase que X tiene una distribucin N(/1, 4). Una muestra de tamao 25 produce un promedio muestra! X = 78,3. Obtener un intervalo de confianza de 99 por ciento (bilateral) para JI.
14.21. Supngase que la duracin de una componente tiene una distribucin normal
N(11, 9). Se prueban 20 componentes y se anotan sus tiempos para fal lar X, .. .. X 20 . Su
pngase que X = 100,9 horas. Obtener un intervalo de confianza de 99 por ciento (bilateral)
para la con fiabilidad R( 100).
14.22. Obtener un intervalo de confianza unilateral de 99 por ciento (inferior) para
R(IOO) del problema 14.21.
14.23. Supngase que X tiene distribucin N(p, a 2 ) en donde 11 y a 2 son desconocidos.
Una muestra de tamao 15 ha producido los valores r.,; ,
= 8,7 y "E/~ ,
= 27,3. Ob
tener un intervalo de 95 por ciento de confianza (bilateral) para a 2

X,

Xr

14.24. Se probaron cien componentes, y 93 funcionaron ms de 500 horas. Obtener


un intervalo de confianza de 95 por ciento (bilateral) para p = P (una componente funciona
ms de 500 horas). [Indicaci11: use la ecuacin 14.12.]
14.25. Supngase que X, la longitud de un perno, tiene distribucin N(p, 1). Se fabrica
un gran nmero de pernos y posteriormente se separan en dos grandes lotes. El lote 1 contiene slo aquellos pernos para los cuales X > 5, mientras que el lote 2 contiene el resto.
Una muestra de tamao n se saca del lote 1 y se miden las longitudes de los pernos elegidos.
As obtenemos una muestra Y, ... , Y. de la variable aleatoria Y que es una variable aleatoria distribuida normalmente y truncada en 5 a la izquierda. Escribir la ecuacin que debe
resolverse a fin de obtener el estimador M L de 11 basado en la muestra (Y, , ... , Y.), medante las funciones q, y <1> tabuladas, en donde if>(x) = (lf.j'J.)e - '12 y <1> es la fda de la distribucin N(O, 1).
14.26. (La distribucin F). Sean X y Y variables aleatorias independientes con distri
buciones x!t y xi 2, respectivamente. Sea definida la variable aleatoria F como sigue: F =
(X fn 1}/(Yfn 2 )= n 2 X fn, Y. (Esta variable aleatoria desempea un papel importante en mu
chas aplicaciones estadsticas.) Demostrar que la fdp de F est dada por las expresiones
siguientes:
/r(/)

= r[(n, + llz)/2] (~)il </21- 1(1 + (n,/nz)f)-llll)( ..,,_ f > o.

r(n f2)r(n2/2) 11 2
[Esta se llama distribucin F (Snedecor) con (n 1, n2 ) grados de libertad. Debido a su importancia, se han tabulado las probabi lidades asociadas con la variable aleatoria F.] [Indica
cin: para derivar la fdp anterior, usar el teorema 6.5.]

14.27. Dibujar el grfico de la fdp h como se da en el problema 14.26, suponiendo que

n, > nz > 2.
14.28. Una razn para la importancia de la distribucin Fes la siguiente. Suponiendo
que X y Y son variables aleatorias independientes con distribuciones N(Jt,, a;) y N(t,, a;~
respectivamente. Sean X, ... ,
e Y, ... , Y., muestras aleatorias de X y Y respectivamente. Luego el estadgrafo C:E~!, (X,- X)2/'f.7~, (Y 1 - Y) 2 tiene una distribucin F para
una eleccin apropiada de C. Demostrar esto y determinar C. Cules son los grados de libertad asociados con esta distribucin?

X.,

14.29. Supngase que la variable aleatoria r tiene una distribucin


grado de libertad. Cul es la distribucin de 1 2'? ldentfquela.

32.3

de Student con 1

14.30. Supngase que X est distribuida normalmente. Se obtiene una muestra aleatoria de tamao 4 y se calcula X el promedio muestra l. S la suma de los cuadrados de las desviaciones de esas 4 mediciones de X es igual a 48, obtener un intervalo de 95 por ciento de
confianza (bilateral) para E(X) mediante X.
14.31. La muestra siguiente de tamao 5 se obtuvo de la variable a leatoria bidimensional (X, Y). Usando esos valores, calcu lar el coeficiente de correlacin muestra!.

2 3 4 5

4 5 3

14.32. Supngase que E( Y) = a X + {J. Una muestra de tamao 50 est disponible, sea
(x;, Y1), i = 1, ... , 50 para la cual = Y= O, r,~g, x? = 10, 1:12, l-? = 15 y "El2, x,Y, = 8.
(a) Determinar los estimadores de cuadrados mnimos de los parmetros :x y {J, es decir

a.

yp.

(b) CuAl es el valor mnimo de la suma de cuadrados r,~g 1 (Yr- (cix,

+ PW.

14.33. Se podra suponer (erradamente) que siempre puede encontrarse un estimador


insesgado, para un parmetro desconocido. Que esto no es as, se ilustra con el ejemplo si
guiente. Supngase que se hacen n repeticiones de un experimento y un suceso especial A
se verifica exactamente k veces. S hay una probabilidad constante p = P(A) por hiptesis
de que A ocurra cada vez que se hace el experimento, podramos estar interesados en estimar
la razn r = p/(1 - p). Para verificar que no existe un estimador iosesgado de r = />/(1 - p)
(basado en las observaciones de kA y (n - k)A], suponemos que en realidad existe tal est
mador. Es decir, supngase que r = h(k) es un estadgrafo para el cual E(r) = pf( 1 - p). E!r
pecficamente, supngase que 11 = 2 y por tanto k = O, 1, 2. Desgnense los tres valores correspondientes de ' por a, b y c. Demostrar que E(r) = p/(1 - p) conduce a una contradiccin al observar lo que sucede a la izquierda y a la derecha de esta ecuacin cuando p-. l.
14.34. Verificar que los esttmadores de cuadrados mnimos
ecuaciones ( 14.7) y (14.8) son nsesgados.
14.35.

ay p como se dan en las

Verificar las expresiones para V(ci) y V(tJ) como se dan en la ecuacin (14.9).

14.36. Supongamos que E'( Y) = aX 2 + px +y, en donde X es preasignada. Basado


en una muestra (x1, Y1), i = 1, ... , n determinar los estimadores de cuadrados mnimos de
los parmetros a, fJ y y.
14.37. Con ayuda de la tabla 7, obtener una muestra de tamao 20 de una variable aleatoria que tenga distribucin N(2, 4).
(a) Supngase que esta muestra se obtuvo de una variable aleatoria que tiene la dstri
bucin N(a, 4). Usar los valores muestrales para obtener un intervalo de 95 por ciento de
confianza para a.
(b) Lo mismo que (a) eKcepto que se supone que la muestra proviene de la distribucin
N(a, (J 2 ) con p2 desconocido.
(e) Comparar las longitudes de los intervalos de confianza en (a) y (b) y comentar.

15

IS.I

Docimasia de hiptesis

15.1

(ntroduccin

En este captulo presentaremos otra manera de abordar el problema para hacer


una afirmacin acerca de un parmetro desconocido asociado con una distribucin
de probabilidades, basndose en una muestra a leatoria. En vez de encontrar un
estimador para el parmetro a menudo encontraremos conveniente formu lar
una hiptesis sobre un valor para ste y luego usar la informacin de la muestra
pan! conlirmar o rechazar el valor de la htptesis. Los conceptos que se van
a presentar en este captulo pueden formularse en una base terica muy pro
funda. Sin embargo, no continuaremos este tema de un punto de vista formal.
En su lugar, consideraremos cierto nmero de mtodos que son intuitivamente atracti vos. Estudiaremos algunas propiedades de los mtodos sugeridos,
pero no intentaremos indicar por qu deberan preferirse algunos mtodos
propuestos en vez de uno alterno. El lector interesado puede obtener un fundamento ms terico de a lgunos. de estos procedimientos al consultar algunas
de las referencias sugeridas allinal del captulo.
Consideremos el ejemplo siguiente.
EJEMPLO 15.1. Un fabricante ha estado produciendo tijeras que se usarn
bajo ciertas condiciones de esfuerzo. Se ha encontrado que la duracin (horas)
de esos artculos est distribuida normalmente N(100,9}. Se ha diseado un nuevo
sistema de fabricacin cuyo objetivo es alargar su duracin. Es decir, se espera
que la duracin de vida X (correspondiente a los artcu los producidos por el
nuevo mtodo) tenga una distribucin N(.t, 9}, en donde Jl > 100. (Supongamos
que la varianza permanece igual. Principalmente, esto significa que la variabilidad del nuevo proceso es la misma que la del antiguo).
Luego el fabricante y el comprador en potencia estn interesados en docimar
la siguiente hiptesis:

Ho:Jl = lOO

contra

fl 1 :Jl > l00.

(Estamos haciendo la suposicin tcita de que el nuevo proceso no puede ser


peor que el antigu_Q.) H 0 se llama la IJiptesis !!.!!Ja, y.!! 1 EJ!iptesis altema.
Esencialmente estamos encarando un problema similar a uno discutido en
324

htlwduccl~ll

JL~

el captulo 14. Estamos estudiando una variable aleatoria y no conocemo$ el valor


de un parmetro asociado con su distribucin. Podramos resolver este problema
como lo hicimos anteriormente. al estimar simplemente. Sin embargO, en muchas
situaciones realmente estamos mteresados en liilCCrlina decisin especi]ca: C!=beramos aceptar o rechazar la hiptesis H 0 ? As, no volveremos a tratar los conceptos previos de estimacin, sino que procederemos a desarrollar algunos conceptos que son especialmente apropiados para resolver el problema especfico
que tratamos.
Empezamos por obtener una muestra de tamao n de la variable aleatoria X.
Es decir, elegimos a l azar, n artculos fabricados por el nuevo proceso y anotamos
cunto tiempo funciona cada uno, a!; obtenemos la muestra X" ... , X . Luego
calculamos el promedio aritmtico de esos nmeros, sea X. Puesto que se sabe
que X es un buen estimador de p. parece razonab le que basemos nuestra decisin de aceptar o rechazar H0 en el va lor de X. Puesto que estamos interesados
en la discriminacin en tre p, = 100 y valores de t mayores que 100, parece razonable que debamos rechazar H0 si (X- 100) es muy grande.
Asi, llegamos al siguiente procedimiento, (sobre una base intuiva estrictamente) llamado corrientemente una dcima de la hiptesis: se rechaza H 0 _j_
X - lOO > C' O, equivalentemente, si X > e, (en donde e es una constante para
ser determinada}, y se acepta en cualquier otro caso.
Ntese que la forma particular de la dcima que estamos usando fue sugerida
en parte por la hiptesis alterna H 1 Este es un punto al cual nos referiremos
nuevamente. Si en la situacin anterior hubisemos estado interesados en docimar
1-1 0 : Jl = 100 versus H 1 : .t .,, 100, habramos usado la dcima: rechazar H 0
si IX - 1001 > C'. Ahora, estamos en una posicin anloga a la que nos encontrbamos cuando construimos un estimador 6 para el parmetro O. Nos preguntftbamos: qu tan bueno es el estimador? Qu propiedades deseables tiene?
Podemos formular preguntas similares acerca de la dcima que hemos construido.
Cmo es de << buena la dcima? Qu propiedades posee? ,Cmv la podramos
comparar con otra posible dcima'l
A lin de responder tales preguntas debemos verilicar primeramente que no
existe solucin. en el sentido corriente. para el problema que estamos proponiendo. Es decir, por una simple inspeccin de algunos de los artculos que estn
siendo fabricados nunca podemos estar seguros de que. = 100. (Ntese nuevamente La analoga al problema de estimacin: no esperamos que nuestro estimador
sea igual a O. Sencillamente esperamos que est <<prximo a 0.) Lo mismo es
cierto aqu: una dcima no conducir siempre a la decisin correcta, pero una
buena dcima conducira el mayor nmero de veces a la decisin correcta.
Seamos ms precisos. Bsicamente hay dos tipos de error que podemos cometer. Podemos rechazar Ho cuando realmente H 0 es verdadera ; es decir, cuando
la calidad de las tijeras no ha sido mejorada. Esto puede ocurrir debido a que
aconteci que escogimos unas pocas tijeras ms resistentes en nuestra muestra
que no son tpicas de la produccin completa. O, alternamente, podemos aceptar
H 0 cuando realmente 1-J 0 es falsa; es decir, cuando la calidad de las tijeras ha sido
mejorada. Hagamos formalmen te la siguiente definicin.

326

Ooc:lmlt!lll dc

Definic a.

hiJII~I

15. 1

Error tipo 1: rechazar 1/0 cuando es verdadera.


Error tipo 2: aceptar H 0 cuando es falsa.

Debe ser evidente que no podemos evitar completamente el cometer esos


errores. Trataremos de mantener pequea la probabilidad de cometerlos.
Para aprehender este problema presentaremos la nocin muy importante
de funcin de operacin caracterstica de la dcima, sea L, que es la siguiente
funcin del parmetro (desconocido) J.l.
Defmicia. La funcin de operacin caracterstica (funcin OC) de la dcima
anterior est definida como
L{.t) = P (aceptar Ho 1Jl) = P(X

!5;

e 1.t).

Es decir, L(t) es la probabilidad de aceptar H0 considerada como una


funcin de

Jl.

Observacin : otra funcin, muy relacionada con la funcin OC, es la funcin de potencia
definida por
f/(1') - P[ rechazar fl o 11']

lnhuducl'lc'No

1~. 1

Considrese 1 - L(IOO). Este nmero representa la probabilidad de rccha;rar


1/ 0 cuando H 0 es verdadero. Es decir, 1 - L(IOO) representa la probabilidad de
un error del tipo l. Si se dan 11 y C. entonces 1 - L(IOO) est determinado completamente. Por ejemplo. si tomamos 11 = 50 y C = 101, obtenemos
1 - L(tOO)

L(.t)

- ~ C .t) = P (X3fTn
- 11

= P(X

en donde, como siempre,

<l>(s) =

----b
f'
.., 2rr.

!5;

e - Jl) = <1> [<C - 11)j 11J ,


3]':,
3

e- x>2 dx.

- >

Las siguientes propiedades de L(}l) son verificadas fcilmente:


(a) L(- oo) = l.
(b) L(+oo) =O.
(e) dL/dJl < O para todo Jl (Luego Les una funcin estrictamente decreciente
de Jl).
Luego el grfico de la funcin L tiene en general la apariencia de la curva de
la figura 15.1. (La forma especfica depender, naturalmente, de la eleccin de la
constante y del tamao de muestra n).

[.!.2!. ~ 100 j'5o J

1 - <11

=1-

<1>(2.37)

0.009.

Luego esta dcima particular nos conducira a rechazar H 0 errneamente alrededor del 0.9 por ciento de las veces.
A menudo consideramos el problema desde un punto de vista ligeramente
diferente. Supngase que se da el tamao de muestra 11 y que la probabilidad de
un error del tipo 1 est especificada, es decir, 1 - L( 100) = a o, equivalentemente.
L(IOO)
1 -a. Cul sera el valor de C?
Especficamente, si tomamos n = 50 y elegimos a = 0,05, obtenemos C como
solucin de la siguiente ecuacin:

Luego f/(<) = 1 - L(<). Usaremos la funcin OC para describir propiedades de la dcima


aunque esto se podra hacer facilmente mediante la funcin de potencia.

En el caso especfico que se est considerando, podemos obtener la siguiente


expresin explcita para L: si J1 es el va lor verdadero de E(X), entonces X tiene
distrib ucin N(.t, 9/ n). Luego,

0,95

= <~~(e -3 100

fi}

De la tabla de la distribucin normal esto da

1,64

=e -

Por tanto

e=

100

lOO

fiO.

+ 3~ =
..,50

100,69.

Luego si rechazamos la hiptesis cada vez que el promedio mucs tral es mayor
que 100,69, estamos garantizando que el error del tipo 1 ocurrir, con una probabilidad de 0,05. P uesto q ue ahora se conocen 11 y C la funcin OC est completamente especificada. Su grfico se muestra en la figura 15.2. El valor 0,05 se llama
nivel tle significacin de la dcima (o algunas veces tam01io de la dcima). En la
mayor parte de los problemas se supone que es este valor menor que 0.1).
Ntese que al especificar a y el tamao de la muestra n, slo debe ser determinada la constante
a fin de especificar completamente la dcima. Hicimos
esto insistiendo en que el grfico de la funcin OC pase a travs de un punto espe-

L(.)

,,,,_ ,~
~

p.

FtGURA 15.1

327

F IGURA

15.2

15.1

cificado, 1al como (100, 0,95). (Debe ser evidente cmo se modificara el procedimiento anterior si hubisemos escogido un valor distinto a 0,05 para el nivel
de significacin).
Ahora que la funcin OC est completamente especificada podemos encontrar
las coordenadas de cualquier otro punto. P or ejemplo, cul es el valor de L(I02)?
L(102) = <J)c00,693- 102

J5o)

= <J)(- 3,1) = 0,00097.


Luego para la dcima que se considera, la probabilidad de aceptar H 0 : 11 = 100
cuando en realidad Ji= 102 es igual a 0,00097. Por tanto la probabilidad de un
error del tipo 2 es muy pequea si Jl = 102. Puesto que Les una funcin decreciente de Jl, observamos que L(Jl) < 0,00097 para t.o do Jl > 102.
Si queremos escoger a n y C, debemos especificar dos puntos a travs de los
cuales pase el grfico de la funcin OC. De esta manera podemos controlar no
slo la probabilidad de error del tipo l. sino tambin la probabilidad de error
del tipo 2.
L(,.)

F6rmula gefterol: dl~rlbucla ftOrmal eo.. >~rlulta e01t0elda

15.2

de la cual obtenemos

e = (t02)(t,64) -

(100)( - 2,33)
1,64 - ( - 2,33)

.. - 102

FIGURA

t5.3

Supngase que en el eJemplo que estamos considerando deseamos evitar el


rechazo de H0 cuando Ji;:::: 102. Luego podemos hacer L(l02) = 0,01, por eJemplo,
puesto que L es una funcin decreciente de Jl, se deduce que L{Jl) ~ 0,01 para
Ji > 102. (Ver la figura 15.3). Si pedimos tambin un nivel de significacin de 0,05,
obtenemos las siguientes ecuaciones para la determinacin de n y C:
L(IOO) = 0,95,

15.2

Frmulacin general : distribucin normal con varianza conocida

Hemos considerado con algn detalle un ejemplo relacionado con una hiptesis que implica el promedio de una variab le a leatoria distribuida normalmente.
Mi entras algunos de los clculos estn an frescos en nuestra mente, generalicemos
este ejemplo como sigue.
Supngase que X es una variable aleatoria con d istribucin N(JI, a 2 ) en donde
2
a se supone conocida. Para docimar H 0 : Jl = Jlo versus H 1 : Jl > Jlo proponemos
lo siguiente: obtener una muestra de tamao 11, calcular el promedio muestra( X,
y rechazar H 0 si X > C, en donde Ces una constante que se ha de determinar.
La funcin OC de esta dcima est dada por

e - too
3

e\

v "),

o.ot = <J) (

e-

102

e\r
-vn

De las tablas de la distribucin normal encontramos que estas expresiones son


equivalentes a
1,64 =

e- 100 ...n,
e
3

_ 2,33

=e -

~ C) = q

(C ~

11

~.

102

Jn.

Las propiedades generales de L{Jl) se


establecen fcilmente. (Ver el problema
15.4):
FIGURA

= (- 2,33)(C - 100).

15.4

(a) L(- oo)


l.
(b) L( + oo) O.
(e) I.:(Jl) < O, y por tanto Les una funcin estrictamente decreciente de Jl. (15.1)
(d) I.:' (Jl) = Opara Ji = C, y por tanto el grfico tiene aqu un punto de inflexin.

(e) El aumento de n motiva que la curva llegue a tener mucha pendiente.

A fin de proceder, debemos considerar dos casos.


Caso 1. Si se da n y especificamos el nivel de significacin (~s decir. la probabilidad del error del tipo 1) con algn valor a, podemos obtener el valor de Cal
resolver la siguiente ecuacin:

A fin de eliminar n, dividimos una ecuacin por la otra. Luego


(C - 102)(1,64)

L(,.)

La forma general de la funcin OC es


como se indica en la figura 15.4.

=
=

L(102) = 0,01.

Estas ecuaciones se reducen a


0,95 = <J) (

= 100.8.

Una vez que se conoce C. podemos obtener 11 eleva ndo al cuadrado cualquiera
de las ecuaciones anteriores:
Por lo tanto
2
3(1,64) ]
11 = e _
= 34,6 ::::e 35.
[
100

L(Jl) = P(X
,. ~ too

3211

1 - a = lll

( e -a Jlo ...'-)n.

330

~.2

Ooclmola de hlp(li<'HI'

1~.2

l'rtnUIIl ltl'IICrlll: dl,crlbucl6fl 110r111111 CUII rholltM

CUIH~hl

1.11

Definiendo K. en la relacin 1 /.ji;J~.., ~' - '' 12 dt =a, podemos escribir lo anterior


como

e-

K1

J.loJn
= -(1-n'

en donde K - puede obtenerse de la tabla de la distribucin normal. Luego


rechazamos H0 si
(1
X > J.lo + r.. K 1 -

""

Caso 2 . Si vamos a determinar n y C, debemos especificar dos puntos sobre


el grfico de la curva OC : 1 - L(J.Io) =a, el nivel de significacin. y L(J.l 1) = p,
_!! probabilidad del error del tipo 2 para J.l = J.l Luego debemos resolver las
ecuaciones siguientes para n y e:

r.)

e-

1 - a=<l> - -u- !lo .., n ;

Estas ecuaciones pueden resolverse para


Obtenemos
e= JlK - - J0 Kp
K 1 - . - Kp '

y n como se indic anteriormente.

_[u

, - e K -] ,
- J.lo

en donde K - y Kp ya se han definido.


En el mtodo bosquejado, hemos tratado la hiptesis alterna H 1 : 11 > 100
(o, en el c~so general, Jl. > J.lo). En otro contexto podramos considerar Ho: 11 = J.lo
vers~s H : J.l < Jlo o 11o: J.l = J.lo versus H': Jl :F J.lo. Debe ser evidente cmo
modcficamos la dcima anterior para tal hiptesis alterna. Si consideramos
H' : J.l < J.lo, rechazaramos si X < e y la funcin OC sera definida por
L(J.I) = P(X

= 1 - <1>

(e ~

Jl. Jn).

Si consideramos H ' : J.1 :F J.lo. rechazaramos H 0 cada vez que


por tanto, la funcin OC se definira
L(J)

= P(IX = <1>

IX -

J.lol >

e y,

J.lol ~ C)

(e +:o - Jn) _ (-e +:o - Jn).


11

<1>

11

Si escogemos el mismo nivel de significacin a para cada una de las dcimas


anteriores y dibujamos los grficos de las respectivas funciones OC en el mismo
sistema de coordenadas, obtenemos lo siguiente: (A corresponde a H., B a H'.,
y D a H').

FIGURA 15.5

La figura 15.5 nos da un medio para comparar la~ tres dccma~ que estamo~
considerando. Todas las dcimas tienen el mismo nivel de signcficacin. (Debe
comprenderse claramente que e es slo un smbolo gennco de una constante
y no ser la misma en cada uno de los casos. Lo importante es que en cada uno
de lo~ casos se ha escogido de modo que la dcima tendr1 el nvel de significacin ':1).
Si Jl > 10 e.ntonces la dcima A es mejor que las o1ras dos puesto que dar{!
un valor ms pequeo para la probabilidad del error del tipo 2. Sin embargo.
si 1' < l'o- la dcima A es la peor de las que estn siendo consideradas. mientras
que la dcima 8 es la mejor. Finalmenle, la dcima D es aceptable generalmente
y an puede ser mejorada en cualquier caso especfico con la dcima A o la dcima B. Por tanto. observemos que es muy importante tener una hiptesis alterna
especfica en mente debido a que la dcima que escojamos puede depender de
esto. (S lo comparamos las dcimas que tienen el mismo nivel de significacin;
esto no es necesa rio en absoluto y la comparacin resulta algo vaga si usamos
dcimas que tienen niveles de significacin diferentes. Ntese la scmeJan:~a con
nuestra comparacin de ciertos estimadores: slo compari1bamos las varianzas
de los estimadores que eran insesgados).
En muchos casos es evidente cul hiptesis alterna debcramo~ considerar.
En el eJemplo anterior, posiblemente sabemos que el nuevo proceso de fabricaCIn producira tiJeras de la misma durabilidad o bien aumentada y, por tanto.
u~aramos la dcima A como sugeramos. (Si el nuevo proceso fuese a producir
tijeras de calidad inferior nuestra dcima sera muy mala. Si no se garanti7a ninguna de tales hiptesis sera mejor usar una dcima tal como D: rechaL.ar H 0
si IXJ.lol > C. Las dcimas tales como A y B se llaman dcimas unilaterales mientras que una dcima tal como D se llama dcima bilateral.
Al considerar hiptesis alternas podramos encontrar la siguiente analoga
til. Supngase que una persona se pierde de un lugar M y sabemo~ que el individuo ha 1do bien a la izquierda o a la derecha de M. mantenindose en una trayectona rectilnea.
M

Si 10 personas estn disponibles para la bsqueda, ,cmo deberan dispersarse esas personas? Si nada se sabe con relacin a la ubicacin del individuo.
podra ser razonable enviar un grupo de 5 personas en cada una de esas direcciones.
lueao despachar un grupo de bsqueda muy efectivo. pero no muy fuerte, tanto

IU

a la it:quterda como a la derecha. Sin embargo. si hay alguna indicactn de que


la persona ha caminado a la izquierda, po)iblemente entonces todos o la mayor
parte de los hombres disponibles deberan ser enviados a la izquierda, haciendo
una bsqueda muy efectiva, pero una muy inefectiva a la derecha. Otras consideraciones podran tambin innuir en el uso de los recursos disponibles. Por
eJemp lo, supngase que la trayectoria a la izquierda conduzca a un terreno plano
con bosque mientras que la trayectoria a la derecha sigue el borde de un precipicio profundo. En este caso obviamente la mayor bsqueda se concentrara
a la derecha debido a que las probabilidades de estar perdido de este lado son
mucho mayores que las de la izquierda.
La analoga debera ser evidente. Al docimar hiptesis, debemos estar tambin
interesados en las consecuencias de nuestra decisin de rechazar o de aceptar H 0 .
Por ejemplo, es el error que cometemos al aceptar a lgunas tijeras que son de mala
calidad (creyendo que no lo son) tap importante como no aceptar las tiJeras que
son de buena calidad (creyendo que no son)?
Obsertatin: en el desarrollo anterior sugerimos que a menudo preasignamos el nivel
de )tgnifcacin de la dc1ma. Esto se haoe rrecuenlemente. sin embargo. existe otro enroque
del problema que es muy comn y que deberamos diSCUtir.

Volvamos al ejemplo 15.1 en dondedocimamos H0 : t = lOO versus H 1 : t > 100.


Supngase que obtenemos s lo una muestra de tamao 50. calculamos el promedio muestra! X y encontramos que es igua l a 100,87. Deberamos aceptar o
rechazar H 0 ? Podemos argumentar como sigue: si J1 = 100, entonces X tiene
distribucin N( lOO, 9/50). Luego podemos calcular.

P(X ~ 100,87) = P
=

(x -

rro)

100 r.
v 50 ;a 100'87J - 100 v SO

1 - <1(2.06)

= 0,019699.

Puesto que 0.01 < 0.019699 < 0.05 diremos que el va lor observado X es signilicativo al nivel del 5 por ciento. pero no al nivel del 1 por ciento. Es decir, si usamos a = 0.05 rechazaramos H0 mientras que al mismo tiempo si usamos a = 0,01
no deberamos rechazar 11 0 .
Dicindolo de un modo diferente. si J1 = 100 obtenemos un resultado que
ocurrir slo alrededor del 1,9 por ciento de las veces. Si creemos que a fin de
aceptar H 0 un resultado debera tener a lo menos una probabilidad de ocurrir
de 0.05. luego la rechazamos. Si estamos satisfechos con una probabilidad de 0,01.
la aceptamos.
Observacin: la dcma anterior estipul que ti 0 th:beria ser rechazada siempre que X > C.
Suponiendo que el tamailo muestra! 11 = 2. el criterio anterior se reduce a (X 1 + X 2)/2 > C
o. equiva lentemente. (X 1 + X 2 ) > k. Luego el conJunto de valores muestra les po,ibles (x 1.
x 2 ) ha sido dividido en dos regiones: R = {(x 1. x 2 )lx1 + x2 > kj y R.
La regin especfica R depende naturalmente del valor de k. que a su ,cz depende del nivel
de Significacin de la dcma R. la regin de rechazo se llama algunas veoes regitl crtica de
la dcma. (Ver la figura 15.6.)

1jomplo

15.3

FIGURA

dlclmt~l<''

1.11

15.6

Generalmente, una dcima puede describirse mediante su regin crtica R.


Es decir, rechazamos flo si y slo si (x~o . ... x.)e: R.
15.3

Ejemplos adicionales

En vez de formular una teora general para la docimasia de hiptesis (que


existe y es muy extensa), continuaremos considerando algunos ejemplos. En cada
uno de los casos. la dcima que propondremos ser intuitivamente atractiva.
No se har ningn esfuerzo para indicar que una dcima especial es mejor en
algn sentido.
EJEMPLO 15.2. Se comparan dos procesos de produccin. El resultado del
proceso A puede caracterizarse como una variable aleatoria X con distribucin
N(J1,. u;) mientras que el resultado del proceso 8 puede caracterizarse como una
variable aleatoria Y con distribucin N(J11
Supondremos se conoce la variabilidad intrnseca en cada uno de los procesos. medida por la varianza. Deseamos docimar las hiptesis H 0 : J1x = t1 versus la hiptesis alterna H 1 : Jlx -

u;).

/ly

>o.

Obtenemos una muestra de tamao 11 de X, sea X, ... , X., y una muestra


de tamao 111 de Y, sea Y1 , Ym. Calculemos los respectivos promedios muestrates X y Y, y propongamos la dcima siguiente para docitnar las hiptesis anteriores.
Rechazamos H 0 si X - Y > C en donde C es una constante escogida de
modo que la dcima tenga un nivel de ~ignificacin especfico igual a ~La variable aleatoria Z = [(X - Y) - (tx - J11)]/J u;/n + ai/m tiene distribucin N(O, 1). Definiendo J1 = Jlx - 11. podemos expresar la funcin OC de J1
de la manera siguiente

U11 ) = P(X -Y
= <1 (

~) =

S: C 1

J u;~"-+Jla:/111}

P ( Z :;;

J 2~- J.l z

ax n + a, 111

334

Oocini de

hiptesi~

Ahora ~x = ~, es equivalente a ~ = O. Luego para determinar


solver la ecuacin
L(O) = 1 -IX
o
1 -a:= <D

e debemos re-

' ).
( J u~/11e+ u;/m

Por lo tanto

e=

K 1 -

O/,J2.ii j~.., e-''12 dt.

J u}.fn + u;fm.

(No continuaremos el problema de determinar ptimamente a n y m,. Una exposicin de este problema se encuentra en Derman and Klein, Probability and Statistical 1nference for Engineers. Oxford University Press, New York, 1959).
EJEMPLO 15.3. Un fabricante entrega fus ibles de los cuales el 90 por ciento
aproximadamente funcionan bien. Se inicia un nuevo proceso co n el objeto de
aumentar la proporcin de fusibles que funcionan bien. As, deseamos docimar
la hiptesis H0 : p = 0,90 versus f/ 1 : p > 0,90, en donde p es la proporcin de
fusibles que funcionan correctamente. (Es decir, estamos docimando la hiptesis
de que no se ha producido ninguna mejora sobre la hiptesis de que el nuevo
proceso es superior). Obtenemos una muestra de 50 fusibles fabricados con el
nuevo proceso y contamos el nmero de fusibles que funcionan correctamente, X.
Propongamos la dcima siguiente:

Rechazar Ho siempre que X > 48 y aceptarla en cualquier otro caso.


Suponiendo que la variable aleatoria X tiene una distribucin binomial con
parmetro p (que es una suposicin realista si la muestra se toma de un lote muy
grande), obtenemos la siguiente expresin para la funcin OC
L(p) = PfX

= 1-

s; 48) = 1 - P(X

t-49

49)

(50) pt(l - p)so- = 1 - p49(50- 49p)


k

despus de algunas simplificaciones algebraicas. Por lo tanto tenemos lo siguiente


(a) L(O) = l.
(b) L(l) = O.

(e) I..:(p) < O para todo p, O < p < l.


(d) I..:'(p) = O si p = 48/49.

[Las propiedades (e) y (d) se verifican


fci lmente con una derivacin d irecta.]
Luego el grfico de la anterior funcin L
tiene la forma de la curva que se muestra
en la figura 15.7. El nivel de significacin
:x de esta dcima se obtiene al calcular
1 - L(0,9). Obtenemos

L(p)

a = 1 - L(0,9)

K - = J ui/ne+ uifm
en donde K. est definida como antes, por la relacin :x =
Luego

3 1~

l,j<noplo adicional'"'

1 ~.3

= (0,9)49 (50- 44,1]


= 0,034.

FIGURA

15.7

ObsenVJciones: (a) El ejemplo anterior puede generalizarse como s1guc. Supngase que X
es una variable aleatoria distribuida binomialmcnte. basada en n repeticiones de un cxperi
mento con parmetro p. Para docimar la hiptesis H 0 : p - Po versus H 1: p > Po. proponemos la dcima siguiente.
Rechazar H0 siempre que X > C, en donde (' es una constante para ser determinada.
(Por tanto aceptar H0 siempre que X :;; C.)
L;t funcin OC de esta dcima ser de la forma
L(p) =

:
e

(") p*(l - p .

(15.2)

o k

Las siguientes propiedades de L son verificadas fcilmente. (Ver el problema 15.5).


(1) 1..(0) = 1: L(l) = O.
(2) c.:(p) < O para todo p, p < O < l. Por tanto L es estrictamente decreciente).
(3} L:'(p) = O si p = C/(11 - 1). (L uego L tiene un punto de in0exi6n en C/(11
1).)
(b) Hemos dicho que en algunos casos podemos aproximar la distribucin binomial con
la distribucin de Poisson. Es decir. sin es grande y pes pequeo, P(X k)- ~- (np'!f.l
Usando esta frmula de P(X = k), encontramos que la runcin OC para la dcima propuesta anteriormente se reduce a
R(p)=

e e - npf

(15.3)

k!

Las prop1edades siguientes de R tambin se pueden verilcar fc1lmente. (Ver el problema 15.6)
(4) R(O)
1; R(l) = O.
(5) R'(p) < O para todo p. O < p < l.
(6) R"(p) = O si p = Cfn.
(7) R(C/n) es una funcin solamente de C y no de 11.

Reconsideremos el problema de docimar H 0 : 11 = J1o versus H 1 : ~ > to,


en donde X tiene distribucin N(~, u 2 ). Previamente suponamos que u 2 era
conocido. Levantemos ahora esta restriccin.
Nuestra dcima anterior rechazaba H 0 siempre que (X - J1o) J,,u > e;
C estaba determinada considerando el hecho de que (X - Jto)J/ u tiene distribucin N(O. J) si~= Po

.1:16

15.4

Ooc:imasla de hlpte.l

Tal como construimos un intervalo de confianza para . cuando u 2 era desconocida, estimemos ahora u 2 mediante 2 = [ 1/(n - 1)) :E7~ 1 (X 1 - X) 2 Usemos
una dcima anloga a la propuesta anteriormente: rechacemos H 0 siempre que
(X - Jt)jf( > c. Para determinar e usemos el hecho de que (X - Jto)Jf u
tiene una distribucin t de Student con In - 1) grados de libertad si Jl = t0 .
(Ver el teorema 14.3).
Sea a. el nivel de significacin prefijado. Luego a = P[(X - t0 ) .J/ > C]
implica que C =
-~ es obtenida de la tabla de la distrihucin t de Student.
(Ver la figura 15.8). Rechazamos Ho cada \"CZ que X > rTI l. - n' 12 + llo. as
obtenemos nuestra dcima.
Ir.,_, (1)

t-. -.

Ociltllo paru la bondd de Jute

15..1

.l37

Sin embargo, puede acontecer que an no estemos seguros acerca de la forma general de la distribucin que se tiene. Consideremos algunos ejemplos.
EJEMPLO 15.5. Los buques mercantes de cierto tipo estuvieron expuestos
durante 400 das a riesgos de accidentes de tormentas, hielo. incend io. avera de
mquinas, etc. El nmero de accidentes X de cada barco, puede considerarse
como una variable aleatoria. Se registraron los siguientes datos:
Nmero de accidentes (X):
Nmero de barcos con X accidentes:

o
1448 805

206

34 4

5 6

Justifican los datos anteriores que X tiene una distribucin de Poisson?

FIGURA

15.8

EJEMPLO 15.4. Supngase que X. la lluvia cada anualmente en cierta zona,


est distribuida normalmente con E(X) = 30,0 pulgadas. (Este valor ha sido
obtenido de un gran registro histrico de datos meteorolgicos.) En aos recientes,
ciertos cambios de clima parece que evidentemente afectan, en ot ras cosas, la
precipitacin anual. Se establece la hiptesis de que en realidad la lluvia cada
anualmente ha aumentado. Especficamente. deseamos docimar H 0 : Jl = 30,0 versus H 1 : Jl > 30,0. La varianza se supone desconocida puesto que el cambio climatolgico sospechado tambin puede afectar la variabilidad de la llu via cada.
y. por tanto. los datos anteriores sobre la varianza no son significativos.
Supongamos que los 8 aos anteriores han dado la siguiente precipitacin
anual (pulgadas):

34, 1; 33,7; 27,4; 31 ,1: 30.9; 35,2:28,4:32,1.

EJEMPLO 15.6. , Supngase que se tienen 20 muestras de una clase especial


de cables y que se miden las resistencias en ohms y se obtienen los valores siguientes:
9,8; 14,5; 13,7; 7,6 ; 10,5 ; 9.3; 11,1 ; 10,1 ; 12,7; 9,9;
10,4; 8,3 ; 11,5; 10,0; 9,1; 13,8; 12,9; 10,6; 8,9; 9,5.
Si R es la variable aleatoria <le la cual se obtiene la muestra anterior. tenemos
razn al suponer que R est distribuida normalmente?
EJEMPLO 15. 7. Se probaron veinte tubos electrnicos y se anotaron las duraciones (en horas):

7,2; 37,8; 49,6; 21,4; 67.2: 41,1; 3,8; 8,1; 23,2; 72,1;
11,4; 17,5; 29,8; 57,8; 84,6; 12,8; 2,9; 42,7; 7,4; 33,4.

en-

Son los datos anteriores consistentes con la hiptesis de que la variable a leatoria T, que est siendo muestreada, est distribu ida exponencialmente?

En la mayora de nuestras discusiones supusimos que la variable aleatoria


que se considera tiene una distribucin especfica. En el captulo anterior y en las
primeras secciones de este, hemos aprendido cmo resolver el problema de tener
un parmetro desconocido asociado con una distribucin de probabilidades.

Los ejemplos anter iores son tpicos de una gran clase de problemas que
aparecen frecuentemente en aplicaciones. Hay var ias tcnicas estadsticas disponibles con las cuales se pueden analizar tales problemas; consideraremos a
continuacin algunas de ellas.
El problema de docimar la hiptesis de que una variable aleatoria tiene cierta
distribucin especfica puede considerarse como un caso especial del siguiente
problema general.
Considrense nuevamente las condiciones que dan origen a la distribucin
multinomial (Ver la seccin 8.7). Se efecta un experimento e n veces. Cada una
de las repeticiones de e da origen a uno y slo uno de los sucesos A;, i = 1, 2, ... , k.
Supngase que P(A 1) = p1 Sea n1 el nmero de veces que ocurre A; entre las n
repeticiones de e, 11 1 + + nk = 11.
Deseamos docimar la hiptesis H 0 : p1 = p10 , i = 1, . .. , k, en donde p,. es

Clculos directos dan


contramos que

X=

31 ,6 y

= 7.5. De la tabla de la distribucin

17:0.95

1.89.

Luego
ut,,o,9J

.J8 + 30.0 = 31 ,8 > 31.6.

Por tanto no rechazamos H 0 a l nivel de significacin de 0,05.

15.4 Dcima para la bondad de ajuste

~lma

15.4

un valor e~pcclico. Karl Pearson (1900) introduJO la siguiente dcima de bondad


de aJUSte para docimar la hiptesis anterior:
-

en donde

np,.)z
>
np,.

(n; -

I:

Rechazar H0 Stempre que D =

e,

n, - IIPto ]
[ J nPtoO - Ptol

e es una constante que se va a determinar.


=

o1 y e1 representan respectivamente el valor observado y esperado de 111


(b) Es importante establecer que D 2 es un estadigrafo (es decir. una funcin de los valores observados " .... n0 ) y es. por tanto. una variable aleatoria. En realidad. D2 es una
variable aleatoria discreta que toma un gran nmero linito de valores. La distribucin actual
de D2 es muy complicada. Afortunadamente. hay una aproximacin disponible para la dtstribucin de D 2 vlida si 11 es grande, y que hace muy til el procedimiento sugerido.

l,l\1

entonces, la variable aleatoria (nt - IIPto)/.jpt.(l


p,.) tiene aproximadamente la distribucin N(O, 1). Luego, de acuerdo con el teorema 10.8 para un 11
grande, la variable aleatoria

( 15.4)

Observacio11es (a) Puesto que E(n1) = np1 si p1 p1.,. este criterio para docimar tiene
mucho atractivo intuitivo. Exige que rechacemos H 0 siempre que la discrepancia entre los
valores observados 111 y los valores esperados np1 sea <<muy grande. Algunas veces el estadgrafo D2 anterior se escribe de una manera muy sugerente como:!:~. 1 (o; - e;) 2/e;, en donde

pan bo ..dod ole aj""lt

tiene aproximadamente la distribucin x~H emos demostrado que si 11 es sulicientemcnte grande, D 2 (con k = 2) tiene
aproximadamente la distribucin
Pero precisamente es esto lo que sostenamos
e n el teorema. La demostracin para un k en general sigue la misma lnea: debemos demostrar que D2 puede expresarse como la suma de cuadrados de (k - l)
variables aleatorias independientes cada una con distribucin N(O, 1) sin es grande
y si p1 = p1 y. recurriendo al teorema 10.8. encontramos que se deduce el resultado anterior.

xr

lt t(x)

Teorema 15. 1. Si 11 es sulicientcmcntc grande, y si p1 = p1 la distribucin


de 0 2 tiene aproximadamente la distribucin de X cuadrado con (~ - 1)
grados de libertad.

x2k - 1:0.9~

Demostraci11: el argumento siguiente 110 es una demostracin rigurosa. Slo

es un intento de hacer aceptable el resultado.


Consideremos un caso especial, es decir, k - 2. Luego
02 =(lit - 11Pto)
IIPto

Usando el hecho que 11 1

z
D -

+ 11 2

(lit - 11Ptol2
~
IIPto

(lit - npt 0)
IIPto

+ (nz -

IIPzo

+ p 20

= 11 y que Pto

(n - lit -

2
npz.) .

11( 1 - Ptol)
IIPzo

= l. podemos escribir

IIPzo

_ ( _
)2 [ IIP2o
- lit
IIPto
2
11

+ IIPto]

PtoP2o

P(D 2 > C 1p,

lit - IIPto

1
-np..

1
IIPzo

2
_ (llt - lltPto)

IIPt oO - Pto)

Como lit = !.j t Y tJ en donde

Y IJ = 1
=

O,

)2 [

si A t ocurre en la j-sima repeticin,


en cualquier otro caso.

As lit puede expresarse como la suma de n variables aleatorias independientes


y de acuerdo con el teorema del lmite central, tiene aproximadamente una distribucin normal si n es grande. Adems, E(llt) = IIPt. y V(llt) = IIPtoCI - Ptol
si Pto es el valor verdadero de Pt Por tanto si Pt = p 1., para un gran valor den.

15.9

Podemos usar el resultado ya establecido para responder a la pregunta de


qu tan grande debera ser 0 2 a lin de rechazar la hiptesis H 0 : p; = p,.
Supngase que queremos obtener una probabilidad del error del tipo 1 (es
decir, el nivel de signilicacin) igual a 0,05. Esto signilica que esperamos rechazar
!:fo alrededor del 5 por ciento de las veces,Ciiido en realidad H0 es verdadero.
Luego elegimos
para satisfacer

!...__..:...._

(lit - 11Pto)

FIGURA

= p,.) = 0,05.

Puesto que 0 tiene distribucin xf- t si p1 = p,. podemos obtener el valor de


de la tabla de la distribucin X cuadrado; es decir, e= xt- t.o.9s; en donde
xl-1. o,9s est delinida por la relacin
2

r~

Jxk. -..o.,

9k - .(x) dx = 0,05,

en donde g - .(x) es la fdp de una variable aleatoria con distribucin x - t (Ver la


ligura 15.9 .)
Usemos las ideas que desarrollamos para responder algunas preguntas surgidas al comienzo de esta seccin: podemos encontrar una dcima para decidir
si se acepta o se rechaza la hiptesis de que se tom una muestra particular de
una variable aleatoria con una distribucin especlica?
En este punto debemos hacer una distincin entre los dos tipos de problemas.
Simplemente podramos formular la hiptesis de que la variable aleatoria que se
muestrea tiene una distribucin normal sin especilicar los parmetros implicados.

1>11<-im ta lo IHMJdMd '"' ulu'l~

1!1.4

O podramos ser ms explcitos y formular la hiptesis de que la variable aleatoria


que se considera tiene una distribucin normal con promedio y varianza especficos. Los dos problemas pueden ser tratados de una manera semejante, pero la
ltima (cuando especificamos compl1!tame11te la distribucin hipottica) es un
poco ms simple y la consideraremos primero.

Caso 1. Docimacin para una distribucin completamente especificada.


EJEMPLO 15.8. Supngase que creemos que la duracin T de bombillos
elctricos est distribuida exponencialmente con parmetro P = 0,005. (Es decir.
el tiempo esperado para fallar es de 200 horas.)Saquemos una muestra de 150 bombillos, probmoslos, y anotemos sus tiempos para quemarse, T., ... , T 1 , 0
Consideremos los cuatro sucesos mutuamente excluyentes:

A 1: O <;; T < 100:


A3: 200 S T < 300:

= PCT S

100)

=1-

e o.o<I$POOI

Pz = P( 100 S T < 200) - 1 - 1!


= P(200 S T < 300) = 1 - e

Pl

P4 =

PC T > 300) = e

0 00 '13 01

=1-

e o.s

1512001
'"

o.tt~I.IOIII-

= 0,39.

0.39 = 0.24.
(1 - e - o.oosczool = 0,15.

0.22.

Ahora podemos calcular

oz =

i:
1

(11 -

llp.) 2

11p,.

= (47 - 58,Sf

58.5

+ (40- 36)2 + (35 - 22.5f


36

22.5

(28 - 33)2
33

= 11 56
.

P(0 2

En las tablas de la distribucin 1. cuadrado encontramos que


> 11.56) < 0.01.
en donde 0 2 tiene aproximadamente la distribucin x cuadrado con 4 - 1 3
grados de libertad. Por lo tanto rechazaramos (al nivel del 1 por ciento) la hiptesis de que los datos repre:.entan una muestra de una distribucin exponencial
con parmetro p = 0,005.

El ejemplo anterior ilustra el procedimiento general que usamos para docimar


la hiptesis de que X 1 , , X. representa una muestra de una variable aleatoria con una distribucin completamente e~pecificada:
(a) Dividir la recta real en k intervalos mutuamente excluyentes, A 1 , , A t.
(b) Sea N el nmero de valores muestrales que caen en A 1 i
1, 2, .... k.
(e) Sea Pro
P(A 1). Esos valores se pueden calcular puesto que la hiptesis
especifica completamente la distribucin.

(d) Calcular 0 2 y rechazar la hiptesis si 0 2 > e en .donde c. se obtie~1c _de


la tabla de la distribucin x cuadrado. Si se requtere un mvcl de stgmficacin IX,
= xl- 1>1 -

Observacin no discutiremos cmo se deben escoger los intervalos A, o cu{mtos deberan


escoger..e. Establezcamos slo la regla siguiente: si 11p1 < 5 para cualquier A, combina~ los
datos con A,. 1 o A; - 1 Es decir, no deseamos subdividir el espacio muestra! de la v~r~a.~le
aleatoria en p-drtes tales que el nmero esperado de ocurrencias en cualquier subdJvJston
particular sea menor que 5. [Una exposicin a~ena de este problema p~ede encontra~~ en
un articulo de W. G. Cochran, titulado The .,- -Test of Goodness of Fll>t que aparecto en
An11. Ma1l1. Srat.

:2l, 315-345 (1952).)

Caso 2 . Docimacin para una distribucin si deben estimarse los parmetros.

A 2 : 100 S T < 200:


A4: T ::?: 300.

Supngase que registramos 11, el nmero de veces (entre los 150 tiempos de falla)
que ocurri el suceso A1, y encontramos 11 1 = 47, 11 2 = 40, 11 3 = 35. y 11 4 = 28.
A fin de evaluar el estadgrafo 0 2 debemo~ calcular p;, i = 1, 2. 3, 4.
Ahora
p

141

En muchos problemas slo tenemos razones para suponer que la variable


aleatoria que se est muestreando tiene una distribucin de cierto ~ipo sin ~u.e P<;
damos especificar los parmetros. P or ejemplo, sabemos que ctert~s htpotests
que hemos formulado pueden conducirnos a una distribucin de Potsson, a una
distribucin exponencial, etc. A fin de aplicar la tcnica sugerida en la seccin
anter ior debemos conocer los valores de los parmetros de la distribucin.
Si no conocemos esos valores, el enfoque obvio es estimarlos primero~! l~o
u~a~es1~1wciones a fin de evalua r las probab~lidades Pr Aparecen dos mlerro
gantes.
..
(a) Cmo deberan estimarse los parm~tros?
(b) Si se usa p; (es decir, e l parmetro estimado) en vez de Pto en la .expr~so~
de 02, cmo afecta esto la distribucin de 0 2 ? (El hecho de que afectara la dtstn
bucin debe ser evidente si comprobamos que originalmente los P1o eran constantes. mientras que ahora los p; son ellas mismas variables aleatorias, dando as
una estructura mucho ms complicada a la variable aleatoria 0 2 .)
Daremos (sin demostracin) algunas respuestas a las interrogantes anteriores.
(a) Los estimadores usados corrientemente para los parmetros son los obtenidos por el mtodo de la mxima verosimilitud.
(b) Si el nmero de parmetros estimados es igual a r < k, entonces para un
gran 11 , la variable aleatoria 0 2 tiene nuevamente una distribucin x cuadrado,
esta vez con 11 - k - r grados de libertad.
Ob.\ervllctl: este ltimo hecho es muy notable. Significa que D tiene la misma distribuc1n rundamental x1 que antes, la nica diferencia es que ~ pierde un grado de libertad
por cada parmetro que debe estimarse.
E.JI!MPLO 15.9. Se consideran los datos del contenido de ceniza en el carbn
tal como aparecen en e l ejemplo 14.6. Supngase que deseamos docimar la hiptesis de que esos datos fueron obtenidos de una variable aleatoria distribuida norma lmente. Primero debemos estimar los parmetros correspondientes 1' Y (Jz.

342

Oodon11,ia de hiptesi

15.4

Previamente obtuvimos las estimaciones M.L. ji


los valores posibles de X en cinco categoras:
A,:X < 12;

A 2 : 12 5 X< 15;

A 4 :18;S;X<21;

17,0 y T 2

= 7,1.

Dividamos

A 3 : 15 s; X< 18;

A 5 :X2:21.

Sea 11; el nmero de veces que ocurre A;. Encontramos que


11 1

= 7;

11 2

= 49;

11 3

109;

= 67;

11 4

11 5

PI = P(X < 12)

P2 = P(l2 s; X < 15)

P3

= P(l5 s;

X < 18)

= ct>( -1,85) = 0,03,

ct>( - 0.74) - ct>( - 1,85)

= ct>(0,37)- 11>( -0,74) =

Sea A 1 : X= O; A 2 : X= 1; A 3 : X = 2; A4: X = 3; As : X = 2:4. Luego 11,


1448; 11 2 = 805; 11 3 = 206; 114 = 34; 11s = 7, y obtenemos

p1 = P(X = 0) = e-<o,s 41 = 0,58


p2 = P(X = l) = e - 0 54(0,543) = 0,31

0,20,

P(X

= 2) = e- 0 54 (0,

P4

P(X

= 3) = e- 0 54 (0,

Ps =
s

(11; -

(11 - 250p') 2

'

i = 1

'

250p;

(7 - 7,5)"
7,5

(49 - 50) 2
50

(67 - 72,5)Z
72,5

102,5)2
102,5

(18 17,5

Puesto que D2 tiene 5 - 1 - 2 = 2 grados de libertad, encontramos en las


tablas de la dist ribucin de x cuadrado que P(D 2 2: 0.82) ~ 0,65, y que. por tanto.
deberamos aceptar la hiptesis de normalidad.
EJEMPLO 15.10. Consideremos los datos presentados en el ejemplo 15.5.
Tiene la variable aleatoria X = nmero de accidentes durante el perodo especificado de 400 das, una distribucin de Poisson?
Estimemos primero el parmetro}, de la distribucin. En el captulo 14 encontramos que el estimador ML de est dado por el promedio muestra l. Luego

= 0(1448)

1351
= 2500
= 0,54.

= 0,08

11P3

= 200

= 0,01

11P4

= 25

nps = 50

11Pz = 775

(1448 - 145W
1450

(206 - 200) 2
200

.:....
(8_0_
5 ~-=-7_7--'
5):.....
775

(34 - 25)
25

(7 -

5W 50

42 2
' .

PROBLEMAS

= 0,82.

11p ,

(109 -

17,5)2

= 1450

y
y

P(X < 4) = 0,02

P uesto que hay cinco categoras y estimbamos un parmetro, la variable aleatoria D 2 tiene la distribucin aprox imada ;;d. Encontramos en las tablas de la
distribucin x cuadrado que P(D 2 2: 42.2) ~ O y, por tanto, deberamos rechazar
la hiptesis.

Ahora podemos calcular


5

= 1-

Ps = P(X 2: 21) = 1 - ct>(1,48) = 0,07.

11p;)

.
np;

p 4 = P(l8 s; X < 21) = ct>(l,48) - ct>(0,37) = 0,29,

D2 =

P(X 2: 4)

:w

34.l

Ahora podemos calcular


2
D+2:
i=

0,41,

;w

PJ

= 18.

Debemos calcular a continuacin p; = P(A;), usando los valores estimados de


JL y 1Tl ya obtenidos. Tenemos
X-17
12-17]
p ( 2,7
<
2,7

Problemas

1(805) + 2(206) + 3(34) + 4(4) + 5(2)


1448 + 805 + 206 + 34 + 4 + 2 + 1

+ 6(1)

15.1. Se supone que X tiene distribucin N(., a 2) con a 2 conocida. Para docimar H0 :
JJ = JJo versus H 1 : JJ < JJo se propone el mtodo siguiente: una muestra de tamao 11 y recha
zar H 0 siempre que el prome>dio muestra! X < C, en donde e es una constante que debe determinarse.
(a) Obtener una expresin para la funcin OC, L(JJ) mediante la distribucin notllllal
tabulada.
(b) Si el nivel de significacin de la dcima es oc = 0,01, obtener una expresin para C.
(e) Supngase que a 2 = 4 y supngase que se est docimando H 0 : JJ = 30 versus H,:
JJ < 30. Determinar el tamao muestra! 11 y la constante e a fin de sat isfacer las condiciones
L(30) = 0,98 y L(27) = 0,0 l.
(d) Supngase que se obtienen los siguientes valores de muestra de X:
27,1; 29,3; 31,5; 33,0; 30, 1: 30,9; 28.4: 32,4; 31,6: 28,9; 27,3; 29,1.
Rechazara H 0 (versus H tl como se estableci en (e) al nivel de significacin del 5 por ciento?

15.2. Considerar la situacin descrita en el problema 15.1 exceptuando que la hiptesis


alterna sea de la forma H 1 : JJ '# J.lo Por tanto rechazamos H 0 siempre que IX - toi > C.
Responder las preguntas (a) y (b) anteriores.
15.3. Supngase que X tiene una distribucin de Poisson con parmetro .1.. Para docimar H 0 : J. = .1.0 versus H 1 : J. > .1. 0 se propone la siguiente dcima. Sacar una muestra de

l'rohlcn'

tamao 11, calcular el promedio muestra! X. y rechazar 11 0 siempre que X > C, en donde C
es una constan te para ser determinada.
(a) Obtener una expresin para la funcin OC de la dcima anterior, L(.l.). [ fndicocin
use la propiedad reproductiva de la distribucin de Poisson.]
(b) Graficar la funcin OC.
(e) Supngase que se est docimando H 0 : J.= 0.2 versus H 1 : ). > 0.2. Se obtiene una
muestra de tamao"
10 y rechalamos 11 0 si X > 0.25. Cul es el nivel de significacin
de esta dcma'!

15.4. Establecer las propedades de la ecuacin (15.1) para la funcin OC, L(p)
Jl)j

= <l>[(C -

C1].

15.5. Verificar las prop1edades para la funcin OC, L(p), como se definieron en la ecua
cin (15.2).
15.6. Verificar la' propiedades para la funcin OC. R(p). como se definieron en la ecua
cin (15.3).
15.7. Se sabe que una gran remesa de voltmetros contiene cierta proporcin p de defectuosos. Para docimar 11 0 : p 0,2 versus 11 1 : p > 0,2 se usa el siguiente mtodo. Se saca una
muestra de tamao 5 y se cuenta X. el nmero de voltimetros defectuosos. Si X s; 1, se acepta
H 0 ; SI X > 4, se rechu7.a 1/0 ; y si X = 2, 3. 4 se saca una segunda muestra de tamao 5. Sea
Y el nmero de instrumentos defectuosos en la segunda muestra. Se rechaza H0 si Y ~ 2 y
se acepta en otro caso. (Se supone que el lote muestreado es suficientemente grande de modo
que pueda suponerse que X y Y son variables aleatorias independientes distribuidas bino
mialmente.)
(a) Obtener una expresin para L(p), la funcin OC de la dcima anterior. y dibujar su
grfico.
(b) Encontrar el tamao de la dcima anterior.
(e) Cul es la probabi lidad del error del tipo 2 si p = 0.5?
15.8. Si n 4 y k~ 3, ,cu{utlos valores posibles puede tomar la variable aleatoria 0 2 ,
como se defini en la ecuacin ( 15.4)'1
15.9. (a) Ca lcular el valor esperado de la variable aleatoria D 2 como se defini en la
ecuacin (15.4).
(b) Cmo se compara este valor con el valor esperado (asinttico) de D2 obtenido con
la distribucin x cuadrado que puede usarse para aproximar la distribucin de 0 2 cuando n
es grande?
15.10. Mediante un nuevo proceso se preparan tres clases de lubricantes. Cada uno de
los lubricantes se prueba con cierto nmero de mquinas. y el resultado es luego clasificado
como aceptable. Los datos de la tabla 15.1 representan los resultados de este experimento.
Docimar la hiptesis de que la probabtlidad p de que un lubricante tenga un resultado aceptablees la misma para los tres lubricantes. [Indicacin: estime primero p de la muestra.]
TABLA

Aceptable
In aceptable
T ota l

15. 1

Lubncante 1

Lubricante 2

Lubricante 3

144

152

140

56

48

60

200

200

200

\4~

15.11. Al usar varias leyes de falla hemos encontrado que la distribucin exponencial
desempea un papel muy importante y que por tanto interesa poder decidir si una muestra
particular de tiempos de falla proviene de una distribucin exponencial bsica. Supngase
que se han probado 335 bombillas y el resumen siguiente de su duracin T (en horas) est
disponible:

Du racin
(en horas)

O!> T < 100

N mero

82

- -

100 $ T < 200 2005T<300 300 !O T < 400


71

68

T;~ l
400

_ls2j

62

De los tiempos de falla que se registraron, se encontr que t el promed1o muestra! era 1gual
a 123,5 horas. Usando esta informacin, docimar la hiptesis de que T, el tiempo para fallar
est distribuido exponencialmente.

15.12. Supngase que la variable aleatoria X tiene la siguiente fdp:

f(x)-

IX COS lXX

sen (n/2P,'

O< x < n/2,

en donde O < IX< l.

Para docimar H 0 : a= a0 se propone la siguiente dcima. Sacar una observacin de X. sea


X 1 y rechazar H 0 si X, > l.
(a) Obtener una expresin para la funcin OC, L(a), de esta dcima y graficarla.
(b) ,Cul es el tamao de esta dcima si ao = n/4?

15.13. En una malla de 165 celdas, se cont el nmero de granos de grafito en cada celda.
As se obtuvieron los datos de la tabla 15.2. Docimar la hiptesis de que el nmero de granos
en cada una de las celdas es una variable aleatoria con una distribucin de Poisson. [lmli
caci11 : JUnte las observaciones 52 y tambin aquellas ~ 10.)
TABLA

15.2

Nmero de granos de
gralito por celda

Observados

Nmero de granos de
gralito por celda

Observados

1
1
5
7
20
34
30

7
8
9
10
11
12

17
22
21
4
2
1

1
2
3
4
5
6

Referencias

La siguiente lista de referencias. aunque no es. ni mucho menos. exhaustiva. deber dar al
lector interesado la oportunidad de encontrJr mucha lectum suplemen taria y complementaria sobre diversos temas presentados en el texto. Adems de encontrar varios temas que no
estn incluidos en esta presentacin, el lector encontrar ciertos otros considerados o con
mucho mayor detalle o bajo un punto de vista algo diferente.
Adems de tomar nota de los textos que figuran a continuacin, el lector tambin deber
estar consciente de ciertas revistas profesionales en las cuales se hacen avances importantesMuchas de esas revistas. naturalmente, son escritas por personas con una experiencia y comprensin de este tema considerablemente mayores que las que pueden obtenerse estudiando
un semestre. Sin embargo, hay varias de ellas que a veces contienen artculos muy comprensibles y al alcance de un estudiante que ha madurado el tema de este texto ; y entre stas el
Journal of 1he American Sralisrical A.\sociariofl y Teclmometrics. La ltima es en realidad
subtitulada A Journal of Statistics for the Physical,. Chemical, and Engineering Sciences>>,
y, por lo tanto, puede ser de inters particular para aquellos estudiantes a quienes est especialmente dedicado este texto.
Muchos de los libros en esta lista con tienen exposiciones de la mayora de los temas in cluidos en este texto. Sin embargo, algunas de las referencias son algo ms especializadas
y especialmente adecuados slo algunos captulos. En tales casos, los captulos especficos
figuran entre parntesis despus de las referencias.

En ingls:

BAZOVSKY, 1., Reliabtliry Thcory and Praniu. Englewood CliiTs, N. J. : Prentice-Hall. lnc.,
1961 (11).
BERMAN, SIMEON M., The Elemems of Probabtli1y. Reading, Mass.: Addison-Wesley Publishing Co., 1969.
BowKER, A. H., y G. J . LIEBERMAN, Engmeering S1alis1ics. Englewood CliJTs, N. J.: PrenticeHall, lnc.. 1959.
DERMAN, C., y M. KLEIN, Probabllily and Srarislical lnference for Engineers. New York :
Oxford University Press, 1959.
EHRENFELD, S., y S. B. LnTAUER, lnlroducliOfl ro Slalisrical Melhod. New York : McGrawHill Book Co., 1964.
FELLER, W., An lmroducrion 10 Probabili1y Theory and l is Applicarions, vol. 1, 3. edicin.
New York: John Wiley and Sons. lnc .. 1968 (1. 2. 3).
FREUNO, J. E. , Mathemallcal S1a1is1ics. Englewood Cliffs, N. J. : Prentice-Hall, Inc., 1962.
F.R Y, T. C., Probabilily and lis Engineering Uses, 2. edicin. Princeton, N. J.: D. Van Nostrand,
1964.
346

GNH)ENKO. B. V.. Thc Theory of Probahili1y (traduccin del ruso) . New York: (.'hcbcu
Publbhing Co.. lnc . 1962.
GtJTT\1AN. 1.. y S. S. WJLKS, lmroductory Engineering Swli.Hic.~. Ncw York : John Wiley anc.l
Sons, lnc., 1965.
HAiltR. A., R. P. RUNVON y P. B.DIA, Reading.> in Swli.\ lits. Readmg. Ma\S.: Addi~On
Wcslcy Publishing Co.. 1970.
LINI)(;KU.;. B. W., y G. W. McELRATH, lmroduclioniO Probohilily all(l Sl(l(illin. 3. edicin.
Ncw York : The Macmillan Co., 1969 (13, 14, 15).
LLOYo, 0 . K.. y M. Ln'OW, Reliabilily: Managemem, Melh(){l.\, ami Mallll'mlllin. Englewood Chffs, N. J.: Prentice-Hall, lnc., 1962 (11).
M\CORD. J. R., 111. y R. M. MORONEY. JR., flllroducliOIIIO l'robabihry Tlu.'nry. New York:
Thc Macmillan Co.. 1964MILLlR, 1.. y J. E. FREU1'IO. Probability and Sulli.<~icsfor Engmeers. Englewood Chffs. N. J.:
Prenticc-Hall, lnc .. 1965.
Mooo, A. M., y F. A. GRAYBILL, lmroducrirm 10 lhl' Theory o) SWII.flit'.l, 2." ed1cin Ncw
York : McGraw-Hill Book Co., 1963.
PARliN, E.. Modem Prohabili1y Theorytmd lts Applica1ion.1. New York: John Wilcy and Sons,
lnc. 1960.
WAOSWOK 111, B. P., y J. G. BRYAN, lmroduclion lo Probabili1y allll Ramlom Variable.\. New
York: McGraw-Hill Book Co., 1960.
En I!Sf)(l!iol:

Damos a continuacin una lista de libros de los cuales existe versin espaola, para beneficio del estudiante y del lector en general que quiera investigar algunos de los lomas tratados
en este libro y, en especial, en relacin con algunas Meas particulares. (N. dtl T.)
NmLS. y RANOER Buen. flllroduccin a la 1eoria de 111 prohobilidad )'de la JS.,wdislica.
Madrid: Alhambra, 1968.
CARRANZA, ROQUE, Probabilidad y E.s1adis1ica. Buenos Aires: Universidad de Buenos Aires,
1965.
CRAMlR, HARAI o, Mrltndos maletlllilicos de Esllldislica. Madrid: AguiJar, 1968.
DIXON, JOHN, /mroduccin a la probabilidad. Mxico: Limusa-Wilcy. 1970.
DIXON. Wll FRIO, y FRANK MASSEY, lmroduccin al anlisis e.vllld.\IC'IJ. Madrid: Ediciones
del Castillo. 1965.
FRUMA-.:, HAROLO A. /mroducdn a la it~ferencia eswdi.wca. Mxico: Trillas, 1970.
GNWE.~KO, B. V.. y A. l. }I!'<CHIN. /mroduccin al clculo de pmbabilidade.\ (traduccin del
ruso). Buenos Aires: Eudeba. 1971.
Gul-,llllR. WILLIAM. lnmxluccin a la inff!rencia esuulislica. New York : McGraw-H1II, 1965.
11om . PAUI. /mr(J{/uccin a la esradislica malcmlica. Barcelona Ariel, 1968.
LIPS('IIUT/, St Y\IOUR. Probahilitiad. Mxico: McGraw-Hill. 1970.
MAISH ., Lou1S. Probabilidad y Esradislim. Bogot: Fondo Educativo Interamericano. S. A ..
1973.
Ri<>:>, S1xro. M101los estadsrkos, 5. edicin. Ncw York: McGraw- Hill, 1967.
ARl.tiY.

~c

\ ptndlt:t

Apndice

T ABL A

TABLA

l.

<1>(:1 =

Va lores de la funcin distribucin normal estndar


<l>(z) =

f-"" v r-2n e

"'12 du = P(Z

.
f

l.

_, , t 2n

(Contimmcin )

e ' 2 du = P(Z $ z)

$ z)
:

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9

1,8

U. '!MI

1.9
2.0
2. 1
2.2

0.9713
0,9772
0.9821
0.9861
0.<1893
0.9'118

0.5040
0.5431!
0.5832
0.6217
0.65<11
0.6<150
0.72<11
0.7611
0.7'110
o.81R6
0.8438
0.8665
0.886<1
0.9049
0.9207
0.9345
0.<1463
0.9564
0.'1648
0.9719
0.9778
0.9826
0.98(14
0.9896
0.9920
0.9940
0,9955
0,9Q(>6
0.9'l75
0.9982

0.5080
0.5478
0.5871
0.6255
0.6628
0,6985
0.7324

1.4
1.5
1.6
1.7

0.50()()
0.5:1'18
0.5793
0,6179
0.6554
0.(>915
o.n57
0.7580
1>.7881
0.8159
0.8413
0.8643
0.8R49
O.IJII32
O.<ll92
11,9332
0.9452
0.<1554

0.5 120
0.5517
0,5<110
0.62'.13
0.6664
0.7019
0.7357
0.761.1
0.7967
0,8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0,9788
0.9834
0.987 1
0.9901
0.9925
0.9943
0.9957
0,996S
0.9'177
0.9983

0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7703
0.79'15
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0,9591
0.9671
0.9738
0.9793
0.9838
0,9874
0.9904
0.9927
0.9945
0,9959
O.'l969
0.9977
0.<1984

0,519'1
0.55%
0.591!7
0.6.168
0.6736
0.7088
0,7422
0.7734
0.8023
0,8289
0,8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0,95'19
0,9678
0.9744
0,9798
0.9842
0.9878
0.9906
0.992<1
0.9946
0.9960
0.9970
0.997H
0.9'184

0.5319
0.5714
0.6103
0,6480
0.6844
0.7190
0.7517
0.7823
0.8106
0,8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9430
0,9535
0.9625
0.9700
0.9762
0,9812
0.9854
0.<1887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986

0.5359
0.5753
0,61 41
0.6517
0.6879
0,7224
0.7549
0,7852
0,8133
0.8389
0.8621
0.8830
0.9015
0.9177
0,9319
0,9441
0,9545 '
0.9633
0,9706
0.9767
0,<1817
0,9857
0.9890
0.9916
0.9936
0.9952
0,9964
0.9974
0.9981
0.9'l86

3.0
2.9
2.8
2.7
2.6
2,5
2.4
2.3
2.2

2.1
2,0
1,9
- 1.8
1.7
1.6
1,5
1.4
1,3
1.2
1,1
1.0

0.9
0,8

0,7
0.6
0.5
0.4
0,3
0.2
0.1
0.0

(\

0.0011 0.0010 0,0007 0,0005 0.0003 0.0002 0.0002 0,0001


0.0019
OJJ026
0.0035
0.0047
0.0<)62
0.0082
0.0107
0.0139
0,0179
0.0228
0,0287
0.0359
0.11446
0,0548

0.0668
0.0808
0.0968
0.1151
0.1.157
0.1587
0,1841
0.2119
0.2420
0.2743
0.10~5

0.3446
0.3821
0.4207
(),4602
0.5000

0.0018
0.0025
0.0034
0.0045
0.0060
O.OORO
0.0104
0.0136
0.0174
0.0222
0.0281
0.0352
0.043(>
0.0537
0.0655
0.0793
0,0951
0.1131
0.1315
0.1562
0. 1814
0,2091)
0.2389
0.2709
0.3050
0.3409
0.3783
0.4 168
0.4562
0.4960

0.0017
0.11024
0.0033
0.0044
O.ll059
O.ll078
0.0102
O.IH 32
0.0170
0.0217
0.0274
0.0344
0.0427
0.0526
0.0643
(),0778
0,0934
0.1 11 1
0.1314
0.1539
0.1788
0.2061
0.2358
0.2676
0.301 S
0.3372
0.3745
0.4129
0.4522
0.4920

0.0017
0.0021
0.0012
0.0043
0.0057
O.llg75
0.()()<)<1
0.012<!
0.0166
0,02 12
0,0268
0.0336
0.0418
O.OSII\
0.0630
0,0764
0.0918
0.1091
0.1~'1~

0.1515
0. 1762
0.2033
0,2327
0.2641
0.2981
0.3336
0,3707
0.4090
0.4483
0.4880

0.0016
0.0023
0.11031
0.1)().11
0.0055
11.1)()73
O.ll0<16
O.lll26
O.lll62
0.0207
0.0262
1).(1329
(1.().1()9

0.0505
0.11618
0.0749
0.0901
0.11175
11.1271
0.1492
(),1736
0.2005
0.2297
0.2611
0.~946

0.3300
0.3669
0,4052
0.4443
0.4X40

8
0.0001

0.()1116 U.ll015 0.1)()15 II.IMH4


0.002' 0.0021 0.00'1 ll.II020
0.00~11 0.11029 o.oo~x 0,0(1:!7
0.0040 O.ll039 0.001~ 11.0<137
0.0054 O.ll052 0.005 1 0.1Kl49
0.0071 0,()()6<1 O.OOf>K 0.0066
O,O(IQ4 0.0091 O.OOR'I 0.0087
0.012' 0.0119 0.011(> 0.0113
0.015K 1).()154 0.0150 1>.0146
0,02112 11.01'17 0.0117 0.0188
0.025() IJ.(l250 0.0244 0.0238
0.0122 ll.0314 0.0307 0.0~00
0.0401 0,0192 0.0184 0.0375
0.0495 0.0485 0.0475 0.0465
0,06()(, 0.0594 0.0582 0.0570
0.0735 0.0721 0,0708 0.0694
0.088~ 0.0869 0.085~ 0.0838
0.1051> 11.11138 O,lll:!ll 11,11)03
0.1251 11.12.10 0.1~111 11.1190
0.14611 11.1446 0.1423 0.1401
0.17 11 0. 1685 0.161\0 0.16.15
0, 1977 0. 1949 0.1922 0.1894
0.2266 0.2236 0.220f> 0.2177
0.2578 0.1546 0.2514 0,2483
0.2912 ll.~l\77 0.2843 0.2810
0.3264 0.3128 0.3192 0.3156
0.3632 0.3594 0.3557 0.3520
0,4013 0,3974 0.3936 OJ897
0.4404 0.4364 0,4325 0.4286
0.4801 0.4761 0.4721 0.4681

B. W. Lindgren. Stati.wml Thtory. New York: The Macmll lan Co .. 1960.

<l

O.IKKlO

0,0(114
0.001'1

0,()()2(>
O.Ofl16
0,0048
0.00(>4
O.OOR4
0.0110
0.014.1
0,018.1
0,02H
0.0294
0.0361
0.0455
0.055'1
0.068 1
0,0823
0.09R5
0.1170
0.1379
0.1611
0.1867
0.2 148
0.2451
0.2776
0.3121
0.3483
0,385<1
0.4247
0.4641

LO
Ll

1.2
1.3

~.3

2.4
2.5
2.6
2.7
2.8
2.9

3.0

o.<ms
0.9953
0.<1965
0.'1974
0.'198 1

0.764~

0.7939
0.8212
ll.8461
0.8686
0.8888
0.9<166
0.9222
0.9357
0.11474
1),9573
0.9656
0,9726
0.9783
0.9830
0.9868
0.98<18
0.9922
0.9941
0.9956
0.9967
0.'1976
11.9982

0.5239 0.5279
0.5636 0.5675
0.6026 0.6064
0.6406 0.6443
0,6772 0.6808
0,7123 0,7157
0.7454 0,7486
0.7764 0.77'14
0.8051 0.8078
0.83 15 0.8340
0.8554 0,8577
0.8770 0.8790
0.8962 0.8980
0.9131 0.9147
0.9278 0,9292
0,9406 0.9418
0.9515 0,9525
0.9608 0.9616
0.9686 0.9693
0.9750 0,9756
0,9803 0.9808
0.9846 0.9850
0,9881 0.9884
0.9909 0,9'111
0.9931 0.9'132
0.9948 0.9949
0,9961 0.9%2
0.9971 0.9972
0.9979 0.9979
0.9985 0,99H5

0.9987 0.9990 0.9'193 0.99')5 0,9997 0,99'18 0,9998 0,9999 0.9999

1,0()()0

Api>ndlrt

~~~

Aptndo~t

TABLA

2.

(~) p'q

- F(x - 1) =

=
\ =

11

10
10

0,00000()0

.0000000
.0000000
.0000000
.0000000
.0000000
,0000000
.0000000

.0000000
.0000000
.0000000
.0000000
.0000000
,0000000

.0000000
.0000000
.0000000

.0000000
.0000001
.0000001
.0000002
,0000003

.0000004
.0000006
.0000010
.0000014
.0000021
,0000030
.0000042
.OOOOOS9
,0000082
.0000113
.0000153
.0000206
,0000276
,0000366
.0000481
.0000628
.0000814
,0001049
.0001342
.0001708
.0002161
,0002720
.000340S
,0004242
.0005260
,0006493
.0007979
.0009766

..
L

Funcin de la distribucin binomial

11= 10
x=9

0.0000000

.0000000
.0000000

.0000000

.0000000
.0000000

.0000000
.0000000

.0000000
.0000000

.0000000
.0000000
.0000001
.0000002
.0000003

.0000006
.0000010
.0000017
.0000021
.0000042
.0000064
.0000097
.0000143
.0000207
.0000296
,0000416
.OOOOS71
.0000791
.0001072
.0001437
,0001906
.000250S
.0003263
.0004214
,OOOSJ~Y

.000686S
.0008668
,0010871
.0013546
.0016777
,00206S8
,0025295
,0030809
,003733S
.004S022
.OOS4040
.0064S14
,0076828
.0091028
,0107422

11

:lO
8

1 -

0.0000000
.0000000

.0000000

.0000000
.0000000
.0000000
.0000000
.0000001
.0000002

.0000004
.0000008
,OOOOO IS
.0000029
.OOOOOS I
.0000087
.0000142
.0000226
.0000350
.OOOOS28
,0000779
.00011 27
,OOOIS99
.0002232
.0003068
.0004158
.OOOS362
.0007350
.000960S
.0012420
,0015904
.0020179
,0025384
.0031673
.0039219
,004M213
.OOS8864
.0071403
.0086079
.0103163
.0122946
,0145738
.0171871
.0201696
.0235583
.0273918
.031710S
.0365560
,0419713
.0480003
.OS4687S

TABLA

2 (Continuacin )

- F(x - 1)

= 10
,.... 7

11

0.0000000

.0000000
.0000000
.0000000
.0000001
,0000003
.0000008
,0000020
.000004S
.0000091
,0000173
,0000308
,OOOOS2S
.00008S6
,0001346
.0002051
.0003042
.0004401
.0006229
.0008644
.0011783
.OOIS804
.002088S
.0027228
.003S051
.OO<W>I8
.0056181
,0070039
.0086507
.O IOS921
,0128637
.OIS5029
.0185489
.0220422
.0260243
,030S316
.03S6252
.0413301
,0476949
.OS47619
,0625719
,0711643
.0805763
.090842 7
.1019949
.1140612
,12706SS
.1410272
.ISS9607
.1718750

,,
0,01
,02
,03
,04

.os

.06
,Q7

,08
,09
,JO
,JI
,12
,13
,14
.IS
.16
.17
,18
,19
,20
.21

,22
.23
,24
,25
,26
,27
,28
,29
,30
.31
.32
.33
,34
,JS
,36
,37
.38

.39
,40
,4 1
.42
.43
,44
,45
.46
,47
,48
,49
.50

n= 111
x=6
0.0000000
.0000000
.0000001

.0000007
,0000028
.0000079
,0000193
,0000415
.0000810
.0001469
.0002S07
.0004069
.0006332
.000950S
.0013832
.0019S93
,0027098
.003669-1
.0048757
.0063694
.008193S
,0103936
.0130167
.0161116
.0197277
,0239148
,0287224
.0341 994
.0403932
,0473490
.05SI097
.0637149
,0732005
,083S979
.0949341
.1072304
.1205026
,1347603
,1500068
.1662386
,1834452
,2016092
.22070S8
.2407033
.2615627
.2832382
.3056772
.3288205
,3526028
,3769531

11 :=

111

0.0000000
,0000007
.OOOOOS4
.0000218
.0000637
,OOOISI7
.0003139
.OOOS857
.001.0096
.0016349
.002SI70
.0037161
,0052967
,0073263
.0098741
,0130101
.0168038
,0213229
.026632S
.0327935
,0398624
.0478897
,0569196
,0669890
.0781269
,0903542
,1036831
,11811 71
.1336503
,1502683
.1679475
.1866554
.2063514
.2269866
.2485045
.270841S
.2939277
.3176870
.342038S
.3668967
.3921728
,4177749
,4436094
.469S813
.495S954
,S21S511
,S473730
,5729SI7
,5982047
,6230469

1~1

'" (~) p't"

n = 10
... = 4

n- IH

0,0000020
.OOOOJOS
.0001471
,()00.1426
,0010285
.0020293
.0035761
.0058013
.0088338
.0127952
.0177972
,0239388
.0313048
.0399642
,0499698
.0613S17
,0741472
.0883411
,1039261
.1208739
.1391418
.1586739
,1794024
.2012487
.2241249
,2479349
.272S761
.297940S
,3239164
,3S03893
.3772433
,4043626
.4316320
.4589388
.4861730
.5132284
.5400038
.5664030
.S923361
.6177194
.6424762
.6665372
.6898401
,7123307
,7339621
.7546952
.7744985
,7933480
.8112268
.82812SO

0.0001138
.0008639
.0027650
.0062137
,OIJS036
.0188378
.0283421
.04007S4
,OS40400
.0701908
.0884435
.1086818
, 1307642
. IS4S298
.1798035
.2064005
.2341305
.1628010
.2922204
.322200S
,3S2SS86
.383 1197
,4137173
,4441949
,4744072
.S042200
,S33SII2
.S621710
,S901015
,6172171
.643444S
.6687212
.6929966
,7162304
,7383926
.7S94627
.7794292
,7982887
.81604S3
.8327102
,8483007
.8628393
,8763538
.88887S7
.9004403
,91 108S9
,9208530
.9297R39
.9379222
,9453125

). -

.l

'

n - 111
~ -2

n - 111
X= 1

0.0042662
.0161776
,034S066
.0581538
,0861384
,117S880
,1517299
.1878825
.22S4471
.2639011
.3027908
,3417250
.3803692
.4184400
,4SS1002
.4919S36
.5270412
.5608368
,S93243S
,6241904
.6536289
,6815306
,7078843
.7326936
,7559748
.77775SO
,7980705
,8169646
.8344869
,8S06917
,8656366
.8793821
.8919901
.9035235
.91 404S6
,9236190
.93230S6
,9401661
.9412S94
,9S36426
,9S93705
,96449S8
.9690684
,97313S8
,9767429
,9799319
.9827422
,9852109
.9873722
.9892S18

0,0956179
.1829272
,26257S9
.3351674
.4012631
.4613849
.5 160117
.S65611 5
,610S8JQ
.6SI3216
.6881828
.7214990
.7S IS766
.7786984
.8031256
.8250988
.8448396
.862SS20
,8784233
,89262SR
.9051172
,'1166422
.9267132
,93S7111
,9436~65

,9S07601
.9S70237
.9625609
,9674476
,9717S2S
.975SJ81
,97bK608
.9817716
,9843166
,9865373
,9884708
,9901507
.9916070
.9928666
,9939S34
,9948888
,9956920
,9963797
,9969669
,9974670
,9978917
,<>982SII
,9985544
.9988096
,9990234

1'

0,01

.03

.04

.os

.06
,o7

.08
,09
.10
.11
.12
.13
,14
,15
,16
.17
.18
,19
,20
.21
.21
.23
.24
.2S
.26
.27
.28
.29
.JO
,31
,32
,33

,34
,35
,36
,37
,38
.39
,40
,41
.42
.43
,44
.4S
;46
.47
.48
,49
.50

TABLA

3.

TABLA

!"uncin de la distribucin de Poisson

r=<O

r co e - aClr

L: -

1 - F(x - 1) =

r=x

= 0.2

Q-

0,3

3 ( Cominuacin)

1 - F(x - 1) =

r!

0,4

e- "a'

L: - r!

, .. ,'t

0,5

0,6

.\

a : 4.5

(1

1.000000
,969803
.864112
.679153
.463367

1.000000
.9S I684
,908422
.761897
.566530

1.000000
.988891
.938901
.826422
.6S7704

1.000000
.993262
.959572
.875348
,734974

" ; 3.0

(1 ;

1.000000
.9179 15
.712703
.456187

.24242.

1,00()()()0
.950213
.800852
.576810
.3527611

...

= 5.0

4.0

2.5

(1

.1.5

(1

1.0000000
.1812692
.0175231
.0011485
,0000568

1.0000000
.2591818
.0369363
.0035995
.0002658

1.0000000
.3296800
.0615519
.0079263
.0007763

1.0000000
.393469
.090204
.014388
.001752

1.0000000
,451188
.121901
.023115
.003358

1
2
3
4
5
6
7

.0000023
.0000001

.0000158
.0000008

.0000612
.0000040
.0000002

,000172
.000014
.000001

.000394
.000039
.000003

5
6
7
8
9

.108822
,042021
.014187
.OCI-!247
.0011 40

.184737
.083918
.033509
.011905
.1Ml3803

.274555
.142386
.065288
.026739
.009874

,371163
.2 14870
.110674
.051134
.021363

.467896
.297070
.168949
.086586
.040257

.559507
.384039
.237817
.133372
.068094

10
11

.OCI0277
.000062
,0()(1013
,IHMl002

.001102
.0110292
.000071
.()(111016
,()()(Ml03

.003315
.001019
,000289
.00111176
.000019

.008132
.002840
.OOil'JIS
.000274
.000076

.017093
.006669
.002404
.000805
.000252

.031828
.013695
.005453
.002019
.000698

.OOIMMll

.001lll04
.OOIMlOI

.000020
.000005
.0011001

.000074
.000020
,0001)()5
.000001

.000226
.000069
.000020
.000005
.000001

o
1
2
3
4
5
6
7
8

0,7

0.8

0,9

1,0

1,0000000
,503415
.155805
.034142
.005753

1.0000000
,550671
.191208
,047423
,009080

1.0000000
.593430
,227518
,062857
.013459

1,0000000
,632 121
.264241
,080301
.018988

.000786

,001411
.000184
,000021
,000002

.002344
.000343
,000043
,000005

.003660
.000594
.000083
,000010
.000001

.000090
.000009
.000001

-1,2

1.0000000
.698806
.337373
,120513
.033769
.007746
,001500
,000251
.000037
.000005
.000001

10
X

o
1

3.
4
5
6

7
8
9
10
11

1,4

Q -

1,6

1,8

!,9

2,0

1,000000
.753403
.408167
.166502
,053725

1.000000
.798103
,475069
,216642
,078813

1,000000
.834701
.537163
.269379
.108708

1.000000
.850431
.566251
.296280
,125298

1.000000
.864665
.593994
.323324
,142877

.014253
.003201
.000622
.000107
.000016

.023682
,006040
.001336
.000260
.000045

.036407
.010378
,002569
.000562
.000110

.044081
.013219
.003446
.000793
.000163

.052653
.016564
.004534
.001097
.000237

.000002

.000007
.000001

.000019
.000003

.000030
.000005

.000046
.000008

E. C. Molina. Posso11's ExxJIIrlltwl Bit~omial Lm111. Princelon. N. J.: D. Van Nos1rand. Inc .. 1947

1
2
3
4

1'

13
14
15
16
17
18
19

TABLA

4.

TABLA

Valores crticos para la distribucin 1 de Student

P r {1 de Student :5 valores tabulados} i'

Pr {1 de Student :::; valor tabulado} .., y


f

0.75

0,90

0.95

0,975

4 ( Colllinuacin)

0.99

0,995

0.75

0,90

0.95

0.975

0,99

0.9'J5

2.4102
2,4083
2.4066
2,4049
2.4033

2.6870
2.6846
2.6822
2,6800
2.6778

1
2
3
4
S

1.0000
0.8165
0.7649
0.7407
0,7267

3,0777
1.8856
1,6377
1,5332
1,4759

6,3138
2,9200
2,3534
2,1318
2.0150

12,7062
4,3027
3,1824
2.7764
2.5706

31,8207
6,9646
4,5407
3,7469
3,3649

63.6574
9.9248
5,8409
4,6041
4,0322

46
47
48
49
50

0,6799
0.6797
0,6796
0,6795
0,6794

1.3002
1.2998
1,2994
1.2991
1.2987

1.6787
1.6779
1,6772
1.6766
1,6759

2.0129
2.0117
2.0106
2,0096
2,0086

0.7176

1.4398

7
8
9
10

0,7111
0,7064
0.7027
0.6998

1,4149
1,3968
1.3830
1,3722

1,94)2
1,8946
1,8595
1.8331
1,8125

2,4469
2.3646
2,3060
2.2622
2,2281

3.1427
2.9980
2.8965
2,8214
2,7638

3.7074
3.4995
3,3554
3.2498
3.1693

51
52
53
54
SS

0,6793
0,6792
0.6791
0.6791
0,6790

1.29S4
1.2980
1.2977
1.2974
1.2971

1,6753
1.6747
1.6741
1.6736
1.6130

2.0076
2,0066
2.0051
2.0049
2.0040

2.4017
2.4002
2.3988
2.3974
2.3961

2.6757
2,6737
2.67 18
2.6700
2,6682

11
12
13
14
15

0,6974
0,6955
0,6938
0,6924
0,6912

1,3634
1.3562
1,3502
1,3450
1,3406

1,7959
1,7823
1,7709
1,7613
1,7531

2.2010
2,1788
2.1604
2,1448
2.1315

2,7181
2,68 10
2,6503
2.6245
2.6025

3.1058
3,0545
3.0123
2.9768
2,9467

56
57
58
59
6()

0,6789
0,6788
0,6787
0,6787
0.6786

1,2969
1.2966
1,2963
1,2961
1.2958

1.6725
1,6720
1,6716
1.6711
1.6706

2.0032
2,0025
2.0017
2.0010
2,0003

2.3948
2.3936
2.3924
2.3912
2.3901

2.6665
2,6()49
2.6633
2.6618
2.6603

16
17
18
19
20

0.6901
0.6892
0,6884
0,6876
0.6870

1.3368

2.1199
2,1098
2.1009
2.0930
2,0860

2,5835
2.5669
2.5524
2,5395
2,5280

2.9208

1,3334
1,3304
1,3277
1,3253

1.7459
1.7396
1.7341
1,7291
1,7247

61
62
63
64
65

0.6785
0,6785
0,6784
0.6783
0,6783

1.2956
1.2954
1,2951
1.2949
1.2947

1.6702
1,66\18
1.6694
1.6690
1.6686

1.9996
1.9990
J.Q983
1.'1977
1,4971

2.3890
2.3880
2,3870
2,3860
1.3851

2,6589
2,6575
2.6561
:.6549
2.6536

21
22
23
24
25

0.6864
0.6858
0.6lSS3
0.68411
0,61144

1,3232
1.3212
1..111J5
1.31711
1,3163

1.7207
1.7171
1.713\1
1.71CJ9
1.7081

2.0796
2.0719

2.5177
2.5083

2.8314
2.&1&&

1.llK 1

1.4')<)\1

1.MU7.1

2.063'1
2.0595

2.4922
2,4851

2. 7'16'1
2.7874

66
67
68
6\1
70

0.6782
0.6782
0,6781
0.6781
0,6780

1.2945
1.2943
1.2941
1,2939
1.2938

1,6683
1.6679
1.6676
1.6672
1.6669

1,9966
1,9960
1.9955
1.994'1
1,9944

2 ..1R41
2,3lSJ3
2)lS24
2.31!16
2.3808

2.6524
2.6512
2.6501
2.6490
2.6479

26
27
28
29
30

0,6840
0,6837
0,6834
0.6830
0,6828

1.3150
1,3137
1,3125
1,3114
1,3104

1,7056
1.7033
1,7011
1,6991
1,6973

2.0555
2.05 1&
2.0484
2,0452
2,0423

2,4786
2.4727
2.467 1
2,4620
2,4573

2,7787
2.7707
2.7633
2.7564
2.7500

71
72
73
74
75

0,6780
0,6779
0,6779
0,6778
0,6778

1.2936
1.2934
1.2933
1.2931
1,2929

1,6666
1,6663
1.6660
1.6657
1.6654

1.9939
1,9935
1,9930
1,9925
1.9921

2.3800
2,3793
2.3785
2.3778
2.3771

2.6469
2.6459
2,6449
2.6439
2.6430

31
32
33
34
35

0.6825
0.6822
0.6820
0,681R
0,6816

1.3095
1,3086
1,3077
1,3070
1,3062

1,6955
1,6939
1,6924
1.6909
1,6896

2.0395
2,0369
2.0345
2.0322
2,0301

2.4528
2.4487
2,4448
2.4411
2,4377

2.7440
2,7385
2.7284
2.7238

76
77
78
79
80

0.6777
0.6777
0.6776
0,6776
0.6776

1.2928
1,2926
1.2925
1.2924
1,2922

1.6652
1.6649
1.6646
1.6644
1,6641

1,9917
1.9913
1,9908
1.9905
1.9901

2.3764
2,3758
2.3751
2,3745
2.3739

2.6421
2.6412
2.6403
2.6395
2.6387

36
37
38
39
40

0.6814
0,6812
0.6810
0,6808
0.6807

1,3055
1,3049
1,3042
1,3036
1,3031

1,6883
1,6871
1.6860
1.6849
1.6839

2.028 1
2.0262
2.0244
2.0227
2,021 1

2,4345
2.4314
2.4286
2.4258
2,4233

2,7195
2.7154
2.7116
2,7079
2.7045

81
82
83
IW
85

0,6775
0.6775
0.6775
0.6774
0,6774

1,2921
1,2920
1,2918
1,2917
1,2916

1,6639
1.6636
1.6634
1.6632
1.6630

1.9897
1.9893
1.9890
1,9886
1,9883

2.3733
2.3727
2,3721
2.3716
2,3710

2.6379
2.6371
2.6364
2.6356
2.6349

41
42
43
44

0,6805
0.6804
0.6802
0.6801
0.6800

1,3025
1,3020
1,3016
1,3011
1.3006

1,6829
1,6820
1.6811
1,6802
1.6794

2,0195
2,0181
2.0167
2.0154
2.0141

2.4208
2.4185
2,4163
2.4141
2.4121

2.7012
2,6981
2.6951
2.6923
2.6896

86
87

0.6774
0,6773
0.6773
0.6773
0.6772

1.2915
1.2914
1.2912
1.2911
1.2910

1.6628
1.6626
1.6624
1.6622
1.6620

1,9879
1,9876
1.9873
1,9870
1,9867

2,3705
2.3700
2.3695
2.3690
2.3685

2.6342
2.6335
2.6329
2.6322
2.6316

45

~.8982

2.8784
2.8609
2.8453

2,73~3

' D. B. O~en. lftmdbook of Statistical Tablc. Reading. Mass.: Addison-Wesley Pubhshing Co ..


1962. (Cortesa de la A1om1c Energy Commiss1on. Washington. D.C.)

88
89

90

1 ~1>

i\Wftdlce

T i\BLA 5.

Valores crticos para la distribucin de chi cuadrado

Pr {:2 r.v. con/grados de libertad S valores tabulados}

T ABLA

5 (Cominuacin)

Pr {:2 r.v. con/grados de libertad !!> valores tabulados}

0.01

0.025

0.05

0,10

0,25

0.75

0,90

0.95

0,975

0,99

0.995

0,010
0,072
0,207
0,412

0.020
0,115
0,297
0.554

0,001
0.05 1
0,216
0,484
0,831

0.004
0.103
0.352
0.711
1,145

0,016
0,211
0,584
1.064
1.610

0.102
0,575
1,213
1.923
2,675

1
2
3
4
S

1,323
2,773
4,108
5.385
6,626

2,706
4,605
6.251
7,779
9,236

3.841
5,991
7.8 15
9.488
11.071

5,024
7,378
9,348
11.143
12,833

6.635
9,210
11 .345
13,277
15.086

7,879
10,597
12.838
14,860
16.750

6
7
8
9
10

0,676
0.989
1,344
1,735
2.156

0.872
1,239
1.646
2,088
2,558

1.237
1.690
2.180
2. 700
3,247

1,635
2.167
2,733
3.325
3,940

2.204

3.455

2.833
3.490
4,168
4,865

4.255
5.071
5.899
6.737

7,841

7
8
9
10

9,037
10.219
11 .389
12,549

10.645
12.017
13,362
14,684
15,987

12.592
14.067
15.507
16,919
18.307

14.449
16.013
17,535
19,023
20,483

16.812
18.475
20.090
21,666
23.209

18,548
20,278
21,955
23,589
25,188

11
12
13
14
15

2,603
3.074
3.565
4,075
4,601

3,053
3.571
4,107
4,660
5.229

3,816
4,404
5,009
5.629
6.262

4,515
5.226
5.892
6.571
7,261

5.578
6,304
7.042
7.790
8.547

7.584
8.438
9.299
10.165
11.037

11
12
13
14
15

13,701
14,845
15.984
17.117
18,245

17.275
18,549
19,812
21,064
22,307

19.675
21,026
22.362
23.685
24.996

21.920
23.337
24.736
26,119
27,488

24.725
26,2 17
27.688
29.141
30.578

26.757
28,299
29.819
31.319
32,801

16
17
18
19
20

5.142
5.697
6,265
6.844
7,434

5.812
6.408
7.015
7,633
8,260

6,908
7,564
8,231
8,907
9,591

7.962
8.672
9.390
10,117
10.851

9.312
10.085
10.865
11.651
12.443

11.912
12,792
13.675
14.562
15,452

16
17
18
19
20

19.369
20.489
21,605
22,718
23.828

23.542
24,769
25,989
27,204
28,412

26.296
27,587
28.869
30,144
31,4 10

28.845
30,191
31,526
32,852
34.170

32.000
33.409
34.805
36.191
37,566

35,718
37.156
38,582
39,997

21

8.897
9.542
10,196
10.1156
11.524

10,283
10.982
11.689
12.401
13.120

11 .591
12,338
13,091
13.848
14.611

13.240
14.042
14.848
15.659
16.473

16,344
17.240
18. 137
19.037
19.939

21

23
24
25

8,034
8,643
9.260
9.886
10.520

23
24
25

24,935
26.039
27.141
28,241
29,339

29,615
30.813
32.007
33,196
34.382

32,671
33,924
35.172
36.41 S
37.652

35,479
36,781
38.076
39.364
40,646

38.932
40.289
41.638
42.980
44,314

26
27
28
29
30

11.160
11,808
12.461
13.121
13,787

12,198
12.879
13,565
14,257
14,954

13.844
14,573
15.308
16.047
16,791

15.379
16.151
16.928
17.708
18.493

17.292
18.114
18,939
19,768
20.599

20.843
21.749
22.657
23.567
24,478

26
27
28
29
30

30.435
31.528
32,620
33,711
34.800

35.563
36.741
37,916
39.087
40,256

38.885
40.113
41.337
42.557
43,773

41.923
43.194
44.461
45,722
46.979

45.642
46.963
48,278
49,588
50.892

48.290
49,645
50.993
52.336
53,672

31
32
33
34
35

14.458
15.134
15,815
16.501
17.192

15.655
16.362
17,074
17.789
18.509

17.539
18.291
19.047
19.806
20.569

19.281
20,072
20.867
21.664
22.465

21.434
22.271
23.110
23.952
24.797

25,390
26.304
27,219
28.136
29.054

31
32
33
34
35

35,887
36.973
38,058
39.141
40.223

41,422
42,585
43,745
44.903
46,059

44.985
46.194
4 7.400
48.602
49.802

48.232
49,480
50.725
51,966
53.203

52. 191
53.486
54.776
56.061
57,342

55,003
56,328
57.648
58,964
60,275

36
37
38

17,887
18.586
19,289
19.996
20.707

19.233
19.960
20.691
21.426
22,164

21.336
22,106
22,878
23.654
24.433

23.269
24.075
24,884
25,695
26,509

25.643
26.492
27.343
28.196
29.05 1

29.973
30.893
31.815
32,737
33,660

36
37
38
39
40

41.304
42,383
43.462
44.539
45.616

47,212
48,363
49.513
50,660
51,805

50.998
52,192
53.384
54,572
55,758

54,437
55,668
56,896
58,120
59,342

58,619
59.892
61.162
62,428
63.691

61.581
62,883
64.181
65,476
66.766

21.421
22.138
22.859
23,584
24.311

22.906
23,650
24.398
25.148
25.901

25.215
25.999
26.785
27.575
28.366

27,326
28.144
28.965
29.787
30.612

29.907
30.765
31.625
32.487
33.350

34.585
35,510
36.436
37.363
38.291

41
42
43
44
45

46.692
47.766
48.840
49.913
50,985

52,949
54.090
55.230
56.369
57,505

56.942
58.124
59.304
60,481
61.656

60.561
61.777
62,990
64,201
65,410

64,950
66.206
67.459
68.710
69,957

68,0S3
69.336
70.616
71,893
73,166

0.005

1
2
3
4
5

22

39
40
41
42
43
44
~S

D. B. Owen, Handbook oj Sulllllical Table.,. Reading. Mass.: Addison-Wesley Publishing Co.,


1962. (Cor1esia de la Alomic Energy Commission. Washington, D.C.)

22

~.267

41,401
42,796
44.181
45,559

46.928

Aplndlct

TABLA

0701M
52414
72161
IN IR
1.1623
27426
961)39
68282
54262
66290
533-18
34482
99268
95342
38556
39159
41786
95627
98738
75214
73'1()4

J3319
66364
6834'1
1~1 ~3

4'11117
76941
55430
33023
87337
81773
74279
34968
99696
55282
31337
94128
06511
69981
23701
119237
11007
60622
79973
71080
09923
630<14
1980
17295
59338

31172
65625
57299
75071
761()5
1)7534
21338
98888
21477
27544
39()44
42758
98715
97178
60373
04795
18169
30768
15548
61575
89123
08896
94799
16984
'!9621
234~9

77008
25875
26895
74487
3773
85087
76028
78454
61051
83886
97990
48241
03469
56612
24607
~5461

78444
43668
71367
26729
72826
42212
74244
27190

12572
97918
87521
91057
43195
897()7
88169
!5545
33097
72780
04072
40128
07545
10401
77935
511 63
96649
30607
42263
27805
19271
94662
62211
86532
668119
1<1172
27646
26446

653().1
83196
21247
94186
54285
21700
97260
72886

58609
49521
56128
86307
12817
24725
39582
19599
23485
74573
65558
41268
43088
99302

6.

Nmeros aleatorios

23%8
46794
4435 1
46829
511205
97453
69530
69406
48125
91384

55216
62370
99981
47992
75736
90836
53300
29470
92982
47296

62210
48436
27317
31615
64608
84475
92406
89023
79489
21930
157Q2
05781
37539
96186
11:151
80439
82072
25738
34978
61939
54135
67793
90845
12301
89829
42598
20002
64568
80405
fl2:1M

01209
30254
52459
95784
28949
60722
42713
60730
85118
94726
72675
59187
80172
53891
72438
76263
28048
32962
43053
05045
68996
18178
35464
88832
69121
05464
76530
69459
97485
88677
3(193 7
74667
97948
68572
30321
37689
33472
21002
86338
15425

'1~120

02877
91930
30021
82364
16583
22616
84923
27056
84020

85366
59344
55008
26797
77473
78967
29895
46476
98382
54892
43999
50029
75366

86547
88071
81981
95079
8825 1

56223
20149
93371
64423
0126K
00704
71507
54562
11265
59168
54952
19016
43688
33087
45312
05044
37333
53462
01574
19616
48746
28024
91133
82821
:!422X
5'133()
70883
26814
22676
69324
18134
17069
15868
59341
62 195
92209
30999
42588
76708

1719~

~.lll82

7061>6
18427
13221
31816
42982
06703
67515
30588
47331
14748

76059
45658
'!9234
63033
7-1427
21846
75585
40676
09737
42380

77026

94764
35268
23672
31519
97073
39454
62175
532B4
43269
48268
998W
18918
41589
24266
28951
20405
16937
82224
68076
96796

T ABLA

09300
17596
60620
42379
31330
85734
28517
79373
25366
83951
68699
56837
27460
65961
71171
56420
85734
90489
57310
n239
56084
45421
05562
19526
321179
20121
72035
01194
05303
80823
51873
878SO
70063
16136
12492

50728
50147
98590
09558
041728
44446

40044

99629
14597
25625
78329
90005
94961
83735
99376

94564
51669
666(!2

91676
07337
21776
77761
72993
06636

91075
31912
05206
65145
10056
15400
39214
99886
81693
59375
93791
54029
371156
82385
63257
53517
M~77'1

81800
48587
39715
20905
10973
54945
26794
01803
33536
67442
9394 1
12829
86759
7M>t'lll
941KM
59484
22410
28953
74309
98578
19747
31154
84058
30496

18172
47429
27036
75127
55901
85764
17244
98998
25349
04724
09317
33851
65429
72834
72182
89822
81200
17849
54417
22610
22296
14252
91760
14288
IN55M
5M862
50296
93319
60054
68127
77090
73489
81386
17537
60137
47529
80754
64366
15065
74196
141160
59%6
49247
21162
15855
25447
08865
83133
12382
84523

The Rand Corporauon, A Mi//to/1 Ra11dom Dt~/II K'tth 100.000 Normal Deiat~s New York:

Thc Free Press, 1955.

'16124
31283
49988
82790
51473
07785
16624
28718
33373
3535
47-108
56129
35459
61955

73355
54371
48558
45529
13821
02854
68335
92405
90330
48606

01925
20985
~0397

48792
75776
'11971
46052
07113
67545
11139
47467
412'12
33<115
36510

6 (Continuacin)

24401
63537
07442
12008
74667
82646
14813
8!141
759J6
08005

81719
71681
24574
55649
00445
84671
41667
83082
20398
18600
56684
13717
26708
48783

17110
00299
60384
3138~

.lS'I

74603
22496
14852
08779
61570
035 17
62897
28516
58239
53898
56681
49966

30305
7124 1
26414
94194
80687
28914
403~6

08773

49117
22772
70267
31779
35367
89286
45424

29383
Jq47
10767
62843
39454
48761
75187
966~7

34500
74970
30441

6'!753
37285
60.B4

11182
07628
76952
366)9
38470
"14391
35100
19883
06993
38838
25248

61156
02028
36911
49766
94806
96837
11.\96
78905
91989
01291
17044
1741S
76011
75881
4.'44(\

1555
75454
27582
8%58
571'14
64219
53166
58112
14548
21151
30953
12764
72393
11031

62155
36513
10460
55992
fiQ'Q1
39555
90681
90856
47708
77203
53416
18591
88451
36314
15618
63369
79194
71563
40757

')1').. ...

b'l~\(\

0'1325
73339
04254
01691
26072
03811
80640
22892
05831
40764
05445
36992
42596
10<104
!<114<

(\~,,-

~(1(\:1

(>'<l~.l

:~u5

~(\:\~:

-N.\

~-C~I

1173K~

1.\115~

47J8lJ

lJ7~5

~-1426

38553
08744
64Y79

97019
38483
89159
90176
86631
79330
25295
43324
64613
18033
95820
35144
74342

88433
16602
33269
04RK3
87561
04318
59946
39407
26962
72250
70913
70599
45848

09~34

11'1521'
03876
84747
77201

\6fH5
48791
5746<)
92195

0~501

11985
71237
96867

1137'1
78988
94343
06367
1!4487
907.\1
56078
47877
65004
30688
87674
87328
92170
10404

88688

093!>11

59631
23196
81764
35041
51677
67405
(l.l63
62912
28635

5267~

~4519

49668
85986
10714
05111
94163

804 18
61687
1flR!l0
51215

x< ''"'.J

1!1537
66885
96177
J7311
77'll15
53814
16963
87558
84!69

94907
45735
11755
51242
00281
1:~.-J

&81117
75548
42860
71208
44319

~ ~~

.....

6'17113

7770~

1~5(>0

4369R
40740
65475
10531
05159
'8439
83489
X002K
Q4848
111(.:5
01940
'JU888
33282
17662
89649

37320
58885
55068
08019
14319
40589
05075
25893
C>Sl!ll1
57827
53699
40656
71822
22313

63004

43~55

24880
4435<1

o:~.~

Q()Q ).'

llfl~l)(l

()7~.':

61'-JX

:::n~

16717
08810
23715
2ns4
92538
11439
58248
29765
01921
99303
20240
74905
87316
22385

74724
89616

7'1.'~3

JlSS~

~1>2M5

115:!5

12164
05-151
58178
38314
78915
49267
55540
<17879
B2072
18672
75647
o3111

J63 13
36613
16943
68947
46391
77078
57288
18968
00867
98178
19280
28716
66121
33237

43410
6209<1
34932
58980
85171
85310
39165
84193
03701

60269
32132
81628
12107
06316
43287
()3332
54653
7006Q
94845
635 10
07327
1)9057

90899
93031
22716
94901
29523
89123
94932
81281
80463
97004
67901

00086

50416

85097
80876
68818
20908
97159
389<15
35362
85867
80039
39813

~9234

88864
18593

\)JJ-B

~lh.4

..,~5h.~

1~1170

66788
94921
45677
50330
47415

7(>146
04949
05003
31576
21065

851~)4

44S85
72120
67666
87874
78055

80725
465\)7
95030
42846

72468

179'15
17083
95008

4~466

08859
<111:16
'111'1111
72~41

80838

70858
25965
64776

~~XII.'

166~2

61!427
87405
42852
OIJ.~~:

\16115
38409
41314
05261
64993

J~~w

50820
72613
08334
89547
883N
IU966
73842
04373
19385
53285
54994
79135
08266
40812
1114'1M
83843
72270
71 100
95717
48051

:160

Ap~nd lct

Ap<,ndlc<
TABLA

7.

Desviaciones normales aleatorias

T ABL A

00

01

02

03

04

05

06

07

08

09

.51

.09
2.62
.12
56
71
,43
,93

1,07
.35
.95
.08
,86
.41
2,06
- .27

,38

,42

,22

.28

.00
- 1,43
- .17
- ,94
-1,13
1, 18
- ,76
,41
,96
2.48

,11
-1,79
,78
.16
- ,79
- ,68
-,12

09

,75
,68
,89
,36
,06

.18
,30
,04
,67
.32
,44
,39
,24
,14

1,91

,53
-,43
,37
- ,83
- ,82
-,26

- 1,45
,33
.87
- 1,90
,69
- ,36
- 1,88
- .36
- 1,73
- 1.39

-,35
- ,28

06
07
08

,31
.90
.22
1,00
,12
,01
,16
1,31
- .38

)()

11
12
13
14
15
16
17
18
19

1.07
1.65
1,02
.06
.47
,JO
.71
.94
.29
.57

2.26
- 1,29
-,67
1.43
- 1.84
1,00
,04
- .94
.62
.54

.04

.19
2. 18
1,92
,11
.83
- 1,04
1.35
.63
.11

20
21
22
23
24
25
26
27
28
29

.24
1.47
- .01
.63
,85
1.07
1.18
.47
.26
.3'.1

.19
1,20
,49
.26
- .65
- ,36
2.09

00
01
02
03
04

os

30
31
32
33
34
35

36
37
38
39

1.01

1.36
1,02
,53
.76

.o7
.27
.93
1.03
.32

40
41
42
43
44

1,41
,25
- l. 15

45
46

.42
.54
.13
.29
1.90

47
48
49

.72
.92

- ,36
,58

.88
.90
.88
- .89
.18
- 2.49
1.13
1.21
-.23
,61

,72
.43
1.41
.64
- .70
.57
,01
. 15
.62
1,21
- .70

.36
1,21

- 1,68
- 1,03
- 1,11

- ,46
,69

-,54
,63
,56
-1.09
- .21
.67
,70
1,16

.55
- .94
1.10
- .61
.71
.11
.15
- 1,23
.85
1.79
,75
- ,68
- ,88
.43
-.45
.95
- ,23

,06
.33
.34
,50
-,66
,24
-,53
,Q7
1.44
-1.87

-m
- .77

.06
,08
- ,62
- 1,07
,61
- ,26
- .09
1,84
.09
3.04
1.80
,17
-,21
,12
.83
,44
.31
,28
.38
.07

.SS
,04
.39
.26
.23
- .38
2,80
- 1,49
-,J6

.51
1.26
- 1,07
,48

- 1.67
,37
,40
.41
.76

.55
.07
.00
,Q3
.43
.93
.68
,68
.12
.63

.60

,25
,12
- .32
- 1,42
.83

- 1.75
.04
2,31
.26

,55

.06
1,04
,88
.53
1.86

,29
,69
-,44
- .27

.so

- ,95
1,59
.03
1,38

,55
.97
,36
- .25
.33
- 1.20

.36
.19
.10
1.21
,29
,8 1
- ,37
,28
,20
.42
- 1.96
,12
.41

.08
.43
.85
,10

.99
,24

,72
.74
.22
- ,59
,39
1,03
.74
- ,74
,24
,14
.32
1,18
.14
,49

-,77
- 1,39
1.11

-1.53
- .34
- ,70
,64
- ,91
,94
1.52
.20
-.45
- 1.25

- 1.41
- 1,07
-,40
-.27
-1,94

.52
1.18
1,40
,47
-.42

- .05
,34
.17
- 1,69
, 14

- ,15

-,SO

- ,61
,34
-1.01
- .02
.08
.27

- ,29
-2.17
1.12
1.38
.90
- 1,47
.79
.36
1,84
- ,64
,85

-,55
-,40
- J,Q9
- 1,20
.61
,66
,25

,56
,63

- .60

.23

.lo

.99
1,31
2.22
- ,26
- ,13
,66
,78
,S I
1, 10

.09
,80

,72

.72

.96

,62
1.29
.29
.63

.so

,40
1,91
1.77
,47
.68

,75

,88

,07
1.16
,94
.06
.26

.76
,74
,57

1.75
.64

.os

.U'I

.96

-2.55
-,17
1,29
- .74

1,15
,18
.09
1.73
.71
.48

,41
1.31
1.33
,33
2.15
.46

1.95
- .39
-.71
,37
- 1,72
- 2,10
-,14
,39
- 2.80
,63

.34
.25
.28
1,85
.04
.79
- 1.61
- .61
.41
,73

.29
,69
.33
.96
.73
.27
.88
2.77
.61
.8 1

1,23
,08
- 1.25
1.86
1,90
- 1.53
,01

1,27
1,63
- .17
,17
,35
,30
,05
1.54
,33
.14

,75
,34
,14
.10
.69
1.56
,20

- ,46
.00
,25

.so

.36
1.73

00
01
02
03
04

os

10

11

12

13

14

15

16

17

18

19

,25
.74
.05
l. 13
1.06
,86
,22
1,1 2

- 2.08
1.44
.JO
- .50
1,14
,63
-, 17
,80
- 1.17
.05

,17
-,79
-.15
,37
- .23
-1,62
- ,81
- .30
- ,36
.46

1,04
,76
.05
.18
,49
,52
.49

.23
.42
1.06
.16
1.10
1.55
.96
,9 1
.46

,74
1.93
.82
- .1.85
- ,27
.78
,53
,00
- ,58
1.19

.23
.88
.90
- ,90
- ,64

,70
.80
1.38
1,32
,47
- ,29
, 14
1. 16
2.08
. 111

,79
.53
.51
.83
.05
,19
1,21
,44
l. 11
.87

1.04
1.67
- .85
-,44
-,89
1,88
,57
- 1.32
.19
1,29

.56

.1 7
,05

1.17

U8

.91
- 2.06

- .29
- 1,87
,43
,66
.23
2.13
- 2,41
1,84

,90

1,06
1,81
,62
1.81
,14
,16
,80

- ,42
.22
-.02
2.42
1.23
.25
,14
- 1.77

1.24
.74
- 1,30
1,77
- 1,65
1.31
,65
,15
.Q7

.M4
.33
,50
,54
1,54
2.06
.06
1. 18
.73
.46

1,16
- 2.17
- .43
- .35
,68
- 1,73
.59
- .20
.27
1,50

1.09
,49
- 2.08
2, 10
,00
,25
- , 15
- 2,05
.67
,57

- 1.24
.75
.70
1,87
.26
, 15
,27
.74
1,78

.92
.37
,85
1, 16

.04
.18
1,87
.89

- 1.83
- 1.08
-.17
- .61
- .19
- 2.09
- ,68
- ,62
.11
.61

1,18
,44
- ,74
,18
.43
1,82
- 1,62
1,46
-1.48

.32

Cl'l

111

.52

.12

JI
12
13
14
15
16
17
18
19

I.W

1.1~

.94
.51
1,50
.48
.89
.38
.53
.15

.46
.04
.21
1.54
.23
1.52
.37
,62

.8 1
1.61
.26
.32
1.00
.66
.20
1,01
1,81

.22
2.5 1
.48

08

20
21

22
23
24
25
26
27
28
29

30
31
32
33

34
35

,40
,01
.23
1.27
1,72
.78
1.86

36

.so

37
38
39

1.02
1,57
2.27

40
41
42
43
44

45
46
47
48
49

7 (Cofllinuacin )

,73
.87
1.18
2.09
,90
,16
,15
1.87
.K7

06
07

'161

2.17

.os

.38
.40
,39
. 12
1.20
1,04
.32
1,08

.72
,95

.15
1,37
.04
1.53
.44
.45
1,34
,15
, 19

.13
1,70
1.55
1.12
- ,93
- .8 1
. JO
.61
,69
1,71
1,75
1,50

,66
1, 18
.91
1,28
,56
.56

.2~

1.33

- .26

,2 1

,55

,93
,24
,19
-,08
- 1,08
2,50
- 1.03
.34

- 1,36
- ,66
- 2,08
.30

- ,99
1,56
,11
-,28

- ,77
- 1,42
.01

.54

- ,73

,11
,41
.44
.48
1.53
.71
.88
- ,31
1.02
.39
. 15
,60

,60
,83
,32
,21
1,76
- ,95
,72
- .37

.k5
. IJ
, JO
.7 1
1,18
,117
.28
1,02
.28
.36
,65
,15
1, 16
1,59
1,29
.14
1,46
, JI

.39
.66
,34
,33

.46
.15
1.72
,87
.97
1,78
,94

.77
- .77

. 17
,08

,68
.27
1. 11
.95

.62
1,32
1,67
.26
,76
1.76
.05
.37
2.35
.45

1,86
.14
.07
- .12
.83
.20
- .27
.08
.27
.8\1

.so

. JO
,74
1.76
,37
,42
,45

.so

1,02
,53
.46

.78
.90
- 1, 10
,35
,53
- 1.84
.51
,45
- .27
.03

- .54
1,73
.94
,03
1.61

,55

- .88
, 15

- .55
,20
- . 12
- 1.67
- , 14
-,45
. 13
.69
,42
.65

-.99
- 2.83

- .46
-.38
.23
.59
- 1.22
1.4.1

.64
2,52
,42
,16
.92
.26
.25
- 1,90
-.17
- 1.13

-.SS

.89

,73

, 18
- .42
,83
- 1.18
.38

.92

.Q3
- .76
.51
2,35
.48
.82
,58
,27
1.26
1,11.1
7()
- .07
1.44
,96
,69
,90
.1 1

- ,02
1,40
.34

1,51
,49
1.41
.71
.1 4
,76
,76
1.25
.43
1,08
.24
.37

2.22
,(11

, 14
1.1 1
,58
.79
.03
.85
.58
,73
1,61
1,08

Respuestas a problemas seleccionados

2. 16.

(a) 2/n

2.20.

120

2.22.

(b) 2(n - l)fn 2

2.18.

0,24

2.21.

10!

10'(10- r)!

CAPITULO 3

CAPITULO 1
1.1.
1.2.

(a) {5}
(b) {1, 3, 4, 5, 6, 7, 8, 9, 10}
(e) {~ 3, 4, 5}
(d) { 1, 5, 6, 7, 8, 9, 10}
(e) ( 1, 2, 5. 6, 7, 8, 9, 10}

(a) {x 10 S

(b) {x 10 S X
(e) {x 10 S X
(d) {x 1i S X

1.3.
1.4.

< *}V {x ji S
< i} V {x 1! <
S t} V {x 1 1 <
S t} V {x 11 <

(a) Verdadero

S 2}
X S 1} V {x jl S x S 2}
X S 2}
X

!}

<

(b) Verdadero

(e) Falso

(d) Falso
(e) Verdadero
(a) A ~ {(0, 0), (1, 0), (2, 0), (0, 1), (1, 1), (2, 1), (0, 2), (1, 2)}
(b) B - {(0, 0), (1, 0), (2, 0), (3, 0), (4, 0),(5, 0), (6, 0), (1, 1), (2, 1), (3, 1),
(4, 1), (5, 1), (6. 1) (2, 2), (3, 2), (4, 2), (5, 2), (6, 2), (2, 3), (3, 3), (4, 3), (5, 3),

{DD, NDD, DNDD, DNDN, DNND, DNNN, NDND, NDNN, NNDD,


NNDN, NNND, NNNN}
1.10. (a) { (x, y) 1 0 S X < y S 24}
1.6.

1.15.

(a) A V B V
(dJ Av B r.

e
e

(b) [A

n..-A

ri:I ('\ C)v [A 1"\ B ('\ ] V [A r.i1 ('\e)


1. 16. (a)l-z

(b)y-z

1.17.

ti

(a)

2.4.

()~~o

2.5.

2.7.

(aJi

(b)

cooxltoo
("oo)
200

2.2.
(b) 1 -

(a)

(b)

rtv

23. (a)

(I,S.,O.,O)

(e)

(d)i

120

2.9.

2.10.

455

2.1 t.

2.12.
2. 13.

(a) 4 8

(N- 1)!/(N - nl!N -

2.14.

(a) 360

(b) 4 31

(e) 70

(a)

(eH

2.8.

(b) 1296

(b) .Jr

eooxiiOO)
o 200 + cooxiiOO}J
1 19
2.6.

i
(f)

362

(b)

&

(e)i
(gd

720
(a) 120

3.4.

(a)

3.7.

(b)

rh

(eH

(b)!

i
(a)

3.9.

(b)

3. 13.

3.12.

(a) l

3.15.

3.20.

(a) 2p 2

3.23.

3.34.

(J. =

3.37.

+ fJXa + (J +
2
(11 - l)p /(l - 2p + np2)

+ +
t+
++
2p3

5p4

(b)

a+b

(e) 3!

Pr

1 - c1 -

(b) 0,145

3.17.
(b) p

(a) 0,995

3.25.

(a) 0,50

(b) 0,05

3.35.

(a) 0,65

(b) 0,22

tl

(2p - 1)"({J -

ij
(b) ~
0,362, 0,406, 0,232

2ps

p.

3.3.
3.6.

3p2 - 4pl - p

3p5 - p6

{J

=a

(J

(a

1)"-

CAPITULO 4

= 0) = ~. P(X =

4.1.

P(X

4.2.

(a)

(:)GJ(~y-

4.3.

(a)

(b)

1)

=A. P(X

(b)

= 2)

= ti. P(X

C)( ~ J/C:)

- 3) -

il

(e) ;

4.9.

a= ,.-
P(X > b 1 X < b/ 2) = - 7b 3/ (b 3 + 8)
(a) a = (2/b) - b
4.14. (a) F(t) - 5t - 4ts
4.15. (a) a= t
(e) i
4.16. (b) F(x)
3x 2
2x 3
2
1 2
4.17. (a) f(x) =!.O< x < 5
(b) f(x) = (1/ nXx - x )
, O< x < 1
(e) /(x) = 3e 3 ', x < O

4.10.

=i

4.20.

(a) a ~ 3

(e) a

4.23.

(bl P(X =k)=

(ic0 X0.09)"(0.91)10 -

4.25.
4.29.

(a)

(a) k

= {J

(b) r

=1

4.28.

4.30.

(b) 2970

CAPITULO 5

(d) 336
2.15.

(aH

4. 1t.
4.13.

CAPITULO 2
2.1.

c:Jc::~ ~)+C:J(z+:+ ~)

3.2.

3.39.

~n~~~~~~~~~~~~~~~~~~~~
(4, 6), (5, 6), (6, 6)}

1.11 .

3.1.

5.1.

g(y)

5.2.

(a)

= !{4 - y) - 112 , 3 <y< 4


g!y) = !. 7 < y < 13
(b)

lt{z)

= l/2z. e < z < e3

(e) 8/35

Respueslu problemu selecclonaclos . . 365

5.3. (a) y(y) !y 2' Je '' '.y> O


5.6. (a) y(y) ( 1/n)( 1 y 1 ) 112 1 < y < 1
(b) ll(z) ~ (2/ n)(l - z 2) ' 12 , O< z < 1
(e) /(w) = l. O< w < 1
5.7. (a) y(t') - (3/ 2n)[(31>/4n) 11J - 1), O< v < 4nj 3
(b) /1(s)
(3/ 4n)[l
(~/4n) 1 ' 1 ). O < > < 4n
1 2
5.8. o(p) - l!2/p) , 162 < p < 242
5.10. (a) y(O) ~ 1; y(y) O.}' #' O
(b) {1(0)
ajk; {l(y) (xo a) k yo. O< y< Yo[(k - a)!Cxo- a)]
(e) {1(0)
11 k: y(y)
(.~o - 11) k yo. O< y < y 0 ; g(y0 ) = 1 - x 0 /k
5.13. 0.71

(a) k -

6. 11.

6.12.
6.13.
6.14.

y/4
y/4

{! -

(e) g(y)

6.8.

+ y3/ 48, o ~ y

+ (5/48)y3 ,

- 2

~ 2

~y~O

= 1/2 -

y/8, O < y < 4

E(Z) <::: JJ.!JJ,


E(Z) "'

+ 2(JJ.fJJi }<7: ; V(Z)"' (1/JJ:)IT~ + CJJ!IJJ;)<:

V(7.l"'

.,

7.35.
7.48.

(b)

! ;o
1) p{r/n) + q[(n - r)/n)

P(X 1

CAPITULO 8

8.1. 0,219
(e) 1,785
P(X

(f) 0,215

= 0) ~ 0,264

8.9. (b) 0,027


8.12. (a) (0,735)7
(b) 1 - (0,265)7
(a) (1 - p 1)(1 - p 2 )(1 - p 3 )(1 - p 4 )
(e) 0.0964
(a) 0,064
8.20. (2 - In 3)/3
8.24. $19,125

CAPITULO 9
9.1.
9.3.
9.6.
9. 10.
9. 12.
9.13.
9. 15.
9.24.

7.3. 3.4
7.6. $0,03
7.9. S50
7.12. (b) f(Z) ~
7.14. 154
7.15. f(Y) ~ 10. V( Y)
7. 18. f( Y) O. V( Y)

7.4. 1<2C, + (,- 3Cd


7.8. 7-f-s
7.10. (a) e=
(b) f(D)
7. 13. (b) E(W) = ~

3. E!Zl

!. E(Z)

(e/2)(e 2

7.24. a - !. b - 2
7.26. V(X) 3t2

1). V(Z)

2/ n. V(Z) - (n

f-2

Caso2: E(Y)

(}'o/ 2k)(x 0 - a), V (y)

= (e 2f 2)(e2

8)j2n 2

E(W) =

(a) 0,2266

(b) 0,2902

0,21
E( Y) = (2/n)' '', V(Y)

= (n-

9.2.
9.5.

(a) D,

0,3085

9.1 t.

0,5090

(b) D2

2)/11

= 0,433a + JJ

E(L) = $0,528
(a)

!; 0,0456

(b)

0,069

(e)

i: 0.049

$23,40
0,10, 0,80

9. 17.

(a) $0,077

9.25. E( Y)"' In JJ - (1 / 2JJ 2 )a': V( Y)"' ( 1/JJ')a'


9.28. (b) E(X)= np((l - r 1 )/(1 - p"))
9.32. 0,15

CAPITULO 7

7.20.

7.31.
7.32.
7.46.

8.16.
8.17.

(e) 12
6.5. k = 1/(1 - e-2
(b) h(x) 1 lxJ. - 1 < x < 1
(e) g(y) 1 - IYI
1<y < 1
ll(z)
l/ 2z 2 , z ~ 1
1/ 2. o < z < 1
(11) ( 1600 911 2 )/80/ 2 8 < ,, < ip
~ !. ~ < 11 ~ 8
(51r 2 80)/ 1611 2,4 ~ 11 ~ ;p
ll(i)
(' 12111 ' " [ (2/ i)- 2(2/ i) 112 - 2)
+ e 11111 ' 1' (( 1/ i) + 2(1 / i)' 12 + 2),; >O
1 2
/r(w) 6 + 6w
12w .0 < w < 1
(a) y(x)
e '." > O
(h) ll(y) = ye- 1 y> O

V(W)

< 2; h(y)

8.7. E(P) = $32,64


8. 10. 0,215

(b) /r(x) - ~ 3/4, O < x < 2

!-

6.3. (a) ~
6.6. (a) k

= x/2, O < x
=j

(b) V(X)

8.3. (a) 0,145


(b) 4
(e) 2
(d ) 1 2
8.4. 0,3758 (binomial), 0,4060 (Poisson)
8.6.
8.5. 0,067

CAPITULO 6
6.2.

7.30. (a) o(x)

=~

1)

!.

x 0 - a]
= (Xo-k a)yt [ J1.- --7.25. (a) E( V) = f
(b) E(P) = 4
7.27. f(S) = ~

CAPITULO 10
10.1. (a) M .{r)
10.3. (a) M.{r)

= (2/r 2)(e'(r- 1) + 1)
J.e'j().- 1)

10.4. (a) M .{r) = i{e'


10.6. (a) (1 - r')- 1
10.9. (a) 0,8686
10. 13. 0,75
10. 18. !

(b) E!X) -

(b) E(X)

= (aJ. +

!. V( X ) "'

1)/J.. V (X) - I/J. 2

+ e 2' + e 3 ' + e41 + e'' + e"')


10.8. (b) f(X)

3.2

10.12. 0,30
10.14. 0,579
10.19. (e 3 ' - 1)/3re'

Res,...stos prc>bltm wleccioaodos

CA PITULO 11

CAPITULO 14

11.1. 83.55 hora;,, 81.77 horas. 78,35 hora


11.2. 48.6 horas
11.3. /(1) = C 0 cxp ( - C0 1) . O ~ 1 ~ 10
= C, cxp [ - Colo+ C ,(1 0 - 1,)).1 > 10
11.4. (a) /(1) = Ce tu "l.l :2: A
11.5. (b) R(l) = [A/( A + 1))-+ 1
6
11.7. (a) Aproximadamerlle (0,5)
11.9. 0.007
11. 10. R(l) = 2e- o.o6r _ e o.09r
11.11. (a) 0.014

11.12. (a)
11.13.
11.14.

(a)

= In (,_,'2) (b) m ., 0.01 (e) +J.


= exp( C 0 1). O < 1 < 10
= exp [I(C,Io - C0) - (C ,/2)(1 2 + 1f)).1 >

111

R(1)

R(l) = e '''

= - 2.\(1/(1

11.16.
(e) 0.68

14.3.

14.6. (a) 1/(T


14.9.
14.14.
14.16.
14.29.
14.31.

Rs

= (1

g(r)

12.9. (a)

12 _12. /(s)
12.13.

15.2.

(b)

11

(b) 11
(b) 11

= 5000

12.2. (a) 0.083


12.4. 0,1814
12.6. (a) 0.1112

24
374

P1'f

P2 - P1

, n,

[l _(

1- <I> (C~ JJ Jn)

(b)

0.191 5

101)1

1 - Pp2
, )'
1

1
]

(b) 0.055

CA PITULO 13
13.3. P(M = m) (1 - (1 - pr']" - (1 - (1 - Pr' ')
(b) 0.58
13.5. (a) 0.018
(b) 0.77
13.4. (a) 0.13
13.8. (a) (1 - 21) - 1
13.6. 0.89

(b)

X,

c ~- 2.33-J; +JJo

JJ

JJ

e-

2,575un - 112
I.CI e d(n).:'t
(a) I:
- - , donde (nC) - mayor entero S nC.

(e) 0,3233

k!

15.9. la) (k - 1)

= ~[ <l> (s ~ 99) _ <l>(s -

- 1 - n/L.~. , In

14.7. (a) -1- In ( n )


T 0 -lo
11 - k
14.13. 0.034
14.15. r/X

lo)

15.7. (a) (1 - p)4 (5p +


15.8. 15

= (15.000) (rJ - 60r + 600r) O S r S 10


= (15.000) 1( - r 3 + 60r2 - 1200r + 8000). 10 Sr~ 20
g(s) = 50( 1 - e 0 21 ' + 0 011 ), ~i - 0,01 s s ~ 0,01
= 50(e 0. 21> 0.011 _ e - 0.2h + O.OII ) . si s > 0.01

1 2

14.4.

(a) <~>[e+ :o- JnJ- <~> [ - e+;o - JnJ


(b)

- J.) - 1/(1 - 2A.))

(a) -P -P- (1

e = l /21n -

- 0,52
nf'il 1 xr
Distribucin F con (l. 1) grados de libertad
( - 4/5)
14.32. 8.6

15.1. (a)

CA PITULO 12

12.7.

(a) k/L.~

- (1 - R]

15.3.

12.1. (a) 11 = 392


12.3. (a) 0.9662
12.5. (a) 0.1802

16,1

14.2.

CA PITULO 15
(a)

R,.)(l- R8 )(1 - Rcl](l - (1 - R,.)(l- R 8 l]


- R"XI - Rsl
RcXI - R,.R,. )(1 - R 8 R 8 l

(a) Rs
(1 - (1
(b) Rs= 1 - Rc(l

M x(1)

V(L2l

14.1.

"' ' ' ''' - e,,, . ,,,,

- 11
11 .22.

lo

1 1'- '''+e - ' '' - e


_ e Oh+#.))'+ e- ttJ . .. II, /h)l

11.15. (a) Rs = 1 - (1 - R")"


11.18. (a) 0.999926
(b) 0.99
11.19.

367

11

+ 25ps)(l -

(b) Igual

rl + ssr< -

pJ 2
+ 60p 3 (1 - p) 3 + IOp2 ( 1 - p)3 )

15.12. (a) senafsen(ia)

IDdice

Distribucin Gama. 201. 229


valor espemdo de, 202, 203
varianza de. 202, 203
y la distribucin de Poisson. 202
y la distribucin exponencial, 201, 229
Distribucin geomtrica. 175
propiedades de. 177
valor esperado de, 176
varianza de, 176
Distribucin hipergeomctrica, 29. 180

lndicc de materias

\alor esperado de, 181

Aproximacin de DeMoivre-Laplace para


la distribucin binomial, 257
Arbol , diagrama de, 41

Desigualdad de Boole, 20
Desigualdad de Chebyshev, 146, 147
Desviacin esti111dar de una variable a leatoria. 138
Desviaciones normales. 287
Distribucin binomial, 64
aproximacin normal a lu, 255
distribucin de Pascal, y, 179
propiedade~ de, 79
valor esper.tdo de, 122, 136
varianza de, 141
Distribucin binomial negativa, 178
Distribucin de Cauchy, 213
Distribucin de Pascal, 178
esperanza de, 179
varianza de, 179
y la distribucin binomml, 179
Distribucin de Poisson, 164
propiedad reproductiva de, 226
valor esper;1do de, 164
varianza de. 165
y la distribucin binom1al, 165
y la distribucin multinomia l, 232
Distribucin de Rayleigh. 228
Distribucin de Weisbull. 242
aplicacin de, 242
esperanza de. 243
varianza de. 243
Distribucin c~ponencial. 195
propiedades de, 196
va lor esperado de, 197
y la distribucin exponencial con dos pa
r.'tmetros, 230
y la distribucin Gama. 229
y varianza de, 197
Dbtribucin F de Snedecor. 322

Bondad de ajuste de pruebas. 336


prueba de ajuste de distribuciones asintticas. 338
prueba de una distribucin especfica, 340.

341
Coeficiente binomia l, 27
Coeficiente de confianza, 312
Coeficiente de correlacin, 148
ejemplo de, 310
evaluacin de, 148
interpretacin de, 149, 150, 151
propiedades de. 148
Comparacin entre varias distribuciones.

205
Confiabilidad, 233
de los SIStemas. 243
y la funcin de distribucin acumulativa.

234
y la longitud de vida esperada. 237
y la tac;a de falla, 234
Conjunto. 3
complemento de, 4
identidad de. 5
interseccin de, 4
nmero de elementos, 6
subconjunto, 4
unin de, 4
uni~ersal, 4
vaco, 4
Convergencia en probabilidad, 253
Covarianza. 148
368

varianza Je, 181


y la distribucin binomial, t8n
Distnbucin log-normal. 213
Distnbuc1n de Maxwell, 228
Distribucin multinomial , 181
valor c\pcrado de, 182
varian11 t.lt 182
y la d~tnhucin de Poisson. 232
D1stribuc1un normal. 187
aproximuc1n a la distribucin binomial.

2SS.

2~1

bivariada :!116
estandanlad<l, 190
funcin hncnl de. 190
propiedad r~productiva de. 226
suma de 'unabl~ aleatorias independientes, 225
ta bulac1n. 191
truncada. '1~~
valor nperado de, 190
varianza de, 1Q()
Distribucibn 1inrmal bivariada. 206. 207
Distribucin 1 de Student, 313
propiedade de, 313
D1stribuc1t'ln 11 uncada. 208
Distribucu'm uniforme, 76
bidimcntton.ll. 102
unidimensional. 76. 77
valor c'ptrMdo de, 122
varian1a dC', 143
Distnbucumt 1 203
distnbuct<>n C..ama. y la. 203
d1stnbuun normal. y la, 206, 227
grande~ rao.los de libertad, para. 207
prop~ad reproductiva. de. 227
valor csptrado de. 204
varianTa de. :205
Oistribucione~. binomial. 64

16'1

bivariada normal . 206, 207


exponencial. 195
F de Snedecor. 322
gama, 201
geomtrica. 175
hipergeomtrica. 29. 180
log-normal, 213
Maxwcll, 228
multinomial, 181
normal. 187
Pascal, 178
Poisson. 164
Rayleigh . 228
1 de Student. 313
uniforme. 76. 102
Wei~bull.

242

Distribuciones mixtas, 75
Ensayos de Bernoulli, 64
Enumeracin, mtodos de, 24
adicin, principio de, 25
combinaciones. 26
muluplicacin. principio de. 24
permutaciones, 25, 30
Errores tipo 1 y tipo 2, 326
Escogencia al azar de un objeto, 23. 29. 39
Escogencia de un punto al azar en un intervalo. 76
Espacio muestra!, 56
Espacio muestra!. el. 8
ejemplos de, 9
finito, 21
particin de. 38
Espac1o muestml finito. el. 21
y resultados igualmente probables. 22
Esperanza condicional, 152
Estadigrafo. 277
Estimacin. 291
Estimacin de mxima verosimilitud. 298.

300
por el parmetro de una distribucin exponencial. 300, 304
por el parmetro de una distribucin gama.

305
por el parmetro de una distribucin
normal. 302
por el parmetro de una distnbucin
unifo1me. 302, 303
por la ecuacin de probabilidad. 3(ll

370

hldk:t

htdln

prop1edade~.

300
propiedades asintticas, 306
Estimacin de p:~r.imetros, 291
estimador consistente, 292
estimador insesgado, 291
estimador de mxima probabilidad, 298
2~

estimador de cuadros mnimos. 308


estimador inexistente o insesgado, 323
estimador insesgado de varianza mnima

292
mejor estimador lineal, 293
Estimador, 291
insesgado, 291
Experimento aleatorio. 7
Experimento no determinstico, 7
Factorial, 26
Fa lla, tasa de, 234
Fallas, ley expOnencial de, 237
y la distribucin de Poisson, 240
Fallas, ley Gama de, 241
Fallas, ley nonnal de, 236
Frmula de Stirling, 256
Frecuencia relativa, 12
Funcin de densidad de probabilidades, 68
del cociente de variables aleatorias independientes, 113
conjuntas, 97
marginal, 101
de la suma de variables aleatorias independientes, 266
del mximo de la muestra, 280
delminimo de la muestra, 280
del producto de variables aleatorias independientes. 112. 112
del recorrido de la muestra, 283
Funcin de densidad de probabilidad condicional, 104
Funcin de densidad de probabi lidad conjunta. 97
Funcin de densidad de probabilidad marginal. lO!
Funcin de di\tribucin, 75
Funcin de dimibucin acumulativa. 71, 89
caractersticas de. 72
funcin de densidad de probabil idad. y la,
73.74.97
gr-.ifica de. 72. 73

propiedades de. 73. 74


Funcin de distribucin acumulativa conJUnta, 100
Funcin de oper'dcin caracterstica, 326
para probar el par{lmetro P de una variable aleatoria con distribucin binomial, 334
para probar la med1a de una distribucin
normal con varianza conocida, 326, 329
para probar la media de una distribucin
nonnal con varianza desconocida, 336
Ycscogcncia del tamao de la muestra, 331
Funcin de regresin, 154
aproximacin de los mnimos cuadrados.
158
lineal, 156
Funcin de riesgo, 234
Funcin gama, 199
Funcin generadora de momentos, 2 18
de una distribucin binomial, 219
de una distribucin ;x 2 , 221
de una distribucin de Poisson, 219
de una distribucin expOnencial, 220
de una distribucin gama, 221
de una dist ribucin geomtrica, 223
de una distribucin normal, 220
de una distribucin uniforme. 219
de una funcin lineal d~ una variable alea
toria, 224
de -;cres de variables aleatorias, 229
de sumas de variables aleatorias indcpen
dien tes, 225
de propiedad de unicidad , 224
y momento, 222
Funciones de variables aleatorias. 83
caso bidimensional. 108. 109
caso continuo. 88, 89
caso discreto, 86
funcin montona, 90
valor esperado de, 126, 127. 132
Grfico de Venn. 5
Gmndes nmeros. ley de. 252
ll iptesis alterna, 324
Hiptesis, docimasia de. 324
par.J la media de una variable aleatorm
con distribucin normal. 329

nivel de ~1gmficacin, 329


regin crt1ea, 332
HipteSIS nula. 324
Integral de convolucin. 265
Intervalo de confianza, 311
para el parmetro de una distribucin bi
nomial. 317
pard la media de una distribuCIn normal
(varianza conocida). 3 12
para la media de una distribucin normal
(-varianza desconocida), 314
para la varianza de una distribucin nor
mal, 317

1,7 1

:v

Probab1hdad no ~ond~<:lnnal ,
PrtlCC\ll de PoMon. 1711, 174
'phcacoones de, 173. 174
supuestos de, 17 1
Producto ea11esiano, 6
Promedio muestra l. 278
Propiedades reproductivas. 225
de la distribuCIn ;x2 227
de la distribucin normal. 226
de la distribucin de Poisson, 226
Punto muestra!. 278
Recorrido de la muestra, 283
Regularidad estadstica. 13
Resultados igualmente probables. 22

Jacob1ano de una transformacin. 109


Mximo de la muestra, 304
Mecnica.analogiacon, 61, 70,124, 139, 141
Mnimo de la muestra , 278, 280
y la distribucin exponencial, 281
Modelos matemticos, 1
Momento de una variable aleatoria respecto
de su esperanza, 140
Muestra, tamaiio de, 327
Muestm aleatoria de una variab le aleatoria.
275
generac1n de una muestra aleatoria, 285.
287
Muestras. 273
coeficiente de correlacin, 311
mximo de, 278
media de. 277
mnimo de. 278
recorrido de, 278
varianza de. 278. 283

Series geomtricas. 63
S ucesos, 10
complementarios. 11
independientes, 42
mutuamente excluyentes. 11
Sucesos equivalentes. 58, 84
Sucesos independientes. 42. 44
Sucesos mutuamente excluyentes, 11
Sucesos mutuamente independientes, 46
Suma de variables aleatorias independ ientes.
265,269
Teorema de Bayes. 40
Teorema de la multiplicacin de probabilidades, 37
generalizacin de. 52
Teorema del binomio, 27
forma generaliada. 28
Teorema del limite central, 259. 260
Teorema. Gauss-Markoff, 310
Tr.tnsformacin integral. 285

Nmeros lentorios, 284


Orden estudistico. 278
Par.imetro de una distribucin. 120
Probabilidad, 13
axiomas para, 14
condicional, 36
inducida. 59, 97
teoremas bsicos, 15. 16
Probabilidad condicional. 34
Probab1hdad inducida. 59.86

Valor esperado de una variable aleatoria.


120. 122. 124
aproximacin para. 143
de la suma de variables aleatorias. 132
de una funcin de una variable aleatoria.
126, 132
de una funcin linea l, 133
del producto de variables aleatorias independientes, 134
del valor condicional esperado. 152
propiedades del valor esperado. 132

171

lndiH

\ ,lom,.t"' ~~~ una \.tllahk .,l,.tttma l:i'tl


\ anahk ;tll\th>l ia. 55
'

COntllllla, Cl7
discreta. 60
di,trihucn Jc probabilidad. 61
espac1o muc,tral de. 56
no correlacionada. 149
sucesionc' de. 2:!9
Va riable aleatoria bidimensional. 95
continua. '16
discreta. 96
normal 206

~u.thl'-

.tlc,thH a ~r,ntmu. h7

\ a11ahlc' ,katnn<l\ mdqxnthcntc,,


critt'fitl de. 106

lO~.

lnr.

'
\ anahlc' alcatori;" 11-dlnll'n,innalc,,
11 J
\;manta de una \anahlc ,Jea tona. LIX
apro\lmacn a. 14~
e\aluacu:lll de, 139
propiedades de. 140
de la '>Uma de variable' alc;Hori;l\ 111d
pcnd IC11le\. 141
\ ananLa muc,tral. 273

------~------~

You might also like