Professional Documents
Culture Documents
PROBABILIDAD
Y APLICACIONES ESTADISTICAS
Paul L. Meyer
Departamento de Matemticas
Washington Stute Univcrsity
Con la colaboracin de
ADDISON-WESLEY IBEROAMERICANA
Argentina Brasil Chile Colombia Ecuador Espal'\8
Estados Unidos Mxico Per Puerto Rico Venezuela
l'rtfodto
11
,.,,1
cnos se a un bosqu d
cron ctacar.tctemtrcas dostJnllvas de este lcMo son 1 CJOh e 1as !deas ms imponante;,. Una de las
lo~ lcoremas Y definiciones; en ella;.. el ~csul~~ M servacrones que siguen a la mayora de
mrnado_ desde un punto de vista imuitho
o particular o el concepto presentado es e~aDebrdo a la re;tnccin autompuesta d. . . .
matc!ra que abarca una extensa rea. hub~ ::nbrr un texto rel_;uivamente breve sobre una
clu"on o c~clusin de cierto, tema~. Par~-cc seresdad de seleccionar en relacin con la inproblema. ( rcrtamente, yo no sosten o u
que no hay manera obvia de resolver este
ha~r encontmdo sitio: ni plctendo ~u~ ~ p~ra algunos de los temas excluidos. no se podra
bar;o. se ha hecho hmc-dprc en ~rao par~~n~:;a~ater!al P~a haber sido omitrdo. Sin emdet:r.llc consrderablc. Solamente el ctptulo J 1
~ocoon~.-.._ tundumentales. presentadas Coll
;~,,.~::;;ro de lujo: pero. aun aqu, cr~o que~~ n: ~e conha?ilidud. puede ser collsiderado
' '
.son de mters para mucha, personas A ' ~es asociadas con problemas de conliaun medro CXI.'Cienlc para ilustrar muchas d 1. .:emas, los conceptos de confiabilidad son
d A~" SI se piensa que la c~tensin ha sid: ~i::it~~: presenl~das am~riormente en el libro.
o una _seleccrn amplia y ra?onablc de lema. U
. por el trempo disponible, se ha logra
;lera cvodentc que unas tres cuartas partes d:j t nta OJeada al lodice general muestra de muda cuarta parte est dedicada a una expost~i de~ ~ Ira~ de tema~ probabilsticos micnlra\
. e C\traordinario en t'Sia dlvrsin partcula~ d:;" .eren~~a estadostica. Aunque no hay nad;~
<:leo lJUe un conocimiento profundo de los . . . cnfa~~~ en tre probabilidad Y estadstica
d J
flllncJpro<, basrco, de la probabilidad es
,
vo para una compren,rn pro
bab,hdad debera ser scgu'odopa e os mctodos eMadstico~. Idealmente un curormpel"atr.
. .
o' semc~tres de c~posicrn con estas mat . ue 1oman C>te curso no tienen
ena; y, por tanto. me sent ()bJigdo
&
'1
tiii
Prefatio
no slo por la paciencta mantenida durante el e;,fuerzo sino tambin por dejarme y llevarse
a nuestros dos hijos a visitar a sus abuelos d u ran te dos cruciales meses de verano. durante
los cuales pude convertir nuestro hogar en un taller desordenado pero tranquilo, del cual
emergi milagrosamente la ltima, final, versin de este libro.
Pullman. Washington
PAUL
L.
lndicc general
MIYER
1.1
1.2
1.3
1.4
15
1.6
1.7
1.8
Modelos matemticos
Introduccin a los conjuntos
EJemplos de experimentos no determini~ttcos
El espacio muestra!
Sucesos . . .
Frecuencia relnt iva
Nociones bsicas de probabilidad
Varias observ;tciones.
Problemas . . .
P. L. M.
8
10
12
13
16
18
e apitulo 2
21
2.1
22
24
31
('apitulo 3
Pullman, Washington
1
3
3.1
( apit ulo 4
4. 1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
34
40
42
48
50
55
60
63
67
71
75
76
77
78
'
lndlce
lndln
7.4
7.5
7.6
7.7
7.8
7.9
7.10
7.1 1
83
83
86
88
93
95
101
105
108
112
114
117
120
126
131
132
138
140
143
146
148
152
154
158
164
165
170
175
178
179
180
181
183
187
187
188
191
195
( up1lulu 10
1() 1
10.1
111 '
104
1115
ltl 6
1ti. 7
om
196
199
201
203
205
206
208
212
217
~IR
219
221
225
229
230
230
233
236
237
240
242
243
247
252
252
255
259
264
265
270
273
274
277
277
284
287
290
291
294
\ll
lndlcc
298
307
310
Introduccin a la probabilidad
311
313
315
319
324
329
333
336
343
346
348
362
368
1.1
Modelos matemticos
1.1
!a
l.l
lntrodutcfoll
11
los conjun<>
lnlroduccii>n 1 pmbbllldod
1.2
Hay dos conjuntos especiales que a menudo son de inters. En la mayor parte
de los problemas, estamos interesados en el estudio de un conjunto definido de
objetos, y no de otros, por ejemplo, en todos los nmeros reales, en todos los artculos que salen de una linea de produccin durante un perodo de 24 horas, etc.
Definimos el conjunto rmiversal como el conjunto de todos los objetos que se consideran. Corrientemente este conjunto se designa U.
Otro conjunto que se debe destacar especialmente, puede aparecer como
sigue. Supongamos que se describe el conjunto A como el conjunto de todos los
nmeros reales x que satisfacen la ecuacin x 2 + 1 = O. Evidentemente sabemos
que no pueden existir tales nmeros. El conjunto A no contiene ningn elemento!
Esta situacin ocurre tan a menudo que justifica la introduccin de un nombre
especial para tal conjunto. Por lo tanto, definimos el conjunto nulo o vaco como
el conjunto que no contiene elementos. Generalmente este conjunto se desgina ~
Puede suceder que dados dos conjuntos A y B un elemento de A es tambin
un elemento de B. En tal caso se dice que A es un subconjunto de B y se escribe
A e B. Se da una interpretacin semejante a B e A. Decirnos que dos conjuntos
son el mismo A = B, si y slo si A e By B e A. Esto es, dos conjuntos son iguales
si y slo si contienen los mismos elementos.
Las dos propiedades siguientes del conjunto nulo y del conjunto universal
son inmediatas.
(a) Para cualquier conjunto A , se tiene ~ e A.
(b) Una vez que el conjunto universal se ha acordado, entonces para cualquier conjunto A considerado que est en U, tenemos A e U.
1.1. Suponga que U = todos los nmeros reales, A = {x 1x 2 +
2x - 3 = 0}, B ={x j(x - 2)(x 2 +2x-3)=0}. y e={xjx= -3, 1,2}. Entonces A e B y B = C.
EJEMPLO
xe B (o ambos)}.
y xeB}.
12
"
l s loc~. A = {xlx~ Al .
fl
Se puede usar con mucha ventaja un recurso grfico. co~octdo co~o gra 1cn
,,. ltmt cuando se combinan conjuntos de la manera mdtcada antenormente.
1 n cada uno de Jos grficos de la figura 1.1 , la regin sombreada representa el
~"nJunto considerado.
o
A nB
Au B
FIGURA 1.1
FJIIMPLO 1.2. Supngase que U = { 1, 2, 3, 4. 5. 6, 7. 1:1, 9. JO ); A -= { 1, 2, 3. 4}.
e
e
(a)Av B = B v A.
(e) A V (B V C)
= (A V
lb)AnB=BnA.
B) u
c.
(ti) A n (8 n C} = (A n B)n
(1.1)
referimos a (a) y (b) como las propiedades conmutativas. y (e) Y (d) como las
rropredadcs asociativas.
..
JI ay otros conjtmtos idemidades que contienen unin, .inter~eccton Y comp1emcntacin. Lo~ ms importantes de estos se indican a contmuac16n. En cada caso,
,n va lidez puede verificarse con ayuda de un diagrama de Vcnn.
Nus
lntrodoccin a la probabllldlld
(e) A v (8 f"l C)
(1) A f"\ (8 V C)
(g) A f"l f) = f'.
= (A v
= lA f"\
1.2
8) 0 (A v
CJ.
8) V (A
C).
f"\
( 1.2)
(h) A v f}
A
) (A f"l 8) = ~ v 8,
(i) (A V 8)
(k) A
A.
e te
Entonces
1.3.
A
A f"l B.
u tp ccacron .
dtdos doso(oquc , s)rgue se necesita una construccin adicional de un conJunto
'
mas COnJUntOS.
11
entonces A x Al x ... x A _ {a
sigue. A .A. son conuntos.
1
todos los n-tuplos ordenados~ - ( "al a.). a e A;}, esto es el conJUnto de
Un caso especialmente Importante . . . .
d
carteSiano de un conJunto consgo m , ,p,trcce cuan o tomamo-. el producto
.
1snw. C\IO c-. 4 x A o A
1
1 E
P1os asr aparecen cuand
. 1
x ' x 1
Jem
donde R es el conju~to ~en~~drocsalcoson~mo~ con el plano euclidiano. R x R. en
num eros reales y el espacio e l'd '
.
.
.
uc 1 rano Ind 1mens10nal se representa R x R x R.
El nmero de e/emell(o~ en
un nmero finito de clcm~ntos u;n c~nJ~n~o nos .,er de mucha utilidad. Si hay
finito. Si hay un nmero infinito de e.l gamos U. "2 .. a. decrmo~ que A es
ementos en A que pueden pone
correspondencia uno-a-uno con los ent
..
.
rsc en una
o infinito numerable (Se puede de
t eros positivo~. dectmos que 4 es nmtahle
nmeros racionales. es infinito n;os rar por eJe~plo. que el conJunto de todos los
~so de un conjunto inlinito no':u:~~:~~blc): ~~n~lmente debe~os considerar c1
lllfinito de elementos que no
d
e. T .Jics conJuntos contienen un nmero
l.\
1
1
1
obtenidas.
Se lanza una moneda cuatro veces y se observa la sucesin de cara:. y sellos
obtenidos.
1 1 Se fabrican artculos en una lnea de produccin y se cuenta el nmero de
~1rtculos defectuosos producidos en un perodo de 24 horas.
1 ,. El ala de un aeroplano se arma con un gran nmero de remaches. Se cuenta
el nmero de remaches defectuosos.
Se fabrica una bombilla. Luego se prueba su duracin ponindola en un porta
1,
lmparas y se anota el tiempo transcurrido (en horas) hasta que se quema.
En un lote de 10 artculos hay 3 defectuosos. Se elige un articulo despus
de otro (sin sustituir el artculo elegido) hasta que se obtiene el lumo articulo
defectuoso. Se cuenta el nmero total de artculos sacados del lote.
1 " Se fabrican artculos hasta producir 1O no defectuosos. Se cuenta el nmero
total de artculos manufacturados.
1 Q Se lanza un proyectil. Despus de un tiempo determinado 1, se anotan las
tres componentes de la velocidad v,. ''r y v,.
/ 10 Se observa un proyectil recin lanzado en tiempos. l~oll.. . . t. En cada
oportunidad se anota la altura del proyectil sobre el suelo.
1 11 Medir la resistencia a la tensin de una barra de acero.
1 ,: De una urna que contiene slo esfc.:nt\ negras. se escoge una e~fera y se
1
anota su color.
11 11 : Un termgrafo anota la temperatura. continuamente. en un periodo de 24
horas. En un sitio y en una fecha sealados. leen> dicho tcrmgrafo.
1' 14 : En la situacin descrita en E 13 . se anotan x e y, las temperaturas mnima y
mxima del periodo de 24 horas considerado.
11
\llO
1!
lnlruduccin a lu Joroboblldad
1...1
(n) F\ posible repet1r cada experimento cndefm1damente sen cambiar esencialmente las condiciones.
(bJ Aunque en general no podemos indicar cul sed un resultado mrtcular.
podemos describir el conjunto de todos los resultados po.\ibles del experimento.
(e) A medida que el experimento se repite. lo-; resultado\ individuales parecen
ocurrir en forma capnchosa. Sin embargo. como el experimento se repite un gran
numero de veces, aparece un modelo definido de regularidad. Esta regularidad
hace posible la construccin de un modelo matemtico preciso con el cual analizarnos el experimento. T endremos m;s que decir acerca de !a naturale7.a e importancia
de esta regularidad m;b adelante. Por el momento. el lector nccc~ita pensar solamente en lanzamientos repetidos de una moneda regular. Aunque las caras y sellos
apa recen'tn, sucesivamente. de una manera casi arbitraria, es bien conocido el
hech o emprico de que. despus de un gran nmero de lanzamientos. la proporcin
de caras y sellos ser:'t aproximadamente igual.
dcscntos anteriormente sau~faccn
la ltima camctenstica mencconada
solamente ~e puede verificar por experimentacin: deJaremos a la intuicin del
lector creer que si el experimento se repitiese un gran nmero de veces la regularidad
mencionada Sl!ra evidente. Por eJemplo. si se probase un nmero de bombillas del
mismo fabricante. po~cblemente el nmero de bomb1llas quemadas en m~ de 100
bor~. dcgamos, podra ser predicha con bastante exactitud). Ntese que el experimento E 1 tiene la peculiaridad de que slo es posible un resultado. En general
tales experimentos no sern de intcn!s, por el hecho de que no sabemos qu resultado particular ocurrin't cuando se realice un experrmcn.o y qu lo hace interesante
para nosotros.
Debe notarsc que todos los
experimento~
cedimiento quu se realiz:r smo que tambin lo que eswmos interesados en ob~ervar (ver, por
ejemplo, lu diferencia CniJc E2 y E, mencionados previamente). Este es un punto muy unporlanre al cual no~ refenremos ms adclanre cuando discutamos las variable> aleatoria' Por
el momento. obsenemos 'Implemente que, como una con...:cuencia de un solo procedimiento expenmcntal o ta ocurrencia de un solo fenmeno. se pudieron c-.Jk'Uiar l'ario> valor~-s
numricos diferentes. Por CJcmplo. si se escoge una per;ona cn1re un gran grupo de personas
(y la eleccin propiamente dicha se hace segn el procedimiento experimental indicado previamente). podramos cst:rr rnteresados en la altura. peso, ingreso anual, nmero de nio,, cte..
de la per~ona. Naturalmente. en la mayora de los caso' sabemos. antes de ~-omenzar nuc,lro
cxpcnmcnco. Ja, caraclcri~ltca, numnca' qu.: nos interesan.
1.4
s,
p,.2,J,4.5.6}.
S 1 : (O. l. 2, 3, 4}.
.
.
a en donde cada
'Todas las sucesiones posibles de la forma a.,.uz,aJ. 4.
}
.'i ' :
0 S se n si aparece cara 0 sello en el i-scmo lanzamcento
-'
.....
donde N es el nmero mximo que pudo ser productdo
1d
en 24 horas.
'i; , {0, 1, 2, ... M}, en donde M es el nmero de remaches insta a os.
,.,, . j tjt ~ 0}.
1
~~O, 1~2
~}.en
,:.,;
{v v1 v lv v v, nmeros reales }.
{IJ~.. : . : ,;.,{~O, i = 1,2-; .... . n}.
,\ 11
{SIS
'
s,,
~O).
{esfera negra}.
1
1 s importante de los que aqu consideramos.
Este espac1o muestra es e m
1 cardad
Debemos suponer prcticamente que la tc~~ratura en ccel rta od . .' , s
va
ores,d 1de
gamo
especifica nunca puede su b .cr o baja r con relac1on .a .ccertos
1
"bTd
que
M m Fuera de esta restriccin, debemos admitir a pose 1 a.
cualquier
con determinadas caractersticas..
el rfico no tenga saltos (esto es, representar una f~nclon contmua .
Ad!ms el grfico tendr ciertas caractersticas de suavcdad que
resumirse matemticamente al decir que el grfico represen!~ una ~~: oc~
diferenciable. As podemos enunciar finalmente que el espacco mues
apa~e~a
1;
~rfico
PosJble~ent~
ruc~~n
,,,,.. {(x,y)jm .::;; x::;; Y.::;; M}. Es decir. S,4 consta ~e todos los puntos que cstan
sobre y en un tringulo en el plano bi-dlmensconal x, y.
ti n este libro no nos preocuparemos por los espacios mues, rales de la copemprolejpac
d~:
.
b
1 1 espac1os muestra es aparecen.
tener una idea muy clara d e lo que mcdi.mos u observamos;i:~:tt~n~~ ~=z ~~a~el
h,blar de un espacio muestra! asociado con. un ex pe
S
S
1 A ' te repecto obsrvese la dcferencca entre 2 Y J
.
el resultado de un experimento no
ser:n
Por eJemplo en E3 cada resu ltado es una sucesin de caras Y ~e os. n f9 Y .' o
l'Hda resultado
consiste en un vector, meen
t ras
, que en E J J conSiste en una unc1 n.
~p~~te~u:~:in q~:
El CSJlllcio muestra!
Definicin.
necesi:~
;m~o.
10
lntroduccia la probabilidad
I .S
A e~t~ altura po~ra ~er til comentar la diferencia entre un espacio muestra!
matemaucamente Idealizado y uno realizable experimentalmente. Para este
pr?psito, consideremos el experimento E 6 y su espacio muestra! asociado S 6 . Es
ev1dente que cuando anotamos el tiempo total t durante el cual funciona una
bombllla, somos vctimas de la precisin de nuestros instrumentos de medida.
Supo~gamos q_ue tenemos un instrumento que es capaz de anotar el tiempo con
dos cifras dectmales, por eJemplo, 16,43 horas. Con esta restriccin impuesta
nuestr~ espac1o mu~stral llega a se~ infinito nu~1erable : {0,0; 0,01; 0,02, .. .}.
Aun mas, es muy realista suponer que nmguna bomb11la puede durar posiblemente
ms d~ H horas, donde H_podra ser un nmero muy grande. As, parece que si
som~s completamente realistas en la descripcin de este espacio muestra l. estamos
considerando un espacio muestra! finito: {0,0; 0,01; 0,02, ... , H}. El nmero total
del resultado sera (H/0,01) + 1, que sera un nmero muy grande aun si H es
moderadamente grande, por ejemplo. H = 100. Resultara matemticamente
m~ simple y conveniente, suponer que todos los valores de 1 ~ Oson resultados
pOSibles Y por tanto considerare! espacio muestra! S 6 como se defini originalmente.
1.5 Sucesos
. Otra nocin b~sica es el concepto de un suceso. Un suceso A (respecto a un espaCIO muestra! part1cular S asociado con un experimento e) es simplemente un
COnJUnto ~e resultados posibles. En la terminologa de conjuntos, un suceso es
u_n ~bconJunto del espacio muestra! S. En vista de nuestra discusin previa, esto
s1gmfica q~e ~ m1smo es un suceso y tambin lo es el conjunto vaco~- Cualquier
resultado md1v1dual puede tambin ser considerado como un suceso.
Los siguientes son ejemplos de sucesos. Otra vez, nos referimos a los experi~entos anotados antenormente: A 1 se referir a un suceso asociado con el expcnmento E1
A,: Un nmer~ par ocurre; esto es, A 1 = {2, 4, 6}.
A2: {2}; es dec1r, ocurren dos caras.
A3: {CCCC, CCCS, CCSe, CSCC, SeCC}: es decir, salen ms caras que sellos.
A4: {O}; es decir, todos los artculos fueron no defectuosos.
A,: {3,4, ... , M}; es decir, ms de dos remaches fueron defectuosos.
A6: {tlt < 3}; es decir, la bombilla se quema en menos de tres horas.
A t4: {(x, Y)IY = x + 20}; es decir, el mx 1mo es 20~ mayor que el mnimo.
Sllt~
1~
11
110
l'l 1 lh:
~lllll iCIILO.
(a)
u~
Si A y 8 son sucesos. A
u tren
A
Entonces
= {tjt <
100};
= ltlt S200};
e=
Av 8
A u
B = (t!SO S t ~ 200};
12
lntnJducrln u la probabilidad
1.1>
o S.j,. S. l.
(2) f,. = 1 si y slo si A ocurre coda Pez en las n repeticiones.
(1)
Obs.-rcacin: la propiedad (5) anterior obvoameme est indicada de una manera va:a
en e> te momento. Slo posteriormente (Sce<:1n t 2.2) podremos prec1sar m;h esta 1dca. Por
ahora mdiquemos simplemente que la Prop1edud (5) encierra la notacin bastante mtu111va
de que la frecuencia relativa basada en un nmero crec1ente de observaciones tiende a c~
tabilizarsc en la proximidad de un valor delinit1vo. Esto 110 es lo mismo que el conccp;o
~or~1entc d_c convergencia que se encuentra en otra parte en matemticas. De hecho. como se
md1~6. aqu1, esta no es del lodo una conclusin matcmtica. sino simplemente una rea lidad
emp1nc;1.
la mayor parte de nosotros intuitivamente estamos concientes de este fenmeno de eslabil!zacin a~nquc puede. ser que nunca lo hayamos verificado. Hacerlo requiere una
~nlldad cons1dera_ble de ll~mpo y pac1cncia. ya que requiere un gran nmero de rcpcllcloncs de un cxpenmento. Sm embargo. alguna' VL'CCS podemos ser observadores mocelllc>
de este fenmeno como Jo Ilustra el sigu1ente CJCmplo.
EJEMPLO 1.5. Supngase que estamos parados en una acera y nos fiJamos
en dos losas de cemento adyacentes. Imaginemos que empieza a llover de tal
manera que en realidad podemos distinguir unas gotas de otras y les seguimos
,1 p 1su para a\'cnguur s1 caen en una losa o e~1 otra Co~tmu~mos observ_a~d~
11 gnt.ts llllliv 1duales y anotamos su punto de 1mpacto S1mboh~ando la 1-es1ma
11.,,,1 por \,.en donde X, - 1 si la gota cae en una losa y O SI cae en la ot~~-;
l"'tlnanl{ls observar una succs1n tal como J. J. O. l. O. O. O. 1: O. O. l. Ahora ~t.
d, 1rn que no podemos predecir en donde: .:uera la gotu. pamcular. (Nuestro ~x1,..nmcnto con~ 1 ste en una especie de situacin metcorolo~1~a que causa la ~a1~a
d, ,1, gotas de lluvia.) Si calculamos '-~ frecuenc1a rclat~va del suces~ A -:- 1_1a
t 1 , 3 c en la losa 111, entonces la suces1on anterior de resultados da ongen a las
1,,.:11,11ck1s relativa~ siguientcs (con ba>o.: en la ob~crvacin de l. 2. 3: gotas):
1 .1 -~ ' * 4 4 (~
Esos valo1.:~ muestran un grado cons1derable de
1 1 \t4'ib'3<Jt0
t
.
.
, , 1 1 111 ~: 1 6n. especialmente al comienzo. lntuitivame~te es claro que _s1 se co~tm~a.1 1 111 cklm1dam.:ntc el expcnmcnto antcnnr. c~a~ lrccucnc1:ts rclat1vas se establl_l1rmn prximas al valor ~- Porque tencmo~ toda la nt/t~ pa~a creer que despues
de 1uc haya trascurndo cierto tiempo las dos losa'> cstanan 1gual~ente moJa~~s.
hta prop1cdad de estabilidad de la frecuenc1a relauva es aun. una noc1on
h.1stantc intuitiva y slo podremos precisarla matemaucamcnte mas tar~e. Lo
unrortante de esta prop1cdad es que si se realiza un cxpcnmcnto un gran numero
.te veces. la frecuencia relativa con que ocurre un suce~o 1 uende a vana_r menos
1 111 cnos cuando el nmero de repeticiones aumenta. A e~ta caractensuca se le
k , 1gna como regularidad estadstica.
. . .
Tambin hemos s1do algo imprecisos en nue~tra dcf1111C10n de experimento.
1 ,.,1ctamentc. ,cundo un procedimiento o mecant~mo e~ un cxpenmen to en
1111 ~stra opinin. succptiblc de ser estudiado matemtic;uncntc mcd1antc un mo
.tdu no determinstico'! Previamente indicamos que debe ser pos1ble efc~tuar
11 n experimento repetidamente sin cambiar las mism;1s_ cond1c1onl:s ~cnctalc~.
p 1,demos agregar ahora otro requisito. Cuando el cxpcnmento se _realiza rer_cu.t.1mente debe presentar la regularidad c~tadi>tica a que nos rdenmos antenor
mente. Mils adelante d1scuuremos un teorema U11mado la ley de los grandes
numerosl que muestra que la regularidad e~tadsuca es de hecho una consecuen''" de la pruncra condic16n : la repeticin.
1.7
14
lntroducdn a la probabilidad
1.7
t .7
t5
de ver mas
tar de que e 1 reclproco. del teoreman anterior
OIISIrvaci11 : tendremos ocas16n
e\
verdadero.
Esto
es.
si
ptA)
=
O,
en
general
no podemos concluir que A = ": porque
1111
l~o~y \ltuaciones en que astgnamos probabilidad cero a un suceso que puedl' ocurnr.
P(ur;. 1 A1)
11
P(A) = 1 - P{A)
podemos escribir S
Demosrracron:
~ ' obtenemos 1 = P(A) + P(A).
(1.4)
"t"l
rquc indica que cada vez que deseamos
Obwrvaci11 : este es un resultad o muy u 1 po
.
d
r susptA) podemos calcular P(A) en su lugar y obtener el resultado desea o po
~;;,~~it~. Veremos despus que en muchos problemas es ms rcil calcular P(A) que P(A).
1 1
+ P(8)
- P(A) n 8).
(1.5)
fiOIJKA
1.2
8 = (A n B) u (8 n A).
lotnNiuttin
lit
la prubobilidod
1.11
IIC
Por lo tanto
P(A u 8)
P(B)
= P(A) +
=
P(A
f"l
P(B
8)
f"l
A).
= P(A) -
P(A
f"l
B)
81
Teorema 1.4.
P(A
f"l
B) _ P(A
f"l
C)
(1.6)
e Y aplicar el
e como A u 8
resultado del teorema anterior. Dejamos Jos detalles al( lecto/
A Observackitln: una cxlensin. obvta del teorema antertor se sugiere por si misma. Sean
,, ... , A, sucesos cualesqutera. Entonces
P(A, u A, u .. u At) -
:[ P(A 1)
P(A,n A,)
I<J 2
1 1
~ r<J<r
..E ) P(A,nA1 n A,} +"+(- I)' 'P(A,nA,nnA.).
"
(l. 7)
Teorema 1.5.
cad o:servacin: este resultado es intuirivamentc atractivo. Porque dice que si 8 dtbt ocurrir
a ez que A ocurre, enlonces 8 es al menos lan probable como A.
1.8
Varias observaciones
t8
tntrtlduttln a t probabilidad
1.1>. Los articulos provemcntc<> de una lmca de produccin ...: c~as1f1can dclcctuoso~ ~~~
.1 r
(N) Se obscrv-1n los artculos y...: anota su condcon. Este proceso seco
11 110
uCteCtUOSOS
'
'
,:','.:,',
v~l
~rticulos,
er't'icadO
ayan v 1 .
cualesquiera que ocurra primero. Describir un cspaco mucstral para este
""1.
A 1 ,, est en el nrimcr
lugar ' B {b esta en el segundo lugar}.
UIIlO Sigue:
,.
' '
'
(a) Anote todos los elemento> del espacio muestra l.
(b) Anote todos los elementos de los sucews A ,.., B Y A u 8
"
5 10 15
50 libra~. Supo' ngase que al
1 9 Un lote conuene aruculos que pc~n .
.
~ ~ dos artculos de cada peso se encuentran all. Se ehgen dos anculo~ del l~te. lden:
lllltuese por X el peso del primer artculo elegido y por Y el peso. del segun~.o damculloia~~
111 11 5
= Y}
(b) {Y > X}
.
(e) El segundo articulo pesa el doble del pnmero.
(d) El primer artculo pesa 1O hbras menos que el segundo.
(e) El promedio de peso de los dos articulo' es menos de 30 hbras.
(a) {X
PROBLEMAS
1.1. Supngase que el COnjunto un iver~ l consta de los enteros positivos de 1 a 10.
Sean A - {2. 3. 4}, B = {3. 4, 5}. y e - {5, 6, 7}. Anote los elementos de los sguentel> conJUntos.
(a) A r-. 8
(b) A u 8
(e) A r-. 8
(d) A n (8 r-. C)
(e) A r-. (8 u C)
11
d
del
(iii) El circuito empieza a funcionar antes del tiem!>C? r, Y de;a de .unconar espu ~
tiempo 12 (en donde otra vez 11 < r1 son dos mtervi!IOs de uempo durante e pe-
1.4. Supngase que el cor ' mto universal consta de todos los puntos (x , y) cuyas coordenadas son enteros y quedan dentro o sobre el contorno del cuadrado acotado por las
rectas x = O, y = O, x - 6, y = 6. Indique los elementos de los COnjuntos siguientes.
(a) A ,. {(x, y) 1x 2 + y 2 S, 6}
(b) 8 = {(x, y) 1y S, x1 }
(e) e {(x, y) 1x S y 2 }
(d) 8 n e
(e) (8 u A) n C
1.5. Use los diagramas de Venn para establecer las Siguientes relac10ncs.
(a) A e: 8 y 8 e e implican que A e C
(b) A e 8 implica que A
(e) A e: B implica que 'B e: A
(d) A e 8 implica que A u e e: 8 u
(e) A n 8 = \) y e e: A implica que 8 n e = 11
ia
::0~;
1 lO. En un penodo de 24 horas. en un momento X. un nterruptor ~ pone en
tn "encenddo" Postenormcnte, en un momento y (todav.a en el m"mo per od .d
'
1
6 "pagado" Supngase que X y Y se m en
=An
rodo cspecilicado)
. .
(v) El ctrcuito funciona el doble de lo que sera mterrumpdo.
l.ll.
Sean A. B. y
1.12.
241
1.13. (a Demostrar que para dos sucesos cua lesquiera, A 1 y A 2 , tenemos P(A 1 u A 2)
S P(A 1)
+ P(A 2).
[Consejo: Use una induccin matemtica. El resultado que se indica en (b) se llama desigualdad de Boolc.)
1.14. El teorema 1.3 trata de la probab1hdad de que al menos uno de los sucesos A o
B ocurra. La propos1c1n S1gu1ente trata de la probabilidad de que exactamente uno de los
suce<;os A o B ocurra.
Demo>trar que (P(A n 8) u (8 n A) ~ P(A) + 1'(8) - 2P(A ,.., B}
1.15. Cierto tipo de motor elctnco falla por obstruccin de los COJinetes. por combustin del embobmado o por desgaste de las escobillas. Supngase que la probabilidad de
la obstrucc1n e> el doble de la de combustin, la cual es cuatro veces ms probable que la
inut1li1.acin de la' eseoh1lla~ ,C'ul e.~ la probabilidad de que el fallo sea por cada uno de
eso;. tres mecani;.mos'!
1. 16. Supngase que A y 8 >On sucesos para los cuales P(A) = x, P(8) = y. y P(A ,.., 8)
Expresar cada una de las probabilidades siguientes en trminos de x, y, y z.
(a) P(A u B)
1.1 7.
(b) P(A n 8)
(e) P(A u B)
= z.
(d) P(A n 8)
Supngase que A, 8 , y e son sucesos tales que P(A) = P(B) = P(e) = i. P(A ,.., 8)
P(A ,.., C) - A. Calcular la probabilidad de que al menos uno de los su
8, o e ocurra.
= P(C,.., 8) O, y
ccsos
A,
1.18. Una instalacin consta de dos calderas y un motor. Sea A el suceso de que el motor
est en buenas condiciones, 1mentras que los sucesos 8.(k = 1. 2) son los sucesos de que la
k-esima c:tldera est en buenas cond iciones. El suceso Ces que la in,talac1n pueda luncionar.
Si la instalac1n funciona cada ve que el motor y al menos una caldera 1unc1one. exprese
C y C en func1n de A y de los sucesos JJ,.
1.19. Un mecanismo tiene dos tipos de repuestos, digamos 1 y 11. Suponga que hay
dos del upo 1 y tres dclt1po JI . Defintr los sucesos A t . k = 1, 2, y 8 1, j = 1, 2, 3 como sigue:
A.: la k-sima unidad del t1po 1 esta funcionando correctamente ; 81: la j-sima unidad del
tipo JI est funcionando correctamente. Finalmente e representa el suceso: el mecanismo
funciona. Dado que el mecanismo funciona si al menos una unidad del tipo 1 y dos unidades del tipo JI func1onan, exprese el suceso e en funcin de los A. y los 81.
1'11
1 JI MPtO 2. 1. Supongamos que slo son posibles tres resultados en un experimento. digamos a ., a 2 y a 3 . Adems, supongamos que la ocuncncia de a. es dos
veces ms probable que la de a2 , la cual, a su vez, es dos veces ms probable que a3.
21
z.z
4p3
2.2
= ~.
P2 = '
Pt = ~.
EJt:MPLO 2.3. Se lanza una moneda normal. Sea A el suceso: {aparece una
cara}. Para evaluar P(A ) un anlisis del problema podra ser de la manera siguiente.
El es~acio muestra! es S = {0, l. 2}. en donde cada uno de Jos resultados representa
un numero de caras que ocurren. Por lo tanto P(A) = j! Este anlisis es obviamente incorrecto, puesto que en el espacio muestra! considerado anteriormente.
todos los resultados no son igualmente probables. A fin de aplicar el mtodo
anterior deberamos considerar en su lugar, el espacio muestra! S' = {CC, CS.
SC, SS}. En este espacio muestra! todos lo~ resultados son igualmente probables y.
por lo tanto. obtenemos para la solucin correcta a nuestro problema P(A) = i = !.
(1
= 1.2.
,N.
(b) E~coger al a::ar dos objeros entre N. objetos ~ignfica que .c~da 11110 de los
ures de objetos {sin con~idcrar el orden) ttcnc la m~ma pr~babtltdad de ser esl!og1do que cualquier otro par. Por ejemplo, si debemos eleg1r dos ObJetos a l azar
de (a 1, a 2 a 3, a 4), y luego obtener a 1 y a 2 es tan probabt7 como obt.ener az Y a3. :te.
Esta afirmacin nos lleva inmediatamente a la cuestin de cuan/os p~res dtfer.:ntes hay. Supongamos que hay K de tales pares. Entonces la probab tltdad de
cada par seria 1/ K. Muy pronto aprenderemos a calcular K. . .
(e) Escoger al a:ar 11 objews (n ~ N) entre N ObJetos S1g~11ica que cada
n-tuplo,a.,, a,, ... , a1 tiene tantas probabilidades de ser cscogtdo como cuallJUier otro n-tuplo.
Obs~rvacion antenormentc ya sugerimos que se debe tener mucho cuidado en la parle
cxpenmcnlat para a..cgurar que la suposctn ma1em11ca de escoger al azar ;e cumpla.
24
2.3
2.3
Mtodos de enumeracin
Mtodos de enumtrucln
l..l
25
~:a tia
FIGURA
2.2
Observaciti.' tambin este principio puede generalizarse como sigue: si hay k procedimientos y el i-simo procedimiento se puede hacer en 111 maneras. i = 1, 2.... k. entonces el
nmero de man~ras como podemos hacer el procedimiento 1, el procedimiento 2 o o el
procedimiento k est dado por 11 1 + n2 + + n,, suponiendo que los procedimientos no
se pueden realizar conjuntamente.
FIGURA 2.1
L,
Observacin: obviamente este principio puede extenderse a cualquier nmero de procedimientos. Si hay k procedimientos y el i-sirno procedimiento se puede hacer de,, maneras.
i = l. 2..... k. entoncos el procedimiento que consiste en l. seguido por 2, .... seguido por
el procedimiento k puede hacerse en n111 2 n, maneras.
La primera casilla se puede llenar en una cualquiera de las n maneras, la segunda de cualquiera de las (11 - l) maneras, ,y la ltima casilla de slo una
manera. P or tanto, aplicando el principio de multiplicacin anterior, vemos que
2.1
la caja se puede llenar de n(n - l)(n - 2) 1 maneras. Este nmero ocurre tan
a menudo en matemticas que presentamos un nombre y un smbolo especiales
para l.
Definicin. Si n es un entero positivo, definimos 11! = (n)(n - 1)(n - 2) 1
y lo llamamos n-factorial. Tambin definimos O! = J.
As el nmero de permutaciones de n objetos diferentes est dado por
l.'
r!(n ~ r)! = G}
11
") =
(r
P. =n!
r de esos objetos, O ~ r ~ n.
11(11 - l)(n - 2) (n - r
+ L)
n!
{11 - r)!
e=
n!
rl(n - r)!
11(11 -
1){n - 2) .. (n - r
+ 1) .
r!
br.
(a
p n!
" ' - (11 - r)!'
rl
o k
(2.2)
l .us nmeros (:) tienen muchas propiedades in teresantes de las cuales slo dos
mencionaremos aqu. (A no ser que se indique otra cosa. suponemos que ''es un
,ntero positivo y r un entero. O ~ r ~ 11.)
(a)
(b)
G) = (n~,)
C) G=:) +
=
(11
~ ').
1 ~ muy fcil verificar algebraicamente las dos identidades anteriores. Simplemente escribimos. en cada uno de los casos. el lado izquierdo y derecho de las
1dent1dades anteriores y notamos que son iguales.
Sm embargo, hay otro mtodo de verificar esas idcnttdades que hace uso de
la mtcrprctacin que hemos dado a (:). llamada el nmero de maneras de escoger r entre 11 objetos.
(a) Cuando escogemos r entre 11 objetos simultneamente "deJamos atrs~
(11
r) objetos y. por tanto. escoger r de n es equivalente a escoger (11 - r) de 11.
l:sta es precisamente la primera proposicin que se debe verificar.
(b) EsCOJamos cualquiera de los " objetos. sea este el primero. a,. Al elegir
r Objetos. a 1 est incluido o excluido pero no las dos cosas. Por tanto al contar
el nmero de maneras como podemos escoger r objetos. podemos aplicar e l princi pio de adicin tratado al comienzo.
J. 1
Si a, est excluido, debemos escoger los r objetos que se desean de los (n- 1)
objetos restantes y hay (, 1) maneras de hacer esto.
Si a, va a incluirse. slo (r - 1) objetos ms deben escogerse de los restantes (n - 1) obJetos y esto se puede hacer de (~ = l) maneras. Asi el nmero pedido
es la s11ma de esos dos. lo que verifica la segunda identidad.
. Ob~erva~in : en lo expuesto anteriormente los coeficientes binomiales (:) son signficauvos solo SI 11 y k son enteros no negativos con O ~ k $ n. Sin embargo. si escribimos
n(n- 1) (n -k
11!
k!(n
k)!
y as sucesivamente.
Utilizando esta versin extendida de los coeficientes binomiales. podemos indicar la forma generalizada c/elteortmtl t/el binomio:
=
~o
(") x
k
Esta serie es significativa para cualquier 11 rea l y para todas las x ta les como lxl < 1. Observemos que si 11 es un entero positivo, las series infinitas se reducen a un nmero finito de trminos puesto que en ese caso() Osi k > 11.
EmMI'I n 2.7. (a) Cuimtos comits de tres miembros se pueden elegir con
oc.ho personas? Pues~o que dos comits son el mismo si estn formados por los
m1smos m1cmbros (SIJ) considerar en el orden en el cual fueron elegidos), tenemos
= 56 comits posibles.
(b) i.Cuntas seales con tres banderas pueden obtenerse con ocbo banderas
diferentes? Este problema se parece mucho al anterior. Sin embargo, aqu el orden
constituye una diferencia, y. por lo tanto. obtenemos 8 !j5! = 336 seales.
(e) ~~grupo de ocho personas consta de cinco hombres y tres mujeres. Cuntos comlles que consten de dos hombres exactamente se pueden formar? Aqu
debemos hacer dos cosas~escoger dos hombres (entre cinco) y escoger una muJer
(entre tres). As obtenemos el nmero pedido (H U) = 30 comits.
(d) Ahora podemos verificar una proposicin formulada anteriormente decamos que el nmero de subconJuntos de un conjunto que tiene 11 elemdntos
es 2" (contando el conJunto vaco y el conJunto mismo). Simplemente clasificamo~ cada elem~nto con un uno o con un cero, sea que el elemento vaya a ser incluidO, o exclUido en el subconjunto. Hay dos maneras de clasificar cada uno
de los elementos, y hay n elementos. Luego el principio de multiplicacin nos
dtce que hay 2 2 2 2 = 2" clasificaciones posibles. Pero cada una de las
clasificaciones en particular representa una eleccin de un subconjunto. Por ejemplo. (1, 1, O, O, O, ,O) con~istiria en el subconjunto formado por a, y a 2 pre-
CU I1JUntO VaCO.
k!
- 3)"' (-3)(-4)(-7)
( 5
5!
'
+ x)
11
1)
observamos que la ll1ma expresin es significativa si n es cualquier nmero real y k es cualquier entero no negativo. As.
( 1
~~ntcnte.
1r
(2s0 Ws0 )
(11~0)
hlcs diferentes. todas las cuales tienen la misma probabilidad de ser escogidas.
Si los N artculos estn rormadosde r~> A y r 2 B (con r1 + ''2 = N). entonces la
prl1babilidad de que los n artculos elegidos contengan exactamente s 1 A y (11 - s,)
11 est dada por
(::) (, ~\.)
(~)
(La anterior se llama probabilidad lriperceomtricct y se encontr<ar de nuevo.)
Observacin: es muy importante especificar. cuando hablamos de escoger articulo~ ;~lazar.
,, l'SCOgemos con o sin sustiwcin. En una descripcin ms reahst;~ propondremos esta ltima. Por eJemplo. cuando ins~ionamos un nmero de artculos m;mufactumdo;, con el
obJeto de descubrir cuantos defectuosos podra haber, generalmente no pretendemos mspcccionar el mismo artculo dos veces. Previamente hemos observado que el nmero de maneras de escoger r objetos entre n. sin considerar el orden. est dado por (~) Fl nmero de
maneras de escoger r articulos entre n, con sustitucin. est dado por n'. Aqu estt1mos interesados en el orden en que se escogieron los artculos.
l'rubloouos
EJEMPLO 2 9. Supngase que escogemos dos objetos al azar entre cuatro
objetos clasilicados a, b, e, y d.
(a) Si escogemos sin sustitucin, el espacio muestra) S se puede representar
como sigue:
= {(a, b); (a, e); (b, e); (b, d): (c. d); (a, d)}.
Hay (i) = 6 resultados posibles. Cada uno de los resultados individuales indica
slo cules fueron IM dos Objetos escogidos y no el orden en que se escogieron.
(b) Si escogemos con sustitucin. el espacio muestra! S', se puede representar como stguc:
S' _
{(tl. a); (a. b): (a, e): (a. d): (b. a); (b. b): (b, e): (b, d);}.
(c. a): (c. b): (c. e): (c. d): (d. a); (d. b); (d, e): (d, d)
n!
La deduccin de esta frmula se deja al lector. Ntese que si todos los objetos
~Oit diferentes. tenemos 11,
l. i = l. 2.... k. y. por tanto. la frmula antenor
se reduce a 11 !, el resultado obtenido previamente.
Obs~rl'tldn mMsttmos una ,ez ma> en que la asignacin real de probabilidades a los
resultados mdovtdu<tles de un cspacto muestra! (o a una coleccin de resultados. es decir,
un suceso) es algo que.l!..O puede obtenerse matemticamente: debe obtenerse de otras consi
deraciones. Por CJemplo. podemos utilizar ciertas caractersticas de simetra del expenmcnto
para observar que todo> lo; resultados son igualmente probables. Nuevamente podemos
hacer un mtodo de muestreo (es dectr. escoger uno o varios individuos de una poblacin
especificada) de tal mancr:~ que sea razonable suponer que todas las elecciones son igualmente
probables. En muchos otros casos. cuando ninguna suposicin b-sica es aproptada, debemos
recurrir al enfoque de la frecuencia relativa. Repetimos 11 veces el experimento y anotamos
la proporcin de veces que ha ocurrido el resultado (o suceso) que se considera. Al usar sta
como una aproximacin. sabemos que es altamente improbable que esta frecuencia relativa
lt
.e ddcrcncoc de la probabo lidad verdadera (cuya e xistencia ha sodo especificada por nuestro
IIH>dclo tcnco) en u na cantidad a pareciabk si 11 .:s suficien temente grande. Cuando es im>osohlc hacer suposiciones razon ables acerca de la p robabilidad de un resu ltado y es tambin
olllP<lstble repetir el experimento un gran nmero de veces (debido a l costo o a constderacio"''' de uempo. por CJCmplo) es realmente muy poco significativo proscguor con un estudio
po obab1hstico del experimento e xcepto sobre una base completamente terica (Para una
nuta <tdtcoonal sobre el mismo tema, ver seccin 3.5.)
l'ROBLEMAS
2.1 En una habitacin se encuentra el siguiente grupo de persona;: 5 hombres mayores
liL 21.4 hombre> menores de 21.6 muJeres mayores de 2t y 3 muJeres menores de 21. Se chge
1111.1 persona al azar. Se definen los sucesos siguientes: A = (la persona es mayor de 2fl:
11
[la persona es menor de 21}: C ={ la persona es hombre}: D (la persona es muJCr}.
1 v;lluar las siguientes:
I'(B u D)
(b) I'(A V C)
()
2.2. En una habitacin 10 personas tienen insignias numeradas del l a l JO. Se e ligen
1res
personas al azar y se les pide que dejen la ha bitacin inmed iatamente y se anotan los
nmeros de las insignias.
(u) i.('ul es la probabilidad d e que el n me ro me nor de las insignias sea 5'1
(b) i.Cul es la probabilidad d e que el nme ro mayor de las insignias sea 5'1
2.3. (a) Supngase que se escriben tres dgitos t . 2 y 3 en un orden a leatorio. ,Cul es
1,1 probabilodad de que al menos un dgito ocupe su lugar propio?
(b) Lo mismo que (a) con los dgitos 1, 2, 3, y 4.
(e) Lo mismo que (a) con los dgitos 1, 2. 3, ,
(d) Doscutir tu respuesta de (e) sin es grande.
2.4.
11.
langana do> fichas numeradas (X, Y) una y otra vez sin susutucin. iC'ul e; la probabilidad
de que X+ Y 10'1
2.6. Un lote consta de 10 artculos buenos, 4 con pequeos defectos, y 2 con defectos
gr:tves. Se elige un artculo al azar. Encontrar la probabilidad de que:
(a) no tenga defectos.
(b) tcngu un defecto grave.
(c) que sea bueno o que tenga un defecto grave.
2.8. Un producto se arma en tres etapas. En la primera etapa hay 5 lineas de armado.
en la segunda etapa hay 4 lineas de arm:tdo. y en la tercera etapa hay 6 lnea~ de armado. De
cuntas maneras puede moverse el producto en el proceso de armado'?
2.9. Un inspector visita 6 mquinas diferentes durante el da. A lin de impedir a los opcradorc> que sepan cundo m~peccoonar. varia el orden de las visitas. i.Dc cuntas maner."
puede hacerlo?
2.
2.11. Hay 12 maneras en las cuales un artculo manufacturado puede tener un pcqueoio
defecto y 10 maneras en las cuales puede tener un defecto mayor. ;,De cuntas manera,
puede ocurrir un defecto menor y uno mayor? 2 defectos menores y 2 defectos noayores'?
2.12. Un mecanismo puede ponerse en cuatro posiciones digamos, a. b. c. y d. Hay 8 de
tales mecanismos en un sistema.
(a) i.Oe cuntas manerus puede instalarse este s"tema'?
(b) Supngase que dichos mecan ismos estn instalados en algn orden (lineal) pre-osignado. ,De cuntas maneras posibles se instalan los mecanismos si dos mecanismos adyacentes
no estn en la mismo posicin'!
(e) i.Cuntas maneras son posibles si slo se usan las posiciones a y b con la misma frecuencia?
(d) i.Cuntas maneras son posibles si slo se usan dos posiciones diferentes y una de ella'
aparece tres veces ms a menudo que la otra'/
2.13. Supongamos que de N ObJetos elegimos" al azar. con sustitucin. ;,Cu31 es la probabilidad de que ningn obJeto sea elegido ms de una >ez? (Suponga que n < N.)
2.14. De las letrasa.b.c,d,f'.y f, cuntas palabras de clave de 4 letras se pueden formar si.
(a) ninguna letra se puede repetir?
(b) cualquier letra se puede repctor cualquoer nmero de veces?
2.15. Suponga que (9l} ~ a y (949 ) - b. Expresar ('90,0) en funcin de a y b. [lndicaC"un
"" calcule las expresiones anteriores para resolver este problema.]
2.16. Una CUJa contiene esferas numeradas l. 2. . n. Se escogen dos esfera, al a1.1r
Encontrar la probabilidad de que los nmeros sobre las esferas sean enteros consecutiVO> ;.o
(a) las esferas se escogen sin sustitucin.
(b) las esferas se escogen con sustitucin.
2.17. /.Cuntos subconJuntos que contengan al menos un elemento se pueden formar
de un conjunto de 100 elementos?
2.22. r nmeros (O < r < 10) se escogen al azar (sin sustitucin) entre los nmeros O. l.
9. Cul es la probabilidad de que dos no sean iguales?
l'robllbllldd condlclmllll
1.1
\'
Cad:1 vez que calcularnos P(B 1A) estamos esencialmente calculando P(B)
al espacio muestra/ reducido de A en vez del espacio muestra! origin.tl ~ Consideremos el diagrama de Venn en la figura 3.1.
Cuando calculamos P(B) nos preguntamos qu tan probable es que estemos
, n 8, sabiendo que debemos estar en S, y cuando evaluamos P(B 1A) nos preI(Untamos qu tan probable es que estemos en 8 , sabiendo que debemos estar
en A. (Esto es, el espacio muestra! se ha reducido de S a A.)
Pronto daremos una definicin formal de P(B 1 A). Por el momento, Sin cmbarll" ~egui remos con nuestra nocin intuitiva de probabilidad condicional y conltlcraremos un eJemplo:
11111 rcs~cto
3. 1
Probabilidad condiciona l
(\ 1
Si escogemos co11 sustitucin, P(A) = P(B) =lo% = ~-Cada vez que elegirnos.
en el lote hay 20 artculos defectuosos de un total de 1OO. Sin embargo, si elegirnos sin sustitucin, los resu ltados no son completamente inmediatos. Todava
es verdad, naturalmente, que P(A) = ~- Pero, i.cul es el valor de P(B)? Es evidente
que con el fin de calcular P(B) deberamos conocer la composicin del lote, cua11do
se escoge el segundo artculo. En otras palabras, deberamos saber si el suceso A
ocurri o no. Este eJemplo indica la necesidad de presentar el siguiente concepto
importante.
Sean A y 8 dos sucesos asociados con un experimento t. Indiquemos con
P(B 1A) la probabilidad condicio11al del suceso 8, dado que A ha ocurrido.
En el ejemplo anterior. P(B I A) = ~3. Porque si A ha ocurrido. entonces al
sacar por segunda vez quedan slo 99 artculos. de los cuales 19 son defectuosos.
S
(1, 1)
S=
(2,: 1)
(l. 2)
(2, 2)
(2, 6)
(6, 1)
(6, 2)
(6, 6)
( 1o 6)
= {(x" x 2 ) 1 x. +
X2
= 10},
As A = {(S, S), (4, 6), (6, 4) y B = {(2, 1), (3, 1), (3, 2), . (6. S)}. Por tanto,
I'(A) = .6 y P(B) = ~. Adems P(B 1 A) = t, ya que el espacio muestra! es ahora
t, (que son tres resultados) y slo uno de ellos es consistente con el suceso B.
nc una manera semejante, nosotros podemos calcular P(A l B) = .~ .
Finalmente, calculemos P(A (') B). El suceso (A (') 8) ocurre, si y slo si la
urna de los dos dados es 1O y el primer dado indica un valor mayor que el segundo dado. Hay solamente un resultado y, por tanto P(A (') B) =-A. Si observamos
~uidadosamente los diversos nmeros que hemos calculado anteriormente, deducimos que se cumple lo siguiente:
P(B 1 A)
P(A (') 8)
P(A) .
FIGURA 3.1
34
Prohahllldad nulldmutl ,.
.\!1
lnd~k:ndcnda
1.1
IIAOB(II
f,.
en donde }40/J y f,. '>On las frecuencias relativas de los sucesos A ,...., B y A. rcspec!J\,tmcntc. Como ya lo hemos indicado (y como lo demostraremos ms adelante). si 11. el nmero de rcpellcioncs es grnde. f,.n 11 estar prximo a P(A ,...., B)
y r.. estar pr.\1111<1 a PI A). Por lo tanto. la relacin anterior sugiere que IIA O R ""
estar prxima a P(8 jA). As haccmo:. l.t siguiente definicin formal:
dado que
P(A)
P(A) > O.
(b) Es muy sencillo comprob.tr que P(B 1A) para un valor de A lijo. satisface los diversos
postu lado> de la probabilidad ecuacin ti.J). {Veo problema 3.22.) bw e,. tcncmo,:
( 1')
O <: J>(B I A) S I.
(2')
I'(S 1 A)
l.
(3')
P(B, u
/h 1 A)
(4')
P(81u8,u lt1)
para i t ).
(e)
Si A
S. P(8 1S)
1'181 1 A) + P(B 2 1 A)
si
81 r-. 8 2
= ~-
si
(3.2)
B 1 r-.8 1 = (l
40
30
70
20
ro
30
60
40
100
ollctna. escoge una mquina al azar. y descubre que cs. nu.cva. ,C~l es la probabilidad de que sea elctrica'? En trminos de la notacton tntroduc1da deseamos
calcularP(E I NJ.
.
.
, .
Slo considerando el espacio muestra! reductdo N (es dec1r. las 70 maq.utnas
nuevas), tenemos que: P(E I N)=~ = ~- Usando la definicin de probabilidad
co ndiciona l, tenemos que:
P(E n N) 40/ 100 4
P(E 1N) = P (N)- = 70/ 100 = 7.
La consecuencia ms importante de la delnicin de probabilidad condicio nal
se obtiene escribindola de la manera siguiente:
P(A n B)
/'(8).
(d) Con C<1da suceso /J e: S podemo> <ISocmr dos nmeros. P(B). la probabilidad (no
cond1cional) de 8 . y P!8 l A). la probabilidad condicional de B. dado que algn su~-cso A
(para el. cual P(A) 0) hu ocurndo. En general. esas dos medidas de probabilidad asignarn
probab111dadc> d"tmtas al suceso 8. como se md1c en los ejemplos prec.:edcnte>. En bree
estudtaremos un Importante c-Jso csx.>c1al en el cual P(B) y P(B A) son la misma
(e) Ntese que la probabilidad cond1c1onal esl defimda en trminos de la medida de
probabilidad no condicional P hlo cs.'' conocemos P(B) para cada 8 e: S podemos calcular
P(B A) para cada 8 e: S.
(3.1)
3.1
TABLA
Definicin.
P(8 A)
17
btoMPLO 3.2. Supngase que una oficina tiene 100 mquinas ca l culadora~.
Algunas de esas mquinas son elctricas (E). mientras que otras son manuales
(.\f) Adems, algunas son nuevas (N). mientras las otras son usadas (U). Latabla 3. 1 da el nmero de mquinas de cada categora. Una persona entra en la
}A O B
P(A n B)
l'rol!abllld ad Cllndklonl
1.1
= P(81 A)P(A)
(3.3a)
lo que equivale a,
P(A
n 8) = P(A i 8)P(8).
Por Jo tanto. necesitamos P(An 8), que puede calcularse de acuerdo con la frmula anterior. como P(8 1A)P(A). Pero P18l A) = ~ mientras que P(A) = !. Por
lo tanto
P( A n 8) = 4!/A
38
P(A. j A, , A. -
1).
(3.3b)
l.
00
(a) A n B - IJ
C
(b) A
eB
(e) B e A
FtGURA 3.2
Ntese que en dos de los casos anteriores P(A) ~ P(A 1 B). en un caso, P(A) ~
P(A 1 B), y en el cuarto caso no podemos hacer ninguna clase de comparaciones.
Anteriormente, usamos el concepto de probabilidad condicional, con el fin de
evaluar la probabilidad de la ocurrencia simultnea de los dos s ucesos. Podemos
aplicar este concepto de otra manera para calcular la probabilidad de un so lo
s uceso A. Necesitamos la siguiente definicin.
Definicin. Decimos que los sucesos B 1 , B 2 ,
cin del espacio muestra! S si:
(a)
B1 1"1 Bj
(b)
UB
= ~
para todo
, 8k
JIJ
Sin embargo, cada trmino P(A 1"1 B) se puede expresar como P(A 1Bj)P(B) y,
por lo tanto, obtenemos el llamado teorema de la probabilidad total:
P(A) = P(A 1 B,)P(B,)
P(A 1 B 2 )P(B2)
+ + P(A 1Bk)P(Bk).
(3.4)
13ste resultado representa una relacin muy til , ya que frecuentemente cuando
se busca P(A) puede ser dificil calcularlo directamente. Sin embargo, con la informacin adicional de que B ha ocurrido, podemos calcular P(A 1B) y entonces usar la frmula anterior.
EJEMPLO 3.4. Consideremos (por ltima vez) el lote de 20 artculos defectuosos y 80 sin defectos, de los cuales escogemos 2 artculos sin sustitucin. Nuevamente definimos A y B:
A = {el primer articulo elegido es defectuoso} ,
B = {el segundo artculo elegido es defectuoso} ,
+ P(B 1A)P(A).
i ,, j.
.1.1
P(B) = ~ !
= S.
+ ~ ~
!.
i= l
para todo
i.
FIGURA
3.3
:6:
y e,
40
1.2
t~rados por la _tercera es defectuoso. Se colm:an juntos todos los artcu los produCidos en una fila y se escoge uno al a:wr. ,,Cul es la probabilidad de que este
artculo sea dcfcctuo~o'!
Definamos los siguientes sucesos:
8,
Ahora P(~ ) = !. mientras que P(8 2 ) = P(8 3 ) = i. Tambin P(A 1 8.) = P(A IB1 )
= 0.02, mientras que P(A 1 BJ) = 0.04. Poniendo sus valores en la expresin anterior obtenemos P(A) 0.025.
Obsntacin. en qumtca se ha observad,, la siguiente analoga con el teorema de la
probabilidad total. Supngase que k matraces que contienen diferentes soluciones de la misma
sal, h~1cen un litro. Sea P(Br) el volumen del i-simo matraz y P(A J 8 1) la concentracin de la
soluctn en el i-simo matraz. Si combinamos todas las soluciones en un matraz y suponemos que P(A) indica la concentraci n de la solucin resultante, obtenemos:
P(A)
I'(A j lJ 1)P(8 1) -t
+ P(A j B.)P(B.).
:E~
P(A 1B!)P(B,) _
t P(A j B) P( Bi)
1, 2... ,k.
- 4
4) -O. O.
Ohwrwl'ion. otra vez podemos encontrar una analoga con el 1eorema de Ba)'C\. en
.uimica. En k matraces tenemos soluciones de la misma sal. pero de concenlractone\ dtre-rcntc~. Supongamos que el volumen total de la soluc1n es un lttro. Indicando el volumen
de la >olucin en el t-simo matra1 por P(8.) e mdicando la conccntractn de la sal en ese
rntsmo matraz por P(A IB1). encontramos que la ecuacin (3.5) da la proporctn de la c-anttdad
completa de sal encontrada en el i-stmo matraz.
(3.5)
= 0.4;
P(Sw 1 A)
= 0,3;
= 0.7;
P(So 1 B) = 0.7.
42
1'
Lo que realmente deseamos saber es P(..tl S..,), P(A 1S0 ) P(B 1Sw) y P(B 1S0 ).
Esto es, supo niendo que realmente escogimos un caramelo dulce. Qu decisin
estaramos ms inclinados a hacer? Comparemos P(A 1 Sw) y P(B 1 Sw). Utilizando la frmula de Bayes tenemos
PA IS
(
_
w) -
P(Sw i A)P(A)
P(Sw 1 A)P(A) + P(Sw 1 B)P(B)
~~
<0:.:...7)..:.:(_:0,6,..;.)_ _ = 7
{0,7)(0.6) + (0,3)(0,4) 9.
As. con base en la evidencia que tenemos (es decir. la obtencin de un cara-
= P(A
n B) =
P(B)
L!J = ~.
(
t)
En el problema 3.26 se le pide decidir sobre uno de los dos tipos. A o B. que
usted muestra. segn los tres resultados experimentales posibles que usted observa.
=1=
P(B).
=
B) =
P(A n B)
P(A n
P(B 1A)P(A)
P(B)P(A).
4-1
Defmicio.
3.3
(3.6)
40
70
30
100
~~ ~~ ~~
60
40
(a)
100
N~70
U~30
60
40
(b)
lOO
Esto es. hay 60 mquinas elctncas y 40 manuale~. Del total. 70 son nuevas mientras
que 30 son usadas. Hay muchas maneras de llenar los datos de la tabla, consistcntemente con los totales marginales dados. AbaJO anotamos algunas de esas
posibilidades.
~[
60
f42 281
70
U ~ ! ~ 30
60
40 100
(e)
Consideremos la tabla (a). Aqu 10das las mquinas elctricas son nuevas,
y todas las usadas son manuales. As hay una relacin obvia (no necesariamente
causal) entre las caractersticas de ser elctricas y ser nuevas. Igualmente, en la
tabla (b) todas las mquinas manuales son nuevas y todas las usadas son elctricas.
Otra vez parece existir una relacin definida entre esas caractersticas. Sin embargo.
cuando observamos la tabla (e) el panorama es muy diferente. Aqu no existe
una relacin aparente. Por ejemplo, 60 por ciento de todas las mquinas son elctricas y exactamente el60 por ciento de las mquinas usadas son elctricas. De modo
semejante, el 70 por ciento de todas las mquinas son nuevas, y exactamente el 70
por ciento de las mquinas manuales son nuevas, etc.... As, ninguna indicacin
nos muestra que las caractersticas de ser nuevas y Ser elctncas tengan alguna
relacin entre s. Naturalmente, esta tabla fue elaborada precisamente de modo que
exhiba esta propiedad. Cmo se obtuvieron los datos de esta tabla? Simplemente
aplicando la ecuacin (3.6); es decir, como P(E) = ~y P(N) = lo% debemos tener.
P(8 1A)P(A)
= &m (0,9)
3.4
46
La informacin que hemos dado no nos permtte seguir. a menos que sepamos
(o supongamos) que los dos mecanismos trabajan independientemente. Esta
puede o no ser una suposicin realista, que depende de cmo se acoplan las dos
partes. Si suponemos que los dos mecanismos trabajan independientemente, obtenemos para la probabilidad pedida (1 - p)l.
Ser muy importante para nosotros extender la nocin de independencia
a ms de dos sucesos. Consideremos primero tres sucesos asociados con un experimento, digamos: A, 8. C. Si A y 8, A y C, 8 y C, son mutuamente independientes (en el sentido dado anteriormente), entonces no se deduce, en general. que
no haya dependencia entre los tres sucesos A. 8 y C. El siguiente eJemplo (algo
artificial) ilustra este punto.
EJEMPLO 3.10. Supongamos que lanzamos dos dados. Definamos los sucesos
A. B y C. como sigue:
A
EJEMPLO 3.11. La probabilidad de cerrar cada uno de los rels del circuito
que se indica en la figura 3.5 est dada por p. Si to?os los rels funcionan indepcmhentemente ;.cul es la probabilidad de que extsta una comente en los termmales 1 y D?
Sea A1 el suceso que representa {rel i e,t(t cerntdo}. i = l. 2. 3.4. Sea E el su~'\!so que representa {la corriente pasa <k 1 .1 /):. Por tanto E
(A 1 n A 1l ~
(AJ n A4 ). (Note que A 1 f"\ A 2 y A 3 n A 4 no son mutuamente excluyentes.) Ast
P(E) = P(A 1 f"\ A 2 )
pz + 11 z _
+ P(A 3 n A4) -
r4 = 2Pz
_ p4.
P(8)P(C)
P(A n C) - P(A)P(C),
P(A n 8 n
e =
P(A)P(8)P(C).
(3.7)
(Hay 2" -
11 -
(3.8)
C(lmO
FtGURA 3.6
EJEMPLO 3.12. Supngase otra vez que en el circuito de la figura 3.6. la prcbabilidad de que cada uno de los rels est cerrado es p y que todos los rels func1onan independientemente. i.Cul es la probabilidad de que exista una corriente
entre los terminales 1 y D'?
Usando la misma notacin como en el eJemplo 3.11, tenemos que
P(E) = P(A 1 n A 2)
P(A~)
+ P(A 3 n
+ ps.
Para cerrar este capitulo indiquemos un;~ solucin muy comn, pero errnea.
del problema.
EJEMPLO 3.13. Suponga que entre sc1s pernos. dos son ms cortos que una
long1tud especthca. St ~e escogen dos pcrn<h al aLar. cul es la probabilidad de
que lo~ dos ms cortos sean los escogido,' Sea A, el suceso {el -simo perno elegido es corto}, i = l. 2.
48
( onl\idl'rSIICiUil\'' t'"JU\'fnitirll\
1.~
! ~ =k
=! ~ = fs .
Lo imporlantc. en realidad. e~ que aunque la respuesta es correcta. la identilicacin de ~con P(Az) es mcorrecta; ! reprc~nta P( A 2 1 A 1). Para evaluar P(Az)
en forma correcta. escnb1mo~
1.0
B'
3.4
49
La soluci n csqucmt ti c.t s1guicn te puede ser til para comprender el concepto
de probabilidad condicional. Supngase que A y B son dos sucesos asociados
con un espacio muestra! para el cual las distintas probabilidades se indican en
el diagrama de Venn que aparece en la ligura 3.7.
FIGURA 3.7
0.2
~--------------~
0.25
o
L-----A----~------~~A~'
FIGURA
3.9
Por lo tanto P(A n 8) = 0, 1, P(A) 0.1 + 0,3 = 0,4 y P(B) = 0,1 + 0.4 = 0.5.
En seguida. representemos las diversas probabilidades por las reas de los
rectngulos como en la ligura 3.8. En e<tda caso, las regiones sombreadas indican
el suceso 8 : en el rectilngulo de la izquierda representamos A n 8 y en el de la
derecha A' n B.
06
0.2
0.15
06
0.4
0.45
8'
B'
0.3
u~
0.15
A'
8'
0.4
81
0.3
0.4
' 0.1
3. 10
FIGURA 3.8
A'
F'tGURA
Finalmente, obsrvese que simplemente mirando la ligura 3.8 podemos calcular las otras probabilidades condicionales: P(A 18) = 1/5(puesto que 1/5 del
rea total rectangular que representa 8 est ocupada por A). P(A 'I 8) = 4/ 5.
50
PROBLEMAS
3.1. La urna 1 contiene x esferas blancas e y roJas. La urna 2 contiene: esferas blancas
y v roJas. Se escoge una csferu al a.tar de la urna 1 y se pone en la urna 2. Emonces se escoge
una esfera al azar de la urna 2. ,.Cul es la probabilidad de que esta esfera sea blanca'!
3.2. Dos tubos defectuosos \C confunden con dos buenos. Los tubos se prueban. uno
por uno. hasta encomrar los defectuosos.
(a)
(b)
(e)
(d)
3.3. Una CaJa contoene 4 tubos malos y 6 hucnos. Se sacan dos a la ez. Se prueba uno
<le ellos Y se encuentra que es bueno. i.Cual es la probabolidad de que el otro tambin sea bueno'!
_3.4. En el problema anteroor los tubos se vcrofiean sacando uno al azar. se prueba y se
repote el proceso ha,la que se encuentran los cuatro tubos malos. i.Cuiol es la probabilidad
de encontrar el cuarlo 1ubo malo.
(a} en la quoma prueba'!
(b) en la dcima prueba?
. 3.5. Su~ngase que A y 8 son dos su~'CSOs indcper.dicntcs asociados con un expcrimcnlo.
So la prob~bolodad de que A o 8 ocurra es igua l a 0.6. mientras que la probabilidad de que A
ocurra es ogual a 0.4. determinar Id probabiliddd de que B ocurra.
3.6. Vcinlc arlculos. 12 de los cuales son defectuosos y 8 no defectuosos, se inspeccionan
uno despus de Olro. Si esos artculos se escogen al azar, ,cul es la probabil oJad de que:
(a) los dos primeros :trliculo~ inspeccoonados sean defectuosos?
(b) los do~ primeros a11cu los inspeccionados sean no dcfccluosos'l
(e) cn1re los dos primero~ arlculos inspeccionados haya uno defec1uoso y uno no defectuoso?
3.7. Supngase que ICncmos 2 urna~. 1 y 2. cada una con dos caJOnes. La urna 1 1icne
una moneda de oro en un CaJn y una de plata en el otro. mientras que la urna 2 1iene una
mo~cda de oro en cada uno de los caJOnes. Se escoge una urna al azar; y de sta se escoge un
Cajor. al azar. La moneda cncomrada en este CUJn resulta -crdc oro. ,Cul es la probabilidad
de que la moneda provenga de la urna 2'1
e,
6>~
3.15. Dos personas lanzan tres monedas regulares cada una. Cul es la probabilidad
de que obtengan el mismo nmero de caras?
3.16. Se lanzan dos dados. Puesto que las caras muestran nmeros difercnles. ,cual
es la probabilidad de que una cara sea 4?
3. 17. En la fabricacin de cierto artculo se encuentra que se presenta un tipo de defectos
con una probabilidad de 0,1 y defectos de un segundo tipo con probabilidad 0,05. (Se supone
la independencia entre los tipos .de defectos). Cul es la probabilidad de que :
(a) un articulo no tenga ambas clases de defectos?
(b) un artculo sea defectuoso?
(e) suponiendo que un articulo sea defectuoso, tenga slo un lipo de defecto?
3.18. Verifique que el nmero de condiciones indicadas en la ecuacin (3.8) est dado
por 2" - n- l.
3.19.
3.8. Un bol<.o conloene !re; monedas. u n.o de las cuales esta acuada con dos c.oras mocoIras que las otras dos monedas son normales y no son sesgadas. Se escoge una moneda ;ol
aza~ ~el bolso Yse lanza cual ro ''-'CCS en forma succsova. Si cad<1 vez sale cara, ;.cul es la probabohdad de que s1" -.ea l<t moneda con dos car.IS'!
3.9.. ~n una f{tbrica de pernos. las mquinas 4. 8 y C fabrican 25. 35 y 40 por ciento de la
produccoon IOial, re;.pectovamcnlc. De lo que pwducen. 5. 4 y 2 por ciento. respectivamente.
son pernos dcfectuo~os. Se e\C<lgc un perno al a1.ar y se encuentra que es defectuoso. ,Cul
es la probabolod"d que el perno provenga de la mquina A'/ 8'! Cl
. 3.10. Sean A y 8 do\ su~x:so~ asocoado~ con un experimento. Supngase que P(A) ~ 0.4
moentras que P(A v 8) 0.7. Scu P(8) p.
(a) ,Para qu eleccin de p ~on A y B mutuamente excluyentes?
(b) i.Para qu eleccin de p son A y 8 indepcndienles'!
8, A y 8, A y B.
(a)
(b)
FIGURA 3.11
3.20. En la figura 3.11 (a) y (b) se supone que la probabilidad de que cada rel est cerrado es p y que cada rel se abre o se cierra independientemente de cualquier otro. Encontrar en cada caso la probabilidad de que la corriente pase de 1 a D.
52
t>rohlcnu"
Nmero
de fallas
!l.l
3.27. Cada vc1 que 'e hace un experimento. la ocurrencia de un suceso particular A es
1ual a 0,2. El experimento se repite. indepcndcntcmente, ha;,ta que A ocurre. Calcule la proll.lbJhdad de que sea necesario realizar un cuarto experimento.
3.2
0.1
0.2
0.3
0.2
0.09
0.07
0.04
0.3
0.1
0.1
0.1
0.1
0.15
0.15
3.28. Supngase que un mecanismo tiene N tubos. todos los cuales son necesarios para
u fuocJonamicnto. Para localizar el tubo que func1ona mal. se reemplaza sucesivamente
~.1da uno de ellos pOr uno nuevo. Calcular la probabilidad de que sea necesario verilicar N
tubos si la probabilidad (constan te) es p de que un tubo est daado.
3.29.
Probar : Si P(A 1B) > P(A) entonces P(8 1A) > P{8).
3.30. Un tubo al vaco puede provenir de uno cualquiera de tres fabricantes con prolmbilidadcs p1 0,25, p2 ~ 0,50 y p3 = 0,25. Las probabi lidades de que el tubo funcione
~orrectamen te durante un perodo de tiempo especilicado son iguales a 0.1, 0.2 y 0,4. respecllvamente, para los tres fabricantes. Calcular la probabilidad de que un tubo elegido alcatonamenle funcione durante el perodo de tiempO especilic:tdo.
3.31. Un sistema elctrico consta de dos interruptores del tipo A, uno del tipO B. y cuatro
del tipO C. conectados como aparece en la ligura 3.12. Calcule la probabilidad de que no sc
rueda elimmar una falla en el circuito. con la llave K slos mtcrruptores A. By C estn abiertos
(C> decir. fuera de servicio) con probabilidade' 0.3. 0.4. 0.2. respectivamente y si dlns funCIOnan independientemente.
3.22. Al vcrilicar la ecuacin (3.2), se observa que para A liJO. P(8 1 A) satisface los diversos postulados de la probabi lidad.
3.23. Si cada uno de los elementos de un determ inante de segundo orden es cero o uno.
cu l es la p_robabilidad de que el valor del determinante sea positivo? (Supngase que las
entradas mdiVIduales del determmantc se escogen independientemente, se supone que cada
uno de los valores tiene probabilidad!.)
. 3.24. Verifique que el teorema de la multiplicacin P(A r1 B) = P(A 1 8)P(8), estableCido para dos sucesos. se puede generalizar p.ra tres sucesos como sigue:
P(A rl B rl C)
= 0,20
3.26. Finalice el anlisis del ejemplo dado en la seccin 3.2 decidiendo cul de los tipOS
de tarros de caramelos. A o B. es el escogido con base en el conocimiento de los dos caramelos que fueron muestreados.
fiGURA
3.12
S4
3.35. En una ciudad se publican los peridicos A, B y C. Una encuesta reciente de lectores indica lo siguiente: 20 por ciento lee A, 16 por ciento lee B, 14 por ciento lee C, 8 por
cien to lee A y B, 5 por cien to lee A y C, y 2 por ciento lee A, B y C. Para un adulto escogido al azar, calcular la probabilidad de que (a) no lea ninguno de los peridicos (b) lea exactamente uno de los peridicos (e) lea al menos A y B si se sabe que lee al menos uno de los
peridicos publicados.
4
Variables aleatorias unidimensionales
56
Vurablr~
nlculora' unldlrncn,Junulcs
4.t
(e) En algunos cabos el resultado ' del c~pac1o muestra! es ya la caracterstica numrica
que queremos anotar. Sencillamente tomemos X(s) o: s. la funcin identidad.
. (d) En la mayora de las di~cusione, de variables aleatorias que siguen. no necesitamos
md1car la naturale7a funciomtl de X . Generalmente nos tnleresamos en Jos valores po.,ibles
de X. en vez de mdagar de dnde provienen esos valores. Por ejemplo. supongamos que lanza.
mos dos monedas y con,1dcremos el espacio muestra! asociado con este experimento. Esto es,
S
{CC.CS. SC.SS I.
Definamos la vanable aleatorm X como "gue: Y es el nmero de caras obtenida,. en los dos
huuamientos. Por lo tanto \'(('(') .:!. ,\((SI - .\'(SC) "' 1. y X(SSJ =o.
F IGURA 4. 1
JC) Es muy importante comprender ljue una exgcnc1a bsica de una funcin (una-variada):
a cada" e S le corresponde Hactameme un valor X(s). Esto se demuestra esqucmilticamcnte
en la figura 4.1. Valore> diferentes de s pue1lm dar el mismo valor de X . Por eJemplo en la
ilustracin anterior encontramo; que X(CSI X(SC) = l.
El espacio Rx. el conJunto de todos los valores posibles de X, se llama algunas veces el recorrido. En ciertos sentidos podemos considerar a Rx como
otro espacio muestra l. El espacio muc'>tral (original) S corresponde a los resultados
no numricos (posiblemente) del experimento. mientras que Rx es el espacio muestra! asociado con la variable aleatona X. que representa la caracterstica numnca
que puede ser de mtcr-,. Si X(s) - s. tenemos S = Rx.
~un~uc cMamos consc1cntcs del peligro pedaggico que existe al dar muchas
exphcac~one~ de la m1sma coMJ. sealemos sin embargo que podemos concebir
una \'anable aleatona X de dos maneras:
(a) Realizamos el cxpenmcnto r. que tiene como resultado s E S. Luego evaluamos el nmero ,\ (s).
(b) Efectuamos c. y obtenemo~ el resultado s. e (inmediatameme) calculamos X(s). El nmero .\ (.~) se considera entonces como el resuhado obtenido en
el experimento y Rx llega a ser el espacio muestra! del experimento.
. La dtfcrencta entre las Interpretaciones (a) y (b) es muy dificil de captar. Rela!Jv~mentc es muy pequea. pero es digna de atencin. En (a) el experimento
termma. de hecho. con la observacin de s. La evaluacin de X(s} se considera
como algo que se hace posteriormente y que no est afectada por la aleatoriedad de 1:. En (b) se considera que el experimento no est terminado hasta que
1.1
57
58
4.1
As como nos interesamos por los sucesos asociados con el espacio muestra!
S, tambin ser necesario tratar sucesos con respecto a la variable aleatoria X.
esto es, subconJunto del recorrido Rx. Muy a menudo ciertos sucesos asociados
con ~ estn relacionados (en un sentido que luego describiremos) con sucesos
asoc1ados con Rx de la manera siguiente.
Definicin. Sea e un experimento y S su espacio muestra!. Sea X una variable aleatoria definida en S y sea Rx su recorrido. Sea B un suceso respecto a Rx ; eslo es, Be: Rx. Supongamos que A se define
A = {se S I X(s)
B}.
(4.1)
valemes.
-- - -
f iGURA
4.2
Obser~c1anes: (a) Expresando ms informalmente lo anterior. A y 8 son sucesos equivalentes Siempre que ocurran JUntos. Esto es. siempre que A ocurre, ocurre 8 y viceversa.
Si ocurri A. en ronces se obruvo un resultado s para el cual X(s) E 8 y por lo tanto ocurri
B. R~procamentc, si 8 ocurri, se observ un valor X(s) para el cual sE A y por lo ranto
ocumo A.
(~) Es importante destacar que en nuestra definicin de sucesos equivalentes, A y 8 estn
asoc1ados con espacios muestralcs dlferenres.
!N
.'i
u:.
implicara alguna dilicultad terica que queremos evitar y, por tanto, prosegUiremos como
antes.
(e) Puesto que en la formulacin de la ecuacin (4.2) los sucesos A y 8 se rcliercn a espacios mucstrales diferentes, realmente deberamos usar una notacin diferente cuando nos
referimos a las probabilidades .definidas en S y para las definidas en Rx, por CJemplo algo
como P(A) y Px(B). Sin embargo, no haremos esto ~ino que continuaremos escribiendo simplemente P(A) y P(B). El contexto dentro del cual aparecern estas expresiones harn evidente la interpretacin.
(d) Las probabilidades asociadas con sucesos en el espacio muestra! S (orip.inal) cst~n,
en un M:n tido, dclcrminadas por fuerzas que escapan a nuestro control>> o, como _se d1ce
algunas veces ((por naturaleza. La constitucin de una fuente radioactiva que em1te partculas. la d1~.tribucin de un gran nmero de personas que podra hacer una llamada telefnica durante cierta hora y la agitacin trmica que resulla de una corriente o las condiciones atmosfricas que dan origen a una fuente de tormenta. ilustran este punto. Cuando
introducimos una variable aleatoria X y >U recorrido asociado Rx. ndudmo.< probabildade:. sobre lo~ sucesos asociados con Rx que se determinan e.~trictamente si las posibilidades
asocrada:. con los sucesos en S estan espco.:ficadas.
EJilMPt.O 4.4. Si las monedas consideradas en el eJemplo 4.3 son <mormales. tenemos P(CS) = P(SC) =!. Por tanto P(CS. SC) =! + ! == !. (Los clculos anteriores son una consecuencia directa de nuestra suposicin bsica que
se refiere a la regularidad de las monedas.) Puesto que el suceso {X = 1} es equivalente al suceso {CS.SC}. usando la ecuacin {4.1), tenemos que P(X :.. 1) =
P{CS. SC) = 1. [Realmente no haba eleccin acerca del valor de P(X = 1), consistente con la ecuacin (4-2), una vez que se determin P(CS. SC). En e~te sentido se inducen las probabilidades asociadas con sucesos Rx.]
Ob.,ervodtln: ahora que hemos establccdo la existencia de una funcin de probabilidades inducidas sobre el recorrido de X (ecuaciones 4.1 y 4.2) encontraremos conveniente suprimir la naturaleza funcional <le X. Por lo tanto escribiremos (como lo hicimos en el eem-
641
.. Una vez q.ue se han determinado (o ms exactamente inducido) las probabilidades asoc1adas con varios res ultados (o sucesos) en el recorrido Rx ignoraremos a menudo el cspac10 muestra! original S que dio lugar a esas probabilidades. As. en el eJemplo anterior. estamos simplemente interesados en RA = {0.
l. 2} Y las probabilidades asociadas (!.t.!). El hecho de que estas probabilidades estn determinadas por una funcin de probabilidad definida en el espacio
muestra! ongmal S no nos preocupa SI estamos interesados slo en estudmr los
valores de la vanable aleatoria X.
Al discutir. en detalle. muchos de los conceptos importantes asociados con
variables a~eatorias. enc~ntra_rcmos conveniente distinguir dos casos importantes: las var~able~ aleatonas d1scretas y las continuas.
4.2
Definicin. Sea ,\ una variable aleatoria discreta. Por tanto Rx. e l recorrido
de ,\ . con~ta. a lo ms. de un nmero de valores. x1.x2. mnmto numerable. Con cada resultado posiblex1asociamos un nmero p(:<)
P( .\ = X).
llamado la probabilidad de x1. Los nmeros p(x,). i
l. 2. deben
~allsfacer las condiciones siguientes:
(al
p(x) ~
(bl
(4.3)
para todo i.
p!x,)
l.
EJEMPLO 4.5. Una fuente radioactiva emite partculas alfa. Un contador observa la emisin de esas partculas durante un periodo de tiempo especificado.
La siguiente variable aleatoria es de inters: X = nmero de partculas observadas. i.Cules son los valores posibles de X? Supondremos que estos valores
constan de todos los enteros no negativos. Esto es, Rx = {0. 1. 2..... n, .. }.
Una objecin que vimos anteriormente puede aparecer de nuevo en este punto.
Podra argirse que durante un intervalo de tiempo especificado (finito) es Imposible observar m> de N partculas, por eJemplo. en donde N puede ser un
entero positivo muy grande. Por tanto los valores posibles de X realmente serian:
O, l. 2. . N. Sin embargo resulta que matemticamente es ms sencillo considerar la descripcin Idealizada dada anteriormente. De hecho. cada vez que
suponemos que los valores posibles de una variable aleatoria X son infinitos
numerables estamos cons1derando en ese momento una representacin idealizada de X.
F IGURA
4.3
0/l.wrtJCiciones : (a) La eleccin particular de los nmeros p(x,) posiblemente ~stit dctcnm
11uda por la funcin de probabilidad asociada con sucesos en el espacio muestra! S sobre
d cual se define X. Esto cs. p(x 1) = P(s 1 X(s) = x 1). (Ver ecuaciones 4.1 y 4.2.) Sin embargo.
1111~'to que slo estamos interesados en los valores de X. eslo es Rx. y en la, probubdidadcs
1w~iadas con esos valores, omitimos nuevamente la naturaleza funcional de X. (Ver figu1.1 4.31. Aunque en la mayoria de los c-asos. de hecho. los nmeros se dclcrminar:in de la distllhucln de probab1hdades en algn espacio muestra! fundamcnla l S. n~tdcuiN conJunto
tic nmero. p( ,,que ~usfaga la ecuacin (4.3) puede ~erv1r como una dc,cripcin probabl
ll\ltca propm de una variable alea10ria discreta.
tbJ St ,\ toma slo un nmero linito de valores. por CJemplo '(,. ..'(,. cnloncc'o p(\) - O
para 1 > N. y por lo tanto la serie infimta en la ecuacin (4.3) lle~a a -.cr una <,urna fimta
{e) Nuevamente podemo ob.enar una analogia con la mcc<in1ca al cons1dcrar una ma>a
hltal unttana d1s1nbU1da sobre la recta real con la masa completa ub1cada en lo .. puntos
' 1 '(z, Los nmeros p(x,) representan la cantidad de masa ub1cada en '
(d) La mterprctaC1n geomtrica (figura .t.4) de una d1s1nbuctn de probahllidad~-. C'o
,tempre uttl.
p(.'()
~~~~~~~-x
x 1 x 2 xa
FIGURA
x,.
4.4
FIGURA 4.5
62
4.2
Sea B un suceso asociado con la variable aleatoria X. Esto es Be R11 (figura 4.5).
Especficamente, supongamos que B = {x1,, x12, -}. Por tanto
P(B) = P[siX(s)e B]
= P[siX(s) = x,.j =
1, 2, ] =
"'
L:
p(x).
P(A) =
(4.4)
..
p(211) =
:1
j = 1
3
16
= 1~(1 +-J\+)
Observaciones: (a) Supngase que la variable aleatoria discreta X puede tomar slo un
nmero finito de valores, por eJemplo x, . "" S cada resultado es igualmente probable,
obviamente tenemos p(x 1 ) = = p(x,.) = 1/N.
(b) Si X toma un nmero infinito numerable de valores, entonces es imposible tener todos
= 16 1 - ; . : 5.
lQL!:CSultadqs igualmente probables. Porque no podemos satisfacer posiblemente la cOdicin I:~ , p(x1) = l si debemos tener p(x1) = e para todo i.
(e) En cada intervalo finito habr cuando ms un nmero finito de valores posibles de
X . Si uno de tales intervalos no contiene ninguno de los valores posibles le asignamos probabilidad cero. Esto es, si Rx = {x,x 2 , , x.} y si ningn x1 e(a,b), entonces P[a ~ X
::; b)
=o.
+.- - +,- - - +, .. }.
= n) = (if- '(l),
= !, 2,
..
Para verificar que estos valores de p(n) satisfagan la ecuacin (4.3), observemos que
L
G()
p(n) = -3 ( 1 + -1 + -1
4
=_*=1.
16
+ ...)
1>3
4.3
3
256
+ ...
La distribucin binomial
,1
EJtMPL.O 4.7. Supngase que los artculos que salen de una lnea de produci:In se clasifican como defectuosos (D) o no defectuosos (N). Supongamos que se
11gcn al azar tres artculos de la produccin de un da .Y se clasifican de acuerdo
con este esquema. El espacio muestra! para este cxpcnmcnto, d 1gamos S, puede
descri birse as:
6-1
4.3
X=
X=
X=
X =
O
1
2
3
si y slo si ocurre
si y slo si ocurre
si y slo si ocurre
si y slo si ocurre
P(X _ x 1)
NNN:
DNN. NDN. o NND:
DDN. DND, o NDD;
DDD.
= P(X
= O)= (0,8)3,
2
p(t)
= P(X
p(3)
binomial
L.__
1) = 3(0,2)(0.8)2.
P(X
~l,trlboa<UNI
~0)
l.o
11
3) = (0.2)3.
licnen las probabilidades dadas por el ejemplo 4.7, que determina el valor de p(.~) para todo
xeRx.
Bemoullt.
(4.5)
t:
JI -
EJI \11'1 u. 4.8. Supongamos que un tubo de rad1o puesto en cierto tipo de
t:quipo tiene una probabilidad de 0.2 de funcionar ms de 500 horas. Si probamos
20 tubos. ,cul es la probabilidad de que exactamente k de ellos funcionen ms
de 500 horas. k - O, 1, 2, . 2CY/
Si X es el nmero de tubos que funcionan ms de 500 horas. supondremos
c.ue X tiene una distribucin binomia l. As P(X = k) "" ( 2k0 )(0,2)k(0.8)2 - k.
Los s iguientes valores pueden leerse en la tabla 4.1.
TABLA
---;x = 0) = 0.012
P(X
= 4) =
4.)
0,218
P(X - 8) = 0,022
= 0.007
P(X
= 1)
0.05!!
P(X = 5)
= 0.175
P(X
9)
P(X
= 2) =
0.137
P(X = 6) = 0.109
P(X
10)
P(X
= 3) = 0.205
= 7) =
P(X
k) =
P(X
0.055
= 0,002
para k
11
66
Variablf:)
.. 1
ale11oria~ unidinN!ft~ioaal~
1>7
P(x)
11 2 ) ~ r
mx (0. k -
S m in (k, 11, ).
P(X
k)=,
1,
1
O 1 2
3 4
S 6 7
P(X = 3)
P(X = k)=
8 9 10 11 12 13 14 15 16 17 18
FtGURA 4.6
=HH +HH + HH + HH -= h
l'or eJemplo, si Pt
llega a ser
P(X
E ( r')p;(l- p)"' - (k -
11 2
11
=<>
= 2) =
t (' 0) (0,2)'(0,8)'
,or
'(
10. y k
)P~- '(1
- Pz)"'-H'. (4.6)
= 2. la probabilidad anterior
lO ) (0.1) 2 - '(0.9)
2-r
'
= 0,27,
1')
1 ecuacin (4 6) se reducira a
~:r~
r-.
q~e
P(x = k)
Para mo strar que la suma antertor iguala (:) comprense stmplemente los coclictcnte:. de
las potcnctas
de x' en ambos lados de la idcnttdad [1 + ")'' ( 1 + x )" [1 + x)'' ..,
4.4
11
P{x)
ldllllillllillld 11 !-.
((j IJnu consccucncta de la descripcin probabilstica de X pura cuulqui<r valor cspcc111 n tic X por ejemplo x 0 es que tenemos P(X = xo) = O. puesto que P(X
x.,) f~~{(x)dx
n 1 ,e rc\ultado puede parecer muy contraro a nuestra intuicin. Debemos establecer.
111 embargo. que SI permitimos que X tome todos los valores en un mtervalo. entonces la
puhab1hdad cero no es equivaleme con la imposibilidad. Por tanto, en el caso con tinuo.
1~ tJ ()no implica A =~-el conjunto vaco. (Ver teorema l. l.) Para decirlo de un modo
llll m formal. consideremos que elegimos un punto al azar en el segmento {x 1O S ~ S 2}.
t\unquc quisiramos estar de acuerdo (como un objetivo matemtico) con que ccu/u punto
nn~cb1ble del segmento pud1csc ser el resultado de nuestro expenmento. no> sorprende
1111110' mucho si en realidad escogiramos precisamente el punto medio del segmento. o
,utlqu1cr otro punto especfico de ese elemento. Cuando indicamos esto en un lenguaje ma
h 1n.1t1CO preciso. decimos que el suceso tiene probabilidad 0. En v1sta de estas consldera(lunc,.la~ sigu1entcs probabilidades son todas iguales si X es una variable alea tona continua:
P(c S X S d).
FIOURA 4.7
(d) Aunque no verificaremos los detalles aqui. puede demoMrarse que la untenor a~1gna
de probabilidades a los sucesos en Rx satisface los axiomas bi1sicos de probabilidades
((u:tcin 1.3), en donde podemos tomar {x 1 - oo < x < + oo} como el e>pacio muestra l.
(e) Si una funcin satisface las condiciones, f *(x) ~ O. para lodo x. YJ ~ / *(x)dx
K.
t'll donde K es un nmero positivo real {no necesariamente igual a 1), entonces tw satislu~c todas las condiciones para ser una fdp. Sin embargo. podemos delnir ftcilmcnlc una
nueva funcin, por ejemplo f, en funcin de como sigue:
, 11111
Definicin. Se die~ yue X es una variable al~tutoria concinua si existe una funcin
f llamada funcin de densidad de probabi lidad (fdp) de X, que satisfce las
siguientes condiciones:
(b)
(e)
para todo
x.
f(x) =f*(x)
: f(x)dx = l.
(4.7)
l'm tanto
+ oo.
(4.8)
y X= d.
para todo x.
(O Si X slo toma valores en un intervalo lnito (a, b], simplemente podemos establecer
O para todo x .,[a, b). Por tanto la fdp est delnida para Jodo., los valores reales de
1, y debemos exigir que f! ':f(x)dx
l. Cuando quiera que la fdp se especifique slo para
(lcrlos valores de x. ~upondremo.s qu~o pa~lquier otro.
(g) i/(.x) no representa la probabilidad de nada! Hemos observado ~~tes qu: P(X
2)
O. por ejemplo. y por tanto f{2) ciertamente no representa esta probabohdad. Slo cuando
la func1n se integra entre dos lmites produce una probabilidad. Sin embargo. podemos
dar una mterprctacin de f{x)x como sigue. Del teorema del valor med1o del clculo ~
deduce que
/( ~)
.X
/(x)
~
FIOURA
4.8
'X
S' S x
+ x.
J(x)
1,
{ O,
f(x)
0 < X< 1,
L---+-----------~---x
X=tSOO
FIGURA
4.9
FIGURA
4.10
f(x) = 2x,
= O,
0 <X< 1,
71
tt
P(X 5 -z
')
s; X 5 :J
P(t 5 X ::; !)
= 1'(-}
s; X s; J)
J: 1 ~ 2xdx
5/36
= Jii~2xdx = 1/3
= 12
EJtiMPLO 4.13. Sea X la duracin (en horas) de cierto tipo de bombilla elctrica. Supngase que X es una variable aleatoria continua y supngase que la fdp
f de X est dada por
J(x)
= af x 3 ,
= O,
1500 5 x 5 2500,
para cualquier otro valor.
= 2: p(x).
(4.9)
4.5
F(x) =
..,J(s)ds.
F(x)
(4. 10)
:b !
FIGURA 4. 12
1
3
o X
FIGURA 4. 11
EJEMPLO 4.14. Supongamos que la variable aleatoria X toma los tres valores
O, 1, Y 2 con probabilidades;, i , y t. respectivamente. Entonces
F(x) =O
= !
= t
= 1
si
si
si
si
X< O,
0 ~X < 1,
J ~X < 2,
X~ 2.
4.15.
0 < X< J,
para cualquier otro valor.
= O,
Por lo tanto la fda F est dada por
F(x)
=O
=
= 1
si
SI
si
x ~ O.
0 < X S J.
x > l.
={ X~
x.},
rx2sds = x 2
Jo
Los grficos obtenidos en las figuras 4.11 y 4. 12 para las fda (en cada uno de
los casos) son muy tpicos en el siguiente sentido.
(a) Si X es una variable aleatoria discreta con un nmero finito de valores
posibles, el grfico de la fda F se formar de trazos horizontales (se llama funcin
escalonada). La funcin F es continua excepto para los valores posibles de X ,
llamados, x., , x. En el valor x1 el grfico tendr un salto de magnitud
p(Xj) = P(X = XJ)
(b) Si X es una funcin aleatoria continua, F ser una funcin continua para
todo x.
(e) La fda F est definida para todos los valores de x , lo cual es una razn
importante para considerarla.
Hay dos propiedades importantes de la fda que resumiremos en el teorema
siguiente.
F(co)
x- -w
lim
x -~
fx-,.,f(s)ds =
74
4.5
P(X = x). _Esa ~r_obabilidad es siempre igual a cero en el caso continuo. Sin embargo.
podemos mqumr acerca de P(X :s; x) y, como lo demostramos en el prximo
teorema, obtener la fdp de X.
J)istribuciones mixtas
4.6
EJEMPLO
4.16.
dada por
F(x) = O.
x ;S O,
=1-e-"'.
x >O.
Teorema 4.4. (a) Sea F la fda de una variable aleatoria continua con fdp .
Luego
f(x)
Entonces
= dxd F(x),
F'(x)
=e
"' para x
(4.12)
= P(X = XJ u
=p(x)+ p(x1 _
= X
1 )
u u X = x.)
+ + p{x 1).
Luego
= p(x1).
. _Obsert'tlci6n : reconsideremos brevemente (a) del teorema anterior. Recordemm la delimcn de denvada de la funcin F:
. F(x + 11) - F(x)
F'(X ) -_ 11m
-
11
= lim P(X S x + 11) - P(X S x)
-
lim
.--o
O,
p(x1)
75
11
1
[P(x < X S x
1'
+ 11)).
Observacin: una advertencia sobre la terminologa puede ser de utilidad. Esta terminologa, aunque no es muy uniforme, ha llegado a estandariz.arsc. Cuando hablamos de la
distribucin de probabilidades de una variable aleatoria X indicamos su fdp f si X es contmua, o de su funcin de probabilidad puntual p definida para x 1 x:. s X es discreta
Cuando hablamos de la funcin de distribucin acumulativa, o algunas veces slo de la
funcin de disuibucitl, siempre nos referimos a F, en donde F(x) = P(X S x).
4.6
Distribuciones mixtas
Hemos restringido nuestra exposicin slo a variables aleatorias que son discretas o continuas. Tales variables aleatorias ciertamente son las ms importantes
en las apl icaciones. Sin embargo, hay situaciones en las cuales podemos encontrar
va riables del tipo mixto: la variable aleatoria X puede tomar ciertos valores distintos, por ejemplo x 1 , , Xn , con probabilidad positiva y tomar tambin todos
los valores en algn intervalo, por ejemplo a :s; x :s; h. La distribucin de probabilidades de tales variables aleatorias se obtendra al combinar las ideas consideradas
anteriormente para la descripcin de las variables aleatorias discretas y continuas
como sigue. A cada uno de los valoresx se le asigna un nmero p(x) tal que p(x} ~ O,
para todo . y tal que I: . 1 p(x1) = p < l. Entonces delinimos una funcin f que
satisface f(x) ~ O, J!f(x) dx = l - p. Para todo a. b. con - c:o < a < b < + c:o,
P(a :s; X ::;; b) =
f(x}dx
As si 11 es pequeo y positivo
F' (x)
= /(x) ,
P(x
<X S
h
+ "l.
Una variable aleatoria del tipo mixto puede aparecer como sigue. Supngase
que estamos probando un equipo y sea X el tiempo de funcionamiento. En la
mayora de los problemas describiramos X como una variable aleatoria continua
con valores posibles x ~ O. Sin embargo, hay algunos casos en los cuales hay
una probabilidad positiva, de que el artculo no funcione del todo, es decir, falla al
tiempo X = O. En tal caso desearamos modilicar nuestro modelo y asignar una
711
4.7
Unu ui!M!nudn
4.H
TI
EJL.MI'I o 4.17.
Un punto se e lige al azar sobre el segmento de linea (0. 2J.
,Cul es la probabilidad de que el punto escogido quede entre 1 y i?
Representando la coordenada del punto elegido por X, tenemos que la fdp
de X est dada por f(x) =!.O < x < 2, y por tanto P(l ~ X ~ ~)
= a.
f(x)
fo"" f(x) dx
F(x)
t- p
L-------------------_.x
' X
x=a
FtCURA 4 . 13
FtCURA
4.14
FIGURA
4.15
Defmicin. Supongamos que X es una variable a leato ria continua que toma
todos los va lores en e l intervalo [a, b]. en donde ambos a y b son finitos.
S i la fdp de X est dada por
/(11) =
= O,
1
1 (x) = b- - ,
a ~ x ~ b,
- a
= O,
(4.13)
EJEMPLO 4.19. Obtengamos una expresin para la fda de una variable aleatoria distribuida uniformemente
F(x) = P(X
(a) Una variable aleatoria unirormemente distribuida tiene una rdp que
es una constanlt en el mtervalo de definicin. A fin de satisraccr la condicin f ~';/(x)dx 1,
esta constante debe ser igual al recproco de la longitud del intervalo.
(b) Una varoable aleatoroa distribuoda unirormente representa la analoga continua a los
resullados igualmente posob1es en el sentido siguiente. Para cuaJquier sub-intenalo (c. d).
en donde a ~ e < d ~ b, P(c ~ X ~ d) es la misma para todos lo sub-intenalo que tienen
la misma longitud. Esto es,
P(c ~ X ~ d) -
J.
, f(x)dx
d- e
a
=b _
(e) Ahora podemos hacer precisa la nocin intuitiva de elegir un pumo P al azar en un
intervalo, por ejemplo La, b]. Con esto sencillamente indicaremos que la coordenada x del
punto elegido, por C)emplo X. est distribuida unirormemente en [a, bJ.
~ x) =
f ..
/(s) ds
=O
si
x <a,
x-a
= b-a
si
a~
=1
si
x < b,
b.
Lo que se d~staca aqu es que los diversos mtodos para calcular probabilidades
que ~ emos derJVIIdO (y los que estud iaremos posteriormente). son de much a importancia puesto que co n ellos podemos calcular las probabilidades asociadas con
s uce~~s ms complicados lo cual sera dificil de obtener con medios intuitivos 0
empmcos.
4.6. Se lanza una serie de cohetes basta que el primer lanzamiento exitoso tiene lugar.
Sa e:,to no ocurre en 5 ensayos, el experimento se detiene y se inspecciona .el equipo. Supngase que hay una probabilidad constante de 0,8 de tener un lanzamiento exitoso y que los
ensayos sucesivos son independientes. Adems, el costo del primer lanzamaento es K dlares
maentras que los lanzamientos que siguen cuestan K/3 dlares. Cada vez que hay un lanzamiento exitoso, se obtiene cierta cantidad de informacin que puede expresarse como una
ganancia financiera de C dlares. Si Tes el costo neto del experimento, encontrar la distribucin de probabilidades de T.
4.7. Calcular P(X - 5), en donde X es la variable aleatoria definida en el ejemplo 4.10.
Supongamos que n 1 = 10, n2 = 15, p, = 0,3 y Pz = 0,2.
4.8. (Propiedades de las probabilidades binomiales.) En la discusin del ejemplo 4.8 se
sugiri un modelo general para las probabilidades binomales!=)p'(l - p - , Indiquemos estas
probabilidades por p.(k).
(a) Demostrar que para O S k < n tenemos
p.(k
+ ll)(p/(1 - p)).
PROBLEMAS
4.1. Se sabe que en una moneda ~le cara tres veces ms a menudo que sello. Esta moneda se la~za tres veces. Sea X el nmero de caras que aparecen. Establecer la di>tribucin
de probabahdades de X y tamban la fda. Hacer un grfico de ambas.
4.2. De un lote que contiene 25 artcul~. 5 de los cuales son defectuoscs. se eligen 4
al axar.. Sea X el nmero de artculo~ defectuosos encontrados. Obtener la distribucin de
probabahdadcs de X ~i
(a) los artculo' se e:.cogcn con ~u~titucin.
(b) los artculos se c,cogen ~m suslltucan.
4.3j .Supngese que la variable alcatona X taenc valores posibles 1. 2. J ..... y PtX = )
= 1/2. J
1, 2....
(i) p.(k
(ii) p.(k
(aii) p.(k
1) > p.(k)
+ 1) = p.(k}
+ 1) < p,.(k)
si k < np - (1 - p),
si k = np - { 1 - p),
si k > np - (1 - p).
(e) Demostrar que si np - (1 - p) es un entero, p.(k) toma su valor mximo para dos
valores de k, llamados k 0 = np - (1 - p) y k = np - {1 - p) + l.
(d) Demostrar que si np - (1 - p) no es un entero entonces p.(k} toma su valor mhimo
cuando k es agua! al entero ms pequeo mayor que k0 .
(e) Dcm~trar que sa np - (l - p) <O, p.(O) > p.(l) > > p.(n) mientras que si np (1 - p) =O, p.(O)- p.(l) > p.(l) > > p.{n).
4.9. La variable aleatoria continua X tiene fdp f(x) = x/2, O S x S 2. Se hacen dos
determinaciones independientes de X. Cul es la probabilidad de que ambas determinacaones sean mayores que uno? Si se han hecho tres determinaciones independientes, icut
es la probabilidad de que exactamente dos sean mayores que uno?
4.10. Sea X la duracin de un tubo electrnico y supongamos que X se puede representar como una variable aleatoria continua con fdp /{x) = be - o., x 2: O. Sea p .. PUS X < j
+ 1). Demostrar que p1 es de la forma (1 - a}a' y determine a.
4. 11. La variable aleatoria continua X tiene la fdp j(x) = 3x 2 ,
un nmero que satisface - 1 < b < O, calcular P(X > b 1 X < b/ 2).
1 S x S O. Si b es
l'mbhnt'
fl.x)
XI
fiGURA 4.16
4.14. El porcentaJe de alcohol (IOOX) en cierto compuesto se puede considerar como
una variable aleatoria, en donde X , O < X < 1, tiene la siguiente fdp:
O< x < l.
a,
.. - ax
= O,
OS
f dada por:
x S 1,
1 S X S 2,
+ 3a,
2 S x S 3,
para cualquier otro valor.
4.20. Supngase que X est distribuida uniformemente ~n [ - oc. +.:x J: en donde :x > 0.
Cada vez que sea posible, determinar a de modo que se sattsfaga lo s1gu1ente.
(a) P(X > 1)
j
(b) P{X > 1) = ~
(e) P(X < !l
0,7
(d) P(X < !l - 0,3
(e) P(jXI < 1) = P(IXI > 1).
4.21. Suponiendo que X est distribuida uniformemente en [O. a]. oc > O responder las
preguntas del problema 4.20.
4.22. Se escoge un punto a l azar de un segmento de longitud L. i.Cu{l l es la probabilidad de que la razn del segmento ms corto con relacin al mils largo sea menor que }'/
4.23. Una fbrica produce diariamente JO recipientes de vidrio. Se puede suponer que
hay una probabilidad constante p = 0,1 de producir uno defectuoso. Antes de que estos
depsitos se almacenen son inspeccionados y los defectuosos puestos aparte. Supongamos
que hay una probabi lidad constante r = 0,1 de que un recipiente defectuoso sea m?l cla
silicado. Sea X igual al nmero de recipientes clasificados como defcc~uosos al tr.mmo. de
un da de produccin. (Suponemos que todos los recipientes que se fabncan en un d1a se tns
pcccionan ese mismo dia.)
(b) Obtener una expresin para P(X k).
(a) Calcular P(X = 3) y P(X > 3).
4.24. Supngase que el 5 por ciento de los artculos que salen de una lnea de producctn
son defectuoso>. Se escogen 10 de tales artculos y se inspeccionan. i.Cual es la probab1hdad
de que se encuentren a lo ms dos defectuosos?
4.25. Suponiendo que la duraccin {en horas) de cierto tubo de radio es una 'ariable
alcatorta continua X con fdp f(x) = 100/ xl. x > 100 y O para cualqu1er otro valor.
(a) 1.Cu1 es la probabilidad de que un tubo dure menos de 200 horas S I se sabe que el
tubo todava funciona despus de !50 horas de servicio?
(b) Cul es la probabilidad de que si se instalan 3 de tales tubos en un conJunto, exac
tamcnte uno tenga que ser sustituido despus de 150 horas de serv1c1o?
(e) i.Cul es el nmero mximo de tubos que se pueden poner en un conJunto de modo
que haya una probabilidad 0.5 de que despus de 150 horas de servicio todos ellos todava
funcionen'/
4.26. Un experimento consta de n ensayos independientes. Se puede suponer que ~ebi
do al aprendizaje>, la probabilidad de obtener un resultado exitoso aumenta con el nume
5
ro de ensayos real indos. Especficamente ~u pongamos que P(xito en la i -Csima repeticin)
+ 1)/(i + 2). i ~ 1, 2, .. 11.
(a) Cul es la probabilidad de tener tres resultados exitosos a lo menos en ocho repe
ticiones?
(b) Cul es la probab1hdad de que el pnmer resultado exitoso ocurra en la octava repeticin?
(i
=n -
1) = P (exactamente un intento no
4.28. St la variable aleatoria K est distribuida uniformemente en (0. 5) i.cul es la probabthdad de que las races de la ecuacin 4x 2 + 4xK + K + 2 = O sean reales?
4.29. Supngase que la variable aleatoria X tiene valores posibles 1, 2, 3, ... y que
P(X = r) ok( l
py 1,0 < (1 < l.
(a) Determinar la constante k.
(b) Encontrar la modll de esta distribucin (es decir, el valor de r que da el mayor valor
de P(X = r)).
4.30. Una variable aleatoria X puede tomar cuatro valores con probabilidades ( 1 + 3x)/4,
(1 - x)/4, (1 + 2x)/4. y (1 - 4x)/4. i.Para qu valores de X es sta una distribucin de pro-
babi lidades?
S.l
Un ejemplo
Rx
Ry
G,__~x--18-l
=_x-t--.!.!..H_...;Q
fiGURA 5.1
5.2
Definicin.
r.
(5. 11
e y recprocamente.
(b) Supngase que A e;, un suceso asociado con S lo que equivale a un suceso 8 asociado
con Rx. Luego, si e> un suceso asocmdo con R, que es equivalente a 8, tenemos que A es
equivalente a C.
(e) Nuevamente. es Importante reafirmar que cuando hablamos de sucesos equivalentes
(en el sentido anterior). esos sucesos estn asociados con espacios muestrales diferentes.
~.2
P(C)
E.J,MI'LO
5.2.
P[{xeRx: H(x)EC)]
f(xl
= e- ".
x > O.
FIGURA
5.2
Obsen:acuin . otra ve; es important~ sealar que se usa una notacin taquigrfica cuando
escribimos expresione;, tale;, como {X > 2} y : Y> 4n}. Cuando nos referimo> a los ,aJores
de X ) de Y. o sea {s 1X(s) > 2) y : \ Y(x) > 4n l.
fiGURA
5.3
el recorrido de X. Sea 11 una funcin real y consideremos la variable aleatoria Y = H(X) con recorrido Ry. Para cualquier suceso e e:: Ry. defi
nimos P( C) como sigue:
P(e) = P[{x E Rx: H(x) E C}).
(5.2)
Of>w ,.nuunw' (a) Nuevamente es conveniente sealar que debemos cons1clerar incorporadas la c,aJuacin de x = X(s) y la evaluacin de y = ll(x) en nuestro experrmento y.
por tanto. considerar simplemente Rr. el recorrido de Y. como el espacio muestra! de nuestro
experimento.
Estrictamente hablando. e1 espacio muestra! del experimento es S y el resultado del ex
perimcnto e~ s. Todo lo que hagamos a continuacin no cst innucnciado por la nllturaleza
aleatoria del experimento. La determinacin de x = X(.~) y la eva luacin de Y
/f(x) son
K7
S.J
estrictamente procesos detcrminsticos una vez que se ha observado s. Sin embargo, como
discutimos previamente, podemos incorporar estos clculos en la descripcin de nuestro
experimento y as relacionarlos directamente con el recorrido Rr.
(b) As como la distribucin de probabilidades fue inducida en Rx por la distribucin
de probabilidades sobre el espacio muestra! original S, as la distribucin de probabilidades
de Y, se determina si se conoce la distribucin de probabilidudes de X. Por eJemplo. en el
anterior ejemplo 5.2, la distribucin especifica de X determin completamente el valor de
P(Y C!: 5).
(e) Al considerar una fun~in de una variable aleatoria X, digamos Y = H(X), debemos
comentar que no se puede permitir toda funcin fl concebible. Sin embargo, las funciones
que aparecen en las aplicaciones estn inmediatamente entre aquellas que podemos considerar y, por tanto, no nos referiremos posteriormente a esta pequea dificultad.
= P( Y =
y 1)
= p(x1,) + (x,,) +
Este ejemplo sugiere el siguiente procedimiento general: si x., ... , x., .. . son
los valores posibles de X. p(x1) = P(X = x 1), y H es una funcin tal que a eada
valor de y le corresponda exactamente un va lor de x. entonces la distribucin
de probabilidades de Y se obtiene como sigue:
Valores posibles de Y:
Probabilidades de Y:
FIGURA
EJEMI'LO
P(X = n) =
...
5.4
y supngase que
f.
Y ~ 1
=-
si
X es par,
si
X es impar.
= 1> = 1 + ro + ~ + -- = ! -
Luego
P(Y = -l)= 1 - P(Y = l)=i-
= P(Y
= y 1)
= J./(x)dx.
5.4
5.4
/(x) = 2x.
= O.
dG(y)
dG(y) du
-y
= ---,; dy.
y- 1
en donde u = -3~
por tanto
G'(y)
(y-
Jt
en otra parte.
G(y) - P( Y :::;; y)
Jl
ll/3
2xdx
= [(y-
P(e- x S: y)
- P(X ~ - In y)
1 - (-In
=J
1.,,
2x dx
.d.
Por tanto g(y) = G'(y) = -2 In y/). Puesto que /(x) >O para O< x ~ l. encontramos que y(y) > O para 1/e <y< 1. (Ntese que el s1ro algebra1c~ -~ar~
g(y) es correcto puesto que In y < O para 1/e < y < 1.) El gr,fico de g(y) estd d
buJado en la figura 5.8.
:::;; y)
5.6
En;MI'LO 5.7. Supngase que una variable aleatoria continua tiene fdp como
en el ejemplo 5.6. Sea H(x)
e-x. Para encontrar la fdp de Y 1-I(X) procedemos como sigue (ver figura 5.7):
O < x < 1,
= P( Y :::;; y) = P(3X + l
FI(;URA
como antes. En la figura 5.6. aparece el grfico de la fdp de Y. (Para verificar los
clculos ntese que g(y)dy - 1.)
1) 1
F'(u)3 =J(u)3 =2 - 3- 3.
1)/3]2.
As
FIGURA
5.5
g(y)
L-L-~---------.x
r iGURA
P(x : :; y~ 1) = Ft ~ 1).
FIGURA
5.7
5.8
y l
x= -ln ''
X :::;; - In y)
=1
F( -In y).
5.4
91
en donde x se expresa en funcin de y. Si H es creciente, entonces g es distinta de cero para los valores de y que satisfacen H(a) < y < H(b). S H es
decreciente, entonces g es dist inta de cero para los valores de y que satisfacen H(b) < y < H(a).
Por tanto
G'(y)
= -F'(u) ( - ~) = +2 In y ( - ~).
como antes.
Generalicemos ahora el enfoque sugerido por los ejemplos anteriores. El paso
crucial en cada uno de los ejemplos se efectu al sustituir el suceso {y s; y} por
el suceso equivalente en funcin de la variable aleatoria X. En los problemas
anteriores esto fue relativamente sencillo puesto que en cada uno de los casos
la funcin fue una funcin de X estrictamente creciente o estrictamente decreciente.
En la figura 5.9 y es una funcin estrictamente creciente de x. Por lo tanto
podemos reso lver y = H(x) para x en funcin de y, digamos x = H - I(y), en donde
1
H - se. llama funcin inversa de H. As, si Hes estrictamente creciente, {H(X) s; y}
es equ1valente a {X s; H - I(y)} mientras que s H es estrictamente decreciente
'
{H(X) s; y} es equivalente a {X~ H - I(y)}.
y
x = H - '(y).
As
G'(y)
= dF(x) dx = f(x)
dx dy
dx.
dy
G(y)
= P( Y s; y) = p(H(X) s; y) = P(X s; W
(y))
dG(y)
dy
dG(y) dx
dx dx
d [
] dx
f
dx
1 - F(x) - = - (x) -
dx
dy
dy
-- = --- = -
FIGURA
Observacin: el signo algebraico obtenido en (b) es correcto puesto o~e. si y es una funcin decreciente de x, x es una funcin decreciente de y y por lo tanto dxfdy < O. As, al usar
el smbolo del valor absoluto en torno a dx/dy, podemos combinar el resultado de (a) y (b)
y obtener la forma final del teorema.
5.9
1:;1 ,
(5.3)
EJEMPLO 5.8. Reconsideremos los ejemplos 5.6 y 5.7, aplicando el teorema 5.1.
(a) En el ejemplo 5.6 tenamos f(x) = 2x, O < x < l, e y = 3x + l . Por lo
tanto x = (y - 1)/ 3 y dxfdy = !. As g(y) = 2((y - 1)/ 3}! = MY - 1). 1 < y < 4,
lo que concuerda con el resultado obtenido previamente.
(b) En el ejemplo 5.7, tenamos f(x) = 2x, O < x < 1, e y= e- ". Por tanto
x = - In y y dxfdy = - 1/y. As g(y) = - 2(1n y)/y, lfe < y < 1 lo que de nuevo
est de acuerdo con el resultado anterior.
S y = 1-l(x) no es una funcin montona de x, no podemos aplicar directamente el mtodo anterior. En su lugar, volveremos al mtodo general bosquejado
anteriormente. El ejemplo siguiente ilustra este procedimiento.
Yl
PROBLEMAS
5.1. Supngase que X est:i. distribuida uniformemente en (- 1, 1). Sea Y = 4 - X1 . Encontrar la fdp de Y. sea g(y). y dibujarla. Tambin \Cnric:1r que q(y) e una fdp.
5.2. Supngase que X est distribuida uniformemente en (l. 3). Obtener las fdp de las
siguientes variables aleatorias:
(a) Y = JX + 4
(b) Z = ,;e,
Verificar en cada uno de los casos que la funcin obtenida es una fdp.
FIGURA 5.10
EJEMPLO
5.9.
FIGURA 5.11
!.
- l<x < l.
= O,
Sea H(x)
x . Esta obviamente no es una funcin montona en el intervalo
[ 1.1] (figura 5.10). Por lo tanto obtenemos la fdp de Y = X 2 como sigue:
jY S
= F(.jy) -
X S
Jj)
= G'{y) = f(Jy) _
2JY
/(-
JY>
5.7. Supngase que el radio de una esfera es una variable aleatoria continua. (Debido
a la imprecisin del proceso de fabricacin, los radios de esferas diferentes pueden ser diferentes.) Supngase que el radio R tenga fdp f(r) = 6r( l - r), O < r < 1. Encontrar la fdp
del volumen V y del ilrea superficial S de la esfera.
f(v) = a1121'- .
-2jj
t>
As g(y) = (l/2jy)(t +
= lf2JY, O < y< l. (Ver figura 5.11.)
El mtodo usado en el ejemp lo anterior da el siguiente resultado general.
T eorema 5.2. Sea X una variable aleatoria continua con fdp
Entonces la variable aleatoria Y tiene fdp dada por
5.4. Supngase que la variable aleatoria discreta X tome los valores 1, 2, y 3 con igual
probabilidad. Encontrar la distribucin de probabilidades de Y = 2X + 3.
5.8. Una corriente elctrica 1 que nucta se puede considerar como una variable aleatoria distribuida umrormemente en 1:1 intervalo (9.11 ). Si esta corriente pasa por una resistencia de 2-ohm. encontrar la fdp de la potencia P 211 .
F( -jy),
f.
Sea y = x2.
11 > O,
Encontrar las
5.5. Supngase que X est distribuida uniformemente en el intervalo (0. 1). Encontrar
la fdp de las siguientes variables aleatorias:
(a) Y = X 1 + 1
(b) Z = 1/(X + 1).
Supongamos que
f(x) =
= e- , x > O.
<a
(e) k
> x0
'M
Foociones de
nrlable~
aleotories
6
y
-------_+..-,,---~a~~aL---~+-------x
"
'11
FIGURA
5.12
5.11. La energa radiante (en Btufbr/ft 2) est dada como la funcin siguiente de la temperatura _T (en grados fahrenheit): E= 0,173(T/ 100}4 Supongamos que la temperatura r
est consrderada que es una variable aleatoria continua con fdp
/(1)
= 200t- 2,
= O,
40 S t S 50,
FtOUKA 6. 1
95
~6
\ arlahl""
lcvtorl~
fl. t
Defmicio.
(X, Y) es una variable aleatoria bidimensional discreta si los valores posibles de (X, Y) son finitos o infinitos numerables. Es decir, los
valores posibles de (X, Y) se pueden representar como (x;. y 1), i = 1, 2 . .. ,
Defmicin. (a) Sea (X. Y) una variable discreta bidimensionaL Con cada
resultado posible (x, y1) asociamos un nmero p(x;. y1) que representa
P(X = x, Y = YJ) y que sa tisface las condiciones siguientes:
(1} p(x,y1)'2:0
""
(2)
:L
J 1
para todo
..,
:L
i l
p(x" Y1>
= L.
11.1
La funcin p definida para todo (x1 y1) en el recorrido de (X. \') se llama
.frmcin de probabilidad de (X. Y). El conjunto de ternas (.~. y1 p(x,, y1)).
i.j = 1, 2, ... , es llamada en algunos casos la distriburin de prohabilidacles de (X, Y).
(b) Sea (X. Y) una variable aleatoria continua que toma todos los valore:;
en una regin R del plano euclidiano. La fimtin de dt>midml de probabilidades conjuntas f es una funcin que sa tisface la ~ siguiente~ condiciones:
~ O
(3)
f(x. y)
(4)
JJJ(x. y) dx dy =
para todo
(x. y) e R.
l.
(6.2)
R
Ob.'><'rt'UCIOtteS
(a) La analoga a una distrobuc1n de ma.as e' otra el ondudablc Te
nemo; una mas:1 unitaria distribuida en una regin en el plano. En el caso di~crcto. todu la
masa est concentrada en un nmero frnito o infinito numerable. de puntos con ma'a p(Y,. y 1)
ubicado; en (:c1 y). En el caso continuo. la masa se encuentra en todos lo' puntos de un con
JU nto no numerable en el plano.
(b) La condicin 4 indica que el volume11 total baJO la superficie dada )'IOr la ecuacin
z - /(x. y) es igua l a l.
(e) Como en el caso unidimensional. f(:c. y) no repr.:scnta la probabilidad de algo. Sin
embargo, para x y y suficientemente pequei\os y positivos. (lx, y) t~ y es aproximada
mente igual a f>(;c S X S x + llx. y S Y S y + y).
(d) Como en el caso unid imensional adoptaremos la convencin de que f (x. )') O SI
(x, y) rt R. Por tanto, podemos considerar I definida para todo (x. y) en el plano y la condicin
4 anterior llega a ser
f ~: f(;c, y) dx dy = l.
(e) Nuevamente su~rimiremQs la naturaleza funcional de la variable aleatoria bidimensional (X. Y). Deberamos escribir proposiciones de la forma f>[X(s)
x 1, Y(s} v1]. cte. Sin
embargo, si se entiende nuestra notacin taquigrMica no debe surgir, ninguna dificultad.
(f) De nuevo. como en el caso unidimensional. la distribucin de probabilidade~ de (X. Yl
es realmente mducida por la probabilidad de sucesos asociados con el espacio muestra! origi
nal S. Sin embargo, principalmente nos interesaremos por los valores de (X. Yl y por tanto
relacionados directamente con el recorrido de (X. Y). No obstante. el lector no debe perder de
vista el hecho de que si P(A) est espcc1ficad:o para todos los oucc.,o A e S. entonces est
determinada la probabilidad asociada con suceso> en el rccorndo de (X. Y) f's decir. si B
est[l en el n:corrodo de (X. Y). tenemos
r::.::
(x, y),
(6.1)
PtGUI\1\ 1\.2
'JH
6.1
6. 1
'A
LLPlX,,y,).
(6.3)
y - ~~------~-----+----
si (X. Y) es discreta. la suma se toma con todos los ndices (i,j) para los cuales (x1, y) E 8.
y
P( 8)
f(x. y) d.\ dr.
(6.41
fJ
Y - ~4-----~r------r----
si (X. Y) es continua.
EJEMPLO 6.1. Dos lneas de produccin manufacturan cierto tipo de artculo. Supngase que la capacidad (en cualquier da dado) es 5 artculos para la lnea 1 y 3 artculos para la lnea 11. Supngase que el nmero verdadero de artculos
producidos por cada una de las lneas de produccin es una variable aleatoria.
Sea (X. Y) la representacin de la variable aleatoria bidimensional que da el
nmero de artculos producidos por la lnea 1 y por la lnea 11 respectivamente.
La tabla 6.1 da la distribucin de probabilidades conjunta de (X. Y). Cada entrada representa
~------+-------r------ x
FIGURA
f(x, y) = e
= P(X
- 2, Y
= 3) =- 0.04. etc.
en otro caso.
=0
As p(2. 3)
6.3
"'
Para detcrmmar
e usamos el hecho d e que J+- ,.
J+"'
- oo f( x, Y) dx dy --
1 Por tanto
c[5000)
- 00
encontramos 4uc
P(B)
0.01
1 19000
(5000) 2 sooo
P(B) = J - -
- 0.75.
l:JEMPLO 6.2. Supngase que un fabricante de bombillas est mteresado en
el nmero de stas que le han sido pedidas durante los meses de enero y febrero.
X y Y indican el nmero de bombillas ordenadas durante esos dos meses respectivamente. Supondremos que (X, Y) es una variable aleatoria bidimensional
TABLA
~
o
1
2
3
6.1
0.01
0.02
0.03
0.02
0.03
0.04
0.05
0.04
0.05
0.05
0.05
0.06
0,07
0,06
0.05
0.06
0.09
0.08
0,06
0.05
0,01
0.01
0.01
J1
sooo
clx el y
1 19000
17
1 - ------
[y - 5000) ely = 25.
(5000) sooo
f(x, y) = x
= O,
xy
+ 3,
0 :;;;
X :;;;
1,
0 :;;; y :;;; 2,
,..
I'(H}
+oo
- r
J!; J ~
1>.1
(t.2
f(x. y) dx dy "' 1:
J+oo f(x.y)dxdy =
-,..
f' (x
(2
JoJo
6.2
2
= ~
+h =
Con cada variable a lea t oria bidimensio na l (X. Y) asociamos dos variables
aleatorias unidimensionales. llamadas X y Y respect ivamente. Es decir. podemos
interesarnos por la distribucin de probabilidades de X o por la distribucin
de probabilidades de Y.
+ xy)dxdy
I G~)
dy -
EJEMPLO 6.4. Consideremos otra vez el ejemplo 6.1. Adems de los dato~
de la tabla 6.1. calculemos t amb in los tolalcs marginales". esto cs. la suma de
las 6 columnas y 4 tilas de la tabla. (Ver tabla 6.2).
Las probabilidades que aparecen en lo~ mrgenes de las filas y columnas representan la distribucin de probabilidadc~ de Y y X. respectivamente. Por eJem
plo, P( Y = 1) ~ 0,26, P(X = 3) = 0,21, etc. Debido a la forma de la tab la 6.2 nos
referimos, generalmente, a lu distribucin marginal de X o a la d istribucin mar
ginal de Y. cada vez que tenemos una variable aleatoria bidimensional (X, Y)
sea discreta o continua.
~ )' + ;~ 1:
l.
Sea B = {X + Y<:! 1}. (Ver figura 6.4) Calcularemos P(B) al evaluar 1 - P(Bl.
en donde 8 = {X + Y < 1}. Por lo tanto
P(B)
=1-
)'
x)
+ -x( 1 -
x)
6.2
T ABLA
dx
~
o
L - - - - " ' - -- x
fiGURA
6.4
Oefmic in.
0.03
0.04
0,05
0.04
0.05
0.05
0,05
0.06
0.07
0,06
0.05
0.06
0.08
0.06
0.05
0.25
0.26
0.25
0.24
0.16
0.21
0.24
0. 2M
1.00
1
2
3
0.01
0.01
0.01
0.01
0,02
O.OJ.
0.02
Suma
0.03
0,08
O.O'J
Suma
= P(X =
x 1) = P(X
= x 1 Y = y 1 o X
X.
y2 o)
co
p(X, y).
j= 1
F(x. y)
= P(.\'
~ x. Y ~ J').
+>
y(x) =
f(x, y) dy;
_
00
il(y) "'
_ ~ f(x, y) dx.
11)2
ariabh.~
MlcMioriiA'
{1.2
l::.stas fdp corresponden a las fdp b:hica' de las variables aleatona-. unidimensionales X y Y. respectivamente. Por ejemplo
P(c~X~d) .... P[c~X~d.
-rt+:
r
2(x
= O,
y - 2xy).
(x. y)
j(x. y) = rea(R)
R.
Encontramos que
2
Por tanto
1
f(x. y) dy dx
y(x) dx.
f(x. y)
O ~ x <:: l.
O ~y ~ l.
k-
f(x. y) = 6.
=
en otro caso.
O.
(x. y) E
R
FIGURA
(x. y) lj R.
6.5
2(x
+y
2xy) dy = 2(xy
= l.
2(x
+y
+ y 2/2 -
ll(y)
[0. 1].
+ xy - x 2 yliA
o ~ y~ l.
= O.
r:
OS
f(x. y) dx =
ix
6 dy
x ::;;
J:
1;
6 tlx
O S y ~ l.
6.7. Consideremos otra vel los ejemplos 6.1 y 6.4. Supngase que
2). De acuerdo con
queremos evaluar la probabilidad condicional P(X = 2IY
la definicin de probabilidad condicional tenemos
EJ EMPLO
P(X - 21 y
= 2) =
P(X
~ 2. y = 2)
P( Y
2)
para (x. y) E R.
f(x. y) tly -
'$
= 6(./Y- y).
f(x, y) = const.
+ <>
= 6(x - x 2 ).
xy JIA
O <:: x~l.
= l.
fl(x) -
Podemos efectuar tal clculo muy general para el caso discreto. Tenemos
p(x1 1)>)
= P(X =
=
p(x, y)
CJ(Yi)
x, 1 Y = y)
si
O.
(6.5)
> O.
(6.6)
q(y) >
p{X. )')
- -- -
p(x,)
si
p(x;)
IOJ
1>.2
HJS
Por tanto ft8 y(x)dx representara la probabthdad del suceso 15,8 $ X $ 6} prescmdiendo
del peso Y. r;, 8 y(xll50)dx se interpretara como P(5,8 $X$ 61 Y= 150). Estrictamente
hablando, esta probabilidad condicional no cst definida en los trm inos de nuestra convencrn previa con la probabilidad condicional, puesto que P(Y !50)= O. Sin embargo, slo
usamos la integral anterior para definir esta probabilidad. Sobre una base mtuttiva, ciertamente ste debe ser el significado de este nmero.
g(x)
X=~
(1, 0)
(1, 0)
(a)
E JEMPLO
6.8.
(b)
g(x) -
6.6
FIGURA
L'
}:_ p(x::ll!
1 q(y,l
p(X; 1y,)
= q(y) .,
ll(y) =
1')
1)') = ll(y) . .
xr)j
dy
= 2x 2 + 2 x.
3
> 0.
!J(y)
J.o
xy)
+ 3
t/x =
6y +
1
3.
Por tanto.
l.
c(J)
g(x 1 y) -
/(x.
z ( x2 +
Obsenaci11: para una j dad.o . p(x; 1 y) S<Hi;f;~cc todas la, condiciones de una d istri bucin
de probabi lidades. Tencmo< 1(x11J');::: Oy tambin
f.
11
lx
(y
x 2 + xy/3
6x 2 + 1xy
1/3 + y/6 2+y
O ~ x ~ l. O ~ y ~ 2;
x 2 + xy/3 _ 3x2 + xy _ 3x + y
) - 2x 2 + 2/3(x) - 6x 2 + 2x - 6x + 2
y :S 2. 0
~ X
:S J.
f.
+ 1xy dx = ~ y= 1
2+y
2 +y
6x2
(6.7)
para todo y.
g(x) >O.
f/(X)
(6.8)
Obserl'll~io11es: . (a) Las fdp condicionale> anleriorcs satisfacen toda:. las exigencias de
una fdp untdtmenstonal. A'>. para y fijo, tenemos g(x 1 J) :::: O y
r:
g(x 1 y)dx
~ f(x.
J-"' h(y)
y) /.
J'.
h(y)
' .
- - 1 ~--
/(\.
/r(y)
)dx = -
II(J'l
l.
Un clculo an logo se puede hacer para hlv 1 x). Por tanto. la> ecuaciones (6.7) y (6.8) defi1um
las fdp en Rx y Rr. respcctrv:unente.
(b) Una mtcrpretacn mtuiuva de g(.\ 1y) :;e obtiene " consideramo, que la superficte
representada por la fdp conJunta l es cortado digamos por el plano y 1. La interseccin
del ~Jan o con la superficie z f(x, y) resu ltar en una fdp unidimensional, llamada la fdp
de ,\ para Y c. Esta ser precisamente !/(X 11').
(e) Supongamos que (X. Y) representen respectivamente la altura y el peso de una per-.ona. Sea f la fdp conJunta de (X. Y) y :;ea 1/ la fdp marginal de X (prcscmdiendo de Y).
106
Variab~~
all'atoria.!t
bidiru~n.!tiooa.lt"t
d~
ntayur
dirue~in
Id
TABLA
111'7
6.3
o
0.1
0.2
0.2
0.5
0.04
0.08
0.08
0.2
0.06
0.12
0.12
0.3
p(xr)
0,2
0.4
0.4
1.0
Defmicio.
conjunta) pueda ser factorizada. El teorema siguiente indica que la definicin anterior es
equivalente a otro enfoque que podramos haber tomado.
...
f(x, y) =
e - l.d "'
x ~ O.
y <::: O.
{(x, y) 1O ~ x ~ Y ~ 1!
es tal que para una x dada. y puede tomar slo valores mayores que la x dada y menores que 1. Por
tanto X y Y no son independientes.
fiGURA
6.7
!a
1011
6.4
JI
f (x, y) dx dy =
An 8
=
6.4
SJ
y(x)h(y) dx dy
AnB
= min (X, Y) = el menor nmero de artculos producidos por las dos lineas:
Y = max (X, Y) - el mayor nmero de artculos produ~ido por las dos lneas:
W = X + Y = nmero total de artculos producido por las dos lneas.
Par~ obtener la distribucin de probabilidades de U, por ejemplo, procedemos
como s1gue. Los va lores posibles de U son: O, 1, 2 y 3. Para eva luar P(U = O)
argumentamos que U =O si y slo si ocurre uno de los casos siguientes: X = O.
Y= O o X= O, Y = lo X = O, Y = 2 o X = O, Y = 3 o X = 1, y = 0 o X = 2.
U
.4
IOQ
z.
g(z) =
r: k(z. w)dw.
J(z, w)
iJx
iJx
ilz
ily
az
(w
ay
ow
b.-1
..
(a)
FIGURA
6.8
(b)
en donde k es la fdp buscada. Pueslo que se supone que la transformacin (x. y)-> (z. w) es
de uno a uno (vase la suposicin (a) anterior), podemos encontrar el suceso. equivalente
{Z S z, W $ w}, en funcin de X y Y. Supngase que este suceso se ind1ca como C. (Ver
figura 6.8). Esto es, {(X, Y) e C} si y slo si {Z $ z, W S w}. Por tanto
S_ ., S ., k(.1,1) ds dt
w
FIGURA
i'x
lr
arp
ox
ay
) :o
r
=f cJf(x,
y) dx dy.
Puesto que se supone que fes conocido. puede calcularse el segundo miembro de la integral.
Diferencindola con respecto a z y w obtenemos la fdp pedida. En la mayora de los textO>
de clculo avanzado se demuestra que estas tcnicas conducen al resultado formulado en
el teorema anterior.
(b) Ntese la gran semejan za entre e l resultado anterior y el obten ido en el caso unidimensional tratado en e l captulo anterior. (Ver teorema 5.1). La condicin de monotona
de la funcin y fl(x) se sustituye por la condicin de que la correspondencia entre (x. y)
y (z, w) es uno a uno. La condicin de diferencialidad es sustituida por ciertas suposiciones
acerca de las derivadas parciales consideradas. La solucin final obtenida es tambin muy
semejante a la obtenida en el caso unidimensional: las variables x y y sencillamente se sustituyen por sus expresiones equivalentes en funcin de z y w, y el valor absoluto de dxfdy se
sustituye por el valor absoluto del Jacobiano.
6.9
sen <P
o<f>
2
cos <f> + r sen 2 4> =
fJr
- r
f(x. y) = 1/ rt
= O,
tl t
cos <f>
r.
,.
y(I/>, r) = - ,
O ::; r ::; l.
O$
<f
< 2rt.
1--
- - - - - , ( 2.., 1)
L ._
FIGURA
___
6.10
FIGURA
-.~..!
__
<b
6.11
g y(<f>.r)d<f>
= 2r.
O $ r ~ l.
bldlmenslona~
..
112
Variables aleatorias
y de mayor dimelbln
6.5
O s; i s; 1
x. As x
= 11 y y= wfu.
-w
-u1
p(e) =
El Jacobiano es
el 1
2i .2
91
O s; e/i s; 3.
di
-~e2.!1'
;~,3
= ~e(3 - e),
p(e)
o
J =
di.
<3
= xy y u =
U) 171
Se debe tener cuidado al resolver esta integral. Ntese primero que la variable
de integracin no puede tomar valores negativos. Segundo, n!ese con el fin de
que el integrando sea positivo, ambas fdp que aparecen en el mte~rando deben
~cr positivas. Considerando los valores para los cuales g y h no son aguales a cero
encontramos que deben satisfacerse las condiciones siguientes:
(6.9)
Demostracin: sea w
= r~ y(i)ll
O s; e :5 3.
f;' p(e)de =
e=l
l.
FIGURA
6.12
(~) ~~~-
-ka
J =
EJEMPLO 6.14. Supngase que tenemos un circuito en el cual varan de un
modo aleatorio la corriente 1 y la resistencia R. Supngase especficamente que
1 y R son variables aleatorias continuas independientes con las siguientes fdp.
1: g(i) = 2i,
R:
h(r) = r 2 /9.
O~
i s; 1
Os; r s; 3
(6.10)
~1 = v.
1~
= X/ Y y
t(z, v)
V = Y es igual a
g(vz)ll(t>)ivl.
fl.h
114
x ~ O,
f(x) = e-x,
g(y) =
y ~
2e- 21,
O,
\IStc una funcin densidad de probabilidades conJunta que satisface las condiCiones siguientes:
(a) /(.'( 1 x.)
(b)
~ O para
= l.
oo
Jo e
oo
J , J , f(x,,xz ..\.l)dx
S
't'
tiXz- 1/(XJ).
q(z)
= (z +
z ~ O.
FIGURA
6.13
6.6
H ~sta ahora nuestra exposicin se ha restringido a variables aleatorias bidimenslona l_es. Sm embargo, como lo indicamos al comienzo de este captulo,
pode~os mteresarnos en tres o ms caractersticas numricas simultneas.
. Solo haremos una brevsima exposicin de las variables aleatorias n-dimenSJOnale~.. La "_layor parte de los conceptos presentados anteriormente para el
caso b1d1mens1onal se pueden extender al caso n-dimensional. Nos limitaremos
al caso continuo. (Ver la nota al final de este captulo).
Supongamos que (X., ... , X.) puede tomar todos los valores en una regin
del espacio n-dimensional. Esto es, el valor es un vector n-dimensional.
zar en
g (x 1) g.(x.).
Hay muchos casos en los cuales deseamos considerar las variables aleatorias
n-dimensionales. Daremos unos pocos ejemplos.
(a) Supngase que estudiamos el modelo de precipitacin debido a un sistema particular de tormentas. Si tenemos una red de, digamos, S estaciones de
observacin y si X 1 es la lluvia cada en la estacin i debido a un sistema frontal
particular, querramos considerar la variable penta-dimensional (X,, X 2 , X 3 ,
X4, X s).
(b) Una de las aplicaciones ms importantes de las variables aleatorias
n-dimensionales aparece cuando tratamos con medidas repetidas de una variable
alea10ria X. Supngase que se pide la informacin acerca de la duracin X. de
cierto tubo electrmco. Un fabricante produce un gran nmero de estos tubos.
de los cuales probamos n. Sea X 1 la duracin del i-s1mo tubo. i = l. .... n. Por
tanto (X., . .. , X.) es una variable aleatoria 11-dimensional. Si suponemos que
cada X 1 tiene la misma distribucin de probabilidades (puesto que todos los tubos
11 6
l'rubl~ma'
representa P[(X. l')EAj. Am\logamente. si 1 repre~nta la rdp conJunta de( ,\ 1 ... . X.l
'"'once'
P[(X 1
\',) E
R).
PROBLEMAS
6.1. Suponga que la tabla srguiente represenld la drstnbucin de probabrhdad~ conJunta
de la variable aleatoria discreta (X, Y). Calcular todas las d1stnbucrones margrnales Y con
diciona les.
X (t.)].
Este tipo de problemas se estudia a un nivel ms avanzado. (Una referencia excelente para este tema es el libro Stodw.wic Processes por Emanuel Parzen.
San Francisco: Holden-Day. 1962.)
Oh.wrl'tlcin : en al[!una parte de nuest ra ~'pos1c1n nos hemos rerendo al concepto de
espaclon. Resumamos un poco alguna> de las 1deas bsicas necesanas.
Con cada nmero real x. podemos asoc1ar un punto sobre la recta de los nmeros reales
y recprocamente. Anlogamente, con cad<t par de nmeros reales (x~ox 2). podemos asociar
un punto en el plano rectangular de coordenadas y recprocamente. Finalmente. con cad<t
cOnJunto de tres nmeros rea les (x~o x 2 x 3 ). podemos asociar un pun to en el espacio tridimensional de coordenadas y recprocamente.
En muchos de los problemas que nos interesan. tratamos un conjunto de 11 nmeros reales,
(x 1. x 2 x.). tambin llamado un 11-tuplo. Aunque no podemos dibupr ningn grfico.
si n > 3. podemos contmuar adoptando la terminologa geomtrica sugerida por los casos
de dimensin menor. citados anteriormente. As. hablaremos de un punto en un espacio ndimensional determinado por el ntuplo (x., . . . . x.). Definiremos como espacio 11 (algunas
veces llamado espacio n euclidiano) el conjunto de todos los (x 1, .... x.). en donde x 1 puede
ser cualquier nmero real.
Aunque realmente no necesitaremos evaluar integra les n-dimensionales, vamos a encontrar que es un concepto muy til y algunas veces necesitamos expresar una cantidad como
una integral mltiple.
Si recordamos la definicin de
117
ti
111
1-=
--6.2.
-=
-h
Supngase que la variable aleatona bidimensional (X. Y) tenga fdp conJ unta
/(X. y)
b(X - )').
0<
.~
< 2.
X.
en otra parte.
O.
f(x.y)
z
X
xy
+J.
O.
0 <X< l.
0<y<2.
en otra parte.
en donde A es una regin del plano (x. y). entone~' la extensin de este concepto a
S Sflx1.. . .
~.ldx 1
Jx.
ff f(x. y) dx dy
A
Calcular lo siguiente.
(a) P(X
> t);
11X
<
t).
6.4. Suponga que se sacan dos cartas al azar de una baraja de cartas. Sea X el nmero
de ases obtenidos y sea Y el nmero de reinas obtenido.
(a) Obtener la distribucin de probabilidades conJunta de (X . Y)
(b) Obtener la distribucin marginal de X y de Y.
(e) Obtener la distribucin condicional de X (dado Y) y de Y (dado X).
118
Vari able<~
Problemas
119
lormementc en (10. 20). Supngase, adems, que las variables aleatorias X e 1 son independtentes. Encontrar la fdp de la variable aleatoria H.
6.6. Supngase que la variable aleatoria contmua bidimensional (X. Y) est dtslributda
umformemcnte en el cuadrado cuyos vruc;c,. son (l. 0). (0, 1), (- 1, 0) y (0. - 1). Encontrar
la fdp marginales de X y de Y.
6.12. La intensidad de la luz en un punto dado est dada por la relacin 1 = C/D en
donde e es la potencia luminosa de la fuente y D es la distancia de la fuente al punto dado.
Supngase que e est distribuida uniformemente en (1,2). mientras que D es una variable
aleatoria continua, con fdp f(d) =
d > O. Encontrar la fdp de / , si e Y D son independientes. [Indicacin : hallar primero la fdp de D2 y luego aplicar tos resultados de este capitulo.)
ke
6.7. Supngase que las dimensiones, X y Y. de una plancha metlica rectangular se pueden
considerar como variables aleatorias continua> independientes con las siguientes fdp.
X: g(x) = x- l.
1 <X$ 2,
= -x + 3.
Y:
=o.
h(y) = t.
-o.
2 <X< 3,
en otra parte.
en otra parte.
= O,
x > 1000,
en otra parte.
e-.
6.13. Cuando una corriente de 1 (amperes) pasa por una resistencia de R (ohms). la potencia generada es dada por W = 12 R (watts). Supngase que 1 y R son variables aleatorias
independientes con las siguientes fdp.
1:
j(i)
2 <y< 4,
f(x) =
FIGURA
6.14
R: g(r)
= 6i(l
- i),
= O.
en otra parte.
O S i $ 1.
= 2r.
O < r < l.
=0.
en otra parte.
f(x.y) = e- 1 ,
= O.
(a) Encontrar la [dp marginal de X.
(b) Encontrar la fdp m(lrginal de Y.
(e) Evaluar P(X > 21 Y < 4).
para x > O.
en otra parte.
y> x,
7.1
ll l
7
hasta que se encuentra el primer articulo defectuoso. As un res ultado tpico
del experimento sera de la forma NNNND. Por tanto X(NNNND) 5. Los
valores posibles de X son: l. 2, ... , n ... P uesto que X = k si y slo si los primeros (k - l) artculos no son defectuosos y el k-simo artculo es defectuoso.
asignamos la probabilidad siguiente al suceso { X = k}: P(X = k) - p( l - p'/- 1 ,
k - 1. 2, .... " . . . Para verificar que esta es una legitima distribucin de probabilidades observemos que
:L"
1
= p--
1 - (1 - p)
7. 1
1'
120
= 1
si O <
IPI <
l.
w :;:,:
= $0.151.
7. 1
..
L:
x,p(x,)
(7.1)
i= 1
Observaciones: (a) Si X toma slo un nmero finito de valores, la expresin anterior llega
a ser E{X) = I:7. 1p(x1)x1 Esta se puede considerar como un promedio ponderado de los
valores posibles x., ... x. Si todos los valores posibles son igualmente probables. E( X) =
(lfn)I:7. 1x, lo que representa el promedio aritmtico ordinario de los n valores posibles.
(b) Si se lanza un dado regular y la variable aleatoria X designa el nmero de puntos
que salen, entonces E(X) l/6( 1 + 2 + 3 + 4 + 5 + 6) = 7/2. Este ejemplo sencillo ilustra,
categricamente, que E(X) no es el resultado que esperaramos cuando X se observa una
sola vez. i De hecho, en la situacin anterior, E( X) = 7/2 no es siquiera un valor posible de
X! Por el contrario, sucede que si obtenemos un gran nmero de observaciones indepen
dientes de X, tales como x" ... , x., y calculamos el promedio aritmtico de esos resultados,
entonces, bajo condiciones generales regulares, el promedio aritmtico estar cerca a E(X)
en un sentido probabilstico. Por ejemplo, en la situacin anterior, si lanzramos el dado
un gran nmero de veces y luego calculramos el promedio aritmtico de los diversos resu ltados, esperaramos que este promedio llegase a estar ms prximo a 7/2 cuanto ms a menudo fuese lanzado el dado.
(e) Se debe observar la similitud entre la nocin de valor esperado como se defini an
teriormente (especialmente si X puede tomar slo un nmero finito de valores) y la nocin
del promedio de un COnJunto de nmeros como, z 1, ... , z. Corrientemente definimos
z = 1/n) I:7. 1 z1 como el promedio aritmtico de los nmeros z, ... , z. Supngase, adems
que tenemos los nmeros z', . . . , z, donde z ocurre n1 veces, I:l: 1n1 = n. Haciendo / 1 = nJn,
., = 1, definimos el promedio ponderado de los nmeros z'. .. . , zi como
7.t
E(X) = np.
= L" k k=O
= L:
L n,z = L f ,zj.
n'
E(X) =
L:
- 1
n'
p)"
- - pk( l - p)"
k!(n - k)!
tenemos
k,
n!
k( t
n-
(k - l)!(n - k)!p
- p
n( n-
s:O
i l
= k) = (k)p~( 1 -
r.,_
12.1
= np
1) ,r+
.L:-'(" -s l)
,. .- o
(1 - p)" -
p'(t - pr- 1 -
La suma en la ltima ex presin es simplemente la suma de probabilidades binomiales con n sustituido por (n - 1) [esto es Jp + (1 - p))" 1] que. por tanto, es
igual a uno. Esto establece el resultado.
7. 1
7. 1
f(x)
liza un experimento. Si repetimos este experimenco 100 veces, por ejemplo, esperariamQ<.
que A ocurriera alrededor de 100(0,3) = 30 veces. El concepto de valor esperado, presentado anteriormente para variables discretas, se extender brevemente en el caso continuo.
EJEMPLO 7.5. Una mquina impresora tiene una probabilidad constante de
0,05 de fallar en cualquier da. Si la mquina no tiene fa llas durante la semana,
se obtiene una utilidad de $S. Si ocurren 1 o 2 fallas, se obtiene una utilidad de $ R
(R <S). Si ocurren 3 o ms fa llas, se obtiene una uti lidad de$( -L). (Suponemos
que R, S, y L son mayores que cero; tambin suponemos que si la mquina falla
cualquier da, permanece fuera de uso durante el resto del da.) Sea X la utilidad
obtenida en una semana de cinco das. Los valores posibles de X son R, S y (- L).
Sea B el nmero de fallas por semana. Tenemos
~ -'
x=l500
1
f(x) = (150W x,
= O, 1, ... , 5
= O) + RP(B =
+ (- L)P(B = 3, 4 5)
= S(0,9W + R[5(0,05)(0,95)4 + 10(0,05)Z(0,95)l]
+ (- L) [10(0,05) 3(0,95) 2 + 5(0,05)4 (0.95) + (0,05) 5 ] dlares.
1 2)
x=3000
FIGURA 7.1
= (
E( X) = SP(B
125
0 ~X~ 1500,
- 1
) (x - 3000),
1500 2
O.
1500 ~ x ~ 3000,
As
E(X) =
=
Defmicin. Sea X una variable a leatoria continua con fdpf E l valor esperado
de .X se define como
r oooo xf(x)dx
r1
1
[
soo xldx (1500)(J5{)0) Jo
J3000 x(x -
3000)dx]
I SOO
= 1500 minutos.
+oo
E(X) =
-oo
xfi.x)dx
(7.2)
<JO
lxif(x)dx
es finita.
Observacin: debemos observar la analoga entre el valor esperado de una variable aleatoria y el concepto de <<centro de masa en mecnica. Si una masa unitaria est distribuida
a lo largo de la recta en los puntos discretos x,, ... ,x., . . . y si p(x 1) es la masa en x 1, vemos
entonces que !:'; 1 x 1p(x) representa el centro de masa (respecto al origen). De modo se
mejante, si una masa unitaria est distribuida continuamente en una recta, y si f(x) represen
ta la densidad de masa en x, entonces J ~~ xf(x) dx se puede interpretar nuevamente como
el centro de masa. En el sentido anterior, E(X) puede representar <<Un centro de la distribucin de probabilidad. Tambin, E(X) se llama algunas veces medida de tendencia central
y est en las mismas unidades que X.
rn
[b_ x _ dx
Jl.b - a
=_
1_
x21b
b - a2.
=a +2 b
b. Por tanto
126
7.2
(Ntese que esto representa el punto medio del intervalo [a.b]. como intuiiiV<I
mente lo esperaramos.)
Obserwcin. valdra la pena recordar en e' le punto que una variable alea1ona ..\ e' una
func1n de un espacio muestra! S con relacin al r~-comdo Rx. Como repetidamente lo hemo-.
sealado. para la mayora de las aplicac1one~ ~ta nos ha interesado slo en el recomdo
y en las probabilidades definidas en l. Esta noc1n de valor esperado fue completamente
definida en funcin del recorrido [ver ecuaciones (7.1) y (7.2.)). Ocasionalmente, sin embar
go, debcramo; observar la naturaleza funcional de X. Por ejemplo, cmo expresarnos lu
ecuacin (7.1.) en funcin de resultados se S. suponiendo que S es finito? Puesto que x 1 X(~)
para una se S y puesto que
7.2
E( Y)
= 'L
E( Y) =
podemos escribir
E(X)
= L
i
x,p(x,i
L X(s)P(s).
(7.3)
en donde P(s) es la probabilidad del suceso (')e S. Por ejemplo. si el experimento conmte
en clas1ficar tres artculos como defectuosos ID) o no defectuosos IN), un ~pacto mu~tral
para este expenmento seria
S= {NNN,NND,NDN,DNN,NDD,DND,DDN,DDD).
Si X est definida como el nmero de defectuoso. y si se supone que todos los resu ltados
anteriores son igualmente posibles, tenemos de acuerdo con la ecuacin (7.3.)
E(X)
=L
E( Y)
co-
nocer los valores p(x,), lo que a su vez significaba la necesidad de un clculo tal como el ut
!izado anteriormente. Lo importante es que una vez que se conoce la distribucin de pro
babilidades sobre Rx [en este caso los valores de p(x1)), podemos suprimir la relacin fun
cional entre Rx y S.
= P(X = x;).
tenemos
(7.6)
E( Y)
Oefmicin .
(7.5)
yo(y)dy.
Observacin: naturalmente estas definiciones son enteramente consistentes con la definicin previa dada para el valor esperado de una variable alealoria. De hecho, lo anterior
representa simplemente una repeticin en funcin de Y . Una i<dcsventaja>> de aplicar la definicin anterior a fin de obtener E( Y) es que la distribucin de probabilidades de Y (es decir,
la distribucin de probabilidades en el recorrido Rr) es necesaria. En los captulos anteriores,
expusimos mtodos mediante los cuales podemos obtener o las probabilidades puntuales
t(y1) o g, la fdp de Y. Sm embar go, el problema que aparece es.!! p.QQemos obtener E( Y)
sin encontrar primero la distribucin de probabilidades de Y, slo a partir del conocimiento de la distribucin de probabilidades de X. La respuesta es afirmativa como lo indica el
siguiente teorema.
Teorema 7.3.
7.2
r.
X(s)P(s)
= O (t) +
=l
(7.4)
y;q(J,).
i 1
E(H(X))
HO
= _"
1/(x)flx)dx.
(7.7)
Observacin: este teorema hace mucho ms sencilla la evaluacin de E( Y), porque quiere
decir que no necesitamos encontrar la distribucin de probabilidades de Y a fin de evaluar
E( Y). Es suficiente el conocimiento de la distnbucin de probabilidades de X.
r.o.,(r.,
7.2
"'
I:
H(x)p{x)
= L"
1 1
129
Y L p{x).
i
Pero.
L1 p(x)
7.2
e"
j(x) = 2
~O.
si
si
x >O.
Sea Y = lXI. Para obtener E( Y) debemos proceder de una de las dos maneras.
(a) Usando el teorema 7.3. tenemos
E( Y) = r.,"'lxlf(x)dx
7.8.
1) = 1.
lb/pie 2
,f. .
0.003r 2
es una funcin montona de v, para v ;;;:: O. Podemos aplicar el teorema 5.1 y
=
obtenemos
G(y) = 2
f.'' -
.((x)dx = 2
1! - x
o 2
1 [dvl
IOtiW
EJEMPLO
o~"'~ 0.3.
Por tanto
E(W)
= fo 0,003v2 !IOdv
= O.
(x)l' 'dx
+[
= Joro0,003v 2f(v)llv
= 0,1
g(w)
-x)exdx
=H I +
E( W)
1[faJ (
=Jo
-e- +
= e- 1 ,y;;::, O.
l.
una variable aleatoria a fin de hacer ciertas decisiones de una manera ptima.
Supngase que un fabricante produce cierto tipo de aceite lubricante que pierde
alguno de sus atributos especiales si no se usa dentro de cierto perodo de tiempo.
Sea X el nmero de unidades de aceite pedidas al fabricante durante cada ao.
(Una unidad es igual a 1000 galones.) Supongamos que X es una variable aleatoria
continua, distribuida uniformemente en [2. 4). Por lo tanto la fdp f tiene la forma.
f(x) =
despus de un clculo sencillo. As, como lo indic el teorema las dos evaluaciones
de E(W) producen el mismo resultado.
dx =
= O,
~X~
4,
7.Z
Supongamos que por cada una de las unidades vendidas se obtiene una utilidad
de $300, mientras que cada una de las unidades no vendidas (durante un ao
determinado) produce una prdida de $100, ya que una unidad no utilizada tendn
que ser descartada. Suponiendo que el fabricante debe decidir pocos meses antes
del comienzo de cada ao cunto producir, y que decide fabricar Y unidades.
(Y no es una variable aleatoria. est especificada por el fabricante.) Sea Z la utilidad
por ao (en pesos). Aqu Z es evidentemen te una variable aleatoria puesto que es
una funcin de la variable aleatoria X. Especficamente, Z = H(X) en donde
//(X) = 300 Y
- 300 X
si
+ (-
Y.
7.3
7.3
(a) Si
100)( Y - X).
si
X < Y.
y con
= z1).
p(z1) = P{Z
(L;t ltima expresin puede escribirse como 400X -
E(Z)
=J.::
f
1/(x)f(x)dx
~}
100 1').
entonces
~------1-----1--t-------
H(x)dx.
1 1
FIGURA
E(Z)
si
4.
E(Z) =
7.2
2 <Y< 4
r,
(7.9)
zj(z)dz.
= P(X =
X.
y=
,l'j).
i.j
= l. 2, ....
tenemos
oe
E(Z) =
i 1
E(Z)
(7.8)
:p(Z).
i = 1
Teorema 7.4.
H(X . }').
y~
= L
Para eval uar esta integra l debemos considera r tres casos: Y < 2, 2 s; Y s; 4.
y Y > 4. Con ayuda de la figura 7.2 y despus de algunas si mplificaciones obtenemos
E(Z) = 300 Y
si
Y s; 2
= - 100 Y2 + 700 Y - 400
= 1200 - IOOY
si
131
(7.10)
;: l
(b) Si (X. Y) es una variable aleatOria continua con fdp conJunta f. tenemos
E(Z) =
r~2
r -3,5 r - 4
FIGURA
7.3
f.
(7.11)
Obsertacin : no demostraremos el teorema 7.4. Otra vez. tal como en el caso unidtmen
sJonal. este es un resultado muy til puesto que indica que 110 necesitamos encontrar la dis
trbucn de probabilidades de la variable aleatoria Z a fin de evaluar su esperanza. Pode
mos encontrar directamente E(Z) a partir del conocimiento de la distribucin conJunta
de (X , l ).
7.11.
EJEMPLO
7.4
7.4
o ::;; i ::;;
Demostracin: E(CX) =
1;
133
Tambin encontramos que la fdp de E es p(e) = ~e{3 - e), O ::;; e ::;; 3. Puesto que
1 y R son variables aleatorias independ ientes, la fdp conjunta de(/. R) es sencil lamente el producto de las fdp de 1 y R: f(i, r = ~ir 2 O ::;; i ::;; 1, O ::;; r ::;; 3. Para
evaluar E(E) usa ndo e l teorema 7.4 tenemos
+"'
- w
Cx.f(x)dx
.. xj(x)dx = CE(X).
= CI+
_.,-
Propiedad 7.3. Sea (X. Y) una variable aleatoria bidimensional con una
distribucin de probabilidades conjunta. Sean Z = H,(X , Y) y W =
H2(X , Y). Entonces E(Z + W) = E(Z) + E(W).
Demostracin
E(Z
E(E) =
ep(e)de =
r
0
=~
7.4
(3e
e)de
= ~.
e es
F(x)
f "' J +oo
-co
+ E( W).
H ix,y)f(x,y)dxdy
-co
e[ _"",_/'(x)dx =
Observaciones: (a) Combinando las propiedades 7. 1, 7.2 y 7.4 observamos el sigu iente
hecho importa nte: si Y = a X + b, en donde ti y b son constan tes, entonces E( Y) = aE( X) + b.
En palabras: la esperanza de una fu ncin lineal es esa misma funcin lineal de las esperanzas. Esto no es cierto a menos que est implicada una funcin lineal y es un error comn
creer de otro modo. Por ejemplo, E(X 2) (E(X)) 2 , E( lnX)
lnE(X), etc. As si X toma los
valores - 1 y + 1, cada uno con probabi lidad t, entonces E( X) = O. Sin embargo.
E(X 2) = (- 1)2H)
C.
~---+----------------.x
x=C
FIGURA
7.4
Il, (x,y)f(x,y)dxdy
->
- - - -- --F(x) a l
+oo
_..,
Cf(x)dx =
f "' I+oo
Demostracin
E( X) =
= E(Z)
Haremos una lista de propiedades del va lor esperado de una variable a leatoria
que ser muy t il en el trabajo futuro. En cada caso supondremos que existen todos
los valores esperados a los cuales nos referimos. Daremos las demostraciones
slo para el caso continuo. El lector debe ser capaz de dar e l argumento para el
caso discreto sustitu yendo sencillamente las integrales por sumatorias.
r:r:
-oo
Propiedad 7. 1. Si X =
en donde
una constante. entonces E(X) = C.
W) =
(~e(3 -
e )de
+ (l)'(t) =
*0
. ,
+ .. +X.)=
E(X,)
+ .. + E(X.).
7A
en donde
la~ 111
son constantes.
7.4
IJS
igual a p y es la m1sma para todas las personas. An ms, los resultados de las
pruebas para las personas del mismo grupo que se examina son independientes.
Sea X = nmero de pruebas necesarias para determinar la caracterstica que se
estudia para todas las N personas. y sea X; = nmero de pruebas necesarias para
examinar personas en el i-simo grupo, i = 1, ... 11.
Luego X= X 1 ++X., y por lo tanto E(X) = E(Xc) + + E(X.), lo
cual es igual a nE(X 1), puesto que todos los X 1 tienen la misma esperanza. X,
slo toma dos va lores: 1 y k + l . Adems,
P(X 1 = 1) = P (todas las k personas en el grupo 1son negat ivas).
= (1
pt.
Por tanto
Demo.lt radn :
E( X Y) =
_~'
f.'
;q '{(x. y)dxdy
+ X f +~
f
f
= _"'
=
+ >
P(X 1 =k+ 1) = 1 - (1 -
pt
y luego
E(X 1 ) = 1 (1-
= k(1 - (l - p)"
-<yy(x)lr(y)dxdy
_ ' xy(x)dx
f. . .
As
E(X)
= nE(X
1)
+ k-
(1 -
p]
].
= N[l - (1 - p) +k ').
(La frmula anterior es vlida slo para k > 1, puesto que para k= J da
E(X) = N + p11, lo cual obviamente es falso.)
Un asunto de inters es la eleccin de k para el cual el anterior E(X) es ms
pequeo. Esto puede ser fcilmente manejado por algn procedimiento numrico.
(Ver problema 7.11a.)
Finalmente. observemos que para que la prueba en grupo sea preferible a
la prueba individual. deberamos tener E(X) <N, esto es. 1- (1- p'/ + k - 1 <l.
lo cual es equcvalente a k 1 < ( 1 - of. Esto no puede ocurrir si ( 1 - p)< ~. Porque
en ese caso (1 - p'f < i 1 < 1/k. la ltima desigualdad proviene del hecho de
que 21 > k. As obtenemos la siguiente conclusin importante: si p. la probabilidad
de un a prueba positiva en cualquier persona determinada, es mayor que~, entonces
no es aconsejable agrupar las muestras antes de examinar. (Ver problema 7. J 1b.)
EJBMPLO 7.13. Apliquemos algunas de las propiedades anteriores para derivar
(nuevamente) la esperanza de una variable aleatoria distribuida binomialmente.
El mtodo usado puede apl icarse con ventaja en muchas situaciones semejantes.
Consideremos n repeticiones independientes y sea X el nmero de veces que
ocurre un suceso A. Sea p igual a P(A) y supongamos que este nmero es constante
para todas las repeticiones consideradas.
Definamos las variables auxiliares Y, ... , Y. como sigue:
Yr = l
= O,
7.4
- J\(C 2
Por lo tanto
7.4
C 1)
137
~ni + IC2
~~ - ~ + 1
CJ)
,.a o
np(n)
- N(C, + CJ)
p(ll)
n- O
= N(C 2
= E( Y) + + E( Y,,).
C.J + (C 2
+ C 3)[ 1:.
1111(11) - N
"
()
~11)(11- N).
11(11)J
n O
Sin embargo,
E(Y,) = l(p)+O(l -p)=p.
para todo i.
si
D >N.
si
D =:;;N.
si
D :::; N.
= N!C 2-
E(T) = N(C 2
C 1)
= N(C 2
C 1)
+ (C1 +
Supongamos que C 2
C 3 )~{1S
$9, C, = $3. y C .,
E(T)
N 2]
SI
N :::; S.
si N > 5.
SN)
6N+2[N(N/ I)
6N + 2( 15 - SN)
7N - N 2
SI
30- 4N
si N
N2 ]
SI
N =:;; 5.
SI
N > S.
N :::; 5.
.>
S.
E(T)
T=N(ez-e 1)
si
D > N.
E(T) = N(e2
e,)P(D >N)+ (e 2 + e 3 )
L:
~t=O
np(n)
7.5
Luego el mximo ocurre para .V = 3.5. (Ver figura 7.S.) Para N = 3 4. tenemo~
E(T) = 12. el cual es el mximo obtenible puesto que N es un entero.
7.5
la~
7.~
.. rlabl"" aleatorias
Supongamos que para una variable alea tona X encontramos que E( X) es igual
a 2. ,Cuitl es la importancia de esto'! Es importante que no atribuyamos mi~
significado a esta informacin que la justificada. Significa, sencillamente, que
si consideramos un gran nmero de valores de X, x 1 x., y promed iamos esos
va lores de X. este promedio se aproximar{ a 2 si 11 es grande. Sin embargo. es
muy importante que no demos mucha importancia a un valor esperado. Por
eJemplo supngase que X representa la duracin de una bombilla que se recibe
de un fabricante. y que E(X) - 1000 horas. Esto podra significar una de varias
pos1b1hdades. Podra significar que se espera que la mayor parte de las bombillas
dure entre 900 y 1100 horas. Tambin podra significar que las bombillas que
se entregan estn formadas por dos tipos de bombillas muy diferentes: alrededo r
de la mitad s0n de muy a lta calidad y con duracin de cerca de 1300 horas, mientras que la otra mitad son de muy ma la ca lidad y durar n cerca de 700 horas.
l lay una necesidad obvia de presentar una medida cuantitativa que distinga
entre tales situaciones. Varias medidas se sugieren por s mismas. pero la siguiente e, la cantidad usada ms comnmente.
=:
E(X 2
=:
E(X 2 )
+ [E(X)] 2 }
2E(X)E(X) + [ E(XJ]l
= E(X 2 )
[E(XJ]l.
2XE(X)
EJEMPLO 7.15. La orici na meteorolgica clasifica el tipo de ciclo que es vistblc en relacin con los grados de nubosidad. Se usa una escala con 11 categoras: O. l. 2..... 10. en donde O representa un cielo perfectamente claro. 10
reprc~cnta un cielo completamente cubierto, mientras que los otros valores representan diversas condiciones intermedias. Supongamos que tal clasificacin
se hace en una estacin meteorolgica determinada en un da y hora determinados. Sea X la variable aleatoria que toma uno de los 11 va lores anteriores. Supongamos que la distr ibuci n de probabilidades de X es
P1
= PIO = 0,05;
= P2 Ps = pq = 0.15:
PJ
=:
Po
=:
P4 = Ps = p., - P1 = 0,06.
Por tanto
E( X)
V(X)
=:
(7. 12)
E[X - E(XJ]2.
estndt~r
de X y
E(X 2 )
7.6
(E(X)) 2
=:
Teorema 7.5.
Luego
V(X) = E(X 2 )
E(Xl] 2
e~peranza
UY
E[ X - E(X)] 2
1'( \)
Definicin.
7.~
y la desviacin estndar
11
3.25.
35.6 - 25
=:
10,6.
7.16.
7.6
fdp
f(x) = 1 + x,
= 1 - x,
- ( :5; X~ 0.
O~x~l.
J~ 1 X 2 (1
+ J
Por tanto V(X) =
x 2 (1 - x)dx =
i.
i;.
Observacin: supngase que una variable aleatoria con tinua tiene una fdp que es simtrica respecto a x = O. Es decir, f( - x) = f(x) para todo x. Luego, siempre que exista E( X).
E(X) = O, que es una consecuencia inmediata de la definicin de E( X). Esto puede extenderse
a un punto arbitrario de simetra x = a, en tal caso E(X) = a (Ver el problema 7.33).
7.6
Y) = V(X)
+ Y)
Propiedad 7.10.
tonces
Sean X
1. ,
x. n
(7.1 5)
V(Y).
Demostracin:
V(X
+ x)dx
14 1
7.6
+ +
V(X.).
(7.1 6)
Si
Propiedad 7.11. Sea X una variable aleatoria con varianza fin ita. Luego
para cualquier nmero real a,
es una constante,
V( X )
V(X
+ C)
= V(X).
= E[(X
+ C) -
E(X) -
e] 2
Observacin: esta propiedad es intuitivamente evidente, porque al agregar una constante a un resultado X no cambia su variabi lidad. que es lo que mide la varianza. Simplemen te
<<desplaza los valores de X a la derecha o a la izquierda. dependiendo del signo de C. '
Si
Demostracin:
V(eX)
[E(X) - oc] 2
(7.17)
Propiedad 7.8.
E [(X - a) 2 ]
(7 .1 3)
Demostracin:
V(X
= E(eX)2 =e
[E(X
(E(eX)j2
) -
= e 2E(X 2) - e2(E(X>)l
(E(Xj)2]
e V(X).
2
Obse,.vaciones: (a) Esta es una extensin obvia del teorema 7.5, porque al hacer a= O
obtenemos el teorema 7.5
(b) Si interpretamos V(X) como el momento de inercia y E(X) como el centro de una
masa unitaria, entonces la propiedad anterior es una formulacin del teorema muy conocido en mecnica de los ejes paralelos: el momento de inercia respecto a un punto arbitrario
es igual al momento de inercia respecto al centro de masa ms el cuadrado de la distancia
de ,este punto arbitrario al centro de masa.
(e) E[ X - a]l es minimizado si a = E(X). Esto se deduce de inmediato de la propiedad
anterior. As el momento de inercia (de una masa unitaria distribuida en una recta) respecto a un eje que pasa por un punto arbitrario se minimiza si este punto se escoge como el
centro de masa.
EJEMPLO 7. 17. Calculemos la varianza de una variable aleatoria distribuida
binomialmente con parmetro p.
Para calcular V(X) podemos proceder de dos maneras. Puesto que ya conocemos que E(X) = np, sencillamente debemos calcular E(X 2 ) y luego calcular
V(X) como E(X 2) - (E(X)) 2 . Para calcular E(X 2 ) usamos el hecho de que
7.7
P(X =k)= (Z)pk(J - pn-k, k= O. 1, ... , n. Por tanto E(X 2 ) = l:Z . 0 kl(Z)p(t p-k. Esta suma puede calcularse fci lmente, pero en vez de hacer esto, emplearemos un mtodo ms simple.
Nuevamente usaremos la representacin de X presentada en el ejemplo 7.13,
X = Y 1 + Y 2 + + Y . Observemos que las Y 1 son variables aleato rias independientes puesto que el valor de Y 1 depende solo del resultado de la i-sima
repeticin, y se supone que las repeticiones sucesivas son independientes. Por
tanto podemos aplicar la propiedad 7. 10 y obtener
Por tanto
= l(p) + 0(1 - p) = p,
E(Y 1jl
= 12 (p) + 0~(1
- p) =p.
Por tanto
V(Y 1) = p- p2
= p(l
V(X)
= E(X 2 ) - [E(X)Jl = (b
- a)
12
t 43
V(X)
+ H"(
= J.l,
V( Y) ~ [ H'(J.l)) 2 q 2 .
y V(X)
= q 2.
(7.18)
(7.19)
(A fin de hacer t iles las aprox imaciones anter iores necesitamos evidentemente que H sea a lo menos diferenciable dos veces para x = J.l).
L-------~----~~--.p
P=~
F IGURA
Demostracin: (slo un bosq uejo): a linde establecer la ecuacin (7.18), desarrollemos la funcin H en una serie de Taylor para x = J.l con dos trminos. As
7.7
7.18. Supngase que la variable a leatoria X est distribuida unifo rmemente en [a, b]. Como lo calculamos previamente, E( X) = (a + b)/2.
Para calcular V(X) bailemos el valor de E(X 2 ):
E JEMPLO
en donde R 1 es un resto. Si descartamos el trmino resto R., entonces, tomando el valor esperado en ambos miembros. tenemos
E( Y)~ H(J.l)
+ H'?) q 2 ,
7.7
/(1)
30001- 4
l;?: 10,
O, para cualquier Olro valor.
Exprcsionc~
7.7
y
V(T)
= ai
dt - 225
= 75 (grados centgrados) 2
Para calcular E(S) y V(S) tenemos que calcular las integrales siguien tes
ro (
dt
dt.
1 - 0,0051)
1 2
H '(r)
V(Z) :.:
E(T 2 ) - (lsl
= J(; 3000t
= 2.4(1
0,005t)0 2 (
- 0.005)
-0.0 12( 1 -
0,0051) 0 2 .
0.0 l.
[12//
2+ payH2 a,2]
{Jx 2 11x
1 " f1 2 H
E(.Z) ""' H (J,, ... JI,) t 2 1Ll ('IX2 "'
l
+ 21
a;.
iJx a; + [i}/1]2
ily a;.
[i}f/]2
V(Z) :::.:
Luego
145
A't tenemos
Luego
r. (:H)2 <lf.
1
l'X,
en donde las derivadas parciales son evaluada, en el punto {Jt, ... ,).
De un modo semejante,
ll"{t) = - 0,0024( 1
Por lo tanto
1/"(15)
0.000012
(0.925)0 8
= o+.
E[M]:.: E(I)E(R).
7.8
7.H
Desigualdad de Chebyshev
Hay una desigualdad muy conocida del matemtico ruso Chebyshev que desempea un papel tmportantc en lo que resla de nuestra obra. Adems, nos dari1
un medio para comprender cabalmen1e como la varianza mide la variabilidad
~sx:cto al valor esperado de una variable aleatoria.
Si conocemos la distribucin de probabilidades de una variable aleatoria ,\
(la fdp en el caso contrnuo o la probabilidad puntual en el caso discreto). podemos calcular E( X) y V( Y). s1 extsten. Sin embargo. lo recproco no es verdadero.
Esto es. conoctendo E(.\') y V(X) no podemos reconstruir la distribucin de probabilidades de X y por tanlo no podemos calcular cantidades tales como P[IX
- E(XJI ~ C]. Srn embargo. resulta que aunque no podemos evaluar tales probabilidades [a partir de un conocimiento de E(X) y V(X)]. podemos dar una cota
2u~rior (o inferior)_!!}uy tiles para tales probabilidades. Este resultado est
contenido en lo que se conoce como la desiguladad de Chebyshe\.
Desigualdad de Chebyshev. Sea X una variable aleatoria con E(X) = JI y sea
e un nmero real cualquiera. Entonces. si E(X - c) 2 es finita y E es cualquier
nmero positivo. tenemos
el
P[!X
;:>
E]
2
2E(X - c)
E
(7.20)
P[IX
(7.20a)
(c) Eltgicndo e
JI }
Var X
JI ~ E] ~--,
E"
(7.20b)
P[lx-
Jll
~ ku] ~ k- 2
(7.21)
Esta ltima forma (7.21) rndica especialmente cmo la varianza mide el grado
de concentracin de la probabiltdad prxima a E(X) = p.
Demo>lraciu (Demostraremos slo 7.20 puesto que las otras se deducen como
se indic. Tratan:mos slo el caso contmuo. En el caso discreto. el argumento
es muy parecido al de las intcgn~J..:, ... ubstituidas por sumas. Sin embargo. ha}
que tener cuidado con los punto' extremos de los intervalos):
Consideremos
P[IX -
~
en donde
JR
R = {x: lx
- el ~ E}.
(x
e)2
-.
.
-rf(x)dx
J
+co
1
E
E[X -e)1.
P[IX -
JI!~
d ~ E)
= 1-
147
io)!!:
= 0,44.
P[lx
7.K
ti ~ ~] = 1 -
P[IX -
= 1-
~J
1/fi.
11 < ~]
0, 134.
Teorema 7.8. Supongamos que V(X) =O. Luego P[X =JI) - l. en donde
11 = E(X). (Informalmente, X = JI, con probabilidad 1.)
7.~
P[IX - 1l ~ t]
O para cualquier
tl < E] = 1 para
de corrclocin
14Y
> O.
cualquier t > O.
=O.
Observaciones: (a) Este teorema demuestra que la varianza cero no implica que toda la
probabilidad est concentrada en un solo punto, a saber E(X).
(b) Si E(X) - O, luego V(X) E(X 2 ). y por tanto en este caso. E(X2) = O implica L'l
misma conclusin.
(e) En el sentido anterior decimos que una variable aleatoria X es degenerada: toma slo
un valor con probabilidad l.
7.9
coenci~nre
Demo.\trcrcin: consideremos
Luego
7.1}
El coeficiente de correlacin
Hasta ahora nos hemos interesado en los parmetros asociados con la distribucin de variables a leatorias unidimensiona les ta les como E(X) y V(X). Estos
parmetros miden, en el sentido ya descrito previamente, ciertas caractersticas
de la distribucin. Si tenemos una variable aleatoria bidimensional (X, Y), se encuentra un problema an logo. Naturalmente, podemos presentar nuevamente las
variables aleatorias unid imensionales X y Y asociadas con (X, Y). Sin embargo.
surge la pregunta de si hay un par1metro significativo que mida de alguna manera
el grado de asociacin enlre X y Y. Esta es una nocin ms vaga que ser precisada en breve. Demos la siguiente definicin rormal.
Definicin . Sea (X, Y) una variable aleatoria bidimensional. Definimos Pxy
el EJeflcielll e de correlacin, entre X y Y, como sigue:
_ E~ E(X)][Y- E(Y)]}.
j 'V(X)V(Y)
Px, -
E(XYl
= E(X)E(Y)
Teorema 7.11.
inclusive.)
q(t)
(7.22)
Observaciones: (a) Suponemos que todas las esperanzas existen y que ambas V(X) y V( Y)
son distintas de cero. Cuando no hay duda de cuales variables aleatorias estn implicadas
escribiremos simplemente p en vez de Pxr
(b) El numerador de p, E{[X - E( X))[ Y - E( Y))}. se llama la covarianza de X y Y, y
se denota algunas veces como Oxr
(e) El coeficiente de correlacin es una cantidad adimensional.
(d) Antes de que la delimcin anterior pueda ser significativa. debemos establecer exactamente lo que mide p. Esto lo haremos al considerar un nmero de propiedades de p.
+1
(b)
(a)
fiGURA
7.8
+ tW]2.
Teorema 7.9.
_ E(XY)- E(X)E(Y)
p- - jV(X)V(Y)
.
7.Y
7.Y
151
+ 8)] =
BE(X).
E(X)[AE(X)
V(X)A 2 V(X)
+ 8JlZ
AE(X 2 )
Luego
[E(X Y) - E(X)E(Y)] 2
P V(X)V(Y)
As q(t) es una expresin cuadrtica en 1. En generaL si una expresin cuadrtica q(1) = at 2 + bt + e tiene la propiedad de que q(t) ~O para todo 1. significa
que su grfico corta el eje 1 en solo un punto o en ninguno, como se indic en
la figura 7.8. Esto, a s u vez. indica que el discriminante b 2 - 4ac debe ser !5:0.
puesto que b 2 - 4ac > O significara que q(t) tien e dos races reales distintas.
Aplicando esta conclusin a la funcin q(1) que consideramos anteriormente.
obtenemos
2 _
- {AE( X Z)
-
[AE(X 2 )
A 2(V(X)) 2
_ A 2 {E(X 2 ) - [E(X)J2 } 2 _
Al 2 (V(Xj)2
- l.
+ 8E(X)-
< l
E(V 2 )E(W 2) -
'
y por tanto
{E[X - E(X)][Y - E(Y)JlZ =
V(X)V(Y)
< l.
p -
As - l !5: p !5: l.
Supongamos que p 2 = l. Luego (con probabilidad l e n e l
sentido del teorema 7.8). Y = AX + 8 , en donde A y 8 son constantes.
En palabras: si el coeficiente de correlacin p es l . entonces Y es una
funcin linea l de X (con probabilidad 1).
Teorema 7.12.
Demostracin: consideremos nuevamente la funcin q(l) descrita e n la demostracin de l teorema 7.11. Es sencillo observar en la demostracin de ese teorema
que si q(t) > O para todo t. entonces p 2 < l. Luego la hiptesis del presente teorema, a saber p 2 = L. implica que debe existir al menos un va lor de 1, sea 10 tal
que q(1 0) = E(V + t 0 W) 2 =O. Puesto que V+ t 0 W = [ X - E(X)] + 10 [YE( Y)], tenemos que E( V + t 0 W) = O y por tanto la varianza (V+ 10 W) = E( V+
t 0 W) 2 . As encontramos que la hiptesis del teorema 7.1 2 conduce a la conclusin de que la varianza de (V + t 0 W) = O. Por tanto. del teorema 7.8 podemos
concluir que la variable aleatoria (V + 10 W) =O (con probabilidad J). Por tanto
[X- E(X)] + t 0 [Y- E( Y)]= O. Reescribiendo encontramos que Y= AX + 8
(con probabilidad 1), como se iba a demostrar.
Observaciones: el reciproco del teorema 7.12 tambin se mantiene como se demostr en
el teorema 7. 13.
(La segunda afirmacin del teorema se deduce al observar que jA2 = IAI.)
Observacin: los teoremas 7. 12 y 7.13 establecen las s iguientes caractersticas importantes del coeficiente de correlacin: el coeficiente de correlacin es una medida del
grado de linealidad entre X y Y. Los valores de p prximos a + 1 - 1 indican un alto
grado de linealidad mientras que los valores de p prximos a Oindican una ausencia de tal
linealidad. Los valores pOSitivos de p muestran que Y tiende a aumentar con valores
crecientes de X , mientras que los valores negativos de p muestran que Y tiende a
disminuir con valores crecientes de X. Existe una idea considerablemente errnea acerca
de la interpretacin del coeficiente de correlacin. Un valor de p prximo a cero slo
indica la ausencia de una relacin li11eal entre X y Y. No impide la posibilidad de alguna
relacin no lineal.
EJ6MPLO 7.21. Supongamos que la variable aleatoria bidime nsiona l (X. Y)
est distribuida uniformemente en la regin triangular
R = {(x. y) 1 0 <
(x. y) e R ,
para cualquier otro va lor.
f(x. y) = 2.
=
O,
= J!(2)dy = 2(1
lr(y) =
- x).
J (2) dx = 2y.
O !5: y !5: l.
FtGURA
Por tanto
E( X} = J~ x2(1 -
E(X
O$ x $ 1;
x) dx =
= J~ x 2( 1 - x)
t,
dx = ~-
E( Y)= J~ y2ycly = j;
E( Y 2) = J~ y 2 2y dy =
i;
7.9
1S2
7. 111
EsP"ronta condicional
7. 10
Teorema 7.15.
E( X Y)
S~ S~ xy2 dx dy =
(7.25)
(7.26)
!.
153
L uego
fl -
E(XY) - E(X)E(Y)
1
J V(X)V(Y)
=
E(X l y) =
+ oo
- oo
xg(x 1y) dx
11)
o.
Definicin.
(7.23)
L"'
E( X 1y,) =
j
Xp(X 1yj)-
(7.24)
que g(x 1y) representa la fdp condicional de X para Y = y dado, E(X 1y) es la esperanza de
X condicionada al suceso { Y - y}. Por ejemplo. s1 (X. Y) representa la resistencia a la tensin
y la dureza de una muc\tra de acero. entonce:. EIX y = 52.71 es la resistencia esperada a la
tensin de una muestra de acero eleg1da al azar del unierso de muestras cuya dureza (medida en la escala Rock\1-cll) es 52.7.
(b) Es importante dare cuenta de que en general E( X 1y) es una funcin de y) por lo tanto
es una variable aleatoria Anlogamente E( Y 1 x) es una funcin de x y tambin es una vanable aleatoria. (Estrictamente hablando. E( X 1 y) es el valor de la variable aleatoria E(X 1 Y).)
(e) Puesto que E( Y 1 X) y E( X 1 Y) son variables aleatorias. ser preciso hablar de sus
esperanzas. Asi podemos cons1derar E[ E( X 1 Y)]. por ejemplo. Es importante establecer que
la esperanza interna se toma respecto a la distribucin condiciona l de X dado que Y es igual
a y, mientras que la esperan7.a exterior se toma respecto a la distribucin de probabilidades
de Y.
E[E(X
Y)]= s ~~
[J~:; f(x,y)dy] dx
=S';; xy(x)dx-
E(X).
[Se puede usar un argumento semejante para establecer la ecuac i n (7.26)). Este
teorema es muy til como lo ilustra e l s iguiente ejemplo.
EJIJMI'LO 7.22. Supngase que varios cargamentos que traen diverso n mero de repuestos llegan diariamente. Si N es e l nm ero de a rtculos en el ca rgamen to. la distribucin de probabilidades de la variable a leatoria N est dada
como sigue:
n:
P(N = n):
10
0.05
11
12
13
14
0.10 0,10 0.20 0.35
15
0.20
7. 11
E(XI)') = E(X)
155
E( X (y)
E( Y lx)
E(YiX) = E(Y)
7. 11
= 0,03 Y
si
Y < X,
= 0,03X + O,OI(Y - X)
si
(b)
(a)
FIGURA
7.10
Y > X.
E(T 1 x) =
{ m0,03yr\, dy
ro[O,O 15x 2
lo
_ { 0,05
0,45
+ f;O(O,O iy + 0,02x}r\dy
si 20 <
1.5
+ 2 + 0,4x
- 0,005x 2
0.02x 2]
SI 10 <
< 20,
+ 0,04x
- 0.001x 2
si 20 < x < 30.
F tGURA
r~ 2
2 1"1--:2
= ; y 1- X
.fi=Y
= -~-
Jo
Por tanto
E[ E(T 1 X)] =
7. 11
7. 11
< 30,
lt(y) =
; dy
2dx
-~=r n
O ~y~
l.
Por tanto
,J
!1\X
1y) =
lr(y 1x)
Luego
E( Y lxl
2" 1 - y
1
=J1-
x2
= Jo
- V~yl
1 - y
O~ Y
JJ=Xi.
Jit - - yl;
15()
Otras taratterlslltas de 1
rlable<~
7. 11
aleatorias
7. 11
)'
)'
(1, 2)
(1, 2)
De modo semejante
J+./i
'
- ./t ,,
E(X IY) =
=f ./t
,.
./i ,,
xo<xly)dx
\'
' 1
~ + Jr - '
,d.\~
1
2" 1 - ,.2" 1 - r 2 .!1=7
1
o.
Puede suceder que una o ambas cunas de regresin sean en realidad lneas
rectas (figura 7.12). Es decir. E( Y 1x) puede ser una funcin lim>a/ de x y 'o ECX 1y)
puede ser funcin lineal de y. En este ca~o decimos que la regresin del promedio de Y sobre X (por eJemplo) es lineal.
rtGURA
rtGURA
7. 13
7. 14
)'
Teorema 7.17. Sea (X. Y) una variable aleatoria bidimensional y supongamos que
E( X) = Jlx
E( Y) = 11,,
V(X) =
u;.
V(Y)
u;.
7.1 2
!J(X) - 2x.
!J(X 1)') =
;S; X ;S;
. y/ 2 <:;
2 - ,.
2 J
lr(y) =
X ;S; ) ;
lr(y x) =
)'
1;
J,r
=r
2X
. O s; y s; 2x.
J,
X
2
2
dx
2- y
= J: + ~
4
+p
u,.
(x - 1,,).
(7.27)
U ,,
o ~ y ~ 2.
E( Y 1 x) = t,.
+ p Ux (y
u,.
- t,).
(7.28)
Problm'
<?~mo lo hemos observado (ejemplo 7.23, por ejem plo), las funciones de rcgrcsiOn no necesitan ser lineales. Sin embargo, an nos podra interesar el tratar
de apr~ximar la curva de regresin con una funcin lineal. Corrientemente se hace
recumen?o al principio de los mnimos cuadrados, lo que en el contexto presente
es como ~~g.uc: se escogen las constantes a y b de modo q ue E[ E( y 1 X) - (aX + b)Jl
sea mm1m1zada. Anlogamente se escogen las constantes e y d de modo que
E[E(X 1 Y) - (e Y + d)] 2 sea minimizada.
La~. rectas Y = ax + b Y x = ey + d se llaman las aproximaciones mnimas
c.uadratrcas a las correspondientes curvas de regresin E( Y 1x) y E(X 1y) respcc.
t1vamente. El. teorema siguiente relaciona esas rectas de regresin con' las expuestas antcnormente.
7.5. Cierta aleacin se forma al combinar la mezcla fundida de dos metu1es. La aleaCIn que resuha contiene cierto porcentaje de plomo. X . que puede considerarse como una
~ariable aleatoria. Supongamos que X tiene la Siguiente fdp:
/(x)
= iiO
E(Y lx)
= a'x + b',
~).
sx(tOO -
0 S X S 100.
Supongamos que P. la utilidad net:t obtenida a l vender esta aleacin (por libra). es la siguiente funcin del porcentaJe del contenido de plomo: P ('1 + C 2 X. Calcular la utilidad es
perada (por libra).
7.6. Supngase que un instrumento electrnico tiene una duracin X (en unidades de
1000 horas) que se considera como una variable aleatoria continua con la siguienle fdp:
j(x)
t SY
=e
'.
x > O.
Suponiendo que el costo de fabricacin de tal articulo es $2.00. El fabricante vende el articulo por $5.00. pero gurantiza un reemboho tNal si X S 0.9. ,Cul es la utilid;d esperada
del fabricante por articufo?
7.7. Lns 5 primeras repet iciones de un experimento cuestan $10.00 cada una. Todas
repeticones que siguen cuestan $5.00 cada una. Suponiendo que el experimento se repite
hasta obtener el primer resultado exi1oso. S1 la probabilidad de un resultado e~uoso es siempre igual a 0,9 y si las repeticiones son indcp.:ndientes. cu:il es el costo esperado de la operacin completa'/
la~
PROBLEMAS
7.1. Enco111rar el valor esperado de las siguientes variables aleatorias.
la) La var!able aleatoria X definida en el problema 4.1.
(b) La vanable aleatoria X defmida en el problema 4.2.
(e) La var~ablc aleatoria T definida en el problema 4.6.
(d) La vanable a leatoria X definida en el problema 4.18.
7.2. Demo>lrar que E(X) no existe para la variable aleatoria X definida en el proble>
ma 4. 2 5.
7.9. Un lote de 10 motores elctricos debe ser rechazado totalmente o bien vendido.
segn el resultado del Siguiente proceso: se escogen al aar dos motores y se inspeccionan.
Si uno o ms son defee1uosos. el lote es rechazado: de otro modo es aceptado. Supngase
que cada uno de los motores cuesta $75 y se vende por $ 100: si e l lote contiene 1 motor defectuoso. ,cul es la utilidad esperada del fabricante?
7.10. Suponiendo que D. la demanda dmna de un articulo. es una variable aleatona con
la siguiente distribucin de probabilidades:
P(D
= C'l"/el!.
el
l. 2. 3.4.
Suponiendo que X y )' >On variable' alcatonas independientes con las siguientes
('(x)
= 8/x 3
x > 2;
O{y)
= 2y.
l'roblernu'
/(x) .. 8/x 3 ,
ole aleatoria que representa la distancia del impacto al centro. Suponiendo que la fdp de
R ~ea f(r) 2/tr.( 1 + r 2), r > O. Calcular el va lor esperado del puntaje despus de 5 disparos.
j(x)
Sea W =! X.
(a) Calcular E(W), usando la fdp de W.
(b} Calcular E(W), sm usar la fdp de W.
Sea Y
= 2xe-'.
7.15. Encontrar el valor esperado y la varianza de la variable aleatoria Y y Z del problema 5.2.
Encontrar el valor esperado y la varianza de la variable aleatoria Y del proble-
Y.
7.30. Suponiendo que (X. Y) est distribuida uniformemente en el tn:\ngulo de la figura 7.16.
V y S del
7.20. Encontrar el va lor esperado y la varianza de la variable aleatoria Y del problema 5.10 para cada uno de los tres casos.
7.21.
ma 6.7.
2:0.
X 2 Calcular E( Y):
7.14. Se lanza un dado regular 72 veoes. Puesto que X es el nmero de veces que apareoc el seis. evaluar E(X 1).
7.16.
ma 5.3.
t 6t
7.22 Encontrar el va lor esperado y la varianza de la variable aleatoria H del problema 6.11.
(-' ,,
1
:::;:~X
(1, ,,
7.23. Encontrar el valor esperado y la varianza de la variable aleatoria W del problema 6.13.
7.24. Supngase que X es una variable aleatoria para la cual E(X} = JO y V(X) - 25.
Para qu valores positiVOS de a y b llene Y = aX - b esperanza O y varianza 1?
7.25. Supngase que S. un voltaje aleatorio, varia entre O y 1 volt y est distribuido uniformemente en ese intervalo. Suponiendo que la seal S es perturbada por un ruido aleatorio independiente aditivo N, que est distribuido uniformemente entre O y 2 volts.
(a) Encontrar el voltaje esperado de la seal, tomando en cuenta el ruido.
(b) Encontrar la potencia esperada cuando la seal perturbada se aplica a una resistencia de 2 ohms.
7.26. Supngase que X est distribuida uniformemente en [-a, 3a]. Encontrar la varianza de X.
7.27. Un blanco est formado por tres crculos concntricos de radios 1/.J'r. 1 y .j'J
pies. Los disparos dentro del circulo interior valen 4 puntos, dentro del anillo siguiente 3 puntos,
Y dentro del tercer anillo 2 puntos. Los disparos fuera del blanco valen cero. Sea R la varia-
FIGURA
7.15
FIGURA
7.16
7.31. Supngase que X y Y son variables aleatorias para las cuales E( X) 1' E( Y) l'r
V( X)
y V( Y)=
Usando el teorema 7.7 obtenga una aproximacin para E(Z) y V(Z).
en donde Z
X Y.
a;
a:.
7.32. Supngase que X y Yson variables aleatorias independientes. d1stnbmdas cada una
uniformemente en (l. 2). Sea Z =X/ Y.
(a) Usando el teorema 7.7 obtener expresiones aproximadas para E(Z) y V(Z).
(b) Usando el teorema 6.5 obtener la fdp de Z y luego encontrar el valor exacto de E(Z) y
V(Z). Comparar con (a).
7.33. Demostrar que si X es una variable aleatoria continua con fdpfque tiene la propiedad
de que el grfico de fes simtrico respecto a x = a. luego E( X) = a. dado que existe E( X).
(Ver el cemplo 7.16.)
7.34. (a) Supngase que la variable aleatoria X toma los valores - l y l cada uno con
probabilidad 1/ 2. Considerando P[IX - E(X}I 2: kjV{X)] como una funcin de k, k > O.
l'robl<m'
t 6.\
7.40. Supngase que A y B son dos sucesos asociados con un experimenlo c. Supngase
que P(A) > O y 1'(8) > o. Se definen las variables aleatorias X y Ycomo sigue
X = 1
7.41.
FtOVRI\ 7. 17
FlGVRI\ 7.18
7.38. Supngase que la variable aleatoria bid imensiona l (X, Y) tiene la fdp dada por
O <x<y< l
O,
X
- 1
o
1
- 1
CD
[[J
CD
[I] o []]
CD [[] CD
s.
IS.l
ce
Demostracin:
"('
:L -
E(X) =
k=o
16!\
"el
Q)
e a.a.J.
- = L -,--k!
k=l (k
1)!
De modo semejante,
La distribucin de t)oisson
Defmicin. Sea X una variable aleatoria que toma los valores posibles:
O, 1, ... , n, ... Si
e at
P(X = k)=~,
k= O, 1, ... , n, ... ,
(8.1)
o.
.. Para verificar que la anterior representa a una legitima distribucin de probabilidades, sencillamente observemos que I:f=o P(X = k)= I::'. o(e al/k!) =e
e"=l.
Observaci?n : puesto .que .estamos definiendo directamente la variable aleatoria en funcin
de. ~u recorndo Y d1Stnbuc1n de probabilidades, sin referencia a ningn espacio mueslral
ongn~_al S, pode~os suponer que el espac~o muestra) S ha sido identificado con Rz y que
X(s) - s. Es dec1r, los resultados del expenmento son sencillamente los nmeros 0 2,
Ylas probabilidades asociadas con cada uno de esos resultados estn dados por la ecua~in
(li. ji.
Teorema 8.1. Si X tiene una distribucin de Poisson con parmetro oc, entonces E(X) = a y V(x) = a.
164
(puesto que la primera suma representa E(X) mientras que la segunda suma es
igual a uno]. Luego
V(X)
= e(X 2 )
(E(X)) 2
= oc 2
+oc - a 2 = oc.
Ob~ert>acin
~peranza
8.2
La distribucin de Poisson desempea un papel importante por derecho propio como un modelo probabilstico apropmdo para un gran nmero de fenmenos
aleatorios. Este punto se expondr en la seccin siguiente. Aqu nos interesa la
im portancia de esta distribucin para aproximar las probabilidades binomiales.
EJEMPLO !U . Suponiendo que la~ llamadas telefnicas llegan a una gran
cen tral telefnica y que en un periodo especial de tres horas (180 minutos) se han
recibido un total de 270 llamadas, o sea 1.5 llamadas por minuto. Supngase
que, con base en la evidencia anterior, queremos calcular la probabilidad de recibir O, 1, 2, etc. llamadas du rante los prximos tres minutos.
Al considerar el fenmeno de llamadas recibidas, podramos llegar a la conclusin de que en cualquier instante es tan probable que ocurra una llamada
telefnica como en cualquier otro instante. Es decir, la probabilidad permanece
constante en un intervalo de tiempo. La dificultad es que an en un intervalo
de tiempo muy corto, el nmero de puntos no slo es infinito sino que no puede
ser enumerado. Esto nos lleva a una serie de aproximaciones que describiremos
ahora.
Para empelar. podramos considerar la subdivisin del intervalo de tres minutos en nueve subintervalos de 20 segundos cada uno. Podramos considerar
entonces cada uno de esos nueve intervalos como un experimento de Bernoulli
durante el cual observamos una llamada (xito) o ninguna llamada (fracaso) con
P(xito) = (1,5) 20/fiJ = 0.5. As podramOS'eStar inclinados a decir que la pro-
11>6
R.l
habilidad de dos llamadas durante el intervalo de tres minutos (es decir, 2 xitos
en 9 experimentos con P(x.ito) = (0,5) es igual a tn(l /2) 9 = 9/ 128.
La dificultad con esta aproximacin es que ignoramos las posibilidades de,
digamos, dos o tres, etc., llamadas durante uno de nuestros ensayos con perodos
de 20 segundos. Si esta posibilidad se tomase en consideracin, el uso anterior
de la distribucin binomial no sera legtimo ya que esa distribucin es aplicable
slo cuando existe una dicotomia una llamada o ninguna llamada.
Para evitar esta dificultad hacemos la aproximacin siguiente- y, realmente,
nos lleva a una sucesin completa de aproximaciones. Una manera de estar ms
o menos seguro de que al menos se recibe una llamada en la central durante un
pequeo intervalo de tiem{>O, es hacer que ese intervalo sea muy corto. Asi, en
vez de considerar nueve intervalos de 20 segundos de duracin, consideremos
los 18 intervalos siguientes, cada uno de JO segundos de largo. Podemos representar ahora nuestro experimento como 18 experimentos de Bernoulli con P(xito) = P(recibir una llamada durante un subintervalo) = (1,5)10/60 = 0,25. Por
tanto P(dos llamadas durante el intervalo de tres minutos)= (18)(0,25) 2 (0,75)' 6
Ntese que aunque ahora tratamos una distribucin binomial diferente a la de
antes (es decir, que tiene parmetros n = 18, p = 0,25 en vez de n = 9, p = 0,5),
el valor esperado es el mismo, a saber np = 18(0,25) = 9(0,5) = 4,5.
Si continuamos de esta manera, aumentando el nmero de subintervalos
(es decir, n), disminuiremos al mismo tiempo la probabilidad de recibir una Uamada (es decir, p) de tal manera que np permanece constante.
As, el ejemplo precedente nos conduce a formular la pregunta siguiente:
qu sucede a las probabilidades binomiales (Z)pk( - p) - k sin ..... oo y p --+O, de
tal manera que np permanezca constante, es decir, np = a?
Los clculos siguientes dan la respuesta a esta pregunta muy importante.
Consideremos la expresin general para la probabilidad binomial,
P(X
= k) = (")
pk(J
k
=
n(n -
- p) - t
n!
k!(n- k)!
l)(n - 2) (n - k
k!
pk(J - p)" - k
+ 1)
jl(1 - p)" - k.
Hagamos np = a. Por tanto p = rx/ n, y 1 - p = 1 - af n = (n - a)/n. Sustituyendo todos los trminos que contienen p por sus expresiones equivalentes en
funcin de a, obtenemos
P(X = k)
=
=
n(n - 1) (n - k
:l(L) (
1-
k!
+ 1) (~)k("
n
~) ( 1 - ~) ". ( 1 -
-n tt.)-k
J[1 - ~J-k
k :
1
)
k:
1
)]
lu dlstrlbu~l611 de PoisSCin a lo
H.2
di~trlbuci6n
binomial
1(17
t.
lim P(X = k) = - k- 1-
".-oo
Hay extensas tablas disponibles para la distribucin de Poisson. (E. C. Molna, Poisson's Exponential Binomial Limit, D. Van Nostrand Company, lnc., New
York, 1942). Una breve tabulacin de esta distribucin se da en el apndice.
168
11.2
P(X ~ 2) = 1 - P(X
0) - P(X = 1)
= 1 - (0.9999) 1000
1000(0.0001)(0,9999) 999
La evaluacin de los valores anteriores da origen a una dificultad considerable. Puesto que n es grande y pes pequeo. aplicamos el teorema 8.2 y obtenemos la aproximacin siguiente:
P(X = k) ::
1!
0 1
'
(0.1f
k!
+ 0,1)
= 0,0045.
P(X = k) ;:, e
"P(npr
k!
.
Supngase, por eJemplo. que un fabricante produce artculos de los cuales alrededor de 1 en 1000 son defectuosos. Esto es, p = 0,001. Por tanto. usando la dis-
11.1
16'1
P(Z
= k) = (;)(~Y(I - ~)"-k.
11)
(k
(a)t ( -;a)-.
11
1-
170
K..l
100
f.)
<{
1- ( 1-
1~ + 2(1~)2 - 3!{;~)3 + .. )]
x2
=X-
2(100)
xl
+ 6(100)2
8.3
El proceso de Poisson
K.1
171
(a) Las hiptesis A 1 y A 2 juntas implican que la variable aleatoria X"' y [Xr+Ar
- X,] son variables aleatorias independientes con la misma disrribucin de probabilidades. (Ver ligura 8.1.)
K..1
Luego
p.(r
, + IJ.t
FIGURA
=1-
p,(6r) -
p~(l) =
pt(6t) - 1 - l 6t.
(8.2)
po{t
+ 61)
= P[Xr+At = Ol
= P[X, =O
lXr+or- X,) = O]
q',(t)
= J.,
- Po(ll( 1 - A. 61 J.
qi(t)
= J.q 1(t} =
+ 6c) -
(8.3)
As, nue~!ras hiptesis nos han conducido a una expresin para P[X, = O]. Utilizando esencialmente el mismo enfoque. obtendremos ahora p.(r) para " 2: l.
(e) Considerando p.(t + 6c) = P[X, +6 , = n].
= n si y slo si
+ tJ.t) =
p..(t)p.-..(6t)
" o
-2
=L
px(t)p.-..(61)
y por tanto
.Pe,
y por tanto
o, equivalentemente,
n = 1, 2, ...
q 1(c) = J.t;
(J.r)2
q 2(1)
2 .
En general, q~(t) = lq. - 1(t) y por tanto q.(t) = (J.tf/11! Recordando la delinicin
de q., linalmente obtenemos
Po(l)
6t
Po(l) = - A.po(t)
+ J.p. - 1(1),
Esta representa a un sistema lineal inlinito de ecuaciones diferenciales de diferencias. El lector interesado puede verificar que si delinimos la funcin q. por la
relacin q.(t) = eJ.J p.(e), el sistema anterior se transforma en q~(r)
J.q. 1(t), 11 = l.
2, ... Puesto que p 0(t) = e-J.J, encontramos que q0 (c) = l. [Ntese tambin que
q.(O) = O para n > 0.] As obtenemos, recursivamente,
Po(r
p.(t
- lp.(t)
= Po(t)po(t.t).
(d) Luego tenemos
Ahora X,+A,
8.1
l!..l
+ Po - t(l)p,(6t) + p.(t)po(6t).
x O
11 = O, l. 2, . . .
(8.4)
Hemos demostrado as que el nmero de partculas emitidas durante el interva lo de tiempo [0, 1) de una fuente radiactiva, bajo las suposiciones hechas anteriormente, es una variable aleatoria, con una distribucin de Poisson con parmetro (..t t).
Obserll(lcioroes: (a) Es importante darse cuenra de que la distribucin de Poisson apareci como una consecuencia de ciertas suposiciones que hicimos. Esto significa que cada vez
que dichas suposiciones sean vlidas (o al menos lo sean aproximadamente) la distribucin
de Poisson debe usarse como un modelo apropiado. Resulta que hay una gran cantidad de
fenmenos para los cuales es apropiado el modelo de Poisson.
(i) Representemos por X, el nmero de llamadas telefnicas que llegan a una central
telefnica durante un periodo de tiempo de longitud 1. Las suposiciones anteriores se
satisfacen aproximadamente, en especial durante el perodo congesrionado del dia.
Luego X, tiene una distribucin de Poisson.
(ii) Representemos por X, al nmero de electrones que salen del ctodo de un tubo
al vaco. Nuevamente las suposiciones son apropiadas y, por tanto. X, ttenc una dtstribucin de Poisson.
(iii) El ejemplo siguiente (de astronoma) indica que el razonamiento anterior puede
aplicarse no slo al nmero de ocurrencias de un suceso durante un perodo de tempo liJg
sino tambin al nmero de ocurrencias de un suceso dentro de los limues liJados de un
drea o un volume11. Supngase que un astrnomo investiga una parte de la Va Lctea
y supngase que en la parte considerada la densidad de estrellas. llammosla .<. es constante. (Esto significa que en un volumen de V (unidades cbicas}, se encontraran. en
promedio, .<V estrellas). Sea X v igual al nmero de estrellas encontradas en una parte
de la Va Lctea, que tiene un volumen V. Si se satisfacen las suposiciones anteriores (sus-tituyendo volumen por tiempo), entonces P[Xv = n] ~ (.<V)"e An! (Las suposiciones, interpretadas en el ejemplo presente, estableceran esencialmente que el nmero
174
E(P)
= Ct
- E(X 2
X).
La dislrlbu~lfmcom~lrlco
11.4
1 7~
P(R, =k 1X,
x) =
(~) (1 _
p)kpx - k.
L:
P(R, = k 1 X,
= x)P(X, = x)
x=k
Sea i = x - k. Entonces
P)k e-
J_
P(R, = k) = ( - p
--
k1
co
(pa.t)i+k
=O
l.
8.4
La distribucin geomtrica
= k) = qk -
p,
= 1, 2, ...
(8.5)
Se dice que una variable aleatoria con una distribucin de probabilidades ecuacin (8.5), tiene una distri bucin geomtrica.
KA
Un clculo sencillo indica que la ecuacin (8.5) define una distribucin 1.k
probabilidades legitima. Obviamente tenemos P(X = k) ~ O. Y
i: P(X = k) = p(l + +
1
q2
+ . ) =
p[-'-]
1- q
= 1.
11.4
= l :L l
-P
kpql-1
d""L
dq
= p l :L l -dq if
qt=p- - - = -1 .
dq 1 - q
p
E(C)
= 1300E(X) -
300
(0.6)l(0.4)
= 0.92.
s + 1 1X >
s) = P(X ~ t).
(8.6)
P( Y < 5)
y
d[q]
kk 1
k = O. l. 2....
= (0.6)t(0.4),
Luego
= 1300 0_12 -
300 = 86200.
Observaciones: (a) El teorema anterior indica que la dislribucin geomtrica <mo (icnc
memoria>> en el sentido siguiente. Supongamos que el suceso A 110 ha ocurrido durante las
primeras s repeticiones de t. Entonces la probabilidad de que no ocurra durante las fli"xi
mas r repeticiones es la misma que la probabilidad de que no ocurra dur;mtc las flrlmeus t
repeticiones. En otras palabras. la informacin de ningn xi to es olvidada en lo que se
refiere a clculos subsecuentes.
{b) El reciproco del teorema anterior, es tambin cierto: si la ecuacin (8.6) es vit lid:a parn
una variable aleatoria que toma slo valores positivos, entonces la varaable alcaloria debe
tener una distribucin geomtrica. (No demostraremos esto aqu. Se puede cncontnar tal
cxpo~icin en An lntroducricn ro Probability 11uory und lts Applicutiom, de leller, John
Wiley and Sons, lnc., 2. edicin , New York, 1957, pg. 304.)
(e) Observaremos en el captulo siguiente que existe una variable aleatoria contmua con
una distribucin que posee una propiedad anloga a la ecuacin (8.6}. es decar la distribucin
exponencial.
EJEMPLO 8.10. Supongamos que un mecanismo es inspeccionado al finalizar
cada da para ver si an funciona regularmente. Sea p = P (falla durante cualquier da dado]. Por tanto si X es el nmero de inspecciones necesarias ~ara
obtener la primera falla. X tiene una distribucin de probabilidades geomtncas
y tenemos P(X = 11) = (1- pr - p. Anlogamente, (1 - pr - p = P(el art~ulo
se encontrar que ha fallado en la n-sima inspeccin y no en la (n - 1) s1ma
inspeccin.]
El valor mximo de esta probabilidad se obtiene resolviendo
d
- P(X = n) =O.
dp
178
Esto da
2(-1)+(1-p)-
H.~
es igua l
" (k - 1)1 q, _,
=0.
2:
lo que equivale a
t r
(1 - p)"
La distribucin de Pascal
Sea
Z 1 = nmero de repeticiones nece~rias hasta incluir la primera ocurrencia de A.
Z 2 = nmero de repeticiones necesarias entre la primera ocurrencia de
A hasta incluir la segunda ocurrencia de A.
P(A) = q = 1 - p
P(Y = k) =
1)
k ( r - 1 p'qk - ,
k= r, r + 1, ...
(8.7)
2:
obtenemos
(k - ')p'qA'
r -
P(Y = k) = 1
'
2:~
p'
...
(k 1')
r -
~ -
= p'(l
q-
,..o
(-') ( -q)",
n
r -
17')
As vemos que todas las Z 1 son variables aleatorias independientes, que tiene
cada una, una distribucin geomtrica. Tambin. Y= Z, + + Z,. Por tanto
usando el teorema 8.3, tenemos el siguiente teorema.
Teorema 8.5. Si Y tiene uma distribucin de Pascal dada por la ecuacin (8.7).
luego
V( Y) = rqf p2.
(8.8)
E(Y) = rfp,
EJEMPLO 8.11. La probabilidad de que un experimento sea exitoso es 0,8.
Si el experimento se repite hasta que ocurran cuatro resultados exitosos, cul
es el nmero esperado de repeticiones necesarias? De lo anterior, tenemos E(nmero de repeticiones) = 4/0,8 = 5.
8.6
Sea X una distribucin binomial con parmetros n y p. (Es decir, X = nmero de xitos en n ensayos de Bernoulli con P(xito) = p). Sea Y una di stribucin
de Pascal con parmetros r y p. (Es decir, Y = nmero de ensayos de Bernoulli
necesarios para obtener r xitos con P(xito) = p.) Por tanto se establece la siguiente relacin
(a) P(Y ~ n) = P(X ~ r),
(b) P(Y > n) = P(X < r).
H.?
,fo
PtX < 3)
(~')
N - n
(~)(~ - k)
La distribucin hipergeomtrica
P(X - k) =
k=
o. 1, 2, .. .
(8.9)
Se dice que una variable aleatoria discreta que tiene la distribucin de probabilidades de la ecuacin (8.9) tiene una distribucin hipergeombrica.
Obsmacin: puesto que 1;: Ocada ve7 que b >u. si a y b son enteros negativos. podemos
defintr las probabilidades anteriores para todo k - O. l. 2. . . . Obviamente no podemos
obtener ms que r defcctuo<;Os. pero la probabilidad cero ser asignada a ese suceso segn
ecuacin (8.9).
(e) P(X
1) = 1 - P(X = 0) = 1 -
(~~!;;) = 0,28.
=k)~
G)
1(1 - p)"
para N grande.
Demostracin: deJaremos los detalles de la demostracin al lector. (Ver problema8.19.)
Ob.wrracicJn. la propiedad (e) del teorema 8.6 establece que si el tamao N Jel lote es
suficientemente grande, la distribucin de X puede ser aproximada por la distribucin binomial. Esto es razonablemente intuitivo. La distribucin binomial se aplica cuando muestreamos t'OII sustitucin (puesto que en e~ caso la probabilidad de obtener un articulo defectuoso pennanccc constante). mientras que la distribucin hipergeomtrica se apli~ cuando
mucstrcam'Os'Sm sust1luC1n. SI Cliiiao del lote es grande, no se:-mucha la diferencia si
un artculo en particular es dc~uelto o no al lote antes de ~oger el siguiente. Lu propiedad
(e) del teorema 8.6 es simplemente una expresin matemtica de ese hecho. Ntese tambin
que el valor esperado de una va riable aleatoria hipergeomtrica X es el mismo que el de
la variable aleatoria correspondiente distribuida binomialmente, mienlrus que la varian1JI de X es un poco ms pequea que la correspondiente en el caso binOmial. El <<trmino
de correccin>> (N - lt}/(N- 1) es aproximadamente igual a l. pura un N grande.
Podemos ilustrar el significado de (e) con el siguiente ejemplo sencillo. Supngase que queremos eva luar P(X = 0).
Paran - l.obtenemosdeladistribucinhipergeomtrica,P(X = 0)- (N- r)/
N = 1 r/N = q. De la distribucin binomial obtenemos directamente P(X =
O) = q. Por tanto estas respuestas son las mismas, como deberan ser, adems,
para n
l.
Para n - 2. obtenemos de la distribucin hipergcomtrica
P(X = 0)
EJEMPLO
P(X
1111
Teorema 8.6. Sea X una distribucin hipergeomtrca dada por la ecuacin (8.9). Sea p = rfN, q = l - p. Luego tenemos
L dl<trlbucln mulllnomlal
K. K
N~ r N;~~ 1 = ( 1 - ~) ( 1 -
~ 1) .
La distribucin multinomial
182
TeoremA 8.7.
Si X;, i
= 1,
Probltm"'
11.11
183
Tenemos
p, = P(A.) = 0,25.
P2 = P(A 2)
= 0.65,
Pl = P(A3)
= 0,1.
n!
fJ'l'p';',
n, 1
"21.... n.1
(8.10)
en donde !~. 1 n1 = n.
PROBLEMAS
Demostracin : el argumento es idntico al utilizado para establecer las probabilidades binomiales. Simplemente debemos observar que el nmero de maneras
de agrupar n objetos, n 1 de los cuales son de una clase, n 2 de los cuales son de segunda clase, ... , " de los cuales son de una k-sima clase est dado por
8.1. Si X tiene una distribucin de Poisson con parmetro {1. y si P(X = 0) = 0.2 calcular P(X > 2).
n!
Observaciones: (a) Si k = 2 lo anterior se reduce a la distribucin binomial. En este caso
designamos los dos sucesos posibles <<xito y fracaso.
(b) La distribucin anterior se conoce como la distribucin multinomfal de probabilidades.
Recordemos que los trminos de la distribucin binomial se obtuvieron del desarrollo de
la expresin binomial (p + (J - p)]" = r;. 0 (;)p(l - p) - . De una manera anloga, las
probabilidades anteriores pueden obtenerse de un desarrollo de la expresin multinomial
{p, + Pl + + Pr
1, 2, ... , k.
A3 ={X> 11,8}.
8.2. Sea X una distribucin de Poisson con parmetro A. Encon trar el valor de k para
el cual P(X ~k) es la mayor. [Indicacin: comparar P(X ~ k) con J>(X = k - 1).)
8.3. (Este problema es tomado de Probabilit)' and Stmistkal ltljerence for Enyineers
por Oerman y Klem. Oxford University Press. LonJr<"-. 1959.) El nmero de buques tanques.
digamos N. que llegan cada dia a c1erta refinera llene una dstribucin de Poisson con parmetro.! 2. Las actuales instalaciones portuaria~ pueden despachar tres buques a l da. Si
m~ de tres buques tanques llegan en un dia. los que estn en exceso deben enviarse a otro
puerto.
(a) En un da determinado, cul es la probabilidad de tener que hacer salir buques tanques?
(b) En cunto deben aumentarse las instalaciones actuales para permitir la atencin a
todos los buques tanques aproximadamente el 90 por ciento de los das?
(e) Cul es el nmero esperado de buques tanques que llegan al da?
(d) Cul es el nmero ms probable de buques tanques que llegan diariamente?
(e) ~Cul es el nmero esperado de buques tanques atendidos diariamente?
(f) ,Cul es el nmero esperado de buques tanques devueltos diriamente?
8.4. Supngase que la probabilidad de que un articulo producido por una mquina especial sea defectuoso es igual a 0,2. Si lO artculos producidos, se seleccionan al azar, cul
es la probabilidad de que no se encuentre ms de un articulo defectuoso? Use las distribuciones binomial y de Poisson y compare las respuestas.
8.5. Una compaia de seguros ha descubierto que slo alrededor del 0.1 por ciento de la
poblac1n tiene cterto tipo de accidente cada ao. Si los 10.000 asegurados fueran seleccionados aleatoriamente en la poblacin, cul ser la probabilidad de que no ms de 5 de estos
clien tes tengan un accidente de ese tipo el prximo ao'/
8.6. Supngase que X tiene una distribucin de Poisson. Si
P(X = 2) - iP(X = 1).
calcular P(X
= O) y P(X = 3).
Pols><~n
l'whlltna~
1H~
(b) Lo mtsmo que en (a) excepto que la mquina llega a ser Inoperante SI fallan 2 o ms
transi:.tores.
8.16. Se arman cuatro com p<mentes en un ~olo aparato. Las componentes originan
1,2,3, 4.
fuentes independientes y p 1 = P(i-sima componente es defectuosa), i
(a) Obtener una expresin de la probabilidad para que el aparato completo funcione.
(b) Obtener una expresin de la probabilidad' para que al menos tres componentes funCIOnen.
(e) Si p, p, ~ 0,1 y Pl = P = 0,2. calcule la probabilidad de que runCIOnen c~acta
mentc dos componentes.
8.17 Un mecnico mantiene un gran nmero de arandelas en un depSitO. El 50 por
ciento de esas arandelas son de i pulgada de dllimetro, el 30 por cento <on de A pulgada de
d1metro. y el 20 por ciento restante con i pulgada de dimetro. Se supone que 'e chgen
10 arandela:.
(a) t.Cual o la probab1hdad de que haya exactamente cinco arandelas de 1 pulgada. cuatro
de l de pulgada, y una de i de pulgada?
(b) ,Cul es la probabilidad de que slo haya dos clases de arandela\ entre las elcgtdas?
(e) Cul es la probabthdad de que las tres clases de arandelas estn entre las elegtdas?
(d) Cual es la probabilidad de que haya tres de una clase, tres de otra clase. y cuatro de
la tercera clase en una muestra de 10?
8.18.
8. 19
8.20. El nmero de partculas emitidas pof una fuente radaCU\~ duranl~ un periodo
especfico es una vanable aleatoria con una distribucin de Poisson. Si la probabilidad de
ninguna emisin es gual a t, cul es la probabilidad de que ocurran 2 o ms emisiones?
1116
8.21. Supngase que X,. el nmero de partculas emitidas en 1 horas por una fuente
radiactiva. tiene una distribucin de Poisson con parmetro 201. ;,Cul es la probabilidad
de que exactamente S partculas sean emitidas durante un perodo de 15 minutos'l
9
Algunas variables aleatorias continuas importantes
9.1
= P(X
> r).
Introduccin
En este captulo proseguiremos la tarea que nos impusimos en el captulo 8,
y estudiaremos con mucho detalle varias variables aleatorias contin uas importantes y sus caractersticas. Como lo sealamos antes, muchos problemas llegan
a ser matemticamente ms sencillos al considerar un recorrido idealizado
para una variable aleatoria X , en el cual todos los nmeros reales posibles (en
a lgn intervalo especfico o conjuntos de in tervalos) pueden considerarse como
resultados posibles. De esta manera llegamos a las variables aleatorias con tinuas.
Muchas de las variables aleatorias que presentaremos ahora tiel)en aplicaciones
importantes y pospondremos hasta un captulo posterior la exposicin de algunas
de sus aplicaciones.
9.2
La distribucin normal
Una de las variables aleatorias continuas ms importantes es la siguiente.
Defmicin. La variable aleatoria .\'. que toma todos los va lores reales
- co < x < co, tiene una distribucin normal (o Gaussiana) si su rdp es
de la forma
[X - p] 2),
-CO
<X<
OO .
(9. 1)
Los parmetros p y u deben satisracer las condiciones -co < 11 < co.
u > O. Puesto que tendremos muchas ocasiones de referirnos a la distribucin anterior utilizaremos la notacin siguiente: X tiene la distribucin N(p, u 2 ) si y s lo si su distribucin de probabilidades est dada por
la ecuacin (9.1). [Frecuentemente usamos la notacin exp(t) para representar e'.]
Esperaremos hasta el captulo 12 para exponer la razn de la gran importancia de esta distribucin. Indiquemos sencillamente ahora que la distribucin
11!7
1KK
Al ~unu\
t11rlnhll''
ai~1U 01h'
cuntlnuo'\ hnpor1untc\
9.1
normal sirve como una aproximacin excelente a una gran cantidad de distribuciones
que tienen mucha importancia prctica. An ms, esta distribucin tiene varias
propiedades matemticas apreciables que hacen posible deducir importantes resu hados tericos.
9.3
J:
9.1
E(X) = - 1-
00
1n
= r sen a.
12"1""o re ': dr da
2
12 = - 1
2n o
=1
2n
1
=2n
f 2 -e-''12io da
dz
-oo
1 u f +oo ze- ='12 dz + ll
~
v 2n
E(X 2 ) =
_"'
1
pe
v 2n
f +oo 1'
''
12 dz.
..
) f+"'
r-;::
x 2 exp
v 2n u _ "'
2
( - -2)[X_;:;:_p
]
) dx.
u
l.
E(X 1 ) =
Por lo tanto/ = 1 como se iba a demostrar.
dx.
f 2 d:x -
};;;:
v 2n
= r cos a,
p] 2)
1119
FIGURA
9.1
fl . .,
-<O
liJO
Al~un'
Y.4
La segunda integral nuevamente es igual a cero por el argumento usado anteriormente. La ltima integral (sin el factor Jl 2) es igual a la unidad. Para calcular
(l/j27i) r: ~ z 2e-:lz dz, integramos por partes haciendo ze-:l/2 = dv y z = u.
Luego v = -e zlz mientras que dz = du. Se obtiene
a1
+ b y que V( Y)
11/1
a u 2 se deduce
[y-b
] )111a
a
2
g(y)
Luego, E(X 2) = u 2 + 1 2, y por tanto V(X) = E(X 2 ) - (E(X)) 2 = u 2 As encontramos q11e los dos parmetros Jl y u 2 que caracterizan la distribucin normal son
la esperanza y la varianza de X, respectivamellle. Para ponerlo en forma distinta.
si sabemos que X est distribuido normalmente, slo sabemos que su distribucin de probabilidades es de cierto tipo (o pertenece a cierta familia). Si adems,
conocemos E(X) y V(X), la distribucin de X est especificada completamente.
Como anteriormente lo mencionamos, el grfico de la fdp de una variable aleatoria distribuida normalmente es simtrica respecto a Jl. El achatamiento del
grfico se determina por u 2 en el sentido de que si X tiene una distribucin
N(Jl, ut) y Y tiene distribucin N(1,
en donde uf > u~, entonces sus fdp
tendran las formas relativas que se muestran en la figura 9.2.
un,
2u
-J
1
1
. exp(- - 2 2 [y- (at
, '2n ual
2u a
+ b)) 2)
-lo
b. a 2 u 2 ).
el teorema 9.1.
0/Js~nacitr: la importancia de este corolario es que al C'<mobiw /(ls mritf(l(/es en la~ cuales
se mide la variable podemos obtener la distribucin estandarizada (ver d). Al hacer esto. oir
tenemos una distribucin donde ningn parmetro es no especificado. lo cua l es una situacin
muy propicia baJO el punto de vista de la tabulacin de la distribucin (ver la prxima ~cccin).
9.2
(d) Si X tiene una distribucin N(O, 1) decimos que X tiene una distribucin
normal estandarizada. Esto es, la fdp de X puede escribirse como
(9.2)
(Usaremos la letra 1f! slo para la fdp de la variable aleatoria X anterior). La importancia de la distribucin normal estandarizada se debe a que est tabulada.
Cada vez que X tiene una distribucin N(1. u 2) siempre podemos obtener la forma
estandarizada, tomando simplemente una funcin lineal de X como lo indica
el teorema siguiente.
Teorema 9.1. Si X tiene la distribucin N(Jl, u 2 ) y si Y= a X
Y tiene la distribucin N(aJl + b. a 2 u 2 ).
+ b. entonces
P(a :5X:5b)=
v 2n
Esta integral no pue.de evaluarse por mtodos ordinarios. (La dificultad proviene
del hecho que no podemos aplicar el Teorema Fundamental del Clculo puesto
que no podemos encontrar una funcin cuya derivada sea igual a e xl 2 ). Sin embargo. los mtodos de integracin numrica pueden usarse para evaluar integrales de la forma anterior. y de hecho ha sido tabulado P(X :5 s).
La fda de la distribucin normal estandarizada se denotar permanentemente
como <1>. Esto es.
"'(
..., s) =
1
Pi::
I' -
y21T. _,.,
xl
d x.
(9.3)
192
9A
b)
~.4
1'1.1
= <l>lb) - <l>(a).
4>(x)
com unes estn disponibles). As, nos deberamos sentir tan cmodos con la funcin <t>(x) =
(1/ JZit)J'!..,. e- '12 ds como con la funcin f(x) = .jX. Ambas funciones estn tabuladas,
y en algunos casos podramos tener a lguna dificultad para calcular directamente la funcin
para x = 0,43, por ejemplo. Varias tablas de algunas de las funciones mils importantes que
encontraremos en nuestro trabajo aparecen en el Apndice. Ocasionalmente se harn referencias a otras tablas que no aparecen en este texto.
FIGURA
9.3
EJEMPLO 9.1. Supngase que X tiene distr ibucin N(3,4). Deseamos encontrar un nmero e tal que
P(X > e) = 2P(X
e).
> c-3)
- 2
= 1 - <1> (c
- - - 3)
Tambin,
(9.4)
(9.5)
Esta relacin es muy ti l puesto que en la mayora de las tablas la funcin <1> se
tabula slo para valores positivos de x .
Calculemos finalmente P(.t - ku ~ X ~ J.l + ka), en donde X tiene distribucin N(.t, u 2 ). La probabilidad anterior puede expresarse en funcin de el>
escribiendo
P(.t - ku ::;; X
~ J.1
+ ku)
= P ( -k ~ -Xu- J.l ~ k)
3 e- -2-3)
~
= <1>
(e- -2 -3) .
+ ku)
2Cl>(k) - l.
(9.6)
9..1
o:
P( \
< 01
p(-'
165
<o
165)
= <1>( -55)-- o.
La srtuacrn que <~parece aqu ocurnr con rrecuencra: se supone que cierta variable aleatoria :<
que sabemos que no puede lomar valores ncgatrvos trene una distribucin normal. tomando
as (tencamente. a lo menos) ambos. valores po>rtlvos y negativos. M ientras que se escoan
los parmetros 1' y a 1 de modo que J>( \' < 01 sea prcticamente cero. tal representacin cs
perrectamente vlida
= (C 1 +
Luego
El problern;t de encontrar la fdp de una funcin de una va ri able aleatoria.
!lamrnosla Y - //( ,\ ). como se e;~;puso en el captulo 5, aparece en el contexto
presente en el cual la vartable aleatoria X est distribuida normalmente.
EJEMPLO 9.3. Supngase que e l radio R de un cojinete de esferas estil distribuido normalmen te con valor esperado 1 y varianza 0.04. Encuentre la fdp
del volumen del COJinete.
La fdp de la variable aleatoria R es t dada por
o
Asi
.f{r)
( 1[,.0.2
- 1] )
C 1 (pesos)
p = 11 -
t ln(~: : ~:)
[Es fcil para el lector verificar que lo anterior da un valor mximo para E(T)].
e,
9.5
e1
el
-C 2
si X < 10.
f(x) = ae-=,
-C 3
s i X > 12.
= O,
x > O
(9.7)
1%
Algunu' rioblts
olcatoria~ continua~
hnpor1 ant""
As el valor esperado es igual al recproco del parmetro a. [Simplemente redenominando el parmetro ':1. = 1/{J. podramos haber escrito la fdp de X como ((x) =
(1 /p)e-" ' De esta manera. el parmetro f1 es igual al valor esperado de X. Sin
embargo. continuaremos usando la forma de la ecuacin (9.7).]
J; f(x)dx =
197
(e) La varianza de X puede obtenerse con una integracin semejante. Encontramos que E(X 2) = 2/':1. 2 y por tanto
V(X)
= E(X 2 ) -
(EtX)) 2
= ':1.~.
(9.10)
P(X > s
FIGURA 9.4
= P(X
:S x )
J:
':le- di
= 1-
e-u.
= O.
~O
(9.8)
= dv. x
"' i"'
= [ -xe-=]!o +
P(X >
+ 11 X >
.\1
~ P(X
> 1).
(9.11)
E(X)
s) =
Por tanto
9.6
+ 1! X >
e -u dx
= -.
1
a
(9.9)
EJEMPLO 9.5. Supngase que un fusible tiene una duracin X que puede
considerarse como una variable aleatoria continua con una distribucin exponencial. H ay dos procesos mediante los cuales se puede rabricar el fusib le. El
proceso 1 da una duracin esperada de LOO horas (esto cs. el parmetro es igual
a 100- 1) , mientras que el proceso JI da una duracin esperada de 150 horas (esto
es. el parmetro es igual a 1so-. Suponiendo que el proceso ll es dos veces ms
costoso (por ru sible) que el proceso l . el cual cuesta e por fusible. Supngase.
adems. que si un fusible dura menos de 200 horas, se carga una prdida de K pesos
en contra del fabricante. Qu proceso se d.:ber usar'! Calculemos el costo espe
rado para cada uno de los procesos. Para el proceso l. tenemos
e, =
si
= C
+K
X > 200
si
X :S 200.
IYH
Y.(o
Por tanto.
E(Cr)
~ 200)
9.7
usa este tubo cuesta C 1 pesos/hora para funcionar. M len tras la maquina est
funcionando, se obtiene una utilidad de C 2 pesosjhora. Debe contratarse un
operador para un nmero prefijado de horas, digamos H, y obtiene un pago de C3
pesos/hora. Para qu valor de Hes mayor la utilidad esperada?
Obtengamos primero una expresin para la utilidad, !lamrnosla R. Tenemos
E(Cu) = K(l - e
si
+ 2C.
~ H.
Luego
E(Cu)- E(C,)
= C + K(l.'
4 13 )
= C- 0,13K.
+ (C2
(x > ~)
f(x)
- C,)
J0 tPe - P dt
= H(C 2
9.6. Supngase que X tiene una distribucin exponencial con parmetro~. Entonces E(X) = 1/ fl. Calculemos la probabilidad de que X sobrepase
su valor esperado (ligura 9.5). Tenemos
EJEMPLO
= (C 2
C,)[He- ' 11 +
p- - e - ' "<P
' ")
+ H)] - C3H.
= e - OiJ
= e- <t.
e - PII
- e
Pll
+ (p
+ H)(/J)e- Pll] -
c3
FIGURA
9.5
i2
k /2
(n)
(1
i (k )(1 - e - "')"
(+
11
EJEMPLO
"'~)
4
(e
s111 es par;
[A !in de que la solucin anterior sea signilicativa, debemos tener H > O lo que
ocurre si y slo si O < C 3 /(C 2 - C 1 ) < 1, lo que a s u vez es equivalente a Cz- C, > O
y C 2 - C 1 - C 3 > O. Sin embargo, la ltima condicin requiere sencillament.e
q ue las cifras del costo sean de una magnitud tal que pueda obtenerse una utilida d.]
Su poniendo en particular que p = 0,01, C 1 - $3, C2 = S 10, y C3 = $4.
Luego H = - lOO In [4] = 55,9 horas ~ 56 horas. Luego, el operador debe ~er
contratado por 56 horas a fin de obtener la utilidad mxima. (P ara una modllicacin ligera del ejemplo anterior, ver el problema 9.18.)
sin es impar.
1) 2
tubo electrnico es una variable aleatoria con una distribucin exponencial con
parmetro /J. Esto es, la fdp est dada por f(t) =Pe-'' t >O. Una mquina que
9.7
La distribucin gama
'1.7
Oefinicion.
J'
r(pJ
xt 'e
'{v
'
()
r.
Sl!
(9.12)
9.R
tSta dbtribucin depende de los do> fWI'fniE'II'OS. /' y :X. de lOS CUaleS pedirnOS
r > O, ex > O. [ Debido a la definicin de la funcin Gama. es fcil ver que
J~ ~ f(x)dx = 1.] La figura 9.6 muestra el grfico de la fdp de la ecuacin (9. 16)
para diversos valore~ de r y :x = l.
+ (p
= (p -
1)
e ' >:p
f(x)
l tfX
l)r(p - 1).
(9.13)
As ~ernos der~ostrado que la funcin Gama sigue una importante relacin recursrva. Supon~~ndo que p es un l!lllero positivo. hagamos p = n. Entonces aplicando la ecuacron (9. 13) repetidamente. obtenemos
r(n)
Sin embargo, r( 1)
J e
2111
fiGURA
9.8
(11 - l)r(n - 1)
- (11
1}(n - 2)r(n - 2)
- (11
1}(11 - 2) r( 1).
(a) Si r = 1, la ecuacin (9.16) se tran sforma en f(x) = rxe u. Luego la distribucin exponencial es un caso especial de la distribucin Gama. (Si res un entero
pt>sitivo > l. la distribuci n gama est relacio nada ta mbin con la distribucin
9.6
(9.14)
(si '' es un enter~ positivo). (Luego podemos considerar que la funcin Gama es
una g<:_ncralt7acron de la funci n factorial). Tambin es fcil verificar que
(9.15)
(Ver problema 9.19).
J:'
r!I = e-[
+ r- 1 + r(r-
l)-
+ .. + r!].
Por tanto
r
f(x)
:X
f{r)
- O.
(::.t'l:}'
e '.
= L:
X> O
P(Y =k).
k=O
(9. 16)
..
9.11
Consideremos ahora la fda de la va ri ab le aleato ria cuya fdp est dada por
la ecuacin {9.16). Puesto que r es un entero positivo, la ecuacin {9.16) puede
escribirse como
9.9
/1(1)
P(T $ 1) = 1 - P(T
=1= 1-
>
2U.l
tiempo ne-
1)
(e) St X tiene una distribucin Gama dada por la ecuacin (9.16). tenemos
E(X) =
F(x) = 1 -
J.
""-u'( -_'e
r
"
11
dtt,
X> 0.
9.9
e - x('lxt/k!.
x >O.
1
zl l
( ) _
/ z - 2"12 r(n/ 2)
(9.17)
Por tanto. la fda de la distribucin Gama puede expresarse mediame la fda tabulada de la distribucin de Poisson. (Recordamos que esto es vlido si el parmetro r es un entero positivo.)
el resultado indicado en la ecuacin (9.17). que relaciona larda de la distribucin de Poisson con la rda de la d>tribucn Gama. no es tan sorprendeme como podra
aparecer al pnnc1p10. tal como lo md1car la ~guente exposicin.
Primero que todo, recordemos la relacin entre las distribuciones de Pascal y binomial
(ver observacin (b) secc1n 8.6). Una relacin >imilar existe entre la distribucin de Poisson
YGama considerando que la ltima e; un" dJ>tribucin continua. Cuando tratamos una distribucin de Poisson estamos interesados e>pecialmente en el nmero de ocurrencias de algn
suceso durante un periodo lijo de tiempo. Y. como se indicar. la distribucin Gama aparece
cuando pedimos la distribucin del tiempo necesario para obtener un nmero especificado
de ocurrencias del suceso.
Especilicamente, supngase que X ~ nmero de ocurrencias del suceso A durante (0. t).
Entonces bajo condiciones semeJantes (es decir, satisraciendo la hiptesis A 1 hasta As en la
seccin 8.3) X tiene una distribucin de Poisson con parmetro crt. en donde ;x es el nmero
La distribucin x-cuadrado
(9.18)
Esta integral es precisamente de la forma considerada anteriormente. llam ndola 1 (con a = ax), luego
F(x) = 1 -
r/7..
- '1! =12
> o.
(9.19)
Una variable aleatoria Z que tiene fdp dada por la ecuacin (9.19) se dice que
ttene una distribttCII x-cuadrado con n grados de libertad (denotada por x,!). En
la figura 9.7. la fdp paran = 1. 2 y n > 2. Una consecuencia inmediata de la ecuacin (9.18) es que si Z tiene fdp de la ecuacin {9.19). tenemos
E(Z)
Oh<t'TI'arinn :
f(:)
n.
(9.20)
V{Z) = 2n.
f(z)
f(:)
fiGUR,t.
9.7
..
'
204
9.111
La distribucin x-cuadrado tiene muchas aplicaciones imponantcs en inferencia estadstica, 'algunas de las cuales citaremos posteriormente. Debido a su
importancia, la distribucin de x-cuadrado est tabulada para diversos valores
del parmetro n. (Ver el Apndice). Por tanto. podemos encontrar en la tabla qu
valor, denotado por x;, satisface P(Z S x:J = ex, O < ex < 1 (figura 9.8). El eJemplo 9.9 trata un caso especial de una caracterizacin general de la distribucin
de x-cuadrado que estudiaremos en un captulo posterior.
E(K)
f(z)
m/2
FIGURA
9.8
g(s) =
1
r. [rp( fi) +(rp - f i)]
2...;s
-_ s -
1/2
P(Y S
t)
~ P(j2Y
fi)
:><
<!>(
1)
1 s/2 .
--e
.fi
Si comparamos esto con la ecuacin (9.19) y recordamos que r(t) = ft, observamos que S tiene una distribucin xf. Luego encontramos que el cuadrado de
una variable aleatoria con distribucin N(O, 1) tiene una distribucin X~ (Este es
el resultado que generalizaremos posteriormente).
--Ahora podemos obtener la fdp h de la energa cintica K . Puesto que K es una
funcin montona de V2 cuya fdp est dada por la g anterior, tenemos directamente
A fin de evaluar P(K S 5) por eJemplo, no necesitamos usar la fdp de K sino que
podemos usar sencillamente la distribucin tabulada de x-cuadrado como sigue:
P(K S 5)
= P ((m/2) V 2 s
5)
= P(V 2 S
10/m).
..
9.11
Supngase un proceso de Poisson (ver la nota (e) del ejemplo 8.5 precedente~
(d) variable aleatoria: nmero de ocurrencias de un suceso A en un intervalo
de tiempo determinado
distribucin: Poisson
(e} variable aleatoria: tiempo transcurrido hasta la primera ocurrencia de A
distribucin: exponencial
'1.1 t
Teorema 9.3. Suponiendo que (X, Y) tiene la fdp como se da en la ecuacin (9.21 ). Entonces
(a) las distribuciones marginales de X y de Y son N(llx.ai) y N (JI,,;),
respectiva mente:
(b) el parmetro p que aparece anteriormt:nte es el coeficiente de correlacin entre X y Y;
(e) las distribuciones condicionales de X (dado que Y
que X = x) son respectivamente
diStribucin: Gama.
len
11 (Y-JJ-,).11x(l-p
N [ llx+Pa
JC
2>]
= y) y de
Y (dado
N [ Jl1 + p a,
a" (x - Jlx). a 12 ( 1 - p 2 ) .
Obsertucion . ntese la snmluud entre (a) ) td). (b) y (e). y finalmente entre (e) y (f).
/(x. J') =
2[(X - Jlx)l -
2( 1 - p )
1= =
21ri1.<J,~
X exp {-
Obsmaciones: (a) El reciproco de (a) del teorema 9.3 no es verdadero. Es posible tener
una fdp cOnJunta que no es normal bivariada aunque las fdp de X y de Y son normales unidimensionales.
(b) Observemos de la ecuacin (9.21) que si p ~ O. la fdp conjunta de (X. Y) puede factori7arse y, por tanto. X y Y son independientes. Luego en el caso de la distribucin normal bivuriada, encontramos que la correlacin cero y la independencia son equivalentes.
(e) La parte (e) del teorema anterior demuestra que ambas funciones de regresin del
promedio son lineales. Tambin demuestra que la varianza de la distribucin condicional
se reduce en la misma proporcin que (1 - p 2 ). Esto es, si p est prxima a cero, la varianza
condicional es esencialmente la misma que la varianza incondicional. mientras que si p est
prximo a l.la varianza condicional est prxima a cero.
11x
Jly)l]}.
a,
-ro< x <ro.
(9.21}
La fdp anterior depende de 5 parmetros. Para que f defina una fdp legtima [o sea. f(x,y) ~O.~::; ~::; j(x.y)dxdy = 1). debemos poner las
siguientes restricciones a los parmetros: -ro < Jlx < ro: -ro < 11, < ro:
a,> 0: a,> O: - 1 < p < l. Las siguientes propiedades de la distribucin
normal bivariada pueden verificarse fcilmente.
..
9.12
9. 12
'1.12
Distribuciones truncadas
en donde
tiene distribucin N(t. u 2 ). An logamente a lo an teri or tenemos la
siguiente delinicin.
F(x) = P(X ~ x)
= P( Y $
= P( Y
1 Y S 2)
~ -.)/ PI Y S
=1
Si
> 2.
2)
si
= F'(x)
- fo(O, I) exp ( -
exp (11
K =
Hx ~.12.2J)
si
<D( - 2)
2
FIGURA
11
1-<D
si
~ y.
(9.23)
. -Jl)]-1
(.:u
S 2
f(x) = O
H'~ J)
x > 2.
si
x < y,
2.
si
si
< y,
(9.24)
9.9
1 y po r tanto
e= e''
puesto que
Tambin podemos considera r una variable a leatoria truncada en el caso discreto. Por ejemplo, si una variab le aleatoria X tiene una dis tribucin de Poisson
(con parmetro J.) est truncada a la derecha en X = k + l. signilica que X tiene
la distribucin siguiente:
P(X = i) =O
si i
J.i
=C -'1 e-
Defmicin. Decimos que la variable aleatoria X tiene una distribucin
normal truncada a la derecha de X = r si su fdp fes de la forma
/(x) ~
x >
si
- K
+ 1,
(9.25)
l.
r.
[X - p]2)
exp ( - -1 - ,j'iu
2
u
si
~k
1
<D((r - p)f u]
P(Z Sr)
X~ T.
= 1 y por tanto
(9.22)
As
P(x
J..i ..-t
= 1') = :
l.
1
('it. r
~j -O A
'J
. otro va1or.
= o, l ... .. k y o para cua 1qurer
Lru; distribuciones truncadas pueden aparecer en muchas aplicaciones importantes. Consideraremos algunos ejemplos a con tinuacin.
2 1O
'1.12
E(X) = 4
V(X) = 4.
9, 12
s llegan ms de 1res partculas durante un perodo de tiempo especificado. el dispositivo deja de funcionar debido a que se produce un Cierre). Por tanto. st Y
es el nmero de partculas anotadas durante el intervalo de te01po especfico.
Y ttene los valores posibles O, 1 y 2. As.
encontramos que
e-
P(Y =k)=
k!
= O,
As, este modelo no es muy preciso puo.:sto que asigna una probabilidad 0.023
a un s uceso que sabemos que 110 p11ede o~:urrir. En s u lugar. podramos considerar.
la variable aleatoria X anterior truncad;~ a la izquierda en X = O. Por tanto supondremos que la fdp de la variable aleatoria X est dada por
f(x)
=
=O
si
x S O,
si
EJEMPLO
k = 1, 2, .... n.
j(x) - O
k= O. 1.2.
x ~ r.
si
>O.
A4
Obsen'{lcin: hemos indicado que a menudo u:.amos la distribucin normal para repre.entar
una variable aleatoria X de la cual sabemos que no puede tomar valores negativos. (Por eJemplo.
el 11empo para rallar, el largo de una varilla. etc). Para ciertos valores de los parmetros
2
1
E(X) y 11 ~ V(X) el valor de P(X < O) ser despreciable. Sin embargo, si no es este
el caso (como en el ejemplo 9.1 1) deberiamos considerar el uso de la distribucin normal truncada a la izquierda en X = O.
2 11
flnaex p[
si
xsr.
:r.:
1
] f'
= f+
"' xf(x) dx = - [exp [ - ~ (x - Jl) ]
..,
<1> (r - )f a
.., v ..rc
2
a
-
--
;;-;;;
-JI+
JI-
~ JA)fq] [JI<l>
e:
_ l_ e
<1>[(-r -
dx
'12 ds
-oo
'2(-l)ll!,'
- 1- exp [
JI)/ a] .j'i
- 1
2
(t -'')
q
2
]
Ntese que la e xpresin obtenida para E(X) se expresa mediante las funciones
tabuladas. La funcin <l> naturalmente es la fda corriente de la distribucin N(O, 1),
mientras que (l/Me - '12 es la ordenada de la fdp de la distribucin N(O, 1)
y tambin est tabulada. En realidad, el cociente
(l/~e
x> 2
x)
esta tabulado. (Ver O . B. Owen. Handbook of Sta11stical Tables. Addison-Wesley
Publishing Company. lnc.. Reading, Mass .. 1962.)
Al~"""" >arlabl~~
212
'1.12
Utilizando el resultado anterior. podemo' formular ahora la sig111ente pregunta: para 11 y u dados, ,dnde debera ocurrir la truncacin (esto es, ,cul debera
ser el valor de r?) de modo que el valor esperado despus de la truncac1on tenga
algn valor A pre asignado'? Podemos responder esta pregunta con ayuda de la
distribucin normal tabulada. Supngase que 11 = 10, t1 = 1. y necesitamos que
sea A = 9.5. Debemos reso lver por tanto
9.5 ,., 10-
e- lr- 101'/2.
= (J/fo)e
Ir
IOt,2
<l>(r - 1O)
Ob~ertaci11 :
<1
(f -")
1 exp [ - -1 - -
<b[(r - 11!/<1J fo
x2
9.10. Supngase que X t1cne una dislribuc1n N(1.u1 ). De1ermine e (como una funcin
de JI y U) tal que P(X ~ (')
c~ cin
PRO BLEMAS
9.1. Supngase que X licnc una distribucin N(2,0,16). Use la tabla de la distribucin
normal, para evaluar las probabilidades siguientes.
(a) P(X ~ 2.3)
Esto se 1ransforma en
~
9.2. El dimetro de un cable elctrico est d istribuido normalmente con promedio 0,8
y ,arianza 0,0004. Cul es la probabilidad de que el dimetro sobrepase 0.81 pulgadas?
9.3. Suponiendo que el cable en el problema 9.2 se considere defectuoso SI el dimetro
se d1ferencia de su promedio en ms de 0,025. Cul es la probabilidad de obtener un cable
defectuoso?
9.4. Se sabe que los errores en cierto instrumento para medir longitudes estim distribuidos
normalmente con valor esperado cero y desviacin estndar de 1 pulgada. Cul es la probabilidad de que al medir los errores, sean mayores de 1 pulgada. 2 pulgadas, 3 pulgadas?
9.5. Suponiendo que la duracin de los instrumenlos electrnicos D, y 0 2 tienen distribuciones N(40. 36) y N(45, 9) respectivamenle. Cul debe preferirse para usarlo durante
un periodo de 45 horas? ,Cul debe preferirse para usarlo duran1e un perodo de 48 horas?
9.15. Supngase que X. la resislencia a la ruptura de una cuerda (en libras). tiene distribucin N(IOO. 16). Cada 100 pies de alambre para cuerda produce una utilidad de $25,
si X > 95. Si X :S 95. la cuerda puede utilizarse con un objetivo diferente y se obtiene una
utilidad de $10 por alambre. Encuenlre la u1ilitlad esperada por alambre.
9.16.
l'robltn
Sea Z(t)
X 1 cos wl + X 1 sen wr. Esta variable aleatoria es de inters en el estudio
de seales aleatorins. Sea V(t) dZ(t)/dt. (Se supone que w es constante.)
N(J1.1Tl).
(b} Demuestre que Z(t) y V(t) no estn correlacionados. [Observacin: puede demostrarse
que Z(t) y V(t) l>On independientes pero es ms difcil de hacer].
si
9.19. Demostrar que f{!) ~ .fif. (Ver 9.15). [Indicacin: h.acer el cambio de variables
u 2/ 2 en la integral f(t} a fr. X l i le > lfx.]
9.20. Verificar las expresiones de E(X) y V(X,, cuando X tiene una distribucin Gama.
[Ver ecuacin (9.18)).
9.21.
9.22.
9.23. Supngase que In vnriablc aleatoria X tiene una distribucin de X cuadrado con
10 grados de libertad. Sr se nos pidiera encontrar dos nmeros a y b tales que P(a < x < b) =
0.85. podramos verificar que exi~ten muchos pares de esa clase.
(a) Encuentre dos conjuntos diferentes de valores (a. b) que satisfagan la condicin anterior.
(b) Supngase que adems de lo anterior. necesitemos que
P(X < a)
= P(X > b~
1 t~
9.27. Supngase que X tjene una distribucin exponencial truncada a la izquierda como
est dada en la ecuacin (9.24). Obtener E(X).
9.28. (a) Encontrar la distribucin de probabilidades de una variable aleatoria distribuida binomiatmente (con base en n repeticiones de un experimento) truncado a la derecha
en X = n ; esto es. X = n no puede ser observado
(b) Encontrar el valor esperado y la varianza de la variable aleatoria descrita en (a).
9.29. Supngase que una variable aleatoria distribuida normalmente con valor esperado JJ y varian7..a u 1 est truncada a la izquierda en X = t y a la derecha en X y. Encontrar
la fdp de esta variable aleatoria truncada doblemente>>.
9.30 Supngase que X , el largo de una varilla tiene distribucin N(IO, 2). En vez de
medir el valor de X, sblo se especifica si se cumplen ciertas exigencias. Especficamente. cada
varilla fabricada se clasifica como sigue: X < 8, 8 !> X < 12, y X e::. 12. Si se fabrican 15 de
tales varillas. cul es la probabilidad de que un nmero igual de varillas caiga en cada una
de las categoras anteriores?
9.31. Se sabe que la ttuvia anual que cae en cierta regin es una variable aleatoria distribuida normalmente con promedio igual a 29.5 pulgadas y desviacin standard 2.5 pulgadas.
Cuntas pulgadas de lluvia (anuales) caen en exceso alrededor del 5 por ciento de las veces?
1
9.32. Suponiendo que X tiene una distribucin N(O, 25), calcule P(l < X < 4).
9.33. Sea X, el nmero de partculas emitidas en 1 horas por una fuente radiactiva Y
se supone que X, tiene una distribucin de Poisson con parmetro {Jt. Sea T el numero de
horas hasta la primera emisin. Demuestre que T tiene una distribucin exponencial con
parmetro {1 [lmlictlcin: encuentre el suceso equiva lente (mediante X,) del suceso T > t).
9.34. Supngase que X, est definida como en el problema 9.33 con P 30. ,Cul es
la probabilidad de que el tiempo entre emisiones sucesivas sea > S minutos? > 10 minutos?
< 30 segundos?
9.35. En algunas tablas de la distribucin normal H{x) ~ (1/Jiii) f~ e-'12 tlt est tabulada para valores positivos de x (en vez de ~(x) como aparece en el Apndice). Si la variable
aleatoria X tiene distribucin N(1, 4) expresar cada una de las probabilidades siguientes
mediante valores tabulados de la funcin H.
9.36. Supngase que un dispositivo para telemedir satlites recibe dos clases de seales
que pueden anotarse como nmeros reales, X y Y, y que X y Y son variables aleatorias continuas independientes con fdp f y g. respecthamente. Supngase que durante cualquier periodo de t1empo especifico slo puede recibirse una de esas seales. y lueg? retransmitida a
la uerra, la seal que primero llega. Adems la seal que origina X llega pnmero con probabilidad p y por tanto la seal que origina Y llega primero con probabilidad 1 - p. Denotemos
por z la variable aleatoria cuyo valor realmente es recibido y transmitido.
Expresar la fdp de Z mediante f y g.
Expresar E(Z) mediante E(X) y E( Y).
Expresar V(Z) mediante V(X) y V( Y).
Supngase que X tiene distribucin N(2, 4) y que Y tiene distribuctn N(3, 3). Si
p
i. calcule P(Z > 2).
(e) Suponiendo que X y Y tienen distribuciones N(JI, aD y N(111, ai} respectivamente.
D~muestre que si 1 , . JJl, la distribucin de Z es un-modal)), esto es la fdp de Z tiene un
mximo relativo nico.
(a)
(b)
(e}
(d)
&
'
216
Alguno~
10
9.37. Supngase que el nmero de accidentes en una fbrica se puede representar por un
proceso de Po1sson con un promedio de 2 accidentes por semana. Cul es la probabilidad
de ~ue (a) elt1empo entre un accidente y el siguiente sea mayor de 3 das, (b) el tiempo de un
acc1dente al tercero sea mayor de una semana? (Indicacin: en (a), sea T = tiempo (en das)
y calcule P(T > 3)).
9.38. Un proceso de fabricacin produce en promedio un artculo defectuoso entre 300 fabricados. Cul es la probabilidad de que aparezca el tercer artculo defectuoso:
(a) antes de que sean producidos 1000 artculos?
(b) cuando se produce el 1000 simo artculo?
(e) despus de que sea producido ellOOO simo artculo?
[1ndicacin: supngase un proceso de Poisson).
10.1 Introduccin
En este capitulo presentaremos un concepto matemtico importante que tiene
muchas aplicaciones en los modelos probabilsticos que estamos considerando.
Con el objeto de presentar un desarrollo riguroso de este tema, habran sido necesarias matemticas de un nivel considerablemente mayor del que estamos suponiendo aqu. Sin embargo, si queremos evitar ciertas dificultades matemticas que
aparecen y si aceptamos que ciertas operaciones son vlidas, entonces podemos
obtener una comprensin suficiente de las principales ideas implicadas a fin de
usarlas inteligentemente.
Con el objeto de motivar lo que sigue. recordemos nuestro primer encuentro
con el logaritmo. Fue presentado slo como una ayuda para calcular. Con cada
nmero real positivo x, asociamos otro nmero, designado como log x. (El valor
de este nmero pudo obtenerse de tablas.) A lin de calcular xy, por ejemplo, obtenemos el valor de log x y log y y luego calculamos log x + log y, que representa
log xy. Conociendo log xy, pudimos obtener luego el valor de xy (con la ayuda de
tablas nuevamente). De manera semejante podemos simplificar con ayuda de los
logaritmos la elaboracin de otros clculos aritmticos. El enfoque anterior es
til por las siguientes razones:
(a) A cada nmero posit ivo x le corresponde exactamente un nmero. log x ,
y este nmero se obtiene fcilmente de las tablas.
(b) A cada valor de log x le corresponde exactamente un valor de x , y este valor
nuevamente se obtiene de tablas. (Luego. la relacin entre x y log x es uno a uno.)
~2~~
- -----~~ +~'
___
log x
---L
f iGURA 10.1
2 17
'
218
111.2
10.2
"" e'x1p(x1).
= :E
tO.l
Por tanto pueden suceder que la fgm no est definida para todos los valore:. de 1. s.in embargo no nos interesar esta posible dificultad. Cada vez que hagamos uso de la fgm, s1empre
supondremos que existe. (Para 1 ; O, la fgm existe siempre y es igual a 1.)
(e) Hay otra funcin muy relacionada con la fgm que a menudo se usa en su lugar. Se
llama la funcin caruclerlslica, se denota como Cx. y se define por C~(l) ~(e"x), en donde
i .. ,:- r, ta unidad imaginaria. Por razones tericas. hay una ventaja consaderable al us:v
Cx(l) en vez de M x(l). [Por esta razn, Cx(l) existe siempre para todos los valores de 1J s.m
embargo, a fin de evitar c lculos con nmeros complejos restringiremos nuestra exposacaon
a la funcin generadora de momentos.
(1) Postergaremos hasta la seccin 10.4 la exposic1n de la razn para llamar a Mx la
funcin generadora de momentos.
10.3
M x(t) =
~ adx
= -(/> - a)r
[eb - e"'], L# O.
Mx(t) =
} 1
t~o eG)
(n)
k ~O
,1(1-
Pr-
(pe')t( 1 - p)" - t
10.5)
= [pe'+ ( 1 - p)]".
(10.2)
Observaciones: (a) Tanto en el caso discreto o en el continuo, M z(l) es samplemente el
valor esperado de e'". Luego podemos combinar las expresiones anteriores y escribir
Mx(l)
= E(e'x).
(10.3)
(b) M x(l) es el valor que toma la funcin Mx. la variable (real) 1. La notacin que indica
la dependencia de X, se usa porque podemos desear considerar dos variables aleatorias, X
y Y, y luego investigar la funcin generadora de momentos de cada una, M x y Mr .
(e) Usaremos la abreviacin fgm para la funcin generadora de momentos.
(d) La fgm como se defini anteriormente, se escribe como una serie infinua o integral
(impropia), segn que la variable aleatoria sea discreta o continua. Tal sene (o mtegral) puede
que no exista siempre (es decir, que converja a un valor infinito) para todos los valores de 1.
( 10.4)
EJEMPLO 10.2. Supngase que X estt distribuida binomialmente con parmetros n y p. Luego
( 10.1)
M.,(t)
2t9
(Esta ltima igualdad se deduce de una aplicacin directa del teorema del
binomio.)
EJEMPLO
metro J.. As
Mx(t)
""
e ;.t
k O
k!
= :E e'k = e- e"-'
= e-
= <" -
"" (J..e'f
:E - k =O
11
k!
(10.6)
(La tercera igualdad se deduce del desarrollo de e" en 1:.:" &o(JI'/n !). Usamos esto
con y= U).
'
ttl.4
M x(t)
M (t)
x
(Esta integral converge slo si 1 < 11.. Por tanto, la fgm existe slo para esos valores
de t. Suponiendo que se satisface esta condicin. continuamos.) Luego
Mx(t) =
r'
= - ::~'
f."' . . - e -xt
r<r) "
t-11.
11. -
<
t'
c.c
dx
=(::~ _ ;)r(r)
x / 2)dx
= (1
- 21) - ''
((1,
~ ,)'
re
r:,J:
Sea (x - t)/a
= s;
2 ).
Entonces
...
luego x ,_ as + JI y dx
1
M x(t) = - -
..2n
dx.
11;
luego
e tlu
1) '
e tlu.
C1
= ads.
Por tanto
Ji)] e-'1 2 ds
2
= e'P .J12n J+"'
- oc exp(- ![s -
(-(1. ):
(10.9)
:X -
11] )dx.
-J+w euexp(- ~[x.J2n
2
2
C1
'
M x(l) =
10.5
dx
y r (ver la
t).
(t/u) ('l -
=
2
y obtenemos
M x(t)
.~
( 10.7)
(1,,
Ohsnrarin- puesto que la fgm es slo un valor esperado de X. se puede obtener la fgm
de una funcin de una variable aleatoria sin obtener su distribucin de probabilidades primero (ver el teorema 7.3). Por CJCmplo, si X tiene distribucin A'(O.I) y deseamos encontrar
la fgm de Y = X 2 ; podemos proceder sin obtener primero la fdp de Y. Simplemente podemos escribir
-:,
1
... ;1[
= r(r)
'l
221
10.4
2ats])ds
x3
r= 1 +x+-+-+
.. +-+"
2!
3!
11!
= e'P+o''' 12
Seas - at
J12n J+""
_, exp(-t[s -
(Se sabe que esta serie converge para todo~ los valores de x.) As
at)l)ds.
e'x = 1
= v; luego ds = dv y obtenemos
Ahor"
(10.8)
(tx)2
+ IX + -2!
Mx(t) = E(e'x) =E ( 1 + tX
t- .. '
(tX)
+-
(txr
11!
+ ."
+ ... +
(t X)"
, + ...
11
Hemos demostrado que para una suma finita, el valor esperado de la suma
es igual a la suma de los valores esperados. Sin embargo. considerando una suma
'
222
lOA
r2 E(X 2 )
2
+ .. +
t" E( X")
- n-! -
Haciendo
t" - 1 E( X")
2!
(n - 1)!
+ ...
M'(O) = E! X).
Luego la primera derivada de la fgm calculada en t = Oda el valor esperado de la
variable aleatoria. Si calculamos la segunda derivada de Mx(l), nuevamente procederemos como antes, y obtenemos
+ tE(X 3 ) + +
t" - 2 E( X")
(n- 2)!
de
mome~rto.m.)
h"{O)t 2
2!
lr'"'(O)t"
n!
+ lr'(O)t + - - + .. + - - + ..
en donde Jl
= E(X1, i = 1, 2, ...
Y(X)
En particular,
= E{X2) -
(E{X))'
= M"(O) -
[M'(O)J'.
(e) El lector puede preguntarse si el mtodo anterior es del todo til. No sera ms simple
{y ms elemental) calcular directamente los momentos de X en vez de obtener primero la
fgm y luego diferenciarla? La respuesta es que para muchos problemas este mtodo es ms
sencillo. El siguiente lo ilustrar.
EJEMPLO 10.7. Supngase que X tiene una distribucin binomial con parmetros n y p. Por tanto (ejemplo 10.2), Mx(t) = [pe' + q]". Por tanto
+ qr'pe',
= M'(O) =
EJEMPLO 10.8. Supngase que X tiene distribucin N(ex, fJ2). Por tanto (ejemplo 10.5),Mx(t) = exp (ext + tp 2 t 2 ). As
E(X 2).
Teorema 10.1.
M~1(0)t"
+ ,
y haciendo e = O, tenemos
M"(O) =
Jl t"
M'(t) = n(pe'
M"(e) = E(X 2 )
Mx(t)
+ ..
t 2 E(X 3 1
223
Puesto que M x es una funcin de la variable real t, podemos considerar que tomamos
la derivada de M x(t) con respecto a t. esto es, [d/(dr)]M x{t) o por brevedad, M'(t).
Nos encontramos nuevamente con una dificultad matemtica. La derivada de una
suma finita siempre es igual a la suma de las derivadas. (Suponiendo, naturalmente
que todas las derivadas existen.) Sin embargo, para una suma infinita esto no
siempre es as. Deben satisfacerse ciertas condiciones a fin de justificar esta
operacin. Simplemente supondremos que esas condiciones existen y continuamos. (En la mayor parte de los problemas que encontraremos tal s uposicin est
justificada.) As,
M'(t)
10.4
M'(t)
M"(t) = elt2+p2
+ (P2t + ex)2eftl't2+,
224
10.4
Si nos restringimos a aq ucllos valores de r para los cuales O < qe' < 1[esto es,
t < ln(1/q)] podemos entonces sumar la serie anterior como una serie geomtrica
y obtener
M x(t) = ~ qe'[l
q
q1 -
l'ropk'CINdl"i reproductl>as
qe' =
Por tanto
pe'
1 - qe'
M y(t) = eP'[eP+I~''IZ]
Por tanto
,
M(t)
(1 - qe') 2
= (1 -
pe'
'
Por tanto
E(X) = M'(O) = p/(1 - q)1 = 1/ p,
E(X 2 ) = M"(O) = p(1 + q)l1 - q) 3 = (1 + q)/p 2 ,
V(X)
= (l + q)f p2
(l / p)2
= q/ p2.
(10.12)
+ fl, calculamos
la fgm de
(10.13)
Demostracin:
Teorema 10.2. Supngase que la variable a leatoria X tiene fgm Mx. Sea Y =
aX + {l. Entonces M r, la fgm de la variable aleatoria Y est dada por
e<JI+plre<~''l2.
Pero sta es la fgm de una variable aleatoria d istribuida normalmente con esperanza a~ + P y varianza a 2 u 2 Luego, de acuerdo con el teorema 10.3, la distribucin de Y es normal.
El teorema siguiente tambin desempea un papel vital en nuestro trabajo
posterior.
qe') 2 '
225
+ ce' + (qe') 2 + ]
p qe'
10.5
= E(ex')E(er')
= M x(t)M r(l).
Observacin: este teorema puede generalizarse como sigue: si X, ... , X., son variables
aleatorias independientes con rgm M r 1 i = 1, 2, ... , n, entonces la fgm de
z = x, + ... + x .
est dada por
Mz(!)
= Mx,(t) Mx.(!).
(10.14)
Demostracin:
M r(t) = E(e Yr) = E[e1X+P)']
=
T eorema 10.3. Sean X y Y dos variables aleatorias con fgm, Mx(t) y Mr(l) respectivamente. Si M x(l) = M r(l) para todos los valores de t, entonces X y Y
tienen la misma distribucin de probabilidades.
10.5
Propiedades reproductivas
H ay varias distribuciones de probabilidades que tienen la notable y til propiedad siguiente: si dos (o ms) variables aleatorias independientes que tienen cierta
distribucin se suman, la variable aleatoria que resulta tiene una distribucin del
mismo tipo que la de los sumandos. Esta propiedad se llama propiedad reproductiva,
y la estableceremos para varias distribuciones importantes con ayuda de los
teoremas 10.3 y 10.4.
EJEMPLO 10.11. Supngase que X y Y son var iables aleatorias independientes
con distribuciones N(~, aD y N~ 2 , an respect ivamente. Sea Z = X + Y. Por
tanto
22b
1 funcin
ge~Wrodora d~
Mz{r)
mom<nlos
10.5
= M x(I)Mr(l) = exp (p 11
= cxp [(JI
+ /l2lt +
1-
+ a~t 2/2)
Sin embargo, esto representa la fgm de una variable aleatoria distribuid a normalmente con valor esperado p 1 + p 2 y varianla a~ + a~. As Z tiene esta distr ibuc i n normal. (Ver el teore ma 10.3.)
Observacin: E(Z) = 1 1 i 1 2 y V(Z) = ol + <d pudo haberse obtenido in mediatamente
de los resultados anteriores relacionados con las propiedades de la esperanza y la varianza.
Pero establecer que Z es nuevamente distribuida normalmente necesit el uso de la fgm.
(Hay otro enfoque de este resultado que se mencionar en el captulo 12.)
EJt\II'LO 10.1 2. La longitud de una varilla es una variable aleatoria distribuida normalmente con medida 4 pulgadas y varianza 0,0 1 pulgada 2 Dos de tales
vari llas se ponen extremo con extremo y se aj ustan en una muesca. El largo de esta
muesca es de 8 pulgadas con una tolerancia de 0,1 de pulgada. Cul es la probabilidad de que se ajusten las dos var illas'!
Representando por L 1 y L 2 las longitudes de la vari lla 1 y la varilla 2. tenemos
que L = L 1 + L 2 est distribuida normalmente con E(L) = 8 y V(L) = 0.02. Por
tanto
79 - 8
L- 8
8.1 - 8]
P(7.9 S L ~ 8.1] = P[ _:
- ~
~- 0. 14
0,14
0,14
227
EJEMPLO 10. 13. Supngase que el nmero de llamadas que llegan a una
central telefnica entre las 9 a.m. y 10 a.m .. es una variable aleatoria X 1 con
una distribucin de Poisson con pa rmetro 3. Anlogamente, el nmero de llamadas, que llegan entre las 10 a.m. y 11 a.m., digamos X 2 , tambin tiene una
distribucin de Poisson, con parmetro 5. Si X 1 y X 2 son independientes, cul
es la probabilidad de que se reciban m s d e 5 llamadas entre las 9 a.m. y las
11 a.m.?
P(Z > 5)
= 1 - P(Z :S 5) = 1 -
1 - 0,1912
= 0.8088.
i:_ e-a(8f
tO
k!
x;,.
i = l.
2, ... ' k.
Luego
Propicdade' rtproducllll"
lO. S
. ,
N('1:7: ,t;. r.
,af).
M x,(t) =
Teorema 10.8. Supngase que X 1 X son variables aleatorias independientes. donde cada una tiene distribucin N(O.I). Entonces S= Xt +
Xi + + Xf tiene distribucin xf.
x.
:x = a, ++a.
M x,(l) = edc' - 1.
11
= 2.
e>(e'-11.
Luego M z(t) = e< +zll<" 11 Pero esta es la fgm de una variable aleatoria con una
distri bucin de Poisson que tiene parmetro :~e 1 + a 2 Ahora podemos completar
la demostracin del teorema con ayuda de la induccin matemtica.
x;.
21M
1\
tuneiOn grm.rutlou de
H'(t)
21" - ,, - ,,
-
2" 2 f(, 21
SI
1 ~ .
El grfico de y se da en la figura 10.2 para a = 2. Observe que valores muy grandes o muy
pequeos de S son muy improbables. (Puede demostrarse que la constante u que aparece
como un parmetro en la distribucin anterior. tiene la siguiente interpretacin fsica: a =
.Jk777Vr. en donde T es la temperatura absolu ta. M es la masa de la molcula. y k se cono
ce como la constante de Boltzmann.)
Hemos expuesto a lgunas distribucion e> t.ue tienen la propiedad reproductiva. Consideremos la distribucin exponencia l que. hablando estr ictamente. no
posee la propiedad reproductiva. pero que. sin embargo. tiene una propiedad
anloga.
g(s)
v:uiahle~
ltlt-aWrhts
229
Succsione.\ de
IU.5
ruuttlt'uto'
v'2/ u
FIGURA
10.2
10.6
230
l.a (uncin
gcn~rodora d~
Teorema JO. JO. Sean X 1 , X., una sucesin de variables aleatorias con
fda f h F. ... y fgm M 1 M., .. . Supngase que lim. _ 10 M.(l) =
M(t). en donde M(O) = l. Luego M(l) es la fgm de la variable aleatoria
X cuya fda F est dada por lim. _ 10F.(l).
Observaci6n : el teorema 10.10 dice que pa ra obtener la distribucin lmite buscada, es
suficiente estudiar las funciones generadoras de momentos de las variables aleatorias que se
consideran. Obtenemos el valor lmite de las sucesiones M 1, . . . , M~ ... , llamada M(t~
Debido a la propiedad de unicidad de la fgm, existe slo una distribucin de probabilidades
que corresponde a la fgm M(t). Podemos aceptar M como la fgm de una distribucin conocida (tal como la normal, Poisson, etc.) o bien podemos usar mtodos ms avanzados para
determinar la distribucin de probabilidades de M . Tal como podemos obtener la fgm ~
nociendo la fdp, tambin podemos obtener (en condiciones completamente generales) la fdp
conociendo la fgm. Esto implicara ciertos teoremas de inversin y no continuaremos ms
con esto.
10.7
Nota fanal
Hemos visto que la fgm puede ser una herramienta muy poderosa para estudiar diversos aspectos de las distribuciones de probabilidades. En particular,
encontramos muy til el uso de la fgm para estudiar sumas de variables a leatorias independientes e idnticamente distribuidas y obtener diversas leyes reproductivas. Estudiaremos nuevamente las sumas de variables aleatorias independientes en el captulo 12. sin usar la fgm. pero con mtodos semejantes a los
que usamos cuando estudiamos el prod ucto y el cociente de variables aleatorias
en el capitulo 6.
PROBLEMAS
10.1. Suponiendo que X tiene fdp dada por
/(x)
l'ruhl\:mu~~ro
111.7
morncnlus
= 2x.
O s; x s; l.
f(x) = le
.te><.
x ;:: a.
2l l
10.5. Encontrar la fgrn de la variable aleatoria X del problema 6.7. Usando lu fgm. encontrar E(X) y V(X).
10.6. Supngase que la variable aleatoria continua X tenga fdp
f(x) = ~e-11,
+ 0,6)8
x;.
=" y
232
11
Obtener la fgm de una variable aleatoria que tiene una distribucin geomtrica.
Posee esta distribucin una propiedad reproductiva bajo la adicin?
10.17.
la
10.19. Encontrar la fgm de una variable aleatoria que est distribuida uniformemente
en ( -1,2).
10.20. Cieno prooeso industrial produoe un gran nmero de cilindros de aoero cuyas
longitudes estn distribuidas normalmente con promedio 3,25 pulgadas y desviacin estndar 0,05 pulgada. Si se eligen al azar dos de tales cilindros y se ponen extremo con extremo,
cul es la probabilidad de que la longitud combinada sea menor de 6,60 pulgadas?
Observacin: al calcular MX{I), en 1 =O, puede aparecer una forma indeterminada. Es
decir, M.\-(0) puede ser de la forma 0/0. En tal caso debemos tratar de aplicar la regla de
L'Hopital. Por ejemplo, si X est distribuida uniformemente en [O, 1] encontramos fcilmente que Mx(1) = (e'- 1)/1 y Mx(l) = (te'- e'+ 1)/11 . Por tanto para 1 = O, MX(I) es
indeterminada. Aplicando la regla de L'Hopital, encontramos que lim1-o MX(1) = lim1-o
te'/21 = 1. Esto concuerda, puesto que M.\-(0) = E(X), que es igual a l para la variable
aleatoria descrita aqu.
11 .1
Conceptos bsicos
234
11.1
= J:
11.1
' Zi~) ds =
r.o
f(t)
l - F(t)
= f(t)
R(t)'
( ll.l)
+ tiT> 1),
+ t iT>
t)..
~
'
= tf(~)/R(t)..
Teorema 11. l. Si T, el tiempo para fallar, es una variable aleatoria continua con fdp f y si F(O) = O en donde F es la fda de T, entonces f puede
expresarse mediante la tasa de falla Z como sigue
= Z(t)e - J~ZflU
R'(t).
R(l)
i'
-R'(s) ds = -
o R(~
1nR(~llo
l nR(O) = - 1nR(r).
f(l) = F'(1) =
ZI14
di
!!$
finito. entonces
E(T) =
Jg
( 11.3)
R(1)d1.
en donde t S ~ 5: 1 + l .
La ltima expres1n (para un l pequeno y suponiendo que fes continua t) es aproximadamente igual a tZ(t). Asi, en un lenguaJe informal tZ(I) representa la proporcin de artculos
que estar entre 1 y 1 + 61, entre aquellos anculos que an funcionan en el instante t.
De lo anterior observamos que f. la fdp de T, determina unvocamente la tasa de fallas Z.
Indicaremos ahora que lo recproco tambin es vlido: la tasa de fallas Z determina univocamente la fdp f
f(t)
= -
Luego
P(t < T 5: t + t)
P(T> t)
J:
(1)
R(t)
dado que hay 1nR(O) = O lo que es vlido si y slo si R(O) - J. [Esta ltima condicin se satisface si F(O) = O. Simplemente expresa que la probabilidad de una
falla inicial es igual a cero~ haremos esta suposicin durante el resto de la exposicin.] Por tanto
es decir, la probabilidad de que el articulo falle durante las prximas l unidades de tiempo,
dado que el artculo est funcionando correctamente en el instante 1. Aplicando la definicin
de probabilidad condicional, podemos escribir lo anterior como
P(t $ T$ t
- j (t).
P(t 5: TS t
= - F'(l) -
F(r).
=j
= - 1nR(I) +
= 1-
Adems de la funcin confiabilidad R. otra funcin desempea un papel importante para describir las partes que fallan de un artculo.
Z(t)
f(s)ds.
R(t) - 1 - P!T5: t)
= 1-
Luego
( 11.2)
Integrando por partes. hacemos J,' f(s) ds = u y clt = dt>. Luego t' - f(l) cit. As
R(t) di = ( s.~ f(s) ds 1 + J~ tf(t) cit.
y du -
I6
La segunda integral del segundo miembro representa E(T). Por tanto la demostracin est completa si podemos demostrar que IJ,"' f(s) ds se anula en 1 = O
y cuando t - oo. La anulacin en t = O es inmediata. Sabiendo que E(T) es finita. el lector puede completar la demostracin.
Los conceptos de confiabilidad y tasa de fallas estn entre las herramientas
necesarias ms importantes para un estudio de los modelos de falla. Brevemente vamos a ocuparnos de las siguientes preguntas:
(a) ,C:ules son las <~leyes de ralla fundamentales que razonablemente se
pueden suponer? (Es decir. (.qu forma tendra la fdp de T'!)
236
lll
La ley
11.3
o en paralelo
= 1 - -J-
foa
= 1 - <l>
J'
exp
-oo
2
-2 [l - )
LNuevamente observamos que el tiempo para fallar T , debe ser mayor que (o
igual) a cero. Por tanto, a fin de que el modelo anterior sea aplicable debemos
insistir en que P(T < O) sea forzosamente cero.] Como la forma de la fdp normal
lo ind ica, una ley normal de fallas implica que la mayor parte de los artculos
fallan alrededor del tiempo promedio de falla, E(T) = J.l y el nmero de fallas
disminuye (simtricamente) cuando IT - J.li aumenta. Una ley normal de fallas
significa que alrededor del 95,72 por ciento de las fallas tiene lugar para los valores
de t que satisfacen {t l lt - J.li < 2a}. (Ver figura 11.1.)
R(t)
I J1o- 21T
FiGURA 11.1
237
1.)
(- -[X-=J.1]2)
a
J
dx
La figura 11.2 muestra una curva general de confiabilidad para una ley normal
de fallas. Ntese que a fin de obtener una confiabilidad alta (0,90, o mayor) el
tiempo de operacin debe ser considerablemente menor que ., la duracin esperada.
EJEMPLO 11.1. Suponiendo que la duracin de una componente est d istribuida normalmente con una desviacin estndar igual a 10 (horas). Si la componente tiene una confiabilidad de 0.99 para un perodo de operacin de 100
horas, cul debera ser su duracin esperada?
La ecuacin anterior se transforma en
0,99 = 1 - <l>
De las tablas de la distribucin normal (lOO - .)/ 1O = - 2,33. Luego J.1 = 123,3
horas.
La ley normal de fallas representa un modelo apropiado para los componentes en los cuales la falla se debe a a lgunos efectos de uso. Sin embargo, no est
entre las ms importantes leyes de fallas que existen.
l 1.3 i.a ley exponencial de fallas
Una de las leyes de fallas ms importantes es aquella cuyo tiempo para fallar
se describe mediante una distribucin exponencial. Podemos describirla de varias
maneras, pero probablemente la manera ms sencilla es suponer que la tasa de
fallas es constante. Es decir, Z(t) = a. Una consecuencia inmediata de esta suposicin es, segn la ecuacin (11.2), que la fdp asociada con el tiempo para fallar
T , est dada por
f(t) = ~Xe- ",
t > O.
El recproco es tamb in inmediato: si f tiene la forma anterior, R(l) = 1 - F(t)
= e- y por tanto Z(t) = f(t)/ R(c) = IX. Luego tenemos el siguiente resu ltado
importante.
Pf
1=1'
(1111~
(t ~ Jl)-
de
La funcin de confiabilidad de la ley normal de fallas puede expresarse mediante la funcin de distribucin ormal acumu lat iva tabulada <1>, como sigue:
~XIKMicnclal
t - 1' + 2a
fiGURA IJ.2
Teorema 11.3. Sea T, el tiempo para fallar, una variab le aleatoria continua que toma todos los valores no negativos. Luego T tiene una distribucin exponencial si y slo si tiene una tasa constante de fallas.
Z3ll
11.3
Observacirr: la suposicin de que una tasa constante de fallas puede ser interpretada como
una indicacin de que despus de que el artcu lo ha sido usado, su probabi lidad de fallar no
ha cambiado. Dicho de una manera ms informal, no hay efecto de <<uSO cuando se estipula
el modelo exponencial. Existe otra manera de expresar esto que hace esta parte an ms
evidente.
Considrese para Al > O, P(t ~ T ~ 1 + AtiT > t). Esta representa la probabilidad de que
el artculo falle durante las prximas Al unidades, dado que no ha fallado en el instante 1.
Aplicando la definicin de probabi lidad condicional, encontramos que
P(t $ T $
e+
AtiT > t)
e_.,, -
+ AtiT > 1) =
1 - [ 1 - aAc
= aAc
= 1- e .
l
+ - - - - - + ..
(a6t)
2!
(C!Ar)
V(T) = l /a 2 ;
+ I!(At).
Para muchos tipos de componentes la hiptesis que conduce a la ley exponencial de fallas no es s lo intuitivamente a tractiva sino que en realidad est
sostenida por evidencia emprica. Por ejemplo, es muy razonable suponer que
un fusible o un cojinete de rubes es tan bueno como nuevo mientras est funcionando. Es decir, si el fusible no se ha fundido, prcticamente est como nuevo.
Tampoco e l cojinete cambiar mucho debido a l uso. En estos casos, la ley exponencial de fallas representa un modelo apropiado para estudiar las caractersticas que fallan en un artculo.
Sin embargo, debemos dar aqu una palabra de precaucin. Hay muchas
situaciones que implican estudios de fallas para los cuales las h iptesis bsicas
que conducen a una ley exponencial no sern satisfechas. Por ejemplo. si una
R(t)
F(l)
R(t) =
e-.
0,90 = e- o.otr
Luego 1 = - 100 In (0,90) = 10,54 horas. Por tanto, si las 100 componentes funcionan durante 10,54 horas, aproximadamente 90 no fallarn durante ese periodo.
3!
en donde /r(At) llega a ser despreciable para Ar pequeo. Luego para !!.e suficientemente pequeo
la probabilidad anterior es directamente proporcional a 61.
/{1)
23Y
e - a(t+.(lt)
Por tanto esta probabilidad condicional es independiente de t y slo depende de Al. Es en este
sentido que podemos decir que una ley exponencial de fallas implica que la, probabilidad de
fallar es independiente del pasado. Es decir, mientras el artculo funcione es <<tan bueno como
nuevo.
Si desarrollamos el segundo miembro de la expresin anterior en una serie de Maclaurin
obtenemos
P(t < T< t
-
11.3
Observaciones: (a) Es muy importante darse cuenta de que en el caso excepcional podemos
identificar el tiempo de operacin (de algn valor inicial arbitrario lijo) con la edad para funcionar. Porque en el caso exponencial un artculo que no ha fallado es tan bueno como nuPvo
y, por tanto, su conducta durante cualquier perodo de servicio depende slo de la longitud
de ese perodo y no de su historia anterior. Sin embargo, cuando se supone una ley de falla no
exponencial (tal como la ley normal o una de las distribuciones que consideraremos en breve),
la historia pasada no tiene efecto sobre el comportamiento del artculo. Por tanto. mientras
podamos definir Tcomo el tiempo en servicio (hasta la falla) para el caso exponencial, debemos
definir Tcomo la duracin total hasta la falla para los casos no exponenciales.
(b) La distribucin exponencial que hemos presentado en relacin con la duracin de los
componentes, tiene muchas otras aplicaciones importantes. En realidad, cada vez que una
variable aleatoria continua Tque toma valores no negativos satisface la hiptesis P(T > s +
tiT > s) = P(T > 1) para todo s y t, entonces T tendr una distribucin exponencial. As, si T
representa el tiempo que demo:ra un tomo radiactivo en desintegrarse, podemos suponer que
T est distribuida exponencialmente, puesto que la suposicin anterior parece satisfacerse.
EJEMPLO 1 1.3. No es irrazonable suponer que cuesta ms producir un artcu lo
con una gran duracin esperada que uno con una esperanza pequea de duracin.
Especficamente suponemos que el costo C para producir un artculo es la siguiente
funcin de ., el tiempo promedio para fallar,
Supngase que se obtiene una utilidad de D pesos por cada hora que el artculo
funcione. Luego la utilidad por artculo est dada por
FIOURA 11.3
24()
''"'
11.4
con parmetro o:t. Supngase que la falla en [0, t] se produce si y slo si al menos
uno de tales accidentes ocurre. Sea Tel tiempo para fallar, que supondremos que es
una variable aleatoria continua. Luego,
F(l)
= DT - 3tl2 - K(to -
s1
T < co.
31 2 r:- "
+ (D + K)J c:;xe-"dc -
F(t)
E(P) = D1 - 3t 2 + K[ll -
111! - roiP -
J.
eo
1 - P(X, = O)
1-
e.
Esta vez, T > 1 si y slo si (durante [0, 1)) no ocurre n ingn accidente. u ocurre un
accidente y ninguna falla aparece, o dos accidentes ocurren y no aparece ninguna
falla, o. . . Por tanto.
+ Kr0)( 1 - e").
F(t) = 1 -
(3JI 2
F(t) =
= P(T~ 1) =
Ahora T > t si y slo si ningn accidente ocurre en [0, t]. Esto acontece si y slo
si X, = O. Luego
T>co.
7)
241
1-
e ~ (o:lp)k =
k sO
k!
l -
e-"'e'P =
+ ]
1-
e-< 1- P>.
Luego Ttiene una ley exponencial de fallas con parmetro IX(I - p). (Ntese que
si p = O, tenemos el caso expuesto previamente.)
(b) Supngase nuevamente que los accidentes aparecen de acuerdo con un
proceso de Poisson. Esta vez supondremos que las fallas ocurren cada vez que ro
ms accidentes (~ 1) ocur ren durante un intervalo de longitud l. Por tanto, si
Tes el tiempo para fallar, tenemos, como antes,
F(t) = 1- P(T > 1).
r - 1 (o:lle- '
L:
ho
~-=-
k!
De acuerdo con la ecuacin (9.17) lo anterior es igual a .fb [o:/(r - 1) !) (o:s)'" 1 e -~ds
y por tanto representa la fda de una distribucin Gama. As, encontramos que la
causa anterior de fallas sigue una ley Gama de fallas. (Si r = 1, naturalmente, esta
se transforma en una distribucin exponencial.)
242
11 .5
11 .~
Modifiquemos la nocin de tasa constante de fallas que condujo a la ley exponencial de fallas. Supngase que la tasa de fallas Z. asociada con T. la duracin
de un artculo. tiene la forma siguiente:
Z(l) = ('X{I)I- - 1
e "'
( 11.5)
Se dice que la variable aleatoria que tiene la fdp dada por la ecuacin (11.5) tiene
una distribucin de Weisbu/1. La figura 11.4 muestra la fdp para rx = 1 y fl = 1. 2. 3.
La funcin de confiabihdad R est dada por R(t) = e ' que es una funcin decreciente de 1.
f(t)
FIGURA 11.4
1,2
Z(t)
Z{t)
Z{t)
Esto significa que, para que el sistemu anterior funcione, ambas componentes deben
funcionar. Si, adems, suponemos que las componentes funcionen independietlle
mellle, debemos conocer la confiabilidad del sistema, llammos1o R(t), mediante la
confiabilidad de las componentes, llammoslo R 1(1) y R 2(1). como sigue:
R(l) = P(T > 1)
= P(T
fJ 1
Z es conManlc
0</J<I
Z
CS CfCCICnlc
FIGURA 11.5
Z es decreciente
( 11.6)
( 11.7)
11.6
0.8
243
(11.4)
ll.h
Encontramos as que R(l) s min [R 1(1). R 2 (t)]. Es decir, para un sistema formado
por dos componentes independientes en serie, la confiabilidad del sistema es menor
que la confiabilidad de cualquiera de sus partes.
La presentacin anterior puede generalizarse naturalmente a n componen tes
y obtenemos el teorema siguiente.
244
1t.tl
( ll.KI
11.6
= P(T > 1) =
1-
= 1-
Luego la fdp del tiempo para fallas del sistema. llammoslo T, es dado por
P(T~ 1)
P[T1 ~ t y T2 ~ t]
= 1-
0,000002
transistores de silicona:
0.00001
resistencias compuestas:
0,000001
condensadores de cermica:
0,000002
P(T1
1 - (1 - R 1(t}][l - R 2(1))
= R 1 (t)
+ R2(t)-
R,(r)R 2 (t).
La ltima frmula indica que R(l);;:: mximo [R 1 (1). R 2 (t)]. Es decir. un sistema
compuesto por dos componentes que funcionan independientemente en paralelo
ser ms confiable que cualquiera de las componentes.
FtOURA
11.6
Todas las ideas presentadas anteriormente para dos componentes pueden generalizarse en el teorema siguiente.
Teorema 11.7. Si n componentes que funcionan independientemente actan
en paralelo. y si la i-sima componente tiene confiabilidad R(t). entonces,
la confiabilidad del sistema. llamada R(t), est dada por
{(1 -
A menudo sucede que todas las componentes tienen igual con fiabilidad. digamos
que R~t) = r(r) para todo i. En este caso la expresin anterior se transforma en
R(l)
= 0,0001.
Por tanto la confiabilidad del circuito est dada por R(t) = e- 0 0001 '. Luego, para
un perodo de 10 horas del funcionamiento. la probabilidad de que el circuito no
falle est dada por e- 0 0001110 > = 0,999. El tiempo esperado para que el circuito
falle es igual a 1/0.0001 = 10.000 horas.
(11.9)
1 - [1 - r(1))".
(11.10)
+ R 2(t)-
R 1(t)R 2 (t) =
24()
ll.h
As la fdp del tiempo de falla del sistema en paralelo. llammoslo T. est dada por
= :x.e- + :x 2e
f(t) = - R'(t)
Por tanto Tno est distribuido exponencialmente. El valor esperado de Tes igual a:
1
E(T) = IX
+ -1.X2
(al
I.X+IX2
Por cuanto a menudo una serie de operaciones es obligatoria (es decir. un nmero
de componentes debe funcionar para que el sistema funcione). frecuentemente
usamos una operacin en paralelo a fin de aumentar la confiabilidad del sistema.
El ejemplo siguiente ilustra esta parte.
EJEMPLO 11.6. Supongamos que tres unidad es estn trabajando en paralelo.
Sup ngase que cada una tiene la misma tasa constante de fa llas a = 0,01. (Es decir,
el tiempo para fallar de cada una de las unidades est distribuido exponencialmente
con parmetro a = 0,01.) Por tanto, la confiabilidad para cada una de las unidades
es R(t) = e- 0 011 , y as la confiabilidad en un perodo de operacin de 10 horas
es igual a e- 0 1 = 0,905 o alrededor del 90 por ciento. Cunta ventaJa puede
obtenerse (mediante el aumento de la confiabilidad) al funcionar tres de tales unidades en paralelo?
Serie' en pnrillclo
FIGUKA
11 .8
R(t)
T= R S.
S R y S son varsblcs aleatorias ndcpo.:ndientes con fdp y y Ir respectivamente,
entonces la fdp de Tcstil dada por
lO 50
100
200
300
400
FIGURA
11.7
En la figura 11.7 vemos las curvas de confiabil idad de la unidad nica versus las
tres unidades en paralelo. Para la unidad sola, R(t) = e -. mientras que para las
tres unidades en paralelo, R(t) = 1 - (1 - 1! ") 3 con :x = 0.0 l.
Hemos considerado. hasta ahora. slo las maneras ms sencillas para combinar
unidades individuales en un sistema. llamadas operaciones en serie y en paralelo
de las componentes. Hay muchas otras maneras de combinar componentes. y
.f(t)
(Ver el teorema 6.5.) La estructura fallaril si S > R. es decir. s T < l. Por tanto la
probabilidad de fallar P, = Jj(t)dt.
PROBLEMAS
11.1. Supngase que T. el tiempo para rallar. de un artculo est distnbuedo nor~almente
con E(T) = 90 horas y desviacin estndar 5 hones. A fin de oblener una conliabldad de
0.90. 0.95. 0.99, cuntas horas de operacin deben considerarse?
11.2. Suponiendo que la duracin de un instrumento electrnico e:. distribuida exponen
cialmente. Se sabe que la conliabilidad del instrumento (para un perodo de operacin de 100
horas) es 0.90. Cunta~ horas de operacin deben considerarse para obtener una confiabilidad
de 0,95?
UK
11.3. Suponiendo que la duracin de un insuumento tiene una tasa constante de falla
y una tasa constante distinta
para r :2: r0 . Determinar la fdp de T. el
tiempo para falla r. y dibujarla.
e,
Z(r) =O.
=c.
1 :2:
A.
11.5. Supon iendo que la ley de fallas de una componente tenga la sigu iente fdp:
1
>
o.
(a)
(b)
(e)
(d)
L 1 cf~e-M
J J
> o.
/1 >
(e) C(L,m)
11.7. Cada uno de los seis tubos de un eq uipo de radio tiene una duracin (en aos) que
puede considerarse una variable aleatoria. Supngase que esos tubos fu ncionan independientemente uno de otro. Cul es la probabilidad de que ningn tubo tenga que ser reemplazado
du rante los primeros dos meses de servicio si:
11.8.
~''. r
25 '.
> O?
r > O?
FtGURA
11.9
= ('
O.OJt
m)
si L '2:. m.
= 2 si L < m,
= 5(L - m) si L '2:. m.
(En cada uno de los casos, dibuje un grfico de E(C) como funcin de m.)
R(t)
11.12. (Sacado de Derman and Klein, Probuhility a11d Statistical/if'erence. Oxford University Press, New York, 1959.) La duracin (Ll en meses de cierto tubo al vaco usado en un
equipo de radar est distribuida exponencialmente con parmetro /1 = 2. Al establecer su
programa preventivo de mantencin, una compaia desea decidir cuntos meses (m) despus
de la instalacin deberla remplazarse el tubo para minimizar el coste esperado por tubo.
El costo por tubo en dlares est denotado por C. El tiempo til ms corto empleado entre la
instalacin y la sustitucin es 0,01 mes. Obedeciendo a esta restriccin. ,qu valor de m minimiz
E( e), el costo esperado en cada una de las situaciones siguientes. en donde el costo e es la
funcin dada de L y m?
(a) e(L,m)=3IL - ml.
(b) C(L, m) = 3
si L < m.
= S(L -
o.
f( t) =
Si Tes el tiempo para fallar del sistema completo (en horas). cutl es la fdp de T! ,Cu!I es la
confiabilidad del sistema?; cmo se compara con e- 0 03''!
O S 1 < 10 ,
= Co,
= C0 + C,(l - lo).
r '2:. 10 .
250
l'ro~l'"'"
FIGURA
251
11.10
11.15. (a) Supngase que n componentes esl;in conectados en una agrupacin en serie.
Luego k de tales conexiones en serie se conectan en paralelo para formar un sistema completo.
(Ver la figura 11 .10.) Si cada una de las componentes tiene la misma con fiabilidad, R, para un
periodo determinado de operacin, encuentre una eKpresin para la conriabi lidad del sistema
completo (para ese mismo periodo de operaciones).
(b) Supngase que cada una de las componentes anteriores sigue una ley exponencial de
fallas con tasa de falla 0,05. Supngase adems que el tiempo de operacin es 10 horas y que
n = 5. Determinar el valor de k a fin de que la confiab1hdad del sislema completo sea igual a
0,99.
(b)
FIGURA ) 1.1 :!
los casos. [Indicacin: en el segundo caso (figura 11.12 (b)), use consideraciones de probabilidad condicional:)
11.20. Si todas las componentes considerada' en el problema 11.19 tienen la m1sm tasa
constante de fallas A, obtenga una expresin para la confiabilidad R(l) del sistema 1nd1cado
en la figura 11.12 (b). Tambin encontrar el tiempo medio para que falle este sistema.
11.2 1. La componente A tiene una confiabilidad 0,9 cuando se utiliza con un propsito
par11cular. La componente 8 que puede usarse en lugar de la componente A. tiene una confiabilidad de slo 0,75, cul es el nmero mimmo de componentes del tipo B que tendran que
concretarse en paralelo a fin de obtener la confiabilidad que la componente A tiene por s
misma?
11 .22. Supngase que dos componentes que funcionan independientemente, cada una
con la misma tasa constante de falla estn conectadas en para lelo. Si Teltiempo para fu llar del
sistema resultante. obtcng.1 la fgm de T. Tambin determinar E(T) y V(T), usando la fgm.
FIGURA
11.11
11.17. Supngase que n componentes, que tienen cada una la misma tasa constante de
fallas A, estn conectadas en paralelo. Encontrar una expres1n para el tiempo promedio para
fallar del sistema resultante.
11.18. (a) Un sistema de propulsin areo consta de tres motores. Supngase que la tasa
constante de fallas para cada uno de los motores es A .. 0,0005 y que los motores fallan inde>
pendientemente uno de otro. Los motores estn conectados en para lelo,cui1l es la confiabilidad
de este sistema de propulsin para una misin que necesita 10 horas si al menos dos motores
deben resistir?
(b) Responder la pregunta anterior para una misin que necesita 100 horas; 1000 horas.
(Este problema sugerido por una exposicin en l. Bazovsky, Reliabili1y 7heory and Prac1ice.
Prentice- Hall, lnc., Englewood CliiTs, N. J., 1961.)
11.19. Consideremos las componentes A, A'. B. B' y C conectadas como se indica en las
figuras 1l. 12 (a) y (b). (La componente C puede pensarse que representa un ((seguro si ambas
A y B dejaran de funcionar.) Representando porRA, RA: R11, R11., y R~ las confiabilidades de las
componentes individuales (y suponiendo que las componentes funcionan independientemente
una de otra). obtener una expresin para la confiabilidad del sislema completo en cada uno de
11.23. Cada vez que hemos considerado un sistema formado por diversas componentes.
,iempre hemos supuesto que las componen~ funcionan independientemente una de otra.
Esta suposicin ha simplificado considerablemente nuestros clculos. Sin embargo, esto puede
no ser siempre una suposicin realista. En muchos casos es sabido que el comportamiento de
una componente puede afeet.ar el comportamiento de las otras. Esto es, en general, un problema
muy dificil para enfrentar, y slo consideraremos un caso especial aqu. Supongamos especficamente que dos componentes. e, y e, siempre fallan juntas. Es decir, falla e, si y slo si
falla C 2 Demostrar qu<' en este caso. P(C 1 falh1 y C 2 falla) = P(C, falle)= P(C 1 falle).
FIGURA 11. 13
12
12.2
12.1 Introduccin
Prob[IJA-
PI ~ t] ~
Prob(lf,.-
PI < E] ~ 1 - -;;E'
p(l - 2 p) .
p(l -; p)
llE
o. equivalente
En este captulo queremos precisar algo que hemos estado indicando a travs
del texto. Esto es, cuando el nmero de repeticiones de un experimento aumenta.
f A la frecuencia relativa de un suceso A, converge (en un sentido probabilstico
que describiremos) a la probabilidad terica P(A). Es este hecho lo que nos permite
identificar la frecuencia relativa de un suceso. basada en un gran nmero de
repeticiones, con la probabilidad del suceso.
Por ejemplo, si se produce un artculo nuevo y no tenemos conocimiento previo
acerca de qu tan probable es ese artcu lo defectuoso, podramos proceder a
inspeccionar un gran nmero de esos artculos, digamos N. contar el nmero
de artculos defectuosos entre ellos, sea " y luego usar nf N como una aproximacin para la probabilidad de que un artculo sea defectuoso. El nmero n/ N es
una variable alea toria y su valor esencialmente depende de dos cosas. Primero.
el valor n/ N depende de la probabilidad fundamental p (posiblemente desconocida) de que un artculo sea defectuoso. Segundo, 11/ N depende de los 11 artculos
que en partic11/ar hemos inspeccionado. Lo que demostraremos es que si el mtodo de elegir los N artculos es aleatorio. entonces el cociente nf N ser prximo a p (en un sentido que se va a describir). (Evidentemente, la eleccin aleatoria de los N artculos es importante. Si furamos a elegir slo esos artculos que
presentan alguna caracterstica lisica externa. por ejemplo, podramos prejuiciar
gravemente nuestro c:\lculo.)
12.2 La ley de los grandes nmeros
Con la ayuda de la desigualdad de Chebyshev (ecuacin 7.20). podemos
derivar el resultado citado anteriormente. Consideremos nuevamente un ejemplo. Supongamos que un cohete dingido tiene una probabilidad de 0.95 de
funcionar correctamente durante un cierto perodo de operaciones. As. si disparamos N cohetes que tienen la conliabilidad anterior, y si X es el nmero de
cohetes que no funcionan correctamente. tenemos E(X) = O,OSN, puesto que
podemos supqner que X est distribuida binomialmente. Es decir, esperaramos
que fallara alrededor de un cohete entre 20. Cuando N, el nmero de cohetes
252
( 12.1)
k2
ll
A-
p1 <E)
- p)-
1 - p{J
-nt 1
12.2
Es dcc_ir, pura E 0,01 de>eamo~ escoger n de modo que - p(l - p)/[n(O,Ot)'] ~ 0,95.
Resolviendo para n obtenemos n ~ p(l - p)/(0,01) 2 (0,05). Sustituyendo Jos valores especficos
de 0,05 y 0,01 por; y E. respectivamente, tenemos
cuando
>
n-
1!15
p(l - p)
E l(i
Nuevamente debera msistirse en que tomando n ~ p(l- p)/E2 li no garamiza nada acerca
de lf,. - pj. Slo hace probable que 11.. - PI sea muy pequeo.
-
Sea ka/Jn
1 - ;;.
12.2. Algunos artculos se producen de tal manera que la probabl.ltdad de que un artculo sea defectuoso es p (supuesto desconocido). Un gran
numero de artculos, n, se clasifica como defectuosos o no defectuosos. Cul
debe ser el tam_a o de. n de modo que podamos estar el 99 por ciento seguros de
que la frecuenc1a relativa de los defectuosos se diferencia de p en menos de 0,05?
. Puesto que no sabemos el valor de p debemos aplicar la ltima forma estableCida de la _ley de los gra ndes nmeros. Luego con E = 0,05, 6 = 0,01 encontramos que SI 11 2:: 1/4(0,05) 2 (0,01) = 10.000, se satisface la condicin pedida.
Como. e~ nuestro. e!emplo en la desigualdad de Chebyshev, encontraremos que
un con~~~m1ento ad1c1onal acerca de la distribucin de probabilidades dar una
prop?S.ICIOn <meJorada>~. (Por ejemplo podramos tener un nmero pequeo de
repetiCIOnes Y todava hacer la misma proposicin referente a la proximidad
de fA a p.)
EJeMPLO
Obserraci : se puede obtener otra forma de la ley de los grandes nmeros como sigue.
Supongamos que X., ... ,x. son variables aleatorias distribuidas independientes e idnticamente con promedio y varianza finita. Sea E(X1) = p y V(X 1) = a 2 Definamos J? =
(1/n~(X + + X.). luego X es una runcin de X., . .. X llamado su promedio aritm~co y. ~r tanto, nuevamente es una variable aleatoria. (Estudiaremos esta variable aleatona con mas detalle en el captulo 13. Por el momento djgamos simplemente que podemos
pensar que X., ... , x. como medidas independientes de una caracterstjca numrica x.
ElBMPLO
P[lr. - PI< E] ~
t l ._l
- #Jl < E) ~ 1 -
ql
2
En
(122)
r,
12.3
12.3
Esta probabilidad seria ms dificil de calcular directamente. Ya hemos estudiado un mtodo de aproximacin para las probabilidades binomiales, tal
como la aproximacin de Poisson. Consideraremos ahora otra aproximacin
importante para tales probabilidades que se aplica cada vez que 11 es suficientemente grande.
Considerando que P(X = k) = ()pk(l - p-t. Esta probabilidad depende de
11 de un modo muy complicado y no hay una indicacin evidente de lo que sucede a la expresin anterior si 11 es grande. A fin de investigar esta probabilidad.
TABLA
12.1
12..\
2..~7
P(X :::; k) = p [
:::::
X - np :::; k - 11p
jnp( l - p) ~ 1 - p)
1 J(t-p)/.JiiPfl-""pl
72n
e- '12 dt.
( 12.5)
->
n!
../in e- n"+om
Oirerencia
Direrencia
n!
X- np
Y = [np( 1 _ p)]l fl
1
2
120
(3,6288)10
(9,3326)10151
0.922
1.919
118,019
(3.5986)10
(9,3249)10'"
0,078
0.081
1,981
(0,0302) 106
(0.0077)10'"
0,08
0,04
0.02
0.008
0,0008
2
5
10
100
necesitamos usar la fmwla de Stirling, una aprox imacin muy conocida de 11!
Esta frmula establece que para un 11 grande,
( 12.3)
TABLA
n--+
P(X =k)=
(~)p*(l
- p)" - *
]2)
1
( 1 [ k - 11p
::::: )21t11p(l - p) exp - 2 jnp(1 - p)
{12.4)
11
= 8, p = 0.2
12.2
n = 8, p = 0,5
11 "'
25, p - 0,2
o
1
2
3
4
5
6
7
8
9
10
11
Aproximacin
Exacto
Aproximacin
Exacto
Aproximacin
Exacto
0,130
0,306
0.331
0,164
0.037
0.004
0+
0+
0+
0+
0+
0+
0,168
0.336
0.294
0,147
0.046
0.009
0.001
0+
0+
0+
0+
0+
0,005
0,030
0.104
0,220
0,282
0.220
0.104
0,030
0,005
0+
0+
0+
0,004
0,031
0.109
0,219
0,273
0.219
0.109
0,031
0,004
0+
0+
0+
0,009
0,027
0.065
0,121
0,176
0.199
0.176
0.121
0,065
0,027
0,009
0,002
0.004
0,024
0.071
0,136
0,187
0.196
0.163
0,111
0,062
0,029
0,012
0.004
12.1
t2.4
12.4
X,= 1
=0
S X S k
tS
+ i).
X S
t + b).
= P( - 1 $
X$
3), tenemos
31)
E11lMPLO
12.4. Supngase que un sistema est formado por 100 componentes cada una de las cuales tiene una confiabilidad igual a 0,95. (Es decir, la
probabilidad de que la componente funcione correctamente durante un tiempo
especfico es igual a 0,95.) Si esas componentes funcionan independientemente
una de otra, y si el sistema completo funciona correctamen te cuando al menos
funcionan 80 componentes, cul es la confiabilidad del sistema?
Sea X el nmero de componentes que funcionan, debemos evaluar
P(80 5 X S 100).
Tenemos
E(X) = 100(0.95) - 95;
V(X)
= 100(0.95)(0.05) =
4.75.
2,18
2,18
= 0,994.
2~1
2,18
Luego X
X 1 + X 2 + + X . (Ver el eJemplo 7.14.) Para esw variable aleatoria hemos demostrado que E( X) = np. V(X) = 11p( 1 - p) y. adem;h. que para
un 11 grande. (X - 11p), ~ 11p(f - p) tiene la distribucin aproximada N(O. ~).
Si una variable aleatoria X puede representarse como una SIIIIICI de 11 tarwl>le.l
alemoria~ i11depe1Uiie111es c11alesquiera (satisfaciendo ciertas condiciones que son
vlidas en la mayor parte de las aplicaciones). entonces esta suma para un 11 suficientemente grande est distribuida aproximadamente normal. Este resultado
notable se conoce como el teorema del lmite central. Se puede estab lecer una
forma de este teorema como s tgue.
Sea X,, X 2 . . X., ... una sucesin de variables
aleatorias independientes con E(X,) = p. y V( X)
al. i - l. 2... Sea
X _ X 1 + X 2 + + X.,. Luego bajo ciertas condiciones generales (que
no se indicarn explcitamente aqu),
z. =
X - I:f: t JI
----;
,
vLf,. q
12.4
Demostracin (bosquejo) : (El lector hara bien en revisar los conceptos bsicos de la fgm presentados en el captulo 10). Sea M la fgm (comn) de las X 1
Puesto que las X, son independientes, M 5 , la fgm de S, est dada por Ms(1) =
[M(t))", y puesto que T. es una funcin lineal de S. (usando el teorema 10.2) la
fgm de T. est dada por
Mr.(t) =
e-t,'~l [M
(}n u)l
12.4
Luego
In Mr0 (1)
r: ...
[
Jll
(JI2 + u2)t2
R].
=-~
+ 11 In 1 + --r-: +
+
2 2
q
yiiU
11(1
1n ( 1
x2
+ x) -- x - -2 +
.xl <
JIL
x=
J 11 u
x3
3
+ x):
l. En nuestro caso
+ (JI2 + q2)2 + R.
2nu 2
'
.Ji.E
+ n[(.,n
'J!-:u + (JI2 + u 2) 2nu + R)
u
2
_21(::;;-;,
Jll + (2 + u2) ~ + R) + .. ].
2nu
12
lnMr(l) =
Puesto que simplemente estamos bosquejando los pasos principales de _la demostracin sin dar todos los detalles, omitamos algunos pasos al~ebratcos e
indiquemos simplemente lo que estamos haciendo. Q~ere~os mve~llgar la expresin anterior (In M r (t))cuando n-+ co. Cualquier termmo que llene una potencia positiva de n en el denominador (tal como n- 112 por ej~mplo) tender
a cero cuando 11 -. co. Despus de un proceso algebratco muy d1recto. pero tedioso, encontramos que
As
261
(i u)
Luego tenemos
(Observemos a esta altura que la idea de la demostracin consiste en investigar
Mr.(t) para grandes valores de n).
Desarrollemos M(t) en una serie de Maclaurin:
2
M(t)
= 1 + M '(O)t + M"~O)I + R,
+ ( JI +
2)12
+ R.
1 1 /2
lim Mr.(l) =e
Esta es la fgm de una variable aleatoria con distribucin N(O, 1). De~ido a la
propiedad de unicidad de la fgm (ver el teorema 10.3) podemos conclur qu_e la
variable aleatoria T. converge en distribucin (cuando n-+ co) a la dtstnbucin N(O, 1).
Obst!rvaciones: (a) Aunque la anterior no representa una demostracin rigurosa, an as
debera dar alguna idea al lector para la deduccin de este importante teorema. La forrna ms
general del teorema del limite central (como se estableci originalmente) se puede demostrar
usando un enfoque semejante al utilizado aqui.
11.4
(b) La forma espcci~l del teorema del lmite central como se estableci a 1
.
que el prom.cd1o aritmtico (l/ n)I:7
de n observaciones de la mi~e;~~:~:~~
a ea ona t1ene aproxomadamente una distribucin normal, para una 11 grande.
(e) Aunq~e una demostracin matemtica e,tableceria la validez de un teo e
d
que n~ contnbuya .mucho a la id~ intuitiva del resultado. Por lo tanto presentam~s ~a~j~;~l~
que s1gue para QUienes estn onentados ms numricamente.
e~p:es~
12.4
,x,
0,225
0.125
P(N=II)
.d EJ~MP:' 12.5. Considrese una urna que contiene tres clases de objetos
ent ea os ~mo O, 1 Y 2. Suponiendo que hay 20 ceros, 30 unos y 50 doses.
~e saea u~ a.ruc~~o al azar y se anota su valor, digamos X. Supngase ue X
--- ',
3"
0,008
P(N = n)
263
''
'
,/'
''
P(X
= x)
1
1
/f
1
j
, /'
L - - - : - I . _ _ I . _ _ X
0,1
0,2
FIGURA
12. 1
FIGURA
11
FIGURA
12.3
12.2
segundo artculo Y se anota su valor. Y. Considrese la variable aleatoria M (X + Y)/ 2 y su distribucin (figura 12.2~
-
P(M - m)
P(X - x)
= (V -
5n)jl2tofi
1 - <1>(0,388) = 0,352.
FIGURA
12.4
..
2tw
1>111111>
12.5
12$
de arlabltS alutoria.
12.(1
sentar como una suma de ,. variables aleatorias independientes distribuidas exponencialmente. Luego para un r grande. se aplica nuevamente el teorema del
limite central.
Hay cierto nmero de distribuciones importantes distintas a la binomial expuestas en la seccin 12.3 que se pueden aproximar por la distribudin normal.
Y en cada caso, como lo haremos notar, la variable aleatoria cuya distribucin
aproximaremos puede ser representada como una suma de variables aleatorias
independientes, dando as una aplicacin del teorema del lmite central como
se expuso en la seccin 12.4.
(a) La distribuci6n de Poisson. Recordamos que una variable aleatoria de
Poisson aparece (sujeta a ciertas condiciones) cuando estamos interesados en
el nmero total de ocurrencias de un s uceso en un interva lo de tiempo de longitud t. con una intensidad (es decir, tasa de ocurrencias por unidad de tiempo)
a (ver la seccin 8.2). Tal como se expuso en esa seccin, podemos considerar
el nmero total de ocurrencias como la suma de las ocurrencias en intervalos muy
pequeos, no sobrepuestos, haciendo as aplicables los resultados de la seccin
anterior.
EJEMPLO 12.7. Supngase que las llamadas a una central telefnica particular ocurren a razn de 2 por minuto. Cul es la probabilidad de que se reciban 22 o menos llamadas en un perodo de 15 minutos? (Suponemos, naturalmente. que la intensidad permanece igual durante el periodo considerado.) Si
X = nmero de llamadas recibidas, entonces E(X) = 2(15) = 30. Para calcular
P(X S 22), aplicando la correccin para la continuidad (ver la ecuacin (b) que
precede al ejemplo 12.4), tenemos
22+-l--30)
P(X S 22)~ P ( Y S ~Oen donde Y t iene distribucin N(O, 1). Luego la probabilidad anterior es igual
a <1l( - 1,37) = 0,0853.
(b) La disrribuci6n de Pascal. Si Y = nmero de ensayos de Bernoulli necesa rios para tener r xitos. entonces Y tiene una distribucin de Pascal y se puede
representar como la suma de r variables aleatorias independientes (ver la seccin 8,5). Luego para un r suficientemente grande, se aplican los resultados de
la seccin anterior.
En!MPLO 12.8.
~ <1>
eso VA7~
192
) = <1l( - 1.73) = 0.0418.
12.6
+:
T eorema 12.2 Supngase que X y Y son variables aJelloria~ independientes con fdp g y 1 respectivamente. Sea Z = X + Y y denotese la fdp de
por s. Entonces.
s(z)
= J+: o( w)ll(z -
w) d"-.
( 12.6)
puede
J(x. y) = t(xlll(y).
Usando la transformacin :
Z
Luego x
= w.
+ y.
11'
X.
~~
11 :; -
- 1
l.
W = X es
k(z. w}
= y(w)ll(z -
Y Y
w).
266
12.6
z.
S(z)
= P(Z $
z)
= P(X + Y $
z)
12.6
g(t 1 ) = a,e- ,
h(t 2) = a2e-"'''.
t 1 ~ 1.
$ z}.
01012 (e - -e- ,
a2
12.5
Diferenciando S(z) con respecto a z (bajo el signo integral, lo cual puede justificarse) obtenemos
s(z)
t ~O.
O.
El integrando es positivo si y slo si ambos factores del integrando son positivos; es decir, cada vez t 1 ~O y 1 - t 1 ~ O. Esto es equivalente a t, ~ O y t1 ~ t,
= {(x.y)lx + y
/2 ~
en donde
R
~O,
t1
= SJ g(x)h(y)dx dy,
167
t ~ O.
para
a1
t ~O.
Esta representa a una distribucin Gama (ver la ecuacin (9.16). El grfico de esta fdp aparece
en la fgura 12.8. El mximo ocurre para 1 = l/a = E(T 1) =E(T2 ).
s(r)
s(r)
- - -- t - - - - - + -- - ---+1
r lGURA 12.6
12.9. Se consideran dos instrumentos electrnicos, D 1 y D 2 Supngase que D, tiene una duracin que puede representarse con una variable
a leatoria T, que tiene una distribucin exponencial con parmetro 01 1. Mientras
que D2 tiene una duracin que puede representarse con una variable aleatoria T 2
que tiene una distribucin exponencial con parmetro a 2 . Suponiendo que D1
y D2 estn conectadas de tal manera que D2 empieza a funcionar en el momento
que D, deja de funcionar. Entonces T = T 1 + T 2 representa el tiempo total
que el sistema formado por los dos instrumentos est funcionando. Suponiendo
T 1 y T 2 son independientes, podemos aplicar el resultado anterior para obtener
EJEMPLO
1=
12.7
1/ a
FIGURA
12.8
f(vtl
g(v2l
=ru.
=ru.
o::;; VI
o::;; V2
::;;
10,
JO.
268
12.6
12.6
2CI9
Suponcendo que z = X + Y. en donde X y Y son variables aleatorras ndependientes. cada una con distribucin NJO. 1). Entonces
) _ 1 -r2
/ ( x - y; e
.
g(y) =
~e-,!2,
<X<
CO.
..2n
10
(a)
v,
O v- IO
FIGURA
10
12.9
s(z\
..,
J,
2n
1!
+oo
(v)
- 1
e
- 2n _,
J "'
Ct!2ll+=- 2:.+1 dx
+"
1 e -!2
e--:xldx
2n
-,
Completando el cuadrado en el exponente del mtcgrando. obtenemos
En el caso (a). o, puede tomar los valo res entre O y o. mientras que en el caso (b).
s(o)=
s(o) =
"
l
Luego
1 1
r: rli 1~
10
dv, =
25foo V
s( z)
1
- :> 4
1 f +ao -ulf2 _,
= Jiicj:
e
~
e
uu.
2n 2
.. 2n - co
1
e
- ~V/2
s(z) -
FIGURA
12.10
EJEMPLO 12.11. Como un a ilustracin final de las sumas de variables aleatorias. reconsideremos un resultado que ya hemos probado. usando el mtodo
ms indirecto de las runciones generadoras de momentos (ver el eJemplo 10.11),
esto es. la suma de dos variables aleatorias normales e independientes est nuevamente distribuida normalmente. A fin de evitar a lgunas manipulaciones algebraicas complicadas. consideremos slo un caso especial.
e1/211/.l!P
Pero sta representa la rdp de una va riabl e aleatoria con distribucin N(0,2)
lo qu e se iba a demostrar.
Al presentar la distribucin de la suma de dos variables a leatorias independientes. nos hemos reducido a variables aleatorias continuas. En el caso discreto
el problema es algo ms sencillo, al menos. en ciertos casos. como lo indica el
teorema siguiente.
Teorema 12.3. Supngase que X y Y 'on variables aleatorias independientes cada una de las cuales puede tomar slo valores enteros no negativos. Sea p(k} = P(X =k). k= O. t. 2.... y sea q(r) = P(Y = r). r = O. l.
2.... Sea z = X + Y y sea w(i) = P(Z = i). Entonces
270
12.6
i
IV(i) =
p(k)q(i - k).
k~O
=o. J. 2... .
Demos/ racin:
ll'(i) = P(Z = i)
P[X
i
= O, Y = i o X =
P[X =k, Y =
l. Y = i - 1 ... X
i - k] =
ke O
= i, Y = O]
p(k)q(i - k)
k =O
l'wbl<noU
271
12.3. (a) Un sistema compuesto est formado por 100 componentes que funcionan independientemente. La probabi lidad de que cua lquier componente falle durante el periodo
de operacin es igual a 0,10. A fin que funcione el sistema completo, al menos deben funcionar 85 componentes. Calcular esta probabi lidad.
(b) Supngase que el sistema anterior est formado por n componentes. cada una con
una confiabilidad de 0,90. El sistema funcionar si al menos el 80 por ciento de las comp~
nentes funciona correctamente. Determinar n de modo .]ue el sistema tenga una confiabibilidad de 0,95.
12.4. Supngase que 30 instrumentos electrnicos, D., .... D30 se usan de la manera
sigu iente: tan pronto como D, falla empieza a actuar D 2 Cuando D2 falla empieza a actuar
D3, etc. Supngase que el tiempo para fallar de D;, es una variable aleatoria distribuida expo
nencialmente con parmetro p = 0,1 hora - l . Sea T el tiempo total de operacin de los 30
instrumentos. Cul es la probabilidad de que Texceda 350 horas?
EJEMPLO
12.12.
de duracin l. Suponiendo que X y Y tengan distribuciones de Poisson con parmetros /111 y /1 2t. respectivamente. Z = X + Y representa el nmero total de
partculas ~ emitidas por las dos fuentes. Usando el teorema 12.3. obtenemos
P(Z = k) =
p(k)q(i - k)
k: O
(La ltima igualdad se obtiene aplicando el teorema del binomio a la suma anterior). La ltima expresin representa la probabilidad que una variable aleatoria que tiene una distribucin de Poisson con parmetro {l 1t + /f 2t tome el
valor i. As hemos verificado lo que ya sabamos: la suma de dos variables aleatorias independientes de Poisson tiene una distribucin de Poisson.
PROBLEMAS
12.1. (a) Una fbrica produce determinados artculos de tal manera que el 2 por ciento
resulta defectuoso. Se inspecciona un gran nmero de tale.~ artculos, n, y se anota la frecuencia
relativa de defectuosos, / 0 . Cul debera ser el tamao de n a fin de que la probabilidad sea
0,98 de que j 0 difiera de 0.02 en menos de 0,05?
{b) Conteste la (a) si 0,02, la probabilidad de tener un artculo defectuoso se sustituye
por p que se supone desconocida.
12.2. Supngase que se obtiene una muestra de tamao de un gran conjunto de pernos.
el 3 por ciento de los cuales son defectuosos. Cul es la probabilidad de que a lo ms el 5
por ciento de los pernos elegidos sea defectuoso si:
(a) 11 =
6?
(b)
11
= 60?
(e)
11
= 600?
/(rrl
10- r 1
=so
O<
< 10,
= 1,2.
+ Y.
13
12.1 J.
12.12. (a) Un instrumento tiene un toempo de ralla T cuya distribucin est dada por
N( 100,4). Su pngase que a 1anotar Tse comete un error cuyo valor puede representarse como una
variable aleatoria X distribuida unirormemente en ( - J. 1). Si X y T son independientes.
obtener la rdp de S = X + Tmediante <1>. la rdp de la distribucin N(O,I).
(b) Calcular P(IOO S S S 101). [Indicacin: use la regla de Simpson para aproximar la
integral.)
12.13. Supngase que un nuevo aparato se prueba repetidamente baJO ciertas condiciones
de esruerzo hasta que ralla. La probabilidad de rallar en cualquier ensayo es p 0 Sea X ogual al
nmero de ensayos necesarios hasta incluir la primera ralla, Tambin se prueba un segundo
aparato hasta que ralla. Supngase que una probabilidad constante de ralla p2 est asociada
con l. Sea Y igual al nmero de ensayos necesarios hasta incluir su primera ralla. Supngase
que X Y Y son independientes y haga Z = X + Y. Por tanto. Z es igual al nmero de ensayos
necesarios hasta que ambos aparatos hayan rallado.
(a) Encontrar la distribucin de probabilidad de z.
(b) Calcular P(Z 4) si Po = 0,1, p 2 = 0.2.
(e) Discutir (a) si Po p 2
13. 1 Introduccin
Consideremos nuevamente un problema expuesto previamente. Supngase
que tenemos una fuente de material radiactivo que emite partcula) :x y que la
hiptesis establecidas en el captulo 8 son vlidas. as que la variable aleatoria X
delinida como el nmero de partculas emitidas durante un perodo de tiempo
especilieado 1 tiene una distribucin de Poisson con parmetro lt.
A lin de usar este modelo probabilstico para describir la emisin de partculas a necesitamos conocer el valqr de l. Las hiptesis que formulamos slo
conducen a la conclusin de que X tiene una distribucin de Poisson con un
parmetro A.t. Pero si deseamos calcular P(X > 10), por ejemplo, la respuesta
ser mediante A. a no ser que conozcamos su valor numr ico. Anlogamen te, los
parmetros importantes asociados con la distribucin tales como E(X) y V(X)
son funciones de l.
Para buscar un valor numrico de ). debemos dejar el mundo de nuestros
modelos matemticos tericos y entrar a l mundo de las observaciones. al menos
por ahora. Es decir, en este instante debemos observar la emisin de las partculas.
obtener los valores numricos de X y luego utilizar esos valores de una manera
sistemtica a lin de obtener una informacin atinada de ..l
Es importante para el lector tener una idea precisa acerca de la relacin entre
la verilicacin emprica y la deduccin matemtica que aparece en muchas reas
de matemticas aplicadas. Esto es muy importante cuando construimos modelos
probabilsticos para el estudio de los fenmenos observables.
Consideremos un ejemplo trivial de la trigonometra elemental. Un problema
tpico puede implicar el clculo de la altura de un rbol. Un modelo matemtico
para este problema podra obtenerse al postular que la relacin entre la altura
desconocida Ir. el largo de la sombra s, y el ngulo :x es de la forma Ir = s tg a.
(Suponemos que el rbol permanece derecho y perpendicular al suelo. ligura 13.1.)
FIOURA
273
13.1
174
13.2
Por tanto, si s y oc son conocidos, con ayuda de una tabla apropada. podemo~
calcular 11. El hecho importante que aqu formulamos es que s y a deben ser cono
cidos antes de que podamos calcular h. Es decir, alguien debe haber medidos y a.
La deduccin matemtica que conduce a la relacin h = s tg a es completamente
independiente de los medios mediante los cuales medimos s y oc. Si esas mediciones son exactas, entonces s tg a representar un valor exacto de h (suponiendo
que el modelo es vlido). Dicindolo en forma diferente. no podemos deducir
simplemente el valor de Ir con nuestros conocimientos de trigonometra y con la
ayuda de las tablas trigonomtricas. Debemos dejar nuestro santuario (cualquiera que sea) y hacer algunas mediciones! Y. precisamente. cmo se hicieron
esas mediciones. de ninguna manera innuyen en la validez de nuestra deducci n
matemtica, aunque deba resolverse un problema importante.
Al usar los modelos probabilisticos necesitaremos entrar nuevamente al mundo
emprico y hacer algunas mediciones. Por ejemplo, en el caso que consideramos
se usa la distribucin de Poisson como modelo probabilstico y por tanto necesitamos conocer el valor del parmetro ..t. A fin de obtener alguna informacin
acerca de ). debemos hacer algunas mediciones y luego usar esas mediciones de
una manera sistemtica con el objeto de calcular ..t. En el capitulo 14 describiremos
la manera de hacer este clculo.
Finalmente, debemos insistir aqu en dos puntos. Primero, las mediciones
necesarias para obtener informacin respecto a ). sern generalmente ms fciles
de obtener que las que produciran mediciones para e-(..ttt /k! (tal como es ms
fcil obtener mediciones para el largo de la sombra s y el ngulo IX que para la
altura 11). Segundo, la manera como obtenemos mediciones para ). y la manera
como usamos esas mediciones de ninguna manera invalida (o confirma) la aplicacin del modelo de Poisson.
El anterior es un ejemplo tpico de una gran cantidad de problemas. En muchos
casos ~lativamente natural (y apropiado) formular la hiptesis de que una
variable aleatoria X tiene una distnbucin particular de probabilidades:- Ya
hemos visto un nmero de ejemplos que indican que hiptesis muy simples acerca
de la conducta probabilstica de X conducirn a un tipo determinado de distribuciones tales como la binomial, exponencial, normal, Poisson y otras. Cada una
de esas distribuciones depende de ciertos parmetros. En algunos casos el valor
de uno o ms parmetros puede .s er conocido. (Tal conocimiento puede provenir
debido al estudio previo de las variables aleatorias). Muy a menudo, sin embargo,
no conocemos el valor de los parmetros implicados. En tales casos debemos
proceder como se sugiri anteriormente y obtener algunos valores empricos
de X y luego usar esos valores de alguna manera apropiada. Veremos cmo se
hace esto en el captulo 14.
ll.l
facturados. etc.) acerca de la cual queremos hacer inferenca sin mirar cada objeto.
As! muestreamos. Es decir. tratamos de considerar algunos objetos tpiCos
de los cuales esperamos extraer alguna informacin que de algn modo ~ca caracterstica de la poblacin completa. Seamos ms precisos.
Supngase que designamos consecutivamente cada uno de los elementos de
una poblacin finita, de modo que sin perder generalidad una poblacin que consta
de N objetos puede representarse como l. 2, .... N. Elijamos ahora 11 artculos.
de la manera como vamos a describir a continuacin. Definamos la siguiente
variable aleatoria.
= 1, 2.. .. N.
=J.]= NCN
-1)-~(N
-11+1)'
tU
1'(,\ 1
~, X.=
(e) Tal como 1<> hicimo' antenormcntc. usaremos letras maysculas para lus vanable,
alea tonas y letra' mrn~culas para el valor de la variable ale-.ttoria. Luego los valores que tOill<l
una muc,tro IX 1..... X.1 M: denotarn por (x1..... x.l. A menudo hablaremos del ptmlo
muestra/ (x 1..... ~.). Con c~to mdicarcmos simplemente que consideramos a (x 1 \.)
como las coordenadas de un punto en un e. . pacio euclidiano, dimensional.
11.4
13.3
Estadlgrafos
Una vez que hemos obtenido los valores de una muestr<~. habitualmente
queremos usar esos valores muestrales con el objeto de hacer alguna 111rcrencia
de la poblacin representada por la muestra que en el pitrraro actual representa
la distribucin de probabilidades de la variable aleatoria que se cstt muestreando.
Pue~to que los diversos parmetros que caracteri7.an una distribucin de probabilidades son numeros. es apenas natural que queramos calcular ciertas caracterstica~ numricas especificas que se obtienen de los valore mue,tralt!j,. lo que
nolt podra ltervir para hacer proposiciones apropiadas acerca de los valores de
lo~ parmetro~ que a menudo no son conocidos. Definamo~ el sguientc <:oncepto
importante.
Definicin. Sea X 1. .' ... X. una mu.:stra aleatoria de una variable aleatoria
X y sean .'( 1, .... x.los valores lomados por la muestra. Sea 11 una funcin
definida para el " tuplo (x 1, .... '(.). Se define que Y 1/(X 1..... X.)
sea un t'.\tadra(o. que toma el valor y= fl(xt ... \'.).
Fn palabras: un estadgraro es una funcin real de la muestra. Algunas
veces usamos el trmino estadgrafo para rercrirnos al valor de la funcin.
Luego podemos hablar del estadigraro y = /l(x , .... x,) cuando realmente
deberamos decir que y es el valor del cstadgrafo Y 1/(X 1.... , X,).
0/J.,er,.acirr : de acuerdo con la dcrinicin ;1111crior. i un e~llldlgrufo c... una variable alea
oria! b muy importante recordar esto. Ser til ahora considerar la distribucin de pro-
(1/n)Li'~ 1
X ; se llama el P.!:!!lllediolmwstra/.
N. de/1'. El ;IUtor emplea la palabra swti~lics. que hcmo' traduc1do por cstadgrafo
por ~cr la ms comnmente empleada en espaol.
13.4
(b) sz = [1/(u - 1)] :E~. , (X1 - X) 2 se llama la varianza muestra/. (Explicaremos brevemente por qu dividimos por (n - 1) en vez de elegir
simplemente n).
(e) K = m in (X,, ... , X.) se llama el mnimo de la muestra. (K representa
simplemente el valor observado ms pequeo).
(d) M = max (X., ... , X.) se llama el mximo de la muestra. (M representa
el mayor valor observado).
(e) R = M - K se llama el recorrido muestra/.
{f) X~,ll = j-sima observacin mayor en la muestra, j = 1, 2, ... , n.
(Tenemos que X~') = M mientras que X~1 =K).
Observaciones: (a) Las variables aleatorias X'!'.j = 1, 2.... , 11. se llaman estadgraros
de orden asociados con la variable a leatoria X 1, . X . Si X es una variable aleatoria continua podemos suponer que X~" > X~2 l > > x~l.
(b) Los valores extremos de la muestra (en la notacin anterior, X~'' yx~ 1 son a menudo
de inters considerable. Por ejemplo, en la construccin de represas para controlar inundaciones, la mayor altura que ha alcanzado un ro en los 50 aos anteriores puede ser muy importante.
Naturalmente hay muchos otros estadgrafos importantes como los que encontramos, pero evidentemente los mencionados desempean un papel importante
en muchas apl icaciones estadsticas. Estableceremos (y demostraremos) algunos
teoremas que se refieren a los estadigrafos anteriores.
Teorema 13.1. Sea X una variable aleatoria con esperanza E(X) = ll y
varianza V(X) = (J 2 Sea X el promedio muestra! de una muestra aleatoria
_de tamao n. Entonces
= ll
(b) V(X) = q 2fn.
{e) Para n grande, (X - t)f(qf.J) tiene aproximadamente la distribucin
N(O, 1).
{a) E(X)
.L:
X 1) =-:-)
n i-=- t
n
.L:
n ;= J
E(X 1) = -1 np = 11
n
(1
1 .L:
n
)
V(X) =V - LX
= 2
n; = J
i =- J
V(X) = -r mr 2 = (J2
- .
(e) se deduce de una aplicacin directa del teorema del l mite central. Podemos
escribir X= (1/n)X; + + (1/ n)X., como la suma de variables aleatorias inQ.eJXlndientemente distribuidas.
13.4
Si calculamos el promedio de esos nmeros. tomando dos a la vez en el orden anotado. obtenemos el siguiente conjunto de promedios:
0.2. 0,8, 4, J.
Encontramos que no slo X sino la mayor parte de las funciones con buen
comportamiento de X tienen esta propiedad. En este nivel de presentacin no
podemos dar un desarrollo ms explicativo de este resultado. Sin embargo, el
resultado es de mucha importancia en muchas aplicaciones para sostener a lo
menos un argumento heurstico, intuitivo.
Supngase que Y = r(X) y que r puede desarrollarse en una serie de Taylor
respecto a ll Luego r(X) = r(ll) + (X - IJ.)r'{~t) + R, en donde R es el trmino
del resto y puede expresarse como R = [(X- t) 2 /2]r"(z), en donde z es un valor
comprendido ent re X y 11 Si n es suficientemente grande, X esta r prxima a IJ..
y por tanto (X - 1!)2 ser pequea comparada con (X - 11). Para n grande, podemos por tanto considerar que el resto es despreciable y aproximar r(X) como
sigue:
r(,Y) '-=" r(IJ.) + r'(Jl)(X - .t).
Vemos que para un n sulicientemente grande, r(X) se puede aproximar por una
funcin lineal de X. Puesto que X ser aproximadamente normal (para un n
grande), encontramos que r(X) tambin ser aproximadamente normal, puesto
que una funcin lineal de una variable aleatoria distribuida normalmente est
tambin distribuida normalmente.
l.l4
11.4
y(s)
Teorema 13.2. Sea X una variable aleatoria continua con fdp .f y fda F.
Sea X, .. .. X., una muestra aleatoria de X y sean K y M e l mnimo y
el mximo de la muestra respectivamente. Luego:
(a) la fdp de M est dada por g(m) .,.. 11[F(m)] 1 f(m).
(b) la fdp de K est dada por /(/, 1 11 [ 1 - F(k)]- 1.f(k).
Demostracin: sea G(m) = P(M::::;; m) la fda de M. Ahora {M ::::;; m} es equi
valente al suceso {X1 ::::;; m, para todo
Luego puesto que los X; son indepen
dientes, encontramos
r:.
= P[X,
::::;; m y X 2 $ m y X. $ m] = (F(m)]".
Por tanto
o(m) = G'(m) =
nl F(m)]"
f(m).
Como(f
1
~,."
P(950 <
T<
0,001\
'19'
As para un 11 suficientemente grande. vemos que la distribucin de r(X) es aproximadamente N(r(JI). [r'(J1>]2u 2/n) (bajo condiciones muy generales de la funcin r).
G(m)
~~OOO <
1)
J (1)
<)<) 1
1-
eo.ooH7200o
1- e
0.99925
7,2
1 - [1 - F(10J]' 00 .
0 00 H 101
e o.o 1 - 0.99005.
Luego
P( K < 10)
0.63.
La ltima parte del eJemplo antenor puede generalizarse como lo mdica el teorema
siguiente.
Teorema 13.3. Sea X distnbuida exponencialmente con parmetro "X y
sea (X,: ... , X.) una muctra aleatona de X. Sea K - min(X 1 .... X.).
Entonces K est tambin distribuida exponencialmente con parmetro ""'
= 0.532.
de las tablas de la distribucin normal.
Obsertl(tcitll: en el caso presente podemos obtener inmediatamente la distribucin exacta
de T sin recurrir al teorema del lim1tC central. Demostramos en el teorema 10.9 que la suma
de variables aleatorias independientes distribuidas exponencialmente tiene una distribucin
gama: es decir.
13.4
t3.4
en donde
X es el promedio
(X,- X)2,
! 1= 1
(a) E(S 2) = u 2
(b) Si X est distribuida normalmente, [(n - l)/ u 2
bucin x cuadrado con (n - 1) grados de libertad.
Demostracin:
JS 2
(X- X) 2 =
(X - Jl + JI - .\') 2
ja J
L"
[(X- t)2
+ 2(Jl-
+ (t-
X)(X - Jl)
Observacin: aunque S 2 se define como la suma de ' los cuadrados den trminos, esos 11
trminos no son independien~s. En realidad. (X 1 - X) +(X 2 - X! + +(X.- X) =
L-7. 1 X 1 - nX =O. Luego hay una relacin lineal entre los 11 trminos lo que indica que tan
pronto como (n - 1) sean conocidos. el 11 simo est determinado.
(a) Escribiendo
(s i
.X)2]
Teorema 13.5. Sea X una variable aleatoria continua con fdp f. Sea
R = M - K el recorrido de muestra basado en una muestra aleatoria
de tamao n. Luego la fdp de R est dada por
i= 1
_L
(X; - Jt)
+ 2(t - X) !:
1=
(X;- Jl)
+ n(Jl-
X) 2
!:
(X, - Jt) 2
2n(Jl- X) 2
+ n(Jl-
EJEMPLO 13.2.
X) 2
n- l
(X - Jl)
1!(,\' -
E(X; -
jc
O.
t)2
Luego
1
parar~
i= 1
E(-
+ r)ds,
[0. 1]. Se obtiene una muestra de tamao n. Va. ... . V,, y se calcula el recorrido
i= 1
= L"
1 1
1
X) 2 ) = - 11 -
[nu
1
2
-
n 0'
<12.
s2. la propiedad
x2w + [X2
- HX,
+ X2)] 2
-
X 2] 2
X) 2J =[X,- X 2)2
2
g(r)
k(r) =
(b) No demostraremos (b) sino que slo hacemos posible su validez al considerar el caso especial siguiente: Considerando :E7e 1 (X 1 - X) 2 paran= 2. Luego
+ r) ds.
11(11 -
= 11(11 -
1) J _, ,... - z ds
l)r" -
2( 1
- r).
r (n-2)/ (n-1)
O ::; r ::; l.
FIGURA
r= t
13.2
Para 11 > 2, el grfico de la fdp de R tiene la forma que se indica en la figura 13.2.
Observe que cuando n-> oo el valor de r en el cual ocurre un mximo se desplaza
a la derecha. Luego, cuando el tamao de la muestra se aumenta, llega a ser ms
y ms posible que el recorrido R sea prximo a 1, que es intuitivamente lo que
esperaramos.
284
13.5
13.5
La transformacin integral
Una muestra de una variable aleatoria X puede usarse para obtener informacin acerca de parmetros desconocidos asociados con la distribucin de probabilidades de X. Sin embargo, podemos usar una muestra con un objeto diferente.
Podramos tomar algunas observaciones de una variable aleatoria cuya distribucin est completamente especilcada y luego usar esos valores muestrales
para aproximar ciertas probabilidades que seran muy dificiles de obtener con
un clculo matemtico directo. Por ejemplo, suponiendo que X tiene una distribucin N(O, 1) y queremos estudiar la variable aleatoria Y= e-x sen X . En especial, supongamos que queremos calcular P(O $; Y $; ) A fm de obtener la
respuesta exacta, necesitamos encontrar G. la fda de Y y luego calcular GH) - G(O).
Encontraramos mucha dificultad para hacer esto. Sin embargo. podemos usar
otro enfoque que est basado en la idea de simular el experimento que da origen
a la variable aleatoria Y. Entonces usamos la frecuencia relativa como una aproximacin a la probabilidad buscada. Si esta frecuencia relativa se basa en un
nmero de observaciones sulcientemente grande, la ley de los grandes nmeros
justilca nuestro procedimiento.
Especficamente, supngase que tenemos una muestra aleatoria de la variable
aleatoria anterior, cuya distribucin est completamente especificada, X t. . . . , X .
Para cada X, definimos la variable aleatoria Y1 = e -x; sen X 1 Luego, evaluamos
la frecuencia relativa n,.fn, en donde n,. es igual al nmero de valores Y~o sean y,
que satisfacen O ~ y, ~ !. Luego n,./n es la frecuencia relativa O ~ Y~ !, y si n
es grande, esta frecuencia relativa estar prxima a P [O ~ Y ~ !) segn ta
ley de los grandes nmeros.
Para aplicar el procedimiento anterior, debemos encontrar un medio de
~ene~ar una muestra aleatoria X 1, . , x. de la variable aleatoria cuya distnbucJn es N(O, 1). Antes de indicar cmo se hace esto, expongamos brevemente
u~~ ~istribucin para la cual este trabajo ya se ha realizado debido a la dispombhdad de tablas. Supngase que X est distribuida uniformemente en el intervalo [0, 1]. A ln de obtener una muestra aleatoria para tal variable aleatoria
slo necesitamos ver una tabla de nmeros aleatorios (ver el Apndice). Esa~
tabl~s se han hecho de manera que sean tiles para este propsito. Para usarlas,
sencillamente selecciOnamos una ubicacin al azar en la tabla y luego obtenemos
nmeros a lo largo de lilas o columnas. Si queremos usar esos nmeros tabulados
para representar valores entre O y 1, slo necesitamos poner una coma decimal
al comienzo del nmero. As, el nmero anotado 4573 se usarla para representar
al nmero 0,4573, etc.
La disponibilidad de esas tablas de nmeros aleatorios hace la tarea de obtener una muestra aleatoria de una distribucin arbitraria relativamente sencilla
debido al resultado contenido en el teorema siguiente.
Teorema 13.6. Sea X una variable aleatoria con fdp f y fda F. [Se supone
que /(x) = O, x t: (a, b)). Sea Y la variable aleatoria delnida por Y = F(X).
Luego Y est distribuida uniformemente en [O, 1] (Y se designa como la
transformacin integral de X).
1 1.~
1K4f
G(yl
= P( Y ~ )') =
P(F(X) ~y)
= G'(y) =
= P(X
(.)'1) - y.
F-'(y)
FIGURA 13.3
Podemos usar ahora el resultado anterior a ln de generar una muestra aleatoria de una variable a leatoria con una distribucin especfica. Consideraremos
nuevamente slo el caso continuo. Sea X una variable aleatoria continua con
fda F de la cual se pide una muestra aleatoria. Sea y 1 un valor (entre O y 1) obtenido
de una tabla de nmeros aleatorios. Puesto que Y = F(X) est distribuida uniformemente en [O. 1), podemos consldeiira )-;-; cOio una observacin de esa
variable aleatoria. Resolviendo y 1 = F(x 1) para x, (lo que es posible si X es
conun ua). obtenemos un valor de una variable aleatoria cuya fda es F. Continuando este procedimiento con los nmeros y 2 , . )' obtenido~ de una tabla
de nmeros aleatorios, tenemos x;, i = l. ... , 11, como solucin de la ecuacin
y1 - F(x1), y por tanto. tenemos nuestros valore~ muestrales buscados.
EJEMPLO 13.3. Supngase que queremos obtener una muestra de tamao
cinco de una variable a leatoria con distribucin N(2. 0,09) y supngase que obtenemos los valores siguientes de una tabla de nmeros aleatorios: 0,487; 0,722;
0,661; 0.194; 0.336. Definamos x 1 como sigue:
13.5
fx'
=- -
Jlx o-2)/0 ,3
.j2n -..,
( _
( -
1 0,32)2]dt
Z
52)ds = $ (X
' _2) .
- -
exp - 2
0,3
T - e, YWZ
)111-oX + ez (YWZ
X )'1
1-t)+el.
z
En exposiciones anteriores las siguientes hiptesis posibles : X , Y, W y son variables aleatorias independientes distribuidas normalmente con promedios y
varianzas conocidos. C ualquier intento para obtener la distribucin de probabilidades de la variable aleatoria T o an de expresiones exactas para E(T) y V(T)
fracasar debido a la relacin compleja entre X , Y, W, Z y T.
~i pudiramos genera r una muestra aleatoria (grande) de X , Y, Z y W, por
_ejemplo obtener cuaternas (X r, Y1, Z;, W1), podramos luego generar una gran
muestra de T, llammosla (T., .. . , T.) e intentar estudiar las caractersticas de
la variable aleatoria ~mp ricarnente (mediante la muestra). Supngase, por
ejemplo, que deseamos calcular P(a ~ T =::; b). Para aplicar la ley de los grandes
nmeros, simplemente necesitamos obtener la frecuencia relativa del suceso
{a ~ T ~ b} de nuestra m uestra (grande), y luego poder tener una certeza razonable de que la frecuencia relativa se diferencia muy poco de la probabilida~ terica que est siendo buscada.
1 3.~
PROBLEMAS
t 3.1.
Deducir la expresin para la fdp del mnimo de una muestra. (Ver el teorema 13.2.)
13.2. Demostrar que si X,, .. . , X. son variables aleatorias independientes, que tiene
cada una distribucin exponencia l con parmetro a,, i = 1, 2, .... 11 y si K = min (X,..... x.),
entonces K tiene una distribucin exponencial con parmetro a, + '+ ~ . (Ver el teorema
13.3.)
13.3. Supnga~c que X tiene una distribucin geomtrica con parmetro p. Sea X 1, ... , X.
una muestra :tleatoria de X y sea M
max (X 1..... X.) y K = m in (X 1. . ... X.). Encontrar
la distribucin de probabilidades de J\.1 y de K. [lndicucitin: P{M = m) = F(m)- F(m- 1).
'en donde Fes la fda de M.]
13.4.
N(l~4).
!!00
hora~
=k n
=1
13.6. Supng;se que X 11cne diStribucin f\ (0. 0.09). Se obtiene una muestra de tamao 25
de X. sea X 1.... X B ,Cul e' la probabilidad de que I.fS 1 Xf exceda 1.5?
13.7. Utili7.ando una tabl:t de nmero~ nk;~torios. obtener una muestra aleatoria de tamai\o 8 de una variable alcatona que tiene las distribuciones siguientes:
(a) exponencial. con parltmctro 2.
(b) x cuadrado con 7 grados de lbert:td,
(C) N(4, 4).
13.8. En la seccin 13.5 hemos dado un mtotlo con el cua l puede generarse una muestra
aleatoria de una distribucin cspccilicada. ll ay muchos mtodos distintos con los cuales puede
hacerse esto. algunos de los cua les pueden prercrirsc al dado. especialmente si hay instrumentos
de cmputo disponibles. Uno de tales mtodo~ es el siguiente. Supngase que deseamos
tener una muestra aleatoria de unu vamtblc a leatoria .ue tiene una distribucin de X cuadrado
con 2k grados de libertad. Proccderemo~ como >igue: se obtiene una muestra aleatoria de
tamao k (con ayuda de la tabl:t de nmeros aleatorios) de una variable aleatoria que est
distribuida unirormcmcnte en (0.1). sea U,, ... U,. Luego calculemos X 1 ~ -2 1n(U 1
U, ... U,)
2I:t 1 ln(U 1). La variable aleatoria X, tendr entonces la distribucin pedida,
como lo indicaremos a continuacin. Luego. continuando con este esquema. obtenemos
otra muestra de tamao k de una variable aleatoria distribuida unirormemente y encontramos
as el segundo valor muestra! X 2 Ntese que este procedimiento necesita k observaciones de
una variable aleatoria diMribuida unirormemente para cada observacin de l.~ Para verificar
la proposicin que se h1.ro antenormente procederemos como sigue.
(a) Obtener la runctn generadora de momentos de la variable aleatoria -21n (U1). en
donde U es distnbuda u01rormemente en (0. 1).
(b) Obtener la runcin generadora de momentos de la variable aleatoria
In (U1).
en donde la U, son variables aleatorias independientes cada una con la distribucin anterior.
Se compara esta fgm con la de la distribucin l. cuadrado y luego se obtiene la conclusin
buscada.
-2r.:.,
13.9. Usando el esquema bosquejado en el problema 13.8. obtngase una muestra aleatoria de tamao 3 de la distribucin X~
13.10. Una vanable aleatoria continua X est distribuida unirormemente en (- i.l~
Se obtiene una muestra de tamao 11 de X y se ealcula el promedio muestra! X. Cuill es la
desviacin estndar de X?
si
1 < X111
si
X 1" .$
si
1;;!;
X"''
en donde X 111 es la i-sima mayor observacin en la muestra (es decir. Y" 1 es el e,tadigraro
de i-simo orden). [La runcin F. se usa frecuentemente para aproxmar lo rda F. Puede deF(t).]
mostrarse que bajO condiciones muy generales lim.-" F.(l)
13.13. Tenga K una distribucin N(O, 1). De la tabla 7 en el Apndice. obtener una muestm
de tamao 20 de esta distribucin. Sea Y = lXI.
(a) Usar esta muestra para comparar P[l < Y .$ 2] con la rrccucncia relativa de ese
suceso.
(b) Comparur E( Y) con el promedio muestra! Y.
(e) Comparar la rda de Y. F(t) = P( Y .$ 1) con F. la fda emprica de Y.
13.14. Supngase que X tiene distribucin N(2, 9). Sea X 1
toria de X obtenida con ayuda de la tabla 7. Calcu lar
y comparar con (S 2 ) = 9.
13.15. Tenga X una distribucin N(O.l). Sea X, ..... X 30 una muctr;t alcatona de X
obtenida. usando la tabla 7. Calcular P(X 2 :2: 0.10) y comparar C>te valor con la frecuencia
relativa de ese suceso.
14
14.2
Puesto que esta puede ser la primera vez que el lector encuentre preguntas de
esta clase, vale la pena comentar brevemente la naturaleza general de este problema.
A muchas preguntas matemticas, existe una respuesta definida. Esta puede ser
muy dificil de encontrar, puesto que implica muchos p roblemas tcnicos y debemos
contentarnos con una aproximacin. Con todo, habitualmente es evidente cuando
tenemos una respuesta y cuando no. (P or ejemplo, supongamos q ue nos piden
encontrar una raz rea l de la ecuacin 3x5 - 4x 2 + 13x - 7 = O. U na vez que
hemos encontrado una solucin, es muy sencillo verificar si es la correcta: slo
necesitamos sustituirla en la ecuacin dada. Si tenemos dos respuestas aproximadas, r 1 y r 2 , es tambin sencillo decidir cu l aproximacin es mejor.)
Sin embargo, el problema actual , particularmente la estimacin de p. no admite
un anl isis tan sencillo. En primer lugar, puesto que nunca podemos conocer el
valor verdadero de p (en cualquier situacin real a l menos), no tiene sentido decir
que nuestra estimacin {J es correcta. Segundo, si tenemos dos estimaciones
de p, llammoslas p1 y p2 , debemos encontrar algn medio para decidir cul es
mejor. Esto significa que debemos establecer algn criterio que podamos aplicar
para decidir si una estimacin es preferible a o tra.
14.1
Introduccin
En el capi tulo anterior sugerimos que una muestra de una variable aleatoria X
puede usarse con e l objeto de est imar uno o varios parmetros (desconocidos)
asociados con la d istribucin de probabilidades de X. En este capitulo cons ideraremos en detalle este problema.
A fi n de desarrollar un ejemplo especifico. consideremos la situacin s iguiente.
Un fabricante nos ha enviado 100.000 pequeos remaches. Un empalme perfectamente remachado necesita que cada remache ajuste perfectamente en un hueco y
por consiguiente se tendr a lguna dificultad cuando el remache lo exceda. Antes
de aceptar este cargamento. queremos tener alguna idea acerca de la magnitud
de p. la proporcin de remaches defectuosos (es decir. los que exceden el hueco).
y procedemos como sigue. Se inspeccionan n remaches escogidos a l azar en el lote.
Debido al gran tamao del lote, podemos suponer que escogemos con sustit ucin
_!!!!_nque realmente no procederamos as. Se definen las s iguientes variables aleatorias : X r = l. si el i-simo artculo es defectuoso, y O de otro modo i = 1, 2 . ... n.
Luego podemos considerar que X 1 X., sea una muestra de la variable aleatoria
X cuya distri bucin est dadap~ P(X = 1) = p. P(X = O) = 1 - p.
La distribucin de probabilidades de X depende del parmetro desconocido p de
una manera muy sencilla. Podemos usar la muestra X., .... X. de alguna manera
con el objeto de estimar el valor de p? Hay algn estadgrafo H tal que
H(X ,, ... , X.,) puede usarse como un estimador (puntual) de p?
Debera ser evidente que una muestra de tamao n. en donde 11 < 100.000.
nunca puede permitirnos reconstruir la verdadera composicin del cargamento
sin im portar cun hbi lmente usemos la informacin obtenida de la m uestra.
En otras palabras, a. no ser que inspeccionemos cada uno de los art culos (es decir.
tomemos n = 100.000) nunca podremos conocer el valor verdadero de p. (Esta
ltima frase se refiere evd~ntemenle a muestreo s in susti tucin.)
Luego, cuando proponemos a p como un estimador de p realmente no esperamos
_que p sea igua l a p. (~ecordamos ql~ p~variable aleatoria y, por tanto, puede
tomar muchos valores.) Este dilema da origen a dos preguntas importa ntes:
(1) ,Qu caractersticas queremos que posea un buen estimador?
(2) Cmo decidimos que un estimador es mejor que otro?
2.90
291
e,
14.2
promedtamos esos valores. esperaramos que el promedio fuera prximo al valor verdadero
del parmetro. Aunque es deseable que un estimador sea insesgado, puede haber ocasione>
en las cuales podramos preferir estimadores sesgados (ver ms abajo). Es posible (y rea lmente
es fciO encontrar ms de un estimador insesgado para un parmetro desconocido. A Jin de
hacer una buena eleccin en tales casos presentamos el concepto siguiente.
Sea O una estimacin inscsgada de O. Decimos que O es una
estimacin iiiSI'S!!llda tlt rarian:w muima de Osi para todas las estimaciones
O* tales que E(O*) = O. tenemos VII}J $ V(O*) para cualquier O. Es decir.
entre todas las estirnacione~ insesgada~ de O. rJ tiene la varianza ms pequea.
Definicin.
14.2
o equivalentemente, si
lim Prob
[lO- Ol ~ E]
= 1
para todo
> O.
Observaciones: (a) Esta definicin establece que una estimacin es convergente SI aumenta
el tamao de muestra, Oconverge en el sentido probabilstico anterior a O. Nuevamente. esta
es una propiedad intuitivamente atractiva que debe poseer una estimacin. Porque dice que
cuand o aumenta el tamao de muestra (lo que Significara, en circunstancms muy razonables.
que se dispone de ms informacin) la estimacin llega a ser mejom en el sentido ind1cado.
(b) Es relativamente fcil verilicar si una estimacin es insesgada o no. Tambin es muy
elemental compara r las varianzas de dos estimaciones insesgadas. Sin embargo, venJicar la
convcrgencta aplicando la definicin anterior. no es tan sencillo. El teorema srgutente es algunas
veces muy til.
14. 1
FiGURA
14.2
Obserl!acio11es: (a) La varianza de una va riable alea toria mide la variabi lidad de la
variable a leatoria respecto a su v;1lor esperado. Por tanto, es intu itivamente atractivo pedir que
un estimador inscsgado tenga una varianza pequea, porque as la variable aleatoria tiende a
aprox imarse a su promedio. lo cual en el caso de un estimador insesgado, significa aproximarse
a l valor verdadero del paritmetro. Luego si 6, y 6z son dos estimaciones de O. cuya fdp est
bosquejada ~n la Jig~ra 14. 1, posiblemente preferiramos d, a 62 Ambas estimaciones son insesgadas, y V(O,) < V(Oz).
E~ el caso de las estimaci!'nes 03 y 04 la decisin ~o es la'! evidente (figura 14.2) ya que
03 es msesgad~ mientras que
no cs. Sin embargo. V(0 3) > V(04 ). Esto significa que mientras
en promedio 03 estar prxima a O. su mayor 'arianza indica que no serian sorprendentes
desviaciones considerables de O. por otra parte tl4 tendera a ser algo mayor que O. en promedio
y podria an estar mas prxima a O que 6, (\cr ligura 14.2.).
(b) Existen tcnicas para encontrar e\limac10nes insesgadas de varianza mnima en general.
Sin embargo no podremos presentarlas aqui. Haremos uso de este concepto principalmente
COn el ObJeto ~e elegir entre dos O m\ estimacrorycs inses~das disponibles..Es decir. SI 01 y 02
son ambas csumactones msesgadas de O. y si V(ll 1) < V(0 2 ). preferiramos 01
o.
- 01 > E] = O
para todo
>O
P[iO - Ol
~ t] ~ ~1 E[O- 0]2
E(Q)][E(UJ - O]
+ [E(0)- 0] 2 }
=
~ {Var 6 +O+
E
[E((1) - 0] 2 }.
Observacin : si el estimador
ticamente.
Oes
Un criterio linal que se aplica a menudo para estimar puede formularse como
sigue. Suponiendo que X" ... , X. es una muestra de X y Oes un parmetro desconocido. Sea Ouna funcin de (X" ... , X.).
Defmicin. Decimos que Oes el mejor estimador i11sesgado de O si:
(a) E(O) = O.
(b) O 1:7 1 a1X 1 Es decir, Oes una funcin li11eul de la muestra.
(e) )1{0) $ V( O*), en donde O* es cualquier otro estimador de O que satisface
las relaciones (a} y (b) anteriores.
294
14.3
Observacin: que el resultado demostrado en el ejemplo 14.1 es un caso c'pecral del tcore
ma 14.2, se deduce cuando observamos que la proporcin de defectuosos en la muestra, Y/n.
puede escribirse como (t/n)(X 1 + + X.). en donde los X 1 toman los va lores uno Y cero.
segn que el artculo inspeccionado sea o no ddectuoso.
Los criterios anteriores de insesgados. varianza mnima. convergencia y linealilidad nos dan al menos una pauta para juzgar un estimador. Consideremos ahora
algunos eJemplos.
Reconsideremos el problema anterior. Hemos muestreado n
y encontrado que la muestra (X 1 , X.) produce exactamente k
defectuosos; es decir, Y = .Ef. 1 X 1 = k. Debido a nuestras hiptesis. Y es una
variable aleatoria distribuida binomialmente.
El estimador intuitiyamente ms sugestivo del parmetro p es p = Y11, la
proporcin de defectuosos encontrados en la muestra. Apliquemos algunos de los
criterios anteriores para ver qu tan bueno es un estimador p.
EJBMPLO 14.1.
rema~hes
E(p) =
Luego
p es
jY) =~(llp)
11
\11
p.
P.=
"
L:" a1X 1
Luego
Var i
C12
. (y)
-; = ,
1
(11p)(l - p)
L:" al
1 t
un estimador insesgado de p.
V(p) = V
l.
ll
. 1
i l
=p(l-p)
11
Luego V(p) -+ O cuando 11 -+ oo, y por tanto pes estimador convergente. Como lo
hemos sealado anteriormente, puede haber muchos estimadores insesgados para
un parmetro, a lgunos de los cuales pueden ser muy malos. adems. Por eJemplo,
considerando en el contexto del ejemplo presente el estimador p* definido as:
p* = 1 si el primer artculo elegido es defectuoso, y O en otro caso. Es decir, es
evidente que no es muy buen estimador cuando observamos que su valor es una
funcin slo de X" en vez de X t. . . . , X . Sin embargo. p* es insesgado. porque
E(p*) = !P(X = 1) + OP(X =O)= p. La varianza de p* es p(l
p). la que se
compara muy mal con la varianza de p cons1derada anteriormente. co-to ~
p(l - p)/11. especialmente si 11 es grande.
El resultado obtenido en el ejemplo anterior es un caso especial de la siguiente
proposicin general.
Teorema 14~. Sea X una variable aleatoria con esperanza finita lA y varianza
u 2 Sea X el promedio muestra!, obtenido en una muestra de tamao n.
Luego X es un estimador insesgado y convergente de lA
Demosrracin: sta se deduce inmediatamente del teorema 13.1 donde demostramos que E(X) = 11 y V(X) = u 2 /11 que tiende a O cuando 11-+ ~-
puesto que los X 1 son variables aleatorias independientes con vananza comun
Escribimos
f. tf, = (a
1 -
l/ 11)2
+ -:1- (a,. -
l / n} 2
+ (2/ ll)(a, + -1
a.) - n( 1/ rl
CT
2
)
1 l
=(a, _ l/ n)2
+ ... + (a.
- 1 11) 2
o.
14.3
As. aunque los dos estimadores 11Z y Tson inscsgados. el ltimo tiene una varianza
ms pequea ) por tanto debera preferirse.
Sin embargo. en esta situacin especial hay otra consideracin que podra
1nfluir en nuestra eleccin entre los dos estimadores sugeridos. Las 11 componentes
podran probarse simultneamente. (Por eJemplo. podramos poner 11 bombillas
en 11 portalmparas y anotar el tiempo en que se queman.) Cuando usamos 11Z como
estimador. la prueba puede terminarse tan pronto como la primera componente
falle. Al usar Tcomo estimador debemos esperar hasta que todas las componentes
hayan fallado. l s muy pos1ble que transcurra mucho tiempo entre la primera y la
lt1ma falla. D1c1ndolo de una manera distinta, si Les el tiempo necesario para
probar los 11 artculos y calculamos la estimacin para 1/ /J. usando 11Z, tenemos
L = min (T .... r,,). mientras que a l usar T. tenemos L = max (T1, ... 7;,). Luego,
si el tiempo necesario para efectuar la prueba es de cualquier efecto serio (digamos
en trminos de costo). podramos preferir al estimador con mayor varianza.
EJEMPLO
!l!o kllt
11
1j
11
EJEMPLO 14.5. En la fabricacin de explosivos pueden ocurrir c1erto nmero de inflamaciones al azar. Sea X el nmero de inflamaciones por da. Suponiendo que X tiene una distribucin de Poisson con parmetro J.. La tabla 14.2
da algunos datos que se van a emplear para la estimacin de )..
ti.
EJEMPLO 14.4. Fn la tabla 14.1 reproducimos los datos oht<.:nH.los en el famoso experimento realizado por Rutherford (Rutherford y Gcig<.:r. Phi/. Mag.
S6. 20. 698 ( 1910)) sobre la em1s1n de partculas ~ por una fuente radiactiva.
TAilLA 14.1
57
f11,
203
383
525
TABLA 14.2
(a) Aunque d1vid1r por (11 - 1) en vez de 11 es diStinto cuando 11 es relativamente pequeo. para un 11 grande ltt diferencia es pequci\:o cualquiera que scu el cslllnudor que
se use.
(b) El ejemplo 14 3 ilustra una slluacin muy comn: puede suceder que un C'>timador
de un parmetro (1. sea sesgado en el scnt1do El/h. = k(l e n tal ca>o consideramo s simplemente
al nue\O ~timador {i1 k. que ser inse,gado.
(e) Puede demostrarse. aunque no lo haremos aqu. que el estimador anterior de 11 2 es convergente.
L:!X
Obsenaciou~, ;
532 40K
273
10
11
Total
49
27
10
2612
139
= 3.87 parttcu1as.
Ll = O llk
(f
iVf
k-, -
Puesto que E(X) = !A.. podemos usar el promedio muestra! para obtener un
estimador insesgado de k.A. Para A., obtenemos entonces el estimador = 8X.
Para calcular X simplemene evaluamos
e - P 81
P(X=k) =
Nmero de inflamaciones, k
75 90 54 22
---
1-
Total
250
p = ~x XI~ =
250
16.998.
1
- 2 = 7.1.
a. 2 = -L:n,.(x
- p)
249
ZYH
t 4.4
TABLA
14.3
"
X
"
X
9,25
1
9,75
10,25
2
10,75
1
11 ,25
1
11,75
2
12,25
5
12,75
4
13.25
7
13.75
6
14,25
13
14,75
14
15,25
15
15,75
13
16,25
24
16,75
15
17.25
19
17,75
23
18,25
22
18,75
12
19,25
19,75
20.25
20,75
12
21,25
6
21,75
4
22,25
2
22,75
2
23.25
23.75
3
24,25
24.75
25,25
1
"
Total
de mue~tras
250
..
14.4
(al menos en pnnctpto) su varianza y compararla con la varianza de otro estimador. Sin embargo. no tenemos an un procedimiento general con el cual podamos encontrar un estimador razonable. Varios de tales procedimientos existen, y expondremos uno de ellos, llamado el mtodo de la mxima verosimilitud.
En muchos casos este mtodo da estimadores razonables.
A fin de evitar la repeticin de nuestra exposicin para el caso discreto y el
continuo, convengamos en la terminologa siguiente para los propsitos de la
exposicin presente.
Escribiremos j(x; 0) tanto para la fdp de X (calculada en x) como para
P(X = x) si X es discreta. Incluimos O (en la notacin) a fin de acordarnos que
la distribucin de erobabilidades de X depende del parmetro O en el cual estamos interesados.
Sea X 1 , , X. una muestra aleatoria de la variable aleatoria X y sean
x~. ... , x. los valores muestrales. Definamos la Junci11 de probabilidad L como
la siguiente funcin de la muestra y de O.
L(X, ... , X.; 8) =/(X a; O)f(X z; 8) .. f(X.; 0).
( 14.1)
Si X es discreta, L(x 1 . . . , x.; 8) representa P[X 1 = x, ... , X. = x .] mientras que si X es continua, L(x, ... , x.; O) representa la fdpconJunta dc(X 1 .. , X.).
Si se ha obtenido la muestra (X 1, X.). los valores muestrales (x,, ... , x.)
son conocidos. Puesto que O es desconocido. podramos hacernos la siguiente
pregunta. Para qu valor de O ser mayor L(x 1 , , x.; O)? Poniendo distintamente, supongamos que tenemos dos valores de 8, sean 8, y Oz. Supongamos
adems que L(x, ... , x.; 8,) < L(x, ... , x.; 01). Preferiramos entonces 82 a 8,
para los valores muestra les dados (x, .. . , x.). Porque, si 0 2 es realmente el
valor verdadero de O, entonces la probabilidad de obtener valores muestrales
tales como los que tenamos es mayor que si 8 1 fuese el valor verdadero de 8.
Informalmente, preferimos el valor del parmetro que hace tan probable como
sea posible que el suceso en realidad ocurri. Es decir, deseamos elegir el valor
ms probable de O despus de obte"er los datos, suponiendo que cada valor de 8
fuese igualmente posible antes que los datos fuesen obtenidos. Hagamos la siguiente definicin formal.
Defmicin. El estimador de mxima verosimilitud de O, llamado O, basado
en una muestra aleatoria X, . .. , x~ es el valor de 8 que maximiza a
L(X 1 , , X.; 8), considerando como una funcin de O para una muestra
dada X,, ... , X., en donde L est definida por la ecuacin (14.1). (Este
habitualmente se designa como el estimador ML.)
Observaciones : (a) Oser naturalmente un estadgraro y por tanto una variable aleatoria
puesto que su valor depender de la muestra (X 1o . , X.). (No consideraremos como solucin
u-naoonstante.)
(b) En la mayor parte de nuestros ejemplos Orepresentar un solo nmero real. Sin embargo,
puede suceder que la distribucin de probabilidades de X dependa de dos o ms valores paramtricos (como se hace en la distribucin normal, por eJCmplo). En tal caso 6 puede representar
un vector, O=(a. /f) o 6 - (or. p, y), etc.
14.4
(e) A fin Je encontrar el estimador M Ldebemos determinar el valor mximo de una funcin.
Asi. en muchos problemas podemos aplicar algunas de las tcnicas estndar del clculo para
encontrar este mximo. Puesto que In x es una funcin credeutl! de x.
14.4
1n
P - P!.7
(14.2)
Si O = (11.. {J). la ecuacin anterior debe sustituir,e por las ecuaciones de probabilidad simu ltneas
(t
i; In L(X 1. . . . . X.;x.(J) = O.
( 14.3)
= 11
iJ
c1
Luego 1n L
O.
JO.
EJEM PLO 14.7. Suponiendo que el tiempo para fallar T, de una componente tiene una distribucin exponencial con parmetro p. La fdp de T por lo tanto
est dada po r
da i = 1/f donde Tes el promedio muestra! de los tiempos de falla. Puesto que
el valor esperado de T, el tiempo promedio para fallar, est dado por 1/ /J. usando
la propiedad de invarianza de los estimadores ML. encontramos que el es~
mador ML de E(T) est dado por T. el promedio muestra!. Sabemos que E(T)
= 11/1 y por tanto T. el estimador ML de E(T), es insesgado.
0/lsenacin: en general, no es fitci l encontrar la distribucin de probabilidades de los esli
madorcs M L. esx:cialmente si el tamao de muc,tra es pequeo. (Sin e> grande. encontraremos
que e' po>ible una wlucin general.) Sin embargo, en el CJCmplo actual podemos obtener 1~
distribucin de lo' estimadores ML. Del corolario del teorema 10.9 cncontramo> que 2n{JT
tiene distribucin x~ . Luego P(T S t) = P(211{JT 5. 211(Jt). Esta probabilidad se lec directamente de la tabla de la distribucin de X cuadrado sin, {J, y t son conocidos.
EJEMPLO 14.8. Se sabe que cierta proporcin (fiJa), p. de detonantes. es defectuosa. De una gran partida, se eligen n al azar y se prueban. Definamos las
variables a leatorias siguientes.
X,
11
X.: p)
302
14.4
!,;>limadores de mhlma
14.4
~ro.lmllllucl
301
L(X, . .. , X,., a)
EJEMPLO 14.9. Supngase que la variable aleatoria X est distribuida normalmente con esperanza p y varianza l. Es decir, la fdp de X est dada por
1 e ( l /2)(x-~J'
f(x) =
./2n
Si (X ~o ... , X.) es una muestra aleatoria de X , la funcin de verosimilitud de
la muestra es
L{X 1,
21 1
Por lo tanto
1 exp [ - 1 ~
(Xr- 1) 2
x.;t) = ( n)"'
2 2
P. =
Si (X 1 ,
o OJl
lnL = ;
~(X)
1 - JI
E(a)
= r~ ig(i) di = f' i 11
jo
X, el promedio muestra l.
Jo
11
,.
i: da
1
'X
11
= rx ;+! o = 11 +
14.10.
14.3
FIGURA
1 rx.
X.).
11
Observemos que aunque E(a) '# a: tenemos que lim.- 00 E(a) = rx. As, para verificar la convergencia debemos demostrar an que V(ci) -+O cuando 11 -+ oo. (Ver
el teorema 14.1.) Debemos calcular E(i) 2;
O S X 1 S a para todo i,
para cualquier otro valor.
O,
Considerando L como una funcin de a para (X., ... , X.) dada, se observa que
debemos tener a ~ X 1 para todo i a fin de que L sea distinta de cero. Esto es equivalente a pedir que a ~ max(X., ... , X.). Luego, si dibujamos L como una
funcin de a obtenemos el gr:ico que se muestra en la figura 14.3. De este grfico, es inmediatamente evidente qu va lor de a maximiza L, es decir
Luego
V(a) = E(a)2 - (E(a)j2 = n : 2 (X2
11 :
1T
(X
(X2
a:
_ [ti]-(t)
g(a) = n -
11(ar'
--
a"
EJEMPLO
f(x)
-h-:
v 2n a exp ( -
1
2
[~]
)
a
304
14.4
Si (X" ... , X.) es una muestra de X, su funcin de verosimilitud est dada por
~Mimadores
14.4
p=
(1
L (-~)In (2na
=
~ E(X'- ~)
2
2
) -
1 1
aOG
In L =O
.
Tenemos
iJ In L
--a;- =
E(X
1 -
1 .
JI) _ O
(12
'
iJ 1n L
n
(X 1 - 11)2
- - =--+:E
- 3- = 0 ,
OG
(1
1 1
(1
1 1n (" -
To
k) '
()p
(1
Luego
In
de mhlm '"'"lnolllcud
- To
~ (,-, --=--k)-/1-=1
que da
-2
(1
1 ~
2
1
-z
=- _, (X,-~) =- L (X,- X) .
n i= J
n ,. ,
"' lnA.+(r - 1)
Xl-nlnr(r).
i=l
o In L/ ilr = O.
o lnL
-'},= -nr). - 1L 1 X; = O,
or
11
1n ). +
t_
1 1
1n X 1 -
r '(r)
1n r - - r(r)
1nX,-A.
0 1n L =
11
r/X . Por
= 1n X -
r '(r) = O.
r(r)
1
- L 1n X 1
11 i=l
306
14.4
14.5
todo muy rpido para obtener las soluciones pedidas ha sido presentado en un
artculo por D.G. Chapman (Anna/s of Mathematical Statistics, 27,498-506, 1956).
Este ejemplo muestra que la solucin de las ecuaciones de verosimilitud puede
conducir a dificultades matemticas considerables.
TABLA
N(o.~).
endonde
B=nE[: tnf(X;O)J ;
(14.4)
'
Observaciones: (a) La propiedad anterior, por cierto, es mucho ms fuerte que la propiedad de convergencia que hemos mencionado antes. La convergencia expresa que sin es sufi-
cientemente grande, esl!lr prximo a O. Ahora esa propiedad nos describe cul es la conducta probabilstica de (J para una n grande.
(b) No demostraremos esta afirmacin, sino que simplemente ilustraremos su uso con
un ejemplo.
ti =
ti
14.5
[~ 1nf(T;{J)J =
2 -
2
{JT + T 2 .
14.4
X (altura, m)
Y (temperatura, q
X (altura, m)
Y (temperatura. q
1142
1742
280
437
678
1002
1543
1002
1103
475
1049
566
995
13
13
1008
208
439
1471
482
673
407
1290
1609
7
14
16
13
11
11l
14
14
18
13
16
7
6
9
11
910
10
15
1277
410
14
10
14.1 5. Estamos familiarizados con el hecho de que la temperatura del aire disminuye con la altura del lugar. Los datos dados en la tabla 14.4 y
el diagrama de dispersin asociado (grfico de puntos) (figura 14.4) lo refuerzan.
El grfico de puntos no slo indica que la temperatura Y disminuye con la altura X , sino que una relacin lineal es evidente.
Las observaciones representan la altura (metros) y la temperatura (grados
centgrados) en las primeras horas de la maana en cierto nmero de puestos de
observacin en Suiza. Los datos provienen del Observatorio Basel-St. Margarathen.
Cul es un modelo razonable para los datos anteriores? Supondremos que
Y es una variable aleatoria cuyo valor depende, entre otras cosas, del valor de X.
Supondremos, especficamente, que
EJEMPLO
Por tanto
Y = aX + {J +E,
y
Puesto que
E(T) = 1/{J
tenemos
] =p12 --pp+
2 1
1
p22 =p2.
E 'J{J1nf(T;{J)
307
FIGURA
14.4
14.!1
V(E) =
u2
14 .~
iJ{J
Obsert'OCin: la interpretaCIn del criterio anterior es muy evidente. (Ver la figura 14.5.)
Para cada par (x,. Y1) calculamos la d1screpanc1a entre Y, el valor observado, y ax1 + JI, el valor
esperado. Puesto que slo estamos interesados en la magnitud de esta discrepancia elevamos
al cuadrado y sumamos todos los puntos de muestra. La lnea buscada es aquella para la cual
esta suma es ms pequeila.
as
=o.
1~1
js)
il
i=-1
x1 =
L xZ + p L
aL
X;
[Y;-
X;-
(1].
L x 1 Y1,
( 14.5)
a 1
+ n/1 = L
(14.6)
Y;.
il
i= t
a fi,
1
en donde
LX,
X=
(14.7)
11 l
j = y -
ax,
en donde
1
y =- L Y,.
n ,
(14.8)
Esta condicin, sin embargo, se satisface cada vez que todos los X no son iguales.
El estimador del parmetro a 2 no puede obtenerse por los mtodos anteriores. Establezcamos simplemente que el estimador corriente de a 2 , mediante
los estimadores de mnimos cuadrados
y j, es
1 1
ap
-2
[x; Y, - xr - flxt],
fa 1
para todo X.
L:
-2
1 1
E( Y)
u 2 = - - L [y 1 n- 2; s )
(G!X
+ P>] .
i=v-a:x
"
= n-1 I:
Y -
I:
1
X
1(x1 -
[1 _
"
_ I:
x)2 1
{x, -
xl Y
(x1 - .X)
= l:Y;--X
-2
,. ,
n
:E1. 1(x; - x)
fiGURA 14.5
310
14Ji
(12
ve> -- "'"
->'
"'i l X - X
(14.9)
(e) Los estimadores ,X y Pson realmente los mejores estimadores lineales inscsgados de a y p.
Es decir, entre todos los estimadores insesgados lineales, stos tienen la varianza mnima.
Este es un caso especial del teorema general de Gauss-Markoff, que establece que bajo ciertas
condiciones los estimadores de cuadrados mnimos y los mejores estimadores lineales insesgados son siempre los mismos.
(f) El mtodo de los cuadrados mnimos puede aplicarse a modelos no lineales. Por ejemplo,
2
si E( Y) = aX + px +y, podemos estimar a. {1 y y de modo que
1 1
1'
66,7
71,0
76,3
80,6
85,7
29
36
51
68
92,9
99,4
113,6
125,1
4
10
15
21
laternlo. dt confllllta
31t
14.6
X(velocidad, kmjseg)
11,93
11 ,81
11,48
10,49
10,13
8,87
Y (altura, km)
62,)6
57,78
53,10
48,61
44,38
40,57
es minimizada.
(g) Si hacemos la hiptesis adicional de que la variable aleatoria E tiene distribucin
2
N(O, u ), podemos aplicar el mtodo de la mi1xima verosimilitud para estimar los parmetros
a y P. Esos estimadores son los mismos que los estimadores de cuadrados mnimos obtenidos
anteriormente. (Esto no siempre es cierto, es una consecuencia de la hiptesis de normalidad.)
TABLA
14.7
80
FIGURA
El estimador que se acostumbra usar para p es el coeficiente de correlacin muestra/, definido como sigue:
YY
14.6
60'---+---+---+---Y
20
40
60
.112
Kllmatin d lo parilll<'lru
14.7
X;
11
fi s
dlot riiHt~llu
1 d S ludnt
11l
1,96uf.Jn). Cuando hacemos la afirmacin de que 500,4 < 1 < 502,0 sencilla mente estamos adoptando el criterio de creer que algo es as cuando sabemos
que es verdadero la mayor parte del tiempo .
Considerar
2<1>(z) - 1 = P ( -z
14.H
z)
JI
11
da
n = (211K 1 - . 2/ L) 2
FIGURA
14.7
+ Th(l.96).
llega a ser
(500.4 ; 502.0)
JI.
Luego podemos determinar n (para a y 11 dadas) de modo que el intervalo de confianza tenga
una longitud prefijada. En general, (como se ilustr en el ejemplo anterior), L ser una funcin
decreciente de n: cuanlo ms pequeo deseemos tener a L ms grande debe tomarse a n. En
el caso anterior especialmente debemos cuadruplicar 11 a fin de dividir a L,
14.8
La distribucin t de Student
q2
= - - L (X - X)2.
11- 11 1
(X- Jllfi .
(14.1 0)
(1
E.~limacie
314
de los parimetros
14.11
14.\1
.J[V!k5'
_ r[(k + 1)/2] (
hk(t) -
(14.11)
;a,
lim lltr{l)
-oo
-"~
x + , - 112ut.-e. t -tzl.
L = 2n - 112t,. -
t.l - 2120.
= (1/jbc)e-'12.
( 10,48 -
= (9,69, 11,27).
(d) Debido a su importancia esta distribucin ha sido tabulada. (Ver el apndice.) Para
un IX dado. 0,5 <IX < l. los valores de 1. satisfacen la condicin
f_~~.(t) di= IX
estn tabulados. (Ver la figura 14.9.) (Para los valores de IX que satisfacen O <IX < 0.5, podemos usar los valores tabulados debido a la simetra de la distribucin.)
(e) Esta distribucin se llama as en honor del estadstico ingls W. S. Gosset, quien public su trabajo bajo el pseudnimo de <<Student.
11(1)
Lts:
14.9
FIGURA 14.9
R(1;
R-~---------!
o 1
l'l
o 1'
FIGURA 14.10
B.-- .
Ti
~=-~--~--4-----------~1'
FIGURA
14.1 1
14.!1
EH!MPLO 14.19. Suponiendo que la duracin X de un artculo tiene distribucin N(J1, u 2). Se supone que u 2 es conocido. La confiabilidad del artculo para
un tiempo de servicio de t horas es dado por
('- )
R = 1- <1> - u -
1-
P[L.::;; O] = 1 -o:.
x;
x;_
p[
L"
(X 1
- -2
O'
X)
2
2
~X.-1.1-o
FIGURA
14. 12
p { R(t; p) =
ll7
,(x2 )
Luego (1:7. 1 (X, - X) 2 /x1- . 1- ro) es el intervalo de confianza unilateral pedido para u2
con coeficientes de confianza (1 - o:).
500 - 500,4)
4 - = 0,6554,
(
P[ O ~ U] = 1 - o:
h,.
d~ ~onflonto
~ ll).
Puesto que oR(t ;J1)/iJJ1 > 0 para todo Jl, tenemos que para cada t fijo, R(I;J1)
es una funcin creciente de ll (Ver la figura 14. JO.) Luego podemos proceder como
sigue para obtener un intervalo de confianza para R(t; Jl). Sea (}J, ji) el intervalo de
confianza para ll obtenido en la seccin 14.7. Sean B y R respectivamente los
extremos inferior y superior del intervalo de confianza pedido para R(t ; Jl). St
definimos a R y R por las relaciones
Mh liObre lo lnltrulo
14.9
e-'1 ~ exp [
LX~.
x2n1 - ]}
= 1 -o:.
=1-o:.
12
en donde, como siempre <l>(K) = (1/.foW-.., e-'' dt. Luego, si hacemos igual a
(1 - a) la probabilidad anterior, podemos obtener el valor de K de la tabla de
14.1)
P2 =
+ (K 2/ 2) +
K[il( 1 11
es suficientemente
.J
jh(l=lt), P2 "' h
yll
14. 13
h11
11
h=c
FIGURA
K2
ll)11
+ (K 2/4)] 1' 2
(14. 12)
h=
PI
1578
3000
= 0,526,
K = 2,576,
2,576
0,526 - J3000 j(0,526)(0,474)
P2 = 0,526
= 0,502,
2,576
PROBLEMAS
14. 1. Supngase que se mide un objeto independientemente con dos procedimientos
de medida diferentes. Sean L, y L 2 las longitudes medidas obtenidas con el primer y segundo mtodo respectivamenle. Si ambos mtodos son correctamente calibrados podemos suponer que E(L 1) = E(L 2 ) = L , la longitud verdadera. Sin embargo, la exactitud de los mtodos no es necesariamente la misma. Si medimos la exactitud mediante la varianza, entonces V(L,) '1 V(L2 ) . Si usamos la combinacin lineal Z = aL, + (1 - a)L 2 como nuestro
estimador de L, inmediatamente tenemos que E{Z) = L. Es decir, 2 es un estimador insesgado de L. Para qu valor de a, O < a < 1, es mnima la varianza de 2?
14.2. Sea X una variable aleatoria con esperanza J1 y varianza u 2 Sea (X" ... , x.)
una muestra de X. Hay muchos otros estimadores de 11 2 que se sugieren adems del ya propuesto. Demostrar que C!~ : : (X; - X) 2 es un estimador insesgado de u 2 para un valor
apropiado de C. Encontrar el valor de C.
.l20
l'roblom
14.4.
14.10. Se prob una componente que se supone que tiene una distribucin exponencial
de fallas y se observaron las siguientes duraciones (en horas): 108. 212. 174. 130. 198. 169.
252, 168, 143. Usando esos valores muestrales. obtener una estimacin M L para la conlia
bilidad de la componente cuando se usa durante un periodo de 150 horas.
14.11.
Frecuencia
Espesor (pulg.)
FI'C<.:Uio!IH.:i~l
1,0
1,3
1,6
1,9
2,2
2
29
62
106
153
186
193
188
151
3.7
4,0
4,3
4,6
4,9
5,2
5,5
123
82
48
27
14
2,5
5
1
1757, 1783, 1796. 0809, 1828, 1834, 1871, 1881. 1936. 1949, 2007.
De los valores de la muestra anterior obtener la estimacin M L para la confiabi lidad de tales
bombillas elctricas cuando se usan durante 1600 horas. suponiendo que la duracin est
distribuida normalmente.
14.4
Espesor (pulg.)
2,8
3,1
3,4
TABLA
Jll
t0
14.7. Considrese la misma ley de falla descrita en el problema 14.6. Esta vez se prueban
N artculos durante T 0 horas (T0 > t0 ) y se anota el nmero k de artcu los que fallan. Res
ponder la pregunta (a) del problema 14.6.
14.8. Supngase que X est distribuida uniformemente en (- oc, a). Encontrar el estimador ML de oc, basndose en una muestra a leatoria de tamao n. X, ... , X .
14.9. (a) Se efecta un proceso hasta que un suceso A ocurre por primera vez. En cada
repeticin P(A) = p. Se supone que son necesarias"' repeticiones. Luego se repite el experimento y esta vez son necesarias n 2 repeticiones para producir el suceso A. Si se baoe esto k
veces, obtenemos la muestra n 1 . . , " Basado en esta muestra, obtener el estimador M L de p.
(b) Supngase que k es muy grande. Encontrar el valor aproximado de E(jj) y V(jj) en
donde pes el estimador ML obtenido en (a).
l(Ax)'- 'e-''
r(r)
x > O.
x > O.
Demostrar el teorema 14.3. [lndi<:acin: ver la observacin (a) que sigue a este
teorema.]
14.18. Comparar el valor de P(X ~ 1), en donde X tiene distribucin N(O. 1). con P(t ~ 1~
en donde e tiene una distribucin t de Student con:
(a) 5 gl. (b) 10 gl. (e) 15 gl. (d) 20 gl. (e) 25 gl.
t'n>hlcm
14.19. Supngase que X tiene una distribucin N(p, a 2). Una muestra de tamao 30,
sea X,, .... X 30 da los valores siguientes: I:f~, X 1 = 700,8; !.~2 , Xf = 16.395,8. Obtener
un intervalo de confianza de 95 por ciento (bilateral) para p.
14.20. Supngase que X tiene una distribucin N(/1, 4). Una muestra de tamao 25 produce un promedio muestra! X = 78,3. Obtener un intervalo de confianza de 99 por ciento (bilateral) para JI.
14.21. Supngase que la duracin de una componente tiene una distribucin normal
N(11, 9). Se prueban 20 componentes y se anotan sus tiempos para fal lar X, .. .. X 20 . Su
pngase que X = 100,9 horas. Obtener un intervalo de confianza de 99 por ciento (bilateral)
para la con fiabilidad R( 100).
14.22. Obtener un intervalo de confianza unilateral de 99 por ciento (inferior) para
R(IOO) del problema 14.21.
14.23. Supngase que X tiene distribucin N(p, a 2 ) en donde 11 y a 2 son desconocidos.
Una muestra de tamao 15 ha producido los valores r.,; ,
= 8,7 y "E/~ ,
= 27,3. Ob
tener un intervalo de 95 por ciento de confianza (bilateral) para a 2
X,
Xr
r(n f2)r(n2/2) 11 2
[Esta se llama distribucin F (Snedecor) con (n 1, n2 ) grados de libertad. Debido a su importancia, se han tabulado las probabi lidades asociadas con la variable aleatoria F.] [Indica
cin: para derivar la fdp anterior, usar el teorema 6.5.]
n, > nz > 2.
14.28. Una razn para la importancia de la distribucin Fes la siguiente. Suponiendo
que X y Y son variables aleatorias independientes con distribuciones N(Jt,, a;) y N(t,, a;~
respectivamente. Sean X, ... ,
e Y, ... , Y., muestras aleatorias de X y Y respectivamente. Luego el estadgrafo C:E~!, (X,- X)2/'f.7~, (Y 1 - Y) 2 tiene una distribucin F para
una eleccin apropiada de C. Demostrar esto y determinar C. Cules son los grados de libertad asociados con esta distribucin?
X.,
32.3
de Student con 1
14.30. Supngase que X est distribuida normalmente. Se obtiene una muestra aleatoria de tamao 4 y se calcula X el promedio muestra l. S la suma de los cuadrados de las desviaciones de esas 4 mediciones de X es igual a 48, obtener un intervalo de 95 por ciento de
confianza (bilateral) para E(X) mediante X.
14.31. La muestra siguiente de tamao 5 se obtuvo de la variable a leatoria bidimensional (X, Y). Usando esos valores, calcu lar el coeficiente de correlacin muestra!.
2 3 4 5
4 5 3
14.32. Supngase que E( Y) = a X + {J. Una muestra de tamao 50 est disponible, sea
(x;, Y1), i = 1, ... , 50 para la cual = Y= O, r,~g, x? = 10, 1:12, l-? = 15 y "El2, x,Y, = 8.
(a) Determinar los estimadores de cuadrados mnimos de los parmetros :x y {J, es decir
a.
yp.
+ PW.
Verificar las expresiones para V(ci) y V(tJ) como se dan en la ecuacin (14.9).
15
IS.I
Docimasia de hiptesis
15.1
(ntroduccin
Ho:Jl = lOO
contra
htlwduccl~ll
JL~
326
Ooc:lmlt!lll dc
Definic a.
hiJII~I
15. 1
!5;
e 1.t).
Jl.
Observacin : otra funcin, muy relacionada con la funcin OC, es la funcin de potencia
definida por
f/(1') - P[ rechazar fl o 11']
lnhuducl'lc'No
1~. 1
L(.t)
- ~ C .t) = P (X3fTn
- 11
= P(X
<l>(s) =
----b
f'
.., 2rr.
!5;
e- x>2 dx.
- >
1 - <11
=1-
<1>(2.37)
0.009.
Luego esta dcima particular nos conducira a rechazar H 0 errneamente alrededor del 0.9 por ciento de las veces.
A menudo consideramos el problema desde un punto de vista ligeramente
diferente. Supngase que se da el tamao de muestra 11 y que la probabilidad de
un error del tipo 1 est especificada, es decir, 1 - L( 100) = a o, equivalentemente.
L(IOO)
1 -a. Cul sera el valor de C?
Especficamente, si tomamos n = 50 y elegimos a = 0,05, obtenemos C como
solucin de la siguiente ecuacin:
0,95
= <~~(e -3 100
fi}
1,64
=e -
Por tanto
e=
100
lOO
fiO.
+ 3~ =
..,50
100,69.
Luego si rechazamos la hiptesis cada vez que el promedio mucs tral es mayor
que 100,69, estamos garantizando que el error del tipo 1 ocurrir, con una probabilidad de 0,05. P uesto q ue ahora se conocen 11 y C la funcin OC est completamente especificada. Su grfico se muestra en la figura 15.2. El valor 0,05 se llama
nivel tle significacin de la dcima (o algunas veces tam01io de la dcima). En la
mayor parte de los problemas se supone que es este valor menor que 0.1).
Ntese que al especificar a y el tamao de la muestra n, slo debe ser determinada la constante
a fin de especificar completamente la dcima. Hicimos
esto insistiendo en que el grfico de la funcin OC pase a travs de un punto espe-
L(.)
,,,,_ ,~
~
p.
FtGURA 15.1
327
F IGURA
15.2
15.1
cificado, 1al como (100, 0,95). (Debe ser evidente cmo se modificara el procedimiento anterior si hubisemos escogido un valor distinto a 0,05 para el nivel
de significacin).
Ahora que la funcin OC est completamente especificada podemos encontrar
las coordenadas de cualquier otro punto. P or ejemplo, cul es el valor de L(I02)?
L(102) = <J)c00,693- 102
J5o)
15.2
de la cual obtenemos
e = (t02)(t,64) -
(100)( - 2,33)
1,64 - ( - 2,33)
.. - 102
FIGURA
t5.3
15.2
Hemos considerado con algn detalle un ejemplo relacionado con una hiptesis que implica el promedio de una variab le a leatoria distribuida normalmente.
Mi entras algunos de los clculos estn an frescos en nuestra mente, generalicemos
este ejemplo como sigue.
Supngase que X es una variable aleatoria con d istribucin N(JI, a 2 ) en donde
2
a se supone conocida. Para docimar H 0 : Jl = Jlo versus H 1 : Jl > Jlo proponemos
lo siguiente: obtener una muestra de tamao 11, calcular el promedio muestra( X,
y rechazar H 0 si X > C, en donde Ces una constante que se ha de determinar.
La funcin OC de esta dcima est dada por
e - too
3
e\
v "),
o.ot = <J) (
e-
102
e\r
-vn
e- 100 ...n,
e
3
_ 2,33
=e -
~ C) = q
(C ~
11
~.
102
Jn.
= (- 2,33)(C - 100).
15.4
L(,.)
=
=
L(102) = 0,01.
= 100.8.
Una vez que se conoce C. podemos obtener 11 eleva ndo al cuadrado cualquiera
de las ecuaciones anteriores:
Por lo tanto
2
3(1,64) ]
11 = e _
= 34,6 ::::e 35.
[
100
L(Jl) = P(X
,. ~ too
3211
1 - a = lll
( e -a Jlo ...'-)n.
330
~.2
Ooclmola de hlp(li<'HI'
1~.2
CUIH~hl
1.11
e-
K1
J.loJn
= -(1-n'
""
r.)
e-
_[u
, - e K -] ,
- J.lo
= 1 - <1>
(e ~
Jl. Jn).
= P(IX = <1>
IX -
J.lol >
e y,
J.lol ~ C)
<1>
11
FIGURA 15.5
La figura 15.5 nos da un medio para comparar la~ tres dccma~ que estamo~
considerando. Todas las dcimas tienen el mismo nivel de signcficacin. (Debe
comprenderse claramente que e es slo un smbolo gennco de una constante
y no ser la misma en cada uno de los casos. Lo importante es que en cada uno
de lo~ casos se ha escogido de modo que la dcima tendr1 el nvel de significacin ':1).
Si Jl > 10 e.ntonces la dcima A es mejor que las o1ras dos puesto que dar{!
un valor ms pequeo para la probabilidad del error del tipo 2. Sin embargo.
si 1' < l'o- la dcima A es la peor de las que estn siendo consideradas. mientras
que la dcima 8 es la mejor. Finalmenle, la dcima D es aceptable generalmente
y an puede ser mejorada en cualquier caso especfico con la dcima A o la dcima B. Por tanto. observemos que es muy importante tener una hiptesis alterna
especfica en mente debido a que la dcima que escojamos puede depender de
esto. (S lo comparamos las dcimas que tienen el mismo nivel de significacin;
esto no es necesa rio en absoluto y la comparacin resulta algo vaga si usamos
dcimas que tienen niveles de significacin diferentes. Ntese la scmeJan:~a con
nuestra comparacin de ciertos estimadores: slo compari1bamos las varianzas
de los estimadores que eran insesgados).
En muchos casos es evidente cul hiptesis alterna debcramo~ considerar.
En el eJemplo anterior, posiblemente sabemos que el nuevo proceso de fabricaCIn producira tiJeras de la misma durabilidad o bien aumentada y, por tanto.
u~aramos la dcima A como sugeramos. (Si el nuevo proceso fuese a producir
tijeras de calidad inferior nuestra dcima sera muy mala. Si no se garanti7a ninguna de tales hiptesis sera mejor usar una dcima tal como D: rechaL.ar H 0
si IXJ.lol > C. Las dcimas tales como A y B se llaman dcimas unilaterales mientras que una dcima tal como D se llama dcima bilateral.
Al considerar hiptesis alternas podramos encontrar la siguiente analoga
til. Supngase que una persona se pierde de un lugar M y sabemo~ que el individuo ha 1do bien a la izquierda o a la derecha de M. mantenindose en una trayectona rectilnea.
M
Si 10 personas estn disponibles para la bsqueda, ,cmo deberan dispersarse esas personas? Si nada se sabe con relacin a la ubicacin del individuo.
podra ser razonable enviar un grupo de 5 personas en cada una de esas direcciones.
lueao despachar un grupo de bsqueda muy efectivo. pero no muy fuerte, tanto
IU
P(X ~ 100,87) = P
=
(x -
rro)
100 r.
v 50 ;a 100'87J - 100 v SO
1 - <1(2.06)
= 0,019699.
Puesto que 0.01 < 0.019699 < 0.05 diremos que el va lor observado X es signilicativo al nivel del 5 por ciento. pero no al nivel del 1 por ciento. Es decir, si usamos a = 0.05 rechazaramos H0 mientras que al mismo tiempo si usamos a = 0,01
no deberamos rechazar 11 0 .
Dicindolo de un modo diferente. si J1 = 100 obtenemos un resultado que
ocurrir slo alrededor del 1,9 por ciento de las veces. Si creemos que a fin de
aceptar H 0 un resultado debera tener a lo menos una probabilidad de ocurrir
de 0.05. luego la rechazamos. Si estamos satisfechos con una probabilidad de 0,01.
la aceptamos.
Observacin: la dcma anterior estipul que ti 0 th:beria ser rechazada siempre que X > C.
Suponiendo que el tamailo muestra! 11 = 2. el criterio anterior se reduce a (X 1 + X 2)/2 > C
o. equiva lentemente. (X 1 + X 2 ) > k. Luego el conJunto de valores muestra les po,ibles (x 1.
x 2 ) ha sido dividido en dos regiones: R = {(x 1. x 2 )lx1 + x2 > kj y R.
La regin especfica R depende naturalmente del valor de k. que a su ,cz depende del nivel
de Significacin de la dcma R. la regin de rechazo se llama algunas veoes regitl crtica de
la dcma. (Ver la figura 15.6.)
1jomplo
15.3
FIGURA
dlclmt~l<''
1.11
15.6
Ejemplos adicionales
u;).
/ly
>o.
U11 ) = P(X -Y
= <1 (
~) =
S: C 1
J u;~"-+Jla:/111}
P ( Z :;;
J 2~- J.l z
ax n + a, 111
334
Oocini de
hiptesi~
e debemos re-
' ).
( J u~/11e+ u;/m
Por lo tanto
e=
K 1 -
J u}.fn + u;fm.
(No continuaremos el problema de determinar ptimamente a n y m,. Una exposicin de este problema se encuentra en Derman and Klein, Probability and Statistical 1nference for Engineers. Oxford University Press, New York, 1959).
EJEMPLO 15.3. Un fabricante entrega fus ibles de los cuales el 90 por ciento
aproximadamente funcionan bien. Se inicia un nuevo proceso co n el objeto de
aumentar la proporcin de fusibles que funcionan bien. As, deseamos docimar
la hiptesis H0 : p = 0,90 versus f/ 1 : p > 0,90, en donde p es la proporcin de
fusibles que funcionan correctamente. (Es decir, estamos docimando la hiptesis
de que no se ha producido ninguna mejora sobre la hiptesis de que el nuevo
proceso es superior). Obtenemos una muestra de 50 fusibles fabricados con el
nuevo proceso y contamos el nmero de fusibles que funcionan correctamente, X.
Propongamos la dcima siguiente:
= 1-
s; 48) = 1 - P(X
t-49
49)
L(p)
a = 1 - L(0,9)
K - = J ui/ne+ uifm
en donde K. est definida como antes, por la relacin :x =
Luego
3 1~
l,j<noplo adicional'"'
1 ~.3
FIGURA
15.7
ObsenVJciones: (a) El ejemplo anterior puede generalizarse como s1guc. Supngase que X
es una variable aleatoria distribuida binomialmcnte. basada en n repeticiones de un cxperi
mento con parmetro p. Para docimar la hiptesis H 0 : p - Po versus H 1: p > Po. proponemos la dcima siguiente.
Rechazar H0 siempre que X > C, en donde (' es una constante para ser determinada.
(Por tanto aceptar H0 siempre que X :;; C.)
L;t funcin OC de esta dcima ser de la forma
L(p) =
:
e
(") p*(l - p .
(15.2)
o k
e e - npf
(15.3)
k!
Las prop1edades siguientes de R tambin se pueden verilcar fc1lmente. (Ver el problema 15.6)
(4) R(O)
1; R(l) = O.
(5) R'(p) < O para todo p. O < p < l.
(6) R"(p) = O si p = Cfn.
(7) R(C/n) es una funcin solamente de C y no de 11.
.1:16
15.4
Ooc:imasla de hlpte.l
Tal como construimos un intervalo de confianza para . cuando u 2 era desconocida, estimemos ahora u 2 mediante 2 = [ 1/(n - 1)) :E7~ 1 (X 1 - X) 2 Usemos
una dcima anloga a la propuesta anteriormente: rechacemos H 0 siempre que
(X - Jt)jf( > c. Para determinar e usemos el hecho de que (X - Jto)Jf u
tiene una distribucin t de Student con In - 1) grados de libertad si Jl = t0 .
(Ver el teorema 14.3).
Sea a. el nivel de significacin prefijado. Luego a = P[(X - t0 ) .J/ > C]
implica que C =
-~ es obtenida de la tabla de la distrihucin t de Student.
(Ver la figura 15.8). Rechazamos Ho cada \"CZ que X > rTI l. - n' 12 + llo. as
obtenemos nuestra dcima.
Ir.,_, (1)
t-. -.
15..1
.l37
Sin embargo, puede acontecer que an no estemos seguros acerca de la forma general de la distribucin que se tiene. Consideremos algunos ejemplos.
EJEMPLO 15.5. Los buques mercantes de cierto tipo estuvieron expuestos
durante 400 das a riesgos de accidentes de tormentas, hielo. incend io. avera de
mquinas, etc. El nmero de accidentes X de cada barco, puede considerarse
como una variable aleatoria. Se registraron los siguientes datos:
Nmero de accidentes (X):
Nmero de barcos con X accidentes:
o
1448 805
206
34 4
5 6
FIGURA
15.8
7,2; 37,8; 49,6; 21,4; 67.2: 41,1; 3,8; 8,1; 23,2; 72,1;
11,4; 17,5; 29,8; 57,8; 84,6; 12,8; 2,9; 42,7; 7,4; 33,4.
en-
Son los datos anteriores consistentes con la hiptesis de que la variable a leatoria T, que est siendo muestreada, est distribu ida exponencialmente?
Los ejemplos anter iores son tpicos de una gran clase de problemas que
aparecen frecuentemente en aplicaciones. Hay var ias tcnicas estadsticas disponibles con las cuales se pueden analizar tales problemas; consideraremos a
continuacin algunas de ellas.
El problema de docimar la hiptesis de que una variable aleatoria tiene cierta
distribucin especfica puede considerarse como un caso especial del siguiente
problema general.
Considrense nuevamente las condiciones que dan origen a la distribucin
multinomial (Ver la seccin 8.7). Se efecta un experimento e n veces. Cada una
de las repeticiones de e da origen a uno y slo uno de los sucesos A;, i = 1, 2, ... , k.
Supngase que P(A 1) = p1 Sea n1 el nmero de veces que ocurre A; entre las n
repeticiones de e, 11 1 + + nk = 11.
Deseamos docimar la hiptesis H 0 : p1 = p10 , i = 1, . .. , k, en donde p,. es
X=
31 ,6 y
17:0.95
1.89.
Luego
ut,,o,9J
~lma
15.4
en donde
np,.)z
>
np,.
(n; -
I:
e,
n, - IIPto ]
[ J nPtoO - Ptol
l,l\1
( 15.4)
Observacio11es (a) Puesto que E(n1) = np1 si p1 p1.,. este criterio para docimar tiene
mucho atractivo intuitivo. Exige que rechacemos H 0 siempre que la discrepancia entre los
valores observados 111 y los valores esperados np1 sea <<muy grande. Algunas veces el estadgrafo D2 anterior se escribe de una manera muy sugerente como:!:~. 1 (o; - e;) 2/e;, en donde
tiene aproximadamente la distribucin x~H emos demostrado que si 11 es sulicientemcnte grande, D 2 (con k = 2) tiene
aproximadamente la distribucin
Pero precisamente es esto lo que sostenamos
e n el teorema. La demostracin para un k en general sigue la misma lnea: debemos demostrar que D2 puede expresarse como la suma de cuadrados de (k - l)
variables aleatorias independientes cada una con distribucin N(O, 1) sin es grande
y si p1 = p1 y. recurriendo al teorema 10.8. encontramos que se deduce el resultado anterior.
xr
lt t(x)
x2k - 1:0.9~
z
D -
+ 11 2
(lit - 11Ptol2
~
IIPto
(lit - npt 0)
IIPto
+ (nz -
IIPzo
+ p 20
= 11 y que Pto
(n - lit -
2
npz.) .
11( 1 - Ptol)
IIPzo
= l. podemos escribir
IIPzo
_ ( _
)2 [ IIP2o
- lit
IIPto
2
11
+ IIPto]
PtoP2o
lit - IIPto
1
-np..
1
IIPzo
2
_ (llt - lltPto)
IIPt oO - Pto)
Y IJ = 1
=
O,
)2 [
15.9
!...__..:...._
(lit - 11Pto)
FIGURA
= p,.) = 0,05.
r~
Jxk. -..o.,
9k - .(x) dx = 0,05,
1!1.4
= PCT S
100)
=1-
e o.o<I$POOI
Pl
P4 =
PC T > 300) = e
0 00 '13 01
=1-
e o.s
1512001
'"
o.tt~I.IOIII-
= 0,39.
0.39 = 0.24.
(1 - e - o.oosczool = 0,15.
0.22.
oz =
i:
1
(11 -
llp.) 2
11p,.
= (47 - 58,Sf
58.5
22.5
(28 - 33)2
33
= 11 56
.
P(0 2
Supngase que registramos 11, el nmero de veces (entre los 150 tiempos de falla)
que ocurri el suceso A1, y encontramos 11 1 = 47, 11 2 = 40, 11 3 = 35. y 11 4 = 28.
A fin de evaluar el estadgrafo 0 2 debemo~ calcular p;, i = 1, 2. 3, 4.
Ahora
p
141
342
Oodon11,ia de hiptesi
15.4
A 2 : 12 5 X< 15;
A 4 :18;S;X<21;
17,0 y T 2
= 7,1.
Dividamos
A 3 : 15 s; X< 18;
A 5 :X2:21.
= 7;
11 2
= 49;
11 3
109;
= 67;
11 4
11 5
P3
= P(l5 s;
X < 18)
0,20,
P(X
= 2) = e- 0 54 (0,
P4
P(X
= 3) = e- 0 54 (0,
Ps =
s
(11; -
(11 - 250p') 2
'
i = 1
'
250p;
(7 - 7,5)"
7,5
(49 - 50) 2
50
(67 - 72,5)Z
72,5
102,5)2
102,5
(18 17,5
= 0(1448)
1351
= 2500
= 0,54.
= 0,08
11P3
= 200
= 0,01
11P4
= 25
nps = 50
11Pz = 775
(1448 - 145W
1450
(206 - 200) 2
200
.:....
(8_0_
5 ~-=-7_7--'
5):.....
775
(34 - 25)
25
(7 -
5W 50
42 2
' .
PROBLEMAS
= 0,82.
11p ,
(109 -
17,5)2
= 1450
y
y
P uesto que hay cinco categoras y estimbamos un parmetro, la variable aleatoria D 2 tiene la distribucin aprox imada ;;d. Encontramos en las tablas de la
distribucin x cuadrado que P(D 2 2: 42.2) ~ O y, por tanto, deberamos rechazar
la hiptesis.
= 1-
11p;)
.
np;
D2 =
P(X 2: 4)
:w
34.l
0,41,
;w
PJ
= 18.
Problemas
+ 6(1)
15.1. Se supone que X tiene distribucin N(., a 2) con a 2 conocida. Para docimar H0 :
JJ = JJo versus H 1 : JJ < JJo se propone el mtodo siguiente: una muestra de tamao 11 y recha
zar H 0 siempre que el prome>dio muestra! X < C, en donde e es una constante que debe determinarse.
(a) Obtener una expresin para la funcin OC, L(JJ) mediante la distribucin notllllal
tabulada.
(b) Si el nivel de significacin de la dcima es oc = 0,01, obtener una expresin para C.
(e) Supngase que a 2 = 4 y supngase que se est docimando H 0 : JJ = 30 versus H,:
JJ < 30. Determinar el tamao muestra! 11 y la constante e a fin de sat isfacer las condiciones
L(30) = 0,98 y L(27) = 0,0 l.
(d) Supngase que se obtienen los siguientes valores de muestra de X:
27,1; 29,3; 31,5; 33,0; 30, 1: 30,9; 28.4: 32,4; 31,6: 28,9; 27,3; 29,1.
Rechazara H 0 (versus H tl como se estableci en (e) al nivel de significacin del 5 por ciento?
l'rohlcn'
tamao 11, calcular el promedio muestra! X. y rechazar 11 0 siempre que X > C, en donde C
es una constan te para ser determinada.
(a) Obtener una expresin para la funcin OC de la dcima anterior, L(.l.). [ fndicocin
use la propiedad reproductiva de la distribucin de Poisson.]
(b) Graficar la funcin OC.
(e) Supngase que se est docimando H 0 : J.= 0.2 versus H 1 : ). > 0.2. Se obtiene una
muestra de tamao"
10 y rechalamos 11 0 si X > 0.25. Cul es el nivel de significacin
de esta dcma'!
15.4. Establecer las propedades de la ecuacin (15.1) para la funcin OC, L(p)
Jl)j
= <l>[(C -
C1].
15.5. Verificar las prop1edades para la funcin OC, L(p), como se definieron en la ecua
cin (15.2).
15.6. Verificar la' propiedades para la funcin OC. R(p). como se definieron en la ecua
cin (15.3).
15.7. Se sabe que una gran remesa de voltmetros contiene cierta proporcin p de defectuosos. Para docimar 11 0 : p 0,2 versus 11 1 : p > 0,2 se usa el siguiente mtodo. Se saca una
muestra de tamao 5 y se cuenta X. el nmero de voltimetros defectuosos. Si X s; 1, se acepta
H 0 ; SI X > 4, se rechu7.a 1/0 ; y si X = 2, 3. 4 se saca una segunda muestra de tamao 5. Sea
Y el nmero de instrumentos defectuosos en la segunda muestra. Se rechaza H0 si Y ~ 2 y
se acepta en otro caso. (Se supone que el lote muestreado es suficientemente grande de modo
que pueda suponerse que X y Y son variables aleatorias independientes distribuidas bino
mialmente.)
(a) Obtener una expresin para L(p), la funcin OC de la dcima anterior. y dibujar su
grfico.
(b) Encontrar el tamao de la dcima anterior.
(e) Cul es la probabi lidad del error del tipo 2 si p = 0.5?
15.8. Si n 4 y k~ 3, ,cu{utlos valores posibles puede tomar la variable aleatoria 0 2 ,
como se defini en la ecuacin ( 15.4)'1
15.9. (a) Ca lcular el valor esperado de la variable aleatoria D 2 como se defini en la
ecuacin (15.4).
(b) Cmo se compara este valor con el valor esperado (asinttico) de D2 obtenido con
la distribucin x cuadrado que puede usarse para aproximar la distribucin de 0 2 cuando n
es grande?
15.10. Mediante un nuevo proceso se preparan tres clases de lubricantes. Cada uno de
los lubricantes se prueba con cierto nmero de mquinas. y el resultado es luego clasificado
como aceptable. Los datos de la tabla 15.1 representan los resultados de este experimento.
Docimar la hiptesis de que la probabtlidad p de que un lubricante tenga un resultado aceptablees la misma para los tres lubricantes. [Indicacin: estime primero p de la muestra.]
TABLA
Aceptable
In aceptable
T ota l
15. 1
Lubncante 1
Lubricante 2
Lubricante 3
144
152
140
56
48
60
200
200
200
\4~
15.11. Al usar varias leyes de falla hemos encontrado que la distribucin exponencial
desempea un papel muy importante y que por tanto interesa poder decidir si una muestra
particular de tiempos de falla proviene de una distribucin exponencial bsica. Supngase
que se han probado 335 bombillas y el resumen siguiente de su duracin T (en horas) est
disponible:
Du racin
(en horas)
N mero
82
- -
68
T;~ l
400
_ls2j
62
De los tiempos de falla que se registraron, se encontr que t el promed1o muestra! era 1gual
a 123,5 horas. Usando esta informacin, docimar la hiptesis de que T, el tiempo para fallar
est distribuido exponencialmente.
f(x)-
IX COS lXX
sen (n/2P,'
15.13. En una malla de 165 celdas, se cont el nmero de granos de grafito en cada celda.
As se obtuvieron los datos de la tabla 15.2. Docimar la hiptesis de que el nmero de granos
en cada una de las celdas es una variable aleatoria con una distribucin de Poisson. [lmli
caci11 : JUnte las observaciones 52 y tambin aquellas ~ 10.)
TABLA
15.2
Nmero de granos de
gralito por celda
Observados
Nmero de granos de
gralito por celda
Observados
1
1
5
7
20
34
30
7
8
9
10
11
12
17
22
21
4
2
1
1
2
3
4
5
6
Referencias
La siguiente lista de referencias. aunque no es. ni mucho menos. exhaustiva. deber dar al
lector interesado la oportunidad de encontrJr mucha lectum suplemen taria y complementaria sobre diversos temas presentados en el texto. Adems de encontrar varios temas que no
estn incluidos en esta presentacin, el lector encontrar ciertos otros considerados o con
mucho mayor detalle o bajo un punto de vista algo diferente.
Adems de tomar nota de los textos que figuran a continuacin, el lector tambin deber
estar consciente de ciertas revistas profesionales en las cuales se hacen avances importantesMuchas de esas revistas. naturalmente, son escritas por personas con una experiencia y comprensin de este tema considerablemente mayores que las que pueden obtenerse estudiando
un semestre. Sin embargo, hay varias de ellas que a veces contienen artculos muy comprensibles y al alcance de un estudiante que ha madurado el tema de este texto ; y entre stas el
Journal of 1he American Sralisrical A.\sociariofl y Teclmometrics. La ltima es en realidad
subtitulada A Journal of Statistics for the Physical,. Chemical, and Engineering Sciences>>,
y, por lo tanto, puede ser de inters particular para aquellos estudiantes a quienes est especialmente dedicado este texto.
Muchos de los libros en esta lista con tienen exposiciones de la mayora de los temas in cluidos en este texto. Sin embargo, algunas de las referencias son algo ms especializadas
y especialmente adecuados slo algunos captulos. En tales casos, los captulos especficos
figuran entre parntesis despus de las referencias.
En ingls:
BAZOVSKY, 1., Reliabtliry Thcory and Praniu. Englewood CliiTs, N. J. : Prentice-Hall. lnc.,
1961 (11).
BERMAN, SIMEON M., The Elemems of Probabtli1y. Reading, Mass.: Addison-Wesley Publishing Co., 1969.
BowKER, A. H., y G. J . LIEBERMAN, Engmeering S1alis1ics. Englewood CliJTs, N. J.: PrenticeHall, lnc.. 1959.
DERMAN, C., y M. KLEIN, Probabllily and Srarislical lnference for Engineers. New York :
Oxford University Press, 1959.
EHRENFELD, S., y S. B. LnTAUER, lnlroducliOfl ro Slalisrical Melhod. New York : McGrawHill Book Co., 1964.
FELLER, W., An lmroducrion 10 Probabili1y Theory and l is Applicarions, vol. 1, 3. edicin.
New York: John Wiley and Sons. lnc .. 1968 (1. 2. 3).
FREUNO, J. E. , Mathemallcal S1a1is1ics. Englewood Cliffs, N. J. : Prentice-Hall, Inc., 1962.
F.R Y, T. C., Probabilily and lis Engineering Uses, 2. edicin. Princeton, N. J.: D. Van Nostrand,
1964.
346
GNH)ENKO. B. V.. Thc Theory of Probahili1y (traduccin del ruso) . New York: (.'hcbcu
Publbhing Co.. lnc . 1962.
GtJTT\1AN. 1.. y S. S. WJLKS, lmroductory Engineering Swli.Hic.~. Ncw York : John Wiley anc.l
Sons, lnc., 1965.
HAiltR. A., R. P. RUNVON y P. B.DIA, Reading.> in Swli.\ lits. Readmg. Ma\S.: Addi~On
Wcslcy Publishing Co.. 1970.
LINI)(;KU.;. B. W., y G. W. McELRATH, lmroduclioniO Probohilily all(l Sl(l(illin. 3. edicin.
Ncw York : The Macmillan Co., 1969 (13, 14, 15).
LLOYo, 0 . K.. y M. Ln'OW, Reliabilily: Managemem, Melh(){l.\, ami Mallll'mlllin. Englewood Chffs, N. J.: Prentice-Hall, lnc., 1962 (11).
M\CORD. J. R., 111. y R. M. MORONEY. JR., flllroducliOIIIO l'robabihry Tlu.'nry. New York:
Thc Macmillan Co.. 1964MILLlR, 1.. y J. E. FREU1'IO. Probability and Sulli.<~icsfor Engmeers. Englewood Chffs. N. J.:
Prenticc-Hall, lnc .. 1965.
Mooo, A. M., y F. A. GRAYBILL, lmroducrirm 10 lhl' Theory o) SWII.flit'.l, 2." ed1cin Ncw
York : McGraw-Hill Book Co., 1963.
PARliN, E.. Modem Prohabili1y Theorytmd lts Applica1ion.1. New York: John Wilcy and Sons,
lnc. 1960.
WAOSWOK 111, B. P., y J. G. BRYAN, lmroduclion lo Probabili1y allll Ramlom Variable.\. New
York: McGraw-Hill Book Co., 1960.
En I!Sf)(l!iol:
Damos a continuacin una lista de libros de los cuales existe versin espaola, para beneficio del estudiante y del lector en general que quiera investigar algunos de los lomas tratados
en este libro y, en especial, en relacin con algunas Meas particulares. (N. dtl T.)
NmLS. y RANOER Buen. flllroduccin a la 1eoria de 111 prohobilidad )'de la JS.,wdislica.
Madrid: Alhambra, 1968.
CARRANZA, ROQUE, Probabilidad y E.s1adis1ica. Buenos Aires: Universidad de Buenos Aires,
1965.
CRAMlR, HARAI o, Mrltndos maletlllilicos de Esllldislica. Madrid: AguiJar, 1968.
DIXON, JOHN, /mroduccin a la probabilidad. Mxico: Limusa-Wilcy. 1970.
DIXON. Wll FRIO, y FRANK MASSEY, lmroduccin al anlisis e.vllld.\IC'IJ. Madrid: Ediciones
del Castillo. 1965.
FRUMA-.:, HAROLO A. /mroducdn a la it~ferencia eswdi.wca. Mxico: Trillas, 1970.
GNWE.~KO, B. V.. y A. l. }I!'<CHIN. /mroduccin al clculo de pmbabilidade.\ (traduccin del
ruso). Buenos Aires: Eudeba. 1971.
Gul-,llllR. WILLIAM. lnmxluccin a la inff!rencia esuulislica. New York : McGraw-H1II, 1965.
11om . PAUI. /mr(J{/uccin a la esradislica malcmlica. Barcelona Ariel, 1968.
LIPS('IIUT/, St Y\IOUR. Probahilitiad. Mxico: McGraw-Hill. 1970.
MAISH ., Lou1S. Probabilidad y Esradislim. Bogot: Fondo Educativo Interamericano. S. A ..
1973.
Ri<>:>, S1xro. M101los estadsrkos, 5. edicin. Ncw York: McGraw- Hill, 1967.
ARl.tiY.
~c
\ ptndlt:t
Apndice
T ABL A
TABLA
l.
<1>(:1 =
f-"" v r-2n e
"'12 du = P(Z
.
f
l.
_, , t 2n
(Contimmcin )
e ' 2 du = P(Z $ z)
$ z)
:
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1,8
U. '!MI
1.9
2.0
2. 1
2.2
0.9713
0,9772
0.9821
0.9861
0.<1893
0.9'118
0.5040
0.5431!
0.5832
0.6217
0.65<11
0.6<150
0.72<11
0.7611
0.7'110
o.81R6
0.8438
0.8665
0.886<1
0.9049
0.9207
0.9345
0.<1463
0.9564
0.'1648
0.9719
0.9778
0.9826
0.98(14
0.9896
0.9920
0.9940
0,9955
0,9Q(>6
0.9'l75
0.9982
0.5080
0.5478
0.5871
0.6255
0.6628
0,6985
0.7324
1.4
1.5
1.6
1.7
0.50()()
0.5:1'18
0.5793
0,6179
0.6554
0.(>915
o.n57
0.7580
1>.7881
0.8159
0.8413
0.8643
0.8R49
O.IJII32
O.<ll92
11,9332
0.9452
0.<1554
0.5 120
0.5517
0,5<110
0.62'.13
0.6664
0.7019
0.7357
0.761.1
0.7967
0,8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0,9788
0.9834
0.987 1
0.9901
0.9925
0.9943
0.9957
0,996S
0.9'177
0.9983
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7703
0.79'15
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0,9591
0.9671
0.9738
0.9793
0.9838
0,9874
0.9904
0.9927
0.9945
0,9959
O.'l969
0.9977
0.<1984
0,519'1
0.55%
0.591!7
0.6.168
0.6736
0.7088
0,7422
0.7734
0.8023
0,8289
0,8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0,95'19
0,9678
0.9744
0,9798
0.9842
0.9878
0.9906
0.992<1
0.9946
0.9960
0.9970
0.997H
0.9'184
0.5319
0.5714
0.6103
0,6480
0.6844
0.7190
0.7517
0.7823
0.8106
0,8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9430
0,9535
0.9625
0.9700
0.9762
0,9812
0.9854
0.<1887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986
0.5359
0.5753
0,61 41
0.6517
0.6879
0,7224
0.7549
0,7852
0,8133
0.8389
0.8621
0.8830
0.9015
0.9177
0,9319
0,9441
0,9545 '
0.9633
0,9706
0.9767
0,<1817
0,9857
0.9890
0.9916
0.9936
0.9952
0,9964
0.9974
0.9981
0.9'l86
3.0
2.9
2.8
2.7
2.6
2,5
2.4
2.3
2.2
2.1
2,0
1,9
- 1.8
1.7
1.6
1,5
1.4
1,3
1.2
1,1
1.0
0.9
0,8
0,7
0.6
0.5
0.4
0,3
0.2
0.1
0.0
(\
0.0668
0.0808
0.0968
0.1151
0.1.157
0.1587
0,1841
0.2119
0.2420
0.2743
0.10~5
0.3446
0.3821
0.4207
(),4602
0.5000
0.0018
0.0025
0.0034
0.0045
0.0060
O.OORO
0.0104
0.0136
0.0174
0.0222
0.0281
0.0352
0.043(>
0.0537
0.0655
0.0793
0,0951
0.1131
0.1315
0.1562
0. 1814
0,2091)
0.2389
0.2709
0.3050
0.3409
0.3783
0.4 168
0.4562
0.4960
0.0017
0.11024
0.0033
0.0044
O.ll059
O.ll078
0.0102
O.IH 32
0.0170
0.0217
0.0274
0.0344
0.0427
0.0526
0.0643
(),0778
0,0934
0.1 11 1
0.1314
0.1539
0.1788
0.2061
0.2358
0.2676
0.301 S
0.3372
0.3745
0.4129
0.4522
0.4920
0.0017
0.0021
0.0012
0.0043
0.0057
O.llg75
0.()()<)<1
0.012<!
0.0166
0,02 12
0,0268
0.0336
0.0418
O.OSII\
0.0630
0,0764
0.0918
0.1091
0.1~'1~
0.1515
0. 1762
0.2033
0,2327
0.2641
0.2981
0.3336
0,3707
0.4090
0.4483
0.4880
0.0016
0.0023
0.11031
0.1)().11
0.0055
11.1)()73
O.ll0<16
O.lll26
O.lll62
0.0207
0.0262
1).(1329
(1.().1()9
0.0505
0.11618
0.0749
0.0901
0.11175
11.1271
0.1492
(),1736
0.2005
0.2297
0.2611
0.~946
0.3300
0.3669
0,4052
0.4443
0.4X40
8
0.0001
<l
O.IKKlO
0,0(114
0.001'1
0,()()2(>
O.Ofl16
0,0048
0.00(>4
O.OOR4
0.0110
0.014.1
0,018.1
0,02H
0.0294
0.0361
0.0455
0.055'1
0.068 1
0,0823
0.09R5
0.1170
0.1379
0.1611
0.1867
0.2 148
0.2451
0.2776
0.3121
0.3483
0,385<1
0.4247
0.4641
LO
Ll
1.2
1.3
~.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
o.<ms
0.9953
0.<1965
0.'1974
0.'198 1
0.764~
0.7939
0.8212
ll.8461
0.8686
0.8888
0.9<166
0.9222
0.9357
0.11474
1),9573
0.9656
0,9726
0.9783
0.9830
0.9868
0.98<18
0.9922
0.9941
0.9956
0.9967
0.'1976
11.9982
0.5239 0.5279
0.5636 0.5675
0.6026 0.6064
0.6406 0.6443
0,6772 0.6808
0,7123 0,7157
0.7454 0,7486
0.7764 0.77'14
0.8051 0.8078
0.83 15 0.8340
0.8554 0,8577
0.8770 0.8790
0.8962 0.8980
0.9131 0.9147
0.9278 0,9292
0,9406 0.9418
0.9515 0,9525
0.9608 0.9616
0.9686 0.9693
0.9750 0,9756
0,9803 0.9808
0.9846 0.9850
0,9881 0.9884
0.9909 0,9'111
0.9931 0.9'132
0.9948 0.9949
0,9961 0.9%2
0.9971 0.9972
0.9979 0.9979
0.9985 0,99H5
1,0()()0
Api>ndlrt
~~~
Aptndo~t
TABLA
2.
(~) p'q
- F(x - 1) =
=
\ =
11
10
10
0,00000()0
.0000000
.0000000
.0000000
.0000000
.0000000
,0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
,0000000
.0000000
.0000000
.0000000
.0000000
.0000001
.0000001
.0000002
,0000003
.0000004
.0000006
.0000010
.0000014
.0000021
,0000030
.0000042
.OOOOOS9
,0000082
.0000113
.0000153
.0000206
,0000276
,0000366
.0000481
.0000628
.0000814
,0001049
.0001342
.0001708
.0002161
,0002720
.000340S
,0004242
.0005260
,0006493
.0007979
.0009766
..
L
11= 10
x=9
0.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000001
.0000002
.0000003
.0000006
.0000010
.0000017
.0000021
.0000042
.0000064
.0000097
.0000143
.0000207
.0000296
,0000416
.OOOOS71
.0000791
.0001072
.0001437
,0001906
.000250S
.0003263
.0004214
,OOOSJ~Y
.000686S
.0008668
,0010871
.0013546
.0016777
,00206S8
,0025295
,0030809
,003733S
.004S022
.OOS4040
.0064S14
,0076828
.0091028
,0107422
11
:lO
8
1 -
0.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000000
.0000001
.0000002
.0000004
.0000008
,OOOOO IS
.0000029
.OOOOOS I
.0000087
.0000142
.0000226
.0000350
.OOOOS28
,0000779
.00011 27
,OOOIS99
.0002232
.0003068
.0004158
.OOOS362
.0007350
.000960S
.0012420
,0015904
.0020179
,0025384
.0031673
.0039219
,004M213
.OOS8864
.0071403
.0086079
.0103163
.0122946
,0145738
.0171871
.0201696
.0235583
.0273918
.031710S
.0365560
,0419713
.0480003
.OS4687S
TABLA
2 (Continuacin )
- F(x - 1)
= 10
,.... 7
11
0.0000000
.0000000
.0000000
.0000000
.0000001
,0000003
.0000008
,0000020
.000004S
.0000091
,0000173
,0000308
,OOOOS2S
.00008S6
,0001346
.0002051
.0003042
.0004401
.0006229
.0008644
.0011783
.OOIS804
.002088S
.0027228
.003S051
.OO<W>I8
.0056181
,0070039
.0086507
.O IOS921
,0128637
.OIS5029
.0185489
.0220422
.0260243
,030S316
.03S6252
.0413301
,0476949
.OS47619
,0625719
,0711643
.0805763
.090842 7
.1019949
.1140612
,12706SS
.1410272
.ISS9607
.1718750
,,
0,01
,02
,03
,04
.os
.06
,Q7
,08
,09
,JO
,JI
,12
,13
,14
.IS
.16
.17
,18
,19
,20
.21
,22
.23
,24
,25
,26
,27
,28
,29
,30
.31
.32
.33
,34
,JS
,36
,37
.38
.39
,40
,4 1
.42
.43
,44
,45
.46
,47
,48
,49
.50
n= 111
x=6
0.0000000
.0000000
.0000001
.0000007
,0000028
.0000079
,0000193
,0000415
.0000810
.0001469
.0002S07
.0004069
.0006332
.000950S
.0013832
.0019S93
,0027098
.003669-1
.0048757
.0063694
.008193S
,0103936
.0130167
.0161116
.0197277
,0239148
,0287224
.0341 994
.0403932
,0473490
.05SI097
.0637149
,0732005
,083S979
.0949341
.1072304
.1205026
,1347603
,1500068
.1662386
,1834452
,2016092
.22070S8
.2407033
.2615627
.2832382
.3056772
.3288205
,3526028
,3769531
11 :=
111
0.0000000
,0000007
.OOOOOS4
.0000218
.0000637
,OOOISI7
.0003139
.OOOS857
.001.0096
.0016349
.002SI70
.0037161
,0052967
,0073263
.0098741
,0130101
.0168038
,0213229
.026632S
.0327935
,0398624
.0478897
,0569196
,0669890
.0781269
,0903542
,1036831
,11811 71
.1336503
,1502683
.1679475
.1866554
.2063514
.2269866
.2485045
.270841S
.2939277
.3176870
.342038S
.3668967
.3921728
,4177749
,4436094
.469S813
.495S954
,S21S511
,S473730
,5729SI7
,5982047
,6230469
1~1
n = 10
... = 4
n- IH
0,0000020
.OOOOJOS
.0001471
,()00.1426
,0010285
.0020293
.0035761
.0058013
.0088338
.0127952
.0177972
,0239388
.0313048
.0399642
,0499698
.0613S17
,0741472
.0883411
,1039261
.1208739
.1391418
.1586739
,1794024
.2012487
.2241249
,2479349
.272S761
.297940S
,3239164
,3S03893
.3772433
,4043626
.4316320
.4589388
.4861730
.5132284
.5400038
.5664030
.S923361
.6177194
.6424762
.6665372
.6898401
,7123307
,7339621
.7546952
.7744985
,7933480
.8112268
.82812SO
0.0001138
.0008639
.0027650
.0062137
,OIJS036
.0188378
.0283421
.04007S4
,OS40400
.0701908
.0884435
.1086818
, 1307642
. IS4S298
.1798035
.2064005
.2341305
.1628010
.2922204
.322200S
,3S2SS86
.383 1197
,4137173
,4441949
,4744072
.S042200
,S33SII2
.S621710
,S901015
,6172171
.643444S
.6687212
.6929966
,7162304
,7383926
.7S94627
.7794292
,7982887
.81604S3
.8327102
,8483007
.8628393
,8763538
.88887S7
.9004403
,91 108S9
,9208530
.9297R39
.9379222
,9453125
). -
.l
'
n - 111
~ -2
n - 111
X= 1
0.0042662
.0161776
,034S066
.0581538
,0861384
,117S880
,1517299
.1878825
.22S4471
.2639011
.3027908
,3417250
.3803692
.4184400
,4SS1002
.4919S36
.5270412
.5608368
,S93243S
,6241904
.6536289
,6815306
,7078843
.7326936
,7559748
.77775SO
,7980705
,8169646
.8344869
,8S06917
,8656366
.8793821
.8919901
.9035235
.91 404S6
,9236190
.93230S6
,9401661
.9412S94
,9S36426
,9S93705
,96449S8
.9690684
,97313S8
,9767429
,9799319
.9827422
,9852109
.9873722
.9892S18
0,0956179
.1829272
,26257S9
.3351674
.4012631
.4613849
.5 160117
.S65611 5
,610S8JQ
.6SI3216
.6881828
.7214990
.7S IS766
.7786984
.8031256
.8250988
.8448396
.862SS20
,8784233
,89262SR
.9051172
,'1166422
.9267132
,93S7111
,9436~65
,9S07601
.9S70237
.9625609
,9674476
,9717S2S
.975SJ81
,97bK608
.9817716
,9843166
,9865373
,9884708
,9901507
.9916070
.9928666
,9939S34
,9948888
,9956920
,9963797
,9969669
,9974670
,9978917
,<>982SII
,9985544
.9988096
,9990234
1'
0,01
.03
.04
.os
.06
,o7
.08
,09
.10
.11
.12
.13
,14
,15
,16
.17
.18
,19
,20
.21
.21
.23
.24
.2S
.26
.27
.28
.29
.JO
,31
,32
,33
,34
,35
,36
,37
,38
.39
,40
,41
.42
.43
,44
.4S
;46
.47
.48
,49
.50
TABLA
3.
TABLA
r=<O
r co e - aClr
L: -
1 - F(x - 1) =
r=x
= 0.2
Q-
0,3
3 ( Cominuacin)
1 - F(x - 1) =
r!
0,4
e- "a'
L: - r!
, .. ,'t
0,5
0,6
.\
a : 4.5
(1
1.000000
,969803
.864112
.679153
.463367
1.000000
.9S I684
,908422
.761897
.566530
1.000000
.988891
.938901
.826422
.6S7704
1.000000
.993262
.959572
.875348
,734974
" ; 3.0
(1 ;
1.000000
.9179 15
.712703
.456187
.24242.
1,00()()()0
.950213
.800852
.576810
.3527611
...
= 5.0
4.0
2.5
(1
.1.5
(1
1.0000000
.1812692
.0175231
.0011485
,0000568
1.0000000
.2591818
.0369363
.0035995
.0002658
1.0000000
.3296800
.0615519
.0079263
.0007763
1.0000000
.393469
.090204
.014388
.001752
1.0000000
,451188
.121901
.023115
.003358
1
2
3
4
5
6
7
.0000023
.0000001
.0000158
.0000008
.0000612
.0000040
.0000002
,000172
.000014
.000001
.000394
.000039
.000003
5
6
7
8
9
.108822
,042021
.014187
.OCI-!247
.0011 40
.184737
.083918
.033509
.011905
.1Ml3803
.274555
.142386
.065288
.026739
.009874
,371163
.2 14870
.110674
.051134
.021363
.467896
.297070
.168949
.086586
.040257
.559507
.384039
.237817
.133372
.068094
10
11
.OCI0277
.000062
,0()(1013
,IHMl002
.001102
.0110292
.000071
.()(111016
,()()(Ml03
.003315
.001019
,000289
.00111176
.000019
.008132
.002840
.OOil'JIS
.000274
.000076
.017093
.006669
.002404
.000805
.000252
.031828
.013695
.005453
.002019
.000698
.OOIMMll
.001lll04
.OOIMlOI
.000020
.000005
.0011001
.000074
.000020
,0001)()5
.000001
.000226
.000069
.000020
.000005
.000001
o
1
2
3
4
5
6
7
8
0,7
0.8
0,9
1,0
1,0000000
,503415
.155805
.034142
.005753
1.0000000
,550671
.191208
,047423
,009080
1.0000000
.593430
,227518
,062857
.013459
1,0000000
,632 121
.264241
,080301
.018988
.000786
,001411
.000184
,000021
,000002
.002344
.000343
,000043
,000005
.003660
.000594
.000083
,000010
.000001
.000090
.000009
.000001
-1,2
1.0000000
.698806
.337373
,120513
.033769
.007746
,001500
,000251
.000037
.000005
.000001
10
X
o
1
3.
4
5
6
7
8
9
10
11
1,4
Q -
1,6
1,8
!,9
2,0
1,000000
.753403
.408167
.166502
,053725
1.000000
.798103
,475069
,216642
,078813
1,000000
.834701
.537163
.269379
.108708
1.000000
.850431
.566251
.296280
,125298
1.000000
.864665
.593994
.323324
,142877
.014253
.003201
.000622
.000107
.000016
.023682
,006040
.001336
.000260
.000045
.036407
.010378
,002569
.000562
.000110
.044081
.013219
.003446
.000793
.000163
.052653
.016564
.004534
.001097
.000237
.000002
.000007
.000001
.000019
.000003
.000030
.000005
.000046
.000008
E. C. Molina. Posso11's ExxJIIrlltwl Bit~omial Lm111. Princelon. N. J.: D. Van Nos1rand. Inc .. 1947
1
2
3
4
1'
13
14
15
16
17
18
19
TABLA
4.
TABLA
0.75
0,90
0.95
0,975
4 ( Colllinuacin)
0.99
0,995
0.75
0,90
0.95
0.975
0,99
0.9'J5
2.4102
2,4083
2.4066
2,4049
2.4033
2.6870
2.6846
2.6822
2,6800
2.6778
1
2
3
4
S
1.0000
0.8165
0.7649
0.7407
0,7267
3,0777
1.8856
1,6377
1,5332
1,4759
6,3138
2,9200
2,3534
2,1318
2.0150
12,7062
4,3027
3,1824
2.7764
2.5706
31,8207
6,9646
4,5407
3,7469
3,3649
63.6574
9.9248
5,8409
4,6041
4,0322
46
47
48
49
50
0,6799
0.6797
0,6796
0,6795
0,6794
1.3002
1.2998
1,2994
1.2991
1.2987
1.6787
1.6779
1,6772
1.6766
1,6759
2.0129
2.0117
2.0106
2,0096
2,0086
0.7176
1.4398
7
8
9
10
0,7111
0,7064
0.7027
0.6998
1,4149
1,3968
1.3830
1,3722
1,94)2
1,8946
1,8595
1.8331
1,8125
2,4469
2.3646
2,3060
2.2622
2,2281
3.1427
2.9980
2.8965
2,8214
2,7638
3.7074
3.4995
3,3554
3.2498
3.1693
51
52
53
54
SS
0,6793
0,6792
0.6791
0.6791
0,6790
1.29S4
1.2980
1.2977
1.2974
1.2971
1,6753
1.6747
1.6741
1.6736
1.6130
2.0076
2,0066
2.0051
2.0049
2.0040
2.4017
2.4002
2.3988
2.3974
2.3961
2.6757
2,6737
2.67 18
2.6700
2,6682
11
12
13
14
15
0,6974
0,6955
0,6938
0,6924
0,6912
1,3634
1.3562
1,3502
1,3450
1,3406
1,7959
1,7823
1,7709
1,7613
1,7531
2.2010
2,1788
2.1604
2,1448
2.1315
2,7181
2,68 10
2,6503
2.6245
2.6025
3.1058
3,0545
3.0123
2.9768
2,9467
56
57
58
59
6()
0,6789
0,6788
0,6787
0,6787
0.6786
1,2969
1.2966
1,2963
1,2961
1.2958
1.6725
1,6720
1,6716
1.6711
1.6706
2.0032
2,0025
2.0017
2.0010
2,0003
2.3948
2.3936
2.3924
2.3912
2.3901
2.6665
2,6()49
2.6633
2.6618
2.6603
16
17
18
19
20
0.6901
0.6892
0,6884
0,6876
0.6870
1.3368
2.1199
2,1098
2.1009
2.0930
2,0860
2,5835
2.5669
2.5524
2,5395
2,5280
2.9208
1,3334
1,3304
1,3277
1,3253
1.7459
1.7396
1.7341
1,7291
1,7247
61
62
63
64
65
0.6785
0,6785
0,6784
0.6783
0,6783
1.2956
1.2954
1,2951
1.2949
1.2947
1.6702
1,66\18
1.6694
1.6690
1.6686
1.9996
1.9990
J.Q983
1.'1977
1,4971
2.3890
2.3880
2,3870
2,3860
1.3851
2,6589
2,6575
2.6561
:.6549
2.6536
21
22
23
24
25
0.6864
0.6858
0.6lSS3
0.68411
0,61144
1,3232
1.3212
1..111J5
1.31711
1,3163
1.7207
1.7171
1.713\1
1.71CJ9
1.7081
2.0796
2.0719
2.5177
2.5083
2.8314
2.&1&&
1.llK 1
1.4')<)\1
1.MU7.1
2.063'1
2.0595
2.4922
2,4851
2. 7'16'1
2.7874
66
67
68
6\1
70
0.6782
0.6782
0,6781
0.6781
0,6780
1.2945
1.2943
1.2941
1,2939
1.2938
1,6683
1.6679
1.6676
1.6672
1.6669
1,9966
1,9960
1.9955
1.994'1
1,9944
2 ..1R41
2,3lSJ3
2)lS24
2.31!16
2.3808
2.6524
2.6512
2.6501
2.6490
2.6479
26
27
28
29
30
0,6840
0,6837
0,6834
0.6830
0,6828
1.3150
1,3137
1,3125
1,3114
1,3104
1,7056
1.7033
1,7011
1,6991
1,6973
2.0555
2.05 1&
2.0484
2,0452
2,0423
2,4786
2.4727
2.467 1
2,4620
2,4573
2,7787
2.7707
2.7633
2.7564
2.7500
71
72
73
74
75
0,6780
0,6779
0,6779
0,6778
0,6778
1.2936
1.2934
1.2933
1.2931
1,2929
1,6666
1,6663
1.6660
1.6657
1.6654
1.9939
1,9935
1,9930
1,9925
1.9921
2.3800
2,3793
2.3785
2.3778
2.3771
2.6469
2.6459
2,6449
2.6439
2.6430
31
32
33
34
35
0.6825
0.6822
0.6820
0,681R
0,6816
1.3095
1,3086
1,3077
1,3070
1,3062
1,6955
1,6939
1,6924
1.6909
1,6896
2.0395
2,0369
2.0345
2.0322
2,0301
2.4528
2.4487
2,4448
2.4411
2,4377
2.7440
2,7385
2.7284
2.7238
76
77
78
79
80
0.6777
0.6777
0.6776
0,6776
0.6776
1.2928
1,2926
1.2925
1.2924
1,2922
1.6652
1.6649
1.6646
1.6644
1,6641
1,9917
1.9913
1,9908
1.9905
1.9901
2.3764
2,3758
2.3751
2,3745
2.3739
2.6421
2.6412
2.6403
2.6395
2.6387
36
37
38
39
40
0.6814
0,6812
0.6810
0,6808
0.6807
1,3055
1,3049
1,3042
1,3036
1,3031
1,6883
1,6871
1.6860
1.6849
1.6839
2.028 1
2.0262
2.0244
2.0227
2,021 1
2,4345
2.4314
2.4286
2.4258
2,4233
2,7195
2.7154
2.7116
2,7079
2.7045
81
82
83
IW
85
0,6775
0.6775
0.6775
0.6774
0,6774
1,2921
1,2920
1,2918
1,2917
1,2916
1,6639
1.6636
1.6634
1.6632
1.6630
1.9897
1.9893
1.9890
1,9886
1,9883
2.3733
2.3727
2,3721
2.3716
2,3710
2.6379
2.6371
2.6364
2.6356
2.6349
41
42
43
44
0,6805
0.6804
0.6802
0.6801
0.6800
1,3025
1,3020
1,3016
1,3011
1.3006
1,6829
1,6820
1.6811
1,6802
1.6794
2,0195
2,0181
2.0167
2.0154
2.0141
2.4208
2.4185
2,4163
2.4141
2.4121
2.7012
2,6981
2.6951
2.6923
2.6896
86
87
0.6774
0,6773
0.6773
0.6773
0.6772
1.2915
1.2914
1.2912
1.2911
1.2910
1.6628
1.6626
1.6624
1.6622
1.6620
1,9879
1,9876
1.9873
1,9870
1,9867
2,3705
2.3700
2.3695
2.3690
2.3685
2.6342
2.6335
2.6329
2.6322
2.6316
45
~.8982
2.8784
2.8609
2.8453
2,73~3
88
89
90
1 ~1>
i\Wftdlce
T i\BLA 5.
T ABLA
5 (Cominuacin)
0.01
0.025
0.05
0,10
0,25
0.75
0,90
0.95
0,975
0,99
0.995
0,010
0,072
0,207
0,412
0.020
0,115
0,297
0.554
0,001
0.05 1
0,216
0,484
0,831
0.004
0.103
0.352
0.711
1,145
0,016
0,211
0,584
1.064
1.610
0.102
0,575
1,213
1.923
2,675
1
2
3
4
S
1,323
2,773
4,108
5.385
6,626
2,706
4,605
6.251
7,779
9,236
3.841
5,991
7.8 15
9.488
11.071
5,024
7,378
9,348
11.143
12,833
6.635
9,210
11 .345
13,277
15.086
7,879
10,597
12.838
14,860
16.750
6
7
8
9
10
0,676
0.989
1,344
1,735
2.156
0.872
1,239
1.646
2,088
2,558
1.237
1.690
2.180
2. 700
3,247
1,635
2.167
2,733
3.325
3,940
2.204
3.455
2.833
3.490
4,168
4,865
4.255
5.071
5.899
6.737
7,841
7
8
9
10
9,037
10.219
11 .389
12,549
10.645
12.017
13,362
14,684
15,987
12.592
14.067
15.507
16,919
18.307
14.449
16.013
17,535
19,023
20,483
16.812
18.475
20.090
21,666
23.209
18,548
20,278
21,955
23,589
25,188
11
12
13
14
15
2,603
3.074
3.565
4,075
4,601
3,053
3.571
4,107
4,660
5.229
3,816
4,404
5,009
5.629
6.262
4,515
5.226
5.892
6.571
7,261
5.578
6,304
7.042
7.790
8.547
7.584
8.438
9.299
10.165
11.037
11
12
13
14
15
13,701
14,845
15.984
17.117
18,245
17.275
18,549
19,812
21,064
22,307
19.675
21,026
22.362
23.685
24.996
21.920
23.337
24.736
26,119
27,488
24.725
26,2 17
27.688
29.141
30.578
26.757
28,299
29.819
31.319
32,801
16
17
18
19
20
5.142
5.697
6,265
6.844
7,434
5.812
6.408
7.015
7,633
8,260
6,908
7,564
8,231
8,907
9,591
7.962
8.672
9.390
10,117
10.851
9.312
10.085
10.865
11.651
12.443
11.912
12,792
13.675
14.562
15,452
16
17
18
19
20
19.369
20.489
21,605
22,718
23.828
23.542
24,769
25,989
27,204
28,412
26.296
27,587
28.869
30,144
31,4 10
28.845
30,191
31,526
32,852
34.170
32.000
33.409
34.805
36.191
37,566
35,718
37.156
38,582
39,997
21
8.897
9.542
10,196
10.1156
11.524
10,283
10.982
11.689
12.401
13.120
11 .591
12,338
13,091
13.848
14.611
13.240
14.042
14.848
15.659
16.473
16,344
17.240
18. 137
19.037
19.939
21
23
24
25
8,034
8,643
9.260
9.886
10.520
23
24
25
24,935
26.039
27.141
28,241
29,339
29,615
30.813
32.007
33,196
34.382
32,671
33,924
35.172
36.41 S
37.652
35,479
36,781
38.076
39.364
40,646
38.932
40.289
41.638
42.980
44,314
26
27
28
29
30
11.160
11,808
12.461
13.121
13,787
12,198
12.879
13,565
14,257
14,954
13.844
14,573
15.308
16.047
16,791
15.379
16.151
16.928
17.708
18.493
17.292
18.114
18,939
19,768
20.599
20.843
21.749
22.657
23.567
24,478
26
27
28
29
30
30.435
31.528
32,620
33,711
34.800
35.563
36.741
37,916
39.087
40,256
38.885
40.113
41.337
42.557
43,773
41.923
43.194
44.461
45,722
46.979
45.642
46.963
48,278
49,588
50.892
48.290
49,645
50.993
52.336
53,672
31
32
33
34
35
14.458
15.134
15,815
16.501
17.192
15.655
16.362
17,074
17.789
18.509
17.539
18.291
19.047
19.806
20.569
19.281
20,072
20.867
21.664
22.465
21.434
22.271
23.110
23.952
24.797
25,390
26.304
27,219
28.136
29.054
31
32
33
34
35
35,887
36.973
38,058
39.141
40.223
41,422
42,585
43,745
44.903
46,059
44.985
46.194
4 7.400
48.602
49.802
48.232
49,480
50.725
51,966
53.203
52. 191
53.486
54.776
56.061
57,342
55,003
56,328
57.648
58,964
60,275
36
37
38
17,887
18.586
19,289
19.996
20.707
19.233
19.960
20.691
21.426
22,164
21.336
22,106
22,878
23.654
24.433
23.269
24.075
24,884
25,695
26,509
25.643
26.492
27.343
28.196
29.05 1
29.973
30.893
31.815
32,737
33,660
36
37
38
39
40
41.304
42,383
43.462
44.539
45.616
47,212
48,363
49.513
50,660
51,805
50.998
52,192
53.384
54,572
55,758
54,437
55,668
56,896
58,120
59,342
58,619
59.892
61.162
62,428
63.691
61.581
62,883
64.181
65,476
66.766
21.421
22.138
22.859
23,584
24.311
22.906
23,650
24.398
25.148
25.901
25.215
25.999
26.785
27.575
28.366
27,326
28.144
28.965
29.787
30.612
29.907
30.765
31.625
32.487
33.350
34.585
35,510
36.436
37.363
38.291
41
42
43
44
45
46.692
47.766
48.840
49.913
50,985
52,949
54.090
55.230
56.369
57,505
56.942
58.124
59.304
60,481
61.656
60.561
61.777
62,990
64,201
65,410
64,950
66.206
67.459
68.710
69,957
68,0S3
69.336
70.616
71,893
73,166
0.005
1
2
3
4
5
22
39
40
41
42
43
44
~S
22
~.267
41,401
42,796
44.181
45,559
46.928
Aplndlct
TABLA
0701M
52414
72161
IN IR
1.1623
27426
961)39
68282
54262
66290
533-18
34482
99268
95342
38556
39159
41786
95627
98738
75214
73'1()4
J3319
66364
6834'1
1~1 ~3
4'11117
76941
55430
33023
87337
81773
74279
34968
99696
55282
31337
94128
06511
69981
23701
119237
11007
60622
79973
71080
09923
630<14
1980
17295
59338
31172
65625
57299
75071
761()5
1)7534
21338
98888
21477
27544
39()44
42758
98715
97178
60373
04795
18169
30768
15548
61575
89123
08896
94799
16984
'!9621
234~9
77008
25875
26895
74487
3773
85087
76028
78454
61051
83886
97990
48241
03469
56612
24607
~5461
78444
43668
71367
26729
72826
42212
74244
27190
12572
97918
87521
91057
43195
897()7
88169
!5545
33097
72780
04072
40128
07545
10401
77935
511 63
96649
30607
42263
27805
19271
94662
62211
86532
668119
1<1172
27646
26446
653().1
83196
21247
94186
54285
21700
97260
72886
58609
49521
56128
86307
12817
24725
39582
19599
23485
74573
65558
41268
43088
99302
6.
Nmeros aleatorios
23%8
46794
4435 1
46829
511205
97453
69530
69406
48125
91384
55216
62370
99981
47992
75736
90836
53300
29470
92982
47296
62210
48436
27317
31615
64608
84475
92406
89023
79489
21930
157Q2
05781
37539
96186
11:151
80439
82072
25738
34978
61939
54135
67793
90845
12301
89829
42598
20002
64568
80405
fl2:1M
01209
30254
52459
95784
28949
60722
42713
60730
85118
94726
72675
59187
80172
53891
72438
76263
28048
32962
43053
05045
68996
18178
35464
88832
69121
05464
76530
69459
97485
88677
3(193 7
74667
97948
68572
30321
37689
33472
21002
86338
15425
'1~120
02877
91930
30021
82364
16583
22616
84923
27056
84020
85366
59344
55008
26797
77473
78967
29895
46476
98382
54892
43999
50029
75366
86547
88071
81981
95079
8825 1
56223
20149
93371
64423
0126K
00704
71507
54562
11265
59168
54952
19016
43688
33087
45312
05044
37333
53462
01574
19616
48746
28024
91133
82821
:!422X
5'133()
70883
26814
22676
69324
18134
17069
15868
59341
62 195
92209
30999
42588
76708
1719~
~.lll82
7061>6
18427
13221
31816
42982
06703
67515
30588
47331
14748
76059
45658
'!9234
63033
7-1427
21846
75585
40676
09737
42380
77026
94764
35268
23672
31519
97073
39454
62175
532B4
43269
48268
998W
18918
41589
24266
28951
20405
16937
82224
68076
96796
T ABLA
09300
17596
60620
42379
31330
85734
28517
79373
25366
83951
68699
56837
27460
65961
71171
56420
85734
90489
57310
n239
56084
45421
05562
19526
321179
20121
72035
01194
05303
80823
51873
878SO
70063
16136
12492
50728
50147
98590
09558
041728
44446
40044
99629
14597
25625
78329
90005
94961
83735
99376
94564
51669
666(!2
91676
07337
21776
77761
72993
06636
91075
31912
05206
65145
10056
15400
39214
99886
81693
59375
93791
54029
371156
82385
63257
53517
M~77'1
81800
48587
39715
20905
10973
54945
26794
01803
33536
67442
9394 1
12829
86759
7M>t'lll
941KM
59484
22410
28953
74309
98578
19747
31154
84058
30496
18172
47429
27036
75127
55901
85764
17244
98998
25349
04724
09317
33851
65429
72834
72182
89822
81200
17849
54417
22610
22296
14252
91760
14288
IN55M
5M862
50296
93319
60054
68127
77090
73489
81386
17537
60137
47529
80754
64366
15065
74196
141160
59%6
49247
21162
15855
25447
08865
83133
12382
84523
The Rand Corporauon, A Mi//to/1 Ra11dom Dt~/II K'tth 100.000 Normal Deiat~s New York:
'16124
31283
49988
82790
51473
07785
16624
28718
33373
3535
47-108
56129
35459
61955
73355
54371
48558
45529
13821
02854
68335
92405
90330
48606
01925
20985
~0397
48792
75776
'11971
46052
07113
67545
11139
47467
412'12
33<115
36510
6 (Continuacin)
24401
63537
07442
12008
74667
82646
14813
8!141
759J6
08005
81719
71681
24574
55649
00445
84671
41667
83082
20398
18600
56684
13717
26708
48783
17110
00299
60384
3138~
.lS'I
74603
22496
14852
08779
61570
035 17
62897
28516
58239
53898
56681
49966
30305
7124 1
26414
94194
80687
28914
403~6
08773
49117
22772
70267
31779
35367
89286
45424
29383
Jq47
10767
62843
39454
48761
75187
966~7
34500
74970
30441
6'!753
37285
60.B4
11182
07628
76952
366)9
38470
"14391
35100
19883
06993
38838
25248
61156
02028
36911
49766
94806
96837
11.\96
78905
91989
01291
17044
1741S
76011
75881
4.'44(\
1555
75454
27582
8%58
571'14
64219
53166
58112
14548
21151
30953
12764
72393
11031
62155
36513
10460
55992
fiQ'Q1
39555
90681
90856
47708
77203
53416
18591
88451
36314
15618
63369
79194
71563
40757
')1').. ...
b'l~\(\
0'1325
73339
04254
01691
26072
03811
80640
22892
05831
40764
05445
36992
42596
10<104
!<114<
(\~,,-
~(1(\:1
(>'<l~.l
:~u5
~(\:\~:
-N.\
~-C~I
1173K~
1.\115~
47J8lJ
lJ7~5
~-1426
38553
08744
64Y79
97019
38483
89159
90176
86631
79330
25295
43324
64613
18033
95820
35144
74342
88433
16602
33269
04RK3
87561
04318
59946
39407
26962
72250
70913
70599
45848
09~34
11'1521'
03876
84747
77201
\6fH5
48791
5746<)
92195
0~501
11985
71237
96867
1137'1
78988
94343
06367
1!4487
907.\1
56078
47877
65004
30688
87674
87328
92170
10404
88688
093!>11
59631
23196
81764
35041
51677
67405
(l.l63
62912
28635
5267~
~4519
49668
85986
10714
05111
94163
804 18
61687
1flR!l0
51215
x< ''"'.J
1!1537
66885
96177
J7311
77'll15
53814
16963
87558
84!69
94907
45735
11755
51242
00281
1:~.-J
&81117
75548
42860
71208
44319
~ ~~
.....
6'17113
7770~
1~5(>0
4369R
40740
65475
10531
05159
'8439
83489
X002K
Q4848
111(.:5
01940
'JU888
33282
17662
89649
37320
58885
55068
08019
14319
40589
05075
25893
C>Sl!ll1
57827
53699
40656
71822
22313
63004
43~55
24880
4435<1
o:~.~
Q()Q ).'
llfl~l)(l
()7~.':
61'-JX
:::n~
16717
08810
23715
2ns4
92538
11439
58248
29765
01921
99303
20240
74905
87316
22385
74724
89616
7'1.'~3
JlSS~
~1>2M5
115:!5
12164
05-151
58178
38314
78915
49267
55540
<17879
B2072
18672
75647
o3111
J63 13
36613
16943
68947
46391
77078
57288
18968
00867
98178
19280
28716
66121
33237
43410
6209<1
34932
58980
85171
85310
39165
84193
03701
60269
32132
81628
12107
06316
43287
()3332
54653
7006Q
94845
635 10
07327
1)9057
90899
93031
22716
94901
29523
89123
94932
81281
80463
97004
67901
00086
50416
85097
80876
68818
20908
97159
389<15
35362
85867
80039
39813
~9234
88864
18593
\)JJ-B
~lh.4
..,~5h.~
1~1170
66788
94921
45677
50330
47415
7(>146
04949
05003
31576
21065
851~)4
44S85
72120
67666
87874
78055
80725
465\)7
95030
42846
72468
179'15
17083
95008
4~466
08859
<111:16
'111'1111
72~41
80838
70858
25965
64776
~~XII.'
166~2
61!427
87405
42852
OIJ.~~:
\16115
38409
41314
05261
64993
J~~w
50820
72613
08334
89547
883N
IU966
73842
04373
19385
53285
54994
79135
08266
40812
1114'1M
83843
72270
71 100
95717
48051
:160
Ap~nd lct
Ap<,ndlc<
TABLA
7.
T ABL A
00
01
02
03
04
05
06
07
08
09
.51
.09
2.62
.12
56
71
,43
,93
1,07
.35
.95
.08
,86
.41
2,06
- .27
,38
,42
,22
.28
.00
- 1,43
- .17
- ,94
-1,13
1, 18
- ,76
,41
,96
2.48
,11
-1,79
,78
.16
- ,79
- ,68
-,12
09
,75
,68
,89
,36
,06
.18
,30
,04
,67
.32
,44
,39
,24
,14
1,91
,53
-,43
,37
- ,83
- ,82
-,26
- 1,45
,33
.87
- 1,90
,69
- ,36
- 1,88
- .36
- 1,73
- 1.39
-,35
- ,28
06
07
08
,31
.90
.22
1,00
,12
,01
,16
1,31
- .38
)()
11
12
13
14
15
16
17
18
19
1.07
1.65
1,02
.06
.47
,JO
.71
.94
.29
.57
2.26
- 1,29
-,67
1.43
- 1.84
1,00
,04
- .94
.62
.54
.04
.19
2. 18
1,92
,11
.83
- 1,04
1.35
.63
.11
20
21
22
23
24
25
26
27
28
29
.24
1.47
- .01
.63
,85
1.07
1.18
.47
.26
.3'.1
.19
1,20
,49
.26
- .65
- ,36
2.09
00
01
02
03
04
os
30
31
32
33
34
35
36
37
38
39
1.01
1.36
1,02
,53
.76
.o7
.27
.93
1.03
.32
40
41
42
43
44
1,41
,25
- l. 15
45
46
.42
.54
.13
.29
1.90
47
48
49
.72
.92
- ,36
,58
.88
.90
.88
- .89
.18
- 2.49
1.13
1.21
-.23
,61
,72
.43
1.41
.64
- .70
.57
,01
. 15
.62
1,21
- .70
.36
1,21
- 1,68
- 1,03
- 1,11
- ,46
,69
-,54
,63
,56
-1.09
- .21
.67
,70
1,16
.55
- .94
1.10
- .61
.71
.11
.15
- 1,23
.85
1.79
,75
- ,68
- ,88
.43
-.45
.95
- ,23
,06
.33
.34
,50
-,66
,24
-,53
,Q7
1.44
-1.87
-m
- .77
.06
,08
- ,62
- 1,07
,61
- ,26
- .09
1,84
.09
3.04
1.80
,17
-,21
,12
.83
,44
.31
,28
.38
.07
.SS
,04
.39
.26
.23
- .38
2,80
- 1,49
-,J6
.51
1.26
- 1,07
,48
- 1.67
,37
,40
.41
.76
.55
.07
.00
,Q3
.43
.93
.68
,68
.12
.63
.60
,25
,12
- .32
- 1,42
.83
- 1.75
.04
2,31
.26
,55
.06
1,04
,88
.53
1.86
,29
,69
-,44
- .27
.so
- ,95
1,59
.03
1,38
,55
.97
,36
- .25
.33
- 1.20
.36
.19
.10
1.21
,29
,8 1
- ,37
,28
,20
.42
- 1.96
,12
.41
.08
.43
.85
,10
.99
,24
,72
.74
.22
- ,59
,39
1,03
.74
- ,74
,24
,14
.32
1,18
.14
,49
-,77
- 1,39
1.11
-1.53
- .34
- ,70
,64
- ,91
,94
1.52
.20
-.45
- 1.25
- 1.41
- 1,07
-,40
-.27
-1,94
.52
1.18
1,40
,47
-.42
- .05
,34
.17
- 1,69
, 14
- ,15
-,SO
- ,61
,34
-1.01
- .02
.08
.27
- ,29
-2.17
1.12
1.38
.90
- 1,47
.79
.36
1,84
- ,64
,85
-,55
-,40
- J,Q9
- 1,20
.61
,66
,25
,56
,63
- .60
.23
.lo
.99
1,31
2.22
- ,26
- ,13
,66
,78
,S I
1, 10
.09
,80
,72
.72
.96
,62
1.29
.29
.63
.so
,40
1,91
1.77
,47
.68
,75
,88
,07
1.16
,94
.06
.26
.76
,74
,57
1.75
.64
.os
.U'I
.96
-2.55
-,17
1,29
- .74
1,15
,18
.09
1.73
.71
.48
,41
1.31
1.33
,33
2.15
.46
1.95
- .39
-.71
,37
- 1,72
- 2,10
-,14
,39
- 2.80
,63
.34
.25
.28
1,85
.04
.79
- 1.61
- .61
.41
,73
.29
,69
.33
.96
.73
.27
.88
2.77
.61
.8 1
1,23
,08
- 1.25
1.86
1,90
- 1.53
,01
1,27
1,63
- .17
,17
,35
,30
,05
1.54
,33
.14
,75
,34
,14
.10
.69
1.56
,20
- ,46
.00
,25
.so
.36
1.73
00
01
02
03
04
os
10
11
12
13
14
15
16
17
18
19
,25
.74
.05
l. 13
1.06
,86
,22
1,1 2
- 2.08
1.44
.JO
- .50
1,14
,63
-, 17
,80
- 1.17
.05
,17
-,79
-.15
,37
- .23
-1,62
- ,81
- .30
- ,36
.46
1,04
,76
.05
.18
,49
,52
.49
.23
.42
1.06
.16
1.10
1.55
.96
,9 1
.46
,74
1.93
.82
- .1.85
- ,27
.78
,53
,00
- ,58
1.19
.23
.88
.90
- ,90
- ,64
,70
.80
1.38
1,32
,47
- ,29
, 14
1. 16
2.08
. 111
,79
.53
.51
.83
.05
,19
1,21
,44
l. 11
.87
1.04
1.67
- .85
-,44
-,89
1,88
,57
- 1.32
.19
1,29
.56
.1 7
,05
1.17
U8
.91
- 2.06
- .29
- 1,87
,43
,66
.23
2.13
- 2,41
1,84
,90
1,06
1,81
,62
1.81
,14
,16
,80
- ,42
.22
-.02
2.42
1.23
.25
,14
- 1.77
1.24
.74
- 1,30
1,77
- 1,65
1.31
,65
,15
.Q7
.M4
.33
,50
,54
1,54
2.06
.06
1. 18
.73
.46
1,16
- 2.17
- .43
- .35
,68
- 1,73
.59
- .20
.27
1,50
1.09
,49
- 2.08
2, 10
,00
,25
- , 15
- 2,05
.67
,57
- 1.24
.75
.70
1,87
.26
, 15
,27
.74
1,78
.92
.37
,85
1, 16
.04
.18
1,87
.89
- 1.83
- 1.08
-.17
- .61
- .19
- 2.09
- ,68
- ,62
.11
.61
1,18
,44
- ,74
,18
.43
1,82
- 1,62
1,46
-1.48
.32
Cl'l
111
.52
.12
JI
12
13
14
15
16
17
18
19
I.W
1.1~
.94
.51
1,50
.48
.89
.38
.53
.15
.46
.04
.21
1.54
.23
1.52
.37
,62
.8 1
1.61
.26
.32
1.00
.66
.20
1,01
1,81
.22
2.5 1
.48
08
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
,40
,01
.23
1.27
1,72
.78
1.86
36
.so
37
38
39
1.02
1,57
2.27
40
41
42
43
44
45
46
47
48
49
7 (Cofllinuacin )
,73
.87
1.18
2.09
,90
,16
,15
1.87
.K7
06
07
'161
2.17
.os
.38
.40
,39
. 12
1.20
1,04
.32
1,08
.72
,95
.15
1,37
.04
1.53
.44
.45
1,34
,15
, 19
.13
1,70
1.55
1.12
- ,93
- .8 1
. JO
.61
,69
1,71
1,75
1,50
,66
1, 18
.91
1,28
,56
.56
.2~
1.33
- .26
,2 1
,55
,93
,24
,19
-,08
- 1,08
2,50
- 1.03
.34
- 1,36
- ,66
- 2,08
.30
- ,99
1,56
,11
-,28
- ,77
- 1,42
.01
.54
- ,73
,11
,41
.44
.48
1.53
.71
.88
- ,31
1.02
.39
. 15
,60
,60
,83
,32
,21
1,76
- ,95
,72
- .37
.k5
. IJ
, JO
.7 1
1,18
,117
.28
1,02
.28
.36
,65
,15
1, 16
1,59
1,29
.14
1,46
, JI
.39
.66
,34
,33
.46
.15
1.72
,87
.97
1,78
,94
.77
- .77
. 17
,08
,68
.27
1. 11
.95
.62
1,32
1,67
.26
,76
1.76
.05
.37
2.35
.45
1,86
.14
.07
- .12
.83
.20
- .27
.08
.27
.8\1
.so
. JO
,74
1.76
,37
,42
,45
.so
1,02
,53
.46
.78
.90
- 1, 10
,35
,53
- 1.84
.51
,45
- .27
.03
- .54
1,73
.94
,03
1.61
,55
- .88
, 15
- .55
,20
- . 12
- 1.67
- , 14
-,45
. 13
.69
,42
.65
-.99
- 2.83
- .46
-.38
.23
.59
- 1.22
1.4.1
.64
2,52
,42
,16
.92
.26
.25
- 1,90
-.17
- 1.13
-.SS
.89
,73
, 18
- .42
,83
- 1.18
.38
.92
.Q3
- .76
.51
2,35
.48
.82
,58
,27
1.26
1,11.1
7()
- .07
1.44
,96
,69
,90
.1 1
- ,02
1,40
.34
1,51
,49
1.41
.71
.1 4
,76
,76
1.25
.43
1,08
.24
.37
2.22
,(11
, 14
1.1 1
,58
.79
.03
.85
.58
,73
1,61
1,08
2. 16.
(a) 2/n
2.20.
120
2.22.
2.18.
0,24
2.21.
10!
10'(10- r)!
CAPITULO 3
CAPITULO 1
1.1.
1.2.
(a) {5}
(b) {1, 3, 4, 5, 6, 7, 8, 9, 10}
(e) {~ 3, 4, 5}
(d) { 1, 5, 6, 7, 8, 9, 10}
(e) ( 1, 2, 5. 6, 7, 8, 9, 10}
(a) {x 10 S
(b) {x 10 S X
(e) {x 10 S X
(d) {x 1i S X
1.3.
1.4.
< *}V {x ji S
< i} V {x 1! <
S t} V {x 1 1 <
S t} V {x 11 <
(a) Verdadero
S 2}
X S 1} V {x jl S x S 2}
X S 2}
X
!}
<
(b) Verdadero
(e) Falso
(d) Falso
(e) Verdadero
(a) A ~ {(0, 0), (1, 0), (2, 0), (0, 1), (1, 1), (2, 1), (0, 2), (1, 2)}
(b) B - {(0, 0), (1, 0), (2, 0), (3, 0), (4, 0),(5, 0), (6, 0), (1, 1), (2, 1), (3, 1),
(4, 1), (5, 1), (6. 1) (2, 2), (3, 2), (4, 2), (5, 2), (6, 2), (2, 3), (3, 3), (4, 3), (5, 3),
1.15.
(a) A V B V
(dJ Av B r.
e
e
(b) [A
n..-A
(b)y-z
1.17.
ti
(a)
2.4.
()~~o
2.5.
2.7.
(aJi
(b)
cooxltoo
("oo)
200
2.2.
(b) 1 -
(a)
(b)
rtv
23. (a)
(I,S.,O.,O)
(e)
(d)i
120
2.9.
2.10.
455
2.1 t.
2.12.
2. 13.
(a) 4 8
2.14.
(a) 360
(b) 4 31
(e) 70
(a)
(eH
2.8.
(b) 1296
(b) .Jr
eooxiiOO)
o 200 + cooxiiOO}J
1 19
2.6.
i
(f)
362
(b)
&
(e)i
(gd
720
(a) 120
3.4.
(a)
3.7.
(b)
rh
(eH
(b)!
i
(a)
3.9.
(b)
3. 13.
3.12.
(a) l
3.15.
3.20.
(a) 2p 2
3.23.
3.34.
(J. =
3.37.
+ fJXa + (J +
2
(11 - l)p /(l - 2p + np2)
+ +
t+
++
2p3
5p4
(b)
a+b
(e) 3!
Pr
1 - c1 -
(b) 0,145
3.17.
(b) p
(a) 0,995
3.25.
(a) 0,50
(b) 0,05
3.35.
(a) 0,65
(b) 0,22
tl
(2p - 1)"({J -
ij
(b) ~
0,362, 0,406, 0,232
2ps
p.
3.3.
3.6.
3p2 - 4pl - p
3p5 - p6
{J
=a
(J
(a
1)"-
CAPITULO 4
= 0) = ~. P(X =
4.1.
P(X
4.2.
(a)
(:)GJ(~y-
4.3.
(a)
(b)
1)
=A. P(X
(b)
= 2)
= ti. P(X
C)( ~ J/C:)
- 3) -
il
(e) ;
4.9.
a= ,.-
P(X > b 1 X < b/ 2) = - 7b 3/ (b 3 + 8)
(a) a = (2/b) - b
4.14. (a) F(t) - 5t - 4ts
4.15. (a) a= t
(e) i
4.16. (b) F(x)
3x 2
2x 3
2
1 2
4.17. (a) f(x) =!.O< x < 5
(b) f(x) = (1/ nXx - x )
, O< x < 1
(e) /(x) = 3e 3 ', x < O
4.10.
=i
4.20.
(a) a ~ 3
(e) a
4.23.
(ic0 X0.09)"(0.91)10 -
4.25.
4.29.
(a)
(a) k
= {J
(b) r
=1
4.28.
4.30.
(b) 2970
CAPITULO 5
(d) 336
2.15.
(aH
4. 1t.
4.13.
CAPITULO 2
2.1.
c:Jc::~ ~)+C:J(z+:+ ~)
3.2.
3.39.
~n~~~~~~~~~~~~~~~~~~~~
(4, 6), (5, 6), (6, 6)}
1.11 .
3.1.
5.1.
g(y)
5.2.
(a)
lt{z)
(e) 8/35
(a) k -
6. 11.
6.12.
6.13.
6.14.
y/4
y/4
{! -
(e) g(y)
6.8.
+ y3/ 48, o ~ y
+ (5/48)y3 ,
- 2
~ 2
~y~O
= 1/2 -
V(7.l"'
.,
7.35.
7.48.
(b)
! ;o
1) p{r/n) + q[(n - r)/n)
P(X 1
CAPITULO 8
8.1. 0,219
(e) 1,785
P(X
(f) 0,215
= 0) ~ 0,264
CAPITULO 9
9.1.
9.3.
9.6.
9. 10.
9. 12.
9.13.
9. 15.
9.24.
7.3. 3.4
7.6. $0,03
7.9. S50
7.12. (b) f(Z) ~
7.14. 154
7.15. f(Y) ~ 10. V( Y)
7. 18. f( Y) O. V( Y)
3. E!Zl
!. E(Z)
(e/2)(e 2
7.24. a - !. b - 2
7.26. V(X) 3t2
1). V(Z)
2/ n. V(Z) - (n
f-2
Caso2: E(Y)
= (e 2f 2)(e2
8)j2n 2
E(W) =
(a) 0,2266
(b) 0,2902
0,21
E( Y) = (2/n)' '', V(Y)
= (n-
9.2.
9.5.
(a) D,
0,3085
9.1 t.
0,5090
(b) D2
2)/11
= 0,433a + JJ
E(L) = $0,528
(a)
!; 0,0456
(b)
0,069
(e)
i: 0.049
$23,40
0,10, 0,80
9. 17.
(a) $0,077
CAPITULO 7
7.20.
7.31.
7.32.
7.46.
8.16.
8.17.
(e) 12
6.5. k = 1/(1 - e-2
(b) h(x) 1 lxJ. - 1 < x < 1
(e) g(y) 1 - IYI
1<y < 1
ll(z)
l/ 2z 2 , z ~ 1
1/ 2. o < z < 1
(11) ( 1600 911 2 )/80/ 2 8 < ,, < ip
~ !. ~ < 11 ~ 8
(51r 2 80)/ 1611 2,4 ~ 11 ~ ;p
ll(i)
(' 12111 ' " [ (2/ i)- 2(2/ i) 112 - 2)
+ e 11111 ' 1' (( 1/ i) + 2(1 / i)' 12 + 2),; >O
1 2
/r(w) 6 + 6w
12w .0 < w < 1
(a) y(x)
e '." > O
(h) ll(y) = ye- 1 y> O
V(W)
< 2; h(y)
!-
6.3. (a) ~
6.6. (a) k
= x/2, O < x
=j
(b) V(X)
CAPITULO 6
6.2.
=~
1)
!.
x 0 - a]
= (Xo-k a)yt [ J1.- --7.25. (a) E( V) = f
(b) E(P) = 4
7.27. f(S) = ~
CAPITULO 10
10.1. (a) M .{r)
10.3. (a) M.{r)
= (2/r 2)(e'(r- 1) + 1)
J.e'j().- 1)
(b) E!X) -
(b) E(X)
= (aJ. +
!. V( X ) "'
3.2
10.12. 0,30
10.14. 0,579
10.19. (e 3 ' - 1)/3re'
CA PITULO 11
CAPITULO 14
11.12. (a)
11.13.
11.14.
(a)
111
R(1)
R(l) = e '''
= - 2.\(1/(1
11.16.
(e) 0.68
14.3.
Rs
= (1
g(r)
12.9. (a)
12 _12. /(s)
12.13.
15.2.
(b)
11
(b) 11
(b) 11
= 5000
24
374
P1'f
P2 - P1
, n,
[l _(
(b)
0.191 5
101)1
1 - Pp2
, )'
1
1
]
(b) 0.055
CA PITULO 13
13.3. P(M = m) (1 - (1 - pr']" - (1 - (1 - Pr' ')
(b) 0.58
13.5. (a) 0.018
(b) 0.77
13.4. (a) 0.13
13.8. (a) (1 - 21) - 1
13.6. 0.89
(b)
X,
c ~- 2.33-J; +JJo
JJ
JJ
e-
2,575un - 112
I.CI e d(n).:'t
(a) I:
- - , donde (nC) - mayor entero S nC.
(e) 0,3233
k!
15.9. la) (k - 1)
- 1 - n/L.~. , In
lo)
1 2
14.4.
(a) -P -P- (1
e = l /21n -
- 0,52
nf'il 1 xr
Distribucin F con (l. 1) grados de libertad
( - 4/5)
14.32. 8.6
15.1. (a)
CA PITULO 12
12.7.
(a) k/L.~
- (1 - R]
15.3.
16,1
14.2.
CA PITULO 15
(a)
(a) Rs
(1 - (1
(b) Rs= 1 - Rc(l
M x(1)
V(L2l
14.1.
- 11
11 .22.
lo
367
11
+ 25ps)(l -
(b) Igual
rl + ssr< -
pJ 2
+ 60p 3 (1 - p) 3 + IOp2 ( 1 - p)3 )
IDdice
lndicc de materias
Desigualdad de Boole, 20
Desigualdad de Chebyshev, 146, 147
Desviacin esti111dar de una variable a leatoria. 138
Desviaciones normales. 287
Distribucin binomial, 64
aproximacin normal a lu, 255
distribucin de Pascal, y, 179
propiedade~ de, 79
valor esper.tdo de, 122, 136
varianza de, 141
Distribucin binomial negativa, 178
Distribucin de Cauchy, 213
Distribucin de Pascal, 178
esperanza de, 179
varianza de, 179
y la distribucin binomml, 179
Distribucin de Poisson, 164
propiedad reproductiva de, 226
valor esper;1do de, 164
varianza de. 165
y la distribucin binom1al, 165
y la distribucin multinomia l, 232
Distribucin de Rayleigh. 228
Distribucin de Weisbull. 242
aplicacin de, 242
esperanza de. 243
varianza de. 243
Distribucin c~ponencial. 195
propiedades de, 196
va lor esperado de, 197
y la distribucin exponencial con dos pa
r.'tmetros, 230
y la distribucin Gama. 229
y varianza de, 197
Dbtribucin F de Snedecor. 322
341
Coeficiente binomia l, 27
Coeficiente de confianza, 312
Coeficiente de correlacin, 148
ejemplo de, 310
evaluacin de, 148
interpretacin de, 149, 150, 151
propiedades de. 148
Comparacin entre varias distribuciones.
205
Confiabilidad, 233
de los SIStemas. 243
y la funcin de distribucin acumulativa.
234
y la longitud de vida esperada. 237
y la tac;a de falla, 234
Conjunto. 3
complemento de, 4
identidad de. 5
interseccin de, 4
nmero de elementos, 6
subconjunto, 4
unin de, 4
uni~ersal, 4
vaco, 4
Convergencia en probabilidad, 253
Covarianza. 148
368
2SS.
2~1
bivariada :!116
estandanlad<l, 190
funcin hncnl de. 190
propiedad r~productiva de. 226
suma de 'unabl~ aleatorias independientes, 225
ta bulac1n. 191
truncada. '1~~
valor nperado de, 190
varianza de, 1Q()
Distribucibn 1inrmal bivariada. 206. 207
Distribucin 1 de Student, 313
propiedade de, 313
D1stribuc1t'ln 11 uncada. 208
Distribucu'm uniforme, 76
bidimcntton.ll. 102
unidimensional. 76. 77
valor c'ptrMdo de, 122
varian1a dC', 143
Distnbucumt 1 203
distnbuct<>n C..ama. y la. 203
d1stnbuun normal. y la, 206, 227
grande~ rao.los de libertad, para. 207
prop~ad reproductiva. de. 227
valor csptrado de. 204
varianTa de. :205
Oistribucione~. binomial. 64
16'1
242
Distribuciones mixtas, 75
Ensayos de Bernoulli, 64
Enumeracin, mtodos de, 24
adicin, principio de, 25
combinaciones. 26
muluplicacin. principio de. 24
permutaciones, 25, 30
Errores tipo 1 y tipo 2, 326
Escogencia al azar de un objeto, 23. 29. 39
Escogencia de un punto al azar en un intervalo. 76
Espacio muestra!, 56
Espacio muestra!. el. 8
ejemplos de, 9
finito, 21
particin de. 38
Espac1o muestml finito. el. 21
y resultados igualmente probables. 22
Esperanza condicional, 152
Estadigrafo. 277
Estimacin. 291
Estimacin de mxima verosimilitud. 298.
300
por el parmetro de una distribucin exponencial. 300, 304
por el parmetro de una distribucin gama.
305
por el parmetro de una distribucin
normal. 302
por el parmetro de una distnbucin
unifo1me. 302, 303
por la ecuacin de probabilidad. 3(ll
370
hldk:t
htdln
prop1edade~.
300
propiedades asintticas, 306
Estimacin de p:~r.imetros, 291
estimador consistente, 292
estimador insesgado, 291
estimador de mxima probabilidad, 298
2~
292
mejor estimador lineal, 293
Estimador, 291
insesgado, 291
Experimento aleatorio. 7
Experimento no determinstico, 7
Factorial, 26
Fa lla, tasa de, 234
Fallas, ley expOnencial de, 237
y la distribucin de Poisson, 240
Fallas, ley Gama de, 241
Fallas, ley nonnal de, 236
Frmula de Stirling, 256
Frecuencia relativa, 12
Funcin de densidad de probabilidades, 68
del cociente de variables aleatorias independientes, 113
conjuntas, 97
marginal, 101
de la suma de variables aleatorias independientes, 266
del mximo de la muestra, 280
delminimo de la muestra, 280
del producto de variables aleatorias independientes. 112. 112
del recorrido de la muestra, 283
Funcin de densidad de probabilidad condicional, 104
Funcin de densidad de probabi lidad conjunta. 97
Funcin de densidad de probabilidad marginal. lO!
Funcin de di\tribucin, 75
Funcin de dimibucin acumulativa. 71, 89
caractersticas de. 72
funcin de densidad de probabil idad. y la,
73.74.97
gr-.ifica de. 72. 73
1,7 1
:v
Probab1hdad no ~ond~<:lnnal ,
PrtlCC\ll de PoMon. 1711, 174
'phcacoones de, 173. 174
supuestos de, 17 1
Producto ea11esiano, 6
Promedio muestra l. 278
Propiedades reproductivas. 225
de la distribuCIn ;x2 227
de la distribucin normal. 226
de la distribucin de Poisson, 226
Punto muestra!. 278
Recorrido de la muestra, 283
Regularidad estadstica. 13
Resultados igualmente probables. 22
Series geomtricas. 63
S ucesos, 10
complementarios. 11
independientes, 42
mutuamente excluyentes. 11
Sucesos equivalentes. 58, 84
Sucesos independientes. 42. 44
Sucesos mutuamente excluyentes, 11
Sucesos mutuamente independientes, 46
Suma de variables aleatorias independ ientes.
265,269
Teorema de Bayes. 40
Teorema de la multiplicacin de probabilidades, 37
generalizacin de. 52
Teorema del binomio, 27
forma generaliada. 28
Teorema del limite central, 259. 260
Teorema. Gauss-Markoff, 310
Tr.tnsformacin integral. 285
171
lndiH
COntllllla, Cl7
discreta. 60
di,trihucn Jc probabilidad. 61
espac1o muc,tral de. 56
no correlacionada. 149
sucesionc' de. 2:!9
Va riable aleatoria bidimensional. 95
continua. '16
discreta. 96
normal 206
~u.thl'-
.tlc,thH a ~r,ntmu. h7
lO~.
lnr.
'
\ anahlc' alcatori;" 11-dlnll'n,innalc,,
11 J
\;manta de una \anahlc ,Jea tona. LIX
apro\lmacn a. 14~
e\aluacu:lll de, 139
propiedades de. 140
de la '>Uma de variable' alc;Hori;l\ 111d
pcnd IC11le\. 141
\ ananLa muc,tral. 273
------~------~