You are on page 1of 489

,//*PROBABILIDAD Y APLICACIONES ESTADSTICAS

Edicin revisada
Paul L. =er Wushington Stute University
" "

Versin en espaol

Carlos Prado Campos Universidud Cutlica de Chile


' I

Con la colaboracin de

Germn Ardila Cullar Universidud Nucional de Colombiu Edicin revisada y corregida por Sergio Octavio Esparza Instituto Politcnico Nacional, Mxico

Y Ral Montes de Oca M. Universidad Autnoma Metropolitana Unidud Iztupcdapa, Mxico

* vv

ADDISON-WESLEY IBEROAMERICANA
Argentina Brasil Chile Colombia Ecuador Espana Estados Unidos Mexico Per Puerto Rico (1 Venezuela

Versin e n espaol de la segunda edicin de la obra IntroductoT P1-obability a w l Statistical A~,l,lications, d e Paul L. Rleyer, publicada originahnente e n inql6s por Addison-Wesley Publishing Company, Inc., Reading, hlassachusetts, E.U.A. 0 1 9 7 0 .
Esta edici6n en espaol es la nica autorizada
6,
i
,
.1 . < I

Diseo de portada:Arrnando Jimnez

@ 1973 por Fondo Educativo Interamericano @ 198G, 1992 por ADDISON-WESLEY IBEROAMERICANA, S. A. Wilmington, Delaware, E.U.A.

Impreso enlos Estados Unidos. Printed i n the U.S.A.


ISBN 0-201-5 1877-5 4 5 6 7 8 9 lO-CRs-9796S594

Prlogo a la edicin en espaol


El creciente empleo d e la estadstica en diversas reas del conocimiento hace cada vez m& imperiosa l a necesidad de contarcon textos adecuados para iniciarel estudio deesta disciplina. En consecuencia, creoque la traduccin d e esta obra del profesor Paul Meyer vendr a satisfacer dicha demanda entre los estudiantes d e habla hispana. Mi experiencia pedaggica en escuelas d e ingeniera y d e matemticas con estudiantes que por primera vez toman un curso deestadstica me indica que este de prciblemas aplicados d e actuatesto, que contiene una gran variedad lidad, muchos ejemplos desarrollados y comentarios tiles acerca d e los l a comprensin d e aspectos tericos d e la materia, es fundamental para un curso d e esta naturaleza.

Suntiugo de Chile 1973

CARLOS PRADO CAMPOS

Prlogo a la edicin revisada


La calurosa acogida que recibi la edicin en espaliol d e esta obra Nos dimospuesa la nos impulsamejorarlaendiversosaspectos. y corregir las erratas de la edici6n tarea de revisar el texto nuevamente previa. Durante esta labor contamos con el apoyo incondicional del Dr. Sergio Octavio Esparza, del Instituto Politcnico Nacional, Mxico, y del M. e n C. Ral Montes d e Oca M., d e la Universidad Autnoma Metropolitana, unidad Iztapalapa, Mxico, a quienes agradecemos su valiosa colaboraci6n. Deseamos manifestar tambin que la presente edicin es un homenaj e pstumo a nuestro autor, el DI-. Paul L. "eyer.

Mxico, 1992

ADDISON - WESLEY IBEROAMERICANA

Prefacio a la primera edicin

Este texto est destinado para u n curso de un scmestreo para dos cursos trimestrales de introduccin a la teora dlc la probabilidad y algunas de sus aplicaciones. El prerrequisito es un mo d c clculo diferencial e o estadstiintegral. No se supone conocimiento prcvio de probabilidad ca. E n la Mhshington StateUniversity, cl cuIso para cl cual se desarroll6 este texto ha sido impartido durantevarios aios, principalmente a estudiantcs que se especializarn cn ingcnierao en ciencias naturales. La mayora d e ellos slo pucdcn dcdicar un semcstrc a l estudio de esta materia. Sin enlbargo, comoya cstin hniliarizados con cl clculo, pueden empczar dicho cstudiom i s allh clcl nivel estrictamente elemental. Muchos tcmas matcmriticos pucden prcsentarse en diversos grados de dificultad, y esto es cspecialmente en probabilidad. En este texto sc pretende aprovechar la ventaja que suponcn los conocimientos matemticos del lector, sin sobrepasarlos. En (51 sc usa un lenguaje matemlico prcciso, pero se tiene cuidadod e no prorundizar demasiado en dctallcs matemticos innecesarios. e s t e n o es ciertamente u n libro d e cocina. Aunque se prescntan y exponcn varios conccptos de manera informal, las dcfinicioncs y los teoremas sc enuncian con cuidado. Si no es posible o deseable la dcmostracin detallada de un teorema, al menos se da 1111bosquejo d e las ideas mhs importantes. Una de las caractersticas distintivasd e este textoson las Observaciones que siguen a la ma)-ora de los teoremas y definiciones; en cllas, el resultado particular o el conccpto prcsentado se esamin;an desde un punto d e vista intuitivo. Dcbido ala restriccin autoimpuestade escribir un testo relativamente b r e w sobrc una matcriaquc abarca una extensa rea, h l h o necesidad de hacer una sclcccin para incluir o excluir cicrtos temas. Parece scr que no hay manera obvia d e resolver estc problcma. Ciertamente, no sostengo que para algunos de los temas excluidos no se podra haber encontrado sitio, ni prctendo que no haya alguna parte que se pudiera se ha hccho hincapik en las haber omitido. Sin embargo, en gran parte nociones Tkdamentales, presentirdolas con detalle considerable. S610 el captulo 11, sobre confiabilidad, puede considerarse artculo de lujo; pero, aun aqu, creo que las nociones asociadas con problemas d e confiabilidad son d e inters para muchas personas. Ademhs, los con-

vi Prefacio a la primera edicwn


ccptos de confiabiliclad son u11medio excelente para ilustrar muchas de las ideas prescntadas antes q1le ellos en el libro. Arln si se picnsa qllc l a cxtcnsiGn ha sido limitada por el tiempo disponible, se ha logrado ulla sclccci6n amplia y razonable d e temas. Una ojeada al nclicc general muestra de m a n e r a evidente que unas tres cuartas p a r t e s del texto trata de temas probabilsticos, mientras la cuarta parte restante est5 dedicada a una esposicin d e inferencia estadstica. Aunque no hay nada de extraordinario en esta divisin particular dcl knfasis entre probabilidad y estadstica, creo que un conocimiento profundo de los principios lhicos de la probabilidad es imperativo palos nlbtodos estadsticos. Idealmente, ra una comprensi6n adccuada de a un curso en probalilidad debera seguir otro en teora estadstica y metodologa; sin embargo, como se indic antes, la mayora d e los estudiantes que toman este curso no tienen tiempo para dos semestres de esposicin d e estas materias y, por tanto, me sent obligado a exponer a l menos algunos d e los aspectos ms importantes en el rea general d e la inferencia estadstica.

El xito potencial dc una presentacin particular de la materia no debera juzgarse solamente enf u n c i h d elas ideas especficas aprendidas y de las tkcnicas especificas atlquiritlas; el juicio final tambin debe tener en cuenta si cl cstudiante est5 bien preparado para continuar estudiando el tema ya sea por s mismo o por medio de un curso formal adicional. es importante, se hace evidente que deSi se considera que este criterio biera insistirse en los conceptos bhicos y en las tcnicas fundamentales, rclcgando al mismo tiempo los mtodos y temas muy especializados a un papel secundario. Esto tan1bii.n result ser un factor importante en l a decisin sobre los temas por incluir.
Es dificil exagerar la importancia d e la teora d e la probabilidad. El modelo matemtico apropiado para el estudio de un gran nmero d e fenBmenos observables es probabilstico en vez de determinista.AdemLis, el tema completo d e la inferencia estadstica est basado en consideraciones probal)ilsticas. Las tcnicas estadsticas se cuentan entre algunas d e las herramientas ms importantes de cientficos e ingenieros. Para poder utilizar esas tbcnicas inteligentemente se requiere una profunda comprensicin de los conceptos probabilisticos. Se espera que, adenls de Gmiliarizarse con muchos mtodos y conceptos especficos el lector desarrolle cierto criterio: pensar probabilsticanlente sustituyendo preguntas tales como: (Durante cunto tiempo funcionar5 este mecanismo? por (Cules la probabilidad de que este

Prefacio a la primera edicin vii

mecanismo funcione durante ms de cien horas?. En muchas situaciones, la segunda pregunta puede no slo ser la ms atinada sino, d e hecho, la nica pertinente. Como es ya tradicional, muchos d e los conceptos importantes d e la probabilidad se han ilustrado con la ayuda de varios tjuegos d e azar: lanzar monedas o dados, sacar cartas de una baraja, hacer girar una ruleta, etc. Aunque no he evitado por completo referirme a tales juegos, porque sirven para ilustrar bien nociones bsicas, he intentado poner en contacto al estudiante con ilustraciones ms pertinentes d e las aplicaciones d e la probabilidad: la emisin d e partculas (Y de una fuente radiactiva, muestre0 d e lote, la duracin de instrumentos electrnicos y los problemas asociados d e mecanismos y confiabilidad del sistema, etctera. Estoy reacio a mencionar una d e las caractersticas ms obvias en cualquiertexto d e matemticas: los problemas; y, sinembargo, es posible que valga la pena sealar que trabajar con problemas debe considerarse parte integrante del curso. Slo mediante el acto personal de plantear y resolver los ejercicios, es colno el estudiante tendr la posibilidad d e desarrollar una comprensin y apreciacin d e las ideas, as como familiarizarse con las tcnicas pertinentes. Es por eso que enel libro se incluyen ms d e 330 problemas y, al final del texto, figuran las respuestas a ms d e la mitad d e ellos. Adems d e los problemas para cl lector, hay muchos ejemplos resueltos en diferentes partesloalargo del libro. Este libro se ha escrito en forma bastante consecutiva: la comprensin d e la mayora d e los captulos requiere familiaridad con los anteriores; sin embargo, es posible tratar superficialmentelos captulos 10 y 11 si se est interesado, en particular, en dedicar ms tiempo a las aplicaciones estadsticas examinadas en los captulos 13 a 15. Como debe suceder a quienquiera que escribe un texto, debo estar agradecido a muchas personas: a mis colegas, por muchas conversaciones estimulantes y tiles; a mis propios profesores, por el conocimiento del tema y su inters en I; a los revisores d e las primeras versiones del manuscrito, porsus muchas sugerenciasy crticas iltiles; a AddisonWesley Publishing Company, por su gran ayuda y cooperacin desde las primeras etapas de este proyecto hasta su finalizacin; a la sefiorita y activa; a D. Van Carol Sloan, por ser una mecangrafa muy eficiente Nostrand, Inc., T h e Free Press, Inc. y Macnnillan Publishing Company, por su autorizacin para reproducir las tablas 3, 6 y 1 del apndice,respectivamente; a McGraw-I Iill Book Company, Inc., Oxford University

viii Prefacio a la primera edicin


Press, Inc., Pergamon Press, Ltd. y Prentice-Hall, Inc., por su autorizay, finalmente, ani esposa, cin para incluir ciertos ejemplos en el texto; no slo por la paciencia que mostr durante mi labor, sino tambin por dejarme y llevarse a nuestros dos hijos a visitar a sus abuelos durante dos cruciales meses de verano, en los cuales pude convertir nuestro hogar en untaller desordenado pero tranquilo, del cual emergi milagrosamente, al fin, la ltima versin d e este libro.

Pullmnun, Washington Abril, 1965

PAUL L. M E Y E R

Prefacio a l a segunda edicin


En vista del considerable nmero de comentarios favorables que he recibido durante los ltimos alios tanto de estudiantes como d e profesores que han utilizado la primera edicin d e este libro, se han hecho en I relativamente pocos cambios. Con el uso repetido del testo he encontrado que su organizacin bsica y el nivel general de presentacin (como la mezcla de argumentos matemticos rigurosos con presentaciones y ejemplos ms informales) son los ms apropiados para el tipo d e estudiante que toma este curso. Sin embargo, se han hecho varios cambios y adiciones. En primer lugar se hizo u n esfuerzo para eliminar varias erratas de imprenta y otros errores que aparecieron ena l primera edicin. El autor est muy agradecido a los numerosos lectores que no slo descubrieron algunos de ellos, sino que se interesaron lo suficiente como para indicrmelos. En segundo lugar se intent hacer ms claras las relaciones entre variasdistribuciones d e probabilidades,demodoque el estudiante pueda comprender mejor cmo usar varios modelos probabilsticos para aproximarlos entres. Finalmente, se han aiiadido nuevos problemas a la ya larga lista incluida en la primera edicin. El autor desea agradecer nuevamente Addison-Wesley a su cooperaesta nueva edicin. cin en todos los aspectos que condujeron a

Pullman, Washington Diciembre, 1969

P. L. M.

ndice General

Captulo 1 Introduccin a la probabilidad


1.1 1.2 1.3 1.4 1.5 1.6

1
1 4 5 10 13 15 17 21 23

Modelos matemticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduccin a los conjuntos ..................... Ejemplos de experimentos no deterministas . . . . El espacio muestral ............................... Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frecuencia relativa................................ Nociones bsicas de probatbilidad . . . . . . . . . . . . . . . . Varias observaciones............................... Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.7
1.8

Captulo 2 Espacios muestrales finitos


El espacio muestral finito ......................... Resultadosigualmenteprobables . . . . . . . . . . . . . . . . 2.3Mtodos deenumeracin ........................ Problemas .........................................

27
27 25 31 40

2.1 2.2

Captulo 5 Probabilidad condicional e independencia


3.1Probabilidadcondicional ......................... 3.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Eventos independientes .......................... 3.4 Consideraciones esquemiiticas; probabilidad condicional e independencia. . . . . . Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43
43 51
54 GI

63

Captulo 4 Variables aleatorias unidimensionales


4.1 4.2 4.3 4.4 4.5 4.6 4.7

69
69 76 79 55 90 94

4.S

Nocin general d e una variable aleatoria . . . . . . . . Variables aleatoriasdiscretas ..................... I d a distribucinbinomial . . . . . . . . . . . . . . . . . . . . . . . . . Variables alealoriascontinuas . . . . . . . . . . . . . . . . . . . . Funcin de distribucinacumulativa . . . . . . . . . . . . Dist ribucioncsmixtas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variables aleatorias distribuidas .. unllormemcntc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ., . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Una observac~on Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

97 98

Captulo 5 Funciones de variables aleatorias


5.1 5.2 5.3
5.4
U n eJenlplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eventosequivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variables aleatol-ias discretas . . . . . . . . . . . . . . . . . . . . . \'n~-iables alcatorins continuas . . . . . . . . . . . . . . . . . . . . I'roblernas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

105
105 106 108 111 117

Captulo 6 Variables aleatorias bidimensionales y de mayor dimensin


6.1 6.2
6.3 6.4 6.5
6.6

121
121
134

\'ariaI)lcs aleatorias bidimensionalcs . . . . . . . . . . . . . Distribuciones d e probabilidades nlarginalcs y condicionales . . . . . . . . . . . . . . . . . . . . . . . Variables aleatorias independientes . . . . . . . . . . . . . . Funcioncs d c 1 1 m varinblc aleatoria . . . . . . . . . . . . . Distribuci6n tiel producto y del cocicntc d e variables aleatorias independientes . . . . . . . . . . . . . . Variablcs alcatorias n.-dinlensionales . . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

125

137

142
145

148

h d i c e general

xiii

Captulo 7 Otras caractersticas de las aleatorias variables


7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 7.10 7.11

153

El valor esperado de una variable aleatoria . . . . . 153 Esperanza de una funcin de 161 una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variables aleatorias bidimensionales . . . . . . . . . . . . . 166 Propiedades del valor esperado . . . . . . . . . . . . . . . . . . 165 La varianza de una variable aleatoria. . . . . . . . . . . . 175 Propiedades de la varianxa d e 179 una variable aleatoria ............................. Expresiones aproximadas parala esperanza y la varianza ........................... 132 Desigualdad de Chebyshev ....................... 156 El coeficiente d e correlacin ..................... 189 Esperanza condicional ............................ 194 Regresin del promedio .......................... 197 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

Captulo 8 La variable aleatoria de Poisson y otras variables alleatorias discretas


La distribucin d e Poisson . . . . . . . . . . . . . . . . . . La distribucih d e Poisson corno una aproximacin a la distribucin binomial. . . . s.3 El proceso d e Poisson ........................ s.4 La distribucin geomtrica. . . . . . . . . . . . . . . . . . 8.5 La distribucin d e Pascal .................... S.6 Relacin entre las distribuciones binomial y d e Pascal ......................... s.7 La distribucin hipergeomtrica. . . . . . . . . . . . 8.8 La distribucin multinomial . . . . . . . . . . . . . . . . Problemas ....................................
S. 1 8.2

209
... 209 ... ... ... ...

215
225
224

211

. . . 230 . . . 231 . . 233 . . . 234

xiv ttdice getreral

Captulo 9 Algunasvariables aleatorias continuas importantes


9.2
9. I
9.3 9.4 9.5 9.6 9.7 9.S 9.9 9.10 9.1 1 9.12

239
239 239 240 244 249 250 254 255

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La distribuci6n normal . . . . . . . . . . . . . . . . . . . . . . . . . . . Propiedades de la distribucicjn normal . . . . . . . . . . Tabulaci6n d e la distribucibn normal . . . . . . . . . . . . La distribucih exponencial . . . . . . . . . . . . . . . . . . . . . . Propiedades d e la distribucidn esponencial . . . . . La distribucin gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propiedades de la distribucidn gama . . . . . . . . . . . . La distribucin x-cuadrada . . . . . . . . . . . . . . . . . . . . . . Comparacin entre varias distribucioncs ........ La distribucin normal bivariada . . . . . . . . . . . . . . . . Distribuciones truncadas ......................... Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

255

260 261 263 269

Captulo10 La funcin generadora de momentos

275
275 276
c 215

10.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 La funcin generadora de momentos . . . . . . . . . . . 10.3Ejemplos de funcionesgeneradoras d e momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4 Propiedades d e la funcin generadora d e momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5 Propiedades reproductivas ....................... 10.6 Sucesiones d e variablesaleatorias . . . . . . . . . . . . . . . . 10.7 Nota final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

251

256
292
291 292

Captulo11 Aplicaciones a la teora de la confiabilidad


11.1Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 La ley normal de falla . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 La ley exponencia1 d e falla . . . . . . . . . . . . . . . . . . . . . . .

297
297 301 303

distribucin de Poisson ........................... 11.5 La ley de fallas de \Veibull . . . . . . . . . . . . . . . . . . . . . . . . 11.6Confiabilidad d e los sistemas ..................... Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11.4

La ley exponencial de falla y la

307 309 311 316

Captulo 12 Sumas de variables aleatorias 323


12.1 Introduccin ...................................... 12.2 La ley de los grandes nilmcros . . . . . . . . . . . . . . . . . . . 12.3Al~roximacinnormal de la distribucin binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 El teorema de lmite centr.11 ...................... por la 12.5Otrasdistribucionesaproximadas distribuci6n normal: d e Poisson, de Pascal y p n a ............................................. 12.6 La distribuci6n de la suma de L I ~ nilmero finito d c variables alcxorias . . . . . . . . . . . . Proble~nas .........................................

323
324 327 331

338
339 346

Captulo13 Muestras y distribuciones muestrales

3 49
349 351 354 355 363
3g5

13.1 Introduccin ...................................... ............................... 13.2 Muestras aleatorias ........................................ 13.3 Estadsticos 13.4 Algunosestadsticos importantes . . . . . . . . . . . . . . . . . 13.5 La transformaci6nintegral ....................... Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo14 Estimacin

de parimetros

373
373 375

14.1 Introduccin ...................................... 14.2Criteriosparaestimados .......................... 14.3 Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Estimados de mximaverosimilitud . . . . . . . . . . . . . 14.5 El mtodo de los mnimos cuadrados . . . . . . . . . . . .

354 395

375

xvi h d i c e general
14.6 14.7 14.8 14.9

El coeficiente d e correlacin . . . . . . . . . . . . . . . . . . . . . Intervalos de confianza ........................... la distribucin t de Student . . . . . . . . . . . . . . . . . . . . . . MAS sobre los intervalos de confianza . . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

399 401 403 406 411

Captulo15 Pruebas de hiptesis


15.1 15.2

417
417 424 429 434 442 447 451 465 475

15.3 15.4
Referencias . . . . .

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Formulacin gencral: distribucin normal con varianza conocida ............................ Ejemplosadicionales ............................. Prueba para la bondad de ajuste . . . . . . . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
...............................................

Apndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Respuestas a problemas seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ndice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.1 Modelos matemticos


En este captulo se tratar el tipo de fenmeno del que nos ocuparemos en este libro. Adems, formularemos un modelo matem5tico que nos servir para investigar este fenmeno en forma bastante precisa. Al principio es muy importante distinguir entre el fenmeno observable en s mismo y el modelo matemtico para dicho fenmeno. Evidentemente, no influimos de manera alguna sobre lo que observarnos; sin embargo, al elegir un modelo, si podemos aplicar nuestro juiJ. Neyman, cio crtico. Esto ha sido muy bien expresado por el profesor quien escribi:*
Cada vez que utilizamos las matematicas con el objeto d e estudiar fenmenos observables es indispensable empezar por consLruir un modelo maten1,itico (determinism o probabilstico) para estos fenmenos. Necesariamente, este modelo debe simplificar Ins cosas y permitir la omisi6n d e

* University of

Press, 1954.

Califomia Publications in Statistics, 7?01. I , University of California

a 2 Introdzcccwn probabilidad la

1.1

ciertos deulles.El xito delmodelo depende de si los detalles que se omitieron tienen o no importancia en el desarrollo de los fenmenos estudiados. La solucirin del problema matemtico puede ser correcta y an as estar en desacuerdo con los datos observados, debido sencillamente aque no estaba probada la validez d e las suposiciones bsicas que se hicieron. Normalmente es bastante dificil afirmar con certeza si un modelo matemritico es adecuado o no, antes de obtener algunos datos, mediante la obsenracibn. Para verificar la validez del modelo, debemosdeducir un cierto nmero deconsecuencias del mismo y luego compararcon las observaciones esos resultados~redichos.

Debemos tener presentes las ideas anteriores al considerar algunos fenmenos obtenidos en la observacin y los modelos apropiados para su descripcin. Examinemos primero lo que podra llamarse adecuadamente un modeelo detenninista. A s designamos al modelo que estipula que las Condiciones en las que se verifica un experimento dcterminan el resultado del mismo. Por ejemplo, si colocamos una batera en un circuito simple, el modelo matcrntico que posiblemente describira el flujo observable de corriente sera I = E / R , que es la ley de Ohm. El modelo predice el valor d e I tan pronto se dan E y R. En otras palabras, si sc repitiese el experimento anterior cierto nmero de veces, empleando cada vez el mismo circuito (esto es, manteniendo fijas E y R), posiblemente hubiEramos esperado observar el mismo valor d e I. Cualquier desviacin que pudiese ocurrir sera tan pequea que la mayor parte de los objetivos de la descripcin anterior (que es el modelo) se cumpliran. La realidad es que la batera, el alambre y el ampermetro utilizados para generar y medir la corriente y nuestra destreza para usar los instrumentos de medicin dctcrminan el resultado de cada repeticin. (Hay cicrtos factores que muy bien pueden scr distintos de repeticin CII repeticin y que, sin cmbargo, no afectarn cl resultado de mancra notable. Por ejemplo, se puede considerar con razn que la temperatura y la humcdad en el laboratorio, o bien la altura de la persona quc lee el ampermetro, no tienen influencia en el resultado.) IIay muchos cjcmplos de experimentos en la naturaleza para los cuales los modelosdeterministassonapropiados.Porejemplo, las leyes gravitacionales describen con precisin lo que sucedea un cuerpo que cac cn ciertascondiciones. Las leyes deKepler nosindicanel comporramicnto de los planetas. En cada caso, cl modelo sefiala que las condiciones en las cuales se verifican ciertos fenmenos determinan cl valor d e ciertas variables observables: la nzcgnitud de la velocidad, elrea recorrida durante cierto periodo d e tiempo, etc. Estas cifras aparecen

1.1

matemticos

Modelos

en muchas de las frmulas con las cuales estamos familiarizados. Por ejemplo,sabemosqueenciertascondiciones, la distanciarecorrida (verticalmente sobre el suelo) por un objeto est dada por:S = -1Gt2 vat, donde vo es la velocidad inicial y t es el tiempo empleado. Lo que queremos destacar no es la forma particulard e la ecuacin anterior (que es cuadrtica), sino el hecho de que hay una relacin definida entret y S que determina unvocamente la cantidad del primer miembro d e l a ecuacin, si sedan las del segundo miembro.

En muchoscasos el modelo matematico determinista antes descrito es suficiente. Sin embargo, hay tambin muchos fenmenosque necesitan un modelo matem5tico distinto para su investigacin. Esos son los que llamaremos modelos no deterministas o probabikticos. (Otro trmino muy usado es modelo estochistico.) Ms adelante, en este capitulo consideraremos en forma muy precisa cmo se pueden describir tales modelos probabi.lsticos. De momento consideraremos unos cuantos ejemplos. Supongamos que tenemos un pedazo de material radiactivo que emite partculas a. Con la ayuda de un dispositivo para medir podramos registrar el nmero departculas emitidas d,uranteun determinado intervalo d e tiempo. Es evidente que no podemos predecir exactamente cl nmero de partculas emitidas, aunque sepamos la forma exacta, la dimensin, la composicin qumica y la masa del objeto que se considera. As no parece haber un modelo determinista razonable que nos indique el nmero de partculas emitidas, digamos n, como una funcin d e varias caractersticas propias de la fuente de radiactividad. En s u lugar, debemos considerar un modelo probabilstico.

A manera de otro ejemplo, consideraremos la siguiente situacin meteorolgica. Deseamos determinar cuanta lluvia caer debido a una tormenta que pasa por una zona especfica. Los instrumentos para registrar la cantidad d e lluvia estn listos. Las observaciones meteorolgicas pueden darnos informacin considerable sobre la tormenta que se aproxima: la presin baromtrica en diversos puntos, los cambios d e presin, la velocidad del viento, el origeny la direccin d e la tormenta, as como otros datos tomados a gran altura. Pero como esta informacin tan valiosa es para predecir de modo muy general la forma de la precipitacin (dbil, regular, intensa), sencillamente no permite saber con mucha exactitud cunta lluvia caer&. De nuevo, estamos considerando un fenmeno que por s mismo no se presta a un tratamiento determinista. Un modelo probabilstico describe la situacin con mayor exactitud.

4 a Introduccwn

1.2

En principio podramos indicar cunta lluvia cay, sila teora se hubieradesarrollado (lo que no sehizo). Por lo tanto,usamos un modelo probabilstico. En el ejemplo relacionado con la desintegracin radiactiva, debemos usarun modelo probabilstico aun en principio. A riesgo de adelantarnos a discutir un concepto que se definirms tarde, indiquemos simplemente que en un modelo determinista se supone que el resultado real(sea numrico o de otra especie) est definido por las condiciones en las cuales se efecta el experimento o procedilas condiciones miento. En un modelo no determinista, sin embargo, experimentales slo determinan el comportamiento probabilstico (ms especficamente, la distribucin probabilstica) d e los resultados observables. En otras palabras, en un modelo determinista, utilizamos consideraciones especficas para predecir el resultado, mientras que en un modelo probabilstico usamos la misma clase d e consideraciones que para especificar una distribucin d e probabilidades.

1.2 Introduccin a los conjuntos


Con elfin d e discutir los conceptos bsicos del modclo probabilstico que deseamos desarrollar, ser muy conveniente tener presentes algunas ideas y conceptos d e la teora matemtica d e conjuntos. Este tema es slo muy extenso y se h a escrito mucho acercad e l. Sin embargo, aqu necesitaremos algunas nocionesbsicas. Un conjunto es una coleccin d e objetos. Comnmente los conjuntos se designan con letras maysculas A , B , etc. Para describir qu objetos el conjunto A, se dispone dctres mtodos. estn contenidos en a) Podemos anotar los elementos d e A. Por ejemplo, A = { 1 , 2 , 3 , 4 } indica el conjunto que contienelos enteros positivos 1, 2, 3 y 4. 6) Podemosdescribiralconjunto A con palabras.Porejemplo, A est formado por todos los nmeros reales entre podramos decir que O y 1, inclusive. c) Para describir el conjunto anterior, simplemente escribimos A = {x 1 O 5 x 6 1); es decir, -4 es el conjunto d e todas las x, dond e x es un nmero real comprendido entreO y 1, inclusive. Los objetos que formanla coleccin del conjuntoA se llaman miembros o elementos d e A. Cuando a es u n elemento d e A escribimos a E A y cuando a 110 es un elemento de i lescribimos a A. IIay dos c o ~ ~ j u n t o especiales s que a menudo son de inters. En la mayor parte de los problemas estamos interesados en el estudio de un

1.2

Introduccin a los conjuntos

conjunto definido de objetos, y no de otros; por ejemplo, en todos los nmeros reales, en todos los artculos que salen de unalnea de produc24 horas, etc. Definimos el conjunto universal cin durante un periodo de como el conjunto de todos los objetos que se consideran. Normalmente este conjunto se designa con U . Otro conjunto que se debe destacar de maaneraespecial puede aparecer como sigue. Supongamos que se describe el conjunto A como el conjunto de todos los nmeros reales x que satisfacen la ecuacin x 2 1 = O. Evidentemente sabemos que no pueden existir tales nmeros. El conjunto A no contiene ningn elemento! Esta situacin ocurre tan a menudo que justifica la introduccin de un nombre especial para tal conjunto. Por lo tanto, definimos el con-junto nulo o vacio como el conjunto que no contiene elementos. En general, este conjunto se designa con 0. Puede suceder que cuando se consideran dos conjuntos A y B, ser miembro de A implica ser un elemento d e j9. En tal caso se dice que A es un subconjunto de B y se escribe A c B . Se da una interpretacin semejante a B c A . Decimos que dos conjuntos son el mismoA = B, si y slo si A c B y B c A . Esto es, dos conjuntos son iguales si y s610 si contienen los mismos elementos. Las dos propiedades siguientes del conjunto nulo y del conjunto universal son inmediatas. a ) Para cualquier conjunto A, se tiene 0 c A . b ) Una vez que se ha acordado el conjuntlo universal, entonces para cualquier conjunto A considerado que est5 enU , tenemos A c U .

EJEMPLO1.1. Supongaque U = todos los nilmerosreales, A = { x I x 2 + 2 x - 3 = O}, B = {x I (x - 2 ) ( x 2 22 - 3) = O} y C = { x I x = -3,1,2}. Entonces A c B y B := C .

Ahora consideremos la importante idea decombinar conjuntos dados con el fin de formar un nuevo conjunto. Se consideran dos operaciones bsicas. stas son paralelas, en ciertos aspectos, a las operaciones d e suma y multiplicacin de nmeros. Supongamos que A y B son dos conjuntos. Definamos C como la unidn de A y B (algunas veces llamada la suma deA y d e B ) d e la manera siguiente:

C = { x I x E A o x E B ( o ambos)}.

6 Introduccwn a la probabilidad

1.2

Esto lo escribimos as: C = A U B. A s , C est formada por todoslos elementos que estn enA, o en B , o en ambos. Definimos D como la interseccidn d e A y B (algunas veces designado A y B ) como sigue: como el producto de

Escribamos esto como D = A n B . Es as como D posee todos los elementos que estn enA y en B. Finalmente presentamos la idea del complemento de un conjunto A como sigue: el conjunto designado por A, formado por todos los elementos que no e s t h en A (sino en el conjunto universal U ) se llama el complemento de A. Esto es, AC = {x 1 x $ ! A}. Se puede usar con mucha ventaja un recurso grfico conocido como diugramu de Vnn cuando se combinan conjuntos de l a manera antes indicada. En cada uno de los diagramas de l a figura 1.1, la regin sombreadu representa el conjunto considerado.

AuB

AnB

FIGURA 1.1
EJEMPLO 1.2. Supngaseque U = {1,2,3,4,5,6,7,8,9,10}; A = {1,2,3,il},B={3,4,5,6}.I-IallamosqueAC={5,G,7,8,9,10),AUB= { 1,2,3,4,5,6} y An B = {3,4}. Ntese que al describir un conjunto (tal como A U I?) anotamos cada elemento exactamente unavez.
Las operaciones anteriores de unin e interseccin definidas justamente para dos conjuntos pueden extenderse de una manera obvia para cualquier nmero finito de conjuntos. As definimos A U B U C como A U ( B U C ) o ( A U B ) U C, que es el mismo, como fcilmente se puede verificar. De igual manera, definimos A n B n C como A n ( B n C) o (AnB)nC que tambin puede verificarse que soniguales. Y es evidente

1.2

Zntroduccidn a los conjuntos

que podemos continuar esas construcciones de conjuntos nuevos para cualquier nmero finito d e conjuntos dados. Afirmbamos que ciertos conjuntos eran l o mismo, por ejemplo A n ( B n C ) y ( A n B ) n C . Resulta que hay varios conjuntos equivalentes, algunos d e los cuales se indican ms ade1ant:e. Si recordamos que dos conjuntos son iguales siempre que contenganlos mismos elementos, es fcil verificar que los enunciados establecidos son verdaderos. El lector debe convencerse pors mismo con ayudad e los diagramas d e Venn.
U)

C)

AUB=BUA, Au(BuC) = (AuB)uC,

b) A n B = B n A , (1.1) d ) A n ( B n C ) = (AnB)nC.

Nos referimos a a) y b) como las propiedades conmutativas, y a c) y d ) como las propiedades asociutivas. Hay otrosconjuntos idnticosque contienen unin, interseccin y complementacin. Los ms importantes se indican a continuacin. En cada caso, su validez puede verificarse con ayuda de un diagrama de Venn.

e) A u ( B n C ) = ( A u B ) n ( A u C ) , J) A n ( B u C ) = ( A n B ) u ( A n C ) ,

g) A n 8 = 0 , h) A U 8 = A , j ) ( A n B)' = ACU B C ,

i) (A u B)' = ACn BC, K) = A.

(1.2)

Observamos que g) y h ) indican que0 se comporta entrelos conjuntos (respecto a las operaciones U e n) como lo lhace el nmero cero entre nmeros (respecto alas operaciones d e sumfay multiplicacin). Para lo que sigue se necesita una construccin adicional de un conjunto, dados dos (o ms) conjuntos.
Definicin. Sean A y B dos conjuntos. Indicaremos comoelproducto cartesiano de A y B, escrito como A x B , al conjunto { ( a ,b ) , a E A, b E B } , esto es, el conjunto de todos los pares ordenados, donde A y el segundo deB . el primer elemento se toma de

EJEMPLO 1.3. Sea A = {1,2,3}; B = {1,:2,3,4}.


Entonces, A x B = {(1,1),(1.2), . . . , ( 1 , 4 ) , ( ' 2 , 1),. . . ,(2,4),(3,1), . . . , (37.2)).

Obseruacin: En general, A x B f B x A .

8 a Introduccwn

la probabilidad

1.3

La nocin anterior puede extenderse como sigue: si A l , . . . ,A , son conjuntos, entonces A , x A:!x . . . x A, = { ( a l ,u:!,. . . , u n ) ,a; E A ; } esto es, el conjunto d e todas las n-tuplas ordenadas. IJn caso especialmente importante aparece cuando tomamos el productocartesiano deunconjunto consigomismo,esto es, A x A o A x A x n . Ejemplos as aparecen cuando nos relacionamos con el plano euclidiano, R x R, donde R es el conjunto de todos los nmeros reales y el espacio euclidiano tridimensional se representa como R x R x R. El nmero de elementos en un conjunto nos serde mucha utilidad.Si hay un nmero finito d e elementos enA , digamos a l , a:!,. . . ,an decimos que A esfinito. Si hay un nmeroinfinito de elementos en A que pueden ponerse en unacorresfiondencia uno-a-uno con los enteros positivos, decimos que A es infinito contable o infinito numerable. (Se puede demostrar, los nmeros racionales es infinito por ejemplo, que el conjunto de todos contable.) Finalmente debemos considerar el caso de un conjunto infinito no numerable. Tales conjuntos contienen un nmero infinito d e elementos que no pueden ser enumerados. Se puede demostrar, por ejemplo, que para dos nmeros reales cualesquiera b > a , el conjunto A = { z I a 5 2 5 b } tiene un nilmero no numerable de elementos. Puesto que debemos asociar con cada nmero real un punto sobre la recta d e los nmeros reales, lo anterior expresa que cualquier intervalo (no degenerado) contiene ms de un ntmero contable de puntos. Los conceptos antes mencionados, aunque representan slo un breve bosquejo d e la teora de conjuntos, son suficientes para nuestro propsito: describir con rigor y precisi6n considerables las ideas bsicas d e la teora d e l a probabilidad.

1.3 Ejemplos de experimentos no deterministas


Estamos ahora listos para discutir lo que entendemos por experimento aleatorio o no determinista. (Ms precisamente, daremos ejemplos de fenmenos para los cuales los modelos no deterministas son apropiados. Esta es una distincin que el lector deber mantener presente. As nos referiremos fi-ecuentementea experimentos no deterministaso aleatorios, cuando de hecho estamos hablando de un modelo no determinista para un experimento.) No pretenderemos dar una definicin precisa d e diccionario para este concepto. En su lugar, daremos numerosos ejemplos quela ilustran.
E1 : Se lanza un dado y se observa el nmero que aparece en la cara supcrior.

1 . 3

Ejemplos de experimentos no deterministas

Sc lanza una moncda cuatro vcccs y se cuenta el n i m e r o total d e caras obtenidas. Se lanza u n a monctln cuatro veces y se observa l a sucesin d e caras y scllos obtenidos. Sc h1)rican artculos cn una lnea de produccin y se cuenta el nQmcro de artculos dcfcctuosos producidos en un periodo d e 24 horns. E l ala d c 1111 acroplano se armacon un gran nnm-o de rernachcs. Sc cuenta el nillncrod c rcmachcs defectuosos. Se fabrica una bonlbilla. Luego se prueba s u duracin conect h d o l a e nun portakn1paras y se anota cl tiempo transcurrido (en horas) hasta quc se qucnm. En un lote d e 1 O artculos hay3 dcfectuosos. Se elige un artculo despus de otro (sin sustituir el artjiculo clegido) hasta que se obtiene cl illtinlo artculo dcfcctuoso. Sc cuenta el nmero total de artculos sacados dcl lotc. Se fabrican artculos hasta producir 10 no dcfectuosos. Se cuenta el nmero total de artculos manufkturados. Se lanza un proyectil. Dcsp1Ii.s de un tiempo dcterminado t , se y v2. anotan los tres componentes dcl a velocidad ' u z , vUy Elo: Se observa un proyectil recin lanzadoen ticmpos, t l , t z , . . . ,t n . En cada o p o r t ~ ~ n i d a se d anota l a a'ltura del proyectil sobre el suclo. El 1 : hfcdir l a resistencia a la tensin d e m a barra de acero. El2: De u n a urna que conticne slo esferas negras, se escoge una esfcl-a y se anota su color. E13: U n tc1-lngraro marca la temperaturacontinuamenteenun periodo de 24 horas. En un sitio y en una fecha senlados, "leer" dicho tcrmcigrafo. E l 4 : En la situacin descrita cn E13 se anmotan las temperaturas minima y mxima, 2 y y del periodo de 24 lloras considcrado.

aleatorio. a ) Es posiiblc rcpctir cada cspcl-imcnto en forma indefinida sin cambiar esencialmente Ins condicioncs. b ) Aunque cn gcncral no podcmos illdi,car cuA ser& un resultado f m d c u k a r , podemos dcscribir el conjunto de todos los resultados posibles

?Qui. ticncn cn comn los expcrilncntos anteriores? Los siguientes d c un exl):l,pri?nento aspectos son importantes para nucstra descripcin

del expcrinlcnto.

10

Introduccin

a la probabilidad

1.4

c) A medida queel experimento se repite, los resultados individuales parecen ocurrir en forma caprichosa. Sin embargo, como el experimento se repite un gran nmero deveces, aparece un patrn definido o regularidad. Esta regularidad hace posible la construccin de un moMs delo matemtico preciso con el cual analizamos el experimento. adelante abundaremos sobre la naturaleza e importancia d e esta regularidad. Por el momento,el lector slo necesita pensar en lanzamientos rcpetidos de una moneda regular. Aunque las caras y sellos aparecern sucesivamente de manera casi arbitraria, es bien conocido el hecho emprico d e que, despus de un gran nmero de lanzamientos, la proporcin d e caras y sellos ser aproximadamente igual. Debe notarse que todos los experimentos antes descritos satisfacen estascaractersticasgenerales.(Porsupuesto,laltimacaracterstica mencionada solamente se puede verificar por experimentacin; dejaremos a la intuicin del lector creer que si el experimento se repitiese un gran nmero de veces, la regularidad mencionada sera evidente. Por ejemplo, si se probase un nmero de bombillas del mismo fabricante, posiblemente el nmero debombillas quemadas, digamos en ms de 100 horas, podra ser predicha con bastante exactitud.) Ntese que el experimento E12 tiene la peculiaridad de que slo es posibleun resultado. En general, tales experimentos no sern de inters, porel hecho de que no sabemos qu resultado particular ocurrir cuandose realice un experimentoy que lo hace interesante para nosotros.
Obseruacin: Al describir los diversos experimentos, hemos especificado no slo el procedimiento que se realiza, sino tambin lo que estamos interesados e n observar (ver, por ejemplo, la diferencia entre E2 y E3. ste es un punto muy importante al cual nos referiremos ms adelante cuando estudiemos las variables aleatorias. Por el momento, observemos simplemente que, como una consecuencia de un solo procedimiento experimental o la ocurrencia d e un solo fcnmeno, se pudieron calcular varios valores numricos diferentes. Por ejemplo, si se elige una persona entre un gran grupo (y la eleccin propiamente dicha se hace seglin el procedimiento experimental antes indicado), podramos estar interesados en la altura, peso, ingreso anual, nilmero dehijos, etc., de la persona. Naturalmente, enIn mayora d e los casos sabemos, antesde comenzar nuestro experimento, las caractersticas numkricas que nos interesan.

1.4 El espacio muestra1


Definicin. Con cadaexperimento E deltipoqueconsidcramos, definimos el espucio m u e s t d como el conjuntod e todos los resulta-

1 . 4

El espacio muestral

11

dos posibles d e E. Usualmcnte designarnos este conjunto como S . (En nuestro contexto,S representa el conjunto universal descrito previamente.) Consideremos cada uno de los experimentos anteriores y describamos el espacio muestrald e cada uno. El espacio muestral S; se referir al experimento E;.

S 1: (1,273, 4,576). S2 : { 0 , 1 , 2 , 3 , 4 } . S 3 : {Todas las sucesiones posibles de la forma a l , a2, a s , a4 donde cada ai = C o S segn si aparece cara o sello en el i-simo lanzamien to}. S, : {O, 1,2, ..., N } , donde N es el nmero mhximo que se pudo producir en 24 horas. instalados. S5 : {O, 1 , 2 , ...,M } , donde M es el nmero de remaches S6 : { t I t 2 01.

S 7 : {3,4,5,6,7,8,9,10j: SS : {10,11,12 ,...}. Sg : { wz, vy ,w 2 , I vz, vy ,vz nmeros reales;}. 2710: h l , ..., hn I h; 2 0,i = 1 , 2 , . . . , n } . s 1 1 : { S I S 2 O}. S 1 2 : {esfera negra}. S13: Este espacio muestral es el ms importante d e los que aquconsideramos. Prcticamente debemos suponer que la temperatura en cierta localidad especfica nunca puede subir o bajar con relaM y m. Fuera deesta restriccin, cin a ciertos valores, digamos debemos admitirla posibilidad d e q u e aparezca cualquier grfiEs posible que sta no tenga ca con determinadas caractersticas. saltos (esto es, representar una funcin continua). Adems, la grfica tendrh ciertas caractersticas (le suavidad que pueden resumirse en forma matemtica al decir que la grfica representa una funcin diferenciable. As, finalmente podemos enunciar que el espacio muestral es

{fI f
514:

una funcin diferenciable, que satisface

m 5 f(t)

5 Al,para toda t } .

{(z,y) I m 5 z 5 y 5 M } . Es decir, ,914 consta detodos los puntos que estn sobre y en un tringulo en el plano bidimensional z, y.

12

Introducci?t a la probabilidad

11 :

( E n este librono nos preocuparemos por los espacios mllcstrales dc la complejidad encontrada cn S1.3. Sin cmlnrgo, talcs espacios nlllestrales mAs avanzadas aparecen, pero para SII estudio sc ncccsitan ~natemfticas que las quc presuponemos.)

A fin dc describir 1111 espacio Inucsrral asociado con u n experimento, debcmos tcncr una idea 1111ly clara (IC lo qllc mcdirnos u observamos. Por tanto, deberiamos 11al)lar d c un cspacio Inllcstl-al asociado con un cspcrimcnto en vez de cl cspacio Inllcstral. A cstc rcspccto obsrvese l a diferencia cntrc y S2. Ntesc tambin qtle cl rcsllltado d c 1111cspc~-inlcnto no ncccsita ser un nilmcro. Por cjemplo, en Ex c a d a I-csulrndo cs una sucesi~l de caras y sellos. E n E9 y E 1 0 cada resultado collsistc cn u n \rector, mientras que cn E13 es una funci6n. ScrA importante an:tlizar d e n ~ l e ~ clonzwcro de rcsultados en un espacio mucstral. Surgcn tres 1)osiil)ilidatfcs:cl cspacio mucstral puede ser finito, infinito numcra1)le o i~lfinito no numcrablc. Iicfiribndose a los ejemplos anteriorcs, notenlos cluc S 1 , ,C3: S q , $95,S 7 y SI:! son finitos, S 8 es infinito numerable, y S G , Sg, ,$lo, S 1 1 , , S 1 3) I ,914 son infinitos no numerables. En este punto podra ser iltil comentar l a difcrencia cntrc un espacio muestral matcmticarnentc idcalizadoy uno I-calizablcdc manera experimental. Para estc prophsito, considcr-amos el cxpcrimcnto E6 y s u espacio mucstral asociado Es evidcnte quc cuando anotamos el tiempo total t durante el cual funciona una bond)illa, somos vctimas de la prccisi6n de nuestros instrumcntos dc mcdici6n. Supongamos que tcnemos un instrumcnto quc es capaz de marcar el ticmpo con dos cili-as decimales, por ejemplo16:43horas. Con esta rcstricci6n impuesta nucstro espacio muestra1 llcga a ser injnito numel-cdle: {0.0,0.01,0.02,. . . }. Aun ms, es m u y realista suponcr quc ninguna bonhilla puede durar posiblelncnte ms de I 1 horas, donde /I p o d ~ a scr u n nilmero muy grande. As, parece que si somos conlplcramcntc realistas cn l a descrip, considel-alldo u n espacio muescin d e estc espacio ~ n u c s t r a l cstamos t r a l j n i t o : {0.0,0.01,0.02,. . . , H } . El nillncro total d e resultados sera (11/0.01) + 1, q\Ie scra un nilnlero m t l y grande si I1 es n~ocic~-adan~ente 1 = 100. Rcsultal-a matem5ticamente mAs simgrande, por ejemplo, 1 ple y convenicntc sllponcr que todos los valores d e t 2 O son resultados a l como se dcfini posibles y, por tanto, considcrar cl cspacio m ~ ~ c s t r$56 en principio.

S,

S,.

1.5

Eventos

13

En virtud delos comentarios anteriores, varios d e los espacios muestrales descritos son ideales. En todas las situaciones subsiguientes, el espacio muestral considerado ser el que resulte ms conveniente en trminos matemticos. En la mayora de los, problemas no habr muchas dudas en cuanto a la eleccin apropiada del espacio muestral.
1.5 Eventos

Otra nocin bsica es el concepto de un evento. Un evento A (respecto a u n espacio muestral particular S asociado con un experimento E) es simplemente un conjunto de resultados posibles. En la terminologa d e conjuntos, un evento es un subconjunto del espacio muestral S. En vista de nuestra exposicin previa, esto significa que S mismo es u n evento y tambin lo es el conjunto vaco 0. Cualquierresultadoindividual tambin puede considerarse como un evento. Los siguientes son ejemplosd e eventos. Otra vez nos referimos a los experimentos antes anotados: A; se referiri a un evento asociado con el experimento E,.

ras que sellos. {O}; es decir, todos los artculos fuerlon no defectuosos. As: { 3 , 4 , ...,M } ; es decir, ms de dos rernaches fueron defectuosos. A6: {t I t < 3); es decir, la bombilla s e quema en menos de tres horas. A14: { ( z ,y) I y = z 20}; es decir, el mximo es 20 mayor que el mnimo.
Aq:

A l : Un nmero par ocurre; esto es, Al := {2,4,6}. A2: ( 2 ) ; es decir, ocurren dos caras. A S : {CCCC, CCCS, CCSC, CSCC, SCCC}; es decir, salen ms ca-

Cuando el espacio muestral S es finito o infinito numerable, todo subconjuntosepuedeconsiderarcomounevento. [Es un ejercicio fcil d e verificar, y que haremos en breve, si S tiene n elementos, hay exactamente 2n subconjuntos (eventos).l Sin embargo, si S es infinito no numerable, aparece una dificultad terica. Resulta que no cualquier subconjunto concebible se puedeconsiderarcomounevento.Por razones que escapan al nivel d e esta presentacin, ciertos subconjuntos no admisibles deben ser excluidos. Por fortuna, tales conjuntos no admisibles en realidad no aparecen en las aplicaciones y, por tanto, no nos interesarn aqu. En lo que sigue se supondr tcitamente que cada

14 Itztroduccin a la probabilidad

1.5

vez que mencionemos un evento ser la declase que nos est permitido considerar. Podemos usar ahora los diversos mtodos para combinar conjuntos (es decir, eventos)y obtener los nucvos conjuntos (es decir, eventos) que presentamos con anterioridad.

B (o ambos) ocurren. b) Si A y B son eventos, A n B es cl evento que ocurre si y slo si A y B ocurren. c) Si A es un evento,A es cl evento que ocurre si y slo si A n o ocurre. d ) Si z41,. . . , A , cs cualq~liercoleccin finita de eventos, entonces U = ;, A; es el evento que OCUI-re si y slo si al menos uno d e los eventos A; ocurre. e ) Si A l : . . . , A , es cualquicr coleccidn finita d e eventos, entonces ny==, A ; es el evento que ocurresi y slo si todos los eventos Ai ocurren. J) Si A l , . . . ,A,, . . . es cualquier coleccin infinita (numerable) de eventos, entonces uEl A ; cs el evento que ocurre si y slo si al menos uno de los cventos A ; ocurre. g) Si Al ~.. . , A , , . . . es cualquier coleccin infinita (numerable) d e eventos, entonces A l es el evento que ocurre si y slo si todos los eventos A ; ocurren. h ) Stlp6ngasc que S reprcscnta el espacio mucstral asociado con un experimento E y realizarnos E dos veces. Entonces S x S se puede utilizar para rcpresentar todos los resultados d e csas dos repeticiones. Es decir, (sl,s2) E S x S significa quc s1 result cuando se realiz E la primera vez y S? cuando se realiz E la segunda vez. i) Evidcntcmente, cl ejemplo h se puede generalizar. Consideremos n repeticiones d c u n espcrimcnto E cuyo espacio muestrales S. Entonces, S x S x . . . x S = { ( S ] , S ? , . . . ,,S,,), si E S, i = 1,. . . , T I } representa el conjunto dctodos los ~-csultados posibles cuando E se realiza n veces. En cierto sentido, S x S x . - x S cs un espacio mucstral en si mismo, o sea cl espacio mtlcstr-al asociado con n repeticiones d e E .

a) Si A

y B son eventos, A

U I? es

el evento que ocurre si y slo si i lo

nzl

Definicin. Se dice que dos eventos, A y B son mutuanzente e x c l y e n t e s si no puedcn ocurrir juntos. Expresamos esto escribiendo AnB = 0; cs dccir, la intcr-scccibn d e A y B es el conjunto vaco.

EJEMPLO1.4. Se prucbaunartefactoclectrdnico y seregistrasu tiempo total deuso, digamos t . Supongamos que el espacio muestral es { t 1 i 2 O}. Sean il, 4 y C tres eventos definidos como sigue:

1 .G

Frecuencia relativa

15

A = {t 1 t
Entonces,

< loo};

B = { t 1 50 5 t 5 200};

C = {t 1 t

> 150).

Como se estudi en la seccin anterior, una de las caractersticas bsicas del concepto de experimento es que nosabemos qu resultado si A es u n evento particular se obtendr al realizarlo. En otras palabras, A asociado con el experimento, no podemos indicar con certeza que ocurrir o no.Por lo tanto, llega a ser muy importantetratarde asociar un nmero con el evento A que medir, de alguna manera, la posibilidad de queel eventoA ocurra. Esta tarea nos conduce a l a teora de probabilidad.

l .6 Frecuencia relativa
Para motivar el planteamiento adoptado para la solucin del problema anterior, consideremos el procedimiento s8iguiente. Supngase que repetimos n veces el experimento E y sean A y B dos eventos asociados con E . Sean nA y ng el nmero respectivo de veces que el evento A y el evento B ocurricron en Ins n repeticiones.

Definicin. fA = nA/n se llamafrecuenci,u reldivadcl eventoA en las n repeticiones de E . La frecuencia relativa fA tiene las siguientes propiedades importantes, que son veri,ficables fcilmente.
1) 0 5 fA 5 12) f A = 1 si y slo si A ocurre cada vez en Ias n repeticiones. 3 ) fJi = O si y slo si 4 nunca ocurre en las n repeticiones. 4) Si A y B son dos eventos que se excluyen mutuamente y si filvg

es la frecuencia relativa asociada al evento A U B, entonces f ~ = n fA -k fB. 5) f A , basada en las n repeticiones del experimento y considerada para una funcin d e n, converge en cierto sentido probabilstico a P ( A ) cuando n + OO.

16 a Irttroduccin l a probabilidad

1.6

Observacin: La propiedad 5) obviamente est5 indicada d e manera vaga en este momento. Slo m& adelante (Sec. 12.2) podremos precisar ms esta idea. Por ahora indiquemos simplemente que la propicdad 5) encierra la nocin bastante intuitivade que la frecuencia relativa con base en un nmero creciente d e observaciones tiende a estabilizarse en la prosimidad de un valor definido. Esto no es lo mismo que el concepto corrientede convergencia que se encuentra en otra parte en matemticas. En realidad, como se indic aqu, Sta no es del todo una conclusin matemfitica, sino simplemente un hecho emprico. La mayor parte de nosotros intuitivamente estamos conscientes d e este fenmeno d e estabilizacin, aunque puede ser que nunca lo haynmos verificado. Hacerlo requiere una considerable cantidad de tiempo y paciencia, p que se necesita un gran nimero de repeticiones de un experimento. Sin embargo, algunas veces podemos ser observadores inocentes de este fenmeno, comolo ilustra el siguiente ejemplo.

EJEMPLO 1.5. Supngase que estamos parados en una acera y nos fijamos en dos losas d e concreto adyacentes. Imaginemos que empieza a llover d e tal manera que realmente podcmos distinguir unas gotas de otras y les seguimos la pista para averiguarsi caen en una losa o en otra. Continuamos observandolas gotas individualesy anotamos su punto de impacto. Simbolizando la i-sima gota por X;, donde X; = 1 si la gota losa y O si cae en la otra, podramos observar una sucesin tal cae en una como 1, 1, O, 1, O, O,O, 1, O, O, 1. Ahora est claro que no podemos predecir dnde caer la gota en particular. (Nuestro experimento consiste en una especie d e situacin meteorolgica que origina la cada d e las gotas de lluvia.) Si calculamos la frecuencia relativa del evento A = {la gota cae en la losa l}, entonces la sucesin anterior d e resultados da origen a las frecuencias relativas si uientes (con base en la observacin 2 3 3 3 5 4 4 4 5 d e 1, 2, 3, . . . gotas): 1,1,3 , T , 3 , 7 , F, i5, m,n,. . . Esos valores muestran un grado considerable de variacin, especialmente a l comienzo. Intuitivamente es claro que si continuara en forma indefinida el experimento anterior, esas frecuencias relativas se estabilizaran prximas al Porque tenemos toda la razn para creer que despus de que valor haya transcurrido cierto tiempo, las dos tosas estaran igualmente mojadas. Esta propiedad de estabilidad d e la frecuencia relativa es an una nocin bastante intuitiva y slo m& tarde podremos precisarla matemtiesta propiedad es quesi un experimento se camente. Lo importante de realiza un gran nmero deveces, la frecuencia relativa con que ocurre un eventoA tiende a variar cadavez menos a medida que el nmero de

i.

1.7

de

bdsicas Nociones

probabilidad

17

repeticiones aumenta. A esta caracterstica s e le designa como regulari&d estadisticu. Tambin hemos sido algo imprecisos en nuestra definicin de experimento. Exactamente, cundo un procedimiento o mecanismo, en el sentido que le estamos dando, es un experimento susceptible de estudiarse rnatemticamcnte mediante un modelo no determinista? Antes y otra vez indicamos que debe ser posible efectuar un experimento una sin cambiar las condiciones esenciales. Allora podemos agregar otro requisito. Cuando el experimento se realiza repetidamente debe presenMs adelante tar la regularidad estadstica a la que antes nos referimos. estudiaremos un teorema (llamadola ley d e los grandes nmeros) que consecueizciu d e muestra quela regularidad estadstica es en realidad una la primera condicin: la repetibilidad.

1.7 Nociones bsicas de probabilidad

Volvamos ahora al problema antes propuesto: asignar un nmero a cada evcnto A que medir l a posibilidad dte que A ocurra cuando el experimento se realiza. Un planteamientoposible podra serel siguiente: veces, calcular la frecuencia repetir el experimento un gran nmero de relativa fA y usar este nmero. Cuando recordamos las propiedades , claro que este nmero da una indicacin muy definida d e d e f ~ est que posibilidad existe de que A ocurra. An ms, como sabemos que el experimento se repite ms y ms veces, 1.a frecuencia relativa fA se estabilizacerca de algn nmero, digamos p . Sin embargo, hay dos objeciones serias a este planteamiento. a) IVo est claro cuan grande conozcamos el nmero. lOOO? 2000? 10 OOO? debe sern antes de que b) Una vez que el experimento se ha descrito por completo y se ha especificado el evento A , el nmero que buscamos no debe depender la del experimentador o de una racha de suerte en particular con que 1 experimenta. (Por ejemplo, es posible que con una moneda se lanz 10 veces resulte 9 caras y 1 sello. perfectamente balanceada que La frecuencia relativa del evento A = { salen caras} es as igual a m. 9 Aunque es posible que en los 10 lanzamientos siguientes el modelo d e caras y sellos puede estar invertido.) Lo quc queremoses un medio de obtener tal nmero sin recurrir a la experimentacin. Por supuesto, para que el nmero estipulado sea significativo, cualquier experimento debera dar una frecuencia relativa cercana al valor estipulado, en en cuales se calcul l a frecuencia especial si el nmero de repeticiones las relativa es muy grande. Procederemos formalmente como sigue.

probabilidad 18 la Introduccirt a

1.7

Definicin. Sea E un experimento y S un espacio muestral asociado con E . Con cada evento A asociamos un nmero real, designado con P ( A )y llamadofirobahilidad de A, el cual satisfacelas siguientes propiedades.

1) O 5 P ( A ) 5 1. 2) P ( S ) = 1. 3) Si A y B son eventos que se excluyen mutuamente, P(,4 U B ) = P(A) P(B). 4) Si A l , A2,. . . ,A,,, . . . son eventos que se excluyen mutuamentede par en par, entonces

Observemos que de la propiedad 3 se deduce de inmediato que para cualquier n finito,


/ n
\

La propiedad 4 no se sigue; sin embargo, cuando consideramos el espacio muestral idealizado, esta condicin ser necesariay, por tanto, se incluye aqu. La eleccin de estas propiedades de la probabilidad est obviamente motivada porlas caractersticas correspondientesd e la frecuencia relativa. La propiedad antes mencionada como regularidad estadstica, ms tarde se ligar con esta definicin d e probabilidad. Por el momento slo demostraremos quelos valores d e P ( A )y f~ estn prximos uno al otro (en cierto sentido), si f~ se basa en un gran nmero de repeticiones. Este hecho es el que justifica el empleo de P ( A ) para medir la probabilidad de queA ocurra. Por el momento nosabemos cmo calcular P ( A ) . Slo hemos anotado algunas propiedades generales que poseeP ( A ) . El lector deber tener un poco ms d e paciencia (hasta el prximo captulo), para aprender cmo calcularP ( A ) .Antes d e volver aeste tcma indiquemos y probemos P ( A ) que se deducen de las condiciones, varias consecuencias relativas a y que en realidad no depende de cmo calculamos P ( A ) .

Teorema 1.1.. Si 0 es el conjunto vaco, entonces P ( 0 ) = O.

1.7

probabilidad Nociones de bsicas

19

Demostracin: Podemos escribir, para cualquier eventoA , A = A U 8. Puesto que A y 0 son mutuamente excluyentes, de la propiedad 3 se deduce que P ( A ) = P ( A U 0) = P ( A )+ P(0). A partir deesto la conclusin del teoremaes inmediata. Obseruacidn: Ms adelante tendremos ocasin de ver que el recproco del teorema anterior no es verdadero. Esto es, si P ( A ~= I O, en general no podemos concluir que A = 0, porque hay situaciones en que asignamos probabilidad cero a un evento que puede ocurrir.

Teorema 1.2. Si A ' es el evento complementario de A, entonces

P ( A ) = 1- P ( A C )

(1.4)

Demostracin: Podemos escribir S = A U A ' y, usando las propiedades 2 y 3, obtenemos 1 = P ( A ) P ( A C ) .

Obseruacwn: Este es un resultado muy til porque indica que cada vez que deseamos calcular P ( A ) en su lugar podemos calcular P ( A C ) y obtener el resultado deseado porsustraccin. Despus veremos que en muchos problemas es & S fcil calcular P ( A C ) que P ( A ) .

Teorema 1.3. Si A y B son eventos cualesq:uieru, entonces

P ( AU B ) = P ( A )

+ P ( B ) - P ( : An B ) .

AnB

AnB

FIGURA 1.2
Demostracin: La idea d e esta demostracin es, descomponer A U B y B e n eventos que se excluyen mutuamente y luego aplicarla propiedad 3. (Vase el diagrama d e Venn en la Fig. 1.2)

20 Introduccin a la probabilidad
A s escribimos

1.7

Por lo tanto,
P(Au U )= P(A)

+ P ( B n A"), P ( D ) = P ( A n U )+ P ( U n 1 F j .

Sustrayendo la segunda ecuacin d e la primera, tenemos

P ( A u U ) - P ( B ) = P ( A )- q . 4 n U )

y, por tanto, se obtieneel resultado.


Obsernaciu: Este teorcma representa una extensin oljvia de la propiedad 3 , porque si A n L? = 0, d e lo anterior obtenemos el enunciado de la propiedad 3 .

Teorema 1.4. Si A , I3 y C son tres eventos cualesquiera, entonces

y aplicar el resultado del teorema anterior. Dejamos los detalles al lector.


Observacin: Una extensin obvia dcl teorema anterior misma. Sean A l , . . . , A k k eventos cualesquiera. Entonces
k

Demstrucwu: La demostracin consiste en escribir A u B u C como (AuB)uC

se sugiere por si

k
i<j=2

i=l

P ( A ; n ~j n A,>
i<j<r=3

+ ...+ ( - I ) ~ - I P ( A ~

n A:, n . . . n Ak).
(1.7)

Este resultado se puede establecer fAciimente por induccin matemtica.

Teorema 1.5. Si A

c U , entonces P ( A ) 5

P( B ) .

1.8

Varias obserzmciones

21

Demostracin: Podemosdescomponer B en dos eventos que se escluyen mutuamente como sigue: L3 = A U ( B n A'). P'or lo tanto, P ( B ) = P ( A ) + P ( B n A ) 2 P ( A ) ,puesto que P ( B n A C )2 O, segn la propiedad 1. Obseruacin: Este rcsultado es intuitivamente atractivo, porque dice que si B debe ocurrir cada vez que A ocurre, entonces B (3s al menos tan probable como A .

1 .S Varias obsemaciones
a ) Cabe aqu una advertencia.De la exposicih previa se podra inferir

(incorrectamente) que cuando elegimos un modelo probabilstico para la descripcin d e algimfenmeno observalble descartamostodas las relacionesdetcrministas.Nadapuedeestarms lejos d c la verdad. Mantenemos todava el hecho dc que, por ejemplo, la ley de Ohm I = E / R esvlida en ciertascircunstancias. La diferenciaser d e interpretacin. E n vez d e decirque la rcl.;~cinanteriordetermina I para E y R dadas,reconoceremosque E o R, o ambas,pueden variardeunamaneraaleatoria e imprecisa y que, por lo tanto, I variar tambin de una manera aleatoria. ]'al-a E y IL dudas, todava I se determinapor la relacinanterior. Lo importante es cuando adoptamos un modeloprobabilstico para la descripcin de un circuito, consideramos la posibilidad d e que E y R pueden variar de manera imprecisa que slo se puede describir probal;ilsticarnente. h i , puesto que ser importante considerarslo la jwobubilidad de que E y R tomen ciertos valores, llega a ser significativo hablar slo de la probabilidad d e ql1e I tome ciertos valores. 6) La cleccin entre adoptar un modelo determinista o probabilstico lo intrincado en algunasocasiones puede ser dificil. Puede depender dc de nuestra tcnica de medicin y la precisin asociada. Por ejemplo, si las medidas precisas son tan dificiles de obtener que las lccturas reperidas d e la misma cantidad produzcan resultados variables, un modelo probabilstico es sin duda ms adecuado para describir la situacin. c ) Sealaremos en forma breve que ciert.as en circunstancias podemos hacer suposiciones adicionalcs acerca d e la conducta probabilstica d e nuestros resultados experimentales que nos conducirn a un mtodo para evaluarlas probabilidades bsicas. La eleccin d e esas suposiciones adicionales puede basarse en consideraciones fisicas del experimento o, (ciertas propiedades de simetra, por ejemplo), evidencia emprica en algunos casos, simplcnlenteunjuiciopersonalconbaseenuna

22

Introduccilt a la probabilidad

1.8

csperiencia prcvia ante una situacin similar. Lafrecuenciarelativa f , ~puede tener un papel importante cn nuestra decisin acerca de una asignacin num6rica dc P ( A ) . Sin embargo, es importante darse cuenta d e q u e cualquicr suposicin que hagamos accrca de P ( A ) debe ser tal que sc satisfagan los axiomas bsicos del 1) al 4) d e la definicin 1.3. d ) En cl transcurso del desarrollo d c las idcas bkicas de la teora d e probabilidad haremos algunas referencias a cicrtas analogas con la mecnica. La prinlcra d c ellas puede ser apropiada aqu. En mecnica asignamos la masa a cada cuerpo B , digamos m ( B ) . Luego hacemos d e la conducta varios clculos y llegamos a diversas conclusiones acerca d e B y su relacin con otros cuerpos, muchos d e los cuales implican sumasa m ( B ) . El hecho de que en realidad tengamos que recurrir a alguna aproximacin para obtener nz(B) para un cuerpo especfico nodisminuye la utilidaddelconcepto d e masa.Deigualmanera, establcccmos para cada evcnto A , asociado con el espacio muestra1 d e un experimento, un nmero P ( A ) llamado la probabilidad d e A y que satisrace los axiomas bsicos. En realidad, al calcular P ( A ) para o bicn un evento especfico, tenemos quc hacer hiptesis adicionales obtener una aproximacin basada en evidencias empricas. e ) Es muy importante darnos cuenta de que hemos postulado la exisP(4)y que hemos postulado ciertas propiedades que tencia del nmero posee este nmero. La validez d e las diversas consecuencias (tcoremas) derivadas deesos postulados de ninguna manera depende de cmo obtenemos un valor numrico para P ( A ) . Es vital aclarar este punto. Por ejemplo, hemos supuesto queP(A U B ) = P ( A ) P ( B ) . A fin de usar esta relacin para la evaluacion rcal d e P ( A U B ) , debemos conocer el valor d e P ( A ) y de P ( B ) .Analicemos brevemente cmo, en ciertas circunstancias, debemos hacer suposiciones adicionales que conduzcan a un mtodo para evaluar esas probabilidades. Si estas (u otras) suposiciones no cstn garantizadas, debemos recurrir a la experimentacin para aproximar el valor d e P ( A ) de los datos reales. La frecuencia relativa f~ desempeliar5 un papel destacado en esto y, d e hecho, se usar como una aproxinlacibn d e P ( A ) . Sin embargo, es importante tener presente que f~ y P ( A ) no son lo mismo, que slo usamos fjl comoaproxilnaci6nde P ( A ) , y que cada vez que nosrcferimosa P ( A ) noscstamos refiriendo al valor postulado. Si idcntificamos fyi con P ( A ) debernosdarnoscuenta que simplcmentc sustituimos un valor postulado por uno aproximado obtenido en forma expcrimental. Qu tan buena o mala pueda ser esta aproximacin, de ninguna manera illfluye en la estructura lgica

Problemas 23

dc nuestro modelo. Aunque el fcnmcno que pretende representar cl modclo sc consider a l construirlo, nos hemos separado del fenmeno mismo (temporalmente al mcnos), cuando entramos en el dominio del modelo.

PROBLEMAS
los siguientes conjuntos.
U)

1 a 10. Sean

1.1. Supngase que el conjunto universal consta d e los enteros positivos d e A = { 2 , 3 , 4 } , B = { 3 , 4 , 5 } y C = { . T , G , 7). Anote los elementos d e

1.2. Supngase que el conjunto universal U esd dado por U = {x I O 5 z 5 2). Sean los conjuntos A y B definidoscomosigue: A = {x I < 2 5 1) y B = {z I 5 2 5 Describa los conjuntos siguientes:

ACn B b ) ACu B

C)

(AC n

d ) ( A n ( B n C)')'

e ) ( A n ( B u C))"

i}.

a)(AUB)cb)AUBcc)(AnB)Cd)ACnB

(AUB)n(AUC)=AU(BnC) b)(AuB) =(AnBc)uB ACnB=AUB d)(,4~B)~nc=A~nB~nC~ e) ( A n B ) n ( B C n C ) = O


a)
C)

1.3.{Cules d e las siguientes relaciones son verdaderas?

1.a. Supngase que el conjunto universal consta de todos los puntos (x, y) cuyas coordenadas son enteros y quedan dentro o sobre el contorno del cuadrado acotado por las rectas z = O, y = O, x = G y y = B. Indique los elementos d e los conjuntos siguientes.
a)

c)

A = {(Z,Y) I + Y2 I 6) b)B = {(Z,Y) I 5' I x 2 ) C = {(z,YI 2 5 y2) d)B n C e ) ( B u A ) n Cc

1.5. Usar los diagramas de \enn para establec'er las siguientes relaciones.

1.6. Los artculos provenientes de una lnea d e produccin se clasifican como defectuosos ( D ) o no defectuosos ( N ) . Se observan los artculos y se anota su condicin. Este proceso se continila hasta que seproduzcandos artculos defectuososconsecutivos o se verifiquen cuatro artculos, cualesquiera que ocurra primero.Describir 1111 espacio muestra1 para este experimento.

a ) A c B y B c C implican que A c C b ) A c B implica q11e A = A n B c ) 11 c U implica que BC c AC d ) A c B implica que A U C c B U C e ) A n B = 0 y C c A implica que B n C = 0

1.7. a ) Una caja con N bombillas tiene v(v < N ) unidades con filamentos rotos. ESLIS se prueban una por una, hasta que :;eencuentra una defectuosa. Describir un espacio muestra1 para este expcrimcnto.

24 Introduccin a la probabilidad
b) Supnpzm que las bombillas anteriores se prueban una por una, hasta que se prueban todas las defectuosas. Describir el espacio mnestral para este

experimento.

1.8. Considkrcnse cuatro objetos, n , b, c y d. S u p n p e que el oulen en el cual se anotan esos objetos representa el resultado de un experimento. Sean A y B los eventos definidos como sigue: A = { a est5 en el primer l u p r } ; B = { b cst5 en el segundo lug}.
a ) Anotar

1.9. Un lote contiene artculos que pesan 5, 10, 15,..., 50 libras. Supngase qne al menos dos artculos d e cada pcso se encuentran all. Se eligen dos artculos dcl lote. Identifiquese con S el peso del primer articulo elegido y con I cl pcso del segundo artculo. As, el par de nlimcros ( X , Y representa ) un solo resultado dcl experimento. Usando el plano STY,indiquese el espacio muestral y los eventos siguientes.

todos los elementos del espacio muestral. b) h o t a r todos los elementos de los eventos A n B y il U D .

{ S = I } b ) {Y > S } c ) El segundo ardculopesa el doblc del primero. d ) E1 primer artculo pesa 10 libras menos que el segundo. e ) El promcdio d e peso de los dos artculos es menos de 30 libras.
a)

1.10. E n un periodo de 21 horas, en u n momento S , un interruptor se pone en la posicin cnccnditlo. Posteriormente, en un momento Y (en el rnisnlo periodo d e 2.1 horas), el interruptor se pone en la posicin apagado. Supcingase que X y Y se miden en h o r a e n el eje de tiempo conel comienzo del periodo como origen. El resultado del experimento consta delpar denlimeros ( S , 1).

Describir el espacio mucstral. b ) Describir y dibujar los siguientes eventos en cl plano SI. i) El circuito funciona durante una hora o menos. ii) El circuito hnciona en el tiempo z, donde z es 1111 instante durante el periodo tlado tlc 2.1 horas. iii) 1 1 circuito empieza a funcionar a n t a del tiempo t l y deja de funcionar despus del ticlnpo t 2 (tlontlc otra~ e 11 z < 12 son dos instantesd e ticmpo durante el periodo especificado). iu) El circuito funciona cl doble de lo que est5 apagado.
a)

1.1 1 . Scan :I, B y C tres eventos asociados con un experimento. Expresar las siguientes proposiciones \~erbales en notacin d e conjuntos.

mcnos uno d e los eventos ocurre. 0) Exactamente uno d c los eventos ocurre. c) Exactamente d o s dc los eventos ocurren.
a ) ill

Problemas
d ) No ocurren ms d e dos eventos simultjnearnente.
l . 12. Demostrar el teorema 1.4.

25

1.13. a ) Demostrar que para dos eventos cualesquiera, A l y A2, tenemos P(Al u A2) 5 P(A1) P(A2). b ) Demostrar q u e para n eventos cualesquiera A l , . . . A,, tenemos

P(A1 U . . . U A , ) 5 P(A1)

+ . . + P(A,).

[Sugerencia: Usar una induccin matemiltica. IC1 resultado que se indica en b ) se llama desigualdad de Boole]
1.14. El teorema 1.3 tram d e la probabilidad de que u1 menos uno de los eventos A o B ocurra. La proposicin siguiente t.rata de In probabilidad de que exuctanwnte uno de los eventos A o B ocurra. Demostrar que P[(A n l ? ' U ) ( B n A ' ) ] = P ( A ) P ( B ) - 2P(A n B ) .

1.15. Cierto tipo d e motor elctrico falla por obstruccin d e los cojinetes, por combustin del embobinado o por desgaste (de las escobillas. Supngase que la probabilidad de la obstruccin es del dob'le d e la combustin, la cual es cuatro veces ms probable que la inutilizacin de las escobilla. ?Cul es la probabilidad de quela falla sea por cada uno deesos tres mecanismos?.
l . 16. Supngase que A y B son eventos para 10:s cuales P ( A ) = x, P ( B ) = y, y P ( A n B ) = L. Expresar cadauna de las probabilidades siguientesen trminos d e x,y y L.
a ) P(ACU B C )

b ) P(ACn B ) c) P ( A CU l?) d') P ( A Cn O")

al menos uno delos eventos A, B o C ocurra.

i, P ( A n B ) = P(C n B ) = O y P ( A n C) = 8. Calicular la probabilidad d e que

1.17. SupngasequeA, B , yCsoneventostalesqueP(A) = P ( B ) = P ( C ) =

l . IS. Una instalacin consta de dos calderas y un motor. Sea A el evento d e que el motor est en buenas condiciones, mientras que los eventos BI, ( k = 1, 2) son los eventos de que la k-sima caldera esten buenas condiciones. El evento C es que la instalacin pueda funcionar. Si la instalacin funciona cada vez que el motor y al menos una caldera funcione, expresar C y C" en trminos d e A y de los eventos d e B;. l . 19. Un mecanismo tiene dos tipos d e repuestos, digamos I y 11. Suponga que hay dos del tipo I y tres del tipo 11. Definir 110s eventos AI,, k = 1 , 2 y B j , j = 1 , 2 , 3 como signe: AI,: la k-sima unidad del tipo I est funcionando correctamente; Bj: la j-sima unidad del tipo I1 est5 funcionando correctamente. Finalmente, C representa el evento: el mecanismcl funcionan. Dado que el mecanismo funciona si a1 menos una unidad del tipo I y dos unidades deltipo I1 funcionan, exprese el evento C en trminos d e las AI, y las Bj.

2.1 El espacio muestra1 finito

En este captulo nos ocuparemos slo d e los experimentos para los cuales el espacio muestra1 S consta de un nmerofinito de elementos. Es decir, suponemos que S se puede escribir como S = { a l , a 2 , . . . ,al;}. Si nos referimos alos ejemplos d e espacios muestrales d e la seccin 1.4, observamos que SI, S2,S3,Sq, S,, S7 y S12 son todos finitos. A fin de caracterizarP ( A ) en este modelo consideraremos primero el evento que est constituido por unsolo resuluclo, llamado algunas veces evento elemental, digamos A = { a ; } .Procedemos como sigue. A cada uno de los eventos elementales{ui} asignamos un nmerop i , llamado la probabilidad d e { a ; } que , satisface llas condiciones siguientes: a) p ; 2 o, i = 1 , 2,...)k ,

b, p1 + p 2 + * * ' $ p k = 1. [Puesto que { a i } es un evento, estas cond:iciones deben ser consistentes con las postuladas para las probabilidades d e eventos en general, como se hizo en la ecuacin (1.3). Es muy sencillo verificar que esto es as.]

28

Espacios muestrales j k i t o s

2.2

A continuacin, supongamos que un evcnto A est constituido porr resultados, 1 5 r 5 k , digamos

donde j , , j,, . . . , j , representa cualesquiera indices T de 1,2,.. . b . Por lo tanto, d e la ecuacin ( 1.3), propiedad 4, se deduce que

Para resumir: la asignacin d e probabilidades p ; a cada uno de los eventos elementales { a ; } , sujeto a las condiciones anteriores u ) y b), determina de un modo nico P(r-I)para cada uno de los eventos A c S , donde P( A ) est dado por la ecuacin (2.1) Para evaluar las p j , se dcben hacer algunas suposiciones respecto a los resultados individuales.

EJEMPLO 2.1. Supongamosque slo tresresultadosson posibles en un experimento, digamos a l , a2 y 3 . Adems, supongamos que la ocurrencia d e u1 es dos \ w x s m5s probable que la d c u2, la cual, a su vez, cs dos veces mis probable que(13.

p 3 = $1,

p , = 72

Y p1=7 4

2.2 Resultados igualmente probables


La suposicin que 1115s conlilnmcnte se hace para espacios muestrales finitos es q11c todos los resultados son igualmcntc probables. De ninguna manera esta suposicin puede darse como un hecho; debc justificarse con cuidado. Hay muchos experimcntos para los cuales se garantiza tal suposicin, pero tambin hay muchas situaciones experimentales en las cuales sera un crror hacertal suposicin. Por ejemplo, sera muy poco realista suponer que es tan probable no recibir llamadas telcfnicas en una central cntre la 1 A M . y 2 AM. como cntre las 5 P M y las G P M Si los b resultados son igualmente probables, se deduce que cada p i = l / b . Porque la condicin p , + p , = 1 se convierte en k p ; = 1

2.2

Resultados igualmente probables 29

para toda i. De esto se deduce que para cualquier evento A que conste de r resultados, tenemos

P(A)= r / k .
Este mtodo de evaluar P ( A ) a menudo se indica como sigue:

P ( A )=

nmero de maneras en que E puedle ocurrir favorable a A nmero total de maneras en que E puede ocurrir

Es importante comprender que la expresiln anterior deP ( A ) es slo una consecuencia de la suposicin de quetodos los resultados son igualmente probables y slo es aplicable cuando s e satisface esta suposicin. Sin duda no sirve como una definicin general de probabilidad.

EJEMPLO 2.2. Se lanza un dado y se supone quc todos los resultados son igualmente probables. El evento A ocurre si y slo si aparece un nmero mayor que 4. Esto es, A = {5,6}. Por lo tanto, P ( A ) =
1 +s =;2 6.
. . r r

EJEMPLO 2 . 3 . Selanza unam6nedanormaldos veces.Sea A el evento: {aparece unacara}.' Para evaluarP ( A ) un anAlisis del problema podra ser d e la ma-nera siguiente. El espacio muestral es S = {O, 1,2}, donde cada uno de los resultados representa el nmero de caras que Este anlisis es obviamente inocurren. Por lo tanto, P ( A ) = correcto, puesto que en el espacio muestral antes considerado, todos los resultados no son igualmente probables. A fin d e aplicar el mtodo anterior deberamos considerar, en su lugar,elespacio muestral S' = {CC, C S , SC, S S } . En este espacio muestral todos los resultados son igualmente probables y, por lo tanto, obtenemos para la solucin correctadenuestroproblema, P ( A ) = = ?\. Podramosemplearen forma correcta el espacio muestral S como sigue: los resultados O y 2 son igualmente posibles, mientras que ei resultado 1 es probablemente el doble d e cada uno de los otros. Por lo tanto, P ( A ) = $, lo cual concuerda con la respuesta anterior.

i!

Este ejemplo ilustra dos puntos. Primero, debemos estar seguros por completo de quetodos los resultados que se pueden suponer son igualmente probables antes de utilizar el procedimiento anterior. Segundo,

30 Espacios muestrales finitos

2.3

a menudo podemos reducirel problema a uno, en el cual todos los resultados son igualmente posibles, mediante una eleccin apropiada del espacio muestral. Cada vez que sea posible se debe hacer esto, puesto que en general simplifica los clculos. En ejemplos subsecuentes se tratar nuevamente este punto. h4uy a menudola manera comose realiza un experimento determina si los resultados son o no igualnlente probables. Por ejemplo, supongamos que vamos a escoger un perno de una caja que contiene tres de tamafio diferente. Si elegimos el perno acerchdonos a la caja y sacamos el primero que tocamos, es obvio que el perno ms grande tendri una probabilidad mayor de ser escogido que la d e los otros dos. Sin embargo, si rotulamos con cuidado cada perno con un nmero escrito en una etiqueta, y elegimos una de ellas, se puede asegurar que cada perno, de hecho, tienela misma probabilidad de ser escogido. As quizs tengamos que afrontar considerables dificultades para asegurarnos que la suposicin matemtica de resultados igualmente probables es d e hecho apropiada. En ejemplos anteriores y muchos otros subsecuentes, nos interesal a eleccin al azard e uno o mris ohjctos de unacoleccin dada. Definamos con mayor precisin esta nocin. Supongamos que tenemos N objetos, digamos a l , a ? , . . . ,abr. a ) Escoger al m a r un objeto d e los N objetos, significa que cada uno de ellos tiene la misma probabilidad de serelegido. Esto es, Prob (clegir u ; ) = ] / N ,

i = 1 , 2 , . . ,N .

b) Escoger al azar dos o6jetos entre N objetos significaque cada uno de los prcres d e objetos (sin considerar el orden) tienela misma probabilidadd e ser escogido que cualquier otro par. Por ejemplo, si debemos elegir dos objetos al azar d e ( u l ,a2, a 3 , u 4 ) , y luego obtener a l y a2 es tan probable como obtener a2 y a s , etc. Esta afirmacin nos lleva de inmediato a la cuestin d e curintos pares diferentes hay. Supongamos que hay K d e talcs pares. Entonces, la probabilidad d e cada par sera l/K. Muy pronto aprenderemos a calcularK . c ) Escoger al azar n objetos (n. 5 N ) entre N objetossignifica que cada n-tupla, digamos o i l , n i 2 , . . . ,n i n , tiene tantas probabilidades d e ser elegida como cualquier otra n-tupla.
Obsemacwlz: Anteriormente pa sugeri~nos que se debe tener mucho cuidado en In parte experimental para asegurar que la suposicin matem5tica de cscoger al azar se cumpla.

2.3

2.3 Mdtodos de enumeracidn

175991

Mtodos de enumeracin 3 1

Tenemos quk hacer una digresin a fin de aprender cmo enumerar. Nuevamente consideraremos la forma anterior de P ( A ) , llamada P ( A ) = r / b , donde E es el nmero total de maneras en que E puede ocurrir, mientras que r es igual al nmero de maneras en que A pued e ocurrir. En los ejemplos presentados hasta ahora, se encontr poca dificultad para calcular r y E . Pero es necesario considerar situaciones ligeramente ms complicadas para apreciar l,a necesidad de contar sistemticamente o d e procedimientos de enumeracin.

EJEMPLO 2.4. Un lote d e 100 artculoscontiene 20 defectuosos y 80 no defectuosos. Se eligen 10 artculos al azar, sin sustituir un artculo antes d e elegir el prximo. Cules la probabilidad de que exactamente la mitad d e los artculos escogidos sean defectuosos?
Para analizar este problema, consideremos el siguiente espacio mueslos elementos d e S consta tie 10 artculos posibles del tral S. Cada uno de lote, digamos ( i l , i2,. . . ,i l o ) . Cuntos hay d e tales resultados? Y entre estos resultados, cuntos tienenla caracterstica de que exactamente la mitad sean defectuosos? Evidentemente necesitamos saber la respuesta a tales interrogantes para resolver el problema propuesto. Muchos problemas similares dan origen a preguntas adlogas. En las prximas secciones presentaremos algunos procedimientos sistemAticos de enumeracin.

A. Principio de multiplicacin. Supongamos que un procedimiento, designado como 1, puede hacerse d e nl maneras. Supongamos que un segundo procedimiento, designado como 2, s'e puede hacer de 722 maneras. Tambin supongamos que de las de maneras efec"2 una cada tuar 1 puede ser seguida por cuallas maneras d e efectuar "2 de quiera 2. Entonces el procedimiento que por 2 se puede "2 consta de 1 seguido hacer d e nlnp maneras. indicarPara la validez d e este "2 principio es ms sencillo consideplanteamiento esLl rar el siguiente quemtico. Consideraremos un FIGURA 2.1

32 Espacios muestrales fitritos

2.3

punto P y dos rectas, digamos L1 y L2. El procedimiento 1 consiste en i r d e P a L1, mientras queel procedimiento 2 consiste en ir de L1 a L2. La figura 2.1 indica cmo se obtiene el resultado final.
Observacin: Obviamente este principio puede extenderse a cualquier nmero de procedimientos. Si hay k procedimientos y el i-simo procedimiento se puede hacer den; maneras, i = 1 , 2 , . . . , k entonces el procedimientoque consiste en 1, seguido por 2,. . . ,seguido porel procedimiento k puede hacersed e n1n2 . . . n k maneras.

EJEMPLO 2.5. Un artculo manufacturado debe pasar por tres controles. En cada unod e ellos se inspecciona una caracterstica particular del artculo y se le marca d e conrormidad. En el primer control hay tres mediciones posibles, mientras que en cada uno delos dos idtimos controles hay cuatro mediciones posibles. Por lo tanto, hay 3 . 4 . 4= 45 maneras de marcar el artculo.
B. Principio de adicin. Supongamos que un procedimiento, designado con l, se puede hacer de n l maneras. Supongamos que un 2, se puede hacer den2 manesegundo procedimiento, designado con ras. Supongamos adems que no es posible que ambos, 1 y 2, se hagan juntos. Entonces, cl nmero de maneras como se puede hacer1 o 2 es
nl

Usemos otravez el planteamiento esquemritico para convencernos de la validez del principio d e adicin, como se indica en la figura 2.2.
P

+ 722.

Observacin: Tambin este principio puede generalizarse como sigue: si hay k , procedimientos y el i-simo procedimiento se puede hacer en n; maneras, i = I , 2 , . . . , k , entonces el nmero de maneras como podemos hacer el procedimiento 1, o el procedimiento 2 o . . . o el procedimiento IC est5 dado por n l + 712 + . . . + n k , suponiendo que los procedimientos no se puedenrealizar en forma conjunta.

2.3

enumeracif1

de

Mtodos

33

EJEMPLO2.6. Supongamosqueplaneamosun viaje y debemos decidir entre transportarnos por autobs o por tren. Si hay tres rutas 3 2 = 5 rutas para el autobs y dosparaeltren,entonceshay diferentes disponibles para elviaje.

C.Permutaciones. a) Supongamos que ten'emos n objetos diferentes. (De cuntas maneras, digamos n Pn, se pueden agrupar (permutar) estos objetos? Por ejemplo,si tenemos los objetos a , b y c, podemos considerar las siguientes agrupaciones: abc, acb, buc, bca, cab y cba. h i , la respuesta es seis. En general, consideremos el csquema siguiente. Agrupar los n objetos es equivalente a ponerlos, en algn orden especfico, en unacaja con n compartimientos.

La primera casilla se puede llenar de cualquiera d e las n maneras, l a segunda de cualquiera de las ( n - 1) maneras, . . . , y la illtima casilla d e slo una manera. Por tanto, aplicando el principio de multiplicacin anl ) ( n - 2 ) . . . 1 maneras. terior, vemosque la caja se puede llenard e n ( 7 ~ Este nmero ocurre tana menudo enmatemticas que presentamos un nombre y un smbolo especiales para l.
Definicin. Si n. es un enteropositivo, definimos n! = ( n ) ( n - l)(n2) . ...1 y lo llamamos n+ctoriuZ. Tambi:n definimos O! = 1.

As, el nmero de permutaciones de n objetos, diferentes est dado por

B ) De nueva cuenta consideremosn objetos diferentes. Esta vez desean, y ]permutamos el r elegido. mos escoger r d e esos objetos, O 5 r con ,nPr.Recurrimos otra Indiquemos el nmero de manera de hacerlo vez al esquema anterior de llenar una caja que tiene n compartimientos; ahora nos detenemos despus que se h a llenado el compartimiento r-simo. A s , el primer compartimiento puede llenarse de n maneras, el segundo de( n - 1) maneras,. . ., y el r-simo compartimiento de n - ( r - 1) maneras. As se puede realizar el procedimiento completo, usando de nuevo el principio d e multiplicacidn, d e

<

34 Espacios muestrales finitos

2.3

maneras. Usando la notacin factorial presentada anteriormente, podemos escribir


npr =

n.!
(72

T)!

D. Combinaciones. Consideremos nuevamente n objetos diferentes. Esta vez estamos interesados en contar el nmero de maneras como podemosescoger r d e esos n objetos sin considerar el orden.Por ejemplo,tenemos los objetos a , b , c y d , y r = 2; deseamoscontar ab, a c , a d , b c ,bd y c d . En otras palabras, no contamos ab y bn puesto que los mismos objetos estn relacionados y slo difiere el orden. Para obtener el resultado general recordemos la frmula derivada r objetos entre n y anteriormente: el nmero de maneras de elegir permutar los r elegidos es igual an ! / ( n , - r ) ! Sea C el nmero de maneras d e elegir T entre n , sin considerar el orden. (Esto es, cl nilmero buscado es C.) Observe que una vez que se han escogido los r artculos, hay Y.! maneras de permutarlos. Por tanto, aplicando una vez ms el principio d e multiplicacin, junto con el resultado anterior, obtenemos
Cr! =
n! ( n- r)!
T

As, el nmero de maneras de clegir considerar el orden, est dado por

entre n objetos diferentes, sin

n! c = r!(n -

T)!

Este nmero aparece en muchos contextos en matemticas y, por lo tanto, se emplea un smboloespecial para designarlo. Escribiremos
n!
r!(72- T)!

* A!

del 7: Es& expresi6n tambin se conoce como arreglo o variacin.

2.3

enumeracin

de

Mtodos

35

y si r es un entero O 5 r 5 n. Sin embargo, podemos definir (:) muy n y para cualquier entero no ampliamente para cualquier nmero real
negativo
T

Para nuestros propsitos, como sigue:

(3)

se define slo si n es un entero positivo

Los nmeros a menudo se llaman coejicientes binomides porque aparecen como coeficientes en el desarrollo de l a expresin binomial ( u b ) n . Si n es un entero positivo, (u b)n = ( a b)(u b ) . - . ( a b). Cuando seefecta la multiplicacin, cada uno delos trminos consistir en el producto de k ues y de ( n - IC) bes, k .= O, 1 , 2 , . . . , n. ?Cuntos trminos sern dela forma u ~ P - ~ Contemcls ? simplemente el nmero de maneras como podemos elegir k entre n ues, sin considerar el orden. As,, tenemos lo que se conoce Pero esto est dado precisamente por como teoremu del binomio.

(F)

(:)

n(n - l ) ( n - 2) r!

- - - ( n - r + 1)

(F).

Los nmeros tienen muchas propiedades interesantes de las cuales aqusolomencionaremosdos. (A no serque se indiqueotra cosa, suponemos que n es un entero positivo y r un entero, O 5 r 5 n.)
a)

(F)

b,

(;) ( ), (;) (:I;) ( y )


= n-r =

Es muy fcil verificar algebraicamentc las dos identidades anteriores. Slo escribimos, en cada uno de los casos, el lado izquierdo y derecho de las identidades anteriores y notamos que soniguales. Sin embargo, hay otro mtodo deverificar lesas identidades que hace uso de la interpretacin que hemos dado a (:) a saber, el nmero de maneras de escogerr entre n objetos. u ) Cuando escogemos r entre n objetos en forma simultrinea dejamos atrs (77. - r ) objetos y, por tanto, escoger r de n es equivalente a elegir

3 6 Espacios muestrales finitos

2.3

( n - r ) de 71. sta es precisamente la primera proposicih que se debe verificar. b ) Escojamos cualquiera d e los n objetos, digamos el primero, a l . Al elegir r objetos, al est incluido o excluido, pero no las dos cosas. Por r objetos, tanto, al contar el nmero de maneras como podemos escoger podemos aplicar el principio de adicin antes tratado. Si a l est excluida, debemos escoger los r objetos que se desean d e los ( n - 1) objetos restantes y hay ,F1) maneras de haceresto. Si al va a incluirse, slo ( r - 1) objetos m6s deben escogerse d e los restantes ( n - 1) objetos y esto se puede hacer de (:I:) maneras. A s , el nmero pedido esla sumu de esos dos, lo que verifica la segunda identidad.

Obseroacidn: E I lo ~ expucsto anteriormente, los coeficientes binomiales ( i ) son significativos slo si n y k son enteros no negativos con O 5 k 5 n. Sin embargo, si escribimos

observamos que la ltima expresin es significativa si n es cualquier nmero real y 12 es cualquier entero no negativo. A s ,

(z)

n! - n(n-l)"'(n-k+l) = k ! ( n- k ) ! k!

Utilizando esta versin extendida de los coeficientes binomiales, podemos expresar la f o m a generalizada del teorema del binomio:
(1

y as sucesivamente.

co

=
k=O

(;)Xi

Esta serie es significativa para cualquier n real y para todas las x tales que < 1. Observemos que si n es un entero positivo, la serie infinita se reduce a un nmero finito de trminos, puesto que en ese caso = O si k > n.
1 2 1

(z)

EJEMPLO 2.7. a) iCuAntoscomits de tresmiembros se pueden elegir con ocho personas? Puesto que dos comits son iguales si est6n formados por los mismos miembros (sin considerar el orden en el cual = 56 comitCs posibles. fueron elegidos), tenemos

(9

2.3

Mktodos de enumeracidn

37

banderas diferentes? Este problema es muy parecido al anterior. Sin enibargo, aqu el orden constituye una diferencia y, por lo tanto, obtcnemos 8!/5! = 336 seales. c) Un grupo de ocho personas consta cinco de hombres y tres mujeres. Cuntos comits d e tres personas pueden fisrmarse con dos hombres exactamente?Aqudebemoshacerdos cosas: escogerdoshombres A s obtenemos el nmero (entre cinco) y escoger una mujer (entre tres). pedido - = 30 comits.

b ) Cuntas seales con tres banderas se pueden obtener con ocho

(i) (:>

d) Ahora podemos verificar una proposicin antes formulada, a saber, el nmero de subconjuntos de un conjunto que tiene n elementos es 2n (contando el conjunto vaco y el conjunto mismo). Simplemente c h i ficarnos cada elemento con un uno o con un cero, sea que el elemento vaya a ser incluido o excluido en el subconjunto. I-Iay dos maneras de clasificar cada uno delos elementos, y hay n elementos. Luego, el principio d e multiplicacin nos diceque hay 2 . 2 - - - 2 = 2n clasificaciones posibles. Pero cada una de las clasificacionels en particular representa una eleccin d e u n subconjunto. Por ejemplo, (1,1,O, O , O , . . . , O ) cona l y a;! precisamente. De nuevo, sistira en el subconjunto formado por (1,1,. 1) representara S y (O, O, . . , O) representara al conjunto vaco. e ) Podemos obtener el resultado anterior usando el principio de adicincomosigue.Paraobtenersubconjuntosdebemosescoger el conjunto vaco, los subconjuntos que constan deslo un elemento, los que constand e slo 2 elementos,. . ., y el conjunto mismo que consta de todos los n elementos. Esto se puede hacer de
a 2
e ,

maneras.Sinembargo, la sumade esos coeficientes binomiales es simplemente el desarrollod e (1 1) = 2 n . Ahora volvamos al ejemplo2.4. De un lote que consta d e 20 artculos 10 al azar (sin defectuosos y SO artculosnodefectuososescogemos sustitucin). El nmero de maneras de hacer esto es (I:,). Por tanto, la probabilidad de encontrar5 artculos defectuosos y 5 no defectuosos entre los 10 elegidos est dada por

(3 (Y) (3
+

+.**-+

(:)

38 Espacios muestrales finitos

2.3

Mediante logaritmos d e factoriales (que est5n tabulados) se puede cvaluar lo anterior y es igual a 0.021.

EJEMPLO 2.8. Generaliccmos el problema anterior. Supngase que tenemos N artculos. Si elegimos n d e esos al azar, sin sustitucin, hay (f muestras posibles diferentes, todas las cuales ticncn la misma probabilidad d e ser escogidas. Si los N artculos estn formados d e r1 As y r2 Bs (con rl 7-2 = N ) entonces la probabilidad de que los n artculos elegidos contengan exactamente SI As y (n -.SI) Bs est dada por.

(La anterior se llama pobabilidud hifiergeom2ricu y se encontrar ms adelante.)


Obsemacwn: Es muy importante especificar, cuando hablamos d e escoger articulos al azar, si lo hacemos con o sin sustitucidn. En una descripcin m& realista propondremos esta ltima. Por ejemplo, cuando inspeccionamos un nmero de artculos manufacturados con el propsito d e descubrir cuntos defectuosos podra haber, en general, no pretendemos inspeccionar el mismo articulo dos veces. Previamente hemos observado que el nmero de maneras de escoger r objetos entre R , sin considerar el orden, est dado por (:). El nilmero de maneras d e escoger r artculos entre n, con sustitucin, est dado por nT. Aqu estamos interesados en el orden en que se escogieron los articulos.

EJEMPLO 2.9. Supngase que escogemos dos objetos al azar entre cuatro objetos clasificados a , b , c y d . a ) Si escogemos sin sustitucin, el espacio muestra1 S se puede representar como sigue:

2.3

enumeracin Adtodos de

39

Hay = 6 resultados posibles. Cada uno de los resultados individuales indica slo cules fueron los dos objetos escogidos y no el orden en que se escogieron. b ) Si escogemos con sustitucin el espacio muestral S' se puede representar como sigue:

(i)

Hay 42 = 16 resultados posibles. Aqu cada uno d e los resultados y el orden de seleccin. individuales indica cules objetos se escogieron Escoger al azarimplica que si elegimos sin sustitucin, todoslos resultados en S son de igual forma probables, mientras que si escogemos con sustitucin, entonces todos los resultados en S' son igualmente probables. A s , si A es el evento {el objetoc es elegido}, entonces tenemos d e S, P ( A ) = = si escogemossinsustitucin, y d e S', P ( A ) = x 7 si escogemos con sustitucin.
I
I

E. Permutacionescuando no todos los objetosson diferentes. En todos los mtodos deenumeraci6n presentatdos hemossupuestoque todos los objetos considerados eran diferentes (esto es, distinguibles). Sin embargo, no siempre este es el caso. Supongamos, entonces, que tenemos n objetos tales que hay n l de una clase, n 2 de una segundaclase,. . . , n k de una k-sima clase, donde nl n 2 - n k = n. Entonces, el nmero d e permutaciones de estos n objetos esta dada por

+ + +

n!

Ladeduccin d e esta frmulasedejaal lector. Nteseque si todos los objetos son diferentes, tenemos n; = 1, i = 1 , 2 , . . . ,X:,y, por tanto, la frmula anterior se reduce a n!,el resultado obtenido en forma previa.
Obsemacidn: Insistimos una vez ms en que' la asignacin real d e probabilidades a los resultados individuales de un espacio muestral (o a una coleccin d e resultados, esdecir, u n evento) es algo que no puede obtenerse matemticamente; debe obtenerse d e otras consideraciones.P'or ejemplo, podemosutilizar ciertas caractersticas d e simetra del experimento para comprobar que todos los resultados son igualmente probables. De nuevo podemos hacer un procedimiento d e muestre0 (por ejemplo, escoger uno1 o varios individuos de una

40 Espacios muestralesfinitos
>

,,

poblacin especificada) de tal manera quesea razonable suponer que todas las elecciones son igualmente probables. En muchos otros casos, cuando ninguna suposicin bsica es apropiada, debemos recurrir al planteamiento d e la frecuencia relativa. Repetimos n veces el experimento y calculamos la proporcin d e veces que ha ocurrido el resultado (o evento) que se considera. Al usar Sta como una aproximacibn, sabemos que es muy improbable que esta frecuencia relativa se diferencie d e la probabilidad verdadera (cuya existencia ha sido especificada por nuestro modelo terico) en una cantidad apreciable si n es suficientemente grande. Cuando es imposible hacer suposiciones razonables acerca d e la probabilidad de un resultado y tambin es imposible repetir el experimento un gran nmero de veces (debido al costo o a consideraciones d e tiempo, por ejemplo) en realidad es poco significativo proseguir con un estudio probabilstico del experimento, excepto sobre una base completamente terica. (Para una nota adicional sobre el mismo tema, vase la Sec. 4.8.)

PROBLEMAS
2.1. En una habitacin se encuentra el siguiente grupo de personas: 5 hombres mayores de 21,4 hombres menores d e 21, 6 mujeres mayores de 21 y 3 mujeres menores d e 21. Se elige una persona al azar. Se definen los eventos siguientes: A = {la persona es mayor de 21 1; B = {la persona es menor d e 21); C = {la persona es hombre}; D = {la persona es mujer}. Evaluar lo siguiente.
a)

P(B UD ) b ) P(RCn C c )

2.2. En una habitacin 10 personastienen insignias numeradas del 1 al 10. Se eligentrespersonas a l azar y se les pidequedejen la habitacin simultneamente y se anotan los nmeros d e las insignias.
a)

!Cul es la probabilidad de queel nmero menor delas insignias sea 5? t ) < C u d es la probabilidad de queel nmero mayor d ea l s insignias sea 5?

2.3. a) Sup6ngase que se escriben tres digitos 1 , 2 y 3 en un orden aleatorio. ?Curil es la probabilidad de queal menos un dgito ocupe su lugar propio? Lo mismo que a ) con los dgitos 1, 2, 3 y 4. r,) Lo mismo que a ) con los dgitos 1 , 2 , 3 , .. . , n. [Sugerenci:l: Usar (1.7).] d ) Discutir la respuesta d e c) si n es grande.
b j

2.4. Un cargamento de 1500 lavadoras contiene 400 defectuosas y 1100 no defectuosas. Se eligen al azar 200 lavadoras (sin sustitucin) y se clasifican.
a) ?Cui11 es la probabilidad de que se encuentren exactamente 90 artculos defectuosos? b ) ?Cul esla probabilidad de q u e se encuentren al menos 2 artculos defectuosos?

2.5. Diez fichas numeradas del1 al 10 se mezclan en una palangana. Se sacan d e la palangana dos fichas numeradas (X,Y) u r n y otra vez sin sustitucin. Cul esla probabilidad de queX + Y = lo?

1'75991

Problemas

4I

2.6. Un lote consta de 10artculos sin defecto, 4 con pequeos defectos y 2 con defectos graves. Se elige u n articulo al azar. Encontrar la probabilidad d e que:
no tenga defectos, b ) no tenga defecto grave, c) que no tenga defecto o que tenga un defecto' grave.
a))

2.7. Si del mismo lote de artculos descritos en el problcma 2.6 se escogen dos artculos (sin sustitucin), encontrar la probabilidad d e que:
a) amlms sean buenos, c) a lo menos uno sea bueno, e ) exactamente uno sea bueno,

b ) ambos tengan defectos graves, d ) a lo m& uno sea bueno, f) ninguno tenga defectos graves, g ) ninguno sea bueno.

2.8. U n producto se arma en tres etapas. En la primcra etapa hay 5 lneas d e armado, enla segunda, 4 lneas de armadoy en la tercera, G lneas d e armado. ?De cuilntzs maner'as puede moverse cl producto ten el proceso de armado?
2.9. LJn inspector visita 6 m5quinasdiferentes durante el da. A fin d e impedir que los operadores sepan cundoinspeccionar5, vara el orden de las visitas. De curintas maneras puede hacerlo?

2.10. IJn mecanismo complejo puede fallar en 15 partes diferentes. Si falla en 3 partes de cuantas maneras puede suceder? 2.11. I-Iay 12 maneras en las cuales un articulo manufacturado puede tener un pequeodefecto y 10 manera5 en las cuales puede tener un defecto mayor. De cu5ntx maneras puede ocurrir defecto un menor yuno mayor? ?2defectos menores y 2 defectos mayores? 2.12. IJn mecanismo puede ponerse en cuatroposiciones, digamos d. Hay 8 d e tales mecanismos en unsistema.
a) a ,b , c

De cuntas maneraspuede instdarseeste sistema? b ) Supngase que dichos mecanismos estn instalados en alg6n orden (lineal) preasignado. De cuntas maneras posibles se instalan los mecanismos, si dos mecanismos adyacentes no estn en la misma ]posicin? c) Cu5ntas maneras son posibles si slo se usan las posiciones a y b con la misma frecuencia? d ) Cuntas maneras son posibles si slo se usan dos posiciones diferentes y una deellas aparece tres veces ms a menudo quela otra?

42 Espacios muestrales finitos


2.13. Scpngase que de N objetos se eligen R al azar, consustitucin. Cul es la probabilidad de que ningn objeto sea elegido ms de una vez? (Supringase que n < N.) 2.14. Con las letras a , b , c , d, e y f , cuntas palabras clave d e 4 letras se pueden formar, si

a ) ninguna letra se puede repetir? b ) cualquier letra se puede repetir cualquier nmero deveces?
2.15. Supngase que =ay = b. Exprese en trminos d e a y b. [Sugerencia: No se calculen las expresiones anteriores para resolver este problema.] 2.16. Una caja contiene esferas numeradas 1 , 2 , . . . , R . Se escogen dos esferas al azar. Encontrar la probabilidad de que los nmeros sobre las esferas sean enteros consecutivos, si
a)

(y)

(y)

(\y)

las esferas se escogen sin sustitucin, b ) las esferas se escogen con sustitucin.

2.1 7. Cuntos subconjuntos que contenganal menos un elemento se pueden formar de un conjunto de 100 elementos?
2.18. Entre los nmeros 1 , 2 , .. .50 se escoge uno al azar. Cu5l es la probabilidad de queel nmero escogido sea divisible entre 6 o entre 8?

2.19. De G nmeros positivos y 8 nmeros negativos se eligen 4 nmeros y se multiplican. ?Cul es la probabilidad de que el producto sea un nmero positivo?
al azar (sin sustitucin)

2.20. Cierta sustancia qumica se lorma mezclando 5 lquidos distintos. S e propone verter un lquido en un estanque y agregar sucesivamente los otros lquidos. Todas las combinaciones posibles se deben probar para establecer cul da mejor resultado. Cuntas pruebas deben hacerse?

y se inspeccionan al azary en forma sucesiva, cul es la probabilidad de que el k-simo artculo ( k 2 T ) inspeccionado sea el ltimo defectuoso en el lote?
2.22. r nmeros (O < r < 10) se escogen al azar con sustituci6n entre los nmeros O , 1 , 2 , . . . ,9. CuA es la probabilidad de que dos no sean iguales?

2.21. Un lote contiene R artculos. Si se sabe que T artculos son defectuosos

3.1 Probabilidad condicional


Consideremos de nuevo la diferencia que existe entre elegir al azar un artculo de un lote con o sin sustitucin. En el ejemplo 2.4, el lote tena la siguiente composicin: 80 artculos sin defectosy 20 defectuosos. Supngase que elegimos dos artculos: a) con sustitucin y 6) sin sustitucin. Definamos los eventos siguientes:

A = {el primer artculo es defectuoso},

B = {el segundo artculo es defectuoso}.


Si escogemos con sustitucibn, P ( A ) = P ( B ) I= $ = Cada vez que elegimos, en el'lote hay 20 artculos defectuosos de un total d e 100. Sin embargo, si elegimos sin sustitucin, los resultados no son totalmente P(A) = : . Pero, inmediatos. Todava es verdad,porsupuesto,que cul es el valor d e P ( B ) ? Es evidente que con el propsito de calcular P( B ) deberamos conocer la composicin del lote cuundo se escoge el

i.

44 Probabilidad e condicional independencia

3.1

segundo 07-liculo. Enotraspalabras,deberamossaber

si el evento A ocurri o no. Este ejemplo indica la necesidad de presentar el siguiente concepto importante. Sean A y B dos eventos asociados con un experimentoE . Indiquemos con P ( B 1 A ) la firobabili&~dcondicional del evento B , dudo que A ha ocurrido. 19 En el ejemplo anterior, P ( B I A ) = m. Porque si A ha ocurrido, entonces, al sacar por segunda vez, slo quedan 99 artculos, de los cuales 19 son defectuosos. Cada vez qne calculamos P ( B I A ) , esencialmente estamos calculando P ( R )respecto al exfmcio muestral reducido A , en vez d e espacio muestral original S. Consideremos el diagrama de Venn d e la figura 3. l . Cuando calculamos P ( B ) nos preguntamos qu tan probable es que estemos en B , sabiendo que debemos estar en S, y cuando evaluamos P ( B I A) nos preguntamos qu tan probable es que estemos en B , sabiendo l . (Esto es, el espacio que debemos estaren i FIGURA 3.1 muestral se ha reducido d e S a A.) I'ronto daremos una definicin formal de P( B I ..I Por ) . el momento, sin embargo, seguiremos con nuestra nocin int.uitiva d e probabilidad condicional y consideraremos un ejemplo:

tanto, el espacio muestralS se puede representar porel siguiente arreglo d c 36 resultados igualnlente posibles:
(1,l) (2,l)

EJEMPLO 3.1. Se lanzan dos dados normales y se anotan los resultados , ( T I , m ) , donde xi es el resultado del i-simo dado, i = 1,2. Por

S=

(l,2) (2,2)

.. . . ..
. ..

( 1 7 6)

(6,l)

(G,2)

Considcrenlos los dos eventos siguicntes:

3.1

condicional

Probabilidad

45

As 14 = {(5,5), (4,6), (6,4)} y B = {(2,1), (3,1),(3,2),. . . , (6,5)}. Por 15 1 Adems, I?( B I A ) = 3 , ya que el tanto, P ( A ) = 3 y P ( B ) = x. espacio muestra1 es ahora A (que son tres resultados), y slo uno de cllos es consistente con el evento B . De ma.nera semejante, podemos 1 calcular P ( A I B ) = E. Finalmente, calculemos P ( A n B ) . El evento ( A n B ) ocurre si y slo si la suma de los dos dados es diez y el primer dado indica un valor mayor que el segundo. Solamente hay un resultado y, por tanto, P ( An U ) = Si observamos con cuidado los diversos nmeros que se culnple lo siguiente: antes hemos calculado, concluimos que

&.

Sucede queesas relaciones no slo aparecen en los ejemplos particulares que hemos considerado, sino que son completamente generales y nos dan un medio de deJinirfor.maZnzentee la probabilidad condicional. Para justificar esta definicin, volvamos al concepto d e frecuencia reE se ha repetido n veces. Sean lativa. Supongamos que un experimento n A , n g ,y n A n g el nmero respectivo d e veces que los eventos A , B y A n B han ocurrido en las n repeticiones. Cul es el significado d e n A n B / n A ? Representa la frecuencia relativa(de B entre esos resultados en los que A ocurri. Esta es, n A n g / n A es la frecuencia relativa condicional d e B , dado que A 08curri. Podemos escribir n A n D / n A como sigue:

donde j A n B y f~ son las frecuencias relativas d e los eventos A f l B y A, respectivamente.Como ya hemos inldicado (y demostraremos ms adelante), si 72, el nmero de repeliciones es grande, f A n B estar Por lo tanto, la relacin cercana a P ( A n B ) y f~ e!itar cercana a P(*4.). anterior sugiere quen,inh!/nA estar cercana a P ( B I A ) . As, hacemos la siguiente definicin formal:
Definicin.

independencia 46 Probabilidad condicional e

3.1

Observaciones: a ) Es importante darse cuenta de que lo anterior no es un tcorcma (no demostramos nada), ni un axioma. Simplemente presentamos la nocin intuitiva d e probabilidad condicional y luego hicimos la definicin formal de lo que entendemos por est? nocin. El hecho de que nuestra definicin formal correspondaa nuestra nocin intuitiva est comprobado por el pArrafo que precede a la definicin. b ) Es muy sencillo comprobar queP ( B I A ) para unvalor d e A fijo satishce los diversos postuladosd e la probabilidad, ecuacin (1.3). (Vease el Prob. 3.22.) Esto es, tenemos:

lidad (no condicional) d e B y P ( B I A ) , la probabilidad condicional de B , dado que algn evento A (para el cual P ( A ) > O) ha ocurrido. En general, esas dos medidas d e probabilidad aignarn probabilidades distintas al evento B , como se indic en los ejemplos precedentes. En breve estudiaremos un importante caso especial, en el cual P ( B ) y P ( B I A ) son la misma. e ) Ntese que la probabilidad condicional est definida en trminos de la medida d e probabilidad no condicional P . Esto es, si conocemos P ( B ) para cada R c S podemos calcular P(B I A ) para cada B c S.

c) Si A = S,P ( B I S)= P ( B n S ) / P ( S )= P ( B ) . d ) Con cada evento B c S podemos asociar dos nmeros, P ( B ) ,la probabi-

As tenemos dos maneras de calcular la probabilidad condicional P(B I A): a) En forma directa considerando la probabilidad d e B respecto al espacio muestra1 reducidoA . b) Usando la definicin antcrior, donde P ( A n B ) y P ( A ) se calculan rcspccto al espacio mucstral original S.
Obsewacix: S i n = S, obtenemosP(B I S ) = P ( B n S ) / P ( S )= P ( B ) ,puesto y e P ( S ) = 1 y B n S = B. As debe ser, porque decir queS ha ocurrido, slo ndica que el experimento se ha realizado.

EJEMPLO3.2. Supngasequeenuna oficinahay 100 mquinas calculadoras. Algunas d e esas mquinas son elctricas ( E ) ,mientras que otras son manuales ( M ) . Adems, algunas son nuevas ( N ) , mientras las otras son usadas ( U ) . La tabla 3.1 da el nmero de mquinas de cada

3.1

condicional

Probabilidad

47

categora. Una persona entra en la oficina, escoge una mquina al azar y descubre que es nueva. <Cul es la probabilidad de que sea elctrica? En terminos de la notacin presentada deseamos calcular P ( E I N ) .
TABLA 3.1

N
U

*j
60

40

100

Slo considerando el espacio mucstral reducido N (es decir, las 70 mAquinas nuevas), tenemos que: P ( E I N ) = = +. Usando la definici6n d e probabilidad condicional, tenemos que:

P(E I N ) =

P ( E n N ) -" 4 -- 40,'loo P(N) 70,1100 7

La consecucncia ms importante d e la definicin de probabilidad condicional anterior se obtiene escribindola de la manera siguiente: a lo que equivale

P(An B ) = P ( B I A)P(A)
P ( A n B ) = P ( A I B)Pl(B).

(3.3a)

Esto tambin se conoce como el teorema de nzultiplicacidn de probabilidades. Podemos aplicar este teorema al clculo d e la probabilidad de la ocurrencia simultnea delos dos eventos A y B.

EJEMPLO 3.3. Consideremos otravez el lote analizado al principio de d e 20 artculos defectuososy 80 sin defectos. la seccicin3.1, el cual consta Si escogemos 2 artculos al azar, sin sustitucin,Ccul es la probabilidad de que ambos artculos sean defectuosos? Como antes, definimos los eventos A y B como sigue:

A = {el primer artculoes defectuoso},

B = {el segundo artculo es dlefectuoso}.

independencia 48 Probabilidad cottdicwnal e

3.1

Por lo tanto, necesitamos P ( An B ) , que puedecalcularse de acuerdo 19 con l a frmulaanterior,como P ( B I A ) P ( A ) . Pero P ( B I A ) = m, mientras que ~ ( ~ = 4 &. ) Por lo tanto, 19 P ( A n B ) = -.
495

Obseruacin: El anterior teorema dela multiplicacin (3.3a) se puede generalizar a m& d e dos eventos de la siguiente manera:

Por un momento considrese si podemos hacer una afirmacin general d e l a magnitud relativa de P ( A I 13) y P ( A ) . Consideremos los cuatro casos ilustrados con los diagramas de Venn en la figura 3.2. Tenemos: a ) P(.4 I B ) = O 5 P ( A ) , puesto que A no puede ocurrir si I3 h a ocurrido. 6) P ( A I B ) = P ( A n B ) / ( P ( B ) = [ P ( A ) / P ( B )2 ] P ( A ) , puesto que o 5 P ( B ) 5 1. C) P ( A I B ) = P ( A n B ) / P ( B )= P ( B ) / P ( B )= 1 2 P ( A ) . d ) En este caso no podemos hacer ninguna afirmacin acerca de l a magnitud relativa de P(,4 I B ) y P ( A ) .

Vinguno de estos casos

FIGURA 3.2
NGtese que dos de los casos anteriorcs, P ( A ) 5 P ( A I B ) , en un caso, P ( A ) 2 P ( A I O).y en el cuarto caso no podemos hacer ninguna clase d e comparaciones. Anteriormente usamos el concepto dc probabilidad condicional con el fin d e evaluar la probabilidad d e la ocurrencia simultnea delos dos eventos. Para calcular la probabilidad de un solo evento A, podemos

3.1

condicional

Probabilidad

49

aplicar este concepto de otra manera. Necesitamos la siguiente definicin. Definicin. Decimos que los eventos B1, Ba, . . . ,BI, representan unaparticidn del espacio muestral S si:
a)

B; n Bj = 8 para toda i
k u B; = s.

# j.

b)
c)

i=l

P ( B ; ) > O para toda i.

En otras palabras, cuando se efecta el experimento E, ocurre uno y slo de uno los eventos B;.
{3,4,5}

FIGURA 3.3

(Porejemplo,enellanzamientodeundado B1 = {1,2}, B2 = y B3 = (6) representaran una partSci6n del espacio muestral, mientras que C1 = { 1 , 2 , 3 , 4 } y C2 = { 4 , 5 , 6 } no lo haran.) Sea A algn evento respecto a S y sea B1, B?, . . . , Bk una particin de S. El diagrama de Venn de la figura 3.3 ilustra esto para k = 8. Por tanto, podemos escribir

Por supuesto algunos de los conjuntos A n Bj pueden ser vacos, pero esto no invalida la anterior descomposicin d e A . Lo importante es que todos los eventos A n D l , . . . ,A n BI, son parejas mutuamente escluyentes. Por lo tanto, podemos aplicar la propiedad aditiva para este tipo d e evcntos (Ec. 1.3) y escribir:

Sin embargo,cadatrmino P ( A n B j ) ,se puedeexpresarcomo P ( A I B j ) P ( B j )y, por lo tanto, obtenemos el llamado teorema de la pobabilidud totul:

50 Probabilidad e condicional independencia

Este resultado representa una relacin muy til, ya que cuando se busca P ( A ) frecuentemente puede ser dificil calcularlo de manera directa. Sin embargo, con la informacin adicionald e que Bj ha ocurrido, podemos calcular P ( A I B j ) y entonces usar la frmula anterior.

2; :
v.

, .,

3.1

*_,

-.

. : -

EJEMPLO 3 . 4 . Consideremos (por ltima vez) el lote d e 20 artculos defectuosos y SO sin defectos, d e los cuales escogemos dos artculos sin sustitucin. Nuevamente definimos A y B : A = {el primer artculo elegido es defectuoso},

B = {el segundo artculo elegido es defectuoso}.


ahora podernos calcular P ( B ) como sigue:

P ( B )= P ( B I A)P(A) P ( B I AC)P(AC).

que

Usando uno de los clculos ya hechos en el ejemplo 3.3, encontramos


19.1 22.4 P ( B ) = ?Jg 5+?Jg S = : .

Este resultado puede ser un poco sorprendente, particularmente si el lector recuerda que al comienzo d e la seccin 3.1 encontramos que P ( B ) = cuando escogemos los artculos con sustitucin.

&

EJEMPLO 3.5. Cierto artculo se manufactura en tres fbricas, digala primera produceel doble d e artculos que la mos 1 , 2 y 3. Se sabe que segunda y que 6sta y la tercera producenel mismo nmero de artculos (durante un periodode produccin especificado). Se sabe tambin que el 2% d e los artculos producidos por las dos primeras es defectuoso, mientras queel 4% d e los manuracturados por la tercera es defectuoso. Todos los artculos producidos se colocan en una fila y se escoge uno al azar. ? C u d es la probabilidad de queeste artculo sea defectuoso? Definamos los siguientes eventos:
A = {el artculo es defectuoso},
B1 = {el artculo proviene d e l},
B3 =

I?, = {el artculo proviene de 2},

{el artculo proviene d e 3).

3.2

Nosotros necesitamos escribir:

P ( A ) y, usando el resultado anterior, podemos

P(A)=

Ahora P ( A I B,) = P ( A 1 Bz) = 0.02, mientrasque P ( A I B3) = 0.04. Poniendo sus valores en la expresin anterior obtenemos P ( A ) = 0.025.
Obsemacwn: Conelteorema de la probabilidadtotal, en qumicase ha observado la siguiente analoga. Supngase que k matraces que contienen diferentes soluciones d e la misma sal hacen un litro. Sea P(B;) el volumen del i-simo matraz y P ( A I B ; ) la concentracin de la solucin en el. i-simo matraz. Si combinamos todas las soluciones en un matraz y suponemos que P ( A ) indica la concentracin de la solucin resultmte, obtenemos:

w I Bl)P(Bl)+ P ( A I B2)P(132) + P ( A I B 3 ) P ( B 3 ) . 1 P ( B 1 ) = i, mientras que P ( B 2 ) = P(133) = 4. Tambin

3.2 Teorema de Bayes


Podemos usar el ejemplo 3.5 para demostrar otro resaltado importante. Supongamos que del depsito seescoge un artculo y se encuentra que es defectuoso. Cul es la probabilidad de que se produjese en la primera fbrica? Usando la notacin antes presentada, neccsitamos P(B1 I A ) . Podemos calcular esta probabilidad como una consecuencia d e la siguiente. . . , SI,una particin del espacio muestra1 S y A un evento Sean SI,. asociado con S. Aplicando la definicin d e probabilidad condicional, podemos escribir:

Este resultado se conoce como teorema de B u y s . Tambin se le llama frmula para la probabilidad de las causas. Puesto quclas B; son una particin del espacio muestral, uno y slo uno de los eventos B; ocurre. (Esto es, uno d c los eventos B; debe ocurrir y solamente uno.) Por lo tanto, la frmula anterior nos da la probabilidad de un B; particular (esto es, una causa), dado que el evento A ha ocurrido. Para aplicar Muy a menudo este teorema debemos conocerlos valores d e llas P ( Si). esos valores no son conocidos y esto limita la aplicabilidad del resultado.

5 2 Probabilidad condicional e ittdepetldencia

3.2

1 Ia existido una considerable controversia acerca del teorema d e Bayes, el cual entrminosmatemticos es perfectamentecorrecto, slo l a eleccin impropia para P ( B;) hace objetable el resultado. Volviendo a la pregunta propuesta anteriormentey aplicando ahora la ecuacin (3.5),obtenemos:

P(B1 I A) =

(0.02)(1/2)

o-W(1/2) + ((0.02)(1/4) + (0.04)(1/4) = 0.40.

Obsenlacidn: Otra vez podemos encontrar en qumica una analoga con el teorema d e Bayes. En E Inatraces tenemos soluciones de l a misma sal, pero en concentraciones diferentes. Supongamosque el volumen tot71 d e la solucin es un litro. Indicando el volumen de la solucin en el i-Csimo matraz conP ( B ; )y la concentracin de la sal en ese mismo matraz con P ( A I I ? ; ) , encontramos que a l ecuncicin (3.5) da la proporcin d e la cantidad completa d e sal encontrada en el i-simo matraz.

La siguiente ilustracin del teorema d e Bayes nos dar la oportunidad de introducir l a idea de diagrama de rbol, mtodo muy til para analizar ciertos problemas. Supngase que varias cajas de caramelos son d e dos tipos, digamos A y B . El tipo A contiene 70% d e caramelos dulces y 30% de caramelos Acidos, mientras que en el tipo B dichos porcentajes estn invertidos. 60% d e todas las cajas d e caramelos son del Alin ms, supngase que el B. tipo A , mientras que el resto son del tipo Ahora estamos ante el siguiente problema d e decisin. Usted recibe una caja d e dulces d e tipo desconocido. Se le permite sacar una muestra d e caramelo (una situacin ciertamente no real, pero que nos permite presentar las ideas importantes sin mucha complicacin y con esta informacin debe decir si cree quese le ha sido ofrecidoel tipo A o el tipo B. El siguiente diagrama de rbol (llamado as por las diversas trayecnos ayudar a analizar el problema. (S, y torias o ramas que aparecen) S, indican la eleccin de un caramelo dulce o cido, respectivamente.)

. L

3.2

Teorema de Bayes

53

Hagamos unos cuantosclculos:

P ( A ) = 0.6; P ( B ) = 0.4; P ( S ,
P(So I A ) = 0.3; P ( S ,

I A ) = 0.7; I B ) = 0.7

B ) = 0.3; ](S,

Lo que en realidad deseamos saber es P ( A I S,,), P ( A I S , ) , P ( B I S,) y P ( B I S,). Esto es, suponiendo que realmente escogimos un caramelo dulce, qu decisin estaramos ms inclinados a hacer? Comparemos P ( A I S,) y P ( B I S , ). Utilizando la frmula1 d e Bayes tenemos

Un clculo similar nos da P ( B I S , ) = 2/9.

A s , con base en la evidencia que tenemos (es decir, la obtencin d e un caramelo dulce) es 3; veces ms probable que se trate d e una caja del tipoA que del tipo B. Por lo tanto, decidiramos, posiblemente, que el caramelo se obtuvo d e u n a caja tipo A . (For supuesto, podramos estar equivocados. Lo interesante del anlisis anterior es que elegimos la alternativa que parece ms probable con ba.se e n los pocos datos que tenemos.)
En trminos del diagrama de rbol, lo que realmente necesitbamos (e hicimos) en los clculos precedentes fue un anlisis hacia atrs.Esto Cqu tan probable era es, dado lo que observamos, en este caso SM,, escoger el tipoA? Una situacin ms interesante aparece si ,se nos permite elegir dos caramelos antes de decidir si es escogido el tilpo A o el tipo B. En este caso, el diagrama de rbol aparecer como sigue.

54 Probabilidad condicional e indepertdettcia

3.3

posiblcs que observa.

En el problema 3.26 se le pide a usted decidird e cul d e los dos tipos, A o B, est5 tomando muestras, scgnlos tres resultados experimentales

3.3 Eventos independientes Hemos considerado dos eventos A y B que no pueden ocurrir de manera simultfinea, esto es A n B = 0. Tales eventos se designaron mutuamente excluyentes. Antes indicamos que si A y B son mutuamente excluyentcs, entonces P ( A I B ) = O, porque la ocurrencia de B impide la ocurrcncia de A . Por otra parte, tenemos el caso, ya discutido anteriormente, en que B 3 A y, por lo tanto, P ( B I A ) = 1. En cada uno de los casos anteriores, sabiendo que B ocurri, se nos dio una informacin precisa sobrela probabilidad d e la ocurrencia de A . Sin embargo, hay muchos casos en los cuales se sabe que si un evento B ocurre, no tiene influencia alguna en la ocurrencia o no ocurrencia de A.

EJEMPLO 3.6. Supongamos que un dado normalse lanza dos veces. Definiremos los eventos A y B como sigue:
A = {el primer dado muestra un nmero par},
B = {el segundo dado muestra un5 o un 6).

Por intuicin sabemos que los eventos A y B no estn relacionados. de ocurrencia Saber queB ocurre no proporciona informacin acerca la d e A . De hecho, el siguiente clculo lo pone de manifiesto. Tomando

3.3

independientes Eventos

55

como nuestro espacio muestra1 los 36 resultados iaualmente posibles 18 ? 12 1 del ejemplo 3.1, encontraremos que P ( A ) = E = z, P ( B ) = E = 3 , 6 mientras que P ( A n B ) = E = 1 Por lo tanto,

As encontramos, como era de suponer, que la probabilidad no condicional es igual a la probabilidad condicional P ( A I B ) . De modo se-

mejante

Por lo tanto, podramos inclinarnos a decir que A y B son independientes si y slo si P ( B I A ) = P ( A ) y P ( B I A ) = P ( B ) . Aunque esto sera esencialmente apropiado, hay otro mtodo que evita la dificultad encontrada aqu, a saber, que ambos, P ( A ) y P ( B ) ,deben ser diferentes d e cero antes de quelas igualdades anteriores sean significativas. Consideremos P ( A n B ) , suponiendo que las probabilidades condicionales anteriores sean iguales a las probabilidades no condicionales correspondientes. Tenemos

r ( A n B ) = P ( A 1 B ) P ( B )= P ( A ) P ( B ) , P ( A n B ) = P ( B I A ) P ( A )= P ( B ) P ( A ) .

las probabilidadesnocondicionalesson igualesa las probabilidades condicionales si y slo si P ( A n B ) = P ( A ' ) P ( B ) . Aquhacemos la siguientedefinicinformal. [Si P ( A ) o P( B ) esigualacero,esta definicin es an vlida.]
Definicin. A y B son eventos indepeEdientes si y slo si

A s encontramosque,comoni

P ( A ) ni P(B) sonigualesacero,

P(AnB ) = P(A)P(Bj.

(3.6)

Observacwn: Esta definicin es esencialmenteequivalentea la que antes sesugiri,es decir, que A y B son independientes si P ( B I A ) = P ( B ) y P ( A I B ) = P ( A ) . Esta ltima forma es un poco ms intuitiva, porque afirma precisamente lo que hemos estado tratando de decir antes: A y B son

56 Probabilidad condicional independencia e

3.3

independientes si el conocimiento de In ocurrencia d e A no influye de modo alglno enla probabilidad d e la ocurrencia de B. Que la definicin formal adoptada tambin tiene cierto carjcter intuitivo, puede verse al considerar el siguiente ejemplo.

EJEMPLO3.7. Veamos otra vez el ejemplo 3.2. Consideremos primero la tabla siguiente slo con los valores marginales dados.

60

40

100

Esto es, hay 60 mquinas elctricas y 40 manuales. Del total, 70 son nuevas, mientras que 30 son usadas. Hay diversas maneras d e colocar los datos en la tabla, consistentemente con los totales marginales dados. A continuacin anotamos algunas d e esas posibilidades.

N r l ;: :E] ;: : K l ; :
E M E M E
U

60

40

100

60

40

(4

(b)

100

60

40

100

(c)

Consideremos l a tabla u). Aqu todus las mquinas elctricasson A s hay una relacin obvia nuevas, y todus las usadas son manuales. (no necesariamente causal) entre las caractersticas de ser elctricas y ser nuevas. De igual manera, cnla tabla 6 ) todas las mquinas manuales Otra vez parece existir son nuevas y todus las usadassonelctricas. una relacin definida entre esas caractersticas. Sin embargo, cuando observamos la tabla c ) , el panorama es muy diferente. Aqu no existe unarelacinaparente. Por ejemplo, el 60% d e todas las mquinas son elctricas. De modo semejante, el 70% de todas las mAquinas son nuevas, y exactamente el '70% d e las mquinas manuales son nuevas, etc. A s , no es evidente que las caractersticas d e "ser nuevas'' y "ser elctricas" tengan alguna relacin entre s. Por supuesto, esta tabla se construy precisamente de modo que exhiba esta propiedad. Cmo se obtuvieron los datos d e esta tabla? Simplemente aplicando la ecuacin P(E) = y P(N) = debemos tener, (3.6); es decir, como Por lo tanto, porindependencia, P ( E n N ) = P ( E ) P ( N ) = la colocacin del dato en la tabla que indica el nmero de mquinas

fi

g.

3.3

Eventos independientes 57

elctricas nuevas est dada por el nmero 42. Las otras ubicaciones se obtuvieron de un modo semejante. En la mayor parte de las aplicaciones sufiondremos la independencia de los dos eventos A y B , y luego usaremos esta suposicin para calcular P ( A n B ) , como P ( A ) P ( B ) . En general, las condiciones fisicas en las cuales se realiza el experimento harn posible determinar si tal suposicin se justifica o si a l menos lo hace aproximadamente.

EJEMPLO 3 . 8 . Consideremos un lote grande d e artculos, digamos 10 000. Supongamos que el 10% d e estos artculoses defectuoso y el 90% no. Se escogen dos artculos. Cul es la probabilidad de que ambos no
sean defectuosos? Definamos los eventos A y B as:

A = {primer artculo no es defectuoso},


B = {segundo artculo noes d.efectuoso}.

Si suponemosqueelprimerartculo se sustituyeantes d e elegir el segundo, entonces se puede suponer que los eventos A y B son independientes y, por tanto, P ( A n B ) = (0.9)(0.9) = 0.81. Sin embargo, en formams real, el segundo artculo se escoge sin sustituir el primero. En este caso,

P ( A n B ) = P ( B I A ) P ( A ) =: E ( O . 9 )
que es aproximadamente 0.81. As, aunque A y B no son independientes en el segundo caso, la suposicin de independencia que simplifica en forma considerable los clculos slo causa un error despreciable. (Recuerde el objetivo de un modelo matem5tico comoel que se describi en la seccin l . 1.) Si hubieran existidosllo pocos artculosen el lote, digamos 30, la suposicin de independencia habra producido un gran error. Por esto es importante verificar con cuidado las condiciones en las cuales se realiza el experimento, a fin de establecer la validez de l a suposicin de independencia entrevarios eventos.

EJEMPLO 3.9. Supngase que un mecanismo est formado por dos componentes acoplados en serie, como se indica en l a figura 3.4.Cada uno de ellos tiene una probabilidad p d e no funcionar. Cul es la probabilidad dc queel mecanismo funcione?

58 Probabilidad condicional e independencia


-

3.3

E m =

FIGURA 3.4

Es evidente que el mecanismo funcionar si y slo si nnzbos componentes funcionan. Por tanto,
Prob. (mecanismo filncione) = Prob. (C, funcione y Cz funcione)

La informacin que hemos dado no nos permite seguir, a menos que sepamos ( o supongamos) que los dos mecanismos trabajan de manera independiente. Esta puedc o no ser una suposicin realista, que depende dc cmo se acoplan las dos partes. Si suponemos que los dos mecanismos trabajan independientemente, para l a probabilidad pedida obtencmos (1 - P ) ~ . Para nosotros ser muy importante extender la nocin de independencia a ms de dos eventos. Consideremos primero tres eventos asociados con un experimento, digamos: A , B y C . Si A y B , A y C y B y C son nzutuamente independientes (en el sentido antes dado), entonces no se deduce, cn general, qne no haya dependencia entre los tres eventos A , B y C . El siguicnte ejemplo (algoartificial) ilustra este punto.

EJEMPLO 3.10. Supongamos que lanzamos dos dados. Definamos los eventos A , L3 y C como sigue:

A = {el primer dado muestra un nilmeropar},


13 = {el segundo dado muestra un nmero impar},

C = {ambos dados muestran nmeros pares o nmeros impares}.


Tenemos P(A) = P ( O ) = P ( C ) = An m&, P ( A n B ) = 1 P ( A n C ) = P ( B n C ) = T. Por lo tanto, los tres eventos son mutuamente illdependicntcs. Sin embargo, P ( A n B n C ) = O # P ( A ) P ( B ) P ( C ) . Estc ejcmplo motiva la siguiente definicin.
Definicin. Decimos que los tres eventos, A , B y C , son mutuamente independientes si y slo si todas las condiciones siguientes se mantienen:

i.

3.3

Eventos independientes

59

Finalmente generalizaremos esta nocin a n eventos en la siguiente definicin.

Definicin. Los n eventos A l , A ? , . . . , An s'on mutuamente independientes si y slo si tenemos para k = 2,3,. . . ,n,
P(A;,

n A;, n . n A i k ) = P ( A ; , ) P ( A ; , ) .
a

P(A;,).

(3.8)

(Hay 2n

-n

- 1 condiciones juntas anotadas; vase el Prob. 3. IS.)

Obseroacwn: En la mayor parte de las aplicaciones no necesitamos verificar todas estas condiciones, ya que en generalsuponenwsla independencia (con base en lo que sabemos acercadel experimento).Nosotros entonces usamos esta suposicin p?ra calcular, digamos: P ( A ; , n A in.. , .(\A;,) como P ( A ; , ) P ( A i , ) .. . P(&, 1.

FIGURA 3.5 EJEMPLO 3.11. La probabilidad de cerrar cada uno delos relevadoen la figura 3.5 est dada porp . Si todos los res del circuito que se indica relevadores funcionan independientemente, ?cules la probabilidad de que exista una corriente enlos terminales I y D?
Sea A; el eventoquerepresenta{relevador i est cerrado}, i = 1,2,3,4. Sea E el evento que representa {la corriente pasa de I a D}. Por tanto, E = (Al n A2) u ( A 3 n A4). (Note que Al n A2 y A3 n A4 no son mutuamente excluyentes.) As,

P(E) = P ( An ~ z42) p ( A 3 n A4) - P(A1 n A2 n A3 n A4)


9 = p2 + p2 - p 4 =2p" p. 4

60 Probabilidad condicional e independencia

3.3

EJEMPLO 3.12. Supngase otra vez que en el circuito de la figura 3.6 la probabilidad de que cada uno de los relevadores est cerrado es p y que todos los relevadores funcionan independientemente. Cul es la probabilidad de que exista una corriente entre los terminales I y D? Usando la misma notacin como en el ejemplo 3.11, tenemos que

P ( E ) = P(A1 n A2)
-

+ P(A1 n A2 n A3 n A 4 n A s )
= p +p+p
2
2

P ( A 1n A, n A3 n A4) - P ( A 5 n A3 n A 4 )
-p
3

+ P ( i l 5 ) + P(A3 n A 4 ) - P(A1 n A, n A5)


-p-p
4 3

S p = p + 2 p- 2 p 3 - p 4 + p 5 .

Para cerrar este captulo indiquemos una solucin muy comn, pero errnea, del problema.

EJEMPLO 3.13. Suponga que entre seis pernos, dos son m5s cortos que una longitudespecfica. Si se escogen dos pernos a l azar, Ccul es la probabilidad d e escoger los dos ms cortos? SeaAi el evento {el i-simo perno elegido es corto}, i = 1 , 2 . Por lo tanto, queremos evaluar P(A1 n A2). La solucin correcta se obtiene, naturalmente, al escribir

La soluciGn comn, pero incorrecta, es escribir:

Por supuesto, lo importante es que aunque la respuesta es correcta, l a identificacin d e con P ( A 2 ) es incorrecta;representa P(A2 I A l ) . Para evaluar P( A,) en forma correcta,escribimos

3.3

Consideraciones esguemcticas;

probabilidad ... 6 1

3.4 Consideraciones esquemticas; probabilidad


condicional e independencia
La solucin esquemtica siguiente puede ser til para comprender el concepto d e probabilidad condicional. Supngase que A y B son dos eventos asociados con un espacio muestra], para el cual las distintas probabilidades se indican en el diagrama de Venn que aparece en la figura 3.7.

0.2

FIGURA 3.7

Por lo tanto, P ( A n B ) = 0.1, P ( A ) = 0.1 0.3 = 0.4 y P ( B ) = 0.1 0.4 = 0.5. En seguida, representemos las diversas probabilidades con las rem de los rectngulos como en la figura 3.8. E n cada caso, las regiones B : en el rectngulod e la izquierda represombreadas indican el evento sentamos A n B y en el d e la derecha A n B.

FIGURP

Supongamos ahora que deseamos calcular P ( B I A ) . As slo necesitamos considerar A; esto es, A puede ignorarse en los clculos. Notemos que la proporcin d e B en A es 1/4:. (Esto lo podemos verificar tambin al aplicar la ecuacin (3.1): P ( B I A ) = P ( A n B ) / P ( A ) =

62 Probabilidad condicional independencia e


O.I/O.[I = 1/?1.> Por lo tanto,

3.3

P(U 1 A ) = 3 / 3 ; el diagrama que representa esta probabilidad condicional se ilustra en la figura 3.9.

Ntese tambih quc si A se da como ocurrido, todas las probabilidades (es dccir, 1) se deben asociarcon el evento , , I mientras , que ninguna de las probabilidades (es decir, O) estB asociada con dl. An ms, ntcse que en el rectngulo izquierdo, que reprcsenta . 4 , s6lo las colocaciones l figura 3.8 a la figura 3.9 (sumando 1 individuales han cambiado d e a en vez de 0.4). Sin enlbargo, las proporciones dentro del rcctngulo permanecen iguales (es decir, 3 : 1). Ilustremos la noci6n deindcpendcnciausando el procedimiento esquem5tico presentado anterionncnte. SupBngase que los eventos *4 y B se dibujan en la figura 3.10. En ese caso, las proporcioncs en los dos rcctngulos, que representan 1 1y son las misu~as: 3:I cn ambos casos. As tenemos P ( B ) = 0.1 0.15 = 0.25, y P(L3 n A ) = 0.1/0.4 = 0.25.

, IS

FIGURA 3.10

Finalmente, por sinlplc inspeccin de l a figura 3.S podemos calcular las otras probabilidades condicionales:

P ( A I I?) = 1/5 (puesto que 1/5 dcl rea total rectangular que representa B est ocupada por A),
P ( A I B ) = 4/5.

Problemas 63

PROBLEMAS
3.1. La urna 1 contiene x esferas blancas y y rojas. La urna 2 contiene .z esferas blancas y u rojas. Se escoge una esfera al azar d e la urna 1 y se pone en la urna 2. Entonces se escoge una esfera al azar d e la urna 2. Cul es la probabilidad de queesta esfera sea blanca?

3.2. Dos tubosdefectuososse confunden con dosbuenos. prueban, uno por uno, hasta encontrar los defectuosos.
a) Cul es la probabilidad d e encontrar el segunda prueba? b ) Cul es la probabilidad d e encontrar el tercera prueba? c) Cul es la probabilidad de encontrar el cuarta prueba? d ) Sumar los nmeros obtenidosena), b ) yc).

Los tubos se

illtimo tubo defectuoso en la diltimo tubo defectuoso en la illt.imo tubo defectuoso en la


:Es sorprendente el resultado?

3.3. Una caja contiene 4 tubos malos y 6 buenos. Se sacan dos a la vez. Se prueba uno deellos y se encuentra quees bueno. (Cul es la probabilidad d e que el otro tambin sea bueno? 3.4. En el problema anterior los tubos se verifican sacando uno al azar, se prueba y se repite el proceso hasta que se encuelntran los cuatro tubos malos. Cul esla probabilidad d e encontrar el cuarto tubo malo
a ) e n la quinta prueba? b ) en la dcima prueba? 3.5. Supngase que A y B son dos eventos independientesasociados con un experimento. Si la probabilidad de queA o B ocurra es igual a 0.6, mientras que la probabilidad de q u e A ocurra es igual a 0.4, determinar la probabilidad de queB ocurra. 3.6. Veinte artculos, 12 de los cuales son defectuosos y 8 no defectuosos, se inspeccionan uno despus d e otro. Si esos artculos se escogenal azar, cul es la probabilidad de que: a ) los dos primeros artculos inspeccionados sean defectuosos? b ) los dos primeros artculos inspeccionados scan no dcfectuosos? c) entre los dos primeros articulos inspeccionados haya uno defectuoso y uno no defectuoso?

3.7. Supngase que tenemos 2 urnas, 1 y 2, cada una con dos cajones. La urna 1 tiene una moneda de oro en cajn un y un,a d e plata e n el otro,mientrns que la urna 2 tiene una moneda de oro en cada uno delos cajones. Se escoge una urna al azar, y de sta se escoge un cajn al azar. La moneda que se encontr

64 Probabilidad condicional e independencia


e n este caj6n es de oro. Cul es la probabilidad de que la moneda provenga d e la urna 2?

3.8. Un bolso contiene tres monedas, una d e las cuales est5 acuada con dos caras, mientras que las otras dos monedas son normales y no son irregulares. Se escoge una moneda al azar y se lanza cuatro veces en forma sucesiva. Si cada vez sale cara, ?cul es la probabilidad de que Sta sea la moneda con dos caras?
40% d e la produccin total, respectivamente. De lo que producen, 5, 4 y 2% respectivamente, son pernos defectuosos. Se escoge un perno al azar y resulta

3.9. En

una fbrica d e pernos, las mquinas A , B y C fabrican 25, 35 y

ser defectuoso.

cules son las probabilidades respectivas de que el perno provenga d e la mquina A , B o C?

3.10. Sean A y B dos eventos asociados con un experimento. Supngase que P ( A ) = 0.4, mientras que P ( A U B ) = 0.7. Sea P ( B ) = p .
a)

Para queleccin de p son A y B mutuamente excluyentes? b ) Para qu eleccin de p son A y B independientes?

3.1 1. Trescomponentes de un mecanismo, digamos C1, C2 y C3 est5n colocados en serie (en una lnea recta). Supngase q u e esos mecanismos estn agrupados en orden aleatorio. Sea R el evento {Cz est a la derecha d e Cl}, y S el evento(C3 est a la derecha d e Cl}. Los eventos R y S son independientes? Por qu? 3.12. Se lanza un dado y d e manera independiente se escoge al azar una carta de unabaraja normal. ?Cul es la probabilidad d e que:
a)

el dado muestre un nmero par y la carta sea de unpalo rojo? b ) el dado muestre un nmero par o la carta sea de unpalo rojo?

3.13. Un nmero binario e s d compuesto slo d e los dgitos O y 1. (Por ejcrnplo, 1O 1 1, 1100, etc.) Esos nmeros tienen un papel importante en el uso de los computadores electrnicos. Supngase que un nmero binario est5 formado por n dgitos. Supngnse que la probabilidad d e que aparezca un dgito incorrectoes p y que los errores endgitos diferentes son independientes uno de otro. Cul es la probabiliclatl de formar un mmero incorrecto? 3.14. Se lanza un dado n veces. t C u d es la probabilidad de queG salga a1 menos una vez en los R lanzamientos? 3.15. Dos personas lanzan tres monedas regulares cada probabilidad de que obtengnn el mismo nmero decaras? una. Cul es la

3.16. Se lanzan dos dados y puesto que las caras muestran nmeros diferentes, m51es la probabilidad d e que una cara sea <I? 3.17. En la fabricacin d e cierto artculo se presenta un tipo de defectos con una probabilidad d e 0.1 y defectos de un segundo tipo con probabilidad

Problemas

65

d e 0.05. (Se supone la independencia entre los tipos de defectos.) ?Cul es la probabilidad d e que: u n articulo no tenga ambas clases d e defectos? b ) u n articulo sea defectuoso? c) suponiendo que un artculo sea defectuoso, t.enga slo u n tipo d e defecto?
a)

3.18. Verificar que el nmero decondiciones indicadas en la ecuacin (3.8) est dado por 2n - n - 1.

BC, AC y B , AC y BC.

3.19. Probar que si A y B son eventos independientes, tambin lo son A y

3.20. En la figura 3.1 1 a ) y b ) se supone que la probabilidad de que cada relevador est cerrado es p y que cada relevador se abre o SE. cierra independientemente d e cualquier otro. Encontraren cad,a caso la probabilidad de que la corriente pase d e 1 a D.
TABLA 3.2
Nmero d e fallas 2

4
0.09

5
0.07
0.15

6
0.04

A
B

o. 1
O.3

0.2

0.3

0.2

o. 1

o.1

o.1

o.1

0.15

3.21. Dos mquinas, A , B , que se accionan independientemente pueden tener cierto nmero de fallas cada da. La tabla 3.2 da la distribucin d e probabilidades de a l s fallas d e cada una. Calculara lssiguientes probabilidades:

A y B tienen el mismo nmero defallas. b ) El nmero defallas es Inenor que cuatro; menor quecinco. c ) A tiene m& fallas que B. d ) B tiene el doble d e fallas que A . e ) B tiene cuatro fallas, cuando se sabe que B tiene por lo menos dos fallas.
a)

66 Probabilidad condicional e independencia


J) El nmero mnimo d e fa1l'a.s de las dos m5quinas es tres; es menor que

tres.

3.22. tisando la ecuacin (3.2),demostrar que para A fijo, P ( B I A ) satisface los diversos postulados de la probabilidad. 3.23. Si cada uno de los elementos de un determinante de segundo orden es cero o uno, cud1 es la probabilidad de que el valor del determinante sea positivo? (Supngase que las colocaciones individuales del determinante se escogen independientemente, considerando que cada uno delos valores tiene probabilidad .) 3.24. Verificar que el teorema de la multiplicacin P ( A n B ) = P ( A I B ) P ( B ) ,establecido para dos eventos, se puede generalizar para tres eventos como sigue:

g) El nmero mximo d e fallas d e las mquinas es tres; es m5s que tres.

P ( A n B n C)= P ( A I B

n C)P(BI C)P(C).

3.25. Unconjuntoelectrnicoconsta de dos subsistemas, digamos A y B. A partir de una serie de pruebas previas, se presuponen las siguientes probabilidades:

P ( A falle) = 0.20,

P ( B slo falle) = 0.15, P ( A y B fallen) = 0.15.


Calcular las probabilidades siguientes.
a)

P ( A falle 1 B haya fallado), b ) P ( A falle solamente).

3.26. Finalizar el anlisis del ejemplo de la seccin 3.2 decidiendo culd e los tipos d e cajas d e caramelos, A o B,es el escogido con base en el conocimiento de doscaramelos que fileron muestreados. 3.27. Cada vez que se realiza un experimento, la ocurrencia de un evento particular A es igual a 0.2. El experimento se repite, independientemente, hasta que A ocurre. Calcular la probabilidad de quesea necesario ejecutar un cuarto experimento. 3.28. Supngase que un mecanismo tiene N tubos yque todos sonnecesarios para su funcionamiento. Para localizar el tubo que funciona mal, se reemplaza sucesivamente cada uno de ellos por uno nuevo. Calcular la probabilidad d e que sea necesario verificar N tubos si la probabilidad (constante) de que un tubo est dafiado es p.

Problemas
3.29.Probar: Si P ( A I B ) > P ( A ) ,entonces P ( B I A ) > P ( B ) .

67

3.30.Un tubo al vaco puede provenir d e cualquiera d e tres fabricantes con probabilidades p l = 0.25, p2 = 0.50 y p3 = 0.25. Las probabilidades de queel tubo funcione correctamente durante un periodo de tiempo especificado son iguales a 0.1,0.2 y 0.4, respectivamente, para los tres fabricantes. Calcular la probabilidad de que un tuboelegido al azar filncione durante el periodo d e tiempo especificado. 3.31. Un sistema elctrico consta d e dos interruptores del tipo A, uno del tipo D y cuatro deltipo C conectados como apareceen la figura 3.12.Calcular la probabilidad de que no se pueda eliminar una fillla en el circuito con la llave IC, si los interruptores A, B y C estiln abiertos (es decir, fuera d e servicio) con probabilidades 0.3, 0.4, respectivamente, 0.2, y si. ellos funcionan d e manera independiente.

FIGURA 3.12
3.32. La probabilidad de que un sistema se sobrecargue es 0.4 durante cada conjunto d e ensayos de un experimento. Calcular la probabilidad de que el sistema deje de hncionar en tres ensayos independientes del experimento, si las probabilidades d e fallar en 1, 2 o 3 ensayos son iguales a 0.2,0.5 y 0.8, respectivamente.
f

3.33. Se emiten sucesivamente cuatro seales de radio. Si la recepcin d e cualquier seal es independiente d e la recepcin dle otra y estas probabilidades son 0.1,0.2, 0.3,y 0.4, respectivamente, calcularla probabilidad de que la seal k se reciba por k = O, 1, 2, 3, 4. 3.34.Un aficionado usael siguiente sistema bastante simple para pronosticar el tiempo atmosfrico. Clasifica cada da como seco o mojado y supone que la probabilidad de que cualquier dadado sea igual al precedente est dada por una constantep ( 0 < p < 1). Con base e n anotaciones anteriores, sesupone que el lo. de enerotiene una probabilidad P d e ser seco. Suponiendo que Pn =

68 Probabilidad condicionale independencia


probabilidad (el n-simo da del ao es seco),obtener una expresin para Pn en funcin d e P y p . Evaluar tambin lnln+m& e interpretar su resultado. (Sugerencia: Expresar Pn en funcin de ,&-I).
3.35. En una ciudad se publican los peridicos A, B y C. Una encuesta reciente de lectores indica lo siguiente: 20% lee A, lG% lee B, 14% lee C, 8% lee A y B , 5%lee A y C, 2% Ice A, B y C, y 4% lee B y C. Para un adultoescogido al azar, calcular la probabilidad de quea ) no lea ninguno d e los peridicos, b ) lea exactamente uno de los peridicos, c) lea al menos A y B si se sabe que lee al menos uno delos peridicos.
3.36. Una moneda normal se lanza 2n veces

Obtener la probabilidad de quehaya un nmero igual d e caras y sellos. b ) Mostrar que la probabilidad calculada en a ) es una funcin decreciente de n.
a)

3.37. Cada una dea l s urna 1, urna 2,. . . , urna n contiene cy esferas blancas 1 a la urna 2 y luego se pasa una dela urna 2 a la urna 3, etc. Finalmente, se escoge una esfera de la urna n. Si la primera esfera que se pas era blanca, Ccul es la probabilidad de que la ltima esfera elegida sea blanca? Qu sucede cuando n + cm? [Szrgerencia: Sea p n = Prob (n-Csima esfera pasada sea blanca) y expresar p n en trminos de

y P esferas negras. Se pasa una esfera de la urna

~n-1.1
cy esferas blancas y P esferas negras, mientras que 2 contiene P esferas blancas y cy esferas negras. Se escoge una esfera (de una de las urnas) y luego se devuelve a esa urna. Si la esfera elegida es blanca, la siguiente se escoge de la urna 1; si la esfera elegida es negra, l a siguiente se escoge de la urna 2. Continuar de esta manera. Dado que la primera esfera escogida proviene de la urna 1, obtener Prob (n-sima esfera escogida sea blanca)y tambin el lmite d e esta probabilidad cuando n + cm.

la urna

3.38. La urna 1 contiene

3.39. Una mjquina puede imprimir n letras, digamos C U I ,.. . , c y T L . Esta mhquina opera porilnpulsos elctricos y cada letrase produce por un impulso diferente. Supngase que exista una probabilidad constante p d e imprimir la letra correcta y tambin snpngr\se independencia. Uno de los n impulsos, elegido al azar, aliment la mquina dosveccs y las dos veces seimprirni la letra a l . Calcular la probabilidad de que el impulso escogido estuviese proyectado para imprimir a l .

4.1 Nocin general de una variable aleatoria


Al describir el espacio mucstral de un experimento especificamos no que un resultado individual necesariamente tiene: que ser un nmero. De hecho, hemos citado varios ejemplos en los cuales el resultado del esperimento no fue una cantidad numbrica. Por ejemplo, a l clasificar un artculo manufacturado simplementepodamlos usar las categoras defectuoso y no defectuoso.En otro caso, para observarla temperatura 24 horas slo podamo,s mantener un registro de durante un periodo de la curva trazada por el termgrafo. Sin ernbarlgo, en muchas situaciones experimentales vamos a interesarnos en mediralgo y anotarlo como un nzmero. An en los casos antes citados, podrclnos asignar un nmero a cada uno d e los resultados (no numricos) del expcrirnento. Por ejemplo, pudimos asignar el valor 1 a artculos no defectuosos y el valor O a los defectuosos, as como anotar la temperatura mxima o mnima del da, o el promedio de las temperaturas mxima y mnima. Los ejemplos anteriores son caractersticas de una clase muy general d e problemas. En muchas situaciones experimentales deseamos asignar x a cada uno de los elementos S del espacio muestra1 S. un nmero real

70 Variables unidimensionales aleatorias

4.1

Esto es, z = X(s) es el valor de una funcin X del espacio muestral a los nmeros reales. Teniendo esto presente, hagamos la siguiente definicin formal.

Definicin. Sea E un experimento y S el espacio muestral asociado con l. Unafimcin X que asigna a cada uno de los elementos S E S, un nmero real S ( s ) , se llama trariable aleatoriu.
Observaciones: a ) La terminologa anterior es algo desafortunada, pero es tan universalmente aceptada que nosotros no nos apartmemos d e ella. Memos hecho lom,is claro posible que S es una funcin, y todava la llamamos variable (aleatoria)! b ) Resulta que no toda filncin que se conciba puede considerarse como una variablealeatoria.Unaexigencia (aunque no lams general) es que para todo nmero real x el evento { X ( s ) = x} y para todo intervalo 1, el evento {"(S) E I} tiene probabilidadesbien definidas y consecuentes con los axiomas bjsicos. En la mayora d e las aplicaciones noapareceesta dificultad y no haremos referencia posterior. c) En algunoscasos, el resultadoS del espacio muestral esy" la caracterstica numrica que queremos anotar. Simplemente tomamos X(s) = S , la funcin identidad. d ) En la mayora d e los anjlisis d e variables aleatorias que siguen no necesitamos indicar la nahlraleza funcionalde X. En general, nos interesamos en los valores posibles d e S , en vez d e indagar de dnde provienen esos valores. Por ejemplo, supongamos que lanzamos dos monedas y consideramos el espacio muestra1 asociado con este experimento. Esto es,

S = {CC,cs, sc, SS}


Definamos la variable aleatoria X como sigue: X es el nmero decaras obtenidas en los dos lanzamicntos. Por lo tanto, X(CC) = 2,X(CS) = X ( S C ) = 1 y X(SS) = o.
.y
y

c'spac~o t n u e ~ t r a l d ei:

K x = \alol-eaposlbles d e ,f

FIGURA 4.1

4.1

Nocidn general dd? una variable aleatoria

71

e ) Es muy importante comprender una exigencia bjsica de unafuncin para un slo valor: a cada S E S le corresponde exactammte un valor X(s). Esto se demuestra esquemticamente en la figura 4.1. Valores diferentes de S pceden dar el mismo valor de X. Por ejemplo, en la ilustracin anterior encontramos que X ( C S ) = X ( S C ) = 1.

Aunque estamos conscientes del peligro pedaggico que existe al dar muchas explicaciones d e lo mismo,seiialamossinembargo que X d e dos maneras: podemos concebir una variable aleatoria a) Realizamos el experimento E que tiene como resultado s E S . Luego evaluamos el nmeroX ( s ) . 6) Efectuamos E , obteniendo el resultado S, e (inmediatamente) calculamos x ( ~ El ) nmero . X ( s ) se considera entonces como el resultado y R, se convierte en el espacio muestral del obtenido en el experimento experimento. No es fcil establecer la diferencia entre las interpretaciones a) y b). Relativamente es muy pequea, pero digna de atencin. En a) el experimento termina, de hecho, con la observacin d e s. La evaluacin d e X ( s ) se estima como algo que se hace posteriormente y que no se afecta por la aleatoriedad d e E. En b) se considiera que el experimento no X(s) se ha calculado y se tiene as el est terminado hasta que el nmero la primera interpretacin, espacio muestralR, como resultado. Aunque a) es la que usualmentese pretende, el segundlopunto de vista, b ) puede Lo que queremos decir, y esto ser muytil y el lector dcber recordarlo. serA ms evidente en las ltimas secciones, es que al estudiar variables a 1.0s valores que tomaX que aleatorias estamos ms interesados respecto de su formafuncional. Por lo tanto, en muchos casos ignoraremos por X. completo el espacio muestral sobre el cual se puede definir

El espacio R,, es decir, el conjunto de todos los valores posibles d e X , algunas veces se llama el recorrido. En cierto sentido podemos considerar a R, como otro espacio muestral. El espacio muestral (original) S corresponde a los resultados no numricos ((posiblemente) del experimento, mientras que R, es el espacio muestral asociado con la variable aleatoria X , que representala caracterstica numricaque puede ser de inters. Si X ( s ) = S, tenemos S = R,.

EJEMPLO 4.1. Supongamos que se pone una bombilla en un portala bombilla lmparas. Se considera queel experimento termina cuando se apaga. (Cules un resultadoposible, digamos S? Una manera de desla cual cribir s sera anotando simplemcntcla fecha ~7 la hora del da en

unidimemionales aleatorias 72 Variables

4.1

la bombilla se qwma, por ejemplo 19 d e mayo, 4:32 P M . Por lo tanto, el espacio muestral se puede representar como S = { ( d , t ) 1 d = fecha, f = hora del da}. Posiblemente la variable aleatoria de interses S , el tiempo que permanece encendida. Ntese que una vez que se ha observado S = ( d , t ) , la evaluacin d e X(s) no indica ninguna aleatoriedad. Cuando S est especificada, X(s) est determinado por completo.
Los dos puntos de vista antes expresados pueden aplicarse a este ejemplo como sigue. En a) consideramos que el experimento termina con la observacin S = ( d , t ) , la fecha y la hora del da. El clculo d e X(s) se efectila, entonces, haciendo una sencilla operacin aritmtica. despus de haber En 6) slo damos por terminado el experimento hasta evaluado X(s), y entonces el nmero X ( s ) = 107 horas, por ejemplo, se considera como su resultado. Es posible sealar que un anlisis similar se podra aplicar a otra variable aleatoria d e inters, por ejemplo, E(s) es la temperatura en la habitacin en el instante en que la bombilla se quema.
EJEMPLO 4.2. En una mesaselanzantresmonedas.Tan pronto como las monedas caen en la mesa,concluye la fase aleatoria del experimento. Un slo resultado S podra consistir en una descripcin detallada decGmo y dnde cayeronlas monedas. Posiblemente estamos interesados slo en ciertas caractersticas numericas asociadas con este experimento. Por ejemplo, podramos calcular

X(S)= nmero de caras que aparecen, Y(,) = distancia mxima entre dos monedas cualesquiera, Z ( s ) = distancia mnima de las monedas desde cualquier arista d e la mesa.
Si la variable aleatoria X es d e inters, como indicamos en el ejemplo anterior,podramosincluir la evaluacin d e X ( s ) en la descripcin del experimento y, por lo tanto, sGlo indicar que el espacio muestral asociado con el experimento es {O, 1, 2,3}, que corresponden a los valores d e S . Aunque a menudo adoptaremos precisamente este punto d e vista, es importante establecer quela cuenta del nlimero d e caras se hace despus de que ha terminado la parte aleatoria del experimento.
Obseruacwn: Al referirnos a variables aleatorias usaremos, casi sin escepcibn, etc. Sin embargo, cl~ando hablemos del valor de letras mayilsculas como S , Y, 2,

4.1

Nocidtt general de una variable aleatoria

73

esas variables aleatoriasen general emplearemos letras minsculas comox,y, 2 , etc. sta es una disti~cinmuy importante que debemos hacer y el estudiante contemplar con dctenimiento. Por ejemplo, cuando hablamos de escoger al azar una persona de alguna poblacin sealada y medir su estatura (en pulgadas, por ejemplo), podramos refcrirnos a los resuhdosposibles como una variable aleatoria X. Ta1nbiC.n es posible hacer varias preguntas acerca de S , talescomo P(X 2 60). Sin embargo, una vez que elcgimos una persona y medimos su estatura, obtenemos un valor especfico de X, por ejemplo, 2 . As no sera relevante preguntar por P ( x 2 SO), puesto que x es o no 2 60. Esm distincin entre una variable alcatoria y su valor esimportante, y m& adelante nos referiremos a ella.

As como nos interesamos por los eventos asociados con el espacio muestral S, tambin serA necesario tratar eventos respectoa la variable aleatoria X, esto es, subconjunto del recorrido R,. Muy a menudo S estnrelacionados (cn un sentido ciertoseventosasociadoscon que luego describiremos) con eventos asociados con R, d e la manera siguiente.
Definicin. Sea E un experimento y S su espacio muestral. Sea X una variable aleatoria definida en S y sea R, su recorrido. Sea B un evento respecto a Rz; esto es, 13 c R,. Supongamos que A se dcfine como

A = {S E S I X(S) E B } .
En palabras, A consta d e todos los resultados e n S para los cuales X(s) E 13 (Fig. 4.2). En este caso decimos que A y B son eventos equivalentes.

FIGURA 4.2
Olrsenlacw,nes: a ) Expresando lo anterior de manera m6s informal, A y B son eventos equivalentes siempre que ocurran juntos.Esto es, siempre que A

74 Variables aleatoriusunidimensionales

175991

4.1

ocurre, B ocurre y viceversa. Si ocurri A , entonces se obtuvo un resultado S para el cual X(s) E B y, por lo tanto, ocurri B . Recprocamente, si B ocurri, se obsen.6 un valor S(s)para el cual S E A y, por lo tanto, ocurri A. b ) Es importante destacar que en nuestra definicin d e eventos equivalentes, A y B estn asociados con espacios muestrales diferentes.

EJEMPLO 4.3. Consideremos cl lanzamiento d e dos monedas. En cstc caso, S = {CC,C S , SC, SS}. Sea X el nmero decaras obtenidas. Por lo tanto, RL = {O, l , 2 } . Sea B = (1). Puestoque X ( C S ) = X(SC) = 1 si y slo si X ( S ) = 1, tenemosque A = { C S , S C } es cquivalentc a B.
Ahora damos la siguiente dcfinicin importante. Definicin. Sca B un evento en el recorrido R z , entonces definimos P( n ) como sigue:

P ( B ) = P ( A ) , donde

A = {S E S

S(.)

E I?}.

(4.2)

En palabras, definimos P ( B ) igual a la probabilidad dcl evento A c S, que es equivalente a B , en el sentido dcla ecuacin (4.1).
Obse~uacwnes:a ) Suponemos que l a s probabilidades se pueden asociar con eventos en S . Por tanto, la definicin anterior hace posible asignar probabilidades a eventos asociados con R, en trminos de las probabilidades definidas en S . b) Realmente es posible probar que P ( B ) debe ser como se defini6. Sin embargo, esto implicara alguna dificultad terica que queremos evitar y, por tanto, proseguiremos como antes. c) Puesto que en la formulacin d e la ecuacin (4.2) los eventos A y B se refieren a espacios muestrales diferentes, en realidad deberamos usar una notacin diferente cuando nos referimos a las probabilidades definidas en S y para las definidas en R,, por ejemplo, algo como P ( A ) y P,(B). Sin embargo, no haremos estosino q u e continuaremos escribiendo simplemente P ( A ) y P(L3). El contesto dentro delcual aparezcan estas expresiones h a r i evidente la interpretacin. d ) Las probabilidades asociadas con eventos en el espacio muestra1 S (original) esdn en un sentido, determinadas por fuerzas que escapan a nuestro control o, como se dice algunas veces por naturaleza. La constitucin de una fuente radioactiva que emite partculas, la distribucin de un gran nilmero de persons que podra hacer una llamada telefnica durante determinada hora y la agitacin trnlica que resulta de una corriente oa l s condiciones atmosfricas

4.2
~

I ,

<

.? . :;: .: ., 7,

.,

.k

Variables aleatorias discretas

75

que dan origen a una fuente de tormenta, ilustran este punto. Cuando introducimos una variable aleatoria X y su recorrido asociado Rx, inducimos probabilidades sobre los eventos asociados con Rx que se determinan estrictamente sia l s posibilidades asociadas con los eventos en S estn especificadas.
i

EJEMPLO 4.4. Silas monedas consideradlas en el ejemplo 4.3 son normales, tenemos P ( C S ) = P ( S C ) = Por tanto, P ( C S ,S C ) = 1 1 = 2 1. (Los clculos anterioressonunaconsecuenciadirecta de nuestra suposicin bsica acerca d e la regullaridad d e las monedas.) Puesto que el evento {X = l}es equivalente al evento { C S ,S C } , usando [Realmente la ecuacin (4.1) tenemos que P ( X = 1) = P ( C S ,S C ) = no haba eleccinacerca delvalor de P ( X = 1) consistentecon la ecuacin (4.2), una vez que se determin P ( C S , S C ) . En este sentido, se inducen las probabilidades asociadas con eventos Rz.]

i.

i.

Obseruacidn: Ahora que hemos establecido la existencia de una h n c i h d e probabilidades inducidas sobre el recorrido de X (ecuaciones 4.1 y 4.2) encontraremos conveniente suprimir la naturaleza funcional de X. Por lo tan. to, escribiremos(como lo hicimos en el ejemplo anterior) P ( X = 1) = ; Lo que se quiere decir es que un evento en elespacio muestral S , llamado {CS,SC} = {S I X ( s ) = 1) ocurre con probabilidad ; . Por lo tanto,asignamosesamisma probabilidad al eveq$o { X = 1) en el recorrido. Continuaremos escribiendo expresiones como-P(X = l ) ,P(X 5 5), etc. Es muy importante que el lector se d cuenta de lo que esas expresiones representan realmente.

Una vez que se han determinado ( o ms exactamente, inducido)las probabilidades asociadas con varips resultados,( o eventos) e n el recorrido Rz ignoraremos a menudo el espacio muestral original S que dio lugar a esas probabilidades. A s , en el ejemplo anterior, slo estamos 1 z, 1 2). 1 El interesados en Rz = {O, 1,2} y las probabilidades asociadas ($, hecho de que estas Probabilidades estn determinadas por una funcin original S So nos preod e probabilidad definida en el espacio muestr(a1 cupa si estamos interesados s610 en estudiar los valores d e la variable aleatoria X. Al analizar en detalle muchos de.los conceptosimportantes asociados con variables aleatorias encontraremos conveniente distinguir dos casos importantes: las variables aleatorias discretas y las continuas.
O
a

76

Variables aleatorius unidimensionales

4.2

4.2 Variables aleatorias discretas


Definicin. Sea X una variable aleatoria. Si el nmero de valores posibles d e X (esto es, R,, el recorrido)es finito o infinito numerable, llamamos a X una variuble uleutoriu discreta. Esto es, sepueden anotar los valores posibles d e X como "1, " 2 , . . . x R . . . En el caso finito, la lista termina y en el caso infinito numerable, la lista contina indefinidamente.

EJEMPLO 4.5. Una fuente radioactiva emite partculas (Y.Un contador observa la emisin de esas partculas durante un periodo de tiempo determinado. La siguiente variable aleatoriaes de inters: X = nmero de partculas observadas.
?Cules son los valores posibles d e A'? Supondremos que estos valores constan de todos los enteros no negativos. Esto es, R, = {O, 1 , 2 , . . . , n , . . .}. Una objecin que vimos anteriormente puede aparecer de nuevo en este punto. Podra argirse que durante un intervalo de tiempo especificado (finito) es imposible observar ms de,por ejemplo, N partculas donde N puede ser un entero positivo muy grande. Por tanto, los valores posibles de X realmente seran: O, 1 , 2 , . . . ,N . No obstante, resulta que matemticamente es ms sencillo considerar la descripcin idealizada antes dada. De hecho, cada vez que suponemos quelos valores posibles de una variable aleatoria X son infinitos numerables estamos considerando una representacin idealizada de X. En vista d e nuestros comentarios previos sobre la descripcin probabilstica d e eventos con nmero finito de elementos o infinitos numerablcs, la descripcin probabilstica de una variable aleatoria discreta no nos causar ninguna dificultad. Procederenos como se indica a continuacin.
Definicin. Sea X unavariablealeatoriadiscreta.Portanto, Rz, el recorrido de X, consta, a lo ms, de un nmero de valores, 2 1 , " 2 , . . . infinito numerable. Con cada resultado posible zi asociamos un nmero p ( z i ) = P ( X = x;), llamado probabilidad d e zi. Los nmeros p(x;), i = 1 , 2 , . . . deben satisfacer las condiciones siguientes:

4.2

u) p ( q )
00

2 O para toda i,
(4.3)
i

i= 1
L a funcin p que antes se defini, se Ilamafzmcidn de probubilidud ( o funcin de probabilidad puntual) de la variable aleatoria X . La coleccin de pares ( x i p ( z i ) ) , i = 1 , 2 , . . . , algunas veces se llama distm'bucidn de

probubilidud de X .

FIGURA 4.3
Obseruaciones: a) La elecci6n particular de los mmeros p(x;) posiblemente est5 determinada por la hncin de probabilidad asociada con eventos en el espacio muestral S sobre el cual se define X. Esto es, p(x;) = P [ s I X ( s ) = x;]. (Vanse las ecuaciones 4.1y 4.2.). Sin embargo, ya que slo estamos interesados en los valores de X, esto es R,, y en las probabilidades asociadas con esos valores, omitimos otra vezla naturaleza funcional de X (vase la Fig. 4.3). Aunque en la mayora de los casos los nmeros de hechose determinaran de la distribuci6n de probabilidades en algn espacio muestral fundamental S , cmlquier conjunto de nmeros ~ ( 2 ; )que satisfaga la ecuacin (4.3)puede servir como una descripci6n probabilstica propia de un,a variable aleatoria discreta. , b ) Si X toma s610 un nmero finito de valores, por ejemplo 21, . . . , x,, entonces p ( q ) = O para i < N y, por lo tanto, la serie infinita en la ecuaci6n (4.3) llega a ser una suma finita. c) Nuevamente podemos observar una analoga conla mecnica, al considerar una masa total unitaria distribuida sobre la recta real con la masa completa ubicada en los puntos x1 , x 2 , . . . Los nmeros p(x;) representan la cantidad de masa localizada en x;. d ) L a interpretacin geomtrica (figura 4.4) de una distribucin de probabilidades es siempre til.
~

7 8 Variables a l e a t o k s unidimensionales

4.2

FIGUR4 A. 4

FIGURA 4.5

tanto,

Sea B un eventoasociado conla variable aleatoriaX . Esto es, B c Rz (Fig. 4.5). Especficamente, supongamos que B = {zil, xi27 .. .} . Por

P ( B ) = P [ s I X ( s ) E B]

(puesto que estos eventos


c m

son equivalentes)
(4.4)
,

= P [ s I X ( s ) = xi. , j = 1 , 2 , . . .] = 3

P(ZZj).
j=1

En palabras, la probabilidad de un evento B es igual ala suma delas probabilidades d e los resultados individuales asociados con B .
\

Obseruacwnes: a) Supngase que la variablealetoria discreta X puede tomar . . , 2 , . Si cada resultado es slo un nmero finito de valores, por ejemplo z1,. igualmente probable, resulta obvio que tenemos p ( z 1 ) = . . . = p ( z ~= ) 1/N. b ) Si X toma un nmeroinfinito numerable de valores, entonces es imposible tener todos los resultados igualmente probables, porque quiz no podamos satisfacer la condicin si hemos de tener p ( z ; ) = c para toda i. c) En cada intervalo finito habr cuando muchoun nilmero finito de valores posibles de X . Si uno de esos intervalos no contiene ninguno de los-valores posibles, le asignamos probabilidad cero. Esto es, si R, = (21,2 2 , . . . , z , } y si ningn z; E [ a ,61, entonces P [ a 5 X 5 b] = O.

EJEMPLO 4.6. Supngaseque se poneuntubo de radioenun soporte y se prueba. Considrese quela probabilidad de que el control sea positivo es igual a : ; por tanto, la probabilidad de que el control sea negativo es $. Supngase, adems, que probamos una gran cantidad d e esos tubos. La prueba contina hasta que aparece el primer tubo positivo. Definase la variable alcatoria X como sigue: X es el nmero

4.3

binomial L a distribucidn

79

de pruebas necesarias para finalizar elexperimento. El espacio muestral con asociado es 1

S = {+, -+,

--

+, - - -+,

* *

o } .

Para determinar la distribucin de probabilidades de X razonamos de la siguiente manera. Los valores posibles de X son 1 , 2 , . . . ,n , . . . (obviamente estamos considerando el espacio muestral idealizado). Y X = n si y slo si los primeros ( n - 1) tubos son negativos y el n-simo tubo es positivo. Si suponemos quela condicin de un tubo no afecta la condicin de otro, podemos escribir
p ( n ) = P(X = n)=

i
i

(i)n-1 (;)

, n = 1,2,. ..
i

Para verificar que estos valores de p ( n ) satisfagan la ecuacin (4.3), observemos que
1

Observaciones: Aqu empleamos el resultado de que la sene geomtrica 1 r + r2+. . . converge a 1/( 1-r) siempre que Ir1 < 1. Aeste resultadonos referiremos varias veces. Supngase que queremoscalcular P ( A ) ,donde A se define como {El experimento termina despus de un nmero par repeticiones}. de Usando la ecuaci6n (4.4), tenemos
I

P(A) =

a 3

n=l

3 p(2n) = 256 16

3 --

+ ..

3 -

1 - -. 1 161--L 5 16
,

4.3 La distribucin binomial

\
,

En los captulos finales consideraremos en forma detallada diversas variables aleatorias discretas importantes. Por el momento, slo estudiaremos una de ellas y luego l a usaremosparailustrar variosconceptos relevantes.

80 Variables unidimensionales aleatorias

4.3

EJEMPLO 4.7. Supngase que los artculos que salen de una lnea d e p - o d u c c i h se clasifican como defectuosos ( D ) o no defectuosos ( N ) y que se eligen al azar tres artculos de la produccin de unda, los cuales se clasificande acuerdocon este esquema. El espacio muestral para este csperimento, digamos S, puede describirse as:
S = {DDD, DDN,DND,NDD, NND,NDN, DNN,NNN}.
(Otra manera de describir S es como S = S 1 x S2 x S3, el producto S,, y SS, donde cada S; = { D , N } . ) cartesiano d e SI, Supongamos que con probabilidad 0.2 un artculo es defectuoso y, por lo tanto, con probabilidad 0.8 un artculo es no defectuoso. Supongamos al menos durante que esas probabilidades son iguales para cada artculo, nuestro estudio. Finalmente, supongamos que la clasificacin d e cualquier artculo particular es independiente de la clasificacin d e cualquier otro artculo. Usando estas suposiciones, se deduce que las probabilidades asociadas conlos diversos resultados delespacio muestral S, como antes se describi, son

Usualmente nuestro inters no se enfoca hacia los resultados individuales de S, sino que slo deseamos saber cuntos artculos defectuosos Es dese encuentran (sin tomar en cuenta el orden en que ocurrieron). cir, deseamos considerar la variable aleatoria X que asigna a cada uno d e los resultados S E S el nmero de artculos defectuosos encontrados valores posibles d e S es {O, 1,2,3}. en s. Por tanto, el conjunto de Podemos obtener la distribucin de probabilidades para X, p ( x ; ) = P ( S = x;) como sigue:

X = O si y slo si ocurre N N N ; X = 1 si y slo si ocurre D N N , N D N oNND;


A = 2 si y slo si ocurre D D N , D N Do N D D ;

X = 3 si y slo si ocurre DDD.


. (Ntese

que { A 7 N N }equivale a {X = O}, etc.) Por lo tanto,

4.3

LAZ

distribucin binomial

81

p ( 0 ) = P ( X = O) = ( 0 . q 3 ,

p(1) = P ( X = 1) = 3(0.2)(0.8)2,

p(2) = P ( X = 2) = 3(0.2)2(0.8),p(3) = ]'(X = 3) = (0.q3. Ntese quela suma deestas probabilidades es igual a 1, porque la suma se puede escribir (0.8 0.2)3.

Observacidn: La exposici6n anterior ilustra c6nno las probabilidades en el recorrido R, (en este caso, {O, 1 , 2 , 3 } ) son inducidas por las probabilidades definidas en el espacio muestral S , porque la s.uposicin de que los ocho resultados d e
S = {DDD, DDN,DND, NDD,NND,NDN, DNN,NNN}

Generalicemos ahoralas nociones presentadas en el ejemplo anterior.

Definicin. Consideremos unexperimento E y sea A unevento asociadocon E. Supongamosque P ( A ) = p y, por lo tanto, P ( A C )= 1 - p. Consideremos n repeticiones independientes d e E. Por lo tanto, el espacio muestral consiste en todas las sucesiones posibles { a l , a 2 , . . . , a n } , donde cada ai es A o A', segn A o A ' ocurra en la i-Csima repeticin d e E. (Hay 2n d e tales sucesiones). An ms, supongamos que P ( A ) = p es el mismo para todas las repeticiones. Definamos la variable aleatoria X como sigue: X = nmero de veces queocurrielevento A . Llamamosa X una variable aleatoria binomial con los parmetros n y p . Sus valores posibles obviamente son O, 1,2,. . . ,n. (Decimos en forma equivalente queX tiene unadistribucin bminomial.) Las repeticiones individuales d e E se 1lamarAn ensayos de Bernoulli. Teorema 4.1. Sea X una variable binomial con base en n repeticiones. Entonces

P ( X = k) =

(;)

p k ( l - p)",

(4.5)

unidimensionales aleatorius 82 Variables

4.3

Demostracin: Consideremos un elemento particular del espacio muestral E que satisfaga la condicin de que X = k . Tal resultado aparecera, por ejemplo,si las primeras k repeticiones de E resultasen en la ocurrencia d e A, mientras que las ltimas n - k repeticiones resultasen en A', es decir:

AAA . A A C A C A C . A'. .
M L
I

n-k

Puesto que todas las repeticiones son independientes,la probabilidad p k ( 1 - I , ) ~ - ' . Pero exactamente la d e estasucesi6nparticularsera misma probabilidad estara asociada con cualquier otro resultado para el cual X = k . El nmero total de tales resultados es igual a (I), por lo que debemos elegir con exactitud k posiciones (entre n) para-las A. Pero esto produce el resultado anterior, ya que esos (I) resultados son mutuamente excluyentes.
Observaciones: a ) Para verificar nuestros cAlculos, observemos que, usando el teorema del binomio, tenemos Cg=,P(X = k) = Cg=, ( i ) pk(1- P ) " - ~ = [p + \l - p ) l n = In = 1, como debera ser. Puesto que las probabilidades (i) p (1 - p ) n - k se obtienenal desarrollar la expresin binomial [p (1 - p ) l n , a Sta la llamamos distribucin binomial. b) Cada vez que realizamos repeticionesindependientes de un experimento y nos interesamos s610 en una dicotoma -defectuosos o no defectuosos, duI reza sobre o bajo un cierto valor estndar, nivel de ruido en un sistema d e comunicaciones superior o inferior a un margen preasignado- consideramos potencialmente un espacio muestral en el cual podemos definir una variable aleatoria binomial. Si las condiciones del experimento permanecensuficientemente uniformes de modo que la probabilidad d e algn atributo, por ejemplo A , permanezca constante, podemos usar el modelo anterior. c ) Si n es pequeiia, los trminos individuales d e la distribuci6n binomial son relativamente sencillos d e calcular. Sin embargo, si R es razonablemente grande, estos cAlculos llegan a ser un poco complicados. Por fortuna, las probabilidades binomiales han sido calculadas. Existen muchas d e esas tabulaciones (vase Apndice).

EJEMPLO 4.8. Supongamos que un tubo de radio puesto en cierto tipo de equipo tiene una probabilidad de 0.2 de funcionar ms de 500 horas. Si probamos 20 tubos,?cul es la probabilidaddeque exactamente E de ellos funcionen ms de 500 horas, k = O, 1 , 2 , . . . , 2 0 ?

4.3

binomial L c r distribucin

83

Si X es el nmero de tubos que funcionan ms d e 500 horas, supondremos que X tiene una distribucin binomial. A s , P ( X = IC) = (2:)(0.2)k(0.8)20-k. Los siguientes valores pueden leerse en la tabla 4. l.
TABLA 4.1
P(X = O) = 0.012 P(X = 1) = 0.058 P(X
= 2) = 0.137
/

P ( X = 4) = 0.218 P(X
= 5) = 0.175

P(X

= 8) = 0.022

P(X = 9) = 0.007 P(X = 10) = 0.002 P(X = IC) = O+ para IC 2 11


que 0.001 .)

P(X = 6 ) = 0.109 P(X = 7) = 0.055

P(X = 3) = 0.205

(Las probabilidades restantes son menores

Si dibujamos esta distribucin de probabilid,ades obtenemos la grfica que se muestra en la figuras 4.6. El modelo que observamos aqu es muy general: las probabilidades binomiales aumentan montonamente hasta que alcanzan un valor mximo y luego disminuyen d e la misma manera. (Vase el Prob. 4.8.)

FIGURA 4.6
EJEMPLO 4.9. Al poner en funcionamiento una mgquina, existe cierta probabilidad de que el operario cometa un error. De manera realista puede suponerse que ste aprende en cuanto sabe que la probabilidad de cometer errores disminuye cuando use la mgquina en repetidas ocasiones. Supongamos que el operario hace n intentos y que los n ensayos son estadsticamente independient'es. Supongamos de manera especfica que P(un error cometido en la i-sima repeticin) =
\

84 kriables unidimensionales aleatorias

4.3

l / ( i l ) ,i = 1 , 2 , . . . ,n. Supongamos que se consideran 4 intentos (esto es, n = 4) y que se define la variable aleatoria X como el nmero d e operaciones hechas sin error en la mquina. Observemos que X no est distribuida binomialmente porque la probabilidad d e xito no es constante. Para calcular la probabilidad de X = 3, por ejemplo, procedemos como sigue: X = 3 si y slo si hay exactamente un intento no exitoso. Esto puede suceder en el primero, segundo, tercero o cuarto ensayo. Por lo tanto,

p(x = 3) = 1 2 3 4 + 1 1 3 4 + 1 2 1 4 + 1 2 3 1 - 5 .
2 3 4253 4253 4253 4 5

- 12

EJEMPLO 4.10. Consideremos una situacin semejante a la descrita en el ejemplo 4.9. Esta vez supondremos que hay una probabilidad constante p , de no cometer error en la mquina durante cada uno de los primeros n1 intentos y una probabilidad constante p , 5 p , de no cometer error en cada una de las siguientes n2 repeticiones. Sea X el nmero de operacionesexitosas d e la mquina durante los n = nl n2 intentosindependientes.Encontramosunaexpresingeneralpara P ( X = k). Por la misma razn dada en el ejemplo precedente, X no P ( X = k) procedemos est distribuida binomialmente. Para obtener como sigue. Sea Y 1 el nmero de operaciones correctas durante los primeros nl intentos y sea Y 2 el nmero de operaciones correctas durante los segundos n2 intentos. Por lo tanto, Y 1y Y 2 son variables aleatorias independientes y X = 15 Y2. A s , X = k si y slo si Y 1=r y Y 2 = k - r, para cualquier entero r que satisfaga O 5 r 5 nl y O 5 k - r 5 n2. Las restricciones anteriores sobre 7 son equivalentes a O 5 r 5 nl y k - n2 5 r 5 k. Combinndolas podemos escribir

mAx (O, IC Por tanto, tenemos


mn(k,nl)

- n2)

5 r 5 mn (k,n l ) .

P ( X = k) =
r=mx ( 0 , k - n ~ )

nz-(b-r)

k-r

Con la convencin frecuente de que = O cada vez que b b < O, podemos escribir la probabilidad anterior como

(t)

>ao

4.4

Variables aleatorius continuas

85

Porejemplo, si pl = 0.2, p2 = 0.1, nl probabilidad anterior se convierte en

:=

n2

= 10 y Iz = 2, la

P(X = 2) =

2 r=O

(1r0 ) ( 0 . 2 ) r ( 0 . 8 ) ' 0 - r (2 l-or )

)(0.1)2-r(0.9)8+r

= 0.27,

despus de unclculo elemental.


Obseroacidn: Supongamos que = p 2 . En eslte caso, la ecuacin (4,6) se reducira a ( i ) p f ( 1 - p ~ ) ~ - 'puesto , que ahora la variable aleatoria X tiene una distribuci6n binomial. Para ver que esto es a s , obsrvese que podemos escribir (puesto que n1 + 712 = n )

Para mostrar que la suma anterior iguala (;) comphrense simplemente 10s coeficientes de las potencias de' x en ambos lados de la identidad (1+ x ) " ' (1+ x p = (1+ 2 ) n l +%.

4.4 Variables aleatorias continuas


Supongamos que el recorrido de X est formado por un gran nmero finito de valores, por ejemplo, todos los valores x en el intervalo O 5 x 5 1 d e la forma 0 , 0 . 0 1 , 0 . 0 2 , . . . ,0.98,0.99,1.00. Con cada uno de esosvaloresestasociado u n n ~ m e r o n o negativo p(x:;) = P ( X = xi), i = 1 , 2 , . . ., cuya suma es igual a 1. Esta situacin se representa geometricamente enla figura 4.7. Memos sealado antes que matemticamente podra ser ms fcil idealizar la anterior descripcin probabilstica. d e X al suponer que ,Y puede tomar todos los valoresposibles, P(X) O 5 x 5 1. Si hacemosesto, ?qu le sucede a las probabilidades puntuales p ( x ; ) ? Puesto que los valores posibles d e X no son contables, en realidad no o podemos hablar del i-simo valor de S FIGURA 4.7

ll

86 Variables aleatorius unidimensionales

4.4

y, por lo tanto, p ( x ; ) pierde significado. Lo que haremos es sustituir la funcin p, definida slo para 2 1 , x2,.. . , por una funcin f definida (en el contexto presente) para todos los valores d e x, O 5 x 5 1. Las propiedadesde la ecuacin (4.3)se sustituirn por f(x) 2 O y S,' f(x)dx = 1. Procederemos formalmente como sigue.
Definicin. Se dice que X es una variable aleatoria continua, si existe una funcin f,llamada funcin d e densidad d e probabilidad (fdp) d e X , que satisface las siguientes condiciones:
a) f ( z )

2 O para toda x,
(4.7)

f(x)dx = 1. b, J _ ,
Para cualquier a , b , tal que "o0 tenemos P ( a 5 ,Y 5 b ) = Jab f(x)dx.
c)

$ 0 3

< a < b < +m,


(4.8)

Obsemacwnes: a) Fundamentalmente queremos decir que X es una variable aleatoria continua si X puede tomar todos los valores en algn intervalo (c, cl), donde c y d pueden ser "o3 y + c o respectivamente. La existencia estipulada de una fdp es un mtodo matemtico que tiene una base intuitiva considerable y hace ms sencillos nuestros clculos. En relacin conesto, d e nuevose debe sealar que cuando suponemos X que es unavariable aleatoria continua, estamos considerando la descripcin idealizada d e S . b ) P ( c < S < d) representa el rea bajo la grfica de la figura 4.8 d e la fdp f entre x = c y x = d.

FIGURA 4.8
c ) Una consecuencia d e la descripcin probabilstica d e S para cualquier valor especfico de S , por ejemplo ro, es que tenemos P ( X = ro) = O, puesto que P ( X = " o ) = S"' f(x)dr = O. Este resultado puede parecer contrario x0 a nuestra intuicin. Dcbernos establccer, sin embargo, que si permitimos que

4.4

Variables aleatorius continuas 87

A tome todos los valores en un intervalo, entonces la probabilidad cero no es equivalente con la imposibilidad. Por tanto, en el caso continuo, P ( A ) = 0 no implica A = 8, el conjunto vaco. (Vase el teorema 1.1.) Para decirlod e u n modo mAs informal, consideremos que elegimos un punto al azar en el segmento {x I O 5 x 5 2). Aunque quisiramos estard e acuerdo (parafines matemticos) con que cada punto concebible del segmento pudiese ser el resultado d e nuestro experimento, nos sorprenderamos mucho si en realidad escogiramos precisamente el punto medio del segmento, o cualquie~r otro puntoespecfio d e ese elemento. Cuandoindicamos estoen un lenguaje matemtico preciso, decimos que el evento tiene probabilidad O. En vista d e estas consideraciones, todas las siguientes probabilidades son iguales si X es una variable aleatoria continua:

P(c 5

x 5 d),

P(c 5

x < d),

P(c < x 5 d), y P ( c

< x < d).

d ) Aunque aqu no verificaremos los detalles, se puede demostrar que la anterior asignacin d e probabilidades a los eventos en Rx satisface los axiomas bsicos d e probabilidades (Ec. 1.3), donde podernos tomar {x I -m < z < +m}como el espacio muestral. e ) Si una funcin f* satisface las condiciones, f *(x) 2 O, para toda x, y S-+, f*(x)dx = I(, donde A es un nmero positivo real (no necesariamente igual a l), entonces f* no satisface todas las condiciones para ser unafdp. Sin embargo, podemos definir con facilidad una nueva funcin, digamos f , en trminos d e f* como sigue:

f ( . )

=para toda x. I

Por tanto, f satisface todas las condiciones de ulna fdp. j )Si S slo toma valores en unintervalo finito [ u , b ] , simplemente podemos establecer f ( x ) = O para todo z [u, b ] . Por tanto, la fdp est definida para todos los valores reales d e z, y debemos exigir que: S-+, f(x)dz = 1. Cuando quiera que la fdp se especifique slo para ciertos valores d e x, supondremos que es cero para cualquier otro. g) if(z) no representa la probabilidad d e nada! Hemos observado que, por ejemplo, P ( X = 2) = O y, por tanto, f(2) ciertamentenorepresentaesta probabilidad. Slo cuando la funcin se integra entre doslmites produce una probabilidad. Sin embargo, podemos dar unainterpretacin d e f (z)Ax como sigue. Del teorema delvalor medio del clculo se deduce que

P ( z 5 X 5 x + Az) =

J,.

f ( s ) d s = Azf((),

5 [ 5 x + Ax.

88

Variables aleatorias unidimensionales

4.4

Si A x es pequea, f (x)Ax es apyooabuldamente igual a P(x 5 X 5 x + A x ) . (Si f es continua por la derecha, esta aproximacin llega a ser m& segura cuando Ax O.)
4

des (en estecaso la fdp es inducida en R, por las probabilidades asociadas con eventos en S. As, cuando escribimos P ( c < X < d ) , quercmos decir, como siempre, P [ c < S ( s j < dl, que a su vez es igual a P [ s I c < S ( s ) < dl, puesto que estos eventos son equivalentes. La definicin anterior, ecuacin (4.8), estipula esencialmentela existencia d e una fdp f definida en unaR, tal que

h ) Deberamos sealar de nueva cuenta que la distribucin de probabilida-

P[sI c

< X ( s ) < (13 =

f(xjdx.

Nuevamente eliminaremosla naturaleza ft~ncional ,Y dey, por tanto, estaremos interesados slo en RZ y la fdp f. i) En el caso continuo, otravez podemos considerarla siguiente alzalogia con la mpcdnica: snpngase que tenemos una masa total de una unidad, distribuida continuamente e n el intervalo a 5 x 5 b. Entonces, f( x j representa la densidad de la masa en el punto x y S , d f ( x ) d z representa la masa tot31 contenida en el intervalo c 5 x 5 d .

EJEMPLO 4.1 1. En el anAlisis precedente sobre variable aleatoria continua se supuso la existencia de una fdp. Consideremos un ejemplo simple en el cual podamos determinar con facilidad la fdp haciendo una suposicin apropiada acerca de la conducta probabilsticade la variable aleatoria. Supngase que escogemos un punto en el intervalo (0,l). Representemos la variable aleatoria X cuyo valor es l a coordenada 2 del punto elegido. Sz~~oszcidn: Si I es cualquier intervalo entre ( O , 11, entonces la Prob E I] es directamente proporcional a la longitud de I, por ejemplo, L ( 1 ) . Esto es,Prob [X E I ] = k L ( I ) , d o n d e X: es la constantede proporcionalidad. (Es fcil ver, tomando I = (O, 1) y observando que L ( ( 0 , l ) )= 1 y Prob[X E (O, I)] = 1, q u e X: = 1.) Obviamente X toma todos los valores en (O, 1). <Cul es s u fdp? Esto es, Cpodemos encontrar una funcin f t a i q u e

[X

P(a
f(x) = O. Si O < a A s encontramos
Ntese que si a

< X < 6) = J,b f ( z ) d . c ?

< 6 < O o 1 < u < 6, P ( u < X < 6) = O y, por tanto, < 6 < 1, P ( u < S < b ) = b - a y, por tanto, f ( 2 ) = 1.

4.4

Variables aleatorius continuas 89

1, O < x < l , O, paracualquier otro valor.

FIGURA 4.9

FIGURA 4.10

EJEMPLO 4.12. Supngase que l a variable aleatoria X es continua. (Vasc la Fig. 4.9) Sea la fdp f dada por
I
4'

f(x) = 2 2 ,
=O

o < 2 < 1,
para cualquier otro valor.

Claramente, f(x) > O y S_'," f ( 2 )dx = 22 dx = 1. Para calcular P(X 5 s610 debemos evaluar la integral 112 ( 2 2 ) d x = 1
1

i),

so so

El concepto d e probabilidad condicional tratado en el captulo 3 se puede aplicarcon propiedad a las variables aleatorias.A s , en el ejemplo < X 5 $). Aplicando de manera anterior debimos evaluar P ( X 5 I directa la definicin d e probabilidad individual, tenemos

90 Variables aleatorias unidimensionales

4.5

f(x) = " / x 3 ) 1500 5 x 5 2500,


= O,

paracualquierotro valor.

(Es decir, asignamos probabilidad cero al evento { X 1500) y > 2500}.) Paraevaluar la constante a, debemosacudira la condicin J ? : f(x)dz = 1, que en este caso se convierte en : : : J : a / x 3 dx = 1. De esto obtenemos U = 7,031,250. La grfica d e f aparece en la figura 4.10.

{x

En un captulo posterior estudiaremos detalladamente diversas vay continuas. Mediante el uso d e riables alcatorias importantes, discretas los modelos deterministas sabemos que ciertas funciones desempefian un papel mucho ms importante que otras. Por ejemplo, las funciones lineales, cuadrticas, exponenciales y trigonomtricas tienen un papel Al desarrollar los modeprimordial al describir modelos deterministas. los no deterministas(es decir, probabilsticos) encontraremos que ciertas variables aleatorias son particularmente importantes.

4.5 Funcin de distribucin acumulativa


En este captulo presentaremos otro importante concepto general.
Definicin. Sea X una variable aleatoria, discreta o continua. Definimos que I: es lafimczn de distribucdn acumulatiua d e la variable aleatoria X (abreviada fda) como F ( x ) = P ( X 5 x).
Teorema 4.2. a) Si X es una variable aleatoria discreta,

donde la suma se toma sobre todoslos indices j que satisfacen z j 5 x. O) Si X es una variable aleatoria continua con fdpf ,
(4.10)

Dernostracwn: Anlbos resultados se deducen inmediatamente dcfinicin.

d e la

4.5

Futlcitlt de distribucin acumulativa

91

; i
I -

;
I

;
2

FIGURA 4.11

EJEMPLO 4.14. Supongamos que la variable aleatoria A- toma los tres valores 0,1, y 2 con probabilidades 5 1, i; 1 y z, 1 respectivamente. Entonces,
I

F(2)= o
- 1 3 - 12 -

si 2 < o , si O < z < : l ,


si
1sz<:2,

=1

si 2 2 2 ,

(Ntese quees muy importante indicarl a inclusin o exclusin de los puntos extremos al describir los diversos inte-malos.)L a grfica de F se presentaen la figura 4.11.

EJEMPLO 4.15. Supongamos que X es una variable aleatoria continua con fdp
f(2) =

22,

o < 2 < 1,
paracualquicrotro valor.

= O,

Por lo tanto, la fda F est dada por

= l x 2 s d s = z2

=1

si

2>1.

La grfica correspondiente aparece enla figura 4.12.

92

Variables aleatoriusunidimensionales

4.5

FIGURA 4.12
Las grficas obtenidas en las figuras 4.1 1 y 4.12 para las fda (en cada uno delos casos) son tpicas en el siguiente sentido. a ) Si S es una variable aleatoria discreta con un nmero finito d e valores posibles, la grfica d e la fda F se formar d e trazos horizontales (sc llama hncin escalonada). La funcin F es continua excepto para los valores posibles d e X, llamados 1 , . . . ,xn. En el valor xj la grfica tendr un salto d c magnitud p ( r j ) = P ( X = xj). 6) Si S es una ftlncin aleatoria continua, F ser una funcin continua para todaT . c) La fda F est definida para todos los valores d e x, lo cual es una razn importante para considerarla. Hay dos propiedades fundamentales d e la fda que resumiremos en cl teorema siguiente.
Teorema 4.3. a) La funcin F es no decreciente. Esto es si 2 1 5 x2, tenemos F ( q ) 5 F ( z 2 ) . b ) lmx+-mF(r) = O y lm,,,F(z) = 1. [A menudo esto lo escribimos como F ( -m) = O, F ( w ) = 1.]

Demostracin: a) Definamos los eventos A y 13 como sigue: A = { S 5 B = {X 5 q } . Entonces, puesto que x1 5 z2,tenemos A c B y por el teorema 1.5, P ( A ) 5 P ( B ) , que es el resultado requerido. b ) En cl caso continuo tenemos
T ~ } ,

F(-m) =

.,S_,
lrn
f(S)
X + ,

ds = o,

F ( w ) = lm

I-,

f(s) ds = 1.

4.5

Funcin de distribucin acumulativa

93

En el caso discreto el argumentoes anlogo.

La fbncin d e distribucin acumulativa es importante por varias razones. Esto es particularmente cierto cuando tratamos con una variablc aleatoria continua, porque en este caso no podemos estudiar la conducta probabilstica d e X a l calcular P ( X = x). Esa probabilidad siemprees igual a cero en el caso continuo. Sin embargo:, podemos inquirir acerca d e P ( X < z) y, corno lo demostramos en el prximo teorema, obtcner la fdp d e X .

Teorema 4.4. u ) Sea F la da de una variable aleatorin continua con fdp f. Luego,

para toda z en la cual I: es diferenciable.

6) Sea X una variable aleatoria discrcta ccln valores posibles 21, x?, . . . , y supongamos que es posible rotular esos valorcs de modo que z l < x2 < . . . Sea F la da d e S . Entonces,
(4.12)

Demostracin: u ) F ( z ) = P ( X 5 x) = J : m f(s) ds. As, aplicando al teorema fundamental delclculo, obtenemos F ' ( z ) = f ( . ~ ) . 6) Puesto que supusimos X I < x2 < . . ., tenemos

Obseruacidn: Reconsiderelnos brcvcmcnte a ) del teorema anterior. Recordemos la definicin d e derivada dela funcin F :

94 Variables aleatoriasunidimensionales

= lm

P(S 5 2

+ h)- P ( S 5
h

2)

h+O+

As, si h es pequeha y positiva,

F ' ( z ) = f(z)E

P(z

< S 5 2 + h)
h

Es decir, f ( z ) es aproximadamente igual a la "cantidad d e probalilidad en el intervalo ( 2 ,2 h ) por longitud h". De aqu el nombre defuncin de densidad de probabilidad.

EJEMPLO 4.16. Supongamos que unavariablealeatoriacontinua tiene fda I: dada por


F(x)=

o,

5
,

o,
z>O.

=1-e

-X

Entonces, F ' ( x ) = e-" para


f ( z ) = e-",

> O, y as la fdp f
x

es dada por

=O

para cualquier otro valor.

2 O,

Obseruacin: Una advertencia sobre la terminologa puede ser de utilidad. Esta terminologa, aunque no es muy uniforme, ha llegado a estandarizarse. Cuando hablamos de la dzitribm-iu deeobabilidades de una nriable aleatoria X indicamos su Cdp f si X es continua, o d e su funcin d e probabilidrd puntual p definida para 21, 2 2 , . . . si X es discreta. Cuando hablamos d e la funcin de distribucin acumulativa, o algunas veces slo de 1 A f i l W k h de dishibucin, siempre nos referimos a F , donde F ( z ) = P ( X 5 x ) .

4.6 Distribuciones mixtas


I Iemos restringido nuestra exposicin slo a variables aleatorias discretas o continuas. Tales variables aleatorias ciertamente son las ms importantes en las aplicaciones. Sin embargo, hay situacionesen las cuales

4.7

Kiriables aleatorias distribuidas uniformemente

95

podemos encontrar variables del tipomixto: la variable aleatoria X puede tomarciertos valores distintos, por ejemplo,21, . . . z n ,con probabilidad positiva y tomar tambin todos los valores en algim intervalo, por ejemplo, a z 5 b. La distribucin d e probabilidades d e tales variables aleatorias se obtendra al combinar las ideas consideradas anteriormente y continuas como para la descripcin d e las variables aleatorias discretas sigue. A cada uno delos valores z; se le asigna un nmero p(x;) tal que p ( z ; )2 O, pax-a toda i, y tal que Cy=,p(z;) = p < 1. Entonces definimos b una funcin f que satisface !(x) 2 O, J, f(z)alz = 1 - p . Para toda a , b , con -00 < a < c < $00,
)

<

De esta manera satisfacemos la condicin

P ( S ) = P(-m

< x < 0 O ) = 1.

Una variable aleatoria del tipo mixto pue8de aparecer como sigue. y X es el tiempode Sup6ngasequeestamosprobandounequipo fhcionamiento. En la mayora de los problem.as describiramosS como una variable aleatoria continua con valores pos'ibles x 2 O. Sin embargo, hay algunos casos en los cuales hay una probabilidad positiva de queel l tiempo S = O. En tal artculo no funcione del todo, es decir, falla a caso desearamos modificar nuestro modeloy asignar una probabilidad ' = O. Portanto,tendramos positiva, por ejemplo p , a l resultado x P(-Y = O) = p y P ( X > O) = 1 - p. As, el nmero p describira la distribucin d e ,X en O, mientras que la fdp f describira la distribucin de valores de S > O (Fig. 4.13).

P ( X = O ) =p

FIGURA 4.13

FIGURA 4.14

unidimensiotrales aleatorias 96 Variables

4.7

4.7 Variables aleatorias distribuidas uniformemente


En los captulos 8 y 9 estudiaremos con detalle algunas importantesvariables aleatorias discrctas y continuas. Ya hemos presentadola relevancia de la variable aleatoria binomial. Ahora consideremos brevemente una variable continua tambin importante.
Definicin. Supongamos que X es una variable aleatoria continua que toma todos los valores en el intervalo [ a ,b ] , donde ambos, n y b, son finitos. Si la ftlp d e X est dada por

=O

para cualquier otro valor

(4.13)
[ a ,b].

decirnos que S est distl-ibuidu unifomcmente en el intervalo (Vase 12 Fig. 4.14.)

condicin S-+," f ( z ) dx = 1, esta constante debe ser igual a l recproco d e la longitud del intervalo. b) Una variable aleatoria distribuida uniformemente representa el trmino continuo an5log.o a los resultxlos igualmente posibles en el sentido siguiente. Para cualquier subintervalo [c,dl, donde a 5 c < d 5 b, P ( c 5 , Y 5 d ) es la 7rusmna para todos los subintervalos que tienen la misma longitud. Esto es,
P(c

fdp que es una constante en el intervalo d e definicin. A fin d e satisfacer la

Obsenmlones: a ) Una variable aleatoria clislribuida uniformemente tiene una

5 A- 5 d ) =

d-C b-a

y as s61o depende de I n longitud del intervalo y no d e l a ubicacin d e &te. c ) Ahora podemos precisar la nociBn intuitiva d e elcgir un punto P al azar en un intervalo, por ejemplo [ a ,61. Con esto slo indicaremos que la coorde11acla x del punto elegido, p.x ejemplo S , est5 distribuida uniformemcntc en [ a ,hl.

EJEMPLO 4.17. Se elige al azar un punto sobre el segmento de linca [0,2]. <Cul es la probabilidad de que el punto escogido quede entre 1

i?.

~1.8

Una observacidn

97

Rcprescntando la coordenada del punto elegido por X , tenemos 1 que la fdp de X est dada por f(x) = z, O < x < 2 y, portanto, 3 P(l 5 S 5 2 ) = +.

EJEMPLO 4.18. Se puede suponer que la dureza, digamos H , de una muestra de acero (medida en la escala Rockwell) es una variable aleatoria continua distribuidauniCormemente sobre [50,70] en la escala B . Por tanto,
f(h)=
=O
50

< h < 70,


valor.

para cualquier otro

EJEMPLO 4.19. Obtengamosunaexpresinpara variable aleatoria distribuida uniformemente


F(x)= P(X = O

la fda deuna

5 x) =
si

J-b,

,f(s)

ds

x<a,

La grrifica correspondiente aparece enla figura 4.15.


4.8 Una obseruacin

I-Icmos sealado varias veces que en alguna etapa del desarrollo de nuestro modelo probabilstico deben asignarse algunas probabilidades a los resultados sobre la base de alguna evidencia experimental (como es la frecuencia relativa, por ejemplo) o algunas otras consideraciones, tales
\
!

98 Variubles aleatoriusunidimensionales
como cxpcricncias pasadas con los rcnmenos estudiados. El interrogante siguiente sc le podra presentar al estudiante: ?por qu no podramos obtcncr todas las probabilidades e n las cuales estamos interecs que muchos eventos sados porun medio no deductivo? La respuesta c u p s probabilidades dcscamos conocer, son tan complicados que nucstro conocimiento intuitivo es insuficiente. Por ejemplo, supongamos quc diariamcntc salen 1000 artculos de una lnea d c produccin, algunos de cllos son defectuosos. Deseamos conocer la probabilidad de tener 50 o mtis artculos dcfcctuosos en un da dado. Aun si estamos familiarizados con el comportamiento general del proceso dc produccidn, nos podra ser difcil asociar una medida cuantitativa al evcnto: 50 o mcnos artculos son derectuosos.Sin c m l x q o , podramos afirmar quc individualmcnte cualquier artculo tcnia la probabilidad 0. 10 d e ser defectuoso. (Esto es, las experiencias anteriores nos permiten saber que cerca del 10% de los artculos son dcfcctuosos.) An ms, podramos suponer que los artculos individuales son defectuosos o no defectuosos, illdependicntemente uno dc otro. Ahora podcmos proccdcr de manera Esto es, dcductiva y derivar la probabilidad del evcnto que se considera. si X = nmero de defectuosos,

Lo quc aqu se dcstaca es que los diversos mCtodos para calcular probabilidades que hemos derivado (y los que estudiaremos posteriormente) sn dc mucha importancia, puesto que con cllos podcmos calcular las probabilidadcs asociadas con eventos ms complicados, lo cual sera dificil d e obtcncr con medios intuitivoso empricos.

PROBLEMAS
4.1. Se sabe que al lanzar una moneda, a nlcnudo sale cara tres veces m,is que scllo. Esta moneda se lanza tres veces. Sea , Y el nmero de caras que aparccen, estblccer l a distribucin de probabilidades de X , as como l a fda. IIacer u n a gr5Gca de ambas.

4.2. De u n lote que contiene 25 articulos, 5 de los cualcs son dcfectuosos, se eligen 4 al azar. Sea S el nmero dc artculos defectuosos encontrados, obtcner la distribucin d e probabilidades de S si
a) los artculos se escogen b ) los artculos se escogen

con sustitucin, sin sustitucin.

Problemas
,I'

99

, , . " a )Calcular

y P ( X = j ) = 1/2.', j = 1 , 2 , .. .

4.3. Supngase que la variable aleatoria

~'

X tiene valores posibles 1 , 2 , 3 ,. . .,

P ( X es par). b ) Calcular P ( X 2 5). c) Calcular P ( X es divisible entre 3).


1

4.1. Considrese una variable aleatoria X con resultados posibles: O , 1 , 2 , . . . Suponer que P ( X = j ) = (1 - a ) a j , j = O, 1 , 2 , .. .

?Para qu valores d e a es significativo el modelo anterior? b ) Verificar que lo anterior representa una distribucin de probabilidades legtima. c) Demostrar que para dos enteros positivos cualesquiera S y t ,
u)

1
f

4.5. Supcingase que la mquina 1 produce (diariamente) el doble d e articulos que la m5quina 2. Sin embargo, cerca del4% d e lo's artculos d e la mriquina 1 tiende a ser defectuoso, mientrasque la mquina 2 slo produce alrededor d e 2% defectuosos. Supongamos que se combina la produccin diaria dea l s dos mquinas. Se toma una muestra aleatoria de diez del resultado combinado. ?Cul esla probabilidad de queesta muestra contenga dos defectuosos?

4.6. Se lanza una serie d e cohetes hasta que ocurre el primer lanzamiento exitoso. Si esto no sucede en cinco ensayos, el experimento se detieney se inspecciona el equipo. Supngase que hay una probabilidad constante de 0.8 de tener un lanzamiento exitoso y que los ensayos sucesivos son independientes. Ademjs, el costo del primer lanzamiento es I.; dlares, mientras que los siguientes cuestan A'/3 dlares. Cada vez que hay un lanzamiento esitoso, se obtiene cierta cantidad d e informacin que puede expresarse como una ganancia financiera d e C dlarcs. Si T es el costo neto dell experimento, encontrarla distribucin de probabilidades d e T .

4.7. Calcular P ( X = 5), donde X esla variable aleatoria definida en ejemplo 4.10. Supongamos que n1 = 10, n2 = 15,111= 0.3 yp2 = 0.2.

cl

4.8. (Propicdades delusfn-obabilidudes binonziales.) E,n laexposicin del ejemplo 4.8 se sugiri un modelo general para las probabilidades binomiales pk(1-

p)%-'.

Indicar estas probabilidades por p n ( b ) . u) Demostrar que para O 5 b < n tenemos

(T)

b ) Usando a ) , demostrar que

i) p n ( k + 1) > p , ( k )

si k

< n p - (1 - P ) ,

100 Mriablesaleatorias unidimensionales


ii) PrL(k + 1) = p n ( k ) si k = n p - (1 - p ) , izi) p n ( k + 1) < p , ( k ) si k > n p - (1 - p ) .
c) Demostrar que si n p - (1 - p ) es un entero, p,(k) toma su valor mximo para dos valores de k , llamados ko = n p - (1 - p ) y kb = n p - (1 - p ) 1. d ) Demostrar que si np - (1 - p ) no es un entero, entonces p , ( k ) toma su valor mximo cuando k es igual al entero m& pequeo mayor que Lo. e ) Demostrar que si n p - ( 1 - p ) < O, P, ( O ) > Pn (1) > . . . > P, ( n ) ,mientras que si n p - (1 - p ) = O, P,(O) = P n ( l ) > P n ( 2 ) > . . . > P,(n).

4.9. La variable alcatoriacontinua X tienefdp f ( ~ ) = 1 / 2 , O 5 I 5 2. Se hacen dos determinaciones independientes d e X. Cu5l es la probabilidad de que ambas determinaciones sean mayores q u e l ? Sise han hecho tres dcLerminaciones independientes, cul es la probabilidad d e que exactamente dos sean mayores que 1 ?

4.10. Sea S la duracin de un tuboelectr6nico y supongamos que X se puede representa- como una variable aleatoria continua con fdp f ( ~ )= be-bx, 2 2 O. Sea p i = P ( j 5 X 5 j + 1). Demostrar que p j es d e la forma (1 - a ) a j y determinar a.

4.1 1 . La variable aleatoria continua X tiene la fdp f ( ~ = ) 3 x 2 , -1 5 I 5 O. Si 6 es un nillnero que satisface -1 < b < O, calcular P ( X > b I X < b / 2 ) .
Demostrar que f + g no es una fdp en ese intervalo. b) Demostrar que para todo nmero p, O < /?< 1, , B ~ ( I ) una fdp enese intervalo.
a)

4.12. Supngase que f y g son fdp en el mismo intervalo, a

5 I 5 b.

+ (1 - P ) g ( z ) es

4.13. Suponer que la grfica de la figura 4.1G representa la fdp de una variable aleatoria X .
a)

Cul es la relacin entre a y b?


X

6) Si a > O y b > O, qupuede decir acercadel mayor valor que puede tomar b? (Vase Fig. 4.16.)

x= - a

FIGURA 4.16
4.14. El porcentaje d e alcohol (1OOX) en cierto compuesto se puede considerar como una variable aleatoria, donde X , O < X < 1, tiene la siguiente fdp:

Problemas
a)

10 1

Obtener una expresin parafda F y dibujar su grAfica. b ) Calcular P ( X 5 C) Supngase que el precio d e venta del compuesto anterior depende del contenido d e alcohol. Especficamente, si $ < X < : el compuesto se vende en C1 dlares/gA5n; de otro modo se vende en C2 dlares por galn. Si el costo es C3 dlares/galn, encontrarla distribucin d e probabilidades d e la utilidad neta + I

3).

6,

4.15.Sea X una variable aleatoria continua con fdpf dada por:


"

J,

f(x) = ax,

o 5 x 5 1,
1<x52, 25x53,
\

=a,

..

= -ax+3a, = O,
a) Determinar la constante a.

para cualquier otro valor.


"

6) Dctcrminar F , la fda y dibl?jarla gr5fica. c) Si S I , X2, y X 3 son tres observaciones independientes d e X Ccu5l es la probabilidad d e que exactamente uno de esos tres nmeros sea mayor que
1.5?
4.16. Se suponc que el di5metro de un cable elctrico, digamos X , es una variable aleatoria continua con fdp f ( x ) = 62(1 - z), O 5 x 5 1. a ) Verificar que la antcrior es una fdp y dlbujarla. 0) Obtener una expresin para la fdp d e X y dilbujarla. c) Determinar un nmero b, tal ne P ( X < b ) =: 2P(X > b ) . d ) Calcular P ( X 5 $ I $ < X < 5).
, 4.17. Cada una delas siguientes frmciones representa la fda d e una variable aleatoria continua. En cada caso F ( c ) = O para x < a y F ( x ) = 1 para x > b, donde [a,b] es el intervalo indicado. En cada uno d e los casos,dibujar la fnncin F , determinar la fdp f y dibujarla. Tambin verificar que f cs una fdp.
a)
\

F ( z ) = x / 5 , 05 x 5 5

6 ) F ( c ) = (2,lw)sen-'(fi),O 5 x 5 1
d)
q X )

c) ~ ( z = ) e3x,-00

<c5O

=2 / 2

+ g, -1

5 5 1.

4.18. Sea X la duracin de un instrumento electrnico (medida en horas). Supngase que X es una variable aleatoria continua con fdp f ( x ) = k / P , 2000 5 x 5 10000.
a)

Para n = 2, determinar IC. b ) Para n = 3, determinar k .

102 Variables aleatorias unidimensionales


c) Para n en general, determinar k. d ) ?Cu,il es la probabilidad de queel instrumento falle antes d e 5000 horas

de funcionamiento? e ) Dibujar la fda F(1) para c) y determinar su forma algebraica.

4.19. Sea X una variable aleatoriadistribuidabinomialmentecon base en diez repeticiones de un experimento. Si p = 0.3, calcular las siguientes probabilidades usando la tabla d e la distribucin binomial del Apndice.
U)

P(X 5 S) b ) P ( X = 7 )

C)

P ( X > 6).

4.20. Supngase que X est distribuida uniformemente en [-a, +(Y], donde a > O. Cada vez que sea posible, determinar (Y d e modo que se satisfaga lo siguiente. U ) P ( X > 1) = $ b ) P(X > 1) = f C) P ( X < f)= 0.7 d ) P ( X < f = 0.3 e ) P(JX1< 1) = P(lX1 > 1). 4.21. Suponiendo que X est distribuida uniformemente en responder las preguntas del problema4.20.
[O,cr],a >

4.22. Se escoge un punto al azar de un segmento d e longitud L. ?Cul es la probabilidad de quela razn del segmento m& corto en relacin con el ms largo sea menor que 1 ? 4.23. Una fbrica produce diariamente diez recipientesd e vidrio. Se puede suponer que hay una probabilidad constante p = 0.1 d e producir uno defectuoso. Antes de que estos depsitos se almacenen son inspeccionados y a los defectuosos se les aparta. Supongamos que hay una probabilidad constante r = 0.1 d e qLe un recipiente defectuoso sea mal clasificado. Sea X igual al nmero de recipientes clasificados como defectuosos al trmino de un da d e produccin. (Suponemos que todos los recipientes que se fabrican en un da se inspeccionan ese mismo da.)
u ) Calcular P ( X

= 3) y P(X > 3), h ) Obtencr una expresin para P ( X = k).

4.24. Supngase que el 5% d e los artculos que salen d e una linea d e produccin son dcfectuosos. Se escogen diez de ellos y se inspeccionan. ?Cu,il es la probabilidad d e que se encuentren cuando mucho dos defectuosos?

4.25. Suponer que la duracin (en horas) d e cierto tubo d e radio es una variable aleatoria continuaX con fdp f ( x ) = 10o/;c2, x > 100 y O para cualquier otro valor.
u ) ?Curil es la probabilidad de que un tubo dure menos d e 200 horas si se sabe que el tubo todava funciona despus d e 150 horas d e servicio?

Problemas

103

b ) ? C u d es la probabilidad de que si se instalan tres d e esos tubos en un conjunto, exactamente uno tenga que ser sustituido despus d e 150 horas d e servicio? c) ?Cul es el nfimero mximo d e tubos que se pueden poner en un conjunto d e modo que haya una probabilidad 0.5 de que despus d e 150 horas d e servicio funcionen todava? 4.26. Un experimento consta d e n ensayos independientes. Se puede suponer que debido al aprendizaje, la probabi1ida.d d e obtener un resultado exitoso aumenta con el nmero de ensayos realizados. Especficamente, supongamos que P(xito en la i-sima repeticin) = (is I)/(i+ a), i = 1 , 2 , .. . , n.
a ) ?Cul es la probabilidad d e tener tres resultados exitosos por lo menos en ocho repeticiones? b ) ?Cul es la probabilidad de queel primer resultado exitoso Ocurra en la octava repeticin?

<
1

4.27. ReGriCndonos al ejemplo 4.9,


u ) calcular P ( X = 2) si n = 4, b ) para un n arbitrario, demostrar que P ( S = n - 1) = P (exactamente un intento no exitoso) es igual a [I/(n l)]Ey=l(l/i).

4.28. Si la variable aleatoria I est5 distribuida uniformemente en (0.5), ?cul es la probabilidad d c que l a s races de la ecuacin 4z2 + 4 2 +~ K + 2 = O sean reales?

y que P ( X = r ) = IC(I- ,o)~I, O < L ,I < 1.


a)

4.29. Supngase que la variable aleatoria X tiene valores posibles 1 , 2 , 3 ,. . .

Determinar la constante IC. b) Encont.rar la m d u d e esta distribucin (es decir, el valor d e mayor valor deP(X = r)).

que da el

4.30. Una variable aleatoriaX puede tomar cualtro valores con probabilidades (1 32)/4, (1 - 2)/4, ( 1 + 2z)/4, y (1 - 42)/4. ?Para qu valores d e X es Sta una distribucin d e probabilidades?

5.1 Un ejemplo

Supongamos que el radio X d e la entrada de un tubo muy bien calibrado se considera como una variable aleatoria continua con fdp f . Sea A = 7 r X 2 el read e la seccin d e la entrada; entonceses evidente que, puesto que el valor d e X es el resultado de un experimento aleatorio, tambin lo es el valor de A . Es decir, A es una variable aleatoria (continua), y podramos obtener su fdp, digamos g. Esperaramos que, puesto que A es una funcin d e X, la fdp 9 se puede dlerivar de alguna manera d e esta conociendo la fdp f . En este captulo trataremos problemas naturaleza. Antes de familiarizarnosconalgunastcnicasespecficas necesarias, formularemos los conceptos anteriorescon mayor precisin.

FIGURA 5.1

106 de Funcioftes aleatorias variables


5.2 Eventos equivalentes

5.2

Sean E un experimento, S un espacio muestra1 asociado conE y S una variable aleatoria definida enS; supongamosque y = H ( z ) es una funcinreal d e x. Entonces, E' = E I ( S ) es una variable aleatoria puesto que para cada S E S se determina un valor de Y , digamos y = I I [ X ( s ) ] .Esto se representa en forma esquemtica en la figura 5.1. Como antes, llamamos R, al posibles d e la hncin espacio del intervalo d e X , el conjunto de valores X . De igualmodo,definimoscomo R, el espacio del interuulo de la variable alenoria Y , el conjunto de valores posibles d e Y . Previamente (ecuacin 4.1) definirnos la nocin d e eventos equivalentes enS y en Rr . Extendamos ahora este concepto de la siguiente manera natural. Definicin. Sea C un evento (subconjunto) asociado con el recorrido de Y , R,, comosedescribianteriormente. Definase B c R, como sigue:

En palabras, B es el conjunto delos valores d e X tales que H ( x ) E C . Si B y C estnrelacionados d e estamanera los llamamos eventos equivulentes.
Observaciones: a ) Como dijimos antes, la interpretacin informal d e lo anterior es que B y C son eventos equivalentes si y slo si B y C ocurren juntas. Esto es, cuando ocurreB, ocurre C y recprocamente. b ) Supngase que A cs u n evento asociado con S , el cual es equivalente a un evento B asociado con R,. Por lo tanto, si C es un evento asociado conRg que es equivalente a B , tenemos que A es equivalente a C. c) Nuevamente es importante darse cuenta de que cuando hablamos de cventos equivalentes (en el sentido anterior),esos eventos estn asociados con espacios nluestrales diferentes.

EJEMPLO 5.1. Supongamos que H(x) = T X 2 como en la seccin 5.1. I,uego, los eventos B : {X > a} y C : {Y > 4 ~ son ) equivalentes, porque si Y = Tx2, entonces {S > 21 ocurre si y slo si {Y > 4x1 ocurre, puesto que en el presente contexto, no puede tomar valores negativos. (Vase la Fig. 5.2.)

5.2
Y

Eventos equivalentes

107

Obseruacwn: Otra vez es importante sealar que se usa una notacin abreviada cuando escribimos expresionescomo { X >: 2) y {Y > 4 ~ ) . Por supuesto, nos estamos refiriendo a los valores d e X y a los valores d e Y , o sea,
{S

I %S) > 21 Y {x I Y(.> > 4s).

Como hicimos en el captulo 4 (Ec. 4.2), nuevamente haremos la definicin siguiente.


Definicin. Sean X una variablealeatoriadefinida en el espacio 1 una funcin real, y consimuestra1 S , R, el recorrido de X y I deremos la variable aleatoria Y = H ( X ) con recorrido R,. Para cualquier evento C C R,, deJinirnos P ( C ) como sigue:

En palabras, la probabilidad de unevento asociado con el recorrido de Y est definida comola probabilidad del evento equivalente (en terminos deX ) , como aparece enla ecuaci6n (5.2).
Obseroacwnes: a) La definicin anterior harposible calcular las probabilidades relacionadas con eventos con Y si conocemos la distribucin d e probabilidades deX y podemos determinar el evento equivalente en cuestin. b ) Puesto quelo tratado previamente (ecuaciones 4.1 y 4.2 relaciona probabilidades asociadas con R, con probabilidadesasociadas con S , podemos escribir la ecuacin (5.2) como sigue:
\

'

P ( C ) = P [{x E R, : H ( x ) E C } ]= P

[{S ~i

S : H ( X ( s ) )E C } ]

EJEMPLO 5.2. Sea X una variable aleatoria continua con fdp


f ( z ) = e-x,
z

> o.

108 Funciones de variables aleatorias

5.3

so

(Una integracin sencilla indica que e-& =1 . )

Supngase que B ( z ) = 22 1. Por tanto, R, = {x I x > O}, mientras que R y = {y I y > l}. Supngase que el evento C est definido como sigue: C = {Y 2 5). Ahora, y 2 5 si y slo si 2x+1 2 5, lo que asu vez da x 2 2. Por lo } . (Vase tanto, C es equivalente a B = {X 2 2 2 m e-& = la Fig. 5.3.) Ahora, P ( X 2 2) = J 1/e2. Por lo tanto, aplicando la ecuacin (5.2) encontramos que

P ( Y 2 5) = 1/e2

FIGURA 5.3

Observacwnes: a) Nuevamente conviene sealar que hay que considerar incorporar la evaluacin d e z = X(s) y la evaluacin d e y = H ( z ) en nuestro experimento y, por tanto, considerar simplementeR y , el recorrido deY , como el espacio muestral d e nuestro expcrimento. Estrictamente hablando, el espacio muestral del experimento es S y el resultado del experimento es s. Todo lo que hagamos a continuaci6n no est5 influido por la naturaleza aleatoria del experimento. La determinacin de z = X(s) y la evaluacin de y = H ( z ) son estrictamente procesos determinism una vez que se ha observado s. Sin embargo, como vimos antes, podemos incorporar estos clculos en la descripcin d e nuestro experimentoy as relacionarlos directamente con el recorridoR y . b) As como la distribucin d e probabilidades se indujo en Rx por la distribucin d e probabilidades sobreel espacio muestral originalS, de igual manera la distribucin d e probabilidades d e Y se determina si se conoce la distribucin d e probabilidades d e X . Asi en el ejemplo5.2 la distribuci6n especfica d e X determin completamente elvalor d e P ( Y2 5). c) N considerar la hncin de una variable aleatoria X , digamos Y = H(X), debemos comentar que no se puede permitir toda funcinH concebible. Sin embargo,a l s funciones que aparecen en a s l aplicaciones estn inevitablemente entre aquellas que podemos considerar y, por tanto, m& adelante no nos referiremos a esta pequea dificultad.

5.3 Variables aleatorias discretas


Caso 1

.X

es una variable aleatoria discreta. Si X es una variable

5.3

Variables aleatorias discretas

109

aleatoria discreta y Y = H ( X ) , entonces de inlmediato se deduce queY es tambin una variable aleatoria discreta. Porque supngase que los valores posibles de X se pueden enumerar como x 1 , x2,.. . ,xn,.. . Con seguridad, los valores posibles d e Y se pueden enumerar como y1 = H ( z l ) ,y2 = H(x'),. . . (Algunos d e los valores anteriores d e Y pueden ser iguales, pero esto ciertamente no impide el hecho de queesos valores puedan enumerarse.)

EJEMPLO 5.3. Supngase que l a variable aleatoria X toma los tres probabilidades3, 1 1 y it, respectivamente. Sea valores -1,0 y 1 con Y = 3X + 1, entonces los valores posibles de Y son - 2 , l y 4, cuyas 1 1 y 1 probabilidades se supone que son 3, Este ejemplo sugiere el siguienteprocedimiento generul: si x 1 ,. . . ,x n , . . . son los valores posibles de X , ~ ( 2 . = ; )P ( X = x.;) y H es una funcin tal que a cada valor de y le corresponda exactamente un valor de x, entonces la distribucin de probabilidades de Y se obtiene como sigue:
Valores posibles de Y :
y.; = H ( x ; ) ,

i = 1,2, . . . ,n , . . . ;

A menudo, l a funci6n I 1 no tiene la caracterstica anterior, y puede suceder que varios valores d e X den el mismo valor de Y , como ilustra el siguiente ejemplo. EJEMPLO 5.4. Supngase que consideram'osla misma variable aleatoria X como en el ejemplo 5.3. Sin embargo, introducimos Y = En este caso, los valores posibles d e Y son O y 1, cuyas probabilidades 1,2 1 , porque Y = 1 si y slo si X = -1 o X = 1 se supone que son 2 y la probabilidad d e este ltimo evento es -+ = $. Debido a nuesy C : {Y = l} tra terminologa anterior, los eventos B : {X = &l} son eventos equivalentes y, por lo tanto, segn la ecuacin (5.2), tienen probabilidades iguales.

S'.

&

Elprocedimientogeneralpara situaciones como la descrita en el ejemplo anterior es el que sigue: representemos con x i l , x i 2 , .. . ,x ! k , . . ., los valores de X . que tienen la propiedad Ei(zij) = y.; para toda J . Luego,

11 0 Fumiones de variables aleatotias

5.4

En palabras, para calcularla probabilidad del evento {Y = y;}, encuentre el evento equivalente en trminos X de(en el recorrido Rx)y luego agregue todas las probabilidades correspondientes. (Vase la Fig. 5.4)

EJEMPLO 5.5. Tenga X los valores posibles 1 , 2 , . . . , n , . . . y supngase que P ( X = n ) G Digamos

a".

Y = 1 si X es par,
= -1

si X es impar.

Entonces, Y toma los dos valores -1 y +l. Puesto que Y = 1 si y slo si X = 2, o X = 4, o X = 6, o ... , aplicando la ecuacin (5.2) se tiene

P(Y=1)=1 4+ T 1t ; + W 1 +'"J
Por lo tanto,

P ( Y = -1) = 1 - P ( Y = 1) = 3' 2

Caso 2. X es una variable aleatoria continua. Puede suceder que X sea una variable aleatoria continua, mientras que Y sea discreta. Por ' ejemplo, supongamos que S puede tomartodos los valores reales, mientras que se define queY sea $1 si X O y que Y = -1 si X < O. Para obtener la distribucin d e probabilidades de Y , determinemos simplemente el evento equivalente (en el recorrido R,y) que corresponde a los diferentes valores de Y . En el caso anterior, Y = 1 si y slo si X >_ O, mientras que Y = -1 si y slo si X < O. Por lo tanto, P ( Y = 1) = P ( X O), mientras que P(Y = - 1) = P(X < O). Si se conoce la fdp de S puei } es den calcularse estas probabilidades. En el caso general, si {Y = y equivalente a un evento, digamosA, en el recorrido deX entonces,

>

>

q(7J;j = P ( Y = yzj =

f(zjdz.

5.4

Variables aleatorias continuas

11 1

5.4 Variables aleatorias continuas

El caso ms importante (y el que se encuentra con mayor frecuencia) aparece cuando X es una variable aleatoria continua con fdp f y H es una funcin continua. Por tanto, Y = H ( X ) es una variable aleatoria g. continua y nuestro propsito ser obtener su fdp, digamos generul El procedimiento ser as: a) Obtenga G, la fda de Y ,donde G(y) := P ( Y 5 y), despus de encontrar el evento A (en el recorrido de X ) que equivale al evento { Y I Y>. b ) Direrencie G(y) respecto a y para obtener g(y). c ) Determine estos valores d e y en el reco:rrido d e Y para los cuales

fd P

EJEMPLO 5.6.

Supngase que

X tiene

f(2)

= 22, =O

o < < 1,
2

en otra parte.

Sea H ( x ) = 3 2 1. Por tanto, para encontrar la fdp de Y = H ( X ) tenemos (Fig. 5.5)

=ty-l)ja

22dx

= [(y - 1)/312.

FIGURA 5.5

1<y<4.

Puesto que

f(2)

> O para O < x < 1, encontramos que g(y) > O para

Observacwn: El evento A , antes mencionado,que equivale al evento {Y 5 y}. es sinlplemente {A 5 (y - 1)/3}.

112 aleatorias variables Funciotzes de


quc m i s adelantc ser fitil. Consideremos nuevamente
G ( y ) = P ( Y 5 y) = P donde F es la fda d e X , esto es,
-

5.4

Existe otro mtodo algo diferente para obtenerel mismo resultadoy

(x 5 Y 1 > = F ( F ) ,
5 x).

F ( x )= P(X

Para evaluar la derivada de G, G(y), usamos la regla d e la cadena para la dcrivacin como sigue:

por tanto ,

G(y) = F(u).? 1 = P ( ~ )1 . ?= 2 y - 1

(T)

. : ,

y=l

y=4

. ,

FIGURA 5.6

como antes. En la figura 5.6 aparece la grfica d e la fdp de Y . (Para 4 vcrificar los crilculos ntese que Jl g(y)dy = 1.)
EJMPLO 5.7. Supngase que una variable aleatoria continua tiene 5.6. Sea H ( x ) = e-. Para encontrar la fdp de fdp como en el ejemplo IT = H ( X ) procedemos como sigue (Fig. 5.7):

= 1 - (-1ny) 2 .

Por tanto, g(y) = G(y) = -21n y/y. Puesto que f ( x ) > O para x < 1, encontramosque g(;y) > O para 1/e < y < 1. (Ntese que el signo algebraic0 para g(y) es correcto, puesto que In y < O para I/e < y < 1.) Ida grfica de g(y) se ilustra en la figura 5.8.
O

<

Variables aleatorias continzcas

113

x=

-In y

FIGURA 5.7

FIGURA 5.8

Otra vez podemos obtenerel resultado anterior con un planteamiento algo diferente que esbozaremos brevemente. Como antes,

G(y) = P ( Y 5 y) = P ( X 2 -In( y)
= 1- P(X

5 -In

y) = 1 -- F ( - I n

y),

donde, como antes,F es la fda d e X. A fin de obtener la derivada de G usaremos otravez la regla d e la cadena como sigue:
" "

dG(y) dGdu du dy ' dY

donde

u = - I n y.

As ,

como antes. Generalicemos ahora el planteamiento que sugieren los ejemplos anteriores. El paso crucial en cada uno de los ejemplos se efectu a l sustituir el evento {Y 5 y} por el evento equivalente en trminosd e l a variable aleatoriaX. En los problemas anteriores esto fue relativamente sencillo, puesto que en cada uno los de casos la funcin fue una funcin d e X estrictamente creciente o estrictamente (decreciente.

114 Funciones aleatorias de variables

5.4

En la figura 5.9, y es una funcin estrictamente creciente de x. Por lo tanto, podemos resolver y = H(x) para x en trminos d e y, digamos x = I f - l ( y ) , donde H-' se llamafuncininversa de H. A s , si If esestrictamentecreciente, { I I ( X ) 5 y) equivalea { X 5 ~ - ' ( y ) > , mientras que si H es estrictamente decreciente, { H ( X ) 5 y} equivale a {S 2 ~ - ' ( y ) } .
Y 1

FIGURA 5.9
El mtodo empleado en los ejemplos anteriores ahora se puede generalizar como sigue.

Teorema 5.1. Sea X una variable aleatoria continua con fdp f , donde f(x) > O para a < x < b. Supngase quey = H ( x ) sea una funcin o decreciente). S u p h g a s e d e x estrictamente montona (creciente que esta funcin es derivable(y, por tanto, continua) para todax. Entonces, la variable aleatoria Y definida como Y = B ( X ) tiene una fdp g dada por

donde x se expresa en trminos dey. Si H es creciente, entonces g es distinta de cero para los valores d e y que satisfacen H ( a ) < y < H ( b ) . Si H es decreciente, entonces g es distinta d e cero para los valores d e y que satisfacen H ( b ) < y < H ( a ) .

Demostracidn: a) Supongamos que H es una funcin estrictamente creciente. Por tanto,

5.4

Variabler:aleatorias continuas

115

Diferenciando G ( y ) respecto ay, obtenemos, al usar la regla d e la cadena para las derivadas,

As

G (y) = --

I dx

dx dF(x) dx dy

f(4,.

b ) Supongamos que H es una funcin decreciente. Por lo tanto,


G(y) = P(Y

5 y) = P ( H ( X )5 y) = P ( X 2 H-'(y)) = 1 - P ( X 5 +(y)) = 1- F(H-l(y)).

Procediendo como antes, podemos escribir

Observacin: El signo algebraic0 obtcnido en b ) es correcto, puesto que si es una fimcin decrecientede x,x es una funcin decrecientede y y, por lo tanto, dx/dy < O. As, al usar el smbolo dcl valor absoluto en torno aclx/dy, podemos combinar el resultado de a ) y b ) y obtener laformal final del teorema.
,

EJEMPLO 5.8. Reconsideremos los ejemplos 5.6 y 5.7 aplicando el teorema 5.1 a) En el ejemplo 5.6 tenamos f ( x ) = 22, O < x % <1 y y = 3x 1. Por lo tanto, x = ( y - 1)/3 y d x / d y = 1 As, g(y) == 2[(y - 1)/3];.= ;(y - 1), 1 < y < 4, lo que concuerda con el resultado obtenido previamente. b ) En el ejemplo 5.7 tenamos f ( x ) = 22, O < x < 1 y y = e - " . Por tanto, x = - I n y y d x / d y = - l / y . As, g(y) = -2(ln y)/y, 1/e < y < 1, lo que d e nuevo est de acuerdo con el resultado anterior.

Si y = I I ( x ) no es una funcin montona de x no podemos aplicar directamente el mtodo anterior. En su lugar, volveremos al mtodo geEl ejemplo siguiente ilustra este procedimiento. neral antes bosquejado.

1 16 Funciones de variables aleatorias

5.4

x=- 1

X=]

FIGURA 5.10 EJEMPLO 5.9. Supongamos que


f(z) =

FIGURA 5.11

; ,

-1

< x < 1,
valor.

=o

para cualquier otro

Sea fir(,) = z2.Obviamente esta no es una funcin montona en todo el intervalo [-1,1] (Fig. 5.10). Por lo tanto, obtenemos l a fdp de Y = X 2 como sigue:

En donde F es la fda d e la variable aleatoria X . Por tanto,

A s , g(y) = ( 1 / 2 f i ) ( i = 1/2fi, O < y < l.(Vase la Fig. 5.1 1.) El mtodo usado en el ejemplo anterior da el siguiente resultado general.

+ i)

Problemas

117

Teorema 5.2. Sean X una variable aleatoria continua con fdp f y Y = X2. Entonces, la variable aleatoria 1Y tiene fdp dadapor

Denwstrucin: Vase el ejemplo 5.9.

PROBLEMAS
5.1. Supngase que X est5distribuidauniformemente en(-1,l). Sea Y = 4 - X 2 . Encontrar la fdp de Y , sea g(y), y dlibujarla. Tambin verificar que g(y) es una fdp. 5.2. Supngase que X est distribuida uniformemente en (1,3). Obtener las fdp d e las siguientes variables aleatorias: .i
a)

Y=3X+4

b)Z=e"

Verificar en cada uno de los casos que la funcin obtenida es una fdp ydibujarla.

x > O. Encontrar las fdp de las siguientes variables aleatorias:


a)

5.3. Supngase que la variable aleatoria continlia S tiene fdp f(x) = e - x ,

Y =X3

6) 2 = 3 / ( X + 1)2.

5.4. Supngase que la variable aleatoria discreta X toma los valores 1,2 y 3 con igual probabilidad. Encontrar la distribucin d e probabilidades d e Y=2X+3.

5.5. Supngase que X est distribuida Uniformemente en el intervalo (0,l). Encontrar la fdp d e las siguientes variables aleatorias:
U)

Y = X2+ 1

6) 2 = 1/(X

+ 1).

5.6. Supngase que X est distribuida uniforme mente en (- 1 , l ) . Encontrar la fdp d e las siguientes variables aleatorias:
a)
/

Y = sen(~/2)X

6) 2 = c o s ( ~ / 2 ) X

c)

IY

=I

I.

5.7. Supngase que el radio d e una esferzes una variable aleatoria continua. (Debido ala imprecisin en el proceso de fabricacin, los radios d e las diversas esferas pueden ser diferentes.) Supngase que el radio R tiene fdp f ( r ) = 6r(l - r ) , O < r < 1. Encontrar la fdp del volumen V y del rea superficial S d e la esfera.
5.8. Una corriente elctrica I que flucta se puede considerar como una variable aleatoria distribuida uniformemente en todo el intervalo (9, 11.). Si

118 Funciottes de variables aleatorias


esta corriente pasa por una resistencia d e 2 ohms, encontrar la fdp d e la potencia P = 2 1 ~ . 5.9. La velocidad de unamolcula en un %?S uniforme enequilibrio es una variable aleatoria I . ' cuya fdp est dada por
f ( v ) = a v 2 e -hv2

, v > O,

En donde b = m / 2 k T y k , T y m denotan la constante d e Boltzman, la temperatura absoluta y la masa de la molcula, respectivamente. Calcular la constante a (en terminos d e b). [Indkuczbn: Usar el hecho d e que S ", e-x2da: = e integrar por partes.] b ) Derivar la distribucin d e la variable aleatoria IV = m V 2 / 2 que representa la energa cintica d e la molcula.
a)

5.10. Un voltaje aleatorio X est distribuido uniformemente en el intervalo ( - k , k ) . Si X es la energa recibida en un dispositivo no lineal, con las caractersticas que se indican en la figura 5.12, encontrar la distribucin d e probabilidades d e Y en los tres casos siguientes:
U)

k < u

b)a<k<zo
Y

c)~>zo.

0bsemzcw.n: La distribucin d e probabilidades d e Y es un ejemplo de distribucin mixta. Y toma el valor O con una probabilidad positiva y tambin toma todos los valores en ciertos intervalos. (Vase la Sec. 4.6.) 5.1 1. Laenergaradiante(en Btu/hr/pie2) est5 dada como la siguiente fimcin d e la temperatura T (engradosfnhrenheit): E = 0.173(T/100)4. Supngase que la temperatura T se considera como una variable aleatoria continua con fdp

f ( t ) = 200t-2,
=0

40

5 t 5 50,

para cualquier otro valor.

Encontrar la fclp d e la energa radiante E.

Problemas

1 19

5.12. Para medir a l s velocidades del aire se usa un tubo (conocido como el tubo estAtico de Pitot) que permite medir la diferencia d e presibn. Esta diferencia d e presi6n esd dada por P = (1/2)dV2, donde d es la densidad delaire y V es la velocidad del viento (kph). Si V es una variable aleatoria distribuida uniformemente en (1O, 20), encontrar la fdp d e P.
5.13. Supngase que P(X 5 0.29) = 0.75, donde X es una variable aleatoria continua con alguna distribucin definida en (0,111. Si Y = 1 - X,determinar 12, d e modo que P(Y 5 k ) = 0.25.

1
4

En nuestro estudio de las variables aleatorias hemos considerado, hasta aqu, slo el caso unidimensional. Es decir, el r'esultadodel experimento se poda registrar como un solo nmero 2 . En muchoscasos, sin embargo, nos interesa observar sinlultneamen1 y la rete doso mAs caractersticas numricas. Por ejemplo,la dureza I sistencia a la tensin T de unapieza manufacturada de acero pueden ser y consideraramos ( h ,t ) como un solo resultado experimental. de inters Podramos estudiarla altura A y el pesoP de ulna persona determinada, que dara lugar al resultado ( p , u ) . Finalmente, podramos observar la cantidad de lluvia total, L L , y el promedio de temperatura,T , en cierta regin durante unmes especfico, que dara lugaral resultado (II, t ) . Haremos la siguiente definicin formal.
Definicin. Sea E un experimentoy S un espacio muestra1 asociado con E. Sean X = X(S) y Y = Y ( , ) dosfunciones que asignan un nmero real a cada uno de los resultados S E S (Fig.6.1).

122

Variables aleatorias bidimemionales

y mayor de dimenswn

6.1

Llamamos a ( X , Y ) variable aleatoria bidimensional (que tambin se denomina vector aleatorio). Si X1 = X 1 (S), X 2 = X2(s), . . . ,X, = X n ( s ) son n funciones, cada una de las cuales asigna un nmero real a cada resultado S E S , entonces llamamos a ( X I , . . . ,X n ) una variable aleatoria 71divzensional (o un vector aleatorio n-dimensional).

FIGURA 6.1
Obseruario'n: Como en el caso unidimensional, no nos interesa la naturaleza filncional d e X ( s ) y Y(s), sino los valores que toman , Y y Y . Hablaremos nuevamente delrecorrido d e ( X ,Y ) ,digamos R X ~ Y como , el conjunto d e todos los valores posibles d e ( X , Y ) . Enel caso bidimensional,porejemplo, el recorrido de ( X , Y )ser5 u n subconjunto del plano euclidiano. Cada uno de los resultados X ( s ) ,Y(s) se puede representar como un punto (x, y) en el plano. Suprimiremos nuevamente la naturaleza hncional d e X y Y al escribir, por cjcmplo,P[X 5 u , Y 5 b], en vez de P [ X ( s )5 u , Y ( s ) 5 b]. Como en el caso unidimensional, distinguiremos entre dos tipos bAsicos d e variables aleatorias: las variables aleatorias discretas y las continuas.

Definicin. ( X , E') es una variable aleatoria bidimensional discreta si los valores posibles d e ( X ,Y )son finitos o infinitos numerables. Es decir, los valores posibles d e ( X , Y ) se pueden representar como ( z ; , y j ) , i = 1 , 2 ,..., n ,...; j = l , 2 ,...,m ,...

(X, Y ) es una variable aleatoria bidimensionalcontinua si (X, Y ) puede tomar todos los valores en un conjunto no numerable del plano euclidiano. [Por ejemplo, si ( X , V ) toma todos los valores en el rectngulo {(x,y) I a 5 z 5 b, c 5 y 5 d } o todos los valores en el crculo {(x,y ) I x2 + y2 5 I } , diramos que ( X ,E') es una variable aleatoria bidimensional continua.]

6.1

Variables bidimensionales aleatorias

123

Obsemacwnes: a ) En otras palabras, ( X ,Y )es una variable aleatoria bidimensional si representa el resultado de un experimento aleatorio en el cual hemos medido las dos caractersticas numricas X y Y .
b ) Puede suceder que uno d e los componentes; d e ( X ,Y ) ,digamos X, sea discreto, mientras que el otro es continuo. Sin embargo, en la mayor parte de las aplicaciones nos interesamos slo por los casos analizados anteriormente, en los cuales ambos componentes sondiscretos, o am.bos continuos.

c) En muchas situacioneslas dos variables aleatorias X y Y , consideradas en conjunto, son d e u nmodo muy natural el resultaldo de unsolo experimento, como se ilustr en los ejemplos anteriores.Es a s como X y Y pueden representar la altura y el pesode unmismo individuo, etc. Sin embargo, noes necesario que exista esta clase d e conexin. Por ejemplo, X podra ser la corriente que circula por uncircuito en un momento especfico, irnientras que Y podra serla temperatura enla habitacin en ese instante, entonces podramos considerar la variable aleatoria bidimensional ( X ,Y ) . En la mayor parte de las aplicaciones hay una razn importmte para considerarX y Y conjuntamente. Para describir la distribucin de probabilidades de ( X , Y ) procedemos d e modo anlogo al caso unidimensional.

Definicin. a ) Sea (X, Y ) una variable aleatoria bidimensional dis35) asociamos un nmero creta. Con cada resultado posible (xi, p ( z ; ,y j ) que representa P ( X = xi)Y = !tj) y que satisface las condiciones siguientes:

La funcin p definida para toda (xi, y j ) en el recorrido d e (X)Y ) se llama funcidn de probabilidad d e (X, Y ) . El conjunto de ternas (xi)yj,p(xi)yj)), i , j = 1 , 2 , .. ., en algunos casos se denomina distribucin de probabilidadesde (X, Y ) .

b) Sea (X)Y ) una variable aleatoria bidimensional continua que toma todos los valores en una regin R del plano euclidiano. La funcin de densidad de probabilidades conjuntas f es una funcin que satisface las siguientes condiciones:

124 Variables aleatorias bidimensionales


3)
f ( x , y)

y de mayor dimenswn
E

6.1

2 O para toda (x,y)

R,

Obseruacwnes: a ) La analoga auna distribuci6n d e masas es otravez indudable. Tenemos una masa unitaria distribuidaen una regin del plano. En elcaso discreto, toda la masa se concentra en un nmerofinito o infinito numerable d e puntos con masa p ( q , yj) ubicados en (xi, yj).En el caso continuo, la masa se encuentra en todos los puntos de un conjunto no numerable el en plano. b) La condicin 4 indica que el volumen total bajo la superficie dada por l a ecuacin z = f(z, y)es igual a 1. c) Como en el caso unidimensional, f ( z , y) no representa la probabilidad d e nada. Sin embargo, para Ax y Ay positivos y suficientemente pequeas, f ( z , y)AzAy es aproximadamenteigual a P ( x 5 X 5 x + A x ,y 5 Y 5 y+Ay). d ) Como e n el caso unidimensional, adoptaremos la convencin de que f ( x , y) = O si (x, y) 6 R. Por tanto, podemos considerar f definida para toda (x, y) en el plano y la condicin 4 anterior se convierte en S_, f ( z ,y) dx dy = 1. e ) Nuevamente suprimiremos la naturaleza funcional d e la variable aleatoria bidimensional ( X , Y). Deberiamos escribir proposiciones d e la forma P [ X ( s ) = x;, Y ( s ) = yj], etc. No obstante, si se entiende nuestra notacin abreviada, no debe surgir ninguna dificultad. J) De nuevo, comoen el caso unidimensional, la distribuci6n d e probabilidades d e (X, Y)est realmente inducida por la probabilidad d e eventos asociados con el espacio muestra1 original S. Sin embargo, principalmente nos interesaremos por los valores d e (X,Y )y, por tanto, relacionados en forma directa con el recorridod e (X, Y ) . No obstante, el lector no debe perder de vista el hecho de que si P ( A ) est especificada para todos los eventos A c S , entonces esti5 determinada la probabilidad asociada con eventos en el recorrido d e ( X ,Y). Es decir, si B est en el recorrido d e ( X , Y ) ,tenemos

JJz

P ( B ) = P [ ( X ( s )Y , (,)) E

Esta ltima probabilidad se refiere a un evento en S y, por tanto, determina la probabilidad d e B. En nuestra terminologia previa, B y { S 1 ( X ( s ) Y , ( s ) )E I?} son eventos equiz~alentes (Fig. G.2).

131 = P [ s I (X(s),Y ( , ) ) E B].

6.1

I.'ariables aleatorias bidimensionales

12 5

Si B estA en el recorrido de ( X ,Y) tenemos

si ( X , Y ) es discreta, la suma se tomacon todos los indices ( i ,j ) para los cuales (.i,Yj) E B. y

si ( X ,Y) es continua.

EJEMPLO6.1. Dos lneas deproduccinfabricanciertotipo de artculo. Sup6ngase que la capacidad (en cualquier da dado) es d e 5 artculos para la lnea I y d e 3 artculos para la1 lnea 11, y que el nmero verdadero de artculos producidos por cada una de las lneas es una variable aleatoria. Sea (X, Y ) la representacitjn de la variable aleatoria bidimensional que da el nmero de artculos producidos por la lnea I y por la lnea 11, respectivamente.

TABLA 6.1
O
1

2
0.04 O. 05

0.01

0.02 0.03

0.02

0.04

0.05 0.05 0.06

0.06

0.05 0.06

0.08 0.06 0.05

La tabla 6.1 muestra la distribucidn d e probabilidades conjunta d e ( X ,Y ) .Cada dato representa


p(.;,yJ

= P ( X = %;,Y Yj).
= I

A s , p ( 2 , 3 ) = P ( X = 2 , Y = 3 ) = 0.04, etc. Por lo tanto, si B est definida como

B = {MAS artculos producidos por la lnea I que por la lnea 11)


encontramos que

126

Variables aleatorias bidimensionales

y de mayor dimenswn

6.1

P ( B ) = 0.01

+ 0.03 + 0.05 + 0.07 + 0.09 + 0.04 + 0.05 + 0.06 + 0.08 + 0.05 + 0.05 + 0.06 + 0.06 + 0.05
= 0.75.

EJEMPLO 6.2. Supngase que un fabricante de bombillas est interesado en el nmero de stas que le han sido pedidas durante los meses de enero y febrero. X y Y indican el nmero debombillas ordenadas durante esos dos meses, respectivamente. Supondremos que ( X ,Y ) es una variable aleatoria bidimensional con la siguiente fdp conjunta (vase la Fig. 6.3):

f(z, y) = c si 5000 L;
=O

5 10000 y

4000

5 y 5 9000,

en otro caso.
Y

X = 5000

X = 10,000

FIGURA 6.3
Para determinar c usamos el hecho de que Por tanto,
$ 0 3

S-, S-+,

f ( z , y ) dz d y = 1.

J_,

J_,

+m

f ( z , y ) dx dy =

J;,,,Lo,,
9000

10000

f(z, y) da: dy = c[5000]

As, c = (5000)-2. Por tanto, si B = { X 2 Y } ,tenemos

6.1

Variables aleatorias bidimensionales

127

P ( B )= 1=I--

(5000)' (5000)'

JgooO 5000

JY

5000

dx dy
-*

/gOOO 5000

[y - 500OIdy =

17 25

i
I

enteros, pues nopodemos ordenar un nmero fraccionario de bombillas! Sin embargo, nuevamente tratamos con una situaci6n idealizada en la cual permitimos que X tome todos los valores entre 5000 y 10 O00 (inclusive).

Obsemacin: En el ejemplo anterior, X y Y obviamente deben ser nilmeros

i
EJEMPLO6.3. Supngaseque la variablealeatoriabidimensional continua ( X ,Y ) tiene una fdp conjunta dada por

f(X,Y)

+ xy
"7

O < X < l ,

o<y<a,

=O

para cualquier otro punto.

Para verificar que S ,- +m

S ,- +m f(x, y) dz dy = 1 :

f ( z , y ) dx dy =

J"
O

(x'

+ y ) dx dy

Sea B = { X Y 2 l}. (Vase la Fig.6.4.) Calcularemos P ( B ) al evaluar 1 - P(BC), donde BC = { X Y < 1 ) . Por lo tanto,

128

kriables aleatorias bidimensionales y de mayor dimenswn

6.2

P ( B ) = 1-

1'

(x2

+ y ) dy dx

- 1 - ' i z7- m -* 65
-

sionales encontramos que F , la funcin d e distribucin acumulativa, tena un papel importante. En cl caso bidimensional, otra vez podemos definir una funcin acumulativa como se indicaa continuacin.
"

N estudiar variablcs aleatorias unidimen-

L.
y=l-x

FIGURA 6.4

Definicin. Sea (X, E') una variablealeatoriabidimensional. La funcin de distribucinacumulativa (fda) F d e la variable aleatoria bidimensional (A', Y ) est definida por

Obsemaciu: F es una funcin d e dos variables y tiene un nmero de propiedades anjlogas a las estudiadas para l a fda unidimensional. (Vase la Sec. 4.5.) Mencionaremos slo la siguiente propiedad importantc. Si F es fda d e u n a variable aleatoria bidimensional con fdp conjunta f , entonccs

dondequiera queF sea diferenciable. Este resultado es anjlogo a l del teorema 4.4 en el cual probamos que ( d / d z ) F ( x ) = f(z),donde f es la fdp d e una variable aleatoria unidimensional X.

6.2 Distribuciones de probabilidades marginales y condicionales Con cada variable aleatoria bidimensional ( X , Y ) asociamos dos variables aleatorias unidimensionales llamadas X y Y , respectivamente. Es decir, podemos interesarnos porla distribucin d e probabilidades d e X o por la distribuci6n d e probabilidades d e Y .

6.2

Distribuciones de probabilidades marginales

y condicionales 129

Consideremos otra vez elejemplo 6.1. AdemAs d e los datos de la tabla 6.1, calculemos tambin los totales "marginales", esto es, la suma de las 6 columnas y 4 filas de la tabla. (Vase la tabla 6.2.)

EJEMPLO 6.4.

TABLA 6.2
3
O 1

Suma

0.01 0.01 0.01

0.01 0.02 0.03 0.02

0.04 0.16

Suma

0.03

0.08

0.21

0.24

0.28

0.24
1.o0

Las probabilidades que aparecen en los mrgenes delas filasy columnas representan la distribucin d e probabilidades d e Y y X , respectivamente. Por ejemplo, P ( Y = 1) = 0.26, P ( X = 3) = 0.21, etc. Debido a la forma de la tabla 6.2, nos referirnos generalmente a la distribucin marginal d e X o a la distribucin marginal de Y , cada vez que tenemos (X, Y ) ,ya sea discreta o continua. una variable aleatoria bidimensional En el caso discreto procedemos as: puesto que X = x; debe ocurrir con Y = yj para una j, y puede ocurrir con Y = yj para slo una j, tenemos:
p(xc;) = P ( X = x;) = P ( X = z;,Y = y1
00
1

C)

La funcin p definida para x1,x2,. . ., representa la distribucidn marginal de probabilidades d e X. Anlogamente definimos q(yj) = P ( Y = = C z , , p ( x ; ,yj ) como la distribucidn marginal de probabilidades d e Y . En el caso continuo procedemos como sigue: sea f la fdp conjunta de la variable aleatoria bidimensional continua( . X 7 Y ) .Definimos g y h, las funciones densidad de probabilidades marginalesd e S y Y , respectivamente, como sigue:

j=l

P(x~ ~j > 1.

x = x ; , Y = y2 o

q)

130 Variables akatorias bidimensionales y de mayor dimensidn

6.2
'

Estas fdp corresponden a las fdp bsicas d e las variables aleatorias unidimensionales X y Y , respectivamente. Por ejemplo,

rd

EJEMPLO6 6 . El empuje X y la razn d e la mezcla Y sondos caractersticas del funcionamiento de un motor a reaccibn. Supngase fdp que ( X , Y ) es una variable aleatoria bidimensional continua con conjunta:

(Las unidades se han ajustado para usar marginal d e X est dada por

valores entre O y 1.) La fdp

Es decir X est distribuida uniformemente en[O, 11. La fdp marginal d e Y est dada por
h(y) =
2 2 1 J' 2(2 + y - 22y) dx = 2(x /2 + xy - x y) 10 O

=1,

O<y<l.

Por lo tanto, Y tambin est distribuida uniformemente en[O, I]. Definicin. Decimos que una variable aleatoria bidimensional continua esta distribuidu uniformemente en una regin R en un plano euclidiano, si

6.2

Distribuciones de probabilidades marginales y condicionales

13 1

f ( x , y) = const. para
=O

(x, y) E R,

para todo otro punto.

Debido a la condici6n:: J S" " , f(x,y) dx dy = 1, lo anterior implica que Ia constante es igual a l/reai ( R ) . Suponemos que R es una regin con Area finita distinta d e cero.
Obseruacidn: Esta definici6n representa el tkrmino bidimensional an6logo; I l a variable aleatoria unidimensional distribuida uniformemente.

(X, Y ) esta dktn'buidu uniformemente en la regi6n sombreada R que se


indica en la figura 6.5. Por tanto,

EJEMPLO6.6.

Supngase que la variablealeatoriabidimensional

1 f(z,y) = area(n)Y
Encontramos que rea ( R ) =

(X,Y)

E R.

.Y

Luego, la fdp est dada por

1'

1 (x - x 2 )dx = 6 .

FIGURA 6.5
En las ecuaciones siguientes encontramoslas fdp marginales d e X y Y .
+m

h(y) =

J'"

-m

f(z, y) d z =

1,"

6 da:

132 Variables aleatorias bidimensionales

y mayor de dimenswtt

6.2

Las grficas d e estas fdp aparecen enla figura 6.6.

El concepto d e probabilidad condicional se puede presentarde una manera muy natural.


EJEMPLO 6.7. Consideremos otra vez los ejemplos 6.1 y 6.4. Supngase que queremos evaluar la probabilidad condicional P ( X = 2 I Y = 2). De acuerdo con la definicin d e probabilidad condicional tenemos P(X=2lY=2)=

P ( X = 2,Y = 2) P ( Y = 2)

0.05 - = 0.20. 0.25

Podemos efectuar tal clculo en forma bastante general para el caso discreto. Tenemos
q x ; 1 yj) = P ( X = x ; I Y = yj)

q(yj

I x ; ) = P ( Y = Yj I X = x ; )

Obsemacwn: Para una j dada, p(x; I yj) satisface todasa l scondiciones de una distribucin d e probabilidades. Tenemos p(z; I yj) 2 O y tambin

6.2

Distribuciones de probabilidades margimales y condicionales

133

En el caso continuo, la formulacin d e la plrobabilidad condicional presenta alguna dificultad, puesto que para cualesquierax0 y yo dadas, tenemos P ( X = xo) = P ( Y = yo) = O. Enunciemos las siguientes definiciones formales.

Definicin. Sea ( X ,Y ) una variable aleatolria bidimensional continua con fdp conjunta f . Sean g y h las fdp marginales d e X y Y , respectivamente. La fdp condicional de X para Y = y dada, est definida por

La fdp condicional de E para una X = x dada se define

Obseruaciones: a) Las fdp condicionales anteriores satisfjcen todas las exigencias de unafdp unidimensional. A s , para yjja, tenemos g(x 1 y) O y

>

b) Una interpretacin intuitiva d e g(x I y) se obtiene si consideramos que la superficie representada por la fdp conjuntaf es cortada, digamos, por el plano y = c. La interseccin del plano con la superficie z I= f ( x , y) resultar en una fdp unidimensional llamada la fdp d e X para Y = (c. sta ser5 precisamente g(x I c ) . c) Supongamos que ( X ,Y ) representan la altura y el peso de unapersona, respectivamen$e. Sea f la fdp conjunta d e ( X ,Y ) y slea g la fdp marginal d e X (sin tomar e n cuenta Y). Por tanto, J, g(x) d x representara la probabilidad delevento (5.8 5 X 5 6 ) sin tomarencuentael peso Y . Porsuparte J$g(x I 150) d x se interpretara como P(5.8 5; X 5 6 I Y = 150). Estrictamente hablando, esta probabilidad condicional no est definida en los trminos d e nuestra convencin previa con la probabilidad condicional, puesto que P(Y = 150) = O. Sin embargo, slo usamos la integralanteriorpara definir esta probabilidad. Sobre u&base intuitiva, ciertamente, ste debe ser el significado d e dicho nmero.

Un clculo anlogo se puede hacer para h(y I x). Por tanto,las ecuaciones (6.7) y (6.8) dejnen las fdp e n R, y R,, respectivamente.

134 Variables aleatorias bidimensionales

y de mayor dimenswn

6.3

EJEMPLO 6.8. Refirindonos al ejemplo 6.3, tenemos


g ( ~= )

l2 + y)
(X

dy = 222

h(y) =

/
O

(X

+ y ) dx = Y + ?. 1

+3 2

-2,

Por tanto,

x2 h(y I x) = 22

x 2 xy/3 = 1/3 y/6

+ +

+ 2/3(x)

+ xy/3

Gx 2xy 2+Y
-

O < X < l ,

OLyL2;

32

GX

+ xy - 32 + y + 22 6 2 + 2

o<y<2,

O < X < l .

Para verificar que g(x I y) es una fdp, tenemos


y = 1 para today. dx = 2+Y

Un clculo semejante se puede hacer para h ( y I x).

6.3 Variables aleatorias independientes

Tal como definimos el concepto de independencia entre dos eventos A y B , ahora definiremos las variables aleatorias independientes. Lo que queremos decir intuitivamente es que X y Y son variables aleatorias X , digamos, de ninguna manera independientes si elresultadode Y . sta es una nocinextremadamente influyeenelresultadode importante y hay muchas situaciones en que dicha suposicin se justifica.
EJEMPLO 6.9. Consideremos dos fuentes d e material radiactivo, sia. Supongatuadas a cierta distancia una de otra, que emiten partculas mos que ambas se observan durante un periodo de dos horas y se anota el nmero de partculas emitidas. Supngase que las siguientes variapartculas emitidas bles aleatorias sond e inters: X1 y X2, el nmero de por la primera fuente durante la primera y la segunda hora, respectiva1 y 15, el nmero de partculas emitidas por la segunda fuente mente; Y durante la primera y la segunda hora, respectivamente. Parece obvio

6.3

Variables independientes aleatmius

13 5

por intuicin que (X1 y Yl),o ( X 1 y Y2),o (X2 :y Yl),o (X; y Y2)son todas pares devariables aleatorias independientes. Las X dependen slo de las caractersticas de la fuente 1, mientras que las Y dependen delas caractersticas d e la fuente 2 y posiblemente no hay razn para suponer que una fuente influya de manera alguna en el comportamiento dela otra. Cuando consideramos la posible independencia de X1 y X 2 , el asunto no es tan claro. (El nmero de partculas emitidas durante la segunda hora esta influido por el nmero emhido durante la primera hora? Para responder a este interrogante tendramos que obtener informacin adicional acerca del mecanismo d e emisi6n. ciertamente no podramos suponera priori que X 1 y X 2 son independientes. Hagamos ahora mas precisa la anterior noci6n intuitiva de independencia.

Definicin. a) Sea (X,Y ) una variable aleatoria bidimensional discreta. Decimos que X y Y son variables aleatorias independientes si y slo si p(z;,yj) = p(zc;)q(yj) paratoda i y j. Esto es, p ( X = X;,Y = yj) = P ( X = zc;)P(Y= y;), para toda i y j.

b) Sea (X, Y )una variable aleatoria bidimensional continua. Decimos que X y Y son variables aleatorias independientes si y slo si f ( z , y) = g(z)h(y) para toda (x, y), donde f es la fdp conjunta, y g y h son las fdp marginales d e X y Y , respectivamente.
Obseruacidn: Si comparamos la definicin anteriolr con la que se proporcion para eventos independientes, la semejanza es aparente: esencialmente necesitamos que la probabilidad conjunta (o fdp conjunta) pueda factorizarse. El teorema siguiente indica que la definici6n anterior es equivalente a otro plan-

teamiento que podramos haber hecho.

Teorema 6.1. a) Sea ( S , Y ) una variablealeatoriabidimensional discreta. Entonces X y Y son independientes si y slo si p ( z ; I yj) = p ( z : ; )para toda i y j (o lo que es equivalente, si y s610 si 4(Yj I Zi) = d Y j ) para toda i y d.

b ) Sea (X, Y ) una variable aleatoria bidimensional continua. Entonces X y Y son independientes si y s610 si g(z I y) = g(z), o lo )= h(y) para toda (z,~). que es equivalente, si y slo si h(y 1 z
Denmtracidn: VCase el problema 6.10.

136 Variables akatorias bidimensionaks

y de mayor dimenswn

6.3

EJEMPLO 6.10. Supongamos que una mquina se usa para un trabajo especfico en la mafiana y para otro diferente en l a tarde. Representeveces que la mAquina falla en la maana y mos por X y Y el nmero de en la tarde, respectivqmente. En la tabla 6.3 se muestra la distribucin d e probabilidades conjunta d e ( X , Y ) . Un cAlculo fcil revela que para todus las ubicaciones d e la tabla 6.3 tenemos
P(% Yj> = P ( 4 d Y j ) .

A s , X y Y son variablesaleatoriasindependientes.(Paracomparar vase tambin el Ej. 3.7.) TARLA 6.3

0.04

0.08

0.08

0.2
0.3 __
1.o

2
P(Xi)

0.06

0.12

0.12
0.4

0.2

0.4

EJEMPLO 6.1 1. Sean X y Y la duracin dedos dispositivos electrnicos. Supngase que su fdp conjunta est dada por

f (x, Y> = e --(+Y),

x 2 o,

2 o.
se establece la inde-

Puesto que podemos factorizar f(x,y) = e-e-Y, pendencia deX y Y .

EJEMPLO 6.12. Supngase que f (x, y) = 8zy, O 5 z 5 y 5 1. (El dominio est dado porla regin sombl-eada en la figura 6.7.) Aunque f ya est escrita en forma factorizada, X y Y n o son independientes, puesto que el dominio dedefinicicin {(z,Y>I O I x I Y 5 1)
es tal quc para una x dada, y puede tomar slo valores mayores que la z dada y menores que 1. Por tanto, X y Y no son independientes.

J I *
x

FIGURA 6.7

6.4

Funciones aleatoria variable de una

137

Obscmacidn: De la definicin de la distribucin marginal de probabilidades (en cualesquiera de los casos, discreto o continuo) (3s claro que la distribucin conjunta de probabilidadesdetermina, en forma nica, la distribucin marginal de probabilidades. Es decir, que conociendola fdp f conjunta podemos obtener las fdp marginales g y h. Sin embargo, lo inverso no es verdadero. Es decir, en general, el conocimiento de las fdp marginales g y h no determina la fdp conjunta f . Esto slo esverdadero cuandoX y Y son independientes, porque en este caso tenemos f ( 2 , y) = g(z)h(y).

El resultado siguiente indica que nuestra delinicin de variables aleatorias independientes estde acuerdo con nuestra definicin previad e eventos independientes.

Teorema 6.2. Sea (X, Y ) una variable aleatoria bidimensional. Sean A y B eventos cuya ocurrencia (o no ocurrencia) depende slo d e X y Y respectivamente.(Esto es, A es un subconjunto de R z , el recorrido de X, mientras que B es un subconjunto de R y , el recorrido de Y . ) Entonces, si X y Y son variables aleatorias independientes, tenemos P ( A n B ) = P ( A ) P ( B ) .

Demstrucidn: (slo el caso continuo):

6.4 Funciones de una variable aleatoria

Al definir una variable aleatoria X sealamos enfticamente que X es una funcidn definida del espacio muestral S a los nmeros reales. Al ( X ,Y ) ,tratamos un par de definir una variable aleatoria bidimensional funciones, X = X(s), Y = Y ( s ) ,cada una de I,as cuales est definida en y cada unad e las cuales asigna el espacio muestral d e algn experimento un nmero real a cada S E S , produciendo as el vector bidimensional [ X ( 4Y(S)l* Consideremos ahora2 = H I ( X , Y ) ,una funcin d e las dos variables aleatorias X y Y . Debe ser claro que2 = Z(s) es otra vez una variable

138 fi'ariables aleatorias bidimensionales y de mayor dimenswn


aleatoria. Consideremos la siguiente sucesin de pasos: Se realiza el experimento E y se obtiene el resultado s. b ) Se evalan los nmeros X ( s ) y Y(,). c) Se evala el nmero2 = Hl[X'(s), Y(,)].
a)

6.4

El valor de 2 depende claramente deS, el resultado original del experimento. Esto es, 2 = Z ( S )es una funcin que asigna a cada resultado S E S un nmero real, Z ( S ) . Por lo tanto, 2 es una variable aleatoria. Algunas variables aleatorias importantes que nos van a interesar son X Y , X Y , X / Y , mn ( X ,Y ) ,mAx (X, Y), etcetera. El problema que resolvimos en el captulo anterior para la variable aleatoria unidimensional aparece otra vez: dada la distribucin de probabilidades conjunta de( X ,Y ) ,cul es la distribucin d e probabilidades d e 2 = I I 1 ( X , Y ) ? (Debe haber quedado claro en los nmerosos tratamientos previos sobre este punto que una distribucin de probabilidades se induce en R,, el espacio muestra1 de 2.) Si (X, Y ) es una variable aleatoria discreta, este problema se resuelve fcilmente. Supngase que ( X ,Y ) tiene la distribucin dada en los ejemplos 6.1 y 6.4. Las siguientes variables aleatorias (unidimensionales) podran ser de inters:

U = mn ( X ,Y ) = el menor nmero de artculos producidos por las


dos lneas; dos lneas;

V = mx (X, Y ) = el mayor nmero de artculos producido porlas


T Y = X +Y = nmero total de artculos producidos por las dos lneas.

Para obtener la distribucin de probabilidades de U , por ejemplo, procedemos como sigue. Los valores posibles de U son: 0,1,2 y 3. Para evaluar P(U = O) argumentamos que U = O si y slo si ocurre uno de los casos siguientes: X = O, Y = O o X = O, Y = 1 o X = O, Y = 2 ox=o,Y=3oX=1,Y=ooX=2,Y=oox=3,Y=oo X = 4, Y = O o X = 5, Y = O. Por lo tanto, P(U = O) = 0.28. El resto d e las probabilidades asociadas con U se pueden obtener de manera semejante. Por tanto, la distribucin d e probabilidades d e U se puede resumir como sigue: u : O, 1,2,3; P(U = u ) : 0.28, 0.30, 0.25, O. 17. La distribucin d e probabilidades d e las variables aleatorias V y W , como se defini6 anteriormente, se puede obtener de una manera semejante. (Vase el Prob. 6.9.)

6.4

Funciones una de

variable aleatoriu

139

Si ( X ,Y ) es una variable aleatoria bidimensional continua y si 2 = H I ( X , Y ) es una funcincontinua d e ( X , Y ) , entonces 2 ser una y el problema de encontrar variable aleatoria continua (unidimensional) su fdp es algo ms complicado. Para resolver este problema necesitamos un teorema que vamos a indicar y analizar a continuacin. Antes d e hacerlo, bosquejemos la idea bsica. Para encontrar la fdp de 2 = N l ( X , Y ) a b menudo es ms simple introducir una segunda variable aleatoria, digamos W = H 2 ( X 7 Y ) ,y obtener primerola fdp conjunta de 2 y W ,digamos k ( z ,w). Conociendo k ( z , w), entonces podcmos obtener la fdp de 2, digamos g ( z ) ,al integrar simplemente k ( z , w)respecto a w. Esto es,

g(z)=

J'" k ( z ,w)dzo
"O0

Los problemas que quedan son 1) cmo enclontrar la fdp conjunta d e 2 y W , y 2) cmo elegir la variable aleatoria apropiada JV = H 2 ( X , Y ) .

Para resolver el ltimo problema, simplemente digamos que en general hacemos la eleccin ms scncilla posible d e W . En el contexto presente, W desempeiia slo un papel intermcdiario, y en realidad no nos interesa en s misma. Conel fin deencontrar la fidp conjuntade 2 y 1Y necesitamos el teorema 6.3.

Teorema 6.3. Supongamosque ( X ,Y ) e s una variablealeatoria bidimensional continua con fdp conjunta f . Sea 2 = I l 1 ( X ,Y ) y W = I I 2 ( S , Y ) ,y supongamos quelas fnlciones If1 y I 1 2 satisfacen las condiciones siguientes:

a ) Las ecuaciones z = I l l ( x , y ) y w = II2(x,y ) se pueden resolver z y w, digamos x = G l ( z ,w ) nicamente para x y y en trminos de y Y = G2(z,4 . b) Las derivadas parciales d x l a z , ax:/aw, dylaz y d y l d w existen
y son continuas.
Entonces la fdp conjunta de (2, JY);digarnos k( z , w), est dada por z) , ] I J ( z , w) la expresin siguiente: k ( z ,w ) = f [ G , ( z ,w ) , G ~ ( w donde J ( z ,w), es el siguiente determinante2 x 2:

140 kriables aleatorias bidimensionales

y de mayor dimenswn
"-f

6.4

ser distinta d e cero para esos valores d e ( z 7 w ) que corresponden a valores de ( x 7y) para los cuales f ( x , y) es distinta d e cero.

Este determinante se llamajucobiuno d e la transformacin (x, j) ( z ,w j y algunas veces se denota con 8 ( x 7y)/8(z7 w). Observemos que k ( z , w )

i
" x

FIGURA 6.8
Obsemaciones: a) Aunque no demostraremos este teorema, por lo menos indicaremos lo que necesita demostrarse y dnde se encuentran las dificultades. Considrese la fda conjunta d e la variable aleatoria bidimensional ( 2 , W),

K(z,w)= P(Z 5

z,

5 w)=

J - m J-00

I" I" K ( s , t ) ds d t ,

En donde k es la fdp buscada. Puesto que se supone que la transformacin (z,y) + ( z , w ) es de uno a uno (vase la suposicin a ) anterior), podemos encontrar el evento, equivalente a {Z 5 z, W 5 w}, en trminos d e X y Y. Supngase que esteevento se denota con C. (Vase la Fig. 6.8.) Esto es, {(X, Y ) E C} si y slo si (25 z , L Y 5 w}. Por tanto,

Puesto que se supone que f es conocida, puede calcularse el segundomiembro de la integral. Diferencindola respecto z a y w obtenemos la fdp requerida. En la mayora d e los textos d e clculo avanzado se demuestra que estas tkcnicas conducen al resultado formulado en el teorema anterior. b ) Ntese la gran semejanza entre el resultado anterior y el obtenido en el caso unidimensionaltratadoen el captuloanterior. (Vase el Teorema 5.1.) L a condicin de monotona de la funcin y = H ( z ) se sustituye por la condicin de que la correspondencia entre ( x , ~y ) ( z , w ) es uno a uno. La condicin d e difercnciabilidad se sustituye por ciertas suposiciones acerca

6.4

Funciones de una variable aleatoria

141

de las derivadas parciales consideradas. La solucin final que se obtiene es tambin muy semejantea la obtenida en elcaso unidimensional: las variables z y y sencillamente se sustituyen por sus expresiones equivalentes en tkrminos de z y w,y el valor absoluto de dx/dy se sustituye por el valor absoluto del jacobiano.

EJEMPLO 6.13. Supngase que estamos alpuntando a un blanco circular de radio unlo quesehacolocado demodoquesucentro est en el origen de unsistema de coordenadas rectangulares (Fig. 6.9). Supcingase que las coordenadas ( X )Y ) de los puntos de impactlo estn distribuidas uniformemente en el crculo. Es decir,
f(z,y) = I / T

FIGURA 6.9

si (x, 9 ) queda en el interior o sobre el crculo, en otro punto.

=O
Y

i
FIGURA 6.11

FIGURA 6.10

Sup6ngase que estamos interesados en la variable aleatoria R que representa la distancia delorigen.(Vase la Fig. 6.10.) Es decir, R = d m . Encontramos la fdpde R, digamos g, comosigue:sea = t a n - ( Y / X ) . Por tanto, X = H I ( & a) y Y = H 2 ( R , a), donde z = H l ( r , 4 ) = r c o s 4 y y = EI2(r, 4) = r s e n d . (Simplemente hemos introducido coordenadas polares.) El jacobiano es
J=
= r cos2 4

+ r sen 2 4 = r.

142 Variables aleatorias bidimensionales

y de mayor dimenswn

6.5

En la transformacin anterior, el circulo unitario en el plano x y est en correspondencia con el rectngulo en el plano +r en la figura 6.11. Por tanto, la fdp conjunta de(a, R ) estA dada por

A s , la fdp pedida deR, digamos h , est dada por


h(r)=

27r

g ( 4 , r )&5 = 2r,

5 r 5 1.

Obsemacidn: Este ejemplo seala la importancia de obtener una representacin precisa d e la regin d e los valores posibles introducidos por la nueva variable aleatoria.

6.5 Distribucin del producto y del cociente de variables aleatorias independientes


Entre las funciones de x 'y Y ms importantes que deseamos considerar estn la suma S = X Y , el producto W = X Y y el cociente 2 = X / Y . Podemos usar el mtodo d e esta seccin para obtener las fdp de cada una de esas variables aleatorias en condiciones muy generales. En el captulo 12 estudiaremos la suma de variables aleatorias con mayor detalle. Por tanto, postergaremos hasta entonces el anlisis d e la S Y . Sin embargo, consideraremos distribucin de probabilidades de el producto y el cociente en los dos teoremas siguientes.

Teorema 6.4. Sea ( X ,Y ) una variable aleatoria bidimensional continua y supongamos queX y Y son independientes. Por tanto, la fdp f se puede escribir como f(r,y) = g(x)h(y). Sea bV = XY. Luego, la fdp deW , digamos p , est dada por

Demostrucin: Sea w = xy y u = x. As, x = u y y = w f u. El jacobiano es


J=
l o
1 -

"w

1 -.
'U

6.5

Distribucwn producto del

ycociente del

de . ..

143

Por tanto, la fdp conjunta de W = X Y y U = X es

La fdp marginal deW se obtiene al integrar s(w, u)respecto a u,lo que da el resultado pedido. Los valores de w para los cuales p ( w ) > O dependen de los valores (x, y) con los cuales f ( z , y) > O.
Obseruacidn: A l evaluar la integral anterior se puedeusar el hecho de que

EJEMPLO 6.14. Supngase que tenemos un circuito en el cual la corriente I y la resistencia R varan de modo aleatorio. Supngase especficamente que I y R son variables aleatorias continuas independientes con las siguientes fdp.
I : g ( i ) = 2i,

O5i
O

R : h ( r ) = r2/9,

5 1 y O on otra parte; 5 r 5 3 y O en otra parte.

Es d c inters la variable aleatoria E = I R (el voltaje en el circuito). Sea p la fdp deE . Segiln el teorema 6.4 tenemos

son iguales a cero, encontramos que deben satisfacerse las condiciones siguientes:

Se debe tener cuidado al evaluar esta integral. Ntese, primero, que la variable d e integracin no puede tomarvalore:; negativos; segundo,que con el fin d e que el integrando sea positivo, ambas fdp que aparecen en 1 deben ser positivas. Considerando los valores para los cuales g y h no

Estas dos desigualdades son, a su vez, equivalentes a e/3 5 i tanto, la integral anterior se convierte en

1. Por

144 Variables akatorias bidimensionaks

y de mayor dimenswn

6.5

IJn clculo fcil demuestra que = 1. (Vase la Fig. 6.12.)

Jip ( e ) de

FIGURA 6.12

Teorema 6.5. Sea (X, Y ) una variable aleatoria bidimensional continua y supngase que X y Y son independientes. [Por tanto, y) = g(z)h(y).] Sea la fdp de ( X , Y )puede escribirse como f(z, 2 = X / Y . Entonces la fdp de 2,digamos q, est dada por

Demostrucidn: Sea z = ./y y sea v = y. Por tanto, x = v z y y = v. El jacobiano es

Por tanto, la fdp conjunta de2 = X / Y y V = Y es igual a


2(2, v)

= g(vz)h(v)

1911.

Integrando esta fdp conjunta respecto nal d e 2.

a v, se obtiene la

fdp margi-

EJEMPLO 6.15. Representemos con X y Y la duracin de dos bombillas fabricadas mediante dos procedimientos distintos. Supongamos f y g, respecque X y Y son variables aleatorias independientes con fdp tivamente, donde
f(z)= e-,
g(y) =

2e 2Y,

x 3 O,
y

y O en otra parte;
otra parte.

5 O, y O en

6.6

n-dimensionales aleatorias Variables

145

Podra ser de inters la variable aleatoria X / Y , que representa la razn d e las dos duraciones. Sea q la fdp deZ., Segn el teorema 6.5 tenemos q ( z ) = S_'," g(wz)h(w)lwl dw. Puesto que X y Y slo pueden tomar cantidades no negativas, la integracin anterior nicamente necesita calcularse sobre los valores positivos d e la variable d e integracin. Adems, el integrando ser positivo slo cuando las dos fdp que aparecen sean positivas. Esto implica que debemos tener w 2 O y wz 2 O. Puesto que z > O, estas; desigualdades implican que w >_ O.

As, lo anterior se convierte en

Una fcil integracin por partes da


2 =( . + 2)2'
z

2 o.
FIGURA 6.13

(Vase la Fig. 6.13.) De nuevo es un ejerciq(z) d z = 1. cio fcil verificar que

so"

6.6 Variables aleatorias n-dimensionales Hasta ahora nuestra exposici6n se ha restringido a variables aleatorias bidimensionales. Sin embargo, como lo indicamos al principio de este captulo, podemos interesarnos en tres o ms (caractersticas numricas simultneas. Slo haremos una brevsima exposicin d e 'las variables aleatorias ndimensionales. La mayor parte d e los conceptos antes presentados para el caso bidimensional se pueden extender al caso n-dimensional. Nos limitaremos al caso continuo. (Vase la nota al finald e este captulo.) Supongamos que( X , , . . . ,X n ) puede tomar todoslos valores en una regindel espacio n-dimensional. Estoes, e1 valores un vector ndimensional

Caracterizamos la distribucin d e probabilidades (S1,.. . ,X n ) como sigue.

146 Variables aleatorias bidimensionales

y mayor de dimenswn

6.6

Existe una funcin de densidad de probabilidades conjunta satisface las condiciones siguientes:

f que

Con la ayuda de esta fdp definimos

donde C es un subconjunto del recorrido de ( X , , . . . ,X,). Con cada variable aleatoria n-dimensional podemos asociar un nmero de variablesaleatorias d e dimensininferior.Porejemplo, si n = 3, entonces

donde g es la fdp marginal de una variable aleatoria unidimensional X3, mientras que

donde h representa la fdp conjunta de la variable aleatoria bidimensional ( X , , X,), etc. El concepto d e variables aleatorias independientes tambiCn se extiende de una manera natural. Decimos que (XI,. . . ,X n ) sonvariablesaleatoriasindependientessi y slo si s u fdp conjunta f ( x 1 , . . . ,z n )se puede factorizar en

Hay muchos casos en los cuales deseamos considerar las variables aleatorias n-dimensionales. Daremos unos cuantos ejemplos. a) Supngase que estudiamos el patrn de precipitacin debido a un sistema particular de tormentas. Si tenemos una red de, digamos 5 estaciones d e observacin, y si X ; es la cantidad d e lluvia cada en la estacin i debido a un sistema frontal particular, querramos considerar la variable penta-dimensional ( X I , X 2 , S 3 , X 4 , X,).

6.6

Variables n-dimensionales aleatorias

147

b ) Una delas aplicaciones ms importantes de las variables aleatorias n-dimensionales se presenta cuando tratamos con medidas repetidas de una variable aleatoria X. Supngase que se pide informacin acerca de la duracin, X, de cierto tubo electrnico. Un fabricante produce un gran nmero de estos tubos, d e los cuales probamos n. Sea X; la duracin del i-simo tubo, i = 1 , .. . , n. Por tanto, ( X I , . . . es una variable aleatoria n-dimensional. Si suponemos que cada X; tiene la misma distribucin de probabilidades (puesto que todos los tubos se producen de l a misma manera), y que las X ; son todas variables aleatorias independientes (puesto que, posiblemente, la produccin de un tubo no afecta la produccin d e los otros)l, podemos suponer que la variable aleatoria n-dimensional ( X I , . . , ,X n ) est formada d e los componentes XI,. . . ,X n independientes e identicamente distribuidos. (Debe ser obvio que aunque X1 y X2 tienen la misma distribucin, no necesitan adoptar elmismo valor.) c) Otra manera en que aparccenlas variables aleatorias n-dimensionales es la siguiente. Representernos con X()la potencia requerida por cierta empresa industrial durante un tiempo t . Para t fija, X ( t ) es una variable aleatoria unidimensional. Sin embargo, podemos estar interesados en establecer la potencia requerida en detcrminados n tiempos especficos, digamos t l < t 2 < . . . < t n . A s , deseamos estudiar la variable aleatoria n-dimensional.

,X,,)

[x(t&Jqt.),

..., x ( t , ) l ] .

Este tipodeproblemas se estudiaaun nivel ms avanzado.(Una referencia excelente para este tema es el libro Stochastic Processes por Emanuel Parzen, San Francisco, Holden-Day, 1962.)
Obseruacibn: En alguna parte de nuestra exposicin nos referimos al concepto d e n-espacio. Resumamos algunasd e las ideas bjsicas necesarias. Con cada nmero real x podemos asociar un punto sobre la recta d e los nmeros reales y recprocamente. De igual manera, con cada par denmeros reales (11, x2) podemos asociar un punto e s el plano rectangular d e coordenadas y recprocamente. Para finalizar, con cada conjunto d e tres nmeros reales ( x 1 , 2 2 , xpodemos 3) asociar un punto en el espacio tridimensional d e coordenadas y recprocamente. En muchos d e los problemas que nos interesan tratamos un conjunto d e n nmeros reales, ( x 1 , 2 2 , . . . , x,), tambin llamado una n-tupla. Aunque no es posible dibujar ninguna grfica, si n > 3, para continuar podemos adoptarla terminologa geomtrica sugerida por los casos d e dimensin menor citados

148 Variables aleatorias bidimensionaks y de mayor dimensidn


anteriormente. As, hablaremos de un "punto" en u n n-espacio dimensional determinado porla n-tupla (XI,.. . ,x,). Definiremos como n-espacio (algunas veces llamado n-espacio euclidiano) el conjunto d e todas las ("1, . . . , zn),donde x ; puede ser cualquier nmero real. Aunque en realidad no necesitaremos evaluar integrales n-dimensionales, vamos a encontrar que es un concepto muy til y algunas veces necesitamos expresar una cantidad como una integralmltiple. Si recordamos la definicin de

donde A es una regin del plano ( x , ~ ) entonces , la extensin de este concepto a

I
donde R es una regin en el n-espacio, sera justificada. Si f representa la fdp conjunta de la variable aleatoria bidimensional ( X ,Y), entonces
i

representa P [ ( X , Y )E A ] . Anrilogamente, si f representa la fclp conjunta de (X,, . . . , X,), entonces

representa

PROBLEMAS
6.1. Sup6ngase que la tabla siguiente representa la distribuci6n de probabilidades conjunta de la variable aleatoria discreta ( X , Y ) . Calcular todas las distribuciones marginales y condicionales.

Problemas

149

6.2. Supngase que conjunta


f ( 2 ,y)

la variable aleatoria bidimensional

( X , Y )tenga fdp

= k z ( 2 - y),

o < 2 < 2,

"2

= O,

< y < 2,

en otra parte.

a)

Evaluar la constante I C . 6) Encontrar la fdp marginal de X . c) Encontrar la fdp marginal d e Y 6.3. Supngase que la fdp conjunta d e la varialble aleatoria bidimensional

( X ,Y ) est5 dada por

f(2,y)

= 2 2 + -, XY
3

o < 2 < 1, o < y <,a,

= O,
Calcular lo siguiente.

en otra parte.

6.4. Supngase que se sacan dos cartas a l azar de una baraja. Sea nmero deases obtenidos y Y el nmero de reinas obtenidas.
a)

X el

Obtener la distribucin d e probabilidades conjunta d e ( X ,Y ) . 6) Obtener la distribucin marginal d e X y d e Y. c) Obtener la distribucin condicional d e X (dada Y )y d e Y (dada X).
6.5. Para que valores d e k es f(2,y) = ICe-(z+Y) Itma fclp conjunta d e (X, Y ) en la regin O < 2 < 1, O < y < l ?

6.6. Supngase que la variable aleatoria bidimensional continua ( X ,Y ) est distribuida uniformemente en el cuadrado cuyos vrtices son (l,O), (O, l), (-1,O) y (0,-1). Encontrar las fdp marginales d e X y d e Y .

150 Phriables aleatorias bidimensionales y de mayor dimenswn


6.7. Supngase que las dimensiones, X y Y , de unaplancha metlica rectzngular se pueden considerar como variables aleatorias continuasindependientes con las siguientes fdp.

x:

g(z)

= 2 - 1,
-

1 < 2 5 2,
2<x<3,

-x+3,

= O, =O

en otra parte. en otra parte.

Y : h ( y ) = $, 2 < y < 4 ,
Encontrar la fdp del rea d e la plancha, A = X Y
6.8. Representar con X la duracin de undispositivo electrnico y suponer que X es una variable aleatoria continua con fdp

f ( x ) = loo0
7 1

> 1000,

= O en otra parte.
Sean X 1 y X 2 dos determinaciones independientes de la anterior variable aleatoria X . (Es decir, suponer que se est probando la duracin de dos de tales dispositivos.) Encontrar la fdp d e la variable aleatoria 2 = X * / X 2 .

y W presentadas en la p. 138.

6.9. Obtener la distribucin d e probabilidades d e las variables aleatorias V

6.1 O. Demostrar el teorema 6. l .


6.1 1. La fuerza magntica H en un punto P , a X unidades d e u n alambre que transporta una corriente I , est5 dada por H = 2 Z / X . (Vease la Fig. 6.14.) Supngaseque P es unpunto variable. Es decir, X es una variable aleatoria continua distribuida uniformemente en ( 3 , 5). Supngase que la corriente I es tambin una variable aleatoria continua distribuida unialeatorias formemente Se en I son (10,independientes. ZO), y adems, que Encontrar las variables la fdp

p + "

//

de la variable aleatoria H.

.\OO
'.
" " "

FIGURA 6.14

6.12. La intensidad d e la luz en un punto determinado est dada por la relacin I = C / D 2 , donde C es la potencia luminosa d e la fuente y D es ladistzzncia d e la fuente al punto dado. Supngase que C est distribuida uniformemente en (1, Z), mientras que D es una variable aleatoria continua

Problemas

15 1

con fdp f (d) = e - d , d > O. Encontrar la fdp d e I, si C y D son independientes. [Indicacidn: Hallar primero la fdp d e D 2y luego alplicar los resultados d e este captulo.] 6.13. Cuando una corriente d e I (amperes) paja por una resistencia d e R (ohms), la potencia generada esd dada porW = 12R (watts). Supngase que I y R son variables aleatorias independientescon las siguientes fdp.
I:

f(i) = 6i(l - i), g ( r ) = 2r,

O 5 i 5 1,

= O en otra parte.

R:

O < r < 1,

= O en otra parte.
Determinar la fdp dela variable aleatoria W y dibujar su grfica.
6.14. Supngase quela fdp conjunta de ( X , Yest ) dada por

f ( z , y ) = e-?',

para z

> O,

> z,

= O en otra parte.
Encontrar la fdp marginal d e X . 6) Encontrar la fdp marginal d e Y . c) Evaluar P ( X > 2 I Y < 4).
a)

7.1 El valor esperado de una variable aleatoria


Consideremos la relacin determinista u2 by = O. Reconozcmosla como una relacin lineal entre z y y. Las constantes a y b sonparmetros d e esta relacin en el sentido de que para cualquier eleccin particular d e u y b obtenemos una funcin lineal especifica. En otros casos, uno o mAs parmetros pueden caracterizar la relacin que se considera. Por ejemplo, si y = u z 2 bz c son necesarios tres parmetros. si y = e - k x un parmetro es suficiente. No slo una relacin particular se caracteriza por los parmetros sino, recprocamente, por cierta relacin podemos definir varios parmetros pertinentes. Por ejemplo, si a y bz = O, entonces m = -b/a representa la pendiente de la recta, y si y = a z 2 b z c, entonces - b / 2 u representa el valor para el cual existe un mAximo relativo o un mnimo relativo.

+ +

+ +

En los modelos matem5ticos no deterministas o aleatorios que hemos la disconsiderado, los parmetros tambin pueden usarse para sealar tribuci6n d e probabilidades. Con cada distribucin de probabilidades podemos asociar ciertos parAmetrosque dan informacin valiosa acerca

. .

154 caractersticas Otras variables las nleatorias de

7.1

de la distribucin (tal comola pendiente de una recta proporciona una informacin til acerca d e la relacin lineal que representa).

EJEMPLO 7.1. Supongamos queX es una variable aleatoria continua con fdp f(z)= k e - k x , x 2 O. Para verificar que esta es una fdp observe que S r k e - k x dx = 1 para toda k > O, y que k e - k x > O para k > O. Esta distribucin se llama distribucin exponencial, la cual estudiaremos Es una distribucin muy til para m8s adelante con mayor detalle. representar la duracin, digamos X , d e cierta clase de componentes de C , en este sentido, tambin se analizar equipos. La interpretacin de I posteriormente. EJEMPLO 7.2. Supongamos que en una lnea indefinida d e montaje se produce un artculo dado. La probabilidad de que un artculo sea defectuoso es p , y este valor es el mismo para todos los artculos. o no Supngase tambin quelos artculos sucesivos son defectuosos (D) defectuosos ( N ) , independientemente uno de otro. Sea la variable aleatoria X el nmero de artculos inspeccionados hasta que se encuentra el primer artculo defectuoso. A s , un resultado tpico del experimento sera d e la forma N N N N D. Por tanto, X ( N N N N O ) = 5. Los valores posibles d e X son: 1 , 2 , . . . , n , . . . Puesto que X = k si y slo si los primeros ( k - 1) artculos son no defectuosos y el k-simo artculo C } : es defectuoso, asignamos al evento la probabilidad siguiente {X = I P ( X = F;) = P(I - p ) " - l , IC = 1 , 2 , . . . , n , . . . Para verificar que sta es una legtima distribucin d e probabilidades observemos que

=Pl-(l-p)

= 1 si O

< Ipl < 1.

As, el parPmet1-o p puede ser cualquier nmero que satisfaga O

< p < 1. ' Supongamos que se especifican una variable aleatoria y su distribucin d e probabilidades. Hay alguna manera d e establecer esta distribucin en funcin de unos cuantos parametros numricos apropiados? Antes de continuar con la preguntaanterior, motivemos nuestro anlisis considerando el siguiente ejemplo.
EJEMPLO 7.3. Una mquina corta alambre de una longitud detei-minada. Debido a cierta imprecisin del mecanismo de corte, el largo del

7.1

variable El una aleatoriu esperado valor de

155

'

alambre cortado (en pulgadas), digamos X , se puede considerar como unavariablealeatoriadistribuidauniformementeen [11.5,12.5]. El largo especfico esde 12 pulgadas. Si 11.7 X < 12.2, el alambre se puede vender con una utilidad de $0.25. Si X 2 12.2, el alambre se puede corY si tar de nuevo y, por consiguiente, se obtiene una utilidad de $0.10. X < 11.7, el alambre se desecha con una prdida de $0.02. Un clculo sencilloindica que P(X 2 12.2) = 0.3, P(11.7 5 X < 12.2) = 0.5 y P ( X < 11.7) = 0.2. Supongamos que se corta un gran nmero de muestras de alambre, digamos N. Sea N S el nmero de muestras para las cuales X < 11.7, N R el nmero de muestras para las cuales 1 1 1 . 7 5 X < 12.2 y NL el nmero de muestras para las cuales X 2 12.2. :Por tanto, la utilidad total obtenida d e la producci6n de N muestras es 'igual a T = Ns(-0.02) N~(0.25)N~(0.10). La utilidad totalpor alamhlre cortado, digamos W , es iguala" = (N~/N)(-O.~~)+(NR/N)(O.~~)+(NL/N)(O.~). (Obsrvese que W es una variable aleatoria, puesto que Ns, N R y NL son variables aleatorias.) Ya hemos mencionado que la frecuencia relativa de un evento est cercana a la probabilidad de ese evento,si el nlimero de repeticiones en las que se basa la frecuencia relativa es grande. (Discutiremos esto con ms precisidn en el captulo 12.) Por tanto, si N es grande, esperaramos que Ns/N est6 cercana a 0.2, NR/N est cercana a 0.5 y NL/N est cercana a 0.3. Entonces para N grande, W podra aproximarse como sigue:

<

W
*

(0.2)(-0.02) + 0.5(0.25) + (O.3)1(0.1) = $0.151.

A s , si se produjera un gran nmero de alamlbres, esperaramos tener una utilidad de $0.151 por alambre. El nmlero 0.151 se llama valor esperado de la variable aleatoria W .
Definicin. Sea X una variable aleatoria discreta con valores posibles x ~ ,.. . ,xn,.. . y sea p ( z i ) = P(X := zp), i = 1,2,.. . ,n,.. . Entonces el valor esperado de X (o esperanza matemtica de X ) , que se denota con E ( X ) , se define como

156 Otras caradtersticas de variables las aleatorias


si la serie
Iz:ilp(zi)

7 .I

C z l q p ( x ; ) converge absolutamente, es decir, si C z l


< OO. Este
nmero tambin se designa como

promedio d e X .

vdor

Observaciones: a) Si X toma slo un nmero finito d e valores, la expresin anterior se convierte en E ( X ) = p(z;)zi. sta se puede considerar como un promedio ponderado de los valoresposibles q , . . . , X,. Si todos los valores posibles son igualmente probables, E ( X ) = ( l / n ) x;, lo que representa el promedio aritmktico ordinario d e los n valores posibles. b ) Si se lanza un dado regular y la variable aleatoria X designa el nmero d e puntosque salen,entonces E ( X ) = h(1 2 3 4 5 6) = Este ejemplo sencillo ilustra notablemente, que E ( X ) no es el resultado que esperaramos cuando X se observa una sola vez. De hecho, en la situacin anterior, E(X)= no es siquiera u n valor posible d e X ! Por el contrario, si obtenemos un gran nmero observaciones de independientes d e X, tales como 2 1 , .. . , x,, y calculamos el promedio aritmtico d e esos resultados,.entonces, en cond.iciones generales regulares, el promedio aritmtico estar cercano a E ( X ) en un sentido probabilstico. Por ejemplo, en la situacin anterior, si lanzramos el dado un gran nmeroveces de y luego calculramosel promedio aritmtico d e los diversos resultados, esperaramos que este promedio llegase a estar ms cercano a cuanto m& veces se lance el dado. c ) Se debe observar la similitud entre la noci6n d e valor esperado como se defini6 anteriormente (en especial si X puede tomar slo un nmerofinito d e valores) y la noci6n del promedio de un conjunto de nmeros, como, 21, . . . , zn. Usualmente definimos f = ( l / n ) ELl r ; como el promedio aritmtico d e los nmeros 2 1 , . . . , z,. Suptingase, ademhs, que tenemos los nmeros z i , . . . , rh, donde z: ocurre ni veces, k ni = n. Haciendo f; = n ; / n , E:==, fi = 1, definimos el promedio ponderado de los nmeros r i , . . . , zh como

+ + + + +

g.

i=l

i= 1

Aunque hay una fuerte semejanza entre el promedio ponderado anterior y la definicin d e E ( X ) , es importante sealar que este ltimo es un nmero (parmetro) asociado con una distribucin d e probabilidades tebrica, mientras que el primero essimplemente el resultado d e combinar un conjunto de nmeros de una manera especial. Sin embargo, es ms que una semejanza superficial. Consideremos una variable aleatoria X y sean q 7 . . . , zn los valores obtenidos cuando el experimento que da origen a X se realiz n veces independientes (Es decir, q 7 . . . ,zn simplemente representa los resultados d e n medidas repetidas de la caracterstica numrica X . ) Sea 1 el promedio aritmtico de

7.1

Elesperado valor

de variable aleatoriu una

157

esos n nmeros. Entonces, como analizaremos con ms precisin en el captulo 12, si n es suficientemente grande, a: estar "cercana" a E ( X ) en un determinado sentido. Este resultado est;$muy relacionado con la 12) de quela frecuencia reidea (que tambin se estudiar en el captulo lativs f~ asociada con n repeticiones de un experimento estar cercana a la probabilidad P ( A ) si fA se basa en iln gran.nmero de repeticiones de E .

EJEMPLO7.4. ,Un fabricanteproduceartculos d e tal modo que el 10% es defectuoso y el 90% no loes. Si seproduceunartculo $1, mientras que un artculo sin defectos defectuoso el fabricante pierde le produce una utilidad de $5. Si X es la utilidad neta por artculo, se calcula como entonces X es una variable aleatoria cuyo valor esperado E ( X ) = -l(O.l) +5(0.9) = $4.40. Supongamos quese produce un gran nmero de esos artculos. Entonces, puesto que el fabricante perder $1 alrededor del 10% d e las veces y ganar $5 ,alrededor del 90% de las $4.40 por artculo a la larga. veces, esperar obtener alrededor de
Teorema 7.1. Sea X una variable aleatoria distribuida binomialmenp , con baseen n repeticilones de un experimento. te con parmetro Entonces

$(X) =

k
k=O
n

n! p k (1 - j o y k ! ( n- k ) !

(ya que el trmino con k = O es igual a cero). !Sea S = k - 1 en la suma anterior. Como k toma valores de uno hasta n, S toma valores de cero hasta ( n - 1). Sustituyendo k en todas partes por (S 1) obtenemos

158 caracteristicas Otras

variables de las aleatorias

7.1

La suma en la ltima expresin es simplemente la suma de probabilidades binomiales conn sustituida por ( n - 1) [esto es, ( p (1 - p))"-'] que, por tanto, es igual a uno. Esto establece el resultado.

Obseruacwn: El resultado anterior corresponde ciertamente a nuestra nocin intuitiva, porque se supone quela probabilidad de algn eventoA es, digamos 0.3, cuando se realiza un experimento. Si repetimos este experimento 100 veces, por ejemplo, esperaramos que A ocurriera alrededor de lOO(0.3) = 30 veces. El concepto de valor esperado que antes se present para variables discretas, se extender brevementeen el caso continuo.

EJEMPLO 7.5. Una mquina impresora tiene una probabilidad constante d e 0.05 d e fallar en cualquier da. Si la mAquina no tiene fallas durante la semana, se obtiene una utilidad d e $S.Si ocurren una o dos fallas, se obtiene una utilidad de $ R ( R< S) y si ocurren tres o m& fallas, la utilidad es d e $(-Lj. (Suponemos que R, S y L son mayores que cero, y tambin que si la mquina falla cualquier da, permanece ' la utilidad obtenida en fuera d e uso durante el resto del da.) Sea A una semana de cinco das. Los valores posibles d e X son R, S y ( - L ) . Sea B el nmero de fallas por semana. Tenemos P ( B = k) =

Puesto que X = S si y slo si B = O, X = R si y slo si B = 1 o 2 y X = (- L j si y slo si B = 3 , 4 o 5, encontramos que

(3

(0.05jk(0.95)"-k,

k = O, 1 , . . . , 5 .

E ( X ) = S P ( B = O)

+ R P ( B = 1 O 2) + ( - L ) P ( B = 3 , 4 O 5) = S(0.95)5 + R [5(0.05)(0.95)4 + 10(0.05)2(0.95)3] = ( - L ) [10(0.05)3(0.95j2+ 5(0.05j4(0.95) + (0.05j5] dlares.

Definicin. Sea X una variable aleatoria continua con fdp f . El valor esperudo de X se define como

E ( X )=

$ 0 0

x f ( . )

dz.

"o0

Nuevamente puede suceder que esta integral (impropia) no converja. Por lo tanto, decimos que E(A) existe si y slo si

7.1

El valor esperado de una variable aleatoria

159

es finita.
Obseruacidn: Debemos observar la analoga entre el valor esperado de una

variable aleatoria y el concepto de centro de masa en mecnica.Si una masa unitaria est distribuida a lo largo de la recta en los puntos discretos 2 1 , . . . , zn,. . . y si p ( z ; ) es lamasa en xi, entonces vemos que z;p(z;) representa el centro de masa (respecto al origen). De modo semejante, si una masa unitaria est distribuida continuamente en una recta, y si I(.) representa la densidad de masa en z, entonces S-+, zf(z)dz se puede interpretar de nuevo comoel centro de masa. En el sentido anterior, E ( X ) puede representar un centro de la distribucin de probabilidad. Algunas veces E ( X ) se llama tambiCn medida de tendencia central y estA en las mismas unidades que X .

f
x=i500
x=3000

FIGURA 7.1

EJEMPLO 7.6. Vamos a definir la variable aleatoria X como sigue. Supongamos que X es el tiempo (en minutos) durante el cual un dispositivo elctrico seutiliza a su maxima carga cierto periodo de tiempo determinado. Supongamos que X es una variable aleatoria continua con la siguiente fdp:

-1 (x - 3000) ( 1500)2

1500 5 Z 5 3000,

=O

para cualquier otro valor.

As,

160 Otras caractersticas de las variables aleatorias

7 . 1

J--00

(1500)( 1500)

[/
o

1500

x dx -

Lso0
3000

x(x - 3000) dx

= 1500 minutos.
(Vase la Fig. 7.1.)

EJEMPLO 7.7. El contenidode ceniza en el carbn(porcentaje), digamos X , se puede considerar como una variable aleatoria continua f(x) = &x2, 10 5 x 5 25. Por lo tanto, con la siguiente fdp: E(X)= x3 dx = 19.5%. As, el contenido esperado de ceniza en la muestra particular d e carbn que se considera es 19.5%.

& Jft

Teorema 7.2. Supongamosa X distribuidauniformementeenel intervalo [ a ,61. Entonces

Por tanto,

Demostrucidn: La fdp deX esta dada por f(x) = l / ( b

- a), a

5 x 5 b.

(Ntese que esto representa el punto w d i o del intervalo intuitivamente lo esperaramos.)

[ a ,b],

como

Obseruacidn: Valdra la pena recordar en esta coyuntura que una variable aleatoria X es una funcin d e u nespacio muestra1 S con relacin a l recorrido R,. Como repetidamente,lo hemos sealado, parala mayora d e las aplicaciones esta nos ha interesado s610 en el recorriday en las probabilidades definidas en l. Esta nocin d e valor esperado fue completamente definidaen trminos del recorrido. [VCanse las-ecuaciones (7.1) y (7.2.)]. Ocasionalmente, sin embargo, deberamos observarla naturaleza funcional d e X . Por ejemplo, cmo expresamos la ecuacin (7.1.) e n trminos d e los resultados S E S , suponiendo que S es finita? Puesto que x; = X ( s ) para una S E S y puesto que
p(e1) = P
[S : X ( s ) = 4

7.2

Esperanza de una funcidn de una variable aleatoriu

161

podemos escribir

donde P ( s ) es la probabilidad de evento {S} c S . Por ejemplo, si el experi(0) o no defectuosos mento consiste en clasificar tres artculos como defectuosos ( N ) ,un espacio muestra1 para este experimento sera
S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD}.

Si X est definida como el nmero de defectuosos, y si se supone que todos los resultados anteriores son igualmente posibles, tenemos, de acuerdo con la ecuacin (7.3),

3 -. - 2

Por supuesto este resultado se habra podido obtener ms fcilmente al aplicar en forma directa la ecuaci6n (7.1.) Sin embargo, es bueno recordar que para emplear la ecuaci6n (7.1.) necesitbamos conocer los valores si), lo que a su vez significaba la necesidad de un cAlculo como el que se utiliz6 antes. Lo importante es que una vez que se conoce la distribuci6nde probabilidadessobre R, [en este caso los valores de los nmerosp(xi)], plodemos suprimir la relacin funcional entre R, y S.

7.2 Esperanza de una funcin de

una

variable aleatoria

Como lo expusimos previamente, si X es una variable aleatoria y si Y = H ( X ) es una fnci6n d e X , entonces Y es tambiCn una variable lo tanto, ser5 aleatoria con una distribucih de probabilidades. Por interesante y significativo evaluar E ( Y ) . Hay dos maneras de hacerlo que resultan equivalentes. Demostrar que en general son equivalentes Sinembargo,es no estrivial y probaremos s610 u n casoespecial. importante que el lector comprenda los dos planteamientos que se presentan a continuaci6n.

162 Otras caractersticas de las variables aleatorias


Definicin. Sea X una variable aleatoria y sea Y = H ( X ) .
a)

7.2

. . . y si q(y;)

Si Y es una variable aleatoria discreta con valores posibles y1, y2, = P ( Y = y;), definimos

i=l

b) Si Y es una variable aleatoria continua con fdp g, definimos

Observacin: Naturalmente, estas definiciones sonpor completo consistentes con la definicin previa dada para el valor esperado de una variable aleatoria. De hecho, lo anterior s610 representa una repeticidn en trminos de Y. Una desventaja de aplicar la definicin anterior para obtener E ( Y ) es que la distribucin de probabilidades deY (es decir, la distribucin de probabilidades en el recorrido RY) es necesaria. En el captulo anterior expusimos mtodos mediante los cuales podemos obtenerya sea las probabilidades puntuales q(y;) o g , la fdp de Y . Sin embargo, el problema que se presenta es si podemos obtener E ( Y )sin encontrar primerola distribucin de probabilidades de Y, es decir, slo a partir del conocimiento de la distribucin de probabilidades d e X. La respuesta es afirmativa, como lo indica el siguiente teorema.

Teorema 7 . 3 . Sea X una variable aleatoria y sea Y = H ( X ) .


a) Si

tenemos

X es una variable aleatoria discreta y p ( x i ) = P ( X = x;), E ( Y ) = E ( H ( X ) )=


o ; )

j=1

H(zi)p(xj).

(7.6)

b ) Si X es una variable aleatoria continua confdp f , tenemos


E ( Y ) = E ( H ( X ) )=

1+o;)
-m

H ( x ) f ( z )dx

(7.7)

Obseruacidn: Este teorema hace mucho ms sencilla la evaluaci6n de E ( Y ) , porque quiere decir que no necesitamos encontrar la distribuci6n de probabilidades de Y para evaluar E ( Y ) . Es suficiente conocer la distribucidn de probabilidades de X .

7.2

Esperanza de

una funcin una variable de aleatoriu

163

Demostrucidn: [Slo demostraremos la ecuacin (7.6). La demostracin d e la ecuacin (7.7) es un poco ms complicada]. Consideremos H ( z j ) p ( z j )= Cj=,(C; H ( z ; ) p ( : c ; ) ) , donde la sumaintela suma rior se toma sobre todos los indices i para los cuales H ( z i ) = y j para una y j fija. Por tanto, todos los trminos H ( z ; )son constantes en la suma interior, de modo que
o3

o3

Pero

Por tanto, ecuacin (7.6).

H ( z j ) ~ ( z j= )

II

CFl yjq(yj),

lo que establece la

Obseruacidn: El mtodo de demostracin equival~e esencialmenteal mtodo de contar en el cual ponemos juntos todos los artiiculos que tienen el mismo valor. As, si queremos encontrar la suma total de los valores 1 , 1, 2, 3, 5, 3, 2, 1, 2, 2, 3, podemos sumarlos directamente o indicar que, puesto que hay 3 unos, 4 doses, 3 treses y 1 cinco,la suma total es igual a 3(1)

+ 4(2) + 3(3) + l(5) = 25.

EJEMPLO 7.8. Sea V la velocidad del viento (kph) y supongamos que V est& distribuida uniformemente en el intervalo [O, lo]. La presin,

W(en lb/pie2), sobre la superficie delala de un aeroplano estA dada por la relacin: W = 0.003 V 2 . Para encontrar 121 valor esperado de W , E ( W ) ,podemos proceder de dos maneras: u) Usando el teorema 7.3, tenemos

E ( W )=

1
O

10
,

0.003v2f(v) dv
1 0 . 0 0 32 ~CV 10

= 0.1 lb/pie2

164 caractersticas Otras

variables de las aleatorias

7.2

b) Usando la definicin de E ( W ) ,primero necesitamos encontrar la fdp de W , digamos g , y luegoevaluar S_'," wg(w)dw. Para encontrar g(w), observemos que w = 0 . 0 0 32 ~ es una funcin montona de w, para v 2 O. Podemos aplicar el teorema 5.1 y obtenemos

=O

para cualquier otro valor.

Por tanto,

E ( W )=

1
O

0.3

wg(w) d w = 0.1

despus de un clculo sencillo. A s , como lo indic el teorema, las dos evaluaciones d e E ( W ) producen el mismo resultado.

EJEMPLO 7.9. En muchos problemas nos interesa slo la magnitud d e una variable aleatoria sin considerar su signo algebrico. Es decir, nos x 1 . Supongamos queX es una variable aleatoria continua con interesa 1 la siguiente fdp:
f ( ~= )
ex

si x 5 0 ,

e-' - - si z

Sea Y = 1 x 1 .Para obtener E(Y) debemos proceder de una de las dos maneras. a) Usando el teorema 7.3, tenemos

> O.

7.2

Esperanza de

una funcidn de una variable aleatoriu

165

b ) Para evaluar E ( Y ) usando la definicin, necesitamos obtener la fdp de Y = 1 x 1 , es decir 9 . Sea G la fda d e Y . Luego,
puesto que la fdp deX es simtrica respecto al cero. Por lo tanto,
G(y) = 2JYf(a:) da: =
O

'2kYq

dsc = -e-Y

+ 1.

A s tenemos para g, la fdp deY , g(y) = G'(y) = : e-Y, y >O. Por lo tanto, E ( Y )= yg(y)dy = ye-Ydy = 1, como antes.

so"

so"

EJEMPLO 7.10. En muchos problemas podemos usar el valor esperado de una variable aleatoria fin a de tomar cierta decisinde una manera ptima. Supngase que un fabricante produce cierta1 tipo d e aceite lubricante que pierde alguno de sus atributos especiales si no se usa dentro de cierto periodo de tiempo. Sea X el nmero de unidades de aceite pedidas al fabricante durante cada ao. (Una unidad 'es igual a 1000 galones.) Supongamos que X es una variable aleatoria continua distribuida uniformemente en [2,4]. Por lo tanto, la fdp f tiene la forma,

f(4= ; ,
=O

para cualquier otro valor.

5 2 5 4,

Supongamos que por cada una las deunidades; vendidas se obtiene una utilidad d e $300, mientras que cada una de las unidades no vendidas (durante un ao determinado) produce una prdida de $100, ya que cada unidad no utilizada tendr que desecharse. Consideremos que el fabricante debe decidir pocos meses antes del comienzo de cada ao Y unidades (Y no es una variable cuanto producir,y que decide fabricar aleatoria; estA especificada por el fabricante). Sea 2 la utilidad por ao (en d6lares). Aqu 2 es desde luego una variable aleatoria, puesto que es una funcin d e la variable aleatoria X . Especficamente, 2 = H ( X ) , donde

H ( X ) = 300 Y
= 300 X

+ (-lOO)(Y - X ) ,

si X 2 Y,

si X

< Y.

166 Otras caractersticas de las variables aleatorias


(La ltima expresin puede escribirse romo 400X
-

7.3

lOOY .)

7.3 y escribimos

Para obtener E ( 2 ) aplicaremos el teorema

E ( 2 )=

J'"
-m

H ( x ) f ( x ) dx

l x
si 2

FIGURA 7.2
2

Paraevaluar esta integral se debenconsiderartres casos: Y < 2, 5 Y 5 4 y Y > 4. Con ayuda de la figura 7.2 y despus de algunas simplificaciones obtenemos

E(2)= 300 Y si E' 5 2


= - 100 Y 2 = 1200 - 100 Y

+ 700 Y - 400

si Y 2 4.

<Y <4

La pregunta siguiente es interesante. Cmo elegirA el fabricante el valor d e Y a fin d e maximizar la utilidad esperada? Podemos responder esta pregunta con facilidad al poner simplemente d E ( Z ) / d Y = O. Esto produce Y = 3.5. (Vase la Fig. 7.3.)

Y =Y 2 = 3 .Y 5 =4

FIGURA 7.3
7.3 Variables aleatorias bidimensionales
Los conceptos expuestos anteriormente para el caso unidimensional tambin se mantienen para elcaso de variables aleatorias d e mayor dimensin. En particular, para el caso bidimensional hacemosla siguiente definicin.

7.3

Variables aleabsrias bidimensionales

167

Definicin.

Sea ( X , Y ) una variable aleatoria bidimensional y sea 2 = H ( X ,Y ) una funcin real d e ( X ,Y ) . Por lo tanto, Z es una variable aleatoria (unidimensional)y definimos E(2)como sigue:
a) Si 2 252,. . . y

es una variable aleatoria discreta con valores posibles zl, con


p(z2) = P( z = Zi),

entonces,

b ) Si 2 es una variable aleatoria continua con fdp f , tenemos

Como en el caso unidimensional, se puede demostrar el teorema siguiente (anlogo al teorema 7.3).

Teorema 7.4. Sea ( X ,Y ) una variable aleatoria bidimensional y sea z = H(X,Y).


a)

Si ( X ,Y ) es una variable aleatoria discretay si


p(z2,yj) = P ( X = z2,Y = yj),
2,J

. .

= 1,2,. . . ,

tenemos (7.10)

b ) Si ( X ,Y )es una variable aleatoria continuacon fdp conjunta f, tenemos

E(2)=

J'" /'"
0 3

" 0 3

H ( z ,y)f(z, y) dx dy

(7.11)

168 caractersticas Otras

variables de las aleatorias

7.4

Observacidn: No demostraremos el teorema 7.4. Otra vez, como en el caso unidimensional, ste es un resultado muy til puesto que indica que no necesitamos encontrar la distribuci6n de probabilidades de la variable aleatoria Z a fin de evaluar su esperanza. Podemos encontrar directamente E(2) a partir del conocimiento de la distribucin conjunta de (X, Y ) .

Reconsideremoselejemplo6.14 y encontremos E ( E ) , donde E = I R . Encontramos que I y R son variables aleatorias independientes con las siguientes fdp, g y h, respectivamente:

EJEMPLO7.1 1.

Tambin encontramos que la fdp de E es p ( e ) = $ e ( 3 - e ) , O 5 e 5 3. Puesto queI y R son variables aleatorias independientes, la fdp conjunta las fdp de I y R: f(i, r ) = gzr 2 . 2, d e (I,R ) es sencillamente el producto de .O 5 i 5 1, O 5 r 5 3. Para evaluar E ( E ) usando el teorema 7.4 tenemos

E(E)=
=

$1' i3
i2 d i
O

J3 O 0

J' i r f ( i ,r ) d i dr = J3 J'
r3 dr = 3 .

i r $ i r 2 d i dr

Usando directamente la definicin (7.9), tenemos

E ( E )=

J" e p ( e ) de =

7.4 Propiedades del valor esperado


I-Iaremos una lista de propiedades importantes del valor esperado de una variable aleatoria que ser muy til en el trabajo subsiguiente. En cada caso se supondr la existencia de todos los valores esperados a los cuales nos referimos. Las demostraciones slo se harn para el caso continuo. El lector debe ser capaz d e d a r el argumento para el caso discreto sustituyendo simplemente las integrales por sumatorias.

7.4

Propiedades del valor esperado

169

Propiedad 7.1. Si X = C, donde C es una constante, entonces E ( X ) = C.

F(4

Demostracidn:

F(x) = I

I x=c
FIGURA 7.4
Obseruacidn: El significado de X igual C es el siguiente. Puesto que X es una funci6n del espacio muestra1a Rz, el significado de lo anterior es que R, consta si P [ X ( s )= C] = 1. Esta de un solo valor C. Por tanto, X es igual a C si y ~'610 noci6n se explica mejoren trminos de la fda de X . Asaber, F ( z ) = O, si t < C; F ( z ) es igual a 1, si x 1 C (Fig. 7.4). Algunas veces esta variable aleatoria se llama degmeruda.

Propiedad 7.2. Supongamos que C es una constante y X es una variable aleatoria. Entonces, E(CX') = C E ( X )

Demostracin:

E ( C X )=

1,

+m

Cxf(x)

dx =C

1,
+

+m

~f(x)

= dx CE(X).

Propiedad 7.3. Sea (X, Y ) una variable aleatoria bidimensional con una distribucin de probabilidades conjunta. Sean Z = H l ( X ,Y ) y T.V = H z ( X , Y ) . Entonces, E ( Z W ) == E ( 2 ) E ( W ) .

Demostracin:

[donde f es la fdp conjunta de ( X ,Y)]

= E(2) + E(W).

170

caractertsticas Otras

variables de las aleaton'as

7.4

Propiedad 7.4. Sean X y Y dosvariablesaleatoriascualesquiera. Entonces, E ( X Y ) = E ( X ) E ( Y ) .

Demostracin: Esta se deduce de inmediato de hacer H l ( X , Y ) = X y H z ( X , Y ) = Y .

la propiedad 7.3 al

Obseruacwnes: a ) Combinando las propicdades 7.1, 7.2 y 7.4 observamos el siguiente hecho importante: si Y = aX+b, donde a y b son constantes, entonces E(Y) = a E ( X ) b. En palabras, la esperanza de una funcin lineal es esa misma funcin lineal d e las esperanzas. Esto no es cierto a menos que est implicada una funcin lineal y es un error comn creer que sea de otro modo. Porejemplo, E ( x ~ # ) ( E ( x ) ) ~E(ln , X) # In E ( x ) , etc. A s , si X toma los valores -1 y +1, cada uno con probabilidad entonces E ( X ) = O. Sin embargo,

i,

E(X-2) = ( - 1 ) 2

(i) + ( 1 ) 2 + (i)= 1 # o2

b ) En general, es dificil obtener expresiones para E ( 1 / X ) o E(X1/2),por ejemplo, en trminos de l/E(X') o (E(X))1/2. Sin embargo,hayalgunas desigualdades que son muy fciles d e derivar. (Vanse los artculos d e Fleiss, Murthy y PiIlai y Gurland en los nmeros d e febrero y diciembre d e 1966 y abril d e 1967, respectivamente, d e The A m r i c a n Statistician.) Por ejemplo, tenemos: 1) Si X toma slo valores positivos y tiene una esperanza finita, entonces E ( 1 I X ) 2 1/E(X). 2) Con la misma hipdtesis que en l), E(X1/2)5 ( E ( X ) ) 1 / 2 .

Propiedad 7.5. JqX1

Sean X I ). . . X n n variables aleatorias. Entonces,


)

+ - . .+ Xn) = E ( X 1 ) + + E ( X n ) .
* * -

Demostracin: Sta se deduce inmediatamente de la propiedad 7.4 a l aplicar la induccin matemtica.


Observacwn: A l combinar esta propiedad con la anterior, obtenemos
/ n
\ n

\kl

i=l

donde las a; son constantes.

7.4

Propiedades del valor esperado

171
y

Propiedad 7.6.

Sea ( X , Y ) una variable aleatoria bidimensional

Demostracin:

Observacidn: L a hip6tesis adicional de independencia es necesaria para establecer la propiedad 7.6, mientras que para obtener la propiedad 7.4 no se necesit6 ninguna suposici6n.

EJEMPLO 7.12. (Este ejemplo se basa en un problema d e An Introduction to Probability Theory and Its Applications d e 'W. Feller, p5g. 225.) Sup6ngase quenecesitamos examinar un gran nmero de personas, buscando cierta caracterstica con resultados positivo o negativo. Ms an, supongamos que se toman muestras varias de personas y se prueba caso en la muestra combinada como una unidad, tal como puede ser el ciertos tipos de exmenes de sangre. Suposicidn: La muestra combinada dar un resultado negativo si y slo si todas las muestras componentes son negativas. A s , en el caso d e resultados positivos (de la muestra combinada), todas las muestras deben ser individualmente: probadas d e nuevo para n determinar cu6lessonpositivas.Si las N personassedividenen grupos de k personas (suponiendo N = k n ) aparecen las siguientes elecciones: a ) Examinar a todas las N personas individualmente, requiriendoN pruebas. b ) Examinar grupos de k muestras, lo cual puede necesitar tanpocas como n = N / k o tantas como (k 1)n = N n pruebas. Nuestro objetivo ser5 estudiar el nmero esperado de pruebas necesarias en 6) y luego compararlas conN .

172 caractertsticas Otras

de las variables aleatorias

7.4

Suposicin: La probabilidad de que el resultado dela prueba sea positivo es igual a p y es la misma para todas las personas. An ms, los resultados d e las pruebas para las personas delmismo grupo quese exanecesarias para mina son independientes. Sea X = nmero de pruebas determinar la caracterstica que se estudia para todas las N personas, y sea X ; = nmero de pruebas necesarias para examinar personas en el i-simo grupo, i = 1,.. . ,n. Luego, X = X1 . .. X,, y, por lo tanto, E ( X ) = E ( X 1 ) E ( X , ) , lo cual es igual a n E ( X 1 ) ,puesto que todas las X; tienen la misma esperanza, Ahora XI1 slo toma dos valores: 1 y k 1. Adems,

+ +

+ +

P ( X 1 = 1) = P(todas las k personas en el grupo 1 son negativas)


= (1 - p)'".

Por tanto,
P(X,=k+l)=l-(l-p)
k

y luego,
E ( X 1 ) = 1 . (1 - p ) k

+ ( k + 1) [l - (1 - P I k ]
+ k - 1] .

= k [1 - (1 - p ) ' "

A s i,

(La frmula anterior es vlida slopara k > 1, puesto que parak = 1 da E ( X ) = N p n , lo cual obviamente es falso!) Un asunto de inters es la eleccin d e k , para la cual el anterior E ( X ) es ms pequeo. Esto se puede manejar fcilmente por algn procedimiento numCrico. (Vase el Prob. 7.1 la.) Finalmente,observamosqueparaque la "pruebaengrupo" sea preferible a la prueba individual, debemos tener E ( X ) < N , esto es, 1 - (1 - p)'" k - l < 1, lo cual equivale a k " < (1 - p)'". Esto no puede

ocurrir si (1 - p ) < porqueen esecaso, (1 < < 1 / k , la ltima desigualdad proviene del hecho de que 2'" > k . As obtenemos la siguiente conclusin importante: si p , l a probabilidad de una prueba

i,

f"

7.4

delPropiedades

valor esperado

173

positiva en cualquier persona determinada, es mayor que f , entonces de ningn modoes aconsejable agrupar las muestras antes d e examinar. (Vase el Prob. 7.1 lb.)

EJEMPLO 7.13. Apliquemos algunas d e las propiedades anteriores para derivar (nuevamente) la esperanza de unavariable aleatoria distribuida binomialmente. El mtodo usado puede aplicarse con ventaja en muchas situaciones semejantes. Consideremos n repeticiones independientes de un experimento aleatorio y sea X el nmero de veces que ocurre un evento A . Sea p igual aP ( A ) y supongamos que este nmero es constante para todaslas repeticiones consideradas. Definamos las variables aleatorias auxiliaresYl,. . . ,Yn como sigue:

Y , = 1 si el evento A ocurre en la &-simarepeticin,


= O en cualquier otro caso.
Por lo tanto,

y aplicando la propiedad 7.5, obtenemos


E ( X ) = E ( q )+
Sin embargo,
* *

+ E(Yn).
]para toda i.

E ( Y , )= l ( p )

+ 0(1 -p ) = p.

As, E ( X ) = np, lo que concuerda con el resultado previo.


Observacidn: Reinterpretemos este importante resultado. Consideremos la variable aleatoria X / n . Esta representa la frecuencia relativa del evento A entrea s l n repeticiones d e E. Usando la propiedad 7.2, tenemos E ( X / n ) = ( n p ) / n = p . Esto, intuitivamente, es como debera ser, porque expresa que la frecuencia relativa esperada del evento A es p , donde p = P ( A ) . Representa la primera verificacin terica del hecho de que hay una relacin entre la frecuencia relativa de un evento y la probabilidad die ese evento. Enun captulo posterior obtendremos m& resultados que dan una relacin mucho ms precisa entre la frecuencia relativa y la probabilidad.

174 caractersticas Otras

variables de las aleatorias

7.4

EJEMPLO7.14. Supngaseque la demanda D , por semana,de cierto producto es una variable aleatoria con determinada distribucin de probabilidadcs, P ( D = n ) = p ( n ) , n = O, 1 , 2 , . . . Supngase que el costo para el proveedor es C1 dlares por artculo, mientrasque 1 lo se venda al trmino dela vende enC2 dlares. Cualquier artculo que no semana debe almacenarsecon un costo d e C3 dlares por artculo.Si el fabricante decide producir N artculos al comienzo de l a semana, cul es su utilidad esperada por semana? Para qu valor d e N es mxima la ganancia esperada? Si T es la utilidad por semana, tenemos

T = NC2

NC1

si

>N,
si

= DC2 - C1N - C3(N - D )

D 5 N.

Reescribiendo lo anterior, obtenemos

Por tanto, la utilidad esperada se obtiene como sigue:

n,

Supongamos quese sabe que para D es apropiada l a siguiente distribucin d e probabilidades: P ( D = n ) = 1 n = 1 , 2 , 3 , 4 , 5 . Por tanto,

7.5

aleatoriu variable una La varianza de

175
N2]
si N

E ( T ) = N(C2 - Cl)

+ (c2 c3)[ N ( N + l ) / 2

5 5.

Supongamos que C2 = $9, C1 = $3 y C 3 = $1. Por tanto,

E ( T ) = 6N

+ 2 [ N(N2+
+ 2(15 - 5 N )
2

__N " ]
si N

5 5,

= 6N

si N

> 5,

=7N-N = 30

si N 5 5, si N

- 4N

> 5.

N='3.5

FIGURA 7.5
Por lo tanto el mximo ocurre para N = 3.5. (Vase la Fig. 7.5) Para N = 3 o 4 tenemos E ( T ) = 12, el cual es el mximo obtenible, puesto que N es u n entero.

7.5 La varianza de una variable

aZeatoria=

Supongamos que para una variable aleatoria .X encontramos que E ( X ) es igual a 2. ?Cul es la significacin d e esto? Es preciso que no se atribuya ms importancia a esta informacin que la justificada. Significa sencillamente, que si consideramos un gran 'nmero de valores de X ,

176

Otras

caractertsticas variables de las akatorias

7.5

digamos 2 1 , . . . ,z n , y los promediamos, este resultado estar cercano a 2 si n es grande. Sin embargo, es crucial no dar mucha relevancia X representa la a u n valoresperado.Porejemplo,supngaseque duracin de una bombilla que se recibe de unfabricante, y que E ( X ) = 1000 horas. Esto podra significar una de varias posibilidades. Podra significar que se espera que la mayor parte d e las bombillas dure entre 900 y 1100 horas. Tambin podra significar que las bombillas que se la mitad son de muy entregan son de dos tipos diferentes: alrededor de alta calidad y con duracin de casi 1300 horas, mientras que l a otra cerca de 700 mitad son d e muy mala calidad y tienen una duracin de horas. Hay una necesidad obvia de presentar una medida cuantitativa que distinga cntre estassituaciones. Varias medidassesugierenpor s mismas, pero la siguiente es la cantidad usada ms comnmente.
Definicin. Sea X una variable aleatoria. Definamos la varianza d e 2 como sigue: X , que se denota con V ( X )o ax

V ( X )= E [ X - E ( X ) 1 2 .

(7.12)

La raz cuadrada positiva de V ( X ) se llama desuiucidn estndar d e X y se designa con ax.

das d e X . Esto es, siX se mide en horas, entonces V ( X )est expresada

Observaciones:

a) El

nmero V ( X )est expresado en u n i h d e s cuadra-

en(horas)*. Esta es unaraznparaconsiderar la desviacin estndar. Se expresa enlas mismas unidades que X . b) Otra medida posible podra haber sido E / X - E ( X ) I . Por diferentes razones, una de las cuales es que X 2 es una funcin con mejor comportamiento que 1x1,se prefiere la varianza. c) Si interpretamos a E ( X ) como el centro de una masa unitaria distribuida sobre una recta, podemos interpretar V ( X )como el momento de inercia de esta masa, respecto a un eje perpendicular a travs del centro de masa. d ) V ( X ) ,como se defini en la ecuacin (7.12), es un caso especial del concepto ms general siguiente. El k-simo momento d e la variable k. aleatoria X respecto a su esperanza se define comopk = E [ X - E ( X ) ] Evidentemente, para k = 2 obtenemos la varianza.

7.5

La varianza de una aleatoria variable

177

El clculo d e V ( X )se simplifica con laayuda del resultado siguiente.


Teorema 7.5.

V ( X )= E ( X 2 ) - [ E ( X ) I 2 .
Demstrucin: Desarrollando E [ X - E("i)]'!y usando las propiedades de la esperanza establecidas previamente, se obtiene V ( X ) = E [ X - E(X')I2
= E { X 2- 2 X E ( X )

+ [E(X)]2}

= E ( X 2 ) - 2E(X)E(X)

[Recurdese queE ( X ) es una constante.]


= E(X2)- [E(X)I2.

EJEMPLO 7.15. La oficina meteorolgicaclasifica el tipo d e cielo que es visible en relacin con los "grados de nubosidad". Se us.a una escala de 11 categoras: O, 1, 2, . . ., 10, donde O representa un cielo perfectamente claro, 10 representa un cielo completamente cubierto, mientras que los otros valores representan diversas condiciones intermedias. Supongamos que tal clasificacin se hace en una estacin meteorolgica determinada en un da y hora determinados. Sea X la variable aleatoria que toma uno de los 11 valores anteriores. supongamos que la distribucin d e probabilidades d e X es

Por tanto,

E ( X ) = l(0.15)

+ 2(0.15) + 3(0.06) + 4(0.06) + 5(0.06) + 6(0.06) + 7(0.06) + 8(0.15) + g(0.15) + lO(0.05) = 5.0.

178 caracterlsticas Otras

variables de las aleatorias

7.6

A fin d e calcular V ( X )necesitamos evaluar ,!?(X2). E ( X 2 ) = l(0.15)

+ 36(0.06) + 49(0.06) + M(0.15) + 81(0.15)


+ lOO(0.05) = 35.6.

+ 4(0.15) + g(0.06) + 16(0.06) + 25(0.06)

FIGURA 7.6
Luego,

V ( X )= E ( X 2 )- ( E ( X ) ) = 35.6 - 25 = 10.6,

y la desviacin estndar 0 = 3.25.


EJEMPLO 7.16. nua con fdp
Supongamos que X es una variable aleatoria conti-

,(a:) = 1

2,

-1

=1-2,

05XL1.

i x 5 0,

(VCase la Fig. 7.6.) Debido a la simetra d e la fdp, E ( X ) = O. (Vase la siguiente Observacin.) MAS an,

E ( X 2 )=

+ J, x 2 ( l - a:)

-1

x2(1

+ a:)

da:
1 da: = 6.

1 Por tanto, V ( X )= 6.

7.6

Propiedades varianza la de

de una variable aleatoriu

179

Obsemacwn: Supngase que una variable aleatoria continua tiene una fdp que es simtricarespecto a x = O. Es decir, f( -x) I= f ( z ) para toda x. Entonces, siempre que exista E ( X ) , E ( X ) = O, que es una consecuencia inmediata de la de simetra definicin de E ( X ) . Esto puede extenderse a un punto arbitrario z = a, en tal caso, E ( X ) = a. (Vase el Prob. 7.33.)

7.6 Propiedades de la varianzu de una variable aleatoria


Hay varias propiedades importantes, en parte anlogas a las expuestas para la esperanza d e u n a variable aleatoria, que se mantienen para l a varianza.

Propiedad 7.7.

Si C es una constante,

V(X Demostracin:

+ C )= V(X).

(7.13)

V(X + C ) = E [(X C ) - E ( X

+ C)]2= E: [ ( X + C ) - E ( X ) - C]2

= E [ X - E ( X ) ] 2= V ( X ) .
Obsemacidn: Esta propiedad es intuitivamente evidente, porque al agregar una constante a unresultado X no cambia su variabilidad,que es lo que mide la varianza. Slo desplaza los valores de X a la derecha o a la izquierda, dependiendo delsigno de C.

Propiedad 7.8. Si C es una constante,

V ( C X )= C 2 V ( X ) .

Demostracidn:

V ( C X )= E ( C X ) 2- ( E ( C X ) ) 2= C 2 E ( X 2 )- c2 (E(X))2
= c2[ E ( X 2 )- ( E ( X ) ) 2 ]= C % ( X ) .

Propiedad 7.9. Si (X, Y ) es una variable aleatoria bidimensional, y si X y Y son independientes, entonces

180 Otras caractersticas de las variables aleatorias V(X Demostracicin: V(X + Y ) = E ( X

7.6

+ Y )= V ( S j + V ( Y ) .
-

(7.15)

+ (E(X+ Y))2 = E ( S " + 2 X Y + Y2) - (E(X)j2- 2 E ( X ) E ( Y )- ( E ( Y ) y = E ( x 3 ) - (E(X))2+ E ( Y 2 ) - (E(Y))2 = V(X) + V ( Y ) .


+

Obseruacidn: Es importante establecer que, en general, la varianza no es aditiva como lo es el valor esperado. Con la suposicin adicional d e independencia, la propiedad 7.9 es vlida. La varianza no posee la propiedad de linealidad que dimos parala esperanza, es decir, V ( a X + b ) # aV(X) b. En su lugar tenemos V(aX 6) = a 2 V ( X ) .

Propiedad 7.10. Sean X I , . . . ,X n n variables aleatorias independientes. Entonces, V(X'1,

+ + X,,)
* *

= I'(X,)

+ . . + V(X,).

(7.16)

Demostracin: sta sededucede matemtica.

la propiedad 7.9 coninduccin

Propiedad 7.11. Sea X una variable aleatoria con varianza finita. Luego, para cualquier nmero real a,

V ( X )= E [ ( X - 4

2 1

- [ E ( X )- al2.

(7.17)

Demostracidn: Vase el problema 7.36.


= O obtenemos el teorema 7.5.
Obseruacwnes: a ) sta es una extensin obvia del teorema7.5, porque al hacer

b ) Si interpretamos V ( X ) como el momento d e inercia y E ( X ) como el centro de una masa unitaria, entonces la propiedad anteriores una formulacin del teorema, muy conocido en mecbnica, de los ges paralelos: el momento d e inercia respecto aun puntoarbitrario es igual al momento d e inercia respecto al centro d e la masa mbs el cuadrado de la distancia d e este punto arbitrarioal centro d e la masa. c) E [ X - al2 es minimizado si (Y = E ( X ) . Esto se deduce de inmediato d e la propiedad anterior. As, el momento d e inercia (de una masa unitaria

CY

7.6

Propiedades devarianza la

de una variable aleatoria

181

distribuida en una recta) respectoa u n eje que p,asa por un punto arbitrario se minimiza si estepunto seescoge como el centro d e masa.

EJEMPLO7.17. Calculemos la varianza de una variablealeatoria distribuida binomialmente con parmetrop. Para calcular V ( X ) podemos proceder de dos maneras. Puesto que ya conocemos que E ( X ) = n p , sencillament-e debemos calcular E ( X 2 ) y luego evaluar V ( X ) como E ( x ~ ) ( E ( x > ) ~Para . calcular E ( x ~ > usamos el hecho de que P ( X = b ) = p'(1 - p ) , ' , IC = O, 1,. . . , n. Por tanto, E(X2) = IC2 ( t ) p k ( l - ,p),-'. Esta suma puede calcularse fcilmente,pero envez de hacer esto, se emplear2 un mtodo simple. Nuevamente usaremos la representacin (deX que se present en el ejemplo 7.13, a saber, X = Y 1 Y 2 +. Y,. Observemos que las r, son variables aleatoriasindependientes, puesto que el valor d e Y , depende slo del resultado dela i-sima repeticin, y se supone que las repeticiones la propiedad sucesivas son independientes. Por tanto, podernos aplicar 7.10 y obtener

(i)

a +

E(Y,)= l ( p )
Por tanto,

+ O ( 1 - p) = p,

E(y)2 = 1 2 ( p ) + 02(1 - p) = p.

V ( Y , ) = p - p 2 = p ( 1 - p ) para toda i. As, V ( X )= np(1 - p ) .


Obsemacidn: Consideremos V ( X ) = n p ( 1 - p ) lcomo una funcin d e p para una n dada. Dibujemos una grfica como se muestra en la figura 7.7. Resolviendo (d/dp)np(l - p ) = O encontramos que el valor mximo para V(X) ocu- V(W rre cuandop = f. El valor mnimo d e V ( X ) ocurre desde luego los en extremos del intervalo en p = O y p = 1. Esto es intuitivamente como debera ser. Recordando que la varian* za es una medida d e la variacin de la variaP p= 1 1 ble aleatoria X definida como el nmerod e veces que ocurre el evento A en n repeticioFIGURA 7.7

-1

182 Otras caractersticas de las variables aleatorias

7.7

nes, encontramos que esta variacin es nula si p *= O o 1 (es decir, si A ocurre con probabilidad O o 1 ) y es mxima cuando estamos tan inciertos como podemos acerca d e la ocurrencia o no ocurrencia de A, es decir, cuando P ( A ) =

4.

EJEMPLO 7.18. Supngaseque la variablealeatoria X e s d distribuida uniformemente en [a,b]. Como lo calculamos previamente, E ( X ) = ( a b)/2. Para calcular V ( X )hallemos el valord e ,!?(X2):

E(x) = J b
a

22-

1 b-a

dx =

b3 - a 3 3(b - U )

Por tanto,

V ( X )= E ( X 2 )- [ E ( X ) I 2 =
despus de un cBlculo sencillo.

( b - a) 12

Obseruacwnes: a ) Este resultado es intuitivamente significativo. Indica que la varianza d e X no depende de manera individual de a y b sino S610 d e ( b - a ) 2 , es decir, delcuadrado desu diferencia. Por tanto, dos variables aleatorias distribuidas, cada una uniformemente, en un intervalo (no necesariamente el mismo) tendrBn iguales varianzas, mientras las longitudes d e los intervalos sean iguales. b ) Es bien conocido el hecho de que el momento d e inercia d e una barra delgada d e masa M y longitud L respecto a un eje transversal q u e pasa por el centro est dado porM L 2 / 1 2 .

7.7 Expresiones aproximadas para la esperanza y la varianza


Ya hemos observado que para evaluar E ( Y ) o V ( Y ) donde , Y = H(X), no necesitamos conocer la distribucin d e probabilidades d e Y , sino que con la distribucin d e probabilidades de podemos trabajar directamente X . De modo semejante,si 2 = H ( A - , Y ) ,podemos calcularE ( 2 ) y V(2) sin obtener primero la distribucin d e 2. Si la funcin 1 1 es muy complicada, la evaluacin d e la esperanza y varianza anteriores puede conducir a integraciones (o sumas) que sonmuy diliciles. De aqu que seanmuy tiles las aproximaciones siguientes.

7.7

Expresiones aproximadas para

la tlsperanza y la varianza

183

Teorema 7.6. Sea una variable aleatoria X con E ( X ) = p , y V ( X )= 02. Supongamos que Y = H ( x ) . Luego,
(7.1s)
(7.19) (Para hacer tiles las aproximaciones anteriores, necesitamos evidentemente que H sea a lo menos diferenciable dos veces para

V ( Y )N H ( p ) ] a 2 .

x = p.)

Demostracidn (slo u n bosquejo): A fin d e establecer la ecuacin (7.18), desarrollemos la funcin H en una serie deTaylor para x = p con dos trminos. A s

donde R1 es un resto. Si descartamos el trmino resto R1, entonces, tomando el valor esperado en ambos miembros, tenemos

puesto que E ( X - p ) = O. Para establecer la ecuacidn (7.19), desarrollemos H en una serie de Taylor para x = p con un trmino. Luego, Y = H ( p ) ( X - p ) H ( p ) R2. Si desechamos el resto R2 y tomamos la varianza en amboslados, tenemos

V ( Y )N [H(p)I2 a2.
EJEMPLO 7.19. En ciertas condiciones, la tensin superficial de un lquido (en dinakm) estA dada por la frmuda S = 2(1 - 0.005T)1.2, donde T es la temperatura del lquido (en grados centgrados). Supongamos que T es una variable aleatoria continua con l a siguiente fdp,
f ( t ) = 3000t-*,
=O

t 2 10,

para cualquier otro valor.

184 Otras caractersticas de las variables aleatorias


Luego,

7.7

E ( T ) = / m 3000t-3 dt = 15 (grados centgrados).


10

Y V ( T )= E ( T 2 )- (15)'
=

1;

3000tW2 dt -225 = 75 (grados centgrados)2 .

Para calcular E ( S )y V ( S )tenenlos que evaluar las integrales siguientes: l r ( 1 - 0.005t)'."t-*


dt

En vez de evaluar esas expresiones, obtendremos aproximaciones para E ( S ) y V ( S ) alusar las ecuaciones (7.18) y (7.19). Parausar esas ( 1 frmulas tenemos que calcular H'(15) y H"( 15), donde H ( t ) = 2 0.005t)1*2.Tenemos

H ' ( t ) = 2.4(1 - 0.005t)0.2(-0,005) = -0.012(1


Luego, 11(15) = 1.82, H'(15) = 0.01. De modo semejante,
H " ( t ) = -0.0024(1 - 0.005t)-0'8(-0.005)

- 0.005t)0.2.

= 0.000012(1 - 0.005t)-0'8.

Por lo tanto,
II"(15) =

0.000012 = o+. (0.925)0.8

7.7

Expresiones aproximadas para

la esperanza y la varknza

185

A s tenemos

E ( S ) N- H(15) + 7511"(15) = 1.82 (dinadcm),

V(S)

N_

75 [11"(15)]

= 0.87 (dinas/cm)*.

Si 2 es unafuncin d e dos variablesaleatorias, establece un resultado anlogo.

2 = H ( X , Y ) , se

Teorema 7 . 7 . Sea ( X ,Y ) una variable aleatoria bidimensional. Su2 2 pongamos que E ( X ) = p z , E ( Y ) = i ~ V(X ~ )=; oz y V ( Y )= oy. Sea 2 = H ( X , Y ) . [Supondremos que existen las diversas deri' y Y son independientes, vadas d e H para ( p L z , p y ) . ]Luego, si x tenemos

donde todas las derivadas parciales se evalan en

( p 2 ,p

y).

Dernastrucidn: La demostracin implica eldesarrollo d e W en una serie de Taylor en el punto ( p z , p y )con uno y dos trminos, desechando el resto, y luego tomando la esperanza y la varianza en ambos miembros 7.6. Dejamos los detalles al como se hizo en la demostracin del teorema lector. (Si X y Y no son independientes, se puede derivar una f6rmula ligeramente ms complicada.)
Obseruacidn: El resultado anterior puede extenderse a una fimcin d e n variables aleatorias independientes, esto es Z = H(X1, . . . , ,Xn). Si E ( X ; ) = ,ui, V ( X ; )= u;, tenemos las siguientes aproximacbnes, suponiendo que todas las derivadas existan:

donde las derivadas parciales son evaluadas en el punto (p1,. . . , ,un).

186 caractersticas Otras

variables de las aleatorias

7.8

EJEMPLO 7.20. Sup6ngase que tenemos un circuito simple para el cual el voltaje, M , se expresa por l a ley de Ohm como hl = I R , donde I y R son la corriente y la rcsistcncia del circuito, respectivamente. Si I y R son variables aleatorias independientes, entoncesM es una variable aleatoria y, usando el teorema 7.7, podemos escribir E [ h l ]N E ( I ) E ( R ) , V [ M ] 21 [E(R)I2 V ( I ) [E(I)I2 V(R).

7.8 Desigualdad de Chebyshev


Existe una desigualdad muy conocida del matemtico ruso Chebyshev que desempea una funcin importante lo en que resta de nuestra obra. Adems, nos dar un medio para comprender con precisin como la varianza mide la variabilidad respecto al valor esperado de unavariable alcatoria. Si conocemos la distribucin de probabilidades de una variable aleatoria X (la fdp en el caso continuo o la probabilidad puntual en el caso discrcto), podemos calcular E ( X ) y V ( X ) ,si existen. Sin embargo, lo recproco no es verdadero. Esto es, conociendo E ( X ) y V ( X ) no podemos reconstruir la distribucin de probabilidades deX y, por tanto, no podemos calcular cantidades talcs como P[IX - E(.Y)l 5 C]. Sin embargo, resulta que aunque no podemos evaluar tales probabilidades [a partir de un conocimiento de E ( X ) y V(X)], es posiblc dar una cota superior (o inferior) muy til para tales probabilidades. Este resultado est contenido en lo que se conoce como la desigualdad de Chcbyshev.

Desigualdad de Chebyshev. Sea X una variable aleatoria con E ( X ) = p y sea c un nilmero real cualquiera. Entonces, si E ( S - c finita y E es cualquier nmero positivo, tenemos

) es ~

(7.20)

Las formas siguientes, equivalentes a (7.20), son inmediatas: u ) AI considerar el evento complementario obtenemos:

P [ \ X- CI

< e] 2 1- E(X E2

c)

(7.20a)

b ) Al elegir c = /I obtenemos

7.8

DesigualdaddeChebyshev

187
(7.20b)

c)

A l elegir c = p y E

= kc,donde a2 = Var X

> O, obtenemos

Esta ltima forma (7.2 1) indica especialmente cmo la varianza mide el grado de concentracin de la probabilidad prxima a E ( X ) = p .

Demostmcidn (Demostraremos slo 7.20, puesto que las otras se deducen como se indic. Trataremos nicamente el caso continuo. En el caso discreto, el argumento es muy parecido al de las integrales sustituidas por sumas. Sin embargo, hay que tener cuidado con los puntos extremos d e los intervalos.):
Consideremos

P [ ] X - CI 2 E ] =

z:1z-c12&

,fW dx

anterior es

(Los lmites d e la integral dicen que estamos integrando entre -.o y c - E y entre c E y +.o.) Ahora, \x! - c ( 2 E equivale a (x - c )2 /E 2 :> 1. Por tanto, la integral

donde

n = {x :
Esta integral, a su vez, es

1 2

- c( 2 E}.

lo que es igual a

T E [ X - C ]2
E

como queramos demostrar.

188 caractersticas Otras variables las aleatorias de

7.9

Observaciones: a ) Es importante darse cuentade queel resultado anterior es notable debido a lo pocoque se presupone acerca d e la conducta probabilstica de ia variable aleatoria X. b ) Como podramos sospechar, una informacin adicional respecto a la distribucin de la variable aleatoria X nos permitir mejorar la desigualdad que deducimos. Por ejemplo, si C = tenemos, d e la desigualdad d e Chebyshev,

2,

Supongamos que tambin sabemos que X e s d distribuida uniformemente en (1 - I/&, 1 I/&). Por lo tanto, E ( X ) = 1, V ( X > = y as

= 1- P

[$ < X < $1

d3 = 1 - - = 0.134. 2

Ntese que aunque la afirmacin obtenida d e la desigualdad d e Chebyshev es consistente con este resultado, la ltima es una relacin ms precisa. Sin embargo, en muchos problemas ningunasuposicin referente a la distribucin especfica d e la variable aleatoria est justificada, y en tales casos, la desigualdad d e Chebyshev puede darnos una informacin importante acerca del comportamiento d e la variable aleatoria.

Como lo observamos en la ecuacin (7.21),si V(X) es pequea, la mayor parte dela distribucin de probabilidades de X est concentrada prxima a E ( X ) . Esto se puede expresarcon ms detalle en el teorema siguiente.

Teorema 7.8. Supongamos que V ( X ) = O. Luego, P [ X = p ] = 1, donde p = E ( X ) . (Informalmente, X = p, con probabilidad l.)

Demostracidn: De la ecuacin (7.20b) encontramos que

P [IX Luego,

2 t] = O para cualquier

> O.

[lx

- pI

< E ] = 1 para cualquier E > O.

Puesto que E puede elegirse arbitrariamente pequea, el teorema queda demostrado.

7.9

correlacwn El co,eficiente de

189

Obseruacwnas: a) Este teorema demuestra que la varianza cero implica que toda la probabilidad esd concentrada en un solo punto, a saber E ( X ) . b ) Si E ( X ) = O, entonces V ( X )= E ( x ~ y, ) por tanto, en este caso, E ( x ~ => O implica la misma conclusi6n. c) En el sentido anterior decimos que unavariable aleatoria X es degenerada: toma s610 un valor con probabilidad l .

7.9 El coeficiente de correlacin


Hasta ahora nos hemos interesado en asociar parmetros como E ( X )y V ( X )con la distribucidn d e variables aleatorias unidimensionales. Estos

parAmetros miden, en el sentido antes descritlo, ciertas caractersticasd e la distribucidn. Si tenemos una variable aleatoria bidimensional (X, Y ) , se encuentra un problema anlogo. Por supuesto, podemos presentar nuevamente las variables aleatorias unidimensionales X y Y asociadas con ( X ,Y ) . Sin embargo, surge la pregunta de si hay un pargmetro de asociacidn entre significativo que midade alguna manera el grado X y Y . h a es una noci6n vaga que se precisarP mPs adelante. Demos la siguiente definici6n formal.

Definicin. Sea ( X ,Y )una variable aleatoria bidimensional. Definimos pxy, el coejcficzentede correlacidn entre X y Y , como sigue:
(7.22)
Observacwnes a) Suponemos que todas las espleranzas existen y que V ( X ) y V ( Y ) son distintas de cero. Cuando no hay duda decu5les variables aleatorias esdn implicadas escribiremossimplemente p en vez de pxv. 6 ) El numerador de p, E { [ X E ( X ) ] [ Y - E ( Y ) ] } se , llama covarianza de X y Y , y algunas veces se denota con uxy. C) El coeficiente de correlaci6n es una cantidad adimensional. d ) Antes de que la definicin anterior pueda. ser significativa,debemos establecer exactamente lo que mide p . <Sto lo haremos al considerar un nmero de propiedades p .

Teorema 7.9.

190

Otras caractersticas de

las variables aleatorias

7.9

Demostracin: Consideremos

E { [ X - E ( S ) ][Y - E ( Y ) ] }= E [ X Y - X E ( Y ) - Y E ( X ) E ( X ) E ( Y ) ]
= E ( X Y ) - E ( X ) E ( Y )- E(E)E(X)
= E ( X Y )- E ( X ) E ( Y ) .
Teorema 7.10. Si X y Y son independientes, entonces p = O.

+E(X)E(Y)

Demostracin: Se deduce inmediatamentedel teorema 7.9, puesto que


E ( X Y )= E(X)E(Y)
si X

y Y son independientes.

Obseruacidn: El recproco del teorema 7.10 no es verdadero en general. (Vase el Prob. 7.39.) Esto es, podemos tener p = O, y aun as X y Y no necesitan ser independientes.Si p = O decimos qneX y Y son no correlacionados. As, siendo no correlacionados e independientes no son, en general, equivalentes. El ejemplo siguiente ilustra este punto.*
Sean X y Y variables aleatorias cualesquiera con la misma distribucin y U=X-YyV=X+Y.Luego,E(U)=Oycov(U,V)=E[(X-Y)(X+Y)]= E ( X 2 - Y*) = O. Entonces, U y V son no correlacionadas. Aun si X y Y son independientes, U y V pueden ser dependientes, como lo indica la eleccin siguiente d e X y Y . Sean X y Y los nmeros que aparecen respectivamente en el primero y segundo dados, cuando se han lanzado un d e dados par regulares. Ahora,porejemplo, hallamos que P[V = 4 I U = 3 1 = O (puestoque si X - Y = 3, X + Y no puede ser igual 4), a mientras queP ( V = 4) = 3/36. As, U y V son dependientes.

Teorema 7.11. -1 1 inclusive.)

5 1.

(Esto es, p toma los valores entre -1

*El ejemplo d e esta Observacinest tomado de un anlisis del artculo titulado Mutually Exclusive Events, Independence and Zero Correlation, porJ. D. Gibbons, que sepublic en The American Statistician, 22, nm. 5, diciembre d e 1968, pgs. 31-32.

7.9

El coejiciente de correlacwn

19 1

FIGURA 7.8

Demstrucibn: Consideremos la siguiente funcin dela variable real t :


q(t) =

E [V

-+ t T V 1 2 ,
+

donde V = X - E ( X ) y iV = Y - E(E'). Puesto que [V t l Y I 2 2 O, tenemos que q ( t ) 2 O para toda t. Desarrollando obtenemos
q(t) =

E [V2 2tVW

+ t 2 TV 2] = E ( V 2 ) + 2 t E ( T f W )+ t 2 E ( W 2 ) .

A s , q ( t ) es una expresi6n cuadrAtica en t . En general, si una expresin


cuadrtica q ( t ) = at2 bt c tiene la propiedad de que q(t) 2 O para toda t , significa que su grfica corta el eje I! en un solo punto o en ninguno, como se indica en la figura 7.8. Esto, a su vez, indica que su discriminante b2 - 4ac debe ser 5 O, puesto que b2 - 4ac > O significara que q ( t ) tiene dos races reales distinta. Aplicando esta conclusidn a l a funcin q ( t ) que consideramos anteriormente,, obtenemos
4 [E(VW)I2 -4E(V2)E(W2) 5

+ +

o.

Esto implica que

y, por tanto,
{ E [X - E ( X ) ][Y - E ( Y ) ] } 2 := V(X)V(Y>
p2

5 1.

192

Otras caractersticas de las variables aleatorias

7.9

As, -1 5 p 5 1.
Teorema 7.12. Supongamos q u e p 2 = 1. Luego (conprobabilidad 1 en el sentido del teorema 7.S), Y = A X B , donde A y B son

constantes. En palabras, si el coeficiente d e correlacin p es fl, entonces Y es una funcin lineal d e X (con probabilidad 1).

Demostracidn: Consideremos nucvamente la funcin q ( t ) descrita en la demostracin del teorema 7.11.Es sencillo observar enla demostracin d e ese teorema que si q(l) > O para todu t , entonces p2 < 1. Luego la hiptesis del presente teorema, a saber, p2 = 1, implica que debe existir al menos un valor de 1, digamos t o , tal que q ( t 0 ) = E(V to^)^ = O. Puesto que 1 toW = [ S - E ( X ) ] to[Y - E ( Y ) ] , tenemos que E ( V + tow)= O y, por tanto, la varianza de (V tow) = E ( V toiV)2. A s encontramos que la hiptesis del teorema 7.12 conduce a la conclusin de que la varianza d e (V tow) = O. Por tanto, del teorema 7.8 podemos concluir que la variable aleatoria (V Col%) = O (conprobabilidad 1). Portanto, [X - E ( X ) ] to[l - E(Z)] = O. Keescribicndo, encontramos que Y = AX B (con probabilidad l), como se iba a demostrar.

Observaciones: El recproco del teorema 7.12 tmlbin se cumple como demuestra en el teorcma 7.1 3.

se

Teorema 7.13. Supongamos que X y Y son dos variables aleatorias para las cuales Y = AX B , donde A y B son constantes. Entonces, p 2 = 1. Si A > O, p = $1; si A < O, p = -1.

Demostracidn: Puesto que Y = AX A E ( X ) B y V ( Y )= A2V(X). Tambin

+ B,

tenemos que

E(Y) =

E ( X Y ) = E [ X ( A X + B ) ]= A E ( X 2 ) B E ( X ) .
Luego,
P =
2

[ E ( X Y )- E ( X ) E ( Y ) ] 2 V(X)V(Y>

{ A E ( X 2 )+ B E ( X ) - E ( X ) [ A E ( X )
V (X ) A2V(X )

7.9

El cotflciente de correlacwn

193

[ A E ( X 2 )+ B E ( X ) - A ( E ( X ) ) 2 - B E ( X ) ]

- A2 E ( X 2 )- [ I T ( X ) ] ~ } ~ = 1. A2 (V(X)I2
(La segunda afirmacin del teorema se dedulce al observar que fl=

A2 (v(X>>2

IAIJ

Obsemacidn: Los teoremas 7.12 y 7.13 establecen las siguientes caractersticas importantes delcoeficiente de correlacin: el coeficiente d e correlacin es una medida delgrado de linealidad entre X y Y . Los valores d e p prximos a 1 o -1 indican u n alto grado de linealidad, mientras que los valores d e p prximos a O indican una ausenciode tal linealidad. Los valores positivos d e p muestran que Y tiende a aumentar convalores crecientesde X, mientras que los valores negativos d e p muestran que E tiende a disminuir convalores crecientes de X . Existe una considerable confusin acerca d e la interpretacin delcoeficiente d e correlacin. Un valor de p cercano a cero slo indica la ausencia de una relacin lineal entre X y Y . No impide la posibilidad d e alguna relacin no lineal.

EJEMPLO 7.2 1. Supongamos que la variable aleatoria bidimensional ( X ,Y ) est6 distribuida uniformemente en la regin triangular

R = {(.,y)

1 o < 2 < y < 1).

(Vase la Fig. 7.9.) Luego, la fdp est6 dada como

f(2,Y)

= 2,

(2,Y) E

R,

=O

para cualquier otro valor.

FIGURA 7.9

Entonces, las fdp marginales d e X y Y son g(z) = h(y) =

1
/
O

(2) d y = 2(1 - x), (2) da: = 2y,

5 3: 5 1;

O <_ y <_ 1.

194 Otras caractersticas de las variables aleatorias


Por tanto,

7.10

E(X)=

z2(1 - z ) J,'

dz =

$,

E(>') =

J,'y2y dy = $;

P=

E ( X Y ) - E ( X ) E ( Y )1 - 2 J\'(S)V(Y)

Tal como hemos indicado, el coeficiente d e corrclacibn cs una cantidad adimensional. Su valor no se afecta por un canhio de escala. Se puede demostrarel siguiente teorema fcilmente. (Vase el Prob. 7.41.)

Teorema 7.14. Si pxy es el coeficiente d e correlacibn cntre X y E', y si V = A X + B y T.I/ = C Y + D, donde A , B,C y D son constantes, entonces pvw = (AC/ (AC()pxy. (Suponemos que A # O, C # O . ) 7.1O Esperanza condicional
Tal como definimos el valor esperado de una variable aleatoria S (en trminos de su distribucin de probabilidades) como S-$," zf(.r) d r o Cgl z;p(z;),as podemos definir la esperanza condicional de una variable aleatoria (entrminos d e su distribucin condicionald e probabilidades) como sigue.
Definicin. a) Si ( X , Y ) es una variablealeatoriabidimensional continua, definimos l a esperanza condicional d e S para I' = y como
(7.23)

J-00

b ) Si ( X ,Y ) es una variable aleatoria bidimensional discreta, definimos la esperanza condicional d e X para Y = y j como

7.10

Esperanza condicional

195

La esperanza Condicional d e Y para X se define anlogamente.


Observaciones: a ) La interpretacin de la esperanza Condicional es como sigue. Puesto que g(r 1 y) representa la fdp Condicional de X para Y = y, E ( X 1 y) es la esperanza de X condicionada al evento {Y = y}. Por ejemplo, si ( S , Y ) representa la resistencia a la tensi6n y la dureza de una muestra de acero, entonces E ( X I y = 52.7) es la resistencia esperada a la tensi6n de una muestra de acero elegida al azar del universo de muestras cuya dureza (medida en la escala Rockwell) es 52.7. b) Es importante darse cuenta de que en genelral E ( X 1 y) es una funcin de y y, por lo tanto, es una variable aleatoria. De manera similar, E(Y I x) es z y tambin es una variable aleatoria. [Estrictamentehablando, una hnci6n de E ( X I y) es el valor de la variable aleatoria E ( X I Y ) . ] c) Puesto que E(Y 1 X ) y E ( X 1 Y ) son variables aleatorias tiene sentido , ejemplo. hablar de sus esperanzas. A s podemos considerar E [ E ( X I Y ) ] por Es importante reconocer que la esperanza interna se toma respecto a la distribucidn Condicional de X , dado que Y es igual a y, mientras que la esperanza exterior se toma respecto a la distribucin de probabilidades de Y .

Teorema 7.15.

Demstracidn: (caso continuo solamente): Por definicin,

donde f es la fdp conjunta d e ( X ,Y ) y tanto,


E-[E(X I Y ) ]=
O0

h, es l a fdp marginal de Y . Por


x f (27 Y) d r ] h ( y ) dy . WY)

1
O0

E ( X 1 y)h(y) dy =

J [/

Si todas las esperanzas existen, es posible escribir la integral iterada anterior con el orden deintegracin invertido.. As,

196 Otras caractersticas

E [ E ( X I Y)] =

/'"
"O3

[ly

de Variables las aleatorias

f(x, y) dy] dx =

[Se puede usar un argumento semejante para establecer la ecuacin (7.26).] Este teorema es muy til como lo ilustra el siguiente ejemplo.

i T
14
0.35

7.10

x g ( x ) dx E ( X ) .

EJEMPLO 7.22. Supngase quevarios cargamentos que traen diverso nmero de repuestosllegan diariamente. Si N es el nmero de artculos en el cargamento, la distribucin d e probabilidades d e la variable aleatoria N est dada como sigue:
n :

10
0.05

11
0.10

12

13
0.20

15
0.20

P(N = n) :

0.10

La probabilidad de que cualquier repuesto particular sea defectuoso es la misma para todos los repuestos y es igual a 0.10. Si X es el n(1mero d e repuestos defectuosos que llegan cada da, cul es el valor esperado d e X? Para N dada igual a n, X tiene una distribucin binomial. Puesto que la misma N es una variable aleatoria, procedemos como sigue. Tenemosque E ( X ) = E [ E ( X I N ) ] . Sin embargo, E ( X 1 N ) = 0.10 N , puesto que para una N dada, X tiene una distribucin binomial. Luego,
E ( X ) = E(O.1ON) = O.lOE(N)
= 0.10[10(0.05)

+ ll(O.10) + 12(0.10) + 13(0.20) + 14(0.35) + 15(0.20)]

= 1.33.

Teorema 7.16. Supngase que X y Y son variables aleatorias independientes. Entonces, E(X

I Y) +E(X)

y E(Y I X ) = E ( Y )

Demostrucidn: Vase el problema 7.43. EJEMPLO 7.23. Supngase que el suministro d e potencia (en kilowatts) de una compaa hidroelctrica durante un periodo de tiempo especfico es una variable aleatoria X, la que supondremos que tiene

7.1 1

promedio

del

Regresidn

197

una distribucin uniforme en [ 10, 301. La demanda de potencia (en kilowatts), digamos Y ,tambin es unavariable aleatoria que supondremos que est3 distribuida uniformemente en [ 10, 201. (Luego, en promedio, se suministra ms potencia que la que se pide, puesto que E ( X ) = 20, mientras que E ( Y ) = 15.) Por cada kilowatt suministrado, la compaiia obtiene u n a utilidad d e $0.03. Si l a demanda excede el suministro, la compafia obtiene una potencia adicional de otra fuente y obtiene una utilidad con esta potencia de $0.01 por kilowatt suministrado. ?Cul es la utilidad esperada durante el tiempo especfico que se considera? Sea T esta utilidad. Tenemos

T = 0.03Y
= 0.03X

+ O.Ol(Y - X)

si Y

<X,

si

> X.

Para evaluar E ( T ) escribmosla como E [ E ( T I S ) ] .Tenemos

E ( T I x) =

0.03yh d y 0 . 0 3 y h dy

+s~o(O.Oly + O.O2x)&
si 20

& [0.015x2 - 1.5 + 2 + 0.42 - 0 . 0 0 5 ~ -~ 0.02~~1 si 10 < x < 20, { & si 20 < x < 30, 0.05 + 0.042 - 0 . 0 0 1 ~ si ~ 10 .< x < 20,
0.45 si 20

< x < 30,

si 10 < x

dy

< 20,

< x < 30.

Por tanto,
E [E(T1 X ) ]= &

lo
20

(0.05

+ 0.041: - 0 . 0 0 1 ~ ~ d~ ) +&

0.45 d x = $0.43.

7.11 Regresidn del promedio


Como sefialamos en la secci6n anterior, E ( X I y) es el valord e la variable aleatoria E ( X I Y ) y es una funcidn de y. La grfica d e esta funcin d e y se conoce como C Z L ~ V Ude regresidn (del promedio) de X sobre Y . AnAlogamente, l a gr3fica de la funcin de 2 , E ( Y 1 x) se llama curva de regresin (del promedio) d e Y sobre X . Para cada una de las y fijas, E ( X I y) es el valor esperado de la variable aleatoria (unidimensional)

198 Otras caractersticas

de variables lasaleatorias

7.1 1

cuya distribucin d e probabilidades estA definida por la ecuacin (6.5) o (6.7). (Vase la Fig. 7.10.) En general, el valor esperado depender d e y. [Se pueden hacer interpretaciones anhlogas paraE ( Y I z).]

FIGURA 7.10
Y

x= -1

x= 1

FIGURA 7.11

EJEMPLO7.24. Supongamosque (X,Y ) est distribuidauniformemente en la sernicircunferencia indicada en la figura 7.1 l . Luego, J ( z , y) = 2/7r, (x, y) E semicircunferencia. As,

Por tanto,

7.1 1

Regresidn delpromedio

199

Luego,

De modo semejante
r

+m

= o.
Puede suceder que una o ambas curvasd e regresin sean en realidad lneas rectas (Fig. 7.12). Es de&; E ( Y I x) pu.ede ser una funcin lineal de x o E ( X I y) puede ser funcin lineald e y , o pueden suceder ambas cosas. En este caso, decimos que la regresin del promedio deY sobre X (por ejemplo) es lineal.
Y

FIGURA 7.12
EJEMPLO 7.25. Supongamos que ( X ,Y ) est distribuida uniformemente en el tringulo indicado en la figura 7.13. Entonces f(x, y) = 1, (x, y) E T . Las expresiones siguientes para las fdp marginal y condicional severifican con facilidad:

200 Otras caracteristicas de las variables aleatorias

7.1 I

As, ambas regresiones d e Y sobre S y de X sobre Y son lineales (Fig. 7.14). Resulta que si l a regresin del promedio d e Y sobre X es lineal, por ejemplo E ( Y 1 X) = ax + / 3 , podemosexpresarficilmcnte los coeficientes Q y ,B en trminos de ciertos parimetros d c l a distribucibn conjunta d e ( X , Y ) .Tencmos el tcorema siguiente.

/
y=2x

FIGURA 7.13

FIGURA 7.14

Teorema 7.17. Sea (X) Y ) unavariablealeatoriabidimensional supongamos que E ( S ) = }Lx, E(1') = p y ,


2 V(X) = fTz y

V ( Y )= O 2 y.

Sea p el coeficiente de correlacin entre X y Y . Si la regresi6n d e Y sobre X es lineal, tenemos

E ( Y I x) = py

p.
o x
CY

Problemas

20 1
(7.27)

-pz).

Si la regresin d e X sobre Y es lineal, tenemos


(7.2s)

problema 7.44.

Demstracidn: La demostracin d e esteteorema se bosquejaenel

Observaciones: a ) Como se sugiri en la exposicin anterior, es posible que una de l a s regresiones del promedio sea lineal mientras que la otra no lo sea. b ) Ntese el importante papel que desempea el coeficiente de correlacin en las expresiones anteriores. Si la regresin de X sobre Y , por ejemplo, es lineal, y si p = O, entonces encontramos nuevamen.te que E ( X 1 y) no depende

de y. Ntese tambin que el signo algebraic0 de p determina el signo de la pendiente de regresin. c) Si ambas funciones de regresi6n son lineales, encontramos al resolver las ecuaciones (7.27) y (7.28) simultneamente, que las rectas de regresin se cortan en el centro de la distribucin, ( p 5 , ,uy). Como lo hemos observado (en el caso del ejemplo7.23), las funciones de regresih no necesitan ser lineales. Sin embargo, an nos podra inaproximar la curva d e r e g r e s i hcon una funcin lineal. teresar tratar de Usualmente se hace recurriendo al principio de los mnimos cuadrudos, lo que en el contexto presente es como sigue: se escogen las constantes a y b de modo que E [ E ( Y 1 X ) - ( a x b)I2 se minimice. De igual manera E [ E ( X I Y ) - (CY d)I2 se se escogen las constantes c y d de modo que minimice. Las rectas y = ax b y x = cy + d se llamanofroximuciones mnimas cuadricas a las correspondientes curvas de regresinE ( Y 1 x) y E ( X 1 y), respectivamente. El teorema siguiente relaciona esas rectas d e regresi6n con las antes expuestas.

Teorema 7.18. Si y = ax b es la aproximacin mnima cuadrtica a E ( Y I x) y si E ( Y 1 x) es en realidad una funcin lineal d e x, es decir,

E(Y

1 .)a.

+ b.

202 Otras caractersticas de las variables aleatorias


entonces, a = a I y b = bI . Para la regresin de X sobre Y se mantiene una proposicin anloga.

Dernostracidn: Vase el problema 7.45.

PROBLEMAS
7.1. Encontrar el valor esperado delas siguientes variables aleatorias.

La variable aleatoria X definida en el problema 4. l . b ) La variabIe aleatoria X definida en el problema 4.2. c ) L a variable aleatoria T definida en el problema 4.6. d ) La variable aleatoria X definida en el problema 4.18.
a)

7.2. Demostrar que E ( X ) no existe parala variable aleatoria X definida en el probpma4.25. 7.3. Lo siguienterepresenta la distribucin d e probabilidades d e D , la demanda diaria de cierto producto. Calcular E ( D ) .
d:
J

1,2,3,4,5,

P ( D = d) :

0.1,0.1,0.3,0.3,0.2.

7.4. En la fabricaci6n del petr6le0, la temperatura de destilacin, T (en grados centgrados), es crucial para determinar la calidad del producto final. Supongamos que T se considera como una variable aleatoria distribuida uniformemente en(150, 300). Supongamos que producir un galn de petrleo cuesta C1 dlares. Si el aceite se destila a una temperatura menor que 200" C, el producto seconoce como nafta y se vende a C2 dlares por galn.Si se destila a una temperatura mayor que 200" C, se conoce comoaceite destilado refinado y se vende enC, dijlares por gal6n. Encontrar la utilidad neta esperada (por gal6n). 7.5. Cierta aleacin se forma al combinar la mezcla fundida de dosmetales. La aleaci6n que resulta contiene cierto porcentaje d e plomo, digamos X , que puede considerarse como una variable aleatoria. Supongamos que X tienc la siguiente fdp:

Suponer queP , la utilidad neta obtenida al vendcr esta aleaciijn (por libra), es la siguiente funcin del porcentaje del contenido d e plomo: p = C1 + C 2 X . Calcular la utilidad esperada (por libra).

Problemas

203

7.6. Supngase que un instrumento electrnico tiene una duracin X (en unidades d e 1000 horas) que se considera como una variable aleatoria continua con la siguiente fdp:

f(z)= e-z,

> O.

Suponer que costo el d e fabricacin d e tal artculo es $2.00. El fabricante vende el artculo por $5.00, pero garantiza u n reembolso total si X 5 0.9. CCu5l es la utilidad esperada delfabricante por articulo? 7.7. Las 5 primeras repeticiones d e u n experimento cuestan $10.00 cada una, y todas las subsiguientes tienen u n valor de $5.00 cada una. Suponer que el experimento se repite hasta obtener el primer resultado exitoso. Si la probabilidad de unresultado exitosoes siempre igual a0.9 y si las repeticiones son independientes, {cul es el costo esperado d e la operaci6n completa? 7.8. Se sabeque unlote contiene 2 artculos defectuosos y 8 no defectuosos. Si estos artculos se inspeccionan al azar, uno dlespus d e otro, ?cul es el nmero esperado d e artculos que se deben escoger para inspeccin a fin d e sacar todos los defectuosos? 7.9. Un lote de 10motores elctricos se debe rechazar totalmenteo vender, segn el resultado del siguiente proceso: dos motores se escogen al azar sin sustitucin y se inspeccionan. Si uno o ms son defectuosos, el lote se rechaza; de otro modo es aceptado. Suponer que cada uno delos motores cuesta $75y se vende por $100; si el lote contiene 1 motor defectuoso, {cul es la utilidad esperada del fabricante? 7.10. Suponiendo que D , la demanda diaria de un artculo, es una variable aleatoria con la siguiente distribucin d e probabilidades:

P ( D = d) = C 2 d / d ! , d = l., 2,3,4.
Evaluar la constante C. b ) Calcular la demanda esperada. c) Suponer que un articulose vende por $5.00. Un fabricante produce diariamente I< artculos. Cualquier artculo que no se venda al tkrmino del da debe desecharse con una pkrdida d e $3.00. i) Encontrar la distribucin d e probabilidades d e la utilidad diaria, como una fimcin d e K. ii) {Cuntos artculos deberan fabricarse para maxinlizar la utilidad diaria esperada?
a)

7.11. a) Con N = 50, p = 0.3, efectuar algunos clculos para encontrar el valor d e k que minimiza E ( X ) en el ejemplo 7.12 b ) Con los valores anteriores d e N y p y usando k = 5,10,25, determinar para cada uno de los valores d e k si es preferibleel examen del grupo.

204 Otras caractersticas de las variables aleatorias


7.1 2. Suponiendo que X y Y son variables aleatorias independientes con las siguientes fdp: f ( z ) = 8/z3, z
a)

> 2;

g(y) = 2y,

o < y < 1.

Encontrar la fdp d e 2 = X Y . b ) Obtener E(2) d e dos maneras: i) usando la fdp de Z como se obtuvo en a ) ;ii) directamente, sin usar la fdp d e 2. 7.13. Suponer queX tiene fdp
f(2)

= 8/23,

> 2.

Sea w = + X . a) Calcular E ( W ) ,usando la fdp d e W . b ) Calcular E ( W ) ,sin usar la fdp d e W . 7.14. Un dado regular se lanza 72 veces. Puesto que X es el nmero de veces que apareceel seis, evaluar E ( x ~ ) . 7.15. Encontrar el valor esperado y la varianza d e la variable aleatoria Y y Z del problema5.2. 7.16. Encontrar elvalor esperado y la varianza d e la variable aleatoria Y del problema 5.3.

y 2 del problema5.5.

7.17. Encontrar el valor esperado y la varianza d e l a s variables aleatorias Y 7.18. Encontrar el valor esperado y la varianza d e las variables aleatorias Y ,

Z y W del problema5.6. y S del problema5.7.

7.19. Encontrar el valor esperado y la varianza de las variables aleatorias V

7.20. Encontrar el valor esperado y la varianza d e la variable aleatoria Y del problema 5.1 O para cada uno d e los tres casos. 7.21. Encontrar elvalor esperado y la varianza d e la variable aleatoria A del problema 6.7. 7.22. Encontrar elvalor esperado y la varianza d e la variable aleatoria H del problema 6.1 l. 7.23. Encontrar el valor esperado y la varianza d e la variable aleatoria W del problema 6.13. 7.24. Suponer que X es una variable aleatoria para la cual E ( X ) = 10 y V ( X ) = 25. Para quvalores positivos d e a y b tiene Y = a X - b esperanza O y varianza ?

Problemas

2O 7

7.38. Suponer que la variable aleatoria bidimensional ( X ,Y ) tiene la fdp dada por
f(z,y)

<z <y <1

= O para cualquier otro valor.


7.39. El ejemplo siguienteilustra que p = O noimplica independencia. Suponer que (X, Y ) tiene una distribucin conjunta de probabilidades dada por la tabla 7 .l.
a)

(Vase la Fig. 7.18.)Encontrar el coeficiente de carrelacin pZY.

Demostrar que E ( X Y ) = E ( X ) E ( Y )y luego' p = O. quC X y Y no son independientes. c) Demostrar que este ejemplo se puede generalizar como sigue. La eleccin del nmero no es crucial. Lo importante es que todos los valores dentro de un crculo son los mismos, todos los que esdn encuadrados son los mismos y el valor del centro es igual a cero.
b ) Indicar por

TABLA 7.1

E.

7.40. Sup6ngase que A y B son dos eventos asociados con un experimento Sup6ngase que P ( A ) > O y P ( B ) > O. Definir las variables aleatorias X y Y como sigue

X = 1 si A ocurre y O en cualquier otro caso, Y = 1 si B Ocurre y O en cualquier otro caso.

Demostrar que pZy = O implica que X y Y son ind'ependientes.


7.42. Para la variable aleatoria( X ,Y )definida en el problema 6.14,calcular E ( X 1 y), E(Y I z) yverificar que E ( X ) = E [ E ( X 1 Y ) ]y E ( Y ) = E [ E ( Y I X ) ] . 7.43. Demostrar el teorema 7.16. 7.41.Demostrar el teorema 7.14.

208 Otras caractersticas de las variables aleatorias


7.44. Demostrar el teorema 7.17. [Zndicacidn: En el caso continuo, multiplicar la ecuacinE(Y I x) = Ax+ B por g(x), la fdp de X, e integrar de -m a co. Hacer lo mismo usando x g ( z ) y luego resolver las dos ecuaciones resultantes para A y para B.] 7.45. Demostrar el teorema 7.18. 7.46. SiX, Y y 2 son variables aleatorias no correlacionadas con desviaciones esthdar 5, 12 y 9, respectivamente, y si U = X + Y y V = Y + 2, evaluar el coeficiente de correlacin entre U y V .
E ( X I y) = g y - 3 .
a)

7.47. Sup6ngase que ambascurvas de regresi6n de lospromediosson 3 realmente lineales.Especficamente, suponerque E(Y I x) = -?x - 2 y Determinar el coeficientede correlaci6n p.

6) Determinar E ( X ) y E ( Y ) .

o no lluvia en las prximas 24 horas. Suponicndo que p = Prob(l1uvia en las pr6ximas 24 horas) > f. El pronosticador anota 1 punto si acierta y O si no. Al hacer n pronsticos, un pronosticador sin destreza elige al azar r das cualesquiera (O 5 r 5 n ) para decir llueve y los n - P das restantes para

7.48. Considrese el pron6stico del tiempo con dos alternativas: lluvia

decir no llueve. Su puntaje total anotado es S,. Calcular E ( & ) y Var(S,) y encontrar el valorde r para el cualE ( & ) es el mayor. [Indicacidn: Sea X; = 1 o O dependiendo si el i-simo pron6stico es correcto o no. Luego, S , = Cy=lX;. Ntese que las X; no son independientes.]

8.1 La distribucin de Poisson


Tal como enlos modelos deterministas, en los cuales ciertas relaciones funcionalcs desempean un papel importante(tales como lineales, cuadrticas, exponenciales, trigonomtricas, etc..), a l elaborar modelos no deterministas para fenmenos observables, tambin encontramos que ciertas distribuciones d e probabilidades apal-ecen m,is a menudo que otras. Una razn d e esto es que, como en e l caso deterrninista, algunos modelos matemticos relativamente simples parecen ser capaces d e describir un gran nmero de fenmenos. En este captulo expondremos con mucho detalle diversas variables el captulosiguienteharemoslomismocon aleatoriasdiscretas.En variables aleatorias continuas. Presentemos formalmente la siguiente variable aleatoria. Ms adelante indicaremos en qu condiciones esta variable aleatoria podra representar al resultadode un experimento aleatorio. Definicin. Sea X una variable aleatoria que toma posibles: O, 1,.. . , n, . . . Si los valores

2 10

La variable aleatoria de Poisson y otras variables aleatorias discretas 8.1

decirnos que
(Y

> o.

X tiene una distribucibn de Poisson con parmetro

Para verificar que la anterior representa una legtima distribucin de probabilidades, simplemente observemos que P(X = k ) = z E o ( e - C Y a k / k= ! )e-CY e a = I.

Obseruacwn: Puesto que estamos definiendo en forma directa la variable aleatoria en trminos de su recorrido y distribucin de probabilidades, sin referenciaaningilnespaciomuestraloriginal S, podemos suponer que el espaciomuestral S se ha identificadocon R, y que X ( s ) = s. Es decir, los resultados del experimento son simplemente los nmeros O , 1 , 2 , . . . y las probabilidades asociadas con cada uno de esos resultados estn dadas por la ecuacin (8.1).

Teorema 8.1. Si X tiene una distribucin de Poisson con parmetro a, entonces E ( X ) = a y V(z) = a.

Demostrucin:
Haciendo

00

E ( X )=

ke-aak

00

e -CY a k

k=O

k!

- k=l

(k

l)!.

= k - 1, encontramos que se convicrte en

E ( X )=
De modo semejante,

00

C Y

s+l

3=0

S!

= a.

Haciendo nuevamente S = k - 1, obtenemos

E ( 2 )=

00

s=o

+ 1)

, C Y a
S!

S S 1

=acsT+ac"s!=Q.
s=o

e-"aS

00

+a

s=o

8.2

La distribucin

de Poisson

como una laproximacwn a

la . . .

2 11

[puesto quela primera suma representa E ( X ) ,mientras quela segunda suma es iguala uno]. Luego,

V(X) = E ( X 2 )- ( E ( X ) y = (Y2 4-(Y

- (Y2

= (Y.

Observacwn: N6tese la interesante propiedad que posee la variabie aleatoria de Poisson: su esperanza es igual a su varianw. 8.2 La distribucinde Poisson como una aproximacin a la distribucin binomial

La distribucin d e Poisson desempea un papel importante por derecho propio como modelo probabilistic0 apropiado para un gran nmero de fenmenos aleatorios. Este punto se expondr-5 en l a seccin siguiente. Aqu nos interesa la importancia d e esta distribucin para aproximarse a las probabilidades binomiales.

EJEMPLO 8.1. Supngase que las llamadas telefnicas llegan a una gran central telefnica y que en un periodoe:special d e tres horas (IS0 minutos) se ha recibido un total d e 270 llamadas, o sea, 1.5 llamadas por minuto. Supngase que, con base la evidencia anterior, queremos calcular la probabilidad de recibir O, 1, 2, etc. llamadas durante los pr6ximos tres minutos. Al considerar los fenmenos d e llamadas recibidas, podramos concluir que encualquier instante es tan probable que ocurra una llamada telefnica como en cualquier otro momento. Es decir, la probabilidad permanece constante de punto de tiempo a punto de tiempo. La dificultad es que aun en un intervalo de tiemlpo muy corto, el nilmero de puntos no slo es infinito sino que no puede ser enumerado. Esto nos lleva a una serie de aproximaciones que describiremos ahora. Para empezar, podramos considerar la subdivisin del intervalo d e tres minutos en nueve subintervalos de20 segundos cada uno. Podramos considerar entonces cada uno d e esos nueve intervalos como un ensayo d e Bernoulli durante el cual observamos una llamada (xito) o ninguna llamada(fracaso)conP(xito) = (1.5)20/60 = 0.5. As podramosinclinarnos a decir que la probabilidad de dos llamadas durante el intervalo d e tres minutos (es decir, 2 Cxitos en 9 ensayos con P(Cxito) = O, 5) es igual a = 9/128. La dificultad con esta aproximacin es que ignoramos la posibilidad ensayos de, digamos, doso tres, etc., llamadas durante uno de nuestros

( i)(l/qg

2 12 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.2


con periodos de 20 segundos. Si se considera esta posibilidad, el uso anterior de la distribucin binomial no sera legtimo, ya que esa distribucin es aplicable slo cuando existe una dicotoma, una llamada o ninguna llamada. Para evitar esta dificultad hacemos la aproximacin siguiente y, d e hecho, nos lleva a una sucesin completa de aproximaciones. Una manera de estar ms o menos seguro de que al menos se recibe una llamada en la central durante un intervalo de tiempo pequefio, es hacer que ese intervalo sea muy corto. As, en vez de considerar nueve intervalos d e 20 segundos de duracin, consideremos los 18 intervalos siguientes, cada uno de 10 segundos de duracin. Podemos representar ahora nuestro experimento como 18 ensayos d e Bernoulli con P(xito) = P(recibirunallamadaduranteunsubintervalo) = (1.5)10/60 = 0.25. Por tanto, P(dos llamadas durante el intervalo d e tres minutos) = (1;)(0.25)2(0.75)16. Ntese que aunque ahora tratamos una distribucin binomial diferente a la d e antes (es decir, que tiene parmetros n = 18, p = 0.25, en vez d e n = 9, p = 0.5), el valor n,p esperudo es el mismo, a saber, n p = H(0.25) = g(0.5) = 4.5. Si continuamos de esta manera, aumentando el nmero de subintervalos (es decir, n ) , disminuiremos al mismo tiempo la probabilidad d e recibir una llamada (es decir, p ) d e tal manera que n p permanece constante. As, el ejemplo precedente nos conduce a formular la pregunta siguiente: ?qu sucede a las probabilidades binomiales (:) pk( l - p ) n - k si n + 0 0 y p -+ O, de tal manera que n p permanezca constante, es decir, n p = CY? Los clculos siguientes dan la respuesta a este importante cuestionamiento. Consideremos la expresin general para la probabilidad binomial,

n ( n - l ) ( n - 2 ) - ( n - IC b!

+ 1)p k (1 -

Sea n p = (Y. Por tanto, p = a / n , y 1 - p = 1 - o / n .= ( n - cr)/n. Sustituyendo todos los terminos que contienen p por sus expresiones obtenemos equivalentes en funcin de (Y,

8.2

La distribucin de Poisson como una ,aproximacwna la . . .


n(n - 1 ) . . . ( n - IC k!
k

P(X = k ) =

+ 1 ) ($
e .

2 13

= 'y IC! [(I) ( 1 =5 b! [ ( I ) ( 1 k

) ; ) ;

) ; (1 - ) ;
(1 -

(I, -

* * *

(11 - k - 1

")I -)I

[1-

z]

n-k

x (l-;)n(l-;)-k. Ahora sea n + 00 d e tal manera que n.p = a permanezca constante. Esto obviamente significa que p + O cuando n + 00, porquede otra manera n p nopodrapermanecerconstante.(Deigualforma, podramos necesitar que n + 00 y p -+ O de tal manera que n p -+ 0.) En la expresin anterior, los trminos de la forma ( 1 - l / n ) , (1 2 / n ) ,. . . tienden a uno cuando n tiende a infinito, como lo hace (1 ~ / n ) -Es ~ bien . sabido (de la definicin delndlmero e ) que (1 - a / n ) n -+ e--(y cuando n -+ OO. A s , lmn+m P ( X = IC) = e - a a k / k ! Es decir, en el lmite obtenemos la distribucin de Poisson con parmetro a. Este importante resultado se resume en el siguiente teorema.

Teorema 8.2. Sea X una variable aleatoria distribuida binomialmente con parmetro p (con base en n repeticiones del experimento). Esto es,
P ( X = IC) =

(;)

P k ( l - P)n-k.

Supngase que cuando n -+ 00, n p = a (constante), o equivalentemente, cuando n -+ 00, p + O tal que n p .+ a. En estas condiciones tenemos
lm P ( X = IC) = n+cc IC!
e "(y CY k

'

la distribucin d e Poisson con parmetro

a.

Obseruaciones: a) El teorema anterior esencialmente dice que podemos aproximar l a probabilidades binomiales con las probabilidades d e la distribucin d e Poisson siempre quen sea grande y p pequea.

2 14

La variable aleatoria dePoisson y otras variables aleatorias discretas 8.2

E ( X ) = N. c) L a distribucin binomial se caracteriza por dos parfimetros, n y p , mientras que la distribucin de Poisson se caracteriza por unsolo parhnetro, N = np, qne representa al nmero esperadod e xitos por unidad de tiempo (o por unidad (le espacio en alg'in ot.ro caso). Este parmetro tambin se designa como irzrensidad de la distribucin. Es importante distinguir entreel nmero esperad o d eocurrencias por unidad d e tiempo y el nmero esperado de ocurrencias e n el tiempo especificado. As, en el ejemplo 8.1, la intensidad es 1.5 llamadas por minuto y, por lo tanto, el nmero esperado de llamadas en un periodo de 10 minutos, por ejemplo,sera 15. d ) TambiCn podemos considerar el siguiente argumento para evaluar la varianza de una variable aleatoria S d e Poisson con parmetro a: A ' se puede considerar como u n caso lmite de una variable aleatoria Y distribuida binomialmente con parhnetro n y p , donde n -+ 00 y p -+ O d e tal manera que n p -+ N . Puesto que E ( Y ) = np y Var(Y) = TIP(1 - p ) , observemos que en el lmite Var(Y) CY.
" +

n p , mientras que si X tiene una distribucin de Poisson (con parmetro a),

6) Ya hemos verificado que si S tiene una distribucin binomial, E ( X ) =

Se dispone de extensastablas para la distribucin de Poisson. (E. C. Molina, Poisson's Exponential Binonaid Limit, D. Van Nostrand Company, Inc., Nueva I'ork, 1942). Una breve tabulacin d e esta distribucin se da en el Apndice. Consideremos otros tres ejemplos adicionales que ilustran las aplicaciones de la distribucin d e Poisson mencionadas previamente.

EJEMPLO 8.2. En una concurrida interseccin de trfico la probabilidad p de que un automvil tenga un accidente es muy escasa, digamos p = 0.0001. Sin embargo, durante cierta parte del da, entre las 4 P M y las 6 PM un gran nmero deautomviles pasa por la interseccin, digamos 1000. En dichas condiciones, cul es la probabilidad de que doso m i s accidentes ocurran durante ese periodo? Formulemos algunas hiptesis. Supongamos, cn primer lugar, que el valor anterior d e p es el mismo para cada uno de los automviles. En o no un accidente, segundo lugar, supongamos que si un automvil tiene no depende de lo que lesuceda a cualquierotroautomvil.(Esta suposicin, obviamente, no es realista; no obstante l a formularemos.) A s podemos suponer que si X es el nmero de accidentes entre los 1000 automviles que llegan, entonces S tiene una distribucin binomial con p = 0.0001. (Otra hiptesis, no indicada de manera explcita, es que n, el nmero de automviles que pasa por la interseccin entre las 4 P M y

8.2

La distribucin de Poisson como una 'aproximacwn a la

. . . 2 15

las 6 PM est predeterminada en 1000. Desde luego, un planteamiento ms realista sera considerar n misma como una variable aleatoriacuyo valor depende de un mecanismo aleatorio. Sin embargo, no haremos esto aqu,slo consideraremos n como fija.) Por tanto, podemos obtener el valor exact de la probabilidad deseada:

P(X

2 2) = 1 - P ( X = O)

P ( X = 1)

= 1 - (0.9999)1000 - 1000(0.0001)(0.9999)ggg.

La evaluacin de los valores anteriores da origen a una dificultad n es grande y p e s pequea, aplicamos el considerable. Puesto que teorema 8.2 y obtenemos la aproximacin siguiente:

Por tanto,

P(X

2 2) E 1 - e -0.1 (1 + 0.1) = 0.0045.

EJEMPLO8.3. Supngase que un proceslo de fabricacin produce artculos d e tal manera que cierta proporcin (constante) d e artculos, digamos p , son defectuosos. Si se obtiene un lote n de tales artculos, la probabilidad de obtener exactamentek dekctuosos puede calcularse de la distribucin binomial como P ( X = k ) =: ( i ) p k ( 1 - p ) n - k , donde X es el nmero dedefectuosos en el lote.Si n es grande y p es pequea (como sucede a menudo), debemos aproximarla probabilidad anterior Por

P(X = k)

e-np(np)k

IC!

-.

Supngase, por ejemplo, que un fabricante produce artculos de los p = 0.001. cuales alrededor de 1 en 1000 sondefectuo'sos.Estoes, Por tanto, usando l a distribucin binomial, encontramos que en un lote de 500 artculos la probabilidad de que ninguno sea defectuoso es (0.999)500 = 0.609. Si aplicamos la aproximacin d e Poisson, esta probabilidad puede escribirse como = 0.61. La probabilidad de ende acuerdo con la aproximacin contrar 2 o ms artculos defectuosos es, de Poisson, 1 - e-0.5(l 0.5) = 0.085.

2 16 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.2


EJEMPLO 8.4. [Sugerido por un anlisis en Clculo de probabilidades d c A. Renyi(en alemn), VEB Deutscher Verlag der Wissenschaft, Berln, 19621. En la fabricacin de botellas d e vidrio, se encuentran partculas duras y pequeas en el vidrio fundido a partir delcual se hacen las botellas. Si aparece una sola partcula en una botella, Csta no puede usarse y debe desecharse. Se supone que las partculas estn esparcidas a l azar en el vidrio fundido. Supondremos que el vidrio fundido se produce de tal manera que el nmero de partculas es (en promedio) el mismo para una cantidad constante d e vidrio fundido. Supngase en particular que en 100 kilos d e vidrio fundido se encuentran x de tales partculas y que es necesario 1 kilo d e vidrio fundido para hacer una de estas botellas. Pregunta: ?Qu porccntaje de botellas tendr que descartarse debido a que son defectuosas? A primera vista la solucin d e este problema podra ser como sigue. Puesto que el material para 100 botellas contiene x partculas, aproximadamente el x% de las botellas deber desecharse. Una pcqueia reflexicin indicar& sin embargo, que la solucin anterior no es correcta, ya que una botella defcctuosa puede tener ms d e 1 partcula, bajando as cl porcentaje debotellas dcfcctuosas obtenidas del material que sobra. A fin de obtener unasolucin correcta, hagamos las siguientes suposiciones simplificadoras: a ) cada una d e las partculas puede aparecer en el material de cada una de las botellas con igual probabilidad y b) la distribucin d e cualquicr partcula es independiente de cualquier otra partcula. Con estas suposiciones, podenlos reducir nuestro problema a l siguiente modelo de urna. EntreN urnas, se distribuyen al azar n esferas. (CuAl es la probabilidad de que en una urna elegida a l azar se encuentren exactamente X: esferas? (Las urnas corresponden desde luego a las botellas, mientras que las esferas corresponden a las partculas.) Siendo 2 el nmero de esfcras encontradas en una urna escogida la hiptesis anterior, que 2 est distribuialeatoriamente, se deduce, de d a binolnialmente con parmetro 1/N. Por lo tanto,

P(Z = X : ) =

(;) (;y

(1

+)a

Supngase ahora que el vidrio fundido se prepara en cantidades muy 100 Kg, grandes. De hecho supongamos quese prepara en unidades de y que se han suministrado M d e tales unidades. Luego, N = l O O M y

8.2

La distribucidn de Poisson como una aproximacidn a

la . . .

2 17

n = x M . Sea Q = z/100, lo que iguala la proporcin de partculas por botella. As, N = n / a y la probabilidad anterior puede escribirse como

P ( Z = IC) =

(;) ( q (1 - E)"-"
" +

As, cuando el proceso de produccin contina (esto es, A4 tanto n + m),obtenemos. P ( Z = IC)
N

y por

e
~

" ( y

b!

donde

(Y

-.X

100

Calculemos la probabilidad de que deba desecharse una botella. h a es igual a 1 - P ( Z = O). Luego, P(botel1a defectuosa) N 1 Si el nmero de botellas producidas es muy grande, podemos identificar la probabilidad de una botella defectuosa con l a frecuencia relativa d e botellas defectuosas. Por tanto, el porcentaje d e botellas defectuosas es Si desarrollamos l O O ( 1 - e -x/lOO ) aproximadamente l O O ( 1 - e en una serie de Maclaurin, obtenemos
100 1 -

[ (

100

2(

3!(100)3
X

+ .. .)]
X
3
* * *

=x--

2
+

2( 100)

6(100)2 -

A s , si x es pequeria, la proporcin de botellas desechadas es aproximadamente x, como se sugiri primero. Sin embargo, para una x grande esto ya no es vlido. En caso que x = 100, el porcentaje de botellas desechadas no es 100, sino que lOO(1 - e"') = 63.21%. ste, es por supuesto, un caso extremo y no se encontraria en un proceso controlado razonablemente. Supongamos quez = 30 (un nmeroms realista). inicial), Por tanto, envez d e desechar el 30% de nuevo nuestra solucin = 25.92%. Podramos observar que si desecharamos slo l O O ( 1 x es razonablemente grande,es ms econmico producirbotellas de menor tamao. Por ejemplo,si necesitamos slo 0.25 kg de vidrio fundido por botella en vez de 1 kg, y si x = 30, entonces el porcentaje descartado se reduce de 25.92% a 7.22%.

218 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.3


8.3 El proceso de Poisson

En la secci6n anterior se us6 la distribucin d e Poisson como un medio para aproximar una distribucin conocida, a saber, binomial. Sin embargo, a l distribucin d e Poisson desempea un papelm u y importante por derecho propio, puesto que representa un modelo probabilstico adecuado para un gran nmero de fenmenos observables. Aunque no vamos a dar una deduccin completamente rigurosa de algunos resultados que vamos a exponer, el planteamiento general es d e tal importancia que deber tomarse en cuenta para comprenderlos, aun cuando no podamos justificar cada uno delos pasos. Para referirnos a un ejenlplo especfico mientras concluinlos los dctalles maternfticos, consideremos una fuente d e material radiactivo que emite partculas CY. Sea definidaXt como el nilmero departculas emiridas durante un periodo de tiempo especfico [O, t ] . Vamos a hacer algunas hiptesis acercad e la variable aleatoria (discreta)S t que nos pernlitirn determinar la distribucin d e probabilidades d e X t . La posibilidad d e estas hiptesis (recordando lo que A7t representa) se justifica por el hecho de que la evidencia emprica sostiene una cantidad considerable d e resultados tericos que vamos a derivar. Puede ser iltil sealar que en la deduccin d e cualquier resultado o axiomas fundamenmatemtico debemos aceptar algunos postulados observables, tales. E n la bsqueda de axiomas para describir fenmenos algunos axiomas pueden ser ms apropiados(y menos arbitrarios) que otros. Por ejemplo, al describir el movimiento de un objeto impulsado hacia arriba con cierta velocidad inicial, podramos suponer que la distancia sobreel suelo, llammosla S, es una funcin cuadrtica del tiempo t ; es decir,s = at +bt + c . h t a sera dificilmente una hiptesis intuitiva, d e acuerdo con nuestra experiencia. En su lugar, podramos suponer que la aceleracin es una constante y luego d e esto deducir qllc S debe ser una funcin cuadrtica de t . Lo importante es por supuesto que si debemos suponer algo con el propsito de elaborar nuestro modelo matemtico, preferiramos suponer lo que esapropiado, envez de lo que no lo es. El mismo objetivo nos gua a elaborar un modelo probabilistico para la emisin d e partculas a de una fuente radiactiva. La variable aleatoria X t antes definida puede tomar los valores O, 1 , 2 , . . . Sea P n ( t ) = P [ X t = n ] , n = 0 , 1 , 2,... Vamos a enunciar ahora las cinco hifitesis siguientes.

8.3

El proceso de Poisson

219

A l : El nmero de partculas emitidas durante intervalos d e tiempo no sobrepuestos son variables aleatorias independientes. Aa: Si X t se define como antes y si Yt es igual al nmero de partculas emitidas durante [ t l ,t l + t ] ,para cualquier t l > O, las variables aleatorias X t y E< tienen la misma distribucin de probabilidndes. (En otras palabras, la distribwidn del nmero departculas slo de la longitud emitidas durante cualquier intervalo depende del intervalo y no d e los puntos extremos.) A3: p l ( A t ) es igual aproximadamente a X A t , si At es suficientemente pequea, donde X es una constante positiva. Esto lo escribimos como P l ( A t ) Ant. En toda estu seccin u ( A t ) b ( A t ) significa que a ( A t ) / b ( A t ) -+ 1, cuando At O. Tambin supondremos que At > O. (Esta hiptesis expresa que si el inl a probabilidad d e obtener tervalo es suficientemente pequeo, exactamente unaemisin durante ese intervaloes directamente proporcional a la longitud del intervalo.) A4: CP&pk(At) O. (Esto implica que p k ( A t ) -+ O, k 2 2.). Esto significa que la probabilidad de obtenerdos o ms emisiones en un intervalo suficientemente pequeo es despreciable. As: A o = O, o de manera equivalente flo(0) = 1. Estoequivale a una condicin inicial para el modelo que estamos describiendo.
N N

-+

Como lo demostraremos en breve, las cinco hiptesis anteriores harn posible que deduzcamos una expresin para p,(t) = P [ X t = n]. Saquemos ahora algunasconclusiones d e diclhas hiptesis. Las hiptesis Al y A2 juntas implican que la variable aleatoria X t y [Xt+tnt- X t ] son variables aleatorias independlientes con la misma distri bucin d e probabilidades. (Vase Fig. 8.1.)
a)

FIGURA 8.1 b ) De las hiptesis A3 y A4 podemos concluir quc

O
I

,
I

l+At

c)

Podernos escribir

220 La variable aleatoria de Poissort y otras variables aleatorias discretas

8.3

= PO(t)PO(At).
N

[Vase la conclusin u ) . ]

po(f) [I - AAt].

[Vase Ec. la

(8.2).]

d ) Entonces tenemos

I-Iaciendo At O, y observando que el lado izquierdo representa el cociente de l a diferencia de la fLncin PO y, por tanto, tiende a p b ( t ) (ms precisamente, a la derivada por la derecha, puesto que At > O), tenemos.
--f

&(t) = -X~o(t)

o, equivalentemente,

PO (2)

P b( t ) =

-,A.

Integrando ambos miembros respecto a t , obtenemos In p o ( t ) = -Xt+C, donde C es una constante d e integracin. De la hiptesis A , encontramos, al hacer t = O, que C = O. Luego,

e ) Considerando p l l ( t

+ At) = P [ X i + n t = n ] .
T,

Ahora X,+Ai = n si y slo si X 1 = X ? J [ X ~ + AX ~t ] = n = O, 1 , 2 , . . . , n. Utilizando las suposiciones A , y A2, tenemos

8.3

El proceso de Poisson

22 1

Luego

Nuevamentehaciendo At --+ O, y observandootra vez que el lado izquierdo representael cociente diferencial d e la funcin p , , obtenemos

h a representa un sistema infinito d e ecuaciones lineales diferenciales d e diferencias. El lector interesado puede verificar que si definimos la funcin q n por la relacin q , & ( t ) = e X t p r L ( t )el , sistema anterior se transforma en qh(1) = Xq,-l(t), n = 1,2,. . Puesto que p o ( t > = e-Xt, encontramos queqO(t) = 1. [Ntese t a m b i h que q n ( 0 ) = O para n > O.] A s obtenemos, recursivamente,
,I

En general, & ( t ) = Aq,-l(t) y, por tanto, q n ( t ) = (Xt)n/n! A l recordar la definicin d e q,, finalmente obtenemos

Hemos demostrado as que el nmero de partculas emitidas durante [O, t) de una fuente radiactiva, conlas suposiciones el intervalo de tiempo hechas anteriormente, es una variable aleatolria con una distribucind e Poisson con parametros (A t).
Obsemacwnes: a) Es importante darse cuenta de que la distribucin d e Poisson apareci como una consecuencia de ciertas suposilcioncs que hicimos. Esto significa que cada vez que dichas suposiciones sean vlidas (o al menos lo sean aproximadamente) la distribucin d e Poisson debe usarse como un modelo

222 La variable aleatoria de Poisson y otras variables aleatorias discretas

8.3

apropiado. Resulta que hay nna gran cantidad de fenmenos para los cuales es adecuadoel modelo de Poisson.
i ) Representemos por X't el nmero de llamadas telefnicas que llegan a una central telefnica durante un periodo de tiempo de longitud t . Las suposiciones anteriores se satisfacen aproximadamente, enespecial durante

el "periodo congestionado" del da. Luego, X't ticne una distribucin de Poisson. ii) Representemos porX't el nmero de electrones que salen del cfitodo de un tubo al vaco. Nuevamente las suposiciones son apropiadas y, por tanto, X t tiene una distribucin de Poisson.

zii) El ejemplo siguiente (de astronoma) indica que el razonamiento anterior se puede aplicar no slo al nmero deocurrencias de unevento durante u n periodo d e tiempo fijo, sino tambin al nmero deocurrencias de un evento dentro delos lnlites fijados de unrea o u n volu.me?z. Supcingase que un astrnomo investiga una parte de la Va Lctea y supngase que en la parte considerada la densidad de estrellas, llammosla X, es constante (Esto significa que en un volumen de V (unidades cbicas), se encontraran, en promedio, AV estrellas.) Sea X, igual al nmero de estrellas encontradas en una parte de la Va Ljctea que tiene un volumen V . Si se satisfacen las suposiciones anteriores (sustituyendo "volumen" por "tiempo", entonces P [ X , = n] = (AV) n e - A " / n ! (Las suposiciones, interpretadas en este ejemplo, estableceran esencialmenteque el nmero de estrellas que aparecen en partes no sobrepuestas del firmamento representavariables aleatorias intlependientes yquela probabilidad d e que aparezca n& de unaestrclla en una porcin pequea del cielo es cero.)
iv) Se nos ocurre otra aplicacin en el campo biolgico, si hacemos que X A sea el nmero de clulas sanguneas visibles en el microscopio, donde el rea de la superficie visible en el microscopio es dada por A unidades cuadradas. b ) L a constante X apareci originalmente como una constante de proporcionalidad en la hiptesis A3. Vale la pena mencionar las siguientes interpretaciones de X: si X t representa el nmero deocurrencias de un evento durante un intervalo de tiempo d e longitud t , entonces, E ( X t ) = At y, por tanto, X = [ E ( X t ) ] / trepresenta la ruzdn esperada con la cual se emiten las partculas. Si X , representa el nmero deocurrencias d e algn evento dentro de un volumen especificado V , entonces E ( X , ) = AV y, por lo tanto, X = [ E ( X , ) / V representa la densidad esperada con la cual aparecen las estrellas. c) Es importante seialar que nuestra exposicin en la seccin 8.3 no se refiri slo a una variable aleatoria X que posee una distribucin d e Poisson, sino que para cada t > O, encontramos que X t tena una distribucin de Poisson con un parmetro dependiente de t . Tal coleccin (infinita) de variables aleatorias tambin se conoce como proceso de Poisson. (De igual forma, se genera

8.3

El proceso de Poisson

223

un proceso de Poisson cada vez que ocurre un evento en algn intervalo de tiempo de modo que se satisfagan las hiptesis Al hasta As.) De manera anloga podemos definir un proceso de Bernoulli: si XI, Xz, . . . , X , , . . . son los nmeros de ocurrencias de eventos en 1 , 2 , . . . n, ensayos de Bernoulli, entonces la coleccin de variables aleatorias X I ,. . . X,, . . . se llaman proceso de Bernoulli.

EJEMPLO 8.5. Una complicada maquinaria, cuando funciona perfectamente, puede producir una utilidad d e C: dlares por hora (C > 2) a una compaa. Sin embargo, esta mquina tiene una tendencia a fallar en momentos inesperados e impredecibles. Supngase que el nmero d e fallas durante cualquier periodo de longitud t horas es una variable aleatoria con una distribucin de Poisson con parmetro t . Si la mquina falla x veces durante t horas, la prdida ocasionada (la improductividad d e la mquina ms la reparacin) e s igual a ( x 2 x) dlares. Luego, la utilidad total P durante cualquier periodo de t horas es igual a P = Ct - ( X 2 X ) , donde X es la variable aleatoria que representa el nmero de fallas de la mquina. Por tanto:, P es una variable aleatoria, y podra ser interesante elegirt (lo que est a nuestra voluntad)d e manera tal que la utilidud esperudu sea maximizada. Tencmos

E ( P ) = Ct - E ( X 2 + X ) .
Segn el teorema8.1 encontramos que E ( X ) = t y E ( x ~ > = t (t>2. Luego se deduce que E( P ) = Ct - 2t - t 2 . Para encontrar el valor de t , para el cual se maximiza E( P ) , difcrenciamos E ( P ) e igualamos a cero la expresin resultante. Obtenemos C - 2 - 2t = O, obteniendo t = f ( C - 2) horas.

EJEMPLO 8.6. Sea S t igualal nmero dc partculasemitidas por una fuente radiactiva durante un intervalo de tiempo de longitud t. Supngase queXt tiene una distribucin de Poisson con parmetro at. Se instala un instrumento para anotar el nmero de partculas emitidas. p d e q u e cualquier Supngase que hay una probabilidad constante partcula emitida no se cuente. Si Rt es igual al nmero de partculas contadasdurante el intervalo especfico, ?cul es la distribucin d e probabilidades d e Rt? Para X1 = x da&, la variable aleatoria ,Rt tiene una distribucin binomial con base enx repeticiones con parmetro (1 - p ) . Esto es,

224 La variable aleatoria de Poissott y otras variables aleatorias discretas

8.1

Usando la f6rmula d e la probabilidad total, (Ec. 3.4), tenernos

Sea i = X

k . Entonces,

P(R2 = IC) =
k pfft

A s encontramos que Rt tiene una distribucin d e Poisson con parmetro (1 - p ) a t .

8.4 La distribucidn geomdtrica

Supngase que efectuamos un experimento E y que estamos interesados slo en la ocurrencia o no ocurrencia de algn evento A . Supngase, como en la presentacin d e la distribucin binomial, que repetidamente efectuamos E, que las repeticiones son independientes y que en cada una de ellas P ( A ) = p y P ( A C ) = 1 - p S q permanecen constantes. Supngase que repetimos el experimento hasta que A ocurre por priInera vez. (Aqu nos apartamos d e las hiptesis que conducen a la distribucin binomial. All el nmero de repeticiones era predcterminado, mientras que aqu es una variable aleatoria.) Definamos la variable aleatoria X como el nmero de repeticiones necesarias hasta incluir la primera ocurrencia de A. As, S toma los

8.4

geomtrica La distribucin

225

valores posibles 1 , 2 , . . . Puesto que X = si y slo si las primeras ( k - 1 ) repeticiones d e E producen A', mientras quela k-sima da por resultado A, tenemos

P ( X = k ) = qk-'p,

k = 1 , 2 , ...

(8.5)

Se dice que una variable aleatoria con una distribucin d e probabilidades, ecuacin (8.5), tiene una distribucingeomtrica. Un clculo sencillo indica que la ecuacin (8.5) define una distribucin de probabilidades legtimas. Obviamente tenemos P ( X = k ) 2 O. Y
C P ( X = k ) = p ( l + q + q 2 +"=p
k=l
m

[&]

= l.

Podemos obtener el valor esperado deX como sigue.

E(X)=

CO

kpqk-l = p

C O d k
k=l

;Q

k=l

(El intercambio de derivadas y sumatorias se-iustifica aqu puesto quela serie converge para /qI < 1.) Un clculo simlilar muestra que V ( X ) = q / p 2 . (Nuevamente obtendremos los dos resultados en el captulo 10, usando un planteamiento distinto.) Para resumir lo anterior, tenemos el teorema siguiente.
Teorema 8.3. Si S tiene una distribucin geomtrica como se da en la ecuacin (8.5),
E ( S )= l / p y

V ( X ) =: q / p 2 .

Observacin: El hecho de que E ( X ) sea el recproco de p es interesante intuitivamentc, puesto que dice que con valores pequeos de p = P ( A ) se necesitan muchas repeticiones para que ocurra A,.

EJEMPLO 8.7. Supngase que el costo d e efectuar un experimento es $1000. Si el experimento falla, se incurre en un costo adicional de

226 La variable aleatoria de Poisson y otras variables aleatorias discretas

8.4

$300 debido a ciertos canlbios que deben efectuarse antes de que se intente un nuevo experimento. Si la probabilidad d e xito en cualquiera d e los ensayos es 0.2, si los cnsayos aislados son independientes y si los experimentos continan hasta que se obtiene el primer resultado exitoso, ?cuA es el costo espcrado del procedimiento completo? Si C es el costo y S el ntmero de ensayos necesarios para obtener ixito, tencmos que C = 1000X 300(X - 1) = 1300X - 300. Por tanto,

E ( C ) = 1300E(X) - 300 = 1300-

1 O .2

300 = $6200.

EJEMPLO 8.8. En cierta regin, l a probabilidad de que ocurra una tormenta con truenos en un da cualquiera durante mcses dos de verano es igual a 0.1. Suponiendo la independencia de un da con otro, ?cu,il es la probabilidad de que l a primera tormenta con truenos del verano ocurra el da 3 del segundo mes? Hagamos X el nmero de das (empezando el 1 del primer mes hasta l a primera tormenta y buscamos P(,Y = 34), l a cual es igual a (0.9)33(0.1) = 0.003. EJEMPLO 8.9. Si la probabilidad de que cicrto examen d una reacl a probabilidad de que ocurran menos cin positiva igual 0.4, a cul es d e 5 reacciones negativas antes d e la primera positiva? Haciendo que Y sea el nmcro de reacciones negativas antes d e la primera positiva, tenemos

P(Y
Luego,

k ) = (0.6) (0.4),

k = O, 1 , 2 , . . .

P(Y

. ( 5)

= C ( 0 . 6 ) ( 0 . 4 ) = 0.92.
k=O

Obsemacww Si X tiene una distribucin geomtrica como la descrim en la ecuacin (8.5) y si hacemos Z = X - 1, podemos interpretar a 2 como el nmero defallas q u e preceden al primer xito. Tenemos queP ( Z = k) = q k p , k = O , 1 , 2 , .. ., donde p = P(xito) y q = P(fal1a).
L a distribucin geomtrica tiene una propiedad interesante que se resume en cl teorema siguiente.

8.5

Pascal

de La distribucidn

227

Teorema 8.4. Supngase que X tiene una distribucin geomtrica dada por la ecuacin (8.5). Entonces para dos enteros positivos cualesquiera S y t ,

P(S2

+t I x >

S)

= P(X

2 t).

Demostracidn: Vase el problema 8.18.


Obseruaciones: a ) El teorema anterior indica que la distribucin geomtrica no tiene memoria en el sentido siguiente. Supongamos que el evento A n o ha ocurrido durante las primeras repeticiones d e E . Entonces, la probabilidad de queno ocurra durante las pximas t repeticiones es la misma que la probabilidad de que no ocurra durante las primeras t repeticiones. En otras palabras, la informacin d e ningiln xito es olvidada en lo que se refiere a crilculos subsecuentes. b ) El recproco del teorema anterior tambin es cierto: si la ecuacin (8.6) es vlida para una variable aleatoria que toma slo .valores positivos, entonces la variable aleatoria debe tener una distribucin geo:mtrica. (No demostraremos esto aqu. Se puede encontrar tal exposicin en. An Introduction to Probability Theory and Its Applications, d e Feller, John Wiley and Sons, Inc., 2a. ed., Nueva York, 1957, p5g. 304.) c) En el captulo siguiente observemos que existe una variable aleatoria continua con una distribucin que posee una propiedad anlogaa la ecuacin (8.6),es decir, la distribucin exponencial.

EJEMPLO8.10. Supongamos que un mecanismo se inspecciona alfinalizarcadadaparaver si an funcionaadecuadamente. Sea p = P [falla durante cualquier da dado]. Por tanto, si X es el nmero de inspecciones necesarias para obtener la primera falla, X tiene una distribucin d e probabilidad geomtrica y tenemos P ( X = n ) = (1 De igual manera, (1 - ~ ) ~ - = p P[el artculo se encontrar que ha fallado en la n-sima inspecciny no enla ( n - 1)-sima inspeccin]. El valor mximo d e esta probabilidad se obtiene resolviendo

p.

Esto da
p( - 1)(1- p)-2(-1)

+ (1

--

p y - = 0,

lo que equivale a

228 La variable aleatoria de Poisson y otras variables aleatorias discretas


(1 - p)"
[(l- p )
(11

8.5

- l)p] =

o,

d e la cual obtenemos p = l / n .

8.5 La distribucin de Pascal


Si planteamos la siguiente cuestin, surge una generalizacin obvia d e la distribucin gcomtrica. Supongamos que un experimento se contina z4ocurre por r-simavez. Si hasta que un evento particular

P(A)=p ,

P(.4")= q = 1 - p

en cada una de las repeticiones, definimos la variable aleatoria Y como sigue.

Y es el nmero de repeticiones necesarias para que A ocurra exactamente T veces.


Necesitamos l a distribucin d e probabilidades d e Y . Debe ser evidente que si r = 1, Y tiene la distribucin geometrica dada por la ecuacin Ahora Y = k si y slo si A ocurre en la k-sima repeticin y precisamente A ocurri ( T - 1) veces en las ( k - 1) repeticiones previas. La probabilidad d e este evento es simplemente p (:It) p r - l q k - r , puesto las primeras (IC - 1) repeticiones es independiente que lo que sucede en d e lo que sucede en l a k-sima repeticin. Luego,
(S.5).

Es muy sencillo ver que para r = 1, lo anterior se reduce a la ecuacin (8.5). Una variable aleatoriaque tenga una distribucind e probabilidades dada por la ecuacin (8.7) tiene una distribucin d e Pascal.
Obseroacidn: La distribucin de Pascal tambin se conoce como distribucin binomial negativa. La razn de esto es que a l verificar la condicin

P(Y = k ) = 1 obtenemos

8.6

Relacift entre l a s distribuciones binomial y de Pascal

229

lo cual obviamente es igual a 1. L a ltima igualdad del desarrollo en serie de


0 0

(1 - *)-

=
n=O

(- r ) ("In,
n

que es igual a

despus de algunas simplificaciones algebraicas y recordando la definicin del coeficiente binomial (generalizado) (ver la Obscrvacin antes del Ej. 2.7). Debido al exponente negativo ( - r ) en la cxpresi'n anterior, esta distribucin se llama distribucin binomial negativa. Para calcular E ( Y ) y V(Y) podemos proceder directamente, tratando de calcular las diversas sumas, o bien podemos proceder de la siguiente manera. Sean
2 1= nilmero de repeticiones necesarias hasta incluir la primera

ocurrencia deA. Z2= nmero de repeticiones necesarias entre la primera ocurrencia d e A hasta incluir l a segunda ocurrencia de'4.

cada una d e las cualestieneunadistribucitingeomtrica.Tambin, Y = Z1 +. -S&.. Por tanto, usando el teorema 8.3, tenemos el siguiente teorema.

2 ,= nmero de repeticiones necesarias entre la ( r - 1) ocurrencia hasta incluir la r-sima d e A . A s vemos que todas las 2;son variables aleatorias independientes,

Teorema 8.5. Si E' tieneunadistribucitjn ecuacin (8.7), entonces,

d e Pascal dada por la

EJEMPLO 8.1 1. La probabilidad de que un experimento sea exitoso es 0.8. Si el experimento se repite hasta que ocurran cuatro resultados

230 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.7


exitosos, (cul es el nmero esperado de repeticiones necesarias? De lo anterior, tenemos E (nmero de repeticiones)= 4/0.8 = 5.

8.6 Relacin entre las distribuciones binomial y de Pascal


Sea X una distribucin binomial con parmetros n y p (es decir, X = nmero de xitos en n ensayos d e Bernoulli con P(@xito) = p). Sea Y una distribucind e Pascal conparmetros r y p (es decir,E = nmero de ensayos d e Bernoulli necesarios para obtener T xitos con P(xito)= p). Por tanto, se establece la siguiente relacin:

a ) P ( Y 5 n) = P ( X 6) P(Y

> n.) = P ( X

2r), < r).

Demostrucin: a) Si hay r o ms xitos en los primeros n ensayos, entonces es necesario n o menos ensayos para obtener los primeros r xitos. 6) Si hay menos que r xitos en los primeros n ensayos, entonces se necesitan ms d e n ensayos para obtener r kxitos.
06servacwnes: a ) las propiedadesanteriores hacen posible el empleo d e la distribuci6n binomial tabulada para evaluar probabilidades asociadns con la distribucin d e Pascal. Por ejemplo, supngase que deseamos calcular la probabilidad de que m& d e diez repeticiones sean necesarias para obtener el tercer xito cuando p = P(txito) = 0.2. Tenemos, usando la notacin anterior para X y 17,

P ( Y > 10) = P ( X < 3) =

k=O

(~ ) ( 0 . 2 ) k ( 0 . 8 ) 1 0 -= k 0.678

(de la tabla del Apndice). 6) Comparemos en forma brevel a s distribuciones binomial y de Pascal. En cada uno de los casos, nos interesan los ensayos repetidos de Bernoulli. La distribucin binomial aparece cuando consideramos un nmero fijo (digamos n ) d e tales ensayos yestamos interesados en el nmero dexitos que ocurren. La distribucin de Pascal se encuentra cuando prefijamos el nmero de xitos que debemos obtener y luego anotamosel nmero de ensayos d e Bernoulli necesarios Esto cs particularmente litil para el problema estadistico que presentaremos con mayor detalle ms adelante (Vase el Ej. 14.1).

8.7

La distribucin hipergeomtrica 23 1
~

8.7 La distribucidn hipergeomktrica

Supngase que tenemos un lote de N artkulos, de los cuales r son defectuosos y ( N - r ) son no defectuosos. Supngase que escogemos al azar n artculos del lote ( n 5 N ) , sin reposicin. Sea X el nmero X = k si y slo si de artculos defectuosos encontrados. Puesto que obtenemos exactamentek artculos defectuosos(de los r defectuosos del los ( N - T ) no defectuosos lote) y exactamente ( n- k ) no defectuosos [de del lote], tenemos

Se dice que una variable aleatoria discreta que tiene la distribucin de probabilidades d e la ecuacin (8.9) tiene una distribwin hipergeorntrica.
Obseroacwn: Puesto que = O cada vez que b > a , si a y b son enteros no negativos podemosdefinir las probabilidades anteriores para toda k = O, 1 , 2 , . . . Obviamente no podemos obtener ms que r defectuosos, pero la probabilidad cero ser asignada en ese evento segnla ecuacin (8.9).

(z)

EJEMPLO 8.12. Se embarcan motores elktricos pequeos en lotes de 50. Antes que aceptartal cargamento, un inspector elige 5 motores y los inspecciona. Si ninguno de ellos es defectuoso, el lote se acepta. Si se encuentra que uno o ms son defectuosos, se inspecciona el cargamento completo. Supongamos que en realidad hay tres motores defectuosos en el lote. ?CuA es la probabilidad de que S(: rcquiera una inspeccin del 100%. Si hacemos que x' sea el nmero de motores defectuosos encontrados, se necesitar una inspeccin del 100% si y slo si X 2 1. Luego,

Teorema 8.6. Sean X una distribucin hipergeomtrica dada por la ecuacin (8.9) y p = r / N , q = 1 - p . Entlonces tenemos

232 La variable aleatoria de Poisson y otras variables aleatorias discretas


a)

8.8

E ( X )= np;

c ) P ( X = IC)

(;)

p k ( l- p

Para N g r a n d e .

Demostmcidn: Dejaremosallector (Vease el Prob. 8.19.)

los detalles de la demostracin.

Obseruacwn: La propiedad c) del teorema 8 . G establece que si el tamao N del lote es suficientemente grande, la distribucin d e X puede ser aproximada por la distribucin binomial. Esto es razonablemente intuitivo. La distribucin binomial se aplica cuando muestreamoscon sustitucin (puesto que en ese caso la probabilidad de obtener un artculo defectuoso permanece constante), mientras que la distribucin hipergeomtrica se aplica cuando muestreamos sin sustitucin. Si el tamao del lote es grande, no hay gran diferencia si un articulo en particular se devuelve o no al lote antes d e escoger el siguiente. LA propiedad c ) del teorema8.6 es simplemente una expresin mntem5tica d e ese hecho. Ntese tambin que elvalor esperado de unavariable aleatoria hipergeomtrica , Y es el mismo que el de la variable aleatoria correspondiente distribuida binomialmente, mientras quela varianza d e X es un poco m5s pequea que la correspondiente en el caso binomial. El trmino de correccin ( N - n ) / ( N - 1) es aproximadamente igual a 1, para un N grande.
Podemos ilustrarel significado de c) con el siguiente ejemplo sencillo. Supngase que queremos evaluar P ( X = O). Para n = 1 obtenemos, de la distl-ibucin hipergeomi.tl-ica, P ( S = O) = ( N = 1 - r / N = q. De la distribucin binomial obtenemos directamente P ( S = O) = Q. Por tanto estas respuestas son las mismas, como deberan ser e n efecto, para n = 1. Para n = 2 o b t e n e m o s d ela distribucicin hipergeomtrica,

.)/N

N-rN-r-1 P ( X = O) = N N-1

= (1
. ,

$) (1 &).
-

De l a distribucin binomial obtenemos P ( X = O) = q2 . Debe observarse q u e (1 - r / N ) = ( 1 ,mientras q11e [I - Y/( N - I)] es casi igual a q.

8.8

multinomial La distribucidn

233

En general, la aproximacin d e la distribucin hipergeomtrica mcdiante la distribucin binomial es muy buena si n / N 5 0.1.

8.8 1 . u distribucin multinomial


4,*

Finalmente consideremos una variable aleatoria discreta importante de mayor dimensin que se puede concebir colmo una generalizacin d e la distribucin binomial. Consideretnos un experimento E , su espacio muestra1 S y una particin de S en k eventos mutuamente excluyentes A l , . . . ,Al,. (Es decir, cuando se efecta E uno y slo uno de los eventos A ; ocurre.) Considrese n repeticiones independientes de E . Sea p; = P ( A ; ) y supngase que p ; permanece constante durante todaslas I; repeticiones.Desdeluegotenemos p ; = 1. Definamos las variables aleatorias X I , . . . ,XI, como sigue. X; es el nmero de veces que A; ocurre cntre las n repeticiones d e E , i = 1,...,IC. Las X; no son variables aleatorias independientes, puesto que X; = n. Entonces,tanprontocomo el valor decualquierade las ( k - 1) variables aleatorias es conocido, se determina el valor d e la otra. Tenemos el resultado siguiente.
Teorema 8.7.

Si X;, i = 2,. . . ,k estn definidas como antes, tenernos

donde

n.; = n.

Demstracidn: El argumento es idntico al utilizado para establecer las probabilidades binomiales. Simplemente debemos observar que el n h n e r o d emaneras de agrupar n objetos, rill d e los cuales son de una clase, . . . ,nk de los cuales son clase, n2 d e los cuales son de una segunda de unab-sima clase, est dado por
n!
n l ! .f . nl,!

Obseruuciones: a) Si k = 2, lo anterior se reduce a la distribucin binomial. En este caso designamos los dos eventos posibles con xito y fracaso.

234 La oariable aleatoria de

Poisson y otras variables aleatorias discretas

b) LA distribucin anterior se conoce como distribucin multinomial de f)ruDabiZidmfes. Recordemos que los trminos de la distribucin binomial sc obtuvieron del desarrollo de la expresin binomial [ p + (1 - p ) l n = E;=, (:) p'(1 De manera anloga, las probabilidades anteriores puedcn olJtcnersc de un desarrollo de la expresin multinomial
(p1

+ +. .+
*

Teorema 8.8. Supngase que ( S I ) . . . , tiene una distribucin binonlial dada por la ecuacin (8.10). Entonces,

S,)

E ( s ; ) = npi

y V ( X ; ) = np;(l - p i ) ,

i = 1 , 2 , . . . ,b.

Denzosll-acin: esta es una consecuencia inmediata d e la observacin que cada S i , como se defini antcriormcnte, tiene una distribucin binomial con probabilidades de xito (es decir, la ocurrencia deA ; ) igual
a pi.

EJEMPLO 8.13. Se fabrica unabarra de un largo especfico. Supngase que el largo verdadero S (en pulgadas) es una variable aleatoria distribuida uniformemente en [lo, 121. Supngase que slo nos interesa los tres eventos siguientes: saber si ha ocurrido uno de
Al = {X < 10.5), Tenemos A2 = (10.5

5 S 5 11.8) y

A3 =

{ S > 11.8).

A s , si sc !&brican 10 d e tales barras, la probabilidad de obtenerexactamentc 5 barras de longitud menor que 10.5 pulgadasy exactamente 2 de longitud mayor que l l . S pulgadas esti dada por
10! (0.25)5(0.G5)3(0.1)2 5!3!2!

PROBLEMAS
8. l. Si , X Licnc u n a distribuci6n de Poisson con parhrnetro p y si P ( X = O) = 0.2, calcular P ( S > 2).

Problemas

235

8.2. Supngase que S tiene una distribucin d e Poisson con parsmetro X.Encontrar el valor d e k para el cual P ( X = k ) es la mayor. [Zndkacih: Comparar P ( S = k ) con P ( X = k - I).]
8.3. (Este problema se tom d e Probability and Statistical Inferencef o r Engineers por Derman y Klein, Oxford University Press, Londres, 1953.) El n6mero d e buques tanque digamos N , que llegan cada da a cierta refinera tiene una distribucin de Poisson con parsmetro X = 2. Las actuales instalaciones portuarias pueden despachar tres buques al !Si da. m5s de tres buques-tanque llegan en un da,los restantes deben enviarsea otro puerto.

a ) En un da detcrminado, Zcuril es la probabilidad de tener que hacersalir buques-tanque? b ) ?En cu5nto t l e k n aumentar las instalaciones actuales para permitir la atencin a todos los buques-tanque aprosinmdamente el 90% de los drls? c) Curil es el nmero esperado de buques-tanque quellegam al da? d ) ?Cui1 es el nmero mis probable de buques-tanque que llegan diariamente? e ) ?Cui1 es el nmero esperado de buques-tanque que se atienden diariamente? J) ZCuA es el nmero esperado d e buques-tanque devueltos cliariamente?
8.4. Suponer qne la probabilidad de que un artculo producido por una mquina especial sea defectuoso es igual a 0.2. Si 10 artculos se seleccionan al azar, ?cul es la probabilidad de que no sc encuentre mris de un artculo defectuoso?Usar las distribucionesbinomial y de Poisson y comparar Ins respuestas. 8.5. Una compaa d e seguros ha descubierto que slo alrededor del 0.1% de la poblacin tiene cierto tipo d e accidente cada mo. Si los 10 O00 asegurados fileran seleccionados aleatoriamente en la poblacitjn, Zcuril ser la probabilidad de queno m& d e 5 d e estos clientes tenga un accidente d e ese tipo el prximo ao? 8.6. Supngase queX tienc una distribucin de Poisson. Si

P ( S = 2) = $P(X= l ) ,
calcular P ( X = O) y P ( S = 3).
8.7. Un proveedor d e pelculas produce al aiio 10 rollos d e pelcula especialmente sensible. La pelcula debe descartarse si no se vende dentro del ao. Experiencias anteriores indican que D , la demanda (pequea) para la pelcula es una variable aleatoria con distribucind e Poisson con parmetro 8. Si se obtiene unautilidad de $7 en cadarollo vcndido, mientras que ocurre una prdida de$3 en cada rollo que debe ser descartado, calcular la utilidad esperada que el fabricante puede obtenercon los 10 rollos que produce.

236 La variable aleatoria de Poisson y otras variables aleatorias discretas


8.8. Supngase que una fuente radiactiva emite partculas y que el nmero d e tales particulas emitidas durante el periodo de una hora tiene una distribucin d e Poisson con parmetro X. Se emplea un instrumento para contar y anotar el nilmero d e las partculas emitidas. Si ms d e 30 partculas llegan durante cualquier periodo de una hora, el instrumento que anota es incapaz d e controlar el exceso y simplemente anota 30. Si Y es la variable aleatoria definida como el nmero particulas de anotadas por el instrumento que cuenta, obtener la distribucin d e probabilidades d e Y .

8.9. Supngase que una fuente radiactiva emite partculas y que el nmero d e las que se emiten durante un periodo de una hora tiene unadistribucin de Poisson con parmetro X. Consideremos que el instrumento para contar esas emisiones en ocasiones falla al anotar una partcula emitida. Supngase especficamente que cualquier particula emitida tiene una probabiliclad p de ser anotada.

a ) Si Y est definida como el nmero de partculas anotadas, ?cul es una expresin para I s distribucin d e probabilidades de Y ? b ) Calcular P ( Y = O) si X = 4 y p = 0.9.
8.10. Suponer qne un depsito contiene 10O00 partculas. La probabilidad de que una de esas partculas salga del depcisito es igual a 0.0004. ?Cul es la probabilidad d e que ocurran in& d e 5 salidas? (Puede suponerse que Ins diversas salidas son independientesunas d e otras.)
8.1 1. Supngase que unlibro d e 585 pginas contiene 43 errores tipogrrificos. Si esos errores estn distribuidos aleatoriamente alo largo del libro, cul es la probabilidad de que 10 pginas seleccionadas al azar estnlibres de errores? [Sugerencia: Suponer que X = nmero de errorespor pgina tiene una distribucin de Poisson.]

8.12. Una fuente radiactiva se observa durante 7 intervalos cada uno de 10 segundos d e duracin y se cuenta el nmero de particulas emitidas durante cada periodo. Suponer que el nilmero de partculas emitidas, digamos X , durante cada periodo observado tiene una distribucin d e Poisson con parmetro 5.0 (es decir, las partculas se emiten a razn de 0.5 partculas por segundo).

a ) ?Cul es la probabilidad de que en cada uno de los 7 intervalos d e tiempo, se emitan 4 o ms partculas? b ) ?Cul es la probabilidad d e que al menos en uno de los 7 intervalos d e tiempo se emitan4 o ms partculas?
8.13. S e ha encontmdo que el nirmero d e fallas de transistores en un comput d o r electrnico en cualquier periodo de una hora se puede considerar como una variable aleatoriaque tiene una distribucind e Poisson con parnletro O . 1 (es decir, en promedio hay una hlla de un transistor cada 10 hora..). Se inicia cierto proceso que necesita 20 horas d e tiempo de cmputo.

Problemas

237

a) Encontrar la probabilidad de que el procescb anterior pueda completarse exitosamente sin una falla. (Sesupone que la mquina se considera inoperante slo si fallan 3 o ms transistores.) 6) Lo mismo q u e en a), excepto que la mquina se considera inoperante si fallan 2 o ms transistores.

8.14. Al formar nmeros binarios con n dgitos, la probabilidad de que aparezca un dgito incorrecto es, digamos, 0.002. Si los errores son independientes, Ccul es la probabilidad de encontrar cero, uno o ms de un dgito incorrecto en un nmero binario de 25 dgitos? Si el computador forma lo6 de tales nmeros de 25 dgitos por segundo, ?cul es la probabilidadde que se forme un nmero incorrecto durante cualquier periodo de un segundo?

8.15. Cada semana se emplean dos procedimientos independientes en la operacin de lanzamiento de cohetes. Supngase que cada uno de los procedimientos se contina hasta que se produce un lanzamiento exitoso. Se supone que al usar el procedimiento I, P ( S ) , la Probabilidad de un lanzamiento exi. toso es igual aP I , mientras que para el procedimiento 11, P ( S ) = ~ 2 Adems, se suponeque cada semana se hace un intento con cada uno de los dos mtodos. Representar con X1 y X2 el nmero de semanas necesarias para obtener un lanzamiento exitosopor medio de I y 11, respectivamente. (Luego, X1 y S 2 son variables aleatorias independientes, cada una con distribucin geomtrica.) Sea W el mnimo (X,, X2) y sea Z el mximo (XI, X2). Por tanto, W representa el nmero de semanas necesarias para obtener un lanzamiento exitoso, mientras que 2 representa el nilmero de semanas necesarias para obtenerlanI zamientos exitosos con ambos procedimientos. (Entonces si procedimiento el da como resultado S S S S , mientras que el procedimiento I1 da como resultado SSS, tenemos W = 3 y 2 = 4.)
[Indicacio'n: Expresar, en trminos de X 1 y Xp, el evento {W = k}.] 6) Obtener una expresin para la distribucin de probabilidades de 2. c) Escribir nuevamente a l s expresiones anteriores si p l = p 2 .
a)

Obtener una expresin para la distribucin de probabilidades de I.V.

8.16. Se arman cuatro componentes en un s o b aparato. Los componentes i = P(i4simo componente es defectuoso), originan hentes independientes y P i = 1,2,3,4. a) Obtener una expresin de la probabilidad para que el aparato completo funcione. 6) Obtener una expresin de la Probabilidad para que al menos tres componentes funcionen. C) Sip1 = p2 = 0.1 yp3 = p4 = 0.2, calcular la probabilidadde que funcionen exactamente dos componentes.
8.17. Un mecnico mantiene un gran nmero de arandelas en un depsito. El 50%de stas sonde pulgada de dimetro, el 30%de & pulgada de dimetro

238 La variable aleatoria de Poisson y otras variables


y el 20% restante d e diez arandelas.

aleatorias discretas

$ pulgada d e dimetro.

Se supone que se eligen al azar

a) ?Cul es la probabilidad de que haya exactamente cinco arandelas de pulgada, cuatro de de pulgada y una d e d e pulgada? b ) ? C d 1es la probabilidad de que slo haya dos clases d e arandelas entre las elegidas? c) CuA es la probabilidad de quelas tres clases d e arandelas estn entre las elegidas? d) ?Cul es la probabilidad de quehaya tres de unaclase, tres de otra clase y cuatro d e la tercera clase en unamuestra d e 1O?

8.18. Demostrar el teorema 8.4.


8.1 9. Demostrar el teorema 8.6

8.20. El nilmero d e particulas emitidas por una fuente radioactiva durante un periodoespecfico es una variable aleatoria conuna distribucin d e Poisson. Si la probabilidad d e ninguna emisin es igual a ?cul es la probabilitlatl de que ocurran2 o mjs emisiones?

4,

8.21. Supngaseque S t , el nlimero de partculas emitidasen t horas por una fuente radiactiva, tiene una distribucin de Poisson con parmetro 20 1. ? C u d es la probabilidad de que exactamente 5 particulas sean emitidas durante un periodo de 15 minutos? 8.22. La probabilidad de que el lanzamiento de un cohete sea exitoso es igual a 0.8. Supngase que se hacen ensayos hasta que ocurren3 lanzamientos esitosos. ?CuA es la probabilidad de quesean necesarios G intentos? ?Cul es la probabilidad de quesean necesarios menos d e 6 intentos? 8.23. En la situacin descrita en el problema 8.22 suponer los que ensayos d e lanzamiento se hacen hasta que ocurren tres lanzamientos consecutivos exitosos. Responder las preguntas formuladas en el problema prek' '10 en este caso. 8.24. Considrese nuevamente la situacitjn descrita en el problema 8.22. Supringase que cada uno de los ensayos de lanzamiento cuesta$5000. Ademris, un lanzamiento que fracasa produce un costo adicional d e $560. Calcular el costo esperado para la situaci6n descrita. 8.25. Con X y Y definidas como e n la seccin 8.6, probar o r e f b t r lo siguiente: P ( Y < 72) = P ( X > Y)

9.1 Introduccin
En este captulo proseguiremos la tarea que nos planteamos en el captulo 8, y estudiaremos con detalle diversas variables aleatorias continuas importantes y sus caractersticas. Como sealamos antes, muchos problemas se hacen matemticamente mssencillos alconsiderar un recorrido "idealizado" para una variable aleatoria X , en el cual todos los nmeros realesposibles (en algn intervalo eslpecfico o conjuntos de intervalos) pueden considerarse como resultados posibles. De esta manera llegamos a las variables aleatorias continuas. Muchas de las variables aleatorias que ahora presentaremos tienen aplicaciones importantes y diferiremos hasta un captulo posterior la exposicibn d e algunas de sus aplicaciones.

9.2 La distribucin normal


Una de las variables aleatorias continuas ms ]notables esla siguiente.
Definicin. Lavariablealeatoria X, quetomatodos los valores 0 ,tiene una distribucin normal (o gaussiana)si reales, "o0 < x < 0 su fdp es de la forma

240 Algunas variables aleatorius continuas importantes

9.3

Los parmetros p y u deben satisfacer las condiciones -m < p < > O. Puesto que tendremos diversas ocasiones para referirla notacin siguiente:Anos a la distribucin anterior, utilizaremos tiene la distribucin N ( p , u 2 )si y slo si su cfistribucicin de probabilidades est dada por la ecuacin (9.1). [Con fkecuencia usamos la notacin exp ( t ) para representar E t . ]
m, u

Ser hasta el captulo 12 donde se exponga el porqu de la gran importancia de esta distribucin. Ahora simplemente indicaremos que la distribucin normal sirve como u n a afiroximucin excelente a una grun cantidad de distribuciones que tienen importancia prctica. An ms, esta distribucin tienevarias propiedades matemticas apreciables que hacen posible deducir resultados tericos notables.

9.3 Propiedades de la distribucin normal


a)

Comprobemos que f es una fdp legtima. Evidentemente f(x) 2 O. Adems debemos verificar que S_'," f(z)dx = 1. Notemos que si t =

(x - p ) / u , podemos escribirS_'," f ( z ) d z como (1/&) S ,- +m ,-t2 12 dt = I. El "truco" utilizado para evaluar esta integral (y esto es un truco) es considerar, en ves d e I, el cuadrado de esta integral, llamada 12. A s ,

Introduzcamos coordenadas polares pa.ra evaluar esta integral doble:


S

= r cos C Y , t = r sen CY .

Luego, el elemento d e drea ds dt se transforma en T d r da. Como S y t varan entre -m y +m, r vara entre O y m,mientras que a vara entre O y 2r. As,

9.3

Propiedades de la distribucin normal

241

X=p

Por lo tanto,I = 1 como se iba a demostrar.

FIGURA 9.1

b ) Consideremos la forma d e la grfica d e f . Tiene la muy conocida forma de campana que se muestra enl a figura 9.1 Puesto quef depende a de slo d e x niediante la expresin (x - ,u)?, es evidente que la grf 1ca f ser simdtrica, respecto a p. Por ejemplo, si x = p 2, (x - p )2 = (p 2= 4, mientras que parax = p - 2, (:z- p ) 2 = ( p - 2 - p )2 = 4 tambin. El parmetro (T puede interpretarse en forma geomtrica. Observemos que para 2 = IL la grfica d e f es cnciava hacia abajo. Cuando x -+ f m , f ( x ) -+ O, asintticamente. Puesto que f(x) >_ O para todo 1 x, esto significa que para grandes valores de x (positivos o negativos), la grfica d e f es cncava hacia arriba. El punto en el cual cambia la concavidad se llama punto de inflexin y se determina al resolver la ecuacin f(x) = O. Cuando hacemos esto, encontramos que los puntos d e inflexin ocurren en x = p f u. Esto es, cr unidades a la derecha y a l a izquierda d e p , la grfica d e f cambia d e concavidad. As, si (T es relativamente grande, la grfica d e f tiende a ser achatada, mientras que si (T es pequefia la grfica d e f tiende a ser muy aguzada.

c) Adems d e la interpretacin geomtrica d e los parmetros p y o, el siguiente significado 131-obabilstico o import-ante puede asociarse con esas cantidades. Consid6rese

Haciendo z = (x - / / . ) / yaobservando que dx = (T d z , obtenemos

242 Alg~rnas variables aleatorias continuas importantes

9.3

L a prilnera de las integrales anteriores es igual a cero puesto que el illtcgrando, 1lanli.moslo g ( z ) , tiene la propiedad de que g ( z ) = " ~ ( - 2 ) y, por lo tanto, g es una funcin impar. La segunda integral (sin el [actor 1 1 ) rcprescnta el rirca total bajo la fdp normal y, por lo tanto, es igual a la unidad. Luego, E ( S ) = p . A continuaci6n consideremos

Haciendo nuevamente,

= (x - p ) / ~obtenemos ,

Nuevamente, la segunda integral es igual a cero por el argumento antes usado. La ltima integral (sin el factor p 2 ) es igual a la unidad.

= dv y z = u. Luego, v = do Se obtiene

Para calcular (1 /JZ;;>

S_'," z2e-z2/2

dt, integramos

por partes haciendz = d u .

mientras que

Luego E ( . x ~ >= cr2 p 2 , por tanto, V(X> = E ( . Y ~ > - (E(s))~ = 02 . As encontramos que los dos parmetros p 2 y 02,que caructerizun la distribucidn nornzul son la esperanzu y la van'anza de X, resllectivamente. Para decirlo con otras palabras si sabemos que X est5 distribuido normalmente, slo

9.3

Propiedades de i'a distribucin normal

243

sabemos que s u distribucin d e probabilidades es d e cierto tipo ( o pcrtenece a cierta familia). Si adems conocemos E ( S ) y V(X), la distribucin de X est especificada por completo. Como mencionamos antes, la grfica d e la fdp de una variable aleatoria distribuida normalmente es simtrica respecto a p , El achatamiento d e la grfica se determina por 02, puesto quesi X tiene una distribucinN ( p , o:) y Y tiene distribucin N ( p ,o;), donde o : > o;, entonces sus fdp tendran las formas relatizm que se muestran en la figura 9.2.

FIGURA 9.2 d ) Si X ticncunadistribucin N ( 0 , l ) decimos que X tiene una distribucin nomal estundarizadu. Esto es, la fdp de X puede escribirse como

(Usaremos la letra 'p slo para la f d p d e la variable aleatoriaX anterior.) L a importancia de la distribucin normal estandarizada se debe a l hecho de que esta tubuludu. Cada vez que X tiene una distribucin N ( p , a 2 ) siempre podemos obtenerla forma estandarizada tomando simplemente una funcin lineal d e X, como lo indica el teorema siguiente.
Teorema 9.1. Si X tiene la distribucin N ( p , 0 2 ) y si Y = entonces Y tiene l a distribucin N ( a p + 6 , a 2 0 2 ) .
a S

+ 6,

Demostrucidn: El hecho d e q u e E ( Y ) = up b y que V ( Y )= a 2 0 2 se deduce en forma inmediata de las propiedades de la esperanza y la varianza expuestas en el captulo 7. Para delmostrar que d e hecho Y est distribuida normalmente, podemos aplicar el teorema 5.1, puesto

244 Algunas variables aleatorias continuas importantes

9.4

que u,A7 b es una funcin de S decreciente o creciente, dependiendo dcl signo de a. Luego, si g es la fdp de Y , tenemos

que representala fdp de una variable aleatoriacon distribucin N ( n i ~ b, u202).

Corolario:

Si X tienedistribucin N ( p , 0 2 ) y si Y = ( X - /')/o, entonces Y tiene distribucin N(0,l).


S

Demostracidn: Es evidente que Y es una funcin lineal de tanto, se aplica a l teorema 9.1.

y, por

Obsemzcwn: La importancia d e este corolario es que al cambiar las unidades en las cuales se mide la variable podernos obtener l a distribucin estandarizada (vase d). N hacer esto, obtenemos una distribucin con parAmetros no especificados, lo cual es u n a situacin muy propicia desde el punto de vista d e la tabulacin d e la distribucibn (vase la prxima secci6n).

9.4 Tabulacin de la distribucin normal Supngase que X tiene distribucin N ( 0 , l ) . I,uego,

Esta integral no puede evaluarse por mtodos ordinarios. (La dificultad proviene del hecho de que no podemos aplicar el teorema fundamental del cAlculo, puesto que no podemos encontrar una funcin cuya

derivada sea igual a e - " I ' . ) Sin embargo, los mCtodos d e integraci6n numrica pueden usarse para evaluar integrales de la forma anterior, y de hecho P ( S 5 S) ha sido tabulado. La fda de la distribucin normal estandarizada se denotar6 consistentemente con @. Esto es,

9.4

Tabulacwn de la distribucin normal

245
(9.3)

(Vase la Fig. 9.3.) La funcin ip se ha tabulado con amplitud,y en el Apndice se proporciona un extracto de dicha tabla. Podemos usar ahora la tabulacin d e la funcin @ con $(X) el objeto d e evaluar P ( u 5 X 5 b), donde X tiene la distribucin estan-

La importancia particular de la FIGURA 9.3 tabulacin anterior debe se hecho al de que si X tiene cualquier distribucin normal N ( p ,a 2 ) ,la funcin tabulada ip puede usarse para evaluar probabilidades asociadas con X . Simplemente usamos el teorema 9.1 para. observar que si X tiene distribucin N ( p ,a ) , entonces Y = ( X -- p ) / u tienedistribucin N(O,1). Por tanto,

x=s

De la definicin d e ip (vase la Fig. 9.3) tambin es evidente que

Esta relacin es muy til, pues en la mayora de las tablas, la funcin slo se tabula para valores positivos de x. Finalmente calculemos P ( p - k u 5 X 5 p + k u ) , donde tiene distribucin N ( p , a 2 ) .La probabilidad anterior se puede expresar en t trminos dela funcin ip escribiendo
ip

= @(b) - ip(-k).

246 Algunas variables aleatorius continuas importantes


Usando la ecuacin (9.5) para k

9.4

> O tenemos,

Ntese que la probabilidad anterior es independiente de p y a. En palabras, la probabilidad de que una variable aleatoria con distribucin N ( p , a 2 )Lome valores dentro dek desviaciones estndar del valor esperado depende slo d e k y est dado por la ecuacin (9.6).
Obsemacin: Tendremos diversas ocasioncs parareferirnosafunciones talmladas. En un sentido dado, cuando una espresin puede escribirse en trminos de funciones tabuladas, el problema est resuelto. (Con la disponibilidad d e medios modernos d e computacin, muchas funciones que no son tabuladas pueden evaluarse f5cilmente. Aunque no esperamos q u e todos tengan fhcil acceso a u n computador, no parece ilgico suponer que ciertas tablas conlunes estn disponibles.) As, nos deberamos sentirtan cmodos conl a funcin @(x) = ( l / f i ) ds como con la fkncin f ( x ) = &. Ambas fbnciones esdn tabuladas, y en algunos casos podramos tener alguna dificultad para calcular directamente la funcin para x = 0.43, por ejemplo. En el Apndice aparecen varias tablas de algunas de las funciones m5s importantes que encontraremos en nuestro trabajo. Ocasionalmente se l m 5 n referencias a otras tablas no incluidas en este testo.
~

s_,

EJEMPLO 9.1. Supngase que X tiene distribucin N(3,4). Deseamos encontrar un nmeroc tal que P(X

> c ) = 2 P ( S 5 c).

Observemos que (X - 3 ) / 2 tiene distribucin N ( 0 , l ) . Por tanto,

P(X
Tambifn,

> c) = P

(X - 3 > 2

)2

= l - @( c;3)

P(X 5 c) = P x -2 3 <1)=Q(1 c-3 c-3


Por tanto, l a condicin anterior se puede escribir como 1 - @[(c 3)/2] = 2 @ [(c - 3 ) / 2 ] . Esto se convierte en Q [ ( c - 3 ) / 2 ] = De aqu (de la tabla d e la distribuci6n normal), encontramos que ( c - 3)/2 = -0.43, obteniendo c = 2.14.

i.

9.4

Tabulacidn de

la

distribucidn normal

247

EJEMPLO 9.2. Supngase que la resistencia a romperse de un gnero de algodn(en libras), llammosleX , est distribuida normalmente con E ( X ) = 165 y V(A') = 9. Suponiendo adems queu n a muestra d e este gnero se considera defectuosa si X < 162, cul es la probabilidad d e a l azar sea defectuoso? que un gnero elegido Debemos calcular P ( X < lG2). Sin enlbargo,

P(X

165 162 - 165) < 162) = P ( X <. 3


3

= @(-1) = 1 - @(1) = 0.159 .


i

Observacin: Una objecin inmediata al uso dc la distribucin normal pued e encontrarse aqu. Es obvio que X, la resistencia dcl gnero de algodn, no puede tomar valores negativos, mientras que 'una variable aleatoria distribuida normalmente puede tomar todos los valorcs positivos y negativos. Sin embargo, el modelo anterior (en apariencia invalidado dcbidoa las objeciones encontradas) asigna una probabilidad despreciable a l evento {X < O}. Esto es,

P('Y < O) = P

(X

- 165

< ___ = @(-SS)


3

O - 165)

o.

Esta situacin ocurrir5 con frecuencia: se supone que cierm variable alcatoria X, que sabemos no pucde tomar valores neptivos, tiene una distribucin normal tomandoa s (tericamente, al menos) valores tanto positivos como negativos. Mientras se escojan los parmetros , u y a2 d e modo que P ( S < O) sea esencialmente cero,tal representacin es perfectalmente vlida.

El problema de encontrar la fdp de una funcin de una variable como se expuso en el captulo 5, aleatoria,llammosla Y = N(X), aparece en el contexto presente en el cual la variable aleatoria X est distribuida normalmente.

EJEMPLO 9.3. Supngase que el radio R d e u n cojinete d e esferas est distribuido normalmente con valor esperado 1 y varianza 0.04. Encuentre la fdp del volumen del cojinete. La fdp de la variable aleatoria R est dada por

f ( r )= f i ( 0 . 2 ) . cxp

(-; [;$I2)

248 Algunas variables aleatorias continuas importantes

9.4

Puesto que V es una funcin d e R montonamente creciente, podemos aplicar en forma directa el teorema 5.1 para la fdp de V = 4/37rR3 y obtener g( u) = f(r)(dr/dw), donde r est expresado en todas partes en Luego, trminos d e u. De la relaci6n anterior, obtenemos r = d~/dv =(1/4~)(3~/47r)-~ AI /~ sustituir , esas expresiones en la ecuacin anterior, obtenemos la fdp deseada d e V.

y .

EJEMPLO 9.4. Sllpngase que S , el dimetro interior (en milmetros) d e una tobcra, es una variable aleatoria distribuida normalmente con esperanza /L y varianza 1. Si S no satisface ciertas especificaciones, IC produce una pkl-dida al fabricante. M& exactamente, supngase que la utilidad T (por tobera) es la siguiente funcin d e S : T = C1 (dlares) si 10 5 S 5 12,
= - Cy2 = - C3

si X
si A '

< 10, > 12.

Por tanto, la utilidad esperada (por tobera) puedeescribirse como

= (C,

+ C3)@(12- p ) - (C, + C2)@(10 - /L) - c3.

Supngase que es posible ajustar el proceso d e fabricacin d e modo que se puedan obtener diferentes valores d e p . ?Para quvalor de /I es mxima la utilidad esperada? Debemos calcular d E ( T ) / ( d p )e igualarla a cero. Denotando como es usual, la fdp de la distribucin N ( 0 , l ) con y, tenemos

Luego,

9.6

Propiedades de la distribucin exponencial

249

[Es fGcil para cl lector verificar que lo anterior da un valor mximo para

E ( T ).I

Observaciones: a ) Si C2 = C3, es decir, si un d i h e t r o X muy grande o muy pequeo, es un defecto igualmente serio, entonces el valor p para el cual se obtiene el valor m5ximo d e E ( T ) es p = 11. Si C2 > C3, cl valor d e /I es > 11, mientras quesi C2 < C3, el valor de 11 es < 11. Cuando p + +m,E ( T ) + 4 3 , mientras que si p 4 -00, E ( T ) + -Cz. b ) Considrense los valores de los costos siguicntes: C1 = $10, C2 = $3 y C3 = $2. Entonces, el valor d e p para el cual E ( T ) se maximiza es igual a p = 11= $11.04. Luego, el valor mximo obtenido por E ( T ) es igual a $6.04 por tobera.

h[E]

9.5 La distribucin exponencial


Definicin. Se dice que una variable aleatoria continuaX que toma todos los valores no negativos tiene una tiistribucidn exponencid con parmetro (Y > O si su fdp est dada por
f(x) =
ae
(YX

>O

=O

para cualquier otro valor. (9.7)

(Vase la Fig. 9.4.) [Unaintegracin inmediata indica que

J, f(x) dz = 1
y, por tanto, la ecuacin (9.7) representa un fdp.]

roo

FIGURA 9.4

La distribuci6n exponencial desempea urn papel importante en la descripcin de una gran clase d e fenmenos, especialmente en el rea

250 Algunas variables aleatorias continuas importantes

9.6

d e la teora dela confiabilidad. Dedicaremos el captulo 11 a algunas d e estas aplicaciones. Por el momento, slo investiguemos algunas de las propiedades dea l distribucin exponencial.

9.6 Propiedades de la distribucin exponencial


a ) La fda F de la distribucicin exponencial est dada por:

-02

x 2 0

(9.8)

=O
[Por tanto, P ( X

p a r a cualquicr otro valor.

> x ) = e"(yx.]

6) El valor esperado d e X se obtiene como sigue:

Integrandoporpartes y haciendo v = -e "QX y du = d x . Luego,

d x = dv y z = u , obtenemos

A s , el valor esperado es igual al rcciproco del parmetro cr. [Simplcmente reclasificando el parmetro CY = l/P, podramos haber escrito la fclp d e X como f ( x ) = (1//3)e-'/P. DC esta manera, el parmetro cs igual

al valor esperado de X. Sin enlbargo, continuaremos usando la forma d e la ecuacin (9.7).]

c) La varianza d e X puede obtcnerse con una integracin semejante. Encontramos que E ( X " ) = 2 / a2 y, por tanto,
1 V(A-) = E ( X 2 ) - [ E ( X )2] = 2'
Q

('3.10)

d ) La distribucin exponencial t i m e la siguiente propicdad importante, anloga a la ecuacin (8.6) descrita para la distribucin geomtriS, t > O, P ( X > S + t I S > S). ca. Considerandoparacualquicr 'Tenemos

9.6

Propiedades de la di:rtribucin exponencial

25 1

Por tanto,

P(X > S +t

I x > S ) = P ( X :> t ) .

(9.11)

A s hemos demostrado que l a distribucin exponencial tanlbin tiene la propiedad de "no tener memoria" como la. distribucin geomtrica.
(Vase la Observacinquesigue al teorema1 8.4.) Hacemosunuso considerable d e esta propiedad al aplicar la distribucin exponencial a los modelos d e fatiga en el captulo 1 1.

Observacin: Como e n el caso d e la distribuci6n geomtrica, la recproca d e la propiedad d ) tambin es cierta. La nica variablealeatoriacontinua X que toma valores no negativos, para los cuales P ( X > S t I X > S ) = P ( X > 1) paratoda S, t > O, es una variable aleatoriadistribuida exponencialmente. [Aunque aqu no demostraremos esto, podra sealarseque la base del argumentoimplica el hecho de que la nica funcin continua G q"e tiene la propiedad queG(z+y) = G(z)G(y) para toda z, y > O, es G(z) = e - k x . Es Mcil ver que si definimos G(z) = 1 - F ( x ) , donde F es la fda de S , luego G satisfar esta condicin.]

EJEMPLO9.5. Supngasequeun h s i l h tieneunaduracin S que puede considerarse como una variablealleatoria continua con una Iiay dos procesos mediante los cualesse distribucinexponencial. 100 puede fabricar el fusible. El proceso I da una duracin esperada de horas (esto es,el parmetro es igual a l O O - l ) , mientras queel proceso I I da una duracin esperada de 150 horas (esto ES, el parAmctro es iguala 150-I). Supngase tambin que el proceso I1 es dos veces ms costoso (por fusible) que el proceso I, el cual cuesta C dlares por fusible, y ademds quesi un fusible dura menos d e 200 horas se carga una prdida de Ii dlares a l fabricante. ?Qu proceso se deber usar? Calculemos el los procesos. Para el proceso I tenemos costo esperudo para cada uno de
CI = costo (por fusible) = C
=C

+ I(

si

> 200

si X 5 200.

252

Algunas variables aleatorius continuas importantes

9.6

Por tanto,

Con un clculo semejante encontramos que

Luego,

E(CI1) - E(C1) = C + ,(e-'

- e-4/3)

= C - 0.1311'.

Por tanto, preferimos el proceso I con tal que C


EJEMPLO 9.6. Supngase que X tiene una distribucin exponencialcon parmetro a. En- f(4 tonces E ( X ) = l / a . Calculemos la probabiliX ' sobrepase suvalor esperado (Fig. dad de que 9.5.) Tenemos
-ff(l/a)
-1

> 0.1311'.

= e

<i.

x=l/a

FIGURA 9.5

EJEMPLO 9.7. Supngase que T , el tiempo para que falle un componente est distribuido exponencialmente. Luego f ( t ) = cxe-at. Si se instalan n de tales componentes cuAl es la probabilidad de quela mitad o ms d e ellas hncionen an al trmino de t horas? La probabilidad pedida es

9.6

distribucin la Propiedades de

exponencial

253

EJEMPLO 9.8. Supngase que la duracin en horas, llammosla T , de cierto tubo electrnico es una variable aleatoria con una distribucin eiponencial con parmetro p. Estoes, la fdp est dada por f ( t ) = p e - P t , t > O. Una mquina que usa este tubo cuesta C1 dlares/hora para funcionar. Mientras la mquina est funcionando se obtiene una utilidad de C2 dlaredhora; adems debe contratarse un operador para un nmero prejjudo de horas, digamos H , el cual obtiene un pago de C3 dlaredhora. Para que valor de H es mayor la utilidud esperudu? Obtengamos primero una expresin para la utilidad, llammosla R. Tenemos R = C2H - C 1 H - C 3 H
= C2T
-

si T si T

>H
5 H.

C1T

- C3H

Ntese queR es una variable aleatoria, puesto que es una funcin de T. Luego,

Para obtenerel valor mximod e E( R) lo diferenciamos respectoa E 1 y hacemos la derivada igual a cero. Tenemos

Luego, d E ( R ) / d I I = O implica que


I 1 = - (;)In

c 2

c3

-c 1

].

254 Algunas variables aleatorius continuas

importavttes

9.7

[A fin de que la solucin anterior sea significativa, debemos tener 11 > O lo que ocurre si y slo si O < C3/(C2 - Cl) < 1, lo que a su vez equivale a C2 - C1 > O y C2 - C1 - C3 > O. Sin embargo, la ltima condicin slo rcquiere que las cifras del costo sean de una magnitud tal que pueda obtenerse una utilidad.] Supngase en particular queP = 0.01, C1 = $3, Ca = $10 y C3 = $4. I,ucgo, I 1 = - l O O l n [ $ ] = 55.9 horas 21 56 horas. Entonces, el operador 56 horas para obtener la utilidad mxima. (Para debc ser contratado por una modificacin ligera del ejemplo anterior, vase el Prob. 9.18.)

9.7 La distribucidn gama

Presentemos primero una hncin que es muy importante noslo en la teora de probabilidad, sino en muchasBreas de las matem5ticas.
Definicin. Lafirncin gnnza denotada con I?, se dcfine como sigue:
r(p)=

/lxl
O

zP-le-'

dx, definida para

> O.

(9.12)

[Puede demostrarse que la integral impropia anterior existe (converge) cada vez que p > O]. Si integramos lo anterior por partes, haciendo e-z dz = dv y zp-l = u, obtenemos

e" X

xp-2 dx

A s hemos demostrado que la funcin gama sigue una importante relacin recursiva. Supngase que p es un entero positivo, dejamos p = n.

Entonces, aplicando la ecuacin (9.13) repetidamente, obtenemos

9.8

Propiedades distribucin dt?la

gama

255

Sin embargo, r(l)=

so" e-'

dx = 1, por tanto, tenemos

(si n es un entero positivo). (Luego podemos considerar que la funcin gama es una generalizacin d e la funcin factorial.) TambiCn es fAcil verificar que
(9.15) (Vase Con la ayuda dela funcin gama, ahora podemos presentar la distribuci6n gama de probabilidades.
I

Definicin. Sea X una variable aleatoria continua que toma slo valores no negativos. Decimos que X tiene una distm'buci6n de probabilidades gama si su fdp est dada por
f(z) = - ( o z ) T - l e - " z ,

Ax)

u9-1

>O
valor.

Le
r = 11

-X

= O para cualquier otro

9.1fi

FIGURA 9.6

Esta distribucin depende d e los dosparrneh-os, r y a d e los cuales necesitamos r > O, a > O. [Debido a la definicin de la funcin gama, ,"' f(x) dx = l.] La figura 9.6 muestrala grfica dela es fcil ver que Sfdp dela ecuacin (9.16) para diversos valores d e r y a = 1.

9.8 Propiedades de la distribucin gama =

a ) Si r = 1 la ecuacin (9.16) se transforma enf ( x ) = ae-cyz. Luego, la distribucin exponencial es un caso especial de la dist!ribucin gama. (Si r es un la entero positivo > 1, la distribucin gama est relacionada tambin con distribucin exponencial, pero de un modo ligeramente diferente. Nos referiremos a esto en el captulo10.) B ) En la mayora de nuestras aplicaciones, el parmetro r ser un entero positivo.En este caso, existe una relacin interesante entre la

256 Algunas variables aleatorias continuas importantes

9.8

fda de a l distribucin gama y l a distribucin d e Poisson, misma que desarrollaremos ahora. Considrese l a integral I = J,"(e-Yy"/r!) dy, donde r es un entero positivo y a > O. Luego, r ! l = JUm e - y y r d y . Integrando por partes, haciendo u = y T y dv = e-?' dy, obtendremos du = r y T - l d y y v = -e - Y . Por IO tanto r ! ~ = ,-'ar r ~ : e-Yyr-l dy. ~a integralen esta expresin es exactamente la misma forma que la integral original con la sustitucicin de r por ( r - 1). As, a l continuar integrando por partes, puesto que r es un entero positivo, obtenemos

r!1 = e-"

'.[ +

7%"

+ T ( r - l)a"

+ ...+

Por tanto.

=
6=0

P ( Y = k),

donde Y tiene una distribucin dePoisson con parmetro a. Consideremos ahorala fda de la variable aleatoriacuya fdp est dada por la ecuacin (9.16). Puesto que r es un entero positivo, la ecuacin (9.16) puede escribirse como

y, por consiguiente, l a fda de X se transforma en


F ( x )= 1- P ( X

> x)

Haciendo

(as) =

u, encontramos que estose convierte en

F(2)= 1-

Lx
00

ur-l e -u

(7'- l)!

du,

> O.

9.9

La dis,tribucidn X-cuadrada

257

Esta integral es precisamente de la forma antes considerada, a saber, I (con a = ax),y as,

F(2)= 1 -

7-1

e-ytz)k/k!,
k=O

> o.

(9.17)

Por tanto, l a f d ade la distribucidn gama puede expresarse mediante la f d a tabulada de la distribucin de Poisson. (Recurdese que estoes vlido si el parmetro r es un entero positivo.)
Obseruacidn: El resultado indicado en la ecuacin (9.17), que relaciona la fda d e la distribucin d e Poisson con la fda d e ;la distribucin gama, no es tan sorprendente como podra aparecer al principio, tal como lo indicar& la siguiente exposicin. Antes que nada, recordemos la rclacin entre las distribuciones de Pascal y binomial (vase la observacin b ) de la Sec. 8.6). Una relacin similar existe entre las distribuciones d e Poisson y gama, excepto que la cltima es una distribucin continua. Cuando tratamos con una distribuci6n d e Poisson estamos interesados especialmenteen el nmero de ocurrencias de algn evento durante u n periodo fijo d e tiempo. Y, como se indicard, l a distribucin gama aparece cuando pedimos la distribucin del tiempo necesario para obtener un nilmero especificado d e ocurrencias del evcnto. Especficamente, supngase que X = nmero de ocurrencias del evento A durante (O, 1). Entonces, en condiciones semejantc:s (es decir, satisfaciendo las hiptjtesis Al hasta A5 d e la Sec. 8.3),X tiene una distribucin de Poisson con parAmetro at, donde cr es el nmero esperado d e ocurrencias de A durante un intervalo d e tiempo unitario. Sea T = tiempo necesario para observar r ocurrencias de A . Tenemos H ( 2 ) = P ( T 5 t ) = 1- P ( T = 1- P ( X
T-l

> t)

= 1 - P(menos que r ocurrencias d e '4 acontecen en [ O , t ] )

=1-c
k=O

< r)
IC! la ecuacin (9.17) se establece la relacin de-

e"t(cut)k

Comparando esto con seada.


c)

Si X tiene una distribucih gama dada tenemos

por la ecuacin (9.16),

258 Algunas variables aleatorius continuas importantes

9.9

E ( X ) = ?-/(Y,

V ( X ) = T/(Y2.

(9.18)

Demostlmcin: Vase el problema 9.20.

9.9 La distribucidn x-cuadrada


Un caso especial muy importante d e la distribucin gama, ecuacin 1 (9.16), se obtiene si hacemos (Y = y T = 72/2, donde n es un entero positivo. Obtenemos unafamilia de distribucionesde un parmetro con (9.19) Una variable aleatoria Z que tiene fdp dada por la ecuacin (9.19) se dice que tiene una distribucin ,y-cuadrudu con n grudos de libertad (se denota con xi). En la figura 9.7 se muestra la fdp para n = 1 , 2 y n > 2. Una consecuencia inmediata d e la ecuacin (9.18) es que si 2 tiene fdp d e la ecuacin (9.19), tenemos

fd p

E ( 2 )= n,

V(2)= 2 7 2 .

(9.20)

FIGURA 9.7
La distribucin x-cuadrada tiene muchas aplicaciones importantes en inferencia estadstica, algunas d e las cuales citaremos posteriormcnte. Debido a su relevancia, la distribucin x-cuadrada est tabulada para n. (Vase el Apndice.) Por tanto diversos valores del parmetro e n la tabla podemos encontrar qu valor, denotado con x i , satisface P ( Z 5 x i ) = (Y, O < (Y < 1 (Fig. 9.8). El ejemplo 9.9 trata un caso especial de una caracterizacin general d e la distribucin x-cuadrada que estudiaremos en un captulo posterior.

9.9

La dish~bucwn X-cuadrada

259

FIGURA 9.8
EJEMPLO 9.9. Supngaseque lavelocidad V de un objetotiene distribucin N ( 0 , l ) . Sea I( = mV2/2 la en'ergacintica del objeto. busquemos primero la fdp de S = V 2 .Al Para encontrar la fdp de I<', aplicar directamente el teorema 5.2 tenemos

Si comparamos esto con l a ecuacin (9.19) y recordamos queI?( = ,J . observamos que S tiene una distribucin x:. As encontramos queel cuadrado de una z~ariable aleatoria con distribucin N ( O , l ) tiene u n a distribucin x!. (ste es el resultado que generalizaremos posteriormente.) Ahora podemos obtener la fdp h de la energa cintica A-. Puesto que l i -es una funci6n mon6tona de V 2 ,cuya fdp est dada por la g anterior, tenemos directamente

i)

h(k) = " m 9 " E =

2
m

1
a

"

A fin d e evaluar P ( K _< 5), por ejemplo, no necesitamos usar la fdp


de I<-sino que podemos usar simplemente la distribucin tabulada cuadrada como sigue

(i -'I2
k)

e- k / m

b>0.

x-

P ( K 5 5 ) = P ((m/2)V25 5) = Y(V2 5 lO/nt).

260 Algunas variables aleatorius continuas importantes

9.10

Esta ltima probabilidad se puede obtener de manera directa de las tablas d e la distribucin X-cuadrada (si m es conocida), puesto que tiene una distribucin X:. Puesto quc E ( V 2 )= 1 y la varianza ( V 3 d) =2 [vase la Ec. (9.20)], encontramos directamente

Observacin: L a tabulacin de la distribucin x-cuadrada que se incluye en el Apndice slo da los valores para los cuales n , el nilmero de grados de libertad, es menos que o igual a 45. La razn de esto es que si n es grande, podemos aproximar la distribucin x-cuadrada con la distribucin normal, como se indica en el teorema siguiente.

Teorema 9.2.

Supngase que l a variable aleatoria E tiene una distribucin x i . Entonces, para n suficientemente grande la variable l a distribucin A r ( J m , aleatoria tiene aproximadamente 1). (La demostracin no se har aqu.)

Este teorema puede utilizarse como sigue. Supongamos que necesi, : y n es tan grande que tamos P ( Y 5 t ) , donde Y tiene la distribucin X la probabilidad antcrior no puede obtenerse en forma directa la tabla de d e la distribucihn X-cuadrada. Usando el teorema9.2 podemos escribir

El valor d e Q, se puede obtener de las tablas d e la distribucin normal. 9.10 Comparacin entre varias distribuciones Hasta ahora hemos presentado diversas distribuciones d e probabilidades importantes, tanto discretas como continuas: binomial, d e Pascal y d e Poisson, entre las discretas, y la exponcncial normal y gama, entre las continuas. No volveremos a dar las diversas hiptesis que conducen a esas distribuciones. Aqu, nuestro inters principal es selialar ciertas analogas (y diferencias) entre las variables aleatorias que poseen esas distribuciones.

9.1 1

La bivariada distribucin normal

261

1. Supngase que se efectan ensayos de Bernoulli independientes. a) Variable aleatoria: nmero de ocurrencias del eventoA en un

nmerofijo de experimentos. Distribucin: binomial. b) Variable aleatoria: nmero necesario d e ensayos d e Bernoulli para obtener la primera ocurrencia d e A . Distribucin: geomtrica. c) Variable aleatoria: nmero necesario d e ensayos de Bernoulli para obtener la r-sima ocurrencia d e A . Distribucin: de Pascal

2. Supngase un proceso de Poisson (vasela nota c) del ejemplo8.5.)

d ) Variablealeatoria: nmerodeocurrenciasdeunevento A durante un intervalo d e tiempofijo. Distribucin: d e Poisson e ) Variable aleatoria: tiempo transcurri'do hasta la primera ocurrencia d e A . Distribucin: exponencial fl Variable aleatoria: tiempo transcurrido hasta la r-sima ocurrencia deA . Distribucin: gama.

Obsemacidn: Ntese la similitud entre a) y d ) , b ) y e ) y finalmente entre


c)

Yf).

9.11 La distribu.idn normal bivariada Todas las variables aleatorias que hemos presentado han sido variables aleatorias unidimensionales. Comolo mencionamos en el captulo6, las variables aleatorias d e mayor dimensin desempean un papel importante en la descripcin de resultados experimentales. Una de las ms relevantes variables aleatorias bidimensionales, continuas, una generalizacin directa d e la distribucin normal unidimensional, se define como sigue:

Definicin. Sea (X, E') una variable aleatoria bidimensional continua que toma todos los valores en el plano euclidiano. Decimos que ( X ,Y ) tiene unadistm'bucih normal bivan'ada si su fdp conjunta est dada por la expresin siguiente:

262 Algunas variables aleatorius continuas importantes

9.1 1

-00<~<0O,-0O<y<0O.

(9.2 1)

La fdp anterior depende de 5 parmetros. Para que f defina una fdp legtima [o sea, f(x,y) 2 O S ,? g f(x,y) dx dy = 11, debemos hacer las siguientesrestricciones a los parmetros: "o0 < p,x < 0 0 ; "o0 < p y < 00; ax > O; ay > O; -1 < p < 1. Las siguientes propiedades d e la distribucin normal bivariada pueden verificarse fcilmente. Teorema 9.3. Suponiendo que( X , Y )tiene la fdp dada en la ecuacin (9.21), entonces,
u ) las distribucionesmarginales

N ( p y ,ay), 2 respectivamente;

de X y d e Y son N ( / L u$) ~, y

b ) el parmetro p que aparece antes es el coeficiente d e correlacin entre X y Y ;

c) las distribuciones condicionales de X (dado que Y = y) y d e Y (dado que X = x) son, respectivamente,

Demostracin: Vase el problema 9.2 1


Observaciones: a ) El recproco de a ) del teorema 9.3 no es verdadero. Es posible tener una fdp conjunta queno es normal bivariada aunque las fdp d e X y d e E' son normales unidimensionales. 6 ) En la ecuacin (9.21) observemos que si p = O, la fdp conjunta d e ( X , Y ) puede factorizarse y, por tanto, X y Y son independientes. As, en el caso d e la distribucin normal bivariada encontramos que la correlaci6n cero y la independencia son equivalentes. c) La parte c) del teorema anterior demuestra que ambas funciones d e regresin del promedio son lineales. Tambin demuestra que la varianza d e la distribuci6n condicional se reduce en la misma proporci6n que (1 - p2). Esto es, si p est cercana a cero, la varianza condicional es esencialmente la misma

9.12

Dis,tribucwnes truncadas

263

que la varianza incondicional, mientras que si p est5 cercana a f l , l a varianza condicional est cercanaa cero.

La fdp normal bivariada tiene varias propiedades interesantes. Estableceremos algunas en un teorema, dejando a l demostracin al lector.

Teorema 9.4. Considrese la superficie z = f(z, y), donde f es la fdp normal bivariada dada enla ecuacin (9.,21).
a) z = c (constante) corta la superficie en una eZi$se. (stas se ]la-

man, algunasveces, contornos de una densidad de probabilidades constante).

b ) Si p = O y ax = ay, la elipse anterior sc transforma en una p --+ h l ? ) circunferencia. (?Qusucede ala elipse anterior cuando

Dernostrucin: Vase el problema 9.22.


Obseruacidn: Debido a la importancia d e la distribucih normal bivarinda, se han tabuladodiversasprobabilidades asociadas con ella. (Vase D. B. Owen, Haudbook of Statistical Tables,Addison-MTesleyPublishing Company, Inc., Reading, Mass., 1962.)

9.12 Distribuciones truncadas EJEMPLO9.10. Supngase que se fabrica ciertotipo de pernos y su longitud, llammosla Y , es una variable akatoria con distribucin N(2.2, 0.01). De un gran lote d e tales pernos se saca un nuevo lote, descartando todos aquellos para los cuales Y > 2. Por tanto, si X es la variable aleatoria que representa el largo d e los pernos enel nuevo lote, y si F es su fdp tenemos

(Vase la Fig. 9.9). Entonces, la fdp de X , esti dada por

264 Algunas variables aleatorius continuas importantes


f(x) = F (x) = O
1
- fi(O.1)
I

9.12

si x

exp

(- 2

> 2,

[T r-2.2.]2)
x

@(

-2)
2
1

si

x 2 2

I I

FIGURA 9.9
puesto que

P(Y I 2) = P

(Y 2 .;;

-&@(-a>.
2 - 2.2
=

[@,como es usual, es la fda d e la distribucin N ( 0 , l)]. La anterior es una ilustracin de una distribucicin nomaltruncada (especficamente truncada a la derecha de X = 2). Este ejemplo se puede generalizar comosigue.

Definicin. Decimos que la variable aleatoria X tiene una distribucin normal tmmcada a la derecha d e X = T si su fdp f es de la forma

f(x) = O

si

x
0

> T,
exp

=K 6

1 x-fl

si x

5 T.

(9.22)

Ntese que I < se determina de la condicin tanto,

S_'," f(x)

dx = 1 y, por

donde 2 tiene distribucin N ( p , 0 2 ) .Anloga a la anterior tenemos la siguiente definicin.

9.12

truncadas

Di:;tribucwnes

265

Definicin. Decimos que la variable aleatoria X tiene una distribucin normal truncudu u la izquierdu d e X = y, si su fdp f es d e la forma

f(x) = O

si x

< y,

Nuevamente, K se determina de la condicin J ? : as


K = [l -1
'

f(x)

dz =

1y

* (y)]

Los conceptos antes presentados para la distribucin normal pueden extenderse de manera evidente a otras dist.ribuciones. Por ejemplo, una variable aleatoria X distribuida exponencialmente, truncada a la izquierda d e X = y, tendra la siguiente fdp:
f(x) = O

si

< y,
si x 2 y.
la condicin (9.24)
f ( x ) dx = 1

= Cae-"x

Nuevamente, C estdeterminadapor y, por tanto,

Tambin podemos considerar una variable aleatoria truncada en el caso discreto. Por ejemplo, si una variable ialeatoria X que tiene una distribucin d e Poisson (con parametro X) esta truncada a la derecha en X = IC 1, significa que X tiene la distribucibn siguiente:

P(X=i)=O
=CTe
2.

sii>IC+l,

xi -x

sii=ID,l,

...,IC.

(9.25)

De la condicin C g o = , P (= X i ) = 1 determinamos C y encontramos

266 Algunas zrariables aleatorias continuas importatztes

9.12

As,

i = O, 1,. . . , k y 0 para cualquier otro valor.


Las distribuciones truncadas pueden aparecer en muchas aplicaciones importantes. A continuacicin consideraremos algunos ejemplos.

EJEMPLO9.11. Supngase que X representa l a duracindeun componente. Si S est distribuida normalmente con

encontramos que

P(X

< O)

@(-a)

= 0.023.

As, este modelo noes muy preciso, puesto que asigna una probabilidad

0.023 auneventoquesabemosque no puede ocurrir. Ensulugar, podramos considerar la variable aleatoria X anterior truncada a la izquierda en X = O. Por tanto, supondremos que la fdp de la variable aleatoria X est dada por
f ( r )=

si

3:

5 O,

Obsetuacidn: IIemos indicado que a menudo usamos la distribucin normal para representar una variable aleatoria X d e la cualsabemos que no puede tomar valores negativos. (Por ejemplo, el tiempo para que ocurra una falla, el largo d e una varilla, etc.) Para ciertos valoresde los parametros p = E ( X ) y c2 = V ( S ) el valor d e P ( X < O) ser despreciable. Sin embargo, si ste no es el ca5o (como en el Ej. 9.1 l), deberamos considerarel uso de la distribucin normal truncada a la izquierda en X = O.

9.12

truncadas

Distribuciones

267

EJEMPLO 9.12. Supngasequeun sistema est formadopor n componentes que funcionan de manera independiente y cada uno tiene la misma probabilidad p de funcionar correctamente. Cada vez que el sistema funciona mal, se inspecciona a fin d e establecer cuntos y cuLiles son los componentes que fallan.Definamos la1 variable aleatoriaX como el nmero de componentes que fallan en un sistema descompuesto. Si suponemos que el sistema falla si y slo si al menos un componente falla, entonces X tiene una distribucidn binomid tm.ncudu u lu izpierdu en X = O. Precisamente el hecho de que huyujulZado el sistema impide la posibilidad de que X = O. Especficamente tenemos

P ( X = k) = ( X 1 - P)kPn-k P(sistema falla)

k = 1,2,...,n.

P ( X = k) = ( X 1 - P ) P 1 - pn

k n-k

, k

= 1,2,...,n.

EJEMPLO 9.13. Supngase que una fuente radiactiva emite partculas de acuerdo con una distribucin d e Poisson con parmetro X. Un dispositivo para contar esas emisiones slo funciona si llegan menos d e tres partculas. (Esto es, si llegan ms de tres, partculas durante un periodo de tiempo especificado, el dispositivo deja de funcionar debido a que se produce un cierre.) Por tanto, si E es el nmero de partculas anotadas durante el intervalo de tiempo especfico, Y tiene los valores posibles O, 1 y 2. A s ,

P ( Y = k)

-x

k!

e-x

[I

+ X + (X2/2)1

Xk

k = O, 1,2,

=O

para cualquier otro valor.

Puesto que la distribucin normal truncada es particularmente importante, consideremos el problema siguieme asociado con esta distribucin. Supngase queX es una variable aleatoria distribuida normalmente truncada hacia la derecha en X = T. Luego, la fdp f es d e la forma

268 Algunas variables aleatorius continuas importantes


f(x) = O
si x 2
T.

9.12

Por tanto, tenemos

Ntese quela expresin obtenida paraE ( X ) se expresa mediante las funciones tabuladas. La funcin CI, es, por supuesto, la fda corriente de la distribucin N ( 0 , l),mientras que (1/&G)e-z2/2 es la ordenada de la fdp dela distribucin N ( 0 , l ) y tambin est tabulada. En realidad, el cociente

est tabulado. (Vase D. R. Owen, Ilundbook of Stutistical Tubles, AddisonWesley Publishing Company, IIIC., Reading, Mass., 1962.) Utilizando el resultado anterior, ahora podemos formular la siguiente pregunta: para p y o dados, ?dnde debera ocurrirla truncacin (esto es, ?cul debera ser el valor d e r ? ) de modo que el valor esperado des@s de la truncacin tenga algn valor A preasignado? Podemos responder esta pregunta con ayuda de la distribucin normal tabulada. , = 10, u = 1, y necesitamos que A = 9.5. Por tanto, Supngase que u debemos resolver

Problemas

269

Esto se transforma en

Utilizando las tablas ya citadas, encontramos; que tanto, T = 10.52.

- 10 = 0.52, y por

Obseruacwc El problema presentado anteriormente slo puede resolverse para ciertos valores d e p, u y A. Esto es, para p y u dadas, puede no ser posible un valor especifico d e A. Consideremos la ecuaci6n que puede resolverse:

El segundo miembro d e estaecuacinesobviamente positivo. Por lo tanto, debemos Tener ( p - A ) > O con objeto de que cl problema anterior tenga solucin. Esta condicin no es muy inesperada puesto que slo expresa que el valor esperado (despusdc unatruncacin a la derecha) debe ser menor que el valor original esperado.

PROBLEMAS
9.1. Supngase queX tiene una distribucin N(2, O , 16). Usar la tabla de la distribucin normal para evaluarlas probabilidadles siguientes.
a)
/

P ( X 2 2.3)

b) P(1.8 5 X 5 2.1)

9.2. El dimetro de un cable elctrico est distribuido normalmente con promedio 0.8 y varianza 0.0004, Cul es la probabilidad de que el dimetro sobrepase 0.81 pulgadas?
, ' 9.3. Sup6ngaseque el cable delproblema 9.2 seconsideredefectuoso si el dimetro se diferencia d e su promedio en ms d e 0.025. ?Cul esla probabilidad de obtener un cable defectuoso?

.' 9.4. Se sabe que los errores en cierto instrumento para medir longitudes 'est511distribuidos normalmente convalor esperado ceroy desviacin estndar d e 1 pulgada. ?Cul es la probabilidad d e que al medir los errores, stos sean mayores d e 1 pulgada, 2 pulgadasy 3 pulgadas?

9.5. Supngase que la duracin de los instrumentos electrnicos D ly0 2 tienendistribuciones N ( 4 0 , 3 6 ) y N(45,9), respectivamente.Culsedebe prcferir para usarlo durante un periodo de 45 horas? C u d se debe preferir para usarlo durante un periodo de 48 horas?

270 Algunas variables aleatorias continuas importantes


9.6. ConsidCrese slo en la magnitud de S , digamos E' = 1x1. Si , Y tiene una distribucin N ( 0 , l), determinar la ftlp de E' y calcular E ( Y ) y V(E').

0.7. Supngase que se determinaa l posicibn d e un objeto en un plano. Sean S y Y los errores en las netl lid as de a l s coordenadas . z y y respectivamente. S u p n p c que S y I' son indepcndient,es y estn distribuidas idnticamente X ( 0 , u 2 ) . Encontrar la fdp d e R = d m .(La distribucin d e R se conoce como distribuciu de Rayleigh.) [Indicacin: sean X = R cos $ y Y = R sen $, obtener la fdp conjunta de (R, q ) y luego la densidad marginal de R.]
9.8. Encuntrese la fdp d e la variable aleatoria Q = S / Y , donde X y Y e d n distribuidas como en cl problema 9.7. (La distribucin d e Q se conoce como distribucin de Cauchy.) Se puede calcular E ( & ) ?
9.9. Una distribucin muy relacionadacon la distribucin normal es l a distribzccwn lognormal. Suponer que X e s ~ distribuida 5 normalmentecon promedio 1-1 yvarianza u 2 . Sea I' = ex. Entonces I' time la distribucin log nol-maI. (O sea, Y es log normalsi y slo si I n E' es normal.) Encontrar la fdp de Y. Observation: Las variables alentorias siguientes se pueden representar por la distribucin anterior: el dimetro de partculas pequeas dcspuCs d c un proceso de trituracin, el tamao d e u n organismo bajo la accirin (le peq1leos impulsos y la duracin d e ciertos artculos.
9.10. S u p n p e que X tiene lltlaclistribuci,n N ( / L , a 2 ) .Detcrrninar c (como una funcin d e 11 y CT), m1 que P ( X 5 c ) = 2 P ( S > c ) .
9.1 1. Supngase que la temperatura (en grados centgrados) est5 distribuida normalmente con esperanza50" y varianza 4. iCu5l es la probabilidad de que la temperatura T est entre 48" y 53" centgrados?

9.12. Se especifica que el dimetro exterior d e u n 514101 d e transmisin (flecha), llammoslo D , delx ser de 4 pulgadas. S u p n p e que D es una variable aleatoria distribuida normalmente con media de 4 pulgadas y varianza 0.01 pulgada*. Si el dimetro real se diferencia del valor especificado por ms d e 0.05 pulgada, pero en menos d e 0.08 pulgada, la prdida del fabricante es d e $0.50. Si el dijmetro real se diferencia dcl dimetro cspecificado en m5s d e 0.08 pulgada, la prdida es de $1.00. L a prdida, L , puede considerarse como una variable aleat.oria. Encontrar la distribucicin d e probabilidades de L y calcular E ( L ) .
9.13. Compare la cota supelior d e la proinbilidatl P [ I X- E ( X ) I2 2 J W I obtenida con la desigualdad de Chebyshev con la probabilidad exact? en cada uno delos casos siguientes:

,Y tiene distribucin N ( / " , u'). b ) X tiene distribucin d e Poisson con parmetro X. c) X tiene distribucin exponencial con pnrmetro a.
a)

Problemas

27 1

9.14. Supngase que X es una variable aleatoria para la cual E ( X ) = p y V ( X )= u2.Suponiendo queY e s d distribuida miformemente enel intervalo ( u , b ) , determinar u y b d e modo que E ( X ) = E ( Y ) y V ( X )= V ( Y ) . 9.15. Supngase que X , la resistencia a la ruptura de una cuerda (en libras), tiene distribucin N(100,16). Cada 100 pies d e alambre para cuerda produce una utilidad d e $25, si X > 95. Si X 5 95, la cuerda puede utilizarse con u n propsito diferente y se obtieneuna utilidad de $10 por alambre. Encontrar la utilidad esperada por alambre. 9.16. Sean X 1 y X 2 variables aleatorias independientes cada una con una distribucin N ( p , u). Sea Z ( t ) = X 1 coswt X 2 sen w t . Esta variable aleatoria es d e inters en el estudio d e seales aleatoria;;. Sea V ( t ) = dZ(t)/dt. (Se supone que w es constante.)

6 ) Demostrar que Z ( t ) y V ( t )no estn correlacionadas. [Obseruacih: Puede demostrarse que Z ( t ) y V ( t )y son independientes, pero esto esms dificil d e hacer].
9.17. Un combustible para cohetes va a contener ciertoporcentaje ( h mmoslo X) de un compuesto particular. Las e,spccificaciones exigen que -y est entre 30 y 35% . El fabricante tendr una ui-ilidad neta e n el combustible (por gal6n) que es la siguiente funcind e X :

a ) Cul es la distribucin d e probabilidades d e fija?

Z ( t ) y V ( t )para cualquiert

?(X) = $0.10 por galn si 30 < X

< :

35,

= $0.05 por galn si = $0.10 por gal6n

35 5 X 5; 40 o 25 < X 5 30,

Si X tiene distribucin N(33,9), calcular E(1T). 6 ) Supbngase que el fabricante desea aumentar su utilidad esperada, E ( T ) , en 50%,aumentando su utilidad (por galn) en aquellas partidas d e combustible que satisfacen las especificaciones, 30 < S < 35. Cul debe ser su utilidad neta?
a)

9.18. Considreseelejemplo 9.8. Suponiendo que a un operario se le pagan C 3 dlareshora mientras la mquina est fllncionando y C, d6lares/hora (C4 < C3)por el resto del tiempo durante el cual ha sido contratado despus de que la mquina ha fallado, determinar nuevarnente para qu valor d e H (el nmero de horas que se contrata al operario), la utilidad esperada es m h i m a . 9.19. Demostrar que I? = &. (Vase 9.15.;) [Sugerencia: Hacer el cambio d e variables x = u 2 / 2 en la integral I? = x-1/2e-x dt.]

(i)

(i)

272

Algunas variables aleatorius colttinuas importantes

9.20. Verificar las expresiones de E ( X ) y V ( X ) cuando ,Y tiene una distribucin gama [vase la Ec. (9.18)]. 9.21. Demostrar el teorema 9.3. 9.22. Demostrar el teorema 9.4. 9.23. Supngase que la variable aleatoria X tiene una distribucin )(-cuadrada con 10 gradosd e libertad. Si se pidiera encontrar dos nmeros,u y b, tales que P ( u < x < b ) = 0.85, se podra verificar que existen muchos pares d e esa clase.
a) Encontrar dos conjuntos diferentes d e valores ( u , b ) que satisfagan la condicin anterior. b ) Suponer que adem&d e lo anterior, necesitamos que

P(X

< u ) = P(X > b).

?Cuntos conjuntos de valores hay? 9.24. Supngase que V ,la velocidad (cmnbeg) de un objeto que tiene una masa d e 1 kg, es una variable aleatoria que tiene una distribucin N ( O , 2 5 ) . Representar con K = 1 0 0 0 V 2 / 2 = 500V2 la energa cintica ( K E ) del objeto. Calcular P ( K < 200), P ( K > 800). 9.25. Suponer que X tiene distribucin N(,u,u2). Obtener una expresidn aproximada para E ( Y ) y V ( Y )usando el teorema7.7. Si Y = In ,Y. 9.26, Supngase queS tiene una distribucin normal truncada la a derecha como se da en la ecuacin (9.22). Encontrar una expresin para E ( X ) en trminos de funciones tabuladas. 9.27. Supngase que A tiene una distribucin exponencial truncada a izquierda como estA dada enla ecuacin (9.24). Obtener E ( X ) . la

9.28. u ) Encontrar la distribucin d e probabilidades d e una variable aleatoria distribuida binonlialmente (con base en n repeticiones de un experimento) truncada a la dcrccha en ,Y = n ; esto es, S = n no pucde ser observada. b ) Encontrar elvalor esperado y la varianza d e la variable aleatoria descrita e n u). 9.29. Supngase que una variable aleatoria distribuida normalmente con valor esperado 11 y varianza u2 c s d truncada a la izquierda en X = T y a la derecha en S = y. Encontrar la fdp d e esta variable aleatoria truncada doblemente. 9.30. Suponer que X ,el largo de una varilla, tiene distribucinN ( 1 0 , 2 ) . En vez d e medir el valor d e X, slo se especifica si se cumplen ciertas exigencias. Especficamente, cada varilla fabricada se clasifica como sigue: X < 8, 8 5 X <

Problemas

273

12 y X 2 12. Si se bbrican 15 de tales varillas, &u51 es la probabilidad de que un nmeroigual d e varillas caiga en cada una delas categoras anteriores?
9.31. Se sabe que la lluvia anual que cae en cierta regin es una variable aleatoria distribuida normalmente con media igual a 29.5 pulgadas y desviacin estndar 2.5 pulgadas. Cuntas pulgadas d e lluvia (anuales) caen en exceso alrededor del5% d e l a s veces?

x2< 4).

9.32. Suponiendo que X tiene una distribucin N(O,25) calcular P ( l

<

9.33. Sea X t , el nmero de partculas emitidas en t horas por una fuente radioactiva y suponer queX t tiene unadistribucin d e Poisson con parmetro Pt. Sea T igual al nmero de horas hasta la primera emisin. Demostrar que T tiene una distribucin exponencial con parmetro P. [Sugerencia Encontrar el evento equivalente (en trminos d e X,) del evento T > t.] 9.34. Supngase que X t est definida comoe n el problema 9.33 con = 30. ?CuA es la probabilidad de que el tiempo entre emisiones sucesivas sea >5 minutos, > 10 minutos y <30 segundos? 9.35. En algunastablas d e ladistribucin normal, H ( z ) = (l/&) eWt2i2 dl e s d tabulada para valores positivos de 2: (en vez d e @(z)como aparece e n el

st

Apndice). Si la variable aleatoria X tiene distribucin N ( l , 4 ) , expresar cada una delas probabilidades siguientes e n trminos; d e los valores tabulados d e la funcin H .

a ) P [IX(> 2 1

b) P[X

< O].

9.36. Supngasequeun dispositivo paratelemedir satlites recibe dos clases d e seales que pueden anotarse como nlmeros reales, digamos X y Y , y que X y Y son variables aleatorias continuas independientes con fdp f y g, respectivamente. Supngase que durante cualquier periodo de tiempo especfico slo se puede recibir una de esas seales y luego retransmitir a la Tierra la seal que primero llega. Adem&, la seal que origina X llega primero con probabilidad p y, por tanto, la seal que origina Y llega primero con probabilidad 1 - p . Dentese con Z la variable alleatoria cuyo valor realmente es recibido y transmitido.

a ) Expresar la fdp d e Z e n trminos d e f y g. b ) Expresar E(2) en tkrminos d e E ( X ) Y E ( Y ) . c) Expresar V ( Z )en trminos d e V ( X )y V ( Y ) . d ) Supngase que X tiene distribucidn N ( 2 , 4 ) y que Y tiene distribuci6n ~ ( 3 , 3 )S .i p = calcular P ( Z > 2). e ) Suponiendo que X y Y tienen distribuciones N ( p 1 ,u;) y N ( p 2 , u;), respectivamente, demostrar que si p1 = p2, la distribucin d e Z es unimodal, esto es, la fdp d e Z tiene un m5ximo relativo nico.

g,

274 Algunas variables aleatorias continuas importantes


9.37. Sup6ngase que elntmero de accidentes en una fribricase puede representar por un proceso de Poisson con u n promedio d e 2 accidentes por scmana. ?Cul es la probabilidad de que a ) el tiempo entre un accidente y el siguiente sea mayor d e 3 das, b ) el tiempo de un accidente al tercero sea mayor de una semana? [Indicacin: En a ) , sea T = tiempo (en das) y calcular P(T > 3).] 9.38. Un proceso d e fabricacin produce en promedio un artculo defectuoso entre 300 fabricados. ?Cul es la probabilidad de que aparezca el tercer articulo defectuoso:

a ) antes de quesean producidos 1000 artculos? b ) cuando se produceel 1000"simo artculo? c) despues de quese produzca el 1000-4simo artculo? [Sugerencia: Supng?se u n proceso de Poisson.]

10.1 Introduccin

En este captulo presentaremos un concepto matemtico importante que tiene diversas aplicaciones en los modelos probabilsticos que estamos estudiando. Con el propsito de presentar un desarrollo riguroso d e este tema, se requeriran conocimientcs matcrnticos de un nivel considerablemente mayor del que estamos suponiendo aqu. Sin embargo, si queremos evitar ciertas dificultades matemticas que aparecen y si aceptamos que ciertas operaciones son vlidas, entonces podemos obtener una comprensin suficiente de las principales ideas implicadas para usarlas inteligentemente. Con el propsito d e motivar lo que sigue, recordemos nuestro primer contacto con el logaritmo. kste slo se present como una ayuda para calcular. Con cada nmero real positivo x, asociamos otro nmero, designado con log z. (El valor de este nmero se pudo obtener de las tablas correspondientes.) A fin de calcular zy, por ejemplo, obtenemos el valor d e log z y log y y luego calculamos log z log y, que representa log z y . Conociendo log z y pudimos obtener luego el valord e z y (nuevamente con la ayuda de tablas). De manel-a semejante con la ayuda

276

La f u ~ t c i h generadora t de

momentos

10.2

d c los logaritmos podemos simplificar la elaboracin d e otros clculos aritmticos. El planteamiento anterior es til por las siguientes razones: a) Acada nmeropositivo x le corresponde exactamente un nmero, log x, y este nmero se obtiene confacilidad de las tablas. b) A cada valor delog x le corresponde exactamente un valor de x, y este valor d e nuevo se obtiene detablas. (Esto es, la relacin entre 2 y log x es uno a uno.)

c) Ciertas operaciones aritmticas que relacionan los nilmeros x y y, como la multiplicacin y la divisin, pueden reemplazarse por operaciones ms sencillas como la adici6n y la sustraccin, mediante los nmeros transformados log x y log y (Vase el esquema de la Fig. 10.1). En vez d e efectuar las operaciones directamente con los nmeros z y y, primero obtenemos los nmeros logz y log y, hacemos nuestros clculos con esos nmeros y luego los transformamos d e nuevo.
10.2 La funcin generadora de momentos
Ahora consideremos una situaci6n ms complicada. Supngase que S es una variable alcatoria; es decir, S es una funcindcl espacio muestra1 a los nilmeros rcales. Al calcular diversas caractcristicas d e la variable ), directamente conla distrialeatoria S , como E ( S ) o l ) r ( d Ytrabajamos bucin d e probabilidades tlc S . [La distribuci6n d c probabilidades est dada por unafilncidn: la fdp en el caso continuo, o las probabilidades puntuales p ( r . ; ) = P ( S = x i ) cn el caso discreto. Ida illtima tambin se puede considerar como una runci6n que toma valorcs distintos de cero s610 si S = x i , i = 1 , 2 , .] Posiblementc podemos presentar otra jirncidn y lracer los clculos necesarios mediante ella (tal como antesasoun nuevo nzimero). Esto es, d e hecho, lo que cibamos con cada n~nero haremos precisamente. Primero daremos una definicin formal.
I

10.3

Ejemplos funciones de generadoras

momentos de

277

Definicin. Sea X una variable aleatoria discreta con distribucin d e probabilidades P ( x ; ) = P ( X = x!;), i = 1 , 2 , . . . La funcin, h!l,y, llamada fzmcin generadora de momentos de S , se define con
(10.1)
j=1

Si X es una variable aleatoria continua con fdp f , definimos l a funcin gencradora de momentos con
(10.2)
Obsemacwnes: a ) Tanto en el caso discretocomo en el continuo, A f , , ( t ) es simplemente el valor esperado d e e". Por tanto, podemos combinar las expresiones anterioresy escribir

b ) A f , ( t ) es el valor que toma la funcin Af;, por la variable (real) t. La notacin que indica la dependencia deX se usa porque quiz5 deseemosconsiderar dos variables aleatorias, X y Y y luego investigar la funcin generadora d e momentos de cada una, esto es, M,y y All.. c) Usaremos la forma abreviada fgm para la funcin generadora d e momentos. d ) La fgm, comose defini anteriormente, se cscribe como una serie infinita o integral (impropia), dependiendo d e sila variable aleatoria es discreta o continua. Tal serie (ointegral) puede no existir siempre (es decir, convergir a un valor infinito) para todos los valores d e t. Por tanto, puede suceder que la fgm no est definida para todos los valores d e t. Sin embargo, no nos interesar esta posible dificultad. Cadavez que hagamosuso d e la fgm, siempre supondremos que existe. (Para t = O, la fgm siempre existe y es igual a 1.) e ) Hay otra ftmcin muy relacionada con la fgm que a menudo se usa en su lugar. Se llama jiahciw curucten'stica, se denota con C s , y se define con C - y ( t ) = E(eit"), donde i = la unidad imaginaria. Por razones tericas, hay una ventaja considerable al usar C,y(t) en vez d e A f , , ( t ) . [Por esta razn, C x ( t )siempre existe para todos los valores d e 11. Sin embargo, a fin d e evitar clculos con nilmeros complejos restringiremos nllestra exposicin la fimci6n a generadora de momentos. J) Postergaremos hasta la seccin 10.4 la exposicin de por qu llamar nilx a funcin generadora de momentos,

m,

278 La ftcncidn generadora de momentos


10.3 Ejemplos de funciones generadoras de momentos

10.3

Antes de considerar algunas aplicaciones importantes de l a fgm a la teora d e la probabilidad, evaluemos algunas de estas Cunciones.

EJEMPLO 10.1. Supngase que S est distribuidu unifomnemente en el intervalo [ a , b ] . Por tanto, la fgm est dada por

(10.4) EJEMPLO 10.2. Supngase que S est distribuida binomiulmnte con parmetros n y p . Lucgo,

(10.5) (Esta jltilnaigualdad se deduce de una aplicacin directa del teorema del binonlio.)

EJEMPLO 10.3. Supngase que X tiene una distribucin de Poisson con parmetro X. As,

= e- x ~ x =e ~~ (~e ' - l )

(10.6)
cy

(La tercera igualdad se deduce del desarrollo d c Usamos esto con y = Xe t .)

en

x2=0(yn/72!).

10.3

Ejemplos funciones degeneradoras de

momentos

279

EJEMPLO 10.4. Supngase que X tiene una dislribucinexponencid con parAmetro a. Por tanto,

(Esta integralconverge slo si t < a. Por tanto, la fgmexisteslo para esosvalores de t . Suponiendoque sesatisfaceestacondicin, continuamos.) Luego,
"(t-cr) e Mx(T)= -

t-a

o
a -t'

< a.

(10.7)

Obsemacin: Puesto qne la fgm es slo un valor esperado d e X , se puede obtener la fgm d e una funcin d e una variable aleatoria sin obtener primero su distribucin de probabilidades (vase el Teorcma 7.3). Por ejemplo, si S tiene distribucin N(0,l) y deseamos encontrar la fgm de Y = X 2 podemos proceder sin obtener primerola fdp d e Y.Sirnplcmente escribimos

despus de una integracin inmediata.

EJEMPLO 10.5. tonces,

Supngase que X tiene distribucin N ( p , a'). En-

Sea (x - /&)/o = S ; as x = as

+ p y dx = o ds. Por tanto,

280 La funcin generadora de momentos


Sea S - 01 =
11;

10.4

entonces ds = dv y obtenernos

(l0.S)

EJEMPLO 10.6. Sea X u n a distribucin g c c m n con p a r h e t r o s (vase la Ec. (9.16)). Entonces,

y r

(Esta integral converge a condicin de quc (Y


dz = ( d u ) / ( a- 1)

> t ) . Sea z ( a - t ) = u;as,

y obtenemos

Puesto que la integral es igual a r ( r ) ,tenemos


(10.9)
Obsert~arioncs: a ) Si r = 1, l a funcin gama se convierte e n clistribucirin exponencial. Observemos que s i r = 1, las ccuacioncs (1 0.7) y (1 0.9) son iglnles. b ) Puesto quea l distribuci6n cuadrada se obtiene conlo un caso especial de la distribucin +?ma al hacer (Y = y T = n / 2 ( n es un entero positivo), tenemos que si z tiene distrilxlcibn x i , entonces,

Mz(Z) = (1 - 2 ) - " 1 2

(10.10)

10.4

Propiedades de

la funcin generadora

de momentos

281

10.4 Propiedades de la funcidn generadora de momentos


Daremos ahorala razn para llamar Adx funcingenerudom de momentos. Recordemos el desarrollo en seried e Maclaurin d e la funcin e":

(Se sabe que esta serie converge para todos los valores d e x.) A$,

Ahora,

Ilemos demostrado que para una sumafinita, el valor esperado d e la suma es igual a la suma de los valores esperados. Sin embargo, considerando una suma infinita como la anterior no podemos aplicar, d e inmediato tal resultado. No obstante, resulta que en condiciones justaque las mente generales esta operacin es todava vlida. Supondremos condiciones pedidas se satisfacen y por consiguiente procedemos. Recordemos que t es una constante respecto a la esperanza y podemos escribir

Puesto que AIdy es una funcin d e la variable real t , podemos considerar que tomamos la derivada de M,y(t) respecto a t , esto es [ d / ( d t ) ] M , , - ( t ) o, en forma breve, AI'(t).Nos encontramos nuevamente con una dificultad matemAtica. La derivada de und3um;ajnitu siempre es igual a la suma de las derivadas (suponiendo, por supuesto, que todas las derivadas existen). Sin embargo, para una suma infinita esto no siempre es as. Deben satisfacerse ciertas condiciones a. fin d e justificar esta operacin; slo supondremos queesas condiciones existen y continuamos. (En la mayor parte de los problemas que encontraremos tal suposicin se justifica.)As,

282 La j-uncin generadora de momentos


Al(t) = E ( X )

10.4

+ t E ( X 2 )+ t 2 E2!( X 3 )

t
* e . +

E ( P )+... ( n - I)!

Haciendo -t = O encontramos que slosubsiste el primer trmino y tenernos

As, l a primera derivada de la fgm calculada en t = O da el valor esperado d e la variable alcatoria. Si calculamos la segunda derivada d e AfJy(t), nuevamente procederemos como antes,y obtenemos

M ( t ) = E(*?)

+ t E ( ? i 3 ) + . . + in-(Sn) ( n - a)!
*

+...

y haciendo t = O, tenemos

M ( O ) = E(,Y). Continuando de esta manera obtenemos el siguiente teorenla niendo que M ( ) ( O ) existe]. Teorema 10.1.

[supo-

(Esto es, l a n-simadcrivada de

K(xn).

ArAy(f) calculada

en t = O da

Obsemaciotws: a ) Los nillneros E(Xn),n = 1 , 2 , . . ., se llaman n-simos momentos d e la variable aleatoria S respecto a cero. Por tanto, hemos demostrado que conociendo l a funcin Af,, pueden generarse los momentos (de aqu el nombre de funcin generadorad e momentos). 1)) Recordemos el desarrollo general en serie de Maclanrin d e una funcin, digmnos h.

10.4

Propiedades de la funcin generadora de momentos

283

Mx(t)= M x ( 0 ) + h_l;i(O)t + . ..+

Mg)(0)tn + .. . n!

donde, pi = E ( X z ) , i = 1 , 2 , . . . En particular,

V ( S )= E ( X 2 )- ( E ( s ) ) 2 = M N ( O ) - ["(0)12
c) El lector puede preguntarsesi los metodos anteriores son del todo Ltiles. No sera ms simple (y m& elemental) calcular directamente los momentos de S , e n vez de obtener primero la fgm y luego diferenciarla? La respuesta es que para muchos problemas este planteamiento es m,is scncillo. Los siguientes ejemplos lo ilustrar5n.

AI'(t) = n ( p e t

+ q)n-lpe t ,
+ '1)n-2pet +
(112

M " ( 2 ) = n p [et(. - l ) ( p 2

+ q)'L-let] .

por tanto, E ( ~ Y= ) ~ ' ( 0= ) n p , que concuerda con nuestro resultado = AI"(0) = n p [ ( n- 1 ) p 11. Luego, anterior. Tambin, E(4Y2)

lo que nuevamente concuerdacon lo antes cmcontrado.


EJEMPLO 10.8. Supngase que X tiene distribucin N ( a , P 2 ) . Por tanto (Ej. 10.5), M,(i) = cxp(cy2 + $p2t2). As,

y M(0) =
ZllltCS.

Q,

M(0) =

p2 + a 2 , dado E ( X ) =

cy

y V ( X ) = p2 como

IJsemos el mtodo de las fgm para calcular a l esperanza y l a varianza tlc una variable alcatoria con distribucin dc pi-obabilidades geomtrica, ecuacin (8.5).

EJEMPLO10.9. Sea X una distribucin de probabilidades geomtrica. Esto es, P ( X = IC) = & l p , = 1 , 2 , . . . ( p q = 1). h i ,

Si nos restringimos a aquellos valores de t para los cuales O < qe < 1 [esto cs, t < ln(l/q)], entonces podemos sumar la serie anterior como una serie geomtricay obtener

Por tanto,

Por tanto,

E(?)

= M(0) = p(l

+ q)/(1

q )3 = (1

+q)/pZ,

10.4

Propiedades de

l a funcin generadora

de momentos

285

Tenenlos as una verificacin del teorema 8.5. Los dos teoremas siguientes sern d e particular importancia en nuestras aplicaciones d e la fgm.

Teorema 10.2. Supcingase que la variable aleatoria X tiene fgm Al,-. Sea Y = a x '+ p. Entonces, M y , la fgm d e la variable aleatoria Y , esti dada por
M y ( t ) = epfAf2y(cYt).

(10.12)

En palabras, para enconxar la fgm d e Y = a x p calculamos la fgm d e X en at (en vez d e t ) y multiplicamos por e Pt .

Demostrucin:

Teorema 10.3. Sean x ' y Y dos variables aleatorias con fgm, h f , y ( t ) y M y ( t ) , respectivamente. Si M x ( t ) = M y ( t ) paratodos los valores d e t, entonces X y Y tienen la misma distribucin d e probabilidades.

Demostracin: La demostracin de este teorema es demasiado dificil para darla aqu. Sin embargo, es muy importante comprender exactamente lo que establece el teorema. Este dice que si dos variables aleatorias tienen la misma fgm, entonces tienen la misma distribucin d e probabilidades. Esto es, la fgm determina unvocamente la distribucin de probabilidades d e la variable aleatoria.

EJEMPLO 10.10. Supngase que X tiene 'distribucin N ( p , g 2 ) , Sea Y = a S + p. Luego, Y est&d e nuevo distribuida normalmente. Del teorema 10.2, l a fgm d e E' es M ~ l ( t = ) ePtAfx(at).Sin embargo, del ejemplo 10.5 tenernos que

Por tanto,

286 La funcin generadora de momentos

10.5

= e (BSnp)le(ao)'t?/2

Pero &la es la fgm d e una variable aleatoria distribuida normalmente As, de acuerdo con el teorema con esperanza a p p y varianza 0 2 c 2 . 10.3, la distribucin d e Y cs normal. El teorema siguiente tambin dcsempefia un papel vital en nuestro trabajo posterior.

Teorema 10.4. Sup6ngasc qtle , Y y Y son variables aleatorias independientes. Sca 2 = X + 1'. Sean AI,(t), M , r ( t ) y M,(t) las fgm respectivamente. Entonces, d e las variables aleatorias X , E' y 2,
h'lZ(t) =

izr,(i)nr,..(q

(10.13)

Dernostrucin:

Obseruacio'n: Este t.corema puede generalizarse como sigue: si S I , . . . , Sn, son variables aleatorias independientes con fgm, Al-yt, i = 1 , 2 , . . . , n entonces W z , la Fgnl de

CSL<

dada por

10.5 Propiedades reproductivas


H a y varias distribuciones d e probabilidades que tienen la notable y til propiedad siguiente: si dos ( o m5s) variables alcatorias independientes ~ I Iticncn C cicrta distribucinse suman, l a variable alcatoria que rcsulta

10.5

reproductivas Propiedades

287

tiene una distribucin del mismo tipo que la d e los sumandos. Esta propropiedud reproductiva, y la estableceremos para diversas piedad se llama distribuciones importantes con ayuda d e los teoremas 10.3 y 10.4.

EJEMPLO 10.1 1. Supngase queX y Y son variables aleatorias independientes con distribucionesN ( p 1 , a ; ) ,y N ( p 2 , ai),respectivamente. Sea 2 = X + Y . Por tanto,

Sin embargo, esto representa la fgm de una variable aleatoria distribuida p 1 +p2 y varianza al 2 +ai. As, 2 tiene normalmente con valor esperado esta distribucin normal. (Vase el Teorema10.3.)
Obsemacidn: El hecho d e que E ( Z ) = p 1 p2 y que V ( 2 )= u ; 6; pudo haberse obtenido inmediatamente d e los resultadosantcriorcs relacionados con las propiedades de la esperanza y la varianza. Pero para esmblccer que Z es3 otra vez distribuida normalmente fue necesario el uso d c la fgm. (lay otro planteamicnto para llegar a este resultado que mencionaremos en el captulo 12.)

EJEMPLO 10.12. La longituddeuna varilla aleatoriadistribuida 4 pulgadas y varianza 0.0 1 pulgada?. Dos normalmente con medida de de tales varillas se ponen extremocon extremo y se fijan en una muesca. El largo d e esta muesca es de 8 pulgadas con una tolerancia de &O. 1 d e pulgada. ?CuAl es la probabilidad d e q u ese ajusten las dos varillas? Representando conL1 y L2 las longitudes d e la varilla 1 y la varilla 2, tenemos que L = L1 L2 estA distribuida normalmente con E ( L ) = 8 y V ( L )= 0.02. Por tanto,

P[7.9 5 L 5 8.11 = P

5--<0.14 [0.14
7.9 - 8

L.- 8

8.1 - 8 - 0.14

= @(+0.714) - a(0.714) = 0.52G,

de las tablas de la distribucin normal. Podemos generalizar el resultado anterior en el teorema siguiente:
I

288 La funcin generadora de

momentos

10.5

Teorema 10.5. (la prol,iedad r@-oductiva de lu distribucin normd). Sean X I , X2,. . . ,X n , n variables aleatorias independientcs con distribucin N ( / L ~a:), , i = 1 , 2 , . . . ,n. Sea 2 = S 1 + . . . -Yn. 3 Entonces, Z tienc distribucin N(C:==, P;,C;=~ a;). La distribucin d e Poisson tambin posee una propiedad reproducha.

Teorema 10.6. Sean X I , . . . ,X n variables aleatorias independientcs. Supngase que X; tienc una distribucin de Poisson con parmetro ai, i = 1 , 2 , . . . ,n y sea 2 = X1 + . + X n . Lucgo, 2 tiene una distribucin d e Poisson con parmetro

Demostracin: Considcrcmos primero el caso d e n = 2:

Por lo tanto, M,(t) = e(cul+cra)(e-'I.Pero Csta es la fgm de unavariable de Poisson que tiene parrimctro01 "2. aleatoria con una distribucin Ahora podemos completar la demostracin del teorcma con ayuda de la induccin matemtica.

EJEMPLO 10.13. Supngasequeelnmerode llamadas que se recibcn en u n a central tclcfnica cntre las 9 A M y 10 A M es una variable aleatoria X 1 con una distribucin d e Poissoncon parmetro 3 . De manera similar, el nmero de llamadas que se reciben entre las 10 A M y 11 A M , digamos X2, tambin tiene una distribucin d e Poisson con parmetro 5. Si X1 y X2, son independientes, <cul es la probabilidad dc quese reciban ms d e cinco llamadas entre las 9 AM y las 11 A M ? Sea Z = X 1 + X2. Del teorema anterior, 2 tiene una distribucin d e Poisson con parmetro 3 + 5 = 8. Por tanto,

= 1 - 0.1912 = 0.8088

Otra distribuciGn con una propiedad reproductiva es la distribucin x-cuadrada.

10.5

reproductivas Propiedades

289

Teorema 10.7. Supngaseque la distribucin d e X; es i = 1 , 2 , . . . ,k , donde las X ; son variables aleatorias independientes. Sea 2 = X1 + + Xk. Entonces, 2 tiene distribucin &, donde
n = nl

xii,

+ + nl;.

Demostracin: De la ecuacin (10.1 O) tenem'os Mxi( t ) = (1 - 2t)-""/", i = 1 , 2 ,..., k .


Luego,

M&) = M & ( t )

M & ( t ) = ( 1 - ;!t)-(nl+"nk)/2

Pero sta esla fgm d e una variable aleatoriaque tienela distribucin

xi.

Ahora podemos dar una delas razones d e la gran importancia de l a distribucin X-cuadrada. En el ejemplo 9.9 encontramos que si A ' tiene distribucin N ( 0 , l ) ,S 2 tiene distribucin X:. Combinando esto con el teorema 10.7 tenemos el resultado siguiente.

Teorema 10.8. Supngase que X I , . . . ,X k son variables aleatorias independientes, cada una con distribucin N ( O , l ) . Entonces, S = X; X : tiene distribucin x 2 k.

distribucin x:&. Para encontrar la fdp deT , llamada h,, proseguiremos como es usual:

EJEMPLO10.14. Supngase que XI, . . . X n son variablesaleatoN(0,l). Sea T = rias independientes, cada una con distribucibn De nuestraexposicinpreviasabemosque T 2 tiene

+S i + +

d w .

H ( t ) = P ( T 5 t ) = P(T2 5

t2)

Por tanto tenemos


h ( t ) = II'(t)

290 La futrcitt generadora de momentos

10.5

Observaciones: a ) Si n = 2, la distribucin anterior se conoce como distribucio'n de Ruyleigh. (Vase el Prob. 9.7.) b ) Si n = 3, la distribucidn anterior se conoce como distribucin o k Muxu1ell (o,

algunas veces, como distribucin de velocidad de Maxwell) y tiene la siguiente interpretacin importante. Supngase que tenemos g;zs en un depsito cerrado. Representemos con (X,Y ,2) las componentes de la velocidad de una molcula escogida al azar. Supondremos que X , Y y 2 son variables aleatorias independientes, cada una con distribuci6n N ( 0 , u*). (Suponer que X , Y y 2 tienen la misma distribucibn, significa que la presin en el gas es la misma en todas direcciones. Suponer que las esperanzas son iguales a cero significa que el gas no est escaphdose.) Por lo tanto, la rapidez de la molcula (es decir, la magnitud de su velocidad) est dada por S = J X 2 + Y 2 + Z2. Observemos que X / a , Y / u y Z/u estn distribuidas de acuerdo con N(10,1). As, S / a = ~ ( X / ( + T ) ~ + ( Z / U ) tiene ~ distribucin de Maxwell. Por tanto, g, la fdp de la rapidez S , est dada por

LagrAfica de g se presenta en la figura g(s) 10.2 para u = 2. Observe que valores 4 muy grandes o muy pequeos de S son bastante improbables.(Puede demostrarse que l a constante u,que aparece como un parmetro en la distribucin anterior, tiene la siguiente interpretacin fica: u = donde T es la temperatura absoluta, M eslamasa de la molcula y k se conoce como la constante de Boltzmann.)

,/m,

S , S =d 2 / F

FIGURA 10.2

Hemos expuesto algunas distribuciones que tiene la propiedad reproductiva. Consideremos la distribucin exponencial que, en sentido sin embargo, POestricto no posee la propiedad reproductiva, pero que, see una propiedad anloga. Sean S;, con i = 1 , 2 , . . . ,T , T variables aleatorias independientes con idntica distribucin exponencial con parametro a. Entonces, de la ecuacin (10.7) tenemos

M&)
e -

= (./(a - t).

Luego, si Z = x'1 + S T , tenemos 211z(t) = [ a / a- t]', que precisamente es la funcin generadora de momentos de la distribucin

10.6

aleatorias Sucesiones variables de

291

gama con parmetro a y r (Ec. 10.9.) A menos que r = 1, sta no es la f g n d e u n a distribucin exponencial; as, esta distribucin no poseeunapropiedadreproductiva,perotcnemosunacaracterstica muy interesante d e l a distribucin gama que se resume en el teorema siguiente.

Teorema 10.9. Sea 2 = X1 + X r , do'nde las Xr; son r variables aleatorias independientes e idnticamente distribuidas, cada una d e las cuales tiene una distribucin exponencial con el (mismo) parmetro a. Se cumple, entonces, que 2 tiene una distribucin gama con parmetrosa y r.
Obse~vacwnes: a ) El teorema 10.9 no se. cumple silos parmetros de las diversas distribuciones esponenciales son diferentes. Esto se hace evidente cuando consideramos la fgm' de la suma resultante d e las variables aleatorias. b ) El corolario siguiente del teorema anterior ticne mucha importancia en ciertas aplicaciones estadsticas: la variable aleatoria L V = 2aZ tiene distribucin S;,. sta es una consecuencia inmediata dcl hecho d e que M ~ 7 ( t ) = n/lz(2at)= [ a / ( & - 2at)lr = (1 - 2t)-2T/2. Comparando esto con la ecuacin (10.10) rcsulta el corolario anterior. As podemos usar la distribucin tabulada dc X-cuadrada para calcular ciert3s probabilidades asociadas con 2.Por ejemplo, P ( Z 5 3) = P(2aZ 5 6a). Esta ltimaprobabilidad puede obtenerse directamente delas tablas d e la distribucin X-cuadrada, si se dan cy y r.

10.6 Sucesiones de variables aleatorias =


Supngase que tenemos una sucesin d e variables aleatorias X I , X'2, . . . , X, . . . Cada una de ellas puede describirse en trminos d e F;, su fda, donde F;(t) = P ( X i 5 t ) , i = 1 , 2 , . . . Muy a menudo nos interesa lo que succde a F; cuando i + OO. Es decir (hay alguna funcin de distribucin limite F correspondiente a alguna variable alcatoria A ' tal que, dc alguna manera, las variablesaleatorias S; converja.n a S ? Larespuesta es afirmativa en muchos casos, y hay un procedimicnto bastante directo para determinar F . T a l situacin puede aparecer cuando consideramosn observaciones independientes de una variable aleatoria X, llammoslas S I , . . . ,,Yn. Podramos interesarnos porel promedio aritnn6tico d c esas observaciones, X , = ( l / n ) ( X 1 + . - .+X,). De nuevo, x T t e s u nvarinl>le a aleatoria. la fda d e X,. Podra ser d e inters aprender lo que sucede a la Sea FTL distribucin d e probabilidades d e X, cuando n llega a ser grande.As,

292

La fulrcin generadora

de momentos

nuestro problema implica la conduct,a lmite de Fn cuando n .-+ m. El teorema siguiente, establecidosin demostracin, nos permitir resolver ste y otros problemas semejantes.

Teorema 10.10. Sean X I , . . . ? X n , . . . una sucesin de variables aleatorias con fdaF l ? .. . , F n ? .. . y fgm M I , . . . , M n , . . . Supngase que M n ( t ) = J/r(t),donde M ( 0 ) = 1. Luego, M(t) esla fgm fda F est6 dadapor Fn(t). de la variable aleatoria X cuya
Obseruacidn: El teorema 10.10 establece que para obtener la distribucin lmite buscada es suficiente estudiar las fbnciones generadoras de momentos d e las variables aleatorias que se consideran. Obtenemos el valor lmite d e las sucesiones M I , . . . , M,, . . ., llamado M ( t ) . Debido a la propiedad de unicidad d e la fgm, existe slo una distribucin d e probabilidades que corresponde a la fgm M ( t ) . Podemos aceptar M como la fgm de una distribucin conocida (como la normal, de Poisson, etc.) o bien podemos usar mtodos m5s avanzados para determinar la distribucin de probabilidades d e M. As como podemos obtener la fgrn conociendo la fdp, tambin podemos obtener (en condiciones completamente generales) la fdp conociendo la fgm. Esto implicara ciertos teoremas de inversin, por lo que aqu no lo estudiaremos.

1O. 7 Nota final

Hemos visto que la fgm puede ser una herramienta muy poderosa para estudiar diversos aspectos d e las distribuciones d e probabilidades. E n particular, encontramos muy til el uso de la fgm para estudiar sumas y d e variables aleatorias independientes e idhticamente distribuidas obtener diversas leyes reproductivas. Estudiaremos otra vez las sumas de variables aleatorias independientes en el captulo 12, sin usar la fgm, pero con mtodos semejantes a los que empleamos cuando estudiamos el producto y el cociente de variables aleatorias en el captulo 6.

PROBLEMAS
f(z) = 2 2 ,
a) Dctcrminar I n fgm de A. h ) Usando la fgm, calcular E

oI :2 5 1.

Observacin dca l p. 232.)

( S ) y V ( 9 ) y verificar la respuesta. (Vase la

Problemas

293

10.2. a ) Encontrar la fgm del voltaje (incluyendo el ruidot d como se expuso en el problema 7.25. b ) Usando la fgm, obtener el valor esperado y la varianza d e este volmje.
10.3. Suponer que X tiene la fdp siguiente f ( z >= A e - ( z - a )

, x>a.

(sta es conocida comouna distribucwn exponencial con dos parnztros.)


a)

b) Usando la fgm, encontrar E ( S )y

Encontrar la fgm d e X .

V(X).

a)

Encontrar la fgm d e X . . b) Usando la fgm, encontrar E ( X ) y V ( X ) .

10.4. Sea X cl resultado cuando sc lanza un dadoregular.

10.5. Encontrar la fgrn d e la variable aleatoria X del problema 6.7. Usando la fgm, encontrar E ( X ) y V(X).

10.6. Supngase quela variable aleatoria continua X tiene fdp

a)

b) Usando la fgm, encontrar E ( X ) y V ( X ) .

Obtener la fgm d e X .

10.7. Usando la fgm, demostrar quesi X y Y slon variables aleatorias independientes con distribucin iV(pz,C T ~y ) N ( p y ,u , )respectivamente, , entonces 2 = a X b Y est d e nuevo distribuida normalmente, donde a y b son constantes.

10.8. Suponer quela fgm de unavariable aleatoria X es de la forma

AIx(t) = (0.4et
a)

+ 0.6)
+

Cul esla fgm d e la variable aleatoria Y = 3X 2? b) Calcular E ( X ) . c) Se puede verificar la respuesta b) por algxn otro mtodo? [Trjtese d e reconocerM,(t).] 10.9. Varias resistencias, R;, i = 1,2, . . . , n, se ponen e n serie en uncircuito. Suponer que cada una de las resistencias est distribuida normalmente con E ( & ) = 10 ohms y I/(&) = 0.16:
U ) Si rz = 5, m51es la probabilidad de que la resistencia del circuito sobrepase los 49 ohms?

294 La funcin generadora de momentos


b ) ?Cul debe ser el valor d e n d e manera que la probabilidad de que la resistcncia total exceda los 100 ohms sea aproximadamente 0.05?

adems, que todasa l sresistencias son independientes.Sea R la resistencia total.

1O. 1O. E n un circuito se ponen n resistencias en serie. Supngase que cada una d e las resistencias est distribuida uniformemente en [O, 11 y sup6ngase,

a ) Encontrar la fgm d e R. b ) Usando la fgm, obtener E ( R )y V ( R ) .Verificar la respuesta conu n cdlculo directo.
10.11. Si X tiene una distribucin E ( S ) = n y V ( X ) = 2n.

x : ,

utilizando la fgm demostrar que

1O. 12. Supbngase que V, la velocidad de unobjeto (cdseg), tiene distribuci6n N(O,4). Si Ir = mV2/2 ergs es la energa cintica del objeto (donde m = masa), encontrar la fdp d e IC. Si m = 10 grs, calcular P ( I < 5 3).

10.13. Supngase que la duraci6n de un artculoest5 distribuida exponencialmente con par5metro 0.5. Supngase q u e 1O d e tales articulos se instalan en forma sucesiva, de manera que el i-simo artculo se instala inmediatamente despus de queel (i - 1) artculo ha fallado. Sea T i el tiempo para que ocurra la falla del i-sinlo artculo, i = 1 , 2 , .. . , 10 medido siempre desde el ticmpo d e instalacin. Por lo tanto S = TI . . . 710 representa el tiempo totnl de funcionamiento d e los 10 artculos. Suponiendo quelas T i son independientes, calcular P ( S 2 15.5).

+ +

1O. 14. Supngase que X1 , . . . , X80 son variables aleatorias independientes, donde cada una tiene distribucin N ( 0 , l ) . Calcular P[X; . . . Xio > 771. [Sugerencia: Usar el teorema 9.2.1

+ +

1O. 15. Demostrar que si X;, i = 1, 2 , . . . , IC representa el nmero de xitos en ni repeticiones de un experimento, donde P(@xito) = p , para toda i, entonces X 1 + . . . +XI,tiene una distribucin binomial. (Esto es, la distribucin binomial tiene la propiedad reproductiva.)

10.16. (La distribucindePoisson y la multinomial.) Supngase que X;, i = 1 , 2 , . . . , n son variables aleatorias distribuidas independientemente con una distribuci6n d e Poisson con parmetros a;, i = 1,.. . , n. Sea X = X;. Entonces la distribucin de probabilidades condicional conjuntad e X I , . . . , X , dada X = z est dada por una distribucinmultinomial. Esto es P(X1 = 1,. . . , x, = z , I X = z) = Z!/(Zl!. . .zn!)(LY1/Cp=l C y p . . . (a,/C;=l
a;).

1O. 17. Obtener la fgm de unavariable aleatoria que tiene una distribuci6n geomtrica. CEsta distribucin posee una propiedad reproductiva en la adicin?

Problemas

295

10.18. Si la variable aleatoria X &ne una fgm dada por Mx(t)= 3/(3 - t ) , obtener la desviacin estndar d e X . 10.19. Encontrar la fgm de una variable alleatoria que esti distribuida uniformemente en(- 1,2). 10.20. Cierto proceso industrial produce un gran nmero d e cilindros d e acero cuyas longitudes estn distribuidas normalmente con promediod e 3.25 pulgadas y desviacin estndar d e 0.05 pulgada. Si se eligen alazar dos d e tales cilindros y se ponen extremo con extremo, ?cul es la probabilidad d e que la longitud combinada sea menorque 6.60 pulgadas?

Obsemacidn: Al calcular AI$ (t), en t = O, puede aparecer una forma indeterminada. Es decir, M i ( 0 ) puede ser de la forma O/O. En tal caso debemos tratar d e aplicar la regla d e L'IIGpitd. Por ejemplo, si .X est dimibuida uniformemente en [O, 1 1 con Gcilidad encontramos que hf.,(t) = ( e t - 1)/ y h . I i ( t ) = (tet - et l ) / t 2 . Por tanto, para t = O, M i ( t ) es indeterminada. Aplicando la regla de L'MGpitaI encontramos que limt,o M ~ ( I ! ) = limt,o tet/2t = +. Esto concuerda, puesto que M i (O) = E(X), que es igual a para la variable aleatoria descrita aqu.

11.1 Conceptos bsicos

En este captulo estudiaremos unArea creciente y muy importante de aplicacin d e algunos d e los conceptos presentados en los captulos anteriores. Supngase que consideramos un componente (o un conjunto coma una espleto de componentes armados en un sistema) que se somete pecie d e tensin. Podra ser una barra de acero bajo una carga, un fusible puesto en uncircuito, un ala de aeroplanobajo l a influencia d e fuerzas, o un instrumento electrnico puesto1 en servicio. Supngase que se puede definir un estado que designaremos como falla para cualquier componente (o el sistema). Es decir, la barra de acero puede agrietarse o romperse, el fusible puede quemarse,el ala puede doblarse, o el instrumento electrnico puede dejar de filncionar. Si tal componente se pone en condiciones d e tensin durante un tiempo determinado, t = O, y lo observamos hasta que falla (es decir, tiempo deja d e funcionar correctamente debido a la tensin aplicada), el para que ocurru la fullu o la duracin Ilammos1.0 T , puede considerarse f. Hay evidencias como una variable aleatoria continua con una fdp

298 Aplicaciones a lala de teoru

confiabilidad

11.1

empricas que indican que el valor de T no puede predecirse con un modelodeterminista. Es decir, componentesidnticossometidos a tensionesidnticasfallarn en tiempos diferentes e impredecibles. Algunos Fallarn muy al iniciar su funcionamiento y otros en etapas posteriores. Por supuesto, la manera de fallar depender del tipo de artculo que se considera. Por ejemplo, u n fusible fallar d e improviso en el sentido de que en un momento dado funciona perfectamente y al momento siguiente no funciona. Por otra parte, una barra de acero bajo una carga pesada se debilitar probablemente en el transcurso d e u n largo periodo de tiempo. En cualquier caso, el uso de un modelo probabilstico, considerado T como una variable aleatoria, parece ser el nico planteamiento realista. Presentamos ahora el siguiente concepto importante.

Definicin. La conJiabilidud deuncomponente (o sistema)enel tiempo t , llammosla R(t),est definida como R ( t ) = P ( T > t ) , donde T es la duracin del componente R se llamafuncion de conJabilidad.
Observacwn: Aunque el trmino confiabilidad tiene diversos significados tcnicos, la acepcin anterior es la que en general se acepta. La definicin dada aqu expresa simplemente que la confiabilidad de un componente es igual a la probabilidad de que el componente no falle durante el intervalo [O, t ] (o, equivalentemente, la confiabilidad es igual a la probabilidad de que el componente an funcione despus de untiempo t). Por ejemplo, si para un articulo particular, R(t1) = 0.90, esto significa que casi el 90% de tales artculos, usados en ciertas condiciones, todava filncionan despus de untiempo t l . En trminos d e la fdp d e T , Uammosla f,tenemos

En trminos de la fda d e T , llammosla F , tenemos

R(1) = 1 - P ( T 5 t ) = 1 - F(1).

Adems de la funci6n confiabilidad R, otra funcin desempea un papel importante para describirlas partes que fallan de un artculo.

Definicin. La tasa de falla (instantnea) 2 (algunas veces llamada funcin de riesgo) asociada con la variable aleatoriaT est dada por

11.1

Conceptos bsicos

299
(11.1)

dcfinida para F ( t ) < 1.


Observacwn: A fin d e interpretar Z ( t ) consideremos In probabilidad condicional

es decir, la probabilidad de que el articulo falle durante las prximas At unidades d e tiempo, dado q u e cl articulo estA funcionando correctamente en cl instante 1. Aplicando la dcfinicin d e probabilidad condicional, podemos escribir lo anterior como

P(tLTLt+AtJT>t)=

P ( t < T < t + A t) P(T > t )

donde t 5 $ , 5 t At. La ltima expresin (parauna At pequeiia y suponiendo que f es continua en t por la derecha) es aproximadamente iguala A t Z ( t ) . As, en un lenguaje informal, A t Z ( t ) representa la proporcin de a~rticulosque estar5 entre t y t -+ A t , d e aquellos artculosque anfuncionan en el instante t : De lo anterior observamos que f, la fdp d e T , determina unvocamente la tasa d e falla 2. Indicaremos ahora que lo recproco mmbin es vlido: la tasa d e falla Z determina unvocamentc la fdp f .

Teorema 11.1. Si T , el tiempo para que ocurra la falla, es una variable aleatoria continua con fdp f y si F ( 0 ) == O, donde F es la fda d e T , entonces f puede expresarse en trminos de la tasa de falla 2 como sigue: j ( t )= z(t)e-Jo
t

Z ( s ) ds

(11.2)

300 Aplicaciones a la teoru de la confiabilidad


I ntcgrantlo ambos miembros de O a 1:

11.1

1m
1

= -

1 n(s>
R(s)

ds =

- 111

R ( s ) (0

I n R ( t ) + I n R(0) = - I n B ( t ) ,

suponiendo que 111R(0) = O lo que es d l i d o si y s1o si n ( 0 ) = 1. [Esta ltima condicinsesatisface si F ( 0 ) = O. Esto sinlplcmente expresa que la probabilidad de una falla inicial es igual a cero; harcmos esta suposicin durante el resto d e la exposicin.] Por tanto,

R ( t )= e hs .
f(l)=

J; Z ( s ) ds

t d F(t) = - [l - q t ) ]= z(l)e-Jo Z ( 3 ) ( / S

dt

Por lo tanto, hemos demostrado quc la tasa d e falla Z dctcrmina unvocanlente la fdp f . Existe una relacin intcresante entre la funcin de confiabilidad R y el tiempo promedio de falla, E ( T ) . Teorema 11.2. Si E ( T ) es finito, entonces,

E ( T )=
Denzostl-acin: Considcrar

lo

R(t) dt

(11.3)

Lo

R(t) d l =

im [i

f(s)

ds]

dt

11.2

La ley normal de falla

301

L a segunda integral del segundo miembro representa E ( T ) . Por tanto, la demostracin est complcta si podemos demostrar que t f(s) ds se anula en t = O y cuando t -+ m. La anulacin en t = O es inmediata. Sabiendo queE ( T ) es finita, el lectorpuede completar la demostracin. Los conceptos d e confiabilidad y tasa d e falla estrin entre las herralos modelos de mientas necesarias m B s importantes para un estudio de las siguientes preguntas: falla. Nos ocuparemos sobre todo de a) CuAles son las Icyes d e falla fundamentales que razonablemente se pueden suponer? (Es decir, qu forma tendra la fdp deT ? ) b ) Supngase que tenemos dos componentes, C1 y Cz, con leyes d e falla conocidas. Suponiendo quc dichos componentes se combinan en serie

so

o en paralelo

para formar un sistema, <cul es la ley d e Falla ( o confiabilidad) del sistema? L a pregunta cul es una ley d e falla razonable nos remite a un problema que hemos presentado antes: <cul es un modelo matemtico razonable para la descripcin de algunos fenmenos observables? Dcsde un punto de vista estrictamente matemtico, d e hecho podemos suponer cualquier fdp paraT y luego estudiar slo las c o n ~ ~ c u ~ n c i esta a~ de suposicin. Sin embargo, si estamos interesados en tencr un modelo que represente (lo ms exactamente posihle) los datos de fhllas disponibles en realidad, nuestra eleccin del modelo debe tener esto en cuenta.

11.2 La ley norma de falla

Hay muchos tipos de componentescuya cond m a d e falla puede representarse con l a distribucin normal. Es decir, si T es la duracin de un artculo, su fclp est dada por

302 Aplicaciones a la t e 0 6 de la cowjiabilidad

11.2

[Nuevamente observamos que el tiempo para que ocurra la falla T , debe ser mayor que, o igual a cero. Por tanto, para que el modelo anterior sea aplicable debemosinsistir en queP(T < O) est cercanaa cero.] Como la forma d e la fdp normal lo indica, una ley normal defalla implica que la mayora d e los artculos fallan alrededor del tiempo promedio de falla, E ( T ) = p y el nmero de fallas disminuye (simtricamente) cuando IT - pI aumenta. Una ley normal de falla significa que alrededor del 95.72% d e las fallas tiene lugar para los valores d e t que satisfacen { t I It - p I < 2u}. (Vase la Fig. 11.1.)

La funcin d e confiabilidad d e la ley normal defalla puede expresarse mediante la funcin de distribucin normal acumulativa tabulada @, como sigue:

R(t)= P(T

> t ) = 1- P(T 5 t )

=I-+-)

t-P

*N.del E. Obsrvese que P [ t I It - pI < 2u] = P[t I -2 < < 21 = @(2) - @(-a). De la tabla 1, @(a) = 0.9772 y @(-a) = 0.0228, por tanto, P[t I It - pI < 201 = 0.9544 y no 0.9572 como se indica en la figura.

11.3

La ley exponencial de falla 303

La figura 11.2 muestra una curva general de confiabilidad para una ley normal de falla. Ntese que para obtener una confiabilidad alta (0.90 o mayor), el tiempo de operacin debe ser considerablemente menor que p , la duracin esperada.

EJEMPLO 11.1. Supngase que la duracin de un componente est distribuida normalmente con una desviacin (estndar igual 10 a (horas). Si el componente tiene una confiabilidad de 0.99 para un periodo de operacin de 100 horas, Ccul debera ser su duracin esperada? La ecuacin anterior se transforma en
0.99 = 1 - @ 100 (-ib-)
1.1

De las tablas d e la distribucin normal se tiene (100 - p)/lO = -2.33. Por Io tanto p = 123.3 horas. La ley normal de falla representa un modelo apropiado para los componentes en los cuales la falla se debe a algunos efectos d e desgaste. Sin embargo, sta no es una de las m& importantes leyes d e falla que existen.

11.3 La ley exponencial de falla


Una de las leyes d e falla ms relevantes es aquella cuyo tiempo para que ocurra la falla se describe mediante la distribucin exponencial. Podemosdescribirla de varias maneras, pero probablemente la m& sencilla es suponer que la tasa de fallas es constante, es decir Z ( t ) = a. Una consecuencia inmediata d e esta suposicin es, segn Ia ecuacin (11.2), que la fdp asociadacon el tiempo para que ocurra la falla, T , est dada por

f ( t ) = a e -at

, t > O.

siguiente resultado importante.

El recproco es t a m b i h inmediato: si f tiene la forma anterior, R ( t ) = 1 - F ( t ) = e-at y, por tanto, Z ( t ) = f ( t ) / R ( t )= a. A s , tenemos el


Teorema 11.3. Sea T , eltiempoparaqueocurrauna falla, una los valores no negativos. variable aleatoria continua que toma todos

304 Aplicaciottes a la confiabilidad t e la o h de

11.3

Entonces, T tiene una distribucin exponencial si y slo si tiene una tasa constante d e fallas.
ObsPruaciu: Puede interpretarse que la suposicin de una tasa constante de fall= significa que despus deque el articulo se ha usado, la probabilidad de que falle no ha cambiado. Dicho de una manera ms informal, no hay efecto de desgaste cuando se estipula el modelo exponencial. Existe otra manera de expresarlo anterior, la cual hace estepunto an m& evidente. Considresepara At > O, P ( t 5 T _< t + At I T > 1). ksta representa I n probabilidad de que el artculo falle durante las siguientes At unidades, dado que no ha fallado e n el instmte t . Aplicando la funcin de probabilidad condicional, encontramos que

Por tanto, estaprobabilitlad condicional es indepcndiente d e f y slo depende de At. Es en este sentido que podemos decir que una ley esponencial de falla implica que la probabilidad d e fallar es independiente del pasado. Es decir, mientras el articulo funcione es tan bueno como si fuera nuevo. Si desarrollamos el segundo miembro de la expresin anterior en una serie d e Maclaurin obtenemos

= aAt

+ qat).

donde //(At) llega a serdespreciablepara At pequea. A s para At suficientemente pequea, la probabilidad anterior es directamente proporcional a At.

Para muchos tipos de componentes, la hiptesis que conduce a la ley exponencial d e falla no es slo intuitivamcnte atractiva sino que en realidad est sustentada en evidencias empricas. Por ejemplo, es muy razonablc suponer que un fusible o un cojinete d e rubes es tan bueno como si fuera nuevo mientras est6 funcionando. Es decir, si el fusible el cojinete no se h a fundido, prcticamente est como nuevo. Tampoco cambiar mucho debido al uso. En estos casos, la ley exponencial de falla representa un modelo apropiado para estudiar las caractersticas que fallan en un artculo.

11.3

La i'ey deexponencial

falla

305

Sin embargo, aqu debemos hacer una advertencia. Hay muchas situaciones que implican estudios d e fallas para las cuales las suposiciones bsicas que conducen a una ley exponenciall no sern satisfechas. Por ejemplo, si una pieza d e acero se expone a una tensin continua, evidentemente sufrir un deterioro y, por tanto,se debe considerar un modelo distinto al exponencial.

FIGURA 11.3
Aunque antes discutimos las distintas propiedades d e la distribucin exponencial, resumAmosla nuevamente a fin d e tenerla disponible para elobjetivo presente.(Vase la Fig. 11.3,) Si T , eltiempoparaque ocurra la falla, est5 distribuida exponenciallmente (con parmetro a ) , tenemos

E ( T )= l / a ;
F ( t ) = P(T 5 t ) = 1 - ,-at;

V ( T )= 1/cy2; R ( t ) = e--cut

EJEMPLO 11.2. Si se da el pargmetro cy y se especifica R ( t ) ,podemos As, si a = 0.01 y R(t) es encontrar t , el nmero de horas de operaci6n. igual a 0.90, tenemos
0.90 = e
-0.012

Luego t = -100 ln(0.90) = 10.54 horas. Por tanto, si los 100 componentes funcionan durante 10.54 horas, aproxi:madamente 90 no fallarn durante ese periodo.
Observaciones: a) Es muy importante darse cuenta de que enel caso exponencial podemos identificar el tiempo d e operaci.6n (de algiln valor inicial fijo

306 Aplicaciones a laconfiabilidad teori la de

11.3

arbitrario) con la d u d para funcionar. Porque en este caso, un artculo que no 112 fallado es tan bueno como si fuera nuevo y, por tanto, su conducta durante cualquier periodo d e servicio depende slo d e la longitud d e ese periodo y no de su historia anterior. Sin embargo, cuando se supone una ley de falla no exponencial (tal como la ley normal o una de las distribuciones que consideraremos en breve), la historia pasada tiene efecto sobre el comportamiento del artculo. Por tanto, mientras podamos definir T como el tiempo en servicio (hasta la falla) para el caso exponencial, debemos definir T como la duracin total hasta la falla para los casos no esponenciales. b) La distribucin exponencial, que hemos presenmdo en relacin con la duracin d e los componentes, tiene muchas otras aplicaciones importantes. En realidad, cada vez que una variable aleatoria continua T que toma valores no negativos satisface la suposicin P(T > S + t I T > S) = P(T > t ) para toda S y t , T tendr5 una distribucin exponencial. A s , si T representa el tiempo que demora un fitorno radioactivo en desintegrarse, podemos suponer que T e s t i distribuida exponencialmente, puesto que la suposicin anterior parece satisfacerse.

EJEMPLO 11.3. No es irrazonable suponer que cuesta ms producir que uno con una esperanza un artculocon una gran duracin esperada pequea de duracin.Especficamente suponemos que el costo C para producir un artculo es la siguiente funcin d e p , el tiempo promedio para que ocurrala falla,

c = 3 p2 .
Supngase que se obtiene una utilidad deD dlares por cada hora que el artculo est en servicio. Luego, la utilidad por artculo est dada por
2 P=DT-3p,

donde T es el nmero de horas que el artculo funciona correctamente. Por tanto, la ganancia esperada est dada por

Para encontrar para qu valor de p esta cantidad es mxima, simplemente hacemos d E ( P ) / d p igual a cero y resolvemos para p . El resultado es p = DIG y, por tanto, la utilidad esperada mxima pol- artculo es =, 0/12. ~ ~ igual a E ( P ) ~

11.4

La ley exponencial de falla y

la

distnbucidn de Poisson

307

EJEMPLO 11.4. Reconsideremoselejemplo 1 1.3, haciendo las siguientessuposicionesadicionales.Supngase que T , el tiempo para que ocurra laTalla, est distribuida exponencialmente con parrimetro (Y. Luego p , el tiempo esperado para que ocurrala Talla, est dada por p = l/cr. Supngase, adems, que si el artculo no funciona correctamente al menos un nmero especfico d e horas, digamos t o , se fija un castigo igual a K(to - T ) dlares, donde T(2 < to) es el tiempo en el cual tiene lugar la falla. Por tanto, la utilidad por artculo est dada por P = DT -3p2
si T

> to,

L,uego, la utilidad esperada (por artculo) puede expresarse como

E(P)= D

1
O

00

tae-at

d t -3p 2 e -afo
10

+ ( D + Ii)

I Jo

tae-at

dt -(3p2

+ I<to)(l - e-Oto).

Despus de algunas integraciones inmediatats, lo anterior puede escribirse como

Ntese que si K = O, esto se reduce al resultado obtenido en el ejemplo 11.3. Podramos formularnos una pregunta anloga a la que I L toma E ( P ) su apareci en el ejemplo previo: <para qu valor de valor mximo? No proseguiremos con los detallcs de este problema, puesto que implica la solucibn de una ecuacitjn trascendental que debe resolverse numricamente.

11.4 La ley exponencial de falla y la distribucin de Poisson


Hay una conexin muy cercana entre la ley exponencial d c falla descrita en la seccin anterior y un proceso d e Poisson. Supngase que la Talla ocurre debido a la aparicin de ciertos accidentes aleatorios. &tos pueden deberse a fuerzas externas tales como una repentina rfaga de viento o una cada ( o aumento) de voltaje o por causas internas tales

308 Aplicaciones la a

confiabilidad teoria la de

11.4

como una desintegracin qumica o un mal funcionamiento mecnico. Sea Xi igual al nmero de accidentes que ocurren en un intendo de tiempo de longitud t y supongamos que X;, t 2 O, constituye unproceso de Poisson. Es decir, para cualquier t fija, l a variable aleatoria X't tiene l a falla en una distribucin de Poisson conparmetro at. Supngase que [O, t ] se produce si y slo si al menos uno detales accidentes ocurre.Sea T el tiempo para que ocurra la falla, que supondremos es una variable aleatoria continua; entonces,

F ( t ) = P(T 5 t ) = 1 - P(T

> t).

Ahora, T > t si y slo si ningtn accidente ocurre en [O, t ] . Esto sucede si y slo si Xt = O. Por lo tanto,

F ( t ) = 1 - P ( X t = O) = 1 - e "(Yt
Esto representa l a fda de unaley exponencial de falla. Encontramos as que la "causa" anterior delas fallas implica una ley exponencial de falla. Las ideas anteriores se puedengenerulizur d e dos maneras. u ) Nuevamente suponemos que los accidentes aparecen de acuerdo con un proceso de Poisson. Suponemos, adems, que cada vez que aparece tal accidente hay una probabilidad constante p de que ste no producir fallas. Por tanto, si T es el tiempo para que ocurra la falla, tenemos, como antes,

F ( t ) = P(T 5 t ) = 1- P(T

> t).

Esta vez, T > t si y slo si (durante [O, t ] )no ocurre ningn accidente,o sucede un accidente? ninguna falla aparece, o dos accidentes ocurreny no aparece ninguna falla, o... Por tanto,

As, T tiene u n a Icy exponencial de fallascon parmetro a(1 - p ) . (Ntese que si y = O, tenemos el caso expuesto previamente.)

11.5

La ley de fallas de Weibull 309

b ) Supngase de nuevo quelos accidentes aparecen de acuerdo con un proceso d e Poisson. Esta vez supondremos que las fallas ocurren cada vez que r o m L accidentes ( r 2 1) ocurren durante un intervalo de la falla, tenemos, longitud t. Por tanto, si T es el tiempo para que ocurra como antes,
F ( t ) = 1 - P(T

> t).
Por

En este caso, T tanto,

> t si y slo si ( r - 1) o menos accidentes ocurren.

De acuerdo con la ecuacin (9.17), loantelriores igual a J i [ ( ~ / (r l ) ! ] ( a s ) p - 1 e " C yds 3 y, por tanto, representa la fda de una distribucin gama. As, encontramos que la "causa" anterior para que ocurrala falla sigue una ley g u m de fallas. (Por supuesto, si T = 1, sta se transforma en una distribucih exponencial.)

11.5 La ley de fallas de Weibull


Modifiquemos la noci6n de tasa constante d e fallas que condujo a la ley exponencial defalla. Supngase que la tasa d e fallas 2, asociada con T , la duracin de un artculo, tienela forma siguiente:
Z ( t ) = ((Yp)lp-'7 (11.4)

donde (Y y p son constantes positivas. De la ecuaci6n (11.2) obtenemos la expresin siguiente parala fdp deT :

Se dice que la variable aleatoria con fdp dada porla ecuacin (1 1.5) tiene una distribucidn de Weibull. La figura 11.4 muestra la fdp para (Y = 1 y

p = 1 , 2 , 3 . La funcin d e confiabilidad R est dada por R ( t ) = e-(YtP


que es una funcin decreciente de t.

3 10 Aplicaciones a la teoru de la confiabilidad

11.5

0.4

0.8

1.2

FIGURA 11.4

Obsemucin: La distribucin exponencial es un caso especial de distribucin d e Weibull, puesto que obtencmos l a distribucicin exponencial si hacemos / 3=1 en la ecuacin (1 1.4). L a suposicin (Ec. 11.4) establece que Z ( t ) no es una constante, sino que es proporcional a las potencias d e t . Por ejemplo, si /?= 2, 2 es una funcin lineald e t ; si /3 = 3, Z es una funcin cuadrfitica de t , etc. As, Z es una funcin creciente, decreciente o constante d e t , segtn el valor d e /?, como se indica en la figura 1 1.5.

t-

2 es constante

p= I

Z cs creciente

Z es decreciente

FIGURA 11.5
Teorema 11.4. Si la variable aleatoria T tiene una distribucicin d e Weibull con fdp dada por la ecuacin (1 1 4 , tenemos
(11.6)

(11.7) Demslracio'n: Vase cl problema 11.8.

11.6

Conjobdidad de los sistemas

3 11

Observacidn: La distribucidn d e Weibull representa un modelo apropiado para unaley d e falla siempre que el sistema est compuestopor cicrto nmero d e componentes y la falla se deba principalmente al defecto m& grave en un gran nmero de defectos del sistema. TambiCn, utilizando la distribucin d e Weibull, podemos obtener una tasa d e fallas creciente y decreciente al hacer simplemente una eleccin apropiada del parmetrop. En ningn caso hemos agotado el nmero de leyesd e falla razonables. Sin embargo, las que hemos mencionado son, por cierto, sumamente importantes en la medida que representan modelos significativos para el estudio d e las caracteristicas d e falla e n componentes o en sistemas d e componentes. 11.6 Confiabilidad de los sistemas
Ahora que hemos considerado un nmero importante de distribuciones la seccin d e fallas podemos volver a la segunda pregunta propuesta en 11.1: cmo evaluar la confiabilidad de un sistema si conocemos la confiabilidad d e sus componentes? ste puede ser un problema muy dificil y sloanalizaremos un caso ms sencillo (pero relativamente importante). Supngase quelos dos componentes estn acoplados en serie.

Esto significa que, para que el sistema anterior funcione,umbos componentes deben funcionar. Si, adems, suponemos que los componentes funcionan independientemente, podemos obtener la confiabilidad del sistema, llammoslo R(t), en trminos d e la confiabilidad d e los componentes, digamos R l ( t ) y R,(t), como sigue:

R ( t ) = P(T

>t) >t)

(donde T es el tiempo para que ocurra la falla del sistema) (donde T I y T2 son los tiempos para que ocurra la falla d e los componentes C1 y C2, respectivamente)

= P(T1 > t y T2

= P(T1

> t)P(T2 > t ) = Rl(t)R:,(t).

As, encontramos que R ( t ) 5 mn[Rl(t), R,(t)]. Es decir, para un sistema formado por dos componentes independientes en serie, la conl a confiabilidad de cualquiera de sus fiabilidad del sistema es menor que partes.

3 confiabilidad 12laAplicaciones teoria de la a

11.6

La exposicin anterior puede generalizarse, por supuesto,a n componentes y obtenemos el teorema siguiente. Teorema 11.5. Si n componentes,quefuncionanindependientey si el i-simo componente tiene mente, estn conectados en serie, confiabilidad R;(t),entonces l a confiabilidad del sistema completo, R ( t ) ,est dada por

R ( t ) = E l ( t ) . R&)

* * *

R,(t).

(11.8)

Enparticular, si TI y T2 tienen leyes de falla exponencialescon parmetros a1 y a2, la ecuacin (1 1.8) se transforma en

Por lo tanto, la fdp del tiempo para que ocurran las fallas del sistema, llammoslo T , es dado por

As establecemos el resultado siguiente.


Teorema 11.6. Si dos componentes que funcionan independientemente y tienen fallas exponenciales con parametros al y a 2 estn conectados en serie, la ley de falla del sistema resultante es d e nuevo exponencial con parAmetro iguala al q .

(Este teorema obviamente se puede generalizar a n componentes en serie.)

EJEMPLO11.5. (Tomado de l . Bazovsky, Reliability, Theory and Cliffs, Nueva Jersey, 196 1.) Pructice, Prentice-Hall, Inc., Englewood Considrese un circuito electrnico que constad e 4 transistores d e silicio, 10 diodos d e silicio, 20 resistencias compuestas y 10 condensadores d e cermica en una operacin continua en serie. Suponiendo que en ciertas condiciones d e tensin (es decir, voltaje prefijado, corriente y temperatura), cada uno de esos artculos tiene la siguiente tasaconstunte d e fallas.

11.6

Confiabilidad de los sistemas

3 13

de

diodos

silicio: silicio:

0.000002
0.00001 0.00000 1
0.000002

transistores de resistencias compuestas:

condensadores d e cermica:

Debido a la tasa constante de fallas supuesta, l a distribucin exponencial representa la ley d e falla para cada uno de los componentes anteriores. Debido a la conexin en serie, el tiempo para que ocurra la falla del circuito completo est de nuevo distribuido exponencialmente con parmetro (tasa d e falla) igual a:
10(0.000002)

+ 4(0.00001) + 20(0.000001) -t 10(0.000002) = 0.0001.

Por tanto, la confiabilidad del circuito est dada por R ( t ) = e-O.OOO1t As, para un periodo de 10 horas d e operacin l a probabilidad de que el circuito no falle est dada por e-O.OOO1(lO) = 0,999. El tiempo es@rado para que el circuito falle es igual a 1/0.0001 := 10.000 horas. Otro sistema importante es u n sistema en paralelo en el cual los componentes estn conectados d e tal manera que elsistema deja d e funcionar slo si todos los componentes dejan de funcionar. Si slo dos comel sistema puede dibujarse como en la figura ponentes estn implicados, 11.6. Suponiendo nuevamente quelos componentes funcionan independientemente unos deotros, la confiabilidad del sistema, llammosla R(t), puede expresarse en trminos de la confiabilidad d c los componentes, R l ( t ) y Rz(t),como sigue:

R ( t )= P ( T > t ) = 1- P ( T 5 t )
= 1 - P[T1 5 t y

F: 5 t]

= 1 - P(T1

5 t)P(T2 5 t )

= 1 - {[l- P(T1 = Rl(t)

> t ) ][l - P ( q ? > t ) ] }

= 1- 1 1 - R , ( t ) ] [ l- R&)]

La ltima forma indica que R ( T ) 2 mximo [ R l ( t )R2(t)]. , Es decir, un sistema integrado por dos componentes que: funcionan independientemente en paralelo serms confiable que cualquiera delos componentes.

+ Rz(t)- Itl(t)&(t).

3 14 Aplicaciones a la teoria de la confiabilidad

"

11.6

FIGURA 11.6

Todas las ideasantespresentadasparadoscomponentespueden generalizarse en cl teorema siguiente.

Teorema 11.7. Si n componentes que funcionan independientemente actan en paralelo, y si el i-simo componente tiene confiabilidad R;(t),entonccs la confiabilidad del sistema, digamos R ( t ) ,est dada por

R ( t ) = 1 - [l - Rl(t)][1- R2(t)]"[l

- Rn(t)].

(11.9)

A menudo sucede que todoslos componentes tienen igual confiabilidad, digamos que R;(t) = r ( t ) para toda i. En este caso, la expresin anterior se transforma en
R ( t ) = 1 - [l - +)In

(11.10)

Consideremos, en particular, dos componentes en paralelo, cada uno d e ellos con tiempo de falla distribuido exponencialmente. Luego,

As, l a fdp del tiempo falla de del sistema en paralelo, 1lamCmoslo T , est5 dada por f ( t ) = -R'(t) = CylC" + a 2 e - a 2 t - ("1 -(al+aZ)t*

Por tanto, T n.o est distribuida exponencialmente. El valor esperado d e T es igual a:

E(T)= -

1 1 + -a 1 a2 "1 + a2 1

Considerando que a menudo una serie de operaciones es obligatoria (es decir, un nmero de componentes debe funcionar para que el sistema runcione), con frecuencia usamos una operacin en paralelo a fin d e

11.6

Confiabilidad de

los sistemas 3 15

aumentar la confiabilidad del sistema. El ejemplo siguiente ilustra este punto.

EJEMPLO 11.6. Supongamos que tres unidades estn trabajando en paralelo y que cada una tiene la misma tasa constante defallas (Y = 0.01 . (Es decir, el tiempo para que ocurra la falla d'e cadauna delas unidades est distribuido exponencialmente con parametro a = 0.01. Por tanto, , Y la confiabilidad para cada una d e las unidades es R ( t ) = as la confiabilidad en un periodo de o p e r a d n d e 10 horas es igual a e-'" = 0.905 o alrededor del 90%. Cuntia mejora puede obtenerse (en trminos del aumento dela confiabilidad) al funcionar tres d e tales unidades en paralelo?

10 50

,
I

100

200

300

400

t (horas)

FIGURA 11.7

La confiabilidad d e tres unidades que funcionan en paralelo durante 10 horas sera R(l0) = 1 - [I - O.9O5I3 = 1 - 0.00086
= 0.99914

o alrededor del 99.9%

En l a figura 11.7 vemos las curvas d e confiabilidad de una sola unidad contra las tres unidades en paralelo. Para la unidad nica, R ( t ) = e"(Yt, mientras que para las tres unidades en paralelo, R ( t ) = 1 - (1 - e"(Yt)3, con (Y = 0.01. Hemos considerado, hasta ahora, slo las maneras ms sencillas d e combinar unidades individuales en un sistema, llamadas operaciones en serie y en paralelo delos componentes. IIay muchas otras formas de combinar componentes, pero slo nombraremos unas cuantas. (Vase con esas la Fig. 1 1.8.) Algunas d e las preguntas qu,e aparecen en relacin combinaciones se considerarn en los problemas al final del captulo.

3 16 Aplicaciones a la teora de la confiabilidad

FIGURA 11.8 a) Series en paralelo. (Consideramos aqu grupos de componentes los cualestiene, por cn paralelo como en un circuito, cada uno de ejemplo, nz componentes en serie.) B) Paralelos en serie. c) Sistema sostenido. Aqu consideramos dos componentes, d e los cuales, el segundo se mantiene y funciona si y slo si el primero falla. En estc caso, instantneamente se acepta el segundo componente y funciona e n el lugar del primero.
Expongamos brevemente el concepto d e factor de seguridad. Supngase que la fuerza S que se aplica a una estructura se considera como una variable aleatoria (continua). En forma similar, la resistencia d e la estructura, llammosla R, se puede considerar tambin como una variablealeatoriacontinua.Definamos el factor d e seguridad de la estructura como la razn d e R a S .

R/S.

Si I 2 y S son variables aleatorias independientes con fdp g y h, respectivamente, entonces l a fdp deT est dada por

(Vase el Teorema 6.5.) La estructura fallar si S > R, es decir, si T Por tanto, la probabilidad d e fallar PF = JJ f ( t ) d t .

< 1.

PROBLEMAS
1 1.l . Supngase que T , el tiempo para que ocurra la falla d e u n artculo, est distribuida normalmente con E ( T ) = 90 horas y desviacin estndar d e 5

Problemas

317

horas. A fin de obtener unaconfiabilidad d e 0.90, 0.95, 0.99, CuAntas horas d e operacin se deben considerar? 11.2. Suponer quela duracin d e u n instrumento electrnicoest distribuido exponencialmente. Se sabe que la confiabilidad del instrumento (para un periodo d e operacin d e 100 horas) es 0.90. {Cujntas horas de operacin se deben considerar para obtener una confiabilidad d e 0.95? 11.3. Suponiendo que la duracin de un instrumento tiene una tasa constante d e falla Co para O < t < to y una tasa constante distinta C1 para t to, determinar la fdp de T , el tiempo para que ocurra la falla, y dibujarla.

>

11.4. Supngase quela tasa d e fallas Z e s d dada por

Z(t)= O,
=C,

O <t < A,

t>A

(Esto implica que ninguna falla ocurre antes d e T = A . )


a)

Encontrar la fdp asociada con T , el tiempo para que ocurra la falla. b ) Calcular E ( T ) 11.5. Suponer quela ley d e h l h d una e componente tienela siguiente fdp:

f(t) = ( r + l)A'+'/(A
a)

+t)r+2,

t > O.

Para quvalores d e A y r es la anterior una fdp? b ) Obtener una expresin para la funcin d e confiabilidad y l a funcin d e riesgo. c) Demostrar que la funcin d e riesgo es decreciente en t .
1 1.6. Supngase quela ley d e falla de uncomponente es una combinacin lineal d e IC leyes exponenciales d e falla. Es decir, la fdp del tiempo para que ocurra la falla est dada por

?Para qu valores d e cj es la anterior fdp? b ) Obtener una expresin parala hncin de confiabilidad y la funcin d e riesgo. c ) Obtener una expresin del promedio ti'empo del para queOcurra la falla. d ) Responder b ) y c ) si pj = p para toda j .
a)

3 18 Aplicaciones a la teori de la conjiabilidad


11.7. Cada uno delos seis tubos de un equipo de radio tiene una duracin (en aos)que puede considerarse como una variable aleatoria. Supngase que esos tubos filncionan independientemente uno d e otro. CuA es la probabilidad de que ningtn tubo tenga que ser reemplazado durante los primeros dos meses d e servicio si:

a ) La fip del tiempo para que ocurra la falla es f ( t ) = 50te-25t2, t > O? b ) La fdp del tiempo para que ocurrala falla es f ( t ) = 25te-25t, t > O?
11.8. Demostrar el teorema 11.4. 11.9. La duracin de un satdite es una variable aleatoria distribuida exponencialmente conun tiempo d e duracin esperadod e 1.5 aos. Si tres satlites se lanzan en forma simultnea, cul es la probabilidad d e que por lo menos dos estn a6n enrbita despus de 2 aos?

FIGURA 11.9
11.10. Tres componentes que funcionan independientemente estAn conectados en un sistema aislado como se indica en la figura 11.9. Suponiendo que la confiabilidad d e cada componente para un periodo de t horas de operacin est5 dada por

Si T es el tiempo para que ocurra la fdla del sistema completo (en horas), cul es la fdp de T ? Cu# es la confiabilidad del sistema?, Cmo se compara con
e- .Q3t; i

11.11. Supngase que n componentes que funcionan independientemente son conectados e n u n arreglo e n serie. Suponer que el tiempo para que ocurra la falla d e cada uno de los componentes est5 distribuido normalmente con esperanza d e 50 horas y desviacin estndar de 5 horas.

a ) Si n = 4, cul es la probabilidad d e que el sistema funcione despus de 52 llorasd e operacin? b ) Si n componentes se conectan en paralelo, cul dcbera ser el valor d e n a fin que la probabilidad d e fallar durante las primeras 55 horas sea aproximadamente igual a 0.01?
1 l . 12. Tomado d e Derman y Klein, Probability and Statistical Inference. Oxford University Press, Nueva York, 1959.) La duracin ( L ) en meses de cierto tubo al vaco usado en un equipo de radar est distribuida exponencialmente con parmetro P = 2. Al establecer su programa preventivo de mantenimiento,

una compaa desea saber cuntos meses (m)despus d e la instalacin deberA reemplazarse el tubo para minimizar el costo esperado por tubo. El costo por tubo e n dlares se denota con C. El tiempo til m& corto empleado entrela instalacin y la sustitucin es 0.01 mes. Obedeciendo a esta restriccin, {qu valor de m minimiz E ( C ) , el costo esperado en cada una de las situaciones siguientes, donde el costo C es la funcin dada deL y m?
a ) C ( L , m )=

( L- m 1.
si L >_ m.

b,)C(L,m) = 3 si L < m ,

c ) C ( L , m ) = 2 si L < m ,

= 5 ( L - m ) si L >_ m .

=5(L-m)

(En cada uno delos casos dibuje una grfica d e E ( C ) como funcin d e m.)

Observacwn: Evidentemente C es una variable: aleatoria, puesto que es una funcin d e L la cual es una variable aleatoria. .G(C) es una funcin de m, y el problema slo pide encontrar el valor d e m que minimiza E ( C ) , sujeta a la restriccin que m 2 0.01.
11.13.Suponer que la tasa d e fallas asociada cam la duracin T de un artculo est dada porl a funcin siguiente:

Observacwn: SUrepresenta otrageneralizacin d e la distribucin exponencial. Lo anterior reduce a una tasa constante d e fallas (y, por tanto a la distribucin esponencial), si C1 = O.
a)

Obtener la fdp de T , el tiempo para que ocurra la falla. b ) Obtener una expresin parala confiabilidad R ( t )y dibujar su grfica.

11.14. Suponer que cada uno de tres instrumentos electrnicos tiene una ley d e falla dada por unadistribucin exponencial con parmetros P I ,Pz y P3. Supngase que los tres instrumentos funcionan independientemente y e s t h conectados en paralelo para formar unsolo sistema.
Obtener unaexpresin para R ( t ) ,la confiabilidad del sistema. b ) Obtener una expresin para la fdp d e T , el tiempo para que ocurra la Olla del sistema. Dibujar la fdp. c) Encontrar el promedio d e tiempo para que ocurra la Falla del sistema.
a)

1 l. 15. a) Supngase quen componentes estn conectadosen un arreglo en serie. Luego k d e tales conexiones en serie se conectan en paralelo para formar un sistema completo. (Vase la Fig. 11.10)Si rada uno de los cornponentcs

320 Aplicaciones a la teoria de

la

confiabilidad

Liene la misma confiabilidad, d i p m o s R, para un periodo determinado de operacin, encontrar una expresin para la confiabilidad del sistema completo (para ese mismo periodo d e operaciones). b) Supngase que cada uno de los componentes anteriores sigue una ley esponencial de falla con tasa d e falla 0.05. Supngase, adems, que el tiempo d e operacin es diez horasy que n = 5. Determinar el valor de k para que la confiabilidad dcl sistema completo sea igual a0.99.

c k l

Ck2

FIGURA 11.10

11.16. Supngase que k componentes estn conectados en paralelo. Entonces, n d e tales conexiones en paralelo estn unidase n serie e n u n solo sistema. (Vase la Fig. 1 1.1 1.) Responder a ) y b ) del problema1 l. 15 para esta situacin.

FIGURA 11.11
11.17. Supngase que 71 componentes,cadauno d e los cuales tiene la misma tasa constante d e fallas X, estnconectadosenparalelo.Encontrar una expresidn para el tiempo promedio para que ocurra la falla del sistema resultante.
1l . 18. a ) Un sistema de propulsin areo consta d e tres motores. Supngase que la tasa constante d e fallas para cada uno d e ellos es X = 0.0005 y que los motores fallan independientemente uno de otro. Los motores estn conectados en paralelo. CCul es la confiabilidad d e este sistema de propulsin para una misin que necesita 1 O horas, si por lo menos dos motores deben resistir? b ) Responder la pregunta anterior para una misin que necesita 100 horas y 1000 horas. (Este problema se tom dc una exposicin en I. Bazovsky, Reliability TlwoT m r l Practice. Prentice-Hall, Inc., Englewood Cliffs, Nueva Jersey, 1961.)

Problemas

32 1

+
FIGURA 11.12

11.20. Si todos los componentes considerados en el problema 11.19 tienen la misma tasa constante d e fallas X, obtener una expresin para la confiabilidad R(t) del sistema indicado en la figura 11.12 b ) . Tambinencontrar el tiempo medio para que falle este sistema. 11.21. El componente A tiene una confiabilidad 0.9 cuando se utiliza con un propsito particular y el componente B , que puede usarse en lugar del componente A, tiene una confiabilidad d e slo 0.75. {Culesel nmero mnimo d e componentes del tipo B que tendran que conectarse en paralelo para obtenerla confiabilidad que el componenteA tiene por s mismo? 11.22. Supngase que dos componentes que fiuncionan independientemente cada uno con la misma tasa constmte defalla, estn conectados en paralelo. Si T es el tiempo para que ocurrala falla del sistema resultante, obtener la fgm d e T . Tambin determinar E ( T ) y V ( T )usando la fgm. 11.23. Cada vez que hemos considerado un\istema formado por diversos componentes, hemos supuesto que los componentes fkncionan independientemente uno de otro. Esta suposicin ha simplificado considerablemente nuestros clculos. Sin embargo, esto puede no ser siempre una suposicin realista. En muchos casos se sabe que el comportamiento de un componente puede afectar el comportamiento d e los otros. Esto es, en general, un problema muy dificil, y aqu slo consideraremos u n caso especial. Supongamos especficamente que dos componentes,C, y C,, siempre fallan juntos. Es decir, C, falla

322 Aplicaciones a la

teor

de la confiabilidad

si y slo si Falla C2. Demostrar que en este caso, P ( c 1 falle y (22 falle) = P(C1 falle) = P(C2 falle).

FIGURA 11.13
11.24. Considrese cuatro componentes, C1, C2, C3 y C, conectados como se indic en la figura 11.13. Suponer quelos componentes funcionan independientemente uno de otro con excepcin d e C1 y C2, que siempre fallan juntos como se describi en el problema 112 3 . Si T , , el tiempo para que ocurra la falla del componenteC;, estA distribuido exponencialmente con parhmetro pi, obtener la confiabilidad R ( t )del sistema completo. Obtener tambin la fdp d e T , el tiempo para que ocurra la falla del sistema. 11.25. Considrese el mismo sistema tal como se describi en el problema 112 4 . exccpto queesta vez los componentes C1 y C3 fallan juntos. Responder las preguntas del problema 1 1.24.

12.1 Introduccin

En este captulo queremos precisar algo que hemos indicado loalargo repeticiones de un experimento del texto. Esto es, cuando el nmero de evento A , converge (enun senaumenta f ~ la,frecuencia relativad e u n tido probabilistic0 que describiremos) ala probabilidad tericaP ( A ) . Es este hecho lo que nos permite identificar la fi-ecuencia relativa d e u n evento, basada en un gran nmero de repeticiones,lacon probabilidad del evento. Por ejemplo, si se produce un artculo nuevo y no tenemos conocimiento previo acerca de cuan probable es que el artculo sea defectuoso, podramos proceder a inspeccionar un gran nmero d e esos artculos, digamos N , contar el nmero de artculos defectuosos que hay entre ellos, sea n, y luego usar ,/Ar como una aproximacin paral a probabilidad de que un artculo sea defectuoso. El nmero n / N es una variable aleatoria y su valor depende esencialmente de dos cosas. Primero, el valor d e n / N depende dela probabilidad fundamental p (posiblemente n / N dependesconocida) d e q u e u n artculo sea defectuoso. Segundo, d e d e los N artculos que en particular hemos inspeccionado. Lo que

324 Sumas de variables aleatorias

12.2

demostraremos es que si el mtodo de elegir los N artculos es aleatorio, entonces el cociente n/hrest cercano a p (en un sentido quese va a describir). Es evidente que la eleccin aleatoria d e los N artculos es importante. Si eligiramos por ejemploslo los artculos que presentan alguna caracterstica fisica externa, podramos prejuiciar gravemente nuestro clculo.)

12.2 La ley de los grandes nmeros


Con la ayuda de la desigualdad de Chebyshev (Ec. 7.20) podemos derivarelresultadoantescitado.Consideremosotra vez unejemplo. 0.95 d e Supngase que un cohete dirigido tiene una probabilidad de As, si funcionar correctamente durante cierto periodo de operacin. disparamos hT cohetes que tienen la confiabilidad anterior, y si S es el nmero de cohetes que no funcionan en forma correcta, tenemos E ( X ) = 0.05AT, puesto que podemos suponer que X est distribuida binomialmente. Es decir, esperaramos que fallara alrededor de un cohete entre20. Cuando aumentaN , el nmero de cohetes lanzados X , el nmero total de cohetes que fallan dividido entre N , debera converger de algn modo con el nmero 0.05. Este importante resultado puede indicarse con ms precisin como la ley de los grandes nmeros.

La ley de los grandes nmeros (forma d e Bernoulli).Sean E un E. Considerando n experimento y A uneventoasociadocon


repeticiones independientes de E , sea n A el nmero de veces que ~ . P(A) = p ocurre A en las n repeticiones, y sea f~ = n ~ / 7 Sea (que se supone es igual para todas las repeticiones). Entonces, para cualquier nmeropositivo t, tenemos

o, en forma equivalente,
(12.1)

Demostrucidn: Sea n A el nmero de veces que ocurre el evento A. staes unavariablealeatoriadistribuidabinomialmente.Entonces E ( n A ) = n p y V ( n A ) = n p ( 1 - p ) . Ahora f~ = n ~ / 7 7 .y, , por 10 tanto E(fA) = P y v(fA) = - P)/72..

12.2

L a ley de los grandes nmeros 325

obtenemos

Aplicando la desigualdad de Chebyshev a la variable aleatoria f ~ ,

Obseruacwnes: a) El resultado anterior puede establecerse d e diferentes maneras alternativas equivalentes. Est claro que lo anterior implica inmediatamente que
n+oo

lm P [ ( f ~ p ( < 1 = 1 para toda E

> O.

En este sentido, decimos que la frecuencia relativa converge aP ( A ) . b ) Es importante observar la diferencia entre l a convergencia antes mencionada (llamada convergencia en fiobabilidad) y el tipo d e convergencia citada a menudo enclculo. Cuando decimos que 2-n co:nverge a cero cuando n -+ co significa que para unan suficientemente grande, 2!-n se transformay permanece arbitrariamente cercanaa cero. Cuando decimos que fA = n A / n converge a P ( A ) indicamos que la pobabilzdad del evento

puede hacerse arbitrariamente cercana a uno tomando unan suficientemente grande. c) Otra forma d e la ley de los grandes nhmero:s se obtiene cuando formulamos la siguiente pregunta. ?Cuntas repeticiones d e E deberan hacerse para tener una probabilidad, digamosd e 0.95, de quela frecuencia relativa difiera d e p = P ( A ) en menos d e 0.01? Esdecir,paraE = 0.01deseamosescogern,demodoquel-p(l-~)/[n(O.bl)2]= 0.95. Resolviendo para n obtenemos n = p(1 - p)/(0.01)2(0.05). Sustituyendo los valores especficos de 0.05 y 0.01 por S y E , respectivamente, tenemos cuando Nuevamente debera insistirse en que tomar n 2 p ( 1- p ) / c 2 S no garantira nada acerca d e 1fA - pi. Slo hace probable que l f ~ - sea muy pequea.

326 Sumas aleatorias de variables

12.2

EJEMPLO 12.1. Cuntas veces habra que lanzar un dado regular a fin de tener al menos 95% de seguridad de que la frecuencia relativa d e que salga un seis diste 0.01 dela probabilidad terica 5 , 6 = 0.01 y S = 0.0.5. Por lo tanto,de esta Aqu p = 1 1 - p = 6 relacin encontramos que n 2 /(0.01)2(0.05) = 27.778.

k?

(i) (E)

Obsewaciones: a ) Recordemos que la fA es una variable alcatoria y no precisamente un valor observado. Si lanzdramos ahora 27.778 veces un dado y luego calculamos la frecuencia relativa que salga u n seis, este nmero dista o no 0.01 de. Lo importante del ejemplo anterior es que si lanzramos 27.778 veces un dado en cada una de 100 habitaciones, aproximadamente en 95 de ellas la frecuencia relativa observada estara dentro de0.01 d e b ) En muchos problemas no conocemos valor el d e p = P ( A ) y, por lo tanto, no podemos usar el lmite anterior de n. En ese caso podemos usar el hecho de que p(1 - p ) toma su valor mziximo cuando p = y este valor mziximo es igual a As, ciertamente estaramos seguros si indicamos que paran 2 1/4c26 tenemos

A.

i,

EJEMPLO 12.2. Algunosartculos se producen de tal manera que la probabilidad de que un artculo sea defectuoso es p (supuestamente n, se clasifica desconocido).Ungrannmerodeartculos,digamos como defectuosos o no defectuosos. Cul debe ser el tamao d e n de modo que podamos estar un 99% seguros de que la frecuencia relativa d e los defectuosos se diferencia de p en menos de0.052 Puesto que no sabemos el valor p , debemos aplicar la ltima forma con c = 0.05, establecida d e laley de los grandes nmeros. Luego, S = 0.01 encontramos que si n 2 1/4(0.05)2(0.01) = 10 000, se satisfice la condicin pedida.
Como en nuestro ejemplo de la desigualdad deChebyshev, encontraremos que el conocimiento adicional acerca de la distribucin de probabilidades dar unaproposicin mejorada. (Por ejemplo, podramos y todava hacer la misma protener un nmero pequeo de repeticiones posicin referente a la proximidad d e f~ a p.)
Observacwn: Otra forma d e la ley d e los grandes nmeros se puede obtener como sigue. Supongamos que X I , . . . , X, son variables aleatorias independientes idnticamente distribuidascon promedio y varianza finita. Sea E ( X ; ) = p y V ( X ; ) = 02. Definamos 7 = ( l / n ) ( X l + . . . + X n ) . Ahora, es una funcin d e X I , . . . ,X, a saber, su promedio aritmtico y, por tanto, nuevamente

12.3

Aproximacidn distribucidn la normal binomial a

327

es una variable aleatoria. (Estudiaremosesta variable aleatoria con m& detalle en el captulo 13. Por el momento, digamossimplemente que podemos pensar en X I , . . . , X , como medidas independientes de una caracterstica numrica X , que producen el promedio aritmtico y.)De las propiedades de la esperanza y de la varianza inmediatamente tenemos,,E ( X ) = p y = u2/n. Aplicando la desigualdad de Chebyshev a la variatble aleatoria y:

V(x)

Sea /x/,/ = E . Entonces k = fie/.

y podemos escribir
CI

(12.2)

Cuando n + 00, el lado derecho de la desigualdad anterior est cercana a uno. Es en este sentido en que el promedio aritmtico convergeE ( X ) .

EJEMPLO12.3. Se prueba un gran nmero de tubos electrnicos. Sea 7; el tiempo para que ocurrala falla del i-simo tubo. Supngase, y que puede adems, que todos los tubos provienen del mismo lote estimarse que todos estn distribuidos exponencialmente con el mismo parAmetro a. Por lo tanto, E(T;) = a-. Sea T = ( T I - - . T n ) / n . La forma anterior de la ley de los grandes nmeros establece que si n es muy grande, sera muy probable que el valor obtenido para el promedio aritmtico de un gran nmero de tiempos d e fallas estuviera cercano a

-1 .

12.3 Aproximacin normal a la distribucin binomial


Como se estableci antes, l a Icy de los grandes nmeros se relaciona esencialmente conla variable aleatoriaX distlribuida binomialmente. X se definid como el nmero dexitos en n repeticiones independientes de un experimento, y necesitamos asociar simplemente xito con la ocurrencia del evento A para reconocer esta relacin. As, el resultado anterior puede establecerse informalmente .afirmando que cuando el nmero de repeticiones de un experimento se aumenta, la frecuencia relativa d e xito, X / n , converge a la probabilidad d e xito p , en el sentido indicado previamente.

328 Sumas de variables aleatodas

12.3

Sin embargo, saber que X / n est$ cercana a p para una n grande no nos indica cmo se obtiene esta cercana. Para investigar esto debemos estudiar l a distribucin d e probabilidades d e X cuando n es grande. Por ejemplo, supngase que un proceso d e fabricacin produce lava5% son defectuosas (es decir, muchas). doras, d e las cuales alrededor del Si se inspeccionan 100 lavadoras, Zcul es la probabilidad de que sean defectuosas menos de4-2 Siendo A el nmero de lavadoras defectuosas encontradas, la ley d e S / l O O debera estar los grandes nmeros nos dice simplemente que la probabicercano a 0.05. Sin embargo, no nos indica cmo calcular lidad deseada. El valor exucto d e esta probabilidad est dado por

P(X

< 4) =

k=O

( 1~0)(0.05)k(0.05)00-.

Sera ms dificil calcular esta probabilidad en forma directa. Ya hemos estudiado un mtodo de aproximacin para las probabilidades binomiales, como la aproximacin de Poisson. Consideraremos ahora otra aproximacin importante paratales probabilidades, la cual se aplica cada vez que n es suficientemente grande. Considbrese que P ( 9 = k ) = (;f.)p(1 - p ) n - k . Esta probabilidad depende de n de un modo ms complicado y no hay una indicacin evidente de lo que sucede a la expresin anterior si n es grande. A fin d e investigar esta probabilidad, necesitamos usar lafdmulu de Stirling, una aproximacin muy conocida d e n! Esta frmula establece que para una n grande, (12.3) en el supuesto de que I,,,,,(n!)/~e-nnn+1/2) = 1. (Una demostracin d e esta aproximacin puede encontrarse en muchos textos d e la clculo avanzado.) La tabla 12.1 puede dar una idea al lector de exactitud d e esta aproximacin. Esta tabla est tomada de W. .Feller, Probability Theory and Its Apfilicalions. 1 a. ed., Nueva York, John Wiley and Sons, Inc., 1950.
Obseruacwn: Aunque la diferencia entre n! y su aproximaci6n se hace mayor cuando n 0 0 , lo importante d e observar en la tabla 12.1 es que el porcentaje de error(illtima columna) se hace cada vez m,is pequeo.
--f

12.3

Aproximacin normal a la distribucin binomial

329

E
10

1
1O0

TABLA 12.1
n! &e-nnnS(1/2)

{Diferencia
0.078 0.08 1 1.98 1

Diferencia
n!

118.019

0.08 0.04 0.02 0.008 0.0008

Usando la frmula d e Stirling para los diversos factoriales que aparecen en la expresin deP(X = IC), puede demostrarse (despus de muchas operaciones), que para una n grande,

P ( X = IC) =

(;> Pk(l

-P

Y k

Finalmente puede demostrarse que paran grande,

A s tenemos el siguiente resultado importante (conocido comola aproximacin d e DeMoivre-Laplace para la distribucin binomial):

Aproximacidnnormal a ladistribucidnbinomial. distribucin binomial con parmetros n y p y si

Si X tieneuna

luego, para una n grande, Y tiene aproximadamente una distribucin N ( 0 , l )en el sentido de que limn+, P ( Y 5 y) = @(y) . Esta aproximacin es vlida para valores d e n > 10 suponiendo

330 Sumas de variables aleatorias

12.3

q u e p est cercana a Si p est cercana a O o 1, n debera ser algo mayor para asegurar una buena aproximacin.

i.

Observaciones: a ) El resultado anterior no es slo d e considerable inters terico sino tambin de granimportancia prctica. Indica que podemos usar la distribucin normal, muy tabulada, para calcular probabilidades que provienen d e la distribucin binomial. b) En la tabla 12.2 la exactitud d e la aproximacin (12.4) se demuestra para diversos valores d e n, E y p .

TABLA 12.2 k

I Aproximacin
11

= 8 , p = 0.2
Exacto
O . 168 0.336 0.294 0.147 0.046 0.009 0.001 O+ O+ O+ O+
O+

n = 8 , p = 0.5
Aproximacin
0.005 0.030

Exacto

r I

n = 25, p = 0.2
Exacto
0.004 0.024 0.07 1 0.13G O. 187 o. 196 O. 163 0.111 0.062 0.029 0.012 0.004

Aproximacin 0.009 0.027 0.065 0.121 O . 176 o. 199 O. 176 0.121 0.065 0.027 0.009 0.002

0.306 0.33 1 O. 1G4 0.037


0.00'1

8 9 10 11

O+ O+ O+ O+ O+

0.104 0.220 0.282 0.220 0.104 0.030 0.005 O+


O+ O+

O+ O+ O+

0.004 0.03 1 0.109 0.219 0.273 0.219 o. 1o9 0.03 1 0.004

Volviendo al ejemplo anterior, observamos que

E ( X ) = n p = lOO(0.05) = 5,

V(X) = n p ( 1 - p ) = 4.75.
Entonces podemos escribir

P ( S 5 3) = P

Lm-m-m

0-5

<&5<

3-5)

= 1p(-0.92) - @(-2.3) = 0.168,

de las tablas dc la distribucin normal.


Observacin: N usar la aproximacinnormal a la distribucinbinomial, estamos aproximando la distribucin de una variable aleatoria discreta con la distribucin de unavariable aleatoria continua. Por tanto,se debe tener cierto cuidado con los puntos ext,remos del intervalo considerado. Por ejemplo, para una variable aleatoria continua, P ( X = 3) = O, mientras que para una variable aleatoria discrem esta probabilidad puede ser positiva.

12.4

El teorema del lmite central

33 1

Se ha encontrado que las siguientes correcciones para continuidad mejoran la aproximacin anterior:

u) P(X = k ) N P ( k - 5 X 5 k + b ) P(" 5 x 5 b ) N P(u - 5 x 5

tenemos

Usando esta ltima correccin para la evaluacin anterior de

3 + b).

i),

P(X 5 3),

P ( X 5 3) = P(0 5

@(-0.69) - @(-2.53) = 0.239.

x 5 3) = P ("4 5 x 5 3;)

EJEMPLO12.4. Supngase que un sistemaestformadopor 100 componentes, cada uno de los cuales tiene una confiabilidad igual a 0.95. (Es decir, la probabilidad de que el componente funcione correctamente durante un tiempo especfico es igual a 0.95.) Si estos compoy si el sistema comnentes funcionan independientemente uno de otro, pleto tambin funciona en forma correcta cuando funcionan al menos 80 componentes, cules la confiabilidad del sistema? Sea X el nmero de componentes que funcionan, debemos evaluar
Tenemos P(80 <_

x 5 100).

E ( X ) = lOO(0.95) = 95;

V ( X )= 100(0.95)(0.05) = 4.75.

Por lo tanto, usando la correccin para continuidad, obtenemos

P(80 5 X <_ 100) I I P(79.5 5 X 5 100.5) =

79.5 - 95 X ' - 95 100.5 - 95) < 2.18 - f!.18 2.18


"

I I Q(2.52)

- @(-7.1)

0.994.

12.4 El teorema del lmite central


La aproximacin anterior representa slo un (casoespecial de un resultala variable aleatoria do general. A fin d e verificar esto, recordemos que X distribuida binomialmente se puede representar como la sumu de las siguientes variables aleatorias independientes:

332 Sumasdevariubles ahatorias


Xi = 1

12.4

=O

si el xito ocurre en la i-sima repeticin; si la falla ocurre en la i-sima repeticin.

Por lo tanto, X = XI1 X2 . . . + X, (Vaseel Ej. 7.13.) Para esta variablealeatoriahemosdemostrado quc E ( X ) = n p , V ( X ) = n p ( 1 - p ) y, adems, que para una n grande, ( X - n p ) / d mtiene la distribucin aproximada N ( 0 , l ) . Si una variable aleatoria S se puedc representar como una szlrna de n variublesaleatoriasindependientescualesquiera (satisfaciendo ciertas condiciones que son vlidas en la mayor parte de las aplicaciones), n suficientemente grande, est distribuida entonces esta suma, para una en forma aproximadamente normal. Este resultado notable se conoce como el teorema del lmite central. Una formad e este teorema se puede establecer como sigue.
Teorema del limite central.
Sea X I ,X z , . . . ,X, . . . una sucesin d e i, variables aleatorias independientes con E ( X ; ) = /Li y V(X;) = n2 i 1 , 2 , . . . Sea X = X I + X2 XIn; entonces,enciertas condiciones generales (que nose indicarn explcitamente aqu),

tiene aproximadamente la distribucin N(0,l). Es decir, si Gn es C , (z) = @(z). la fda d e la variable aleatoria Z,, tenemos
Obxmaciones: a ) Este teorema representa una generalizacibn obvia d e la aproximacin d e DeMoivre-Laplace. Las variables aleatorias independientes X; que toman slo los valores 1 y O han sido sustituidas por variables aleatorias que poseen cualquier clase d e distribucin (mientras tengan esperanza y varianza finitas). El hecho de que l a s X i pueden tener (esencialmente) cualquier clase d e distribucin y ailn as la suma X = X1 + . . . + X , puede ser aproximada por una variable aleatoria distribuida normalmente, representa la razn b5sica d e la importancia d e la distribucicin normal en la teora d e probabilidad. En muchos problemas, la variable aleatoria que se considera se puede representar con la suma d e n variables aleatorias independientes y, por tanto, su distribucin puede aproximarse con la distribucin normal. Por ejemplo, el consumo d e electricidad en una ciudad en cualquier hora dada es la suma d e la demanda de un grannilmeso d e consumidores individuales. La cantidad de agua de unembalse puede considerarse como la representacin de la suma de un gran nilmero d e contribuciones individuales. Y el

12.4

central El lmite teorema del

333

error de medida en un experimento fisico est compuesto de muchos errores pequeos no observables que puedenconsiderars,eaditivos. El bombardeo molecular que padece una partcula suspendida en un lquido es la causa que la obliga a desplazarse en una direcci6n y una maglnitud aleatorias, y su posicidn (despus de un tiempo especificado) puede considerarse como una suma de desplazamientosindividuales. b ) Las condiciones generales citadas en la formulacin anterior delteorema del lmite central pueden resumirse informalmente como sigue: los trminos individuales en la suma contribuyen con una cantidad despreciable a la variaci6n de la suma y es muy improbable que cualquier tamao individual haga una gran contribuci6n a la suma. (Parece que los errores de medida tienen esta caracterstica. El error final puede ser representado como una suma de varias pequeas contribuciones, ninguna de las cualescontribuye mucho al error completo.) c) Hemos establecido ya (Teorema 10.5) que la suma de cualquier nmero finito de variables aleatorias independientes distribuidas normalmente es de nuevo distribuida normalmente. El teorema del lmite central establece que los sumandos no necesitan ser distribuidos normalmente para aproximarse a la suma con una distribuci6n normal. d ) No podemos demostrar aqu el teorema anterior, sin exceder el nivel de presentaci6n programado. Sin embargo, hay un caso especialmente importante de este teorema que estableceremos y paria el cual damos al menos un bosquejo de demostracin.

Teorema 12.1. Sean X I , . . . ,X n n variables aleatorias independientes y u2 = V ( X - ; ) , que tienen la misma distribucin. Sean 1-1 = E ( X - ; ) la esperanza y la varianza comn. Seal S = Cy=lX ; . Entonces, E ( S ) = n p y V ( S ) = nu 2 , y paraunagran n tenemosque Tn= ( S - n p ) / f i u tiene aproximadamente la distribucin N ( O , 1 ) considerando que lmn-,m P(Tn 5 t ) = @ ( t ) .

Dermstracidn: (bosquejo): (Es convenientequeellector revise los conceptos bsicos d e la fgm presentados en el captulo 10.) Sea M la fgm (comn) d e las X ; . Puesto que las X-;son independientes, AIS, la .y como Tn es una funcin fgm d e S , esta dada por Ms(t) = [ M ( t ) l n , lineal d e S (usando el Teorema 10.2), la fgm d e Tn est dada por

As,

334 Sumas de variables aleatorias

12.4

(En este punto observemos que la idea de la demostracin consiste en T t )~para valores g r a n d a d en ) . investigar A ~ ( Desarrollcnlos M ( t ) en una serie de Maclaurin:

Al(t) = 1

+ J l ' ( 0 ) t + lll"'(O)t2 + R, 2

p2

donde R es el tErmino del resto. Recordando queM ' ( 0 ) = p y M " ( 0 ) = a 2 , obtenemos

Por lo tanto,

Usaremos ahora el desarrollo d e Maclaurin para l ~ ( 1 x):


x2 ln(1 + x ) = x - 2

+ x3 + ... 3
-

y para n suficientemente grande, el valor absoluto de este desarrollo


ser menor que uno.)A s obtenemos

12.4

central lmite

del El teorema

33 5

Puestoque slo estamosbosquejando 10s pasos principalesde la demostracin sin dar todos los detalles, omitamos algunas operaciones algebraicas e indiquemos simplemente lo que estamos haciendo. cuando n -+ OO. Queremos investigar la expresin anterior (In M T , ( ~ ) ) Cualquier termino que tiene una potencia positiva d e n en el denominador (tal como n-1/2, por ejemplo) tendera a cero cuando n + OO. Tambin se puede demostrar que todoslos tlirminos en que interviene R tienden a cero cuando n -+ OO.DespuCs de un proceso algebraic0 muy directo, pero tedioso, encontramos que
7"00

lm In h f ~ , ( t= ) t 2 /2.

Entonces, tenemos

ksta es la fgm de unavariable aleatoria con distribucin N(0,l). Debido a la propiedad de unicidad dela fgm (vease el Teorema 10.3) podemos concluir que la variable aleatoria Tn converge en distribucin (cuando n m) a la distribuci6n N(0,l).
"-f

Observaciones: a) Aunque laanterior no es una demostracin rigurosa,aun as proporciona al lector cierta ideapara deducir este notable teorema. La forma ms general del teorema del lmite central (como se establecioriginalmente) se puede demostrar usando un planteamiento sernejante al utilizado aqu. b ) La forma especial del teorema del lmite cenwal, como se estableci antes, expresa que el promedio aritmktico ( l / n ) Cy=lX;de n observaciones de la misma variable aleatoria tiene aproximadamente una distribucin normal para una n grande. c) Aunque una demostracin matemhtica establecera la validez de unteorema, puede que no contribuya mucho a la idea intuitiva del resultado. Por lo tanto, presentamos el ejemplo siguiente para qyienes poseen mayor orientacin numkrica.

EJEMPLO12.5. Considrese una urna que contiene tres clases d e objetosidentificadoscomo O, 1 y 2. Supongamos que hay 20 ceros, 30 unos y 50 doses. Se saca u n artculo al azar y se anota su valor, digamos X . Supngase que X tiene la distribucin siguiente. (Vase la Fig. 12.1.)

336 Sumas de variables aleatorias

12.4

FIGURA 12.1

FIGURA 12.2

Supngase que el artculo elegido primero se sustituye, luego se escoge un segundo artculo y se anota su valor, digamos Y . Considrese la variable aleatoria M = ( X Y)/2 y su distribucin (Fig. 12.2).

P(hl = m )

I 0.04 I 0.12 I 0.29 1 0.30 1 0.25


+

Obtuvimos los valores anteriores de P( A l ) como sigue:

P ( h l = O) = P ( X = 0,Y = O) = (0.2)2 = 0.04; P(M = : ) = P ( X = 0,Y = 1) P ( X = l , Y = O) = (0.2)(0.3) (0.3)(0.2) = 0.12, etc.

Finalmente supongamos que despus de que el segundo artculo tambin se h a reemplazado, se escoge un tercer artculo y se anota s u valor, digamos Z . Considerar la variable aleatoria N = (X Y 2 ) / 3 y su distribucidn (Fig. 12.3):

+ +
5
5

P ( N = n ) 0.008

0.036

0.114

2
0.125

0.207

0.285 0.225

Las distribuciones de probabilidades de las variables aleatorias hl y N ya muestran signos de normalidad.Es decir, la aparicin de la forma d e campana de la curva de distribucin empieza a hacerse evidente. Iniciando con la distribucin de X , que es muy simtrica, encontramos

12.4
P(N=n)

El teorema del limite central

337

que el promedio d e slo tres observaciones tiene una distribucin que ya muestra signos de normalidad. Por supuesto, el ejemplo anterior no demuestru nada. Sin embargo, representa una ilustracin numrica de los resultados expuestos previamente de una manera ms matemtica. E1 lector deber continuar este ejemplo agregando una observacin ms y luego encontrar l a distribucin de probabilidades del promedio d e las cuatro observaciones obtenidas. (Vase el Prob. 12.10.)

el intervalo las variables aleatorias V, est distribuida unihrmemente en [O, 101. Por lo tanto, E(\<) = 5 volts y var (V,) = 100/12. De acuerdo con el teorema del lmite central, si n es suficientemente grande, la variable aleatoria

EJEMPLO 12.6. Supngase que tenemos cierto nmero de voltajes con ruido independientes, I<, i = 1 , 2 , . . .,n:,que se reciben en lo que sellama un sumador. (Vase la Fig. 12.4.) Sea V la suma d e los voltajes recibidos, es decir, V = Cy=lV,. Supngase que cada una de

S = (IT - 5 n ) & / 1 0 f i
tiene aproximadamente l a distribuci6n N(0,l). Luego, si n = 20 podemos calcular la probabiliel voltaje total de entrada sobrepase dad de que 105 volts, como sigue:

P(V

> 105) = P
2~

((lo/dE)m v - 100 > ( l105 O / a?d 100 %

1 - (a(0.388) = 0.352.

%
v3
v 2

FIGURA 12.4

338 Sumas de variables aleatorias


12.5 Otras distribuciones aproximadas por la distribucin normal: de Poisson, de Pascal y gama

12.5

I-lay cierto nmero de distribuciones importantes distintas a la binomial expuesta enla seccin 12.3 que se pueden aproximar por la distribucin normal. Y en cada caso, como lo haremos notar, la variable aleatoria cuya distribucin aproximaremos puede representarse con una suma d e variables aleatorias independientes, dando as una aplicacin del teorema del lmite central como se expuso en la seccin 12.4. a) La distribucin de Poisson. Recordemos que una variable aleatoria d e Poisson aparece (sujetaa ciertas condiciones) cuando estamos interesados enel nmero total d e ocurrencias de un evento en un intervalo de tiempo de longitud t , con una intensidad (es decir, tasa d e ocurrencias por unidad de tiempo) de(Y (vase la Sec. 8.2). Tal como se expuso en esa seccin, podemos considerar el nmero total d e ocurrencias comola suma d e las ocurrencias en intervalos muy pequeos, no sobrepuestos, haciendo as aplicables los resultados d e la seccin anterior.

EJEMPLO 12.7. Supngase que las llamadas a una central telefnica particular ocurren a razn d e dos por minuto. <Cub1es l a probabilidad d e q u e se reciban 22 o menos llamadas en un periodo de 15 minutos? (Suponemos, por supuesto, que la intensidad permanece igual durante el periodo considerado.) Si X = nmero de llamadasrecibidas, entonces E ( S ) = 2(15) = 30. Paracalcular P ( X 22), aplicando la correccin para la continuidad (vase la Ec. b) que precede al Ej. 12.4), tenemos

<

P ( X 5 22) % P

22

+ $ - 30

donde Y tiene distribucih N(0,l). Por lo tanto, la probabilidad anterior es igual a i9(-1.37) = 0.0853. 6 ) L a distribucin de Pascal. Si ' E = nmero de ensayos de Bernoulli necesarios para tener T h i t o s , entonces Y tiene una distribucin d e Pascal y se puede representar con la suma de T variables aleatorias independientes (vase la Sec. 8.5). Luego, para una T suficientemente grande, se aplican los resultados d e la seccin anterior.

12.6

La distribucin de la suma de un nmero.. . 339

EJEMPLO 12.8. Encuntrese un valor aproximado de la probabilidad de que se necesiten 150 o menos ensayos para obtener 48 xitos cuando P(xito) = 0.25. Haciendo X = nmero de ensayos, tenemos (vase la Ec. 8.8) E ( X ) = r / p = 48/0.25 = 192, y Var X = rq/p2 = (48)(0.75)/(0.25)2 = 576. Por tanto,

c) La dktm'bucidn gama. Comoseindicenelteorema 10.9, una variablealeatoria que tiene una distribucih gama (con parmetros Q y r ) se puede representar con una suma1 d e r variables aleatorias r independientes distribuidas exponencialmente. Luego, para una grande, se aplica nuevamenteel teorema del lmite central.
12.6 La distribucin de la suma de un nmero finito de variables aleatorias
El ejemplo 12.6 sirve para motivar la exposicin siguiente. Sabemos que la suma de cualquier nmero finito d e variables aleatorias independientes distribuidas normalmente tambin est distribuida normalmenn grande, te. Del teorema dellmite central podemos concluir que para la suma de n variables aleatorias independientes tiene una distribucin aproximadamente normal. Queda por resolver la pregunta siguiente: supngase que consideramosX1 * .. X n , donde las X son variables aleatorias independientes (no necesariamente normales) y n no es suficientemente grande para justificar el uso del teorema del lmite central. Cul es la distribucin d e esta suma? Por ejemplo, cul es la distribucin del voltaje de entradaV (Ej. 12.6), si n == 2 o n = 3? Primero consideraremos el importantecaso d e la suma de dos variables aleatorias. Se puede establecer el resultatdo siguiente.

+ +

Teorema 12.2. Supngase que X y Y son variables aleatorias continuas independientes con fdp g y h, respectivamente. Sea 2 = X Y y dentese la fdp de2 por s. Entonces,

(12.6)

Demslracidn: Puesto que X y Y son independientes, su fdp conjunta f pucdc factorizarse:

340 Sumas de variables aleatorias

12.6

Usando la transformacin: z=x+y,

w=x.

Lucgo, x = w, y = z

- 'uu7. El jacobiano

de esta transformacin es

J=/' 1

-1 '/=-l.

A$,el valor absolutod e J cs 1 y, por tanto, la fdp conjunta d e 2 = S + E ' y W = S es


k ( z ; w ) = g ( w ) h ( z - w).
La fdp de 2 se obtiene ahora al integrar k ( z , w)de w, de d o n d e se obtiene el resultado anterior.
"o0

a m respecto a

Observaciones: a ) La integral anterior que relaciona las funciones g y h ocurre e n muchos temas matemdticos diferentes. A menudo se le menciona como la integral d e convolucin de g y h ; algunas veces se escribe como g * h. b ) La evaluacin de la integral anterior debe hacersecon mucho cuidado. En realidad, Ia misma dificultad que apareci en la evaluacin d e la fdp de un producto o d e u n cociente aparece nuevamente. Las filnciones g y h a menudo serrin distintas d e cero slo para ciertos valores d e sus argumentos. Por tanto, el integrando enla integral anterior ser5 distinto d e cero slo para aquellos valores d e la variable d e integracin w para los cuales a?nbos factores del integrando son distintos de cero. c ) La frmula anterior, ecuacin (12.6), puede usarse repetidamente (con dificultad creciente, sin embargo) para obtenerla fdp d e la suma de cualquier nmero finito d e variables aleatorias continuas independientes. Por ejemplo, si S = X + Y + W , podemos escribir como S = 2 + W , donde Z = S + Y . Luego podemos usar el planteamiento anterior para obtener la fdp de Z , y entonces, conociendo la fdp d e Z , usar este mtodo otravez para obtener la fdp de S. d ) Podemos derivar la ecuacin (12.6) d e otra manera, sin usar la nocin de jncobiano. Denotemos por S la fda de la variable aleatoria 2 = S -t Y . Luego

12.6

La distribucin de la suma nmero.. un de

. 341

donde

i
I

FIGURA 12.5
Diferenciando S ( z ) respecto a z @ajo el signo integral,lo cual puede justificarse) obtenemos
S ( . )

= S(.) =

+m

J-00

g(x)h(z - x) dx,

lo que estA de acuerdo con la ecuacin (12.6). e ) Puesto que la distribucin d e X + Y debera posiblemente ser la misma que la distribucin d e Y + X , podramos verificar que S-+, g ( z ) h ( z - z) d z = S-+, h(y)g(z - y) dy. Haciendo simplemente z - x = y en la primera integral, producirh la segunda forma. Algunas veces indicamos esta propiedad al escribir g * h = h * g. Vase la Observacin a) anterior.
O
t

FIGURA 12.6

EJEMPLO 12.9. Se consideran dos instrumentos electrnicos, Dl y D2. Supngase que Dl tiene una duracin que se puede representar con una variable aleatoria T I que tiene distribucin exponencial con parmetro a l , mientras queD2 tiene una duracin que se puede representar con una variable aleatoria T2 que tiene distribucin exponencial con parmetro 2 . Suponiendo que D1 y D 2 estzn conectadas d e tal manera que D2 empieza a funcionar en el momento en queDl deja d e hacerlo, entonces T = TI + T2 representa e l tiempo total en que est funcionando el sistema formado porlos dos instrumentos. Suponiendo que TI y T2 son independientes, podemos aplicar el resultado anterior para obtener

iables

de342

Sumas

12.6

(Para todos los otros valores de 11 y t 2 , las funciones g y h se suponen igual a cero!). Por tanto, usando la ecuacin (12.6) encontramos que la Iilp de T I + 7'2 = T e s t i dada por

El integrando es positivo si y slo si ambos factores del integrando son positivos; es decir cada vez t l 2 O y t - t l 2 O. Esto equivale a t l 2 O y t l 5 t , lo cual, a su vez, es equivalente a O 5 t l 5 t . (Vase la Fig. 12.6.) Luego, la integral anterior se convierte en

Observaciones: a ) Ntese que la suma d e dos variables aleatorias independientes, distribuidas cxponencialmente, n o e s d distribuida exponencialmente. b ) I'ara L Y ~> CY^, I n grfica d e fdp de T se muestra en la figura 12.7. c) La expresibn anterior para la fdp no esti definida para a1 = cu2, es decir, para el caso donde TI y T2 tengan la misma distribucin exponencial. A fin de tencr cuidado con este caso especial, consideremos la primera integral d e S ( ) y hagamos LY = 01 = a2. Obtenemos

I = I/a

FIGURA 12.8

12.6

La distribucin de

IQ suma

de un nmero. . . 343

sta representa una distribuci6n gama (vase la 13c. (9.16). La grfica de esta fdp aparece en la figura 12.8. El mximo ocurre para t = 1 / a = E(T1) = E(T2).

Reconsideremoselejemplo12.6, que trata de la VI y V2, cada uno de los suma dc dos voltajes aleatorios independientes, cuales est distribuido uniformemente en [0,10]. A s ,

EJEMPLO 12.10.

(Recurdese nuevamenteque las funciones f y g son cero para cualquier otro valor). Si V = If1 V2, tenemos

Razonando como en el ejemplo 12.8, observamos que el integrando es distinto de ceroslo para aquellos valores de v l que satisfacen O 5 u1 5 10 y O 5 w - "1 5 10. Estas condiciones equivalen a O I vl 5 10 y a w - 10 5 w1 5 2).

Existen dos casos, como se indicacn la figura 12.9.


a)

w - 10 5 10 y O 5 w 5 10 que juntas implican que O 5 w I 10. b ) O 5 w - 10 5 10 y w 2 10 que juntas implican que 10 5 w 5 20.

En el caso a), q puede tomar valores entre O y o, mientras que en el w - 10 y 10. caso b ) , u1 puede tomar valores entre

344 Sumas de variables aleatorias

12.6

As obtenemos

Luego, la fdp d e V tiene la grAfica que se muestra en la figura 12.10.

EJEMPLO 12.1 1. Como una ilustracinfinal d e las sumas d e variables aleatorias, reconsideremosu n resultado queya hemos probado, usando el mtodo ms indirecto de las [unciones generadoras de momentos variables aleatorias normales (vase el Ej. 10.1 l), esto es, la suma de dos independientes otra vez est distribuida normalmente. A fin d e evitar algunas operaciones algebraicas complicadas, consideremos slo un caso especial. Supngase que 2 = X Y , donde X y Y son variables aleatorias independientes, cada una con distribucinN ( O . 1 ) . Entonces,

Por lo tanto, la fdp de 2 est dada por

12.6

La distribucin de

la :ruma nmero.. un de

. 345

Completando el cuadrado en el exponente del integrando, obtenemos

(a:2 -.a:)=
Luego,

Sea

d ( a : z/2)

= u;entonces da: = du/& y obtenemos

La integral anterior (incluyendo el factor l/t& es igual a uno. A s ,

Pero sta representa la fdp de una variable aleatoria con distribucin N ( 0 , a), lo cual se iba a demostrar. Al presentar la distribucin de la suma de dos variables aleatorias independientes, nos hemos limitado a variables aleatorias continuas. En el caso discreto, el problema un es poco ms sencillo, al menos en ciertos casos, como lo indica el teorema siguiente.

Teorema 12.3. Sup6ngase que X y Y sonvariablesaleatoriasindependientes, cada una de las cuales ,puede tomar slo valores p ( k ) = P(,Y = IC), E = O , 1 , 2 , . . . y enteros no negativos. Sea sea q(r) = P ( Y = Y ) , r = 0,1,2,.. . Sea Z = X + Y y sea w ( i ) = P ( Z = i). Entonces,
w(i) =
i

p(IC)q(i - E ) ,
k=O.

i = o, 1 , 2 , . . .

Demostracin:
w(i)= P(Z = i)

P[X=O,Y=iox'=1,Y=i-I.o
i

... o X = i , Y = O ]

=
k=O

P [ X = E , Y = i - IC] =

i
k=O

p(E,)q(i- IC)

puesto que X y Y son independientes.

346 Sumas de variables aleatorias


OBseruacidn: Ntese la similitud entre esta suma y la integral d e convolucin derivada en el teorema 12.2.

EJEMPLO12.12. X y Y representan el ntimero d e partculas a emitidas por dos ruentes de material radioactivo durante un periodo de tiempo especificado d e longitud t . Supngase que X y Y tienen distribucin d c Poisson con parmetros P l t y@:!, respectivamente. Z = X Y representa el nmero total d e partculas a emitidas por las dos fuentes. Usando el teorema 12.3, obtenemos

P ( Z = IC) =

i
k=O

p ( k ) q ( i - IC)

(La ltima igualdad se obtiene aplicando el teorema del binomio a la la probabilidad d e sumaanterior.) La ltimaexpresinrepresenta que una variable aleatoria, que tiene una distribucicin de Poisson con ,&t, tome el valor i. As comprobamos lo que ya parmetro P l t sabamos: la suma de dos variables aleatorias independientes d e Poisson tiene una distribucin d e Poisson.

PROBLEMAS
12.1. a ) Una f5brica produce determinados artculos d e tal manera que el 2% resulta defectuoso. Un gran nmero de tales artculos, digamos R , se inspecciona, y se anota la frecuencia relativa de los defectuosos, digamos fo. Cun grande debera ser n a fin de quela probabilidad sea al menos 0.98 d e quefodifiera de 0.02 en menos d e 0.05? O) Contestar a ) si 0.02,la probabilidad d e obtener u 1 1 articulo defectuoso, se sustituye por p que se supone desconocida.

12.2. Supngnse que seobtieneunamuestra de tamaho n de un gran conjunto d e pernos, ~ 1 3 % los d e cuales es defectuoso. tCu,il es la probabilidad de quecomo misilno el 5% de los pernos elegidos sea defectuoso si:
a) n

= G?

b ) n = GO?

c)

n = GOO?

Problemas

347

12.3. a) Un sistema est constituido por 100 componentes que funcionan independientemente. La probabilidad de que cualquiercomponente falle durante el periodo d e operacin es igual a 0.10. A fin d e que el sistema completo funcione, al menos deben funcionar 85 (componentes. Calcular esta probabilidad. b ) Supngase que cl sistema anterior est formadopor n componentes, cada uno con una confiabilidad de 0.90. El sistema ftmcionarzi si a1 menos el 80% d e los componentes hnciona correctamente. Determinar n, d e modo que el sistema tenga una confiabilidad de 0.95. 12.4. Supngase que 30 instrumentos clcctrnicos, D l , . . . 0 3 0 , se m a n d e la manera siguiente: tan pronto como Dl falla, 0 :empieza ~ a actuar. Cuando 0 2 falla, 0 3 empieza a actuar, etc. Supngase queel tiempo paraque ocurra la falla.de 0;es una variable aleatoria distribuida exponencialmente con parrimetro , B = 0.1 hora-1. Si T es el tiempo total de operacin d c los 30 instrumentos, cul es la probabilidad de queT exceda 350 horas? 12.5. A l sumar nmeros, u n computador aproxima cada nilmero al entero ms prximo. Suponer que todos los errores d e aproximacin son independientes y distribuidos uniformemente entre(-0.5, 0.5).
a ) Si se suman 1500 nmeros, {cul es la probabilidad de que la magnitud del error total exceda 15? b ) Cu5ntos nmeros pucden sumarsejuntos para que la magnitud delerror total sea menor que 10, con probabilidad 0.90?

12.6. Supngase que S;,i = 1 , 2 , . . . 50, son variables aleatorias independientes, cada una con distribucin d e Poisson con parmetro X = 0.03. Sea S =x 1 . . . x50.

+ +

a)

Usando el teorema del lmite central,calcular P ( S 2 3). b ) Comparar la respuesta d e a ) con el valor exacto d e esta probabilidad.

12.7. En un circuito simple se conectan dos resistencias, R1yR2 en serie. Por tanto, la resistencia total est5 dada por R = R1 + R2. Supngase que R1 y R 2 son variables aleatorias independientes, cada una con la fdp O < r; < 10,

i = 1,2.

Encontrar la fdp d e R, (la resistencia total) y dibujar la grzifica. 12.8. Supngase que las resistencias en el problema 12.7 est5n conectadas en paralelo. Encontrar la fdp de R, l a resistencia total del circuito(establecerla slo en forma integral). [Zndicacidn: La relacin entre R, y R1, y E 2 esd dada por l / R = 1/R1 1/R2.]

348 Sumas de variables aleatorias


12.9. N medir T , la duracin de unartculo, se puede cometer un error que puede suponerse distribuido uniformemente entre (-0.01 y 0.01). Luego, el tiempo anotado(en horas) se puede representr como T + S , donde T tiene una distribucin esponencial con par5rnetro 0.2 y S tiene la distribucin uniforme ya descrita. Si T y X son independientes, encontrarla fdp d e T + X. 12.1O. Supngase que S y I son variables aleatorias independientes distribuidas idnticamente y que l a fdp cle X (y, par tanto, de Y )est5 dada por
f ( 2 )= a/&
2

> a,

> o,

= O,
Encontrar la fdp de X integracin.]

para cualquier otro valor. [Indicaci6n: Usar fracciones parciales para la

+Y.

12.1 1.Realizar los c5lculos sugeridos a1 final del ejemplo 12.5.


1 2.12. a ) Un instrumento tiene un tiempo T para fallar, cuya distribucin est5 dada por h r ( 1 0 0 , 4 ) . Supngase que al anotarT se comete un error, cuyo valor se puede rcpresentiw con una variable aleatoria S distribuida uniformemente en (-1,l). Si X y T son independientes, obtenerla fdp d e S = X T en trminos d e a, la fdp d e la distribucin N ( 0 , l ) . b ) Calcular P(100 5 S 5 101). [I~zdicaczdn: Umr la regla de Simpson para aproximar la integral.]

12.13. Supngaseque un aparato nuevo se prucba repetidamente enciertas condiciones d e tensi6n hasta que falla. La probabilidad d e fallar en cualquier ensayo es P I . Sea X igual al nmero de ensayos necesarios hasta la primera falla, inclusive. Tambin se prueba un segundo aparato hasta que fillla. Sup6ngase que la probabilidad constmte defalla de p 2 esL5 asociada con l. Sea Y igual al nmero de ensayos necesarios hasta su primera falla, inclusive. Supngase que , Y y Y son independientes y sea 2 = X + Y.Por tanto, 2 es igual al nmero d e ensayos necesarios hasta que anlbos aparatos hayan fallado. Encontrar la distribucin de probabilidad d e Z. b ) Calcular P ( Z = 4) si p l = 0.1, p2 = 0.2. c) Analizar a) si p1 = p 2 .
a)

13.1 Introduccidn

Consideremos d e nuevo un problema expuesto previamente. Supngase que tenemos una fuente de material radioactivo que emite partculas a y que son vAlidas las suposiciones establecidas en el captulo8; as, la variable aleatoria X definida como el nmero de partculas emitidas durante un periodo de tiempo especificado 2, tiene una distribucin de Poisson con parametro A t . A fin de usar este modelo probabilstico para describir la emisin d e partculas a necesitamos conocer el valor d e X. Las suposiciones que formulamos slo conducen a la conclusin de que X tiene una distribucin d e Poisson con un parametro A t . Pero si deseamos calcular P ( X > IO), por ejemplo, la respuesta ser en t@rminosd e X a no ser que conozcamos su valor numrico. EII ibrma similar, los parsmetros E ( X ) y V ( X ) , son importantes asociados con la distribucin, taks como funciones d e X. Para buscar un valor numCrico d e X debemos dejar, al menos por el momento, el mundo de nuestros modelosmatemticostericos y entrar al m u n d o d e las observaciones. Es decir.,en este instante debemos

350 Muestras y distribuciones muestrales

13.1

observar la emisin d e partculas, obtener los valores numricos d e _Y y luego utilizar esos valores de manera sistemtica a fin de obtener una informacin atinada d e X. Es importante para el lector tener una idea precisa acerca de la relacin entre la verificacin emprica y la deduccin matemtica que aparece en muchas reasd e matemticas aplicadas. Esto es relevante cuando construimos modelos probabilisticos para el estudio de fenmenosobservables. Consideremos un ejemplo trivial d e trigonometraelemental.Un problema tpico puede implicar el clculo d e la altura de un rbol. Un modelo matem5tico para este problcma podra obtenerse al postular que la relacin entre la altura desconocida h , el largo d e la sombra S y el ngulo cy es de la forma h = S t a n (Y. (Suponemos que el rbol permanece derecho y perpendicular al suelo, Fig. 13.1.) Por tanto, si S y (Y son conocidas, con ayuda de una tabla apropiada podemos calcular h . El hecho importante que aqu formulamos es que S y (Y deben ser conocidas antes d e qlle podamos evaluar h. Es decir, alguien debe haber medido S y N . La deduccin matcmtica que conduce FIGURA13.1 l rclacin 1 1 = S t a n cy es complctamcnte inclepenaa dicnte delos medios con los cuales medimos S y (Y. Si esas mediciones son exactas, entonces S t a n (Y representarA un valor exacto de h (suponiendo que el modelo es vlido). En otras palabras, no podemos dcducir simplemente el valor de h con nuestros conocimicntos dc trigonometra y con la ayuda de las tablas trigonomtricas. inebemos dejar nuestro santuario (cualquiera que sea) y hacer algunas mediciones! Y la manera de hacer esas mediciones de ningn modo influye en In mlidez de nuestra deduccin matemtica, aunque el problema por rcsolver sea importante. Al usar los modclos probabilisticos necesitaremos entrar nuevamente al mundo emprico y hacer algunas mediciones. Por ejemplo, en el caso que consideramos se usa la distribucin d e Poisson como modelo X. probabilistic0 y, por tanto, necesitamos conocer el valor del parmetro A fin de obtener alguna inrormacin acerca de X debemos hacer algunas d e calcular mediciones y luego usarlasd e manera sistemtica con objeto X. En el captulo 14 describiremos la forma de hacer este clculo. Finalmente, debemos insistir aqu en dos puntos. Primero, las mediX sern en geneciones necesarias para obtener informacin respecto a ral msfcilcs de obtener que las que resultaran de mediciones directas

13.2

aleatorias

Muestras

35 1

para eXt(At)k/k! (as como es ms fcil obtener mediciones para el largo de l a sombra S y el ngulo a, que para la altura h). Segundo, la manera como obtenemos mediciones paraX y el modo como usamosesas mediciones dc ninguna forma invalida ( o confirma) la aplicacin del modelo de Poisson. Lo anterior es un ejemplo tpico de una gran clase de problemas. En muchos casos es relativamente natural (y apropiado) formularla hiptesis de que una variable aleatoria X tiene una distribucin particular de probabilidades. Ya hemos visto varios ejemplos que indican que suposiciones muy simples acerca de la conducta probabilstica d e X conducirn a un tipo determinado de distribuciones tales como la binomial, exponencial normal, de Poisson y otras. Cada una de esas distribuciones depende de ciertos parmetros. En algunos casos, el valor de uno o ms parmetros puede ser conocido. (Tal conocimiento puede provenir del estudio previo d e las variables alcatorias.) Muy a menudo, sin embargo, no conocemosel valor d e los parmetros implicados. En tales y obtener algucasos debemos proceder como se sugiri anteriormcntc nos valores empricos de S y luego usar esos valores de alguna manera apropiada. En el captulo 14, veremos cmo se hace esto.

13.2 Muestras aleatorias


Previamente hemos presentado la nocin de muestreo aleatorio con o sin sustitucin de un conjunto finito d e objetos o poblacin d e objetos. Tenernos que considerar una poblacin especifica de objetos (personas, artculos, manufacturados, etc.) acercad e la cual queremos hacer alguAs muestreana inferencia sin tomar en cuenta cada objeto particular. mos, es decir, tratamos de considerar algunos objetos tpicos de los cuales esperamos extraer alguna informacin que dc algiln modo sea caracterstica d e la poblacin completa. Seamos ms precisos. Supongamos que se designan consecutivamente cada uno d e los elementosdeuna poblacinfinita de modo que, sin perder generalidad, una poblacin que consta de A objetos puede representarse como 1 , 2 , . . . , N . Elijamos ahora n artculos, de la manera que se describe a continuacin. Definamos la siguiente variable alcatoria.

X ; = valor poblacional obtenido cuando se escoge el i-Csimo artculo, i = 1,2,...,n.


La distribucin de probabilidades de las variables aleatorias X1 ,. . . , X n depende obviamente de cmo vamos a muestrear. Si cl muestreo es con

352 Muestras y distribuciones muestrales

13.2

sustitucin, escogiendo cada vez un objeto al azar, las variables aleatorias Es decir, para cada X,, son independientes e idnticamente distribuidas. i = 1 , 2 , . . . ,n tenemos

P(X2 = j ) = 1 / N , j = 1 , 2 , . . . , N .
Si elmuestreo es sin sustitucinlas variables aleatorias X1 , . . . X, ya no son independientes. En este caso, su distribucin conjunta d e probabilidades est dada por

donde j , , . . . , j , son n valores cualesquiera d e (1,.. . ,N ) . (Podemos demostrar que la distribucin marginal d e cualquier Xi) independientemente de los valores tomados por X I , . . . ,X i - I 7 Xi+1,. . . ,X,, es la misma que la anterior cuando el muestreo se hace con sustitucin.) Hasta ahora, en nuestra exposicin, hemos supuesto que existe una poblacin principal, 1 , 2 , . . . ,N que es finita y acerca d e la cual queremos tener una informacin basada en una muestra de tamao n < N . En muchos casos no hay ninguna poblacin finita d e la cual obtengamos muestras; d e hecho, podemos tener dificultades al definir una poblacin principal d e cualquier clase. Consideremos los ejemplos siguientes. a) Se lanza una moneda. Definamosla variable aleatoria X1 = nme 1 es r o d e caras obtenidas. S10 en un aspecto podemos pensar que X una muestra de tamao uno de la poblacin d e todos los lanzamientos posibles de esa moneda. Si lanzamos l a moneda una segunda vez y definimos la variable aleatoria X 2 como el nmero de caras obtenidas con el segundo lanzamiento, S 1 ,X 2 posiblemente se puede considerar la misma poblacin. como una muestra de tamao dos de b ) La precipitacin totalanual en cierta localidad durante el ao 1970 podra definirse como una variable aleatoria X1. Durante los aos siguientes, las variables aleatorias S 2 , . . . ,X , pudieron definirse anlogamente. Podemos considerar d e nuevo ( X I , . . . ,A-,) como una muestra de tamao n, obtenida de la poblaci6n d e todas las precipitaciones y podra suponerse en forma anuales posibles en esa localidad especfica, son variables aleatorias independientes idnticamente realista que las X-,. distribuidas. c) La duracin de una bonlbilla Fabricada mediante cierto procedimiento se estudia escogiendo n bombillas y midiendo su d u r a c i h ,

13.2
I,.

Muestras aleatorias

353

. . ,Tn. Podemos considerar ( T I , . . . ,T,) como una muestra aleatoria d e la poblacin d e todas las duraciones posibles d e las bombillas fabricadas de esa manera especfica. Formaliccmos esas nociones como sigue.
Definicin. Sea X una variable aleatoria con cierta distribucin d e probabilidades. Sean X I , . . . , X n n variables aleatorias indepenX. Llamamos endientes cada una conla misma distribucin que tonces a (X,, . . . , X , n )muestra uleutoriu de la variable aleatoria X.
Observaciones: a ) Establezcamos d e una manera ms informal loanterior: una muestra alcatoria d e tamao n de una variable aleatoria X corresponde a n mediciones repetidasde X , hechas bsicamenteen las, mismas condiciones. Como ya lo hemos dichoen otros contextos,la nocin matemticamente idealizada d e una muestra aleatoria se puede, en el mejor d e 10s casos, aprosimar slo por las condiciones experimentales reales. A fin de que X1 y X2 tengan la misma distribucin, todas las condiciones relevantes en las que se realiza el experimento deben serlas mismas cuando se observa X1 que cuando se observa X2 . Por supuesto, las condiciones experimentales nunca se pueden duplicar idnticamente. Lo importante es que esas condicione:;, que son diferentes, deben tener poco o ningn efecto en el resultado del experimento. Sin embargo, algn cuidado deber5 tenerse para asegurarnos de que realidad en obtengamos una muestra aleatoria. Por ejemplo, supngase que la variable aleatoria que se considera es S , el nilmero d e llamadas que llegan a una central telefjnica el mircoles entre las 4 P M y las 5 PM. A fin de obtener una muestra aleatoria de X , posiblemente deberamos elegir n mircoles al azar y anotar el valor d e X I , . . . , X,. Tendramos que estar seguros de quetodos los mircoles son mircoles tpicos. Por ejemplo, podramos no incluir un mircoles particular si coincide con Navidad. Nuevamente, si tratamos de obtener unamuest.ra aleatoria X d e la variable aleatoria X definida como la duracin de un instrumento electrnico que se fabrica con determinadas especificaciones, desearamos asegurarnos de que no se ha obtenido un valor muestra1 de un art8cdo producido durante un momento en que el proceso d e produccin estaba fallando. 6) Si X es una variable aleatoria continua con fdp f y si X I , . . . , X , es una muestra aleatoria d e X , entonces g , la fdp conjunta? d e X I , .. . , X,, puede escribirse como g ( q , ,, . , x,) = f ( X 1 ) . . . f(x,). Si X es una variable aleatoria discreta yp(r;) = P ( X = xi), entonces

c) Tal como lo hicimos antes, usaremos letras nnayilsculas para las variables aleatorias y letras minsculas para el valor de la variable aleatoria. As, los

354 Muestras y distribuciones muestrales

13.3

\-alorcs que toma una muestra ( 2 1 , . . . ,x,) se denomr5n con (21,. . . ,x,). A nlenudo llablarernos del finrulo mzuswal S I , . . . , X,. Con esto indicaremos simplemente que consideramos a ( 2 1 , . . . ,x,) como las coordenadas de un punto en uncspacio euclidiano n dimensional.

13.3 Estadsticos*

Una vez que hemos obtenido los valores de una muestra aleatoria, habiesos valores muestrales con el objeto de hacer tualmente queremos usar la poblacin representada porl a muestra alguna inferencia respecto de que, en el presente contexto, significa la distribucin d e probabilidades d e la variable aleatoria que se est5 muestreando. Puesto que los diversos parmetros que caracterizan una distribucin de probabilidades son nmeros, es natural que queramos calcular ciertas caractersticas numricas especficas que se obtienen de los valores muestrales,lo que nos podra servir para hacer proposiciones apropiadas acerca d e los valores d e los parmetros que a menudo no son conocidos. Definamos el siguiente concepto importante.

Definicin. Sea X I ) .. . , X n una muestra aleatoria de una variable aleatoria X- y sean X I ) .. . x n los valores tomados por la muestra. 1 una funcin definidapara l a n.-tupla ( X I , . . . ,x,). Definimos Sea 1 Y = I I ( X 1 , . . . , X-,) como un estadstico que toma el valor y = r q q , . * . xn).
) )

Enpalabras, un estadsticoes una funcin real d e la muestra. Algunas veces usamos el trmino estadstico para referirnos alvalor d e la funcin. h i podemos hablar del estadstico y = H ( z 1 , . . . , z n ) cuando en realidad deberamos decir que1~ es el valor del estadstico Y = N ( X 1 , . . . , S , , ) .
Observacio,~es:a ) El uso anterior es muy especial, pero en general aceptado, del trmino estadstico. Obsrvese que lo estamos usando en singular. b) De acuerdo con la definicinanterior,un estadstico es una variable aleatoria! Es muyimportanterecordar esto. Por lo tanto,ahoraser5 iltil considerarla distribucin d e probabilidades de un estadstico, su esperanza y su varianza. Cuando una variable aleatoria es en realidad un estadstico, es decir,
*N. del T. El autor emplea la palabra stahtics, quc hemos traducido como estadstico por ser lo mis comnmente empleado en espaiol.

13.1

Algunos estadsticos importantes

355

una hncin de una muestra, a menudo hablamos dle su dlstribucwn muestral, en vez de su distribucin d e probabilidades.

Como sugerimos al principio d e este captulo, usaremos la informacin obtenida de una muestra con el objeto d e estimar ciertos parmetros desconocidos asociados con una distribucin de probabilidades. Encontraremos que ciertos estadsticos desempeiian un papel importante en la solucin d e este problema. Antes d e que consideremos esto con m& detalles (enel captulo 14), estudiemos algunos estadsticos importantes y sus propiedades.

13.4 Algunos estadisticos importantes


Hay ciertos estadsticos que encontraremos a menudo. A continuacin veremos unos cuantos y expondremos algunas des u s propiedades importantes.
Definicin. Sea (X,, . . . ,X,) una muestra aleatoria de la variable alcatoria X . Los siguientes estadsticos son de intcrs.

b) S En forma breve explicaremos por qu dividimos entre ( n - l),en vez d e elegir simplementen.) c) I C = mn(X1,. . . ,X,) se llama minimo de la muestra. (IC repremiis pequefio.) senta simplemente el valor observado d ) A l = mx(X1,. . . ,X,) se llama mcixirno de la muestra. ( M representa el mayor valor observado.) e ) R = h+- K se llama recorrido muestral. f)-X;) = j-sima observacin mayor enla muestra, j = 1 , 2 , . . . , n. (Tenemos que = M , mientras que =K.)

a)X = (1/n)

Cy=lX; se llama promedio n;!uestrd. = [ l / ( n - l)]Cr=l(X;- X)2se llama varianza muestral.

X;)

:<?)

estadisticos da

Observaciones: a ) p as variables aleatorias X : ) , j = 1 , 2 ,. . . , n se llaman orden asociados con la muestra aleatoria S I , . . . , S,. Si S es una variable aleatoria continua pdernos suponer que .X;) > > . . > X,, .

S?)

b ) LOS valores extremos d e la muestra (en la notacin anterior, X;) y son a mcnudo de inters considerable. Por ejemplo, en la construccin d e represas para controlar inundaciones,la mayor altura que ha alcanzado un ro en los 50 aos anteriores puede ser muy importante.

S?))

356 Muestras y distribuciones mueshales

13.4

Teorema 13.1. Sea S una variable alcatoriacon esperanza E ( d Y )= p y varianza V ( S ) = u'. Sea X el promediomuestra1 tlc u n a muestra aleatoria d c tarnafio n. Entonccs,

c ) se deduce deuna aplicacin directa delteorema del lmite ccntral. I'odcrnos escribir X = ( l / n ) X i + .. .+( l / n ) X , como l a suma d c varial)lcs alcatorias indcpcndicntemcntc distril~uidas.
Obserrvzcioncs: a) Cuando el tamao de muestra aumenta,el promedio nlucstral Sticnde a variar catlavez menos. Esto cs intuitivamcntc evit1ent.c y corrcsponde a nuestra experiencia con datos numricos. ConsitlCrcse, por ejemplo, el conjunto siguientede 18 nilmcros

Si crtlculamos el promedio de esos nrimeros, tomando dos n l a vez en cl orden anotado, obtenemos el siguiente con.j~~nto de promedios:

1 , -1,0.5,4.5,0.5, -2.5,8.5, 1.5,2.5.

13.4

Algunos importantes estadfsticos

357

Si promediamos el conjunto original d e nmeros, tomando tres a la vez, obtenemos


1.3,-1,3.
-

1.3,7.7,0.7

Finalmente, si promediamos los nmeros, tomandlo seis a la vez, obtenemos

0.2,0.8,4.1.
L a varianza en cada uno de esos conjuntos de promedios es menor que en el conjunto anterior, debido a que en cada caso el promedio est5 basado en un nmero mayor de valores. El teorema anterior indica precisamente cmo la variacin de (medida en trminosd e su varianza) disminuyecuando aumenta n. (En relacin con estovase la Icy d e los grandes nmeros, Sec. 12.2 y en particular la Ec. 12.2.) b ) Si n no es suficientemente grande para asegurar la aplicacin del teorema del lmite central, podemos tratar de encontr.ara l distribucin exacta de probabilidades d e por un medio directo (pero en general mzs complicado). En la seccin 12.6 sugerirnos un mtodo mediantc: el cual podemos encontrar la distribucin de probabilidades de la suma de variables aleatorins. Con una aplicacin repetida d e este mtodo podernos obtener la distribucin de prol)abilidades de y ,en especial si n es relativamente pcqueiin. c) El teorema 13.1 indica que para una n suficientemente grande, el promedio muestral7 tiene una distribucinaproximatl;~mentc normal (con espcranza p y varianza r 2 / n ) .

Encontramos que no slo X , sino la mayor parte d e las funciones tienen csta propiedad. En este conbuencomportamientode nivel d e presentacin no podernos darundesarrollocuidadosode este resultado. Sin embargo, el resultado es dc gran importancia en muchas aplicaciones para sostener a lo menos un argumento hcurstico e intuitivo. Supngase que Y = ~ ( y 5que ) T se pucdc desarrollar en una serie =~ ( p ) - p ) r ( p ) R, donde R d e Taylor respecto a p . As T = es el trmino del resto y puede expresarsecorno R = [ ( X- p ) 2 / 2 ] 7 ( z ) , donde z es u n valor comprendido entre y p . Si n es suficicntemente 2 - 11) serpequea grande, 7 estarcercana a p y, portanto, comparada con ( X - p ) . Para n grande, podc,mos considerar, por tanto, y ctfiroximur r ( F )como sigue: que el resto es despreciable

(x)

+(x x

(x
P).

T(X) Y

T(p)

+ r(p)(X

358 Muestras y distribuciottes muestrales

13.4

Vemos que para una n suficientemente grande, r ( X )se puede aproxiPuesto que X ser aproximadamente mar por una funcin lined d e Y. n grande), encontramosque tambin ser apronormal (para una ximadamente normal, puesto que una funcin lineal de una variable est tambin distribuida normalmenaleatoria distribuida normalmente te. De la representacin anterior d e encontramos que

.(x)

.(x)

(.(X))

31

r(p),

v (.(X))21 [ T ' (n/ L ) ] ~ u ~

As, para una n suficientemente grande, vemos que la distribucin d e r ( X ) es aproximadamente N ( r ( p ) ,[ 7 " ( p ) ] 2 ~ 2 / ~ )(en condiciones muy generales d e l a funcin r).
Teorema 13.2. Sea X una variable aleatoria continua con fdp f y fda F . Sea X I , . . . ,X n una muestra aleatoria de X y sean Ir' y A l el mnimo y cl mximo dela muestra, respectivamente. Luego:
a) la

fdp deA l est dada por g ( m ) = n [ F ( m ) l n - l f ( m ) , b ) la fdp de I i ' est dada por h ( k ) = n[l - F ( k ) ] " - ' f ( k ) .

Demostracin: Sea G ( m ) = P( M _< m ) la fda de M. Ahora { A l _< m } es equivalente al evento {*Y; 5 m, para toda i}. Por tanto, puesto que las S ; son independientes, encontramos

Por tanto,
g ( m ) = G'(7n)= TI [F(7n)ln-'
f(77~).

La obtcncin dela fdp d e I<se dcja al lector. (VCase el Prob. 13.1.)

EJEMPLO 13.1. Un instrumento electrnico tiene una duracin T que est distribuida exponencialmente con parmetro a = 0.0001, es decir, su fdp es f ( t ) = O.OO1e-O~OO1t. Supngase que se prueban 100 d e tales instrumentos, lo que davalores observados T I , . . . , T ~ o o .

13.4

Algunos esadsticos importafttes 3 5 9

a ) <CuA es la probabilidad d e que 950 < T < 1100? Puesto que el tamao de muestra es muy grande, podernos aplicar el teorema del lmite central y proceder como sigue:

1 E ( T ) = -- 1000,
0.001
-

V ( T )= -(o.oo1)-2

1 100

= 10.000.

Por lo tanto, N ( 0 , l ) . As,

1000/100 tieneaproximadamente la distribucin


"

P(95O

< T < 1100) = P


= 0.532,

'r - 1000
100

= @ ( l) @(-0.5)

d e las tablas de la distribucin normal.


Observacin: En el caso presente podemos obtener en forma inmediata la distribucinexacta de T sin recurrir al teorema del lmite central. En el teorema 10.9 demostramos quela suma devariables aleatorias independientes distribuidas exponencialmente tiene una distribucin gama,decir, es
g(s)

(~~~~~)100s9"-0.001S

99!

>

donde g es la fdp d e TI

+ . . . + T I M .Lucgo, la fdlp de T est5 dada

por

As, T tiene una distribucingama con parhnetros O. 1 y 100.

b) ?Cul es la probabilidad de que el mayor valor- observado sobrepase 7200 horas? Necesitamos qne P ( h i > 7 2 0 0 ) = 1 - P(Ai 7200). El valor mximo ser menorque 7200 si y slio si cada valor de muestra es menor que 7200. Por lo tanto,

<

P(Ai

> 7200) = 1 - [F(7200)]100.

Para calcular F(7200) recordemos que la variable aleatoria distribuida exponenciallnente con parmetro 0.001, ~ ( t=) 1 - e-O.Ool'. Luego,

360 Muestras y distribucio~tes muestrules

13.4

As la probabilidad pedida es 1 - (0.09925)'00, que es igual a 0.071. c) ?CuA es la probabilidad d e que cl tiempo mis corto para que ocurra una f:,llla sea menor que diez horas? Pedimos quc P(Z< < 10) = 1 - P ( I < 2 10). El mnimo de la muestra ahora es mayor o igual a 10 si y slo si cada valor muestra1 es mayor que o igual a 10. Por tanto,

P(Z< < 10) = 1 - [l - F(lO)]loO.


Usando a l cxprcsin d e F como se dio en /I), tenemos

- ,-0.01 1 - E'(10) = e -0.001(10) -

= 0.99005.

P(K

< 10) = 1 - (0.98005)100 = 0.63.

La filtima partc del ejemplo anterior puede generalizarse como lo indica cl tcorcma siguiente.

Teorema I?.?. Sea S unavariabledistribuidacsponcncialmcnte con p a r h e t r o (Y y sea (-171,.. . ,S T L ) una mucstra alcatoria de S . Sea K = m n ( S 1 , . . . , X n ) . Entonces, Z< e s t i t a m b i h distribuida esponencialmentc con pal-Amctro no.

00semacio'u: Este teorema puede gcncraliznrse como sigue. Si .Y1, . . . , S , son variables alentorias indcpendicntes y si S i tiene una distribucin esponenc i d con parhlctro a ; ,i = 1 , . . . , n , entonces I< = m n ( S 1 , . . . ,S,) tiene una dist.ribuci6n esponencial con p a r h c t r o 0 1 + . . . + c y , . Para una demostraciiin de csto, d a s e cl problcmn 13.2.

13.4

Algunos estadsticos importantes 361

El teorema 13.4 nos (la informacih acerca del estadstico S 2 .

- 2

n
i=l
n

i=l

=
E=l
n

[(X2 - p y

+ 2(p - T)(XZ- p ) + ( p - ","I


n
/j=

C(X; - p ) 2 + 2(p - X) C ( X 2 - p ) + n ( p - X)2


i= 1
n

por lo tanto,

362 Muestras y distribuciones muestrales

13.4

r a r el caso especial siguiente: Considrese

Entonces

6) No demostraremos b), slo haremos posible su validez al consideCy=l((x; - X)2para n = 2.

Puesto que -Y1y -Y2 cstn distribuidas indepcndicntemente con distribu, quc( S 1 - X 2 ) tiene distribucinN ( @ ,2a2j. cin N ( p , c 2 ) encontramos Luego,

tienedistribucinx-cuadradaconungradodelibertad.(Vase el Teorema 10.8.) La demostracin para una TI general sigue una lnea - y l 2 / o 2se puede dessemejante. Debemos demostrar que CF=l((s; componer enla suma de ( n - 1) cuadrados de variables alcatorias indeN ( @ 1). , pendientes, cada una con distribuci6n
Observacwn: Aunque S2 sedefine como la suma d e los cuadrados de n trminos, esos n trminos no son independientes. En realidad, (XI - S)+ ( J ~2X ) . . .+ (X, - S r ) = ELl X ; - nS? = O. Por lo tanto, hap una relacibn lineal entre los n trminos, lo que indica que tan pronto como se conozca alguno de los ( n - I), el n-simo estar determinado.

Finalmente, establezcamos(sin demostracih) un resultado que se refiere a la distribucin d e probabilidades del recorrido de muestra R.

Teorema 13.5. Sea X unavariablealeatoriacontinuacon f d p J. Sea B = A l - K el recorrido de muestra basado en una muestra aleatoria d e tamafio 7 2 . Luego, la fdp d e R est dada por

13.5

integral L a transformacwn

363

EJEMPLO13.2. Un voltaje aleatorio V est distribuidouniformemente en [O, 1 1 . Se obtiene una muestra de tamaon, digamos VI,. . . , I S L , y se calcula el recorrido muestra1 R. Encontramos que la fdp de R es
g ( r ) = n(n - 1)
+m

r"f(sjf(s

+
le(r)

.>
ds
*

Tenemos f ( s ) = f ( s r ) = 1 para cualquier O 5 S 5 1 y O 5 S r 5 1, las que juntas implican que O 5 S 5 1 - T . Por

= n ( n - 1j f . n - 2 ( l - T ) ,

o 5 T _< 1.

FIGURA 13.2

Para n > 2, la grafica de la fdp d e R tiene la forma que se indica en el valor d e r en el cual la figura 13.2. Obs&-vese que cuando n -, (m, ocurre el mximo se desplaza a la derecha. As, cuando el tamao de la muestra aumenta, cada vez es ms posible que el recorrido R est cercano a 1, que es intuitivamente lo que esperaramos.

13.5 La transformacin integral


Una muestra de una variable aleatoria S puede usarse para obtener informaci6n acerca de parmetros desconocidosasociados con la distribuci6n d e probabilidades de X. Sin embargo, podemos usar una muestra con un propsito diferente. Podramos tomar algunas observaciones de una variable aleatoria cuya distribucin est completamente especificada y luego usar esos valores muestrales para aproximar ciertas muy dificil obtcner con un clculo matemtico probabilidades que sera directo. Por ejemplo, suponicndo queX tiene una distribucin N ( 0 , l ) y queremos estudiar la variable alcatoria Y = .--'sen AT. ~ 1 especial, 1 '5 A fin de obtener la supongamos que queremos calcular P ( 0 5 E respuesta exacta, necesitamos encontrar G, la [da de Y y luego calcular G( - C(0). Encontraramos mucha dificulml al hacer esto. Sin eml idea de bargo, podemos usar otro planteamiento, el cual sc basa en a

i)

4).

364 Muestras y distribuciones muestrales

13.5

usamos la fkecuencia relativa como una aproximacin a la probabilidad huscada. Si esta frecuencia relativa se basa en un nmero de observaciones sulicientenlente grande, la Icy de los grandes nmeros justifica nuestro procedimiento. De manera especfica supngase que tenemos una muestra aleatoria de la variable aleatoriaX anterior, cuya distribucicinest completamente especificada, X I , . . . ,-Yrl. Para cada X; definimos la variable aleatoria E = e -xi scn S i . 1,ucgoevaluamos la frecuenciarelativa n , ~ / ndonde , n A es igual al nrnero devalores Y;,digamos y;, que satisfacen O 5 y; 5 Por tanto, n ~ / es n la fi-ecuencia relativa del evento O 5 Y 5 y si n es grancle, esta frecuencia relativa estar LLcercana a P [ O _< I. _< ;I, segin la ley de los grandes nmeros. Para aplicar el procedimiento anterior, debemos encontrar un medio de generar una muestra aleatoria XI, . . . ,X,, d e la variable aleatoria cuya distribucicin es N ( 0 , l ) . Antes d e indicar cmo se hace esto, expongamos cn forma breve una distribucin para la cual esta tarea ya se ha realizado debido a la disponibilidad de tablas. Supngase que X est5 distribuida uniformemente e n el intervalo [O, 13. A fin de obtener una muestra alcatoria para tal variable aleatoria, slo necesitamos conl Tiblu de nmeros czleatomos (vase el Apndice). Esas tablas se sultar a han hecho de maneraque sean tiles para este propsito. Para usarlas, sitnplernente sclcccionamos una ubicacicin a l azar en la tabla y luego obtenemos nilmcros a lo largo d e filas o columnas. Si queremos usar esos O y 1, slo se necesita nmcros tabulados para representar valores entre poner u n punto decimal a l comienzo dcl nmcro. As, el nmero 4573, tal como se list, se usara para representar el nmcro 0.4573, etctcra. La disponibilidad de esas taldas d e nilmeros aleatorios hace que la larca de obtener una muestra aleatoria de una distribuci6n arbitraria sea relativamentesencilla debido a l resultado dcl teorema siguiente.

s i n d a r el experimento que da origenlaa variable aleatoriaY . Entonces

i.

i,

Teorema 13.6. Sca una variallle alcatoria con fdp f y fda F . [Se l variablealcatoria supone que f ( z ) = O, z 6 ( a , b).] Sea E a definida porY = F ( S ) . I,uego, Y est distribuida uniformemente en [O, 11. (Y se dcsigna como t)-un.sformncidnintegml d e X.)
A Y

Demostracidn: Puesto que X es una variable aleatoria continua, la fda F es una funcin continua estrictamente montona con u n a inversa F-. ES decir, E = F ( S ) puede resolversepara X ent@rminos d e

13.5

integral LAZ transformacwn

365

Y : X = 3 " l ( Y ) (VCase la Fig. 13.3.) [Si F ( z ) = O para 2 5 a , definimos F-l(O) = a. De manera similar,si F ( z ) = 1 para z 2 b, definimos F-'( 1) = b.] Sea G la fda d e la variable aleatoria Y definida anteriormente. Entonces,

Por tanto, la fdp de Y , g(y) = G'(y) = 1. Esto establece nuestro resultado.


Obseroaciones: a) Comentemos brevemente cmo se observa en realidad el valor de una variable aleatoriaY . Observamos un1 valor de la variable aleatoria X, digamos x, luego calculamos el valor de Y = F ( X ) como Y = F ( c ) donde F es la fda conocida de X . b ) El teorema 13.6 enunciado y demostrado anteriormente para variables aleatorias continuas tambien es vlido para variables aleatorias discretas. Hay que hacer un peque0 cambio en la demostraci6n, puesto que la fda de una variable aleatoria discreta es una funcin escalonada y no tiene una inversa cnica.

F"(y)

FIGURA13.3

Podemos usar ahora el resultado anterior a fin de generar una muestra al azar de una variable aleatoria con una distribucin especfica. Consideraremos nuevamente slo cl caso comtinuo. Sea X una variable aleatoria continua con fda F d e la cual se pide una muestra. Sea y1 un valor (entre O y 1) obtenido de una tabla de nmerosaleatorios. Puesto que Y = F ( X ) est distribuida uniformementeen [O, 11, podemos considerar a y1 como una observacind e esa variable aleatoria. Resolviendo la ecuacin y1 = F ( q ) para 2 1 (lo que es posible si S es continua), obtenemos un valor de unavariable aleatoriacuya fda es F . Continuando este procedimiento con los nmeros y2, - ,yn obtenidos d e una tabla

366 Muestras y distribuciones muestrales

13.5

dc nmeros alcatorios, tenemos r i , i = 1 , . . . ,17, con10 soluci6n d e l a ccuacin yi = F ( r ; ) y, por tanto, tenemos nuestros valorcs nluestralcs

requeridos.

EJEMPLO13.3. Supngase q u e qucremos obtener una muestra de tamao cinco d e una variable alcatoria con distribucicin1Y(2,0.09) y supngase que obtenemos los valores siguientes dc una tabla d e nilmeros aleatorios 0.487, 0.722, 0.66 t . 0.194, 0.336. Definamos .r1 como sigue:
dt

De las tablas de la distribucin normal encontramos que(rI - 2)/0.3 = -0.03. Luego rl = (-0.03)(0.3) 2 = 1.991. Este nilmerorepresenta nuestro primer valor de muestra de a l distribucin especificada. Continuando de la misma manera con los otros valorcs obtenemos los siguientes valores adicionales de muestra: 2.177, 2.124, 1.742, 1.874. El procedimientoanteriorpuedegeneralizarsecomosigue.Para obtener u n valor d e muestra de la ciistribuci6n l ~ r ( p , 0 2 ) ,otmmemos un valor muestra1 (entre 0y 1) de unatabla d e nilmeros alcatorios. El valor ) 711, pedido 11est definido por la ccuacicin @((.cI - p ) / ~ =

Observaciones: a ) Para generar muestras aleatoricasde una distribucin especfica existen mtodos alternativos al antes sngcrido. Vase el problema lf3.8. b) Uno d e los aspectos que hace iltil este planteamiento d e simuhci6n es la posibilidad de tener u n a rn11esu-a aleatoria muy g r m z d t . Esto es posible, especialmente, si se dispone de un computador electrnico.

EJEMPLO 13.4. El cmpl!je 1 d e un pr0puls01- sGlitlo d e u n sistcma d e cohetes es una funcin muy complicada de un ninnero de variables. Si S = rea de la garganta, E = factor dc la tasa de encendido, Z = rea donde se quema el propulsor slido, IT = dcnsidad del propulsor slido, n = coeficiente de encendido y C; = constantc, i = 1 , 2 , 3 , podemos expresar T como sigue:

I___

_._

. .

. l . . . l

13.5

integral La transfonnacidn

367

En investigacionesanteriores se han hecho hiptesis plausibles: S , E, TV y 2 son variables aleatorias independientes distribuidas normalmente Cualquierintentoparaobtener conmedias y varianzasconocidas. la distribucin d e probabilidades d e la variable aleatoria T o aun dc expresiones exactas para E ( T ) y V ( T )fracasar debido a la relacin compleja entre X, Y , W , 2 y T . Si pudiramos generar una muestra aleatoria (grande) de X , E, 2 y W , por ejemplo obtener 4-tuplas (*Y;, Y,, 2;) W ; ) , podramos luego .. ,Tn) e intentar generar una gran muestra de T , llammosla ( T I ) . estudiar en forma emprica las caractersticas d e la variable aleatoria T (en trminos de la muestra). Supngase, por ejemplo, que deseamos calcular P ( u 5 T 5 b ) . Para aplicar la ley de los grandes nmeros, simplemente necesitamos obtener la frecuencia relativa del evento{ u 5 T < - b} de nuestra muestra (grande), y luego poder tener una certeza razonable de que la frecuencia relativa se diferencia muy poco de la probabilidad terica que se est buscando. Hasta ahora nos hemos interesado slo en el problema de aproximar una probabilidad exacta con una frecuencia relativa basada en un gran nmero deobservaciones. Sin embargo, el rrltodo que hemos sugerido puede usarse para obtener soluciones aproximadas d e problemas que son d e naturaleza completamente no probabilstica. Indicaremos slo uno de los muchos tipos de problemas que pueden considerarse de esta manera. El planteamiento general se designa como el mtodo de Monte-Carlo. Una descripcin muy adecuada de este mCtodo aparece en Modern Mathemutics for the Engineer, de E. F. Beckenbach, publicado por McCraw-Hill Book Co., Inc.,Nueva York, 1956, captulo 12. El ejemplo 13.5 se obtuvo d e este libro.

EJEMPLO 13.5. Supngase que deseamos;calcular la integral x dx sin recurrir a los procedimientos triviales para obtener su valor 2. 1 Se procedecomose indica.Se obtiene, de una tabla denmeros aleatorios, una muestra aleatoria de la variablealeatoriadistribuida uniformemente en [O, 11. Supngase que los valoresmuestralesson 0.69, 0.37, 0.39, 0.97, 0.66, 0.51, 0.60, 0.41, 0.76 y 0.09. Puesto que la integral requerida representa a E ( X ) , donde X es la variable aleatoria uniformemente distribuida que se ~muestrea, parece razonable que podamos aproximar E ( X ) usando el promedio aritmtico d e los valores muestrales. Encontramos que y = 0.5-15. (Si hubisemos tomado una muestra mayor, tendramos una buena razn para esperar una exactitud mayor.)

368 Muestras y distribuciones muestrales


Esta ilustracintrivialindica la idea bAsica quesustentamuchos mtodos d e Monte-Carlo. Estos mtodos han sido usados con &;to para evaluar integrales mltiples sobre ciertas regiones complicadas y resolver algunas ecuaciones diferenciales.
Observacidn: Los medios para obtener muestras d e una distribucin arbitraria como se describi en la seccin 13.5 pueden llegar a ser complicados. Debido a la gran importancia d e la distribucin normal, existen tablas disponibles (vase la tabla 7 en el Apndice) que eliminan en gran parte los cblculos antes descritos. L a tabla 7 proporciona, directamente, muestras de la distribucin N ( 0 , l ) . Estos valores muestrales se llaman desviaciones normales. Si se necesitan n valores muestrales 2 1 . . . , x , d e la distribucin N ( 0 , l),se toman en forma directa de la tabla 7 (escogiendo el punto de partida de alguna manera aleatoria adecuada, como se describii, para el uso de la tabla d e los nlimeros aleatorios). De una manerasencilla, tambin puede usarse estatabla para obtenermuestras de una distribucin normal arbitraria N ( p ,g 2 ) .Simplemente se multiplica z;, el valor escogido d e la tabla, por (T y luego se le suma p. Es decir, se forma y; = az; + p . Entonces yi, ser un valor muestral d e la distribucin pedida.

PROBLEMAS
13.l . Deducir la expresin para la fdp del mnimo de unamuestra. (Vase el Teorema 13.2.) 13.2. Demostrar que si X I , . . . , X , son variables aleatorias independientes, cada una de las cuales con distribucin exponencial con parmetro a;, i = 1 , 2 , . . . , n y si K = mn(X1,. . . , X,), entonces K tiene una distribucin exponencial con parmetro CUI . . . a,. (Vase el Teorema 13.3.)

+ +

13.3. Supngase que X tiene una distribucin geomtrica con parmetro p . Sea X I , . . . , X , una muestra aleatoria d e X y sea M = mx(X1,. . . ,X,) y Ii' = mn(X1,. . . , X,). Encontrar la distribucin d e probabilidades d e M y de IC. [Indicacidn: P ( M = m ) = F ( m ) - F ( m - l), donde F es la fda d e M . ] 13.4. Se obtiene una muestra d e tamao 5 de una variable aleatoria con distribucin N(12,4). Cul es la probabilidad de que el promedio muestral exceda 13? b ) Cul es la probabilidad de queel mnimo d e la muestra sea menor que 1O? c) ?Cul es la probabilidad de queel mximo de la muestra exceda 15?
a)

13.5. La duracin de un articulo (en horas) est distribuida exponencialmenteconparmetro = 0.001. Se prueban seis artculos y se anotan los tiempos en que ocurrenlas fallas.

Problemas 369
a) {Cul es la probabilidad de que ningn artculo falle antes de quehayan transcurrido 800 horas? b ) {Cul esla probabilidad de que ningn artculo dure ms d e 3000 horas?

13.6. Supngase que X tiene distribucin N(O,O.O9). Se obtiene una muestra d e tamao 25 d e X , sea X I , . . . , X 2 5 . ?Cud es la probabilidad de que X : exceda 1.5?

x:zl
a)

13.7. Utilizando una tabla d e nmeros alea.torios, obtener una muestra aleatoria d e tamalio 8 de una variable aleatoria que tiene las distribuciones siguientes: exponencial, con parmetro 2, b ) x-cuadrada con 7 grados de libertad, N(414).

C)

13.8. En la seccin 13.5 se estudi6 un mtodo con el cual puede generarse una muestra aleatoria de una distribucin especificada. Hay muchos otros mtodos con los que puede hacerse esto, alguno!; de los cuales pueden preferirse al mencionado, particularmente si hay instrumentos d e cmputo disponibles. El siguiente es uno de dichos mtodos. Supngase que se desea obtener una muestra aleatoria de una variable aleatoria que tiene una distribucin xcuadrada con 2 k grados de libertad. Se procede como sigue: se obtiene una muestra aleatoria d e tamalio k (con ayuda de una tabla d e nmeros aleatorios) de una variable aleatoria que est distribuida uniformemente en (O, l), sea ~ 1 ,, .., U k . Luego se calcula X I = - 2 l n ( ~ 1 ~ 2.un> . . = -2 ln(U;). La variable aleatoria X 1 tendr entoncesla distribucin pedida como se indica enseguida. Luego, continuando con este esquem.a, se obtiene otra muestrad e tamao k de unavariable aleatoria distribuida uniformemente y se encuentra a s el segundo valor muestra1 X2. Ntese que este procedimiento necesita k observaciones de una variable aleatoria distribuilda uniformemente para cada observacin de x i k . Para verificar l a proposicin. que sehizo antes se procede como sigue.

x:=,

a ) Obtener la funcin generadora d e momentos d e la variable aleatoria -2 ln(U;), donde U; est distribuida uniformementeen (O, 1). b ) Obtener la funcin generadora d e momentos d e la variable aleatoria -2 ln(U;), donde las U; sean variables aleatorias independientes cada una con la distribucin anterior. Se compara es8tafgm con l a distribucin xcuadrada y luego se obtienela conclusin buscadh.

x;"=,

13.9. Usando el esquema bosquejado en el problema 13.8. obtener una muestra aleatoria d e tamao 3 de la distribucin

xi.

370 Muestras y distribuciones muestrales


(-;,
13.10. Una variable aleatoria continuaX est distribuida uniformemente en ;). S_ obtiene una muestra de tamao n d e X y se calcula el promedio muestral X. CuAl es la desviacin estndar d e y? 13.11. De una variable aleatoria distribuida normalmente con esperanza 20

I n probabilidad de queel promedio d e las dos muestras se diferencie (en valor absoluto) en ms de 0.3?

y varianza 3 se toman muestras independientes d e tamao 10 y 15. ?Cul es

13.12. (Para esteejercicio y los tres siguientes, leer la observacin al final del captulo 13.) Con ayuda de l a tabla d e las desviaciones normales (Tabla 7 del Apndice) obtener una muestra d e tamao 30 de una variable aleatoria X que tiene una distribucinN ( 1, 4). Usar esta muestra para responderlo siguiente:
Comparar P ( X >_ 2) con la frecuencia relativa de ese evento. b ) Comparar el promedio muestral X y la varianza muestral S con 1 y 4, respectivamente. c) Construir una grfica d e F ( t ) = P(X 5 t ) . Usando el mismo sistema de coordenadas, obtenerla grfica de la funcin de distribucwn emprica F, definida como sigue:
a)

donde X(2) es la i-sima mayor observacin en la muestra (es decir, X(;) es el estadstico d e i-simo orden). [La funci6n F, se usa frecuentemente para aproximar la fda F . Puede demostrarse que e n condiciones muy generales F,(t) = F(t).]

13.13. Tenga X una distribucin N ( 0 , l ) . De la tabla 7 del Apndice obtener una muestra d e tamao 20 para esta distribucibn. Sea Y = I X I .
a ) Usar esta muestra para comparar P[1 < Y 5 21 con la frecuencia relativa de ese evento. b ) Comparar E ( Y ) con el promedio muestral y. c) Comparar la fda d e Y , F ( t ) = P ( Y 5 t ) , con Fn, la fda emprica d e Y .

13.14. Supngase que X tiene distribucin N(2,9). Sea X I , . . . , X20 una muestra aleatoria de X obtenida con ayuda d e la tabla 7. Calcular
l n s2-y(&

n-1

- r?)2

y comparar con E(S) = 9.

i= 1

13.15 Tenga X unadistribucin N(0,l). Slea X I , . . . ,X30 una muestra aleatoria d e X obtenida usando la tabla 7. Calcular P ( X 2 2 0.10) y comparar este valor con la frecuencia relativa de ese evento.

14.1 Introduccin

En el captulo anterior sugerimos que una muestra de una variable aleatoria X puede usarse con el propsito de estimar unoo varios parmetros (desconocidos) asociados con la distribucin d e probabilidades d e X. En este captulo consideraremos en detalle este problema. A fin d e desarrollar un ejemplo especfico, tomemos en cuenta la situacin siguiente. Un fabricante nos ha enviado 100 O00 pequeos remaches. Un empalme perfectamente remachado necesita que cada remache ajuste con exactitud en un hueco y, por consiguiente, se tendr cierta dificultad cuando el remache lo exceda. Antes de aceptar este cargamento queremos tener una idea acerca d e la magnitud de p , la proporcin d e remaches dercctuosos (es decir, los qne exceden el hueco), para lo cual procedemos como sigue. Sc: inspeccionan n remaches del lote escogidos al azar. Debido al gran tamalio del lote, podemos suponer que escogemos con sustitucin aunque realmente no procederamos as. Se definen las siguientes variab1;:s aleatorias: Xi = 1 , si el i-simo artculo es defectuoso, y O en cualquier otrocaso i = 1 , 2 , . . . ,n. Por lo tanto, podemos considerar que S I , . . . ,S,, sea una muestra d e

374 Estimacih de pardmetros

14.2

la variable aleatoria X , cuya distribucin est dada por P ( S = 1 = p, P(X=O)=l-p. La distribucin d e probabilidades d e X depende del parmetro desconocido p de una manera muy sencilla. <Podemos usar la muestra X I , . . . ,X, de alguna manera con el objeto de estimar el valor d e p ? CI-Iay algn estadstico 1 1 tal que H ( X 1 , . . . , X , ) pueda usarse como un p? estimador (puntual) de Debera ser evidente que una muestra de tamao n, donde n < 100 000, nunca puede permitirnos reconstruir la verdadera composila informacin del cargamento, sin importar cun hbilmente usemos cin obtenida d e la muestra. En otras palabras, a no ser queinspecciolos artculos (es decir, tomemos n = lOOOOO), nunca nemos cada uno de p. (Esta illtima frasese refiere podremos conocer el valor verdadero de evidentemente al muestre0 sin sustitucin.) A s , cuando proponemos a p como un estimado d e p, en realidad no I; sea igual a p. (Recordemos que es una variable aleatoria esperamos que y, por tanto, puede tomar muchos valores.) Este dilema da origena dos preguntas importantes: 1) Qu caractersticas queremos que posea un buen estimado? 2) <Cmo decidimos que un estimado es mejor que otro? Puesto que sta puede ser la primera vez que el lector encuentrepreguntas deesta clase, vale la pena comentar brevemente la naturaleza general de este problema. Para muchas preguntas matemticas existe una respuesta definida. Sta puede ser muydificil de encontrar, puesto que implica diversos problemas tcnicos y podramos tener que contentarnos con una aproximacin. Con todo, normalmente es evidente cundo y cundo no. (Por ejemplo, supongamos que nos tenemos una respuesta piden encontrar una raz real de la ecuacin 3z5 - 422 132 - 7 = O. Una vez que hemos encontrado una solucin,es muy sencillo verificar si es l a correcta: slo necesitamos sustituirla en la ecuacin dada. Si te, es tambin sencillo decidir nemos dos respuestas aproximadas, T I y m cul aproximacin es mejor.) Sin embargo, el problema actual, en particular la estimacin de p , no admite un anlisis tan sencillo. En primer lugar, puesto que nunca podemos conocer el valor verdadero de p (en cualquier situacin real I; es correcto. al menos), no tiene sentido decir que nuestro estimado Segundo, si tenemos dos estimados d e p , llammoslos I;l y $2, debemos encontrar algn medio para decidir cul es mejor. Esto significa que debemos cstablccer algunos criterios que podamos aplicar para decidir si un estimado es preferible a otro.

14.2

estimados para

Criterios

3 75

14.2 Criterios para estimados

Definiremos ahora algunos conceptos importantes que nos ayudarAn a resolver el problema antes sugerido.

Definicin. Sea X una variable aleatoria con una distribucin de probabilidades que depende de un par;lmetro desconocido O. Sea 3 - 1 , . . . ,*YjL una muestra de X y sean 21,. . . , E los ~ valores muestrales correspondientes. Si g(X1,. . . ,X,) es una [uncin de l a muestra que se usar para estimar O nos referimos a g como un estimudor de O. El valor que toma g, les decir g ( X 1 , . . . , S , , ) , se conoce como un estimado de O y habitualmente se escribe como O = g(r1,. . . ,x,). (Vase la Observacin siguiente.)
Obsenucwn: En este captulo violaremos una regla que hemos observado con mucho cuidado hasta ahora: hacer una distincin minuciosa entre una variable aleatoria y su valor. Es decir, a menudo hablaremos d e S , el estimado d e O, cuando en realidad deberamos hablar del estimador g ( X 1 , .. . ,X,). Tambin escribiremos E ( 8 ) cuando, realmente indicamos E[g(XI,. . . , X n ) ] . Sin embargo,elcontextoen el cual nos permitimos esta libertaddebera eliminar cualquier ambigedad posible.

Definicin. Sea O un estimado del parrnletro desconocido 0 asociad o con la distribucin d e la variable aleatoria X. Entonces, 6 es un estimador insesgado ( o estimado insesgado; vase la Observacin anterior) para O si E ( B ) = O para toda O.
Obse?vucidn: Cualquier buen estimado debera. estar cercano al valor que est estimando. Insesgadurasignifica principalmente que el valor promedio del estimado estar cercano al valor verdadero dcl parmetro. Porejemplo, si el mismo estimado se usa una y otra vez y promediamos esos valores, esperaramos que el promedio estuviera cercano al valor verdadero del parmetro. Aunque es dcseable que un estimado sea insesgado, puede haber ocasiones en las cuales podramos preferir estimados sesgados (vase ms adelante). Es posible (y realmente fcil) encontrar ms de un estimado insesgado para u n parmetro desconocido. A fin d e hacer una buena eleccin en talcs casos presentamos el concepto siguiente.

Definicin. Sea O un estimado insesgado de O. Decimos que 6 es u n eslinzndo insesgado de vnrianm mnima de O si para todos los estimados

376 Estimacidn de pardmetros


U* tales que E ( u * ) = O, tenemos

14.2

para cualquier B. ES decir, entre todos los estimados insesgados de U, 6 tiene la varianza m,is pequea.

v ( U ) 5 v(u*)

FIGURA 14.1

FIGURA 14.2

Obseruaciones: u) La varianza de una variable aleatoria mide la variabilidad de la variable aleatoria respecto a s u valor esperado. Por tanto, es intuitivamcnte atractivo pedir que un estimado insesgado tenga una varianza pequefia, pues si la varianza es pequea, entonces el valor d e la variable aleatoria tiende a estar cerca d e s u promedio, lo cual, en el caso de un estimado insesgado significa aproximarse a l valor verdadero del pat-metro. Luego, si b1 y U2 son dos estimados de O, cuya fdp est bosquejada en la figura 14.1, posiblemente preferiramos U1 a 0 3 . Ambos estimados son insesgados y I/(&) < V(U2). En el caso de los estimados 0 3 y 6 4 , la decisin no es tan evidente (Fig. 14.2) ya que U3 es insesgada, mientras que b4 no io es. Sin embargo, I/(&) > V ( 8 4 ) . Esto significa que mientras en promedio U3 estar5 cercanaa U, su mayor varianza indica que no seran sorprendentes 64 tendera desviaciones considerablesd e B. Por otra parte, en promedio a ser algo mayorque O y podra estar a n ms cercana a U que 63, (\&m la Fig. 14.2). b ) Existentcnicas generales para encontrar estimados insesgados d e varianzamnima. Sin embargo,nopodremospresentarlas aqu. I-Iaremos uso d e este concepto principalmente con el objeto d e elegir entre dos o ms estimados insesgados disponibles. Es decir, si y 9 son . l estimados insesgados de U, y si V(61) < I/(&), preferiramos U
Otro criterio para discernir entre estirnados es algo ms dificil d e formular y se basa en la siguiente definici6n.
Definicin. Sea 4 un estimado (con base en una muestra S I , . . . , S,,) del parmetro U. Se dice que e s u n estimado consistente de U. si

14.2
n+cc

Criterios para estimados

377

lm Prob

[I^O O I > 1
E

=O

para toda

>O >O

o equivalente, si
lm Prob c 7 L

[I-O O I 5 1
E

= 1 para toda

Obseruacwnes: a ) Esta definicin establece que un estimado es consistente si, cuando aumenta el tamaiio R. de muestra el. estimado 0 converge en el sentido probabilstico anterior a B. Nuevamente, ksta es una caracterstica intuitivamente atractiva que debe poseer un estimado, pues afirmaque cuando aumenta el tamao d e muestra (lo que significara, en circunstanciasmuy razonables, que se dispone d e m& informacin), el estimado llega a ser mejor en el sentido indicado. b ) Es relativamente fcil verificar si un estimado es insesgadoo no. Tambin es muy elemental comparar a l s varianzas de dos estimados insesgados. Sin embargo, verificar la convergencia aplicando la definicin anterior no es t m sencillo. El teorema siguiente es muy til algunas veces.

Teorema 14.1. Sea un estimado de O con base en una muestra de V ( 0 ) = O, entonces U tamao n. Si lmn+cc E(B)= U, y si es un estimado consistented e O.

(7.20). As, escribimos:

Demostracin:

Usarcmos l a desigualdad de

Chcbyshcv, ecuacin

Por lo tanto, haciendo quen encontramos que lrnn+W P


Observacin: Si el estimado automticamente.

8 es insesgado, la primera

[lti I 1
--f

00

y utilizandlo la hiptesis del teorema, - O 2 c 5 10 y as igualamos a O.


condicin se satisface

os

de 378

Estimacidn

14.3

Un criterio final que se aplica a menudo a estimados puede formularse como sigue. Suponer que X I , . . . , S n es una muestra deX y O es un parmetro desconocido. Sea O una funcin d e ( X I , . . . ,X,).
Definicin. Decimos que 6 es el mejor estimado lineal insesgado d e O si:
u ) E ( @ = o. b ) 8 = Cy=I a i X i . Es decir, 8 es una fncin lineal d e la muestra.
c)

V ( 6 ) 5 V(B*)donde O* es cualquier otro estimado de O que satisface las relaciones a ) y b) anteriores.

Posteriormente consideraremos un mtodo muy general que nos dar i buenos estimados para un gran nmero de problemas, dado que satisfarn uno o ms d e los criterios anteriores. Antes d e hacer esto, consideraremos sencillamente algunos estimados que de manera intuitiva son muy razonables, y luego verificaremos, mediante los criterios anteriores cun buenoso cun malos son.
14.3 Algunos ejemplos

y linealilidad nos dan al menos una pauta para juzgar un estimado.


Consideremos ahora algunos ejemplos.

Los criterios anteriores d e insesgadura, varianza mnima, consistencia

EJEMPLO 14.1. Reconsideremos el problema anterior. Hemos muestreado 71 1-emaches y cncontrado que la muestra (-Y1,. . . , S , ) produce exactamente k dcfcctuosos; es decir, Y = A ; = k . Debidoa nuestras hiptesis, E es una variable aleatoria distribuida binomialmente. El estimado intuitivamentems sugestivodel parmctro p cs I; = Y/n, la proporci6n d e defectuosos encontrados en la muestra. Apliquemos algunos d e los criterios anteriores para ver cun bueno es un estimado

6
E($) = E

(t)
-

1 = (np) = p . n

h i , $ es un estilnado insesgado d e p .

14.3

Algunos ejemplos

379

Luego V ( p )"+O cuando n -+ 00 y, por tanto, fj es un estimado consistente. Como sealamos antes, puede haber muchos estimados insesgados para un parmetro, algunos de los cuales, adems, pueden ser muy malos. Por ejemplo, considrese, en el contexto del presente caso, el estimado p* definido como sigue: p* = 1 si el primer artculo elegido es defectuoso, y O en cualquier otro caso. Es; decir, es evidente que no es muy buen estimado cuando observamos quesu valor es una funcin slo d e X I , en vez d e X I , . . . ,X n . Sin embargo,p* es insesgado porque E @ ) = 1 P ( X = 1) O P ( X = O ) = p . La varianza d e p* es p ( l - p ) , la que se compara muy malcon la varianza d'e p antes considerada, esto es p ( l - p ) / 7 2 , cn especial si n es grande.

El resultado obtenido en el ejemplo anterior es un caso especial d e la siguiente proposicin general. Teorema 14.2. Sea X una variablealeatoriaconesperanzafinita p y varianza a 2 . Sea f? el promedio muestral obtenido en una muestra de tamaon. Por lo tanto, X es un estimado insesgadoy consistente d e p .

Demostrucin: sta se deduce inmediatamente del teorema 13.1, don= 11 y V ( f ? ) = o ! / nque tiende a O cuando de demostramos que ,?(y)
" +

O O .

Obsemacwn: Que el resultado demostrado en el ejemplo 14.1 es un caso especial del teorema 14.2, se deduce cuando obse~rvamos que la proporcin d e dcfcctuosos en la muestra, Y / n , puede escribirse como ( l / n ) ( X ~ . . . X n ) , dondea l s X1 toman los valores uno y cero, segn que el articulo inspeccionado sea o no dcfcctuoso.

+ +

El promedio muestral citado en el teorema 14.2 es una funcin lineal + a n X n , con d e la nlucstra. Es decir, es d e la forma a l X l + ~ 2 x 2 a l = ... = a n = l / n . FAcilmente se observa que = a ; X ; es un estimado insesgado dep para cualquier eleccin d e los coeficientes que satisfacen la condicin Cy=la ; = 1. Surge la siguiente pregunta u; = 1) es interesante. Para qu elecci6n d e las a ; (sujetas a ms pequefia la varianza de n ; X ; ? Resulta que la varianza es el estimadolineal minimizada si a ; = l / n paratoda i. Es decir,es insesgado d e varianza mnima.

380 Estimacidn de partimetros Para verificar esto, consideremos

14.3

/2 =
Luego,

i=l

x
n

a;&,
d= 1

a;

= 1.

i=l

puesto que las X ; son variables aleatorias independientes con varianza comn a2. Escribimos

Por lo tanto, esta expresi6n es minimizada obviamente para toda i.

si a; = l / n

EJEMPLO 14.2. Sup6ngase que T,el tiempo para que ocurra una falla de un componente, est6 distribuida exponencialmente. Es decir, la fdp de T est6 dada por f ( t ) = Pe-P', t 2 O . Sup6ngase que probamos n componentes, anotando el momento en quefalla cada uno, digamos TI, . ..,Tn. Deseamos u n estimado insesgado del tiempo esperado para que ocurrala falla E(T)= l/P, con baseen la muestra (TI,. . . ,Tn). Uno d e tales estimados es T = (l/n) Ti. Del teorema 14.2 sabemos teorema 13.1 nos que E ( T ) = l/P. Puesto que V ( T ) = l/p2, el afirma que V ( T ) = l/P2n. Sin embargo, T no es el nico estimado insesgado d e l/p. Consideremos, en efecto, el mnimo d e la muestra, Z = mn(T1,. .. ,Tn).De acuerdo con el teorema 13.3, d e nuevo 2 est distribuida exponencialmente con parime{ro np. Luego, el estimado nZ tambikn es un estimado insesgado de l/P.
Para evaluar la varianza calculamos
1 V(n2)= n 2 V ( 2 )= n2 - --1

@PI2 - P2

14.3

ejemplos

Algunos

38 1

As, aunque los dos estimados nZ y T , son imesgados, el ltimo tiene

una varianza ms pequea y, por tanto, debera preferirse. Sin embargo, en esta situacin especial hay otra consideracin que podra influir en nuestra eleccin entre los dos estimados sugeridos. Los n componentes podran probarse simult5neamente. (Por ejemplo, podramos poner n bombillas en n portalmparas y anotar el tiempo en que se queman.) Cuando usamos n Z como estimado, la prueba puede terminarse tan pronto como el primer componente falle. Al usar T como estimado debemos esperar hasta que todos los componentes hayan la primera y fallado. Es muy posible que transcurra mucho tiempo entre la ltima falla. Dicindolode manera distinta, si L es el tiempo necesario para probar lo n artculos y calculamos el estimado para l/P, entonces, , que al usar T , usando n Z , tenemos L = min(T1,. . . ,T ~ )mientras tenemos L = mx(T1,. . . ,Tn). Luego, si el tiempo necesario para efectuar la prueba es de cualquier efecto serio (digamos, en trminos de costo), podramos preferir el estimado con mayor varianza.

XI,. . . , X n .

EJEMPLO 14.3. Supngaseque deseamlos unestimadoinsesgado de la varianza cr2 de una variable aleatoria, con base en una muestra

Aunque podramos considerar ( l / n ) Cr=ll(X; -X)2,resulta que este [ ( n- l)/n]a2. (Vaseel estadsticotiene un valor esperado igual a Teorema 13.4.) Por lo tanto, un estimado i~nsesgado d e cr2 se obtiene al tomar
l n b2 - -C ( X 2 - X ) 2 . n-l.
"

:=1

Obseluacwnes: a) Aunque dividir entre ( n - 1) e n ves d e n es distinto cuando n es relativamente pequea, para una n grande la diferencia es pequea cualquiera que sea el estimado que se use. 6) El ejemplo 14.3 ilustra una situaci6n muy comn: puede suceder que un estimado de un parhmetro , B ,sea sesgado en el sentido E(& = k,B; en tal caso, consideramos simplementeal nuevo estimadop / k , que serA insesgado. c) Puede demostrarse, aunque no lo haremos aqu, el que estimado anterior d e u2es consistente.

EJEMPLO14.4. En la tabla 14.1 reproducimos los datosobtenidos en el famoso experimento realizado po:r Rutherford [Rutherford

de

382 Estimacin

14.3

y Geiger, Phil. Mag. S6, 20, 698 (1910)l sobre la emisin de partculas a por una fuente radiactiva. En la tabla, k es el nmero de partculas

TABLA 14.1
k
nk
O

9 81 0 71 1 6T o 5t a l 139 273 408 49


'

383 203 57

532 525

27

10

2612

observadas en una unidad de tiempo (unidad = minuto), mientras que n k es el nmero de intervalos en los que k partculas fueron observadas. Si hacemos que X sea el nmero de partculas emitidas durante el y suponemos que X intervalo de tiempo de (minuto) de duracin, sigue la distribucin d e Poisson, tenemos

Puestoque E ( X ) = i X , podemosusar el promediomuestralpara obtener un estimado insesgado de i X . Para X, obtenemos entonces el estimado = SX. Para calcular X , simplemente evaluamos

Por tanto, un estimado insesgado d e X con baseen el promedio muestral el nmero esperado de es igual a 30.96 (que puede interpretarse como partculas emitidas por minuto).

EJEMPLO 14.5. En la fabricacin de explosivos puede ocurrir cierto X el nmero de inflamaciones por nmero de inflamaciones al azar. Sea X tiene una distribucin d e Poisson conparmetro da, suponiendo que X. La tabla 14.2 da algunos datos que se van a emplear parala estimacin d e X.

TABLA 14.2
Nmero de idamaciones, k Nmerodedas conk inflamaciones, n k
O

1
90

2 54

3 22

6 5 Total
I 2 6

75

250

14.3

Algunos ejemplos 383

Usando nuevamente el promedio obtenemos

muestrial para el estimado de X,

x=

li C k

Icnk = 1.22 nmero de inflamaciones por da. n k

EJEMPLO14.6. Se ha establecido que el contenido de ceniza en el p y u 2 . Los datos carb6n est& distribuido normalmente con parsmetros de la tabla 14.3 representan el contenido de ceniza en 250 muestras de carbdnanalizadas.[Datosobtenidos de E. S. Grummel y A. C. Dunningham (1930); British Standards Institution 403, 17.1 nx es el x de ceniza. nmero de muestras 4ue tienen un porcentaje
insesgados presentados antes: 249
j-j= E

A fin de calcular los parsmetros p y

u,

usaremos los estimados

250

x xnx

= 16.998,

-2

1 E n z ( . - fi) 2 = 7.1. =x

TABLA 14.3
nx nx
X
X
9.25 1 14.25 9.75

Contenido de ceniza en el carb6n


10.25 2 10.75 1 15.75

1I

nx
X

nr 1 0 1 T o t a l I I de muestras I 250 I

I 13 I 14 I 15 I 13 I 19.25 I 19.75 I 20.25 I 20.75 1 1 2 1 7 1 6 1 8 I 24.25 I 24.75 I 25.25 I


0 1

14.75

15.25

I I

I I

Obseruacidn: Supdngase que tenemos un estimado insesgado 8, digamos, de un parAmetro 8. Puede suceder que estemos interesados slo en estimar una funci6n g(8) de 8. [Por ejemplo, si X est distribuida exponencialmente con parmetro 8, posiblemente estaremos interesados en l/8, es decir,E ( X ) ] .Debera por ejemsuponerse que todo lo que necesitamos hacer es considerar l/e o plo, comoel estimado insesgado apropiado de l/8 IO(S)2. Categbricamenteesto no es as. En realidad, una de las desventajas del clriterio de insesgadura es que si hemos encontrado un estimado insesgado de 8, en general debemos partir del principio para encontrar un estimado para g(8). S610 si g(8) = a8 + b, es

304 Estimacin de parmetros

14.4

decir, si g cs una Funci6n lineal d e O, es cierto que E[g(e)] = g[E(e^)]. En general, E[g(e^)] # g[E(e)]. Supngase, por ejemplo, que X es una variable aleatoria con E ( X ) = p y V ( X )= u2. Hemos visto que el promedio muestra1 es un estimad o d einsesgado d e p . ?Es y2 un estimado insesgado d e ( P ) ~ ? La respuesta es no,como lo indica el clculo siguiente. Puesto que V ( T )= E ( X ) 2 -( E ( X ) ) 2 , tenemos

Aunque los ejemplos anteriores demuestran e n Forma convincente que en general

resulta que en muchos casos la igualdad es vlida, aproximadamente al menos, e n especial si el tamaiio d e muestra es grande. A s , en el ejemplo anterior encontramos que E(X) = p y E(;~T) = p2 u 2 / n , [con = F y g(z) = z21, que es aproximadamente igual a p2si n es grande.

14.4 Estimados de mxima verosimilitud


Slo hemos considerado ciertos criterios con los cuales podemos juzgar u n estimado. Es decir, dado un estimado propuesto para un par5metro desconocido, podemos verificarsi es insesgado y consistente, y podemos y compararla con l a varianza calcular (al menos en principio) su varianza de otro estimado. Sin embargo, no tenemos an un procedimiento general con el cual podamos encontrar estimados razonables. Existen diversos procedimientos d e los cuales expondremos uno, llamado el mtodo de la mxima verosimilitud. En muchos casos este mtodo da estimados razonables. A fin d e evitar la repeticin de nuestra exposicin para el caso discreto y el continuo, convengamos en la terminologa siguiente para los propsitos d e la exposicin presente. Escribiremos f(x;13)tanto parala fdp de X (evaluada en x) como para P ( X = x) si X es discreta. Incluimos 6 (en la notacin) para recordar 0 en que la distribucin de probabilidades X dedepende del parmetro el cual estamos interesados. Sea X1 7 . . . X , una muestra aleatoria la devariable aleatoriaA y sean x1,. . . ,2 , los valores muestrales. Definamos la funcin de verosimilitud L como la siguiente funcin dela muestra y de 0.

14.4

Estimados de mxima verosimilitud

385

Si X es discreta, L(z1,. .., x n ;S) representa p[X1 = 2 1 , . . . ,X , = x,], mientras que si X es continua, L(x1,. . . ,X,; e) representa la fdp conjunta de( X I , .. . ,Xn). Si se ha obtenido la muestra ( X I , . . . ,X,,), los valores muestrales ( q , . . . ,x%) son conocidos. Puestoque 8 es desconocida, podramos ha0 ser5 mayor L(z1,. . . cernos la siguiente pregunta. <Para que valor de ,x,; O)? En otras palabras, supongamos que tenemos dos valores de 8, sean 81 y O2 y que L(z1,. . . ,x,; 01) < L ( z l , , .. , x n ; 02). Preferiramos entonces 192 a 81 para los valores muestrales dudos ( X I ,. . . ,x , ) . Porque si 132 es realmente el valor verdadero de8, entonces la probabilidad de obtener valores muestrales como los que tenamos es mayor que si 81 h e s e el valor verdadero de O. Informalmente, preferimos el valor del par5metro que hace tan probable como sea ]posible ese evento que en realidad ocurri. Es decir, deseamos elegir el valor ms probable de 6' despus de obtener los datos, suponiendo que cada valor de e fuese igualmente posible antes que los datos fuesen obtenidos. Hagamos la siguiente definicin formal.

Definicin. El estimado d e mxima verosimilitud de O, digamos 8, con ' que base en una muestra aleatoria X I , . . . ,X,, es el valor d e 6 maximiza a L(X1,. .. ,X,; e), considerado como una funcin de 0 para una muestra dada X I , . . . ,X,, donde L esti definida por la ecuaci6n (14.1). (ste habitualmente se designa como el estimado M L.)
Observaciones: a ) Por supuesto, 8 ser un estadsticoy, por tmto, una variable aleatoria, puesto que su valor depender de la muestra ( X I , .. . ,X,). (No consideraremos como soluci6nuna constante.) b) En la mayor parte de nuestros ejemplos, I9 representar un solo nmero real. Sin embargo, puede suceder que la distribucin de probabilidades de X dependa de dos o m6s valores paramCtricos (cornlo se hace en la distribuci6n normal, por ejemplo). En tal caso, I9 puede repres'entar un vector, 0 = ((Y, p) o 6=(~,P,Y etc. ), c ) A fin de encontrar el estimado ML debemos determinar elvalor m5ximo de una hncibn. Por lo tanto, en muchos problemas podemos aplicar algunas de las tkcnicas estAndar del c6lculo para encontrar este mximo. Puesto que In x es una hnci6n creciente de x,
In L ( X I , .. . ,X,; O)

os

de 386

Estimacin

14.4

obtendrti su valor mximo para el mismo valor de 0 como lo har L ( X 1 , . . . , X,; e). Luego, en condiciones muy generales, suponiendo que 0 es un nmero real y que L ( X 1 , . . . , X,; e)es una funcin diferenciable de 8, podemos obtener el estimado ML 6 al resolver lo que se conoce como la ecuacin de verosimilitud:
- In L ( X 1 , . . . ,X,; 0)

a ae

=O

(14.2)

- In L(X1,. . . ,X,;
8 Y

a ,/3)

= O,
(14.3)

- In L ( X 1 , . . . , X,;

a aa

a ,p)

= O.

Nuevamente se insistir en que el planteamiento anterior no siempre estil.Sin embargo, en un gran nmero de ejemplosimportantes (algunos de los cuales presentaremosenformabreve)estemtodo proporciona el estimado ML, pedido con relativa facilidad.

Propiedades de los estimadores de mxima verosimilitud:


Muy a menudo talsesgo a ) El estimado ML puedesersesgado. puede evitarse multiplicando por una constante apropiada. b ) En condiciones muy generales,los estimados ML son consistentes. Es decir, si los tamaos de muestra en los cuales se basan es grande, el estimado ML estar cercano al valor del parmetro que se estima. (Los estimados ML poseen otra propiedad muy importante, la propiedad del gran tamao de muestra que se expondrg m& adelante.) c) Los estimados ML poseen la notable propiedad de invarianza. Sup6ngase que 8 es el estimado ML d e O. Entonces puede demostrarse que el estimado ML de g(0) es g(8). Es decir,.si el estadsticoA toma sus medidas en pies2 y el estadstico B mide en pies y si el estimado ML d e A es 8, entonces el d e B sera Recordemos que esta propiedad no la tienen los estimados insesgados.

d.

Consideraremos ahora ciertas aplicaciones sobresalientes d e los estimados ML.

14.4

de Estimados

mdxima verosimilitud

387

EJEMPLO 14.7. Supngase que el tiempo para que ocurra la falla, digamos T, de un componente tiene una distribucin exponencial con parametro P. La fdp deT , por lo tanto, esta dadapor

Supngase que se prueban n de tales componentes, dando los tiempos de falla T l , , . .,Tn. Por lo tanto, la funcin de verosimilitud de esta muestra esta dada por

A s , In L = n In

-P

Ti. Portanto,

da j = 1/T, donde T es el promedio muestral de los tiempos para que suceda la falla. Puesto que el valor esperado de T , el tiempo promedio para que ocurra la falla, est dada por l/P, usando la propiedad de invarianza de los estimados ML, encontramos que el estimado ML de E ( T ) est5 dado por T , el promedio muestral. Sabemos queE ( T ) = 1/P y, por tantoT , el estimado ML de E ( T ) , es insesgado.
Obseruacidn: En general, no es fcil encontrar la distribucin de probabilidades de los estimados ML, especialmente si el tamao de muestra es pequeo.

(Si TZ es grande, encontraremos que es posible una solucin general.) Sin embargo, en el presente ejemplo podemos obtener la distribucin.delos estimados ML. Del corolario del teorema 10.9 encontramos que 2npT tiene distribucin x;,. Luego, P(T 5 t ) = P(2nPT 5 Znpt). Esta probabilidad se puede obtener directamente de la tabla de la disaibucin X-cuadrada si n, p y t son conocidas.

EJEMPLO14.8. Se sabe que cierta proporcin (fija), digamos p , de detonantes es defectuosa. De una gran partida, se eligen n al azar y se prueban. Definamos las variables aleatorias s.iguientes. X i =si el i-simo detonante es defectuoso y O en cualquier otrocaso, i = 1 , 2 , ...,n

388 Estimacin de pardmetros

14.4

Por tanto, (X,). . . ) X , ) es una muestra aleatoria de la variable aleatoria X que tiene la distribucin de probabilidades P ( X = O ) = f ( O ; p ) = 1 - p , P ( S = 1 ) = f ( 1 ; p ) = p . Es decir, f ( z , p ) = px(l - p ) 1 -x , z = O, 1. Luego,
L ( X 1 ) . . . ) x n ; p ) = pk ( ~ - p ) , - ~ ,

donde k = X i = nmero total de detonantes defectuosos. InL(X1, . . . , , Y , ; p ) = k I n p + ( n - k ) l n ( I - p ) . Portanto,

As,

BlnL
aP

k + (-1) n- k P

1-P

k - -. n-k =P 1-P

Si k = O o n encontramos directamente, al considerarla expresin deL, que el valor mximod e L se obtiene cuandop = O o 1, respectivamente. Para k # O o n, hacemos Bln L / B p = O y encontramos como solucin 6 = k / n = Y, el promedio muestral. A s , nuevamente encontramos que el estimado ML da un estimado insesgado del parmetro buscado.

EJEMPLO 14.9. Supngase que la variable aleatoria X est distribuip y varianza l. Es decir, la fdp deX est da normalmente con esperanza dada por

Por lo tanto,

Luego, Bln L / a p = O da $ = y,el promedio muestral.

EJEMPLO 14.10. Hasta ahora hemos considerado situaciones en las cuales pudimos encontrar el valor mximo Lde al derivar simplemente L( o In L ) respecto al parmetro y hacer esta derivada igual a cero. El ejemplo siguiente ilustra que esto no siempre es efectivo.

14.4

de Estimados

mxima verosimilitud 389

Supngase quela variable aleatoria X est distribuida uniformemente en el intervalo [O, a],donde a es un parmetro desconocido. L a fdp de X est dada por

f ( . )

= l/a,
=O

o5x5( Y ,

para cualquier otro valor.

Si ( X I , . ..,X,) es una muestra deX, su funcin de verosimilitud est dada por

L ( X 1 , . . . , X n ; a ) = (l/a),,
=O

O 5 X; 5

para toda i,

para cualquier otro valor.

Considerando L como una funci6n de (Y para (XI,.. .,X,) dada, se observa que debemos tener a 2 X; para toda i a fin de que L sea a 2 mx(X1,. . . ,X,). A s , si distinta d e cero. Esto equivale a pedir que dibujamos L como una funcin de a obtenemos la grfica que se muestra de inmediatoquC valor de en la figura 14.3. De esta grfica, es evidente a maximiza L, es decir
& = mx(X1,. . . ,X,).

Estudiemos algunas propiedades d e este estimado. Del teorema 13.2 obtenemos la fdp de & : g ( & ) = n[F(&)In-'f(&).Pero F ( z ) = x / a , O 5 z 5 a y f ( z ) estn dadas anteriormente. Luego, obtenemos

FIGURA 14.3

390 Estimacindeparmetros
Para encontrar E ( & )calculamos

14.4

E ( & )=

CY

hg(&) d6=1 6

CY

nbn-l

7 d6

As, 6 no es un estimado insesgado de a ; 6 tiende a subestimara. Si queremos un estimado insesgado, podemos usar

Observemos que aunque E ( & ) # a tenemos que E ( & ) = a. As, para verificar la consistencia debemos demostrar an que V ( &+ ) O* cuando n + m. (Vase el Teorema 14.1.) Debemos calcular
=

la(&) La(&)
2 g(6)d6 =

an

d&

Luego,
n V(&) = E(&)2- ( E ( S ) ) 2= n+2
As, V ( 6 ) + O cuando n
-+

n+l
m

(n

+ 2)(n +

demostrada.

y, por tanto,

la consistencia est5

EJEMPLO 14.11. Consideremos un ejemplo en el cual los dos parmetros (ambos desconocidos) caracterizan la distribucin. Supngase que X tiene distribucin N ( p )a 2 ) .Por tanto, l a fdp de X es

Si (X,, . . . ) X n )es una muestra de X, su funcin de verosimilitud est dada por

14.4

Estimados de mxima verosimilitud

39 1

Luego,

Debemos resolver simultneamente


aln L

8
Tenemos

=o

alnL

aff

o.

aln L

;=I

5 (Xi

U2

- PI _= o,

lo que da

= X, el promedio muestral. Y

que da
62 = l n n r=l .

C(X2- ) 2

=l n
n .

E(Xa -x> - 2
*

r=l

ObsCrvese que el mtodo ML produce un estimado sesgado de a2, puesto que ya hemos visto que un estimado insesgado es de la forma l / ( n - 1) - F12.

c~=~(x;

EJEMPLO 14.12. Anteriormente consideramos (Ej. 14.7) elproblema de estimarel parmetro p en unaley exponencial d e falla, alprobar n artculos y anotar sus tiempos d e falla, T I , . . . ,Tn. Otro mtodo podra ser el siguiente. Supngase que sacamos n artculos, los probamos, y despues que ha transcurrido cierto tiempo, digamos TOhoras, simplemente contamos el nmero de artculos que han fallado, digamos X .

de 392 Estimacin

14.4

Nuestra muestra consiste en X I , . . . ,X n , donde X i = 1 si el i-simo artculo ha fallado en el periodo especificado, y O en cualquier otrocaso. Luego, la funcin d e verosimilitud d e la muestra es

donde k = Cy=lX; = nmero de artculos que h a n fallado y p = Prob (el artculo falla). Ahora p es una funcin del parmetro que se est2 estimando; es decir,

Utilizando el resultado del ejemplo 14.8, encontramos que el estimado ML d e p es 1; = k / n . Aplicando l a propiedad de invarianza del estimado ML (observando que p es una funcin creciente d e ,O), obtenemos el estimado M L d e ,f3 simplemente al resolver la ecuacin 1 - e-pTo = k/n. Un clculo fcil da
8="1.(--),

n .- k

T O
o, para el estimado d e l/,f3,el tiempo promedio para que ocurra la falla,

($)= ln[(n-Tok ) / n ].
-

En todoslos ejemplos antes presentados, el mtodo ML da ecuaciones queeranrelativamente sencillas de resolver.Este no es el caso e n a mtodos numCricos muchos problemas y a menudo debemos recurrir (aproximados)a fin de obtencr los estimados. El ejemplosiguiente ilustra tales dificultades.

EJEMPLO14.13. Como ya lo observamos, la distribuci6n gama tieneaplicacionesimportantesparaprobar la duracin.Supngase por ejemplo queel tiempo para que ocurra una falla de un generador A', cuya fdp est dada por elctrico tiene una duracin

14.4

de Estimados

mxima verosimilitud 393

donde r y X son dos par6metros positivos que deseamos estimar. Supcingase que es posible una muestra (XI,.. . ,X n ) de X. (Es decir, se han probado n generadores y se h a anotado los tiempos en que se produce su falla.) La funcidn d e verosimilitud d e la muestra es

A s , debemos resolver simultneamente d In L/dX = O y O In L / & = O.


Estas ecuaciones se convierten en
n Orl n L -X d X i=l
"

x"; =o,
n

Luego, d l n L/BX = O da directamente 1= r / y . Por tanto, despus de , encontramos que d l n L / & := O da sustituir X por i

Es evidente que debemos resolver la ecuacin anterior para r , obteniendo y cntonces i= + / X . Afortunadamente se ha tabulado la funcin r " ( r ) / r ( r ) . Un mtodo muy rpido para obtener las soluciof nes pedidas, se prcsenta en el estudio d e D. G . Chapman (Annals o Mc&nzalicaZ Stntistics, 27, 498-506, 1956). E,ste ejemplo muestra que la solucin de las ecuaciones de verosimilitud puede conducir a dificultades matemriticas considerables. Como antes mencionamos, los estimados ML poseen una propiedad adicional que los hace muy apreciados, especialmente si los estimados se basan en una muestra muy grande.

8 es un

Propiedad asinttica de los estimados de mxima verosimilitud. Si estimado ML para el parmetro O, definido sobre una muestra

os

de 394 Estimacin

14.4

aleatoria X1 , . . . ,S n de una variable aleatoria X , entonces para n suficientemente grande, la variable aleatoria 9 tiene aproximadamente la distribucin

donde

B = nE

(14.4)

aqu f es la funcin de probabilidad puntual o fdp deX , dependiendo de si X es discreta o continua y donde 9 se supone que es un nmero real.
Obse7wacwnes: a) L a propiedad anterior, por cierto,es mucho ms fuerte que la propiedad de consistencia que hemos mencionado antes. La consistencia expresa que si n es suficientemente grande, 6 estar cercana a O. Ahora, esa propiedad nos describe cuAl es el comportamiento probabilstico d e 6 para una n grande. b ) No demostraremosestaafirmacin, slo ilustraremos su uso con un ejemplo.

EJEMPLO 14.14. Reconsideremos el ejemplo 14.7. Encontramos = 1/T esel estimado ML de P. Lafdp d e T fue dada por que f ( t ; P) = Pe-p, 1 > O. La propiedad anterior establece que si n es suficientemente grande, b = l/T tiene aproximadamente la distribucin N ( @ ,l/B), donde B est dada por la ecuaci6n (14.4). Para encontrar

Por tanto,

14.5

El mtodo de I(osmnimos cuadrados

395

TABLA 14.4
,Y (altura, m) Y (temperatura, C) X (altura, m) Y (temperahIra, o c)
O

1142 1742 280 437 678 1002 1543 1002 1103 475 1049 566 995

13 14 16 13 11 4 9 11 10 15 10

1O08 20;B 4 3'9 1471 48'2 67.3 4 0'7 12910 1609 9110 127'7 4110

13 18 14 14 18 16

13

9 11 14

Por lo tanto, encontramos que para unan gramde tiene aproximada(Esto verifica la propiedad de consismente la distribucin N ( P , ,$/,). P 2 / n + O cuando n -+ m.) tencia del estimado, puesto que

b,

14.5 El mdtodo de los minnimos cuadrados

EJEMPLO14.15. Estamos familiarizados con el hecho de que la temperatura del aire disminuye con la altitud del lugar. Los datos de la tabla 14.4 y el diagrama de dispersidn asociado (grfica de puntos) (Fig. 14.4) lo refuerzan. La grfica de puntos indica no slo que la temperatura Y disminuye con la altura X , sino que es evidente una relacin lineal.
Las observaciones representan la altitud (en metros) y la temperatura (en grados centgrados) enlas primeras horas d e la maana en cierto nmero de puestos de observacih en Suiza.Los datos provienen del Observatorio Basel-St. Margarathen. Cual es un .modelo razonable para los datos anteriores? Supondremos que Y es una variable aleatoria, cuyo valor depende, entre otras cosas, del valord e X . Supondremos, especficamente, que

FIGURA 14.4

3 96 Estimacin de parmetros

14.5

donde a y p son constantes (desconocidas), X es la altitud (conocida) desde la cual se mide Y , y E es una variable aleatoria. El anlisis d e este modelo lineal depende de las hiptesis que hagamos acerca de la variable aleatoria t . (Esencialmente decimos que la temperatura es un resultado aleatorio, cuyo valor puede descomponerse estrictamenteen una componente aleatoria ms un trmino que depende de la altitud .Y de una manera lineal.) La hiptesis que haremos acerca de es la siguiente:
~ ( c = ) O;
~ ( t= )

u2

paratoda X.

Es decir, el valor esperado y la varianza d e 6 no dependen del valor d e X. Por lo tanto, E ( Y ) = crX /3 y V ( Y ) = 0 2 . Observemos que el modelo que hemos establecido depende d e los tres parmetros a , /3 y u 2 . No podemos usar el mtodo de la mxima verosimilitud para estimar esos parmetros a no ser que hagamos m5s hiptesis acerca d e la distribucin de E. Nada se h a supuesto acerca d e la distribucin d e la variable aleatoria E ; slo se formul una hiptesis acerca de su valoresperado y suvarianza.(Posteriormentemencionaremosuna modificacin d e este modelo.) Antes d e establecer cmo estimar los parmetros respectivos, digamos unas pocas palabras sobre el significado de una muestra aleatoria en el presente contexto. Supongamos que se escogen n valores d e X , 2 1 , . . . ,xn. (Recordemos otravez que aqu X no es una variable aleatoria.) Para cada x;,sea Y , una observacin independiente dela variable (XI, Y l ) ,. . . , ( x n ,Yn) puealeatoria Y descrita anteriormente. Por tanto, de ser considerada como una muestra aleatoria de la variable aleatoria Y para los valores ( X I , .. . ,z n ) d e X dados.

Definicin. Supngase que tenemos E ( Y ) = a X / 3 , donde a , / 3 y X son como antes se expres. Sea (q, Y l ) ,. . . ,( x n ,Yn)una muestra aleatoria de Y . Los estimados de mnimos cuadrados d e los parmetros a y /3 son los valores a y ,d que minimizan

14.5

El de mdtodo

los mfnimos cuadrados

397

Observacwn: La interpretacin del criterio anteriores muy evidente. (Vase la Fig. 14.5.) Para cadapar (zi, 6 )calculamos la discrepancia entre Y,, el valor observado, y ax;+ , O , el valor esperado. Puesto que slo estamos interesados en la magnitud d e esta discrepancia, elevamos al cuadrado y sumamos todos los puntos d e muestra. La lnea buscada es aquella para la cual esta suma es ms pequea.

A fin de obtener los estimados pedidos para (Y y p procedemos como sigue. a) , = - ( m i p)12. Sea ~ ( p Para minimizar S ( ( Yp) , debemos resolver las ecuaciones

~r=~[x +
y
-

8s

-=o aa

8s

ap = O.

FIGURA 14.5

Derivando S respecto a a y a p, obtenemos

as a(Y
i=l

i= 1

As, d S / & = O y aS/ap = O pueden escribirse, respectivamente, como sigue:


n
i=l
n

(14.5)
i=l

n n a C z ;+ n p = s=l i=l

Ex.
6,

(14.6)

Tenemos as dos ecuaciones Zineules en las incgnitas CY y p. La solucin puede obtenerse de la manera usual, por eliminacin directa o usando determinantes. Denotando las solucilones por & y encontramos f5cilmente que

398 Estimacin de parmetros

14.5

(14.7)

,8=y-&z7 donde y =

-Ex.
1
12.

s=l

(14.8)

Las soluciones anteriores son nicas y siempre se obtienen, siempre que


E ( x i -q 2
i=l

# o.

Esta condicin, sin embargo, se satisface cada que vez todaslas xi no son iguales. El estimado del parAmetro u2 no puede obtenerse por los mtodos anteriores. Establezcamos simplemente que el estimado usual deu 2 ,en es trminos de los estimados de mnimos cuadrados & y

p,

u2 = -

l n n-2.
t=l

[x-

(&Xi

+ p)] 2 .

Obsemacwnes: a) Evidentemente es ~5una funcin Lineal d e los valorcs muestrales Y1, . . . , Yn. b ) Tambin P es una fincin lineal d e Yl , . . . ,Y,, como lo indica el cAlculo siguiente:

c) ES u n ejercicio sencillo demostrar que E(&.) = CY y que = p. (Vase el Prob. 14.34.) As, y ,b ison estimados insesgados. d ) Las varianzas d e h y ,b tambikn se pueden calcular con facilidad. (Vase el Prob. 14.35.) Tenemos

14.6

El coeficiente de correlacwn

399
(14.9)

V(&) =

cy==,(.;
U2

- 2)2

. V ( P )=

;[

+-

(x;- F)2 u2

? ?

e ) Los estimados t i y son en realidad los mejores estimados lineales insesgados d e (Y y p. Es decir, de entre todos los estimados lineales insesgados, stos tienen la mnima varianza. ste es un caso especial1 del teorema general de GaussMurkofl, el cual establece que enciertas condicionles los estimados d e mnimos cuadrados y los mejores estimados lineales insesgados son siempre los mismos. J) El mtodo de los mnimos cuadrados puedeaplicarse a modelosno lineales. Por ejemplo, si E ( Y ) = a x 2 /?X y, podemos estimar (Y, ,f? y y de modo que

i=l

[.i- (ax;+ ax;+ y)]

se minimiza. g) Si formulamos la hiptesis adicional de que la variable aleatoria E tiene distribucin N ( 0 , u2), podemos aplicar el mCtodo de la mxima verosimilitud para estimar los parmeh-os CY y P. Esos estimaldos son los mismos que los estimados d e mnimos cuadrados obtenidos anteriormente. (Esto no siempre es cierto, es una consecuencia d e la hiptesis de normalidad.)

EJEMPLO 14.16. Este ejemplo es presentadopor Y. V. Linnik en Method of Least Squares and Principles of the Theory of Ol)sewations, Pergamon Press, Nueva York, 1961. Los datos de este ejemplo fueron obtenidos por Mendeljev y presentados en Founahtions of Chemistry. (VCase la Tabla 14.5.) Relacionan la solubilidad d e nitrato de sodio N a N 0 3 con la tempcratura del agua (en"C). A la temper,atura indicada,las Y partes de N a N 0 3 se disuelven en 100 partes de agua.Al hacer una grhfica con esos datos se obtiene el diagrama d e dispersin que. se muestra en la figura 14.6. Este diagrama sugiere un modelo la de forma E ( Y ) = bT+a. Usando el metodo delos mnimos cuadrados bosquejado anteriormente, encon=i 67.5. tramos que b = 0.87 y
14.6 El coejciente de correlacin

En la secci6n anterior nos interesamos en pares de valores ( X ,Y ) ,pero, como lo hemos sealado una y otra vez, X no debe considerarsecomounavariablealeatoria. Sin embargo,hayvariablesaleatorias bidimensionales ( X ,Y ) que dan origen a una muestra aleatoria

400 Estimacin de pardmetros

14.7

TABLA 14.5
T
O

Y
66.7 71.0

Y
92.9 29

.
20

4 36 51

99.4 76.3 113.6 125.1


40

10 15 21 80.6 85.7

68

60

(XI,Y l ) ,. . . ,(X,, Y,). Uno d e los par5metros m& importantes asociad o con una variable aleatoria bidimensional es el coeficiente d e correlacin p x y . TABLA 1 4 . 6
X (velocidad, km/seg) Y (altura, km)
11.93 62.56 8.87 40.57 10.13 44.38

FIGURA 14.6

10

48

El estimado que se acostumbra usar para p es el coeficiente de correlucidn muestral, definido como sigue:

Ntese que para propsitos de clculo es ms fcil evaluar r como sigue:

EJEMPLO14.17. Los datosanotadosen la tabla 14.6 representan la velocidad (en km/seg) y la altura (en km) de la estrella fugaz nmero 1242 como se inform en la Smithsonian Contributions to Astrophysics en el Proccedings o f the Symposium on Astronomy and Physics o f Meteors, Cambridge, Mass., 28 d e agosto - lo. de septiembre de 1961. Un clculo directo da T = 0.94.

14.7

Intervalos de conjattza

40 1

14.7 Intervalos de confianza


Hasta ahora slo nos hemos interesado en la obtencin de unestimado puntual para un parmetro desconocido. Como se sugiri al principio de est captulo, existe otro planteamiento que a menudo conduce a resultados muy significativos. Supngase que X tiene distribucin N ( p , u 2 ) ,donde o2 se supone conocida, mientras que p es el parmetro desconocido. Sea X I , . . . ,X n una muestra aleatoria de X y X el promedio muestral. Sabemos que X tiene distribucin N ( p , u 2 / n ) .Por tanto, 2 = [(Xp ) / u ] J ntiene una distribucin N ( 0 , l . ) Ntese que aunque 2 depende de p , su distribucin d e probabilidades no. Podemos usar este hecho a nuestra conveniencia como sigue. Considerar

= P X--<p<:u+Jn- ZU

"

d z')

Esta filtima proposicin probabilstica debe interpretarsemuy cuidudosamente. No significa que la probabilidad del parmetro p que cae en el intervalo mencionado sea igual a 2@(z) - 1; 11 es un parmetro y est o no en el intervalo anterior. En su lugar,lo anterior debera interpretarse como sigue: 2 @ ( z )- 1 es igual a la probabilidad que el intervalo aleatoxu/*) contenga a p . A tal intervalo se le llama rio (X - xu/*, intervalo de confianza para el parmetro p. Puesto que z queda a nuesla. probabilidad anterior sea tro criterio, podemos elegirlo de modo que igual a 1 - (Y. Por tanto, z est definida por la relacin % ( z )= 1 - a / 2 . Ese valor d e z, denotado con ISl-cY/2, se puede obtener delas tablas d e la distribucin normal. (Vase tambin la Fig. 14.7.) Es decir, tenemos @(Ii-l-cY/2) = 1- 4 2 .

es Para resumir: el intervalo ( ~ - n - ~ / ~ u ~ x'+7.1-1/2 < ~ - , ~ 01c1-a/2) p , un intervalo de confianza para el parmetro p con coeficiente de confinnza (1 - a ) , o un (1 - a) 100% d e intervalo de confianza.

402 Estimacindeparmetros

14.8

t
Supngase queX representa la duracin de una pieza de un equipo. Supngase que se probaron 100 piezas quetuvieronunaduracin = 501.2 horas. Se sabe que u es de cuatro horas y que promedio de deseamos tener un intervalo de 95% de confianza parap . Encontramos, p = E(X): por tanto, el siguiente intervalo de confianza para

501.2 - &(1.96),501.2

+ &(1.96),

llega aser

(500.4;502.0).

Nuevamente es til un comentario. A l establecer que (500.4; 502.0) es un intervalo de 95% de confianza para p , no estamos diciendo que ese intervalo. el 95% d e las veces el promedio muestra1 quedar5 en La prxima vez que saquemos una muestra aleatoria,X posiblemente serA distinta y, por tanto, los extremos del intervalo de confianza sern diferentes. Estamos diciendo que el 95% de las veces p estar5 contenido en el intervalo - 1.960/+, ?T 1.96u/fi). Cuando afirmamos que 500.4 < p < 502.0 simplemente estamos adoptando el punto de vista de creer que algo es as cuando sabemos quees verdadero la mayor parte del tiempo.

(x

Obseruacidn: El intervalo d e confianza construido no es nico. Tal como hay muchos estimados (puntuales) para u n parAmetro, podemos construir muchos intervalosd e confianza. Aunque no discutiremos el problema d e lo que podramos designar como un intervalo d e confianza mejor establezcamos, sin embargo, u n hecho obvio. Si se comparan los intcrvalos d e confianza que tienen el mismo coeficiente, preferiramos el que tiene menos longitud esperada. La longitud L del intervalo d e confianza antes considerado puede escribirse como

As, L es una constante. Adem&, resolviendo la ecuaci6n anterior para n da

14.2

Criterios para estimados 403

Por lo tanto, podemos determinar n (para CY y u dadas) de modo que el intervalo de confianza tenga una longitud prefijada. En general (comose ilustr en el ejemplo anterior), L ser5 una funcin decreciente de n: cuanto m5s pequea deseemos que sea L m5s grande debe tornarse n. En el caso anterior especialmente debemos cuadruplicar n a fin de dividir a L.
14.8 LA distribucin t de Student

El anlisis del ejemplo anterior dependa mucho del hecho d e q u e l a varianza u2 era conocida. Cmo debemos modificar el procedimiento si no conocemos el valor de u2? Supongamos que estimamoso2 utilizando el estimado sin sesgo
8 =2

n-l.

a=1

" E(& S)?


-

Consideremos la variable aleatoria


(14.10)

Debera ser intuitivamente evidente que la distribucin d e probabilidades d e la variable aleatoria t es considerablemente ms complicada que la d e 2 = ( F - p ) f i / u , ya que enla definicin de t , tanto el numerador como el denominador son variables aleatorias, mientras que 2 es simI , . . . ,Arn. Pa.ra obtener la distribucin plemente una funcin lineal Xde d e probabilidades d e t usemos los hechos siguientes: a) 2 = - p ) f i / u no tiene distribucinN(O,1). b ) V = Cr=l(X; - T)2/02 tiene una distribuci6n x-cuadrada con ( n - 1) grados de libertad. (Vaseel Teorema 13.4.) c) 2 y V son variables aleatorias independientes. (Esto no es muy fcil d e demostrar, y no lo verificaremos aqu. Con ayuda del teorema siguiente podemos obtener ahora la fdp de t.

(x

Teorema 14.3. Supngase quelas variables aleatorias 2 y V son inde: , respectivamente. pendientes y tienen distribuciones N ( 0 , l ) y x Definimos
=

404 Estimacin de parmetros


Entonces, la fdp de T est dada por
-(k+l)/Z

14.2

hk(t)=

0 0

< t < OO.

(14.11)

Esta distribucin se conoce como distribucin t de Student con X: grados d e libertad.


Observaciones: a ) La demostraci6n d e este teorema no se proporciona aqu, pero se sugiere en la seccin d e problemas. (Vkase el Prob. 14.17.) Tenemos las herramientas disponibles con a l s cuales podemos encontrarh k ( t ) muy fcilmente. Primero necesitamos determinar l a fdp d e la cual se obtiene con facilidad conociendo la fdp de V. Entonces slo necesitamos aplicar el teorema 6.5 que da la fdp del cociente d e dos variables aleatorias independientes. b) El teorema anteriorse puede aplicar direcmmente para obtener la fdp d e t= - p ) f i / & , la variable aleatoria antes considerada. Esta variable tiene la distribucin t de Student con ( n - 1) grados de libertad. Ntese que aunqueel valor de t depende dep , su distribucin no. c ) La grfica de h.k es simtrica, como se muestra en la figura 14.8. En realidad, se asemeja a a grfica d e la distribucin normal, y el lector puede demostrar que

m,

(x

d) Debido a su importancia, esta distribucin ha sido tabulada. (Vase el Apndice.) Para una CY dada 0.5 < CY < 1, los valores d e t k , a , que satisfacen la condicin

/tka
J-00

h k ( t ) dt = CY

estn tabulados. (Vase la Fig. 14.9.) (Para los valores d e a que satisfacen O < CY < 0.5, podemos usar los valores tabulados debido a la simetra d e la distribucin.) e ) Esta distribucin se llama a s en honor delestadstico ingls 147. S. Gosset, quien public su trabajo conel seudnimo de Student.

14.9

Ms sobre los intervalos de confianza 405

FIGURA 14.8

FIGURA 14.9

Volvamos ahora a l problema presentado al principio de esta seccin. C6mo obtenemos un intervalo de confianza para el promedio de una variable aleatoria distribuida normalmentesi Ila varianza es desconocidu? De una manera completamente anlogaa la1 usada en la seccin 14.7, obtenemos el siguiente intervalo d e confianza 'para p , con coeficiente de confianza ( 1 - a ) :

A s , el intervalo de confianza anterior tiene l a misma estructura que el previo, con la diferencia importante de que el valor conocido de a: se ha sustituido por el estimado 8 y la constante K 1 - a / 2 , obtenida anteriormente de las tablas d e la distribucin normal, se ha sustituido , d e las tablas de l a distribucin t . por t l a - l , l - c y / 2 obtenida
Observaciha: La longitud L del intervalo d e confianza anterior es igual a

Luego, L no es una constante, puesto que depende de 6, que a su vez depende de los valores muestrales (X1l . . . S ; , , ) .
EJEMPLO14.18. Sehicierondiezmedicionessobre la resistencia de cierto tipo de alambre, dando los valores JLrl . . . , X l o . Supngase que X = 10.48 ohms y 6 = x!zl(Xi - X)2 = 1.36 ohms. Supongamos que X tienedistribucin iV(p,c2) y qne deseamos obtener un intervalo de confianza para p con coeficiente de confianza 0.90. Por tanto, a: = 0.10. De las tablas de la distribucin t encontramos que t9,0.95 = 1.83. Luego, el intervalo de confianza pedido es

4;

406 Estimacindeparmetros
(10.48
/

14.9

-(1.36)(1.83)10.48

+ -( 1 1.36)(1.83)) = (9.69,11.27). m

14.9 Ms sobre los intervalos de conjianza


Aunque no intentamos dar una presentacin general de este tema, deseamos continuar considerando algunos ejemplos importantes. Algunas veces deseamos obtener un intervalo d e confianza para una funcin particular d e un parmetro desconocido, conociendo un intervalo d e confianza para el parmetro mismo. Si la funcin es montona, esto puede satisfacerse como lo ilustra el ejemplo siguiente.

EJEMPLO 14.19. Sup6ngase que la duracin X de un artculo tiene distribucin N ( p , a 2 )y que o2 es conocida. La confiabilidad del artculo para un tiempo deservicio de t horas est dada por
R ( t ; p )= P ( X

> t ) = 1 - cp - .

Puesto que a R ( t ; p ) / a p > O para toda p , tenemos que para cada t fija, R(t;p ) es una funcin creciente de p. (Vase la Fig. 14.10.) Luego, podemos proceder como sigue para obtener un intervalo de confianza para R ( t ; p ) . Sea ( p , p ) el intervalo de confianza para p obtenido en la seccin 14.7. Sean y a, respectivamente, los extremosinferior y superior del intervalo deconfianza pedido para R(t;p ) . Si definimos a R y R por las relaciones

r 'i>

encontramos que P(& 5 R 5 a) = P ( p 5 p 5 p ) = 1 - a , Y que, por tanto, ( & X ) representa un intervalo deconfianza para R(t;p ) con coeficiente de confianza (1 - a ) . (Vase la Fig. 14.11.)

14.9

M d s sobre los interualos de confianza

407

Usemos los valoresmuestralesobtenidosen la seccin 14.7 para ilustrar este procedimiento. Supngase que deseamos un intervalo de confianza para la confiabilidad del componente cuando se us para t = 500 horas.Puestoqueencontramos 1" = 500.4 y p = 502.0, obtenemos
"

R=

l-@

(500

= 0.6554,

R = 1- Q,

(500

502

) = 0.6915.

Hasta ahora slo hemos considerado intervalos d e confianza bilnterales. Es decir, hemosobtenidodos estadsticos (algunas veces llamados cota superior e inferior d e confianza), sean L ( X 1 , . . . ,X,) y U(X1,. . . ,X,), tales que P [ L U 5 U ] = 1- C Y , donde U es el parmetro desconocido. A menudo slo estamos interesados en obtener intervalos d e confianza unilaterales d e la forma siguiente:

<

P[U<U]=l-a

o P[L<8]=1-a.

Ilustremos lo anterior con ejemplos.

EJEMPLO14.20. Supngase queX tiene dlistribucin N ( p , a 2 )y deseamos obtener un intervalo d e confianza unilateral para el parAmetro desconocido u 2 . Sea X I , . . . , X , una muestra aleatoriad e X . Del teorema 13.4 sabemos que Cr=l(X; - F ) 2 / a 2 tiene distribucin xi-1. Por tanto, d e las tablas d e la distribucin x-cuadrada podemos , que ~ - ~ obtener un nmerox 2 ~ - ~ tal

(Vase la Fig. 14.12.) La probabilidad anterior puede escribirse como sigue:

hn-dX2)

teral pedido paraa2 con coeficiente d e confianza ( 1 - a ) .

FIGURA 14.12

os

de 408 Estimacin

14.9

14.7 hemos encontrado que X ; / n es el estimado MI, d e P. Del colorario del teorema 10.1) encontramos que 2 n X / p tiene distrilmcin x i n . Por lo tanto, P [ 2 n Y / p 2 x;n,l-a] = (Y], donde el nmero &,,l-cu se obtiene d e las tablas d e distribuci6n X-cuadrada. Si deseamos un intervalo d e confianza (inferior) para la confiabilidad n(t;p> = P ( X > t >= e t/P, procedemos como sigue. se multiplica la desigualdad anterior por ( - t ) y se reagrupan los trminos, obteniendo

EJEMPLO14.21. Supngase que la duracin X de un instrumento electr6nico est distribuida exponencialmente con par5mctro l/P. Luego, E ( X ) = P. Sea S I , . . . , S , , una muestra de X . En el ejemplo

P [ ( - t / @ ) 2 -t&+n/x2n]

= 1 - a.

Esto a su vez implica que, puesto que e es una funcin creciente de 2,

Luego, ( e x P [ - t X ; n , l - n / ~ 2 , m> es un intervalo d e confianza unilateral para R ( t ;0) con coeficiente de confianza (1 - a ) . Como una ilustracin final de un intervalo d e confianza, encontramos un intervalod e confianza parael parAmetro p asociado conuna variable aleatoria X distribuida binomialmente. Slo consideraremos el caso dond e n , el nmero de repeticiones del experimento que da origen a X , es bastante grande como para poder usar la alwoximncidn normal. Representemos con X / n = h la frecuencia relativa de un evento i l e n n repeticiones de un experimento para el cual P ( A ) = p . Por tanto, E ( h ) = p y V ( h ) = p q / n , donde q = 1 - p. Usando la aproximacin normal a la distribucin binomial, podemos escribir

= 2 q K ) - 1,

donde, como siempre, $(I{)= ( 1 / 6 ) e-, / d l . A s , si hacemos igual a (1 - a) la probabilidad anterior, podemos obtener el valor d e

JJi
2

14.9

Ms sobre los intervalos de cotzjianza 409

Ii- d e la tabla d e la distribucin normal. Es decir, 2@(Ii) - 1 = 1 - a! implica A = I<l-ff12. Puesto que estamos interesados en obtener un intervalo de confianza para p , debemos volver a escribir la desigualdad comounadesigualdad en p . Ahora anterior ( 1 1 1 - p ( 5 - pl 5 I < > es equivalente a { ( h - ,p12 5 ~ ~- p ( )p/?1 L ) . Si consideramos unsistema de coordenadas,(11, p), la desigualdad anterior representa el contorno y el interior de unaelipse. La forma de la elipse est determinada por K y n: a mayor n , m8s fina es la elipse. Considrese un punto Q ( h , p ) en el plano h,p. (Vase la Fig. 14.13.) Q ser un punto aleatorio, puesto que su primera coordenada 1~ser determinada por el resultado del experimento. Puesto que Q quedar dentro de la elipse si y slo si {Ih - pl 5 KJpq/n), la probabilidad d e que esto ocurra ser 2@(I<) - 1. Si deseamos tener esta probabilidad iguala (1 - a!), debemos elegir adecuadamente a I<, es decir Ii = I~l-ffp

K m }

FIGURA 14.13
Ahora p es desconocida. ( h e , por supuesto, es nuestro problema.) La recta h = c (constante) cortar la elipse en dos lugares, sean p = p l y p = p2. (Es fcil verificar que dadas a y h, siempre habr dos valores distintos d e p.) Los valores p l y pa se pueden obtener como solucin d e la ecuacin cuadrtica (en p ) : ( h - p ) 2 = K2(1- p ) p / n . Las soluciones son:

+ ( 1 i * ~ / 2> K [ h ( l - h>n+ (1<~/4)] 112 n+K 2 hn + (1<~/2) + [ h ( l --h>n+ 112 . P2 = n+K 2


Pl =

hn

( I ~ T ~ / L ~ > ]

(14.12)

410 Estimacin de parrnetros


Portanto, {Ih - pl 5 K,,/&~G} es equivalente a { p l 5 p 5 p.}. As, si se escoge K de modo queel evento anterior tenga probabilidad ( I - a ) ,obtenemos un intervalo de confianza parap , digamos ( P I ,p.), con coeficiente de confianza (1 - a ) . Para resumir: con el objeto d e obtencr un intervalo de confianza para p = P ( A ) con coeficiente de confianza (1 - o ) , se realiza el experimento n veces y se calcula la frecuencia rclativa del evento A, digamos h . Luego se calculan p l y p z de acuerdo con las ecuaciones (14.12), donde K se determina de las que este procedimiento es tablas d e l a distribucin normal. Recordemos vlido slo si n es suficientemente grande para justificar la aproximacin normal.
=

Observacidn: Recurdese que en las ecuaciones (14.12), h = s / n , donde X nilmero de ocurrencias del evento A . Luego, S = nh y n - S = n ( 1 - 11). Si adem& de n, tmto X y n - S son grandes, p1 y p2 pueden aproximarse, respectivamente, por
PI21
11

fi

I-

p2 2:

K + m.

fi

EJEMPLO 14.22. En un proccso d e produccin se fabrican 79 artculos durante cierta semana.D e esos, se encontr que3 eran defectuosos. As h = = 0.038. Usando el procedimientoanterior,obtenemos (0.013, 0.106) como un intervalo de confianza parap = P(e1 artculo es defectuoso) con un coeficiented e confianza 0.95.

&

EJEMPLO 14.23. Una fbrica tiene un gran nmero de artculos almacenados, algunos d e los cuales provienen d e un mtodo de produccin que en la actualidad se considera de poca calidad, mientras que otros provicncn de un proceso modcrno. Dcl almacn se escogen a l azar 3 O00 artculos. De &os, se encuentra que 1578 se han fabricado con el proceso d e poca calidad. Utilizando la aproximacin anterior para p ] y p a , el clculo siguiente da un intervalo de confianza d e 99% para p = proporcin d e artculos del proceso insatisfactorio.
1 %= -= 0.526,

1578 3000

IC = 2.576,

Problemas 41 1

PROBLEMAS
14.1. Supngase que un objeto se mide en forma independiente con dos instrumentos, d e medicindiferentes.Sean L1 y L2 l a s longitudes que se midieron conel primero y el segundo, respectivamente. Si ambos instrumentos esdn correctamente calibrados, podemos suponer que E(L1) = E ( L 2 ) = L , la longitud verdadera. Sin embargo, la exactitud d e los instrumentos no es necesariamente la misma. Si se mide la exactitud en trminos d e la varianza, entonces V ( L 1 ) # V ( L 2 ) . A l usar la combinacin lineal 2 = aL1 (1 - a ) L 2 para el estimado de L , cle inmediato se tiene que E ( Z ) = L. Es decir, Z es un estimado, insespdo de L. ?Para que eleccin del valor de a, O < a < 1, es mnima la varianza d e Z ?

1.1.2. Sea S una variable aleatoriaconesperanza p y varianza u 2 . Sea muestra d e X. I Iay muchos otros estimados d e u que se sugieren adems del ya propuesto. Demostrar que C cyl:(,Y;+1 es un estimado insesgado d e u2 para un valor apropiado deC. Encontrar la eleccin del valor d e C.
(X1, . . . ,S,) una

14.3. Supngaseque se obtienen 200observaciones independientes, X I , . . . , X~M de , una variable aleatoria S . Se dice que 200 X ; = 300 y que 200 S: = 3754. Usando esos valores obtener un estinlado d e E ( X ) y V ( S ) .

6) Evaluar el estimado si los valores muestrales son 0.3,0.8, 0.27, 0.35, O.G2 y 0.55.
14.5. Los datos d e la tabla 14.7 se obtuvieron le la distribucin del espesor d e la madera en los postes telefnicos. (W. A. Shewhart, Economic Control of Quality of Manufactured Products, Macmillan and Co., Nueva York, 1932, pg. 66.) Suponiendo que la variable aleatoria que se considera tiene distribucin N ( p ,u 2 ) ,obtener los estimados ML de p y u 2 . 14.6. Supngase que T , el tiempo para que ocurra la falla (en horas) de un instrumento electrnico tiene la siguiente fdp:

< z < 1. a ) Obtener el estimado ML d e p, con base en ulna muestra S I , . . . ,S,.

14.4. Una variable aleatoria X tiene fdp f ( z ) =: ( p + 1)zD, O

=O

para cualquier otro

valor.

(T tiene una distribucin exponencialtruncada a la izquierda en to). Supngase que se prueban R artculos y que se anotanlos tiempos en que ocurrela falla T i , . . . ,T,.

a ) Suponiendo queto es conocida, obtener el estimado ML d e P.

412 Estimacin de parmetros


TABLA 14.7
Espesor d e la madera (pulg.)
1.o 1.3 1.G 1.9 2.2 2.5 2.8 3.1 3.4

Frecuencia
2

Espesor d e la madera (pulg.)


3.7 4.0 4.3

Frecuencia

29 62 106 153 186 193 188 151

123 82 48 27 4.6 14 4.9 5 5.2 1 5.5 Total de frecuencias: 1370

b ) Suponiendo que t o es desconocida, pero hlL d e to.

conocida, obtener el estimado

14.7. Considerese la misma ley d e falla descrita en el problema 14.6. Esta vez se prueban N artculos durante To lloras (TO > t o ) y se anotn el ntmero IC d e artculos que fallan en tal periodo, dignmos k. Responder la pregunta a ) del problema 14.6. 14.8 Supngase que X est5 distribuida uniformemente en (-a, a). Encontrar el estimado M L d e a, con base en una muestra aleatoria d e tamao n, X I , . . . >xn. 14.9. a ) Se efecta un proceso hasta que un evento il particular ocurre por primera vez. En cada repeticin, P ( A ) = p . Se supone que se necesitan nl repeticiones. Luego se repite el experimento y esta vez se requieren 722 repeticiones para producir el evento A . Si esto se hace k veces, obtenemos la muestra n l , ...,n k . Basndose en esta muestra, obtenerel estimado ML d e p . b ) ) Supngase que k es muy grande. Encontrar el valor aproximado d e E($) y V ( $ ) , donde fi es el estimado ML obtenido en a). 14.10. Se prueba un componente que se supone tiene una distribucibn exponencial d e fallas y se observan las siguientes duraciones (en horas): 108, 212, 174, 130, 198, 169,252, 168, 143. Usando esos valores muestrales, obtener un estimado ML para la confiabilidad del componente cuando se use durante un periodo de150 horas.

(en horas):
1009, 1352, 1433, 1620, 1757,

14.1 1. Los datos siguientes representan la duracin d e bombillas elkctricas 1338, 1348, 1441, 1458, 1549, 1610, 1737, 1752, 1949, 2007.

1085, 1359, 1488, 1G25, 1783,

1123, 1368, 1499, 1638, 1796,

1181, 1379, 1505, 1G39, 1809,

1235, 1397, 1509, 1658, 1828,

1249, 1406, 1519, 1673, 1834,

1263, 1425, 1541, 1682, 1871,

1292, 1437, 1543, 1720, 1881,

1327, 1438, 1548, 1729, 1936,

Problemas

413

De los valores d e la muestra anterior, obtener el estimado ML para la confiabilidad d e tales bombillas elctricas cuando seusa'n durante 1600 horas, suponiendo quela duracin est5 distribuida normalmente.

14.13. Supngase que una fkenteradiactiva emite particulas a d e acuerdo con una distribucin d e Poisson. Es decir, si X es e:lnmero de partculas emitidas durante un intervalo de 2 minutos, entonces P ( X = IC) = e - A t ( X t ) k / / l ! . En vez de anotar el nmero real d e partculas emitidas, supngaseque se observa el nmero de veces en que no se emiti ninguna partcula. Especficamente, supngase que durante 50 minutos se observan 30 filentes radiactivas que tienen la misma potencia y que en25 casos al menos se emiti una partcula. Obtener el estimado ML d e X con base en esta informacin. 14.14. Una variable aleatoria X tiene distribucin N ( p ,1). Se hacen 20 observaciones de X , pero, en vez d e anotar su vador, slo observamos si X es negativa o no. Suponiendo que el evento { X < O} ocurri exactamente 14 veces, utilizar esta informacinpara obtenerel estimado ML de p. 14.15.Sup6ngase que X tiene una distribucin. gamma; es decir, la fdp est5 dada por

14.12. Supngase que se usan dos bombillas tal como se describe en el problema 14.11 : a) en unaconexin e n serie y b ) en unaconexin en paralelo. En cadauno de los casos encontrar el estimado MI, d e la confiabilidad durante una operacin d e 1600 horas del sistema con base en los valores muestrales dados en el problema 14.1l.

Supngase que r es conocida. Sea X I , . . . , X , una muestra d e X , obtener el estimado ML d e X con base en esta muestra.

14.16.Supngase que X tiene una distribucin d e Weibull con fdp

Supngase que a es conocida. Encontrar el estimado ML de X con base en una muestra d e tamao n.

14.17. Demostrar el teorema 14.3. [Sugerencia: Vase la Observacin a) que sigue a este teorema.] 14.18.Comparar el valor d e P ( X 2 l), donde X tiene distribucin N ( 0 , l), con P(t 2 l), donde t tiene distribucin t de Studentcon:
a)

5 g.1. b ) 10 g.1.

c)

15 g.1. d ) 20 g.1. e ) 2 5 8 g.1.

414 Estimacin de parmetros


14.19. Supngase que X tiene una distribucin d e N ( p , r 2 ) . Una muestra d e tamao digamos, X I , . . . , X 3 0 , da como resultado los valores siguientes: X; = 700.8, X ! = 16 395.8. Obtener u n intervalo de confianza d e 95% (bilateral)para 11. 14.20. Supngase que X tiene una distribucin N ( p , 4 ) . IJna muestra d e t?mao 25 produce un promediomuestra1 7 = 78.3. Obtener un intervalo de confianza d e 99% (bilateral) para p . 14.21. Supngase que la duracin de un componente tiene distribucin una normal, digamos N ( p ,9). Se prueban 20 componentesy se anotan sus tiempos para que ocurrala falla X I , . . . , X20. Snp6ngase que = 100.9 horas. 0bt.ener un intervalo de confianza de 99% (bilateral) para la confiabilidad R(lO0). 14.22. Obtener un intervalo d e confianza unilateral de 99% (inferior) para R(100) del problema 14.21.
14.23. Supngase que X tienedistribucin N ( p , u 2 ) ,donde p y u2 son desconocidos. Una muestra de tamao 15 produce los valores X ; = 8.7 y Et:, X : = 27.0. Obtener un intervalo d e confianza d e 95% (bilateral) para
U2.

14.24. Se prueban cien componentes, 93 de los cuales filncionan ms de 500 horas. Obtener un intervalo d e confianza d e 95% (bilateral) para p = P (un componente funciona ms de 500 horas). [Sugerencia: Usar la Ec. 14.12.1 14.25. Supngase que X , la longitud de un perno, tiene distribucin N ( 1 1 , l ) . Se fabrica un gran nmero de pernos y posteriormente se separan en dos grandes lotes. El lote 1 contiene slo aquellos pernos para los cuales S > 5, mientras que el lote 2 contiene el resto. Una muestra d e tamao n se saca del lote 1 y se miden las longitudes d e los pernos elegidos. As obtenemos una muestra 1'1,. . . , Y, de la variable aleatoria Y, que es una variable aleatoria distribuida normalmente y truncada en 5 a la izquierda. Escribir la ecuacin que debe resolverse a fin de obtener el estimado ML de p con base en la muestra ( Y l , .. . ,Y,) en terminos de las funciones C$ y tabuladas, donde c$(.E) = ( l / ~ % ) e - ~ ' / ~y @ es la fda de la distribucin N ( 0 , 1). 14.26. (La distribucin F ) . Sean X y Y variables aleatorias independientes con distribuciones x: l y x;,, respectivamente. La variable aleatoria F se define como sigue F = ( X / n l ) ( Y / n 2 )= n 2 X / n l Y . (Esta variable aleatoria desempea un papel importanteen muchas aplicaciones estadsticas.) Demostrar que la fdp d e F est5 dada por la expresin siguiente:

Problemas

4 15

[ S t ase llama distribucin F (Snedecor) con( n l , n:!)grados d e libertad. Debido a su importancia, se han tabulado las probabilidades asociadas con la variable aleatoria F.] [Indicacidn: Para derivar la fdp anterior, usar el teorema6.5.1

14.27. Dibujar la grfica d e la fdp h como se da en el problema 14.26, suponiendo quen1 > 122 > 2. 14.28. Una razn d e la importancia de la di:stribucin F es la siguiente. Suponer queX y Y son variables aleatorias independientes con distribuciones ~ ( p af)~ y ~, ( pai), ~ respectivamente. , Sean X I ., . . . ,X,, y ~ 1 , . .. , ynZ muesmas aleatorias d e X y Y , respectivamente. Entonces, el estadstico C C:&(X; X)2/ -Y)2 tiene una distribucin F para una eleccin apropiada d e C. Demostrar estoy determinar C. {Cules son los grados d e libertad asociados con esta distribucin?

xy21(x

14.30. Supngase que X est5 distribuidanormalmente.Seobtiene una muestra aleatoria d e tamao 4 y se calcula F, el promedio muestral. Si lasuma d e los cuadrados d e las desviaciones d e esas 4 mediciones d e 5? es igual a 48, obtener u n intervalo d e confianza d e 95% (bilateral) para E ( X ) e n trminos d e X. 14.31. La muestra siguiente d e tamao 5 se obtuvo d e la variable aleatoria bidimensional (X,Y ) . Usando esos valores, calcular el coeficiente d e correlacin muestral. x11 y14

14.29. Supngase que la variable aleatoria t tiene una distribucin t d e Student con 1 grado delibertad. {Cul es la distribucin d e t 2 ? Identifiquela.

2
5

3 3

4
1

S!

14.32. Supngase que E(Y)= crX P. Una. muestra d e tamao 50 est5 disponible, sea (x;, I:), i = 1,.. . , 5 0 para la cual C = ri;; = O , x : = 10, E : 2 = 15 y z;yZ = 8.

a ) Determinar los estimados d e mnimos cuadrados d e los parAmetros cr y P, es decir y ,b. A) {Cul es el valor d e la suma mnima d e cuadrados Cfzl[x - (&Y.;+ &I2.
14.33. Se podra suponer (errneamente) que siempre puede encontrarse un estimado insesgado para un parmetro desconocido. El hccho de que no es a s , se ilustra conel ejemplo siguiente. Supngase:que se hacen n repeticiones de un experimento y que un evento especial A se .verificaexacL3mente k veces. Si hay una probabilidad constante p = P ( A ) por hiptesis de que A ocurra cada vez que se hace el experimento, podramos estar interesados en estimar

, ! : x

xfzl

416 Estimacin de parmetros


la razn r = p/(l - p ) . Para verificar que no existe un estimado insesgado d e r = p / ( l - ~ )[con baseen las observaciones d e k A y ( n - k ) x ] , suponemos que en realidad existe tal estimado. Es decir, supngase que i = h ( k ) es un estadstico para el cual E(?) = p/(l - p ) . Especficamente, snpbngase que n = 2 y, por tanto, k = O, 1, o 2. Desgnese los tres valores correspondientes d e i por a , b y c . Demostrar que E ( ? ) = p / ( l - p ) da como resultado una contradiccin al observar lo que sucede a la izquierda y a la derecha de esta ecuacin cuando p + 1. 14.34. Lerificar que los estimados de los mnimos cuadrados Cy y dan enlas ecuaciones (14.7) y (14.8) soninsesgados. 14.35. Verificar las ecuacin (14.9). expresionespara

,8 como se

V(&) y V@), como se danen la

14.36. Suponer queE(Y) = @ X 2+ PX + y , donde X estA preasignada. Con base en una muestra(xi, Y i ) , i = 1 , .. . , n, determinar los estimados d e mnimos cuadrados d e los p a r h e t r o s cy, , D y 7. 14.37. Con ayuda de la tabla 7, obtener una muestra d e tamao 20 d e una variable aleatoria que tenga distribucin N(2,4).
a) Supngase que esta muestra se obtuvo de una variable aleatoria que tiene distribucin N(cy,4). Usar los valores muestrales para obtener unintervalo de confianza d e 95% para a. b ) Lo mismo que a) excepto que se supone que la muestra proviene d e la distribucin N ( a , P 2 )con P2 desconocida. c) Comparar las longitudes d e los intervalos de confianza en a ) y b ) y comentar.

15.1 Introduccidn

En este captulo analizaremos otra manera dle abordar el problema de hacer una afirmacin acerca de unparmetrcl desconocido asociado con una distribucin de probabilidades conbase en una muestra aleatoria. En vez de encontrar un estimado para el parmetro, a menudo ser y luego conveniente formular una hiptesis sobre un valor para ste usar la informacin de la muestra para confirmar o rechazar el valor de la hiptesis. Los conceptos que se presentan en este captulo pueden formularse sobre una base terica correcta. Sin embargo, no trataremos este tema desde un punto de vista formal. En su lugar, consideraremos varios procedimientos que son intuitivamente muy atractivos. Estudiaremos algunas propiedades de los procedimientos sugeridos, pero no intentaremos indicar por qu debern preferirse algunos mtodos propuestos en vez de una alternativa. El lector interesado puede obtener un fundamento ms terico d e algunos d e estos procedimientos consultando las referencias que se sugierenal final del captulo. Consideremos el ejemplo siguiente.

418 Pruebas de hiptesis

15.1

EJEMPLO 15.1. Un fabricante se ha dedicado a la produccin d e pinzas que se usarn en ciertas condiciones d e tensin. Se ha encontrado que la duracin (en horas) esos de artculos est distribuida normalmente, N(100,9). Se ha introducido un nuevo sistema de fabricacin, cuyo objetivo es alargar su duracin. Es decir, se espera que la duracin X (correspondiente alos artculos producidoscon el nuevo mtodo) tenga una distribucin N ( p ,9), donde > 100. (Supongamos que la varianza permanece igual. Esto significa, esencialmente, que la variabilidad del nuevo proceso es la misma que la del antiguo.) As, el fabricante y el comprador potencial estPn interesados en probar la siguiente hiptesis:

Ho: p = 100 contra H I :

11

> 100.

(Estamoshaciendo la suposicintcita de que el nuevoprocesono 1 0 se llama hipdtesis nula, y H1 hi$dtesis puede ser peor que el antiguo.) I alternativa. Esencialmente estamos encarando un problema similar a uno expuesto en el captulo 14. Estamos estudiando una variable aleatoria y no conocemos el valor de un parmetro asociado con su distribucin. Este problema se podra resolver comolo hicimos antes, al estimarsimplemente p . Sin embargo, en muchas situaciones en realidad estamos interesados en tomar una decisidn especijica: deberamos aceptar o rechazar la hiptesis Ho? A s , no volveremos a tratarlos conceptos previos d e estimacin, sino que procederemos a desarrollar algunos conceptos especialmente apropiados para resolver el problema especfico que tratamos. Empezamos por obtener una muestra de tamao n d e la variable aleatoria X . Es decir, elegimosal azarn artculos fabricadospor el nuevo as obtenemos la proceso y anotamos cuPnto tiempo funciona cada uno, muestra X I , . . . ,X n . Luego calculamos el promedio aritmtico d e esos nmeros, digamos X. Puesto que se sabe que X es un buen estimado de aceptar o d e p , parece razonable que basemos nuestra decisin rechazar 110 en el valor d e X . Puesto que estamos interesados en la discriminacin entre p = 100 y los valores d e p mayores que 100, parece 110si (X - 100) es demasiado grande. razonable que debamos rechazar A s , llegamos al siguiente procedimiento (sobre una base estrictamente intuitiva), llamado usualmente prueba d e la hiptesis: se rechaza Ho si X - 100 > C o, de manera equivalente, si > C (donde C es una caso. constante por determinar),y se acepta en cualquier otro

15.1

Zntroduccwn

419

Ntese que la forma particular de la prueba que estamos usando fue sugerida en parte por la hiptesis alternativa H I . Este es un punto al cual nos referiremos ms adelante. Si en la situacin anterior hubisemos estado interesados en probar HO: p = 100 contra 11; : p # 100, ha- 1001 > Ahora estamos bramos usado la prueba: rechazar HO si en una posicin anloga a la que nos encontrbamos cuando construimos un estimado 8 para el parmetro O. Nos preguntbamos: ?cun bueno es el estimado? ?Qu propiedades deseables tiene? Podemos formular preguntas similares acerca d e la prueba que hemos construido. {Cun buena esla prueba? {Qu propiedades posee? ?Cmo la podramos comparar con otra posible pruebal? A fin de responder tales preguntas, primero debemos verificar que no existe solucin, en el sentido usual, para el problema que estamos proponiendo. Es decir, por simple inspeccin d e algunos d e los artculos que se estn fabricando nunca podemos estar seguros de que p = 100. (N6tese otravez la analoga con el problema d e estimacin: no esperamos que nuestro estimado6 sea igual aO. Simplemente esperamos que est cercano a O.) Lo mismo es cierto aqu: una prucba no conducir siempre a la decisin correcta, pero una buena prueba conducira la mayora d e las veces a la decisin correcta. Seamos ms precisos. Bsicamente hay dos tipos de error que podemos cometer. Podemos rechazar 110cuando de hecho 110sea verdadera; es decir, cuando la calidad d e las pinzas no haya mejorado. &to puede ocurrir debido a queescogimos unas cuantas pinzas ms resistentes en nuestra muestra que no son tpicas de la produccin completa. O, alternativamente, podemos aceptar 110 cuanldo de hecho HO sea falsa; es decir, cuando la calidad de las pinzas haya mejorado. Hagamos la siguiente definicin formal:

I X

c.

Definicin. Error t$o 1: rechazar Ho cuando 1 1 0 es verdadera. Error tipo 2: aceptar Ho cuando HO es falsa. Debe ser evidente que no podemos evitar por completo cometer esos errores. Trataremos de mantener relativamente pequea la probabilidad decometerlos. Para enfrentar este problemapresentaremlos la muy importante nocin d e funcin d e operacin caracterstica (de la prueba, digamos L , que es la siguiente funcin del parmetro (desconocido)p.

420 Pruebas de hiptesis

15.1

Definicin. Lafuncidn de ofieracio'ncaracterdicu (funcin OC) d e la prueba anterior se define como

Obseruacidn: Otra funcin, muy relacionada con la funcin OC, es laJimci6n de potencia definida por

Es decir, L ( J ) es l a probabilidad de aceptar H o , considerada como una funcin d e p .

Por lo tanto, H ( p ) = 1 - L ( p ) . Usaremos la funcin OC para describir propiedades dela prueba aunque esto se podra hacer fcilmenteen trminos d e l a funcin d e potencia.

En el caso especfico que se est considerando, podemos obtener l a siguiente expresin explcita para L : si p es el valor verdaderod e E ( X ) , entonces ,u tiene distribucin N ( p , 9/n). Luego,

donde, como siempre,


@(S)

= -J s

"o0

-2/3

dx.

Las siguientes propiedades deL ( p ) se verifican con facilidad:

b ) L(+ooj = o. c) d L / d p < O para toda p . Por tanto, L es una funcin estrictamente decreciente d e p.)
A s , la gr5fica d e l a funcin L tiene en general la apariencia d e la curva d e la figura 15.1. (La forma especfica depender& por supuesto, d e la eleccin d e la constante C y del tamao de muestra n.)

a) L(-m) = 1.

15.1

Introduccwn

42 1

Considrese 1 - L(100). Este nmero representa la probabilidad d e rechazar Ho cuando Ho es verdadera. Es decir, 1- L( 100) representa la 1. Si sedan n y C, entonces 1- L( 100) probabilidad de un error del tipo est determinada completamente. Por ejemplo, si tomamos n = 50 y C = 101, obtenemos
1 - L(100) = 1 - G
___-

rol loo 601

= 1 - G(2.37) = 0.009.

As, estapruebaparticularnosconduciraarechazar H o enforma errnea alrededor del0.9% d e las veces. A menudo consideramos el problema desde un punto de vista algo diferente.Supngaseque se da eltamaodemuestra n y que la 1 est esfiecijicada, es decir, 1- L( 100) = probabilidad de un error del tipo (Y o, de manera equivalente, L(100) = 1 - (Y. ?Cul sera el valor d e C? Especficamente, si tomamos n = 50 y elegimos (Y = 0.05, obtenemos C como solucin de la siguiente ecuacin:
0.95 = @

c - 100
C - 100
3

De la tabla d e la distribucin normal estoda como resultado


1.64 =
&O.

Por tanto,

C = 100 + = 1010.69
3( 1.64)
&O

As, si rechazamos la hip6tesis cada vez que el ]->remedio muestra1 es mayor que 100.69, estamos garantizando que un error del tipo l ocurrir

422 Pruebas de hiptesis

L b )= 1

con una probabilidad de 0.05. Puesto que ahora se conocen n y C , la funcin OC est completamente especificada. Su grfica se muestra en l a figura 15.2. El valor 0.05 se llamanivel de signiJicuciond e la prueba (o, algunas veces, tamuo de la prueba). En la mayor parte d e los problemas que O. 1). se supone que este valor es menor Ntese que a l especificar a y el tamao d e l a muestra n, slo se debe determinar la constante C a fin de especificar completamente la prueba. Hicimos esto insistiendo en que la grfica d e la funcin OC pasa a travs de un punto especificado, a saber (100, 0.95). (Debe ser evidente cmo se modificara el procedimiento anterior si hubisemos a 0.05 para el nivel d e significacin.) escogido un valor distinto Ahora que la funcin OC est completamente especificada, podemos encontrar las coordenadas de cualquier otro punto. Por ejemplo, Ccul es el valor d e L(102)?

<(100,0.95)
p=

15.1

100

FIGURA 15.2

L(102) = @

( 100.69 - 102
3

@(-3.1) = 0.00097

As, para l a prueba quese considera,la probabilidad de aceptar110: p = 100 cuandodehecho p = 102 es igual a 0.00097. Por tanto, la 2 es muy pequea si p = 102. Puesto probabilidad de un error del tipo /f., observamos que L ( L L < ) 0.00097 que L es una funcin decreciente de para toda 11 > 102. Si queremos escogera n y C , debemos especificar dos puntos a travs d e los cuales pasa la grfica d e l a fbncin OC. De esta manera podemos controlar no slo la probabilidad de error del tipo 1, sino tambin la 2. probabilidad de error del tipo Supngase que en el ejemplo que estamos considerando deseamos 1 0 cuando p 2 102. A s , podemos hacer L(102) = evitar el rechazo d e 1 0.01, por ejemplo, y puesto que L es una funcin decreciente de p, se deduce que L ( p ) 5 0.01 para IL > 102. (Vease la Fig. 15.3.) Si pedimos

15.1

Introduccidn 423

(100,0.95)

(102,O.Ol)
r=100

r=102

FIGURA 15.3

tambiCn un nivel d e significacin d e 0.05, obtenemos las siguientes ecuaciones para la determinacin d e n y C:
L(100) = 0.95,L(102)

== 0.01

Estas ecuaciones se convierten en

De las tablas d e la distribucin normal encontramos que estas expresiones son equivalentes a
1.64 =

c - 100 6, -2.33
3

=-

(7 - 102
3

6.

A fin d e eliminar n, dividimos una ecuacin entre la otra. As,

(C- 102)(1.64) = (-2.33)(C - loo),


de la cual obtenemos

Una vez que se conoce C, podemos obtener cualquiera d e las ecuaciones anteriores. Por lo tanto,
n=

elevando al cuadrado

1.64) [ ,,,] =
3(

34.6 35.

424 Pruebas de hiptesis

15.2

15.2 Formulacin general: distribucin con varianza conocida

normal

Hemos considerado con cierto detalle un ejemplo relacionado con una hiptesis que implica el promedio de una variable aleatoria distribuida normalmente. Mientras algunos de los clculos estn ailn frescos en nuestra mente, generalicemos este ejemplo como sigue. Sup6ngase queX es una variable aleatoria con distribucin N ( / La , 2), donde n2se supone conocida. Para probar 110: p = p o contra 111: CL > po proponemos lo siguiente: obtener una muestra de tamao n, calcular el promedio muestra1 X y rechazar B o si X > C, donde C es una constante por determinar. La funcin OC de esta prueba est dada por
L ( p )=

P ( X 5 C ) = cp

(""J;;)
U

La forma general dela funcibn OC es como se indica en la figura 15.4.

p=C

FIGURA 15.4
Las propiedades generales deL ( p ) se establecen fcilmente (vase el Prob.15.4): a) L(-oo) = 1. b) L ( + m ) = o. c) L ' ( p ) < O y, por tanto, L es una funcin estrictamente decreciente d e p . (15.1) d) ~ " ( p =) O para p = C y, por tanto, la grfica tiene aqu un punto d e inflexin. e ) El aumento den hace que la curva tenga ms pendiente.

A fin d e proceder, debemos considerar dos casos.

15.2

Formulacin general: distribucin normal con varianzaconocida

425

Caso 1. Si se da n y especificamos el nivel d e significacin d e la prueba (es decir, la probabilidad de un error del tipo 1) con a l g h valor cy, podemos obtener cl valor de C al resolver la siguiente ecuacin:

Dcfiniendo K a en la relacin l / f i J f $ bir lo anterior como

e-' I 2 d t = (Y, podemos escri-

donde K l - , puede obtenerse de la tabla d e distribucin normal. Entonces, rechazamos Ho si

Caso 2. Si vamos a determinar n y C , debernos especificardos puntos sobre la grfica d e l a curva OC: 1 - L(p0) = (Y, el nivel de significacin, y L(p1) = O , ,la probabilidad de un error del tipo 2 para P = p 1 . Luego, debemos resolver las ecuaciones siguientes paran y C:

Estas ecuaciones pueden resolverse para C y n! como se indic anteriormente. Obtenemos

donde K 1 - ,

y K p ya se han definido.

En el procedimiento bosquejado, hemos tratado l a hiptesis alternaEn . otro contexto potiva H I : p > 100 (o, en el caso general, I-1 > p ' . ~ ) dramos considerar l i o : p = p o contra : p :< po o H a : p = po contra H y : p # pa. Debe ser evidente cmo modificamos la prueba anterior para tal hiptesis alternativa. Si consideramos; H i : p < p a , rechazaramos H O si < C y la funcin OC se definiera por

Hi

426 Pruebas de hiptesis


L(p) = P ( S

15.2

2 C ) = 1- @ ( U 6 ) .

Si consideramos 11:: p # /LO, rechazaramos 1 1 0 cada vez que C y, por tanto, la funcin OC se definira como

I X -pol >

Si escogemos el mismo nivel d e significacin (Y para cada una de las pruebas anteriores y dibujamos las grficas d e las respectivas funciones OC en el mismo sistema de coordenadas, obtenemos lo siguiente ( A corresponde a H I , 1~a 11; y D a 11;):

FIGURA 15.5
La figura 15.5 nos da un medio para compararlas tres pruebas que las pruebastienenelmismo nivel d e estamosconsiderando.Todas significacin. (Debe comprenderse claramente que C es slo un smbolo genrico para una constante y no ser%l a misma en todos los casos. Lo importante es que en cada uno deellos se ha escogido C de modoque l a prueba tenga el nivel d e significacin (Y.) Si I L > /lo, entonces l a prueba A cs mejor quelas otras dos, puesto que ms pequefio para la probabilidad de un error del tipo 2. dar un valor Sin embargo, si 11 < P O ,la prueba A es la peor delas que se estn considerando, mientras que la prueba B es l a mejor. Finalmente, la prueba D es aceptable en general y an puede ser mejorada en cualquier caso especfico con la prueba A o la prueba B. Por tanto, obs6rvese que es muy importante tener en mente una hiptesis alternativaespecfica, debido a que la prueba que escojamos puede depender de esto. (Slo

15.2

Formulacidn general:distribucidn normal con varianza conocida

42 7

comparamos las pruebas que tienen el mismo nivel de significacin; esto no es necesario en absoluto y la comparacin resulta algo vaga si usamos pruebas que tienen niveles d e significacin diferentes. Ntese la semejanza con nuestra comparacin de ciertos estimados: slo comparamos las varianzas d e los estimados que eran insesgados. En muchos casos es evidente cul hiptesis alternativa deberamos considerar. En el caso anterior, por ejemplo, posiblemente sabemos que el nuevo proceso defabricacin producira pinzas con la misma durabilidad o ms y, por tanto, usaramos la prueba A como sugeramos. (Si el nuevo proceso produjera pinzas d e calidad inferior, nuestra pruebasera muy mala). Si no se garantiza ninguna d e tales hiptesis sera mejor - pol > C. Las prueusar una prueba tal como D: rechazar H o si bas como A y B se llaman pruebas unilutemles, mientras que una prueba como D se llama prueba biluterul. Al considerar hiptesis alternativas podramos encontrar la siguiente analoga til. Supngase que una persona s e pierde de un lugar M y sabernos que el individuo ha ido o bien a la izquierda o a la derecha de M , mantenindose en una trayectoria rectilnea.

Si 10 personas estn disponibles para la bsqueda, <cmo deberan dispersarse?. S nada se sabe con relacin a la ubicacin del individuo, 5 personas en cada una de esas podra ser razonable enviar un grupo de direcciones, luego despachar un grupo de bsqueda muy efectivo, pero no muy fuerte, tanto a la izquierda como a la derecha. Sin embargo, si hay algn indicio de que la persona ha caminado laaizquierda, entonces posiblemente todos, o la mayor parte d e los hombres disponibles, deberan ser enviados a la izquierda, haciendo una bsqueda muy efectiva, pero ineficaz a la derecha. Otras consideraciones podran tambin influir en el uso de los recursos disponibles. Por ejemplo, supngase que la trayectoria a la izquierda conduce a un terreno plano con bosque, mientras que la trayectoria a la derecha sigue el borde de unprecipicio profundo. Es obvio que eneste caso la mayor bsqueda se concentrara a la derecha, debido a que las probabilidades d e estar perdido de este lado son mucho mayores quelas de la izquierlda. La analoga debera ser evidente. Al probar hiptesis tambin debemos interesarnos en las consecuencias de nuestradecisin para rechazar o aceptar 110. Por ejemplo, ?es tan importante el error que cometemos

42 8 Pruebas de hiptesis

15.2

al aceptar algunas pinzas que son de mala calidad (creyendo que 110 lo son), como no aceptar las pinzas q u e son de buena calidad (creyendo que no lo son)?
O b s e r v a c i h En la formulaci6n anterior sugerimos que a menudo preasignamos el nivel d e significacin de la prueba. Esto se hace frecuentemente; sin embargo, existe otro planteamiento del problema qne es muy comiln y que deberemos analizar.

Volvamos alejemplo15.1,dondeprobamos 110: p = 100 contra > 100. Supngase que slo obtenemos una muestra de tamao 50, calculamos el promedio muestra] X y encontramos que es iglal a o rcchazar H o ? Podemosargumentar 100.87.?Deberamosaceptar como sigue: si p = 100, entonces X tiene distribucin ~ ( 1 0 0&l. , As, podemos calcular,

171: p

P ( X 2 100.87) = P

(" 3 1 0

100.87 - 100 3 h 0 )

= 1 - a(2.OG)= 0.019699.

Puesto que 0.01 < 0.019699 < 0.05, diremos que el valor observado es significativo al nivel del 5%, pero no alnivel del 1%. Es dccir, si usamos a: = 0.05, rechazaramos 110, mientras, que al mismo tiempo, si usamos a: = 0.01, no deberamos rechazar 13,. Por decirlo de modo diferente, si p = 100, obtenemos un resultado que ocurrir slo alrededor del 1.9% d e las veces. Si creemos que para aceptar 1 1 0 un resultado debera tener por lo menos una probabilidad d e ocur-rir de 0.05, entonces la rechazamos. Si estamos satisfechos con una probabilidad de 0.01 la aceptamos.
Obse?vacio',l: La prueba anterior estipul que I10 debera ser rechazada siempre que , % > C. ' Suponiendo que el tamao muestra1 n, = 2, el criterio anterior se reduce a ( S I + ,Y2)/2 > C o, equivalentemente, (Xl + X , ) > b. Luego, el conjunto d e valores muestrales posibles (21, 22) se ha dividido en dos regiones: R={(~1,~2)1 +~22 1 > b} y R . La regin especfica R depende por supuesto, delvalor d e b, que a su vez depende del nivel de significacin de la prueba R, la regin d e rechazo, que algunas vcces se llama regwn critica de la prueba. (Vase la Fig. 15.6.)

15.3

Ejemplos adicionales 42 9

FIGURA 15.6
En general, una prueba puede describirse en terminos d e su regin crtica R. Es decir, rechazamos 110 si y slo si ~ ( q ,. . . ,z n ) E R.

15.3 Ejemplos adicionales


En vez d e formular una teora general para la prueba de hiptesis que existe y es muy extensa), consideraremos algunos ejemplos. En cada uno de los casos, la prueba que propondremos serP intuitivamente atractiva. No se harA ningn esfuerzo para indicar que una prueba especial es mejor en algn sentido.

La variable aleatoria 2 = [(X - Y ) - ( F , ~ py)] tiene distribucinN ( 0 , l). Definiendo p = p z --py, podemos expresarl a

EJEMPLO 15.2. Secomparandos procesos de produccin. El resultado del proceso A puede caracterizarse como una variable aleatoa : ) , mientras que el resultado del proceso ria X con distribucin N ( p Z , B puede caracterizarse como una variable aleatoria Y con distribucin N(py, u,). Supondremos que se conoce la variabilidad intrnseca en cad a u n o d e los procesos, medida por la varianza. Deseamos probar las contra la hiptesis alternativa H I : px - p y > O. hiptesis Ho: px = p y y Obtenemos una muestra de tamao n d e X, digamos X I , . . . , X n , y una muestra de tamao m d e Y , sea Yl,. . . ,Ym. Calculemos los respectivos promedios muestrales R y y propongamos la prueba siguiente para probarlas hiptesis anteriores. Rechazamos Ho si - Y > C, donde C es una constante escogidad e modo quela prueba tenga unnivel de significacin especficoigual a a.
Y

/ d -

de 43 O Pruebas

hiptesis

15.3

funcin OC d e la prueba anterior como una funcin de p , d e l a manera siguiente:

Ahora p z = p Y es equivalente a 11 = O. Por lo tanto, para determinar C debemos resolver l a ecuacin

L ( 0 ) = 1 - cr
O

Por lo tanto,

donde ICa estci definida, como antes, por la relacin cr =


2

(l/&JF;

e-'

/ 2 d t . Luego,

(No intentaremos resolver el problema de determinar ptimamente ny na. Una exposicin d e este problema se encuentra en Derman y Klein, Probability and Statistical Inference for Engineers, Oxford University Press, Nueva York, 1959.)

EJEMPLO 15.3. U n fabricante surte un pedido fusibles, de d e los cuales el 90% aproximadamente funcionan bien. Se inicia un nuevo proceso con el objeto de aumentar la proporcin defusibles que funcionen bien. As, deseamos probarla hiptesis Ho: p = 0.90 contra H I : p > 0.90, dond e p es la proporcin d e fusibles que funcionan correctamente. (Es decir,

15.3

Ejemplos adicionales 43 1

estamos probando la hiptesis de que no ha ocurrido ninguna mejora contra la hiptesis de que el nuevo proceso es superior.) Obtenemos una muestra de 50 fusibles fabricados con el nuevo proceso y contamos el nmero de fusibles que funcionan correctamente, digamos X . Propongamos la prueba siguiente: Rechazar HO siempre queX

> 48 y acept,arla en caso contrario.

Suponiendo que la variable aleatoria X tiene una distribucin binomial con parmetro p (que es una suposici~~ realista si la muestra se la toma de un lote muy grande), obtenemos la siguiente expresi6n para funcin OC

L(p) = P(X

5 48) = 1 - P ( X 2 49)

despues de algunas simplificaciones algebraicas. Por lo tanto, tenemos lo siguiente


a)

L ( 0 ) = 1. b ) L ( 1 ) = O.

c) L(p) < O para toda p, O d ) L(p) = O s i p = 48/49.

< p < 1.

[Las propiedades c ) y d) se verifican fcilmente con una derivaci6n directa.] A s , la grfica de la anterior funcin L tiene la forma d e la curva que se muestra en la figura 15.7. El nivel d e significacin a de esta prueba se obtiene al calcular 1 - L(0.9). Obtenemos
a

= 1 - L(0.9) = (0.9)49[50 - 44.11

= 0.034

FIGURA 15.7

Obseruacwnes: a) El ejemplo anterior se puede generalizar como sigue. Supngase queX es unavariable aleatoria distribuida binomialmente con base en

432 Pruebas de hiptesis

15.3

n repeticiones de un experimento con parmetro p . Para probar la hiptesis 110: p = PO contra H I : p > PO, proponemos la prueba siguiente. Rcchazar HO siempre queX > C , donde C es una constante por determinar. (Por tanto, aceptarHo siempre queX 5 C.) La funcin OC d e esta prueba serd e la forma

(15.2)
Las siguientes propiedadesd e L se verifican fcilmente. (VCase el h o b . 15.5.)
I) L ( 0 ) = 1;L(1) = o 2) L,'(p) < O para todap , O te.)

< p < 1. (Por tanto, L es estrictamente decrecien-

3 ) L"(p) = O s i p = C / ( n - 1). [Luego, L tiene un punto de inflexin en C / ( n - I).]

b ) Hemos dicho que en algunos casos podemos aproximar l a distribucin binomial conla distribucin d e Poisson. Es decir, si n es grande y p es pequea, P ( X = k ) 21 e - n p ( n p ) k / k !Usando esta frmula d e P ( X = k ) , encontramos que la funcin OC para la prueba propuesta anteriormente se reduce a
(15.3)

Las propiedades siguientes d e R tambin se pueden verificar con facilidad. (Vase el Prob. 15.6.)
4 ) R(0) = 1; R(1) = o 5) R'(p) < O para toda p , O 6) R " ( p ) = O s i p = C / n .

< p < 1.

7) R ( C / n )es una Lunci6n solamente d e C y n o d en.

Reconsideremos el problema de probar 110: IL = /LO contra H I : I L > /LO, donde S tiene distribucin N ( p , u 2 ) .Previamente suponamos que u2 era conocida. Eliminemos ahoraesta restriccin. Nuestra prueba anterior rechazaba 110siempre que ( X -r~o)J;;/o > G; C estaba determinada considerandoel hecho de que ( X -po)fi/u tiene distribucin N ( 0 , l ) si p = /LO. Tal como construimosun intervalo d e confianza parap cuando u2 era u' a partir d e b2 = [ l / ( n - l)] Cy=l("i; desconocida, estimemos ahora

15.3

Ejemplos adicionales

433

x)2. Usernos una prueba anloga a la propuesta anteriormente: rechacemos H O siempre que ( X - p)fi/& > C. Piara determinar C usemos el hecho de que(x- PO),/%/& tiene una distribucint de Student con
(n - 1) grados de libertad si p = p o . (Vase el Teorema 14.3.)

Sea (Y el nivel d e significacin prefijado. Lutego, Q = P[(.,T-po),/Z/& se obtiene d e la tabla de la distribucin t deStudent. (VCase la Fig. 15.8.) Rechazamos 110 cada vez que 1 X > &tn-l,1-an-2 [LO, as obtenemos nuestra prueba.

> C] implica que C = in-],

EJEMPLO 15.4. Supngase que X, la precipitacin pluvial anual en cierta zona, estd distribuida normalmente con E(A) = 30.0 pulgadas. (Este valor se ha establecido de un gran registro histrico de datos meteorolgicos.) En aos recientes, parece evidlente que ciertos cambios climatolgicos afectan, en otras cosas, la precipitacin anual. Seestablece la hiptesis de que de hecho la precipitacin anual ha aumentado. En particular deseamos probar Ho: p = 30.0 contra H I : 1-1 > 30.0. La varianza se supone desconocida, puesto quelos cambios climatolgicos sugeridos tambin pueden afectar la variabilidad d e la lluvia cada, y, por tanto, los datos anteriores sobrela varianza no son significativos. Supongamos que en los ocho aos anteriores se ha registrado la siguiente precipitacin anual (pulgadas):
34.1, 33.7, 27.4, 31.1, 30.9, 35.2, 28.4, 32.1.
Clculos directosquedan = 31.6 y distribucin t encontramos que

e2 ==

7.5. De la tabla d e la

Luego,

Por tanto, no rechazamosNo al nivel d e significacin d e 0.05.

434 Pruebas de hiptesis 15.4 Prueba para la bondad de ajuste

15.4

En la mayora d e nuestras exposiciones supusimos que la variable aleatoria considerada tiene una distribucin especfica. En el captulo anterior y en las primeras secciones d e &e aprendimos c6mo resolver el problema de tener un parametro desconocido asociado con una distribucin d e probabilidades. Sin embargo, puede suceder que an no estemos seguros sobre la forma general d e la distribucin que se tiene. Consideremos algunos ejemplos.

EJEMPLO 15.5. Unos buques mercantes de cierto tipo estuvieron expuestos durante 400 das a riesgos d e accidentes por tormentas, hielo, incendio, encallamiento, avera d e mquinas, etc. El nmero de accidentes, digamosX, de cada barco, puede considerarse como una variable aleatoria. Se registraron los siguientes datos:
Nmero de accidentes (X): Nmero de barcos con X accidentes:

I o

1
805

2
206

G 1

1448

34 4 2

Los datosanteriores Poisson?

?justifican que X tieneunadistribucinde

EJEMPLO15.6. Supngase que se tienen 20 muestras d e u n tipo especial d e cables y que las resistencias se miden en ohms. Se obtienen los valores siguientes:
9.8,14.5,13.7,7.6,10.5,9.3,11.1,10.1,12.7,9.9, 10.4,8.3,11.5,10.0,9.1,13.8,12.9,10.6,8.9,9.5. Si R es la variable aleatoria d e la cual se obtiene la muestra anterior, ?tenemos razn al suponer que R est distribuida normalmente?

EJEMPLO15.7. Seprueban 20 tubos electrnicos duracin de cada uno de ellos (en horas):

y seanota

la

7.2,37.8,49.6,21.4,67.2,41.1,3.8,8.1,23.2,72.1, 11.4,17.5,29.8,57.8,84.6,12.8,2.9,42.7,7.4,33.4.

15.4

Prueba para la bondad de ajuste 435

Los datos anteriores son consistentes con la hiptesis de que T , la variable aleatoria conla que seest haciendo el muestreo,est distribuida exponencialmente?
Los ejemplos anteriores son tipicos de una. gran clase d e problemas que aparecen con frecuencia en aplicaciones. IHay varias tcnicas estadsticas conlas cuales se pueden analizar tales problemas; a continuacin consideraremos algunas d e ellas. El problema de probar la hiptesis de que una variable aleatoria tiene cierta distribucin especfica puede considerarse como un caso especial del siguiente problema general. Considrese nuevamente las condiciones que dan origen ala distribucin multinomial (vase la Sec. 8.8). Un experimento E se efectfia n veces. Cada una de las repeticiones d e E Ida como resultado uno y s610 u n o d e los eventos A;, i = 1,2,. . . , k . Supbngase que P ( A ; ) = pi. Sea n; el nmero de veces que ocurre A; entre las n repeticiones d e ~ , n+l- . - + n k = n. Deseamos probar la hip6tesis Ho: p; = pi,, i = 1,.. . ,k , donde p;, es un valor especfico. Karl Pearson (1900) introdujo la siguiente prueba de bondad deajuste para probarla hiptesis anterior:

Rechazar Ho siempre que

D2 =

i=l

(ni - ripio) nPio

> c,

(15.4)

donde C es una constante quese va a determinar.


Observaciones: a) Puesto que E ( n i ) = np;, sipi = pi,, este criterio para probar tiene u n considerable atractivo intuitivo. Exige que rechacemos Ho siempre que la discrepancia entre los valores observados n; y los valores esperados np;, sea muy grande.Algunas veces el estadstico D2 anterior se escribe d e k manera muy sugerente como Ci=l(o; - e i ) / e ; , donde o; y e ; representan, respectivamente, el valor observado y esperado de n;. b ) Es importante establecer que D2 es u n estadstico (es decir, una hncin d e los valores observados ni, . . . , n k ) y es, por tanto, una variable aleatoria. En realidad, D2 es unavariable aleatoria discreta que toma un gran nmero finito d e valores. La distribucin actual d e D2 es muy complicada. Por fortuna, hay una aproximacindisponible para la distribucin d e D 2 , v5lida si n es grande, y que hace muy til el procedimiento sugerido.

436 Pruebas de hiptesk

15.4

Teorema 15.1. Si n es suficientementegrande, y si pi = p i o , la distribucin d e D 2 tiene en forma aproximada la distribucin xcuadrada con ( b - 1) grados de libertad. Demostruci6n: El argumento siguienteno es una demostracin rigurosa. Slo es un intento de hacer plausible el resultado. Consideremos un caso especial, es decir, b = 2. Entonces,

Ahora 1 =

Ylj, donde

Y13 = 1
=O

si Alocurre en la j-sima repeticin, en cualquier otro caso.

puede expresarse como l a suma de n variables aleatorias independientes y de acuerdo conel teorema del lmite central, tiene si n es grande. Adems, aproximadamente una distribucibn normal E ( n 1 ) = n p l o y V(nl) = n p l o ( l - p l o ) si plo es el valor verdadero de pl. Por tanto, si pl = p l o , entonces para n grande la variable aleatoria (nl - nplo)/Jnplo(l - plo tiene aproximadamente la distribucin N ( 0 , l ) . Luego, de acuerdo con el teorema 10.8 para una n grande, la variable aleatoria
As,
721
r
1 2

tiene aproximadamente la distribucin

x!

15.4

Prueba para la debondad

ajuste

437

Hemos demostrado que si n es suficientemente grande, D 2 (con IC = 2) tiene aproximadamente la distribucih x : . Pero precisamente esto es lo que sostenamos en el teorema. La demostracin para una IC en general sigue la misma lnea: debemos demostrar que D 2 puede expresarse como la suma de cuadrados de (k - 1) variables aleatorias independientes, cada una con distribucin N ( 0 , l ) si n es grande, y si p; = p;, y , recurriendo al teorema 10.8, enco:ntramos que se deduce el resultado anterior.

Podemos usar el resultado ya establecido para responder a la preD 2 a fin de rechazar la hiptesis gunta cun grande debera ser I(): pi = pio. Supngase que queremos obtener una probabilidad de un error del d e significacibn)igual a 0.05. Estosignifica tipo 1 (esdecir,elnivel que esperamos rechazar 110 alrededor del 5% d e las veces, cuando en realidad HO es verdadero. Luego, elegimos C para satisfacer

Puesto que D 2 tiene distribucin si pi = pio, podemos obtener el valor d e C d e la tabla d e la distribucih X-cuadrada; es decir C 2 2 o.95; donde ~ k - o.95 ~ , est definida porla relacin

donde gk-1 ( z ) es la fdp de una variable aleatoria con distribucin xi-l. (Vase la Fig. 15.9.) Usemos las ideas que desarrollamos para responder algunas preguntas planteadas al comienzo d e esta seccin: <cmo podemos encontrar una prueba para decidir si se acepta o se rechaza la hiptesis de que se

43 8 Pruebas de hipdtesis

15.4

tom una muestra particular de una variable aleatoria con una distribucin especifica? En este punto debemos hacer una distincin entre los dos tipos d e problemas. Simplemente podramos formular la hiptesis de que la variable aleatoria que se muestrea tiene alguna distribucin normal, sin especificar los parmetros implicados. O podramos ser ms explcitos y formular la hiptesis de que la variable aleatoria que se considera tiene una distribucin normal con promedio y varianza especficos. Los dos problemas pueden tratarse de el segundo (cuando especificamos completamente manera semejante, pero la distribucin hipotktica) es un poco ms simple y lo consideraremos primero. Caso 1. Prueba para una distribucin completamente especificada.

EJEMPLO 15.8. Supngase que creemos que la duracin T de bombillas elctricas est distribuida exponencialmente con parmetro ,B = 0.00.5. (Es decir, el tiempo esperado para que ocurra la falla es d e 200 horas.) Sacamos una muestra de 150 bombillas, las probamos y anotamos el tiempo en quese queman, digamosT I , . . . ,T150. Consideremos los cualro eventos mutuamente excluyentes:
A l : O < T < 100; A3: 20g 5 T < 300; A2: 100 < T < 200; A4: T 2 3 0 0 .

Supngase que registramosn;, el nmero deveces (entre los 150 tiempos para que se presente la falla) que ocurri el evento A ; , y encontramos nl = 47, n2 = 40, n3 = 35 y n4 = 28. A fin de evaluarel estadstico D 2 debemos calcular p ; , i = 1,2,3,4. Ahora.
pl = P(T

p2 = P(100
p3

5 T < 200) = 1 - e -0.005(200) - o .39 = 0.24, -0.005(300) - (1 - e- O ~ O O 5 ( 2 O O ) ) = P(200 5 T < 300) = 1 - e


P(T

5 100) = 1 - e -0.005(100)

1 - e -0.5 - 0.39,

= 0.15,

p4 =

> 300) = e "0.005(300)

= 0.22.

Ahora podemos calcular

15.4

Prueba paIra k z bondad de ajuste

439

(47 - 58.5)2
58.5 22.5

(40 - 36)2(35
36

22.5)2(28
- +

- 33)2

33

= 11.56.*

En las tablas de la distribucin X-cuadrada encontramos que P ( D 2 > 11.56) < 0.01, donde D2 tieneaproximad.amente la distribucin xcuadrada con 4 - 1 = 3 grados d e libertad. Por lo tanto, rechazaramos (al nivel del 1%) la hiptesis de quelos datos representan una muestra ,f3 = 0.005. de una distribucin exponencial con parmetro

El ejemplo anterior ilustra el procedimiento general que usamos para probar la hiptesis de que X I , . . . , X n representa una muestra de una variable aleatoria con una distribucin compl.etamente especificada: a) Dividir la recta real en k intervalos mutuamente excluyentes, A l ,

hiptesis especifica completamente la distribucin. d) Calcular D2 y rechazar la hiptesis si D > C, donde C se obtiene d e la tabla de la distribucin X-cuadrada. Si se requiere un nivel d e significacin a , C = x 2~ - ~ , ~ - ~ .
Observacin: No analizaremos como se deben escoger los intervalos A; o cuntos deberan escogerse. Establezcamos slo la regla siguiente: si ripio < 5 para cualquier A;, combinar los datos con A;+1 o Ai-1. Es decir, no deseamos subdividir el espacio muestra1 d e la variable aleatoria c n partes tales que el nimero esperado d e ocurrencias en cualquier subclivisicinparticular sea menor que 5. [Una exposicin amena d e este problema puede encontrarse en el artculo d e W. G. Cochran tituladoThe ;y2 -Test of Goodness of Fit publicado en Ann. Math. Slat. 23,315-345 (1952).]

. . . ,Ak. b ) Sea N ; el nmero de valoresmuestrales que caen en A ; , i = 1 , 2,...,k. c) Sea pio = P ( A ; ) . Esos valores se pued.en calcular puesto que la

Caso 2. Prueba para una distribucin si deben estimarselos parmetros.


*N. del E . Un resultado m8s exacto d e esta operaci6n es 10.41.

440 Pruebas de hiptesis

15.4

En muchos problemasslo tenemos razones para suponer que l a variable aleatoria que se est muestreando tiene una distribucin d e cierto t@o sin que podamos especificar los parmetros. Por ejemplo, sabemos que ciertas hiptesis que hemos formulado pueden conducirnos a una distribucin d e Poisson, a una distribucin exponencial, etc. A fin d e aplicar la tcnica sugerida enla seccin anterior debemosconocer los valores d e los parmetros de la distribucin. Si noconocemos esos valores,el planteamiento obvioes estimar primero los parAmetros desconocidos,y luego usaresas estimaciones para evaluar las probabilidades p;. Aparecen dos interrogantes. u ) Cmo se deberan estinlar los parmetros? b ) Si se usa @;(es decir, el parmetro estimado) en vez d e p;, en l a expresin de D 2 , cmo afecta esto l a distribucin d e D 2 ? (El hecho de que afectar la distribucin debe ser evidente si comprobamos que originalmente las pi, eran constantes, mientras que ahora las p; son ellas mismas variables aleatorias, dando as una estructura mucho ms complicada a la variable aleatoria O.) Daremos (sin demostracin) algunas respuestas a las interrogantes anteriores. u ) Los estimados usados normalmente para los parmetros son los que se obtienen por el mtodo dela mAxin1a verosimilitud. O ) Si el nmero de parmetros estimados es igual a r < b, entonces para una n grande, la variable aleatoria U 2 tiene otra vez una distribucin X-cuadrada, esta vez con X: - 1 - T grados de libertad.
Obselvaciw Este idtimo hecho es m u y notable.Significaque D2 tiene la misma distribucin fundanlenta1 s2que antes; la nica diferencia es que se pierde 1111grado de libcrtxl por cada parmetro que debe estimarse.

EJEMPLO 15.9. Consid6rense los datos del contenido d e ceniza en el carb6n corno aparecen en el ejemplo 14.6. Supngase que deseamos esos datos se obtuvieron de unavariable aleaprobar la hiptesis de que toria distribuida normallncnte. Primero debemos estimar los parmetros correspondientes p y o. Previamenteobtuvimos los estimados ML i = 17.0 y c ? ~ = 7.1. Dividamos los valores posibles de A e n cinco categoras:

15.4

Prueba para la debondad

ajuste

441

Sea n.i el nmero de veces que ocurre A;. Encontramos que


nl

= 7;

n2 = 49;

n3

= 109;

7x4

= 67;

n5 = 18.

A continuacin debemos calcular pi = P ( A ; ) ,usando los valores estimados de i y e2 ya obtenidos. Tenemos


p1 = P ( X p2 = P(12 p3 = P(15 p4 = P(18
$5

X - 17 12 < 12) = P 2.7 <

5 X < 15) = @(-0.74)

- 17 --) 2.7
-

= @(-1.85) = 0.03,

@(-1.85) = 0.20,
= 0.29,

5 X < 18) = Q(0.37) - @(-0.74) = 0.41,

= P(X

2 21) = 1 - Q(1.48) = 0.07.

5 X < 21) = Q(1.48) - a(0.3'7)

Ahora podemos evaluar

D2

=x
"

( n ; - 250@;)2 250j; i=l

(7 - 7.5)2 (49 - 50)2 7.5 102.5 50


+

((109- 102.5)2

(67 - 72.5)2 72.5

"

(18 - 17.5)2 17.5


'

= 0.82.
Puesto que D 2 tiene 5 - 1 - 2 = 2 grados d e libertad, en las tablas de la distribucin X-cuadrada encontramos que P( D 2 2 0.82) N 0.65 y que, por tanto, deberamos aceptar la hiptesis de normalidad.

dentes durante el periodo especificado de 400 das, una distribucin d e Poisson? Estimemos primero el parmetro X d e la distribucin. En el captulo 14 encontramos que el estimado ML d e X estA dado por el promedio muestral. As,

EJEMPLO15.10. Consideremos los datospresentadosenelejemplo 15.5. Tiene l a variable aleatoria X, es decir, el nmero de acci-

442 Pruebas de hiptesis

x =
A

O(1448) 1351 2500

+ l(805) + 2(206) + 3(34) + 4(4) + 5(2) + 6(1) 1448 + 805 + 206 + 34 + 4 + 2 + 1

= 0.54.

Sea A l : X = O; A2: X = 1; 43: X = 2; A4: X = 3; A5: A => - 4.. Luego, nl = 1448; n2 = 805; n3 = 206; n4 = 34; n5 = 7, y obtenemos
$1

= P ( X = O) = e -(0.54) - 0.58 = P ( X = 1) = e -0.54 (0.543) = 0.31


-0.54

y nl;l = 1450 y n.p2 = 775


y
np3 = 200

p2
$3

= P ( S = 2) = e

(0.543)2 = 0.08 2

Ahora podemos evaluar

(206 - 200)2 200

(34 - 25)2 25

(7 - 50) = 42.2. 50

Puesto quehay cinco categoras y estimbamos un parmetro, la variable aleatoria 0tiene la distribucin aproximada x:. En las tablas de l a distribucinx-cuadradaencontramosque P ( D 2 2 42.2) E O y, por tanto, deberamos rechazar la hiptesis.

PROBLEMAS
15.1. Suponer queX tiene distribucin N ( , L I u*) , con c2 conocida. Para probar Ho: ,LI = ,LIO contra H I : L , I < ,LIO se propone el mtodo siguiente: obtener una muestra d e tamao n y rechazar Ho siempre que el promediomuestra1 < C, donde C es una constante que debe determinarse. a) Obtener una expresin para la funcin OC, L ( p ) en trminos d e la distribucin normal tabulada.

Problemas

443

b ) Si el nivel d e significacin d e la prueba es a =: 0.01, obtener una expresin para C. c). Supngase que u2 = 4 y que se est probando Ho: , u = 30 contra H I : ,u < 30. Determinar el tamao muestral n y la 'constante C a fin d e satisfacer las condiciones L(30) = 0.08 y L(27) = 0.01. d ) Supngase que seobtienen los siguientes valores muestrales d e X:

?Rechazara 110 contra H I como seest?bleci en c) al nivel d e significacin del 5%?

15.2. Considerar la situacin descrita en el problema 15.1, excepto que la hiptesis alternativa es d e la forma H I : ,u # 110. Por tnnto, rechazamos H O siempre que \X - pol > C. Responder las preguntas a) y b ) anteriores.
15.3. Sup6ngase q u e X tiene una distribucin d c Poisson con parAmetro X. Para probar Ho: X = X0 contra 111: X > X 0 se propone la siguiente prueba. Obtener una muestra d e tamao n, calcular elpro~medio muestral ,y y rechazar HO siempre que > C, donde C es una constante que se debe determinar.
a ) Obtener una expresin para la funcin OC d e la prueba anterior, digamos L(X). [Indicacidn: Usar la propiedad reproductiva de la distribucin d e Poisson.] b ) Hacer la grfica d e la funcin OC. c) Supngase que se prueba Iio: X = 0.2 contra H I : X > 0.2. Se obtiene una muestra d e tamao n = 10 y rechazamos Ho si 2 > 0.25. Cu,il es el nivel d e significacin d e esta prueba?

15.4. Establecer las propiedades d e la ecuaciln (15.1) para la filncin OC, -%I = @KC- P>+/4. 15.5. k'erificar las propiedades parala funcin OC,L ( p ) , como se definieron en la ecuacin (15.2). 15.6. Verificar las propiedades para la funcin OC,R(p),como se definieron en la ecuacin (15.3). 15.7. Se sabe que una gran remesa d e voltimetros contiene cierta proporcin digamos p , d e defectuosos. Para probar Ho: p = 0.2 contra H I : p > 0.2 se usa el siguiente n1todo. Se obtiene una muestra de tamao 5 y se cuenta X , el nmero de voltmetros dcfectuosos. Si S 5 1, seacepta H o , si X > 4, se rechaza Ho; y si ,y = 2 , 3 o 4 se obtiene una segunda muestrade tamalio 5. Sea Y el ndmero de instrumentosdefectuosos en la segunda muestra. Se rechaza Ho si Y 2 2 y se acepta en caso contrario. (Se supone queel lote muestreado es suficientemente grande d e modo que pueda suponerse que S y Y son variables aleatorias independientes distribuidasbinomialmente.)

444 Pruebas de hiptesis


a ) Obtener una expresin paraL ( p ) , la funcin OC d e la prueba anterior, y dibujar su grjfica. b ) Encontrar el tamalio d e la prueba anterior. c) CCuA es la probabilidad de un error del tipo 2 si p = 0.5?

15.8. Si n = 4 y IC = 3 , ?cuntos valores posibles puede tomar la variable alcatoria D 2 , como se definien la ecuacin (15.4)? 15.9. a ) Calcular el valor esperado d e la variable aleatoria D 2 , como se defini en la ecuacin (15.4). b ) ?Cmo se compara este valor con el valor esperado (asinttico) d e D 2 obtenido con la distribucin X-cuadrada que puede usarse para aproximar la distribucin de D 2 cuando n es grande? 15.10. Mediante un nuevo proceso se preparan tres clases d e lubricantes. Cada uno de los lubricantes se prueba con cierto nfimerode mquinas, y luego el resultado se clasifica como aceptable. Los datos de la tabla 15.1 representan los resultados d e este experimento. Probar la hiptesis de quela probabilidad ;I de qne unlubricante tenga un resultado aceptable es la misma para los tres lubricantes. [Indicacin: Estimar primero p d e la muestra.]

TABLA 15.1
Lubricante 1 Lubricante Lubricante 2 Aceptable
I naccp table 3

144

152
48 200

140
60
200

56
200

Total

15.11. A l usar varias leyes d e falla se ha encontrado que la distribucin exponencial desempea un papel muy importante y que, por tanto, interesa poder decidir si una muestra particular d e tiempos para que se presente una falla proviene d e una distribucin exponencial bAsica. Sup6ngase que se han probado 335 bombillas y el resumen siguiente de su duracin T (en horas) est5 disponible:
Duracin (enhoras)
de bombillas

O<T<100

lOO<T<200

2005T<300

300<T<400

T1400

Nilmero

82

71

G8

62

52

De los tiempos registrados para que ocurra la falla, se encontr que T , el promedio muestra], era igual a 123.5 horas. Usando esta informacin, probar

Problemas

445

la hiptesis de que T , el tiempo para que ocurra exponencialmente.

la hlla, est5 distribuido

15.12. Sup6ngase que la variable aleatoria X tiene la siguiente fdp:

Para probar Ho: (Y = (YO se propone la siguiente prueba. Obtener una observacin de X, sea XI, y rechazar Ho si X 1 > 1. a) Obtener unaexpresin para la funcin OC, L ( ( Y ) , de esta prueba y hacer su grfica. 6) Cul es el tamao de esta prueba si (YO = ~ / 4 ? 15.13. En una malla de 165 celdas, secont el nmero de granos de grafito en cada celda. A s se obtuvieron los datos de la talbla 15.2. Probar la hip6tesis de que el nmero de granos en cada una de las celdas esuna variable aleatoria s l observaciones 5 2 y con una distribucin de Poisson. [Sugerencia: Reunira tambin aquellas 2 10.1

TABLA 15.2
Nmero de granos de Observados Nmero de granos de Observados grafito por celda grafito por celda
O

2 3
5

7 20

1 1

8 9 10

22

17
4

21
2
1

34 30

11

12

Referencias
La siguiente lista de referencias, d e ningiln !modo es exhaustiva, permite brindar al lector interesado la oportunidad de encontrar diversas lecturas suplementariasy complementarias sobrelos diversos temas que se presentan en el texto. Adems de encontrar varios temas que no se incluyen en esta presentacin, el lector encontrar otros tratados con mayor detalle o desde un punto devista un tanto diferente. Adems de tomar nota de los textos que figuran a continuacin, el lector deber5 estar consciente de ciertas revistas profesionales en las cuales se hacen contribuciones importantes. Muchas d e esas revistas, por supuesto, son escritas por personas que: poseen una experiencia y dominio del tema considerablemente mayores que las que pueden obtenerseestudiandounsemestre. Sin embargo, varias d e ellas en y alalcance del estudiante ocasiones contienenartculosmuyclaros que ha dominado la materia de este texto; entre Cstas estn Journal of the American StatisticalAssociation y Echnometrics. La ltima, d e hecho se subtitula A Journal ofStatisticsfor the Physical, Chemical, and Engineering Sciences, y, por lo tanto, puede.n ser de inters particular para aquellos estudiantes a quienes est especialmente dedicado este texto. Muchos de los libros listados contienen anlisis de la mayora d c los temas incluidos en este texto. No obstante, algunas de las referencias son ms especializadas y particularmente pertinentes slo para algunos captulos. En tales casos, los captulos especficos figuran entre parntesis despus delas referencias. En ingls:

BAZOVSKY, I., Reliabilily The091 and Pmctice, Englewood Cliffs, Nueva Jersey, Prentice-I-Iall, Inc., 1961 (1 1). BERMAN, SIMEON M., The Elenlents of Probability, Reading, Mass., Addison-Wesley Publishing Co., Inc., 1969.

448 Referencias
BOWKER, A. H. Y G. J. LIEBERMAN, Engineering Statistics, Englewood Cliffs, Nueva Jersey, Prentice Hall, Inc., 1959. DERMAN, C. Y M. KLEIN,Probability and Stutistical Inference for Engineers, Nueva York, Oxford University Press, 1959.

EHRENFELD, S. Y S. B. LITTAUER, IntroductiontoStatisticalMethod, Nueva York, McCraw-IIill Book Co., 1964.


FELLER,W., An Introduction to Probability Theory and Its A$plicutions, vol. 1, sa. ed., Nueva York, John Wiley and Sons, Inc., 1968 (1, 2, 3).

FREUND, J. E., Muthemutical Statistics, Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc., 1962.

FRY,T.C., Probability and Its Engineering Uses, 2a. ed., Princeton, Nueva Jersey, D. Van Nostrand, 1964. GNEDENKO, B. V., The Theory of Probability (traduccin del ruso), Nueva
York, Chelsea Publishing Co., Inc., 1962. GUTTMAN, I. Y S. S. WILKS,Introductory Engineering Statistics, York, John Wiley and Sons, Inc., 1965. Nueva

HABER,A., R. P. R U N Y O N Y P. BADIA, Readings in Statistics, Reading, Mass., Addison-Wesley Publishing Co., Inc., 1970. LINDGREN, B. W., Statistical Theory, 2a. ed., NuevaYork, the Macmillan Co., 1968. LINDGREN, B. W. Y G. W. MCELRATH, Introdu.ction to Probability and Statistics, 3a. ed., Nueva York, T h e Macmillan Co., 1969 (13, 14, 15). LLOYD, D.K. Y M. LIPOW, Reliability: Management, Methods, and Muthematics, Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc., 1962 (1 1). JR., Introduction to Probability MCCORD,J. R., I11 Y R. M. MORONEY, T h e o v , Nueva York, the Macmillan Co., 1964. MILLER,. I. Y J. E. FREUND,Probubility and Stutistics for Engineers, Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc., 1965. MOOD,A. M. Y F. A. GRAYBILL, Introdwtion to the Theory of Statistics, 2a. ed., Nueva Iork, McCraw-Hill Book Co., 1963.

PARZEN, E., Modern Probability The09 and Its Applications, Nueva York, John \Viley and Sons, Inc., 1960
WADSWORTH, B. P. Y J. G. BRYAN, Introduction to Probability and Random Variables, Nueva York, McCraw-Hill Book Co., 1960.

Referencias

449

En espaol: A continuacin se presenta una lista de libros en espaol parabeneficio del estudiante y del lector en general que des'een investigar algunos de los temas tratados en este libro y, en especial, algunas reas particulares. (N. del T.) ARLEY, NIELS Y RANDER BUCH, Introduccin a la teoria de la probabilidad y de la estadistica, Madrid, Nhambra, 1968. CARRANZA, ROQUE, Probabilidud y estudktica, Buenos Aires, Universidad de Buenos Aires, 1965. Mtodos mtemticos de estadstica, Madrid, Aguilar, CRAMER, HARALD, 1968. Introduccin a laprobabilidad, Mxico, Limusa-Wiley, DIXON,JOHN, 1970. Y FRANK MASSEY, Introduccin al andisis estadistico, DIXON, WILFRID Madrid, Ediciones del Castillo, 1965. FREEMAN, HAROLD A., Introduccin a la injerencia estadistica, Mxico, Trillas, 1970. GNEDENKO, B. V. Y A. I. JINCHIN, Introduccidn al cdlculo de probabilidades (traduccin del ruso), Buenos Aires, 'Eudeba, 1971. GUENTHER,WILLIAM, Introduccin a I'ork, McGraw-Hill, 1965.

la iFferencia estadistica,

Nueva

Introduccin a la estadisticamutemcitica, HOEL, PAUL, 1968.

Barcelona, Ariel,

LIPSCHUTZ, SEYMOUR, Probabilidad, Mxico, McGraw-Hill, 1970.

ISEL, EL, LOUIS, Probabilidad y estadistica, ESogotA, FondoEducativo Interamericano, S. A., 1973. Ros, SIXTO,Mtodosestadbticos, 5a. ed., Nueva York, McGraw-Hill,
1967.

Apndice
TABLA l . Valores de la funcin distribucibn normal cstindar*

11

0.0

1.0
0.0010

2.0

3.0

4.0 0.0003

0.0007 0.0005

-2.9 -2.8 -2.7 -2.6 -2.5 -2.4 -2.3 -2.2 -2.1 -2.0 -1.9 -1.8 -1.7 -1.6 -1.5 -1.4 -1.3 -1.2 -1.1 -1.0 -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 -0.0

0.0019 0.0026 0.0035 0.0047 0.0062 0.0082 0,0107 0.0139 0.0179 0.0228 0.0287 0.0359 0.0,346 0.0548 0.0668 0.0808 0.0968 0.1151 0.1357 0.1587 0.1841 0.2 119 0.2420 0.2743 0.3085 0.3446 0.3821 0.4207 0.4602 0.5000

0.0018 0.0017 0.0017 0.0016 0.0025 0.0024 0.0023 0.0023 0.0034 0.0033 0.0032 0.003 1 0.0045 0.0044 0.0043 0.004 1 0.0060 0.0059 0.0057 0.0055 0.0080 0.0078 0.0075 0.0073 0.0104 0.0102 0.0099 0.0096 0.0136 0.0132 0.0129 0.0126 0.0174 0.0170 0.0166 0.0162 0.0222 0.0217 0.0212 0.0207 0.02881 0.0274 0.0268 0.0262 0.0352 0.03.14 0.0336 0.0329 0.0.136 0.0427 0.0418 0.0409 0.0537 0.0526 0.0516 0.0505 0.0655 0.0643 0.0630 0.0618 0.0793 0.0778 0.0764 0.0749 0.0951 0.0934 0.0918 0.0901 0.1131 0.1112 0.1093 O. 1075 0.1335 0.1314 0.1292 0.1271 0.1562 0.1539 0.1515 0.1492 0.181f4 0.1788 0.1762 0.1736 0.2090 0.2061 0.2033 0.2005 0.2389 0.2358 0.2327 O .??97 0.2709 0.2676 0.2643 0.2611 0.3050 0.3015 0.2981 0.2946 0.3409 0.3372 0.3336 0.3300 0.3783 0.3745 0.3707 0.3669 0.4168 0.4 129 0.4090 0.4052 0.4562 0.4522 0.1483 0.4443 0.4960 0.4920 0.4880 0.4840

5.0 6.0 7.0 8.0 9.0 ____ ___0.0002 0.0002 0.0001 0.0001 0.0000 ~0.0016 0.0015 0.0015 0.0014 0.0014 0.0022 0.0021 0.0091 0.0020 0.0019 0.0030 0.0039 0.0028 0.0027 0.0026 0.0040 0.0039 0.0038 0.0037 0.0036 0.0054 0.0052 0.0051 0.0049 0.0048 0.007 1 0.0069 0.0068 0.0066 0.0064 0.0094 0.0091 0.0089 0.0087 0.0084 0.0122 0.01 19 0.0116 0.01 13 0.01 10 0.0158 0.0151 9.0150 0.0146 0.0143 0.0202 0.0197 0.0192 0.0188 0.0183 0.0256 0.0250 0.02 14 0.0238 0.0233 0.0322 0.0314 0.0307 0.0300 0.0294 0.0401 0.0392 0.038-1 0.0375 0.0367 0.0495 0.0485 0.0175 0.0465 0.0455 0.0606 0.059-1 0.0582 0.0570 0.0559 0.0735 0.0722 0.0708 0.069-1 0.0681 0.0885 0.0869 0.0853 0.0838 0.0823 0.1056 0.1038 o. 1020 O. 1003 0.0985 0.1251 0.1230 0.1210 0.1190 0.1170 0.1469 O.ll4G 0.1-123 0.1401 0.1379 0.1711 0.1685 0.1660 0.1635 0.1611 0.1977 0.1949 0.1922 0.1 89-4 O. 1867 0.2266 0.2236 0.2206 0.2177 0.2148 0.2578 0.25 16 0.2514 0.2483 0.2451 0.2912 0.2877 0.2843 0.28810 0.2776 0.3264 0.3228 0.3192 0.3156 0.3121 0.3632 0.3594 0.3557 0.3520 0.3483 0.4013 0.3974 0.3936 0.3897 0.3859 0.4404 0.4364 0.4325 0.4286 0.4247 0.4801 0.4761 0.4721 0.4681 0.4641

*B.W Lindgren, Sdaiklkal Themy, Nucva York, The Macmillan Co., 1960.

45 2 Apndice
TABLA 1. (Continuacidn)

~~

~~

0.0 2.0

1.0 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9-049 0.9205 0.9345 0.9463 0.9564 0.9648 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.9990 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.9993

3.0 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.9995

4.0

5.0

6.0

7.0 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808,

8.0

9.0 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8389 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 1.0000

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 .-1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.L. 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9

0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987

0.5160 0.5199 0.5239 0.5557 0.5596 0.5636 0.5948 0.5987 0.6026 0.6331 0.6368 0.6406 0.6700 0.6736 0.6772 0.7054 0.7088 0.7123 0.7389 0.7422 0.7454 0.7703 0.7734 0.7764 0.7995 0.8023 0.8051 0.8264 0.8289 0.8315 0.8508 0.8531 0.8554 0.8729 0.8749 0.8770 0.8925 0.8944. 0.8962 0.9099 0.91151 0.9131 0.9251 0.9265' 0.9278 0.9382 0.9394 0.9406 0.9495 0.9505 0.9515 0.9591 0.9599 0.9608 0.9671 0.9678 0.9686 0.9738 0.9744 0.9750 0.9793 0.9798 0.9803 0.9838-0;9842 0.9846 0.9874 0.9878 0.9881 0.9904 0.9906 0.9909 0.9927 0.9929 0.9931 0.9945 0.9946 0.9948 0.9959 0.9960 0.9961 0.9969 0.9970 0.9971 0.9977 0.9978 0.9979 0.9984 0.9984 a9985 0.9997 0.9998 0.9998

0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9430 0.9535 0.9625 0.9700 0.9762 0.9812 4. 0.9854 884 0.9887 0.9911 0.9913 0.9932 0.9934 0.9949 0.9951 0.9962 0.9963 0.9972 0.9973 0.9979 0.9980 0.9985 0.9986 0.9999 0.9999

3.0

TABLA 2. Funci6n de la distribucitjn binomial


T=n

1 - F ( x - 1) =
n = 10 x = 10
0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.000000 1

(r)

pT(yT

n = 10
x = 9
0.0000000

n = 10

x=s

= 10 x = 7

P
0.0 1 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.10 0.1 1 0.12 0.13 0.14 0.15 0.16 0.17 0.18 0.19 0.20 0.2 1 0.22 0.23 0.24 0.25 0.26 0.27 0.28 0.29 0.30 0.3 1 0.32 0.33 0.34 0.35 0.36 0.37 0.38 0.39 0.40 0.4 1 0.42 0.43 0.44 0.45 0.46 0.47 0.48 0.49 0.50

0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000001 0.0000002 0.0000003 0.0000006 0.0000010 0.0000017

0.0000000 0.0000000 0.0000000 0.0000000

0.0000001 0.0000002 0.0000003 0.0000004 0.0000006 0.0000010 0.0000014 0.000002 1 0.0000030 0.0000042 0.0000059 0.0000082 0.0000113 0.0000153 0.0000206 0.0000276 0.0000366 0.0000.481 0.0000628 0.0000814 0.0001049 0.0001342 0.0001708 0.0002161 0.0002720 0.0003405 0.0004242 0.0005260 0.0006493 0.0007979 0.0009766

0.0000027 0.0000042 0.0000064 0.0000097 0.0000143 0.0000207 0.0000296 0.0000416 0.0000577 0.0000791 0.0001072 0.0001437 0.0001906 0.0002505 0.0003263 0.0004214 0.0005399 0.0006865 0.0008668 0.0010871 0.0013546 0.0016777 0.0020658 0.0025295 0.0030809 0.0037335 0.0045022 0.0054040 0.0064574 0.0076828 0.0091028 0.0107422

0.0000000 0.0000000 0.0000000 0.0000001 0.0000002 0.0000004 0.0000008 0.0000015 0.0000029 0.000005 1 0.0000087 0.0000142 0.0000226 0.0000350 0.0000528 0.0000779 0.0001 127 0.0001599 0.0002232 0.0003068 0.0004 158 0.0005362 0.0007350 0.0009605 0.0012420 0.0015904 0.0020179 0.0025384 0.003 1673 0.00392 19 0.00482 13 0.0058864 0.0071403 0.0086079 0.0103163 0.0122946 0.0145738 0.0171871 0.0201696 0.0235583 0.0273918 0.0317105 0.0365560 0.0419713 0.0480003 0.0546875

0.0000000 0.0000000 0.0000000 0.0000001 0.0000003 0.0000008 0.0000020 0.0000045 0.0000091 0.0000173 0.0000308 0.0000525 0.0000856 0.0001346 0.0002051 0.0003042 0.0004401 0.0006229 0.0008644 0.0011783 0.0015804 .0.0020885 0.0027228 0.0035057 0.0044618 0.0056181 0.0070039 0.0086507 0.0105921 0.0128637 0.0155029 0.0185489 0.0220422 0.0260243 0.0305376 0.0356252 0.0413301 0.0476949 0.0547619 0.0625719 0.0711643 0.0805763 0.0908427 0.1019949 0.1140612 0.1270655 0.1410272 0.1559607 0.1718750

0.0000000

TABLA 2. (Continuacin)
. .

1 - F ( x - 1) 1
n = 10
x = 6
0.0000000 0.0000000 0.0000001 0.0000007 0.0000028 0.0000079 0.0000193 0.0000415 0.0000810 0.0001469 0.0002507 0.0004069 0.0006332 0.0009505 0.0013832 0.0019593 0.0027098 0.0036694 0.0048757 0.0063694 0.008 1935 0.0103936 0.0130167 0.0161116 0.0197277 0.0239148 0.0287224 0.0341994 0.0403932 0.0473490 0.0551097 0.0637149 0.0732005 0.0835979 0.0949341 0.1072304 0.1205026 0.1347603 O. 1500068 0,1662386 0.1834452 0.2016092 0.2207058 0.2407033 0.2615627 0.2832382 0.3056772 0.3288205 0.3526028 0.3769531

(") prqn-r r
n = 10
x = 2 0.0042662 0.0161776 0.0345066 0.0581538 0.0861384 0.1175880 O. 1517299 0.1878825 0.2254471 0.263901 1 0.3027908 0.3417250 0.3803692 0.4 184400 0.4557002 0.4919536 0.5270412 0.5608368 0.5932435 0.6241904 0.6536289 0.6815306 0.7078843 0.7326936 0.7559748 0.7777550 0.7980705 0.8169646 0.8344869 0.8506917 0.8656366 0.879382 1 0.8919901 0.9035235 0.9140456 0.9236190 0.9323056 0.9401661 0.9472594 0.9536126 0.9593705 0.9644958 0.9690684 0.973 1358 0.9767429 0.9799319 0.9827422 0.9852109 0.0873722 0.9892578

= 10 x = 5

n = 10
x=4 0.0000020 0.0000305 0.0001471 0.0004426 0.0010285 0.0020293 0.0035761 0.0058013 0.0088338 0.0127952 0.0177972 0.0239388 0.0313048 0.0399642 0.0499698 0.0613577 0.0741472 0.08834 11 0.1030261 0.1208739 0.1391418 0.1586739 O. 1794024 0.2012487 0.2241249 0.2479349 0.2725761 0.2979405 0.3239164 0.3503893 0.3772433 0.4043626 0.4316320 0.4589388 0.4861730 0.5 132284 0.5400038 0.5664030 0.5923361 0.6177194 0.6424762 0.6665372 0.6898401 0.7123307 0.7339621 0.7546952 0.7744985 0.7933480 0.81 12268 0.8981250

n = 10 x=3
0.0001 138 0.0008639 0.0027650 0.0062137 0.0115036 0.0188378 0.0283421 0.0400754 0.0540400 0.0701908 0.0884435 0.1086818 0.1307642 0.1542980 0.1798035 0.2064005 0.2341305 0.2628010 0.2922204 0.3222005 0.3525586 0.3831 197 0.4137173 0.4441949 0.4744072 0.5042200 0.53351 12 0.5621710 0.5901015 0.6172172 0.6434445 0.6687212 0.6929966 0.7162304 0.7383926 0.7594627 0.7794292 0.7982887 0.8160453 0.8327102 0.8483007 0.8628393 0.8763538 0.8888757 0.9004403 0.9110859 0.9208530 0.9297839 0.9379222 0.9453125

n = 10
x = 1 0.0956179 0.1829272 0.2625759 0.3351674 0.4012631 0.4613849 0.5160177' 0.56561 15 0.6 105839 0.6513216 0.6881828 0.72 14990 0.7515766 0.7786984 0.8031256 0.8250988 0.8448396 0.8625520 0.8784233 0.8926258 0.9053172 0.9166422 0.9267332 0.93571 11 0.9436865 0.9507601 0.9570237 0.9625609 0.9674476 0.9717525 0.9755381 0.9788608 0.9817716 0.9843 166 0.9865373 0.9884708 0.9901507 0.9916070 0.9928666 0.9939534 0.9948888 0.9956920 0.9963797 0.9969669 0.9974670 0.99789 17 0.99825 1 1 0.9985544 0.9988096 0.9990234

P
0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.10 0.1 1 0.12 0.13 0.14 0.15 0.16 0.17 0.18 o. 19 0.20 0.21 0.22 0.23 0.24 0.25 0.26 0.27 0.28 0.29 0.30 0.3 1 0.32 0.33 0.34 0.35 0.36 0.37 0.38 0.39 0.40 0.4 1 0.42 0.43 0.44 0.45 0.46 0.47 0.48 0.49 0.50

0.0000000 0.0000007 0.0000054 0.0000218 0.0000637 0.0001517 0.0003139 0.0005857 0.00 10096 0.0016349 0.0025170 0.0037161 0.0052967 0.0073263 0.009874 1 0.0130101 0.0168038 0.02 13229 0.0266325 0.0327935 0.0398624 0.0478897 0.0569196 0.0669890 0.0781269 0.0903542 O. 1036831 0.1181171 0.1336503 0.1502683 0.1679475 0.1866554 0.2063514 0.2269866 0.2485045 0.2708415 0.2939277 0.3176870 0.3420385 0.3668967 0.3921728 0.4177749 0.4436094 0.4695813 0.4955954 0.52 15571 0.5473730 0.57295 17 0.5982047 0.6230469

TABLA 3. Funcibn de la distribucin de Poisson*


..
a = 0.5 1.0000000 0.393469 0.090204 0.014388 0.001752 0.000172 0.000014 0.000001 a = 0.6

T=X

X O 1 2 3 4 5 6 7

a = 0.2

a = 0.3
1.0000000 0.2591818 0.0369363 0.0035995 0.0002658 0.0000158 0.0000008

a = 0.4
0.3296800 0.0615519 0.0079263 0.0007763 0.00006 12 0.0000040 0.0000002
1.0000000

1.ooooooo 0.1812692 0.0175231 0.0011485 0.0000568


0.0000023 0.0000001

1.ooooooo 0.45 1188 0.121901 0.023115 0.003358


0.000394 0.000039 0.000003

X
O 1 2 3 4 5 6

a = 0.7
1.ooooooo 0.503415 0.155805 0.034142 0.005753

a = 0.8
1.0000000 0.550671 0.191208 0.047423 0.009080 0.001411 0.000 184 0.000021 0.000002

a = 0.9
1.0000000 0.593430 0.227518 0.062857 0.013459

a = 1.0
1.0000000 0.632121 0.264241 0.080301 0,018988 0.003660 0.000594 0.000083 0.000010 0.000001

a = 1.2
1.0000000 0.698806 0.337373 0.120513 0.033769 0.007746 0.001500 0.00025 1 0.000037 0.000005 0.000001

8 9 10

0.000786 0.000090 0.000009 0.000001

0.002341 0.000343 0.000043 0.000005

X
O 1 2 3 4 5 6 7 8 9 10 11

a = 1.4
1.000000 0.753403 0.408167 O. 166502 0.053725 0.014253 0.003201 0.000622 0.000 107 0.000016 0.000002

a = 1.6
1.oooooo 0.798103 0.475069 0.216642 0.078813
0.023682 0.006040 0.001336 0.000260 0.000045

a = 1.8
1.000000 0.83470 1 0.537163 0.269379 O. 108708 0.036407 0.010378 0.002569 0.000562 0.000110 0.000019 0.000003

a = 1.9
1.000000 0.850431 0.566251 0.296280 0.125298 0.044081 0.013219 0.003446 0.000793 0.000163 0.000030 0.000005

a = 2.0
1.000000 0.864665 0.593994 0.323324 0.1.12877 0.052653 0.016564 0.004534 0.001097 0.000237 0.000046 0.000008

0.000007 0.000001

456 Apndice
TABLA 3. (Continuacidn)
1 - F ( z - 1) =
X T=03

VI

e V aa

a = 2.5 1.000000 0.917915 0.712703 0.456187 0.242424 0.108822 0.042021 0.014187 0.004247 0.001140 0.000277 0.000062 0.000013 0.000002

a = 3.0 0.950?13 0.800852 0.576810 0.352768


1.000000

a = 3.5
1,000000 0,969803 12

a = 4.0

a = 4.5

a = 5.0
1.000000 0.993262 0.959572 0.875348 0.734974 0.559507 0.384039 0.?37817 0.133372 0.068094 0.03 1828 0.013695 0.005453 0.002019 0.000698 0.000226 0.000069 0.000020 0.000005 0.000001

O I 2 3 4

1.000000 1.oooooo 0.981F8-1 0.988891 0.938901 0.908422 0,8641 0.761897 0.679153 0.826422 0.566530 0.463367 0.657704 0.467896 0.297070 O. 168949 0.086586 0.040257 0.017093 0.006669 0.002404 0.000805 0.000252 0.000074 0.000020 0.000005 0.000001

5 6

8 9 10 11 12 13 14 15 16 17 18 19

0.184737 0.083918 0.033509 0.011905 0.003803 0.001 102 0.000292 0.00007 I 0.000016 0.000003 0.00000 1

0.274555 0.371 163 0.142386 0.214870 0.065288 0.1 10674 0.026736 0.051 134 0.009874 0.021363 0.003315 0.001019 0.000289 0.000076 0.000019 0.000004 0.000001 0.008132 0.002840 0.000915 0.000274 0.000076 0.000020 0.000005 0.000001

Apbndice 45 7

TABLA 4. Valores crticospara la distr.ibuci6nt de Student*

Pr{t de Student 5 valor tabulado} = 7


"

f
1 2 3 4 5 6
8 9 10 11 12 13 14 15

0.75 1.o000 0.8165 0.7649 0.7407 0.7267 0.7176 0.7111 0.7064 0.7027 0.6998 0.6974 0.6955 0.6938 0.6924 0.6912 0.6901 0.6892 0.6884 0.6876 0.6870 0.6864 0.6858 0.6853 0.6848 0.6844 0.6840 0.6837 0.6834 0.6830 0.6828 0.6825 0.6822 0.6820 0.6818 0.6816 0.6814 0.6812 0.6810 0.6808 0.6807 0.6805 0.6804 0.6802 0.6801 0.6800

0.90 3.0777 1 .S856 1.6377 1.5332 1.4759 1.4398 1.4149 1.3968 1.3830 1.3722 1.3634 1.3562 1.3502 1.3450 1.3406 1.3368 1.3334 1.3304 1.3277 1.3253 1.3232 1.3212 1.3 195 1.3 178 1.3 163 1.3 150 1.3 137 1.3 125 1.3114 1.3104 1.3095 1.3086 1.3077 1.3070 1.3062 1.3055 1.3049 1.3042 1.3036 1.3031 1.3025 1.3020 1.3016 1.3011 1.3006

0.95 6.3138 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.734 1 1.729 1 1.7247 1.7207 1.7171 1.7139 1.7109 1.708 1 1.7056 1.7033 1.7011 1.6991 1.6973 1.6955 1.6939 1.6924 1.6909 1.6896 1.6883 1.6871 1.6860 1.6849 1.6839 1.6829 1.6820 1.6811 1.6802 15794

0.9751 12.70612 4.302'7 3.1824 2.7764 2.5706 2.446!3 2.3646 2.3060 2.2622 2.228 1 2.2010 2.17813 2.1604 2.14413 2.131!5 2.1 19!3 2.1098 2.100!3 2.0930 2.0860 2.0796 2.073!3 2.068'7 2.063!3 2.059!5 2.055!5 2.05 i5 1 2.0484 2.04812 2.0423 2.039.5 2.036'9 2.034.5 2.032'2 2.030 1 2.028 1 2.026'2 2.024.1 2.022 7 2.021 1 2.0195 2.0181 2.0167 2.0151 2.014 1

0.99 31.8207 6.9646 4.5407 3.7469 3.3649 3.1427 2.9980 2.8965 2.8214 2.7638 2.7181 2.6810 2.6503 2.6245 2.6025 2.5835 2.5669 2.5524 2.5395 2.5280 2.5177 2.5083 2.4990 2.4922 2.4851 2.4786 2.4727 2.4671 2.4620 2.4573 2.4528 2.4487 2.4448 2.4411 2.4377 2.4345 2.4314 2.4286 2.4258 2.4233 2.4208 2.4185 2.4163 2.4141 2.4121

0.995 63.6574 9.9248 5.8409 4.6041 4.0322 3.7074 3.4995 3.5554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.8314 2.8188 2.8073 2.7969 2.7874 2.7787 2.7707 2.7633 2.7564 2.7500 2.7440 2.7385 2.7333 2.7284 2.7238 2.7195 2.7154 2.7116 2.7079 2.7045 2.7012 2.6981 2.6951 2.6923 2.6896

16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

*D. B. Owen, Handbook o f Slatistical Tables, Reading, Mass., Addison-TVesleyPublishing Co., Inc., 1962. (Corte& de la Atomic Energy Commission, Waslungton, D.C.)

45 8 Apndice
TABLA 4. (Contznuacidn) Pr{t de Student5 valor tabulado} = y
-~

f
46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71

0.75 0.6799 0.6797 0.6796 0.6795 0.6794 0.6793 0.6792 0.6791 0.6791 0.6790 0.6789 0.6788 0.6787 0.6787 0.6786 0.6785 0.6785 0.6784 0.6783 0.6783 0.6782 0.6782 0.6781 0.6781 0.6780 0.6780 0.6779 0.6779 0.6778 0.6778

0.90 1.3002 1.2998 1.2994 1.299 1 1.2987 1.2984 1.2980 1.2977 1.2974 1.297 1 1.2969 1.2966 1.2963 1.2961 1.2958 1.2956 1.2954 1.2951 1.2949 1.294 7 1.2945 1.2943 1.294 1 1.2939 1.2938 1.2936 1.2934 1.2933 1.293 1 1.2929 1.2928 1.2926 1.2925 1.2924 1.2922 1.292 1 1.2920 1.2918 1.2917 1.2916 1.2915 1.2914 1.2912 1.2911 1.2910

0.95 1.6787 1.6779 1.6772 1.6766 1.6759 1.6753 1.6747 1.674 1 1.6736 1.6730 1.6725 1.6720 1.6716 1.6711 1.6706 1.6702 1.G698 1.6694 1.6690 1.6686 1.6683 1.6679 1.6676 1.6672 1.6669 1.6666 1.6663 1.6660 1.6657 1.6654 1.6652 1.6649 1.6646 1.6644 1.664 1 1.6639 1.6636 1.6634 1.6632 1.6630 1.6628 1.6626 1.6624 1.6622 1.6620

0.975 2.0129 2.0117 2.0106 2.0096 2.0086 2.0076 2.0066 2.0057 2.0049 2.0040 2.0032 2.0025 2.0017 2.0010 2.0003 1.9996 1.9990 1.9983 1.9977 1.997 1 1.9966 1.9960 1.9955 1.9949 1.9944 1.9939 1.9935 1.9930 1.9925 1.992 1 1.9917 1.9913 1.9908 1.9905 1.990 1 1.9897 1.9893 1.9890 1.9886 1.9883 1.9879 1.9876 1.9873 1.9870 1.9867

0.99 2.4102 2.4 083 2.4066 2.4049 2.4033 2.4017 2.4002 2.3988 2.3974 2.3961 2.3948 2.3936 2.3924 2.3912 2.3901 2.3890 2.3880 2.3870 2.3860 2.3851 2.3842 2.3833 2.3824 2.3816 2.3808 2.3800 2.3793 2.3785 2.3778 2.3771 2.3764 2.3758 2.3751 2.3745 2.3739 2.3733 2.3727 2.3721 2.3716 2.3710 2.3705 2.3700 2.3695 2.3690 2.3685

0.995 2.6870 2.6846 2.6822 2.6800 2.6778 2.6757 2.6737 2.6718 2.6700 2.6682 2.6665 2.6649 2.6633 2.6618 2.6603 2.6589 2.6575 2.6561 2.6549 2.6536 2.6524 2.6512 2.6501 2.6490 2.6479 2.6469 2.6459 2.6449 2.6439 2.6430 2.642 1 2.6412 2.6403 2.6395 2.6387 2.6379 2.6371 2.6364 2.6356 2.6349 2.6342 2.6335 2.6329 2.6322 2.6316

72

73 74 75

76 77
78 79 80 81 82 83 84 85 86 87 88 89 90

0.6777 0.6777 0.6776 0.6776 0.6776


0.6775 0.6775 0.6775 0.6774 0.6774 0.6774 0.6773 0.6773 0.6773 0.6772

TABLA 5. Valores crticos para la distribucin de X-cuadrada*


Pr{X2 r.v. con f grados de libertad 5 valiores tabulados} = y

f
2 3 4 5 6 7 8 9 1 0 11 1 2 1 3 14 1 5 1 6 17 1 8 1 9 20 2 1 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
1

0.005
0.010 0.072 0.207 0 . 4 1 2 0.676 0.989 1.344 1 . 7 3 5 2.156 2.603 3.074 3.565 4.075 4.601 5.142 5.697 6.265 6.884 7.434 8.034 8.643 9.260 9.886 10.520 11.160 11.808 12.461 13.121 13.787 14.458 15.134 15.815 1 6 . 5 0 1 17.192 17.887 18.586 19.289 19.996 20.707 21.421 22.138 22.859 23.584 2 4 . 311

0 . 0 1
0.020 0 . 1 1 5 0.297 0.554 0.872 1 . 2 3 9 1 . 6 4 6 2.088 2.558 3.053 3.571 4.107 4.660 5.229 5.812 6.408 7.015 7.633 8.260 8.897 9.512 10.196 10.856 11.524 12.198 12.879 13.565 14.257 14.954 15.655 16.362 17.074 17.789 18.509 19.233 19.960 90.691 21 . 4 2 6 22.16-4 22.906 23.650 24.398 25.148 25.901

0.025 0.001 0.051 0 . 2 1 6 0.484 0.831 1.237 1.690 2.180 2.700 3.247 3.816 4.404 5.009 5.629 6.262 6.908 7.564 8.231 8.907 9.591 10.283 10.982 11.689 1 2 . 4 0 1 13.120 13.844 14.573 15.308 16.047 1G.791 17.539 1 8 . 2 9 1 19.047 19.806 20.569 21.336 22.106 22.878 23.654 2-1.433 2 5 . 215 25.999 26.785 27.575 28.366

0.05 0.004 0 . 1 1 0 3 0.352 0 . : 7 1 1 l. 1 1 4 5 1 . 6 3 5 2 . ! 1 6 7 2 . 7 7 3 3 3.325 3.940 4.575 5.226 5 . 1 3 9 2 6.571 7.261 7.962 8.672 9.390 1 0 . 1 1 1 7 10.851 1 1 . 5 9 1 12.338 13.091 13.848 1 4 . 6 1 1 15.379 1 6 . 1 1 5 1 16.928 17.708 18.493 1 9 . : ! 8 1 20.072 20.867 21 . 6 6 4 22.465 23.269 24.075 24.884 25.695 26.509 27.326 2 8 . 1 1 4 4 28.965 29.787 30.612

o.1
0 . 0 1 6 0 . 211 0.584 1.064 1.610 2.204 2.833 3.490 4.168 4.865 5.578 6.304 7.042 7.790 8.547 9.3 12 10.085 10.865 1 1 . 6 5 1 12.443 13.240 14.042 14.848 15.659 16.473 17.292 1 8 . 1 1 4 18.939 19.768 20.599 21.431 22.271 2 3 . 1 1 0 23.952 24.797 25.643 26.192 27.343 28.196 29.051 29.907 30.765 31.625 32.487 33.350

0.25 0.102 0.575 1 . 2 1 3 1 . 9 2 3 2.675 3.455 4.255 5.071 5.899 6.737 7.584 8.438 9.299 10.165 11.037 11.912 12.792 13.675 14.562 15.452 16.344 17.240 18.137 19.037 19.939 20.843 21 . 7 4 9 22.657 23.567 24.478 25.390 26.304 27.219 28.136 29.054 29.973 30.893 31.815 32.737 33.660 34.585 35.510 36.436 37.363 38.291

1962.(Cortesa d e l a Atomic Energy Commission,

*D. B. Owen, Handbook o f Statistical Tables, R e a d i p Mass., .4ddison-Wesley Publishing Co., Inc., ashngton, D.C.)

460 Apndice

TABLA 5. (Continuacidn)
Pr{x2 r.v. con f grados de libertad5 valores tabulados} = y

f
1 2 3 4 5 6 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 3. I 35 36 37 38 39
4O

0.75 1.323 2.773 4.108 5.385 6.626 7.841 9.037 10.219 11.389 12.549 13.701 14.845 15.984 17.117 18.245 19.369 20.489 2 1.605 22.718 23.828 24.935 26.039 27.141 28.24 1 29.339 30.435 3 1.528 32.620 33.71 1 34.800 35.887 36.973 38.058 39.141 40.223 4 1.304 42.383 43.462 44.539 45.616 46.692 47.766 48.840 .19.913 50.985

0.90 2.706 4.605 6.25 1 7.779 9.236 10.645 12.017 13.362 14.684 15.987 17.275 18.549 19.812 2 1.064 22.307 23.542 24.769 25.989 27.204 28.412 29.615 30.813 32.007 33.196 34.382 35.563 36.74 1 37.916 39.087 40.256 4 1.422 42.585 43.745 44.903 46.059 47.2 12 48.363 49.513 50.G60 51.805 52.949 54.090 55.230 56.369 57.505

0.95 3.841 5.991 7.815 9.488 11.071 12.592 14.067 15.507 16.919 18.307 19.675 2 1.O26 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.1 13 4 1.337 42.557 43.773 44.985 46.194 47.400 48.602 49.802 50.998 52.192 53.384 54.572 55.758 56.942 58.124 59.304 GOA81 6 1.656

0.975 5.024 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 2 1.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.194 44.461 45.722 46.979 48.232 49.480 50.725 51.966 53.203 54.437 55.668 56.896 58.120 59.342 60.561 61.777 62.990 64.201 65.410

0.99 6.635 9.2 10 11.345 13.277 15.086 16.812 18.475 20.090 2 1.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892 52.191 53.486 54.776 56.061 57.342 58.619 59.892 61.162 62.428 63.691 64.950 66.206 67.459 68.710 69.957

0.995 7.879 10.597 12.838 14.860 16.750 18.548 20.278 2 1.955 .23.589 25.188 26.757 28.299 29.819 31.319 32.801 34.267 35.718 37.156 38.582 39.997 41.401 42.796 44.181 45.559 46.928 48.290 49.645 50.993 52.336 53.672 55.003 56.328 57.648 58.964 60.275 61.581 62.883 64.181 65.476 66.766 68.053 69.336 70.616 71.893 73.166

41 42 43 4 -4 45

Apndice TABLA 6. Nmeros aleatcn-ios*


~~

46 1

07018 52444 72161 17918 13623 27426 96039 68282 54262 66290 53348 34482 99268 95342 38556 39 159 41786 95627 98738 75214 73904 33329 66364 68349 19193 49017 76941 55430 33023 87337 81773 74279 34968 99696 55282 31337 94 128 06511 69981 23701 09237 11007 60622 79973 71080 09923 63094 72826 19806 17295 59338

31172 65625 57299 75071 76165 97534 2 1338 98888 21477 27544 39044 42758 98715 97178 60373 04795 18169 30768 15548 61575 89123 08896 94799 16984 99621 23489 77008 25875 26895 74487 36773 85087 76028 78454 61051 83886 97990 48241 03469 56612 24607 4546 1 78444 43668 71367 26729 42212 74244 27190

12572 97918 8752 1 91057 43195 89707 88169 25545 33097 72780 04072 40128 07545 10401 77935 51 163 96649 30607 42263 27805 19271 94662 62211 86532 66899 19172 27646 26446 65304 83196 21247 94186 54285 21700 97260 72886 58609 49521 56128 86307 12817 24725 39582 19599 23485 74573 65558 41268 43088 99302

23968 46794 4435 1 46829 50205 97453 69530 69406 48125 91384 622 10 48436 273 17 31615 64608 84475 92406 89023 79489 21930 15792 05781 37539 96 186 12351 80439 82072 25738 34978 61939 54735 67793 90845 12301 89829 42598 20002 64568 80405 02364 98120 02877 91930 3002 1 82364 16583 22616 84923 27056 84020

55216 62370 99981 47992 75736 90836 53300 29470 92982 47296 01209 30254 52459 95784 28949 60722 42773 60730 85 118 94726 72675 59187 80172 53891 72438 76263 28048 32962 43053 05045 68996 18178 35464 88832 69121 05464 76530 69459 97485 88677 30937 74667 97948 68572 30321 37689 33472 21002 86338 15425

85366 59344 55008 26797 77473 78967 29895 46476 98382 54892 43999 50029 75366 77026 94764 35268 23672 31519 97073 39454 62175 53284 43269 48268 99839 98918 41589 24266 28951 20405 16937 82224 68076 96796 86547 88071 81981 95079 88251 17192 70666 18427 13221 31816 42982 06703 67515 30588 4733 1 14748

56223 213149 9337 1 64423 07268 00705 7 1507 54562 11265 59168 5,4952 19016 43688 33087 45312 05044 37333 53462 01574 19616 48746 28024 91133 8282 1 24228 59330 70883 26814 22676 69324 18134 17069 15868 5934 1 62 195 92209 30999 42588 76708 23082 76059 45658 99234 63033 74427 21846 75585 40676 9737 42380

09300 17596 60620 42379 31330 85734 285 17 79373 25366 8395 1 68699 56837 27460 65961 71171 56420 85734 90489 573 10 72239 56084 45421 05562 19526 32079 20121 72035 O 1 194 05303 80823 5 1873 87880 70063 16136 72492 50728 50147 98590 09558 00728 44446 400-14 99629 14597 25625 78329 90005 94961 83735 99376

94564 5 1669 66662 9 1676 07337 21776 77761 72993 06636 91075 31912 05206 65 145 10056 15400 39214 99886 8 1693 59375 93791 54029 37956 82385 63257 53517 89779 8 1800 48587 39725 20905 10973 54945 26794 O 1803 33536 67442 9394 1 12829 86759 78660 94 188 59484 22430 28953 74309 98578 19747 31154 84058 30496

18172 47429 27036 75127 55901 85764 17244 98998 25349 04724 09317 33851 65429 72834 72 182 89822 81200 17849 544 17 22610 22296 14252 9 1760 14288 18558 58862 50296 93319 60054 68727 77090 73489 81386 17537 60137 47529 80754 64366 15065 74196 14060 59966 49247 21162 15855 25447 08865 83 133 12382 845?3

*The Rand Corporation, A A~lillion R o d o m Digits wilh 100,000 h i d e s , The Free Pres, 1955.

462 Apndice
TABLA 6. (Continuacin)
96124 31283 49988 82790 5 1473 73355 54371 48558 45529 1382 1 01925 20985 20397 48792 75776 91971 46052 07123 67545 11139 47467 4 1292 33925 36520 18857 09325 73339 04254 01691 26072 03811 80640 22892 05831 40764 05445 36992 74905 42596 10904 45045 13059 38553 08744 38483 64979 77702 43698 40740 65475 10532 05159 78439 83489 80028 94848 10625 02940 90888 33282 17662 89649 17210 00299 60384 31384 24401 63537 07442 22008 74667 82646 14813 82 142 75946 08005 92948 16717 08810 23715 22284 92538 11439 58248 29765 01921 99303 20240 87316 22385 67557 47389 97029 89159 90176 8663 1 79330 25295 43324 64613 18033 95820 35144 74342 93343 66788 94921 45677 50330 47415 81719 71681 21574 54649 004,15 84671 4 1667 83082 20398 18600 5668.4 13717 26708 48783 90933 74724 89616 00086 50446 85097 80876 68818 20908 97159 38995 35362 85867 80039 39813 86629 97265 88433 16602 33269 04883 87561 04318 59946 39407 26962 72250 70913 70599 45848 2 1834 76246 04949 05003 32576 2 1065 74603 22496 14852 08779 61570 035 17 62897 28526 58239 53808 5668 1 49966 63004 08773 90290 79343 99234 12164 0545 1 58178 38314 78915 49267 55540 97879 82072 18672 75647 63111 67943 11379 78988 94343 06367 84487 9073 1 56078 47877 65004 30688 87674 87328 92270 10404 95563 85094 80725 46597 95030 42846 30305 71241 26'4 14 94 194 80687 28914 40326 491 17 22772 70267 3 1779 35367 89286 45424 97232 263 13 366 13 16943 G8947 46391 77078 57288 18968 00867 98178 29280 28716 66121 33237 23405 24426 88864 18593 09234 88688 59632 23196 81764 3504 1 51677 67405 04636 62912 28635 15070 44885 72 120 67666 87874 78055 29383 35347 10767 62843 39454 48762 75 187 96627 34500 74970 3044 1 43255 24880 4,1359 61348 39585 43440 62099 34932 58980 85171 853 10 39165 84293 0370 1 72468 17995 17083 95008 86552 09528 03876 84747 77201 09360 69753 37285 60334 11182 07628 76952 36639 38470 34392 35100 19883 06993 38838 25248 22204 56285 60269 32132 81628 12207 06316 43287 03332 54653 70069 94845 63510 07327 09057 17393 36035 48791 57469 92195 42803 24519 801 18 6 1687 20880 51215 16622 68427 87.405 42852 09382 3 1695 38409 4 1314 05261 64003 61156 02028 3691 1 49766 94806 96837 21396 78905 92989 o1291 17044 17418 76022 7588 1 43440 22525 90899 9303 1 227 16 9490 1 29523 89223 94932 81281 80463 97004 6790 1 39209 50820 2422 1 0250 1 726 13 08334 89547 88379

07785 02854 68335 16624 28718 92405 33373 90330 36535 48606 47408 56129 35459 61955 85374 15556 75454 27582 89658 57194 64219 53166 58112 14548 21251 30953 12764 72393 11031 40757 91948 18537 66885 96177 3732 1 77905 53814 16963 87558 84269 94907 45735 11755 5 1242 00281 12233 88817 75548 42860 71208 44319 62155 36513 10460 55992 6979 1 39555 9068 1 90856 47708 77203 53416 78592 88451 36314 15618 63369 79194 71563 69586 07384 11985 71237 96867 69703 14560 37320 58885 55068 O80 19 14319 40589 05075 25893 65661 57827 53699 40656 72822 22313

55 672 49668 85986 20714 05111


94 163 42466 08859 92 136 99901 72542 80838 70858 25965 64776

1O966 73842 04373 19385 53285


54994 79135 08266 40812 01498 83843 72270 71100 95727 4805 1

Apndice

463

TABLA 7 . Desviaciones normales aleatorias 06 07 03 04 05 o1 O0 02 - - - - - - - - O0

o1
O2

03 04 05 06 07 08 o9

. 3 1 .90 . 2 2 - 1.o0 -.12

20 2 1 22 23 24 25 26 27 28 29

1 0 11 1 2 1 3 1 4 1 5 1 6 17 1 8 1 9

1.38 1 .O7 .19 2 . 2 6 -1.68 -.O4 -.55 2.18 .O6 -1.65 -1.29 -1.03 .O8 -1.92 -.97 1 .o2 -.67 -1.11 . 3 6 .O6 -.46 -.62 -.11 1 . 4 3 -25 .83 .47 - 1.84 .69 -1.07 . 6 -1.04 -.33 1 -.54 1.o0 .10 .63 -.26 -1.35 -1.20 - 31 .O4 -.36 .56 -.o9 -.94 .63 -.94 -.11 . 1 9 .29 .62 -1.09 1.84 .57 -.2 1 .o9 -.57 -.lo .54 .24 -1.47 -.o1 -.63 .85
1.O7

.16 1 . 3 1 -.38 .38

.o 1

. 5 1 -.36 .58 .53 -.43 .37 -.83 -.82


-.2G

.42

-1.45 .33 : 8 7 -1.90 .69 -.36 -1.88 -.36 -1.73 -1.39

__.

-.35 -28
-.O2

.75 .68 .89 .36 .O6 -.22

-.77

.o9 .o0 .ll . 4 3 -1.79 -2.62 - 1 .78 -.17 .O4 .12 .16 .67 .56 -.94 -1.13 -.79 -.32 .7 1 -.68 1 . 1 8 .43 .44 -.76 -.1 2 .93 -.39 . 4 -.95 1 -37 24 . 5 9 . 3 9 .96 - 1 -.14 1 2.48 1.11 -.28 -.O3 .18 .30 -1.53 -.34

09 - -1.91 -1.O7
08

30 3 1 32 33 34 35 36 37 38 39

40 4 1 42 43 44 45 46 47 48 49

-.89 -1.23 -1.01 1 . 3 6 .85 .18 1.02 -2.49 1.79 -.53 -1.13 .75 .76 1 . 2 1 -.68 -23 .O7 -.88 .6 .43 .27 1 -.45 .93 .72 .95 1 .O3 -.43 -.23 -.3? 1 . 4 1 1.41 25 -1.15
.72

1.18 .47 .26 .39

.19 1.20 .49 -.26 -.65 -.36 2.09 .88 .90 -.88

-.67 3.04 . 7 0 -1 . 8 0 .17 1 . 1 6 .55 -.21 -.94 .12 1 . 1 0 .83 .44 -.61 .3 .7 1 1 .ll 28 -.15 -.38
.O7
.O4

-.O5 .76 -.09 1.26 -1.21 .52 .34 1.18 -.74 1.75 -1.07 .29 .57 .17 -.48 1.40 1 .61 . 8 -.96 -1.69 .O5 -.O7 -.37 .47 -1.67 -.42 -.4 1 .14 -1.15 28 -.75 -.50 .18 1.31 .37 -.20 -.61 -2.55 -.o9 -1.33 .40 .42 .34 -1.96 -.17 1.73 -.33 . 4 1 -.71 2.15 -.12 -1.01 1 . 2 9 .76 -.48 -.4 -.74 .55 1 -.O2 .46
-.O7 .o0

-1.41 .o9 -1.91 1 . 7 7 -1.07 .S0 -.40 -.70 -.72 -.47 .64 -27 .72 .68 .75 .96 -.91 -1.94 .62 .56 .07 .94 .63 -1.29 1.16 1.52 -.60 -29 .94 .20 -.45 -.63 -.06 .23 -.26 -1 . 2 5 .88 -.26

-.99 -1.31 2.22 -26 -.13 .66 .78 .51 1.10

-.35 .95 -.08 -.86 -.41 2.O6


-.27
.40

-.50

.55 -.39 .26 -23 -.38 2.80 -1.49 -.36

-.92 -.42 -.54 -.13 -.70 -29 .36 1.90 -1.21

.57 .o 1 .15 .62 1 . 2 1

.64 -.70

.O6 2 5 -1.75 .33 .12 .o4 .34 -.32 2.31 .50 -1.42 .26 .83 .50 -.66 .55 -.O6 .24 29 -.53 1.O4 .69 .O7 .S8 -.44 .53 1 . 4 4 -1.87 -27 -1.86

-.O3 .43 .93 .68 .68 -.12 -.63 .60

.39 1.03 .74

1.84 1.23 -.64 .O8 .S5 -1.25 -.55 -.74 1 . 8 6 .? 4 -.40 1.90 .14 -1.09 -1.53 -.32 -1.20 .o 1 1.18 -.46 . 6 1 -.14 .66 .O 0 -.49 .25 .25

.O8 -.O8 -.43 .27 .85 -.29 .10 -2.17 1.12 .99 1.38 24 .90 -.72 .74 -1.47 .79 .22 -.59 .36

-1.95
-.39 -.77

-.34 -.29 .69 .25 -.33 28 .96 .37 -1.85 -1.72 -.O4 -.73 -2.10 -.79 -.27 -.14 -1.61 -.58 .39 -.61 -2.77 -.4 -2.80 1 . 6 1 .63 .73 . 8 1 -1.27 -25 1.63 .34 .14 -.17 -.17 -.lo .35 .69 .30 -1.56 .O5 20 -1.54 .50 .33 -.36 .14 1 . 7 3

464 Apndice
TABLA 7 . (Continuacin)

O0

10 11 - __ - -

-.73

07

o1 02 03 04 05 06 o9
10 11 12 13 14 15 16 17 18 19

1.18 -2.09 -.32 .I5 -1.87 .a7 .52 -1.39 -.S4 -.51 -1.50 .S9 .38 -.53 .I5 -1.61 .26 -.32 -1.00 .66 -.20 1.01 -1.81
-.40 -.48

-37

-.16

.90

.2 5 -.74 .O5 1.13 1.06 -36

- -2.08 1.44 .10 -.50 1.14 .63 -.17


.80

12

13

O8

-1.12 .72 .95

-.22

-1.17 .O5
1.67 "85 -.44 -.89 1.88 .57 -1.32 .19 -1.29 1.16 -2.17 -.43 -.35 .68 -1.73 .59 -.2 .27 1.50 -1.83 -1.08 -.17 -.61 -.19 -2.09 -.68 -.62 .ll .6 1 1.33 .2 1 .93 .24 .19 -1.08 2.50 -1.03 .34
-.OS

-1.62 - 31 -.30 -.36 .46 -.56 2.88 -.29 -1.87 .4 3 .66 .23 2.13 -2.4 1 1.84 1.09 .4 9 -2.08 2.10 .o0 .25 -.15 -2.05 .67 .57 1.18 .44 -.74 .18 .43 1.82 -1.62 1.46 -1.48
-.?8

-.?3

.17 -.79 -.15 .37

14 - 1.O4 -.76 .O5 .49 -.5? .49 -.77 -1.42 -.o1


-.91
-.I8

17 -- -.23 -.42 1.O6 -.16 1.10 -1.55 .96 -.91 -.46 .85 -.13 .10 .7 1 1.18 -.O7 .?8 1.o2 .?8 .36 -.65 -.15 1.16 1.59 1.29 -.14 1.46 -.11 -.50 -.17
.O8

15

16
.74 1.93
.S?

.23 .88
.90

18 __.

-1.85 -.27 .53 .o0 -.58 1.19 .17 .O5 .90 -.39 -56 -.34 .33 .46 .15 .72
.S7 .97

.78

-.go -.64 -.54 1.73 .94 .O3 -1.61 1.17 -.55 -.4? .22 2.42 1.23 .25 .14 -1.77 .I5 -.55 .20 -.12 -1.67 -.14 -.45 .13 .69 .42 .65 -.99 -2.83 -.46 -.38 .23 .59 -1.22 1.43 .64 2.52
-.S8

-1.38 1.32 .4 7 -.29 .14 -1.16 2.08

.so

.70

19 -.79 -.53 .51 -.83 -.05 .19 1.21 .44 1.11 -37

-.lo

.12 -1.18 -.46 .o4 -.2 1 1.54 -.23 1.52 .37 .62 -.22 2.5 1 -.48 .75 1.37 -1.53 -.44 .45 1.34 .15 -.19 .13 1.70 1.55 1.12 -.93 -31 -.61 -.69 -1.71 1.75 -1.50 .66 1.18 -.91 1.28 .56 .56
.10

- 1.o4

-2.06 .54 -1.06 -1.81 -.62 1.81 -.14 .16

-.o2

.so

-1.24 .74 -1.30 -.55 1.77 -1.65 1.31 .65 -.I5


.O7

.84 .33 .50 -.54 - 1.54 2.06 .06 1.18 -.73 .46
-.04 .18

20 21 22 23 24 25 26 27 28 29
30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49

-31

.O4

-.73 - 1.24 .75 -.70 1.S7 .26 -.15 -.27 -.74 -1.78
.ll -.4 1

.94 .77 -.77 .68 -.27 -1.11 .95


1.86 .14 -.O7 -.12 .83 -.20

.78

.92 .37

-1.16 .89 .18 -.42 .83 -1.18 .38 .O3 -.76 .5 1 2.35 .48 .82 -.58 -1.26 1.03
-.70 -.O7 1.44 .96 .69 .90 -.11 -.o2 1.40 .34

.85

.59 -.73 -.92 -1.51 .49 -1.41 .7 1

-1.87

-.o1 -.23 - 1.27 -1.72 .78 1.86 -.50 1.o2 - 1.57 2.27

-.44 .48 -1.53

-.3 1 1.o2 -.39

-31 -.S8

.62 -1.32 1.67 -.26 -.76 -1.76 .O5 -.37 2.35 -.45 -.lo -.74 -1.76 .37 -.42 .45 -1.02 .53 .46
-.SO

-.27
.O8

27

-.27

.89

-.14 .76 .76 1.25 -.43 -1.08 -24 .37 2.22


-.01

-2.17 .O5 -.38 .40 .39 -.1? 1.20 -1.04 -.32 1.O8

-.26 .55 -1.36 -2.08 .3O -.99 1.56 .ll


-.28
-.66

.I5 -.60 -.60 .83 .32 -.21 1.76 -.95 -.72 -.37

-.78 -.go -1.10 -.35 -.53 -1.84 .5 1 .45 -.27 .O3

S16 .92 .26 .25 - 1.90 -.17 -1.13

.42

.14 -1.11 -.58 .79 -.03 -.58 -.73 1.61 -1.08


J

35

Respuestas a seleccionados*
WTULO
1

Problemas

*N. del E. Considrese la siguiente relacinde reslpues~z~s alternativas a problemas incluidos en esta seccin.

466 Respuestasaproblemas seleccionados


1.11.
a)

AUBUC d) AnBnC
) 131 4 -8 1 3 ' 13

b) [ A n n c n C C ] ~ [ A c n ~ n C c ] u [ n C n a c ~ ~
1.16.

1.15.

a)

1- t

b) y - z

1.17.

CAIJTULO 2

2.8. 120 2.10. 455 2.12.


U)

2.9. 720 2.11.


a) 120

b ) 2970

2.13. ( N - l)!/(N 2.14. 2.16.


a)

' 4

b ) 4 . 37

C)

70

d ) 336

- n)!Nn-l
b ) 1296 b ) 2(n - 1)/n2
2.15. a

360

+b

a) 2/n

2.18. 0.24

2.20. 120

CAPTULO

3.2.

a)

b)

c)

3.3.

Prob. 2.21

(:I: 1 -

Respuestas a problemas seleccionados

467

3.4. 3.7. 3.12. 3.15. 3.20.

a)

&
b)

b)

3.6.

,u)

b)

c)

a)

-&
a)

3.9. 0.362,0.406,0.232 3.13. 1 - (1 3.17.

- p)"
b ) 0.145

'u) 0.995

2p2

+ 2p3 - 5p4 + 2p5

b ) p+3p2-4p3-p4+3p5-p6
3.25. 3.35.
a) a)

3.23. 3.34.

,& = f + ( 2 p - 1 ) y p - 1 2)
$ $ j l

&

0.50

b ) 0.05

3.37. p n = 3.39.
(12

+ (cytP)(atPtl)n-r P
1 - 2p

0.65 c) 8/35

b ) 0.22

- l)p2/(

+ np2)

CAPTULO 4
4.1. P ( X = O) =

A,P ( X = 1) = g ,P ( X = :!) = g, P ( x = 3) =
9

6;i 27

~. . .

4.3.

a)

b)

c)

+
+ 8)

4.9.

4.10. a = ebb 4.11. P ( X 4.13. 4.15. 4.17. 4.20. 4.23.


U) U

> blX < b/2) = -7b3/(b3


= (2/b)- b =f
c)

4.14. 4.16.

a)

F ( t ) = 5t4 - 4t5

a) a
U)

b ) F ( z ) = 3x2 - 2x3

c)

f ( z ) = 5, 1 O <x <5 f(x) = 3e3x, x < O

b ) f ( x ) = ( l / r ) ( x - x2)-1/2, O < z < 1

U ) cy

=3

C)

6) P ( X = k ) =

( y )(0.09)k(0.91)10-k

cr =

Prob. 4.9

. " A .

,i . .

'

..

468 Respuestas a problemas seleccionados


4.25. a ) 4.29.

$
=p
b)
T

4.28. =1 4.30.

a) 6

p -8

525

CAPfTULO 5

@ t g(y) = 3(4 - y ) - q 3 < y < 4 .


.

f)

a) g(y) =

8 , 7 < y <'13
1 -2/3e-y1/3,

b ) h ( z ) = 1/2z,

< z < e3

Y>O 5 3 a) g(y) = 3Y 5.6.; a ) g(y) = (l/?)(l- y 2 ) -1/2 , -1 < y < 1 b ) h ( z ) = (2/7r)(l- 2)-1/2, o < z < 1

c) f ( w ) = 1,

o <w<1

5.7. a ) g(v) = ( 3 / 2 ~ ) [ ( 3 ~ / 4 ~ ) -11, ~ /O~< v < 4 ~ / 3 b ) h ( s ) = (3/4n)[l - (s/~T)'/'], O < S < 4x 5.8. g(p) = i(2/p)'i2, 162 < p < 242
a)

5.10.

5.13. 0.71

g(0) = 1; g(y) = O , y # O b ) g(0) = a / k ; g(y) = ( 3 0 - a ) / h / o , 0 < Y < YoKk - a ) / ( z o - .>I c) g(0) = a / k ; g(y) = (x0 - a)/kyo, 0 < Y < ?/o; d Y 0 ) = 1 - zo/k

CAPfTULO 6
6 2 "-1 - a )k
_ .. "

= =

c) d Y )

@ 7 3 2 a)
. . . .

{9

6) h(x)= x3/4, O < X < 2 y/4 y3/48, O < x < 2 5 - Y/4 (5/48)Y3, -2 I y I

6.6.

U)

6) h ( z ) = 1 - 1x1, -1 4 g(Y) = 1 - Iyl, -1 < y < 1

k=

b)

&

+ +

c)
\

6.5. k = 1/(1 - e-')2

<x < 1

6.8. h ( t ) = 1/2z2, L 2 1

= 1/2,

o <z <1
<y

6.11. g(h) = (1600 - 9 h 2 ) / 8 0 h 2 , 8 < h --1 j . ,20 3<h<8

= (5h2 - 80)/1Gh2, 4 5 h 5 9

Respuestasaproblemas seleccionados

469

WTULO
1,

7.3. 3.4 7.6. $0.03 7.9. $50 7.12. 7.10. 7.13.


a) G =

b) E(D)=

b ) E(2)=

(b) E ( W ) =

7.14. 154 7.15. E ( Y ) = 10, V ( Y )= 3, E ( 2 ) = (e/2)(e2 7.18. E ( Y ) = O, V ( Y ) =


2, V ( W
1

=& ?

i,E ( 2 ) = 2/7r, V ( Z ) = (r2- S ) / 2 r 2 , E ( W ) =


- a), V(y) =
7.25.

- l), V ( Z ) = (e2/2)(e2 - 1)

7.20. C a s o 2 : E ( Y ) = (yo/2L)(3:0
1 7.24. a = 5 ,b =2

~v[i y]
-

a ) E(V)= ii) E ( P ) =

4
4

470 Respuestas a problemas seleccionados


7.32. E ( Z ) 7.46.
N

V(Z)

&

7.35.

i;o
r)/nl

7.48. P ( X ; = 1) = p ( r / n )

+ q[(n-

CAPTULO 8
8.1. 0.219 8.3.
U)

0.145

b) 4

C)

d ) 1o 2

e ) 1.785

f) 0.215

8.4. 0.3758 (binomial), 0.4060 (de Poisson)

8.5. 0.067
8.7. E ( P ) = $32.64 8.10. 0.215 8.16. 8.17.
U)

8.6. P ( X = O) = 0.264 8.9. 8.12.

b ) 0.027
a)

(0.735)7 b ) 1 - (0.265)7

(1 - pl)(l -p2)(1 - P s ) ( ~ - P 4 ) 0.064


8.20. (2-ln 3)/3

C)

0.0964
8.24. $19.125

a)

9.1.

a)

0.2266

b ) 0.2902

9.2. 0.3085 9.5.


U)

9.3. 0.21 9.6. E(17)= (2~)'/', V ( Y ) = ( T 9.10.

0 2

b) 0 2

- 2)/T
9.11. 0.5090

C = 0.433~ =p
E(Z)N
$27.24 0.7745
V(Z)

Prob. 7.32 Prob. 8.3 Prob. 8.7 Prob. 9.11

&

e ) 1.35 f)0.65

Respuestasa lbroblemas seleccionados 471


9.12. E ( L ) = $0.528 9.13.
a)

i;0.0456

b)

0.069

c) $; 0.049
9.17.
a ) $0.077

9.15. $23.40 9.24. 0.10,0.80

9.25. E ( Y )N l n p - (1/2p2)a2; V ( Y )N (1/p2)a2 9.28.

b ) E ( X ) = np[(l - p"-')/(l

- p")]

9.32. 0.15

CAPfTULO 10
10.1. a) ~ , y ( t = ) ( 2 / t 2 > [ e t (t 1)
10.3. 10.4. 10.6. 10.9. 10.18.
U)

+ 11

b ) .G(x) =

Mx(t)= k t a / ( A - t )
M,y(t) = ;(et
(1 - t')"

a) a)

+ e2t + e3t + e4t + e5t + e6t)


10.8. 10.12. 0.30 10.14. 0.579 10.19.
(e3'

6) E ( X ) = (ax

+ l)/A,

8, V ( X ) =
V ( X )= 1 / X 2

b ) E ( X ) = 3.2

a ) 0.8686

10.13. 0.75

- 1)/3tet

11.1. 83.55 horas, 81.77 horas, 78.35 horas 11.2. 48.6 horas 11.3. f ( t ) = C = Oexp[-Cot], O

=C 1 exp[-Coto
11.4. 11.7. 11.12.
a)
a)

+ G ( t o - t l ) ] ,t > t o
11.5. 11.11.

5 t 5 to

f(t) = Ce-C(t-A), t > -A

b ) R(t) = [A/(A
a)

+ t)]'+'

Aproximadamente (0.5)6

11.10. ~ ( t=)2e-OJ33
a) m

- e"O.Ogt

11.9. 0.007

0.014

= ln(Jz)

6) m = 0.01

c) t o c )

472 Respuestas a problemas seleccionados

CAP~TULO 12
12.1.
U)

n = 392

b)

R.

= 5000

12.2.

U)

0.083

12.3. a) 0.9662 12.5.


U)

b ) n = 24 b)
R.

0.1802

= 374

12.4. 0.1814 12.6.


a)

12.7. g ( r ) = (15,000)-'(r3 - 60r2

= (15, OOO)-l(-r3

12.9. a) g(s) = 50[1 - e-o.2(s+o.01)], si - 0.01 5 S 5 0.01 - 50[~-0.2(~-0.01) - ,-O.2(s+O.O1)], si > 0.01 12.12. f(s) = 2 @ (S,,,> -

+ 600r), O 5 T 5 10 + 60r2 - 1200r + 8000), 10 5 r 5 20

0.1112

b ) 0.1915

(3E)]

Prob. 12.2 Prob. 12.5 Prob.12.13

a ) 0.83

b ) n = 443

b ) 0.043

Respuestas a problemasseleccionados CAPfTULO 13 13.3. P ( M = m ) = [l - (1 -p)"In 13.4. a) 0.13 13.6. 0.89


b ) 0.58
- [ l - (1 - p)""]"

473

13.5. a) 0.018 13.8.


U)

b ) 0.77

(1 - 2t)"

CAPTULO 14 14.2. C = 1/2(n - 1) 14.3. 16.1 14.6.


U)

l/(T" t o )

14.9. a) k/ 14.14. -0.52 14.16.

x;"=, ni
X :

14.13. 0.031 14.15. r / x

n/

14.29. Distribucih F con ( 1 , l ) grados de liberlad 14.31. (-4/5) 14.32. 88.6

CAPfTULO 15 15.1. a) l - @ ( % f i ) 15.2.


U)

Q,

[wfi] - @ [ -c+T-"fi]
b ) 0.735
o "to

b ) C=-2.33-&+po
b) C = 2.575unv1i2

Prob. 13.5 Prob. 14.7


Prob. 14.13

a)

In

0.03G

Prob. 14.32

10.2

474 Respuestasaproblemas

seleccionados

15.8. 15 15.9.
a)

15.12.

a ) sencu/sen ( $ a )

( b - 1)

b ) Igud

ndice de materias
aproximacin de DeMoivreLaplace para la distribucin binomial, 329 &-bol, diagrama de, 52 bondad de ajuste d e pruebas, 434 prueba de ajuste d e distribuciones asintticas, 436 prueba de una distribucin especfica, 438, 439 coeficiente binomial, 35 coeficiente de confianza, 401 coeficiente d e correlacin, 189 ejemplo de, 399 evaluacin de, 189 interpretacin de, 190, 191, 192,193, 194 propiedades de, 189 comparacin entre varias distribuciones, 260 confiabilidad, 298 d e los sistemas, 31 1 y la funcin d e distribucin acumulativa, 298 y la longitud d e vida esperada, 303 y la tasa de falla, 298 conjunto, 4 complemento de, 6 identidad de, 7 interseccin de, 6 nmero de elementos, S subconjunto, 5 uni:n de, 5 universal, 5 vacol, 5 convergencia en probabilidad, 325 covarianza, 1S9 desiguaddad d e Boole, 25 desigua.ldad d e Chebyshev, 186, 187,188 desviac.in e s t h d a r d e variable aleatoria,176 diagrannas d e Venn, 6 distribucin binomial, S 1 apro:uimacin normal a l,a, 327 distribucin de Pascal, y, 230 propiedades de, 99 valor esperado de, 155, 173 varianza de, 180 distribucin binomial negativa, 228 distribucin d e Cauchy, 270 distribucin d e Maxwell, 290 distribucin d e Pascal, 228 esperanza de, 229 varianza de, 229 y la distribucin binomial, 230 distribucin d e Poisson, 209 propiedad reproductiva de, 288 valor esperado de, 210 varianza de, 2 1O y la distribucin binomial, 21 1

476 ndice dematerias


multinomial, 294 distribucin d e Rayleigh, 290 distribucin d e Weibull, 309 aplicacin de, 3 11 esperanza de, 310 varianza de, 3 10 distribucin exponencial, 249 propiedades de, 250 valor esperado de, 252 y la distribucin exponencial con dos parcimetros, 292 y la distribucin gama, 291 y varianza de, 250 distribucin I; de Snedecor, 4 15 distribuci6n gama, 255, 29 1 valor esperado de, 256, 257 varianza de, 256, 257 y la distril)ucin de Poisson, 256 y la dis~ribucin exponencial, 255, 291 distribucin geomktrica, 224 propiedades de, 22G valor csperado dc, 225 varianza de, 225 distribucin hipergeomtrica, 35, 23 1 valor esperado de, 232 varianza de, 232 y la distribucin binomial, 232 distribucin log-normal, 270 distribucicin multinomial, 233 valor esperado de, 233 varianza de, 233 y la distribucin de Poisson, 294 distribucin normal, 239 aproximacin a la distribucin binomial, 327, 329

y la distribucin

bivariada, 261 estandarizada, 243 funcin lineal de, 243 propiedad reproductiva de, 255 suma d e variables aleatorias independientes, 255 tabulacin, 244 truncada, 263 valor esperado de, 242 varianza de, 242 distribucin normal bivariada, 26 I , 263 distribucin t de Student, 403 propiedades de, 403 distribucin truncada, 263 distribucin uniforme, 96 bidimensional,130 unidimcnsional, 96, 97 valor esperado de, 155 varianza de, 1 S2 distribucin x 2 , 25s distribucin gama, y la, 255 distribucin normal, y la, 2G1, 255 grandes grados de libertad, para, 262 propiedad reproductivn, de, 255 valor esperado de, 255 varianza de, 260 distribuciones binomiales, 51 bivariadas normales, 261, 263 d e Maxwell, 290 de Pascal, 228 de Poisson, 209 de Rayleigh, 290 de It'cibull, 309 exponenciales, 249 F . de Snedecor, 4 15

gama, 255 geomtricas, 224 hipergeomtricas, 38, 23 1 log-normales, 270 multinomiales, 233 normales, 239 t de Student, 403 uniformes, 96, 130 distribuciones mixtas, 94 eleccin a l azar de un objeto, 30, 38, 50. eleccin a l azar de un punto en un intervalo, 96 enumeracin, mtodos de, 31 adicin, principio de, 32 combinaciones, 34 multiplicacin, principio de, 31 permutaciones, 33, 39 errores del tipo 1 y del tipo 2, 419 espacio muestral, 71 espacio muestral, el, 10 ejemplos de, 11 finito, 27 particin de, 49 espacio muestral finito, el, 27 y resultados igualmente probables, 28 esperanza condicional, 194 estadstico, 354 estimado, 375 estimado de mxima verosimilitud, 384, 356 por el parmetro de una distribucin exponencial, 387, 391 por el parmetro de una distribucin gama, 392

por el parmetro de una distribucin normal, 38s por el parmetro de una distribucin uniforme, 38S, 389 por la ecuaci6n d e probabilidad, 387, 388 propiedades, 386 propiedades asintticas, 393 estimado de parmetros, 375 estimado consistente, 376 estinlado insesgado, 375 estimado de mxima probabilidad, 384, 355 estimado de mnimos cuadrados, 396 estimado inexistente o insesgado, 4 15 estirnado insesgado d e varianza mnima, 375 mejolr estimado lineal, 378 estimado, 375 insesgado, 375 eventos,13 complementarios, 14 inde~pendientes, 54 mutuamente excluyentes, 14 eventos' equivalentes, 73, 106 eventos independientes, 54, 55 eventos mutuamente excluyentes,14 eVelltOS mutuamente independientes, 58 experimento aleatorio, 9 experimento no dcterminista, S experimentos de Bernoulli, S1 factorial, 33 falla, tasa de, 298 falla, ley exponencial de, 303

478 ndicedematerias
Poisson, 307 falla, ley gama de, 309 falla, ley normal de, 301 frmula d c Stirling, 328 frecuencia relativa, 15 funcin de densidad d e probabilidades, 86 del cociente d e variables aleatorias independientes, 142 conjuntas,123 marginal,128 d e la suma de variables aleatorias independientes, 340 del intervalo de la muestra, 362 del mximo de la muestra, 358 del mnimo de la muestra, 358 del producto de variables aleatorias independientes, 142 funcin de densidad de probabilidad condicional, 132 funcin de densidad de probabilidad conjunta, 123 funcin d e densidad d e probabilidad marginal, 128 funcin d e distribucin, 94 funcin d e distribucin acumulativa, 90, 112 caractersticas de, 9 1 funcin d e densidad d e probabilidad, y la, 93, 94, 123 grfica dc, 9 1, 92 propiedades de, 93

y la distribucin d e

funcin d e distribucin acumulativa conjunta, 128 funcin d e operacin caracterstica, 420 para probar cl parmetro P de una variable aleatoria con distribucin binomial, 43 1 para probar la media de una distribucin normal con varianza conocida, 424 para probar la media de una distribucin normal con varianza desconocida, 433 y eleccin del tamao de la muestra, 427 funcin de regresin, 197 aproximacin d e los mnimos cuadrados, 20 1 lincal,199 funcin de riesgo, 298 funcin gama, 254 funcin generadora de momentos, 276 dc una distribucin binomial, 278 de una distribucin x 2 , 280 de una distribucin de Poisson, 278 de una distribucin exponencial, 279 de una distribucin gama, 2SO de una distribucidn geomtrica, 2S4 de una distribucin normal, 279 de una distribucin uniforme, 278 de una funcin lineal de una variable aleatoria, 285

Indicede materias 479

d e series d e variables aleatorias, 29 1 d e sumas variables aleatorias independientes, 286 de propiedad de unicidad, 285 y momento, 282 funciones d e variables aleatorias,106 caso bidimensional, 137 caso continuo, 11 1, 112 caso discreto, 108 funcin montona, 114 valor esperado de, 161, 168 grandes nilmcros, ley d c los, 324 hiptesis alternativa, 418 hiptesis, prueba de, 418 para la media de una variable aleatoria con distribucin normal, 424 nivel d e significacin, 425 regin crtica, 428 hiptesis nula 418 integral de convolucin, 340 intervalo d e confianza, 401 para el parmetro de una distribucin binomial, 407 para la media de una distribucin normal (varianza conocida), 40 1 para la media de una distribucin normal (varianza desconocida), 404 para la varianza de una distribucin normal, 408

jacobiano de una transformacin, 139,140 mximo d e la muestra, 391 mecnica, analoga con, 77, SS, 159, 177, 180 mnirncb d e la muestra, 355, 358 y la distribucin exponencial, 360 modelos matemticos, 1 momento de una variable aleatoria respecto de su esperanza,179 muestra, tamao de, 421 muestra aleatoria de una variable aleatoria, 35 1 gene~:acin de una muestra aleatoria, 365, 368 muestras, 349 coeficiente d e correlacin, 400 mxi~mo de, 355 media de, 355 mnimo de, 355 varia:nza de, 355, 363 nmeros aleatorios, 364 orden estadstico, 355 parmctro de una distribucin, 153 probabilidad,17 axioma para, 18 condicional, 46 inducida, 75, 124 teoremas bsicos, 18, 19, 20 probabilidad condicional, 43 probabilidad inducida, 75, 109 probabilidad no condicional, 46 proceso d e Poisson, 218, 222

480 Indice de

materias

aplicaciones de, 222 supuestos de, 219 producto cartesiano, 7 promedio muestral, 356 propiedades reproductivas, 286 d e la distribucin x 2 , 2SS d e la distribucin normal, 258 d e la distribucin de Poisson, 2SS punto mucstral, 355 recorrido de la muestra, 362 regularidad estadstica, 17 resuItados igualmente probables, 28 series geomtricas, 79 suma de variables aleatorias independientes, 339, 345 teorcma dc Bayes, 51 teorema de multiplicacin de probabilidades, 47 generalizacin de, 66 tcorema de binomio, 35 forma generalizada, 36 teorema del lmite central, 331, 332, 333, 335 teorema Gauss-MarkoK, 399 transforlnacin integral, 363, 364 valor esperado de una variable aleatoria, 153, 155, 158 aproximacin para, 1 S2 d e la suma de variables aleatorias,169 de una funcin de una variable aleatoria, 16 1, 169 de una funcin lineal, 170

del producto de variables aleatorias independientes, 17 1 del valor condicional esperado,194 propiedades del valor esperado, 169 valor medio de una variable aleatoria,153 variable aleatoria, 69 continua, S5 discreta, 76 distribucin d e probabilidad, 77 espacio muestral de, 71 no correlacionada, 190 sucesiones de, 291 variable aleatoria bidimensional, 121 continua, 122 discreta, 122 normal, 26 1 variable aleatoria continua, S5 variables aleatorias independientes, 134 criterio de, 135 variables aleatorias ndimensionales, 145 varianza de una variable aleatoria,175 aproximaci6n a, 182 evaluacin de, 177 propiedades de, 179 d e la suma de variables aleatorias independientes, lS0 varianza muestral, 349 Venn, diagrama de, 6

You might also like