You are on page 1of 247

Curso intermedio de PROBABILIDAD

Luis Rinc on Departamento de Matem aticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M exico DF Junio 2006

El presente texto corresponde a la versi on de junio de 2006. Este material se encuentra en permanente actualizaci on y correcci on. La u ltima versi on disponible en formato pdf puede obtenerse en http://www.matematicas.unam.mx/lars

Prefacio
El presente texto est a dirigido a estudiantes de mitad de carrera de las licenciaturas de matem aticas, actuar a, y a reas anes. Contiene el material b asico para un segundo curso de probabilidad, y tiene como origen las notas de clase del curso semestral de Probabilidad II, que he impartido en la Facultad de Ciencias de la UNAM. Este volumen trata temas de probabilidad a un nivel intermedio. El enfasis de este segundo curso se centra en la formalizaci on de algunos conceptos estudiados en un primer curso de probabilidad, y en el estudio de vectores aleatorios y sus varios conceptos relacionados. El lector puede comprobar que se hace poco enfasis en las aplicaciones, y que la exposici on se concentra mayormente en el desarrollo matem atico. La objetivo es que despu es de este curso, el estudiante pueda continuar con facilidad con un curso de estad stica matem atica, de procesos estoc asticos, o tal vez un curso avanzado de probabilidad o de teor a de la medida, teniendo como elementos b asicos los conceptos te oricos aqu desarrollados. En particular se incluye un cap tulo sobre esperanza condicional, cuyo uso y aplicaci on es cada vez m as frecuente. Tambi en se incluye un cap tulo sobre distribuciones muestrales y estad sticas de orden, con aplicaciones inmediatas en temas de la estad stica matem atica. El texto contiene una gran cantidad de ejercicios, la mayor a de los cuales son de tipo mec anico, algunos de ellos son muy sencillos de modo que el t ermino ejercicios me parece justo y adecuado. La intenci on es la de crear conanza y soltura por parte del alumno en el manejo de los conceptos y notaci on involucrados. El n umero de ejercicios excede lo que normalmente puede realizarse en un semestre, y el objetivo que siempre tuve en mente estos a nos fue el tener un n umero suciente de ejercicios para presentar algunos en clase, dejar otros para trabajo en casa, y asignar algunos otros para preguntas de examen, usando material ligeramente distinto cada semestre para evitar repeticiones. Los ejercicios se encuentran regularmente al nal de cada cap tulo, y se han numerado de manera consecutiva a lo largo del curso. La presentaci on del material mantiene la estructura de las notas de clase, y creo que ser a particularmente u til al estudiante con poco tiempo para leer p arrafos completos, y quien s olo busca una denici on, un resultado, un ejemplo, un ejercicio, o tal vez orientaci on breve acerca de un concepto. En este sentido, el libro contiene tablas a manera de resumen, y los enunciados estan enmarcados para su f acil localizaci on. Tambi en he intentado que la notaci on fuera lo m as simple y m nima posible. Personalmente me gustan los libros con im agenes y diagramas, y he buscado plasmar A ese gusto en este texto. Este material fue escrito en L TEX, y las gr acas fueron elaboradas usando el paquete pstricks. Al nal del texto aparece una lista de referencias que me permito sugerir al lector consultar para profundizar y a veces precisar en algunos temas. Algunos de estos textos no han sido referenciados expl citamente pero aparecen en la lista por que en alg un momento he obtenido inspiraci on de ellos. Agradezco sinceramente a todas aquellas personas, alumnos y profesores, quienes a

trav es de sus comentarios y sugerencias, han contribuido al mejoramiento de este texto. Cualquier correcci on o comentario acerca de este trabajo ser a muy bien recibido en el correo electr onico que aparece abajo. Por u ltimo, me parece importante mencionar que este texto ha sido posible, en gran medida, al excelente ambiente de trabajo y de libertad acad emica que he tenido la fortuna de encontrar en el Departamento de Matem aticas de la Facultad de Ciencias de la UNAM. Gracias a todos por su conanza y apoyo. Luis Rinc on Junio 2006 Ciudad Universitaria UNAM lars@fciencias.unam.mx

Contenido
1. Espacios de probabilidad 1.1. Espacios de probabilidad . 1.2. - algebras . . . . . . . . . 1.3. Medidas de probabilidad . 1.4. Independencia de eventos 1.5. Lema de Borel-Cantelli . . 1.6. Ejercicios . . . . . . . . . 5 5 6 18 27 28 30 40 40 47 51 55 57 62 68 73 95 95 96 100 104 105 106 109 111 113 116 117 119 120

. . . . . .

. . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

2. Variables aleatorias 2.1. Variables aleatorias . . . . . . 2.2. Funci on de distribuci on . . . 2.3. Tipos de variables aleatorias . 2.4. Integral de Riemann-Stieltjes 2.5. Caracter sticas num ericas . . 2.6. Distribuciones discretas . . . 2.7. Distribuciones continuas . . . 2.8. Ejercicios . . . . . . . . . . .

3. Vectores aleatorios 3.1. Vectores aleatorios . . . . . . . . . . . . . . . . . 3.2. Distribuci on conjunta . . . . . . . . . . . . . . . 3.3. Densidad conjunta . . . . . . . . . . . . . . . . . 3.4. Distribuci on marginal . . . . . . . . . . . . . . . 3.5. Distribuci on condicional . . . . . . . . . . . . . . 3.6. Independencia . . . . . . . . . . . . . . . . . . . . 3.7. Esperanza de una funci on de un vector aleatorio 3.8. Covarianza . . . . . . . . . . . . . . . . . . . . . 3.9. Coeciente de correlaci on . . . . . . . . . . . . . 3.10. Esperanza y varianza de un vector aleatorio . . . 3.11. Distribuciones multivariadas discretas . . . . . . 3.12. Distribuciones multivariadas continuas . . . . . . 3.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . .

4. Esperanza condicional 137 4.1. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . 137 4.2. Varianza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

5. Transformaciones 142 5.1. Transformaci on de una variable aleatoria . . . . . . . . . . . . . . . . 142 5.2. Transformaci on de un vector aleatorio . . . . . . . . . . . . . . . . . 146 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 6. Distribuciones muestrales y 6.1. Distribuciones muestrales 6.2. Estad sticas de orden . . . 6.3. Ejercicios . . . . . . . . . estad sticas . . . . . . . . . . . . . . . . . . . . . . . . de . . . . . . orden 161 . . . . . . . . . . . . . . 162 . . . . . . . . . . . . . . 169 . . . . . . . . . . . . . . 175 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 182 183 185 185 186 186 187 192 194 197 197 200 205 214 221 221 222 224 226 228 232 238 238 238 238 239 240 241

7. Convergencia 7.1. Convergencia puntual . . . . . . . . . . . . . . . . 7.2. Convergencia casi segura . . . . . . . . . . . . . . . 7.3. Convergencia en probabilidad . . . . . . . . . . . . 7.4. Convergencia en media . . . . . . . . . . . . . . . . 7.5. Convergencia en media cuadr atica . . . . . . . . . 7.6. Convergencia en distribuci on . . . . . . . . . . . . 7.7. Relaciones generales entre los tipos de convergencia 7.8. Dos resultados importantes de convergencia . . . . 7.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 8. Funciones generadoras 8.1. Funci on generadora de probabilidad 8.2. Funci on generadora de momentos . . 8.3. Funci on caracter stica . . . . . . . . 8.4. Ejercicios . . . . . . . . . . . . . . . 9. Teoremas l mite 9.1. Desigualdad de Markov . . 9.2. Desigualdad de Chebyshev . 9.3. Ley de los grandes n umeros 9.4. Teorema central del l mite . 9.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

A. Distribuciones de probabilidad B. Formulario B.1. El alfabeto griego . . . . . . . . B.2. Notaci on . . . . . . . . . . . . . B.3. L mite superior e inferior . . . . B.4. Imagen inversa . . . . . . . . . B.5. Funci on indicadora . . . . . . . B.6. Tabla de la distribuci on normal

. . . . . . . . . . . . . . . . . . . . . . . . . est andar

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

Cap tulo 1

Espacios de probabilidad
La teor a de la probabilidad es la parte de las matem aticas que se encarga del estudio de los fen omenos o experimentos aleatorios. Se entiende por experimento aleatorio todo aquel experimento tal que cuando se le repite bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo. A menudo y por muy diversas razones es necesario aceptar que no es posible predecir el resultado de un experimento particular a un cuando se le haya efectuado con anterioridad varias veces bajo las mismas condiciones iniciales, y en consecuencia se considera aleatorio. Bajo estas circunstancias, la teor a de la probabilidad tiene el objetivo de modelar matem aticamente cualquier experimento aleatorio de inter es.

1.1.

Espacios de probabilidad

El modelo matem atico creado durante el primer tercio del siglo XX para estudiar los experimentos aleatorios es el as llamado espacio de probabilidad. Este modelo consiste de una terna ordenada, denotada usualmente por (, F , P ), en donde es un conjunto arbitrario, F es una - algebra de subconjuntos de , y P es una medida de probabilidad denida sobre F . Explicamos a continuaci on brevemente cada uno de estos elementos. Espacio muestral. El conjunto es llamado espacio muestral o espacio muestra, y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti on. No es imprescindible darle esta interpretaci on al conjunto , y matem aticamente se le considera entonces como un conjunto arbitrario. - algebra. Una clase o colecci on no vac a F de subconjuntos de es una - algebra si es cerrada bajo las operaciones de tomar complementos y uniones numerables. A los elementos de una - algebra se les llama eventos o conjuntos medibles1 . En particular, un evento es simple si consta de a lo m as un elemento de , y es compuesto cuando consta de dos o m as elementos de .
1 Debido a su uso extendido, se usa el t ermino medible, aunque tal vez lo correcto sea decir mensurable.

Medida de probabilidad. Una funci on P denida sobre una - algebra F y con valores en el intervalo [0, 1] es una medida de probabilidad si P () = 1, es no negativa, y es -aditiva, es decir, P(

An ) =

P (An ),

n=1

n=1

cuando A1 , A2 , . . . F son ajenos dos a dos, esto es, Ai Aj = para valores de i y j distintos. El n umero P (A) representa una forma de medir la posibilidad de observar la ocurrencia del evento A, al efectuar una vez el experimento aleatorio. Tenemos entonces formalmente la siguiente denici on.

Denici on (Espacio de probabilidad). Un espacio de probabilidad es una terna (, F , P ), en donde es un conjunto arbitrario, F es una - algebra de subconjuntos de , y P es una medida de probabilidad denida sobre F .

En este primer cap tulo se estudian con m as detalle los conceptos de - algebra y medida de probabilidad. Empecemos con el primero.

1.2.

- algebras

En esta secci on se estudia el concepto de - algebra y se dene la m nima - algebra generada por una colecci on arbitraria. Recordemos nuevamente la denici on de esta estructura.

Denici on ( - algebra). Una colecci on F de subconjuntos de es una - algebra si cumple las siguientes condiciones: 1. F . 2. Si A F , entonces Ac F . 3. Si A1 , A2 , . . . F , entonces
n=1

An F .

A la pareja (, F ) se le llama espacio medible y a los elementos de F se les llama eventos o conjuntos medibles.

En palabras, una - algebra es una colecci on de subconjuntos de que es no vac a y cerrada bajo las operaciones de tomar complemento y efectuar uniones innitas numerables. En probabilidad elemental el conjunto denota el espacio muestral o conjunto de posibles resultados de un experimento aleatorio, y los elementos de F representan eventos en el experimento aleatorio. Una - algebra es entonces una 6

estructura que nos permite agrupar ciertos subconjuntos de de inter es, aquellos a los cuales se desea calcular su probabilidad, y esta estructura constituye el dominio de denici on de una medida de probabilidad. A menudo no pueden denirse medidas de probabilidad sobre colecciones de subconjuntos m as grandes o naturales, como podr a ser 2 , la teor a de la medida garantiza que por lo menos el concepto de medida de probabilidad, con los axiomas mencionados antes, puede obtenerse sobre - algebras, y por ello es que estudiamos estas estructuras. En general existen varias - algebras que pueden asociarse a un conjunto cualquiera no vac o como se muestra a continuaci on. Ejemplo Sea un conjunto cualquiera no vac o. Las siguientes colecciones son - algebras de subconjuntos de . a) F1 = {, }. b) F2 = {, A, Ac , }, en donde A . c) F3 = 2 , conjunto potencia. Es f acil vericar que las tres condiciones de la denici on de - algebra se cumplen para cada caso en el ejemplo anterior. La - algebra del inciso (a) es la - algebra m as peque na que podemos asociar a un conjunto cualquiera , y la - algebra del inciso (c) es la m as grande. En el siguiente diagrama puede observarse gr acamente una - algebra como una colecci on de subconjuntos de .

A D

Una - algebra es una colecci on F = {A, B, C, D, E, . . .} de subconjuntos de que es no vac a y es cerrada bajo complementos y uniones numerables.

Ejemplo Sean A y B subconjuntos de tales que A B . La colecci on F = {, A, B, Ac , B c , B A, (B A)c , } 7

es una - algebra de subconjuntos de que contiene expl citamente a los conjuntos A y B . Esto puede vericarse directamente con la ayuda de un diagrama de Venn. En la secci on de ejercicios se pueden encontrar algunos otros ejemplos de - algebras. El uso de la letra F para denotar una - algebra proviene del nombre en ingl es eld que signica campo. A menudo se usa tambi en el t ermino -campo en lugar de - algebra. Observe con cuidado el uso y signicado de los s mbolos de contenci on y pertenencia: A y A F . Demostraremos a continuaci on algunas otras propiedades que satisface cualquier - algebra.

Proposici on. Sea F una - algebra de subconjuntos de . Entonces 1. F . 2. Si A1 , A2 , . . . F , entonces

n=1

An F .

3. Si A, B F , entonces A B F . 4. Si A, B F , entonces AB F .

Demostraci on. (1) Como F y F es una colecci on cerrada bajo complementos c c entonces = F . (2) Si A1 , A2 , . . . F , entonces Ac 1 , A2 , . . . F . Por lo tanto c n=1 An F . Tomando complementos y usando las leyes de De Morgan se obtiene el resultado. Las proposiciones (3) y (4) se siguen de lo demostrado antes y de las deniciones A B = A B c , y AB = (A B ) (B A). La proposici on anterior establece entonces que las - algebras son estructuras tambi en cerradas bajo las operaciones de diferencia e intersecciones numerables. En la secci on de ejercicios pueden encontrarse algunas otras deniciones de - algebra equivalentes a la que hemos enunciado, y que involucran las operaciones de la proposici on anterior. Una operaci on de particular importancia es aquella en la que se intersectan dos - algebras produciendo una nueva - algebra. Este es el contenido del siguiente resultado.

Proposici on. La intersecci on de dos - algebras es una - algebra.

Demostraci on. Sean F1 y F2 dos - algebras de subconjuntos de . Entonces F1 F2 es aquella colecci on de subconjuntos de cuyos elementos pertenecen tanto a F1 como a F2 . Demostraremos que F1 F2 es una - algebra. (1) Como F1 y F2 8

son - algebras entonces F1 y F2 . Por lo tanto F1 F2 . (2) Sea A un elemento en F1 F2 . Entonces A F1 y A F2 . Por lo tanto Ac F1 y Ac F2 , es decir, Ac F1 F2 . (3) Sea A1 , A2 , . . . una sucesi on de elementos en F1 F2 . Entonces A1 , A2 , . . . F1 y A1 , A2 , . . . F2 . Por lo tanto n=1 An F1 y A F , es decir, A F F . 2 1 2 n=1 n n=1 n Hemos entonces comprobado que si F1 y F2 son dos - algebras de un mismo conjunto , entonces F1 F2 es nuevamente una - algebra de subconjuntos de , naturalmente m as peque na que F1 y F2 en el sentido F1 F2 F1 , F2 . La siguiente pregunta consiste en vericar si la uni on de dos - algebras produce nuevamente una - algebra. En este caso la respuesta es negativa. En general no es cierto que la uni on de dos - algebras produce una nueva - algebra. V eanse por ejemplo los Ejercicios 10 y 11 a este respecto. Por otro lado se puede extender la validez de la proposici on reci en demostrada a intersecciones m as generales como indica el siguiente resultado.

Proposici on. La intersecci on nita, innita numerable o bien arbitraria de a lgebras es nuevamente una - algebra.

Demostraci on. Sea T un conjunto arbitrario distinto del vac o. Suponga que para cada t en T se tiene una - algebra Ft de subconjuntos de . Sea F = tT Ft . Siguiendo los mismos pasos que en la demostraci on anterior es f acil probar que F es una - algebra. Observe que como T es un conjunto arbitrario, la - algebra F es efectivamente una intersecci on arbitraria de - algebras. El resultado anterior garantiza que la siguiente denici on tiene sentido.

Denici on ( - algebra generada). Sea C una colecci on no vac a de subconjuntos de . La - algebra generada por C , denotada por (C ), es la colecci on (C ) = {F : F es - algebra y C F }.

Es decir, la colecci on (C ) es la intersecci on de todas aquellas - algebras que contienen a C . Por la proposici on anterior sabemos que (C ) es una - algebra. A (C ) tambi en se le llama m nima - algebra generada por C , y el adjetivo m nima es claro a partir del hecho de que es la - algebra m as peque na que contiene a la colecci on C . Es decir, si F es una - algebra que contiene a C entonces forzosamente (C ) F . Observe que C (C ) pues a la colecci on C se le han a nadido posiblemente algunos otros subconjuntos para convertirla en la - algebra (C ). 9

Ejemplo Sean A, B con A B = . Dena la colecci on C = {A, B }. En general esta colecci on no es una - algebra pero podemos a nadirle algunos subconjuntos de para encontrar la - algebra generada por C . Esto es (C ) = {, A, B, (A B )c , A B, Ac , B c , }. No es dif cil vericar que esta es la m nima - algebra que contiene a la colecci on C . Los siguientes dos resultados son proposiciones sencillas y naturales acerca de a lgebras generadas. Las demostraciones son cortas pero requieren algunos momentos de reexi on en una primera lectura.

Proposici on. Sean C1 y C2 dos colecciones de subconjuntos de tales que C1 C2 . Entonces (C1 ) (C2 ).

Demostraci on. Claramente C1 C2 (C2 ). Entonces (C2 ) es una - algebra que contiene a la colecci on C1 . Por lo tanto (C1 ) (C2 ).

Proposici on. Si F es una - algebra, entonces (F ) = F .

Demostraci on. Sabemos que F (F ). Como F es una - algebra que contiene a F , entonces (F ) F . Esto demuestra la igualdad.

Otras estructuras de subconjuntos


En esta secci on se presentan los conceptos de a lgebra y semi- algebra, y su relaci on con - algebras. No estudiaremos estas estructuras con detalle pero las mencionamos porque desempe nan un papel importante en la construcci on y extensi on de medidas de probabilidad.

10

Denici on ( algebra). Una colecci on F de subconjuntos de es una a lgebra si cumple las siguientes condiciones: 1. F . 2. Si A F , entonces Ac F .
n

3. Si A1 , . . . , An F , entonces

k =1

Ak F .

La diferencia entre una a lgebra y una - algebra estriba en que para la primera se pide que sea una colecci on cerrada bajo uniones nitas mientras que la segunda es una colecci on cerrada bajo uniones innitas numerables. Claramente toda - algebra es una a lgebra.

Denici on (semi algebra) Una colecci on F de subconjuntos de es una semi algebra si cumple las siguientes condiciones: 1. F . 2. Si A, B F , entonces A B F . 3. Si A, A1 F son tales que A1 A, entonces existen A2 , . . . , An F tales que
n

A=
k =1

Ak ,

en donde A1 , A2 , . . . , An son ajenos dos a dos.

Los conceptos de - algebra, a lgebra y semi algebra est an relacionados como se muestra en la siguiente gura. En la secci on de ejercicios se pide demostrar las implicaciones y no implicaciones que se obtienen de este diagrama.

11

- algebras

a lgebras semi algebras

Relaci on general entre - algebras, a lgebras y semi algebras.

En la siguiente secci on se estudia un ejemplo importante de una - algebra de subconjuntos de los n umeros reales: la - algebra de Borel.

Conjuntos de Borel
Considere la colecci on de todos los intervalos abiertos (a, b) de R, en donde a b. A la m nima - algebra generada por esta colecci on se le llama - algebra de Borel de R, y se le denota por B (R).

Denici on ( - algebra de Borel de R).

B (R) = {(a, b) R : a b}.

A los elementos de B (R) se les llama conjuntos de Borel , Borelianos o conjuntos Borel medibles. De esta forma se puede asociar la - algebra B (R) al conjunto de n umeros reales, y obtener as el espacio medible (R, B (R)). Se muestran a continuaci on algunos elementos expl citos de la - algebra B (R).

Proposici on. Para cualesquiera n umeros reales a b, los intervalos [a, b], (a, ), (, b), [a, b), (a, b], {a}, son todos elementos de B (R).

Demostraci on. Primeramente observe que los intervalos cerrados [a, b] son conjuntos Borelianos, pues podemos escribirlos en t erminos de una intersecci on numerable de intervalos abiertos de la siguiente forma

12

[a, b] =

n=1

(a

1 1 , b + ). n n

Observe que cada elemento de la intersecci on anterior es un conjunto Boreliano. Siendo B (R) una - algebra, la intersecci on innita es un elemento de B (R). De esta forma se concluye que cada intervalo cerrado es un elemento de B (R). Asi mismo tenemos que (a, ) = y Por lo tanto [a, ) = y (, b] =

(, b) =

n=1 n=1

(a, a + n) B (R), (b n, b) B (R).

n=1 n=1

(a

1 , ) B (R), n 1 ) B (R). n

(, b +

De forma an aloga se puede hacer ver que los intervalos semiabiertos de la forma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de un solo n umero tambi en son conjuntos Borelianos pues {a} =

n=1

(a

1 1 , a + ). n n

Complementos, intersecciones y uniones numerables de estos conjuntos son todos ellos Borelianos. Adem as de la denici on enunciada, existen otras formas equivalentes de generar a los conjuntos Borelianos. Este es el contenido de la siguiente proposici on.

Proposici on. Las siguientes - algebras son todas id enticas a B (R). a) {[a, b] : a b}. b) {(a, b] : a b}. c) {[a, b) : a b}. d) {(a, ) : a R}. e) {(, b) : b R}.

13

Demostraci on. Se prueba u nicamente el primer inciso. El resto de ellos se demuestra usando el mismo procedimiento. Para demostrar que B (R) = {[a, b] : a b} se verican ambas contenciones. Claramente [a, b] B (R), por lo tanto {[a, b] : a b} B (R). Entonces {[a, b] : a b} B (R). Ahora se demuestra la contenci on contraria. Sabemos que (a, b) {[a, b] : a b} 1 1 pues (a, b) = n=1 [a + n , b n ]. Entonces {(a, b) : a b} {[a, b] : a b}. Por lo tanto B (R) = {[a, b] : a b}. De manera equivalente se puede denir a B (R) como la m nima - algebra generada por una colecci on m as grande, aquella de todos los subconjuntos abiertos de R. En ambos casos la - algebra generada es B (R). Es natural preguntarse si la colecci on B (R) contiene a todos los subconjuntos de R. La respuesta es negativa, es decir, puede demostrarse que existe un subconjunto de R que no pertenece a la colecci on B (R). La construcci on del tal conjunto no es sencilla, y puede obtenerse indirectamente de la siguiente forma: la colecci on B (R) est a contenida en una clase m as amplia llamada la colecci on de conjuntos Lebesgue medibles de R, y se demuestra que existen subconjuntos de R que no son Lebesgue medibles, y por tanto tampoco Borel medibles. Los detalles de estas armaciones pueden encontrarse en textos de teor a de la medida, como por ejemplo [3]. Es posible tambi en considerar la - algebra de conjuntos de Borel restringidos a una porci on de los n umeros reales como se indica a continuaci on.

Denici on. Sea A B (R). La - algebra de Borel de A, denotada por B (A) o A B (R), se dene como sigue B (A) = {A B : B B (R)}.

No es dif cil comprobar que B (A) es efectivamente una - algebra de subconjuntos de A. Observe que el nuevo conjunto total es A y no R. El concepto de - algebra de Borel de R puede extenderse a dimensiones mayores de la siguiente forma. Considere la colecci on C de todas los rect angulos abiertos de R2 , es decir, C = {(a, b) (c, d) : a b, c d}. Se denen los conjuntos de Borel de R2 como los elementos de la m nima - algebra generada por la colecci on C , es decir, B (R2 ) = (C ). De manera equivalente se aloga se dene B (Rn ) usando puede denir B (R2 ) = (B (R) B (R)). En forma an productos cartesianos de intervalos. 14

Denici on ( - algebra de Borel de Rn ).

B (Rn ) = (B (R) B (R)).

En general el producto cartesiano de dos - algebras no es una - algebra de subconjuntos del espacio producto, de modo que debe anteponerse la operaci on a tal colecci on para convertirla en una - algebra.

Sucesiones de eventos
En esta secci on se estudia el concepto de convergencia de una sucesi on innita de eventos. Para enunciar tal concepto necesitaremos antes las deniciones de l mite superior y l mite inferior para conjuntos que se establecen a continuaci on. Estas deniciones son an alogas al caso de sucesiones num ericas como puede consultarse en el ap endice al nal del texto.

Denici on (L mite superior e inferior). Para una sucesi on de eventos {An : n N}, se dene el l mite superior y el l mite inferior como sigue: 1. l m sup An =
n

Ak .

n=1 k =n

2. l m inf An =
n

Ak .

n=1 k =n

Tanto el l mite superior como el l mite inferior son operaciones bien denidas, es decir, el resultado siempre existe y es u nico. En cada caso, el conjunto resultante es siempre un evento, es decir, un conjunto medible. Es sencillo tambi en comprobar que l m inf An l m sup An .
n n

Tampoco es dif cil vericar que un elemento pertenece al evento l m sup An si y s olo si pertenece a una innidad2 de elementos de la sucesi on. Por otro lado un elemento pertenece al evento l m inf An si, y s olo si, pertenece a todos los elementos de la n sucesi on excepto un n umero nito de ellos. Con estos elementos podemos ahora establecer la denici on de convergencia de una sucesi on de eventos.
2

En textos de habla inglesa a menudo se escribe l m sup An = (An i.o.), en donde i.o. signica
n

innitely often.

15

Denici on (Convergencia de eventos). Sea {An : n N} una sucesi on de eventos. Si existe un evento A tal que m sup An = A, l m inf An = l
n n

entonces se dice que la sucesi on converge al evento A, y se escribe


n

l m An = A.

Para calcular el posible l mite de una sucesi on de eventos debemos entonces calcular el l mite superior y el l mite inferior, y cuando el resultado de ambas operaciones coincida en el mismo evento, entonces a tal resultado com un se le llama el l mite de la sucesi on. Por supuesto que no todas las sucesiones de eventos convergen. Mostramos a continuaci on que en particular toda sucesi on mon otona es convergente. M as adelante presentaremos algunos ejemplos concretos de sucesiones de eventos y en la secci on de ejercicios se encuentran algunos otros.

Proposici on. Sea {An : n N} una sucesi on mon otona de eventos. 1. Si A1 A2 , entonces l m An =
n n=1 n=1

An .

2. Si A1 A2 , entonces l m An =
n

An .

Demostraci on. (1) Como la sucesi on es creciente, entonces


k =n k =n

Ak =

k =1

Ak ,

y Por lo tanto l m sup An =


n

Ak = An .

Ak = Ak =

Ak =

k =1

Ak ,

l m inf An =
n

n=1 k =n n=1 k =n

n=1 k =1 n=1

An .

(2) La demostraci on es completamente an aloga al inciso anterior. En este caso como 16

la sucesi on es decreciente se tiene que


k =n k =n

Ak =

k =1

Ak ,

y Entonces l m sup An =
n

Ak = An .

Ak = Ak =

l m inf An =
n

n=1 k =n n=1 k =n

An , n=1
n=1 k =1

Ak =

k =1

Ak .

Ejemplo Para cada n umero natural n dena An = [1/n, 0] si n es impar, y An = [0, 1/n] si n es par. Entonces l m An = {0} pues
n

l m sup An =
n

Ak = Ak =

l m inf An =
n

n=1 k =n n=1 k =n

n=1 n=1

[1/n, 1/n] = {0}, {0} = {0}.

El siguiente resultado establece que a partir de una sucesi on de eventos puede construirse otra sucesi on cuyos elementos son ajenos dos a dos y cuya uni on es la uni on de la sucesi on original. Este procedimiento de separaci on ser a de utilidad m as adelante.

Proposici on. Sea {An : n N} una sucesi on de eventos. Dena B1 = A1 , y Bn = An


n1 k =1

Ak ,

para n 2.

Entonces {Bn : n N} es una sucesi on de eventos con las siguientes propiedades: 1. Bn An . 2. Bn Bm = , si n = m. 3.


n=1 n=1

Bn =

An .

17

Demostraci on. El inciso (1) es evidente a partir de la denici on de Bn . Para demostrar (2) suponga n < m, entonces Bn Bm = (An = (An = .
n1 k =1 n1 k =1

Ak ) (Am Ac k ) (Am

m1 k =1 m1 k =1

Ak )

Ac k)

An Ac n Ahora se demuestra (3) considerando cada contenci on por separado. Como cada Bn est a contenido en An entonces el lado izquierdo de (3) es efectivamente un subconjunto del lado derecho. Por el contrario, sea x un elemento en n=1 An . Entonces existe un ndice n tal que x An . Sea n0 el primer ndice tal que x An0 y x / Aj 0 1 para 1 j n0 1. Entonces x An0 n A = B . Por lo tanto x pertenece n n 0 n=1 a n=1 Bn .

1.3.

Medidas de probabilidad

En esta secci on y en lo que resta del presente cap tulo se estudian algunas propiedades de las medidas de probabilidad. Empezaremos por recordar nuevamente la denici on de este concepto.

Denici on (Medida de probabilidad). Sea (, F ) un espacio medible. Una medida de probabilidad es una funci on P : F [0, 1] que satisface 1. P () = 1. 2. P (A) 0, para cualquier A F . 3. Si A1 , A2 , . . . F son ajenos dos a dos, esto es, An Am = para n = m, entonces P (

An ) =

P (An ).

n=1

n=1

Entonces toda funci on P denida sobre una - algebra F , con valores en el intervalo [0, 1] y que cumpla los tres postulados anteriores se le llama medida de probabilidad. Estos axiomas fueron establecidos por Kolmogorov en 1933. En particular, la tercera propiedad se conoce con el nombre de -aditividad.

18

Andrey Nikolaevich Kolmogorov (Rusia 19031987). Fuente: Archivo MacTutor, Universidad de St. Andrews.

Veamos algunos ejemplos de medidas de probabilidad. Ejemplo (Probabilidad cl asica). Considere un experimento aleatorio con espacio muestral un conjunto nito . Asocie al conjunto la - algebra el conjunto potencia 2 . Para cualquier A dena P (A) = #A . #

Entonces P es una medida de probabilidad, y es llamada probabilidad cl asica. De acuerdo a esta denici on, para calcular la probabilidad de un evento es necesario entonces conocer su cardinalidad. De esta forma de calcular probabilidades surgen muchos y muy variados problemas de conteo, algunos de los cuales pueden ser complicados de resolver. Ejemplo. Considere un experimento aleatorio con espacio muestral el conjunto de n umeros naturales N. Asocie al conjunto N la - algebra el conjunto potencia 2N . Para cualquier A N dena 1 P (A) = . 2n
nA

No es dif cil vericar que P es efectivamente una medida de probabilidad.

Ejemplo. Considere el espacio medible (R, B (R)). Sea f : R R una funci on no negativa y continua, tal que su integral sobre el intervalo (, ) es uno. Para cualquier A en B (R) dena P (A) =
A

f (x) dx.

Se puede demostrar que P es una medida de probabilidad.

Ejemplo (Probabilidad geom etrica). Sea R2 una regi on tal que su a rea es positiva y nita. Sea F una - algebra de subconjuntos de para los cuales el concepto de a rea est e bien denido. Para cada A en F dena P (A) = Area (A) . Area () 19

La funci on P , que resulta ser una medida de probabilidad, es llamada probabilidad geom etrica, y puede denirse este concepto en espacios de dimensi on mayor. En la siguiente secci on estudiaremos algunas propiedades generales que cumple toda medida de probabilidad, y a lo largo del texto estudiaremos varios modelos particulares para calcular probabilidades.

Propiedades elementales
A partir de los postulados enunciados en la secci on anterior es posible demostrar una extensa serie de propiedades que cumplen todas las medidas de probabilidad. En esta secci on se estudian algunas propiedades elementales y m as adelante se demuestran otras propiedades m as avanzadas.

Proposici on. Sea P una medida de probabilidad. Entonces 1. P () = 0. 2. Si A1 , A2 , . . . , An F son ajenos dos a dos, entonces
n n

P(
k =1

Ak ) =
k =1

P (Ak ).

3. P (Ac ) = 1 P (A). 4. Si A B , entonces P (B A) = P (B ) P (A). 5. Si A B , entonces P (A) P (B ). 6. 0 P (A) 1. 7. P (A B ) = P (A) + P (B ) P (A B ). 8. P (A B ) P (A) + P (B ).

Demostraci on. Como = , por la -aditividad se tiene que P () =


n=1

P (),

lo cual sucede u nicamente cuando P () = 0. Para la propiedad (2) se toma An+1 = An+2 = = , y la igualdad se obtiene al aplicar la -aditividad y la propiedad anterior. Para la propiedad (3) expresamos a como la uni on disjunta A Ac . Aplicamos P y obtenemos la igualdad requerida. Para demostrar (4) escribimos 20

B = A (B A). Aplicando P obtenemos P (B ) P (A) = P (B A). Como la probabilidad de cualquier evento es un n umero no negativo, de la igualdad anterior obtenemos tambi en la propiedad (5). La primera desigualdad de la propiedad (6) es el segundo axioma, y la segunda es consecuencia de la propiedad (5) cuando B = y el primer axioma. Finalmente para demostrar (7) descomponemos el evento A B como la siguiente uni on de tres eventos disjuntos dos a dos: A B = (A B ) (A B ) (B A) = (A A B ) (A B ) (B A B ). Por lo tanto P (A B ) = P (A) P (A B ) + P (A B ) + P (B ) P (A B ). La propiedad (8) es consecuencia de la anterior y el segundo axioma. La propiedad (2) establece que las probabilidades son funciones nitamente aditivas, y la propiedad (5) que son funciones mon otonas. La desigualdad (8) dice que las probabilidades son funciones nitamente subaditivas. Veamos algunas otras propiedades de las medidas de probabilidad.

Proposici on (Desigualdades de Boole). Sea {An : n N} una sucesi on de eventos. Entonces 1. P (

n=1

An )

n=1

P (An ).
n=1

2. P (

n=1

An ) 1

P (Ac n ).

Demostraci on. Para la primera desigualdad tome B1 = A1 , y para n 2 dena Bn = An


n1 k =1

Ak .

Entonces {Bn : n N} es una sucesi on de eventos disjuntos dos a dos tales que Bn An y A = B . Esto es consecuencia de la Proposici on 1.2 de la n n n=1 n=1 p agina 17. Por lo tanto P(

An ) = P ( =
n=1 n=1

Bn )

n=1

n=1

P (Bn ) P (An ).

La segunda desigualdad se sigue de la primera tomando complementos.

21

Proposici on. Sea {An : n N} una sucesi on de eventos. 1. Si P (An ) = 1 para toda n, entonces P (
n=1 An )

= 1. = 1. = 0.

2. Si P (An ) = 1 para alguna n, entonces P ( 3. Si P (An ) = 0 para alguna n, entonces P ( 4. Si P (An ) = 0 para toda n, entonces P (

n=1 An ) n=1 An )

n=1 An )

= 0.

Demostraci on. (1) Por las leyes de De Morgan y la desigualdad de Boole, P(

n=1

An ) = 1 P ( 1 = 1.

Ac n)

n=1

P (Ac n)

n=1

(2) Como An (3) Como


n=1

n=1

An , se tiene que 1 = P (An ) P (

An ).

n=1

An An , entonces P (

(4) Por la desigualdad de Boole, P (

n=1

An ) P (An ) = 0.
n=1

n=1

An )

P (An ) = 0.

Las propiedades (1) y (4) de la proposici on anterior pueden interpretarse de la siguiente forma. Intersectar dos eventos produce en general un evento m as peque no o por lo menos no mayor a los intersectandos. Sin embargo la propiedad (1) establece que la intersecci on, a un innita, de eventos con probabilidad uno produce un evento con probabilidad todav a uno. An alogamente, unir dos eventos produce en general un evento mayor, pero por la propiedad (4), la uni on, a un innita, de eventos con probabilidad cero tiene probabilidad que se mantiene en cero.

Continuidad
Ahora demostraremos que las medidas de probabilidad son funciones continuas. Primero se prueba este resultado para dos tipos de sucesiones particulares, aquellas que son mon otonas crecientes o decrecientes, y despu es se prueba en general. Empezaremos con el caso de sucesiones crecientes.

22

Proposici on. Sea {An : n N} una sucesi on no decreciente de eventos, esto es, A1 A2 . Entonces P(

An ) = l m P (An ).
n

n=1

Demostraci on. Como An An+1 tenemos que P (An ) P (An+1 ). Por lo tanto la sucesi on num erica {P (An ) : n N} es no decreciente y acotada superiormente por uno. Entonces el l mite de esta sucesi on existe y el lado derecho de la igualdad tiene sentido. Dena los eventos B1 = A1 , y Bn = An An1 ,

para n 2.

on de eventos disjuntos dos a dos, y es tal La sucesi on {Bn : n N} es una colecci que An = Bn .
n=1 n=1

Por lo tanto P(

An ) = P ( =
n=1

Bn )

n=1

n=1

P (Bn )
n=2 n=2 n=2

= P (B1 ) + = P (A1 ) + = P (A1 ) +

P (Bn ) P (An An1 ) P (An ) P (An1 )


m

= P (A1 ) + l m

m m

n=2

P (An ) P (An1 )

= P (A1 ) + l m P (Am ) P (A1 ) =


m

l m P (Am ).

Las medidas de probabilidad tambi en son continuas respecto de sucesiones no crecientes de eventos. Esta armaci on es el contenido del siguiente resultado que se demuestra a partir de la proposici on anterior. 23

Proposici on. Sea {An : n N} una sucesi on no creciente de eventos, esto es, A1 A2 . Entonces P(

An ) = l m P (An ).
n

n=1

c Demostraci on. Observe que si An An+1 entonces Ac on n An+1 . Por la proposici anterior,

P(

Ac m P (Ac n ) = l n ).
n

n=1

Aplicando las leyes de De Morgan, 1 P(

n=1

An ) = l m (1 P (An )),
n

de donde se sigue inmediatamente el resultado. Ejemplo (El problema del mono). Un mono escribe caracteres al azar en una m aquina de escribir. Cu al es la probabilidad de que eventualmente obtenga exactamente, y sin ning un error, las obras completas de Shakespeare?

Mono escribiendo al azar.

Demostramos a continuaci on que la probabilidad de este raro evento es uno. Imagine entonces que un mono escribe caracteres al azar en una m aquina de escribir, y que lo hace de manera continua generando una sucesi on lineal de caracteres. Sea m el total de caracteres disponibles, y sea N el total de caracteres de los que constan las obras completas de Shakespeare. Segmentamos el arreglo lineal de caracteres generados por el mono en bloques disjuntos de N caracteres, uno despu es de otro, y observamos si alg un bloque contiene las obras de Shakespeare. Por ejemplo, Xku aT s hwW pzq Ot
N N

24

Para cada n umero natural k dena el evento Ak correspondiente a que el k- esimo bloque contiene exactamente y sin error alguno las obras completas de Shakespeare. Observe que los eventos Ak son independientes pues los bloques no se sobreponen, c adem as P (Ak ) = (1/m)N = p. Dena Bk = Ac 1 Ak , que indica el evento de que el mono no obtenga exito en los primeros k bloques. Observe que Bk+1 Bk , es decir la sucesi on es decreciente, por lo tanto
k

l m Bk =

k =1

Bk ,

en donde el evento exito. Entonces

k =1 Bk

se interpreta como aquel en el que el mono nunca tiene

P(

k =1

Bk ) = l m P (Bk ) = l m (1 p)k = 0.
k k

Por lo tanto la probabilidad de que eventualmente el mono obtenga exito es uno. Ahora se enuncia un resultado m as fuerte. La siguiente proposici on establece que las medidas de probabilidad son funciones continuas. Esta propiedad es muy u til pues permite el c alculo de probabilidades en procedimientos l mite, y se encuentra siempre presente de manera impl cita en toda la teor a que se desarrolla m as adelante.

Proposici on (Continuidad de la probabilidad). Sea {An : n N} una sucesi on de eventos convergente al evento A. Entonces
n

l m P (An ) = P (A).

Demostraci on. La prueba se basa en las siguientes dos desigualdades: a) l m sup P (An ) P (l m sup An ).
n n

b) P (l m inf An ) l m inf P (An ).


n n

Como la sucesi on de eventos {An : n N} es convergente al evento A entonces l m sup An = l m inf An = A.


n n

Se sigue entonces de las desigualdades (a) y (b) que l m sup P (An ) P (l m sup An )
n n

= P (A)

= P (l m inf An ) l m inf P (An ).


n n

25

De donde se concluye el resultado. Nos concentraremos ahora en demostrar las desigualdades enunciadas. (a) Como An k =n Ak , entonces P (An ) P (

Ak ),

k =n

en donde { on decreciente de eventos. Tomando el k =n Ak : n N} es una sucesi l mite superior se obtiene m sup P ( l m sup P (An ) l
n n

Ak )

l m P (

k =n

Ak ) Ak )

= P ( l m = P(

k =n k =n

Ak )

n=1 k =n

= P (l m sup An ).
n k =n Ak

(b) Como

An , entonces P(

k =n

Ak ) P (An ),

en donde { on creciente de eventos. Tomando el l mite k =n Ak : n N} es una sucesi inferior se obtiene l m inf P (An ) l m inf P (
n n

Ak )

l m P (

k =n

Ak ) Ak )

= P ( l m = P(

k =n k =n

Ak )

n=1 k =n

= P (l m inf An ).
n

Ejemplo. Se lanza un dado equilibrado una innidad de veces. Sea el evento A = {2, 4, 6}, y sea An el evento correspondiente a obtener el evento A en cada uno de los 26

primeros n lanzamientos del dado. Entonces claramente An An+1 para cualquier n en N. Por lo tanto
n

l m An =

An .

n=1

Entonces P(

An ) = P ( l m An )
n

n=1

= =

1 n 2n = 0. l m El evento n=1 An se interpreta como aquel resultado en el que siempre se obtiene un n umero par en una sucesi on innita de lanzamientos. Hemos demostrado que la probabilidad de tal evento es cero. En consecuencia la probabilidad de que eventualmente aparezca un n umero impar es uno. Observe que el argumento presentado funciona de la misma forma cuando el evento A es cualquier subconjunto propio de distinto del vac o. Por ejemplo, si A = {1, 2, 3, 4, 5}, entonces la probabilidad de nunca obtener 6 es cero. Por lo tanto, con probabilidad uno, cada una de las caras del dado aparecer a eventualmente.

l m P (An )

1.4.

Independencia de eventos

En esta secci on se dene el concepto importante de independencia de eventos. Este es un concepto central en la teor a de la probabilidad y uno de sus rasgos distintivos. De manera natural la independencia aparecer a con frecuencia a lo largo del texto a partir de ahora, y ayudar a a simplicar el c alculo de probabilidades. La denici on matem atica es la siguiente.

Denici on (Independencia de dos eventos). Dos eventos A y B son independientes, y se escribe A B , cuando P (A B ) = P (A)P (B ).

Aceptar la hip otesis de que dos eventos son independientes es una cuesti on de apreciaci on por parte del observador. Puede interpretarse en el sentido de que la ocurrencia de uno de los eventos no proporciona informaci on que modique la probabilidad de ocurrencia del segundo evento. Contrario a alguna primera concepci on intuitiva err onea, el hecho de que dos eventos sean independientes no implica que ellos sean 27

ajenos. La proposici on contraria tampoco es v alida, dos eventos ajenos no necesariamente son independientes. La denici on de independencia puede extenderse a colecciones nitas e incluso innitas de eventos del siguiente modo.

Denici on (Independencia de n eventos). Los eventos A1 , . . . , An son independientes si se cumplen todas y cada una de las siguientes condiciones: P (Ai Aj ) = P (Ai )P (Aj ), i, j distintos. (1.1) (1.2)

P (Ai Aj Ak ) = P (Ai )P (Aj )P (Ak ), i, j, k distintos. . . . P (A1 A2 An ) = P (A1 )P (A2 ) P (An ).

M as generalmente, una colecci on innita de eventos es independiente si cualquier subcolecci on nita lo es.

Observe que seg un la denici on anterior, se necesitan vericar o suponer varias condiciones para que n eventos sean independientes entre s . De hecho el n umero n on usaremos el hecho total de igualdades a demostrar es 2 n1. En la siguiente secci c de que si A1 , . . . , An son independientes, entonces los eventos Ac en 1 , . . . , An tambi son independientes. Es posible adem as demostrar que la independencia dos a dos, igualdad (1.1), no implica en general la independencia tres a tres, igualdad (1.2), ni viceversa. Tambi en se tiene la noci on de independencia entre dos colecciones de eventos, cuya denici on es la siguiente.

Denici on (Independencia de - algebras). Dos sub- - algebras F1 y F2 son independientes si para cada A en F1 y cada B en F2 se cumple P (A B ) = P (A)P (B ).

1.5.

Lema de Borel-Cantelli

Concluimos este cap tulo con el enunciado y demostraci on del famoso lema de BorelCantelli. El objetivo es demostrar este resultado y con ello poner en pr actica algunas propiedades de las medidas de probabilidad, aunque tambi en lo usaremos para demostrar la ley fuerte de los grandes n umeros en la u ltima parte del curso.

28

Proposici on (Lema de Borel-Cantelli). Sea {An : n N} una sucesi on de eventos, y dena A = l m sup An .
n

1. Si

n=1

P (An ) < , entonces P (A) = 0.


n=1

2. Si A1 , A2 , . . . son independientes y

P (An ) = , entonces P (A) = 1.

Demostraci on. (1) Para cada n en N, P (A) P (


n=1 P (An )

k =n

Ak )

k =n

P (Ak ).

Como < , el lado derecho tiende a cero cuando n tiende a innito. Esto implica que P (A) = 0. (2) Es suciente demostrar que para todo n umero natural n se cumple la igualdad P ( A ) = 1, pues la intersecci o n numerable de k =n k eventos con probabilidad uno tiene probabilidad uno. Para cada m > n, 1 P(
m

k =n

Ak ) 1 P (
m

Ak )

k =n

= P(
k =n m

Ac k) [1 P (Ak )]
m

k =n

exp(

P (Ak )).
k =n

Para obtener la u ltima expresi on se usa la desigualdad: 1 x ex , v alida para cualquier n umero real x. Como n=1 P (An ) = , el lado derecho tiende a cero cuando m tiende a innito. Por lo tanto P ( k =n Ak ) = 1 para cualquier valor de n y entonces P (A) = 1. Ejemplo (El problema del mono, nuevamente). El problema de encontrar la probabilidad de que un mono que escribe caracteres al azar eventualmente escriba las obras completas de Shakespeare puede resolverse tambi en usando el lema de Borel-Cantelli. Suponga que N es el total de caracteres de los que constan las obras completas de Shakespeare y considere nuevamente la divisi on por bloques de longitud N, x1 , . . . , xN , xN +1 , . . . , x2N , . . . El evento Ak se dene nuevamente como aquel en el que el mono tiene exito en el k- esimo bloque. Si nuevamente m denota el total de caracteres disponibles, entonon A1 , A2 , . . . constituye una ces P (Ak ) = (1/m)N . Entonces claramente la sucesi 29

N = . sucesi on de eventos independientes tales que k =1 P (Ak ) = k =1 (1/m) Entonces por la segunda parte del lema de Borel-Cantelli, P (l m supk Ak ) = 1. Ahora s olo hay que recordar que el evento l m supn An corresponde a aquel en el que una innidad de eventos Ak ocurren. Es decir, con probabilidad uno, el mono tiene, no una, sino una innidad de exitos!.

1.6.

Ejercicios
- algebras

1. Denici on alternativa de - algebra. Demuestre que F es una - algebra de subconjuntos de si y s olo si satisface las siguientes propiedades: a) F .

b ) A F Ac F . c ) A1 , A2 , . . . F

n=1

An F .

2. Denici on alternativa de - algebra. Demuestre que F es una - algebra de subconjuntos de si y s olo si satisface las siguientes propiedades: a) F .

b ) A, B F A B F . c ) A1 , A2 , . . . F
n=1

An F .

3. Sean A1 , A2 , . . . , An eventos de un espacio muestral . Demuestre que el conjunto de elementos de que pertenecen a exactamente k de estos eventos es un evento, 1 k n. 4. Sea F una - algebra de subconjuntos de . Demuestre que la colecci on F c = {F c : F F } es una - algebra. Compruebe adem as que F c = F . 5. Sea = {a, b, c, d}, y sean A = {a, b} y B = {b, c}. Dena la colecci on C = {A, B }. Claramente C no es una - algebra. Encuentre (C ). 6. Sea F una - algebra de subconjuntos de y sea A un elemento de F . Demuestre que la colecci on {A F : F F } es una - algebra de subconjuntos de A. Se usan los s mbolos FA o A F para denotar a esta colecci on. 7. Sea un conjunto no numerable. Demuestre que la siguiente colecci on es una - algebra: F = {A : A o Ac es nito o numerable}. 30

8. Sean 1 y 2 dos conjuntos arbitrarios, y sea X : 1 2 una funci on en on es donde (2 , F2 ) es un espacio medible. Demuestre que la siguiente colecci una - algebra de subconjuntos de 1 : X 1 F2 = {X 1 F : F F2 }. 9. Es la diferencia de dos - algebras una - algebra? 10. Sean F1 y F2 dos - algebras de subconjuntos de . Demuestre que F1 F2 no necesariamente es una - algebra. Para ello considere el espacio = {1, 2, 3} con F1 = {, {1}, {2, 3}, } y F2 = {, {1, 2}, {3}, }. algebras de subconjuntos de tales que F1 F2 . 11. Sean F1 y F2 dos - Demuestre que F1 F2 es una - algebra. 12. Sea T un conjunto arbitrario distinto del vac o. Suponga que para cada t en T se tiene una - algebra Ft de subconjuntos de . Demuestre con detalle que F es una - algebra. t tT 13. Sea C una colecci on de subconjuntos de . Demuestre que ( (C )) = (C ). 14. Sean A, B arbitrarios. Demuestre que la cardinalidad de {A, B } es a lo sumo 16. 15. Sean A, B arbitrarios. Encuentre expl citamente todos los elementos de {A, B }. Por el ejercicio anterior, el total de elementos en {A, B }, en el caso m as general, es 16. on nita de , es decir, la uni on de todos estos 16. Sea {A1 , . . . , An } una partici conjuntos es igual a , y la intersecci on de cualesquiera dos de ellos es vac a. Demuestre que la cardinalidad de {A1 , . . . , An } es 2n . 17. Sea {A, B, C } una partici on de . Encuentre expl citamente los ocho elementos de {A, B, C }. 18. Sea C una colecci on de subconjuntos de . Diga falso o verdadero justicando en cada caso: C (C ) 2 . 19. Demuestre que 2 es una - algebra de subconjuntos de y que no existe una - algebra de subconjuntos de que sea m as grande. 20. Demuestre que toda - algebra de un espacio muestral nito contiene un n umero par de elementos. 21. Sea un conjunto, F una - algebra de subconjuntos de y A un evento. De cada una de las dos expresiones siguientes determine la que es notacionalmente correcta. Explique su respuesta. a) F o F. b) A o A . c) F o F.

d) A F o A F. 31

- algebras, algebras y semi algebras


22. Denici on alternativa de a lgebra. Demuestre que F es una a lgebra de subconjuntos de si, y s olo si, cumple las siguientes condiciones: a) F .

b ) A, B F A B F .

23. Demuestre que F es - algebra F es a lgebra F es semi algebra. 24. a lgebra = - algebra. Sea = (0, 1] y dena la colecci on F de subconjuntos de la forma
n

(ai , bi ],
i=1

en donde (ai , bi ] (0, 1] con (ai , bi ] (aj , bj ] = para i = j y n N. Demuestre que F es una a lgebra pero no una - algebra. 25. Mediante un contraejemplo demuestre que no toda semialgebra es una algebra.

Conjuntos de Borel
26. Demuestre que N, Z y Q son elementos de B (R). 27. Demuestre que el conjunto de n umeros irracionales es un conjunto de Borel de R. 28. Demuestre que B (R) = {(a, b] : a b}. 29. Demuestre que B (R) = {[a, b) : a b}. 30. Demuestre que B (R) = {(a, ) : a R}. 31. Demuestre que B (R) = {[a, ) : a R}. 32. Demuestre que B (R) = {(, b) : b R}. 33. Demuestre que B (R) = {(, b] : b R}. 34. Sea A B (R). Demuestre que B (A) es efectivamente una - algebra de subconjuntos de A. 35. Diga falso o verdadero. Justique su respuesta.
1 1 a ) { ( n+1 ,n ] : n N } = B (0, 1]. 1 b ) { (0, n ] : n N } = B (0, 1]. 1 1 1 c ) { ( n+1 ,n ] : n N } = { (0, n ] : n N }.

36. Demuestre que B (R2 ) = {[a, b] [c, d] : a b, c d}. 32

37. - algebra producto. Demuestre que el producto cartesiano de dos - algebras no es necesariamente - algebra. Esto es, suponga que (1 , F1 ) y (2 , F2 ) son dos espacios medibles. Mediante un ejemplo muestre que F1 F2 no necesariamente es una - algebra de subconjuntos del espacio producto 1 2 . Se dene entonces la - algebra producto de la forma siguiente: F1 F2 = (F1 F2 ).

Sucesiones de eventos
38. Sea {An : n N} una sucesi on de eventos. Demuestre que a ) l m sup An es un evento. b ) l m inf An es un evento. c ) l m inf An l m sup An .
n n n n

39. Demuestre que a ) l m sup An = { : An para una innidad de valores de n}. b ) l m inf An = { : An para toda n excepto un n umero nito de ellas}.
n n

40. Suponga An Bn para cada n en N. Demuestre que a ) l m sup An l m sup Bn . m inf Bn . b ) l m inf An l c ) l m sup An l m inf Bn .
n n n n n n

41. Sea {An : n N} una sucesi on de eventos. Demuestre que a ) ( l m inf An )c = l m sup Ac n. b ) ( l m sup An )c = l m inf Ac n. c ) P ( l m inf An ) = 1 P ( l m sup Ac n ). d ) P ( l m sup An ) = 1 P ( l m inf Ac n ).
n n n n n n n n

42. Sea {An : n N} una sucesi on de eventos. Demuestre que


c a ) l m An = A l m Ac n =A .

b ) l m An = A l m 1An = 1A .
n n

El s mbolo 1A denota la funci on indicadora del conjunto A. V ease el nal del texto para la denici on y algunas propiedades de esta funci on. 43. Sea {an : n N} una sucesi on de n umeros no negativos convergente al n umero a 0. Sea An = [0, an ]. Calcule l m inf An y l m sup An .
n n

33

44. Determine si cada una de las siguientes sucesiones de conjuntos es convergente: a ) An = (1/n, 2 + (1)n ). b ) An = {(x, y ) : x2 + y 2 (1 + 1/n)n }.

c ) An = {(x, y ) : x2 + y 2 2 + sen(n/2)}.

45. Demuestre que las siguientes sucesiones de eventos no son convergentes: a ) An = si n es impar, y An = si n es par. b ) An = (0, 1 + (1/2)n ). m Bn = B . Determine si la siguiente sucesi on 46. Suponga que l m An = A, y l n n es convergente: An si n es impar, Cn = Bn si n es par. 47. Sean A y B dos eventos. Determine en cada caso si la sucesi on es convergente: a ) An = b ) An = A Ac A B
n

si n es impar, si n es par. si n es impar, si n es par.

48. Suponga que l m An = A. Demuestre que para cualquier evento B , a ) l m (An B ) = A B . b ) l m (An B ) = A B . c ) l m (An B ) = A B . d ) l m (An B ) = AB .
n n n n

49. Suponga que l m An = A y l m Bn = B . Diga falso o verdadero. Demuestre n n en cada caso. a ) l m l m (An Bm ) = A B . b ) l m l m (An Bm ) = A B . c ) l m l m (An Bm ) = A B . d ) l m l m (An Bm ) = AB .
n m n m n m n m

50. Suponga que l m An = A y l m Bn = B . Diga falso o verdadero. Demuestre n n en cada caso. a ) l m (An Bn ) = A B . b ) l m (An Bn ) = A B . c ) l m (An Bn ) = A B . d ) l m (An Bn ) = AB .
n n n n

34

Medidas de probabilidad
51. Determine completamente un espacio de probabilidad (, F , P ) para el experimento aleatorio de a ) lanzar una moneda equilibrada. b ) lanzar un dado equilibrado. c ) escoger al azar un n umero real dentro del intervalo unitario [0, 1]. d ) extraer dos bolas de una urna en donde hay dos bolas blancas y dos negras. e ) lanzar una moneda honesta hasta obtener las dos caras. on de n umeros reales. Sea {an : n N} otra 52. Sea {xn : n N} una sucesi sucesi on de n umeros reales no negativos tal que n=1 an = 1. Demuestre que la funci on P : B (R) [0, 1] denida de la siguiente forma es una medida de probabilidad. P (A) =
n=1

an 1{n : xn A} (n).

53. Sean P y Q dos medidas de probabilidad denidas sobre una misma - algebra. Demuestre que P + (1 )Q es una medida de probabilidad para cada en [0, 1]. 54. Sea P una medida de probabilidad. Determine si las siguientes funciones tambi en son medidas de probabilidad: a) 1 P . b) (1 + P )/2. c) P 2 . d) |P |. 55. Considere el espacio medible (N, 2N ). Demuestre en cada caso que P es una medida de probabilidad. Para cada A 2N dena: a ) P (A) =
nA

2/3n . 1/2n .

b ) P (A) =
nA

56. Sea = {1, 2, . . . , n}, y considere el espacio medible (, 2 ). Investigue en cada caso si P es una medida de probabilidad. Para cada A 2 dena: a ) P (A) =
k A

2k . n(n + 1)

b ) P (A) =

k A

1 (1 ). k

57. Considere el espacio medible ((0, 1), B (0, 1)). Demuestre en cada caso que P es una medida de probabilidad. Para cada A B (0, 1) dena: a ) P (A) =
A

2x dx. 3 x dx. 2 35

b ) P (A) =
A

58. Probabilidad condicional. Sea (, F , P ) un espacio de probabilidad, y sea B un evento con probabilidad estrictamente positiva. Demuestre que la probabilidad condicional denida para cada A en F como sigue: P (A | B ) = P (A B ) , P (B )

es una medida de probabilidad. En consecuencia toda propiedad v alida para P ( ) es tambi en v alida para P ( |B ). 59. Sea P una medida de probabilidad, y sean P1 ( ) = P ( |B ) y P2 ( ) = P1 ( |C ). Demuestre que P2 (A) = P (A | B C ). 60. Sea P una medida de probabilidad. Demuestre que la colecci on {A F : P (A) = 0 o P (A) = 1} es una sub - algebra de F .

Propiedades elementales
61. Demuestre que P () = 0, sin usar P () = 1. 62. Demuestre que P (A B ) P (A)P (B ) = P (Ac )P (B ) P (Ac B ). 63. Demuestre que P (A B ) m n{P (A), P (B )} P (A) m ax{P (A), P (B )} P (A B ). 64. Demuestre que P (A B C ) = P (A) + P (B ) + P (C ) +P (A B C ). 65. Demuestre que
n n

P (A B ) P (A C ) P (B C )

P(
i=1

Ai ) =
i=1

P (Ai )

i<j

P (Ai Aj )

+
i<j<k

P (Ai Aj Ak )

+ (1)n+1 P (A1 An ). 66. Demuestre que


n n

P(
i=1

Ai ) =
i=1

P (Ai )

i<j

P (Ai Aj )

+
i<j<k

P (Ai Aj Ak )

+ (1)n+1 P (A1 An ). 36

67. Demuestre que P (


k =1

Ak ) 1

P (Ac k ).
k =1

68. Demuestre que 0 P (A B ) P (A) P (A B ) P (A) + P (B ) 2. 69. Diga falso o verdadero. Demuestre en cada caso. a ) P (B A) = P (B ) P (A).

b ) P (A B ) = P (A B ) + P (B A). c ) P (A) > 0 P (A B ) > 0.

d ) P (A) > 0 P (A B ) > 0.

e ) P (A) < 1 P (A B ) < 1.

h ) P (A) = 0 P (A B ) = 0.

g ) P (A) = 0 P (A B ) = 0. i ) P (A B ) = 0 P (A) = 0.

f ) P (A) < 1 P (A B ) < 1.

k ) P (A) = 1 P (A B ) = 1. m ) P (A B ) = 1 P (A) = 1. n ) P (A B ) = 1 P (A) = 1. a ) P (A B ) P (A)P (B ). b ) P (A | B ) < P (A). l ) P (A) = 1 P (A B ) = 1.

j ) P (A B ) = 0 P (A) = 0.

70. Diga falso o verdadero. Demuestre en cada caso.

c ) P (A | B ) > P (A) P (B | A) > P (B ).

71. Teorema de probabilidad total. Sea (, F , P ) un espacio de probabilidad, y sea on de tal que cada elemento de la partici on es un {A1 , A2 , . . .} una partici evento con probabilidad estrictamente positiva. Demuestre que para cualquier evento B , P (B ) =
n=1

P (B | An )P (An ).

72. Se lanza una moneda tantas veces como indica un dado previamente lanzado. Calcule la probabilidad de que: a ) se obtengan ambas caras de la moneda igual n umero de veces. b ) se obtenga una misma cara siempre.

37

73. Teorema de Bayes. Sea (, F , P ) un espacio de probabilidad, y sea {A1 , A2 , . . .} una partici on de tal que cada elemento de la partici on es un evento con probabilidad estrictamente positiva. Demuestre que para cualquier evento B tal que P (B ) > 0, y para cualquier m 1 jo, P (Am | B ) =

P (B | Am )P (Am ) P (B |An )P (An )

n=1

74. Regla del producto. Demuestre que P (A1 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 ). 75. Desigualdad de Bonferroni. Demuestre que
n n

P(
i=1

Ai )

i=1

P (Ai )

i<j

P (Ai Aj ).

76. Desigualdad de Kounias. Demuestre que


n n n

P(
i=1

Ai ) m n{
j

i=1

P (Ai )

i=j

i=1

P (Ai Aj )}.

Continuidad
77. Se lanza una moneda honesta una innidad de veces. Demuestre que la probabilidad de que eventualmente cada una de las dos caras aparezca es uno. 78. Se lanza un dado equilibrado una innidad de veces. Demuestre que la probabilidad de que eventualmente cada una de las seis caras aparezca es uno. 79. Sea A un evento con probabilidad estrictamente positiva. Demuestre que si se efect ua una innidad de ensayos independientes del experimento aleatorio, la probabilidad de que nunca ocurra el evento A es cero.

Independencia de eventos
80. Demuestre que los eventos A y B son independientes si, y s olo si, a ) A y B c lo son. b ) Ac y B lo son. c ) Ac y B c lo son.
c 81. Demuestre que los eventos A1 , . . . , An son independientes si, y s olo si, Ac 1 , . . . , An tambi en lo son.

82. Encuentre tres eventos A, B, C tales que 38

a ) sean independientes dos a dos pero no independientes tres a tres. b ) sean independientes tres a tres pero no independientes dos a dos. 83. Demuestre que un evento A es independiente consigo mismo si, y s olo si, su probabilidad es cero o uno. 84. Demuestre que un evento que tiene probabilidad cero o uno, es independiente de cualquier otro evento. 85. Mediante un contraejemplo demuestre que a ) En general, A, B independientes = A, B ajenos. b ) En general, A, B ajenos = A, B independientes. 86. Diga falso o verdadero. Demuestre o proporcione un contraejemplo. a) b) c) d) A A. A Ac . A . A .

87. Es la independencia de dos eventos una relaci on de equivalencia? 88. Sean A1 , . . . , An independientes. Demuestre que
n n

P(
k =1

Ak ) = 1

k =1

[1 P (Ak )].

89. Sea A1 , A2 , . . . una sucesi on innita de eventos. Dena Bn =


k =n

Ak

Cn =

k =n

Ak .

Demuestre que si Bn y Cn son independientes para cada n entonces l m sup An y l m inf An tambi en son independientes. En particular, cuando l m An = A, n n entonces A tiene probabilidad cero o uno. 90. Sean A y B independientes. Demuestre que {A} y {B } son independientes.
n

Lema de Borel-Cantelli
91. Se lanza una moneda honesta una innidad de veces. Use el lema de BorelCantelli para demostrar que la probabilidad de que cada cara aparezca una innidad de veces es uno. 92. Se lanza un dado equilibrado una innidad de veces. Demuestre que con probabilidad uno cada una de las seis caras aparece una innidad de veces. 93. Sea A un evento con probabilidad positiva. Use el lema de Borel-Cantelli para demostrar que si se efect ua una innidad de ensayos independientes del experimento aleatorio, la probabilidad de que ocurra una innidad de veces el evento A, es uno.

39

Cap tulo 2

Variables aleatorias
En este cap tulo se estudian los conceptos de variable aleatoria, funci on de distribuci on, funci on de densidad y esperanza. Se estudian tambi en algunas distribuciones de probabilidad de variables aleatorias discretas y continuas particulares. A partir de ahora y en el resto del curso consideraremos como elemento base un espacio de probabilidad (, F , P ).

2.1.

Variables aleatorias

El concepto de variable aleatoria es fundamental en la teor a de la probabilidad. Una vez que enunciemos su denici on, el t ermino aparecer a con mucha frecuencia a lo largo del curso.

Denici on (Variable aleatoria). Una variable aleatoria es una funci on X : R tal que para cualquier conjunto Boreliano B , se cumple que el conjunto X 1 B es un elemento de F .

Gr acamente una variable aleatoria puede representarse de la siguiente forma:

40

X ( ) R

Una variable aleatoria es una funci on de en R.

Esto es, una variable aleatoria (v.a.) es una funci on de en R tal que la imagen inversa de cualquier conjunto Boreliano es un elemento de la - algebra del espacio de probabilidad. Esta condici on se conoce como medibilidad en teor a de la medida, y se dice entonces que dicha funci on es medible respecto de las - algebras F y B (R). En un ap endice al nal del texto aparece una secci on que contiene una discusi on breve del concepto de imagen inversa de una funci on, que para el caso de variables aleatorias puede ilustrarse gr acamente como indica la siguiente gura:

X 1

X 1 B

B R

La imagen inversa de un conjunto de Borel.

Explicamos a continuaci on la raz on t ecnica por la cual se le pide a una funci on X : R que cumpla la condici on de medibilidad. Recordemos que P es una medida de probabilidad denida sobre el espacio medible (, F ). Si X es una variable aleatoria, entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B (R)) del siguiente modo: Si B es un conjunto Boreliano denimos PX (B ) = P (X 1 B ), lo cual es posible pues el conjunto X 1 B es un elemento de F , dominio de denici on de P . La funci on PX : B (R) [0, 1] resulta ser una medida de probabilidad, y se le llama por tanto la medida de probabilidad inducida por la variable aleatoria X . De este modo se construye el espacio de probabilidad (R, B (R), PX ). Si B es un conjunto Boreliano, se usan los s mbolos X 1 B y (X B ) para denotar el conjunto { : X ( ) B }. Por ejemplo, el conjunto { : X ( ) [0, )} puede ser denotado por X 1 [0, ) o (X [0, )), o simplemente por (X 0), incluyendo los par entesis. Veamos otro ejemplo, si (a, b) es un intervalo de la recta 41

real, se puede usar el s mbolo X 1 (a, b), o (X (a, b)), o bien (a < X < b) para denotar el conjunto { : X ( ) (a, b)}. Para hacer la escritura m as corta, a menudo se omite el argumento de una v.a. X y se omite tambi en el t ermino variable aleatoria para X asumiendo, en la mayor a de las veces, que lo es. Para comprobar que una funci on X : R es realmente una variable aleatoria, la denici on requiere vericar la condici on X 1 B F para cualquier conjunto Boreliano B . En muy pocos casos tal condici on puede comprobarse de manera tan general. La siguiente proposici on establece que no es necesario demostrar la condici on de medibilidad para cualquier conjunto Boreliano B , sino que es suciente tomar intervalos de la forma (, x], para cada x en R. Este resultado, como uno puede imaginar, es de suma utilidad y lo usaremos con frecuencia en el resto del cap tulo.

Proposici on. Una funci on X : R es una variable aleatoria si, y s olo si, para cada x en R, X 1 (, x] F .

Demostraci on. () Si X es variable aleatoria, entonces claramente se cumple que para cualquier n umero real x el conjunto X 1 (, x] es un elemento de F . ()Ahora suponga que para cada real x, el conjunto X 1 (, x] es un elemento de F . Sean B y C las colecciones B = {B B (R) : X 1 B F }, C = {(, x] : x R}.

Entonces claramente C B B (R). La primera contenci on es por hip otesis, y la segunda es por denici on de la colecci on B . Suponga por un momento que B es una - algebra de subconjuntos de R. Entonces B es una - algebra que contiene a C . Por lo tanto (C ) = B (R) B . Esto implica que B = B (R), y entonces X es variable aleatoria. Resta entonces hacer ver que B es efectivamente una - algebra. a) Primeramente tenemos que R B , pues R B (R) y X 1 R = F . b) Sea B B . Entonces B B (R) y X 1 B F . Por lo tanto B c B (R) y X 1 B c = (X 1 B )c F . Es decir, B c B . c) Sea B1 , B2 , . . . una sucesi on en B . Es decir, para cada n umero natural n, Bn B (R) y X 1 Bn F . Entonces F . Es decir,
n=1 n=1

Bn B (R) y

X 1 Bn = X 1

n=1

n=1

Bn

Bn B .

42

Adem as de la condici on anterior para demostrar que una funci on es variable aleatoria, existen otras condiciones igualmente equivalentes y u tiles. Por ejemplo, X es variable aleatoria si para cada x en R, X 1 (, x) F , o X 1 (x, ) F , o X 1 [x, ) F . Cualquiera de estas condiciones es necesaria y suciente para que X sea variable aleatoria. Tambi en la condici on X 1 (a, b) F para cualquier intervalo (a, b) de R es necesaria y suciente para que X sea variable aleatoria. La demostraci on de todas estas aseveraciones es completamente an aloga al caso demostrado arriba y se pide desarrollar los detalles en la secci on de ejercicios. Considere ahora los espacios medibles (, F ) y (R, B (R)). Si X es una funci on de en R entonces se denota por (X ) a la m nima - algebra de subconjuntos de respecto de la cual X es variable aleatoria. Es decir, (X ) = {X 1 B : B B (R)}. Es sencillo probar que tal colecci on de im agenes inversas es efectivamente una a lgebra, y claramente X es variable aleatoria si y s olo si (X ) F . En particular, 1 una funci on g : R R es Borel medible si g B B (R), para cada B en B (R). A continuaci on se demuestra que algunas operaciones b asicas entre variables aleatorias producen nuevas variables aleatorias. Suponga entonces que (, F , P ) es un espacio de probabilidad dado. Todas las variables aleatorias que se consideran a continuaci on est an denidas sobre este mismo espacio de probabilidad.

Proposici on. La funci on constante X = c es una v.a.

Demostraci on. Sea B un elemento cualquiera de B (R). Para la funci on constante X = c se tiene que X 1 B = si c B , y X 1 B = si c / B . En ambos casos el conjunto X 1 B es un elemento de F , por lo tanto X es v.a.

Proposici on. Si X es v.a. y c es una constante, entonces cX es v.a.

Demostraci on. Comprobaremos que para cada n umero real x, la imagen inversa del conjunto (, x], bajo la funci on cX , es un elemento de F . Tenemos tres casos: Si c > 0, entonces el conjunto (cX x) = (X x/c) es un elemento de F , pues X es v.a. Si c < 0 entonces nuevamente el conjunto (cX x) = (X x/c) es un elemento de F pues X es v.a. Finalmente si c = 0 entonces es claro que cX = 0 es v.a. por la proposici on anterior.

43

Proposici on. Si X y Y son v.a.s, entonces X + Y es v.a.

Demostraci on. Probaremos que para cada n umero real x, el conjunto (X + Y > x) es un elemento de F . Para ello usaremos la igualdad (X + Y > x) =
r Q

(X > r ) (Y > x r ).

(2.1)

Es claro que a partir de esta igualdad se concluye que el conjunto (X + Y > x) es un elemento de F , pues tanto X como Y son variables aleatorias, y la operaci on de uni on involucrada es numerable. Resta entonces demostrar (2.1). () Sea en tal que X ( ) + Y ( ) > x. Entonces X ( ) > x Y ( ). Como los n umeros racionales son un conjunto denso en R, tenemos que existe un n umero racional r tal que X ( ) > r > x Y ( ). Por lo tanto X ( ) > r y Y ( ) > x r . De aqui se desprende que es un elemento del lado derecho. () Sea ahora un elemento de rQ (X > r ) (Y > x r ). Entonces existe un n umero racional r0 tal que X ( ) > r0 y Y ( ) > x r0 . Sumando obtenemos X ( ) + Y ( ) > x, y por lo tanto es un elemento del lado izquierdo.

Proposici on. Si X y Y son v.a.s, entonces XY es v.a.

Demostraci on. Suponga primero el caso particular X = Y . Entonces necesitamos probar que para todo n umero real x, el conjunto (X 2 x) es un elemento de F . Pero esto es cierto pues (X 2 x) = si x < 0, y (X 2 x) = ( x X x) si x 0. En ambos casos, (X 2 )1 (, x] es un elemento de F . Para el caso general, X = Y , usamos la f ormula XY = 1 [ (X + Y )2 (X Y )2 ]. 4

Por lo demostrado antes, el producto XY es efectivamente una v.a. Como consecuencia de la proposici on anterior se cumple que si multiplicamos X n por si misma n veces, entonces X es variable aleatoria. Por lo tanto toda funci on polinomial de una variable aleatoria es tambi en variable aleatoria.

Proposici on. Sean X y Y v.a.s con Y = 0. Entonces X/Y es v.a.

44

Demostraci on. Como el producto de v.a.s es nuevamente una v.a., es suciente demostrar que 1/Y es v.a. Para cualquier n umero real y > 0 tenemos que ( 1 1 1 y ) = ( y, Y > 0) ( y, Y < 0) Y Y Y 1 1 = (Y , Y > 0) (Y , Y < 0) y y 1 = (Y ) (Y < 0), y

que es un elemento de F puesto que Y es v.a. Por otro lado, si y < 0 tenemos que ( 1 1 1 y ) = ( y, Y > 0) ( y, Y < 0) Y Y Y 1 1 = (Y , Y > 0) (Y , Y < 0) y y 1 = (Y , Y < 0) y 1 = ( Y < 0). y

Nuevamente vemos que este conjunto es un elemento de F , puesto que Y es v.a. Finalmente cuando y = 0 obtenemos una vez mas un elemento de F pues ( 1 1 1 0) = ( 0, Y > 0) ( 0, Y < 0) Y Y Y = (Y < 0) = (Y < 0).

Proposici on. Si X y Y son variables aleatorias, entonces m ax{X, Y } y m n{X, Y } tambi en lo son.

Demostraci on. Para cualquier n umero real x, (m ax{X, Y } x) = (X x, Y x) = (X x) (Y x). An alogamente, (m n{X, Y } x) = (X x, Y x) = (X x) (Y x). En ambos casos los conjuntos del lado derecho son elementos de F . Como consecuencia de la proposici on anterior se obtiene que tanto X + = m ax{0, X } como X = m n{0, X } son variables aleatorias. 45

Proposici on. Si X es v.a., entonces |X | es v.a.

Demostraci on. Si x 0 entonces (|X | x) = (x X x), y si x < 0 entonces (|X | x) = F , de modo que |X | es v.a. Alternativamente se puede escribir |X | = X + + X , y por lo expuesto anteriormente concluir que |X | es v.a. Se muestra a continuaci on que en general el rec proco de la proposici on anterior es falso, esto es, si X : R es una funci on tal que |X | es v.a., entonces no necesariamente X es v.a. Ejemplo Considere el espacio muestral = {1, 0, 1} junto con la - algebra F = {, {0}, {1, 1}, }. Sea X : R la funci on identidad X ( ) = . Entonces |X | es v.a. pues para cualquier conjunto Boreliano B , si 0, 1 B, {1, 1} si 0 / B y 1 B, |X |1 B = { 0 } si 0 B y1 / B, si 0, 1 / B.

Es decir, |X |1 B es un elemento de F . Sin embargo X no es variable aleatoria pues X 1 {1} = {1} no es un elemento de F . Ahora consideraremos algunas operaciones l mite en sucesiones innitas de variables aleatorias.

Proposici on. Sea {Xn : n N} una sucesi on de v.a.s tales que para cada en , sup{Xn ( )} e nf {Xn ( )} son nitos. Entonces sup{Xn } e nf {Xn } son v.a.s
n0 n0 n0 n0

Demostraci on. Este resultado se sigue directamente de las siguientes igualdades. Para cualquier n umero real x, ( sup Xn x ) =
n0

( nf Xn x ) =
n0

n=1 n=1

(Xn x) F , (Xn x) F .

46

Proposici on. Sea {Xn : n N} una sucesi on de v.a.s tales que para cada en m inf Xn ( ) son nitos. Entonces l m sup Xn y l m inf Xn son , l m sup Xn ( ) y l n n n n v.a.s.

Demostraci on. Esto es consecuencia de la proposici on anterior pues l m sup Xn = nf (sup Xn ), y l m inf Xn = sup( nf Xn ).
n k nk n k nk

Proposici on. Sea {Xn : n N} es una sucesi on de v.a.s tales que l m Xn ( ) n existe y es nito para cada . Entonces l m Xn es v.a.
n

Demostraci on. Como l m Xn existe, los l mites l m sup Xn y l m inf Xn coinciden. Entonces por lo demostrado antes, l m Xn es variable aleatoria.
n n n n

2.2.

Funci on de distribuci on

Toda variable aleatoria tiene asociada una funci on llamada funci on de distribuci on. En esta secci on se dene este importante concepto y se demuestran algunas de sus propiedades.

Denici on (Funci on de distribuci on). La funci on de distribuci on de una variable aleatoria X es la funci on F (x) : R [0, 1], denida como sigue F (x) = P (X x).

Cuando sea necesario especicar la variable aleatoria en cuesti on se escribe FX (x), pero en general se omite el sub ndice X cuando no haya posibilidad de confusi on. El argumento de la funci on es la letra min uscula x que puede tomar cualquier valor real. Por razones obvias a esta funci on se le conoce tambi en con el nombre de funci on de acumulaci on de probabilidad o funci on de probabilidad acumulada. Observe que la funci on de distribuci on de una variable aleatoria est a denida sobre la totalidad del 47

conjunto de n umeros reales, y siendo una probabilidad, toma valores en el intervalo [0, 1]. La funci on de distribuci on es importante pues, como se ilustrar a m as adelante, contiene ella toda la informaci on de la variable aleatoria y la correspondiente medida de probabilidad. Veamos ahora algunas propiedades b asicas de esta funci on, en una de estas propiedades aparece la expresi on F (x+), que signica el l mite por la derecha de la funci on F en el punto x.

Proposici on. Sea F (x) la funci on de distribuci on de una variable aleatoria. Entonces 1. 2.
x +

l m F (x) = 1.

l m F (x) = 0.

3. Si x1 x2 , entonces F (x1 ) F (x2 ). 4. F (x) es continua por la derecha, es decir, F (x+) = F (x).

Demostraci on. (1) Sea {xn : n N} una sucesi on cualquiera de n umeros reales creciente a innito, y sean los eventos An = (X xn ). Entonces {An : n N} es una sucesi on de eventos creciente cuyo l mite es . Por la propiedad de continuidad
n

l m F (xn ) = l m P (An ) = P () = 1.
n

Dado que R es un espacio m etrico, lo anterior implica que F (x) converge a uno on cualquiera de cuando x tiende a innito. (2) Ahora sea {xn : n N} una sucesi n umeros reales decreciente a menos innito, y sean los eventos An = (X xn ). Entonces {An : n N} es una sucesi on de eventos decreciente al conjunto vac o. Por la propiedad de continuidad
n

l m F (xn ) = l m P (An ) = P () = 0.
n

Por lo tanto, F (x) converge a cero cuando x tiende a menos innito. (3) Para x1 x2 , F (x1 ) F (x1 ) + P (x1 < X x2 ) = P (X x2 ) = F (x2 ). = P [(X x1 ) (x1 < X x2 )]

(4) Sea {xn : n N} una sucesi on cualquiera de n umeros reales no negativos y decreciente a cero. Entonces F (x + xn ) = F (x) + P (x < X x + xn ), en donde An = (x < X x + xn ) es una sucesi on de eventos decreciente al conjunto vac o. Por lo tanto l m F (x + xn ) = F (x). Es decir F (x+) = F (x).
n

48

El rec proco de la proposici on anterior es v alido y justica la importancia de la funci on de distribuci on. Se enuncia a continuaci on este interesante resultado cuya demostraci on omitiremos y puede encontrarse por ejemplo en [12].

Proposici on. Sea F : R [0, 1] una funci on que satisface las cuatro propiedades de la proposici on anterior. Entonces existe un espacio de probabilidad y una variable aleatoria cuya funci on de distribuci on es F .

Como consecuencia tenemos la siguiente denici on general, no haciendo referencia a variables aleatorias ni a espacios de probabilidad particulares.

Denici on (Funci on de distribuci on). Una funci on F (x) : R [0, 1] es llamada funci on de distribuci on si cumple las cuatro propiedades anteriores.

A continuaci on se presentan algunos ejemplos gr acos de funciones de distribuci on.


F (x) 1 1 F (x)

x Ejemplos gr acos de funciones de distribuci on.

Tambi en pueden presentarse situaciones como la que se muestra a continuaci on.


F (x) 1

x Otro ejemplo de funci on de distribuci on.

49

Se demuestran ahora algunas otras propiedades que establecen la forma de calcular probabilidades usando la funci on de distribuci on. La expresi on F (x) signica el l mite por la izquierda de la funci on F en el punto x.

Proposici on. Para cualquier n umero x y para cualesquiera n umeros reales a b, 1. P (X < x) = F (x). 2. P (X = x) = F (x) F (x). 3. P (X (a, b]) = F (b) F (a). 4. P (X [a, b]) = F (b) F (a). 5. P (X (a, b)) = F (b) F (a). 6. P (X [a, b)) = F (b) F (a).

on cualquiera de n umeros reales no Demostraci on. (1) Sea {xn : n N} una sucesi negativos y decreciente a cero. Sea An el evento (X a xn ). Entonces {An : n N} es una sucesi on de eventos decreciente al evento (X < a). Por la propiedad de continuidad P (X < a) = =
n n

l m P (An )

l m F (a xn )

= F (a). Para (2) simplemente se escribe P (X = x) = P (X x) P (X < x) = F (x) F (x). Las igualdades (3),(4),(5) y (6) se siguen directamente de (1) y (2). Observe que como F (x) es una funci on no decreciente y continua por la derecha, la probabilidad P (X = x) = F (x) F (x) representa el tama no del salto o discontinuidad de la funci on de distribuci on en el punto x, como se muestra en la siguiente gura.

50

F (x) 1

P (X = x) = F (x) F (x)

x La probabilidad P (X = x) es el tama no del salto de la funci on F en el punto x.

En consecuencia, cuando F (x) es una funci on continua y para a < b, F (b) F (a) = P (X (a, b]) = P (X [a, b]) = P (X (a, b))

= P (X [a, b)). Es decir, cuando F (x) es una funci on continua, incluir o excluir los extremos de un intervalo no afecta el c alculo de la probabilidad de dicho intervalo. Por lo tanto, para cualquier n umero x, P (X = x) = 0. Finalizamos esta secci on con un resultado interesante cuya prueba es sorprendentemente simple.

Proposici on. Toda funci on de distribuci on tiene a lo sumo un n umero numerable de discontinuidades.

Demostraci on. Sea D el conjunto de puntos de discontinuidad de una funci on de distribuci on F (x). Para cada n umero natural n dena los subconjuntos Dn = {x D : 1 1 < F (x) F (x) }. n+1 n
n=1 Dn ,

Cada conjunto Dn tiene a lo sumo n elementos. Como D = que D es numerable.

se concluye

2.3.

Tipos de variables aleatorias

Las variables aleatorias se clasican en varios tipos dependiendo del conjunto de valores que estas toman. Al menos existen dos tipos: discretas y continuas. La denici on es la siguiente. 51

Denici on (Variable aleatoria discreta). La variable aleatoria X se llama discreta si su correspondiente funci on de distribuci on F (x) es una funci on constante por pedazos. Sean x1 , x2 , . . . los puntos de discontinuidad de F (x). En cada uno de estos puntos el tama no de la discontinuidad es P (X = xi ) = F (xi ) F (xi ) > 0. A la funci on f (x) que indica estos incrementos se le llama funci on de probabilidad de X , y se dene como sigue f (x) = P (X = x) si x = x1 , x2 , . . . 0 otro caso. (2.2)

En este caso discreto la funci on f (x) siempre existe, y se le llama tambi en funci on de masa de probabilidad o simplemente funci on de probabilidad de la variable aleatoria X . Aunque tambi en se acostumbra usar el t ermino: funci on de densidad, como una analog a con el caso de variables aleatorias continuas mencionado m as adelante. Cuando sea necesario especicarlo se escribe fX (x) en lugar de f (x). Observe que f (x) es una funci on no negativa que suma uno en el sentido que i f (xi ) = 1. Rec procamente, toda funci on de la forma (2.2) que cumpla estas dos propiedades se le llama funci on de probabilidad, sin que haya necesariamente una variable aleatoria de por medio. Es posible reconstruir la funci on de distribuci on a partir de la funci on de probabilidad mediante la relaci on F (x) =
x i x

f (xi ).

Denici on (Variable aleatoria continua). La variable aleatoria X se llama continua si su correspondiente funci on de distribuci on F (x) es una funci on continua. Cuando existe una funci on no negativa e integrable f tal que para cualquier valor de x,
x

F (x) =

f (u) du,

(2.3)

entonces se dice que X es absolutamente continua. En tal caso a la funci on f (x) se le llama funci on de densidad de X .

Pueden construirse ejemplos de variables aleatorias continuas que no tienen funci on de densidad, es decir, que no existe una funci on f no negativa e integrable que cumpla (2.3) para cualquier n umero real x. En tales situaciones se dice que la distribuci on es singular. A un cuando exista una funci on no negativa e integrable f que cumpla (2.3), esta puede no ser u nica, pues basta modicarla en un punto para que sea ligeramente distinta pero a un as seguir cumpliendo (2.3). A pesar de ello, nos referiremos a la funci on de densidad como si esta fuera u nica, y ello se justica por el hecho de 52

que las probabilidades son las mismas, ya sea usando una funci on de densidad o modicaciones de ella que cumpla (2.3). Es claro que la funci on de densidad de una variable aleatoria absolutamente continua es no negativa y su integral sobre toda la recta real es uno. Rec procamente, toda funci on f (x) no negativa que integre uno en R se llama funci on de densidad. Si X es absolutamente continua con funci on de distribuci on F (x) y funci on de densidad continua f (x), entonces el teorema fundamental del c alculo establece que, a partir de (2.3), F (x) = f (x). Adem as, la probabilidad de que X tome un valor en el intervalo (a, b) es el a rea bajo la funci on de densidad sobre dicho intervalo. Esto se ilustra en la siguiente gura, la probabilidad es la misma si se incluyen o excluyen los extremos del intervalo.

f (x)

P (X (a, b)) =

f (x) dx
a

La probabilidad como un a rea.

Denici on (Variable aleatoria mixta). Una variable aleatoria que no es discreta ni continua se llama variable aleatoria mixta.

Un ejemplo de este tipo de variables se presenta a continuaci on. Ejemplo (Una variable aleatoria que no es discreta ni continua). Sea X una variable aleatoria con funci on de distribuci on F (x) = 1 ex 0 si x > 0, si x 0,

cuya gr aca es

53

F (x)

x Funci on de distribuci on de X .

Como F (x) es continua, entonces X es una variable aleatoria continua. Sea Y = X M , con M > 0 constante. Observe que Y est a acotada superiormente por la constante M . La funci on de distribuci on de Y es 1 F (y ) = 1 ex 0 si y M, si 0 < y < M, si x 0,

con gr aca

F (y )

y M Funci on de distribuci on de Y .

Esta funci on no es constante por pedazos pues es creciente en el intervalo (0, M ), y tampoco es continua pues tiene una discontinuidad en y = M . Por lo tanto Y es una variable aleatoria que no es discreta ni continua.

Proposici on. Toda funci on de distribuci on F (x) se puede escribir como una combinaci on lineal convexa de una funci on de distribuci on discreta y otra continua, es decir, admite la siguiente representaci on: F (x) = F d (x) + (1 )F c (x), en donde [0, 1], F d (x) es una funci on de distribuci on discreta, y F c (x) es una funci on de distribuci on continua.

54

Igualdad de variables aleatorias


Dos variables aleatorias X y Y son estrictamente iguales si para cada en se cumple X ( ) = Y ( ). Existen, sin embargo, otras formas m as d ebiles de igualdad:

Denici on (Igualdad de variables aleatorias). Se dice que dos variables aleatorias X y Y son a) iguales casi seguramente, y se escribe X = Y c.s., o bien X = Y , si se cumple que P (X = Y ) = 1. M as generalmente, un evento ocurre casi seguramente si su probabilidad es uno. b) iguales en distribuci on, y se escribe X = Y , si sus correspondientes funciones de distribuci on coinciden, es decir, para cada x en R, FX (x) = FY (x).
d c.s.

Es interesante observar que la igualdad casi segura es m as fuerte que la igualdad en distribuci on, es decir, si X y Y son iguales casi seguramente, entonces son iguales en distribuci on. Sin embargo, si X y Y tienen la misma distribuci on, entonces no necesariamente son iguales casi seguramente, al respecto v ease el Ejercicio 147. A menos que se indique lo contrario, cuando aparezca una expresi on de igualdad entre variables aleatorias, se considera que la igualdad es v alida en el sentido casi seguro.

2.4.

Integral de Riemann-Stieltjes

En esta secci on se dene la integral de Riemann-Stieltjes, la cual tiene la forma


b

h(x) dF (x),
a

en donde las funciones h(x) y F (x) deben cumplir ciertas condiciones para que la integral tenga sentido y est e bien denida. Esta integral es una generalizaci on de la integral usual de Riemann. Al integrando h(x) se le pide inicialmente que sea una funci on acotada en el intervalo (a, b], aunque despu es se omitir a esta condici on. A la funci on integradora F (x) se le pide que sea continua por la derecha, mon otona no decreciente y tal que F () F () < M , para alg un n umero M > 0. Observe que F (x) debe cumplir propiedades casi id enticas a las de una funci on de distribuci on, y de hecho la notaci on es la misma. Esto no es coincidencia pues usaremos las funciones de distribuci on como funciones integradoras. Presentamos a continuaci on la denici on de la integral de Riemann-Stieltjes bajo las condiciones arriba se naladas. En [12] puede encontrarse una exposici on m as completa y rigurosa de esta integral. Nuestro objetivo en esta secci on es simplemente presentar la denici on y mencionar algunas propiedades. Sea {a = x0 < x1 < < 55

xn = b} una partici on nita del intervalo (a, b], y dena y h(xi ) = nf {h(x) : xi1 < x xi }.
n

(xi ) = sup {h(x) : xi1 < x xi }, h

Se dene la suma superior e inferior de Riemann-Stieltjes como sigue n = S


i=1 n

(xi )[F (xi ) F (xi1 )], h h(xi )[F (xi ) F (xi1 )].

Sn =
i=1

Ahora se hace n tender a innito de tal forma que la longitud m ax{|xi xi1 | : 1 i n} tienda a cero. Si sucede que n < , < l m S n = l m S
n n

entonces a este valor com un se le denota por


b

h(x) dF (x),
a

y se le llama la integral de Riemann-Stieltjes de la funci on h(x), respecto de la funci on F (x), sobre el intervalo (a, b]. Cuando la funci on h(x) no es acotada se dene la funci on auxiliar si h(x) < N, N hN (x) = h(x) si |h(x)| N, N si h(x) > N. Y entonces
b b

h(x) dF (x) = l m
a

N a

hN (x) dF (x),

cuando este l mite existe. Se puede extender la denici on de esta integral de la siguiente forma
b

h(x) dF (x) = l m

cuando el l mite del lado derecho exista. La integral de Riemann-Stieltjes tiene muchas propiedades semejantes a la integral de Riemann. Enunciaremos a continuaci on algunas de ellas. Primeramente es lineal tanto en el integrando como en el integrador, es decir, si es constante entonces
b b b

a,b a

h(x) dF (x),

(h1 (x) + h2 (x)) dF (x) =


a b a b

h1 (x) dF (x) +
a b

h2 (x) dF (x), h(x) dF2 (x).


a

y
a

h(x) d(F1 (x) + F2 (x)) =


a

h(x) dF1 (x) +

Cuando h(x) tiene primera derivada continua se cumple la f ormula


b a b

h(x) dF (x) = h(b)F (b) h(a)F (a) 56

F (x)h (x) dx.

De particular importancia en la teor a de la probabilidad son los siguientes dos casos particulares. Cuando F (x) es diferenciable entonces se tiene la igualdad
b b

h(x) dF (x) =
a a

h(x)F (x) dx.

De modo que integrar respecto de una funci on de distribuci on absolutamente continua se reduce a efectuar una integral de Riemann. El otro caso interesante ocurre cuando h(x) es continua y F (x) es constante excepto en los puntos x1 , x2 , . . . en donde la funci on tiene saltos positivos de tama no p(x1 ), p(x2 ), . . . respectivamente. En este caso y suponiendo convergencia,
b

h(x) dF (x) =
a

i=1

h(xi )p(xi ).

Por lo tanto integrar respecto de la funci on de distribuci on de una variable aleatoria discreta se reduce a efectuar una suma. Finalmente enunciamos la propiedad que ilustra el hecho de que la integral de Riemann es un caso particular de la integral de Riemann-Stieltjes. Cuando F (x) = x se cumple
b b

h(x) dF (x) =
a a

h(x) dx.

2.5.

Caracter sticas num ericas

Se estudian a continuaci on algunas caracter sticas num ericas asociadas a variables aleatorias. En particular, se denen los conceptos de esperanza, varianza y m as generalmente los momentos de una variable aleatoria. Para ello haremos uso de la integral de Riemann-Stieltjes.

Esperanza
La esperanza de una variable aleatoria es un n umero que representa el promedio ponderado de los posible valores que toma la variable aleatoria, y se calcula como se indica a continuaci on.

57

Denici on (Esperanza). Sea X con funci on de distribuci on F (x). La esperanza de X , denotada por E (X ), se dene como el n umero E (X ) =

x dF (x),

cuando esta integral sea absolutamente convergente, es decir, cuando


|x| dF (x) < ,

y en tal caso se dice que X es integrable.

A la esperanza se le conoce tambi en con el nombre de: media, valor esperado, valor promedio o valor medio, y en general se usa la letra griega (mu) para denotarla. Cuando X es discreta con funci on de probabilidad f (x), su esperanza, si existe, se calcula como sigue E (X ) = xf (x).
x

Cuando X es absolutamente continua con funci on de densidad f (x), entonces su esperanza, si existe, es E (X ) =

xf (x) dx.

La integral o suma arriba mencionados pueden no existir y en ese caso se dice que la variable aleatoria no tiene esperanza nita. El Ejercicio 157 en la p agina 81 contiene algunos ejemplos que ilustran esta situaci on. Ejemplo. Sea X discreta con valores en el conjunto {1, 2, . . . }, y con funci on de probabilidad f (x) = P (X = x) = 1/2x , para x 1. Entonces E (X ) =
x=1

xf (x) =

x = 2. 2x x=1

Ejemplo. Sea X continua con funci on de densidad f (x) = 2x, para 0 < x < 1. Entonces 1 2 E (X ) = xf (x) dx = x 2x dx = . 3 0 Con frecuencia surge el problema de calcular esperanzas de funciones de variables aleatorias, es decir, si X es una variable aleatoria y g : R R es una funci on Borel medible, entonces g(X ) es una variable aleatoria y el problema es encontrar

58

su esperanza. Usando directamente la denici on, la esperanza de g(X ) se calcula del siguiente modo: E [g(X )] =

x dFg(X ) (x),

pero ello requiere encontrar primero la distribuci on de g(X ), lo cual puede no ser f acil. Afortunadamente se cuenta con el siguiente resultado que establece una forma muy conveniente de calcular la esperanza de g(X ), sin conocer su distribuci on, pero suponiendo conocida la distribuci on de X .

Teorema (Esperanza de una funci on de una v.a.) Sea X con funci on de distribuci on FX (x), y sea g : R R una funci on Borel medible tal que g(X ) tiene esperanza nita. Entonces E [g(X )] =

g(x) dFX (x).

La demostraci on de este resultado en general no es sencilla y la omitiremos, aunque un camino c omodo que puede adoptarse es aceptar la f ormula anterior como la denici on de la esperanza de g(X ). En particular, cuando la funci on g es la identidad, se recupera la denici on b asica de esperanza de una variable aleatoria. Por otro lado, cuando X es discreta, la demostraci on del teorema resulta no ser complicada, y en el Ejercicio 152 se pide hacer los detalles. Se establecen a continuaci on algunas propiedades de la esperanza.

Proposici on (Propiedades de la esperanza). Sean X y Y con esperanza nita, y sea c una constante. Entonces 1. E (c) = c. 2. E (cX ) = cE (X ). 3. Si X 0, entonces E (X ) 0. 4. Si X Y , entonces E (X ) E (Y ). 5. E (X + Y ) = E (X ) + E (Y ).

Las demostraciones de las primeras cuatro propiedades son sencillas pues se siguen directamente de la denici on. La u ltima propiedad es f acilmente demostrable en el caso discreto, y ello se ha dejado como ejercicio. Esta propiedad, en el caso general, ser a demostrada m as adelante.

59

Proposici on. Sea X con funci on de distribuci on F (x), la cual admite la descomposici on F (x) = F d (x) + (1 )F c (x),

en donde [0, 1], F d (x) es una funci on de distribuci on discreta, y F c (x) es una funci on de distribuci on continua. Sea Xd con distribuci on F d (x), y sea Xc con distribuci on F c (x). Entonces X tiene esperanza nita si, y s olo si, tanto Xd como Xc tienen esperanza nita, y en tal caso, E (X ) = E (Xd ) + (1 )E (Xc ).

Este resultado es f acil de demostrar usando la propiedad de linealidad de la integral de Riemann-Stieltjes respecto de la funci on integradora.

Varianza
La varianza de una variable aleatoria es una medida del grado de dispersi on de los diferentes valores tomados por la variable aleatoria. Su denici on es la siguiente.

Denici on (Varianza). La varianza de X , denotada por Var(X ), se dene como el n umero no negativo Var(X ) = E (X E (X ))2 , cuando esta esperanza existe.

Cuando X es discreta con funci on de probabilidad f (x) y esperanza nita , la varianza de X , cuando existe, se calcula como sigue Var(X ) =
x

(x )2 f (x).

Cuando X es absolutamente continua con funci on de densidad f (x) y esperanza nita , entonces la varianza de X , cuando existe, es Var(X ) =

(x )2 f (x) dx.

La varianza se denota regularmente por el s mbolo 2 (sigma cuadrada). A la ra z cuadrada positiva de Var(X ) se le llama desviaci on est andar, y se le denota naturalmente por . Nuevamente hay casos en los que la varianza no es nita, y en 60

esa situaciones se dice que la variable aleatoria no tiene varianza. Observe que para calcular Var(X ) se necesita conocer primero E (X ). Enunciamos a continuaci on algunas propiedades de la varianza.

Proposici on (Propiedades de la varianza). Sean X y Y con varianza nita, y sea c una constante. Entonces 1. Var(X ) 0. 2. Var(c) = 0. 3. Var(cX ) = c2 Var(X ). 4. Var(X + c) = Var(X ). 5. Var(X ) = E (X 2 ) E 2 (X ). 6. En general, Var(X + Y ) = Var(X ) + Var(Y ).

La demostraci on de estas propiedades es sencilla pues todas ellas, excepto la u ltima, se siguen directamente de la denici on y de la propiedad lineal de la esperanza. Para la u ltima propiedad puede tomarse Y = X , con Var(X ) = 0, y vericarse la no igualdad. Otras propiedades de la varianza aparecen m as adelante.

Momentos
Los momentos de una variable aleatoria son n umeros que representan algunas caracter sticas de la distribuci on de probabilidad asociada. Bajo ciertas condiciones el conjunto de momentos determinan de manera u nica a la distribuci on de probabilidad.

Denici on (Momentos). Sea X una variable aleatoria con esperanza y sea n un n umero natural. Cuando existe, el n umero 1. E (X n ) es el n- esimo momento de X . 2. E |X |n es el n- esimo momento absoluto de X . 3. E [(X )n ] es el n- esimo momento central de X . 4. E |X |n es el n- esimo momento central absoluto de X . 5. E [X (X 1) (X n + 1)] es el n- esimo momento factorial de X .

61

Observe que el primer momento de X es E (X ), y el segundo momento central es Var(X ). En algunos textos al n- esimo momento de X se le denota por n , mientras que el n- esimo momento central es n . En el Cap tulo 8 sobre funciones generadoras se estudian ciertas funciones asociadas a las distribuciones de probabilidad, y a trav es de las cuales los momentos de una variable aleatoria pueden ser encontrados, cuando existen, de manera m as eciente. Bajo ciertas condiciones los momentos de una variable aleatoria determinan la distribuci on de probabilidad de la misma. Por ejemplo, si X es tal que E (X ), E (X 2 ), . . . son todos nitos y si se cumple que la serie tn E (X n ) n ! n=0 es absolutamente convergente para alg un t > 0, entonces la sucesi on de momentos determina de manera u nica a la distribuci on de X . Las condiciones enunciadas para la determinaci on de la distribuci on de probabilidad son sucientes pero no necesarias.

Mediana
La mediana de una variable aleatoria es una medida de tendencia central que permite, cuando existe, dividir en dos partes iguales a la distribuci on de probabilidad sobre la recta num erica.

Denici on (Mediana). El n umero m es una mediana de la variable X , o de su distribuci on, si se cumplen las siguientes dos desigualdades: P (X m) 1/2,

P (X m) 1/2.

La mediana no es u nica y puede no existir, por ejemplo, si X es una variable aleatoria discreta tal que P (X = 1) = p, y P (X = 0) = 1 p, con p = 1/2, entonces cualquier m en el intervalo (0, 1) es una mediana, en cambio, cuando p = 1/2, no existe una mediana.

2.6.

Distribuciones discretas

En esta secci on se estudian algunas distribuciones discretas de probabilidad de uso com un. Estas distribuciones son ejemplos particulares de medidas de probabilidad concentradas en un conjunto discreto de n umeros reales. Se presentan estos ejemplos 62

sin hacer mayor enfasis en las aplicaciones de los modelos. En el Ap endice A, al nal del libro, aparecen algunas otras distribuciones de probabilidad.

Distribuci on uniforme discreta


La variable aleatoria X tiene una distribuci on uniforme sobre el conjunto {x1 , . . . , xn } si la probabilidad de que X tome cualquiera de estos valores es 1/n. Esta distribuci on surge en espacios de probabilidad equiprobables, esto es, en situaciones en donde se tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. Los juegos de loter a justos son un ejemplo donde puede aplicarse esta distribuci on. Se escribe X unif{x1 , . . . , xn }, y su funci on de probabilidad es 1 si x = x1 , . . . , xn , n f (x) = 0 otro caso. Gr acamente

f (x)
1 5

Funci on de probabilidad unif{1, 2, 3, 4, 5}.

Es f acil ver que E (X ) = y Var(X ) = 1 n 1 n


n

xi ,
i=1 n i=1

(xi E (X ))2 .

Distribuci on Bernoulli
Un ensayo Bernoulli es un experimento aleatorio con u nicamente dos posibles resultados, llamados gen ericamente exito y fracaso, y con probabilidades respectivas p y 63

1 p. Se dene la variable aleatoria X como aquella funci on que lleva el resultado exito al n umero 1, y el resultado fracaso al n umero 0. Entonces se dice que X tiene una distribuci on Bernoulli con par ametro p (0, 1). Se escribe X Ber(p) y la correspondiente funci on de probabilidad es si x = 0, 1p p si x = 1, f (x) = 0 otro caso, cuya gr aca es

f (x) 0.7 0.3 x 0 1 Funci on de probabilidad Ber(p) con p =0.7.

Es sencillo vericar que E (X ) = p, y Var(X ) = p(1 p). En particular, si A es un evento con probabilidad p, entonces la funci on indicadora 1A es una variable aleatoria con distribuci on Ber(p).

Distribuci on binomial
Suponga que se realizan n ensayos independientes Bernoulli en donde la probabilidad de exito en cada uno de ellos es p (0, 1). Si denotamos por E el resultado exito y por F el resultado fracaso, entonces el espacio muestral consiste de todas las posibles sucesiones de longitud n de caracteres E y F. Usando el principio multiplicativo, es f acil ver que el conjunto tiene 2n elementos. Si ahora se dene la variable aleatoria X como el n umero de exitos en cada una de estas sucesiones, entonces X toma los valores 0, 1, . . . , n, y se dice que X tiene una distribuci on binomial con par ametros n y p. Se escribe X bin(n, p), y su funci on de probabilidad es n px (1 p)nx si x = 0, 1, . . . , n, x f (x) = 0 otro caso.

En las siguientes gr acas se muestra el comportamiento de esta funci on.

64

f (x) 0.3 0.2 0.1 x 1 2 3 4 5 6 7 8 9 10 n = 10 p = 0.3 0.3 0.2 0.1

f (x)

n = 10 p = 0.5

x 1 2 3 4 5 6 7 8 9 10

Funci on de probabilidad bin(n, p).

Se puede demostrar que E (X ) = np, y Var(X ) = np(1 p).

Distribuci on geom etrica


Suponga que se tiene una sucesi on innita de ensayos independientes Bernoulli en donde la probabilidad de exito en cada uno de ellos es p (0, 1). Se dene X como el n umero de fracasos antes de obtener el primer exito. Se dice entonces que X tiene una distribuci on geom etrica con par ametro p. Se escribe X geo(p), y su funci on de probabilidad es p(1 p)x 0 si x = 0, 1, . . . otro caso,

f (x) =

cuya gr aca es de la siguiente forma:


f (x)

0.4 0.3 0.2 0.1


x

9 10

Funci on de probabilidad geo(p) con p =0.4.

Para esta distribuci on se puede demostrar que E (X ) = (1 p)/p, y Var(X ) = (1 p)/p2 . En algunos textos se dene tambi en la distribuci on geom etrica como el n umero de ensayos, y no el de fracasos, antes del primer exito. En tal caso, la funci on x 1 para x = 1, 2, . . .. La media es entonces 1/p de probabilidad es f (x) = p(1 p) y la varianza es como antes. 65

Distribuci on Poisson
La variable aleatoria discreta X tiene una distribuci on Poisson con par ametro > 0, y se escribe X Poisson() si su funci on de probabilidad es x e x! f (x) = 0 si x = 0, 1, . . . otro caso.

Esta distribuci on fue descubierta por Sime on Denis Poisson en 1873 como l mite de la distribuci on binomial, v ease el Ejercicio 217. La gr aca de la funci on de probabilidad Poisson es de la siguiente forma: f (x) 0.3 0.2 0.1 x 1 2 3 4 5 6 7 8
Funci on de probabilidad Poisson() con = 2.

Puede demostrarse que E (X ) = , y Var(X ) = .

Distribuci on binomial negativa


Suponga una sucesi on innita de ensayos independientes Bernoulli en donde la probabilidad de exito en cada ensayo es p (0, 1). Sea X el n umero de fracasos antes de obtener el r - esimo exito. Se dice entonces que X tiene una distribuci on binomial negativa con par ametros r y p. Se escribe X bin neg(r, p), y su funci on de probabilidad es r+x1 pr (1 p)x si x = 0, 1 . . . x f (x) = 0 otro caso.

Para r = 3 y p =0.2, esta funci on tiene la siguiente forma.

66

f (x) 0.06 0.04 0.02 x 5 10 15 20 25 30


Funci on de probabilidad bin neg(r, p) con r = 3 y p =0.2.

Es claro que esta distribuci on es una generalizaci on de la distribuci on geom etrica, la cual se obtiene cuando r = 1. Se puede demostrar que E (X ) = r (1 p)/p, y Var(X ) = r (1 p)/p2 .

Distribuci on hipergeom etrica


Suponga que se tiene un conjunto de N objetos de los cuales K son de una primera clase, y N K son de una segunda clase. Suponga que de este conjunto se toma una muestra de tama no n, sin reemplazo y en donde el orden de los objetos seleccionados no importa. Se dene X como el n umero de objetos de la primera clase contenidos en la muestra seleccionada. Entonces X puede tomar los valores 0, 1, 2, . . . , n, suponiendo n K . Decimos que X tiene una distribuci on hipergeom etrica con par ametros N , K y n. Se escribe X hipergeo(N, K, n), y su funci on de probabilidad es K  N K  x nx N  f (x) = n 0

si x = 0, 1, . . . , n,

otro caso.

Gr acamente:

f (x) 0.4 0.3 0.2 0.1 x 0 1 2 3 4 5


Funci on de probabilidad hipergeo(N, K, n). N = 20 K=7 n=5

67

Es posible comprobar que K , N KN K N n Var(X ) = n . N N N 1 E (X ) = n

2.7.

Distribuciones continuas

Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias continuas. Algunas otras distribuciones continuas que surgen en la estad stica ser an estudiadas en el Cap tulo 5. Recuerde que estos modelos son ejemplos particulares de medidas de probabilidad continuas sobre el conjunto de n umeros reales, y que, en general, no se hace enfasis en sus aplicaciones.

Distribuci on uniforme continua


La variable aleatoria X tiene distribuci on uniforme en el intervalo (a, b) y se escribe X unif(a, b), cuando su funci on de densidad es 1 ba 0 si x (a, b), otro caso.

f (x) =

Gr acamente:

f (x)
1 ba

Funci on de densidad unif(a, b).

En este caso es inmediato vericar que E (X ) = (a + b)/2, y Var(X ) = (b a)2 /12.

Distribuci on exponencial
La variable continua X tiene una distribuci on exponencial con par ametro > 0 y se escribe X exp() cuando tiene funci on de densidad 68

f (x) =

ex 0

si x > 0, si x 0,

cuya gr aca es f (x)

x
Funci on de densidad exp().

Para esta distribuci on es muy sencillo vericar que E (X ) = 1/, y Var(X ) = 1/2 .

Distribuci on gama
La variable aleatoria continua X tiene distribuci on gama con par ametros n > 0 y > 0 si su funci on de densidad es (x)n1 x e (n) f (x) = 0 si x > 0, si x 0.

La gr aca de esta funci on se muestra a continuaci on. f (x)


1 2

x 1 2 3 4 5
Funci on de densidad gama(n, ) con n = 5 y = 3.

69

En tal caso se escribe X gama(n, ). El t ermino (n) es la funci on gama denida como sigue (n) =
0

tn1 et dt,

para valores de n tal que la integral es convergente. Esta funci on satisface las siguientes propiedades: a) (n + 1) = n(n). b) (n + 1) = n! para n entero positivo. c) (2) = (1) = 1. d) (1/2) = . Observe que cuando n = 1, la distribuci on gama(n, ) se reduce a la distribuci on exp(). Resolviendo un par de integrales se puede demostrar que E (X ) = n/, y Var(X ) = n/2 .

Distribuci on beta
La variable continua X tiene distribuci on beta con par ametros a > 0 y b > 0, y se escribe X beta(a, b) cuando su funci on de densidad es 1 xa1 (1 x)b1 si 0 < x < 1, B (a, b) f (x) = 0 otro caso. En la siguiente gr aca se ilustra la forma de esta funci on para varios valores de los par ametros.

f (x)

3 2 1

a=2 b=6 a=4 b=4

a=6 b=2

a=1 b=1 x

1
Funci on de densidad beta(a, b).

70

El t ermino B (a, b) se conoce como la funci on beta y se dene para a > 0 y b > 0 como sigue
1

B (a, b) =
0

xa1 (1 x)b1 dx.

Esta funci on satisface las siguientes propiedades. a) B (a, b) = B (b, a). b) B (a, b) = (a)(b) . (a + b)

Para la distribuci on beta(a, b) se tiene que E (X ) = y Var(X ) = a , a+b ab . (a + b + 1)(a + b)2

Distribuci on normal
Esta es posiblemente la distribuci on de probabilidad de mayor importancia. Se dice que la variable aleatoria continua X tiene una distribuci on normal o Gausiana si su funci on de densidad es 1 2 2 f (x) = e(x) /2 , 2 2 en donde R y 2 > 0 son dos par ametros. En este caso se escribe X N(, 2 ). No es dif cil demostrar que E (X ) = , y Var(X ) = 2 . La gr aca de la funci on de densidad normal aparece en la siguiente gura:

f (x)

x
Funci on de densidad N(, 2 ).

En particular se dice que X tiene una distribuci on normal est andar si = 0 y 2 = 1. En este caso particular, la funci on de densidad se reduce a la expresi on m as sencilla 1 2 f (x) = ex /2 . 2 71

Es posible transformar una variable aleatoria normal no est andar en una est andar mediante la siguiente operaci on llamada estandarizaci on. La demostraci on de este resultado es elemental y se deja como ejercicio.

Proposici on X N(, 2 ) Z =

X N(0, 1).

Com unmente se usa la letra Z para denotar una variable aleatoria con distribuci on normal est andar. En particular la funci on (x) denota la funci on de distribuci on de una variable aleatoria normal est andar, es decir, (x) = P (Z x). Gr acamente:

(x)

x
Area cubierta por la funci on de distribuci on (x) = P (Z x).

Distribuci on log normal


Si X tiene distribuci on N(, 2 ), entonces Y = eX tiene una distribuci on log normal(, 2 ) y su funci on de densidad es: 1 (ln y )2 exp [ ] si y > 0, 2 2 y 2 2 f (y ) = 0 si y 0. La gr aca de esta funci on es la siguiente:

72

f (y )

0.025

10

15

20

25

Funci on de densidad log normal(, 2 ) con = 3 y 2 = 2.

Se puede demostrar que E (Y ) = exp( + 2 /2), y Var(Y ) = exp(2 + 2 2 ) exp(2 + 2 ).

Otras distribuciones continuas de inter es se encuentran en el cap tulo sobre distribuciones muestrales.

2.8.

Ejercicios
Variables aleatorias

94. Demuestre que la funci on identidad X ( ) = no es variable aleatoria cuando = {1, 2, 3} y F = {, {1}, {2, 3}, }. 95. Sea = {1, , 0, 1} y F = {, {0}, {1, 1}, }. Considere la funci on identidad 2 X ( ) = . Demuestre que X es variable aleatoria pero X no lo es. 96. Considere el espacio medible (, F ), con F = {, }. Demuestre que X : R es variable aleatoria si, y s olo si, X es constante. 97. Sea (, F ) un espacio medible tal que F = {, , A, Ac } con A . Demuestre que toda funci on medible X : R es constante en A y en Ac . Por lo tanto toda funci on medible respecto de esta - algebra toma a lo sumo dos valores distintos. El siguiente ejercicio generaliza este resultado. 98. Sea A1 , . . . , An una partici on nita de , y considere el espacio medible (, F ), con F = {A1 , . . . , An }. Demuestre que X : R es variable aleatoria si, y s olo si, X es constante en cada elemento de la partici on. En consecuencia, X toma a lo sumo n valores distintos. 99. Demuestre que X es variable aleatoria si, y s olo si, X 1 (, x) F para cada n umero real x. 100. Demuestre que X es variable aleatoria si, y s olo si, X 1 [x, ) F para cada n umero real x. 73

101. Demuestre que X es variable aleatoria si, y s olo si, X 1 (x, ) F para cada n umero real x. 102. Demuestre que X es variable aleatoria si, y s olo si, X 1 (a, b) F para cada intervalo (a, b) de R. 103. Sea c una constante y X una v.a. Demuestre directamente que las siguientes funciones tambi en son variables aleatorias: cX , X + c, X c, X c. 104. Demuestre directamente que la diferencia de dos variables aleatorias es variable aleatoria. 105. Sea X una variable aleatoria. Demuestre que la parte entera de X , denotada por X , es una variable aleatoria discreta, es decir, toma un n umero numerable de valores. 106. Demuestre que el conjunto de v.a.s denidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y producto por escalares. 107. Sean X y Y variables aleatorias. Demuestre directamente que tanto X Y como X Y son variables aleatorias. 108. Demuestre directamente que si X es variable aleatoria, entonces tambi en lo son X n y 2X 3 5X . 109. Demuestre que X es variable aleatoria si, y s olo si, tanto X + = m ax{0, X } como X = m n{0, X }, lo son. 110. Sea A . Demuestre que la funci on indicadora1 1A : R es variable aleatoria si, y s olo si, el conjunto A es medible. 111. Sean A, B . Diga falso o verdadero. Demuestre en cada caso. a ) A, B medibles 1A + 1B es v.a. b ) 1A + 1B es v.a. A, B son medibles.

112. Sean A, B subconjuntos disjuntos de y sean a, b dos n umeros reales distintos. Demuestre que a1A + b1B es v.a. A, B son medibles. Una de estas implicaciones resulta falsa cuando se omite la condici on de que los n umeros a y b son distintos. Cu al de ellas es?. 113. Sean A1 , . . . , An subconjuntos disjuntos de , y sean a1 , . . . , an constantes distintas. Demuestre que
n i=1
1

ai 1Ai es v.a. A1 , . . . , An son medibles.

V ease el nal del texto para la denici on y algunas propiedades de la funci on indicadora.

74

114. Sean A y B dos eventos, y sean 1A y 1B las correspondientes funciones indicadoras. Directamente de la denici on demuestre que las funciones 1A + 1B , 1A 1B y 1A 1B son variables aleatorias. 115. Sean X y Y dos variables aleatorias. Demuestre que los conjuntos (X = Y ), (X Y ), (X > Y ) y (X = Y ) son eventos. Sugerencia: Proceda como en la f ormula (2.1) de la p agina 44. 116. Sean X , Y y Z tres variables aleatorias. Demuestre que los conjuntos (X = Y = Z ), y (X < Y < Z ) son eventos. 117. Sea X una variable aleatoria y g : (R, B (R)) (R, B (R)) una funci on Borel medible. Demuestre que g(X ) = g X : R es tambi en una variable aleatoria. Sugerencia: Demuestre que la colecci on B = {B B (R) : g1 B B (R)} coincide con B (R) usando los siguientes dos resultados: (1) Dada una funci on continua de R en R, la imagen inversa de un conjunto abierto es nuevamente un conjunto abierto. (2) Todo conjunto abierto de R distinto del vac o puede expresarse como una uni on numerable de intervalos abiertos. 118. Sea X una variable aleatoria. Demuestre que las funciones: eX , sen X , y cos X son variables aleatorias. 119. Sea X : R una funci on. Proporcione un ejemplo en el que X 2 sea variable aleatoria pero |X | no lo sea. 120. Sean X1 , . . . , Xn variables aleatorias. Demuestre que = 1 a) X n b) S2
n

Xi
i=1 n i=1

es v.a. )2 (Xi X es v.a.

1 = n1

121. Sea X una variable aleatoria, y sean a < b dos constantes. Demuestre que las siguientes funciones son variables aleatorias. a) Y = X si X < a, a si X a.

a si X < a, b) Y = X si a X b, b si X > b, . c) Y = X si |X | a, 0 si |X | > a. 122. Dena la funci on signo como sigue +1 signo(x) = 1 0 75 si x > 0, si x < 0, si x = 0.

Demuestre que si X es variable aleatoria, entonces signo(X ) tambi en lo es.

123. Sea (, F , P ) un espacio de probabilidad, y sea X : R una funci on. algebra de F Demuestre que la colecci on {X 1 B : B B (R)} es una sub - si, y s olo si, X es variable aleatoria. 124. Sea X una variable aleatoria con valores en el conjunto {0, 1, 2, . . . }. Sea (X )10 el valor de X m odulo 10. Demuestre que (X )10 es tambi en variable aleatoria. 125. Sean (1 , F1 ) y (2 , F2 ) dos espacios medibles, y sea X : 1 2 una funci on medible, es decir, para cualquier A en F2 se cumple que X 1 A F1 . Suponga que P : F1 [0, 1] es una medida de probabilidad. Demuestre que es tambi en una medida de probabilidad. A la medida P X 1 se le llama medida de probabilidad inducida por X . 126. Sea X una variable aleatoria discreta. Demuestre que la probabilidad de que X tome un valor nito es uno. P X 1 : F2 [0, 1]

Funci on de distribuci on
127. Demuestre que las siguientes funciones son de distribuci on. a ) F (x) = 1 ex , para x > 0. b ) F (x) = 1 (1 + x)ex , para x > 0. si x < 1, 0 (x + 1)/2 si x [1, 1], c ) F (x) = 1 si x > 1.

128. Investigue si las siguientes funciones son de distribuci on. a ) F (x) = x, para x R. 2 b ) F (x) = 1 ex , para x > 0. c ) F (x) = e1/x , para x > 0. ex d ) F (x) = , para x R. 1 + ex x e e ) F (x) = x , para x R. e + ex 129. Sean F (x) y G(x) dos funciones de distribuci on. Determine si las siguientes funciones son de distribuci on. a ) aF (x) + (1 a)G(x), con 0 a 1. b ) F (x) + G(x). c ) F (x)G(x). 130. Sea X con funci on de distribuci on si x < 2, 4 1 2 si x 2. x Graque F (x) y demuestre que es una funci on de distribuci on. Calcule adem as P (X 4), P (X > 1), P (4 < X < 6) y P (X = 2). F (x) = 76 0

131. Sea X con funci on de distribuci on 0 0.2 F (x) = 0.5 0.9 1

si si si si si

x < 0, 0 x < 1, 1 x < 3, 3 x < 4, x 4.

Graque F (x) y demuestre que es una funci on de distribuci on. Calcule adem as P (X 1), P (X = 1), P (0 < X < 3), P (X = 4) y P (X 3). a ) P (X < x) = F (x).

132. Sea X con funci on de distribuci on F (x). Demuestre que

b ) P (X = x) = F (x) F (x). c ) P (X > x) = 1 F (x).

133. En la escuela rusa de probabilidad se dene la funci on de distribuci on de una variable aleatoria X como G(x) = P (X < x). Observe el signo < en lugar de . Demuestre que esta funci on cumple todas las propiedades de una funci on de distribuci on, excepto que ahora la continuidad es por la izquierda. 134. Sea F (x) una funci on de distribuci on continua. Demuestre que para cualquier entero n 1, las siguientes funciones tambi en son de distribuci on. a ) G(x) = [F (x)]n . b ) G(x) = 1 [1 F (x)]n . 135. Sea X con funci on de distribuci on F (x). Diga falso o verdadero. Demuestre en cada caso. a ) F (x) = P (X < x) + P (X = x). b ) 1 F (x) = P (X x). c ) 1 P (X < x) P (X > x) = P (X = x).

136. Encuentre FY (y ) en t erminos de FX (x) cuando a ) Y = aX + b, con a, b constantes. b ) Y = eX . c ) Y = eX . d ) Y = X 2. e ) Y = X + = m ax{0, X }. g ) Y = |X |. n{0, X }. f ) Y = X = m

h ) Y = X .

i ) Y = sen X .

77

137. Sea X con funci on de distribuci on FX (x), y sean a < b dos constantes. Calcule la funci on de distribuci on de Y en t erminos de la funci on de distribuci on de X , y muestre gr acamente el comportamiento de FY (y ) en los puntos a y b. a) Y = X si X < a, a si X a.

a si X < a, b) Y = X si a X b, b si X > b. c) Y = X si |X | a, 0 si |X | > a. 138. Sean F (x) y G(x) dos funciones de distribuci on continuas y estrictamente crecientes. Demuestre que a ) si F (x) G(x), entonces F 1 (y ) G1 (y ).

b ) si X tiene funci on de distribuci on F (x), entonces Y = G1 (F (X )) tiene funci on de distribuci on G(x). c ) si F (x) G(x), entonces existen variables aleatorias X y Y cuyas funciones de distribuci on son F (x) y G(x) respectivamente, y son tales que X Y . Sugerencia: Use el inciso anterior.

139. Sea X con funci on de distribuci on F (x). Demuestre que F (x) es continua en olo si, P (X = x0 ) = 0. x = x0 si, y s

Tipos de variables aleatorias


140. Encuentre la constante c que hace a f (x) una funci on de probabilidad. a ) f (x) = c , x(x + 1) para x = 1, 2, . . .

b ) f (x) = cex , para x = 1, 2, . . . c c ) f (x) = , para x = 1, 2, . . . x! 141. Encuentre la constante c que hace a f (x) una funci on de densidad. a ) f (x) = cx2 , b ) f (x) = cxe c ) f (x) = d ) f (x) = cx2 , cex para 0 < x < 1. , para x > 0. para x > 1.
2x2

, para x R. (1 + ex )2 e ) f (x) = cx(1 x), para 0 < x < 1. c f ) f (x) = , para 0 < x < 1. 1 x2 c g ) f (x) = , para x R. 1 + x2

78

142. Demuestre que las siguientes funciones son de densidad. Encuentre la correspondiente funci on de distribuci on y demuestre que satisface las propiedades de toda funci on de distribuci on. Graque ambas funciones. a ) f (x) = 2x para x [0, 1]. 3 b ) f (x) = x2 , para x [1, 1]. 2 1 c ) f (x) = 1 x, para x [0, 2]. 2 2 d ) f (x) = 2 x, para x [0, m], con m > 0. m 1 e ) f (x) = , para x [0, 1/2]. (1 x)2 1 f ) f (x) = e|x| , para x R. 2 143. Demuestre que las siguientes funciones son de distribuci on. Encuentre la correspondiente funci on de densidad y compruebe que efectivamente es una funci on de densidad. Graque ambas funciones. a ) F (x) = 0 1 si x < 0, si x 0.

ex . 1 + ex 1 x |u| d ) F (x) = e du. 2 c ) F (x) =

0 b ) F (x) = x 1

si x 0, si 0 < x < 1, si x 1.

144. Sea f (x) una funci on de densidad y sea c una constante. Demuestre que f (x+c) es tambi en una funci on de densidad. 145. Diga falso o verdadero. Demuestre en cada caso. a ) Toda funci on de densidad es acotada. b ) Toda funci on de distribuci on es acotada. 146. Sea X absolutamente continua y sea Y = aX + b con a y b constantes. Demuestre que si a = 0, entonces fY (y ) = 1 fX ((y b)/a). |a|

Igualdad de variables aleatorias


147. Demuestre que a ) si X = Y , entonces X = Y .
c.s. d

79

b ) si X = Y , entonces no necesariamente X = Y . Como sugerencia considere X tal que P (X = 1) = P (X = 1) = 1/2, y dena Y = X . 148. Demuestre que la igualdad casi segura de variables aleatorias es una relaci on de equivalencia. Cumple tal propiedad la igualdad en distribuci on?.

c.s.

Integral de Riemann-Stieltjes
149. Sea X una variable aleatoria con funci on de distribuci on F , y sea a cualquier n umero real. Demuestre que

1{a} (x) dF (x) = P (X = a).

150. Sea X una variable aleatoria con funci on de distribuci on F , y sea (a, b) R. Demuestre que

1(a,b) (x) dF (x) = P (a < X < b).

151. Sea F una funci on de distribuci on absolutamente continua. Demuestre que para cualesquiera n umeros naturales n y m

F n (x) dF m (x) =

m . n+m

Esperanza
152. Esperanza de una funci on de una v.a. discreta. Sea X discreta con valores en el conjunto {x1 , x2 , . . .}, y sea g : R R una funci on Borel medible tal que g(X ) tiene esperanza nita. Demuestre que E [g(X )] =
i=1

g(xi )P (X = xi ).

153. Calcule la esperanza de X cuya funci on de probabilidad o de densidad es a ) f (x) = 1/5, b ) f (x) = d ) f (x) = c ) f (x) = |x|, e1 /x!,
1 |x| , 2e

para x = 2, 1, 0, 1, 2. para x = 0, 1, 2, . . .

para 1 < x < 1. para x R.

154. Calcule la esperanza de la variable aleatoria X cuya funci on de distribuci on es F (x) = 0 x 1 1 2e si x < 1, si x 1.

155. Sean X y Y con esperanza nita, y sea c una constante. Demuestre que a ) E (c) = c. 80

b ) E (cX ) = cE (X ). c ) E (X + c) = E (X ) + c. d ) Si X 0, entonces E (X ) 0. f ) |E (X )| E |X |. e ) Si X Y , entonces E (X ) E (Y ).

156. Sean X y Y discretas ambas con esperanza nita. Demuestre directamente que E (X + Y ) = E (X ) + E (Y ). 157. Demuestre que no existe la esperanza de X cuando su funci on de probabilidad o de densidad es 1 , para x = 1, 2, . . . x(x + 1) 3 b ) f (x) = 2 2 , para x Z \ {0}. x c ) f (x) = 1/x2 , para x > 1. 1 d ) f (x) = , para x R. (1 + x2 ) a ) f (x) = 158. La paradoja de San Petersburgo. Un juego consiste en lanzar una moneda equilibrada repetidas veces hasta que una de las caras, seleccionada previamente, aparezca por primera vez. Si un jugador lanza la moneda y requiere de n lanzamientos para que se cumpla la condici on, entonces recibe 2n unidades monetarias. Cu al debe ser el pago inicial justo para ingresar a este juego? 159. Sea {A1 , A2 , . . .} una colecci on de eventos que forman una partici on de tal que cada elemento de la partici on tiene probabilidad estrictamente positiva. Sea X una variable aleatoria discreta con esperanza nita. Para cualquier evento A con probabilidad positiva dena E (X |A) = Demuestre que E (X ) = 160. Demuestre que a ) E (X Y ) E (X ) E (Y ) E (X ). b ) E (X Y ) E (X ) E (Y ) E (X ). 161. Sea X > 0, discreta y con esperanza nita. Demuestre directamente que E (X )E (1/X ) 1. Este resultado puede ser demostrado usando la desigualdad de Jensen, pero en este ejercicio se pide obtener el resultado sin usar Jensen. 162. Sea X discreta con valores 0 x1 x2 xk . Demuestre que 81
i=1

xP (X = x | A).

E (X | Ai )P (Ai ).

a ) l m

E (X n+1 ) = xk , n E (X n )
n

b ) l m

E (X n ) = x1 .

163. Sea X discreta con valores 0, 1, . . . y con esperanza nita. Demuestre que E (X ) =
n=1

P (X n) =

n=0

P (X > n).

Ahora use esta f ormula para demostrar que a ) si X tiene distribuci on geo(p), entonces E (X ) = (1 p)/p. b ) si X tiene distribuci on Poisson(), entonces E (X ) = . 164. Sea X 0 con esperanza nita, y suponga que para alg un p (0, 1), se cumple k la desigualdad P (X k) p , para cada k = 0, 1, . . .. Demuestre que E (X ) 1 . 1p

165. Sea X 0 con esperanza nita, y para cada n umero natural n dena el evento An = (n 1 X < n). Demuestre que

n=1

(n 1)1An X <

n=1

n1An .

Ahora demuestre las desigualdades


n=1

P (X n) E (X ) < 1 +

n=1

P (X n).

166. Sea X con funci on de distribuci on F (x), y con esperanza nita. Demuestre que a ) l m x[1 F (x)] = 0. b)
x x

l m xF (x) = 0.

167. Sea X con funci on de distribuci on F (x), y con esperanza nita. Demuestre que E (X ) =
0 0

[1 F (x)]dx

F (x)dx.

Gr acamente estas integrales pueden interpretarse como indica la siguiente gura:

82

F (x)

1 +

La esperanza como la diferencia de dos a reas.

Use esta f ormula para demostrar que a ) si X tiene distribuci on exp(), entonces E (X ) = 1/. b ) si X tiene distribuci on gama(n, ), entonces E (X ) = n/. 168. Sea X con funci on de distribuci on continua F (x), y con esperanza nita . Demuestre que

F (x)dx =

[1 F (x)]dx.

169. Demuestre que la condici on E (X ) = 0 no implica que X sea sim etrica alrededor de cero. Considere el ejemplo P (X = 1) = 1/2, P (X = 0) = 1/8, P (X = 1) = 1/4 y P (X = 2) = 1/8. Puede construir un ejemplo de una distribuci on continua con esperanza cero, que no sea sim etrica?

Varianza
170. Calcule la varianza de X cuya funci on de probabilidad o de densidad es a ) f (x) = 1/5, b ) f (x) = d ) f (x) = c ) f (x) = |x|, e1 /x!,
1 |x| , 2e

para x = 2, 1, 0, 1, 2. para x = 0, 1, 2, . . .

para 1 < x < 1. para x R.

171. Sean X y Y con varianza nita y sea c una constante. Demuestre las siguientes propiedades de la varianza. a ) Var(X ) 0. b ) Var(c) = 0. c ) Var(cX ) = c2 Var(X ). d ) Var(X + c) = Var(X ). e ) Var(X ) = E (X 2 ) E 2 (X ). 172. Sea X con valores en [a, b]. Demuestre que a ) a E (X ) b. b ) 0 Var(X ) (b a)2 /4. 83

173. Minimizaci on del error cuadr atico medio. Sea X con segundo momento nito. atico medio. A la funci on g(u) = E [(X u)2 ] se le conoce como error cuadr Demuestre que g(u) se minimiza cuando u = E (X ). En consecuencia, para cualquier valor real de u, Var(X ) E [(X u)2 ]. 174. Sea X con varianza nita y sea c una constante. Demuestre que E (X c)2 = Var(X ) + [E (X ) c]2 . 175. Sea X con media y varianza 2 . Demuestre que E |X | . Sugerencia: Var(|X |) 0. 176. Diga falso o verdadero. Demuestre en cada caso. a ) Si X Y , entonces Var(X ) Var(Y ). b ) Var(X ) E (X 2 ). c ) E 2 (X ) E (X 2 ).

177. Sea X 0 con varianza nita, y sea M 0 una constante ja. Diga si las siguientes armaciones son falsas o verdaderas, demuestre en cada caso. a ) E (X M ) E (X ) E (X M ). b ) Var(X M ) Var(X ). c ) Var(X M ) Var(X ).

178. Sean X y Y con varianza nita. Diga si las siguientes desigualdades son falsas o verdaderas, demuestre en cada caso. Var(X Y ) Var(X ) Var(X Y ). 179. Sea X con varianza nita, y sea c una constante cualquiera. Diga si las siguientes armaciones son falsas o verdaderas, demuestre en cada caso. a ) Var(X + c) = Var(X c). b ) Var(|X |) Var(X ). c ) Var(|X c|) Var(X ).

Momentos
180. Calcule el n- esimo momento de X cuya funci on de probabilidad o de densidad es a ) f (x) = 1/5 c ) f (x) = |x| b ) f (x) = e1 /x! d ) f (x) =
1 |x| 2e

para x = 2, 1, 0, 1, 2. para x = 0, 1, 2, . . .

para 1 < x < 1. para x R.

84

181. Sea X tal que E |X |n < para alg un natural n. Demuestre que para cualquier n umero natural de m n, se cumple E |X |m E |X |n . Este resultado establece entonces que si el n- esimo momento de una variable aleatoria es nito, entonces todos los momentos anteriores a n tambi en son nitos. Sugerencia: |X |m = |X |m 1(|X |1) + |X |m 1(|X |>1) . 182. Sea X con distribuci on sim etrica alrededor de x = 0, y con cuarto momento nito. Demuestre que para cualquier n umero real a, E (X 4 ) E (X a)4 . 183. Sea 1A la funci on indicadora de un evento A. Demuestre que a ) E (1A ) = E (1n A ) = P (A). b ) Var(1A ) = P (A)(1 P (A)) 1/4. 184. Sea X con n- esimo momento nito. Demuestre que E |X |n = n
0 0

xn1 (1 F (x)) dx + n

|x|n1 F (x) dx.

185. Sea X discreta con valores en el conjunto {0, 1, 2, . . . }, y con segundo momento nito. Demuestre que E (X 2 ) =

n=1

(2n 1)P (X n).

186. Espacio L1 . Demuestre que el espacio L1 (, F , P ) consistente de todas las variables aleatorias X tales que E |X | < , es un espacio vectorial. Para resolver este ejercicio suponga v alida la igualdad E (X + Y ) = E (X ) + E (Y ), la cual se demuestra m as adelante. 187. Desigualdad de Cauchy-Schwarz. Sean X y Y con segundo momento nito. Demuestre que E 2 (XY ) E (X 2 )E (Y 2 ).

Sugerencia: Para cualquier valor real de t, la esperanza de (tX + Y )2 es no negativa. Desarrolle el cuadrado y encuentre una ecuaci on cuadr atica en t. Qu e puede decir de su discriminante?

188. Espacio L2 . Use la desigualdad de Cauchy-Schwarz para demostrar que el espacio L2 (, F , P ) consistente de todas las variables aleatorias X tales que E |X |2 < , es un espacio vectorial.

85

189. Desigualdad de Jensen. Sea u una funci on convexa, y sea X una variable aleatoria con esperanza nita. Demuestre que u(E (X )) E (u(X )). Sugerencia: La funci on u es convexa si para cada a existe un n umero m tal que u(x) u(a) + (x a)m, para todo x. 190. Sea X con esperanza nita. Use la desigualdad de Jensen para demostrar que a ) eE (X ) E (eX ). b ) E 2 (X ) E (X 2 ). 1 1 c) E ( ), suponiendo X > 0. E (X ) X 191. Demuestre que si X es una variable aleatoria acotada casi seguramente, es decir, existe k > 0 tal que P (|X | k) = 1, entonces todos los momentos de X existen. 192. Sea X una variable aleatoria con funci on de densidad dada por n si x > 1, n+1 x f (x) = 0 otro caso.

Demuestre que esta funci on es de densidad para cualquier valor natural del par ametro n. Demuestre adem as que tal variable aleatoria tiene momentos nitos de orden: 1, 2, . . . , n 1, pero el n- esimo momento y superiores no existen.

193. Desigualdad Cr . Sea r > 0. Demuestre que E |X + Y |r Cr ( E |X |r + E |Y |r ), en donde Cr = 1 2p1 si 0 < r 1, si r > 1.

Este resultado establece que si X y Y tienen r - esimo momento absoluto nito, entonces X + Y tambi en. Sugerencia: Demuestre primero que para cualesquiera n umeros reales x y y , |x + y |r Cr ( |x|r + |y |r ). 194. Desigualdad de H older. Sean r, s tales que r > 1 y 1/r + 1/s = 1. Demuestre que E |XY | E 1/r |X |r E 1/s |Y |s . Sugerencia: Use la desigualdad |x|r |y |s + , r s v alida para cualesquiera n umeros reales x y y , y para r y s con las condiciones mencionadas. El caso r = s = 2 corresponde a la desigualdad de CauchySchwarz. |xy | 86

195. Desigualdad de Minkowski. Sea r 1. Demuestre que E 1/r |X + Y |r E 1/r |X |r + E 1/r |Y |r . Sugerencia: E |X + Y |r E (|X | |X + Y |r1 ) + E (|Y | |X + Y |r1 ), ahora use la desigualdad de H older.

Mediana
196. Minimizaci on del error absoluto medio. A la funci on g(u) = E |X u| se le conoce como error absoluto medio. Demuestre que si m una mediana de X , entonces para cualquier n umero real u, E |X m| E |X u|. Demuestre adem as que la igualdad se cumple si, y s olo si, u es cualquier otra mediana de X .

Distribuci on uniforme discreta


197. Sea X con distribuci on unif{1, . . . , n}. Demuestre que a ) E (X ) = (n + 1)/2. b ) E (X 2 ) = (n + 1)(2n + 1)/6. c ) Var(X ) = (n2 1)/12. 198. Se escogen al azar y de manera independiente dos n umeros a y b dentro del conjunto {1, . . . , n}. Demuestre que la probabilidad de que el cociente a/b sea menor o igual a uno es (n + 1)/2n.

Distribuci on Bernoulli
199. Compruebe que la funci on de probabilidad de la distribuci on Ber(p) efectivamente lo es. Obtenga adem as la correspondiente funci on de distribuci on. Graque ambas funciones. 200. Sea X con distribuci on Ber(p). Demuestre que a ) E (X ) = p. b ) E (X n ) = p, c ) Var(X ) = p(1 p). para n 1.

Distribuci on binomial
201. Use el teorema del binomio para comprobar que la funci on de probabilidad de la distribuci on bin(n, p) efectivamente lo es. 202. Sea X con distribuci on bin(n, p). Demuestre que 87

a) b) c) d) e)

E (X ) = np. E (X 2 ) = np(1 p + np). Var(X ) = np(1 p). E (X np)3 = np(1 p)(1 2p). E (X np)4 = 3n2 p2 (1 p)2 + np(1 p)(1 6(1 p)p).

203. Sea X con distribuci on bin(n, p). Demuestre que Y = n X tiene distribuci on bin(n, 1 p). 204. Sea X con distribuci on bin(n, p). Demuestre que a ) P (X = x + 1) = p nx P (X = x). 1p x+1 b ) P (X = x 1) P (X = x + 1) P 2 (X = x).

205. Sea X con distribuci on bin(n, p). Demuestre que 1 a ) P (X {1, 3, 5, . . . }) = (1 (1 2p)n ). 2 1 b ) P (X {0, 2, 4, . . . }) = (1 + (1 2p)n ). 2 206. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de que cada cara caiga exactamente 3 veces.

Distribuci on geom etrica


207. Compruebe que la funci on de probabilidad de la distribuci on geo(p) efectivamente lo es. Demuestre que la correspondiente funci on de distribuci on es F (x) = 0 1 (1 p)x+1 si x < 0, si x > 0.

La expresi on x denota la parte entera de x. 208. Sea X con distribuci on geo(p). Demuestre que a ) E (X ) = (1 p)/p. b ) Var(X ) = (1 p)/p2 . 209. Sea X con distribuci on geo(p). Demuestre que P (X n) = (1 p)2 . Ahora use este resultado y la f ormula del Ejercicio 163 en la p agina 82 para demostrar que E (X ) = (1 p)/p. 210. P erdida de memoria de la distribuci on geom etrica. Sea X con distribuci on geo(p). Demuestre que P (X x + y | X x) = P (X y ). 211. Sea X una variable aleatoria discreta con valores en {0, 1, . . .} y tal que cumple la igualdad P (X x + y | X x) = P (X y ). Demuestre que existe un n umero p (0, 1) tal que X tiene distribuci on geo(p). 88

Distribuci on Poisson
212. Compruebe que la funci on de probabilidad de la distribuci on Poisson() efectivamente lo es. 213. Sea X con distribuci on Poisson(). Demuestre que a ) E (X ) = . b ) E (X 2 ) = ( + 1). c ) Var(X ) = . d ) E (X 3 ) = E (X + 1)2 . 214. Sean X y Y independientes ambas con distribuci on Poisson con par ametros 1 y 2 respectivamente. Demuestre que X +Y tiene distribuci on Poisson(1 +2 ). 215. Sea X con distribuci on Poisson(). Demuestre que a ) P (X = x + 1) = P (X = x). x+1 b ) P (X = x 1) P (X = x + 1) P 2 (X = x).

216. Sea X con distribuci on Poisson(). Demuestre que 1 a ) P (X {1, 3, 5, . . . }) = (1 e2 ). 2 1 b ) P (X {0, 2, 4, . . . }) = (1 + e2 ). 2 217. Teorema de Poisson: convergencia de la distribuci on binomial a la distribuci on Poisson. Para cada entero positivo n, sea Xn con distribuci on bin(n, /n) con > 0. Demuestre que para cada k = 0, 1, . . . l m P (Xn = k) = e k k!

Distribuci on binomial negativa


218. Compruebe que la funci on de probabilidad de la distribuci on bin neg(r, p) efectivamente lo es. 219. Sea X con distribuci on bin neg(r, p). Demuestre que a ) E (X ) = r (1 p)/p.

b ) Var(X ) = r (1 p)/p2 .

220. Sea {Xn : n N} una sucesi on de variables tal que cada Xn tiene distribuci on bin neg(n, p) con p = n/( + n) para alg un > 0. Demuestre que para cada k = 0, 1, 2, . . . k l m P (Xn = k) = e . n k!

89

Distribuci on hipergeom etrica


221. Compruebe que la funci on de probabilidad de la distribuci on hipergeo(N, K, n) efectivamente lo es. 222. Convergencia de la distribuci on hipergeom etrica a la distribuci on binomial. Sea X con distribuci on hipergeo(N, K, n). Demuestre que cuando N y K tienden a innito de tal forma que K/N p, y (N K )/N (1 p), entonces
N,K

l m

P (X = x) =

n x

px (1 p)nx .

Distribuci on uniforme continua


223. Compruebe que la funci on de densidad de la distribuci on unif(a, b) efectivamente lo es. Calcule adem as la correspondiente funci on de distribuci on. Graque ambas funciones. 224. Sea X con distribuci on unif(a, b). Demuestre que a ) E (X ) = (a + b)/2. b ) E (X n ) = bn+1 an+1 . (n + 1)(b a)

c ) Var(X ) = (b a)2 /12.

225. Sea X con distribuci on unif(0, 1). Demuestre que E (X n ) = 1/(n + 1). 226. Sea X con distribuci on unif(1, 1). Demuestre que E (X n ) = 1 n+1 0 si n es par, si n es impar.

227. Sea X con distribuci on unif(0, 1). Obtenga la distribuci on de a ) Y = 10X 5.

b ) Y = 4X (1 X ).

228. Sea X con distribuci on unif(0, 1) y sea 0 < p < 1. Demuestre que la variable aleatoria Y = ln X/ ln(1 p) tiene distribuci on geo(p). La expresi on x denota la parte entera de x. 229. Sea X con distribuci on unif(0, 1). Dena a Y como el primer d gito decimal de X . Demuestre que Y tiene distribuci on uniforme en el conjunto {0, 1, . . . , 9}.

90

Distribuci on exponencial
230. Compruebe que la funci on de densidad de la distribuci on exp() efectivamente lo es. Encuentre la correspondiente funci on de distribuci on. 231. Sea X con distribuci on exp(). Demuestre que a ) F (x) = 1 ex , para x > 0. para x, y > 0.

b ) F (x + y ) F (y ) = F (x)[1 F (y )],

232. Sea X con distribuci on exp(). Demuestre que E (X ) = 1/, y Var(X ) = 1/2 . 233. P erdida de memoria de la distribuci on exponencial. Sea X con distribuci on exp(). Demuestre que P (X x + y | X x) = P (X y ). La distribuci on exponencial es la u nica distribuci on continua que satisface esta propiedad. 234. Sea X una variable aleatoria con funci on de distribuci on F (x) continua, estrictamente creciente y tal que 0 < F (x) < 1. Demuestre que la variable aleatoria Y = ln F (X ) tiene distribuci on exponencial con par ametro = 1. 235. Sea a > 0. Demuestre que si X se distribuye exp(), entonces aX se distribuye exp(/a). 236. Se dice que X tiene distribuci on exponencial bilateral (o doble) con par ametro > 0 si su funci on de densidad es, para x en R, 1 f (x) = e|x| . 2 Demuestre que E (X ) = 0 y Var(X ) = 2/2 .

Distribuci on gama
237. Compruebe que la funci on de densidad de la distribuci on gama(n, ) efectivamente lo es. Verique adem as que esta distribuci on se reduce a la distribuci on exp() cuando n = 1. 238. Sea a > 0. Demuestre que si X se distribuye gama(n, ), entonces aX se distribuye gama(n, /a). 239. Sea X con distribuci on gama(n, ). Demuestre que la funci on de distribuci on de X es, para x > 0, n1 (x)k F (x) = 1 ex . k!
k =0

240. Sea X con distribuci on gama(n, ). Demuestre que a ) E (X ) = n/. 91

b ) E (X m ) =

(m + n) para m = 1, 2, . . . m (n)

c ) Var(X ) = n/2 . 241. Demuestre las siguientes propiedades de la funci on gama. a ) (n + 1) = n(n). b ) (n + 1) = n! para n entero. c ) (2) = (1) = 1. d ) (1/2) = . 1 3 5 (2n 1) e ) (n + 1/2) = para n entero. 2n

Distribuci on beta
242. Compruebe que la funci on de densidad de la distribuci on beta(a, b) efectivamente lo es. Verique adem as que esta distribuci on se reduce a la distribuci on unif(0, 1) cuando a = b = 1. 243. Sea X con distribuci on beta(a, b). Demuestre que a ) E (X ) = a . a+b B (a + n, b) b ) E (X n ) = . B (a, b) ab c ) Var(X ) = . (a + b + 1)(a + b)2

244. Sea X con distribuci on beta(a, b). Demuestre que a ) a = E (X ) [ E (X )(1 E (X )) 1]. Var(X ) E (X )(1 E (X )) b ) b = (1 E (X )) [ 1]. Var(X ) E (X )(1 E (X )) c) a + b = 1. Var(X )

245. Demuestre las siguientes propiedades de la funci on beta. a ) B (a, b) = B (b, a). b ) B (a, b) = (a)(b)/(a + b). c ) B (a, 1) = 1/a. d ) B (1, b) = 1/b. a B (a, b + 1). b a f ) B (a + 1, b) = B (a, b). a+b b g ) B (a, b + 1) = B (a, b). a+b e ) B (a + 1, b) = 92

h ) B (1/2, 1/2) = . 246. Sea X con distribuci on beta(1/2, 1/2). En este caso se dice que X tiene una distribuci on arcoseno. a ) Calcule y graque f (x). b ) Demuestre directamente que f (x) es una funci on de densidad. c ) Demuestre directamente que E (X ) = 1/2, y Var(X ) = 1/8. 247. Sea X con distribuci on beta(a, b). Demuestre que para a > 0 y b = 1, 0 si x 0, F (x) = xa si 0 < x < 1, 1 si x 1.

248. Sea X con distribuci on beta(a, b). Demuestre que para a = 1 y b > 0, si x 0, 0 F (x) = 1 (1 x)b si 0 < x < 1, 1 si x 1.

249. Demuestre que X tiene distribuci on beta(a, b) si, y s olo si, 1 X tiene distribuci on beta(b, a).

Distribuci on normal
250. Demuestre que la funci on de densidad de la distribuci on N(, 2 ) a ) es efectivamente una funci on de densidad. b ) es sim etrica respecto de x = . c ) alcanza su m aximo en x = . d ) tiene puntos de inexi on en x = . 251. Sea X con distribuci on N(, 2 ). Demuestre que E (X ) = y Var(X ) = 2 . 252. Sea X con distribuci on N(, 2 ). Demuestre que E |X |n = 0 1 3 5 (n 1) n si n es impar, si n es par.

253. Demuestre que X tiene distribuci on N(, 2 ) si, y s olo si, Z = (X )/ tiene distribuci on N(0, 1). 254. Sea X con distribuci on normal est andar. Demuestre que si n es impar, 0 n! E (X n ) = si n es par. n/2 2 (n/2)! 93

255. Sea X con distribuci on N(, 2 ). Demuestre que Y = aX + b, con a = 0, tiene una distribuci on normal. Encuentre los par ametros correspondientes. 256. Sea X con distribuci on N(, 2 ). Demuestre que la variable aleatoria X tambi en tiene una distribuci on normal. Encuentre los par ametros correspondientes. 257. Sea X con distribuci on normal est andar. Demuestre que X 2 tiene una distribuci on 2 (1). Rec procamente, ser a cierto que si Y tiene distribuci on 2 (1) entonces Y tiene distribuci on N(0, 1)? 258. Sea X con distribuci on normal est andar. Encuentre la funci on de densidad de la variable aleatoria |X |. 259. El cociente de Mills. Sea (x) la funci on de densidad de la distribuci on normal est andar, y sea (x) la correspondiente funci on de distribuci on. Demuestre que a ) (x) + x(x) = 0. 1 1 1 (x) 1 1 3 b) 3 < < 3 + 5, x x (x) x x x

para x > 0.

Distribuci on log normal


260. Demuestre que la funci on de densidad de una distribuci on log normal(, 2 ) efectivamente lo es. 261. Sea X con distribuci on log normal(, 2 ). Demuestre que a ) E (X ) = exp( + 2 /2). b ) Var(X ) = exp(2 + 2 2 ) exp(2 + 2 ). c ) E (ln X ) = . d ) Var(ln X ) = 2 .

94

Cap tulo 3

Vectores aleatorios
En este cap tulo se extiende el concepto de variable aleatoria con valores reales as algunos conceptos a variables aleatorias con valores en Rn . Se estudian adem importantes relacionados. Recuerde que en este cap tulo, y a lo largo del texto, se tiene siempre como elemento base un espacio de probabilidad (, F , P ).

3.1.

Vectores aleatorios

Denici on (Vector aleatorio). Un vector aleatorio es una funci on X : Rn n 1 tal que para cualquier conjunto B en B (R ), se cumple que X B es un elemento de F .

Todo vector aleatorio se puede representar en la forma X = (X1 , . . . , Xn ) en donde cada coordenada es una funci on de en R. (X1 , . . . , Xn )

(X1 ( ), . . . , Xn ( )) Rn

Un vector aleatorio es una funci on de en Rn .

Se demuestra a continuaci on que la condici on que aparece en la denici on anterior es equivalente a solicitar que cada coordenada del vector sea una variable aleatoria. 95

Proposici on. Una funci on X = (X1 , . . . , Xn ) : Rn es un vector aleatorio si, y s olo si, cada coordenada es una variable aleatoria.

Demostraci on. Sea (X1 , . . . , Xn ) un vector aleatorio. Entonces la imagen inversa de cualquier conjunto de Borel de Rn es un elemento de la - algebra del espacio de probabilidad. En particular, la imagen inversa del conjunto B pertenece a F , para cualquier Boreliano B de R. Pero esta imagen inversa es simplemente 1 X1 B . Esto demuestra que X1 es variable aleatoria. De manera an aloga se procede con las otras coordenadas del vector. Suponga ahora que cada coordenada de una on funci on (X1 , . . . , Xn ) : Rn es una variable aleatoria. Considere la colecci B = {B B (Rn ) : (X1 , . . . , Xn )1 B F }. Como cada coordenada es una variable aleatoria, los conjuntos de Borel de Rn de la forma B1 Bn , en donde cada factor de este producto es un Boreliano de R, es un elemento de la colecci on B . Entonces B (R) B (R) B B (Rn ). Es f acil demostrar que la colecci on B es una - algebra. Asi que (B (R) B (R)) B B (Rn ). Pero ambos extremos de esta ecuaci on coinciden. De modo que B = B (Rn ), y por lo tanto la funci on (X1 , . . . , Xn ) es un vector aleatorio. En consecuencia, es correcto denir un vector aleatorio simplemente como un vector de variables aleatorias. Para simplicar la escritura donde sea posible se usan u nicamente vectores aleatorios bidimensionales, esto es, de la forma (X, Y ). En la mayor a de los casos, las deniciones y resultados son f acilmente extendidos a dimensiones mayores. En general, s olo consideraremos vectores aleatorios como los que se denen a continuaci on.

Denici on (Vector discreto y continuo). Se dice que el vector (X, Y ) es discreto si cada coordenada es una variable aleatoria discreta, y se dice que es continuo en caso de que cada coordenada lo sea.

3.2.

Distribuci on conjunta

A menudo es necesario considerar probabilidades de eventos que involucran a dos o mas variables aleatorias a un mismo tiempo. El concepto fundamental en este caso es el de funci on de distribuci on conjunta.

96

Denici on (Funci on de distribuci on conjunta). La funci on de distribuci on de un vector (X, Y ), denotada por F (x, y ) : R2 [0, 1], se dene como sigue F (x, y ) = P (X x, Y y ).

El n umero F (x, y ) es entonces la probabilidad de que el vector aleatorio tome alg un valor en la regi on (, x] (, y ], la cual se muestra a continuaci on:

(x, y )

El n umero F (x, y ) = P (X x, Y y ) es la probabilidad de que el vector (X, Y ) tome un valor en la regi on sombreada.

En palabras, la funci on F (x, y ) es la probabilidad de que X sea menor o igual a x, y al mismo tiempo Y sea menor o igual a y . Esto es simplemente la probabilidad del evento (X x) (Y y ). A la funci on F (x, y ) se le conoce tambi en como funci on de distribuci on bivariada de X y Y , y en general a la distribuci on conjunta de un vector aleatorio de cualquier dimensi on nita se le llama distribuci on multivariada. Naturalmente, en el caso unidimensional, la distribuci on se llama univariada. Cuando sea necesario especicarlo se escribe FX,Y (x, y ) en lugar de F (x, y ), y es evidente la forma de extender la denici on para el caso de un vector aleatorio de m as de dos coordenadas. Con el n de mantener la notaci on simple, se mantiene la correspondencia de las letras, es decir, x es un valor asociado a X , y y esta asociada a Y. Las funciones de distribuci on conjunta satisfacen propiedades semejantes al caso unidimensional, se estudian a continuaci on algunas de ellas.

97

Proposici on. La distribuci on conjunta F (x, y ) satisface las siguientes propiedades. 1. 2.


x,y

l m F (x, y ) = 1, l m F (x, y ) = 0,

ambas variables. alguna de las variables.

x,y

3. F (x, y ) es no decreciente en cada variable. 4. F (x, y ) es continua por la derecha en cada variable. 5. Si a1 < b1 y a2 < b2 , entonces F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 ) 0.

La demostraci on de las propiedades (1)-(4) es completamente an aloga al caso unidimensional y por tanto la omitiremos. Respecto a la propiedad (5) observe que la expresi on F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 )

corresponde a la probabilidad del evento (a1 < X b1 , a2 < Y b2 ). De modo que (5) se traduce simplemente en solicitar que la probabilidad de que (X, Y ) tome angulo se muestra valores en el rect angulo (a1 , b1 ] (a2 , b2 ], sea no negativa. Este rect en la siguiente gura.

b2

a2

a1

b1

La probabilidad asociada al rect angulo (a1 , b1 ] (a2 , b2 ] es P (a1 < X b1 , a2 < Y b2 ) = F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 ).

A diferencia del caso unidimensional, las propiedades (1) a (4) no son sucientes para asegurar que una funci on F (x, y ) asigna probabilidad no negativa a cualquier rect angulo. Por ejemplo, el Ejercicio 264 en la p agina 120 muestra una situaci on en donde esa condici on falla. Por tanto en el caso de dimensi on dos y superior, es necesario asegurarse de que tal propiedad se cumple. 98

Denici on (Funci on de distribuci on conjunta). Una funci on cualquiera erminos de un vector aleatoF (x, y ) : R2 [0, 1], no necesariamente denida en t rio, es una funci on de distribuci on conjunta si cumple con las cinco propiedades enunciadas en la proposici on anterior.

Para tres dimensiones se dice que F (x1 , x2 , x3 ) : R3 [0, 1] es una funci on de distribuci on si cumple las primeras cuatro propiedades anteriores y la quinta se reemplaza por la siguiente condici on: Para cualesquiera n umeros reales a1 < b1 , a2 < b2 , y a3 < b3 , F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 ) +F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 ) F (a1 , a2 , a3 ) 0. Se puede demostrar que el lado izquierdo de esta desigualdad corresponde a la probabilidad del evento (a1 < X1 b1 , a2 < X2 b2 , a3 < X3 b3 ), y entonces el requisito naturalmente es que este n umero sea no negativo.

z
b3

a3

a2 a1 b1

b2

x
Regi on (a1 , b1 ] (a2 , b2 ] (a3 , b3 ].

M as generalmente, se tiene la siguiente denici on.

99

Denici on. Una funci on F : Rn [0, 1] es una funci on de distribuci on si cumple las primeras cuatro propiedades anteriores y, adicionalmente, para cualesquiera n umeros reales a1 < b1 , a2 < b2 , . . ., an < bn , (1)#a F (x1 , . . . , xn ) 0,

xi {ai ,bi }

en donde #a es el n umero de veces que alguna de las variables xi toma el valor ai en la evaluaci on de la funci on F .

Nuevamente la suma que aparece en esta denici on corresponde a la probabilidad del evento (a1 < X1 b1 , . . . , an < Xn bn ), y la condici on requiere simplemente que este n umero sea no negativo. Finalmente enunciamos un resultado que establece la importancia de la funci on de distribuci on, y cuya demostraci on, que puede ser encontrada por ejemplo en [16], es an aloga al caso unidimensional.

Proposici on. Sea F : Rn [0, 1] una funci on de distribuci on. Entonces existe un espacio de probabilidad, y un vector aleatorio, cuya funci on de distribuci on es F .

3.3.

Densidad conjunta

Como en el caso unidimensional, algunos vectores tienen asociada otra funci on llamada de probabilidad y la cual se dene a continuaci on.

Denici on (Funci on de probabilidad conjunta). La funci on de probabilidad de un vector discreto (X, Y ) es la funci on f (x, y ) : R2 [0, 1] dada por f (x, y ) = P (X = x, Y = y ). A esta funci on tambi en se le llama funci on de probabilidad conjunta de X y Y .

Es evidente que la funci on de probabilidad de un vector discreto es una funci on no negativa y tal que f (x, y ) = 1.
x y

Rec procamente, toda funci on no negativa f (x, y ) : R2 [0, 1] que sea estrictamente positiva u nicamente en un subconjunto discreto de R2 y que sume uno, se llama funci on de probabilidad conjunta. La denici on de la funci on de probabilidad para el caso discreto multidimensional es evidente. 100

Ejemplo. La funci on f (x, y ) = 1/4, para x, y = 1, 2, es una funci on de probabilidad conjunta pues es no negativa y suma uno, corresponde a la distribuci on uniforme sobre el conjunto {1, 2} {1, 2}. La gr aca se muestra a continuaci on: f (x, y )

1/4 2

1 1 2

x
Funci on de probabilidad f (x, y ) = 1/4, para x, y = 1, 2.

La correspondiente funci on de distribuci on es 0 1/4 F (x, y ) = f (u, v ) = 2/4 ux v y 2/4 1 cuya gr aca es: F (x, y )

si si si si si

x<1 o y < 1, 1 x < 2, 1 y < 2, 1 x < 2, y 2, x 2, 1 y < 2, x 2 y y 2,

2 1 1 2

Funci on de distribuci on F (x, y ).

101

enticamente Ejemplo. La funci on denida por f (x, y ) = (1/2)x+y para x, y N, e id cero fuera de este conjunto discreto, es una funci on de probabilidad bivariada pues es no negativa y suma uno. En efecto,
x,y =1

f (x, y ) =

x,y =1

1 2x+y

=(

x=1

1 2 ) = 1. 2x

Para el caso de vectores continuos se tiene la siguiente denici on.

Denici on (Funci on de densidad conjunta). Sea (X, Y ) un vector continuo con funci on de distribuci on F (x, y ). Se dice que (X, Y ) es absolutamente continuo si existe una funci on no negativa e integrable f (x, y ) : R2 R, tal que, para todo (x, y ) en R2 , se cumple la igualdad
x y

F (x, y ) =

f (u, v ) dv du.

A la funci on f (x, y ) se le denota por fX,Y (x, y ), y se le llama funci on de densidad conjunta de X y Y .

As como en el caso unidimensional, no existe realmente unicidad para la funci on de densidad pues basta modicarla en algunos puntos para ser distinta pero seguir cumpliendo la igualdad anterior, la funci on de distribuci on y por tanto las probabilidades, permanecen sin cambio alguno. Es claro que la funci on de densidad conjunta f (x, y ) de un vector absolutamente continuo es no negativa y cumple la condici on:

f (x, y ) dx dy = 1.

Rec procamente, toda funci on no negativa f : R2 [0, ), que integre uno, se llama funci on de densidad conjunta. En particular, cuando f (x, y ) es continua: f (x, y ) = 2 F (x, y ). yx

Observe que, en el caso absolutamente continuo y conociendo la funci on de densidad conjunta, la probabilidad del evento (a X b, c Y d) se calcula como la integral doble que se ilustra en la siguiente gura:

102

f (x, y )

y
b d

a b

P (a X b, c Y d) =

f (x, y )dydx
a c

x
La probabilidad como el volumen bajo una supercie.

Ejemplo. La funci on f : R2 [0, ) dada por 1 4 f (x, y ) = 0 si x, y [0, 2], otro caso,

es una funci on de densidad pues es no negativa e integra uno. Esta funci on de densidad conjunta corresponde a la distribuci on uniforme del vector (X, Y ) en el cuadrado [0, 2] [0, 2]. La gr aca se muestra a continuaci on: f (x, y )

1/4 2

x
Funci on de densidad f (x, y ) = 1/4, para x, y [0, 2].

Calculando la doble integral para los distintos valores de x y y , se encuentra que la funci on de distribuci on conjunta es:

103

F (x, y ) = 0 xy/4 = x/2 y/ 2 1


f (u, v )dvdu si si si si si x<0 o y < 0, 0 x, y 2, 0 x 2, y 2, 0 y 2, x 2, x 2 y y 2.

Gr acamente:

F (x, y ) y

Funci on de distribuci on F (x, y ).

3.4.

Distribuci on marginal

Dada la funci on de distribuci on conjunta F (x, y ) de un vector aleatorio, es posible obtener la funci on de distribuci on de cada variable aleatoria por separado mediante el siguiente procedimiento.

104

Denici on (Funci on de distribuci on marginal). Sea (X, Y ) un vector con funci on de distribuci on F (x, y ). A la funci on F (x) = l m F (x, y )
y

se le conoce como la funci on de distribuci on marginal de X . An alogamente se dene la funci on de distribuci on marginal de Y como F (y ) = l m F (x, y ).
x

No es dif cil vericar que las funciones de distribuci on marginales son efectivamente funciones de distribuci on univariadas. En el caso de que se tenga una funci on de densidad conjunta, se pueden obtener las funciones de densidad individuales como indica la siguiente denici on.

Denici on (Funci on de densidad marginal). Sea (X, Y ) un vector absolutamente continuo con funci on de densidad f (x, y ). A la funci on f (x) =

f (x, y ) dy

se le conoce como la funci on de densidad marginal de X . An alogamente se dene la funci on de densidad marginal de Y como f (y ) =

f (x, y ) dx.

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma.

Tampoco es dif cil comprobar que las funciones de densidad marginales son efectivamente funciones de densidad univariadas. Las dos deniciones anteriores pueden extenderse de manera evidente cuando se tenga un vector aleatorio de cualquier dimensi on nita.

3.5.

Distribuci on condicional

La siguiente denici on es una extensi on del concepto elemental de probabilidad condicional de eventos.

105

Denici on (Funci on de densidad condicional). Sea (X, Y ) un vector con funon ci on de densidad fX,Y (x, y ), y sea y tal que fY (y ) = 0. A la funci x fX |Y (x|y ) = fX,Y (x, y ) fY (y )

se le conoce como la funci on de densidad condicional de X dado que Y toma el valor y .

No es dif cil comprobar que la funci on x fX |Y (x|y ) es efectivamente una funci on de densidad, tanto en el caso discreto como en el continuo. Observe que el valor y permanece jo y la funci on es vista como una funci on de la variable real x. Se pueden denir tambi en funciones de distribuci on condicionales de la siguiente forma.

Denici on (Funci on de distribuci on condicional). Sea (X, Y ) un vector aleatorio absolutamente continuo con funci on de densidad fX,Y (x, y ), y sea y tal que fY (y ) = 0. A la funci on
x

x FX |Y (x|y ) =

fX |Y (u|y ) du

se le conoce como la funci on de distribuci on condicional de X dado que Y toma el valor y . Cuando el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente.

Nuevamente resulta que la funci on x FX |Y (x|y ) es efectivamente una funci on de distribuci on. En el caso absolutamente continuo tenemos la relaci on fX |Y (x|y ) = F (x|y ). x X |Y

3.6.

Independencia

Podemos ahora denir el importante concepto de independencia de variables aleatorias.

Denici on (Independencia de dos variables aleatorias). Se dice que X y Y son independientes, y a menudo se escribe X Y , si para cada par de conjuntos Borel medibles A, B , se cumple la igualdad P (X A, Y B ) = P (X A) P (X B ). (3.1)

106

En t erminos de la siempre existente funci on de distribuci on, la independencia de dos variables aleatorias se puede expresar como indica el siguiente resultado.

Proposici on (Independencia de dos variables aleatorias). Las variables aleatorias X y Y son independientes si, y s olo si, para cada (x, y ) en R2 se cumple la igualdad (3.2) FX,Y (x, y ) = FX (x) FY (y ).

Demostraci on. Si X y Y son independientes, entonces tomando A = (, x] y B = (, y ] en (3.1) se obtiene (3.2). Suponga ahora que se cumple (3.2) para cualesquiera x y y en R. Dena la colecci on A = {A B (R) : P (X A, Y y ) = P (X A) P (Y y ),

para todo y R }.

Usando la hip otesis es posible demostrar que A = B (R). Sea ahora A un elemento cualquiera jo de B (R). Dena la colecci on B = {B B (R) : P (X A, Y B ) = P (X A) P (Y B ) }. Resulta nuevamente que B = B (R), y de esta forma, para cualquier A y para cualquier B en B (R), se cumple (3.1). El concepto de independencia de variables aleatorias es una extensi on de la misma propiedad para eventos. Cuando la funci on de densidad conjunta fX,Y (x, y ) existe, la condici on de independencia de X y Y es equivalente a solicitar que para cualesquiera n umeros reales x y y , se cumpla la identidad fX,Y (x, y ) = fX (x) fY (y ). (3.3)

En el caso discreto, la armaci on anterior es completamente correcta. Para el caso continuo hay una observaci on t ecnica que es necesario mencionar. Como en este caso las funciones de densidad pueden ser modicadas sin que cambie la funci on de distribuci on asociada, la igualdad (3.3) puede no cumplirse para cada (x, y ) R2 , entonces se permite que la igualdad no se cumpla en un conjunto de medida de Lebesgue cero, por ejemplo, un conjunto numerable de parejas (x, y ) en R2 , y entonces habr a independencia en el caso continuo si se cumple (3.3), salvo conjuntos de medida de Lebesgue cero. El concepto de independencia puede ser extendido claramente al caso de varias variables aleatorias de la forma siguiente:

107

Denici on (Independencia de n variables aleatorias). Se dice que las variables X1 , X2 , . . . , Xn son independientes si para cualesquiera Borelianos A1 , A2 , . . . , An , se cumple P (X1 A1 , . . . , Xn An ) = P (X1 A1 ) P (Xn An ). Equivalentemente, si para cualquier (x1 , x2 , . . . , xn ) en Rn se cumple FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = FX1 (x1 ) FX2 (x2 ) FXn (xn ). M as a un, una colecci on innita de variables aleatorias es independiente si cualquier subconjunto nito de ella lo es.

Ejemplo. Sea (X, Y ) un vector aleatorio con funci on de densidad f (x, y ) = 4xy para 0 x, y 1. La gr aca de esta funci on aparece en la siguiente gura. f (x, y )
4

x
Funci on de densidad f (x, y ) = 4xy para 0 x, y 1.

La funci on de densidad marginal de X se calcula de la siguiente forma. Para 0 x 1, fX (x) =


1

f (x, y )dy =
0

4xydy = 2x.

Por lo tanto, fX (x) = 2x para 0 x 1. An alogamente fY (y ) = 2y para 0 y 1. En consecuencia, X y Y son independientes pues para cada par (x, y ), se cumple fX,Y (x, y ) = fX (x) fY (y ).

Proposici on. Sean X y Y independientes, y sean g y h dos funciones de R en R, Borel medibles. Entonces las variables g(X ) y h(Y ) tambi en son independientes.

108

Demostraci on. Sean A y B cualesquiera dos conjuntos Borel medibles. Entonces P ( g(X ) A, h(Y ) B ) = P ( X g1 (A), Y h1 (B ) )

= P ( X g1 (A) ) P ( Y h1 (B ) ) = P ( g(X ) A ) P ( h(Y ) B ).

Este resultado puede extenderse f acilmente al caso n-dimensional, y obtener que la composici on de n funciones Borel medibles aplicadas, respectivamente, a n variables aleatorias independientes, produce nuevamente variables aleatorias independientes. La denici on de independencia de dos variables aleatorias puede extenderse al caso de dos vectores aleatorios de cualquier dimensi on de la forma siguiente, y puede extenderse un poco m as para incluir la independencia de un n umero nito de vectores aleatorios no necesariamente de la misma dimensi on.

Denici on (Independencia de dos vectores aleatorios). Se dice que los vectores aleatorios X = (X1 , . . . , Xn ) y Y = (Y1 , . . . , Ym ) son independientes, si para cada A en B (Rn ), y cada B en B (Rm ), se cumple la igualdad P (X A, Y B ) = P (X A) P (X B ). (3.4)

3.7.

Esperanza de una funci on de un vector aleatorio

Si (X, Y ) es un vector aleatorio y : R2 R es una funci on Borel medible, entonces (X, Y ) es una variable aleatoria y el problema nuevamente es encontrar su esperanza. Usando directamente la denici on, la esperanza de (X, Y ) se calcula del siguiente modo: E [(X, Y )] =

x dF(X,Y ) (x),

pero, as como en el caso unidimensional, ello requiere encontrar primero la distribuci on de (X, Y ), lo cual puede ser dif cil. El siguiente resultado establece una forma alternativa de calcular la esperanza de (X, Y ), sin conocer su distribuci on, pero conociendo, por supuesto, la distribuci on del vector (X, Y ).

109

Teorema (Esperanza de una funci on de un vector aleatorio). Sea (X, Y ) on Borel medible tal que la variable un vector aleatorio, y sea : R2 R una funci aleatoria (X, Y ) tiene esperanza nita. Entonces E [(X, Y )] =
R2

(x, y ) dFX,Y (x, y ).

(3.5)

Nuevamente omitiremos la demostraci on de este resultado. Cuando el vector (X, Y ) es discreto, la f ormula (3.5) se reduce a E [(X, Y )] =
x,y

(x, y )P (X = x, Y = y ),

en donde la suma se efect ua sobre todos los posibles valores (x, y ) del vector. En este caso la demostraci on del teorema resulta no muy complicada, y se pide dar los detalles en el Ejercicio 328. En el caso cuando (X, Y ) es absolutamente continuo, la expresi on (3.5) se escribe E [(X, Y )] =
R2

(x, y )fX,Y (x, y ) dxdy.

Con ayuda de esta resultado podemos ahora demostrar que la esperanza separa sumas.

Proposici on. Sean X y Y con esperanza nita. Entonces E (X + Y ) = E (X ) + E (Y ).

Demostraci on. Sean (x, y ) = x + y , 1 (x, y ) = x, y 2 (x, y ) = y . Entonces E (X + Y ) = E ((X, Y )) =


R2

(x + y ) dFX,Y (x, y ) x dFX,Y (x, y ) + x dFX,Y (x, y )

=
R2

R2

= E (1 (X, Y )) + E (2 (X, Y )) = E (X ) + E (Y ).

110

Proposici on. Sean X y Y independientes, y sean g y h dos funciones Borel medibles tales que g(X ) y h(Y ) tienen esperanza nita. Entonces E [g(X )h(Y )] = E [g(X )] E [h(Y )]. En particular, cuando X y Y son independientes, E (X Y ) = E (X ) E (Y ).

Demostraci on. E [g(X ) h(Y )] = =


R2 R2

g(x) h(y ) dFX,Y (x, y ) g(x) h(y ) dFX (x) dFY (y )

= E [g(X )] E [h(Y )].

Es interesante observar que el rec proco de la armaci on anterior es, en general, falso. Ejemplo. Considere el vector aleatorio discreto (X, Y ) con funci on de probabilidad x\y 1 0 1 1 1/5 0 1/5 0 0 1/5 0 1 1/5 0 1/5

Entonces es sencillo vericar que E (XY ) = E (X )E (Y ) = 0, sin embargo X y Y no son independientes pues P (X = 0, Y = 0) = 1/5, mientras que P (X = 0)P (Y = 0) = 1/25. Otros ejemplos de esta misma situaci on pueden encontrarse en el Ejercicio 329 en la p agina 130.

3.8.

Covarianza

En esta secci on se dene y estudia la covarianza entre dos variables aleatorias. Una interpretaci on de este n umero, ligeramente modicado, ser a dada en la siguiente secci on.

111

Denici on (Covarianza). La covarianza de X y Y , denotada por Cov(X, Y ), es el n umero Cov(X, Y ) = E [(X E (X ))(Y E (Y ))] .

Para que la denici on anterior tenga sentido es necesario suponer que las esperanzas E (X ), E (Y ) y E (XY ) son nitas. Se revisan a continuaci on algunas propiedades de la covarianza.

Proposici on. La covarianza satisface las siguientes propiedades. 1. Cov(X, Y ) = E (XY ) E (X )E (Y ). 2. Cov(X, Y ) = Cov(Y, X ). 3. Cov(X, X ) = Var(X ). 4. Cov(a, Y ) = 0, a constante. a constante.

5. Cov(aX, Y ) = aCov(X, Y ),

6. Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ). 7. X ,Y independientes Cov(X, Y ) = 0. 8. En general, Cov(X, Y ) = 0 = X ,Y independientes.

Demostraci on. Para probar (1) se usa la propiedad lineal de la esperanza, Cov(X, Y ) = E [(X E (X ))(Y E (Y ))] = E (XY ) E (X )E (Y ). = E [XY Y E (X ) XE (Y ) + E (X )E (Y )]

Las propiedades (2), (3) y (4) se siguen directamente de la denici on, lo mismo que (5) y (6) al hacer uso de las propiedades de linealidad de la esperanza. La proposici on (7) se obtiene f acilmente de (1) pues E (XY ) = E (X )E (Y ) cuando X y Y son independientes. Finalmente damos un ejemplo para (8). Sea (X, Y ) un vector aleatorio discreto con funci on de densidad 1/8 si (x, y ) {(1, 1), (1, 1), (1, 1), (1, 1)}, 1/2 si (x, y ) = (0, 0), fX,Y (x, y ) = 0 otro caso. Entonces X y Y tienen 1/4 fX (x) = 1/2 0 id enticas densidades marginales, si x {1, 1}, 1/4 si y {1, 1}, si x = 0, fY (y ) = 1/2 si y = 0, otro caso. 0 otro caso. 112

Puede entonces comprobarse que Cov(X, Y ) = E (XY ) E (X )E (Y ) = 0. Sin embargo X y Y no son independientes pues en particular P (X = 0, Y = 0) = 1/2, mientras que P (X = 0)P (Y = 0) = 1/4.

3.9.

Coeciente de correlaci on

El coeciente de correlaci on de dos variables aleatorias es un n umero que mide el grado de dependencia lineal que existe entre ellas. Su denici on es la siguiente.

Denici on (Coeciente de correlaci on). El coeciente de correlaci on de las variables aleatorias X y Y , denotado por (X, Y ), es el n umero (X, Y ) = Cov(X, Y ) Var(X ) Var(Y ) .

Naturalmente en esta denici on se necesita suponer que las varianzas son estrictamente positivas y nitas. La interpretaci on dada al coeciente de correlaci on se justica a partir de los siguientes resultados.

Proposici on. El coeciente de correlaci on satisface las siguientes propiedades. 1. Si X y Y son independientes, entonces (X, Y ) = 0. 2. 1 (X, Y ) 1. 3. |(X, Y )| = 1 si, y s olo si, existen constantes a y b tales que, con probabilidad uno, Y = aX + b, con a > 0 si (X, Y ) = 1, y a < 0 si (X, Y ) = 1.

Demostraci on. (1) Si X y Y son independientes, entonces Cov(X, Y ) = 0, y por lo tanto (X, Y ) = 0. (2) Suponga primero que X y Y son tales que E (X ) = E (Y ) = 0, y Var(X ) = Var(Y ) = 1. Para cualquier valor de , 0 Var(X + Y )

= 1 + 2E (XY ) + 2 .

= E (X + Y )2 E 2 [X + Y ]

El caso = 1 produce el resultado E (XY ) 1, mientras que para = 1 se obtiene E (XY ) 1. Es decir, 1 E (XY ) 1. Ahora se aplica este resultado a 113

las variables aleatorias

X X X

Y Y , Y Y Y Y

que evidentemente son centradas y con varianza unitaria. Entonces 1 E X X X 1.

Esto es precisamente lo enunciado en (2) pues el t ermino de enmedio es (X, Y ). Ahora se demuestra (3). Si X y Y son tales que Y = aX + b con a = 0 y b constantes, entonces Cov(X, aX + b) a (X, Y ) = = . |a| Var(X )Var(aX + b) Por lo tanto (X, Y ) = 1 cuando a > 0, y (X, Y ) = 1 cuando a < 0. Inversamente, suponga que X y Y son tales que |(X, Y )| = 1. Dena U= X X X y V = Y Y . Y

Entonces claramente E (U ) = E (V ) = 0, y Var(U ) = Var(V ) = 1. Por lo tanto (U, V ) = E (U V ). Es f acil ver tambi en que |(U, V )| = |(X, Y )| = 1. Si (U, V ) = 1, entonces Var(U V ) = E [(U V )2 ] E 2 (U V ) = E [(U V )2 ] = 0. = 2[1 E (U V )] Esto signica que con probabilidad uno, la v.a. U V es constante. Esto es, para alguna constante c, con probabilidad uno, U V = c. Pero esta constante c debe ser cero pues E (U V ) = 0. Por lo tanto, X X Y Y = , X Y de donde se obtiene Y = Y + (X X )Y /X . Esto establece una relaci on lineal directa entre X y Y . En cambio, si (U, V ) = 1 entonces Var(U + V ) = E [(U + V )2 ] E 2 (U + V ) = E [(U + V )2 ] = 0. Esto signica nuevamente que con probabilidad uno, la v.a. U + V es constante. Esto es, para alguna constante c, con probabilidad uno, U + V = c. Nuevamente la constante c es cero pues E (U + V ) = 0. Por lo tanto, X X Y Y = , Y Y 114 = 2[1 + E (U V )]

de donde se obtiene Y = Y (X X )Y /X . Esto establece una relaci on lineal, ahora inversa, entre X y Y . Uniendo los u ltimos dos resultados se obtiene que, cuando |(X, Y )| = 1, con probabilidad uno, Y = ((X, Y )
a

Y Y ) X + (Y (X, Y )X ). X X
b

Denici on (Correlaci on positiva, negativa o nula). Cuando (X, Y ) = 0 se dice que X y Y son no correlacionadas. Cuando |(X, Y )| = 1 se dice que X y Y est an perfectamente correlacionadas positiva o negativamente, de acuerdo al signo de (X, Y ).

En general, el rec proco de la primera armaci on de la proposici on reci en demostrada, es falso, es decir, la condici on (X, Y ) = 0 no es suciente para poder armar que X y Y son independientes. En el Ejercicio 358 se muestra una situaci on concreta de este resultado. Sin embargo, cuando la distribuci on de (X, Y ) es normal y (X, Y ) = 0, entonces X y Y son independientes.

Proposici on. Si (X, Y ) es un vector con distribuci on normal bivariada tal que (X, Y ) = 0, entonces X y Y son independientes.

Demostraci on. Como veremos m as adelante, la funci on de densidad normal bivariada est a dada por la siguiente expresi on: f (x, y ) = 1 1 2 1 x X 2 x X y Y y Y 2 exp ( ) 2( )( )+( ) 2(1 2 ) X X Y Y 2X Y

2 = Var(X ), = E (Y ), 2 = Var(Y ), y (1, 1). en donde X = E (X ), X Y Y Se pueden calcular directamente las funciones de densidad marginales y comprobar que

f (x) = y f (y ) =

1
2 2X

2 exp[(x X )2 /2X ] 2 exp[(y Y )2 /2Y ],

1
2 2Y

2 ), y Y tiene distribuci 2 ). Despu es decir, X tiene distribuci on N (X , X on N (Y , Y es

115

de hacer algunos c alculos sencillos se puede demostrar que (X, Y ) = , y comprobar nalmente que cuando = 0, se verica la igualdad fX,Y (x, y ) = fX (x)fY (y ).

En resumen tenemos la siguiente tabla.

Propiedades del coeciente de correlaci on

(X, Y ) [1, 1]. |(X, Y )| = 1 Y = aX + b. X Y (X, Y ) = 0. En general, (X, Y ) = 0 = X Y . Si (X, Y ) tiene dist. normal y (X, Y ) = 0, entonces X Y .

3.10.

Esperanza y varianza de un vector aleatorio

Denici on (Esperanza y varianza de un vector). Sea X el vector aleatorio (X1 , . . . , Xn ). Cuando cada coordenada del vector tiene esperanza nita se dene la esperanza de X como el vector num erico E (X ) = (E (X1 ), . . . , E (Xn )). Si cada coordenada tiene segundo momento nito, entonces la varianza de X se dene como la matriz cuadrada Var(X1 ) Cov(X1 , X2 ) Cov(X1 , Xn ) Cov(X2 , X1 ) Var(X2 ) Cov(X2 , Xn ) Var(X ) = . . . . .. . . . . . . . Cov(Xn , X1 ) Cov(Xn , X2 ) Var(Xn )
nn

La varianza de un vector X puede expresarse como E (X E (X ))t (X E (X )) , en donde X t signica transpuesta del vector X . Observe que (X E (X ))t es un vector columna de dimensi on n 1, mientras que (X E (X )) es un vector rengl on de dimensi on 1 n. De modo que el producto de estos dos vectores, en el orden 116

indicado, resulta en una matriz cuadrada de dimensi on n n cuya entrada (i, j ) es E [(Xi E (Xi ))(Xj E (Xj ))] = Cov(Xi , Xj ). Esta matriz tambi en se llama matriz de varianzas y covarianzas y tiene las siguientes propiedades.

Proposici on. La matriz Var(X ) es sim etrica y positiva denida. Esto u ltimo signica que para cualquier vector = (1 , . . . , n ) de Rn se cumple la desigualdad Var(X ), 0, en donde , denota el producto interior usual de Rn .

Demostraci on. La simetr a se sigue del hecho de que Cov(Xi , Xj ) = Cov(Xj , Xi ). La propiedad de ser positiva denida se obtiene usando la bilinealidad de la covarianza,
n

Var(X ),

=
i,j =1 n

Cov(Xi , Xj )i j Cov(i Xi , j Xj )
i,j =1 n n

= Cov(
i=1 n

i Xi ,
j =1

j Xj )

= Var(
i=1

i Xi ) 0.

3.11.

Distribuciones multivariadas discretas

En esta secci on se estudian algunas distribuciones discretas de vectores aleatorios.

Distribuci on multinomial
Suponga que se tiene un experimento aleatorio con k posibles resultados distintos. Las probabilidades para cada uno de estos resultados son respectivamente p1 , . . . , pk , en donde p1 + + pk = 1. Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior, y dena las variables aleatorias discretas 117

X1 , . . . , Xk , como aquellas que registran el n umero de veces que se obtienen cada uno de los k posibles resultados en los n ensayos. Entonces se dice que el vector X = (X1 , . . . , Xk ) tienen una distribuci on multinomial, y su funci on de densidad conjunta es n x1 xk 0
xk 1 px 1 pk

si x1 , . . . , xk = 0, 1, . . . , n con x1 + + xk = n, otro caso.

f (x1 , . . . , xk ) =

Los par ametros de esta distribuci on son entonces el n umero de ensayos n, el n umero de resultados distintos k en cada ensayo, y las probabilidades p1 , . . . , pk . El factor que aparece en par entesis en la funci on de densidad conjunta se conoce como coeciente multinomial y se dene como sigue n x1 xk = n! . x1 ! xk !

Se dice entonces que X tiene distribuci on multinomial(n, k, p1 , . . . , pk ). Observe que cuando u nicamente hay dos posibles resultados en cada ensayo, es decir k = 2, la distribuci on multinomial se reduce a la distribuci on binomial. No es dif cil probar que E (X ) = (np1 , . . . , npk ), y [Var(X )]ij = npi (1 pi ) npi pj si i = j, si i = j.

Distribuci on hipergeom etrica multivariada


Suponga que se tienen N objetos de los cuales N1 son de un primer tipo, N2 son de un segundo tipo y as sucesivamente con Nk objetos de tipo k. Entonces N1 + + Nk = N . Suponga que de la totalidad de objetos se obtiene una muestra sin reemplazo de tama no n, y dena la variables X1 , . . . , Xk , como aquellas que representan el n umero de objetos seleccionados de cada tipo. Se dice entonces que X1 , . . . , Xk tienen una distribuci on hipergeom etrica multivariada y su funci on de densidad conjunta es N1 x1 N n Nk xk

f (x1 , . . . , xk ) =

en donde cada xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a xi Ni y adem as debe cumplirse que x1 + + xk = n. Se dice entonces que (X1 , . . . , Xk ) tiene distribuci on hipergeom etrica multivariada (N, N1 , . . . , Nk , n). Observe que cuando u nicamente hay dos tipos de objetos, es decir k = 2, la distribuci on hipergeom etrica multivariada se reduce a la distribuci on hipergeom etrica univariada. V ease la secci on de ejercicios para la esperanza y varianza de esta distribuci on. 118

3.12.

Distribuciones multivariadas continuas

Ahora estudiamos algunas distribuciones continuas de vectores aleatorios.

Distribuci on uniforme bivariada


Se dice que las variables aleatorias continuas X y Y tienen una distribuci on conjunta uniforme en el rect angulo (a, b) (c, d), si su funci on de densidad conjunta es 1 si x (a, b), y (c, d), (b a)(d c) f (x, y ) = 0 otro caso.

Se escribe (X, Y ) unif(a, b) (c, d). Observe que las distribuciones marginales son nuevamente uniformes, adem as X y Y siempre son independientes. Es inmediato comprobar que E (X, Y ) = ((a + b)/2, (c + d)/2), y que 1 2 0 (b a) Var(X, Y ) = 12 . 1 2 0 (d c) 12

Distribuci on normal bivariada


Se dice que las variables aleatorias continuas X y Y tienen una distribuci on normal bivariada si su funci on de densidad conjunta es

f (x, y ) =

1 1 2 x X 2 1 x X y Y y Y 2 exp ( ) 2( )( )+( ) 2 2(1 ) X X Y Y 2X Y

para cualesquiera valores reales de x y y , y en donde 1 < < 1, X > 0, Y > 0, 2 , , 2 , ). y X , Y dos constantes reales sin restricci on. Se escribe X N(X , X Y Y 2 Puede demostrarse que X tiene una distribuci on marginal N(X , X ), y Y tiene dis2 ). El par tribuci on marginal N(Y , Y ametro resulta ser el coeciente de correlaci on entre X y Y . Por lo tanto, E (X, Y ) = (X , Y ), y puede demostrarse que Var(X, Y ) =
2 X X Y

X Y 2 Y

119

Es interesante observar que existen distribuciones bivariadas con densidades marginales normales, pero cuya distribuci on conjunta no lo es. En el Ejercicio 376 en la p agina 136 se presenta un ejemplo al respecto. Cuando X = Y = 0, y X = Y = 1, la distribuci on se llama normal bivariada est andar, y su gr aca se muestra a continuaci on.

f (x, y )

Funci on de densidad normal bivariada est andar.

3.13.

Ejercicios

Distribuci on conjunta
262. Graque y demuestre que las siguientes funciones son de distribuci on. 1 1 a ) F (x, y ) = (1 ex )( + tan1 y ), para x 0. 2 b ) F (x, y ) = 1 ex ey + exy , para x, y 0. 263. Investigue si las siguientes funciones son de distribuci on. a ) F (x, y ) = 1 exy , b ) F (x, y ) = 1 exy , para x, y 0.

para x, y 0. 0 si x + y < 0, 1 si x + y 0.

264. Demuestre que la siguiente funci on no es de distribuci on. F (x, y ) =

Este es un ejemplo de una funci on que tiene el comportamiento l mite adecuado en innito, es continua por la derecha y no decreciente en cada variable, pero no es funci on de distribuci on pues asigna valores negativos a algunas regiones del plano. Por ejemplo calcule la probabilidad del cuadrado (1, 1](1, 1]. De manera an aloga demuestre que la siguiente funci on tampoco es de distribuci on. F (x, y, z ) = 0 si x + y + z < 0, 1 si x + y + z 0.

Extienda este resultado al caso n-dimensional. 120

265. Demuestre que la siguiente funci on no es de distribuci on. F (x, y ) = m n{1, m ax{x, y }} 0 si x, y > 0, otro caso.

266. Sean F (x) y G(x) dos funciones de distribuci on. Demuestre o proporcione un contraejemplo para las siguientes armaciones. a ) F (x)G(x) es una funci on de distribuci on univariada. b ) F (x)G(y ) es una funci on de distribuci on bivariada. 267. Diga falso o verdadero. Justique en cada caso. a ) P (X > x, Y > y ) = 1 P (X x, Y y ). b ) P (X x, Y y ) P (X x). c ) P (X x) = P (X x, Y x) + P (X x, Y > x).

d ) P (X + Y x) P (X x). e ) P (XY < 0) P (X < 0).

268. Sean X y Y variables aleatorias con funci on de distribuci on conjunta F (x, y ). Demuestre que para cualesquiera n umeros reales a < b y c < d, P (a < X b, c < Y d) = F (b, d) + F (a, c) F (a, d) F (b, c). on de distribuci on conjunta 269. Sean X1 , X2 y X3 variables aleatorias con funci F (x1 , x2 , x3 ). Demuestre que para cualesquiera n umeros reales a1 < b1 , a2 < b2 y a3 < b3 , la probabilidad P (a1 < X1 b1 , a2 < X2 b2 , a3 < X3 b3 ) es igual a F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 )

+F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 ) F (a1 , a2 , a3 ).

270. Sea (X, Y ) un vector con funci on de distribuci on conjunta FX,Y (x, y ). Demuestre que para todo (x, y ) en R2 , FX (x) + FY (y ) 1 FX,Y (x, y ) FX (x)FY (y ).

271. Considere el espacio = [0, 1] [0, 1] junto con (B [0, 1] B [0, 1]) y P la medida de probabilidad uniforme sobre . Sea X : R2 el vector aleatorio dado por X (1 , 2 ) = (1 2 , 1 2 ). Demuestre que X es efectivamente un vector aleatorio y encuentre su funci on de distribuci on.

121

Densidad conjunta
272. Demuestre que la funci on de densidad de un vector (X, Y ) absolutamente continuo puede ser encontrada, a partir de la funci on de distribuci on, de las siguientes formas alternativas: a ) fX,Y (x, y ) = 2 P (X > x, Y > y ). xy 2 P (X x, Y > y ). b ) fX,Y (x, y ) = xy 2 c ) fX,Y (x, y ) = P (X > x, Y y ). xy

273. Graque y demuestre que las siguientes funciones son de densidad. a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = 4xy, para 0 x, y 1. c ) f (x, y ) = 6x2 y,
9 2 2 4x y , exy ,

d ) f (x, y ) = e ) f (x, y ) =

para 0 x, y 1. para x, y > 0.

para 1 x, y 1.

f ) f (x, y ) = ex ,

para 0 < y < x.

274. Calcule la constante c que hace a f una funci on de densidad. a ) f (x) = cx, b ) f (x, y ) = cx, para 0 x 1.

para 0 < y < x < 1. para 0 < x < 1, 0 < y < 2. para 0 x, y, z 1. para 0 x1 , . . . , xn 1.

d ) f (x, y ) = c(x2 + 1 2 xy ),

c ) f (x, y ) = c(x + y ) para 0 x, y 1.

e ) f (x, y, z ) = c(x + y + z ),

f ) f (x1 , . . . , xn ) = c(x1 + + xn ),

275. Encuentre la funci on de densidad del vector (X, Y ) cuya funci on de distribuci on es 1 1 a ) F (x, y ) = (1 ex )( + tan1 y ), para x 0. 2 b ) F (x, y ) = 1 ex ey + exy , para x, y 0. 276. Encuentre la funci on de distribuci on del vector (X, Y ) cuya funci on de densidad es a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = exy , para x, y > 0. c ) f (x, y ) = ey , para 0 < x < y . para 0 < x < y .

d ) f (x, y ) = 2exy ,

122

277. Sean f (x) y g(x) dos funciones de densidad. Demuestre o proporcione un contraejemplo para las siguientes armaciones: a ) f (x)g(x) es una funci on de densidad univariada. b ) f (x)g(y ) es una funci on de densidad bivariada. 278. Sean X y Y independientes ambas con distribuci on exp(). Encuentre la funci on de densidad y de distribuci on de a ) W = m ax{X, Y }. b ) W = m n{X, Y }.

Distribuci on marginal
279. Suponiendo el caso absolutamente continuo, demuestre que la funci on de densidad marginal, x fX (x) =

fX,Y (x, y )dy

es efectivamente una funci on de densidad. 280. Demuestre que la funci on de distribuci on marginal x FX (x) = l m FX,Y (x, y )
y

es efectivamente una funci on de distribuci on. 281. Encuentre las funciones de distribuci on marginales del vector (X, Y ) cuya funci on de distribuci on conjunta es a ) F (x, y ) = (1 ex )(1 ey ), b ) F (x, y ) = (1
2 ex )(1

para x, y > 0. para x, y > 0.

2 ey ),

282. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya funci on de densidad conjunta es a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = 4xy, para 0 < x, y < 1. c ) f (x, y ) = 24x(1 x y ), para x, y > 0 y x + y < 1. para 0 < x, y < 1. para 0 < x < 2 y 0 < y < 1.

d ) f (x, y ) = (x + 2y )/4, f ) f (x, y ) = 1/x,

e ) f (x, y ) = 2(4x + y )/5,

para 0 < y < x < 1.

283. Sea 0 < a < 1 y dena la funci on f (x, y ) = ax (1 a)y para x, y N. Demuestre que f (x, y ) es una funci on de densidad y calcule las funciones de densidad marginales.

123

Distribuci on condicional
284. Demuestre que la funci on de distribuci on condicional
x

x FX |Y (x|y ) =

fX |Y (u|y ) du

es efectivamente una funci on de distribuci on. 285. Demuestre que la funci on de densidad condicional x fX |Y (x|y ) = es efectivamente una funci on de densidad. 286. Sea (X, Y ) un vector aleatorio absolutamente continuo. Demuestre la f ormula fX |Y (x|y ) = F (x|y ). x X |Y fX,Y (x, y ) fY (y )

287. P erdida de memoria en la distribuci on exponencial. Sea X con distribuci on exp() y sea t > 0 jo. Demuestre que la distribuci on condicional de X t, dado que X t, sigue siendo exp(). 288. Calcule las funciones condicionales fX |Y (x|y ) y FX |Y (x|y ), para las siguientes funciones de densidad conjunta. a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = 4xy, para 0 < x, y < 1. c ) f (x, y ) = 24x(1 x y ), para x, y > 0 y x + y < 1. para 0 < x, y < 1. para 0 < x < 2 y 0 < y < 1.

d ) f (x, y ) = (x + 2y )/4, f ) f (x, y ) = 1/x,

e ) f (x, y ) = 2(4x + y )/5,

para 0 < y < x < 1.

289. Calcule las funciones condicionales FX | Y (x | y ) y fX | Y (x | y ), para las siguientes funciones de distribuci on conjunta. 1 1 a ) F (x, y ) = (1 ex )( + tan1 y ), para x 0. 2 b ) F (x, y ) = 1 ex ey + exy , para x, y 0. 290. Se hacen tres lanzamientos de una moneda equilibrada cuyos resultados llamaremos cara y cruz. Sea X la v.a. que denota el n umero de caras que se obtienen en los dos primeros lanzamientos y sea Y la v.a. que denota el n umero de cruces en los dos u ltimos lanzamientos. Calcule fX,Y (x, y ), fX (x), fY (y ) y fY |X (y |x) para x = 0, 1, 2. 291. Sea (X, Y ) un vector con funci on de densidad 1 fX,Y (x, y ) = (x + y ), 8 124 para 0 x, y 2.

f (x, y )

y
2

Funci on de densidad f (x, y ) = 1 8 (x + y ), para x, y [0, 2].

Compruebe que f (x, y ) es una funci on de densidad. Calcule fX (x), fY (y ), fX |Y (x|y ), fY |X (y |x), FX,Y (x, y ), FX (x), FY (y ), FX |Y (x|y ), FY |X (y |x), P (Y > X ) y P (X > 1 | Y < 1). 292. Sea (X, Y ) un vector con funci on de densidad fX,Y (x, y ) = 8xy, para 0 < x < y < 1.

f (x, y )

x y
1 1

Funci on de densidad f (x, y ) = 8xy, para 0 < x < y < 1.

Compruebe que f (x, y ) es una funci on de densidad. Calcule fX (x), fY (y ), fX |Y (x|y ), fY |X (y |x), FX,Y (x, y ), FX (x), FY (y ), FX |Y (x|y ), FY |X (y |x), P (X + Y < 1) y P (Y < 1/2 | X < 1/2). 293. Sea (X, Y ) un vector con funci on de densidad fX,Y (x, y ) = 4x(1 y ), para 0 < x, y < 1.

125

f (x, y )

Funci on de densidad f (x, y ) = 4x(1 y ), para 0 < x, y < 1.

Compruebe que f (x, y ) es efectivamente una funci on de densidad. Calcule fX (x), fY (y ), fX |Y (x|y ), fY |X (y |x), FX,Y (x, y ), FX (x), FY (y ), FX |Y (x|y ), FY |X (y |x), P (X > 1/2) y P (1/4 < Y < 3/4 | X < 1/2).

Independencia
294. Demuestre la variable aleatoria constante X = c es independiente de cualquier otra variable aleatoria. Inversamente, suponga ahora que X es independiente de cualquier otra variable aleatoria, demuestre que X es constante. 295. Demuestre que los eventos A y B son independientes si, y s olo si, las variables aleatorias indicadoras 1A y 1B lo son. 296. Demuestre que si tres variables aleatorias son independientes, entonces cualesquiera dos de ellas lo son. M as generalmente, demuestre que cualquier subconjunto de un conjunto de variables aleatorias independientes tambi en lo es. 297. Sean X1 , . . . Xn independientes, y sean g1 , . . . , gn funciones de R en R, Borel medibles. Demuestre que las variables aleatorias g1 (X1 ), . . . , gn (Xn ) son independientes. 298. Sean X1 , . . . , Xn independientes, y sea 1 k < n. Sean g : Rk R y h : Rnk R funciones Borel medibles. Demuestre que las variables aleatorias g(X1 , . . . , Xk ) y h(Xk+1 , . . . , Xn ) son independientes. 299. Determine si las siguientes son funciones de densidad de variables aleatorias independientes. a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = 2x, para 0 < x, y < 1. c ) f (x, y ) = 2exy , para 0 < x < y . d ) f (x, y ) = exy , para x, y > 0. 126

3 e ) f (x, y ) = (x2 + y 2 ), para x, y [1, 1]. 8 300. Determine si las siguientes son funciones de distribuci on de variables aleatorias independientes. a ) F (x, y ) = (1 ex )(1 ey ), para x, y > 0.
2 2

b ) F (x, y ) = (1 ex )(1 ey ), para x, y > 0.

301. Demuestre que X y Y son independientes si, y s olo si, para cualesquiera n umeros reales x y y , P (X > x, Y > y ) = P (X > x) P (Y > y ). 302. Demuestre que X y Y son independientes si, y s olo si, para cualesquiera n umeros reales a < b y c < d, P (a < X b, c < Y d) = P (a < X b) P (c < Y d). 303. Diga falso o verdadero. Demuestre en cada caso. a ) X, Y independientes X, Y 2 independientes.

b ) X, Y independientes X 2 , Y 2 independientes.

d ) X, Y independientes X + Y, X Y independientes. e ) X, Y independientes XY, Y independientes. f ) X 2 , Y 2 independientes X, Y independientes.

c ) X, Y independientes X + Y, Y independientes.

g ) X, Y, Z independientes X + Y, Z independientes. 304. Sean X y Y independientes ambas con distribuci on normal est andar. Demuestre que Z = aX + bY + c tiene distribuci on normal cuando ab = 0. Encuentre E (Z ) y Var(Z ). 305. Sean X1 , . . . , Xn variables aleatorias independientes cada una con distribuci on Ber(p). Calcule P (X1 + + Xn = k) para k = 0, 1, . . . , n. 306. Sean X y Y independientes ambas con distribuci on unif{1, . . . , n}. Encuentre la distribuci on de (U, V ) = (X + Y, X Y ). Determine si U y V son independientes. 307. Sean X 0 y Y 0 independientes con valores enteros naturales y con esperanza nita. Demuestre que E (m n{X, Y }) =
n=1

P (X n)P (Y n).

308. Sean X y Y independientes ambas con distribuci on unif{1, 1}. Sea Z = XY . Demuestre que X, Y y Z son independientes dos a dos pero no lo son en su conjunto. 127

309. Sean X y Y independientes con distribuci on Poisson(1 ) y Poisson(2 ) respectivamente. Demuestre que la distribuci on condicional de X dado que X +Y = n es bin(n, 1 /(1 + 2 )). 310. Sean X y Y independientes con distribuci on unif{0, 1, . . . , n} y unif{0, 1, . . . , m} respectivamente. Encuentre la funci on de densidad de X + Y . 311. Sean X1 , . . . , Xn independientes con distribuci on geo(p). Demuestre que X1 + + Xn tiene distribuci on bin neg(n, p). 312. Sean X y Y independientes. Encuentre la funci on de distribuci on de W en t erminos de FX (x) y FY (y ) cuando a ) W = m ax{X, Y }. b ) W = m n{X, Y }. 313. Sean X y Y independientes ambas con distribuci on exp(), y sea a una constante. Calcule P (X Y aX ) y P (X Y aX ). 314. Usando la siguiente tabla, construya la funci on de densidad f (x, y ) de un vector discreto (X, Y ) con la condici on de que X y Y sean independientes. x\y 0 1 0 1

315. Sea (X, Y ) un vector discreto con distribuci on de probabilidad uniforme en el conjunto {1, . . . , n} {1, . . . , m}, con n y m enteros positivos. Demuestre que X y Y son independientes. 316. Sea (X, Y ) un vector aleatorio con funci on de densidad fX,Y (x, y ) = c(1 x), para 0 < x < y < 1.

a ) Encuentre el valor de c que hace a fX,Y (x, y ) una funci on de densidad y graque esta funci on. b ) Calcule P (X + Y > 1) y P (X 1/2). c ) Encuentre las funciones de densidad marginales fX (x) y fY (y ).

d ) Determine si X y Y son independientes. 317. Sea (X, Y ) un vector aleatorio con funci on de densidad f (x, y ) = c 1 2
x +y

, para x = 0, 1, 2 y y = 1, 2.

Encuentre el valor de la constante c y determine si X y Y son independientes. Calcule adem as las probabilidades P (X = 1), P (X = 2 | Y = 2) y P (XY = 2). 318. Sea (X, Y ) un vector aleatorio con funci on de densidad fX,Y (x, y ) = 2, para 0 < x < y < 1.

128

a ) Graque y demuestre que fX,Y (x, y ) es una funci on de densidad. b ) Encuentre las funciones de densidad marginales fX (x) y fY (y ). c ) Determine si X y Y son independientes. d ) Calcule P (Y > X ) y P (Y > X 2 ). 319. Sea (X, Y ) un vector aleatorio con funci on de densidad fX,Y (x, y ) = c|x + y |, para 1 < x, y < 1.

a ) Encuentre el valor de la constante c que hace a fX,Y (x, y ) una funci on de densidad y graque esta funci on. b ) Calcule P (X > 0), P (XY > 0) y P (0 < X + Y < 1). c ) Encuentre las funciones de densidad marginales fX (x) y fY (y ). d ) Determine si X y Y son independientes. 320. Sean X y Y independientes con distribuci on exponencial con par ametros 1 y 2 respectivamente. Demuestre que P (Y > X ) = 1 . 1 + 2

321. Sean X y Y independientes con distribuci on exponencial con par ametros 1 y 2 respectivamente. Demuestre que X Y tiene distribuci on exponencial de par ametro 1 + 2 . 322. Sean X y Y independientes con distribuci on bin(n, p) y bin(m, p) respectivamente. Demuestre que X + Y tiene distribuci on bin(n + m, p) 323. Sean X y Y independientes con distribuci on Poisson con par ametros 1 y 2 respectivamente. Demuestre que X + Y tiene distribuci on Poisson(1 + 2 ). 324. Sea (X, Y, Z ) un vector aleatorio con funci on de densidad fX,Y,Z (x, y, z ) = 8xyz, para 0 < x, y, z < 1.

a ) Compruebe que f (x, y, z ) es una funci on de densidad. b ) Calcule P (X < Y < Z ) y P (X + Y + Z < 1). c ) Encuentre fX,Y (x, y ), fX,Z (x, z ) y fY,Z (y, z ). d ) Determine si X , Y y Z son independientes. 325. Sea (X, Y, Z ) un vector aleatorio con funci on de densidad fX,Y,Z (x, y, z ) = 24x, para 0 < x < y < z < 1.

a ) Compruebe que f (x, y, z ) es una funci on de densidad. b ) Calcule P (X + Y < 1) y P (Z X > 1/2). c ) Encuentre fX,Y (x, y ), fX,Z (x, z ) y fY,Z (y, z ).

d ) Determine si X , Y y Z son independientes. 129

326. Sea X1 , X2 , . . . una sucesi on de v.a.s independientes cada una con distribuci on unif(0, 1). Demuestre que para cualquier > 0,
n

l m P (m ax{X1 , . . . , Xn } 1

) = e . n

327. Sean X y Y independientes con distribuci on Poisson de par ametros 1 y 2 respectivamente. Demuestre que E (X | X + Y = n) = n 1 . 1 + 2

Esperanza de una funci on de un vector aleatorio


328. Esperanza de una funci on de un vector discreto. Sea (X, Y ) un vector aleatorio discreto con valores en el conjunto producto {x1 , x2 , . . .} {y1 , y2 , . . .}, y sea : R2 R una funci on Borel medible tal que la variable (X, Y ) tiene esperanza nita. Demuestre que E [(X, Y )] =

(xi , yj )P (X = xi , Y = yj ).

i=1 j =1

329. Demuestre que la condici on E (XY ) = E (X )E (Y ) no implica necesariamente que X y Y son independientes. Para ello considere cualquiera de los siguientes ejemplos. 1/8 si (x, y ) = (1, 1), (1, 1), (1, 1), (1, 1), a ) f (x, y ) = 1/2 si (x, y ) = (0, 0), 0 otro caso. b ) f (x, y ) = 3(x2 + y 2 )/8, para x, y [1, 1]. c ) X con distribuci on uniforme en {1, 0, 1} y Y = 1(X =0) . 330. Demuestre que si X1 , X2 , . . . , Xn son independientes e integrables, entonces E (X1 X2 Xn ) = E (X1 ) E (X2 ) E (Xn ). 331. Sean X y Y independentes. Diga falso o verdadero justicando en cada caso. a ) Var(X + Y ) = Var(X ) + Var(Y ). b ) Var(X Y ) = Var(X ) Var(Y ). c ) Var(XY ) = Var(X )Var(Y ). 332. Sean X y Y independientes con varianza nita. Demuestre que Var(XY ) = Var(X ) Var(Y ) + E 2 (X ) Var(Y ) + E 2 (Y ) Var(X ). 333. Sean X1 , . . . , Xn independientes con la misma distribuci on, y sea Sn = X1 + + Xn . Suponiendo que las esperanzas indicadas existen, demuestre que E (X1 / Sn ) = 1/n. Concluya que para m n, E (Sm / Sn ) = m/n. 130

334. Sea X1 , . . . , Xn variables aleatorias independientes con id entica distribuci on y con esperanza nita. Demuestre que E (X1 | X1 + + Xn = k) = 335. Sea (X, Y ) un vector aleatorio discreto siguiente tabla x\y -1 1 .1 2 .06 3 .1 k . n

con funci on de densidad dada por la 0 .05 .2 .05 1 .1 .04 .3

a ) Graque f (x, y ) y compruebe que efectivamente se trata de una funci on de densidad conjunta. b ) Calcule y graque las densidades marginales fX (x) y fY (y ). Verique que ambas son funciones de densidad. c ) Demuestre que X y Y no son independientes. d ) Calcule E (XY ) y fX +Y (u). 336. Sea (X, Y ) un vector discreto con funci on de tabla x\y 2 4 1 2/18 3/18 2 3/18 5/18 3 1/18 1/18 densidad dada por la siguiente 6 1/18 1/18 1/18

a ) Graque f (x, y ) y compruebe que efectivamente es una funci on de densidad conjunta. b ) Calcule y graque las densidades marginales fX (x) y fY (y ). Verique que ambas son efectivamente funciones de densidad. c ) Demuestre que X y Y no son independientes. d ) Calcule E (XY ) y fX +Y (u). 337. Sea (X, Y ) un vector aleatorio con funci on de densidad dada por f (x, y ) = 8xy si 0 < y < x < 1, 0 otro caso.

a ) Graque f (x, y ) y compruebe que efectivamente es una funci on de densidad conjunta. b ) Encuentre y graque las densidades marginales fX (x) y fY (y ). Verique que ambas son efectivamente funciones de densidad. c ) Demuestre que X y Y no son independientes. d ) Calcule E (XY ) y fX +Y (u).

131

Esperanza y varianza de un vector


338. Calcule la esperanza y varianza del vector aleatorio (X, Y ) cuya funci on de densidad conjunta es a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = 4xy, para x, y [0, 1].

Covarianza
339. Sea a un n umero real cualquiera. Encuentre variables aleatorias X y Y tales que Cov(X, Y ) = a. 340. Diga falso o verdadero. Demuestre en cada caso. a ) X 0, Y 0 Cov(X, Y ) 0.

b ) Cov(X, Y ) = 0, Cov(Y, Z ) = 0 Cov(X, Z ) = 0. c ) Cov(X, Y ) > 0, Cov(Y, Z ) > 0 Cov(X, Z ) > 0.

d ) Cov(X, Y ) = a, Cov(Y, Z ) = a Cov(X, Z ) = a. 341. Diga falso o verdadero. Demuestre en cada caso. a ) Cov(X, Y ) 0.

b ) Cov(aX, bY ) = ab Cov(X, Y ),

con a, b constantes.

c ) Cov(X, aY + b) = a Cov(X, Y ) + b, con a, b constantes. 342. Demuestre que a ) Cov(X, Y ) = E (XY ) E (X )E (Y ). b ) Cov(X, Y ) = Cov(Y, X ). c ) Cov(X, X ) = Var(X ). d ) Cov(X, X ) = Var(X ). e ) Cov(aX + b, Y ) = aCov(X, Y ), con a, b constantes. f ) Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ). 343. Demuestre que la condici on Cov(X, Y ) = 0 no es suciente para concluir que X y Y son independientes. En el texto se proporciona un ejemplo para un vector discreto. Construya ahora un ejemplo para un vector continuo. 344. Demuestre que Var(X Y ) = Var(X ) + Var(Y ) 2 Cov(X, Y ). 345. Demuestre que
n

a ) Var(X1 + + Xn ) =
n m

Var(Xk ) + 2
k =1 n m i=1 j =1 j<k

Cov(Xj , Xk ).

b ) Cov(
i=1

Xi ,
j =1

Yj ) =

Cov(Xi , Yj ).

132

346. Sea X1 , . . . , Xn independientes y con varianza nita. Demuestre que


n

Var(X1 + + Xn ) =

Var(Xk ).
k =1

= (X1 + 347. Sean X1 , . . . , Xn independientes y con id entica distribuci on. Dena X + Xn )/n. Demuestre que para cada k = 1, . . . , n, se cumple X ) = 0. Cov(Xk X, 348. Sea (X, Y ) con distribuci on uniforme en el conjunto {1, . . . , n} {1, . . . , n}. Demuestre que Cov(X, Y ) = 0. 349. Sea (X, Y ) con distribuci on uniforme en el conjunto (a, b) (c, d). Demuestre que Cov(X, Y ) = 0. 350. Calcule la covarianza de X y Y cuya funci on de densidad conjunta est a dada por la siguiente tabla. x\y -1 1 -1 1/12 3/12 0 2/12 2/12 1 3/12 1/12 de densidad conjunta est a dada 3 .15 .15 .15

351. Calcule la covarianza de X y Y cuya funci on por la siguiente tabla. x\y 1 2 2 .2 .05 4 .05 .1 6 .05 .1

352. Calcule la covarianza de X y Y , cuya funci on de densidad conjunta es a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = 3x2 y, para 1 < x < 1, 0 < y < 1.
x c ) f (x, y ) = 1 2e ,

d ) f (x, y ) =

exy ,

para |y | < x.

para x, y > 0.

2 , , 2 , ). 353. Sea (X, Y ) un vector con distribuci on normal bivariada N(X , X Y Y Demuestre que Cov(X, Y ) = X Y .

Coeciente de correlaci on
354. Sean a, b, c, d constantes tales que ac > 0. Demuestre que (aX + b, cY + d) = (X, Y ). 355. Diga falso o verdadero. Demuestre en cada caso. 133

a) b) c) d) e) f) g)

(X, Y ) = 0, (Y, Z ) = 0 (X, Z ) = 0. (X, Y ) > 0, (Y, Z ) > 0 (X, Z ) > 0. (X, Y ) < 0, (Y, Z ) < 0 (X, Z ) < 0. (X, Y ) = 1, (Y, Z ) = 1 (X, Z ) = 1. (X, Y ) = 1, (Y, Z ) = 1 (X, Z ) = 1. (X, Y )(Y, Z ) = 1 (X, Z ) = 1. (X, Y ) = a, (Y, Z ) = a (X, Z ) = a. (X, Y ) = (Y, X ). (aX, Y ) = a (X, Y ), a constante. (X + a, Y ) = (X, Y ), a constante. (aX + b, Y ) = a (X, Y ) + b, a, b constantes. (X1 + X2 , Y ) = (X1 , Y ) + (X2 , Y ).

356. Diga falso verdadero. Demuestre en cada caso. a) b) c) d) e)

357. Sea a un n umero en [1, 1]. Encuentre variables aleatorias X y Y tales que (X, Y ) = a. 358. Sean X y Y independientes con distribuci on Ber(p) con p = 1/2. Demuestre que el coeciente de correlaci on entre X + Y y |X Y | es cero, y sin embargo estas variables aleatorias no son independientes. 359. Sean a y b constantes. Demuestre que a) b) c) d) e) (X, X ) = 1. (X, X ) = 1. (X, aX + b) = 1, si a > 0. (X, aX + b) = 1, si a < 0. (X, aX + b) = 0, si a = 0.

360. Demuestre que (aX + b, cY + d) = signo(ac) (X, Y ), en donde ac = 0 y signo(x) = 1 si x > 0, 0 si x < 0.

361. Calcule el coeciente de correlaci on de X y Y cuya funci on de densidad conjunta est a dada por la siguiente tabla. x\y 0 1 1 1/8 1/2 2 1/4 1/8

362. Calcule el coeciente de correlaci on de X y Y cuya funci on de densidad conjunta est a dada por la siguiente tabla. x\y 2 4 6 1 1/9 1/9 1/9 134 2 1/9 1/9 1/9 3 1/9 1/9 1/9

363. Calcule el coeciente de correlaci on de X y Y con distribuci on conjunta uniforme en el conjunto a ) {1, . . . , n} {1, . . . , n}. b ) [1, 1] [1, 1]. 364. Sea X con distribuci on bin(n, p) y sea Y = n X . Demuestre que Cov(X, Y ) = np(1 p) y por lo tanto (X, Y ) = 1. 365. Calcule el coeciente de correlaci on de X y Y cuya funci on de densidad conjunta es a ) f (x, y ) = b ) f (x, y ) = c ) f (x, y ) =
1 2 sin(x 1 x 2e , exy ,

+ y ), para x, y [0, /2]. para |y | < x. para x, y > 0.

366. Sean X y Y independientes e id enticamente distribuidas. Demuestre que (X + Y, X Y ) = 0.


2 , , 2 , ). 367. Sea (X, Y ) un vector con distribuci on normal bivariada N(X , X Y Y Demuestre que (X, Y ) = .

Distribuci on multinomial
368. Demuestre que la funci on de densidad de la distribuci on multinomial efectivamente lo es. 369. Sea X = (X1 , . . . , Xk ) con distribuci on multinomial(n, k, p1 , . . . , pk ). Demuestre que Xi tiene distribuci on marginal bin(n, pi ), para i = 1, . . . , k. 370. Sea X = (X1 , . . . , Xk ) con distribuci on multinomial(n, k, p1 , . . . , pk ). Demuestre que E (X ) = (np1 , . . . , npk ) y que [Var(X )]ij = npi (1 pi ) npi pj si i = j, si i = j.

Distribuci on hipergeom etrica multivariada


371. Demuestre que la funci on de densidad de la distribuci on hipergeom etrica multivariada efectivamente lo es. 372. Sea X = (X1 , . . . , Xk ) con distribuci on hipergeom etrica multivariada con par ametros (N, N1 , . . . , Nk , n). Demuestre que Xi tiene distribuci on hipergeom etrica univariada con par ametros (N, Ni , n), para i = 1, . . . , k. 373. Sea X = (X1 , . . . , Xk ) con distribuci on hipergeom etrica multivariada con N1 Nk par ametros (N, N1 , . . . , Nk , n). Demuestre que E (X ) = (n , . . . , n ), y N N

135

que [Var(X )]ij =

Ni N Ni N n n N N N 1 n Ni Nj n N N N N 1

si i = j, si i = j.

Distribuci on normal bivariada

374. Demuestre que la funci on de densidad de la distribuci on normal bivariada efectivamente lo es.
2 , , 2 , ). 375. Sea (X, Y ) un vector con distribuci on normal bivariada N(X , X Y Y 2 ), y Y tiene distriDemuestre que X tiene distribuci on marginal N(X , Y 2 ). V buci on marginal N(Y , Y ease el siguiente ejercicio para vericar que el rec proco de este resultado es falso.

376. Sea f (x, y ) la funci on de densidad normal bivariada est andar con = 0. Dena g(x, y ) = 2f (x, y ) 0 si xy < 0, si xy 0.

Demuestre que g(x, y ) es una funci on de densidad bivariada que no es normal pero cuyas densidades marginales son normales.
2 , , 2 , ). 377. Sea (X, Y ) un vector con distribuci on normal bivariada (X , X Y Y Demuestre que E (X ) = (X , Y ), y

Var(X, Y ) =

2 X X Y

X Y 2 Y

2 , , 2 , ). 378. Sea (X, Y ) un vector con distribuci on normal bivariada N(X , X Y Y Demuestre que la distribuci on condicional de X dado que Y = y es normal Y 2 (1 2 ), y que la distribuci con media Y + (x X ) y varianza Y on X X condicional de Y dado que X = x es normal con media X + ( y ) y Y Y 2 2 varianza X (1 )

136

Cap tulo 4

Esperanza condicional
En este cap tulo se dene el importante concepto de esperanza condicional de una variable aleatoria respecto de una - algebra, y se estudian algunas de sus propiedades elementales.

4.1.

Esperanza condicional

Denici on (Esperanza condicional). Sea X una variable aleatoria con esperanza nita, y sea G una sub- - algebra de F . La esperanza condicional de X dado G , es una variable aleatoria denotada por E (X |G ), que cumple las siguientes tres propiedades: 1. Es G -medible. 2. Tiene esperanza nita. 3. Para cualquier evento G en G , E [ E ( X | G ) 1G ] = E [ X 1G ]. (4.1)

Es importante enfatizar que la esperanza condicional, a pesar de su nombre, no es un n umero, aunque puede serlo, sino una variable aleatoria. Usando el teorema de Radon-Nikodym (v ease por ejemplo [3]), puede demostrarse que esta variable aleatoria existe y es u nica casi seguramente, esto signica que si existe otra variable aleatoria con las tres propiedades de la denici on anterior, entonces con probabilidad uno coincide con E (X |G ). Veamos algunas propiedades elementales de esta variable aleatoria.

137

Proposici on. La esperanza condicional cumple las siguiente propiedades. a) E (E (X | G )) = E (X ). b) Si X es G -medible, entonces E (X | G ) = X . En particular, si c es una constante, E (c | G ) = c. c) E (aX + Y | G ) = aE (X | G ) + E (Y | G ), a constante.

Demostraci on. La primera propiedad se obtiene tomando el caso particular G = en la igualdad (4.1), y establece que las variables aleatorias X y E (X |G ) tienen la misma esperanza. Para la segunda propiedad observe que si X es G -medible, entonces X mismo cumple con las tres propiedades de la denici on de E (X |G ), por la unicidad se obtiene la igualdad casi segura. La tercera propiedad es consecuencia de la linealidad de la esperanza, de (4.1) y de la unicidad. Cuando la - algebra G es la m nima respecto de la cual una funci on Y : R es variable aleatoria, es decir G = (Y ), entonces la esperanza condicional se escribe simplemente como E (X |Y ) en lugar de E (X | (Y )). Si es tal que Y ( ) = y entonces la variable aleatoria E (X |Y ) evaluada en es E (X |Y )( ) = E (X |Y = y ) =

x dFX |Y (x|y ).

Los siguientes casos particulares relacionan a la esperanza condicional con los conceptos elementales de esperanza y probabilidad condicional.

Proposici on. Sea X con esperanza nita, y sean A y B eventos con 0 < P (B ) < 1. Entonces a) E (X | {, } ) = E (X ). b) E (1A | {, } ) = P (A). c) E (1A | {, B, B c , } ) = P (A | B )1B + P (A | B c )1B c .

Demostraci on. La primera igualdad se sigue del hecho que E (X |G ) es medible respecto de G y de que cualquier funci on medible respecto de G = {, } es constante. La tercera condici on en la denici on de esperanza condicional implica que esta constante debe ser E (X ). La segunda igualdad es evidentemente un caso particular de la primera. Para demostrar la tercera igualdad observe que toda funci on medible c c respecto de G = {, B, B , } es constante tanto en B como en B . Adem as, E [ E ( 1A | G ) 1B ] = E [ 1A 1B ] = P (A B ). 138

Como la variable aleatoria E ( 1A | G ) es constante en B , el lado izquierdo es igual a E ( 1A | G )( ) P (B ), para cualquier en B . De donde se obtiene E ( 1A | G )( ) = P (A|B ) para en B . El an alisis es an alogo al considerar el evento B c y de esto se obtiene la f ormula de la tercera propiedad. Una introducci on a la esperanza condicional ligeramente m as completa a la presentada en esta secci on, aunque tambi en sencilla y breve, puede encontrarse en [21]. Un tratamiento m as completo y riguroso puede consultarse por ejemplo en [15] o [27].

4.2.

Varianza condicional

Usando la esperanza condicional se puede obtener la varianza condicional respecto de una - algebra de la siguiente forma:

Denici on (Varianza condicional). Sea X con segundo momento nito, y sea G una sub- - algebra de F . La varianza condicional de X dado G , denotada por Var(X | G ), se dene como la variable aleatoria dada por Var(X | G ) = E [ (X E (X |G ))2 | G ].

Nuevamente cuando la sub- - algebra G es (Y ), para alguna variable aleatoria Y , entonces Var(X |G ) se escribe Var(X |Y ) y puede tomarse como denici on la igualdad Var(X | Y ) = E [ (X E (X | Y ))2 | Y ]. Se demuestran a continuaci on dos propiedades sencillas de esta variable aleatoria. Otras propiedades de la varianza condicional se encuentran en la secci on de ejercicios.

Proposici on. La varianza condicional cumple las siguientes propiedades. a) Var(X | G ) = E (X 2 | G ) E 2 (X | G ). b) Var(X ) = E [Var(X | G )] + Var[E (X | G )].

Demostraci on. La primera f ormula se obtiene a partir de la denici on al desarrollar el cuadrado y utilizar las propiedades de linealidad de la esperanza condicional. Para la segunda propiedad, tomando esperanza en (a) se obtiene E [Var(X | G )] = E (X 2 ) E [E 2 (X | G )]. 139 (4.2)

Por otro lado Var[E (X | G )] = E [E 2 (X | G )] E 2 [E (X | G )] = E [E 2 (X | G )] E 2 (X ). Sumando (4.2) y (4.3) se obtiene (b).

(4.3)

4.3.

Ejercicios
Esperanza condicional

379. Demuestre que si X es G -medible, entonces E (X | G ) = X . 380. Demuestre que si c es una constante, entonces para cualquier sub- - algebra G , E (c | G ) = c. 381. Sea A un evento y sea G = {, }. Demuestre que E (1A | G ) = P (A). 382. Sea X una variable aleatoria con esperanza nita y sea G = {, }. Demuestre que E (X | G ) = E (X ). 383. Sean A y B dos eventos, y suponga que 0 < P (B ) < 1. Demuestre que E (1A | 1B ) = P (A | B ) 1B + P (A | B c ) 1B c . 384. Sea (X, Y ) un vector con funci on de densidad dada por fX,Y (x, y ) = 3y para 0 < x < y < 1. Compruebe que f (x, y ) es efectivamente una funci on de densidad y calcule a ) P (X + Y < 1/2). b ) fX (x) y fY (y ). c ) E (Y ) y E (Y | X = x). 385. Sea (X, Y ) un vector con distribuci on uniforme en el conjunto {1, . . . , 6} {1, . . . , 6}. Calcule a ) P (X = Y ). b ) P (X + Y 6). c ) fX (x) y fY (y ). d ) E (X | X + Y = 6). 386. Sea (X, Y ) un vector con funci on de densidad dada por la siguiente tabla x\y 1 2 3 Calcule 140 -1 .3 .05 .1 0 .05 .2 .1 1 .05 .05 .1

a ) P (X = 2), P (X + Y = 1) y P (Y X ). b ) fX (x) y fY (y ). c ) fY | X (y | x) para x = 1, 2, 3.

d ) E (Y | X = x) para x = 1, 2, 3.

Varianza condicional
387. Demuestre que a ) Var(X | {, }) = Var(X ).

b ) Var(1A | {, }) = P (A)(1 P (A)).

141

Cap tulo 5

Transformaciones
Sea X una variable aleatoria con distribuci on conocida, y sea es una funci on tal que Y = (X ) es otra variable aleatoria. Cu al es la distribuci on de Y ?. En este cap tulo se da respuesta a esta pregunta tanto en el caso unidimensional como en el caso de vectores aleatorios. En particular, se encuentran f ormulas expl citas para la funci on de densidad de la suma, diferencia, producto y cociente de dos variables aleatorias absolutamente continuas.

5.1.

Transformaci on de una variable aleatoria

Suponga que X es una variable aleatoria y es una funci on tal que Y = (X ) es otra variable aleatoria. En esta secci on se estudian un par de resultados que proveen de f ormulas para la funci on de densidad de Y , en t erminos de la funci on de densidad de X . Gr acamente:

X ( ) R Y = (X )

(X ( )) R

142

Teorema de cambio de variable 1. Sea X una variable aleatoria continua con valores dentro de un intervalo (a, b) R, y con funci on de densidad fX (x). Sea : (a, b) R una funci on continua, estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable aleatoria Y = (X ) toma valores dentro del intervalo (a, b), y tiene funci on de densidad d 1 1 fX ( (y )) | (y )| para y (a, b), dy fY (y ) = 0 otro caso.

Demostraci on. Suponga primero el caso estrictamente creciente. Entonces para y (a, b), FY (y ) = P (Y y ) = P ((X ) y ) = FX (1 (y )).

= P (X 1 (y )) d 1 (y ). Para estrictamente decredy

Derivando se obtiene fY (y ) = fX (1 (y )) ciente

FY (y ) = P (Y y )

= P ((X ) y )

= P (X 1 (y ))

= 1 FX (1 (y )).

tado del teorema.

Entonces fY (y ) = fX (1 (y )) [

d 1 (y )]. En cualquiera caso se obtiene el resuldy

Por ejemplo, la funci on (x) = ex , denida sobre toda la recta real cumple muy bien con las condiciones del teorema anterior. Usaremos esta funci on para mostrar con dos ejemplos la forma de aplicar este resultado.
(x) = ex

143

Ejemplo (Distribuci on log normal). Sea X con distribuci on N(, 2 ), y sea la x funci on estrictamente creciente (x) = e , con inversa diferenciable 1 (y ) = ln y . Entonces la variable aleatoria Y = eX toma valores en el intervalo (0, ), y su distribuci on se conoce con el nombre de distribuci on log normal(, 2 ). Su funci on de densidad es (ln y )2 1 exp [ ] si y > 0, 2 2 2 y 2 fY (y ) = 0 si y 0. Ejemplo (Distribuci on log gama). Sea X con distribuci on gama(n, ), y sea x 1 nuevamente (x) = e , con inversa diferenciable (y ) = ln y . Entonces la variable aleatoria Y = eX toma valores en el intervalo (0, ), y su distribuci on se conoce como distribuci on log gama(n, ). Su funci on de densidad es n 1 ( ln y ) y 1 si y > 0, (n) fY (y ) = 0 si y 0. El resultado anterior puede extenderse al caso en el que la transformaci on sea estrictamente mon otona por pedazos. Se enuncia y demuestra a continuaci on este resultado cuando la transformaci on se descompone en dos partes mon otonas, siendo f acil la extensi on cuando se tiene un mayor n umero de secciones en donde se presente la monoton a estricta.

Teorema de cambio de variable 2. Sea X una variable aleatoria continua con valores dentro de un intervalo (a, c) R, y con funci on de densidad fX (x). Sea : (a, c) R una funci on tal que admite la descomposici on (x) = 1 (x) 2 (x) si x (a, b), si x (b, c),

en donde a < b < c, y cada una de las funciones 1 (x) : (a, b) R y 2 (x) : (b, c) R es continua, estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable aleatoria Y = (X ) toma valores dentro del intervalo (a, c), y tiene funci on de densidad
1 fY (y ) = fX ( 1 (y )) |

d 1 (y )| 11 (a,b) (y ) dy 1 d 1 1 + fX ( (y )| 12 (b,c) (y ). 2 (y )) | dy 2

144

Demostraci on. La prueba es an aloga al caso anterior, u nicamente hay que hacer el an alisis sobre cada uno de los intervalos de monoton a estricta. Para cualquier y en R, FY (y ) = P (Y y )

= P ((X ) y )

= P [(1 (X ) y ) (X (a, b))] + P [(2 (X ) y ) (X (b, c))].

Nos interesa el comportamiento de estas probabilidades como funciones de y , puesto que calcularemos la derivada de ellas para encontrar fY (y ). Por ejemplo, la primera probabilidad, vista como funci on de y , es y P [(1 (X ) y ) (X (a, b))], que permanece constante para y / 1 (a, b), de modo que, suponiendo por ejemplo 1 creciente, d P [(1 (X ) y ) (X (a, b))] = dy = = = = d P [(1 (X ) y ) (X (a, b))] 11 (a,b) (y ) dy d 1 P [(X 1 (y )) (X (a, b))] 11 (a,b) (y ) dy d 1 P [a < X 1 (y )] 11 (a,b) (y ) dy d 1 FX ( 1 (y )) 11 (a,b) (y ) dy d 1 1 fX ( (y ) 11 (a,b) (y ). 1 (y )) dy 1

De manera an aloga se procede respecto del segundo sumando, considerando tambi en el caso cuando se presenta la monoton a decreciente. De esta forma se obtiene la f ormula enunciada. Ejemplo. Sea X continua con funci on de densidad fX (x). Considere la transformaci on (x) = x2 , la cual es estrictamene decreciente en (, 0), y estrictamente creciente en (0, ).
(x) = x2

x 1 2

145

Dena entonces las funciones mon otonas 1 (x) = x2 sobre (, 0), y 2 (x) = x2 1 1 sobre (0, ). Entonces sus inversas son y . La variable 1 (y ) = y , y 2 (y ) = 2 Y = X tiene por lo tanto funci on de densidad 1 1 f (y ) + fX ( y ) si y > 0, X 2 y 2 y fY (y ) = 0 otro caso.

5.2.

Transformaci on de un vector aleatorio

Suponga ahora que (X, Y ) es un vector con funci on de densidad conocida, y es una funci on tal que (U, V ) = (X, Y ) es otro vector aleatorio. El problema es encontrar la funci on de densidad del nuevo vector (U, V ). Gr acamente

(X, Y )

R2
(U, V ) = (X, Y )

R2

Teorema de cambio de variable 3. Sea (X, Y ) un vector continuo con valores en I R2 , y con funci on de densidad fX,Y (x, y ). Sea (x, y ) : I R2 una funci on continua con inversa 1 (u, v ) diferenciable. Entonces el vector (U, V ) = (X, Y ) toma valores en (I ) y tiene funci on de densidad fX,Y (1 (u, v )) |J (u, v )| para (u, v ) (I ), fU,V (u, v ) = (5.1) 0 otro caso, en donde J (u, v ) =
1 1 u v 1 1 1 1 u 2 v 2

Una prueba rigurosa de este teorema resulta ser un tanto elaborada, y por simplicidad se omite. Sin embargo, puede usarse el siguiente argumento intuitivo para encontrar la f ormula enunciada. Sea (U, V ) = (X, Y ) = (1 (X, Y ), 2 (X, Y )) con inversa
1 1 (X, Y ) = 1 (U, V ) = ( 1 (U, V ), 2 (U, V )).

146

Sea A el cuadrado de a rea innitesimal de esquinas con coordenadas (x, y ), (x + dx, y ), (x, y + dy ) y (x + dx, y + dy ). Bajo la transformaci on las coordenadas de las esquinas del cuadrado A se transforman en las siguientes coordenadas

(x, y ) (1 (x, y ), 2 (x, y )). (x + dx, y ) (1 (x + dx, y ), 2 (x + dx, y )) . = (1 (x, y ) + x 1 (x, y )dx, 2 (x, y ) + x 2 (x, y )dx. (x, y + dy ) (1 (x, y + dy ), 2 (x, y + dy )) . = (1 (x, y ) + y 1 (x, y )dy, 2 (x, y ) + y 2 (x, y )dy. (x + dx, y + dy ) (1 (x + dx, y + dy ), 2 (x + dx, y + dy )) . = (1 (x, y ) + x 1 (x, y )dx + y 1 (x, y )dy, 2 (x, y ) + x 2 (x, y )dx + y 2 (x, y )dy ). Gr acamente la transformaci on de estos puntos se muestra a continuaci on.

(1 + y 1 , 2 + y 2 ) y + dy A y (1 , 2 ) x x + dx (A) (1 + x 1 + y 1 , 2 + x 2 + y 2 ) (1 + x 1 , 2 + x 2 )

Entonces P ((X, Y ) A) = P ((U, V ) (A)). Por lo tanto En donde

fX,Y (x, y ) dxdy = fU,V (u, v ) Area de (A).

Area de (A) = |x 1 y 2 x 2 y 1 | dxdy = x 1 y 1 x 2 y 2 = |J (x, y )| dxdy. dxdy

Adem as |J (x, y )| =

1 . Por lo tanto |J (u, v )|

fX,Y (x, y ) dxdy = fU,V (u, v ) 147

dxdy . |J (u, v )|

De esta ecuaci on se obtiene


1 1 fU,V (u, v ) = fX,Y ( 1 (u, v ), 2 (u, v ))|J (u, v )|.

Como ejemplo de aplicaci on de la proposici on anterior, en las secciones siguientes utilizaremos la f ormula (5.1) para encontrar expresiones para la funci on de densidad de la suma, diferencia, producto y cociente de dos variables aleatorias. Las f ormulas generales sobre transformaciones encontradas en estas dos primeras secciones se resumen en la siguiente tabla.

Transformaciones

Y = (X )

fY (y ) = fX (1 (y )) |

d 1 (y )|. dy

(U, V ) = (X, Y )

fU,V (u, v ) = fX,Y (1 (u, v )) |J (u, v )| en donde J (u, v ) =


1 u 1 1 u 2 1 v 1 1 v 2

Distribuci on de la suma
El siguiente resultado proporciona una f ormula para la funci on de densidad de la suma de dos variables aleatorias absolutamente continuas.

Proposici on. Sea (X, Y ) un vector continuo con funci on de densidad conjunta fX,Y (x, y ). Entonces X + Y tiene funci on de densidad fX +Y (u) =

fX,Y (u v, v ) dv.

(5.2)

Demostraci on. Sea : R2 R2 la transformaci on (x, y ) = (x + y, y ), con inversa 1 (u, v ) = (u v, v ). El Jacobiano de la transformaci on inversa es J (u, v ) =
1 1 u v 1 1 1 1 u v 2 2

1 1 0 1

= 1.

Por la f ormula (5.1), fX +Y,Y (u, v ) = fX,Y (u v, v ). Integrando respecto a v se obtiene (5.2).

148

Observe que haciendo el cambio de variable z (v ) = u v en (5.2) se obtiene la expresi on equivalente fX +Y (u) =

fX,Y (z, u z ) dz.

(5.3)

En particular, cuando X y Y son independientes, la f ormula (5.2) se reduce a fX +Y (u) =


fX (u v )fY (v ) dv.

(5.4)

Se puede demostrar la proposici on anterior mediante el procedimiento usual de encontrar primero la funci on de distribuci on de X + Y y despu es derivar para encontrar la funci on de densidad. Por denici on, FX +Y (u) = P (X + Y u) = =
{ (x,y ) | x+y u } ux

fX,Y (x, y ) dy dx fX,Y (x, y ) dy dx.

La regi on de integraci on es la siguiente:

y u

x x+y u Derivando respecto a u se obtiene fX +Y (u) =


fX,Y (x, u x) dx,

que corresponde a la expresi on (5.3) equivalente a (5.2).

149

Convoluci on

Denici on (Convoluci on). La convoluci on de dos funciones de densidad continuas f1 y f2 , es una funci on de densidad denotada por f1 f2 , y denida como sigue (f1 f2 )(x) =

f1 (x y )f2 (y ) dy.

M as generalmente, la convoluci on de dos funciones de distribuci on F1 y F2 es la funci on de distribuci on (F1 F2 )(x) =


F1 (x y )dF2 (y ).

En consecuencia, si X y Y son dos variables aleatorias continuas independientes on de con correspondientes funciones de densidad f1 (x) y f2 (x), entonces la funci densidad de X + Y es la convoluci on (f1 f2 )(x). Observe que hemos denotado la convoluci on por el mismo s mbolo, primero cuando los argumentos son funciones de densidad y en el otro cuando son funciones de distribuci on. Para el caso de funciones de distribuci on absolutamente continuas, se tiene la relaci on d (F1 F2 )(x) = (f1 f2 )(x). dx En el caso cuando X y Y son discretas, independientes y con valores enteros, entonces es sencillo vericar que la funci on de probabilidad de X + Y es, en completa analog a con (5.4), fX +Y (u) = fX (u k)fY (k).
k

Distribuci on de la diferencia
Se encontrar a ahora una f ormula para la funci on de densidad de la diferencia de dos variables aleatorias.

Proposici on. Sea (X, Y ) un vector absolutamente continuo con funci on de densidad fX,Y (x, y ). Entonces X Y tiene funci on de densidad fX Y (u) =

fX,Y (u + v, v ) dv.

(5.5)

150

Demostraci on. Procedemos como en la secci on anterior. Sea : R2 R2 la trans formaci on (x, y ) = (x y, y ) con inversa 1 (u, v ) = (u + v, v ). El Jacobiano de la transformaci on inversa es J (u, v ) =
1 1 u v 1 1 1 1 u 2 v 2

1 1 0 1

= 1.

Por la f ormula (5.1), fX Y,Y (u, v ) = fX,Y (u + v, v ). Integrando respecto a v se obtiene (5.5). Con el cambio de variable z (v ) = u + v en (5.5) se obtiene la expresi on equivalente fX Y (u) =

fX,Y (z, z u) dz.

(5.6)

Cuando X y Y son independientes la f ormula (5.5) se reduce a fX Y (u) = fX (u + v )fY (v ) dv.

En el caso discreto cuando X y Y son independientes con valores enteros, la variable X Y tambi en toma valores enteros, y tiene funci on de probabilidad fX Y (u) = fX (u + k)fY (k).
k

Nuevamente se puede demostrar la proposici on anterior mediante el procedimiento usual de encontrar primero la funci on de distribuci on y despu es derivar para encontrar la funci on de densidad. Por denici on, FX Y (u) = P (X Y u) = =
{ (x,y ) | xy u } x u

fX,Y (x, y ) dy dx fX,Y (x, y ) dy dx.

La regi on de integraci on es la siguiente:

xy u u x

151

Derivando respecto a u se obtiene (5.6) equivalente a (5.5). A partir de la f ormula para la suma de dos variables aleatorias se puede construir una tercera demostraci on de (5.5). Por la f ormula para la suma, fX Y (u) = fX +(Y ) (u) =

fX,Y (u v, v ) dv.

Haciendo el cambio de variable x = v , se obtiene fX Y (u) = =


fX,Y (u + x, x) dx fX,Y (u + x, x) dx.

Distribuci on del producto


Ahora se encontrar a una f ormula para la funci on de densidad del producto de dos variables aleatorias absolutamente continuas.

Proposici on. Sea (X, Y ) un vector continuo con funci on de densidad conjunta fX,Y (x, y ). Entonces XY tiene funci on de densidad fXY (u) =

fX,Y (u/v, v )

1 dv. v

(5.7)

Demostraci on. Se usa nuevamente la f ormula (5.1). Sea : R2 R2 la transformaci on (x, y ) = (xy, y ) cuya inversa es, para v = 0, 1 (u, v ) = (u/v, v ). El Jacobiano de la transformaci on inversa es J (u, v ) =
1 1 u v 1 1 1 1 u 2 v 2

1/v u/v 2 0 1

1 . v

Por la f ormula (5.1), para v = 0, fXY,Y (u, v ) = fX,Y (u/v, v ) |1/v |. Integrando respecto a v se obtiene (5.7). Haciendo x(v ) = u/v en (5.7) se obtiene la expresi on equivalente fXY (u) = 1 fX,Y (x, u/x) | | dx. x

(5.8)

Cuando X y Y son independientes la f ormula (5.7) se reduce a fXY (u) = 1 fX (u/v )fY (v ) | | dv. v 152

Usaremos el procedimiento usual de encontrar primero la funci on de distribuci on de XY y despu es derivar para encontrar la funci on de densidad. Por denici on, FXY (u) = P (XY u) = =
{ (x,y ) : xy u } 0 u/x

fX,Y (x, y ) dy dx fX,Y (x, y ) dydx +


0 u/x

fX,Y (x, y ) dydx.

La regi on de integraci on para u > 0 es la siguiente: y

x xy u

Derivando respecto a u,
0

fXY (u) = =

fX,Y (x, u/x)(1/x) dydx + fX,Y (x, u/x)|1/x| dx,

fX,Y (x, u/x)(1/x) dydx.

que corresponde a (5.8), equivalente a (5.7).

Distribuci on del cociente


Finalmente se encontrar a una f ormula para el cociente de dos variables aleatorias absolutamente continuas.

Proposici on. Sea (X, Y ) un vector continuo con funci on de densidad conjunta fX,Y (x, y ) y tal que Y = 0. Entonces X/Y tiene funci on de densidad fX/Y (u) =

fX,Y (uv, v ) |v | dv.

(5.9)

153

Demostraci on. Procederemos como en las secciones anteriores. Sea : R2 R2 la transformaci on (x, y ) = (x/y, y ) para y = 0, y con inversa 1 (u, v ) = (uv, v ). El Jacobiano de la transformaci on inversa es J (u, v ) =
1 1 u v 1 1 1 1 u 2 v 2

v u 0 1

= v.

Por la f ormula (5.1), fX/Y,Y (u, v ) = fX,Y (uv, v ) |v |, de donde se obtiene (5.9). Haciendo x(v ) = uv en (5.9) se obtiene la expresi on equivalente fX/Y (u) =

fX,Y (x, x/u) |x/u2 | dx.

(5.10)

Observe nuevamente que cuando X y Y son independientes el integrando en la f ormula (5.9) se escribe como el producto de las densidades marginales. Ahora usaremos el procedimiento usual de encontrar primero la funci on de distribuci on y despu es derivar para encontrar la funci on de densidad. FX/Y (u) = P (X/Y u) = =
{ (x,y ) : x/y u } 0 uy

fX,Y (x, y ) dx dy fX,Y (x, y ) dx dy +


0 uy

fX,Y (x, y ) dx dy.

La regi on de integraci on para u > 0 es la siguiente: y

x x/y u

Derivando respecto a u,
0

fX/Y (u) = =

fX,Y (uy, y )y dy +
0

fX,Y (uy, y )y dy

fX,Y (uy, y )|y | dy.

154

A partir de la f ormula para el producto de dos variables aleatorias se puede construir una tercera demostraci on de (5.9) de la forma siguiente. fX/Y (u) = fX (1/Y ) (u) =

fX,1/Y (u/v, v )

1 dv. v

Haciendo el cambio de variable x = 1/v se obtiene fX/Y (u) = =


fX,1/Y (ux, 1/x)|x| dx fX,Y (ux, x)|x| dx.

Las f ormulas encontradas se resumen en la siguiente tabla.

F ormulas para la suma, diferencia, producto y cociente de dos variables aleatorias absolutamente continuas

fX +Y (u) =

fX,Y (u v, v ) dv fX,Y (u + v, v ) dv 1 dv v

fX Y (u) = fXY (u) =

fX,Y (u/v, v )

fX/Y (u) =

fX,Y (uv, v ) |v | dv

5.3.

Ejercicios
Transformaci on de una v.a.

388. Sea X con distribuci on unif(0, 1) y sea > 0. Demuestre que la variable aleatoria Y = (ln X )/ tiene distribuci on exp(). 389. Sea X con distribuci on exp(). Encuentre la funci on de densidad y de distribuci on de Y = 1 exp(X ). 390. Encuentre la distribuci on de Y = 1/X cuando X tiene distribuci on a ) unif(0, 1). b ) exp(). 155

391. Sea X continua con funci on de densidad fX (x). Demuestre que f|X | (x) = fX (x) + fX (x) 0 si x > 0, otro caso.

392. Sea X con distribuci on uniforme en el intervalo (0, 2 ). Encuentre la funci on de densidad de a ) Y = sen(X ). b ) Y = cos(X ). 393. Encuentre la distribuci on de Y = X n para cada n en N, cuando X tiene distribuci on a ) unif(0, 1). b ) unif(1, 1). c ) exp(). 394. Sea X con distribuci on unif(1, 1). Encuentre la funci on de densidad de X 2 . 395. Sea X absolutamente continua con funci on de distribuci on F (x). Demuestre que Y = F (X ) tiene distribuci on unif[0, 1]. 396. Encuentre la funci on de densidad de Y = 1/X cuando X tiene funci on de densidad si 0 < x 1, 1/2 2 1/(2x ) si x > 1, fX (x) = 0 otro caso. 397. Sea X con distribuci on unif(a, b). Encuentre la distribuci on de la variable aleatoria Y = X/(b X ).

Transformaci on de un vector aleatorio


398. Sean X y Y independientes ambas con distribuci on unif(0, 1). Encuentre la funci on de densidad del vector a ) (X, X + Y ). b ) (X + Y, X Y ). 399. Sean X y Y independientes ambas con distribuci on unif(1, 1). Encuentre la funci on de densidad del vector a ) (X + Y, X Y ). b ) |Y X |. c ) (X Y, Y X ).

400. Sea (X, Y ) un vector con distribuci on uniforme en el c rculo unitario {(x, y ) : x2 + y 2 1}. Encuentre la funci on de densidad del vector (R, ) = ( X 2 + Y 2 , arctan(Y /X )). 156

Distribuci on de la suma
401. Encuentre la funci on de densidad de la suma de dos variables aleatorias cuya funci on de densidad conjunta es a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = exy , para x, y > 0. c ) f (x, y ) = ey , para 0 < x < y . d ) fX,Y (x, y ) = 8xy, para 0 < x < y < 1. e ) fX,Y (x, y ) = 4x(1 y ), para 0 < x, y < 1. 402. Encuentre la funci on de densidad de la suma de dos variables aleatorias independientes cada una de ellas con distribuci on a ) unif(0, 1). b ) exp(). 403. Encuentre la funci on de densidad de la suma de dos variables aleatorias independientes cada una de ellas con funci on de densidad a ) f (x) = 2x, para 0 < x < 1. b ) f (x) = 6x(1 x), para 0 < x < 1. c ) f (x) = (1 + x)/2, para 1 < x < 1.

404. Encuentre la funci on de densidad de la suma de dos variables aleatorias independientes X y Y , tales que a ) X unif(1, 0) y Y unif(0, 1). b ) X unif(0, 1) y Y exp(). 405. Sea (X, Y, Z ) un vector absolutamente continuo. Demuestre que X + Y + Z tiene funci on de densidad fX +Y +Z (u) =

fX,Y,Z (u y z, y, z ) dydz.

Aplique esta f ormula para encontrar la funci on de densidad de la suma de tres variables aleatorias independientes, en donde cada sumando tiene distribuci on unif(0, 1). 406. Sea (X1 , . . . , Xn ) un vector aleatorio absolutamente continuo. Demuestre que X1 + + Xn tiene funci on de densidad f (u) =

fX1 ,...,Xn (u v2 vn , v2 , . . . , vn ) dv2 dvn .

Aplique esta f ormula para encontrar la funci on de densidad de la suma de n variables aleatorias independientes, en donde cada sumando tiene distribuci on unif(0, 1).

157

407. Encuentre la funci on de densidad de la suma de dos variables aleatorias con distribuci on conjunta uniforme en el cuadrado (1, 1) (1, 1). 408. Encuentre la funci on de densidad de la suma de tres variables aleatorias con distribuci on conjunta uniforme en el cubo (1, 1) (1, 1) (1, 1). 409. Encuentre la funci on de densidad de la suma de n variables aleatorias con distribuci on conjunta uniforme en el hipercubo (1, 1) (1, 1) .
n

410. Demuestre que la suma de dos variables aleatorias independientes, cada una de ellas con distribuci on normal, tiene nuevamente distribuci on normal, con media la suma de las medias, y varianza la suma de las varianzas.
2 ) para 411. Sean X1 , . . . , Xn independientes en donde Xk tiene distribuci on N(k , k k = 1, . . . , n. Sean c1 , . . . , cn constantes dadas, no todas cero. Demuestre que n k =1 n n

ck Xk N(

ck k ,
k =1 k =1

2 c2 k k ).

412. Sean X1 , . . . , Xn independientes y con id entica distribuci on N(, 2 ). Demuestre que el promedio (X1 + + Xn )/n tiene distribuci on N(, 2 /n). 413. Demuestre que la suma de dos variables aleatorias independientes, cada una de ellas con distribuci on exp(), tiene distribuci on gama(2, ). M as generalmente, demuestre que la suma de n variables aleatorias independientes, cada una de ellas con distribuci on exp(), tiene distribuci on gama(n, ). 414. Demuestre que la suma de dos variables aleatorias independientes con distribuci on gama(n, ) y gama(m, ), tiene distribuci on gama(n + m, ).

Distribuci on de la diferencia
415. Sea (X, Y, Z ) un vector absolutamente continuo con funci on de densidad fX,Y,Z (x, y, z ). Demuestre que X Y Z tiene funci on de densidad fX Y Z (u) =

fX,Y,Z (u + y + z, y, z ) dydz.

Aplique esta f ormula para encontrar la funci on de X Y Z , cuando esta variables son independientes y cada una de ellas tiene distribuci on unif(0, 1). 416. Encuentre la funci on de densidad de X Y , para (X, Y ) un vector con funci on de densidad conjunta a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = exy , para x, y > 0. c ) f (x, y ) = ey , para 0 < x < y . 158

d ) fX,Y (x, y ) = 8xy, para 0 < x < y < 1. e ) fX,Y (x, y ) = 4x(1 y ), para 0 < x, y < 1. 417. Encuentre la funci on de densidad de X Y , cuando X y Y son independientes y ambas con distribuci on a ) unif(0, 1). b ) exp(). 418. Encuentre la funci on de densidad de X Y , cuando X y Y son independientes y ambas con funci on de densidad a ) f (x) = 2x, para 0 < x < 1. b ) f (x) = 6x(1 x), para 0 < x < 1. c ) f (x) = (1 + x)/2, para 1 < x < 1.

419. Encuentre la funci on de densidad de X Y , cuando X y Y son independientes y tales que a ) X unif(0, 1) y Y unif(1, 2). b ) X unif(0, 1) y Y exp(). 420. Demuestre que la diferencia entre dos variables aleatorias independientes ambas con distribuci on uniforme en el intervalo (a 1/2, a + 1/2) tiene funci on de densidad 1 |u| si 1 < u < 1, f (u) = 0 otro caso. 421. Demuestre que la diferencia de dos variables aleatorias independientes, cada una de ellas con distribuci on normal, tiene nuevamente distribuci on normal, con media la diferencia de las medias, y varianza la suma de las varianzas.

Distribuci on del producto


422. Encuentre la funci on de densidad del producto de dos variables aleatorias independientes ambas con distribuci on a ) unif(0, 1). b ) exp(). c ) N(0, 1). 423. Encuentre la funci on de densidad del producto de dos variables aleatorias cuya funci on de densidad conjunta es a ) f (x, y ) = 1 , para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = exy , para x, y > 0. c ) f (x, y ) = ey , para 0 < x < y . d ) fX,Y (x, y ) = 8xy, para 0 < x < y < 1. 159

e ) fX,Y (x, y ) = 4x(1 y ), para 0 < x, y < 1. 424. Encuentre la funci on de densidad del producto de dos variables aleatorias independientes cada una de ellas con funci on de densidad a ) f (x) = 2x, para 0 < x < 1. b ) f (x) = 6x(1 x), para 0 < x < 1. c ) f (x) = (1 + x)/2, para 1 < x < 1. 425. Encuentre la funci on de densidad del producto de dos variables aleatorias independientes X y Y , tales que a ) X unif(1, 0) y Y unif(0, 1). b ) X unif(0, 1) y Y exp().

Distribuci on del cociente


426. Encuentre la funci on de densidad de X/Y para (X, Y ) un vector con funci on de densidad 1 a ) f (x, y ) = para 0 < x < a, 0 < y < b. ab b ) f (x, y ) = exy , para x, y > 0. c ) f (x, y ) = ey , para 0 < x < y . d ) f (x, y ) = 8xy, para 0 < x < y < 1. e ) f (x, y ) = 4x(1 y ), para 0 < x, y < 1. f ) f (x, y ) = 2exy , para 0 < x < y . 427. Encuentre la funci on de densidad de X/Y cuando X y Y son independientes y ambas con distribuci on a ) exp(). b ) unif(0, 1). 428. Encuentre la funci on de densidad de X/Y cuando X y Y son independientes y ambas con densidad a ) f (x) = 2x, para 0 < x < 1. b ) f (x) = 6x(1 x), para 0 < x < 1. c ) f (x) = (1 + x)/2, para 1 < x < 1. 429. Encuentre la funci on de densidad de X/Y cuando X y Y son independientes y tales que a ) X unif(1, 1) y Y unif(0, 1). b ) X unif(0, 1) y Y exp(). 430. Sean X y Y independientes con distribuci on exp(). Encuentre la funci on de densidad de X/(X + Y ). 431. Sean X y Y independientes ambas con distribuci on normal est andar. Demuestre que la variable aleatoria X/Y tiene distribuci on Cauchy.

160

Cap tulo 6

Distribuciones muestrales y estad sticas de orden


Se estudian ahora algunas distribuciones de probabilidad que surgen en la estad stica y otras a reas de aplicaci on de la probabilidad.

Denici on (Muestra aleatoria). Una muestra aleatoria es una colecci on de variables aleatorias X1 , . . . , Xn , que cumplen la condici on de ser independientes y de tener cada una de ellas la misma distribuci on de probabilidad. Al n umero n se le llama tama no de la muestra aleatoria.

A menudo se escribe m.a. para abreviar el t ermino muestra aleatoria, y se usan las siglas v.a.i.i.d. para denotar el t ermino variables aleatorias independientes e id enticamente distribuidas. Por lo tanto, una m.a. es una colecci on de v.a.i.i.d.

Denici on (Estad stica). Una estad stica es una variable aleatoria de la forma: g(X1 , . . . , Xn ), en donde X1 , . . . , Xn es una muestra aleatoria, y g : Rn R es una funci on Borel medible.

Ejemplo (Media y varianza muestral). La media muestral es una estad stica y denida como sigue denotada por X = 1 X n
n

Xi .
i=1

es una combinaci Observe que X on lineal de los elementos de la m.a. y por lo tanto es una v.a. Otro ejemplo importante de estad stica es la varianza muestral, denotada

161

por S 2 y denida como sigue S2 = 1 n1


n i=1

)2 . (Xi X

Observe que en el denominador aparece el n umero de sumandos menos uno.

La media y la varianza muestrales tienen la caracter stica de ser estimadores insesgados para la media y la varianza, respectivamente, de una distribuci on cualquiera. En particular, cuando la muestra aleatoria proviene de una distribuci on normal, resulta que la media y la varianza muestrales son variables aleatorias independientes. Utilizaremos este interesante e inesperado resultado m as adelante, y cuya demostraci on puede encontrarse en [17].

Proposici on. Sea X1 , . . . , Xn una m.a. de la distribuci on N(, 2 ). Entonces las 2 estad sticas X y S son independientes.

Este resultado no es v alido para cualquier distribuci on de probabilidad, por ejemplo, no es dif cil vericar esta armaci on para una muestra aleatoria de la distribuci on Bernoulli. En la siguiente secci on se estudian algunas distribuciones de probabilidad estrechamente relacionadas con la media y la varianza muestral.

6.1.

Distribuciones muestrales

Se estudian a continuaci on algunas distribuciones de probabilidad que surgen en la estad stica al considerar funciones de una muestra aleatoria.

Distribuci on ji-cuadrada
La variable aleatoria continua X tiene una distribuci on ji-cuadrada con n > 0 grados de libertad, si su funci on de densidad es 1 1 n/2 n/21 x/2 x e si x > 0, (n/2) 2 f (x) = 0 si x 0. La gr aca de esta funci on es

162

f (x) n=1
1 2

n=2 n=3 n=4 x

Funci on de densidad 2 (n).

En este caso se escribe X 2 (n), y puede demostrarse que E (X ) = n, y Var(X ) = 2n. Observe que la distribuci on 2 (n) con n = 2 se reduce a la distribuci on exp() con = 1/2. La distribuci on ji-cuadrada puede encontrarse como indican los siguientes resultados.

Proposici on. Si X N(0, 1), entonces X 2 2 (1).

Demostraci on. Para x > 0, 1 1 fX 2 (x) = fX ( x) + fX ( x) 2 x 2 x 1 = fX ( x) x 1 x/2 1 = e x 2 = 1 (1/2) 1 2


1/2

x1/21 ex/2 .

Esta expresi on corresponde a la funci on de densidad de la distribuci on 2 (1). La suma de dos o mas variables aleatorias independientes con distribuci on ji-cuadrada es nuevamente una variable aleatoria ji-cuadrada, y sus grados de libertad son la suma de los grados de libertad de cada uno de los sumandos. Este es el contenido de la siguiente proposici on.

163

Proposici on. Sean X1 , . . . , Xm independientes tales que cada Xi tiene distribuci on 2 (ni ), para i = 1, . . . , m. Entonces
m i=1

Xi 2 (n1 + + nm ).

Demostraci on. Es suciente demostrar el resultado para el caso de dos variables aleatorias. Sean X y Y independientes con distribuci on ji-cuadrada con grados de libertad n y m, respectivamente. Este ligero cambio en la notaci on evitar a el uso de sub ndices. Por la f ormula (5.2), para u > 0,
u

fX +Y (u) =
0 u

fX (u v )fY (v ) dv 1 (n/2) 1 (m/2) 1 2 1 2


n/2

=
0

(u v )n/21 e(uv)/2
m/2

v m/21 ev/2 dv 1 2
(n+m)/2

1 (n/2)(m/2)
u 0

eu/2

(u v )n/21 v m/21 dv.

Haciendo el cambio de variable w(v ) = v/u en la integral se obtiene fX +Y (u) = 1 (n/2)(m/2)


1 0

1 2

(n+m)/2

eu/2 u(n+m)/21

(1 w)n/21 wm/21 dw.

La integral resultante es B (n/2, m/2). Entonces fX +Y (u) = = B (n/2, m/2) (n/2)(m/2) 1 ((n + m)/2) 1 2 1 2
(n+m)/2

eu/2 u(n+m)/21
(n+m)/2

eu/2 u(n+m)/21 .

Esta u ltima expresi on es la funci on de densidad de la distribuci on 2 (n + m). El resultado anterior puede demostrarse de una manera m as simple y elegante usando la funci on generadora de momentos o la funci on caracter stica, presentadas en el siguiente cap tulo.

164

Proposici on. Sean X1 , . . . , Xn independientes con distribuci on N(, 2 ). Entonces


n i=1

(Xi )2 2 (n). 2

Demostraci on. Esto es una consecuencia sencilla de las dos proposiciones anteriores. Como cada Xi tiene distribuci on N(, 2 ), para i = 1, . . . , n, entonces (Xi )/ tiene distribuci on N(0, 1). Por lo tanto, (Xi )2 2 (1). 2 En consecuencia
n i=1

(Xi )2 2 (n). 2

Ahora se enuncia una proposici on cuya demostraci on se pospone hasta que se cuente con la poderosa herramienta de las funciones generadoras de momentos. Este es el contenido del Ejercicio 538 en la p agina 217.

Proposici on. Sean X y Y independientes tales que X tiene distribuci on 2 (n), y 2 X + Y tiene distribuci on (m). Suponga m > n. Entonces Y tiene distribuci on 2 (m n).

Con ayuda de esta proposici on se demuestra ahora el siguiente resultado de particular importancia en estad stica.

Proposici on. Sean X1 , . . . , Xn independientes con distribuci on N(, 2 ). Entonces n1 2 S 2 (n 1). 2

Demostraci on.
n i=1 n

(Xi )

=
i=1

) + (X )]2 [(Xi X

165

=
i=1

)2 + n(X )2 . (Xi X

Diviendo entre 2 ,
n i=1

n1 2 (Xi )2 = S + 2 2

X / n

El t ermino del lado izquierdo tiene distribuci on 2 (n) mientras que el segundo su2 mando del lado derecho tiene distribuci on (1). Por la proposici on anterior, y re2 cordando que X y S son independientes, se concluye que el primer sumando del lado derecho tiene distribuci on 2 (n 1).

Distribuci on t
La variable aleatoria continua X tiene una distribuci on t de Student con n > 0 grados de libertad si su funci on de densidad est a dada por ((n + 1)/2) (1 + x2 /n)(n+1)/2 , f (x) = n (n/2) cuya gr aca es: para < x < ,

f (x) n = 100 n=3 n=1

0.1 x

4 3 2 1

Funci on de densidad t(n).

En este caso se escribe X t(n). Esta distribuci on apareci o por primera vez en 1908 en un trabajo publicado por William Gosset bajo el el seud onimo de Student. Se puede demostrar que E (X ) = 0, y Var(X ) = n/(n 2), para n > 2. La primera igualdad establece que la distribuci on t(n) se encuentra siempre centrada en cero para cualquier valor del par ametro n. Se muestran a continuaci on algunas formas en las que surge esta distribuci on. 166

Proposici on. Sean X N(0, 1) y Y 2 (n) independientes. Entonces X Y /n t(n).

Demostraci on. Por independencia, la funci on de densidad conjunta de X y Y es, para y > 0, 1 1 1 2 fX,Y (x, y ) = ex /2 ( n/ 2) 2 2 Se aplica la f ormula (5.1) para la transformaci on (x, y ) = (x, x/ x/s x/t y/s y/t
n/2

y n/21 ey/2 .

y/n),

on inversa es con inversa 1 (s, t) = (s, ns2 /t2 ). El Jacobiano de la transformaci J (s, t) = Por lo tanto 1 1 2 = es /2 ( n/ 2) 2 Integrando respecto a s, = 1 0 2sn/t2 2ns2 /t3 = 2ns2 /t3 .

fS,T (s, t) = fX (s)fY (ns2 /t2 ) 2ns2 /t3 1 2

n/2

nn/21 sn2 ns2 /2t2 e 2ns2 /t3 . t n2


0 1 2

1 nn/2 fT (t) = 2 2n/21 (n/2)tn+1

sn e

s 2

1 + n 2 2t2

ds.

Ahora efectuamos el cambio de variable r (s) = s2 n dr = 2s 1 2 + 2t2 ds, y entonces fT (t) = = 1 nn/2 2 2n/21 (n/2)tn+1 2 1 + n2 2 2t ((n + 1)/2) 1 , n (n/2) (1 + t2 /n)(n+1)/2

n 2t2

, de donde obtenemos

(n+1)/2

r (n1)/2 er dr

correspondiente a la funci on de densidad de la distribuci on t(n). El siguiente resultado es de importancia en estad stica para efectuar estimaciones del par ametro de una poblaci on normal cuando la varianza 2 es desconocida.

Proposici on. Sea X1 , . . . , Xn una m.a. de una distribuci on N(, 2 ). Entonces X t(n 1). S/ n

167

Demostraci on. Use la proposici on anterior aplicada a las variables aleatorias independientes X N (0, 1), / n n1 2 S 2 (n 1). 2

Distribuci on F
La variable aleatoria continua X tros n > 0 y m > 0 si su funci on ((n + m)/2) (n/2) (m/2) f (x) = 0 tiene una distribuci on F de Snedecor con par amede densidad es n m
n/2

xn/21 1 +

n x m

(n+m)/2

si x > 0, si x 0.

Se escribe X F(n, m). En la siguiente gura se muestra el comportamiento de esta funci on de densidad.

f (x)
3/4 n=4 m = 100 n=1 m=5

x 1 2 3 4
Funci on de densidad F (n, m).

Puede demostrarse que E (X ) = y Var(X ) = m para m > 2, m2 2m2 (m + n 2) para m > 4. n(m 2)2 (m 4) 168

Los siguientes resultados indican la forma de obtener esta distribuci on.

Proposici on. Sean X 2 (n) y Y 2 (m) independientes. Entonces X/n F(n, m). Y /m

Este resultado se obtiene directamente de la aplicaci on de la f ormula para la funci on de densidad del cociente de dos variables aleatorias. Los detalles se dejan como ejercicio.

Proposici on. Si X t(m), entonces X 2 F(1, m).

Para demostrar este resultado aplique la f ormula general para la densidad de X 2 , es decir, para x > 0, 1 1 fX 2 (x) = fX ( x) + fX ( x) . 2 x 2 x

6.2.

Estad sticas de orden

Dada una muestra aleatoria X1 , . . . , Xn , podemos evaluar cada una de estas variables en un punto muestral cualquiera y obtener una colecci on de n umeros reales X1 ( ), . . . , Xn ( ). Estos n umeros pueden ser ordenados de menor a mayor incluyendo repeticiones. Si X(i) ( ) denota el i- esimo n umero ordenado, tenemos entonces la colecci on no decreciente de n umeros reales X(1) ( ) X(n) ( ). Ahora hacemos variar el argumento y lo que se obtiene son las as llamadas estad sticas de orden. Este proceso de ordenamiento resulta ser de importancia en algunas aplicaciones. Tenemos entonces la siguiente denici on.

169

Denici on (Estad sticas de orden). Sea X1 , . . . , Xn una muestra aleatoria. A las variables aleatorias ordenadas n X(1) = m X(2) = m n X(3) = m n . . . X(n) = m ax {X1 , . . . , Xn },

{X1 , . . . , Xn } \ {X(1) },

{X1 , . . . , Xn } \ {X(1) , X(2) }, {X1 , . . . , Xn },

se les conoce con el nombre de estad sticas de orden. A X(1) se le llama primera estad stica de orden, a X(2) se le llama segunda estad stica de orden, etc. A X(i) se le llama i- esima estad stica de orden, i = 1, . . . , n.

Observe que, aunque los elementos de la muestra aleatoria son variables aleatorias independientes, las estad sticas de orden no lo son, pues deben mantener la relaci on X(1) X(2) X(n) . Observe adem as que la i- esima estad stica de orden X(i) no necesariamente es igual a alguna variable de la muestra aleatoria en particular, sino que, en general, es una funci on de todas las variables de la muestra aleatoria. Nuestro objetivo en esta secci on es encontrar algunas f ormulas relacionadas con las distribuciones de probabilidad de las estad sticas de orden, cuando se conoce la distribuci on de cada variable de la muestra aleatoria.

Distribuciones individuales
Comenzamos encontrando la distribuci on de la primera y de la u ltima estad stica de orden de manera individual.

Proposici on. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de densidad f (x), y funci on de distribuci on F (x). Entonces 1. fX(1) (x) = nf (x) [1 F (x)]n1 . 2. fX(n) (x) = nf (x) [F (x)]n1 .

Demostraci on. Para vericar la primera f ormula se calcula primero la funci on de distribuci on FX(1) (x) = P (X(1) x)

= 1 P (m n{X1 , . . . , Xn } > x) 170

= P (m n{X1 , . . . , Xn } x)

= 1 [P (X1 > x)]n = 1 [1 F (x)]n .

= 1 P (X1 > x, . . . , Xn > x)

ormula se Entonces fX(1) (x) = nf (x) [1 F (x)]n1 . Para demostrar la segunda f procede de manera an aloga, FX(n) (x) = P (X(n) x) = P (m ax{X1 , . . . , Xn } x) = [P (X1 x)]n = [F (x)]n . Por lo tanto fX(n) (x) = nf (x) [F (x)]n1 . Ahora se presenta el resultado general de la funci on de densidad de la i- esima estad stica de orden.

= P (X1 x, . . . , Xn x)

Proposici on. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de densidad f (x), y funci on de distribuci on F (x). Entonces la funci on de densidad de la i- esima estad stica de orden es fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

Demostraci on. Sea Yi la variable aleatoria dada por Yi = 1(,x] (Xi ) = 1 si Xi x, 0 si Xi > x,

en donde Xi es el i- esimo elemento de la muestra aleatoria. Las variables Y1 , . . . , Yn son independientes y cada una de ellas puede considerarse un ensayo Bernoulli con probabilidad de exito, es decir tomar el valor 1, igual a P (Xi x) = F (x). Entonces la suma Y1 + + Yn corresponde al n umero de v.a.s Xi que cumplen la condici on Xi x, y por lo tanto esta suma tiene distribuci on bin(n, p), con p = F (x). Entonces FX(i) (x) = P (X(i) x)
n

= P (Y1 + + Yn i) =
j =i

n j

[F (x)]j [1 F (x)]nj .

Derivando y despu es simplicando,


n

fX(i) (x) =
j =i

n j

f (x)[F (x)]j 1 [1 F (x)]nj 1 [j (1 F (x)) (n j )F (x)] 171

=
j =i

n j

f (x)[F (x)]j 1 [1 F (x)]nj 1 [j nF (x)]

n i

i f (x)[F (x)]i1 [1 F (x)]ni .

Observe que la f ormula reci en demostrada se reduce a las encontradas antes, cuando el ndice i toma los valores 1 y n. A continuaci on se presenta un argumento corto e intuitivo que nos lleva al mismo resultado. Sea h > 0 arbitrario, y considere los siguientes tres intervalos ajenos (, x], (x, x + h] y (x + h, ).

i1
x

1
x+h

ni

La probabilidad de que i 1 variables de la muestra tomen un valor en el intervalo (, x], una de ellas en (x, x + h], y el resto n i en (x + h, ) es, de acuerdo a la distribuci on multinomial, n! [F (x)]i1 [F (x + h) F (x)][1 F (x + h)]ni . (i 1)! 1! (n i)! es Esta probabilidad es, aproximadamente, fX(i) (x)h. Dividiendo entre h, y despu haciendo h tender a cero se obtiene nuevamente fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

Denici on (Rango). Sea X1 , . . . , Xn una muestra aleatoria. A la variable aleatoria R = X(n) X(1) se le conoce como el rango de la muestra.

El siguiente resultado provee de una f ormula para la funci on de densidad de esta variable.

172

Proposici on. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de densidad f (x), y funci on de distribuci on F (x). Entonces para r > 0, fR (r ) = n(n 1)

f (v )f (r + v )[F (r + v ) F (v )]n2 dv.

Demostraci on. Para x < y , FX(1) ,X(n) (x, y ) = P (X(1) x, X(n) y )

= P (X(n) y ) P (X(n) y, X(1) > x)

= [F (y )]n [F (y ) F (x)]n .

= [F (y )]n P (x < X1 y, . . . , x < Xn y )

Por lo tanto, fX(1) ,X(n) (x, y ) = n(n 1)f (x)f (y )[F (y ) F (x)]n2 , para n 2. Ahora se usa la f ormula fY X (u) =

fX,Y (v, u + v ) dv

equivalente a (5.5) para la diferencia de dos variables aleatorias. Entonces para r > 0, fX(n) X(1) (r ) = n(n 1)

f (v )f (r + v )[F (r + v ) F (v )]n2 dv.

Distribuciones conjuntas
Se presentan a continuaci on dos resultados acerca de la distribuci on conjunta de las estad sticas de orden. El primer resultado trata acerca de la distribuci on conjunta de todas ellas, y despu es se considera la distribuci on conjunta de cualesquiera dos.

Proposici on. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de densidad f (x). Entonces n!f (x1 ) f (xn ) si x1 < < xn , fX(1) ,...,X(n) (x1 , . . . , xn ) = 0 en otro caso.

Demostraci on. Se considera la funci on de distribuci on conjunta de todas las estad sticas de orden, y despu es se deriva n veces para encontrar la funci on de densidad. Para 173

x1 < x2 < < xn , FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , X(2) x2 , . . . , X(n) xn ). Como (X(2) x2 ) = (x1 < X(2) x2 ) (X(2) x1 ), se obtiene la expresi on FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , x1 < X(2) x2 , . . . , X(n) xn ) + P X(1) x1 , X(2) x1 , . . . , X(n) xn ). Observe que el segundo sumando no depende de x2 , asi es que al tomar la derivada respecto de esta variable, este t ermino desaparece. De manera an aloga procedemos con los eventos (X(3) x3 ) hasta (X(n) xn ). Al nal se obtiene fX(1) ,...,X(n) (x1 , . . . , xn ) = n P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < X(n) xn ). x1 xn

Como ahora los intervalos involucrados son disjuntos, la distribuci on multinomial asegura que P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < X(n) xn )

= n! P (X1 x1 , x1 < X2 x2 , . . . , xn1 < Xn xn ) = n! F (x1 )[F (x2 ) F (x1 )] [F (xn ) F (xn1 )],

en donde la u ltima igualdad se sigue de la independencia e id entica distribuci on de las variables de la muestra. Ahora solo resta derivar para encontrar el resultado buscado, siendo m as sencillo encontrar las derivadas en el orden inverso. La siguiente demostraci on es una prueba corta pero no formal del mismo resultado. Sea x1 < x2 < < xn , y h > 0 sucientemente peque no tal que los intervalos (x1 , x1 + h], (x2 , x2 + h], . . . , (xn , xn + h] son ajenos.

x1

x2

xn

La probabilidad de que las variables aleatorias tomen valores, cada una de ellas, en uno y s olo uno de estos intervalos es, de acuerdo a la distribuci on multinomial, n! [F (x1 + h) F (x1 )] [F (xn + h) F (xn )]. 1! 1! Esta probabilidad es, aproximadamente, fX(1) ,...,X(n) (x1 , . . . , xn )h h. Dividiendo entre hn , y despu es haciendo h tender a cero se obtiene, una vez mas, fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ). 174

Ahora nos interesa encontrar una f ormula para la densidad conjunta de cualesquiera dos estad sticas de orden.

Proposici on. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de distribuci on F (x), y funci on de densidad f (x). Sea i < j . Para x < y , fX(i) ,X(j) (x, y ) = n i, j i, n j i(j i) f (x)f (y )

[F (x)]i1 [F (y ) F (x)]j i1 [1 F (y )]nj .

Para este resultado se presenta u nicamente un argumento intuitivo. Sean x < y y considere los intervalos ajenos (, x], (x, x + h], (x + h, y ], (y, y + h], y (y + h, ) para h > 0 sucientemente peque na.

i1 x

j i1 y

1 y+h

nj

x+h

La probabilidad de que i 1 variables de la muestra tomen un valor en (, x], una de ellas en (x, x + h], j i + 1 variables en (x + h, y ], otra en (y, y + h], y el resto, n j variables, tomen un valor en (y + h, ) es, de acuerdo a la distribuci on multinomial, n! [F (x)]i1 [F (x + h) F (x)] (i 1)! 1! (j i 1)! 1! (n j )!

[F (y ) F (x + h)]j i1 [F (y + h) F (y )] [1 F (y + h)]nj .

Esta probabilidad es aproximadamente igual a fX(i) ,X(j) (x, y ) h h. Dividiendo entre h2 , y despu es haciendo h tender a cero se obtiene la f ormula anunciada.

6.3.

Ejercicios

432. Sea X1 , . . . , Xn una muestra aleatoria de una distribuci on con media y va2 2 2 rianza . Demuestre que E (X ) = y E (S ) = . Estos resultados son de y S 2 son estimadores insesgados importancia en estad stica y muestran que X para la media y varianza de la distribuci on. 433. Sea X1 , . . . , Xn una m.a. de una distribuci on con media y varianza 2 . ) = 2 /n. Cu Demuestre que Var(X anto vale Var(S 2 )? 175

434. Sea X1 , . . . , Xn una m.a. de una distribuci on Ber(p). Demuestre que las es y S 2 no son independientes. tad sticas X

Distribuci on 2
435. Demuestre que la funci on de densidad de la distribuci on 2 (n) efectivamente lo es. 436. Demuestre que la distribuci on 2 (n), con n = 2, se reduce a la distribuci on exp() con = 1/2. 437. Demuestre que la distribuci on gama(n/2, ), con = 1/2, se reduce a la distribuci on 2 (n). 438. Sea X con distribuci on 2 (n). Demuestre que a ) E (X ) = n. b ) E (X m ) = 2m (m + n/2) (n/2) c ) Var(X ) = 2n. , para m = 1, 2, . . .

439. Sean X1 , . . . , Xn independientes con distribuci on N(, 2 ). Demuestre que )2 (X 2 (1). 2 /n on N(0, 1). Demuestre que 440. Sean X1 , . . . , Xn independientes con distribuci
n i=1

Xi2 2 (n).

2) 441. Sean X1 , . . . , Xn independientes tales que cada Xi tiene distribuci on N(i , i para i = 1, . . . , n. Demuestre que n i=1

(Xi i )2 2 (n). 2 i

442. Sean X y Y independientes ambas con distribuci on normal est andar. Sean R = X 2 + Y 2 y = tan1 (Y /X ). Demuestre que a ) R2 tiene distribuci on 2 (n) con n = 2 grados de libertad. b ) tan tiene distribuci on Cauchy. c ) R y son independientes.

176

Distribuci on t
443. Demuestre que la funci on de densidad de una distribuci on t(n) efectivamente lo es. 444. Sea X con distribuci on t(n). Demuestre que a ) E (X ) = 0. b ) Var(X ) = n , n2 para n > 2.

445. Demuestre que la distribuci on t(n + 1) tiene momentos nitos de orden menor o igual a n, pero ning un otro momento de orden superior.

Distribuci on F
446. Demuestre que la funci on de densidad de la distribuci on F(n, m) efectivamente lo es. 447. Sea X con distribuci on F(n, m). Demuestre que a ) E (X ) = m , para m > 2. m2 2m2 (m + n 2) b ) Var(X ) = , para m > 4 . n(m 2)2 (m 4)

448. Sea X con distribuci on F(n, m). Demuestre que Y = 1/X tiene distribuci on F(m, n). Observe el cambio en el orden de los par ametros. Este resultado es u til para obtener valores de F que no aparecen en tablas de esta distribuci on que son comunes en textos de estad stica. 449. Sea X con distribuci on F(n, m). Demuestre que cuando m tiende a innito la funci on de densidad de nX converge puntualmente a la funci on de densidad 2 de la distribuci on (n). 450. Sean X 2 (n) y Y 2 (m) independientes. Demuestre que X/n F(n, m). Y /m 451. Demuestre que si X t(n), entonces X 2 F(1, n).

Estad sticas de orden: distribuciones individuales


452. Sea X1 , . . . , Xn una m.a. de una distribuci on continua F (x) con funci on de densidad f (x). Las funciones de densidad de la primera y u ltima estad sticas de orden son a ) fX(1) (x) = nf (x) [1 F (x)]n1 . b ) fX(n) (x) = nf (x) [F (x)]n1 .

177

Demuestre que estas funciones son efectivamente funciones de densidad. 453. Sea X1 , . . . , Xn una m.a. de una distribuci on continua F (x) con funci on de densidad f (x). La funci on de densidad de la i- esima estad stica de orden es fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

Compruebe que esta es efectivamente una funci on de densidad, y que esta expresi on se reduce a la f ormulas encontradas antes, cuando i = 1 e i = n, respectivamente. 454. Sea X1 , . . . , Xn una m.a. de una distribuci on unif(0, 1). Demuestre que la i esima estad stica de orden tiene distribuci on beta(i, n + 1 i). Encuentre por lo tanto su esperanza y varianza. 455. Sea X1 , . . . , Xn una m.a. de una distribuci on exp(). Encuentre la funci on de densidad de la i- esima estad stica de orden. 456. Sean X(1) , X(2) las estad sticas de orden de una m.a. de tama no dos de una distribuci on N(, 2 ). Demuestre que E [X(1) ] = / . 457. Sean X(1) , X(2) las estad sticas de orden de una m.a. de tama no dos de una 2 distribuci on N(, ). Calcule E [X(2) ]. 458. Sea X1 , . . . , Xn una m.a. de una distribuci on F (x). Sea x un n umero real cualquiera, y para cada i = 1, . . . , n dena Yi = 1(,x] (Xi ). Demuestre que las variables Y1 , . . . , Yn son independientes, y cada una de ellas tiene distribuci on Ber(n, p), con p = F (x). Este hecho fue utilizado en el procedimiento para encontrar la funci on de densidad de la i- esima estad stica de orden. 459. Sean X1 y X2 absolutamente continuas e independientes, y dena Y = m ax{X1 , X2 }. Demuestre que a ) FY (y ) = FX1 (y )FX2 (y ). b ) fY (y ) = FX1 (y )fX2 (y ) + fX1 (y )FX2 (y ). c ) fY (y ) = 2F (y )f (y ), cuando X1 y X2 tienen la misma distribuci on. 460. Use el ejercicio anterior para encontrar la funci on de densidad de Y = m ax{X1 , X2 } cuando X1 y X2 son independientes cada una con distribuci on a ) unif(0, 1). b ) exp(). 461. Sean X1 y X2 absolutamente continuas e independientes. Dena Y = m n{X1 , X2 }. Demuestre que a ) FY (y ) = 1 [1 FX1 (y )][1 FX2 (y )]. 178

b ) fY (y ) = [1 FX1 (y )]fX2 (y ) + fX1 (y )[1 FX2 (y )].

c ) fY (y ) = 2[1 F (y )]f (y ), cuando X1 y X2 tienen la misma distribuci on.

462. Use el ejercicio anterior para encontrar la funci on de densidad del m nimo de dos variables aleatorias independientes cada una con distribuci on uniforme en el intervalo (0, 1). 463. Demuestre que el m nimo de n variables aleatorias independientes con distribuci on exponencial es nuevamente exponencial con par ametro la suma de los par ametros. 464. Sea X1 , . . . , Xn una m.a. de una distribuci on continua F (x) con funci on de densidad f (x). Sea R = X(n) X(1) el rango de la muestra. Demuestre que para r > 0 y n 2, fR (r ) = n(n 1)

f (y )f (y r )[F (y ) F (y r )]n2 dy.

465. Se escogen n puntos al azar con distribuci on uniforme en el intervalo unitario (0, 1). Demuestre que la funci on de densidad de la distancia m axima entre cualesquiera dos puntos es f (r ) = n(n 1)r n2 (1 r ) 0 si 0 < r < 1, otro caso.

Estad sticas de orden: distribuciones conjuntas


466. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de densidad f (x). Se ha demostrado que para x1 < x2 < < xn , fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ). Compruebe que esta es efectivamente una funci on de densidad. 467. A partir de la f ormula para fX(1) ,...,X(n) (x1 , . . . , xn ), calcule la funci on de densidad marginal de X(1) , encontrando nuevamente que fX(1) (x) = nf (x)[1 F (x)]n1 . 468. A partir de la f ormula para fX(1) ,...,X(n) (x1 , . . . , xn ), calcule la funci on de densidad marginal de X(n) , encontrando nuevamente que fX(n) (x) = nf (x)[F (x)]n1 . 469. A partir de la f ormula para fX(1) ,...,X(n) (x1 , . . . , xn ), calcule la funci on de densidad marginal de X(i) , para i = 1, . . . , n, encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

179

470. Sea X1 , . . . , Xn una m.a. de una distribuci on continua con funci on de distribuci on F (x), y funci on de densidad f (x). Sea i < j . Se ha demostrado que para x < y , fX(i) ,X(j) (x, y ) = n i, j i, n j i(j i) f (x)f (y )

[F (x)]i1 [F (y ) F (x)]j i1 [1 F (y )]nj .

Compruebe que esta es efectivamente una funci on de densidad bivariada. on de densidad 471. A partir de la f ormula para fX(i) ,X(j) (x, y ), calcule la funci marginal de X(i) , encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

472. Sea X1 , . . . , Xn una m.a. de una distribuci on unif(0, 1). Encuentre la funci on de densidad de a ) X(1) y X(2) conjuntamente. b ) R = X(n) X(1) . 473. Mediana muestral. La mediana de una muestra aleatoria X1 , . . . , Xn , denotada sticas por Med(X1 , . . . , Xn ), se dene del siguiente modo: Considere las estad de orden X(1) X(2) X(n) . Entonces X n+1 si n es impar, ( 2 ) Med(X1 , . . . , Xn ) = 1 [ X( n ) + X( n +1) ] si n es par. 2 2 2 Encuentre la funci on de densidad de la mediana de una muestra aleatoria de la distribuci on unif(0, 1), primero suponiendo que el tama no de la muestra n es impar, y despu es para n par.

on unif(0, 1). Encuentre la funci on 474. Sea X1 , . . . , Xn una m.a. de una distribuci de densidad del vector (X(1) , . . . , X(n) ). 475. Sea X1 , . . . , Xn una m.a. de una distribuci on unif(0, 1). Calcule el coeciente de correlaci on entre X(i) y X(j ) . 476. Sea X1 , . . . , Xn una m.a. de una distribuci on continua F (x) con funci on de densidad f (x). Demuestre directamente que para x < y , fX(1) ,X(n) (x, y ) = n(n 1)f (x)f (y )[F (y ) F (x)]n2 . 477. Encuentre la funci on de densidad conjunta de X(1) y X(n) para una m.a. de tama no n de una distribuci on a ) unif(0, 1). b ) exp(). 180

478. Calcule la covarianza entre X(1) y X(n) para una m.a. de tama no n de una distribuci on a ) unif(0, 1). b ) exp().

181

Cap tulo 7

Convergencia
En este cap tulo se presenta una introducci on al tema de convergencia de variables aleatorias. Se estudian distintas formas en que una sucesi on de variables aleatorias puede converger.

7.1.

Convergencia puntual

Sea X1 , X2 , . . . una sucesi on innita de variables aleatorias. Al evaluar cada una de estas variables en un elemento de se obtiene la sucesi on num erica X1 ( ), X2 ( ), . . . Suponga que esta sucesi on converge a un cierto n umero real denotado por X ( ). Si lo anterior se cumple para todos y cada uno de los elementos de , entonces se dice que la sucesi on de variables aleatorias converge puntualmente, y su l mite es la funci on X : R denida naturalmente por X ( ) = l m Xn ( ).
n

Se ha demostrado antes que en esta situaci on la funci on l mite X es efectivamente una variable aleatoria. Formalmente se tiene entonces la siguiente denici on.

Denici on (Convergencia puntual). La sucesi on X1 , X2 , . . . converge puntualmente a X si para cada en ,


n

l m Xn ( ) = X ( ).

Ejemplo Considere el espacio medible ([0, 1], B [0, 1]), y dena la sucesi on de varian bles aleatorias Xn ( ) = . Como en este caso el espacio muestral es un subconjunto de n umeros reales, podemos gracar las variables aleatorias de la siguiente forma:

182

Xn ( )

1
Gr aca de la variable aleatoria Xn .

Entonces para [0, 1), Xn ( ) 0. Mientras que para = 1, Xn ( ) = 1. De esta manera la sucesi on converge puntualmente a la variable aleatoria X ( ) = 0 si [0, 1), 1 si = 1. En algunas situaciones la convergencia puntual resulta ser muy fuerte pues se pide la convergencia de la sucesi on evaluada en todos y cada uno de los elementos de . Se puede ser menos estricto y pedir, por ejemplo, que la convergencia se efect ue en todo el espacio excepto en un subconjunto de probabilidad cero. Este tipo de convergencia menos restrictiva se llama convergencia casi segura, y se estudia en las siguientes secciones junto con otros tipos de convergencia.

7.2.

Convergencia casi segura

Denici on (Convergencia casi segura). La sucesi on X1 , X2 , . . . converge casi seguramente a X , si P { : l m Xn ( ) = X ( )} = 1.


n

Por lo tanto, en la convergencia casi segura se permite que para algunos valores de , la sucesi on num erica X1 ( ), X2 ( ), . . . pueda no converger, sin embargo el subconjunto de en donde esto suceda debe tener probabilidad cero. Para indicar c.s. la convergencia casi segura se escribe Xn X , o bien l m Xn = X c.s. A menudo n se utiliza el t ermino convergencia casi dondequiera, o bien convergencia casi siempre 183

para denotar este tipo de convergencia. Observe que omitiendo el argumento , la condici on para la convergencia casi segura se escribe en la forma m as corta: P ( l m Xn = X ) = 1,
n

o simplemente P (Xn X ) = 1. Observe que el conjunto (Xn X ) debe ser medible para que tenga sentido aplicar la probabilidad. Puede demostrarse que bajo este tipo de convergencia, el l mite es u nico casi seguramente. Ejemplo. Considere el espacio de probabilidad ([0, 1], B [0, 1], P ) con P la medida uniforme, es decir, P (a, b) = b a. Dena la sucesi on de variables aleatorias Xn ( ) = 1 si 0 1/n, 0 otro caso.

Cuyas gr acas son:

Xn ( )

1/n

Gr aca de la variable aleatoria Xn .

Observe que Xn tiene distribuci on Bernoulli con par ametro p = 1/n. La sucesi on Xn converge casi seguramente a la variable aleatoria constante cero. Para demostrar esto se necesita vericar que P (Xn 0) = 1. Pero esta igualdad es evidente a partir del hecho de que { : l m Xn ( ) = 0} = (0, 1],
n

cuya probabilidad es uno. El punto = 0 es el u nico punto muestral para el cual c.s. Xn ( ) no converge a cero. Esto demuestra que Xn 0.

184

7.3.

Convergencia en probabilidad

Denici on (Convergencia en probabilidad). La sucesi on X1 , X2 , . . . converge en probabilidad a X , si para cada > 0


n

l m P { : |Xn ( ) X ( )| > } = 0.

Para denotar la convergencia en probabilidad se escribe Xn X , y omitiendo el argumento la condici on se escribe


n

l m P ( |Xn X | > ) = 0.

M as adelante se demostrar a que la convergencia en probabilidad es un tipo de convergencia a un menos restrictiva que la convergencia casi segura. Veamos ahora otras maneras en que una sucesi on de variables aleatorias puede converger.

7.4.

Convergencia en media

Denici on (Convergencia en media). La sucesi on X1 , X2 , . . . converge en media a X , si l m E |Xn X | = 0.


n

o Xn X .

Observe que para este tipo de convergencia tanto los elementos de la sucesi on como el l mite mismo deben ser variables aleatorias con esperanza nita. A este tipo de m convergencia tambi en se le llama convergencia en L1 y se le denota por Xn X ,
L1

185

7.5.

Convergencia en media cuadr atica

Denici on (Convergencia en media cuadr atica). La sucesi on X1 , X2 , . . . converge en media cuadr atica a X , si
n

l m E |Xn X |2 = 0.

En la convergencia en media cuadr atica se presupone que tanto los elementos de la sucesi on como el l mite mismo son variables aleatorias con segundo momento nito. A este tipo de convergencia tambi en se le llama convergencia en L2 , y se le denota por Xn X , o Xn X .
m.c. L2

7.6.

Convergencia en distribuci on

Denici on (Convergencia en distribuci on). La sucesi on X1 , X2 , . . . converge en distribuci on a X , si para todo punto x en donde FX (x) es continua, se cumple que l m FXn (x) = FX (x).
n

en En este caso se escribe Xn X . A este tipo de convergencia se le conoce tambi con el nombre de convergencia d ebil, y ello se debe a que esta forma de convergencia es la menos restrictiva de todas las mencionadas anteriormente. Ejemplo. Considere la sucesi on X1 , X2 , . . ., en donde cada Xn tiene distribuci on d 2 N(0, /n). Demostraremos que Xn 0. Como FXn (x) = entonces 1 2 2 /n
x

eu

2 /2( 2 /n)

du,

Gr acamente,

0 l m FXn (x) = 1/2 n 1

si x < 0, si x = 0, si x > 0.

186

FXn (x) 1

x Sucesi on y l mite de las funciones de distribuci on FXn (x).

Observe que la variable aleatoria constante X = 0 tiene funci on de distribuci on FX (x) =


d

0 1

si x < 0, si x 0.

Tenemos entonces que Xn 0 pues l m FXn (x) = FX (x) para todo punto x
n

donde FX (x) es continua, esto es, para todo x en el conjunto R \ {0}. Observe que las funciones FXn (x) no convergen a F (x) cuando x = 0. A manera de resumen se presenta en la siguiente tabla las deniciones de los distintos tipos de convergencia mencionados. En la siguiente secci on se estudian las relaciones entre estos tipos de convergencia.

Convergencia puntual casi segura en media en media cuadr atica en probabilidad en distribuci on

Denici on Xn ( ) X ( ) para cada en . P (Xn X ) = 1. E |Xn X | 0. E |Xn X |2 0. P (|Xn X | > ) 0. FXn (x) FX (x) en puntos de continuidad x de FX .

7.7.

Relaciones generales entre los tipos de convergencia

En esta secci on se establecen algunas relaciones generales entre los tipos de convergencia de variables aleatorias mencionados en la secci on anterior. En la siguiente gura se ilustran de manera gr aca estas relaciones:

187

Conv.

casi
segura

Conv. en m. c. Conv. en m.

Conv. en probabilidad Conv. en distribuci on Relaci on entre los tipos de convergencia.

En este diagrama la contenci on se interpreta como implicaci on, por ejemplo, la convergencia casi segura implica la convergencia en probabilidad, y esta a su vez implica la convergencia en distribuci on. Estos y otros resultados se demuestran a continuaci on.

Proposici on. Convergencia c.s. convergencia en prob.

Demostraci on. Suponga Xn X . Sea > 0 y dena los eventos An =


k =n

c.s.

(|Xk X | > ).

Esta sucesi on es decreciente y su l mite es entonces la intersecci on de todos los eventos. Como (|Xn X | > ) An , entonces P (|Xn X | > ) P (An ). Por lo tanto,
n

l m P (|Xn X | > )

= P ( l m An ) = P(
n n=1

l m P (An )

An )

= P (|Xn X | > , para cada n 1 ) = P ( l m Xn = X )


n

= 0.

188

El rec proco de la proposici on anterior es, en general, falso, es decir, la convergencia en probabilidad no implica necesariamente la convergencia casi siempre. Para ilustrar esta armaci on se proporciona a continuaci on un ejemplo. Ejemplo (En general, convergencia en prob. = convergencia c.s.). Considere el espacio de probabilidad ((0, 1), B (0, 1), P ), con P la medida uniforme. Dena los eventos A1 = (0, 1/2), A2 = (1/2, 1), A3 = (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1), A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1), Sea Xn = 1An . Las gr acas de estas primeras variables aleatorias son las siguientes:
X1 X2 X3 X4 X5

Gr acas de las primeras variables aleatorias Xn .

Entonces Xn 0 pues para cualquier > 0,


n

l m P (|Xn 0| > ) = l m P (An ) = 0.


n

Sin embargo la sucesi on no converge casi seguramente pues {w : l m Xn (w) existe } = .


n

Ejemplo (En general, convergencia en media = convergencia c.s.). Conm sidere la sucesi on de variables Xn del ejemplo anterior. Entonces Xn 0 pues on no converge c.s. pues P (l m Xn = E |Xn 0| = P (An ) 0. Sin embargo esta sucesi 0) = P () = 0. El ejemplo anterior sirve tambi en para mostrar que, en general, la convergencia en media cuadr atica no implica la convergencia casi segura. Veamos otra no implicaci on. Ejemplo (En general, convergencia c.s. = convergencia en media). Considere el espacio ((0, 1), B (0, 1), P ), con P la medida de probabilidad uniforme. Dena la suceci on Xn = n 1(0,1/n) . Entonces Xn converge a cero casi seguramente pues P (l m Xn = 0) = P () = 1. Sin embargo no hay convergencia en media pues 189

E |Xn 0| = E (Xn ) = 1 0.

Estos ejemplos pueden ser usados tambi en para demostrar que la convergencia casi segura no implica necesariamente la convergencia en media cuadr atica.

Proposici on. Convergencia en m.c. convergencia en media.

Demostraci on. La desigualdad de Jensen establece que para u convexa, u(E (X )) E (u(X )). Tomando u(x) = x2 se obtiene E 2 |Xn X | E |Xn X |2 , de donde se sigue el resultado. Alternativamente la u ltima desigualdad es consecuencia de la desigualdad de Cauchy-Schwarz. Ejemplo (En general, convergencia en media = convergencia en m.c.). Sea Xn = n 1(0,1/n2 ) sobre el espacio ((0, 1), B (0, 1), P ), con P la medida uniforme. Entonces Xn converge a cero en media pues E |Xn 0| = E (Xn ) = n 1/n2 0. Sin embargo, no hay convergencia en media cuadr atica pues
2 E |Xn 0|2 = E (Xn ) = n2 1/n2 = 1 0.

Proposici on. Convergencia en media convergencia en prob.

Demostraci on. Para cada > 0 dena el evento An = (|Xn X | > ). Entonces E |Xn X | = E (|Xn X | 1An ) + E (|Xn X | 1Ac ) n P (|Xn X | > ). Por hip otesis, el lado izquierdo tiende a cero cuando n tiende a innito. Por lo tanto P (|Xn X | > ) 0. El rec proco del resultado anterior es, en general, falso. Ejemplo (En general, convergencia en prob. = convergencia en media). Considere nuevamente el espacio ((0, 1), B (0, 1), P ), con P la medida uniforme, y 190 E (|Xn X | 1An )

dena las variables Xn = n 1(0,1/n) . Entonces Xn converge en probabilidad a cero pues para cualquier > 0, P (|Xn 0| > ) = P (Xn > ) = 1/n 0. Sin embargo, la sucesi on no converge en media pues E |Xn 0| = E (Xn ) = 1 0.

Proposici on. Convergencia en prob. convergencia en dist.

Demostraci on. Suponga que Xn X , y sea x un punto de continuidad de FX (x). Para cualquier > 0, FXn (x) = P (Xn x)

P (X x + ) + P (|Xn X | > ).

= P (Xn x, |Xn X | ) + P (Xn x, |Xn X | > )

Por hip otesis el segundo sumando del lado derecho tiende a cero cuando n tiende a innito. Entonces para cualquier > 0, l m sup FXn (x) FX (x + ).
n

Por la continuidad lateral, l m sup FXn (x) FX (x).


n

Ahora se demuestra la desigualdad inversa. Para cualquier > 0 FX (x ) = P (X x )

P (Xn x) + P (|Xn X | > ).

= P (X x , |Xn X | ) + P (X x , |Xn X | > )

Nuevamente el segundo sumando tiende a cero cuando n tiende a innito. Entonces FX (x ) l m inf FXn (x).
n

Por la continuidad en x, FX (x) l m inf FXn (x).


n

En resumen, FX (x) l m inf FXn (x) l m sup FXn (x) FX (x).


n n

El rec proco de la proposici on anterior es falso, es decir, la convergencia en distribuci on no siempre implica la convergencia en probabilidad. 191

Ejemplo (En general, convergencia en dist. = convergencia en prob.). Sea X con distribuci on normal est andar, y sea Xn = X si n es par, X si n es impar.

en tiene distribuci on normal est andar y por lo Entonces claramente cada Xn tambi d tanto para cualquier n umero real x, FXn (x) FX (x), es decir, Xn X . Sin embargo la sucesi on no converge en probabilidad a X , pues para valores impares de n y para valores peque nos de > 0, P (|Xn X | > ) = P (2|X | > ) > 1/2. Lo anterior demuestra que l m P (|Xn X | > ) = 0.
n

7.8.

Dos resultados importantes de convergencia

Sea X1 , X2 , . . . una sucesi on de variables aleatorias con esperanza nita. Suponga que Xn converge puntualmente a X . Es natural preguntarse si la sucesi on de n umeros E (Xn ) converge a E (X ). Tal convergencia num erica equivaldr a a poder intercambiar las operaciones de l mite y esperanza, es decir,
n

l m E (Xn ) = E ( l m Xn ) = E (X ).
n

En esta secci on se estudian dos resultados que establecen condiciones bajo las cuales es v alido este intercambio.

Teorema de convergencia mon otona. Sea 0 X1 X2 una sucesi on de variables aleatorias convergente puntualmente a una variable X . Entonces
n

l m E (Xn ) = E (X ).

Demostraci on. Como 0 Xn X , entonces 0 E (Xn ) E (X ). Por lo tanto l mn E (Xn ) E (X ). Ahora resta demostrar la desigualdad contraria. Primero se aproxima a X de la siguiente forma: Sea > 0 arbitrario, y para cada entero k 0 dena el evento Ak = ( k X < (k + 1) ). Esta es una colecci on disjunta de eventos, cuya uni on es . Dena ahora la variable aleatoria discreta aproximante Y ( ) = k si k X ( ) < (k + 1). 192

Observe que Y aproxima a X de la siguiente forma: Y X < Y + . O bien X < Y X . Por lo tanto, E (X ) E (Y ) E (X ). Para cada n umero natural n dena el evento Bn = (Xn Y ). No es dif cil comprobar que Bn . Por lo tanto, para k jo, Ak Bn Ak cuando n , y entonces P (Ak Bn ) P (Ak ). Ahora considere la variable aleatoria discreta Y 1Bn dada por Y ( ) si Bn , Y 1Bn ( ) = 0 si / Bn . l m E (Xn ) = = =
k =0

Entonces 0 Y 1Bn Xn , y por lo tanto 0 E (Y 1Bn ) E (Xn ). Entonces


n n n

l m E (Y 1Bn ) l m
k =0 k =0 m k =0

E (Y 1Bn Ak ) k P (Bn Ak ) k P (Bn Ak )

l m

n m

l m

k P (Ak )

Como esta desigualdad es v alida para cualquier m 0, entonces


n

l m E (Xn )

k =0

k P (Ak ) = E (Y ) E (X ) .

Dado que > 0 es arbitrario, se tiene que


n

l m E (Xn ) E (X ).

El siguiente resultado establece otro tipo de condici on suciente para obtener la misma conclusi on.

Teorema de convergencia dominada. Sea X1 , X2 , . . . una sucesi on de variables aleatorias para la cual existe otra variable Y integrable tal que |Xn | Y , para n 1. Si l m Xn = X puntualmente, entonces X y Xn son integrables y
n n

l m E (Xn ) = E (X ).

193

Demostraci on. Sea Yn = nf {Xn , Xn+1 , . . .}. Entonces Yn X cuando n . Por lo tanto (Yn + Y ) (X + Y ), en donde Yn + Y 0, pues como Xn Y , entonces Xn Y para toda n, y por lo tanto Yn Y . Por el teorema de convergencia mon otona, E (Yn + Y ) E (X + Y ). De donde se obtiene E (Yn ) E (X ). Sea ahora Zn = sup{Xn , Xn+1 , . . .}. Entonces Zn X cuando n . Por lo tanto (Y Zn ) (Y X ), en donde Y Zn 0, pues como Xn Y para toda n, entonces Zn Y . Por el teorema de convergencia mon otona, E (Y Zn ) E (Y X ). De donde se obtiene E (Zn ) E (X ). Ahora observe que Yn Xn Zn . Por lo tanto E (Yn ) E (Xn ) E (Zn ). Al hacer n tender a innito se obtiene el resultado. Estos dos teoremas son herramientas fuertes en la teor a de la probabilidad. En particular, se usar an en la u ltima parte del curso para formalizar algunas demostraciones.

7.9.

Ejercicios
Convergencia casi segura

479. Demuestre que en la convergencia casi segura, el l mite es u nico casi segurac.s. c.s. mente, es decir, si Xn X , y Xn Y , entonces X = Y c.s. 480. Sean a y b constantes. Demuestre que si Xn X , entonces aXn + b aX + b. 481. Suponga que Xn X y Yn Y . Demuestre que a ) Xn + Yn X + Y. b ) Xn Yn XY.
c.s. c.s. c.s. c.s. c.s. c.s.

482. Considere el espacio de probabilidad ([0, 1], B [0, 1], P ), con P la medida de probabilidad uniforme. Demuestre que n1[0,1/n) 0.
c.s.

Convergencia en probabilidad
483. Demuestre que en la convergencia en probabilidad, el l mite es u nico casi sep p guramente, es decir, si Xn X , y Xn Y , entonces X = Y c.s. 484. Sean a y b constantes. Demuestre que si Xn X , entonces aXn + b aX + b. 194
p p

485. Suponga que Xn x y Yn y , en donde x y y son dos n umeros reales jos. Demuestre que a ) Xn + Yn x + y . b ) Xn Yn xy .
p p

c ) Si g es continua en x, entonces g(Xn ) g(x).


p p p

486. Demuestre que si Xn X y Yn Y entonces Xn + Yn X + Y. 487. Sean X1 , X2 , . . . variables aleatorias independientes cada una con distribuci on unif(a, b). Demuestre que cuando n tiende a innito a ) m n{X1 , . . . , Xn } a.
p p

b ) m ax{X1 , . . . , Xn } b.

Convergencia en media
488. Demuestre que en la convergencia en media, el l mite es u nico casi seguramente, m m es decir, si Xn X , y Xn Y , entonces X = Y c.s. 489. Sean a y b constantes. Demuestre que si Xn X , entonces aXn + b aX + b. 490. Suponga que Xn X y Yn Y . Demuestre que Xn + Yn X + Y. Proporcione un contraejemplo para la siguiente armaci on: Xn Yn XY. 491. Demuestre que si Xn X , entonces E (Xn ) E (X ).
m m m m m m m

Convergencia en media cuadr atica


492. Demuestre que en la convergencia en media cuadr atica, el l mite es u nico casi m.c. m.c. seguramente, es decir, si Xn X , y Xn Y , entonces X = Y c.s. 493. Sean a y b constantes. Demuestre que si Xn X , entonces aXn + b aX + b. 494. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn X y m.c. Yn Y , entonces m.c. Xn + Yn X + Y.
2 ) E (X 2 ). 495. Demuestre que si Xn X , entonces E (Xn m.c. m.c. m.c. m.c.

195

Convergencia en distribuci on
496. Demuestre que en la convergencia en distribuci on, el l mite es u nico en distrid d buci on, es decir, si Xn X , y Xn Y , entonces X y Y tienen la misma distribuci on. 497. Considere el espacio de probabilidad ([0, 1], B [0, 1], P ) en donde P es la medida de probabilidad uniforme. Sea Xn = 1[0,1/2+1/n) y X = 1[0,1/2] . Demuestre que Xn X . on unif[a 1/n, a + 1/n], en donde a es una constante. 498. Sea Xn con distribuci Demuestre que Xn a.
d d

499. Sea Xn con distribuci on uniforme en el conjunto {0, 1, . . . , n}. Demuestre que 1 d Xn unif[0, 1]. n olo si, Xn c. 500. Sea c una constante. Demuestre que Xn c si, y s
p d

Relaciones generales entre los tipos de convergencia


501. Otro ejemplo de que la convergencia casi segura no implica la convergencia en media. Sea X1 , X2 , . . . una sucesi on de variables aleatorias independientes e id enticamente distribuidas tales que para cada n umero natural n, P (Xn = 0) = 1/4, P (Xn = 1) = 1/2, y P (Xn = 2) = 1/4.

Dena Yn = X1 X2 Xn . Demuestre que Yn converge a cero, casi seguramente, pero no as en media, ni en media cuadr atica. 502. Sea A1 , A2 , . . . una sucesi on de eventos tal que l m An = A. En qu e sentido n la sucesi on de variables aleatorias 1An converge a 1A ? 503. Demuestre que si Xn X y Yn Y entonces no necesariamente a ) cXn cX, c constante. b ) Xn + Yn X + Y .
2 ) y X con distribuci 504. Sea Xn con distribuci on N(n , n on N(, 2 ). Suponga 2 2 , con 2 , 2 > 0. En qu n y n e sentido Xn X ? n d d d d

505. Suponga Xn X en donde Xn y X son variables aleatorias absolutamente continuas. Bajo qu e condiciones fXn (x) fX (x)?

196

Cap tulo 8

Funciones generadoras
En este cap tulo se estudia la funci on generadora de probabilidad, la funci on generadora de momentos y la funci on caracter stica. Estas funciones son transformaciones de las distribuciones de probabilidad, y constituyen una herramienta muy u til en la teor a moderna de la probabilidad.

8.1.

Funci on generadora de probabilidad

Denici on (Funci on generadora de probabilidad). La funci on generadora de probabilidad de X es la funci on G(t) = E (tX ), denida para valores reales de t tal que la esperanza sea convergente absolutamente.

Cuando sea necesario especicarlo se escribe GX (t) en lugar de G(t), y se usan las letras f.g.p. en lugar de funci on generadora de probabilidad. Esta funci on se utiliza principalmente, aunque no u nicamente, en el caso de variables aleatorias con valores enteros. Por comodidad supondremos que estas toman valores en el conjunto {0, 1, . . . }, que corresponde al caso de las variables aleatorias discretas estudiadas en este curso. En tal situaci on, G(t) =
k =0

tk P (X = k).

Por lo tanto la f.g.p. es una serie de potencias en t, con coecientes dados por la distribuci on de probabilidad, por ende el nombre. Es importante observar que el

197

radio de convergencia de esta serie es por lo menos uno, pues para |t| < 1, |G(t)| = |
k =0

tk P (X = k)|

k =0

|t|k P (X = k)

k =0

P (X = k) = 1.

Ejemplo. Sea X con distribuci on Poisson(). Entonces la f.g.p. de X puede calcularse de la siguiente forma: G(t) =
k =0

tk e

k k!

= e = e = e

k =0 t

(t)k k! .

(1t)

Observe que en este caso la f.g.p. se encuentra denida para todo valor real de t. En la siguiente tabla se muestran ejemplos de funciones generadoras de probabilidad para algunas distribuciones discretas.

Distribuci on unif{x1 , . . . , xn } Ber(p) bin(n, p) geo(p) Poisson() bin neg(r, p)

Funci on generadora de probabilidad G(t) =


1 x1 n (t

+ + tx n )

G(t) = 1 p + pt G(t) = (1 p + pt)n G(t) = p/[1 t(1 p)] G(t) = e(1t) G(t) = (p/[1 t(1 p)])r

La funci on generadora de probabilidad determina de manera u nica a la distribuci on en el siguiente sentido: si X y Y tienen la misma distribuci on de probabilidad, entonces naturalmente GX (t) = GY (t), para valores de t donde esta esperanza exista. Inversamente, sean X y Y tales que GX (t) y GY (t) existen y coinciden en alg un intervalo alrededor del cero, entonces X y Y tienen la misma distribuci on de proba bilidad. Estas y otras propiedades generales de la f.g.p. se estudian a continuaci on, y m as adelante se ilustran estos resultados con algunos ejemplos.

198

Proposici on (Propiedades de la f.g.p.). 1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que GX (t) y GY (t) existen y coinciden en alg un intervalo alrededor de t = 0. Entonces X y Y tienen la misma distribuci on de probabilidad. 2. Si el n- esimo momento factorial de X existe, entonces l m dn GX (t) = E [X (X 1) (X n + 1)]. dtn

t1

3. Si X y Y son independientes y cuyas f.g.p. existen, entonces GX +Y (t) = GX (t) GY (t).

Demostraci on. (1) Sean ak = P (X = k) y bk = P (Y = k), para cada k 0. La igualdad GX (t) = GY (t) se escribe entonces de la forma siguiente:
k =0

t ak =

k =0

tk bk .

Para que estas dos series de potencias en t coincidan en alg un intervalo no trivial alrededor del cero, sus coecientes deben forzosamente coincidir, es decir, ak = bk para cada k 0. Esto signica que las distribuciones de probabilidad coinciden. (2) Como las series de potencia se pueden derivar t ermino a t ermino conserv andose el mismo radio de convergencia, se tiene que G (t) = = =

d dt

k =0

tk P (X = k)

k =0 k =1

d k t P (X = k) dt ktk1 P (X = k).

Por lo tanto, suponiendo que la esperanza existe, por el lema de Abel,


t1

l m G (t) =

k =1

kP (X = k) = E (X ).

Para la segunda derivada se tiene G (t) =


k =2

k(k 1)tk2 P (X = k),

de modo que cuando el segundo momento existe,


t1

l m G (t) =

k =2

k(k 1)P (X = k) = E (X (X 1)). 199

De manera an aloga se demuestra para las derivadas superiores. (3) Cuando X y Y son independientes, GX +Y (t) = E (tX +Y ) = E (tX tY ) = E (tX ) E (tY )

= GX (t) GY (t).

Debido a la segunda propiedad, a la f.g.p. tambi en se le conoce como funci on generadora de momentos factoriales. Ejemplo. Se hab a encontrado que la f.g.p. de una variable aleatoria X con distribuci on Poisson() es G(t) = e(1t) . Usando esta funci on encontraremos la esperanza y varianza de X . Al derivar una vez se obtiene G (t) = e(1t) , y al evaluar en t = 1, E (X ) = G (1) = . Derivando por segunda vez, G (t) = 2 e(1t) , y en t = 1 se obtiene E (X (X 1)) = G (1) = 2 . Por lo tanto Var(X ) = E (X 2 ) E 2 (X ) = 2 + 2 = . Ahora se muestra el uso de la f.g.p. para determinar la distribuci on de una variable aleatoria. Ejemplo. Suponga que X y Y son independientes con distribuci on Poisson(1 ) y Poisson(2 ), respectivamente. Entonces MX +Y (t) = MX (t) MY (t) = e(1 +2 )(1t) . = e1 (1t) e2 (1t)

Esta expresi on corresponde a la f.g.p. de la distribuci on Poisson con par ametro 1 + 2 . Debido a la unicidad, se concluye entonces que X + Y tiene distribuci on Poisson(1 + 2 ).

8.2.

Funci on generadora de momentos

La funci on generadora de momentos es otra funci on que se puede asociar a algunas distribuciones de probabilidad, su existencia no est a garantizada en todos los 200

casos. Cuando existe, determina de manera u nica a la distribuci on de probabilidad asociada, y tiene propiedades semejantes a las de la f.g.p. estudiada en la secci on anterior. La funci on generadora de momentos se utiliza tanto para variables aleatorias discretas como continuas.

Denici on (Funci on generadora de momentos). La funci on generadora de momentos de X es la funci on M (t) = E (etX ), denida para valores reales de t tales que esta esperanza sea absolutamente convergente.

Nuevamente, cuando sea necesario especicarlo se escribe MX (t) en lugar de M (t), y se usan las letras f.g.m. en lugar de funci on generadora de momentos. La parte importante de esta funci on es su existencia en una vecindad no trivial alrededor del cero. Observe que la f.g.m. y la f.g.p. est an relacionadas, cuando existen, por la igualdad M (t) = G(et ). Ejemplo. Sea X con distribuci on gama(n, ). Entonces la f.g.m. de X puede calcularse de la siguiente forma: M (t) = (x)n1 ex dx ( n ) 0 [( t)x]n1 = n ( t)n ( t)e(t)x dx ( n ) 0 = n ( t)n . etx

Observe que M (t) esta denida para t < .

La siguiente tabla muestra algunos otros ejemplos de funciones generadoras de momentos para ciertas distribuciones.
Funci on generadora de momentos M (t) = (ebt eat )/(bt at) M (t) = /( t) M (t) = [/( t)]n M (t) = exp(t + 2 t2 /2) M (t) = (1 2t)n/2 M (t) no existe para t = 0

Distribuci on unif(a, b) exp() gama(n, ) N(, 2 ) 2 (n) t(n)

201

Se demuestran a continuaci on algunas propiedades b asicas de la f.g.m., y despu es se muestra su utilidad mediante algunos ejemplos.

Proposici on (Propiedades de la f.g.m.). Sea X tal que su f.g.m. M (t) es nita para cada t (s, s), con s > 0. Entonces 1. Todos los momentos de X son nitos. 2. M (t) = tn E (X n ). n ! n=0

3. M (t) tiene derivadas continuas de cualquier orden en (s, s), y se cumple dn M (t) dtn = E (X n ).
t=0

Demostraci on. (1) La prueba se basa en las identidades: E |X |n = n y


0

(1 F (x)) xn1 dx + n
0

0 0

F (x) |x|n1 dx, F (x) etx dx,

M (t) = 1 + t

(1 F (x)) etx dx t

en donde, por hip otesis, las dos integrales de M (t) son nitas para cualquier t (s, s). Para x > 0 se toma cualquier t (0, s), y entonces (tx)n etx . n!

Es decir, xn (n!/tn )etx . De modo que, salvo constantes, la primera integral de E |X |n es menor o igual a la primera integral de M (t), siendo esta u ltima nita, la otra tambi en. Para x < 0 conviene tomar t (s, 0), pues en tal caso tx > 0 y entonces |tx|n e|tx| = etx . n!

Es decir, |x|n (n!/|t|n )etx . Ahora la segunda integral de E |X |n es menor o igual a la segunda integral de M (t), siendo esta u ltima nita, la otra tambi en. De esta forma todos los momentos de X existen cuando M (t) es nita en alg un intervalo no trivial alrededor del cero. (2) Se usa la f ormula E (X n ) = n
0

(1 F (x)) xn1 dx n 202

F (x) xn1 dx.

Entonces para cualquier t (s, s), y m 1, tn tn E (X n ) = 1 + n n! n! n=0 n=1


m m m 0 0

(1 F (x)) xn1 dx F (x) xn1 dx


m1 n t

tn n!

n=1

= 1+t
0

(1 F (x)) F (x)

n=0 m1 n t n=0

n!

xn dx

n!

xn dx.

Usando el teorema de convergencia mon otona, o el de convergencia dominada, dependiendo de los valores de t y x, cada una de estas integrales es convergente, para cualquier t (s, s), cuando m . De modo que
n=0

tn E (X n ) = 1 + t n! = M (t).

(1 F (x)) etx dx t

F (x) etx dx

(3) Dado que M (t) se puede expresar como una serie de potencias en t, diferenciando y evaluando en cero se obtienen los coecientes E (X n ). Si el n- esimo momento de una variable aleatoria existe, no implica que este puede ser hallado a trav es de la n- esima derivada de la f.g.m. evaluada en cero. Es decir, es necesario conocer la existencia de la f.g.m. para que pueda ser utilizada para obtener los momentos. Por ejemplo, una variable aleatoria con distribuci on t(n) tiene esperanza cero pero su f.g.m. M (t) no existe para t distinto de cero. Ejemplo. Sea X con distribuci on gama(n, ). Entonces hemos encontrado antes que para t < , M (t) = n ( t)n . Calcularemos ahora la esperanza y varianza de X con ayuda de la f.g.m. Derivando una vez, M (t) = n n( t)n1 . Al evaluar en t = 0 se obtiene E (X ) = n/. Derivando nuevamente, M (t) = n n(n + 1)( t)n2 . Por lo tanto E (X 2 ) = M (0) = n(n + 1)/2 . Entonces Var(X ) = n(n + 1)/2 n2 /2 = n/2 .

203

Ejemplo. Suponga ahora que X y Y son independientes cada una con distribuci on gama(n, ) y gama(m, ), respectivamente. Entonces la f.g.m. de X + Y es MX +Y (t) = MX (t) MY (t) = n ( t)n m ( t)m = n+m ( t)nm .

Esta es nuevamente la expresi on de la f.g.m. de la distribuci on gama, ahora con par ametros n + m y . Se concluye entonces X + Y tiene distribuci on gama(n + m, ). Nuevamente, en el caso de independencia la funci on generadora de la suma es el producto las de funciones generadoras individuales.

Proposici on. Sean X y Y son independientes, y cuyas f.g.m. existen en una vecindad no trivial alrededor del cero. Entonces para cualquier t (s, s) para alg un s > 0, MX +Y (t) = MX (t) MY (t).

Demostraci on. Bajo la hip otesis de independencia, MX +Y (t) = E (et(X +Y ) ) = E (etX ) E (etY ) = MX (t) MY (t). = E (etX etY )

Es interesante observar que la condici on MX +Y (t) = MX (t) MY (t) no es suciente para concluir que X y Y son independientes. En el Ejercicio 542 se pide dar los detalles de tal armaci on. Como hemos mencionado antes, no todas las distribuciones de probabilidad permiten calcular la funci on generadora de momentos dentro de un intervalo no trivial alrededor del cero, ni todos los c alculos son tan sencillos como en el ejemplo mostrado. Por ejemplo, la f.g.m. de la distribuci on Cauchy est andar no existe para valores de t distintos de cero como se pide comprobar en el Ejercicio 543. Cuando se tienen dos variables X y Y con la misma distribuci on, entonces sus funciones generadoras de momentos coinciden pues estas de obtienen a trav es de la funci on de distribuci on com un. Por el contrario, si MX (t) = MY (t) en una vecindad no trivial alrededor del cero, entonces puede demostrarse que sus distribuciones coinciden, este resultado y otro relativo a convergencia es el contenido de la siguiente proposici on, cuya demostraci on omitiremos. 204

Proposici on (Otras propiedades de la f.g.m.). 1. Las variables X y Y tienen la misma distribuci on si, y s olo si, MX (t) = MY (t) para valores de t en una vecindad no trivial alrededor del cero. 2. Sea X1 , X2 , . . . una sucesi on de variables aleatorias cuyas funciones generadoras de momentos existen todas ellas en alg un intervalo no trivial alrededor d del cero. Entonces Xn X si, y s olo si, MXn (t) MX (t).

En la secci on de ejercicios se pueden encontrar las funciones generadoras de momentos de algunas otras distribuciones de probabilidad, tanto discretas como continuas, as como en el primer ap endice al nal del libro.

8.3.

Funci on caracter stica

En esta u ltima secci on se estudia la funci on caracter stica y se enuncian algunas de sus propiedades. Esta es una funci on denida para cada distribuci on de probabilidad, y a diferencia de las funciones generadoras de probabilidad y de momentos estudiadas antes, siempre existe. Su denici on es la siguiente.

Denici on (Funci on caracter stica). La funci on caracter stica de X es la funci on (t) = E eitX , denida para cualquier n umero real t. El n umero i es la unidad de los n umeros imaginarios.

Observe que la funci on caracter stica es una funci on de los n umeros reales en los n umeros complejos, y puede escribirse en la forma siguiente: (t) = E (cos tX ) + iE (sen tX ). Nuevamente se escribe X (t) cuando sea necesario especicar que se trata de la funci on caracter stica de X . Se escribe simplemente f.c. en lugar de funci on caracter stica. Observe que la f.c., la f.g.m. y la f.g.p. est an relacionadas, cuando existen las dos u ltimas, por las igualdades (t) = M (it) = G(eit ). Se muestran a continuaci on algunos ejemplos de la forma de encontrar la funci on caracter stica a partir de una distribuci on de probabilidad. Ejemplo. Sea X con distribuci on bin(n, p). Entonces (t) = E (eitX )

205

=
x=0 n

eitx n x

n x

px (1 p)nx

=
x=0

(peit )x (1 p)nx

= (1 p + peit )n . Ejemplo. Sea X con distribuci on Poisson(). Entonces (t) = e(1e ) . En efecto, (t) = E (eitX ) =
x=0
it

eitx [ e

x ] x!

= e = e

x=0 (1eit )

(eit )x x! .

Otros ejemplos de funciones caracter sticas de distribuciones discretas se muestra en la siguiente tabla:

Distribuci on discreta Ber(p) bin(n, p) Poisson() geo(p) bin neg(r, p)

Funci on caracter stica (t) = 1 p + peit (t) = (1 p + peit )n (t) = e(1e


it

(t) = p/(1 (1 p)eit ) (t) = [p/(1 (1 p)eit )]r

Ahora se mostrar a la forma de encontrar la funci on caracter stica para dos distribuciones continuas: la distribuci on normal y la distribuci on gama. Ejemplo. Sea X con distribuci on N(, 2 ). Entonces (t) = E (eitX ) =

eitx

1 2 2

e(x) 206

2 /2 2

dx

1 2 2 2 2 e(x 2x(it )+ )/2 dx 2 2 1 2 2 2 2 2 2 2 = e( +(it ) )/2 e[x(it )] /2 dx 2 2 = = eitt


2 2 /2

Observe que el u ltimo integrando es la funci on de densidad normal con media el n umero complejo it 2 , y varianza 2 . El hecho de que esta integral tambi en vale uno es consecuencia del principio de continuaci on anal tica de la teor a de variable compleja.
z Ejemplo. Sea X con distribuci on Gama(z, ). Entonces (t) = ( it ) . En efecto,

(t) = E (eitX ) =
0

eitx [

(x)z 1 x e ] dx (z )

(x)z 1 e(it)x dx ( z ) 0 [( it)x]z 1 z = ( it) e(it)x dx ( it)z 0 (z ) z ) . = ( it

El u ltimo integrando es la funci on de densidad de la distribuci on gama(z, it). Usando la teor a de variable compleja puede demostrarse que esta integral vale uno. La siguiente tabla muestra algunos otros ejemplos de funciones caracter sticas para variables aleatorias continuas:

Distribuci on continua unif(a, b) exp() gama(n, ) N(, 2 ) 2 (n) t(n)

Funci on caracter stica (t) = (eibt eiat )/(ibt iat) (t) = [/( it)]n (t) = /( it)

(t) = (1 2it)n/2

(t) = exp(it 2 t2 /2)

(t) = e|t| , cuando n = 1.

La existencia de la funci on caracter stica se sigue del siguiente resultado.

207

Proposici on (Existencia de la f.c.). Para cualquier n umero real t, |(t)| 1. En particular, (0) = 1.

Demostraci on. Para cualquier n umero real t, |(t)| = =


eitx dF (x) |eitx | dF (x) dF (x)

= 1.

De modo que (t) es un n umero complejo de m odulo menor o igual a uno, para cualquier valor de t. Veremos a continuaci on algunas otras propiedades de esta importante funci on. En particular, demostraremos que los momentos de una variable aleatoria X pueden ser generados, cuando existen, con la f.c. a trav es de la f ormula (n) (0) = in E (X n ), y como en el caso de las funciones generadoras anteriores, cuando X y Y son independientes se cumple que X +Y (t) = X (t) Y (t). Proposici on. Si X tiene n- esimo momento nito, entonces dn (t) = E [ (iX )n eitX ]. dtn En consecuencia, dn (t) dtn = in E (X n ).

t=0

Demostraci on. Para cualquier h distinto de cero, (t + h) (t) h = =


ei(t+h)x eitx dF (x) h eitx eihx 1 dF (x) h

= E [ eitX 208

eihX 1 ]. h

Como l m

h0

eihx 1 = ix, entonces, puntualmente, h


h0

l m eitX

eihX 1 = iX eitX . h

Se comprueba que las variables aleatorias de esta sucesi on, parametrizada por h, son uniformemente dominadas por una variable aleatoria integrable, en efecto, |eitX eihX 1 eihX 1 | = | | h h 1 h = | iX eisX ds| h 0 1 h isX |X | |e | ds h 0 = |X |.

Por hip otesis, E |X | < , entonces por el teorema de convergencia dominada, d (t) = dt

ix eitx dF (x) = E [ iX eitX ].

Usando el mismo procedimiento, se encuentra que dn (t) = dtn (ix)n eitx dF (x) = E [ (iX )n eitX ].

Tomando el l mite cuando t 0, y usando nuevamente el teorema de convergencia dominada, dn (t) = in E (X n ). dtn t=0

Proposici on. Si X y Y son independientes, entonces X +Y (t) = X (t) Y (t).

Demostraci on. Por independencia, X +Y (t) = E (eit(X +Y ) ) = E (eitX eitY ) = E (eitX ) E (eitY ) = X (t) Y (t).

209

En particular, este resultado establece que el producto de dos funciones caracter sticas es nuevamente una funci on caracter stica. Por otro lado, es necesario se nalar que, en general, el rec proco de la u ltima propiedad es falso. En el Ejercicio 565 se pide demostrar que la condici on X +Y (t) = X (t) Y (t) no es suciente para concluir que las variables aleatorias X y Y son independientes. Otra de las propiedades fundamentales de la funci on caracter stica es su capacidad de determinar de manera u nica a las distintas distribuciones de probabilidad. A este respecto se tienen los siguientes resultados.

Proposici on (F ormula de inversi on de L` evy). Sea X con funci on de distribuci on F (x), y funci on caracter stica (t). Si x < y son puntos de continuidad de F , entonces F (y ) F (x) = l m 1 T 2
T T

eitx eity (t) dt. it

Cuando x y y no necesariamente son puntos de continuidad de F , el lado izquierdo 1 es 1 2 (F (y ) + F (y )) 2 (F (x) + F (x)).

Demostraci on. Sea I (T ) = = = = 1 2 1 2 1 2 1 2


T T T T T

eitx eity (t) dt it eitx eity [ it


eitz dF (z )] dt dF (z ) dt

T T T

eit(z x) it

it e (z y)

eit(z x) eit(z y) dt dF (z ). it

El cambio en el orden de integraci on es permitido pues el integrando es una funci on continua y acotada en t [T, T ] y z R, incluyendo cuando t = 0, pues puede denirse esta funci on de acuerdo a su comportamiento l mite en ese punto, es decir,
t0

l m

eit(z x) eit(z y) = y x. it
T T

Desarrollando las exponenciales en t erminos de senos y cosenos se obtiene I (T ) = 1 2


1 [ cos t(z x) + i sen t(z x) it cos t(z y ) i sen t(z y ) ] dt dF (z ),

en donde para cualquier n umero real a, por ser coseno una funci on par, y seno una funci on impar,
T T

cos(at) dt = 0, t 210

y
T

sen(at) dt = 2 t

T 0

sen(at) dt. t

Por lo tanto I (T ) = 1 2
T

[2
0

sen t(z x) dt 2 t

T 0

sen t(z y ) dt ] dF (z ). t

El siguiente paso consiste en aplicar el teorema de convergencia dominada cuando T . La integral I (T ) es la esperanza de la variable aleatoria XT = 1 [2 2
T 0

sen t(X x) dt 2 t

T 0

sen t(X y ) dt ]. t

Nos interesa encontrar el l mite de esta variable cuando T . Para ello se hace uso del siguiente resultado: si a > 0, T sen at dt = si a < 0, l m 2 T t 0 0 si a = 0, = signo(a), en donde la funci on signo es +1 signo(a) = 1 0 si a > 0, si a < 0, si a = 0.

Entonces, puntualmente,
T

l m XT

1 [ signo(X x) signo(X y ) ] 2 0 si X < x, 1/2 si X = x, = 1 si x < X < y, 1/2 si X = y, 0 si X > y. 1 = 1 (X ) + 1(x,y) (X ). 2 {x,y} =

Estas evaluaciones pueden encontrarse f acilmente usando el siguiente diagrama:

signo (X x):

x signo (X y ):

y 0

211

Adem as las variables XT est an acotadas en valor absoluto por una constante pues para cualquier n umero real a,
T

| Por lo tanto
T

sen at dt| sup | t T >0

T 0

sen t dt| < . t

l m I (T ) = = = = =

1 1{x,y} (z ) + 1(x,y) (z ) ] dF (z ) 2 1 1 P (X = x) + P (X = y ) + P (x < X < y ) 2 2 1 1 P (x < X y ) + P (X = x) P (X = y ) 2 2 1 1 F (y ) F (x) + P (X = x) P (X = y ) 2 2 1 1 (F (y ) + F (y )) (F (x) + F (x)). 2 2 [

En particular, si x y y son puntos de continuidad de F , entonces la integral vale F (y ) F (x). Como corolario del teorema de inversi on probaremos que las funciones de distribuci on determinan de manera u nica a las distribuciones de probabilidad.

Teorema de unicidad. Si X y Y son tales que X (t) = Y (t) para todo valor real de t, entonces X y Y tienen la misma distribuci on.

Demostraci on. Sea (t) la funci on caracter stica com un, y sea z cualquier n umero real. Esc oganse x y y tales que x < z < y . Haciendo x tender a , y y z , en la f ormula de inversi on de L` evy, se obtiene una u nica funci on de distribuci on dada por F (z ) = l m l m l m 1 2
T T

y z x T

eitx eity (t) dt. it

En el caso absolutamente continuo se tiene la siguiente f ormula.

Proposici on (F ormula de inversi on en el caso abs. continuo). Sea X absolutamente continua con funci on de densidad f (x), y funci on caracter stica (t). Entonces 1 f (x) = eitx (t) dt. 2

212

Demostraci on. Para x < y , dos puntos de continuidad de F , por el teorema de inversi on de L` evy, y despu es usando el teorema de Fubini, F (y ) F (x) = = = =
x

1 T 2 l m 1 2 1 2
y

T T

eitx eity (t) dt it

eitx eity (t) dt it


y x

eitx dx (t) dt. eitx (t) dt dx.

1 2

Por lo tanto el integrando debe ser la funci on de densidad de X . Es necesario se nalar que el uso de esta f ormula requiere conocer de antemano que la funci on caracter stica proviene de una variable aleatoria absolutamente continua. Surge entonces el problema de encontrar condiciones sobre (t) que garanticen que la correspondiente variable aleatoria sea absolutamente continua. Ahora se demuestra un resultado que ser a de utilidad en la u ltima parte del curso y que establece que la convergencia en distribuci on es equivalente a la convergencia puntual de las correspondientes funciones caracter sticas.

Teorema de Continuidad. Sean X, X1 , X2 , . . . variables aleatorias. Entonces d Xn X si, y s olo si, Xn (t) X (t).

Demostraci on. Suponga que Xn (t) X (t). Entonces para dos puntos de continuidad x < y de FX , el teorema de inversi on de L` evy establece que FX (y ) FX (x) = 1 T 2 l m
T T T T

eitx eity (t) dt. it eitx eity [ l m Xn (t)] dt. n it

1 = l m T 2 =

T itx 1 e eity [Xn (t)] dt. n T 2 T it = l m FXn (y ) FXn (x).

l m l m

Haciendo x tender a se obtiene FX (y ) = l m FXn (y ).


n

213

8.4.

Ejercicios
Funci on generadora de probabilidad

506. Sea X con varianza nita y con f.g.p. G(t). Demuestre que a ) E (X ) = G (1). b ) E (X 2 ) = G (1) + G (1). c ) Var(X ) = G (1) + G (1) [G (1)]2 . 507. Sea X con f.g.p. GX (t), y sean a y b dos constantes. Demuestre que GaX +b (t) = tb GX (ta ). 508. Sea X con distribuci on Ber(p). Demuestre que a ) G(t) = 1 p + pt.

b ) E (X ) = p, usando G(t). c ) Var(X ) = p(1 p), usando G(t).

509. Sea X con distribuci on bin(n, p). Demuestre que a ) G(t) = (1 p + pt)n .

b ) E (X ) = np, , usando G(t). c ) Var(X ) = np(1 p), usando G(t).

510. Sean X1 , . . . , Xn independientes, cada una con distribuci on Ber(p). Use la f.g.p. para demostrar que X1 + + Xn tiene distribuci on bin(n, p). 511. Sean X y Y independientes con distribuci on bin(n, p) y bin(m, p), respectivamente. Use la f.g.p. para demostrar que X + Y tiene distribuci on bin(n + m, p). 512. Sea X con distribuci on bin(N, p), en donde N es una v.a. con distribuci on bin(m, r ). Use la f.g.p. para demostrar que X tiene distribuci on bin(m, rp). 513. Sea X con distribuci on geo(p). Demuestre que a ) G(t) = p/[1 t(1 p)].

b ) E (X ) = (1 p)/p, usando G(t).

c ) Var(X ) = (1 p)/p2 , usando G(t).

514. Sea X con distribuci on Poisson(). Demuestre que a ) G(t) = e(1t) . b ) E (X ) = , usando G(t). c ) Var(X ) = , usando G(t). 515. Sean X y Y independientes con distribuci on Poisson con par ametros 1 y 2 respectivamente. Use la f.g.p. para demostrar nuevamente que X + Y tiene distribuci on Poisson(1 + 2 ). 214

516. Sea X con distribuci on bin neg(r, p). Demuestre que a ) G(t) = [p/(1 t(1 p))]r .

b ) E (X ) = r (1 p)/p, usando G(t).

c ) Var(X ) = r (1 p)/p2 , usando G(t).

517. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.p. Gk (t), para k = 1, . . . , n. Demuestre que
n

GX1 ++Xn (t) =

Gk (t).
k =1

518. Investigue si la condici on GX +Y (t) = GX (t)GY (t), v alida para valores de t en alg un intervalo no trivial alrededor del cero, es suciente para concluir que X y Y son independientes. 519. Sea X1 , X2 , . . . una sucesi on de v.a.i.i.d. con f.g.p. GX (t). Sea N otra variable aleatoria con valores en N, independiente de la sucesi on y con f.g.p. GN (t). Sea Y = X1 + + XN . Demuestre que a ) GY (t) = GN (GX (t)). b ) E (Y ) = E (N )E (X ), usando GY (t). c ) Var(Y ) = E 2 (X )Var(N ) + E (N )Var(X ), usando GY (t).

Funci on generadora de momentos


520. Sea X con varianza nita y con f.g.m. M (t). Demuestre que a ) E (X ) = M (0). b ) E (X 2 ) = M (0). c ) Var(X ) = M (0) (M (0))2 . 521. Sean X y Y independientes e id enticamente distribuidas con f.g.m. M (t). Demuestre que MX Y (t) = M (t) M (t). 522. Sea X con f.g.m. MX (t), y sean a y b dos constantes. Demuestre que MaX +b (t) = etb MX (at). 523. Sea X con f.g.m. MX (t). Diga falso o verdadero. Demuestre en cada caso. a ) MX (t) 0.

b ) M2X (t) = MX (2t).

524. Sea X con distribuci on Ber(p). Demuestre que a ) M (t) = 1 p + pet .

b ) E (X ) = p, usando M (t). c ) E (X n ) = p, usando M (t). 215

d ) Var(X ) = p(1 p), usando M (t). 525. Sea X con distribuci on bin(n, p). Demuestre que a ) M (t) = (1 p + pet )n .

b ) E (X ) = np, usando M (t). c ) Var(X ) = np(1 p), usando M (t).

526. Sean X1 , . . . , Xn independientes cada una con distribuci on Ber(p). Use la f.g.m. on bin(n, p). para demostrar que X1 + + Xn tiene distribuci 527. Sean X y Y independientes con distribuci on bin(n, p) y bin(m, p) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci on bin(n + m, p). 528. Sea X con distribuci on geo(p). Demuestre que a ) M (t) = p/[1 (1 p)et ].

b ) E (X ) = (1 p)/p, usando M (t).

c ) Var(X ) = (1 p)/p2 , usando M (t).

529. Sea X con distribuci on Poisson(). Demuestre que a ) M (t) = exp[(et 1)]. b ) M (t) = M (t) + et M (t). c ) E (X ) = , usando M (t). d ) Var(X ) = , usando M (t). e ) E [(X )3 ] = , usando M (t). 530. Sea X con distribuci on unif(a, b). Demuestre que a ) M (t) = ebt eat . (b a)t b ) E (X ) = (a + b)/2, usando M (t). c ) Var(X ) = (b a)2 /12, usando M (t). 531. Sea X con distribuci on exp(). Demuestre que a ) M (t) = /( t), para t < . b ) E (X ) = 1/, usando M (t). c ) Var(X ) = 1/2 , usando M (t). 532. Sea X con distribuci on N(, 2 ). Demuestre que
2 2 a ) M (t) = exp(t + 1 2 t ).

b ) E (X ) = , usando M (t). c ) Var(X ) = 2 , usando M (t).


2) 533. Sean X y Y variables aleatorias independientes con distribuci on N(1 , 1 2 ) respectivamente. Use la f.g.m. para demostrar que X + Y tiene y N(2 , 2 2 + 2 ). distribuci on N(1 + 2 , 1 2

216

534. Sea X con distribuci on gama(n, ). Demuestre que a ) M (t) = [/( t)]n , para t < . b ) E (X ) = n/, usando M (t). c ) Var(X ) = n/2 , usando M (t). 535. Sean X y Y independientes ambas con distribuci on exp(). Use la f.g.m. para demostrar que X + Y tiene distribuci on gama(2, ). 536. Sean X y Y independientes con distribuci on gama(n, ) y gama(m, ) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci on gama(n + m, ). 537. Sea X con distribuci on 2 (n). Demuestre que a ) M (t) = [1/(1 2t)]n/2 , para t < 1/2. b ) E (X ) = n, usando M (t). c ) Var(X ) = 2n, usando M (t). 538. Use la f.g.m. para demostrar que si X y Y son independientes tales que X tiene distribuci on 2 (n) y X + Y tiene distribuci on 2 (m) con m > n, entonces 2 Y tiene distribuci on (m n). 539. Sean X y Y independientes con distribuci on 2 (n) y 2 (m) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci on 2 (n + m). 540. Sea X con distribuci on N(, 2 ). Use la f.g.m. para demostrar que a ) X tiene distribuci on N(, 2 ). c ) X 2 tiene distribuci on 2 (1). 541. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.m. Mk (t) para k = 1, . . . , n. Demuestre que
n

b ) aX + b tiene distribuci on N(a + b, a2 2 ), con a = 0.

MX1 ++Xn (t) =

Mk (t).
k =1

542. Demuestre que la condici on MX +Y (t) = MX (t)MY (t) no implica, necesariamente, que X y Y son independientes. Considere la distribuci on conjunta f (x, y ) = 1 [1 + xy (x2 y 2 )] para 4 1 < x, y < 1.

543. Sea X con distribuci on Cauchy est andar. Demuestre que MX (t) = 1 si t = 0, si t = 0.

217

544. Sea X con distribuci on t(n). Demuestre que MX (t) = 1 si t = 0, si t = 0.

545. Demuestre que la f.g.m. de la siguiente funci on de densidad, en donde n es un n umero natural, no existe. n n+1 si x > 1, x f (x) = 0 otro caso.

Funci on caracter stica

546. Encuentre la f.c. de una v.a. con funci on de densidad a ) f (x) = 1 x!(e 1) , , para x = 1, 2, . . .

|x| b ) f (x) = 1 2e

para < x < .

547. Sea X con funci on caracter stica X (t), y sean a y b dos constantes. Demuestre que aX +b (t) = eitb X (at). 548. Sea F una funci on de distribuci on con funci on caracter stica . Demuestre que F (x) es sim etrica si, y s olo si, (t) es real. 549. Demuestre que la funci on caracter stica es una funci on uniformemente continua. 550. Demuestre que la f.c. satisface (t) = (t), en donde z denota el complejo conjugado de z . 551. Sean 1 (t) y 2 (t) dos funciones caracter sticas, y sea [0, 1]. Demuestre que (t) = 1 (t) + (1 )2 (t) es tambi en una funci on caracter stica. 552. Sean X y Y independientes y con id entica distribuci on. Demuestre que X Y (t) = |X (t)|2 . 553. Sea X con distribuci on Ber(p). Demuestre que a ) (t) = 1 p + peit .

b ) E (X ) = p, usando (t). c ) Var(X ) = p(1 p), usando (t).

d ) E (X n ) = p, usando (t), con n 1 entero. 554. Sea X con distribuci on bin(n, p). Hemos demostrado que la funci on caracter stica de esta distribuci on es (t) = (1 p + peit )n . Usando (t) demuestre ahora que a ) E (X ) = np. 218

b ) Var(X ) = np(1 p). 555. Sea X con distribuci on Poisson(). Hemos demostrado que la funci on caracter stica de esta distribuci on es (t) = exp[(1eit )]. Usando (t) compruebe que a ) E (X ) = . b ) Var(X ) = . 556. Sea X con distribuci on geo(p). Demuestre que a ) (t) = p/(1 (1 p)eit ).

b ) E (X ) = (1 p)/p, usando (t).

c ) Var(X ) = (1 p)/p2 , usando (t).

557. Sea X tiene distribuci on bin neg(r, p). Demuestre que a ) (t) = [p/(1 (1 p)eit )]r .

b ) E (X ) = r (1 p)/p, usando (t).

c ) Var(X ) = r (1 p)/p2 , usando (t). sen at . at

558. Sea X con distribuci on unif(a, a). Demuestre que (t) = 559. Sea X con distribuci on unif(a, b). Demuestre que a ) (t) = [eibt eiat ]/[it(b a)].

b ) E (X ) = (a + b)/2, usando (t). c ) Var(X ) = (b a)2 /12, usando (t).

on carac560. Sea X con distribuci on N(, 2 ). Hemos demostrado que la funci ter stica de esta distribuci on es (t) = exp(it 2 t2 /2). Usando (t) demuestra ahora que a ) E (X ) = . b ) Var(X ) = 2 . 561. Sea X con distribuci on exp(). Demuestre que a ) (t) = /( it).

b ) E (X ) = 1/, usando (t). c ) Var(X ) = 1/2 , usando (t).

562. Sea X con distribuci on gama(n, ). Hemos encontrado que la funci on caracter stica de esta distribuci on es (t) = [/( it)]n . Usando (t) compruebe nuevamente que a ) E (X ) = n/. b ) Var(X ) = n/2 .

219

563. Sean X y Y independientes ambas con distribuci on exp(). Use la f.c. para demostrar que X + Y tiene distribuci on gama(2, ). 564. Sean X y Y independientes con distribuci on gama(n, ) y gama(m, ) respectivamente. Use la f.c. para demostrar que X + Y tiene distribuci on gama(n + m, ). 565. Se sabe que si X y Y son independientes, entonces X +Y (t) = X (t)Y (t). Sin embargo la condici on X +Y (t) = X (t) Y (t) no es suciente para concluir que X y Y son independientes. Demuestre esta armaci on considerando la siguiente distribuci on conjunta: f (x, y ) = 1 [1 + xy (x2 y 2 )] 4 para 1 < x, y < 1.

566. Sea X con funci on de distribuci on F (x) = ex . 1 + ex

Demuestre que F (x) es efectivamente una funci on de distribuci on, y calcule (t). Con ayuda de esta encuentre E (X ) y Var(X ). 567. Sean X y Y independientes. Demuestre que XY (t) =

Y (tx)dFX (x) =

X (ty )dFY (y ).

568. Mediante el c alculo de residuos de la teor a de variable compleja puede demostrarse que la distribuci on Cauchy est andar tiene funci on caracter stica (t) =

eitx

1 dx = e|t| . (1 + x2 )

Suponiendo este resultado, encuentre el error en el siguiente argumento para encontrar la f.g.m. de la distribuci on Cauchy: Como (t) = e|t| y M (t) = | it | (it), entonces M (t) = e = e|t| . 569. Sean X1 , . . . , Xn v.a.i.i.d. con distribuci on Cauchy est andar, es decir, la funci on caracter stica de cada una de estas variables es (t) = e|t| . Use este resultado para demostrar que la v.a. Sn = (X1 + + Xn )/n tiene distribuci on Cauchy est andar para cualquier valor de n.

220

Cap tulo 9

Teoremas l mite
En este u ltimo cap tulo se estudian dos de los teoremas m as importantes en probabilidad: la ley de los grandes n umeros y el teorema central del l mite. Antes de ello se revisan dos desigualdades de inter es general.

9.1.

Desigualdad de Markov

Proposici on (Desigualdad de Markov). Sea X 0 con esperanza nita. Para cualquier > 0, E (X ) P (X > ) .

Demostraci on. E (X ) = E ( X 1(X>) + X 1(X ) ) E ( X 1(X>) ) = P (X > ). E ( 1(X>) )

En palabras, este resultado establece que la probabilidad de que X exceda un valor positivo est a acotada superiormente por la media entre . Existen otras versiones equivalentes de esta desigualdad. Por ejemplo, la desigualdad de Markov aplicada a la variable aleatoria no negativa |X | establece que P (|X | > ) E |X |/, y para |X |n con n cualquier n umero natural, P (|X | > ) E |X |n /n . 221

9.2.

Desigualdad de Chebyshev

La desigualdad de Chebyshev es un resultado de bastante utilidad en algunas situaciones, en particular se usar a en la siguiente secci on para demostrar la ley d ebil de los grandes n umeros.

Proposici on (Desigualdad de Chebyshev). Sea X con media y varianza 2 < . Para cualquier > 0, P (|X | > ) 2 . 2 (9.1)

Demostraci on. 2 = E (X )2

E (X )2 1(|X |>) E 2 1(|X |>) = 2 P (|X | > ).

= E (X )2 1(|X |>) + (X )2 1(|X |)

En palabras, la desigualdad dice que la probabilidad de que X diera de su media en mas de est a acotada superiormente por la varianza entre 2 . A este resultado se le conoce tambi en con el nombre de desigualdad de Chebyshev-Bienaym e. Existen otras versiones de esta desigualdad equivalentes a la demostrada, por ejemplo, a) P (|X | > ) 1/2 . b) P (|X | ) 1 1/2 . c) P (|X | ) 1 2 /2 .

Proposici on (Desigualdad de Chebyshev extendida) Sea X una variable aleatoria, y sea g 0 una funci on no decreciente tal que g(X ) es una variable aleatoria con esperanza nita. Para cualquier > 0, P (X > ) E [g(X )] . g() (9.2)

222

Demostraci on. E [g(X )] = E [ g(X ) 1(X>) + g(X ) 1(X ) ] E [ g() 1(X>) ] = g()P (X > ). E [ g(X ) 1(X>) ]

Pafnuty Lvovich Chebyshev (Rusia, 18211894)

Andrei Andreyevich Markov (Rusia, 18561922)

Profesor y alumno. Fuente: Archivo MacTutor, Universidad de St. Andrews.

A partir de la desigualdad de Chebyshev extendida y con una funci on g adecuada se pueden obtener tanto la desigualdad de Chebyshev como la desigualdad de Markov. En resumen se tiene la siguiente tabla:

Versiones de las desigualdades de Markov y de Chebyshev

Markov:

Para > 0, a) X 0 P (X > ) E (X )/. b) P (|X | > ) E |X |/. c) P (|X | > ) E |X |n /n .

Chebyshev:

Para > 0, a) P (|X | > ) Var(X )/2 . b) P (X > ) E [g (X )]/g (), con g 0 no decreciente.

223

9.3.

Ley de los grandes n umeros

En esta secci on se estudia uno de los teoremas m as importantes de la teor a cl asica de la probabilidad. Este interesante resultado se conoce como la ley de los grandes n umeros y establece que, bajo ciertas condiciones, el promedio de variables aleatorias converge a una constante cuando el n umero de sumandos crece a innito. M as precisamente el resultado es el siguiente.

Teorema (Ley d ebil de los grandes n umeros). Sean X1 , X2 , . . . independientes tales que E (Xi ) = . Entonces 1 n
n i=1

Xi .

Demostraci on. (Suponiendo segundo momento nito.) Sea Sn = (X1 + + Xn )/n. Entonces E (Sn ) = y Var(Sn ) 2 /n, suponiendo Var(Xi ) 2 < . La desigualdad de Chebyshev aplicada a Sn asegura que para cualquier > 0 se cumple P (|Sn | ) 2 /n2 . Basta ahora tomar el l mite cuando n tiende a innito para obtener el resultado requerido. La ley d ebil de los grandes n umeros establece entonces que la variable aleatoria Sn = (X1 + + Xn )/n converge en probabilidad a la media com un . Observe que para la demostraci on de este resultado no hemos supuesto id entica distribuci on para las variables aleatorias involucradas, u nicamente que tengan la misma media, que sean independientes y aunque las varianzas pueden ser diferentes, se ha necesitado que sean uniformemente acotadas. Damos a continuaci on un ejemplo sencillo de aplicaci on de este resultado y m as adelante demostraremos una versi on m as fuerte. Ejemplo (Denici on de probabilidad frecuentista). Considere un experimento aleatorio cualquiera y sea A un evento. Se efect uan realizaciones independientes del experimento, y se observa en cada ensayo la ocurrencia o no ocurrencia del evento A. Sea Xk la variable que toma el valor uno si en el k- esimo ensayo se observa A, y cero en caso contrario. Entonces X1 , X2 , . . . son variables aleatorias independientes con distribuci on Ber(p), en donde p es la probabilidad desconocida del evento A. Por lo tanto E (Xk ) = p y Var(Xk ) = p(1 p). La ley d ebil de los grandes n umeros asegura que la fracci on de ensayos en los que se observa el evento A converge, en probabilidad, a la constante desconocida p cuando el n umero de ensayos crece a innito. Esta es la denici on frecuentista de la probabilidad, y hemos entonces corroborado su validez con ayuda de la ley de los grandes n umeros. La siguiente versi on de la ley de los grandes n umeros asegura que bajo ciertas condiciones la convergencia de la variable aleatoria (X1 + + Xn )/n a la media com un 224

es m as fuerte, es casi segura.

Teorema (Ley fuerte de los grandes n umeros). Sean X1 , X2 , . . . independientes e id enticamente distribuidas, tales que E (Xi ) = . Entonces 1 n
n i=1

Xi .

c.s.

Demostraci on. (Suponiendo cuarto momento nito.) Dada la id entica distribuci on de los elementos de la sucesi on, cualquier elemento de esta se denota simplemente por X . Suponga que E |X |2 = 2 y observe que E (X ) = 0. Entonces por independencia,
n

E|

i=1

(Xi )|4 = nE |X |4 + 3n(n 1) 4 .


n i=1 (Xi

Por la desigualdad de Chebyshev (9.2) aplicada a la variable | funci on g(x) = x4 se obtiene, para > 0,
n

)| y la

P (|

i=1

(Xi )| > n) =

E|

n i=1 (Xi (n)4

)|4

nE |X |4 + 3n(n 1) 4 . (n)4

n 1 Sea el evento An = (| n i=1 Xi | > ). Entonces n=1 P (An ) < . Por el lema de Borel-Cantelli la probabilidad de que ocurra una innidad de eventos An es cero, es decir, con probabilidad uno, s olo un n umero nito de estos eventos ocurre. Por lo tanto con probabilidad uno, existe un n umero natural n a partir del cual ning un evento An se verica. Es decir,

1 P ( l m | n n

n i=1

Xi | ) = 1.

Como esta armaci on vale para cualquier > 0, se cumple que 1 P ( l m n n


n

Xi = ) = 1.
i=1

Ejemplo (El problema del mono, nuevamente). Usaremos la ley fuerte de los grandes n umeros para dar otra soluci on al problema del mono. Considere entonces un mono que escribe caracteres al azar. Nos interesa encontrar la probabilidad de que el mono eventualmente escriba las obras completas de Shakespeare, las cuales, 225

supondremos, tienen una longitud total de N caracteres. Nuevamente se consideran bloques de longitud N de la siguiente forma x1 , . . . , xN , xN +1 , . . . , x2N , . . . Sea Ak el evento correspondiente a que en el k- esimo bloque el mono ha tenido exito, y sea Xk la variable aleatoria indicadora del evento Ak , es decir, Xk = 1 si Ak ocurre, 0 si Ak no ocurre.

Se tiene entonces una sucesi on de variables aleatorias X1 , X2 , . . . independientes e id enticamente distribuidas Bernoulli(p), con p = P (Ak ) = (1/m)N , suponiendo que el total de caracteres disponibles es m. En particular, la media de cada una de estas variables es E (Xk ) = p. Considere ahora la suma X1 + X2 + + Xn . Si para alg un valor de n esta suma es positiva, signica que alguno de los sumandos es distinto de cero, y por lo tanto que el mono ha tenido exito. Pero esto es justamente lo que garantiza la ley fuerte de los grandes n umeros pues 1 P ( l m n n
n

Xk = p ) = 1.
k =1

Es decir, con probabilidad uno la suma de esta ecuaci on es positiva. Esto implica que debe existir un valor de k tal que Xk = 1, y esto a su vez signica que en el k- esimo bloque el mono ha tenido exito! M as a un, para que el promedio que aparece en esta ecuaci on sea positivo necesariamente la suma debe ser innita, y por lo tanto, deben existir una innidad de valores de k tal que Xk = 1. Esto quiere decir que con probabilidad uno el mono escribir a una innidad de veces las obras completas de Shakespeare!

9.4.

Teorema central del l mite

Concluimos el curso con el c elebre y famoso teorema central del l mite. Este resultado es de amplio uso en estad stica y otras ramas de aplicaci on de la probabilidad, y una de sus primeras versiones tiene el nombre de teorema de De Moivre-Laplace, que se enuncia a continuaci on.

Teorema de De Moivre-Laplace. Sea X1 , X2 , . . . una sucesi on de variables aleatorias independientes tal que cada una de ellas tiene distribuci on Bernoulli con par ametro p (0, 1). Entonces para cualesquiera n umeros reales a < b,
n

l m P ( a <

(X1 + + Xn ) np np(1 p)

1 < b) = 2

b a

ex

2 /2

dx.

226

En palabras este resultado establece que la variable aleatoria ((X1 + + Xn ) on a una variable aleatoria normal est andar. np)/ np(1 p) converge en distribuci Una demostraci on directa del teorema de De Moivre-Laplace puede ser encontrada en [5]. Este teorema fue descubierto por De Moivre alrededor de 1733 en el caso cuando las variables aleatorias tienen distribuci on Bernoulli con p = 1/2. A nos despu es Laplace demostr o el mismo resultado para valores arbitrarios de p. El teorema de De Moivre-Laplace es una caso particular del siguiente resultado fundamental.

Teorema central del l mite. Sea X1 , X2 . . . una sucesi on de varaibles aleatorias independientes e id enticamente distribuidas tales que para cada natural n, E (Xn ) = y Var(Xn ) = 2 < . Entonces (X1 + + Xn ) n d N(0, 1). n

Este resultado fue demostrado rigurosamente por Lyapunov alrededor de 1901, aunque Laplace hab a dado antes argumentos intuitivos que mostraban su validez. Observe que no hay ninguna hip otesis adicional sobre la distribuci on de las variables de la sucesi on, es decir, estas puede tener cualquier distribuci on, s olo requiriendo la existencia de la media y la varianza. El resultado es v alido como est a enunciado, sin embargo, a n de dar una demostraci on simple, supondremos adicionalmente que los elementos de la sucesi on tienen momentos nitos de cualquier orden. La demostraci on que se presenta hace uso de esta hip otesis y de la funci on caracter stica. Demostraci on. (Suponiendo todos los momentos nitos.) Observe que (X1 )/ + + (Xn )/ (X1 + + Xn ) n = , n n en donde cada sumando del numerador en el lado derecho es una variable con media cero y varianza uno. As pues, sin p erdida de generalidad, supondremos que cada variable de la sucesi on tiene media cero y varianza uno, y consideraremos la suma Zn =
d

X1 + + Xn . n

Se desea probar que Zn N(0, 1). Para ello es suciente demostrar que Zn (t) 2 et /2 . Por independencia e id entica distribuci on, Zn (t) = E eit(X1 ++Xn )/ Por lo tanto, it i2 t2 i3 t3 ln Zn (t) = n ln( 1 + E (X ) + E (X 2 ) + E (X 3 ) + ). 2!n n 3!n3/2
n

= X (t/ n)

227

1 1 Usando la f ormula: ln(1 + x) = x x2 + x3 , y factorizando potencias de it 2 3 se obtiene ln Zn (t) = [ E (X 2 ) E 2 (X ) ] i2 t2 /2 E (X 3 ) E (X )E (X 2 ) E 3 (X ) i3 t3 +[ + ] + 3! n 2 n 3 n n El primer sumando es t2 /2, y todos los t erminos a partir del segundo sumando se anulan cuando n tiende a innito. Por lo tanto,
n

l m ln Zn (t) = t2 /2.

Como la funci on logaritmo es una funci on continua se tiene que ln( l m Zn (t) ) = t2 /2.
n

De donde se obtiene
n

l m Zn (t) = et

2 /2

El teorema central del l mite establece entonces que para cualquier x en R,


n

l m P [

(X1 + + Xn ) n x ] = P (Z x), n

en donde Z tiene distribuci on normal est andar. Observe que la suma X1 + + Xn 2 tiene media n y varianza n , de modo que la expresi on de arriba es una especie de estandarizaci on de esta variable. Equivalentemente este resultado puede enunciarse del siguiente modo:
1 n (X1

+ + Xn ) d N(0, 1). / n

9.5.

Ejercicios
Desigualdad de Markov

570. Demuestre la desigualdad de Markov siguiendo los siguientes pasos: Suponga X 0, y para > 0 dena X = si X > , 0 si X .

Compruebe que X X . Ahora tome esperanza de ambos lados y calcule E (X ). 571. Demuestre directamente las siguientes versiones de la desigualdad de Markov. Para cualquier > 0, 228

a ) P (|X | > )

E |X | . E |X |n b ) P (|X | > ) , con n cualquier n umero natural. n

572. Use la desigualdad de Markov para demostrar que si X es una variable aleatoria no negativa con esperanza cero, entonces X = 0 casi seguramente. 573. Demuestre que la convergencia en media implica la convergencia en probabilidad usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |Xn X |.

Desigualdad de Chebyshev
574. Use la desigualdad de Chebyshev (9.2) para demostrar directamente que la convergencia en media cuadr atica implica la convergencia en probabilidad. 575. Demuestre la desigualdad de Chebyshev (9.1) usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |X |. 576. Use la desigualdad de Chebyshev para demostrar que si X es una variable aleatoria tal que E (X ) = a y Var(X ) = 0, entonces X es constante casi seguramente, es decir, P (X = a) = 1. 577. Sea X con media y varianza 2 . Use la desigualdad de Chebyshev para estimar la probabilidad de que X tome valores entre y + para cualquier > 0 constante. 578. A partir de la desigualdad de Chebyshev extendida (9.2) demuestre la desigualdad de Chebyshev (9.1) y la desigualdad de Markov. 579. Demuestre que P (|X | > ) b ) de manera directa. 580. Demuestre que P (|X | > ) b ) de manera directa. 581. Demuestre que P (X > ) b ) de manera directa. 582. Sea X con funci on de densidad 1/18 si x = 1, 1, f (x) = 16/18 si x = 0, 0 otro caso. 229 E (etX ) para > 0 y t > 0, et E |X |n , para > 0 y n N, n E |X | , para > 0,

a ) usando la desigualdad de Chebyshev extendida.

a ) usando la desigualdad de Chebyshev extendida.

a ) usando la desigualdad de Chebyshev extendida.

Demuestre que P (|X | > 3 ) y la estimaci on dada por la desigualdad de Chebyshev para esta probabilidad coinciden. Este ejercicio demuestra que en general la cota superior dada por la desigualdad de Chebyshev es o ptima, es decir, no puede establecerse una cota superior m as peque na. 583. Considere la siguiente versi on de la desigualdad de Chebyshev P (|X | ) 1 1/2 . Encuentre el m nimo valor de > 0 de tal modo que la probabilidad de que una variable aleatoria tome valores entre y + sea al menos 0.90. 584. Desigualdad de Cantelli. Demuestre que si Var(X ) < , entonces para cualquier > 0, 2Var(X ) P (|X E (X )| > ) 2 . + Var(X )

Ley de los grandes n umeros


585. Use la ley d ebil de los grandes n umeros para demostrar que si Xn tiene distribuci on bin(n, p), entonces cuando n , 1 p Xn p. n 586. Ley de los grandes n umeros en media cuadr atica. Demuestre que si X1 , X2 , . . . es una sucesi on de v.a.s independientes con media y varianza 2 , entonces 1 n
n i=1

Xi .

m.c.

Observe que no se pide la hip otesis de id entica distribuci on para las variables aleatorias y que este resultado no es consecuencia de la ley fuerte. 587. Sean X1 , . . . , Xn independientes con distribuci on N(, 2 ). Para cualquier valor de n el promedio (X1 + + Xn )/n tiene distribuci on N(, 2 /n). Contradice esto la ley de los grandes n umeros? 588. En el Ejercicio 569 se pide usar la f.c. para demostrar que si X1 , . . . , Xn son v.a.i.i.d. con distribuci on Cauchy est andar, entonces el promedio Sn = (X1 + + Xn )/n tiene distribuci on Cauchy est andar, independientemente del valor de n. Contradice esto la ley de los grandes n umeros? 589. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad de que ambas caras caigan el mismo n umero de veces. Qu e le sucede a esta probabilidad cuando n tiende a innito?. Contradice esto la ley de los grandes n umeros?.

230

Teorema central del l mite


590. Use el teorema central del l mite para estimar la probabilidad de obtener mas de 520 a guilas en 1000 lanzamientos de una moneda honesta. 591. Sea X1 , X2 , . . . una sucesi on de v.a.i.i.d. con distribuci on Poisson() con = 1. Use el teorema central del l mite para demostrar que 1 l m n en
n k =0

nk 1 = . k! 2

592. La probabilidad de ocurrencia de un evento en un ensayo es de 0.3. Cu al es la probabilidad de que la frecuencia relativa de este evento en 100 ensayos se encuentre entre 0.2 y 0.5?

231

Ap endice A

Distribuciones de probabilidad
Se presenta a continuaci on una lista con algunas distribuciones de probabilidad univariadas de uso com un. Como es costumbre, la funci on de probabilidad o de densidad se denota por f (x), y la funci on de distribuci on por F (x). Adem as, se recuerda la notaci on para las siguientes funciones asociadas a una distribuci on. G(t) : Funci on generadora de probabilidad. M (t) : Funci on generadora de momentos. (t) : Funci on caracter stica.

DISTRIBUCIONES UNIVARIADAS DISCRETAS Distribuci on uniforme


X unif{x1 , . . . , xn } con n N. f (x) = 1/n para x = x1 , . . . , xn . 1 E (X ) = n (x1 + + xn ). 1 Var(X ) = n [(x1 )2 + + (xn )2 ]. 1 x1 (t + + txn ). G(t) = n 1 x1 t M (t) = n (e + + exn t ).

Distribuci on Bernoulli
X Ber(p) con p (0, 1). f (x) = px (1 p)1x para x = 0, 1. E (X ) = p. 232

Var(X ) = p(1 p). G(t) = 1 p + pt. M (t) = 1 p + pet .

Distribuci on binomial
X bin(n, p) con n N y p (0, 1). n f (x) = px (1 p)nx para x = 0, 1, . . . , n. x E (X ) = np. Var(X ) = np(1 p). G(t) = (1 p + pt)n . M (t) = [1 p + pet ]n .

Distribuci on geom etrica


X geo(p), con p (0, 1) y q = 1 p. f (x) = p(1 p)x para x = 0, 1, . . . E (X ) = q/p. Var(X ) = q/p2 . G(t) = p/[1 t(1 p)]. M (t) = p/[1 (1 p)et ].

Distribuci on Poisson
X Poisson(), con > 0. x f (x) = e para x = 0, 1, . . . x! E (X ) = . Var(X ) = . G(t) = e(1t) . M (t) = exp[(et 1)].

233

Distribuci on binomial negativa


X bin neg(r, p) con r N y p (0, 1). r+x1 f (x) = pr (1 p)x para x = 0, 1, . . . x E (X ) = r (1 p)/p. Var(X ) = r (1 p)/p2 . G(t) = [p/(1 t(1 p))]r . M (t) = [p/(1 qet )]r .

Distribuci on hipergeom etrica


X hipergeo(N, K, n) con N, K, n N y n K N . K N K N f (x) = / para x = 0, 1, . . . , n. x nx n E (X ) = nK/N . N K N n Var(X ) = n K N N N 1 .

DISTRIBUCIONES UNIVARIADAS CONTINUAS Distribuci on uniforme continua


X unif(a, b) con a < b. f (x) = 1/(b a) para x (a, b). F (x) = (x a)/(b a) para x (a, b). E (X ) = (a + b)/2. Var(X ) = (b a)2 /12. M (t) = (ebt eat )/(bt at).

Distribuci on exponencial
X exp() con > 0. f (x) = ex para x > 0. F (x) = 1 ex para x > 0. E (X ) = 1/. Var(X ) = 1/2 .

234

M (t) = /( t) para t < .

Distribuci on gama
X gama(n, ) con n > 0 y > 0. (x)n1 x f (x) = e para x > 0. (n) F (x) = 1 ex
n1 k =0

(x)k /k!, para x > 0 y n entero.

E (X ) = n/. Var(X ) = n/2 . M (t) = [/( t)]n para t < .

Distribuci on beta
X beta(a, b) con a > 0, b > 0. f (x) = xa1 (1 x)b1 /B (a, b), para x (0, 1). E (X ) = a/(a + b). Var(X ) = ab/[(a + b + 1)(a + b)2 ].

Distribuci on normal
X N(, 2 ) con R y 2 > 0. 1 2 2 f (x) = e(x) /2 . 2 2 E (X ) = . Var(X ) = 2 . M (t) = exp(t + 2 t2 /2). (t) = exp(it 2 t2 /2). Cuando = 0 y 2 = 1 se obtiene la distribuci on normal est andar.

Distribuci on ji-cuadrada
X 2 (n) con n > 0. 1 1 n/2 n/21 x/2 f (x) = x e para x > 0. (n/2) 2 235

E (X ) = n. Var(X ) = 2n. M (t) = (1 2t)n/2 para t < 1/2.

Distribuci on t
X t(n) con n > 0. ((n + 1)/2) x2 f (x) = (1 + )(n+1)/2 . n n (n/2) E (X ) = 0. Var(X ) = n/(n 2) para n > 2. M (t) no existe para t = 0. (t) = exp(|t|) , cuando n = 1. La expresi on de (t) resulta complicada para valores n 2.

Distribuci on log normal


X log normal(, 2 ) con R y 2 > 0. 1 f (x) = exp[(ln x )2 /2 2 ] para x > 0. 2 x 2 E (X ) = exp( + 2 /2). E (X n ) = exp(n + n2 2 /2). Var(X ) = exp(2 + 2 2 ) exp(2 + 2 ).

Distribuci on Pareto
X Pareto(a, b) con a, b > 0. aba f (x) = para x > 0. (b + x)a+1 F (x) = 1 [b/(b + x)]a para x > 0. E (X ) = b/(a 1) para a > 1. Var(X ) = ab2 /[(a 1)2 (a 2)] para a > 2.

Distribuci on Weibull
X Weibull(r, ) con r, > 0. r f (x) = e(x) rr xr1 para x > 0. r F (x) = 1 e(x) para x > 0. 236

E (X ) = (1 + 1/r )/. Var(X ) = [(1 + 2/r ) 2 (1 + 1/r )]/2 .

Distribuci on Cauchy
X Cauchy(a, b) con a > 0 y b > 0. 1 . f (x) = b [1 + ((x a)/b)2 ] La esperanza y varianza no existen. M (t) no existe para t = 0. (t) = exp(iat b|t|). Cuando a = 0 y b = 1 se obtiene la distribuci on Cauchy est andar, y coincide con la distribuci on t(n) con n = 1. En este caso, 1 f (x) = . (1 + x2 ) F (x) = 1/2 + (arctan x)/ .

237

Ap endice B

Formulario
B.1. El alfabeto griego

A B E , Z H ,

alfa beta gama delta epsilon zeta eta theta

I K M N Oo

iota kapa lambda mu nu xi omikron pi

P , , T , X

rho sigma tau upsilon phi ji o chi psi omega

B.2.

Notaci on
B (R) ab ab AB x F (x+) F (x) : : : : : : : Conjuntos de Borel de R. m ax{a, b}. m n{a, b}. El evento A es independiente del evento B . Parte entera de x. L mite por la derecha de la funci on F en el punto x. L mite por la izquierda de la funci on F en el punto x.

B.3.

L mite superior e inferior

Sea {an : n 1} una sucesi on de n umeros reales. Para cada m natural dena bm = nf {am , am+1 , . . .}, 238

cm = sup {am , am+1 , . . .}.

Entonces claramente bm bm+1 , y cm cm+1 . Es decir, ambas sucesiones son mon otonas, una no decreciente y la otra no creciente. Por lo tanto estas sucesiones son convergentes, no excluyendo con ello el valor innito. Entonces sean b = y c =
m m

l m bm ,

l m cm .

Al valor b se le llama l mite inferior, y a c se le llama l mite superior de la sucesi on, y se denotan de la forma siguiente: b = l m inf an , y No es dif cil demostrar que m sup an , l m inf an l
n n n

c = l m sup an .
n

y que la sucesi on es convergente si, y s olo si, l m inf an = l m sup an .


n n

B.4.

Imagen inversa

Sean A y B dos conjuntos. Considere una funci on X : A B. La imagen inversa de B B es un subconjunto de A, denotado por X 1 B , y denido como sigue: X 1 B = {a A : X (a) B }. Observe que X es una funci on puntual, es decir, lleva puntos de A en puntos de B, on conjuntista, es decir, lleva subconjuntos de B en mientras que X 1 es una funci subconjuntos de A. No es dif cil vericar que la imagen inversa cumple las siguientes propiedades. 1. X 1 B = A. 2. X 1 (B c ) = (X 1 B )c . 3. Si B1 B2 , entonces X 1 B1 X 1 B2 . 4. X 1 (B2 B1 ) = X 1 B2 X 1 B1 . 5. X
1 k =1 n

Bk ) =

X 1 Bk .

k =1 n

6. X 1 (
k =1

Bk ) =
k =1

X 1 Bk .

239

7. X (X 1 B ) B

[ igualdad si, y s olo si, X es sobre ].

8. X 1 (XA) A [ igualdad si, y s olo si, X es inyectiva ]. Si se tienen dos funciones X : A B y Y : B C entonces para cualquier C en C, se cumple (X Y )1 C = X 1 (Y 1 C ).

B.5.

Funci on indicadora

La funci on indicadora de un conjunto A es la funci on 1A : {0, 1} dada por 1A ( ) = 1 si A, 0 si / A.

De este modo la funci on 1A toma el valor uno dentro del conjunto A, y cero fuera de el. Es sencillo vericar que esta funci on resulta ser una variable aleatoria cuando el conjunto A es un evento. La funci on indicadora cumple las siguientes propiedades. a) 1AB = m ax{1A , 1B } = 1A + 1B 1A 1B . b) 1AB = m n{1A , 1B } = 1A 1B . c) 1Ac = 1 1A . d) 1AB = 1A 1A 1B . e) 1AB = |1A 1B | = |1A 1B |2 = 1A + 1B 2 1A 1B . f) A B 1A 1B .

240

B.6.

Tabla de la distribuci on normal est andar

x 1 (x) = 2
x 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987 0.9990 0.9993 0.9995 0.9997 0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.9987 0.9991 0.9993 0.9995 0.9997 0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.9987 0.9991 0.9994 0.9995 0.9997 0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.9988 0.9991 0.9994 0.9996 0.9997 0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984 0.9988 0.9992 0.9994 0.9996 0.9997

x
0.05

et

2 /2

dt

0.06 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985 0.9989 0.9992 0.9994 0.9996 0.9997

0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985 0.9989 0.9992 0.9995 0.9996 0.9997

0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.9990 0.9993 0.9995 0.9996 0.9997

0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8399 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 0.9990 0.9993 0.9995 0.9997 0.9998

0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984 0.9989 0.9992 0.9994 0.9996 0.9997

241

Bibliograf a
[1] Barry R. J. (1981) Probabilidade: Um Curso em N vel Intermedi ario. IMPACNPq. [2] Blake I.F. (1979) An Introduction to Applied Probability. Wiley. [3] Cohn D.L. (1980) Measure Theory. Birkh auser. [4] Feller W. (1978) Introducci on a la Teor a de las Probabilidades y sus Aplicaciones. Vol. I y II. Limusa. [5] Garc a Alvarez M. A. (2005) Introducci on a la Teor a de la Probabilidad. Primer Curso. Fondo de Cultura Econ omica. [6] Garc a Alvarez M. A. (2005) Introducci on a la Teor a de la Probabilidad. Segundo Curso. Fondo de Cultura Econ omica. [7] Grimmett G.R., Stirzaker D.R. (1982) Probability and Random Processes. Clarendon Press. [8] Grimmett G.R., Stirzaker D.R. (1986) Probability: an Introduction. Oxford University Press. [9] Grimmett G.R. , Stirzaker D.R. (2001) One Thousand Exercises in Probability. Oxford University Press. [10] Gut A. (2005) Probability: a Graduate Course. Springer. [11] Halmos P.R. (1960) Measure Theory. Van Nostrand. [12] Harris B. (1966) Theory of Probability. AddisonWesley. [13] Hoel P., Port S., Stone C. (1971) Probability Theory. Houghton Miin Co. [14] Jacod D., Protter P. (2000) Probability Essentials. SpringerVerlag. [15] Karr A.F. (1993) Probability. SpringerVerlag. [16] Laha R. G., Rohatgi V. K. (1979) Probability Theory. John Wiley & Sons. [17] Miller I., Miller M. (1999) John E. Freunds Mathematical Statistics - 6th ed. PrenticeHall.

242

[18] Mood A.M., Graybill F.A., Boes D.C. (1974) Introduction to the Theory of Statistics. McGraw Hill. [19] Parzen E. (1960) Modern Probability Theory and its Applications. Wiley. [20] Resnick S.I. (1999) A Probability Path. Birkh auser. [21] Rinc on L. (2004) Qu e es la esperanza condicional? Miscel anea Matem atica. No. 37, Agosto 2004, SMM. [22] Romano J.P. , Siegel A.F. (1986) Counterexamples in Probability and Statistics. Chapman & Hall. [23] Rosenthal J.S. (2000) A First Look at Rigorous Probability Theory. World Scientic. [24] Ross S. (1976) A First Course in Probability. Prentice Hall. [25] Villa Morales J. (2005) Introducci on a la Medida e Integraci on. Textos Universitarios, Ciencias B asicas. Universidad Aut onoma de Aguascalientes. [26] Von Plato J. (1994) Creating Modern Probability. Cambridge University Press. [27] Williams D. (1991) Probability with Martingales. Cambridge University Press. [28] Williams D. (2001) Weighing the Odds: A Course in Probability and Statistics. Cambridge University Press.

243

Indice
- algebra, 6 de Borel de R, 12 de Borel de Rn , 14 generada, 9 producto, 33 Algebra, 11 Aditividad nita, 21 Borel-Cantelli, 29 Coeciente de correlaci on, 113 multinomial, 118 Conjunto Borel medible, 12 Boreliano, 12 de Borel, 12 medible, 6 Continuidad de la prob, 2325 Convergencia casi dondequiera, 183 casi segura, 183 casi siempre, 183 d ebil, 186 de eventos, 16 en distribuci on, 186 en media, 185 en media cuadr atica, 186 en probabilidad, 185 puntual, 182 Convoluci on, 150 Covarianza, 112 Desigualdad Cr , 86 de Bonferroni, 38 de Boole, 21 de Cantelli, 230 de Cauchy-Schwarz, 85 de Chebyshev, 222 de H older, 86 de Jensen, 86 de Kounias, 38 de Markov, 221 de Minkowski, 87 Desviaci on est andar, 60 Distribuci on arcoseno, 93 Bernoulli, 63, 232 beta, 70, 235 binomial, 64, 233 binomial negativa, 66, 234 bivariada, 97 Cauchy, 237 exponencial, 68, 234 exponencial doble, 91 F de Snedecor, 168 gama, 69, 235 geom etrica, 65, 233 hipergeom etrica, 67, 234 multivariada, 118 ji-cuadrada, 162, 235 log gama, 144 log normal, 72, 144, 236 multinomial, 117 multivariada, 97 normal, 71, 235 bivariada, 119 est andar, 71 Pareto, 236 Poisson, 66, 233 singular, 52 t de Student, 166, 236 uniforme bivariada, 119 continua, 68, 234 discreta, 63, 232 univariada, 97 Weibull, 236

244

Error absoluto medio, 87 cuadr atico medio, 84 Espacio de probabilidad, 5, 6 medible, 6 muestral, 5 Esperanza condicional, 137 de un vector, 116 de una funci on de un vector, 110 de una funci on de una v.a., 59 de una v.a., 58 Estad stica, 161 Estad sticas de orden, 170 Evento, 5 casi seguro, 55 compuesto, 5 simple, 5 Funci on Borel medible, 43 indicadora, 240 medible, 76 signo, 75 Funci on caracter stica, 205 f ormula de inversi on, 210, 212 teorema de continuidad, 213 teorema de unicidad, 212 Funci on de densidad, 52 condicional, 106 marginal, 105 Funci on de distribuci on, 47 condicional, 106 conjunta, 97 marginal, 105 Funci on de probabilidad conjunta, 100 Funci on generadora de momentos, 201 de momentos factoriales, 200 de probabilidad, 197 Igualdad casi segura, 55 en distribuci on, 55 Imagen inversa, 239 Independencia

de - algebras, 28 de eventos, 27 de v.a.s, 106 de vectores, 109 Integral de Riemann-Stieltjes, 55 L mite inferior de eventos, 15 de n umeros, 238 L mite superior de eventos, 15 de n umeros, 238 Ley de los grandes n umeros, 224 d ebil, 224 en media cuadr atica, 230 fuerte, 225 Matriz de covarianzas, 117 Media, 58 muestral, 161 Mediana de una v.a., 62 muestral, 180 Medida de probabilidad, 6, 18 inducida por una v.a., 76 Momentos, 61 absolutos, 61 centrales, 61 centrales absolutos, 61 factoriales, 61 Muestra aleatoria, 161 Probabilidad cl asica, 19 geom etrica, 19 Semi algebra, 11 Teorema central del l mite, 227 de cambio de variable, 143, 144, 146 de convergencia dominada, 193 de convergencia mon otona, 192 de De Moivre-Laplace, 226 de Poisson, 89 Valor esperado, 58 medio, 58 245

promedio, 58 Variable aleatoria, 40 continua, 52 continua singular, 52 discreta, 52 mixta, 53 Varianza condicional, 139 de un vector, 116 de una v.a., 60 muestral, 161 Vector aleatorio, 95 continuo, 96 discreto, 96

246

You might also like