Professional Documents
Culture Documents
PROBABILIDAD
Luis Rincon
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico DF
Versi
on: Octubre 2007
ii
Contenido
1. Espacios de probabilidad
1.1. Espacios de probabilidad .
1.2. -
algebras . . . . . . . . .
1.3. Medidas de probabilidad .
1.4. Independencia de eventos
1.5. Lema de Borel-Cantelli . .
1.6. Ejercicios . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
2. Variables aleatorias
2.1. Variables aleatorias . . . . . .
2.2. Funci
on de distribuci
on . . .
2.3. Tipos de variables aleatorias .
2.4. Integral de Riemann-Stieltjes
2.5. Caractersticas numericas . .
2.6. Distribuciones discretas . . .
2.7. Distribuciones continuas . . .
2.8. Ejercicios . . . . . . . . . . .
3. Vectores aleatorios
3.1. Vectores aleatorios . . .
3.2. Distribuci
on conjunta .
3.3. Densidad conjunta . . .
3.4. Distribuci
on marginal .
3.5. Distribuci
on condicional
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
20
33
37
42
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
68
74
81
84
94
100
108
.
.
.
.
.
141
. 141
. 144
. 149
. 156
. 160
.
.
.
.
.
.
3.6. Independencia . . . . . . . . . . . . . . . . . . . .
3.7. Esperanza de una funci
on de un vector aleatorio
3.8. Covarianza . . . . . . . . . . . . . . . . . . . . .
3.9. Coeficiente de correlaci
on . . . . . . . . . . . . .
3.10. Esperanza y varianza de un vector aleatorio . . .
3.11. Distribuciones multivariadas discretas . . . . . .
3.12. Distribuciones multivariadas continuas . . . . . .
3.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . .
4. Esperanza condicional
4.1. Esperanza condicional
4.2. Esperanza condicional:
4.3. Algunas propiedades .
4.4. Varianza condicional .
4.5. Ejercicios . . . . . . .
. . . . . . . .
caso discreto
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
163
168
171
173
179
181
183
186
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
213
214
216
221
223
226
5. Transformaciones
229
5.1. Transformaci
on de una variable aleatoria . . . . . . . . . . . . 229
5.2. Transformaci
on de un vector aleatorio . . . . . . . . . . . . . 235
5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
6. Dist. muestrales y estadsticas de orden
261
6.1. Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . 263
6.2. Estadsticas de orden . . . . . . . . . . . . . . . . . . . . . . . 271
6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
7. Convergencia
7.1. Tipos de convergencia . . . . . . . . . . . .
7.2. Relaciones entre los tipos de convergencia .
7.3. Dos resultados importantes de convergencia
7.4. Ejercicios . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
287
287
297
303
306
8. Funciones generadoras
311
8.1. Funci
on generadora de probabilidad . . . . . . . . . . . . . . 311
8.2. Funci
on generadora de momentos . . . . . . . . . . . . . . . . 316
iv
8.3. Funci
on caracterstica . . . . . . . . . . . . . . . . . . . . . . 323
8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
9. Dos
9.1.
9.2.
9.3.
9.4.
teoremas lmite
Algunas desigualdades . . .
Ley de los grandes n
umeros
Teorema central del lmite .
Ejercicios . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
347
347
352
357
360
A. Distribuciones de probabilidad
365
373
vi
Pr
ologo
viii
http://www.matematicas.unam.mx/lars
Por u
ltimo, me parece importante mencionar que este texto ha sido posible,
en gran medida, al excelente ambiente de trabajo y de libertad academica
que he tenido la fortuna de encontrar en el Departamento de Matem
aticas
de la Facultad de Ciencias de la UNAM. Gracias a todos por su confianza
y apoyo.
Luis Rinc
on
Diciembre 2006
Ciudad Universitaria UNAM
lars@fciencias.unam.mx
ix
Captulo 1
Espacios de probabilidad
1.1.
Espacios de probabilidad
El modelo matem
atico creado durante el primer tercio del siglo XX para
estudiar los experimentos aleatorios es el as llamado espacio de probabilidad. Este modelo consiste de una terna ordenada, denotada usualmente por
(, F , P ), en donde es un conjunto arbitrario, F es una -
algebra de
subconjuntos de , y P es una medida de probabilidad definida sobre F .
Explicamos a continuaci
on brevemente cada uno de estos elementos.
1
n=1
An ) =
P (An ),
n=1
on de
cuando A1 , A2 , . . . son elementos de F que cumplen con la condici
ser ajenos dos a dos, esto es, Ai Aj = para valores de i y j distintos.
El n
umero P (A) representa una forma de medir la posibilidad de observar
la ocurrencia del evento A, al efectuar una vez el experimento aleatorio.
Tenemos entonces formalmente la siguiente definici
on.
n. (Espacio de probabilidad). Un espacio de probabilidad
Definicio
es una terna (, F , P ), en donde es un conjunto arbitrario, F es una
-
algebra de subconjuntos de , y P es una medida de probabilidad
definida sobre F .
El objetivo es asociar un espacio de probabilidad al experimento aleatorio
de interes. No existen reglas establecidas para ello y adem
as la posible asig-
naci
on no es u
nica, pues dependiendo del interes del observador, se puede
asociar un espacio de probabilidad u otro. En este primer captulo se estudian con m
as detalle los conceptos de -
algebra y medida de probabilidad.
Empecemos con el primero.
1.2.
-
algebras
En esta secci
on se estudia el concepto de -
algebra y se define la mnima
-
algebra generada por una colecci
on arbitraria de subconjuntos del espacio
muestral. Recordemos nuevamente la definici
on de esta estructura.
n. (-a
lgebra, espacio medible, evento). Una colecci
Definicio
on
F de subconjuntos de es una -
algebra si cumple las siguientes condiciones:
1. F .
2. Si A F , entonces Ac F .
3. Si A1 , A2 , . . . F , entonces
n=1
An F .
lgebras
1.2. -a
En probabilidad elemental el conjunto denota el espacio muestral o conjunto de posibles resultados de un experimento aleatorio, y los elementos
de F representan eventos en el experimento aleatorio. Una -
algebra es
entonces una estructura que nos permite agrupar ciertos subconjuntos de
de interes, aquellos a los cuales se desea calcular su probabilidad, y esta estructura constituye el dominio de definici
on de una medida de probabilidad.
Cuando el espacio muestral es finito normalmente se toma como -
algebra
el conjunto potencia de , pero para espacio muestrales m
as generales no
siempre puede tomarse esa estructura tan grande, y deben considerarse entonces -
algebras m
as peque
nas, es por ello que se estudian estas estructuras. En general existen varias -
algebras que pueden asociarse a un conjunto
cualquiera no vaco como se muestra a continuaci
on.
Ejemplo Sea un conjunto cualquiera no vaco. Es inmediato comprobar
que cada una de las siguientes colecciones es una -
algebra de subconjuntos
de . La -
algebra del primer inciso es la -
algebra m
as peque
na que podemos asociar a un conjunto cualquiera , y la -
algebra del u
ltimo inciso
es la m
as grande.
a) F1 = {, }.
b) F2 = {, A, Ac , }, en donde A .
c) F3 = 2 , conjunto potencia.
E
D
Figura 1.1: Una -algebra es una coleccion F = {A, B, C, D, E, . . .} de subconjuntos que no es vaca y que es cerrada bajo complementos y uniones numerables.
En la Figura 1.1 puede observarse una representaci
on gr
afica de una algebra como una colecci
on de subconjuntos de . En la secci
on de ejercicios
se pueden encontrar algunos otros ejemplos de -
algebras. El uso de la letra
F para denotar una -
algebra proviene del nombre en ingles field que
significa campo. A menudo se usa tambien el termino -campo en lugar
de -
algebra. Observe con cuidado el uso y significado de los smbolos de
contenci
on y pertenencia: A y A F . Demostraremos a continuaci
on
algunas otras propiedades generales de las -
algebras.
n. Sea F una -
Proposicio
algebra de subconjuntos de . Entonces
1. F .
2. Si A1 , A2 , . . . F , entonces
n=1
An F .
3. Si A, B F , entonces A B F , y AB F .
Demostraci
on.
1. Como F y F es una colecci
on cerrada bajo complementos, en-
lgebras
1.2. -a
6
tonces c = F .
c
2. Si A1 , A2 , . . . F , entonces Ac1 , Ac2 , . . . F . Por lo tanto
n=1 An
F . Tomando complementos y usando las leyes de De Morgan se obtiene el resultado.
La proposici
on anterior establece entonces que las -
algebras son estructuras tambien cerradas bajo las operaciones de diferencia e intersecciones
numerables. En la secci
on de ejercicios pueden encontrarse algunas otras definiciones de -
algebra equivalentes a la que hemos enunciado, y que involucran las operaciones de la proposici
on anterior. Una operaci
on de particular
importancia es aquella en la que se intersectan dos -
algebras produciendo
una nueva -
algebra, este es el contenido del siguiente resultado.
n. La intersecci
Proposicio
on de dos -
algebras es una -
algebra.
Demostraci
on. Sean F1 y F2 dos -
algebras de subconjuntos de un mismo
. Entonces F1 F2 es aquella colecci
on de subconjuntos de cuyos elementos pertenecen tanto a F1 como a F2 . Demostraremos que F1 F2 es
una -
algebra.
a) Como F1 y F2 son -
algebras, entonces F1 y F2 . Por lo tanto
F1 F2 .
b) Sea A un elemento en F1 F2 . Entonces A F1 y A F2 . Por lo tanto
Ac F1 y Ac F2 , es decir, Ac F1 F2 .
n=1 An F2 , es decir,
n=1 An F1 F2 .
Demostraci
on. Sea T un conjunto arbitrario distinto del vaco. Suponga
que para cada t en T se tiene una -
algebra Ft de subconjuntos de . Sea
F = tT Ft . Siguiendo los mismos pasos que en la demostraci
on anterior
es f
acil probar que F es una -
algebra. Observe que como T es un conjunto
arbitrario, la -
algebra F es efectivamente una intersecci
on arbitraria de
-
algebras.
Lo demostrado anteriormente garantiza que la siguiente definici
on tiene sentido.
n. (-a
lgebra generada). Sea C una colecci
Definicio
on no vaca de
subconjuntos de . La -
algebra generada por C , denotada por (C ),
es la colecci
on
(C ) =
{F : F es -
algebra y C F }.
Es decir, la colecci
on (C ) es la intersecci
on de todas aquellas -
algebras
que contienen a C . Por la proposici
on anterior sabemos que (C ) es una
lgebras
1.2. -a
-
algebra. A (C ) tambien se le llama mnima -
algebra generada por C ,
y el adjetivo mnima es claro a partir del hecho de que es la -
algebra m
as
peque
na que contiene a la colecci
on C . Es decir, si F es una -
algebra
que contiene a C , entonces forzosamente (C ) F . Observe que C
(C ) pues a la colecci
on C se le han a
nadido posiblemente algunos otros
subconjuntos para convertirla en la -
algebra (C ).
Ejemplo. Sean A, B con A y B ajenos. Defina la colecci
on C = {A, B}.
En general esta colecci
on no es una -
algebra pero podemos a
nadirle algunos
subconjuntos de para encontrar la -
algebra generada por C . Resulta que
la mnima -
algebra que contiene a la colecci
on C es la siguiente. Puede
usted demostrar tal afirmaci
on?
(C ) = {, A, B, (A B)c , A B, Ac , B c , }.
Demostraci
on. Sabemos que F (F ). Por otro lado como F es una algebra que contiene a F , entonces (F ) F . Esto demuestra la igualdad.
n. (Algebra).
Definicio
Una colecci
on A de subconjuntos de es una
algebra si cumple las siguientes condiciones:
1. A .
2. Si A A , entonces Ac A .
n
3. Si A1 , . . . , An A , entonces
k=1
Ak A .
lgebras
1.2. -a
10
n. (Semia
lgebra). Una colecci
Definicio
on S de subconjuntos de
es una semi
algebra si cumple las siguientes condiciones:
1. S .
2. Si A, B S , entonces A B S .
3. Si A, A1 S son tales que A1 A, entonces existen A2 , . . . , An
S tales que los subconjuntos A1 , . . . , An son ajenos dos a dos y se
cumple que
n
A=
Ak .
k=1
Los conceptos de -
algebra,
algebra y semi
algebra est
an relacionados como
se muestra en la Figura 1.2. En la secci
on de ejercicios se pide demostrar
las implicaciones y no implicaciones que se obtienen de este diagrama.
-algebras
algebras
semialgebras
11
Conjuntos de Borel
Considere la colecci
on de todos los intervalos abiertos (a, b) de R, en donde
a b. A la mnima -
algebra generada por esta colecci
on se le llama algebra de Borel de R, y se le denota por B(R).
n. (-a
lgebra de Borel de R).
Definicio
B(R) = { (a, b) R : a b } .
A los elementos de B(R) se les llama conjuntos de Borel , Borelianos o
conjuntos Borel medibles. De esta forma se puede asociar la -
algebra B(R)
al conjunto de n
umeros reales, y obtener as el espacio medible (R, B(R)).
Se muestran a continuaci
on algunos elementos explcitos de esta -
algebra.
n. Para cualesquiera n
Proposicio
umeros reales a b, los intervalos
[a, b], (a, ), (, b), [a, b), (a, b] y {a}, son todos elementos de B(R).
Demostraci
on. Primeramente observe que los intervalos cerrados [a, b] son
conjuntos Borelianos, pues podemos escribirlos en terminos de una intersecci
on numerable de intervalos abiertos de la siguiente forma
[a, b] =
(a
n=1
1
1
, b + ).
n
n
lgebras
1.2. -a
12
(a, ) =
y
(a, a + n) B(R),
n=1
(b n, b) B(R).
(, b) =
n=1
Por lo tanto
[a, ) =
y
(, b] =
(a
n=1
1
, ) B(R),
n
(, b +
n=1
1
) B(R).
n
De forma an
aloga se puede hacer ver que los intervalos semiabiertos de la
forma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de
un solo n
umero tambien son conjuntos Borelianos pues
{a} =
(a
n=1
1
1
, a + ).
n
n
13
n. Las siguientes -
Proposicio
algebras son todas identicas a B(R).
1.
2.
3.
{ [a, b] : a b }.
{ (a, b] : a b }.
{ [a, b) : a b }.
4.
5.
{ (a, ) : a R }.
{ (, b) : b R }.
Demostraci
on. Se prueba u
nicamente el primer inciso, el resto de ellos se
demuestra usando el mismo procedimiento. Para demostrar que B(R) =
{[a, b] : a b} se verifican ambas contenciones. Claramente [a, b] B(R),
por lo tanto {[a, b] : a b} B(R). Entonces {[a, b] : a b} B(R).
Ahora se demuestra la contenci
on contraria. Sabemos que (a, b) {[a, b] :
1
a b} pues (a, b) = n=1 [a + n , b n1 ]. Entonces {(a, b) : a b} {[a, b] :
a b}. Por lo tanto B(R) {[a, b] : a b}.
De manera equivalente se puede definir a B(R) como la mnima -
algebra
generada por todos los subconjuntos abiertos de R. En ambos casos la algebra generada es B(R).
Es natural preguntarse si la colecci
on B(R) contiene a todos los subconjuntos de R. La respuesta es negativa, es decir, puede demostrarse que existe
un subconjunto de los n
umeros reales que no pertenece a la colecci
on B(R).
La construcci
on del tal conjunto no es sencilla, y puede obtenerse indirectamente de la siguiente forma: la colecci
on B(R) est
a contenida en una clase
m
as amplia llamada la colecci
on de conjuntos Lebesgue medibles de R, y se
demuestra que existen subconjuntos de R que no son Lebesgue medibles, y
por tanto tampoco Borel medibles. Los detalles de estas afirmaciones pueden
encontrarse en textos de teora de la medida, como por ejemplo [5] o [14].
Es posible tambien considerar la -
algebra de conjuntos de Borel restringidos a una porci
on de los n
umeros reales como se indica a continuaci
on.
14
lgebras
1.2. -a
n. Sea A B(R). La -
Definicio
algebra de Borel de A, denotada por
B(A) o por A B(R), se define como sigue
B(A) = {A B : B B(R)}.
15
(F1 F2 ).
Ejercicio. Demuestre que la -
algebra {(a, b) (c, d) : a b, c d}
coincide con (B(R) B(R)).
Sucesiones de eventos
En esta secci
on se estudia el concepto de convergencia de una sucesi
on infinita de eventos. Para enunciar tal concepto necesitaremos antes las definiciones de lmite superior y lmite inferior para conjuntos. Estas definiciones
son an
alogas al caso de sucesiones numericas como puede consultarse en un
apendice al final del texto.
n. (Lmite superior e inferior). Para una sucesi
Definicio
on de
eventos {An : n N}, se define el lmite superior y el lmite inferior
como sigue:
1. lm sup An =
n
2. lm inf An =
n
Ak .
n=1 k=n
Ak .
n=1 k=n
Tanto el lmite superior como el lmite inferior son operaciones bien definidas, es decir, el resultado siempre existe y es u
nico. En cada caso, el conjunto
resultante es siempre un evento, es decir, un conjunto medible. Es sencillo
tambien comprobar que
lm inf An lm sup An .
n
Tampoco es difcil verificar que un elemento pertenece al evento lmite superior si, y s
olo si, pertenece a una infinidad de elementos de la sucesi
on. En
lgebras
1.2. -a
16
algunos textos de habla inglesa el evento lmite superior se escribe (An i.o.),
en donde las letras i.o. significan infinitely often. Por otro lado un elemento pertenece al evento lmite inferior si, y s
olo si, pertenece a todos
los elementos de la sucesi
on excepto un n
umero finito de ellos. Con estos
conceptos podemos ahora establecer la definici
on de convergencia de una
sucesi
on de eventos.
n. (Convergencia de eventos). Sea {An : n N} una
Definicio
sucesi
on de eventos. Si existe un evento A tal que
lm inf An = lm sup An = A,
n
lm sup An =
n
lm inf An =
n
n=1 k=n
n=1 k=n
Ak =
Ak =
n=1
{0} = {0}.
n=1
17
Como el ejercicio anterior muestra, no todas las sucesiones de eventos convergen. Demostramos a continuaci
on que en particular toda sucesi
on mon
otona es convergente. M
as adelante presentaremos algunos otros ejemplos concretos de sucesiones de eventos, y en la secci
on de ejercicios se encuentran
algunos mas.
n. Sea {An : n N} una sucesi
Proposicio
on mon
otona de eventos.
1. Si A1 A2 , entonces lm An =
n
An .
n=1
2. Si A1 A2 , entonces lm An =
n
An .
n=1
Demostraci
on.
1. Como la sucesi
on es creciente, entonces (observe el valor inicial del
subndice en las operaciones de uni
on e intersecci
on),
k=n
Ak =
Ak ,
k=1
Ak = An .
k=n
Por lo tanto
lm sup An =
n
lm inf An =
n
n=1 k=n
n=1 k=n
Ak =
Ak =
n=1 k=1
An .
n=1
Ak =
k=1
Ak ,
lgebras
1.2. -a
18
2. El procedimiento es completamente an
alogo al inciso anterior. En este
caso como la sucesi
on es decreciente se tiene que
k=n
Ak =
Ak ,
k=1
Ak = An .
k=n
Entonces
lm sup An =
n
lm inf An =
n
n=1 k=n
n=1 k=n
Ak =
Ak =
An ,
n=1
n=1 k=1
Ak =
Ak .
k=1
19
B1 = A1 ,
Bn = An
Ak ,
k=1
para n 2.
Entonces la sucesi
on de eventos {Bn : n N} satisface las siguientes
propiedades:
1. Bn An .
2. Bn Bm = , si n = m.
3.
Bn =
n=1
An .
n=1
Demostraci
on.
1. Esto es evidente a partir de la definici
on de Bn .
2. Sin perdida de generalidad suponga que n < m, entonces
n1
Bn Bm = (An
= (An
k=1
n1
k=1
An Acn
m1
Ak ) (Am
Ack ) (Am
Ak )
k=1
m1
Ack )
k=1
= .
20
n=1 An .
Entonces existe un ndice n tal que x An . Sea n0 el primer ndice tal que x An0 y x
/ Aj para 1 j n0 1. Entonces
0 1
x An0 nn=1
An = Bn0 . Por lo tanto x pertenece a
n=1 Bn .
1.3.
Medidas de probabilidad
En esta secci
on y en lo que resta del presente captulo se estudian algunas
propiedades de las medidas de probabilidad. Empezaremos por recordar
nuevamente la definici
on de este concepto.
n. (Medida de probabilidad). Sea (, F ) un espacio meDefinicio
dible. Una medida de probabilidad es una funci
on P : F [0, 1] que
satisface
1. P () = 1.
2. P (A) 0, para cualquier A F .
3. Si A1 , A2 , . . . F son ajenos dos a dos, esto es, An Am = para
n = m, entonces P (
n=1
An ) =
P (An ).
n=1
21
Es decir, el n
umero natural n tiene asociada la probabilidad 1/2n , como se
muestra en la Figura 1.3. No es difcil verificar que P es efectivamente una
medida de probabilidad concentrada en el conjunto de n
umeros naturales.
P (X = x)
1
2
22
(, ) es uno. La funci
on P definida para cualquier conjunto de Borel A
por la siguiente integral, es una medida de probabilidad.
P (A) =
f (x) dx.
A
on tal que
Ejemplo. (Probabilidad geom
etrica). Sea R2 una regi
su
area es positiva y finita. Sea F una -
algebra de subconjuntos de
para los cuales el concepto de
area este bien definido. Para cada A en F
Propiedades elementales
A partir de los postulados enunciados en la secci
on anterior es posible demostrar una extensa serie de propiedades que cumplen todas las medidas de
probabilidad. En esta secci
on se estudian algunas propiedades elementales
que posiblemente ya conoce el lector, y m
as adelante se demuestran otras
propiedades ligeramente mas avanzadas.
23
P(
k=1
Ak ) =
P (Ak ).
k=1
3. P (Ac ) = 1 P (A).
4. Si A B, entonces P (B A) = P (B) P (A).
5. Si A B, entonces P (A) P (B).
6. 0 P (A) 1.
7. P (A B) = P (A) + P (B) P (A B).
8. P (A B) P (A) + P (B).
Demostraci
on.
1. Como = , por la -aditividad se tiene que P () =
nicamente cuando P () = 0.
n=1 P (), lo cual sucede u
2. Se toma An+1 = An+2 = = , y la igualdad se obtiene al aplicar la
-aditividad y la propiedad anterior.
3. Se expresa a como la uni
on disjunta A Ac . Aplicamos P y obtenemos la igualdad requerida.
4. Escribimos B = A (B A). Aplicando P obtenemos P (B) P (A) =
P (B A).
5. Como la probabilidad de cualquier evento es un n
umero no negativo,
el resultado se sigue de la propiedad anterior.
24
n=1
2. P (
n=1
An )
P (An ).
n=1
An ) 1
P (Acn ).
n=1
Demostraci
on.
1. Tome B1 = A1 , y para n 2 defina
n1
Bn = An
Ak .
k=1
25
An ) = P (
n=1
Bn )
n=1
n=1
P (Bn )
P (An ).
n=1
n=1 An )
= 1.
n=1 An )
= 1.
n=1 An )
= 0.
Demostraci
on.
n=1 An )
= 0.
26
n=1
An ) = 1 P (
Acn )
n=1
P (Acn )
n=1
= 1.
2. Como An
3. Como
n=1
n=1
An ).
n=1
An An , entonces P (
n=1
n=1
An ) P (An ) = 0.
An )
P (An ) = 0.
n=1
27
Ejercicio. (Teorema de probabilidad total). Sea (, F , P ) un espacio de probabilidad, y sea {A1 , A2 , . . .} una partici
on de tal que cada
elemento de la partici
on es un evento con probabilidad estrictamente positiva. Demuestre que para cualquier evento B,
P (B) =
n=1
P (B | An )P (An ).
P (B | Am )P (Am )
P (B|An )P (An )
n=1
28
Continuidad
Ahora demostraremos que las medidas de probabilidad son funciones continuas. Primero se prueba este resultado importante para dos tipos de sucesiones particulares, aquellas que son mon
otonas crecientes o decrecientes,
y despues se prueba en general. Empezaremos con el caso de sucesiones
crecientes.
n. Sea {An : n N} una sucesi
Proposicio
on no decreciente de eventos,
esto es, A1 A2 . Entonces
P(
n=1
An ) = lm P (An ).
n
Demostraci
on. Como An An+1 , tenemos que P (An ) P (An+1 ). Por lo
tanto la sucesi
on numerica {P (An ) : n N} es no decreciente y acotada
29
Bn = An An1 ,
para n 2.
La sucesi
on {Bn : n N} es una colecci
on de eventos disjuntos dos a dos,
y es tal que
An =
n=1
Bn .
n=1
Por lo tanto
P(
An ) = P (
n=1
Bn )
n=1
P (Bn )
n=1
= P (B1 ) +
= P (A1 ) +
= P (A1 ) +
n=2
n=2
n=2
P (Bn )
P (An An1 )
P (An ) P (An1 )
m
= P (A1 ) + lm
n=2
P (An ) P (An1 )
lm P (Am ).
30
Las medidas de probabilidad tambien son continuas respecto de sucesiones no crecientes de eventos. Esta afirmaci
on es el contenido del siguiente
resultado que se demuestra a partir de la proposici
on anterior.
n. Sea {An : n N} una sucesi
Proposicio
on no creciente de eventos,
esto es, A1 A2 . Entonces
P(
An ) = lm P (An ).
n
n=1
Demostraci
on. Observe que si An An+1 , entonces Acn Acn+1 . Por la
proposici
on anterior,
P(
Acn ) = lm P (Acn ).
n=1
n=1
An ) = lm (1 P (An )),
n
31
Demostraci
on. La prueba se basa en las siguientes dos desigualdades:
a) lm sup P (An ) P (lm sup An ).
n
Como la sucesi
on de eventos es convergente al evento A, entonces el lmite superior y el lmite inferior son iguales a A. Se sigue entonces de las
desigualdades (a) y (b) que
lm sup P (An ) P (lm sup An )
n
= P (A)
= P (lm inf An )
n
lm inf P (An ).
n
k=n Ak ,
entonces
P (An ) P (
k=n
Ak ),
32
lm P (
k=n
Ak )
k=n
= P ( lm
= P(
Ak )
Ak )
k=n
Ak )
n=1 k=n
= P (lm sup An ).
n
b) Como
k=n Ak
An , entonces
P(
k=n
Ak ) P (An ),
en donde {
on creciente de eventos.
k=n Ak : n N} es una sucesi
Tomando el lmite inferior se obtiene
lm inf P (An ) lm inf P (
n
lm P (
= P ( lm
= P(
Ak )
k=n
Ak )
k=n
Ak )
k=n
Ak )
n=1 k=n
= P (lm inf An ).
n
33
An .
n=1
Entonces
P(
n=1
An ) = P ( lm An ) = lm P (An ) = lm 1/2n = 0.
n
El evento
n=1 An se interpreta como aquel conjunto de resultados en el
que siempre se obtiene un n
umero par en cada uno de los lanzamientos. Hemos demostrado que la probabilidad de tal evento es cero. En consecuencia
la probabilidad de que eventualmente aparezca un n
umero impar es uno.
Observe que el argumento presentado funciona de la misma forma cuando
el evento A es cualquier subconjunto propio de distinto del vaco. Por
ejemplo, si A = {1, 2, 3, 4, 5}, entonces la probabilidad de nunca obtener
6 es cero. Por lo tanto, con probabilidad uno, cada una de las caras del
dado aparecer
a eventualmente. Puede demostrarse adem
as que cada una de
las caras aparecer
a una infinidad de veces con probabilidad uno.
1.4.
Independencia de eventos
En esta secci
on se define el concepto importante de independencia de eventos. La independencia es un tema central en la teora de la probabilidad,
y uno de sus rasgos distintivos. De manera natural la independencia aparecer
a con frecuencia a lo largo del texto a partir de ahora, y ayudar
a a
34
simplificar el c
alculo de probabilidades. La definici
on matem
atica es la siguiente.
n. (Independencia de dos eventos). Dos eventos A y B
Definicio
son independientes, y se escribe A B, cuando
P (A B) = P (A)P (B).
35
(1.1)
(1.2)
36
a dos.
Tambien se tiene la noci
on de independencia entre dos o mas clases de
eventos. La definici
on es la siguiente, como siempre se presupone un espacio
de probabilidad (, F , P ) dado.
n. (Independencia de clases). Las clases no vacas de
Definicio
eventos C1 , . . . , Cn son independientes si los eventos A1 , . . . , An lo son
para cualesquiera Ai en Ci , i = 1, . . . , n. M
as generalmente, un conjunto infinito de clases no vacas de eventos es independiente si cualquier
subconjunto finito lo es.
En particular, dos -
algebras F1 y F2 son independientes si para cada A en
F1 y cada B en F2 se cumple que P (A B) = P (A)P (B). An
alogamente
para un n
umero finito de -
algebras o bien un n
umero infinito de ellas.
Ejemplo. (El problema del mono). Un mono escribe caracteres al azar
en una m
aquina de escribir. Cu
al es la probabilidad de que eventualmente
obtenga exactamente, y sin ning
un error, las obras completas de Shakespeare?
37
Para cada n
umero natural k defina el evento Ak correspondiente a que el kesimo bloque contiene exactamente, y sin error alguno, las obras completas
de Shakespeare. Observe que los eventos Ak son independientes pues los
bloques no se sobreponen, adem
as P (Ak ) = (1/m)N = p, o bien P (Ack ) =
on en
1 p. Defina el evento Bk como Ac1 Ack , que indica la situaci
la que el mono no obtiene exito en los primeros k bloques. Observe que
Bk+1 Bk , es decir la sucesi
on es decreciente, por lo tanto
lm Bk =
Bk ,
k=1
k=1 Bk
en donde el evento
se interpreta como aquel en el que el mono nunca
tiene exito. Entonces, usando la propiedad de continuidad de las medidas
de probabilidad para sucesiones decrecientes, se tiene que
P(
k=1
Bk ) = lm P (Bk ) = lm (1 p)k = 0.
k
Por lo tanto la probabilidad del evento complemento es uno, es decir, la probabilidad de que eventualmente el mono obtenga exito es uno. M
as adelante
se presentar
an otras formas de resolver este mismo problema usando el lema
de Borel-Cantelli, y despues usando la ley fuerte de los grandes n
umeros.
En [25] aparece una estimaci
on del tiempo promedio de espera para que el
mono obtenga el primer exito.
1.5.
Lema de Borel-Cantelli
38
en pr
actica algunas propiedades de las medidas de probabilidad, aunque
tambien lo usaremos para presentar un par de aplicaciones y para demostrar
la ley fuerte de los grandes n
umeros en la u
ltima parte del curso.
n. (Lema de Borel-Cantelli). Sea {An : n N} una
Proposicio
sucesi
on de eventos, y defina A = lm sup An .
n
1. Si
n=1
2. Si A1 , A2 , . . . son independientes y
n=1
P (An ) = , entonces
P (A) = 1.
Demostraci
on.
1. Para cada n
umero natural n,
P (A) P (
k=n
Ak )
P (Ak ).
k=n
Como
n=1 P (An ) < , el lado derecho tiende a cero cuando n tiende
a infinito. Esto implica que P (A) = 0.
2. Es suficiente demostrar que para todo n
umero natural n se cumple la
igualdad P (
A
)
=
1,
pues
la
intersecci
on numerable de eventos
k=n k
39
k=n
Ak ) 1 P (
Ak )
k=n
Ack )
= P(
k=n
m
[1 P (Ak )]
k=n
exp(
P (Ak )).
k=n
Para obtener la u
ltima expresi
on se usa la desigualdad: 1 x ex ,
v
alida para cualquier n
umero real x. Como
n=1 P (An ) = , el
lado derecho tiende a cero cuando m tiende a infinito. Por lo tanto
P(
k=n Ak ) = 1 para cualquier valor de n y entonces P (A) = 1.
Ejemplo. (El problema del mono, nuevamente). El problema de encontrar la probabilidad de que un mono que escribe caracteres al azar en una
m
aquina de escribir, eventualmente escriba las obras completas de Shakespeare, puede resolverse tambien usando el lema de Borel-Cantelli. Suponga
que N es el total de caracteres de los que constan las obras completas de
Shakespeare y considere nuevamente la divisi
on por bloques de longitud N :
x1 , . . . , xN , xN +1 , . . . , x2N , . . .
El evento Ak se define nuevamente como aquel en el que el mono tiene exito
en el k-esimo bloque. Si nuevamente m denota el total de caracteres disponibles, entonces la probabilidad del evento Ak es (1/m)N , y claramente la
sucesi
on A1 , A2 , . . . constituye una sucesi
on de eventos independientes tales
40
41
42
1.6. Ejercicios
1.6.
Ejercicios
-
algebras
n alternativa de -a
lgebra. Demuestre que F es una
1. Definicio
-
algebra de subconjuntos de si, y s
olo si, satisface las siguientes
propiedades:
a) F .
b) A F Ac F .
c) Si A1 , A2 , . . . F , entonces
n=1 An
F.
n alternativa de -a
lgebra. Demuestre que F es una
2. Definicio
-
algebra de subconjuntos de si, y s
olo si, satisface las siguientes
propiedades:
a) F .
b) A, B F A B F .
c) Si A1 , A2 , . . . F , entonces
n=1 An
F.
43
44
1.6. Ejercicios
c) F
o F.
d) A F
o A F.
-
algebras,
algebras y semi
algebras
n alternativa de a
lgebra. Demuestre que F es una
20. Definicio
algebra de subconjuntos de si, y s
b) Si A, B F , entonces A B F .
(ai , bi ],
i=1
45
Conjuntos de Borel
24. Demuestre que B(R) = {(a, b] : a b}.
25. Demuestre que B(R) = {[a, b) : a b}.
26. Demuestre que B(R) = {(a, ) : a R}.
27. Demuestre que B(R) = {[a, ) : a R}.
28. Demuestre que B(R) = {(, b) : b R}.
29. Demuestre que B(R) = {(, b] : b R}.
30. Sea A B(R). Demuestre que B(A) es efectivamente una -
algebra
de subconjuntos de A.
31. Diga falso o verdadero. Justifique su respuesta.
1
a) { ( n+1
, n1 ] : n N } = B(0, 1].
1
, n1 ] : n N } = { (0, n1 ] : n N }.
c) { ( n+1
Sucesiones de eventos
35. Sea {An : n N} una sucesi
on de eventos. Demuestre que
a) lm sup An es un evento.
n
46
1.6. Ejercicios
b) lm inf An es un evento.
n
c) lm inf An lm sup An .
n
b) lm inf An lm inf Bn .
n
c) lm sup An lm inf Bn .
n
b) lm An = A lm 1An = 1A .
n
47
b) An = {(x, y) R2 : x2 + y 2 (1 + 1/n)n }.
c) An = {(x, y) R2 : x2 + y 2 2 + sen(n/2)}.
42. Demuestre que las siguientes sucesiones de eventos no son convergentes.
a) An = si n es impar, y An = si n es par.
b) An = (0, 1 + (1)n ) R.
An si n es impar,
Bn si n es par.
A
B
si n es impar,
si n es par.
a) lm (An B) = A B.
n
b) lm (An B) = A B.
n
c) lm (An B) = A B.
n
d) lm (An B) = AB.
n
48
1.6. Ejercicios
b) lm lm (An Bm ) = A B.
n m
c) lm lm (An Bm ) = A B.
n m
d) lm lm (An Bm ) = AB.
n m
b) lm (An Bn ) = A B.
n
c) lm (An Bn ) = A B.
n
d) lm (An Bn ) = AB.
n
Medidas de probabilidad
48. Determine completamente un espacio de probabilidad (, F , P ) para
el experimento aleatorio de
a) lanzar una moneda equilibrada.
b) lanzar un dado equilibrado.
c) escoger al azar un n
umero real dentro del intervalo unitario [0, 1].
d) extraer dos bolas de una urna en donde hay dos bolas blancas y
dos negras.
e) lanzar una moneda honesta repetidas veces hasta que hayan aparecido ambas caras.
49
n=1
an 1{n : xn A} (n).
50. Sean P y Q dos medidas de probabilidad definidas sobre una misma algebra. Demuestre que P + (1 )Q es una medida de probabilidad
a) 1 P .
b) (1 + P )/2.
e) 4P
(1 P ).
f)
P.
a) P (A) =
nA
1/2n .
b) P (A) =
nA
2k
.
n(n + 1)
50
1.6. Ejercicios
b) P (A) =
kA
1
(1 ).
k
55. Considere el espacio medible ((0, 1), B(0, 1)). Demuestre en cada caso
que P es una medida de probabilidad. Para cada A B(0, 1) defina:
a) P (A) =
2x dx.
A
b) P (A) =
A
3
x dx.
2
56. Probabilidad condicional. Sea (, F , P ) un espacio de probabilidad, y sea B un evento con probabilidad estrictamente positiva.
Demuestre que la probabilidad condicional definida para cada A en
F como sigue: P (A | B) = P (A B)/P (B), es una medida de probabilidad. En consecuencia, toda propiedad v
alida para una medida de
probabilidad es tambien v
alida para la probabilidad condicional.
57. Sea P una medida de probabilidad, y sean P1 ( ) = P ( | B) y P2 ( ) =
P1 ( | C), en donde P (B) > 0 y P (C) > 0. Demuestre que para cualquier evento A, P2 (A) = P (A | B C).
58. Demuestre que P (A | B) 1 P (Ac )/P (B), en donde P (B) > 0.
59. Sea P una medida de probabilidad definida sobre la -
algebra F .
Demuestre que la colecci
on {A F : P (A) = 0
o P (A) = 1} es una
sub -
algebra de F .
Propiedades elementales
60. Demuestre que P () = 0, sin usar P () = 1.
61. Demuestre que P (A B) P (A)P (B) = P (Ac )P (B) P (Ac B).
62. Demuestre que
P (AB) mn{P (A), P (B)} P (A) m
ax{P (A), P (B)} P (AB).
P (A B) P (A C) P (B C)
+P (A B C).
i=1
rmula de inclusio
n y exclusio
n. Demuestre que
66. Fo
n
P(
Ai ) =
i=1
i=1
P (Ai )
+
i<j<k
i<j
P (Ai Aj )
P (Ai Aj Ak )
+ (1)n+1 P (A1 An ).
67. Demuestre que
n
P(
i=1
Ai ) =
i=1
P (Ai )
+
i<j<k
i<j
P (Ai Aj )
P (Ai Aj Ak )
+ (1)n+1 P (A1 An ).
51
52
1.6. Ejercicios
n
Ak ) 1
P (Ack ).
k=1
b) P (A B) = P (A B) + P (B A).
c) P (A) > 0 P (A B) > 0.
c) P (A B) = 0 P (A) = 0.
d) P (A B) = 0 P (A) = 0.
e) P (A) = 1 P (A B) = 1.
f ) P (A) = 1 P (A B) = 1.
g) P (A B) = 1 P (A) = 1.
h) P (A B) = 1 P (A) = 1.
72. Diga falso o verdadero. Demuestre en cada caso.
a) P (A B) P (A) P (B c ).
b) P (A B) = P (A) P (A B).
c) P (A B) P (A)P (B).
53
d) P (A B) P (A) + P (B).
e) P (A | B) P (A).
f ) P (A | B) P (A) P (B | A) P (B).
73. Se lanza una moneda tantas veces como indica un dado previamente
lanzado. Tanto la moneda como el dado estan equilibrados. Calcule la
probabilidad de que:
a) se obtengan ambas caras de la moneda igual n
umero de veces.
b) se obtenga una misma cara siempre.
74. En una primera caja se encuentran dos canicas blancas y tres negras,
en una segunda caja hay tres blancas y cinco negras, y en una tercera
caja hay dos blancas y una negra. De la primera caja se extrae al
azar una canica y se deposita en la segunda caja, despues se extrae
nuevamente al azar una canica de la segunda caja y se deposita en la
tercera caja. Despues de este proceso se obtiene al azar una canica de
la tercera caja, encuentre la probabilidad de que esta sea blanca.
75. Un dado equilibrado se lanza tres veces consecutivas, y resulta que la
suma de los tres n
umeros obtenidos es 11. Encuentre la probabilidad
de que en el primer lanzamiento se haya obtenido un 5.
76. Una primera caja contiene tres canicas blancas y dos negras. Una
segunda caja contiene dos canicas blancas y cuatro negras. Se escoge
P(
i=1
Ai )
i=1
P (Ai )
i<j
P (Ai Aj ).
54
1.6. Ejercicios
P(
i=1
Ai ) mn {
j
i=1
P (Ai )
i=1
P (Ai Aj ) }.
i=j
Continuidad
80. Se lanza una moneda honesta una infinidad de veces. Demuestre que la
probabilidad de que eventualmente cada una de las dos caras aparezca
es uno.
81. Se lanza un dado equilibrado una infinidad de veces. Demuestre que la
probabilidad de que eventualmente cada una de las seis caras aparezca
es uno.
82. Sea A un evento con probabilidad estrictamente positiva. Demuestre
que si se efect
ua una infinidad de ensayos independientes del experimento aleatorio, la probabilidad de que nunca ocurra el evento A es
cero.
Independencia de eventos
83. Diga falso o verdadero. Demuestre o proporcione un contraejemplo.
a) A A.
b) A Ac .
c) A .
d) A .
55
P(
k=1
Ak ) = 1
[1 P (Ak )].
k=1
Ak
k=n
Cn =
Ak .
k=n
Lema de Borel-Cantelli
89. Se lanza un dado equilibrado una infinidad de veces. Demuestre que
con probabilidad uno cada una de las seis caras aparece una infinidad
de veces.
90. Sea A un evento con probabilidad positiva. Use el lema de BorelCantelli para demostrar que si se efect
ua una infinidad de ensayos
independientes del experimento aleatorio, la probabilidad de que ocurra una infinidad de veces el evento A, es uno.
Captulo 2
Variables aleatorias
2.1.
Variables aleatorias
57
58
X()
59
X 1
X 1 B
60
n. Una funci
Proposicio
on X : R es una variable aleatoria si, y
s
olo si, para cada x en R se cumple que (X x) F .
Demostraci
on.
() Si X es variable aleatoria, entonces claramente se cumple que para
cualquier n
umero real x el conjunto (X x) es un elemento de F .
() Ahora suponga que para cada real x, el conjunto (X x) es un
elemento de F . Sean B y C las colecciones
B = {B B(R) : X 1 B F },
C
= {(, x] : x R}.
1 B = X 1 B F . Es decir,
B(R) y
X
n
n=1
n=1 n
n=1 Bn
B.
Adem
as de la condici
on anterior para demostrar que una funci
on es variable aleatoria, existen otras condiciones igualmente equivalentes y u
tiles.
61
(X) = { X 1 B : B B(R) }.
Demostraci
on. Sea B un elemento cualquiera de B(R). Para la funci
on
1
1
constante X = c se tiene que X B = si c B, y X B = si c
/ B.
En ambos casos el conjunto X 1 B es un elemento de F , por lo tanto X es
62
variable aleatoria.
n. Si X es variable aleatoria y c es una constante, entonces
Proposicio
cX tambien es variable aleatoria.
Demostraci
on. Comprobaremos que para cada n
umero real x, la imagen
inversa del conjunto (, x], bajo la funci
on cX, es un elemento de F .
Tenemos tres casos: Si c > 0, entonces el conjunto (cX x) = (X x/c) es
un elemento de F , pues X es v.a. Si c < 0, entonces nuevamente el conjunto
(cX x) = (X x/c) es un elemento de F pues X es v.a. Finalmente
si c = 0, entonces es claro que cX es la constante cero que es v.a. por la
proposici
on anterior.
n. Si X y Y son v.a.s, entonces X + Y es variable aleatoria.
Proposicio
Demostraci
on. Probaremos que para cada n
umero real x, el conjunto (X +
Y > x) es un elemento de F . Para ello usaremos la igualdad
(X + Y > x) =
rQ
(2.1)
63
Demostraci
on. Suponga primero el caso particular X = Y . Entonces necesitamos probar que para todo n
umero real x, el conjunto (X 2 x) es
un elemento de F . Pero esto es cierto pues (X 2 x) = si x < 0, y
Demostraci
on. Como el producto de variables aleatorias es nuevamente una
variable aleatoria, es suficiente demostrar que 1/Y es variable aleatoria. Para
64
cualquier n
umero real y > 0 tenemos que
(
1
1
1
y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y ) (Y < 0),
y
1
1
1
y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y , Y < 0)
y
1
= ( Y < 0).
y
1
1
1
0) = ( 0, Y > 0) ( 0, Y < 0)
Y
Y
Y
= (Y < 0)
= (Y < 0).
65
Demostraci
on. Para cualquier n
umero real x,
(m
ax{X, Y } x) = (X x, Y x) = (X x) (Y x).
An
alogamente,
(mn{X, Y } x) = (X x, Y x) = (X x) (Y x).
Demostraci
on. Si x 0, entonces (|X| x) = (x X x), y si x <
0, entonces (|X| x) = F , de modo que |X| es variable aleatoria.
Alternativamente se puede escribir |X| = X + + X , y por lo expuesto
anteriormente obtener la misma conclusi
on.
Se muestra a continuaci
on que en general el recproco de la proposici
on
anterior es falso, esto es, si X : R es una funci
on tal que |X| es
variable aleatoria, entonces no necesariamente X es variable aleatoria.
Ejemplo. Considere el espacio muestral = {1, 0, 1} junto con la algebra F = {, {0}, {1, 1}, }. Sea X : R la funci
on identidad
X() = . Entonces |X| es variable aleatoria pues para cualquier conjunto
Boreliano B,
si 0, 1 B,
{1, 1} si 0
/ B y 1 B,
|X|1 B =
{0}
si 0 B y 1
/ B,
si 0, 1
/ B.
66
Es decir, |X|1 B es un elemento de F . Sin embargo X no es variable aleatoria pues el conjunto X 1 {1} = {1} no es un elemento de F .
Ahora consideraremos algunas operaciones lmite en sucesiones infinitas de
variables aleatorias. S
olo consideraremos variables aleatorias con valores finitos, de modo que impondremos condiciones sobre la finitud del resultado
al tomar tales operaciones lmite.
n. Sea X1 , X2 , . . . una sucesi
Proposicio
on infinita de variables aleatorias tales que para cada en , los n
umeros
sup {X1 (), X2 (), . . .} e nf {X1 (), X2 (), . . .}
son finitos. Entonces las funciones sup {Xn } e nf {Xn } son variables
n0
n0
aleatorias.
Demostraci
on. Para cualquier n
umero real x,
( sup Xn x ) =
n0
( nf Xn x ) =
n0
(Xn x),
n=1
(Xn x).
n=1
67
aleatorias.
Demostraci
on. Esto es consecuencia de la proposici
on anterior pues
lm sup Xn = nf ( sup Xn ),
n
nk
lm inf Xn = sup ( nf Xn ).
n
nk
Demostraci
on. Como el lmite de Xn existe, los lmites superior e inferior
de esta sucesi
on coinciden. Entonces por lo demostrado antes, el lmite de
Xn es variable aleatoria.
68
2.2.
n de distribucio
n
2.2. Funcio
Funci
on de distribuci
on
69
lm F (x) = 1.
x+
lm F (x) = 0.
Demostraci
on.
1. Sea x1 , x2 , . . . una sucesi
on cualquiera de n
umeros reales creciente a
infinito, y sean los eventos An = (X xn ). Entonces {An : n N} es
una sucesi
on de eventos creciente cuyo lmite es . Por la propiedad
de continuidad
lm F (xn ) = lm P (An ) = P () = 1.
Dado que R es un espacio metrico, lo anterior implica que F (x) converge a uno cuando x tiende a infinito.
2. Sea ahora {xn : n N} una sucesi
on cualquiera de n
umeros reales
decreciente a menos infinito, y sean los eventos An = (X xn ).
Entonces {An : n N} es una sucesi
on de eventos decreciente al
conjunto vaco. Nuevamente por la propiedad de continuidad
lm F (xn ) = lm P (An ) = P () = 0.
n de distribucio
n
2.2. Funcio
70
3. Para x1 x2 ,
= P (X x2 )
= F (x2 ).
on cualquiera de n
umeros reales no negativos
4. Sea x1 , x2 , . . . una sucesi
y decreciente a cero. Entonces
F (x + xn ) = F (x) + P (x < X x + xn ),
en donde An = (x < X x + xn ) es una sucesi
on de eventos decreciente al conjunto vaco. Por lo tanto lm F (x + xn ) = F (x). Es decir
n
F (x+) = F (x).
Se tiene adem
as la siguiente definici
on general de funci
on de distribuci
on,
no haciendo referencia a variables aleatorias ni a espacios de probabilidad
particulares.
n. (Funcio
n de distribucio
n). Una funci
Definicio
on F (x) : R
[0, 1] es llamada funci
on de distribuci
on si cumple las cuatro propiedades
anteriores.
Una especie de recproco de la u
ltima proposici
on es v
alido y ello justifica
la importancia de la funci
on de distribuci
on. Se enuncia a continuaci
on este
interesante resultado cuya demostraci
on omitiremos y puede encontrarse
por ejemplo en [15].
n. Sea F (x) : R [0, 1] una funci
Proposicio
on de distribuci
on. Entonces existe un espacio de probabilidad (, F , P ) y una variable aleatoria
X cuya funci
on de distribuci
on es F (x).
71
F (x)
F (x)
n de distribucio
n
2.2. Funcio
72
F (x)
1
Demostraci
on.
1. Sea x1 , x2 , . . . una sucesi
on de n
umeros reales positivos y decreciente
a cero. Sea An el evento (X a xn ). Entonces {An : n N} es una
sucesi
on de eventos decreciente al evento (X < a). Por la propiedad
de continuidad
P (X < a) = lm P (An ) = lm F (a xn ) = F (a).
n
73
2. Simplemente se escribe
P (X = a) = P (X a) P (X < a) = F (a) F (a).
3. 6. Estas igualdades se sigue directamente de las dos primeras.
F (x)
1
P (X = x) = F (x) F (x)
= P (a X b)
= P (a < X < b)
= P (a X < b).
Es decir, cuando F (x) es una funci
on continua, incluir o excluir los extremos
de un intervalo no afecta el valor de la probabilidad de dicho intervalo. Por
74
Demostraci
on. Sea D el conjunto de puntos de discontinuidad de una funci
on de distribuci
on F (x). Para cada n
umero natural n defina los subconjuntos
1
1
Dn = { x D :
< F (x) F (x) }.
n+1
n
Cada conjunto Dn tiene a lo sumo n elementos. Como D =
concluye que D es numerable.
2.3.
n=1 Dn ,
se
Las variables aleatorias se clasifican en varios tipos dependiendo de las caractersticas de la correspondiente funci
on de distribuci
on. Al menos existen
tres tipos: discretas, continuas, y mezclas de las dos anteriores. Veamos su
definici
on.
75
P (X = x) si x = x1 , x2 , . . .
0
otro caso.
(2.2)
La funci
on de distribucion se reconstruye de la forma siguiente
F (x) =
f (u).
ux
76
y distribuciones singulares.
n. (Variable aleatoria absolutamente continua). La
Definicio
variable aleatoria continua X con funci
on de distribuci
on F (x) se llama
absolutamente continua, si existe una funci
on no negativa e integrable
f tal que para cualquier valor de x se cumple
x
f (u) du.
F (x) =
(2.3)
77
f (x)
P (X (a, b)) =
f (x) dx
a
x
a
1 ex
0
si x > 0,
si x 0.
78
Como la funci
on FX (x) es continua, entonces la variable aleatoria X es
continua. Sea M > 0 una constante. Las gr
aficas de las funciones de distribuci
on de las variables X y la constante M (vista como variable aleatoria),
se muestran en la Figura 2.7.
FX (x)
FM (x)
x
M
0
FY (y) =
1 ey
si y 0,
si 0 < y < M,
si y M,
con gr
afica como en la Figura 2.8. Es claro que esta funci
on de distribuci
on
no es constante por pedazos pues es creciente en el intervalo (0, M ), por lo
tanto no es discreta, y tampoco es continua pues tiene una discontinuidad
en y = M . Por lo tanto Y es una variable aleatoria que no es discreta ni
continua.
79
FY (y)
y
M
Figura 2.8: Funcion de distribucion de la variable Y = mn{X, M }.
n. Toda funci
Proposicio
on de distribuci
on F (x) se puede escribir como
una combinaci
on lineal convexa de una funci
on de distribuci
on discreta
F d (x) y otra continua F c (x), es decir, admite la siguiente representaci
on
F (x) = F d (x) + (1 )F c (x),
en donde 0 1.
En todos los casos que consideraremos en este texto la distribuci
on continua
de esta descomposici
on ser
a absolutamente continua. En el caso general, esta distribuci
on continua puede a su vez escribirse como otra combinaci
on
lineal convexa entre una distribuci
on absolutamente continua y una distribuci
on continua singular. Esto lleva al resultado general de que cualquier
distribuci
on puede escribirse como una combinaci
on lineal convexa de los
tres tipos b
asicos de distribuciones.
Ejemplo. Considere nuevamente la funci
on de distribuci
on de la variable
Y = mn{X, M } analizada en el ejemplo anterior. Hemos visto que esta
distribuci
on no es discreta ni continua, sin embargo puede descomponerse
en la combinaci
on lineal convexa
FY (y) = eM F d (y) + (1 eM )F c (y),
en donde F d (y) es la distribuci
on discreta de la variable constante M , y
80
F c (y) es la distribuci
on continua
1 ey
FYc (y) =
M
1e
1
si y 0,
si 0 < y < M,
si y M.
b) iguales en distribuci
on, y se escribe X = Y , si sus correspondientes
funciones de distribuci
on coinciden, es decir, si FX (x) = FY (x)
para cada n
umero real x.
81
2.4.
Integral de Riemann-Stieltjes
En esta secci
on se define la integral de Riemann-Stieltjes. Esta es una integral de la forma
b
h(x) dF (x),
a
en donde las funciones h(x) y F (x) deben cumplir ciertas condiciones para que la integral tenga sentido y este bien definida. Esta integral es una
generalizaci
on de la integral usual de Riemann. Al integrando h(x) se le
pide inicialmente que sea una funci
on acotada en el intervalo (a, b], aunque despues se omitir
a esta condici
on. A la funci
on integradora F (x) se le
pide que sea continua por la derecha, mon
otona no decreciente y tal que
F () F () < M , para alg
un n
umero M > 0. Observe que F (x) debe
cumplir propiedades semejantes a las de una funci
on de distribuci
on, y de
hecho la notaci
on es la misma. Esto no es coincidencia pues usaremos las
funciones de distribuci
on como funciones integradoras.
Presentamos a continuaci
on la definici
on de la integral de Riemann-Stieltjes
bajo las condiciones arriba se
naladas. En [15] puede encontrarse una exposici
on m
as completa y rigurosa de esta integral. Sea {a = x0 < x1 < <
xn = b} una partici
on finita del intervalo (a, b], y defina
y
82
Sn =
i=1
n
Sn =
i=1
i ) [ F (xi ) F (xi1 ) ],
h(x
h(xi ) [ F (xi ) F (xi1 ) ].
h(x) dF (x),
a
Cuando la funci
on h(x) no es acotada
N
hN (x) =
h(x)
si h(x) > N.
Y entonces se define
h(x) dF (x) = lm
a
N a
hN (x) dF (x),
h(x) dF (x) = lm
a,b a
h(x) dF (x),
83
a)
h1 (x) dF (x) +
a
b)
h2 (x) dF (x).
a
c)
a
d)
h(x) dF (x) =
a
e)
h(x) dF (x) =
a
h(xi ) p(xi ).
i=1
84
f)
h(x) dF (x) =
a
h(x) dx.
a
En la siguiente secci
on usaremos las funciones de distribuci
on como funciones integradoras. Como toda funci
on de distribuci
on F (x) se puede descomponer en una suma convexa F d (x) + (1 )F c (x), en donde F d (x) es
discreta y F c (x) es continua, entonces
b
h(x) dF (x) =
a
h(x) dF d (x) + (1 )
h(x) dF c (x).
En algunos casos usaremos tambien la integral de Riemann-Stieltjes en varias dimensiones. Por ejemplo, sean h(x, y) y F (x, y) funciones de dos variables, sea {a = x0 < x1 < < xn = b} una partici
on de (a, b] y sea
{c = y0 < y1 < < ym = d} una partici
on de (c, d], entonces se define
b
h(x, y) dF (x, y) = lm
a
n,m
h(xi , yj ) F (xi , yj ),
i=1 j=1
2.5.
Caractersticas num
ericas
Se estudian a continuaci
on algunas caractersticas numericas asociadas a
variables aleatorias. En particular, se definen los conceptos de esperanza,
varianza y m
as generalmente los momentos de una variable aleatoria. Para
ello haremos uso de la integral de Riemann-Stieltjes mencionada antes.
85
Esperanza
La esperanza de una variable aleatoria es un n
umero que representa el promedio ponderado de sus posibles valores, se calcula como se indica a continuaci
on.
n. (Esperanza). Sea X con funci
Definicio
on de distribuci
on F (x).
La esperanza de X, denotada por E(X), se define como el n
umero
E(X) =
x dF (x),
86
x=1 xf (x)
x
x=1 x/2
= 2.
1
Entonces E(X) = xf (x) dx = 0 x 2x dx = 2/3.
1
,
x(x + 1)
b) f (x) = 1/x2 ,
para x = 1, 2, . . .
para x > 1.
x/4
F (x) =
2/4
1/4 + x/4
si
si
si
si
si
x < 0,
0 x < 1,
1 x < 2,
2 x < 3,
x 3.
87
F (x)
1
3/4
2/4
1/4
x
E(X) =
x dF (x)
=
0
1
2 1
3 2
dx + 1 ( ) + 2 ( ) +
4
4 4
4 4
x
2
1
dx.
4
Despues de algunos c
alculos se encuentra que la esperanza es 15/4. Observe
la forma mixta en la que esta integral es calculada: en las partes crecientes
se calcula como si fuera una distribuci
on continua, despues se a
naden los
puntos de discontinuidad ponderados por el tama
no del salto.
Con frecuencia surge el problema de calcular esperanzas de funciones de
variables aleatorias, es decir, si X es una variable aleatoria y g : R R
es una funci
on Borel medible, entonces g(X) es una variable aleatoria y el
problema es encontrar su esperanza. Usando directamente la definici
on, la
esperanza de g(X) se calcula del siguiente modo:
E[g(X)] =
x dFg(X) (x),
88
E[g(X)] =
La demostraci
on de este resultado en general no es sencilla y la omitiremos,
aunque un camino c
omodo que puede adoptarse es aceptar la f
ormula anterior como la definici
on de la esperanza de g(X). En particular, cuando la
funci
on g es la identidad, se recupera la definici
on b
asica de esperanza. Por
otro lado, cuando X es discreta, la demostraci
on del teorema resulta no ser
complicada.
Ejercicio. Sea X una variable aleatoria discreta con valores en el conjunto
on Borel medible tal que g(X) tiene
{x1 , x2 , . . .}, y sea g : R R una funci
esperanza finita. Demuestre que
E[g(X)] =
g(xi )P (X = xi ).
i=1
Se establecen a continuaci
on algunas propiedades de la esperanza.
89
90
Varianza
La varianza de una variable aleatoria es una medida del grado de dispersi
on
de los diferentes valores tomados por la variable, su definici
on es la siguiente.
n. (Varianza). La varianza de una variable aleatoria X, deDefinicio
notada por Var(X), se define como la siguiente esperanza, si esta existe,
Var(X) = E (X E(X))2 .
2
mbolo
(x ) f (x) dx. La varianza se denota regularmente por el s
2
(sigma cuadrada). A la raz cuadrada positiva de Var(X) se le llama
desviaci
on est
andar, y se le denota naturalmente por . Nuevamente hay
casos en los que la varianza no es finita, y en esa situaciones se dice que la
variable aleatoria no tiene varianza. Observe que para calcular la varianza
se necesita conocer primero la esperanza.
Ejercicio. Demuestre que la varianza de una variable aleatoria con la siguiente funci
on de densidad no existe.
f (x) =
2/x3 si x > 1,
0
otro caso.
91
Enunciamos a continuaci
on algunas propiedades de la varianza.
n. (Propiedades de la varianza). Sean X y Y con vaProposicio
rianza finita, y sea c una constante. Entonces
1. Var(X) 0.
2. Var(c) = 0.
3. Var(c X) = c2 Var(X).
4. Var(X + c) = Var(X).
5. Var(X) = E(X 2 ) E 2 (X).
6. En general, Var(X + Y ) = Var(X) + Var(Y ).
La demostraci
on de estas propiedades es sencilla pues todas ellas, excepto la
u
ltima, se siguen directamente de la definici
on y de la propiedad lineal de la
esperanza. Para la u
ltima propiedad puede tomarse Y = X, con Var(X) = 0,
y verificarse la no igualdad. Otras propiedades de la varianza aparecen m
as
adelante.
Ejercicio. Demuestre que Var(X) = E(X(X 1)) E(X)(E(X) 1).
Momentos
Los momentos de una variable aleatoria son n
umeros que representan algunas caractersticas de la distribuci
on de probabilidad asociada. Bajo ciertas
condiciones el conjunto de momentos determinan de manera u
nica a la distribuci
on de probabilidad.
92
93
Cuantiles
n. (Cuantil). Sea p un n
Definicio
umero real cualquiera en el intervalo
unitario (0, 1). Se le llama cuantil de orden p de una variable aleatoria X
o de su distribuci
on, a cualquier n
umero xp que cumpla las condiciones
P (X xp ) p,
P (X xp ) 1 p.
P (X m) 1/2,
P (X m) 1/2.
94
Moda
La moda es otra caracterstica numerica de las variables aleatorias, y se
define u
nicamente para distribuciones discretas o absolutamente continuas
de la siguiente forma.
n. (Moda). La moda de una variable aleatoria o de su disDefinicio
tribuci
on, discreta o absolutamente continua, es aquel punto donde la
funci
on de densidad tiene un m
aximo local.
Por ejemplo, si X es una variable aleatoria discreta con valores x1 < x2 <
x3 < , y con probabilidades respectivas p1 , p2 , p3 , . . ., entonces X tiene
una moda en el punto xk si pk1 pk pk+1 . Es evidente que pueden
existir varias modas para una misma variable aleatoria. Cuando la moda es
u
nica se dice que la distribuci
on es unimodal, y cuando hay varias modas se
dice que es multimodal.
2.6.
Distribuciones discretas
En esta secci
on se estudian algunas distribuciones discretas de probabilidad
de uso com
un. Estas distribuciones son ejemplos particulares de medidas
de probabilidad concentradas en un conjunto discreto de n
umeros reales.
Se presentan estos ejemplos sin hacer mayor enfasis en las aplicaciones de
los modelos. En el Apendice A, al final del libro, aparecen algunas otras
distribuciones de probabilidad.
n uniforme discreta. La variable X tiene una distribuci
Distribucio
on
uniforme sobre el conjunto {x1 , . . . , xn } si la probabilidad de que X tome
cualquiera de estos valores es 1/n. Esta distribuci
on surge en espacios de
probabilidad equiprobables, esto es, en situaciones en donde se tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir.
Los juegos de lotera justos son un ejemplo donde puede aplicarse esta dis-
95
tribuci
on. Se escribe X unif{x1 , . . . , xn }, y su funci
on de probabilidad
es
1/n
si x = x1 , . . . , xn ,
f (x) =
0
otro caso.
Por ejemplo, la funci
on de probabilidad uniforme sobre el conjunto {1, . . . , 5}
tiene gr
afica como en la Figura 2.10. Es f
acil ver que, en el caso general,
E(X) =
y
Var(X) =
1
n
1
n
xi ,
i=1
n
i=1
(xi E(X))2 .
f (x)
1/5
si x = 0,
1p
p
si x = 1,
f (x) =
0
otro caso,
96
cuya gr
afica es como en la Figura 2.11. Es sencillo verificar que E(X) = p,
y Var(X) = p(1 p). En particular, si A es un evento con probabilidad p,
entonces la funci
on indicadora 1A es una variable aleatoria con distribuci
on
Ber(p).
f (x)
0.7
0.3
x
0
px (1 p)nx
si x = 0, 1, . . . , n,
x
f (x) =
0
otro caso.
f (x)
97
f (x)
0.3
0.3
0.2
n = 10
p = 0.3
0.2
n = 10
p = 0.5
0.1
0.1
1 2 3 4 5 6 7 8 9 10
1 2 3 4 5 6 7 8 9 10
f (x) =
p(1 p)x
si x = 0, 1, . . .
otro caso.
f (x)
0.4
0.3
0.2
0.1
1 2 3 4 5 6 7 8 9 10
98
como el n
umero de ensayos, (y no el de fracasos), antes del primer exito. En
tal caso, la funci
on de probabilidad es f (x) = p(1 p)x1 , para x = 1, 2, . . ..
La media es entonces 1/p y la varianza es como antes.
n Poisson. La variable aleatoria discreta X tiene una distriDistribucio
buci
on Poisson con par
ametro > 0, y se escribe X Poisson() si su
funci
on de probabilidad es
x
e
x!
f (x) =
si x = 0, 1, . . .
otro caso.
Esta distribuci
on fue descubierta por Sime
on Denis Poisson en 1873 como
lmite de la distribuci
on binomial, al respecto vease el ejercicio 223. Puede
demostrarse que E(X) = , y Var(X) = . La gr
afica de la funci
on de
probabilidad Poisson se muestra en la Figura 2.14.
f (x)
0.3
0.2
0.1
r+x1
x
f (x) =
pr (1 p)x
99
si x = 0, 1 . . .
otro caso.
f (x)
0.06
0.04
0.02
x
10
15
20
25
30
100
f (x) =
K
x
N K
nx
N
n
si x = 0, 1, . . . , n,
otro caso.
La gr
afica de esta funci
on se muestra en la Figura 2.16. Es posible comprobar
que
K
,
N
K N K N n
Var(X) = n
.
N
N
N 1
E(X) = n
f (x)
0.4
0.3
N = 20
K=7
n=5
0.2
0.1
2.7.
Distribuciones continuas
Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias absolutamente continuas. Algunas otras distribuciones continuas que
surgen en la estadstica ser
an estudiadas en el Captulo 5.
101
1
ba
f (x) =
si x (a, b),
otro caso.
f (x)
1
ba
f (x) =
ex
si x > 0,
si x 0.
102
f (x)
n1
(x)
ex
(n)
f (x) =
si x > 0,
si x 0.
(n) =
tn1 et dt,
d) (1/2) = .
103
=5
f (x)
f (x)
=4
n=5
n=7
=3
n = 10
x
n=5
x
=3
0
otro caso.
En la Figura 2.20 se ilustra la forma de esta funci
on para varios valores
de los par
ametros. El termino B(a, b) se conoce como la funci
on beta, y se
104
B(a, b) =
0
Esta funci
on satisface las siguientes propiedades.
a) B(a, b) = B(b, a).
b) B(a, b) =
(a)(b)
.
(a + b)
f (x)
3
2
1
a=2
b=6
a=4
b=4
a=6
b=2
a=1
b=1
x
1
Figura 2.20: Funcion de densidad beta(a, b).
Por simetra se tiene que si X tiene distribuci
on beta(a, b), entonces 1 X
tiene distribuci
on beta(b, a). Para esta distribuci
on se tiene que
a
E(X) =
,
a+b
ab
y Var(X) =
.
(a + b + 1)(a + b)2
n normal. Esta es posiblemente la distribuci
Distribucio
on de probabilidad de mayor importancia. Se dice que la variable aleatoria continua X
tiene una distribuci
on normal o Gausiana si su funci
on de densidad es
1
2
2
f (x) =
e(x) /2 ,
2
2
105
f (x)
f (x)
f (x)
x
variando, 2 constante
x
constante, 2 variando
106
est
andar mediante la siguiente operaci
on llamada estandarizaci
on. La demostraci
on de este resultado es elemental y se deja como ejercicio.
n. X N(, 2 ) Z =
Proposicio
X
N(0, 1).
Com
unmente se usa la letra Z para denotar una variable aleatoria con distribuci
on normal est
andar. En particular la funci
on (x) denota la funci
on
de distribuci
on de una variable aleatoria normal est
andar, es decir,
x
(x) = P (Z x) =
1
2
eu /2 du.
2
(x)
(ln y )2
1
exp (
) si y > 0,
2 2
y 2 2
f (y) =
0
si y 0.
107
La gr
afica de esta funci
on de densidad se muestra en la Figura 2.24. Se
puede demostrar que
E(Y ) = exp( + 2 /2),
y
0.025
10
15
20
25
108
2.8.
2.8. Ejercicios
Ejercicios
Variables aleatorias
109
100. Sea c una constante y X una variable aleatoria. Demuestre directamente que las siguientes funciones tambien son variables aleatorias:
cX, X + c, m
ax{X, c}, mn{X, c}.
101. Demuestre directamente que la diferencia de dos variables aleatorias
es variable aleatoria.
102. Sea X una variable aleatoria cualquiera. Demuestre que la parte entera
de X, denotada por X, es una variable aleatoria discreta, es decir,
toma un n
umero numerable de valores.
103. Demuestre que el conjunto de variables aleatorias definidas sobre un
espacio de probabilidad es un espacio vectorial con las operaciones
usuales de suma y producto por escalares.
104. Sean X y Y variables aleatorias. Demuestre directamente que tanto
m
ax{X, Y } como mn{X, Y } son variables aleatorias.
105. Demuestre directamente que si X es variable aleatoria, entonces tambien lo son X n y 2X 3 5X.
106. Demuestre que X es variable aleatoria si, y s
olo si, tanto X + =
m
ax{0, X} como X = mn{0, X}, lo son.
107. Sea A . Demuestre que la funci
on indicadora 1A : R es
variable aleatoria si, y s
olo si, el conjunto A es medible. Vease el
apendice al final del texto para la definici
on y algunas propiedades de
la funci
on indicadora.
108. Sean A, B . Diga falso o verdadero. Demuestre en cada caso.
a) A, B medibles 1A + 1B es v.a.
110
2.8. Ejercicios
Una de estas implicaciones resulta falsa cuando se omite la condici
on
de que los n
umeros a y b son distintos. Cu
al de ellas es?
S2
111
Xi
es v.a.
i=1
1
=
n1
n
i=1
2
(Xi X)
es v.a.
118. Sea X una variable aleatoria, y sean a < b dos constantes. Demuestre
que las siguientes funciones son variables aleatorias.
a) Y =
X si X < a,
a si X a.
a si X < a,
b) Y =
X si a X b,
b si X > b.
c) Y =
X si |X| a,
0 si |X| > a,
suponiendo a > 0.
+1
1
signo(x) =
si x > 0,
si x < 0,
si x = 0.
112
2.8. Ejercicios
Funci
on de distribuci
on
124. Grafique y demuestre que las siguientes funciones son de distribuci
on.
a) F (x) =
1 ex
0
b) F (x) =
1 (1 + x)ex
0
si x > 0,
si x 0.
si x > 0,
si x 0.
si x < 1,
0
c) F (x) =
(x + 1)/2 si x [1, 1],
1
si x > 1.
1 ex
0
b) F (x) =
e1/x
0
si x > 0,
si x 0.
si x > 0,
si x 0.
113
c) F (x)G(x).
2 G(x)
d)
.
1 + F (x)
127. Sea X con funci
on de distribuci
on la especificada abajo. Grafique F (x)
y demuestre que es efectivamente una funci
on de distribuci
on. Calcule
adem
as P (X 4), P (X > 1), P (4 < X < 6) y P (X = 2).
F (x) =
0
si x < 2,
2
1 4/x si x 2.
0
si x < 0,
0.2 si 0 x < 1,
F (x) =
0.5 si 1 x < 3,
0.9 si 3 x < 4,
1
si x 4.
114
2.8. Ejercicios
a) [F (x)]n .
b) 1 [1 F (x)]n .
X si X < a,
a si X a.
a si X < a,
b) Y =
X si a X b,
b si X > b.
c) Y =
X si |X| a,
0 si |X| > a,
con
a > 0.
115
b) si X tiene funci
on de distribuci
on F (x), entonces Y = G1 (F (X))
tiene funci
on de distribuci
on G(x).
c) si F (x) G(x), entonces existen variables aleatorias X y Y cuyas
funciones de distribuci
on son F (x) y G(x) respectivamente, y son
tales que X Y . Sugerencia: Use el inciso anterior.
a) f (x) =
116
2.8. Ejercicios
a) f (x) = 2x, para x (0, 1).
0
1
0
b) F (x) =
x
si x < 0,
si x 0.
si x 0,
si 0 < x < 1,
si x 1.
c) F (x) = ex /(1 + ex ).
1 x |u|
e
du.
d) F (x) =
2
1
fX ((y b)/a).
|a|
117
Integral de Riemann-Stieltjes
145. Sea X una variable aleatoria con funci
on de distribuci
on F , y sea a
cualquier n
umero real. Demuestre que
F n (x) dF m (x) =
m
.
n+m
118
2.8. Ejercicios
Esperanza
148. Calcule la esperanza de X cuya funci
on de probabilidad o de densidad
es
a) f (x) = 1/5, para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x!, para x = 0, 1, 2, . . .
3
2 x2
para x Z \ {0}.
1
,
(1 + x2 )
para x R.
119
i=1
xP (X = x | A).
E(X | Ai )P (Ai ).
b) E(m
ax{X, Y }) m
ax{E(X), E(Y )} E(X).
a) lm
b) lm
E(X n ) = x1 .
120
2.8. Ejercicios
n=1
P (X n) =
P (X > n).
n=0
Use esta f
ormula para demostrar que
a) si X tiene distribuci
on geo(p), entonces E(X) = (1 p)/p.
b) si X tiene distribuci
on Poisson(), entonces E(X) = .
158. Sea X 0 con esperanza finita, y suponga que para alg
un p (0, 1),
se cumple la desigualdad P (X k) pk , para cada k = 0, 1, . . ..
Demuestre que E(X) 1/(1 p).
159. Sea X 0 con esperanza finita no necesariamente discreta. Para cada
n
umero natural n defina el evento An = (n 1 X < n). Demuestre
que
(n 1)1An X <
n=1
n1An .
n=1
n=1
P (X n) E(X) < 1 +
n=1
P (X n).
b)
lm x F (x) = 0.
E(X) =
0
[1 F (x)]dx
F (x)dx.
121
Gr
aficamente estas integrales pueden interpretarse como se indica en
la Figura 2.25.
F (x)
1 1
(1 F (x)) dx si y > 0,
y
G(y) =
0
si y 0.
F (x)dx =
[1 F (x)]dx.
122
2.8. Ejercicios
P (X = 0) = 1/8, P (X = 1) = 1/4 y P (X = 2) = 1/8. Puede usted
construir un ejemplo de una distribuci
on continua con esperanza cero,
que no sea simetrica?
3 2 1
123
Varianza
169. Calcule la varianza de X cuya funci
on de probabilidad o de densidad
es
a) f (x) = 1/5, para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x!, para x = 0, 1, 2, . . .
170. Sean X y Y con varianza finita y sea c una constante. Demuestre las
siguientes propiedades de la varianza.
a) Var(X) 0.
b) Var(cX) = c2 Var(X).
c) Var(X + c) = Var(X).
124
2.8. Ejercicios
125
F (x)
1
3/4
1/4
x
3 2 1
Var(Y )|
Var(X Y )
Var(X) +
Var(Y ).
Momentos
183. Calcule el n-esimo momento de una variable aleatoria cuya funci
on de
probabilidad o de densidad es
a) f (x) = 1/5, para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x!, para x = 0, 1, 2, . . .
184. Sea X con n-esimo momento finito. Demuestre que para cualquier
n
umero natural m n, se cumple E|X|m E|X|n . Este resultado
establece que si el n-esimo momento de una variable aleatoria es finito, entonces todos los momentos anteriores a n tambien son finitos.
Sugerencia: |X|m = |X|m 1(|X|1) + |X|m 1(|X|>1) .
185. Sea X con distribuci
on simetrica alrededor de x = 0, y con cuarto
momento finito. Demuestre que para cualquier n
umero real a,
E(X 4 ) E(X a)4 .
126
2.8. Ejercicios
xn1 (1 F (x)) dx + n
188. Sea X discreta con valores en el conjunto {0, 1, . . .}, y con segundo
momento finito. Demuestre que
E(X 2 ) =
n=1
E(X 2 ) = 2
xP (X > x) dx.
127
u(x)
u(a) + (x a)m
u(a)
b) E 2 (X) E(X 2 ).
c) m
ax{a, E(X)} E{m
ax{a, X}),
a constante.
128
2.8. Ejercicios
d)
1
E(1/X),
E(X)
suponiendo X > 0.
195. Demuestre que si X es una variable aleatoria acotada casi seguramente, es decir, existe k > 0 tal que P (|X| k) = 1, entonces todos los
momentos de X existen.
196. Sea X una variable aleatoria con funci
on de densidad dada por
f (x) =
n/xn+1
si x > 1,
otro caso.
1
2r1
si 0 < r 1,
si r > 1.
129
Cuantiles
200. Calcule los cuartiles de la distribuci
on normal est
andar.
201. Calcule los cuartiles de la distribuci
on exponencial de par
ametro .
n del error absoluto medio. A la funci
202. Minimizacio
on g(u) =
E |X u| se le conoce como error absoluto medio. Demuestre que si
m una mediana de X, entonces para cualquier n
umero real u,
E |X m| E |X u|.
Demuestre adem
as que la igualdad se cumple si, y s
olo si, u es cualquier
otra mediana de X.
203. Sea X una variable aleatoria con segundo momento finito y sea m una
de sus medianas. Demuestre que |m E(X)| 2 Var(X).
Distribuci
on uniforme discreta
204. Sea X con distribuci
on unif{1, . . . , n}. Demuestre que
a) E(X) = (n + 1)/2.
b) E(X 2 ) = (n + 1)(2n + 1)/6.
c) Var(X) = (n2 1)/12.
205. Se escogen al azar y de manera independiente dos n
umeros a y b
dentro del conjunto {1, . . . , n}. Demuestre que la probabilidad de que
el cociente a/b sea menor o igual a uno es (n + 1)/2n.
130
2.8. Ejercicios
Distribuci
on Bernoulli
206. Compruebe que la funci
on de probabilidad de la distribuci
on Ber(p)
efectivamente lo es. Obtenga adem
as la correspondiente funci
on de
distribuci
on. Grafique ambas funciones.
207. Sea X con distribuci
on Ber(p). Demuestre que E(X n ) = p, para cada
n 1. En particular, compruebe que Var(X) = p(1 p).
Distribuci
on binomial
208. Use el teorema del binomio para comprobar que la funci
on de probabilidad de la distribuci
on bin(n, p) efectivamente lo es.
209. Sea X con distribuci
on bin(n, p). Demuestre que
a) E(X) = np.
b) E(X 2 ) = np(1 p + np).
c) Var(X) = np(1 p).
a) P (X = x + 1) =
131
1
b) P (X {0, 2, 4, . . .}) = (1 + (1 2p)n ).
2
213. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de
que cada cara se obtenga exactamente 3 veces.
Distribuci
on geom
etrica
214. Compruebe que la funci
on de probabilidad de la distribuci
on geo(p)
efectivamente lo es. Demuestre que la correspondiente funci
on de distribuci
on es
F (x) =
1 (1 p)x+1
0
si x 0,
si x < 0.
La expresi
on x denota la parte entera de x.
215. Sea X con distribuci
on geo(p). Demuestre que
a) E(X) = (1 p)/p.
b) Var(X) = (1 p)/p2 .
216. Sea X con distribucion geo(p). Demuestre que P (X n) = (1 p)n .
Use este resultado y la f
ormula del ejercicio 157 para demostrar que
E(X) = (1 p)/p.
n geom
217. La distribucio
etrica no tiene memoria. Sea X con distribuci
on geo(p). Demuestre que para cualesquiera x, y = 0, 1, . . .
P (X x + y | X x) = P (X y).
Esta es la u
nica distribuci
on discreta con tal propiedad, compare con
el siguiente ejercicio.
218. Sea X una variable aleatoria discreta con valores en {0, 1, . . .} y tal
que para cualquier x, y = 0, 1, . . . se cumple la igualdad
P (X x + y | X x) = P (X y).
Demuestre que existe un n
umero p (0, 1) tal que X tiene distribuci
on
geo(p).
132
2.8. Ejercicios
Distribuci
on Poisson
219. Compruebe que la funci
on de probabilidad de la distribuci
on Poisson()
efectivamente lo es.
220. Sea X con distribuci
on Poisson(). Demuestre que
a) E(X) = .
b) E(X 2 ) = ( + 1).
c) Var(X) = .
d) E(X 3 ) = E(X + 1)2 .
221. Sea X con distribuci
on Poisson(). Demuestre que
P (X = x).
x+1
b) P (X = x 1) P (X = x + 1) P 2 (X = x).
a) P (X = x + 1) =
k
.
k!
133
Distribuci
on binomial negativa
224. Compruebe que la funci
on de probabilidad de la distribuci
on bin neg(r, p)
efectivamente lo es.
225. Sea X con distribuci
on bin neg(r, p). Demuestre que
a) E(X) = r(1 p)/p.
226. Convergencia de la dist. binomial negativa a la dist. Poisson. Sea X1 , X2 , . . . una sucesi
on de variables tal que cada una de
ellas tiene distribuci
on bin neg(n, p) con p = n/( + n) para alg
un
> 0. Demuestre que para cada k = 0, 1, . . .
lm P (Xn = k) = e
k
.
k!
Distribuci
on hipergeom
etrica
227. Compruebe que la funci
on de probabilidad de la distribuci
on hipergeometrica efectivamente lo es.
trica a la dist. bino228. Convergencia de la dist. hipergeome
mial. Sea X con distribuci
on hipergeo(N, K, n). Demuestre que cuando N y K tienden a infinito de tal forma que K/N p, entonces
lm
N,K
P (X = x) =
n
x
px (1 p)nx .
Distribuci
on uniforme continua
229. Compruebe que la funci
on de densidad de la distribuci
on unif(a, b)
efectivamente lo es. Calcule adem
as la correspondiente funci
on de distribuci
on. Grafique ambas funciones.
134
2.8. Ejercicios
1/n + 1
si n es par,
si n es impar.
Distribuci
on exponencial
236. Compruebe que la funci
on de densidad de la distribuci
on exp() efectivamente lo es. Demuestre que la correspondiente funci
on de distribuci
on es
1 ex
si x > 0,
F (x) =
0
si x 0.
Demuestre adem
as que para cualquier x, y > 0,
135
136
2.8. Ejercicios
Distribuci
on gama
244. Compruebe que la funci
on de densidad de la distribuci
on gama(n, )
efectivamente lo es. Verifique adem
as que esta distribucion se reduce
a la distribuci
on exp() cuando n = 1.
245. Sea a > 0. Demuestre que si X se distribuye gama(n, ), entonces aX
se distribuye gama(n, /a).
246. Sea X con distribuci
on gama(n, ). Demuestre que la funci
on de distribuci
on de X es
n1
(x)k
1
ex
si x > 0,
F (x) =
k!
k=0
0
si x 0.
247. Sea X con distribuci
on gama(n, ). Demuestre que
a) E(X) = n/.
(m + n)
b) E(X m ) = m
, para m = 0, 1, . . .
(n)
c) Var(X) = n/2 .
248. Recuerde que la funci
on gama se define para cada valor de n tal que
la siguiente integral es convergente
(n) =
tn1 et dt.
d) (1/2) = .
1 3 5 (2n 1)
e) (n + 1/2) =
2n
para n entero.
137
Distribuci
on beta
249. Compruebe que la funci
on de densidad de la distribuci
on beta(a, b)
efectivamente lo es. Verifique adem
as que esta distribucion se reduce
a la distribuci
on unif(0, 1) cuando a = b = 1.
250. Sea X con distribuci
on beta(a, b). Demuestre que
a
.
a+b
B(a + n, b)
b) E(X n ) =
.
B(a, b)
ab
c) Var(X) =
.
(a + b + 1)(a + b)2
a) E(X) =
a) a = E(X) [
B(a, b) =
0
a
B(a, b + 1).
b
138
2.8. Ejercicios
a
B(a, b).
a+b
b
B(a, b).
g) B(a, b + 1) =
a+b
h) B(1/2, 1/2) = .
f ) B(a + 1, b) =
0
F (x) =
xa
si x 0,
0
F (x) =
1 (1 x)b si 0 < x < 1,
1
si x 1.
Distribuci
on normal
257. Demuestre que la funci
on de densidad de la distribuci
on N(, 2 )
a) es efectivamente una funci
on de densidad.
b) es simetrica respecto de x = .
c) alcanza su m
aximo en x = .
139
1 3 5 (n 1) n
0
si n es par,
si n es impar.
n!
si n es par,
n
n/2
E(X ) =
2 (n/2)!
0
si n es impar.
distribuci
on, 2 (1) entonces Y tiene distribuci
on N(0, 1)?
265. Encuentre la funci
on de densidad de la variable aleatoria |X|, cuando
X tiene distribuci
on normal est
andar.
140
2.8. Ejercicios
para x > 0.
Distribuci
on log normal
267. Demuestre que la funci
on de densidad de una distribuci
on log normal(, 2 )
efectivamente lo es.
268. Sea X con distribuci
on log normal(, 2 ). Demuestre que
a) E(X) = exp( + 2 /2).
b) Var(X) = exp(2 + 2 2 ) exp(2 + 2 ).
c) E(ln X) = .
d) Var(ln X) = 2 .
Captulo 3
Vectores aleatorios
3.1.
Vectores aleatorios
Recuerde que hemos supuesto que se tiene siempre como elemento base un
espacio de probabilidad (, F , P ).
n. (Vector aleatorio). Un vector aleatorio es una funci
Definicio
on
X : Rn tal que para cualquier conjunto B en B(Rn ), se cumple
que la imagen inversa X 1 B es un elemento de F .
Dado entonces que un vector aleatorio es una funci
on de en Rn , este
puede representar de la forma X = (X1 , . . . , Xn ) en donde cada coordenada
es una funci
on de en R. Demostraremos a continuaci
on que la condici
on
que aparece en la definici
on anterior es equivalente a solicitar que cada
141
142
(X1 , . . . , Xn )
Rn
Demostraci
on. Sea (X1 , . . . , Xn ) un vector aleatorio. La imagen inversa de
cualquier conjunto de Borel de Rn es entonces un elemento de la -
algebra del espacio de probabilidad. En particular, la imagen inversa del conjunto B R R pertenece a F , para cualquier Boreliano B de R.
Pero esta imagen inversa es simplemente X11 B. Esto demuestra que X1
es variable aleatoria. De manera an
aloga se procede con las otras coordenadas del vector. Suponga ahora que cada coordenada de una funci
on
(X1 , . . . , Xn ) : Rn es una variable aleatoria. Considere la colecci
on
B = {B B(Rn ) : (X1 , . . . , Xn )1 B F }. Como cada coordenada es una
variable aleatoria, los conjuntos de Borel de Rn de la forma B1 Bn ,
en donde cada factor de este producto es un Boreliano de R, es un elemento
143
de la colecci
on B. Entonces
B(R) B(R) B B(Rn ).
Es f
acil demostrar que la colecci
on B es una -
algebra. Asi que
(B(R) B(R)) B B(Rn ).
Pero ambos extremos de esta ecuaci
on coinciden, de modo que B = B(Rn ),
y por lo tanto la funci
on (X1 , . . . , Xn ) es un vector aleatorio.
Para simplificar la escritura, donde sea posible se usan u
nicamente vectores aleatorios bidimensionales, esto es, de la forma (X, Y ). En la mayora
de los casos, las definiciones y resultados son f
acilmente extendidos a dimensiones mayores. Por ejemplo, el siguiente resultado es an
alogo al caso
unidimensional y puede extenderse al caso de n dimensiones: un vector aleatorio (X, Y ) : R2 genera el espacio de probabilidad (R2 , B(R2 ), PX,Y ),
en donde B(R2 ) es la -
algebra de conjuntos de Borel de R2 , y PX,Y es
una medida de probabilidad definida sobre esta -
algebra, e inducida por el
vector aleatorio de la siguiente forma. Para cualquier B en B(R2 ),
PX,Y (B) = P ((X, Y )1 B).
Nuestro objetivo es estudiar estas nuevas medidas de probabilidad, o equivalentemente, los vectores aleatorios que las generan. En la mayora de los
casos, aunque no u
nicamente, consideraremos vectores aleatorios como los
que se definen a continuacion.
n. (Vector discreto y continuo). Se dice que el vector
Definicio
(X, Y ) es discreto si cada coordenada es una variable aleatoria discreta,
y se dice que es continuo en caso de que cada coordenada lo sea.
144
3.2.
n conjunta
3.2. Distribucio
Distribuci
on conjunta
El n
umero F (x, y) es entonces la probabilidad de que el vector aleatorio
tome alg
un valor en la rect
angulo infinito (, x] (, y], el cual se
muestra en la Figura 3.2. En palabras, la funci
on F (x, y) es la probabilidad
de que X sea menor o igual a x, y al mismo tiempo Y sea menor o igual a
y, esto es simplemente la probabilidad del evento (X x) (Y y).
(x, y)
145
de cualquier dimensi
on finita se le llama distribuci
on multivariada. Naturalmente, en el caso unidimensional, la distribuci
on se llama univariada.
Cuando sea necesario especificarlo se escribe FX,Y (x, y) en lugar de F (x, y),
y es evidente la forma de extender la definici
on para el caso de vectores
aleatorios de m
as de dos coordenadas. Con el fin de mantener la notaci
on
simple, en la medida de lo posible se mantiene la correspondencia de las
letras, es decir, x es un valor asociado a X, y y es un valor asociado a Y .
Las funciones de distribuci
on conjunta satisfacen propiedades semejantes al
caso unidimensional, se estudian a continuaci
on algunas de ellas.
n. Toda funci
Proposicio
on de distribuci
on conjunta F (x, y) satisface
las siguientes propiedades.
1.
2.
x,y
lm
x,y
F (x, y) = 0,
La demostraci
on de las propiedades (1) a (4) es completamente an
aloga al
caso unidimensional y por tanto la omitiremos. Respecto a la propiedad
(5) observe que la expresi
on F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 )
corresponde a la probabilidad del evento (a1 < X b1 , a2 < Y b2 ). De
modo que (5) se traduce simplemente en solicitar que la probabilidad de
que el vector (X, Y ) tome valores en el rect
angulo (a1 , b1 ] (a2 , b2 ], sea no
negativa. Este rect
angulo se muestra en la Figura 3.3.
146
n conjunta
3.2. Distribucio
b2
a2
a1
b1
F (x, y) =
(1 ex )(1 ey ) si x, y > 0,
otro caso.
A diferencia del caso unidimensional, las propiedades (1) a (4) no son suficientes para asegurar que una funci
on F (x, y) asigna probabilidad no negativa a cualquier rect
angulo. El siguiente ejercicio muestra un ejemplo de
esta situaci
on. Vease tambien el ejercicio 272.
Ejercicio. Grafique y demuestre que la funci
on que aparece abajo no es de
distribuci
on. Este es un ejemplo de una funci
on que tiene el comportamiento
lmite adecuado en infinito, es continua por la derecha y no decreciente
en cada variable, pero no es funci
on de distribuci
on pues asigna valores
negativos a algunas regiones del plano. Por ejemplo calcule la probabilidad
del cuadrado (1, 1] (1, 1].
F (x, y) =
0 si x + y < 0,
1 si x + y 0.
147
n. (Funcio
n de distribucio
n conjunta). Una funci
Definicio
on
2
cualquiera F (x, y) : R [0, 1], no necesariamente definida en terminos
de un vector aleatorio, es una funci
on de distribuci
on conjunta si cumple
con las cinco propiedades enunciadas en la proposici
on anterior.
M
as adelante se mostrar
an otros ejemplos concretos de funciones de distribuci
on conjunta.
Para tres dimensiones se tiene la siguiente definici
on. Se dice que la funci
on
3
F : R [0, 1] es una funci
on de distribuci
on si cumple las primeras cuatro
propiedades anteriores y la quinta propiedad se reemplaza por la siguiente
condici
on: Para cualesquiera n
umeros reales a1 < b1 , a2 < b2 , y a3 < b3 ,
F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 )
n conjunta
3.2. Distribucio
148
z
b3
a3
a2
a1
b2
b1
x
Figura 3.4: Region (a1 , b1 ] (a2 , b2 ] (a3 , b3 ].
n. (Funcio
n de distribucio
n conjunta). Una funci
Definicio
on
F : Rn [0, 1] es una funci
on de distribuci
on si cumple las primeras cuatro propiedades anteriores y, adicionalmente, para cualesquiera
n
umeros reales a1 < b1 , a2 < b2 , . . ., an < bn ,
xi {ai ,bi }
(1)#a F (x1 , . . . , xn ) 0,
en donde #a es el n
umero de veces que alguna de las variables xi toma
el valor ai en la evaluaci
on de la funci
on F .
Nuevamente la suma que aparece en esta definici
on corresponde a la probabilidad del evento (a1 < X1 b1 , . . . , an < Xn bn ), y la condici
on
requiere simplemente que este n
umero sea no negativo.
Finalmente enunciamos un resultado que establece la importancia de la funci
on de distribuci
on, y cuya demostraci
on puede ser encontrada por ejemplo
en [19]. La prueba no es sencilla pero es an
aloga al caso unidimensional.
149
3.3.
Densidad conjunta
f (x, y) = 1.
x,y
150
trictamente positiva u
nicamente en un subconjunto discreto de R2 y que
sume uno, se llama funci
on de probabilidad conjunta. La definici
on de funci
on de probabilidad en el caso discreto multidimensional es evidente. Es
claro tambien que la correspondiente funci
on de distribuci
on se puede calcular a partir de la funci
on de probabilidad de la siguiente forma:
F (x, y) = P (X x, Y y) =
f (u, v).
ux vy
Ejemplo. La funci
on f (x, y) = 1/4, para x, y = 1, 2, es una funci
on de
probabilidad conjunta pues es no negativa y suma uno, corresponde a la
distribuci
on uniforme sobre el conjunto {1, 2} {1, 2}. La gr
afica se muestra
en la Figura 3.5.
f (x, y)
1/4
1
2
x
Figura 3.5: Funcion de probabilidad f (x, y) = 1/4, para x, y = 1, 2.
La correspondiente funci
on de distribuci
on
1/4
F (x, y) =
f (u, v) =
2/4
ux vy
2/4
1
cuya gr
afica se encuentra en la Figura 3.6.
es
si
si
si
si
si
x<1
o y < 1,
1 x < 2, 1 y < 2,
1 x < 2, y 2,
x 2, 1 y < 2,
x 2 y y 2,
151
F (x, y)
2
1
1
Ejemplo. La funci
on definida por f (x, y) = (1/2)x+y para x, y N, e
identicamente cero fuera de este conjunto discreto, es una funci
on de probabilidad bivariada pues es no negativa y suma uno. En efecto,
x,y=1
f (x, y) =
x,y=1
1
2x+y
=(
1 2
) = 1.
2x
x=1
152
n. (Funcio
n de densidad conjunta). Sea (X, Y ) un vecDefinicio
tor continuo con funci
on de distribuci
on F (x, y). Se dice que (X, Y ) es
absolutamente continuo si existe una funci
on no negativa e integrable
f (x, y) : R2 [0, ), tal que, para todo (x, y) en R2 , se cumple la
igualdad
x
F (x, y) =
f (u, v) dv du.
on de
A la funci
on f (x, y) se le denota por fX,Y (x, y), y se le llama funci
densidad conjunta de X y Y .
As como en el caso unidimensional, no existe realmente unicidad para la
funci
on de densidad pues basta modificarla en algunos puntos para ser distinta pero seguir cumpliendo la igualdad anterior, sin embargo la funci
on
de distribuci
on y por tanto las probabilidades, permanecen sin cambio alguno. Es claro que la funci
on de densidad conjunta f (x, y) de un vector
absolutamente continuo cumple las siguientes propiedades.
a) f (x, y) 0.
b)
f (x, y) dx dy = 1.
153
f (x, y)
P (a X b, c Y d) =
f (x, y) dy dx
a
x
Figura 3.7: La probabilidad como el volumen bajo una superficie.
Ejemplo. La funci
on f : R2 [0, ) dada por la siguiente expresi
on es
una funci
on de densidad pues es no negativa e integra uno.
f (x, y) =
1/4
si x, y [0, 2],
otro caso.
Esta funci
on de densidad conjunta corresponde a la distribuci
on uniforme
del vector (X, Y ) en el cuadrado [0, 2] [0, 2]. La gr
afica se muestra en la
Figura 3.8.
Para calcular la correspondiente funci
on de distribuci
on F (x, y) se debe
calcular la doble integral para los distintos valores de x y y. Esta doble
integral toma distintas expresiones en cada una de las cinco regiones que
aparecen en la parte izquierda de la Figura 3.9. Despues de algunos c
alculos
elementales se encuentra que la funci
on de distribuci
on conjunta tiene la
154
f (x, y)
1/4
2
x
Figura 3.8: Funcion de densidad f (x, y) = 1/4, para x, y [0, 2].
siguiente expresi
on cuya gr
afica aparece en la parte derecha de la Figura 3.9.
x
f (u, v)dvdu
F (x, y) =
xy/4
x/2
=
y/2
si x < 0
o y < 0,
si 0 x, y < 2,
si 0 x < 2, y 2,
si 0 y < 2, x 2,
si x 2 y y 2.
F (x, y)
x/2
xy/4
y/2
2
2
x
2
0
155
4xy
si x, y = 1, . . . , n,
2
n (n + 1)2
f (x, y) =
0
otro caso.
Ejercicio. Demuestre que la siguiente funci
on es de densidad. Encuentre la
correspondiente funci
on de distribuci
on y grafique ambas funciones. Calcule
adem
as P (1/3 < X < 1, 0 < Y < 1/2), P (Y > X) y P (X > 1/2).
f (x, y) =
x+y
si 0 < x, y < 1,
otro caso.
3(x2 + y 2 )/16
otro caso.
156
3.4.
n marginal
3.4. Distribucio
Distribuci
on marginal
Dada la funci
on de distribuci
on F (x, y) de un vector aleatorio (X, Y ), es
posible obtener la funci
on de distribuci
on de cada variable aleatoria por
separado mediante el siguiente procedimiento.
n. (Funcio
n de distribucio
n marginal). Sea (X, Y ) un
Definicio
vector con funci
on de distribuci
on F (x, y). A la funci
on
F (x) = lm F (x, y)
y
157
de distribuci
on conjunta
xy/4
FX,Y (x, y) =
x/2
y/2
si x < 0
o y < 0,
si 0 x, y < 2,
si 0 x < 2, y 2,
si 0 y < 2, x 2,
si x 2 y y 2.
Esta funci
on esta definida de manera distinta en cada una de las cinco regiones disjuntas y exhaustivas del plano Cartesiano dadas por las condiciones
anteriores. Para encontrar, por ejemplo, la funci
on de distribuci
on marginal
FX (x) simplemente tenemos que hacer la variable y tender a infinito en las
regiones donde ello sea posible. Ello puede hacerse en las regiones dadas por
las condiciones del primer, tercer y quinto rengl
on de la lista anterior. Esto
da como resultado
0
si x < 0,
x/2 si 0 x < 2,
FX (x) =
1
si x 2.
2
3
3x y/5 + 2xy /5
3x2 /5 + 2x/5
F (x, y) =
3y/5 + 2y 3 /5
distribuci
on marginales del vector
si x < 0
o y < 0,
si 0 x < 1 y 0 y < 1,
si 0 x < 1 y y 1,
si x 1 y 0 y < 1,
si x 1 y y 1.
Para el caso de funciones de densidad conjunta, se pueden obtener las funciones de densidad individuales como indica la siguiente definici
on.
n marginal
3.4. Distribucio
158
n. (Funcio
n de densidad marginal). Sea (X, Y ) un vector
Definicio
absolutamente continuo con funci
on de densidad f (x, y). A la funci
on
f (x) =
f (x, y) dy
f (x, y) dx.
3(x2 + y 2 )/16
otro caso.
159
1/2 si x = 0, 1,
0
otro caso.
0
a
b
1
b
a
160
3.5.
n condicional
3.5. Distribucio
Distribuci
on condicional
La siguiente definici
on es una extensi
on del concepto elemental de probabilidad condicional de eventos.
n. (Funcio
n de densidad condicional). Sea (X, Y ) un
Definicio
vector con funci
on de densidad fX,Y (x, y), y sea y tal que fY (y) = 0. A
la funci
on
fX,Y (x, y)
x fX|Y (x|y) =
fY (y)
se le conoce como la funci
on de densidad condicional de X dado que Y
toma el valor y.
No es difcil comprobar que esta funci
on es efectivamente una funci
on de
densidad, tanto en el caso discreto como en el continuo. Observe que el valor
y permanece fijo y la funcion es vista como una funci
on de la variable real
x, esto puede observarse en el siguiente ejemplo.
Ejemplo. Considere la funci
on de densidad conjunta
fX,Y (x, y) =
Es sencillo comprobar que para cualquier valor fijo de y en el intervalo (0, 1),
la funci
on de densidad condicional de X dado Y es la que aparece m
as abajo.
Es tambien inmediato verificar que esta funci
on, vista como funci
on de x, es
de densidad. El valor de y puede entonces considerarse como un par
ametro
de esta nueva distribuci
on.
fX|Y (x|y) =
An
alogamente puede comprobarse que para cualquier x en (0, 1) fijo,
fY |X (y|x) =
161
3(x2 + y 2 )/16
otro caso.
x FX|Y (x|y) =
fX|Y (u|y) du
fX|Y (x|y) =
F
(x|y).
x X|Y
Ejemplo. Considere nuevamente la funci
on de densidad conjunta del ejemplo anterior, fX,Y (x, y) = 24x(1 y), para 0 < x < y < 1. Para y fijo en el
162
n condicional
3.5. Distribucio
si x 0,
0
FX|Y (x|y) =
fX|Y (u|y) du =
x2 /y 2 si 0 < x < y,
1
si x y.
x
x dFX|Y (x|y).
n=0
E(X | Y = n) P (Y = n).
3.6.
163
Independencia
(3.1)
(3.2)
Demostraci
on. Si X y Y son independientes, entonces tomando A = (, x]
y B = (, y] en (3.1) se obtiene (3.2). Suponga ahora que se cumple (3.2)
164
3.6. Independencia
(3.3)
f (x, y)dy =
4xydy = 2x.
0
165
f (x, y)
4
x
Figura 3.10: Funcion de densidad f (x, y) = 4xy, para 0 x, y 1.
An
alogamente fY (y) = 2y para 0 y 1. En consecuencia, X y Y son independientes pues para cada par (x, y), se cumple fX,Y (x, y) = fX (x) fY (y).
Ejercicio. Determine si las variables aleatorias continuas X y Y son independientes cuando su funci
on de densidad conjunta es
fX,Y (x, y) =
3(x2 + y 2 )/32
si 0 < x, y < 2,
otro caso.
166
3.6. Independencia
167
Demostraci
on. Sean A y B cualesquiera dos conjuntos de Borel de R. Entonces
P ( g(X) A, h(Y ) B ) = P ( X g1 (A), Y h1 (B) )
= P ( X g1 (A) ) P ( Y h1 (B) )
= P ( g(X) A ) P ( h(Y ) B ).
168
3.7.
n de un vector aleatorio
3.7. Esperanza de una funcio
E[(X, Y )] =
x dF(X,Y ) (x),
(3.5)
169
(x, y) P (X = x, Y = y),
x,y
(xi , yj ) P (X = xi , Y = yj ).
i=1 j=1
170
n de un vector aleatorio
3.7. Esperanza de una funcio
Demostraci
on. Sean (x, y) = x + y, 1 (x, y) = x, y 2 (x, y) = y. Entonces
E(X + Y ) = E((X, Y ))
=
R2
(x + y) dFX,Y (x, y)
=
R2
x dFX,Y (x, y) +
R2
y dFX,Y (x, y)
Demostraci
on.
E[g(X) h(Y )] =
R2
=
R2
171
1
1/5
0
1/5
0
0
1/5
0
1
1/5
0
1/5
3.8.
Covarianza
En esta secci
on se define y estudia la covarianza entre dos variables aleatorias. Una interpretaci
on de este n
umero, ligeramente modificado, ser
a dada
en la siguiente secci
on.
n. (Covarianza). La covarianza de X y Y , denotada por
Definicio
Cov(X, Y ), es el n
umero
Cov(X, Y ) = E [(X E(X))(Y E(Y ))] .
172
3.8. Covarianza
Demostraci
on.
1. Por la propiedad de linealidad de la esperanza,
Cov(X, Y ) = E [(X E(X))(Y E(Y ))]
= E(XY ) E(X)E(Y ).
1/8
fX,Y (x, y) =
1/2
0
Entonces X y Y
1/4
fX (x) =
1/2
173
si x {1, 1},
1/4 si y {1, 1},
si x = 0,
fY (y) =
1/2 si y = 0,
otro caso.
0
otro caso.
3.9.
Coeficiente de correlaci
on
El coeficiente de correlaci
on de dos variables aleatorias es un n
umero real
que mide el grado de dependencia lineal que existe entre ellas. Su definici
on
es la siguiente.
174
n
3.9. Coeficiente de correlacio
n. (Coeficiente de correlacio
n). El coeficiente de coDefinicio
rrelaci
on de las variables aleatorias X y Y , denotado por (X, Y ), es el
n
umero
Cov(X, Y )
(X, Y ) =
.
Var(X) Var(Y )
La interpretaci
on dada al coeficiente de correlaci
on se justifica a partir de
los siguientes resultados.
n. El coeficiente de correlaci
Proposicio
on satisface las siguientes propiedades.
1. Si X y Y son independientes, entonces (X, Y ) = 0.
2. 1 (X, Y ) 1.
3. |(X, Y )| = 1 si, y s
olo si, existen constantes a y b tales que, con
probabilidad uno, Y = aX + b, con a > 0 si (X, Y ) = 1, y a < 0
si (X, Y ) = 1.
175
Demostraci
on.
1. Si X y Y son independientes, entonces Cov(X, Y ) = 0, y por lo tanto
(X, Y ) = 0.
2. Suponga primero que X y Y son tales que E(X) = E(Y ) = 0, y
Var(X) = Var(Y ) = 1. Para cualquier valor de ,
0 Var(X + Y )
= E(X + Y )2 E 2 (X + Y )
= 1 + 2E(XY ) + 2 .
X X Y Y
) 1.
X
Y
Cov(X, aX + b)
a
=
.
|a|
Var(X)Var(aX + b)
n
3.9. Coeficiente de correlacio
176
entonces
Var(U V ) = E(U V )2 E 2 (U V )
= E(U V )2
= 2(1 E(U V ))
= 0.
= 2(1 + E(U V ))
= 0.
Esto significa nuevamente que con probabilidad uno, la variable U + V
es constante. Esto es, para alguna constante c, con probabilidad uno,
U + V = c. Nuevamente la constante c es cero pues E(U + V ) = 0.
Por lo tanto,
X X
Y Y
=
,
Y
Y
de donde se obtiene Y = Y (X X )Y /X . Esto establece una
relaci
on lineal, ahora inversa, entre X y Y . Uniendo los u
ltimos dos
resultados se obtiene que, cuando |(X, Y )| = 1, con probabilidad uno,
Y = [ (X, Y )
Y
Y
] X + [ Y (X, Y ) X
].
X
X
177
Demostraci
on. Como veremos m
as adelante, la funci
on de densidad normal
n
3.9. Coeficiente de correlacio
178
bivariada est
a dada por la siguiente expresi
on:
1
f (x, y) =
21 2 1 2
1
x 1 y 2
y 2 2
x 1 2
exp
(
) 2(
)(
)+(
)
2
2(1 )
1
1
2
2
f (y) =
1
212
1
222
exp[(x 1 )2 /212 ]
exp[(y 2 )2 /222 ],
179
n
Propiedades del coeficiente de correlacio
3.10.
Var(X1 )
Cov(X1 , X2 ) Cov(X1 , Xn )
Cov(X2 , X1 )
Var(X2 )
Cov(X2 , Xn )
Var(X) =
.
..
..
..
.
.
.
Cov(Xn , X1 ) Cov(Xn , X2 )
Var(Xn )
nn
180
Demostraci
on. La simetra se sigue de la igualdad Cov(Xi , Xj ) = Cov(Xj , Xi ).
La propiedad de ser positiva definida se obtiene usando la bilinealidad de la
covarianza,
n
Var(X),
Cov(Xi , Xj )i j
=
i,j=1
n
Cov(i Xi , j Xj )
i,j=1
n
i Xi ,
= Cov(
i=1
n
= Var(
i=1
j Xj )
j=1
i Xi ) 0.
181
(X1 , X1 ) (X1 , Xn )
..
..
(X) =
.
.
(Xn , X1 )
(Xn , Xn )
nn
3.11.
En esta secci
on se estudian algunas distribuciones discretas de vectores aleatorios. Estas distribuciones son ejemplos particulares de medidas de probabilidad sobre Rn , para alg
un valor natural de n.
n multinomial. Suponga que se tiene un experimento aleatoDistribucio
rio con k posibles resultados distintos. Las probabilidades para cada uno de
estos resultados son respectivamente p1 , . . . , pk , en donde p1 + + pk = 1.
Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior, y defina las variables aleatorias discretas X1 , . . . , Xk ,
como aquellas que registran el n
umero de veces que se obtienen cada uno
de los k posibles resultados en los n ensayos. Observe que la u
ltima variable
Xk est
a determinada por las anteriores pues Xk = n X1 Xk1 .
on
Entonces se dice que el vector X = (X1 , . . . , Xk1 ) tiene una distribuci
multinomial(n, p1 , . . . , pk1 ), y su funci
on de densidad es
f (x1 , . . . , xk1 ) =
n
x1 xk
0
px1 1 pxk k
si x1 , . . . , xk = 0, 1, . . . , n
con x1 + + xk = n,
otro caso.
182
Los par
ametros de esta distribuci
on son entonces el n
umero de ensayos n,
y las k 1 probabilidades p1 , . . . , pk1 . El factor que aparece en parentesis
en la funci
on de densidad conjunta se conoce como coeficiente multinomial
y se define como sigue
n
x1 xk
n!
.
x1 ! xk !
n!
px1 px2 (1 p1 p2 )nx1 x2
x1 ! x2 ! (n x1 x2 )! 1 2
[Var(X)]ij
npi (1 pi )
npi pj
si i = j,
si i = j.
183
multivariada y su funci
on de densidad es
f (x1 , . . . , xk ) =
N1
x1
N
n
Nk
xk
en donde cada variable xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a la condici
on xi Ni , y en donde adem
as debe cumplirse que
x1 + + xk = n. Se dice entonces que el vector (X1 , . . . , Xk ) tiene distribuci
on hipergeometrica multivariada (N, N1 , . . . , Nk , n). Observe que cuando
u
nicamente hay dos tipos de objetos, es decir k = 2, la distribuci
on hipergeometrica multivariada se reduce a la distribuci
on hipergeometrica univariada. En la secci
on de ejercicios aparecen expresiones para la esperanza y
varianza de esta distribuci
on.
3.12.
a)(d
c)
f (x, y) =
0
otro caso.
(b a)2 /12
0
0
(d c)2 /12
184
f (x, y) =
21 2 1 2
1
x 1 2
x 1 y 2
y 2 2
exp
(
) 2(
)(
)+(
)
2(1 2 )
2
1
2
2
185
a) X tiene distribuci
on marginal N(1 , 12 ).
b) Y tiene distribuci
on marginal N(2 , 22 ).
c) (X, Y ) = .
d) X y Y son independientes si, y s
olo si, = 0.
e) E(X, Y ) = (1 , 2 ).
f) Var(X, Y ) =
12
1 2
1 2
22
Es interesante observar que existen distribuciones bivariadas con densidades marginales normales, pero cuya distribuci
on conjunta no lo es. En el
ejercicio 398 en la p
agina 211 se presenta un ejemplo al respecto.
n normal multivariada. Se dice que el vector (X1 , . . . , Xn )
Distribucio
tiene una distribuci
on normal multivariada si su funci
on de densidad es
f (x) =
(2)n/2
1
exp [ (x )1 (x )t ],
2
det
umeros
en donde x = (x1 , . . . , xn ) y = (1 , . . . , n ) son dos vectores de n
reales, es una matriz de dimensi
on nn positiva definida, es decir, xxt
0 para cualquier vector x = (x1 , . . . , xn ) de Rn , y 1 es la matriz inversa
de . Como es usual, xt denota el vector transpuesto del vector rengl
on
x. Cuando n = 1 o n = 2, con adecuada, se obtienen las distribuciones
normal univariada y bivariada mencionadas antes.
186
3.13. Ejercicios
3.13.
Ejercicios
Vectores aleatorios
269. Sea (, F , P ) un espacio de probabilidad y sea (X1 , . . . , Xn ) :
Rn una funci
on tal que cada coordenada es una variable aleatoria.
Demuestre que la siguiente colecci
on es una sub -
algebra de B(Rn ).
{B B(Rn ) : (X1 , . . . , Xn )1 B F }.
Distribuci
on conjunta
270. Grafique y demuestre que las siguientes funciones son de distribuci
on.
1
1
a) F (x, y) = (1 ex )( + tan1 y), para x > 0, y R.
2
b) F (x, y) = 1 ex ey + exy , para x, y > 0.
271. Investigue si las siguientes funciones son de distribuci
on.
a) F (x, y) = 1 exy , para x, y > 0.
0 si x + y + z < 0,
1 si x + y + z 0.
mn{1, m
ax{x, y}}
0
si x, y > 0,
otro caso.
187
c) P (X x) = P (X x, Y x) + P (X x, Y > x).
d) P (X + Y x) P (X x).
e) P (XY < 0) P (X < 0).
F (a1 , a2 , a3 ).
278. Demuestre que para cualquier vector aleatorio (X, Y ) y para cualquier
valor real de u, FX,Y (u, u) = FXY (u), es decir, la funci
on de distribuci
on del m
aximo de dos variables aleatorias es la distribuci
on conjunta
evaluada en la diagonal. Extienda este resultado al caso n-dimensional.
188
3.13. Ejercicios
F (x)F (y).
280. Cotas de Fr
echet. Sea (X, Y ) un vector con funci
on de distribuci
on
F (x, y), y con distribuciones marginales F (x) y F (y), respectivamente.
Demuestre que para todo x y y en R,
m
ax{F (x) + F (y) 1, 0} F (x, y) mn{F (x), F (y)}.
281. Considere el espacio = (0, 1)(0, 1) junto con la -
algebra B((0, 1)
(0, 1)) y P la medida de probabilidad uniforme sobre . Sea (X, Y ) el
vector aleatorio definido sobre este espacio de probabilidad dado por
X(1 , 2 ) = 1 2 y Y (1 , 2 ) = 1 2 . Demuestre que (X, Y ) es
efectivamente un vector aleatorio y encuentre su funci
on de distribuci
on.
Densidad conjunta
282. Demuestre que la funci
on de densidad de un vector (X, Y ) absolutamente continuo puede ser encontrada, a partir de la funci
on de distribuci
on, de las siguientes formas alternativas:
2
P (X > x, Y > y).
xy
2
b) f (x, y) =
P (X x, Y > y).
xy
2
c) f (x, y) =
P (X > x, Y y).
xy
a) f (x, y) =
1
,
ab
189
a) f (x, y) =
190
3.13. Ejercicios
3 e(x+y+z) si x, y, z > 0,
0
otro caso,
Distribuci
on marginal
290. Suponiendo el caso absolutamente continuo, demuestre que la funci
on
191
293. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya
funci
on de densidad es
1
a) f (x, y) = , para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy, para 0 < x, y < 1.
c) f (x, y) = 24x(1 x y), para x, y > 0 y x + y < 1.
b) f (x, y) = c m
ax{x + y 1, 0}
Distribuci
on condicional
297. Demuestre que la funci
on de distribuci
on condicional x FX|Y (x|y) =
x
on de distribuci
on univa fX|Y (u|y) du es efectivamente una funci
riada.
192
3.13. Ejercicios
y
b
Figura 3.12:
298. Demuestre que la funci
on de densidad condicional x fX|Y (x|y) =
fX,Y (x, y)/fY (y) es efectivamente una funci
on de densidad univariada.
En el caso absolutamente continuo compruebe adem
as que fX|Y (x|y) =
/x FX|Y (x|y).
n exponencial no tiene memoria. Sea X con
299. La distribucio
distribuci
on exp() y sea t > 0 fijo. Demuestre que la distribuci
on
condicional de X t, dado que X t, sigue siendo exp().
300. Calcule las funciones condicionales fX|Y (x|y) y FX|Y (x|y), para las
siguientes funciones de densidad.
1
, para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy, para 0 < x, y < 1.
a) f (x, y) =
193
f (x, y)
y
h) FX|Y (x|y).
b) fY (y).
i) FY |X (y|x).
j) P (Y > X).
d) FX (x).
e) FY (y).
f) fX|Y (x|y).
m) P (X + Y > 1).
g) fY |X (y|x).
194
3.13. Ejercicios
h) FX|Y (x|y).
b) fY (y).
i) FY |X (y|x).
d) FX (x).
e) FY (y).
f) fX|Y (x|y).
g) fY |X (y|x).
x
Figura 3.14: Funcion de densidad f (x, y) = 12 (x + y) exy , para x, y > 0.
h) FX|Y (x|y).
b) fY (y).
i) FY |X (y|x).
d) FX (x).
e) FY (y).
f) fX|Y (x|y).
m) P (X + Y > 1).
g) fY |X (y|x).
195
f (x, y)
Figura 3.15: Funcion de densidad f (x, y) = 4x(1 y), para 0 < x, y < 1.
Compruebe que f (x, y) es efectivamente una funci
on de densidad y
calcule
196
3.13. Ejercicios
a) fX (x).
h) FX|Y (x|y).
b) fY (y).
i) FY |X (y|x).
j) P (X > 1/2).
d) FX (x).
e) FY (y).
f) fX|Y (x|y).
g) fY |X (y|x).
d) E(X | X + Y = 6).
309. Sea (X, Y ) un vector con funci
on de densidad dada por la siguiente
tabla
x\y
-1
0
1
1
.3 .05 .05
2
.05 .2 .05
3
.1
.1
.1
Calcule
a) P (X = 2), P (X + Y = 1) y P (Y X).
197
b) fX (x) y fY (y).
c) fY | X (y | x) para x = 1, 2, 3.
d) E(Y | X = x) para x = 1, 2, 3.
310. Sean X y Y independientes ambas con distribuci
on exp(). Demuestre
que la distribuci
on condicional de X dado que X + Y = u, es uniforme
en el intervalo (0, u).
311. Sean A y B dos eventos con probabilidad positiva y sea X una variable
con esperanza finita. Demuestre o proporcione un contraejemplo.
a) Si A B, entonces E(X | A) E(X | B).
b) E(X | A) E(X).
198
3.13. Ejercicios
b) |X| y |Y |.
b) X + y Y .
c) X y Y + .
d) X y Y .
322. Determine si las siguientes son funciones de densidad de variables aleatorias independientes.
1
, para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 2x, para 0 < x, y < 1.
a) f (x, y) =
199
b) X, Y independientes X 2 , Y 2 independientes.
c) X, Y independientes X + Y, Y independientes.
d) X, Y independientes X + Y, X Y independientes.
e) X, Y independientes XY, Y independientes.
f ) X, Y, Z independientes X + Y, Z independientes.
200
3.13. Ejercicios
n=1
P (X n)P (Y n).
b) Z = mn{X, Y }.
201
202
3.13. Ejercicios
a) Grafique y demuestre que f (x, y) es una funci
on de densidad.
b) Encuentre las funciones de densidad marginales fX (x) y fY (y).
c) Determine si X y Y son independientes.
d) Calcule P (Y > X) y P (Y > X 2 ).
203
1
.
1 + 2
1/8 si (x, y) = (1, 1), (1, 1), (1, 1), (1, 1),
a) f (x, y) =
1/2 si (x, y) = (0, 0),
0
otro caso.
b) f (x, y) = 3(x2 + y 2 )/8, para x, y [1, 1].
c) X con distribuci
on uniforme en {1, 0, 1} y Y = 1(X=0) .
353. Demuestre que si las variables X1 , . . . , Xn son independientes e integrables, entonces E(X1 Xn ) = E(X1 ) E(Xn ).
354. Sean X y Y independientes. Diga falso o verdadero justificando en
cada caso.
204
3.13. Ejercicios
a) Var(X + Y ) = Var(X) + Var(Y ).
b) Var(X Y ) = Var(X) Var(Y ).
c) Var(XY ) = Var(X)Var(Y ).
x
.
n
-1
.1
.06
.1
0
.05
.2
.05
1
.1
.04
.3
funci
on de densidad dada por la
4
3/18
5/18
1/18
6
1/18
1/18
1/18
205
a) f (x, y) =
Covarianza
361. Sea a cualquier n
umero real fijo. Encuentre variables aleatorias X y
Y tales que Cov(X, Y ) = a,
206
3.13. Ejercicios
a) Var(X1 + + Xn ) =
Var(Xk ) + 2
k=1
Cov(Xj , Xk ).
j<k
b) Cov(
ai Xi ,
i=1
bj Yj ) =
j=1
207
ai bj Cov(Xi , Yj ).
i=1 j=1
Var(X1 + + Xn ) =
Var(Xk ).
k=1
on. Defina
369. Sean X1 , . . . , Xn independientes y con identica distribuci
= (X1 + + Xn )/n. Demuestre que para cada k = 1, . . . , n,
X
X)
= 0.
Cov(Xk X,
370. Sea (X, Y ) con distribuci
on uniforme en el conjunto {1, . . . , n}{1, . . . , n}.
Demuestre que Cov(X, Y ) = 0.
371. Sea (X, Y ) con distribuci
on uniforme en el conjunto (a, b) (c, d).
Demuestre que Cov(X, Y ) = 0.
372. Calcule la covarianza de X y Y cuya funci
on de densidad conjunta
est
a dada por la siguiente tabla.
x\y
-1
1
-1
1/12
3/12
0
2/12
2/12
1
3/12
1/12
1
.2
.05
.05
2
.05
.1
.1
3
.15
.15
.15
1
, para 0 < x < a, 0 < y < b.
ab
208
3.13. Ejercicios
b) f (x, y) = 3x2 y, para 1 < x < 1, 0 < y < 1.
c) f (x, y) = ex /2, para |y| < x.
Coeficiente de correlaci
on
376. Demuestre nuevamente que 1 (X, Y ) 1, ahora a partir de la
desigualdad de Cauchy-Schwarz.
377. Diga falso o verdadero. Demuestre en cada caso.
a) (X, Y ) = 0, (Y, Z) = 0 (X, Z) = 0.
b) (X, Y ) > 0, (Y, Z) > 0 (X, Z) > 0.
c) (X, Y ) < 0, (Y, Z) < 0 (X, Z) < 0.
a constante.
209
c) (X, aX + b) = signo(a).
383. Demuestre que (aX + b, cY + d) =
ac = 0. Recuerde que
+1
signo(x) =
1
1
1/8
1/2
2
1/4
1/8
1
1/9
1/9
1/9
2
1/9
1/9
1/9
3
1/9
1/9
1/9
210
3.13. Ejercicios
a) {1, . . . , n} {1, . . . , n}.
b) [1, 1] [1, 1].
b) f (x, y) =
1
2 sen(x
ex /2,
c) f (x, y) =
exy ,
a) f (x, y) =
para x, y > 0.
2 , , 2 , ).
389. Sea (X, Y ) un vector con distribuci
on normal N(X , X
Y
Y
Demuestre que (X, Y ) = .
Distribuci
on multinomial
390. Demuestre que la funci
on de densidad de la distribuci
on multinomial
efectivamente lo es.
391. Sea (X1 , . . . , Xk1 ) un vector con distribuci
on multinomial de par
ametros (n, p1 , . . . , pk1 ). Demuestre que cada coordenada Xi tiene distribuci
on marginal bin(n, pi ), para i = 1, . . . , k 1.
392. Sea X = (X1 , . . . , Xk1 ) un vector con distribuci
on multinomial de
par
ametros (n, p1 , . . . , pk1 ). Demuestre que E(X) = (np1 , . . . , npk1 )
y que
npi (1 pi ) si i = j,
[Var(X)]ij =
npi pj
si i = j.
Observe que en el caso i = j, el signo negativo en la covarianza indica
que cuando una variable crece la otra decrece.
211
Distribuci
on hipergeom
etrica multivariada
393. Demuestre que la funci
on de densidad de la distribuci
on hipergeometrica multivariada efectivamente lo es.
394. Sea (X1 , . . . , Xk ) un vector con distribuci
on hipergeometrica multivariada con par
ametros (N, N1 , . . . , Nk , n). Demuestre que cada coordenada Xi tiene distribuci
on hipergeometrica univariada con par
ametros
(N, Ni , n), para i = 1, . . . , k.
395. Sea X = (X1 , . . . , Xk ) con distribuci
on hipergeometrica multivariada
con par
ametros (N, N1 , . . . , Nk , n). Demuestre que
E(X) = (nN1 /N, . . . , nNk /N ), y que
Ni N Ni N n
si i = j,
n N N
N 1
[Var(X)]ij =
n Ni Nj n N
si i = j.
N N N 1
Distribuci
on normal bivariada
212
3.13. Ejercicios
Var(X, Y ) =
2
X
X Y
X Y
Y2
1
2
exp (
1
1
(u v)2 v 2 ).
2
2(1 )
2
Captulo 4
Esperanza condicional
E(X) =
x dFX (x),
X dP.
213
214
la funci
on
y E(X | Y = y) =
x dFX|Y (x|y),
x dFX|A (x),
4.1.
Esperanza condicional
He aqui la definici
on general. Es importante hacer enfasis que la esperanza
condicional, a pesar de su nombre, no es un n
umero, aunque puede serlo,
sino una variable aleatoria.
n. (Esperanza condicional). Sea X una variable aleatoria
Definicio
con esperanza finita, y sea G una sub--
algebra de F . La esperanza condicional de X dado G , es una variable aleatoria denotada por E(X | G ),
que cumple las siguientes tres propiedades.
a) Es G -medible.
b) Tiene esperanza finita.
c) Para cualquier evento G en G ,
E( X | G ) dP =
X dP.
G
(4.1)
215
216
4.2.
j=1
217
E( X | Y ) dP =
X dP.
(4.2)
Demostraci
on.
a) A traves de sus posibles valores la variable aleatoria Y secciona el espacio muestral en eventos disjuntos, a saber, (Y = y1 ), (Y = y2 ), . . .
La mnima -
algebra respecto de la cual la funci
on Y es variable aleatoria es (Y ) = {(Y = y1 ), (Y = y2 ) . . .} F . Como E(X | Y ) es
constante en cada elemento de la partici
on, resulta que esta funci
on
es (Y )-medible, y en consecuencia es verdaderamente una variable
aleatoria.
b) Tomando el evento G como en la tercera propiedad se obtiene que
tanto X como E(X | Y ) tienen la misma esperanza.
c) Como cada elemento de (Y ) es una uni
on ajena de elementos de la
forma (Y = yj ), por propiedades de la integral es suficiente demos-
218
X() dP ( | Y = yj ) P (Y = yj )
X() dP (, Y = yj )
X() dP ().
(Y =yj )
Demostraci
on.
1. Esta igualdad se sigue del hecho que la variable E(X | G ) es medible respecto de G , y de que cualquier funci
on medible respecto de la
219
-
algebra {, } es constante. La tercera condici
on en la definici
on
general de esperanza condicional implica que esta constante debe ser
E(X).
2. Esta igualdad es evidentemente un caso particular de la primera.
3. Observe que toda funci
on medible respecto de la -
algebra G dada
por {, B, B c , } es constante tanto en B como en B c . Adem
as,
B
E( 1A | G ) dP =
1A dP = P (A B).
Como la variable aleatoria E( 1A | G ) es constante en B, el lado izquierdo es igual a E( 1A | G )() P (B), para cualquier en B. De donde se
alisis
obtiene E( 1A | G )() = P (A | B), para cualquier en B. El an
es an
alogo al considerar el evento B c , y de esto se obtiene la f
ormula
enunciada.
E(1A | {B1 , . . . , Bn }) =
i=1
P (A | Bi ) 1Bi .
220
1 si B,
3
=
0 si B c .
E(1A | G ) =
i=1
P (A | Bi ) 1Bi = P (A | A) 1A = 1A .
4.3.
221
Algunas propiedades
Demostraci
on.
1. Por contradicci
on, suponga que existe G en G con probabilidad estrictamente positiva tal que E(X | G ) 1G < 0. Entonces tomando
esperanzas se obtiene E(X 1G ) < 0. Por otro lado, como X 0,
E(X 1G ) 0.
222
2. Esta igualdad es consecuencia de la linealidad de la esperanza no condicional, junto con (4.1) y la propiedad de unicidad.
3. Esto consecuencia de la primera propiedad y la linealidad aplicadas a
la variable Y X 0.
4. Esta propiedad se obtiene tomando G = en la igualdad (4.1).
5. Si X es G -medible, entonces X mismo cumple con las tres propiedades
de la definici
on de esperanza condicional, por la unicidad se obtiene
la igualdad casi segura.
6. Para todo G G1 G2 ,
G
E(E(X | G1 ) | G2 ) dP =
E(X | G1 ) dP =
E(X | G2 ) dP =
X dP.
An
alogamente,
E(E(X | G2 ) | G1 ) dP =
X dP.
En particular observe que la segunda propiedad dice que la esperanza condicional es lineal, mientras que la cuarta propiedad establece que las variables aleatorias X y E(X | G ) tienen la misma esperanza, o en terminos de
informaci
on, la -
algebra trivial {, } realmente no proporciona ninguna
informaci
on adicional del experimento aleatorio y por lo tanto la esperanza
se calcula directamente sobre la variable aleatoria.
Ejercicio. Demuestre las siguientes desigualdades:
a) | E(X | G ) | E( |X| | G ).
b) E |E(X | G )| E( |X| ).
223
4.4.
Varianza condicional
224
Demostraci
on.
1. 4. Estas propiedades son una consecuencia inmediata de las propiedades
ya demostradas de la esperanza condicional.
5. Nuevamente es suficiente tomar Y = X para verificar la no igualdad.
6. Esta igualdad se obtiene a partir de la definici
on al desarrollar el
cuadrado y utilizar las propiedades de linealidad de la esperanza condicional.
7. Tomando esperanza en la igualdad previa se obtiene
E[Var(X | G )] = E(X 2 ) E[E 2 (X | G )].
Por otro lado,
Var[E(X | G )] = E[E 2 (X | G )] E 2 [E(X | G )]
= E[E 2 (X | G )] E 2 (X).
Sumando estas u
ltimas dos expresiones se obtiene el resultado.
225
E( (X E(X | Y ))2 | Y )
E(X 2 | Y ) E 2 (X | Y ).
226
4.5.
4.5. Ejercicios
Ejercicios
Esperanza condicional
P (A | B) si B,
P (A | B c ) si
/ B.
407. Sea X con esperanza finita y sea B un evento tal que 0 < P (B) < 1.
Demuestre que E(X | {, B, B c , }) = E(X | B) 1B + E(X | B c ) 1B c .
408. Encuentre E(X | Y ) cuando X y Y se distribuyen de manera conjunta
de acuerdo a la siguiente tabla.
x\y
1
2
-1
2/12
3/12
0
2/12
2/12
1
2/12
1/12
227
d) E(X | cX) = X.
e) E(X | X + c) = X.
c) E(X | X 2 ) = X.
f) E(X | X + Y ) = X.
Y =
bi 1Bi .
i=1
Sea X con segundo momento finito. Demuestre que la distancia entre X y Y definida por d(X, Y ) = [E(X Y )2 ]1/2 es mnima cuando
bi = E(X | Bi ), es decir, cuando la variable Y es la esperanza condicional E(X | Y ). Sugerencia: observe que E(X Y )2 = ni=1 E[(X
bi )2 | Bi )P (Bi ), y la suma es mnima si, y s
olo si, cada sumando lo es.
414. Desigualdad de Cauchy-Schwarz condicional. Sean X y Y con
segundo momento finito. Demuestre que
E 2 (XY | G ) E(X 2 | G ) E(Y 2 | G ).
Sugerencia: proceda como en la desigualdad de Cauchy-Schwarz en el
caso no condicional, vea el ejercicio 191.
415. Desigualdad de Markov condicional. Sea X 0 integrable.
Demuestre que para cualquier constante > 0,
P (X | G )
1
E(X | G ).
228
4.5. Ejercicios
a) E(Xk | Sn ) = Sn /n.
b) E(Sk | Sn ) = k Sn /n.
Varianza condicional
417. Demuestre que
a) Var(X | {, }) = Var(X).
418. Encuentre Var(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla.
x\y
1
2
-1
2/12
3/12
0
2/12
2/12
1
2/12
1/12
Captulo 5
Transformaciones
5.1.
Transformaci
on de una variable aleatoria
En esta secci
on se estudian un par de resultados que proveen de f
ormulas
para la funci
on de densidad de la variable (X), en terminos de la funci
on de
densidad de X. Gr
aficamente tal transformaci
on se muestra en la Figura 5.1.
229
230
X()
(X())
R
Y = (X)
0
otro caso.
Demostraci
on. Suponga primero el caso estrictamente creciente. Entonces
para y (a, b),
FY (y) = P (Y y)
= P ((X) y)
= P (X 1 (y))
= FX (1 (y)).
Captulo 5. Transformaciones
Derivando se obtiene fY (y) = fX (1 (y))
decreciente,
231
d 1
(y). Para estrictamente
dy
FY (y) = P (Y y)
= P ((X) y)
= P (X 1 (y))
= 1 FX (1 (y)).
Entonces fY (y) = fX (1 (y)) [
el resultado enunciado.
d 1
(y)]. En cualquiera caso se obtiene
dy
(x) = ex
232
gr
afica ha sido mostrada antes en la Figura 2.24.
(ln y )2
1
exp [
]
2 2
y 2 2
fY (y) =
si y > 0,
si y 0.
n1
( ln y)
y 1 si y > 0,
(n)
fY (y) =
0
si y 0.
El resultado anterior puede extenderse al caso en el que la transformaci
on
es estrictamente mon
otona por pedazos. Se enuncia y demuestra a continuaci
on este resultado cuando la transformaci
on se descompone en dos partes
mon
otonas, siendo f
acil la extensi
on cuando se tiene un mayor n
umero de
secciones.
Ejercicio. Encuentre la funci
on de densidad del cuadrado de una variable
aleatoria con distribuci
on exp().
Ejercicio. Sea X con distribuci
on unif(0, 1) y sea > 0. Demuestre que
Captulo 5. Transformaciones
233
1 (x)
2 (x)
si x (a, b),
si x (b, c),
fY (y) = fX (1
1 (y)) |
Demostraci
on. La prueba es an
aloga al caso anterior, u
nicamente hay que
hacer el an
alisis sobre cada uno de los intervalos de monotona estricta. Para
cualquier y en R,
FY (y) = P (Y y)
= P ((X) y)
234
d
P [(X 1
1 (y)) (X (a, b))]
dy
d
=
P [a < X 1
1 (y)]
dy
d
=
FX (1
1 (y))
dy
d 1
= fX (1
(y).
1 (y))
dy 1
De manera an
aloga se procede respecto del segundo sumando, considerando
tambien el caso cuando se presenta la monotona decreciente. De esta forma
se obtiene la f
ormula enunciada.
Ejemplo. Sea X continua con funci
on de densidad fX (x). Considere la
2
transformaci
on (x) = x , la cual es estrictamente decreciente en (, 0),
y estrictamente creciente en (0, ).
(x) = x2
2
2 (x) = x sobre (0, ). Entonces sus inversas son 1
1 (y) = y, y
1
y. La variable Y = X 2 tiene por lo tanto funci
on de densi2 (y) =
dad
1
1
f (y)
+ fX ( y)
si y > 0,
X
2 y
2 y
fY (y) =
0
si y 0.
Captulo 5. Transformaciones
235
1
si 0 < y < 1,
2 1y
f (y) =
0
otro caso.
Ejercicio. Sea X con distribuci
on normal est
andar. Demuestre que la variable aleatoria Y = |X| tiene funci
on de densidad
2 y2 /2
e
si y > 0,
f (y) =
0
si y 0.
Ejercicio. Sea X con distribuci
on uniforme en
el intervalo [1, 1]. Encuentre la funci
on de densidad de la variable Y = 1 X 2 .
5.2.
Transformaci
on de un vector aleatorio
n de un vector aleatorio
5.2. Transformacio
236
(X, Y )
R2
R2
(U, V ) = (X, Y )
en donde
J(u, v) =
u 1
v 1
1
1
1
u 1
v
2
2
(5.1)
Sea A el rect
angulo de
area infinitesimal de esquinas con coordenadas (x, y), (x+
dx, y), (x, y + dy) y (x + dx, y + dy). Bajo la transformaci
on las coordenadas de las esquinas del rect
angulo A se transforman en las siguientes
Captulo 5. Transformaciones
237
coordenadas:
(x, y) (1 (x, y), 2 (x, y)).
(x + dx, y) (1 (x + dx, y), 2 (x + dx, y))
.
= (1 (x, y) + x 1 (x, y)dx, 2 (x, y)
+x 2 (x, y)dx.
(x, y + dy) (1 (x, y + dy), 2 (x, y + dy))
.
= (1 (x, y) + y 1 (x, y)dy, 2 (x, y)
+y 2 (x, y)dy.
(x + dx, y + dy) (1 (x + dx, y + dy), 2 (x + dx, y + dy))
.
= (1 (x, y) + x 1 (x, y)dx + y 1 (x, y)dy,
2 (x, y) + x 2 (x, y)dx + y 2 (x, y)dy).
Gr
aficamente la transformaci
on de estos puntos se muestra en la Figura 5.5.
(1 + y 1 , 2 + y 2 )
y + dy
A
(A)
y
(1 , 2 )
x
(1 + x 1 + y 1 ,
2 + x 2 + y 2 )
(1 + x 1 , 2 + x 2 )
x + dx
n de un vector aleatorio
5.2. Transformacio
238
En donde
Area
de (A) = |x 1 y 2 x 2 y 1 | dxdy
x 1 y 1
x 2 y 2
= |J(x, y)| dxdy.
=
Adem
as |J(x, y)| =
dxdy
1
. Por lo tanto
|J(u, v)|
dxdy
.
|J(u, v)|
1
Es decir, fU,V (u, v) = fX,Y (1
1 (u, v), 2 (u, v))|J(u, v)|.
Transformaciones
Y = (X)
(U, V ) = (X, Y )
fY (y) = fX (1 (y)) |
d 1
(y)|.
dy
u 1
1
u 1
2
v 1
1
v 1
2
Captulo 5. Transformaciones
239
Distribuci
on de la suma
El siguiente resultado proporciona una f
ormula para la funci
on de densidad
de la suma de dos variables aleatorias absolutamente continuas.
n. Sea (X, Y ) un vector absolutamente continuo con funci
Proposicio
on
de densidad fX,Y (x, y). Entonces X + Y tiene funci
on de densidad
fX+Y (u) =
fX,Y (u v, v) dv.
(5.2)
Demostraci
on. Sea : R2 R2 la transformaci
on (x, y) = (x + y, y), con
1
inversa (u, v) = (u v, v). El Jacobiano de la transformaci
on inversa es
J(u, v) =
u 1
v 1
1
1
1
u 2
v 1
2
1 1
0 1
= 1.
Por la f
ormula (5.1), fX+Y,Y (u, v) = fX,Y (u v, v). Integrando respecto a
v se obtiene (5.2).
Observe que haciendo el cambio de variable z(v) = u v en (5.2) se obtiene
la expresi
on equivalente
fX+Y (u) =
(5.3)
Ello refleja el hecho de que la suma de dos variables aleatorias es conmutativa. En particular, cuando X y Y son independientes, la f
ormula (5.2) se
reduce a
fX+Y (u) =
=
fX (u v)fY (v) dv
fX (u v) dFY (v).
(5.4)
240
n de un vector aleatorio
5.2. Transformacio
FX+Y (u) =
FX (u v) dFY (v).
M
as generalmente, puede demostrarse que esta f
ormula es v
alida para cualesquiera dos variables aleatorias independientes X y Y , incluyendo el caso
cuando una de ellas es discreta y la otra continua.
En el caso cuando X y Y son discretas, independientes y con valores enteros,
es sencillo verificar que la funci
on de probabilidad de X + Y es, en completa
analoga con (5.4), fX+Y (u) = k fX (u k)fY (k), en donde la suma se
toma sobre todos los posibles valores enteros k que la variable aleatoria Y
puede tomar.
Ejercicio. Use la f
ormula anterior para demostrar que si X y Y son independientes con distribuci
on bin(n, p) y bin(m, p) respectivamente, entonces
X + Y tiene distribuci
on bin(n + m, p).
Puede obtenerse la misma f
ormula (5.2) mediante el procedimiento usual
de encontrar primero la funci
on de distribuci
on de X + Y y despues derivar para encontrar la funci
on de densidad. El procedimiento se muestra a
continuaci
on.
FX+Y (u) = P (X + Y u)
=
=
fX,Y (x, y) dy dx
x+yu
ux
La regi
on de integraci
on se muestra en la Figura 5.6.
Derivando respecto a u se obtiene
fX+Y (u) =
Captulo 5. Transformaciones
241
y
u
f (x, y) =
fX,Y,Z (u y z, y, z) dydz.
Aplique esta f
ormula para encontrar la funci
on de densidad de la suma
de tres variables aleatorias independientes, en donde cada sumando tiene
242
n de un vector aleatorio
5.2. Transformacio
distribuci
on unif(0, 1).
n. La convoluci
Convolucio
on de dos funciones de densidad continuas f1
y f2 , es una funci
on de densidad denotada por f1 f2 , y definida como sigue
(f1 f2 )(x) =
M
as generalmente, la convoluci
on de dos funciones de distribuci
on F1 y F2
es la funci
on de distribuci
on
(F1 F2 )(x) =
F1 (x y)dF2 (y).
Distribuci
on de la diferencia
Se encontrar
a ahora una f
ormula para la funci
on de densidad de la diferencia
de dos variables aleatorias.
Captulo 5. Transformaciones
243
fXY (u) =
fX,Y (u + v, v) dv.
(5.5)
Demostraci
on. Procedemos como en la secci
on anterior. Sea : R2 R2
la transformaci
on (x, y) = (x y, y) con inversa 1 (u, v) = (u + v, v). El
Jacobiano de la transformaci
on inversa es
J(u, v) =
v 1
u 1
1
1
1
u 1
v
2
2
1 1
0 1
= 1.
Por la f
ormula (5.1), fXY,Y (u, v) = fX,Y (u + v, v). Integrando respecto a
v se obtiene (5.5).
Con el cambio de variable z(v) = u + v en (5.5) se obtiene la expresi
on
equivalente
fXY (u) =
(5.6)
fXY (u) =
fX (u + k)fY (k),
k
en donde la suma se toma sobre todos los posibles valores enteros k que Y
puede tomar.
244
n de un vector aleatorio
5.2. Transformacio
fX,Y (x, y) dy dx
xyu
xu
La regi
on de integraci
on aparece en la Figura 5.7.
y
fX,Y (u v, v) dv.
fX,Y (u + x, x) dx
fX,Y (u + x, x) dx.
Captulo 5. Transformaciones
245
fX,Y,Z (u + y + z, y, z) dydz.
Aplique esta f
ormula para encontrar la funci
on de densidad de X Y Z,
cuando estas variables son independientes y cada una de ellas tiene distribuci
on unif(0, 1).
Distribuci
on del producto
Ahora se encontrar
a una formula para la funci
on de densidad del producto
de dos variables aleatorias absolutamente continuas.
246
n de un vector aleatorio
5.2. Transformacio
(5.7)
Demostraci
on. Se usa nuevamente la f
ormula (5.1). Sea : R2 R2 la
transformaci
on (x, y) = (xy, y) cuya inversa es, para v = 0, 1 (u, v) =
(u/v, v). El Jacobiano de la transformaci
on inversa es
J(u, v) =
u 1
v 1
1
1
1
u 2
v 1
2
1/v u/v 2
0
1
= 1/v.
Por la f
ormula (5.1), para v = 0, fXY,Y (u, v) = fX,Y (u/v, v) |1/v|. Integrando respecto a v se obtiene (5.7).
Haciendo x(v) = u/v en (5.7) se obtiene la expresi
on equivalente
fXY (u) =
(5.8)
fX,Y (x, y) dy dx
xyu
0
u/x
u/x
Captulo 5. Transformaciones
247
La regi
on de integraci
on se muestra en la Figura 5.8.
y
u<0
u=0
u>0
fXY (u) =
+
=
u
1
f (u) =
fX,Y,Z ( , v, w) |
| dv dw.
vw
vw
248
n de un vector aleatorio
5.2. Transformacio
Distribuci
on del cociente
Finalmente se encontrar
a una f
ormula para el cociente de dos variables
aleatorias absolutamente continuas.
n. Sea (X, Y ) un vector absolutamente continuo con funci
Proposicio
on
de densidad fX,Y (x, y) y tal que Y = 0. Entonces X/Y tiene funci
on de
densidad
fX/Y (u) =
fX,Y (uv, v) |v| dv.
(5.9)
Demostraci
on. Procederemos como en las secciones anteriores. Sea : R2
2
R la transformaci
on (x, y) = (x/y, y) para y = 0, y con inversa 1 (u, v) =
(uv, v). El Jacobiano de la transformaci
on inversa es
J(u, v) =
u 1
v 1
1
1
1
u 2
v 1
2
v u
0 1
= v.
Por la f
ormula (5.1), fX/Y,Y (u, v) = fX,Y (uv, v) |v|, de donde se obtiene (5.9)
integrando respecto a v.
Haciendo x(v) = uv en (5.9) se obtiene la expresi
on equivalente
fX/Y (u) =
(5.10)
Captulo 5. Transformaciones
249
fX,Y (x, y) dx dy
x/yu
0
fX,Y (x, y) dx dy +
uy
uy
La regi
on de integraci
on se muestra en la Figura 5.9.
y
u<0
u>0
u=0
fX/Y (u) =
=
A partir de la f
ormula para el producto de dos variables aleatorias se puede
construir una tercera demostraci
on de (5.9) de la siguiente forma.
fX/Y (u) = fX(1/Y ) (u) =
250
n de un vector aleatorio
5.2. Transformacio
f (x, y) =
Captulo 5. Transformaciones
fX+Y (u) =
fXY (u) =
fX,Y (u v, v) dv
fX,Y (u + v, v) dv
fXY (u) =
fX/Y (u) =
251
252
5.3.
5.3. Ejercicios
Ejercicios
Transformaci
on de una variable aleatoria
fX (x) + fX (x)
si x > 0,
si x 0.
Captulo 5. Transformaciones
430. Encuentre la funci
on de densidad de Y
de densidad
1/2
fX (x) =
1/(2x2 )
253
Transformaci
on de un vector aleatorio
432. Sean X y Y independientes ambas con distribuci
on unif(0, 1). Encuentre la funci
on de densidad del vector
a) (X, X + Y ).
b) (X + Y, X Y ).
433. Sean X y Y independientes ambas con distribuci
on unif(1, 1). Encuentre la funci
on de densidad del vector
a) (X + Y, X Y ).
b) (X, |Y X|).
c) (X Y, Y X).
434. Sea (X, Y ) un vector con distribuci
on uniforme en el crculo unitario
2
2
{(x, y) : x + y 1}. Encuentre la funci
on de densidad del vector
(R, ) = ( X 2 + Y 2 , arctan(Y /X)).
435. Sean X y Y independientes cada una con distribuci
on exp(). Demuestre que el vector (X, X + Y ) tiene funci
on de densidad
f (u, v) =
2 ev si 0 < u < v,
0
otro caso.
254
5.3. Ejercicios
Distribuci
on de la suma
437. Encuentre la funci
on de densidad de la suma de dos variables aleatorias
cuya funci
on de densidad conjunta es
1
, para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy , para x, y > 0.
a) f (x, y) =
Captulo 5. Transformaciones
255
444. Demuestre que la suma de dos variables aleatorias independientes, cada una de ellas con distribuci
on normal, tiene nuevamente distribuci
on
normal, con media la suma de las medias, y varianza la suma de las
varianzas.
on N(k , k2 )
445. Sean X1 , . . . , Xn independientes en donde Xk tiene distribuci
para k = 1, . . . , n. Sean c1 , . . . , cn constantes dadas, no todas cero. Demuestre que
n
k=1
ck Xk N(
c2k k2 ).
ck k ,
k=1
k=1
256
5.3. Ejercicios
450. Sea (X1 , . . . , Xn ) un vector aleatorio absolutamente continuo. Demuestre que la variable X1 + + Xn tiene funci
on de densidad
f (u) =
Aplique esta f
ormula para encontrar la funci
on de densidad de la suma
de n variables aleatorias independientes, en donde cada sumando tiene
distribuci
on unif(0, 1).
Distribuci
on de la diferencia
451. Encuentre la funci
on de densidad de X Y , para (X, Y ) un vector
con funci
on de densidad
1
, para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy , para x, y > 0.
a) f (x, y) =
Captulo 5. Transformaciones
257
b) X tiene distribuci
on exp() y Y tiene distribuci
on unif(0, 1).
455. Sea a una constante. Demuestre que la diferencia de dos variables aleatorias independientes ambas con distribuci
on uniforme en el intervalo
(a 1/2, a + 1/2) tiene funci
on de densidad
f (u) =
1 |u|
0
si 1 < u < 1,
otro caso.
Aplique esta f
ormula al caso cuando las variables X1 , . . . , Xn son independientes y cada una de ellas tiene distribuci
on unif(0, 1).
258
5.3. Ejercicios
Distribuci
on del producto
461. Encuentre la funci
on de densidad del producto de dos variables aleatorias independientes ambas con distribuci
on: a) unif(0, 1). b) exp().
462. Encuentre la funci
on de densidad del producto de dos variables aleatorias cuya funci
on de densidad conjunta es
1
, para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy , para x, y > 0.
a) f (x, y) =
fX1 ,...,Xn (
u
1
, v2 , . . . , vn ) |
| dv2 dvn .
v2 vn
v2 vn
Aplique este resultado al caso cuando todas las variables son independientes y cada una de ellas tiene distribuci
on unif(0, 1).
Captulo 5. Transformaciones
259
Distribuci
on del cociente
466. Encuentre la funci
on de densidad de X/Y para (X, Y ) un vector con
funci
on de densidad
1
para 0 < x < a, 0 < y < b.
a) f (x, y) =
ab
b) f (x, y) = exy , para x, y > 0.
c) f (x, y) = ey , para 0 < x < y.
d) f (x, y) = 8xy, para 0 < x < y < 1.
e) f (x, y) = 4x(1 y), para 0 < x, y < 1.
f ) f (x, y) = 2exy , para 0 < x < y.
467. Encuentre la funci
on de densidad de X/Y cuando X y Y son independientes y ambas con distribuci
on: a) unif(0, 1). b) exp().
468. Encuentre la funci
on de densidad de X/Y cuando X y Y son independientes y ambas con funci
on de densidad
a) f (x) = 2x, para 0 < x < 1.
b) f (x) = 6x(1 x), para 0 < x < 1.
c) f (x) = (1 + x)/2, para 1 < x < 1.
469. Encuentre la funci
on de densidad de X/Y cuando X y Y son independientes y son tales que
a) X tiene distribuci
on unif(1, 0) y Y tiene distribuci
on unif(0, 1).
b) X tiene distribuci
on unif(0, 1) y Y tiene distribuci
on exp().
470. Sean X y Y independientes con distribuci
on exp(). Encuentre la
funci
on de densidad de X/(X + Y ).
471. Sea (X1 , . . . , Xn ) un vector absolutamente continuo con funci
on de
densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que la variable X1 /(X2 Xn )
tiene funci
on de densidad
f (u) =
260
5.3. Ejercicios
Aplique este resultado al caso cuando X, Y y Z son independientes
cada una de ellas con distribuci
on unif(0, 1).
Captulo 6
Distribuciones muestrales
y estadsticas de orden
262
Ejemplo. (Media y varianza muestral). La media muestral es una
y definida como sigue
estadstica denotada por X
= 1
X
n
Xi .
i=1
es una combinaci
Observe que X
on lineal de los elementos de la m.a. y por
lo tanto es una variable aleatoria. Otro ejemplo importante de estadstica
es la varianza muestral, denotada por S 2 y definida como sigue
1
S =
n1
i=1
2.
(Xi X)
6.1.
263
Distribuciones muestrales
Se estudian a continuaci
on algunas distribuciones que surgen en la estadstica al considerar funciones de una muestra aleatoria, en particular, la media
y la varianza muestral.
n ji-cuadrada. La variable aleatoria continua X tiene una
Distribucio
distribuci
on ji-cuadrada con n > 0 grados de libertad, si su funci
on de
densidad es
1
1 n/2 n/21 x/2
x
e
si x > 0,
(n/2) 2
f (x) =
0
si x 0.
n=1
n=2
n=3
n=4
x
264
Demostraci
on. Para x > 0,
1
1
fX 2 (x) = fX ( x) + fX ( x)
2 x
2 x
1
= fX ( x)
x
1 x/2 1
= e
x
2
=
1
(1/2)
1
2
1/2
x1/21 ex/2 .
Esta es la funci
on de densidad de la distribuci
on 2 (1).
La suma de dos o mas variables aleatorias independientes con distribuci
on jicuadrada es nuevamente una variable aleatoria ji-cuadrada, y sus grados de
libertad son la suma de los grados de libertad de cada uno de los sumandos.
Este es el contenido de la siguiente proposici
on.
n. Sean X1 , . . . , Xm independientes tales que cada Xi tiene
Proposicio
distribuci
on 2 (ni ), para i = 1, . . . , m. Entonces
m
i=1
Xi 2 (n1 + + nm ).
Demostraci
on. Es suficiente demostrar el resultado para el caso de dos variables aleatorias. Sean X y Y independientes con distribuci
on ji-cuadrada
con grados de libertad n y m, respectivamente. Este ligero cambio en la
265
notaci
on evitar
a el uso de subndices. Por la f
ormula (5.2), para u > 0,
u
fX (u v)fY (v) dv
fX+Y (u) =
0
u
=
0
1
(n/2)
1
(m/2)
n/2
1
2
(u v)n/21 e(uv)/2
m/2
1
2
v m/21 ev/2 dv
1
(n/2)(m/2)
u
0
1
2
(n+m)/2
eu/2
1
(n/2)(m/2)
1
0
1
2
(n+m)/2
eu/2 u(n+m)/21
B(n/2, m/2)
(n/2)(m/2)
1
((n + m)/2)
1
2
1
2
(n+m)/2
eu/2 u(n+m)/21
(n+m)/2
eu/2 u(n+m)/21 .
Esta es la funci
on de densidad de la distribuci
on 2 (n + m).
El resultado anterior puede demostrarse de una manera m
as simple y elegante usando la funci
on generadora de momentos o la funci
on caracterstica,
presentadas en el siguiente captulo.
266
(Xi )2
2 (n).
2
Demostraci
on. Esto es una consecuencia sencilla de las dos proposiciones
anteriores. Como cada una de las variables Xi tiene distribuci
on N(, 2 ),
para i = 1, . . . , n, entonces (Xi )/ tiene distribuci
on N(0, 1). Por lo
tanto, (Xi )2 / 2 tiene distribuci
on 2 (1). En consecuencia, ni=1 (Xi
)2 / 2 tiene distribuci
on 2 (n).
Ahora se enuncia un resultado cuya demostraci
on se pospone hasta que se
cuente con la poderosa herramienta de las funciones generadoras de momentos. Este es el contenido del ejercicio 572 en la p
agina 341.
n. Sean X y Y independientes tales que X tiene distribuci
Proposicio
on
2 (n), y X + Y tiene distribuci
on 2 (m) con m > n. Entonces Y tiene
distribuci
on 2 (m n).
Con ayuda de esta proposici
on se demuestra ahora el siguiente resultado de
particular importancia en estadstica.
n. Sean X1 , . . . , Xn independientes con distribuci
Proposicio
on
2
N(, ). Entonces
n1 2
S 2 (n 1).
2
267
Demostraci
on.
n
i=1
(Xi )2 =
i=1
n
=
i=1
+ (X
)]2
[(Xi X)
2 + n(X
)2 .
(Xi X)
Dividiendo entre 2 ,
n
i=1
1
n1 2
X
2
)2 .
(X
)
=
S
+
(
i
2
2
/ n
cuya gr
afica se muestra en la Figura 6.2, cualitativamente es muy parecida
a la densidad normal est
andar.
En este caso se escribe X t(n). Esta distribuci
on apareci
o por primera
vez en 1908 en un trabajo publicado por William Gosset bajo el seud
onimo de Student. Cuando el valor del par
ametro n es igual a uno se obtiene la distribuci
on Cauchy. Se puede demostrar tambien que E(X) = 0, y
Var(X) = n/(n 2), para n > 2. La primera igualdad establece que esta
distribuci
on se encuentra siempre centrada en cero para cualquier valor del
par
ametro n. Se muestran a continuaci
on algunas formas en las que surge
esta distribuci
on.
268
f (x)
n = 100
n=3
n=1
Demostraci
on. Por independencia, la funci
on de densidad conjunta de X y
Y es, para y > 0,
1
1
2
fX,Y (x, y) = ex /2
(n/2)
2
1
2
n/2
y n/21 ey/2 .
Se aplica la f
ormula (5.1) para la transformaci
on (x, y) = (x, x/ y/n), con
1
2
2
inversa (s, t) = (s, ns /t ). El Jacobiano de la transformaci
on inversa es
J(s, t) =
x/s x/t
y/s y/t
1
0
2
2sn/t 2ns2 /t3
= 2ns2 /t3 .
Por lo tanto
fS,T (s, t) = fX (s)fY (ns2 /t2 ) 2ns2 /t3
=
1
1
2
es /2
(n/2)
2
1
2
n/2
269
Integrando respecto a s,
1
nn/2
fT (t) =
2 2n/21 (n/2)tn+1
sn es
2 (1+n/t2 )/2
ds.
1
nn/2
2 2n/21 (n/2)tn+1 2 1 + n2
2
2t
1
((n + 1)/2)
,
n (n/2) (1 + t2 /n)(n+1)/2
(n+1)/2
r (n1)/2 er dr
correspondiente a la funci
on de densidad de la distribuci
on t(n). Salvo
la constante ((n + 1)/2), la u
ltima integral corresponde a la densidad
gama((n + 1)/2, ) con = 1.
El siguiente resultado es usado en estadstica para efectuar estimaciones de
la media de una poblaci
on normal cuando la varianza es desconocida.
n. Sea X1 , . . . , Xn una m.a. de una distribuci
Proposicio
on N(, 2 ).
Entonces
X
t(n 1).
S/ n
Demostraci
on. Simplemente se aplica la proposici
on recien demostrada a
las variables aleatorias independientes
X
N (0, 1)
/ n
n1 2
S 2 (n 1).
2
270
((n + m)/2) n
(n/2) (m/2) m
f (x) =
n/2
xn/21 1 +
n
x
m
(n+m)/2
si x > 0,
si x 0.
3/4
n=1
m=5
x
Figura 6.3: Funcion de densidad F (n, m).
Puede demostrarse que
E(X) =
y
Var(X) =
m
, para m > 2,
m2
2m2 (m + n 2)
, para m > 4.
n(m 2)2 (m 4)
271
Demostraci
on. Esta afirmaci
on se obtiene directamente de la aplicaci
on de
la f
ormula para la funci
on de densidad del cociente de dos variables aleatorias. Recuerde que para n > 0, fX/n (x) = nfX (nx).
n. Si X t(n), entonces X 2 F(1, n).
Proposicio
Demostraci
on. El resultado se sigue f
acilmente de la aplicaci
on de la siguiente f
ormula general. Para x > 0, y por la simetra de la distribuci
on t,
1
1
fX 2 (x) = ( fX ( x) + fX ( x) ) = fX ( x) .
2 x
x
6.2.
Estadsticas de orden
272
Ahora hacemos variar el argumento y lo que se obtiene son las as llamadas estadsticas de orden. Este proceso de ordenamiento resulta ser de
importancia en algunas aplicaciones. Tenemos entonces la siguiente definici
on.
n. (Estadsticas de orden). Sea X1 , . . . , Xn una muestra
Definicio
aleatoria. A las variables aleatorias ordenadas
X(1) = mn {X1 , . . . , Xn },
{X1 , . . . , Xn },
273
Distribuciones individuales
Comenzamos encontrando la distribuci
on de la primera y de la u
ltima estadstica de orden de manera individual.
n. Para n 1,
Proposicio
1. fX(1) (x) = nf (x) [1 F (x)]n1 .
2. fX(n) (x) = nf (x) [F (x)]n1 .
Demostraci
on.
1. Se calcula primero la funci
on de distribuci
on.
FX(1) (x) = P (X(1) x)
= P (mn{X1 , . . . , Xn } x)
= 1 P (mn{X1 , . . . , Xn } > x)
= 1 P (X1 > x, . . . , Xn > x)
= P (m
ax{X1 , . . . , Xn } x)
= P (X1 x, . . . , Xn x)
= [P (X1 x)]n
= [F (x)]n .
274
Demostraci
on. Para cada i defina la variable aleatoria
1 si Xi x,
0 si Xi > x,
Yi = 1(,x] (Xi ) =
= P (Y1 + + Yn i)
n
=
j=i
n
j
[F (x)]j [1 F (x)]nj .
275
n
j
fX(i) (x) =
j=i
n
j=i
n
n
j
j=i
n
i
1
x
ni
x+h
276
fX(i) (x) =
Demostraci
on. Para x < y,
FX(1) ,X(n) (x, y) = P (X(1) x, X(n) y)
Por lo tanto, fX(1) ,X(n) (x, y) = n(n 1)f (x)f (y)[F (y) F (x)]n2 , para
n 2. Ahora se usa la f
ormula
fY X (u) =
fX,Y (v, u + v) dv
277
n(n 1)r n2 (1 r)
0
si 0 < r < 1,
otro caso.
Distribuciones conjuntas
Se presentan a continuaci
on dos resultados acerca de la distribuci
on conjunta de las estadsticas de orden. El primer resultado trata acerca de la
distribuci
on conjunta de todas ellas, despues se considera la distribuci
on
conjunta de cualesquiera dos.
n. Para x1 < < xn ,
Proposicio
fX(1) ,...,X(n) (x1 , . . . , xn ) = n! f (x1 ) f (xn ).
Demostraci
on. Se considera la funci
on de distribuci
on conjunta de todas las
estadsticas de orden, y despues se deriva n veces para encontrar la funci
on
de densidad. Para x1 < x2 < < xn ,
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , X(2) x2 , . . . , X(n) xn ).
Como (X(2) x2 ) = (x1 < X(2) x2 ) (X(2) x1 ), se obtiene la expresi
on
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , x1 < X(2) x2 , . . . , X(n) xn )
+ P (X(1) x1 , X(2) x1 , . . . , X(n) xn ).
278
n
P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < X(n) xn ).
x1 xn
en donde la u
ltima igualdad se sigue de la independencia e identica distribuci
on de las variables de la muestra. Ahora solo resta derivar para encontrar
el resultado buscado, siendo m
as sencillo encontrar las derivadas en el orden
inverso.
Ejercicio. Demuestre que la expresi
on encontrada para la funci
on de densidad conjunta de las estadsticas de orden es efectivamente una funci
on de
densidad multivariada. Encuentre adem
as esta funci
on cuando las variables
de la muestra tienen distribuci
on unif(0, 1).
La siguiente demostraci
on es una prueba corta pero no formal del mismo
resultado. Sean x1 < x2 < < xn , y h > 0 suficientemente peque
na tal
que los intervalos (x1 , x1 + h], (x2 , x2 + h], . . . , (xn , xn + h] son ajenos. Vease
la Figura 6.4.
La probabilidad de que las variables aleatorias tomen valores, cada una de
ellas, en uno y s
olo uno de estos intervalos es, de acuerdo a la distribuci
on
multinomial,
n!
[F (x1 + h) F (x1 )] [F (xn + h) F (xn )].
1! 1!
x1
x2
279
xn
Figura 6.4:
i1
1
x
ji1
x+h
nj
1
y
y+h
Figura 6.5:
Esta probabilidad es aproximadamente igual a fX(1) ,...,X(n) (x1 , . . . , xn )hn .
Dividiendo entre hn , y despues haciendo h tender a cero se obtiene, una vez
mas, fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ).
Ahora nos interesa encontrar una f
ormula para la densidad conjunta de
cualesquiera dos estadsticas de orden.
n. Suponga i < j. Para x < y,
Proposicio
fX(i) ,X(j) (x, y) =
n
i, j i, n j
280
n
i
fR (r) = n(n 1)
n
i, j i, n j
6.3.
281
Ejercicios
Media y varianza muestral
Distribuci
on 2
475. Demuestre que la funci
on de densidad de la distribuci
on 2 (n) efectivamente lo es. En particular, compruebe que la distribuci
on 2 (n),
con n = 2, se reduce a la distribuci
on exp() con = 1/2.
476. Demuestre que la distribuci
on gama(n/2, ), con = 1/2, se reduce a
la distribuci
on 2 (n).
477. Sea X con distribuci
on 2 (n). Demuestre que
a) E(X) = n.
b) E(X m ) = 2m (m + n/2)/(n/2), para m = 1, 2, . . .
c) Var(X) = 2n.
478. Sean X1 , . . . , Xn independientes cada una con distribuci
on N(, 2 ).
Demuestre que
)2
(X
2 (1).
2 /n
282
6.3. Ejercicios
Xi2 2 (n).
(Xi i )2
2 (n).
i2
481. Sean X y Y
on normal est
andar.
independientes ambas con distribuci
Sean R = X 2 + Y 2 y = tan1 (Y /X). Demuestre que
a) R2 tiene distribuci
on 2 (n) con n = 2 grados de libertad.
b) tan tiene distribuci
on Cauchy.
c) R y son independientes.
Distribuci
on t
482. Demuestre que la funci
on de densidad de una variable aleatoria X
con distribuci
on t(n) efectivamente lo es. Demuestre adem
as que esta
funci
on tiene un m
aximo en x = 0 y que
a) E(X) = 0.
b) Var(X) = n/(n 2), para n > 2.
Compruebe adem
as que esta distribuci
on se reduce a la distribuci
on
Cauchy cuando el valor del par
ametro n es uno.
483. Demuestre que la distribuci
on t(n+1) tiene momentos finitos de orden
menor o igual a n, pero ning
un otro momento de orden superior.
283
Distribuci
on F
484. Demuestre que la funci
on de densidad de una variable aleatoria X con
distribuci
on F(n, m) efectivamente lo es. Demuestre adem
as que
a) E(X) = m/(m 2),
b) Var(X) =
para m > 2.
2m2 (m
+ n 2)
, para m > 4 .
n(m 2)2 (m 4)
de una distribuci
on N(, 2 ). Demuestre que E[X(1) ] = / y
calcule E[X(2) ].
490. Sea X1 , . . . , Xn una m.a. de una distribuci
on F (x). Sea x un n
umero
real cualquiera, y para cada i = 1, . . . , n defina Yi = 1(,x] (Xi ). Demuestre que las variables Y1 , . . . , Yn son independientes, y cada una
284
6.3. Ejercicios
de ellas tiene distribuci
on Ber(p), con p = F (x). Este hecho fue utilizado en el procedimiento para encontrar la funci
on de densidad de la
i-esima estadstica de orden.
285
n
i
499. A partir de la f
ormula para fX(i) ,X(j) (x, y), calcule la funci
on de densidad marginal de X(i) , encontrando nuevamente que
fX(i) (x) =
n
i
si n es impar,
X( n+1
)
2
Med(X1 , . . . , Xn ) =
1
[ X( n ) + X( n +1) ] si n es par.
2
2
2
286
6.3. Ejercicios
Encuentre la funci
on de densidad de la mediana de una muestra aleatoria de la distribuci
on unif(0, 1), primero suponiendo que el tama
no
de la muestra n es impar, y despues para n par.
Captulo 7
Convergencia
7.1.
Tipos de convergencia
Convergencia puntual
Sea X1 , X2 , . . . una sucesi
on infinita de variables aleatorias. Al evaluar cada
una de estas variables en un elemento se obtiene la sucesi
on numerica
X1 (), X2 (), . . . Suponga que esta sucesi
on converge a un cierto n
umero
real denotado por X(). Si lo anterior se cumple para todos y cada uno
287
288
Ejemplo. Considere el espacio medible ([0, 1], B[0, 1]), y defina la sucesi
on
n
de variables aleatorias continuas Xn () = . Como en este caso el espacio muestral es un subconjunto de n
umeros reales, podemos graficar las
variables aleatorias como en la Figura 7.1.
Xn ()
1
Figura 7.1: Grafica de la variable aleatoria Xn () = n .
Entonces para cada [0, 1), la sucesi
on numerica Xn () converge a 0,
mientras que para = 1, y para cualquier valor de n, Xn () = 1. De esta
manera la sucesi
on converge puntualmente a la variable aleatoria
X() =
0 si [0, 1),
1 si = 1.
Captulo 7. Convergencia
289
Ejercicio. Considere el espacio medible (N, 2N ). Determine si existe convergencia puntual para cada una de las siguientes sucesiones de variables
aleatorias discretas. En caso afirmativo encuentre la variable aleatoria lmiax{, n}
te. a) Xn () = mod n b) Xn () = mn{, n} c) Xn () = m
Una sucesi
on de variables aleatorias es entonces una sucesi
on de funciones,
pero a diferencia de la situaci
on que se estudia en los cursos de an
alisis
matem
atico, el dominio de definici
on de estas funciones, es decir, el espacio
muestral en este caso, no tiene una estructura algebraica excepto la dada
por la -
algebra y la medida de probabilidad. La forma en la que se utiliza esta medida de probabilidad es la que determina los distintos tipos de
convergencia.
290
1/n
Captulo 7. Convergencia
291
c.s.
Xn 0.
Ejercicio. Sea A un evento cualquiera. Demuestre que la siguiente sucesi
on
de variables aleatorias no converge para ning
un en .
Xn =
1A
1Ac
si n es par,
si n es impar.
Convergencia en probabilidad
Un tipo de convergencia a
un menos restrictiva que la convergencia casi
segura es la convergencia en probabilidad la cual se define a continuaci
on.
n. (Convergencia en probabilidad). La sucesi
Definicio
on de variables aleatorias X1 , X2 , . . . converge en probabilidad a X, si para cada
> 0,
lm P { : |Xn () X()| > } = 0.
n
292
X1
X2
X3
X5
X4
1
1
1
Figura 7.3: Graficas de las primeras variables aleatorias Xn = 1An .
Captulo 7. Convergencia
293
Convergencia en media
En este tipo de convergencia se usa la esperanza para determinar la cercana
entre dos variables aleatorias.
n. (Convergencia en media). La sucesi
Definicio
on de variables
aleatorias integrables X1 , X2 , . . . converge en media a la variable aleatoria integrable X si
lm E|Xn X| = 0.
n
L1
denota por Xn X, o Xn X.
A partir de la definici
on de convergencia en media es inmediato preguntarse
si de all se sigue la convergencia de la sucesi
on de medias. La respuesta es
afirmativa.
m
294
m.c.
y se le denota por Xn X, o Xn X.
En general puede definirse la convergencia en Lk , para cada entero k 1,
cuando se cumple la condici
on E|Xn X|k 0. Resulta que mientras mayor
es el valor de k, m
as restrictiva es la condici
on de convergencia.
Convergencia en distribuci
on
Este es el tipo de convergencia menos restrictiva de todas las mencionadas.
En contextos m
as generales se le llama tambien convergencia debil.
n. (Convergencia en distribucio
n). La sucesi
Definicio
on de variables aleatorias X1 , X2 , . . . converge en distribuci
on a X, si para todo
punto x en donde la funci
on FX (x) es continua, se cumple que
lm FXn (x) = FX (x).
Captulo 7. Convergencia
295
uso s
olamente de las funciones de distribuci
on y por lo tanto las variables
aleatorias correspondientes pueden estar definidas en distintos espacios de
probabilidad. La unicidad del lmite no se da en el sentido casi seguro como
en los anteriores tipos de convergencia, sino en el sentido m
as debil de
igualdad de distribuciones.
Ejemplo. Considere la sucesi
on X1 , X2 , . . ., en donde cada Xn tiene distrid
2
buci
on N(0, /n). Demostraremos que Xn 0. Como
FXn (x) =
1
2 2 /n
eu
2 /2( 2 /n)
du,
si x < 0,
0
1/2 si x = 0,
lm FXn (x) =
n
1
si x > 0.
Gr
aficamente la distribuci
on lmite se muestra en la Figura 7.4. Observe que
la variable aleatoria constante X = 0 tiene funci
on de distribuci
on
FX (x) =
0
1
si x < 0,
si x 0.
punto x donde FX (x) es continua, esto es, para todo x en el conjunto R\{0}.
Observe que las funciones FXn (x) no convergen a F (x) cuando x = 0.
En la siguiente secci
on demostraremos que la convergencia en probabilidad
implica la convergencia en distribuci
on. El recproco en general es falso
excepto cuando el lmite es una constante. Este es el contenido del siguiente
resultado el cual ser
a usado m
as adelante para demostrar la ley debil de los
grandes n
umeros.
296
Captulo 7. Convergencia
7.2.
Convergencia
n
Definicio
puntual
casi segura
P (Xn X) = 1.
en media
E|Xn X| 0.
en media cuadratica
E|Xn X|2 0.
en probabilidad
P (|Xn X| > ) 0.
en distribucion
297
En esta secci
on se establecen algunas relaciones generales entre los tipos de
convergencia de variables aleatorias mencionados en la secci
on anterior. En
la Figura 7.5 se ilustran de manera gr
afica estas relaciones.
En este diagrama la contenci
on se interpreta como implicaci
on, por ejemplo,
la convergencia casi segura implica la convergencia en probabilidad, y esta
a su vez implica la convergencia en distribuci
on. Estos y otros resultados se
demuestran a continuaci
on.
n. Convergencia c.s. convergencia en prob.
Proposicio
Demostraci
on. Sea > 0. Para cada natural n defina los eventos
An =
(|Xk X| > ).
k=n
298
Conv.
Conv.
en m. c.
casi
segura
Conv. en m.
Conv. en probabilidad
Conv. en distribucion
lm P (An )
= P ( lm An )
n
= P(
An )
n=1
= 0.
El recproco de la proposici
on anterior es, en general, falso, es decir, la
convergencia en probabilidad no implica necesariamente la convergencia casi
Captulo 7. Convergencia
299
300
Demostraci
on. La desigualdad de Jensen establece que para u convexa,
u(E(X)) E(u(X)).
Tomando u(x) = x2 se obtiene E 2 |Xn X| E|Xn X|2 , de donde se
sigue el resultado. Alternativamente la u
ltima desigualdad es consecuencia
de la desigualdad de Cauchy-Schwarz.
Ejemplo. (En general, conv. en media = conv. en m.c.) Sea Xn =
n 1(0,1/n2 ) sobre el espacio ((0, 1), B(0, 1), P ), con P la medida uniforme.
Entonces Xn converge a cero en media pues E|Xn 0| = E(Xn ) = 1/n 0.
Sin embargo, no hay convergencia en media cuadr
atica pues E|Xn 0|2 =
2
E(Xn ) = 1 0.
n. Convergencia en media convergencia en prob.
Proposicio
Demostraci
on. Para cada > 0 defina el evento An = (|Xn X| > ).
Entonces
E|Xn X| = E(|Xn X| 1An ) + E(|Xn X| 1Acn )
E(|Xn X| 1An )
P (|Xn X| > ).
Por hip
otesis, el lado izquierdo tiende a cero cuando n tiende a infinito. Por
lo tanto P (|Xn X| > ) 0.
El recproco del resultado anterior es, en general, falso.
Ejemplo. (En general, conv. en prob. = conv. en media). Considere nuevamente el espacio ((0, 1), B(0, 1), P ), con P la medida uniforme, y
defina las variables Xn = n 1(0,1/n) . Entonces Xn converge en probabilidad
a cero pues para cualquier > 0, P (|Xn 0| > ) = P (Xn > ) = 1/n 0.
Captulo 7. Convergencia
301
Demostraci
on. Suponga que Xn X, y sea x un punto de continuidad
de FX (x). Para cualquier > 0,
FXn (x) = P (Xn x)
Por hip
otesis el segundo sumando del lado derecho tiende a cero cuando n
tiende a infinito. Entonces para cualquier > 0,
lm sup FXn (x) FX (x + ).
n
Por la continuidad en x,
FX (x) lm inf FXn (x).
n
302
En resumen,
FX (x) lm inf FXn (x) lm sup FXn (x) FX (x).
n
El recproco de la proposici
on anterior no siempre es v
alido, es decir, la
convergencia en distribuci
on no siempre implica la convergencia en probabilidad.
Ejemplo. (En general, conv. en dist. = conv. en prob.) Sea X
con distribuci
on normal est
andar, y sea
Xn =
X
si n es par,
X si n es impar.
Captulo 7. Convergencia
7.3.
303
Por ejemplo, considere el espacio ((0, 1), B(0, 1), P ), con P la medida de
probabilidad uniforme. Hemos considerado antes la sucesi
on de variables
aleatorias Xn = n 1(0,1/n) , cuyo lmite es X = 0 casi seguramente. Sin
embargo E(Xn ) es siempre 1 y no converge a E(X) = 0. Este es un ejemplo
sencillo en donde no es v
alido intercambiar la esperanza y el lmite. En esta
secci
on se estudian dos resultados que establecen condiciones bajo las cuales
es v
alido este intercambio.
tona. Sea 0 X1 X2
Teorema de convergencia mono
una sucesi
on de variables aleatorias convergente casi seguramente a una
variable X. Entonces
lm E(Xn ) = E(X).
Demostraci
on. Como 0 Xn X, entonces 0 E(Xn ) E(X). Por lo
tanto
lm E(Xn ) E(X).
n
304
discreta aproximante
Y () = k
si
=
=
lm E(Y 1Bn )
lm
lm
k=0
k=0
m
lm
k=0
E(Y 1Bn Ak )
k P (Bn Ak )
k P (Bn Ak )
k P (Ak ).
=
k=0
k=0
Captulo 7. Convergencia
305
Demostraci
on. Sea Yn = nf{Xn , Xn+1 , . . .}. Entonces Yn X cuando n
. Por lo tanto (Yn + Y ) (X + Y ), en donde Yn + Y 0, pues como
Xn Y , entonces Xn Y para toda n, y por lo tanto Yn Y . Por el
teorema de convergencia mon
otona, E(Yn + Y ) E(X + Y ). De donde se
obtiene
E(Yn ) E(X).
Sea ahora Zn = sup{Xn , Xn+1 , . . .}. Entonces Zn X cuando n . Por
lo tanto (Y Zn ) (Y X), en donde Y Zn 0, pues como Xn Y
para toda n, entonces Zn Y . Por el teorema de convergencia mon
otona,
E(Y Zn ) E(Y X). De donde se obtiene
E(Zn ) E(X).
Ahora observe que Yn Xn Zn . Por lo tanto E(Yn ) E(Xn ) E(Zn ).
Al hacer n tender a infinito se obtiene el resultado.
Estos dos teoremas son herramientas fuertes en la teora de la probabilidad.
En particular, se usar
an en la u
ltima parte del curso para formalizar algunas
demostraciones.
306
7.4.
7.4. Ejercicios
Ejercicios
Convergencia casi segura
( |Xn X| 1/k ).
c.s.
c.s.
a) Xn + Yn X + Y.
c.s.
b) Xn Yn XY.
510. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ), con P la medida de probabilidad uniforme. Demuestre que la sucesi
on Xn = n1[0,1/n)
converge casi seguramente a la variable aleatoria constante cero.
n equivalente para la convergencia casi segura.
511. Condicio
c.s.
Demuestre que Xn X si, y s
olo si, para cualquier > 0,
P ( |Xn X| >
512. Use el ejercicio anterior para demostrar que si para cualquier > 0,
c.s.
Captulo 7. Convergencia
307
Convergencia en probabilidad
513. Demuestre que en la convergencia en probabilidad, el lmite es u
nico
p
p
casi seguramente, es decir, si Xn X, y Xn Y , entonces X = Y
casi seguramente.
Sugerencia: P (|X Y | > ) P (|X Xn | > /2)+P (|Xn Y | > /2).
514. Considere el espacio de probabilidad ((0, 1], B(0, 1], P ), en donde P
es la medida de probabilidad uniforme. Defina las variables aleatorias
discretas
n
k
Xn =
1 k1 k .
n ( m ,n]
k=1
a) Xn + Yn x + y.
p
b) Xn Yn xy.
a) Xn + Yn X + Y .
p
b) Xn Yn XY .
a) mn{X1 , . . . , Xn } a.
p
b) m
ax{X1 , . . . , Xn } b.
308
7.4. Ejercicios
p
Convergencia en media
521. Demuestre que en la convergencia en media, el lmite es u
nico casi
m
m
seguramente, es decir, si Xn X, y Xn Y , entonces X = Y
casi seguramente. Sugerencia: E|X Y | E|X Xn | + E|Xn Y |.
m
m.c.
Convergencia en distribuci
on
527. Demuestre que en la convergencia en distribuci
on, el lmite es u
nico
d
d
en distribuci
on, es decir, si Xn X, y Xn Y , entonces X y Y
Captulo 7. Convergencia
309
a) cXn cX.
d
b) Xn + c X + c.
d
a) si Xn 0, entonces Xn 0.
d
b) si Xn 0 y Yn 0, entonces Xn + Yn 0.
d
c) si Xn 0 y Yn 0, entonces Xn Yn 0.
531. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) en donde P es
la medida de probabilidad uniforme. Demuestre que la sucesi
on Xn =
1[0,1/2+1/n) converge en distribuci
on a la variable aleatoria X = 1[0,1/2] .
532. Sea Xn con distribuci
on unif[a 1/n, a + 1/n], en donde a es una
d
1
n Xn
X.
X
si n es par,
1 X si n es impar.
310
7.4. Ejercicios
Captulo 8
Funciones generadoras
8.1.
Funci
on generadora de probabilidad
n. (Funcio
n generadora de probabilidad). La funci
Definicio
on
generadora de probabilidad de una variable aleatoria X es la funci
on
G(t) = E(tX ),
definida para valores reales de t tal que la esperanza sea convergente
absolutamente.
Cuando sea necesario especificarlo se escribe GX (t) en lugar de G(t), y se
usan las letras f.g.p. en lugar de funci
on generadora de probabilidad. Esta funci
on se utiliza principalmente, aunque no u
nicamente, para variables
311
312
n generadora de probabilidad
8.1. Funcio
aleatorias con valores enteros. Supondremos tal caso y sin perdida de generalidad consideraremos que las variables toman valores en el conjunto
{0, 1, . . .}, que corresponde a la mayora de las variables aleatorias discretas
estudiadas en este curso. En tal situaci
on,
G(t) =
tk P (X = k).
k=0
k=0
|t| P (X = k)
P (X = k) = 1.
k=0
k=0
tk e
k
= e
k!
k=0
(t)k
= e et = e(1t) .
k!
n
Distribucio
n generadora de probabilidad
Funcio
unif{x1 , . . . , xn }
Ber(p)
G(t) = 1 p + pt
bin(n, p)
G(t) = (1 p + pt)n
geo(p)
Poisson()
G(t) = e(1t)
bin neg(r, p)
313
La funci
on generadora de probabilidad determina de manera u
nica a la
distribuci
on en el siguiente sentido. Si X y Y tienen la misma distribuci
on
de probabilidad, entonces naturalmente GX (t) = GY (t), para valores de t
donde esta esperanza exista. Inversamente, sean X y Y tales que GX (t) y
GY (t) existen y coinciden en alg
un intervalo no trivial alrededor del cero,
entonces X y Y tienen la misma distribuci
on. Estas y otras propiedades
generales de la f.g.p. se estudian a continuaci
on, m
as adelante se ilustran
estos resultados con algunos ejemplos.
n generadora de probabilidad
8.1. Funcio
314
n. (Propiedades de la f.g.p.).
Proposicio
1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que
GX (t) y GY (t) existen y coinciden en alg
un intervalo alrededor de
t = 0. Entonces X y Y tienen la misma distribuci
on de probabilidad.
2. Si el n-esimo momento factorial de X existe, entonces
lm
t1
dn
GX (t) = E[X(X 1) (X n + 1)].
dtn
3. Sean X y Y independientes con f.g.p. GX (t) y GY (t) respectivamente, entonces GX+Y (t) = GX (t) GY (t).
Demostraci
on.
1. Para cada k 0, sean ak = P (X = k) y bk = P (Y = k). La igualdad
GX (t) = GY (t) se escribe de la forma:
k=0
tk ak =
tk bk .
k=0
315
serv
andose el mismo radio de convergencia, se tiene que
d
dt
G (t) =
k=0
k=0
tk P (X = k)
d k
t P (X = k)
dt
k tk1 P (X = k).
k=1
lm G (t) =
t1
kP (X = k) = E(X).
k=1
k=2
t1
k=2
De manera an
aloga se demuestra para las derivadas de orden superior.
3. Cuando X y Y son independientes,
GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX ) E(tY ) = GX (t) GY (t).
316
n generadora de momentos
8.2. Funcio
8.2.
Funci
on generadora de momentos
317
n. (Funcio
n generadora de momentos). La funci
Definicio
on generadora de momentos de la variable aleatoria X es la funci
on
M (t) = E(etX ),
definida para valores reales de t tales que la esperanza es absolutamente
convergente.
Nuevamente, cuando sea necesario especificarlo se escribe MX (t) en lugar
de M (t), y se usan las letras f.g.m. en lugar del termino funci
on generadora
de momentos. La parte importante de esta funci
on es su existencia en una
vecindad no trivial alrededor del cero. Observe que la f.g.m. y la f.g.p. est
an
relacionadas, cuando existen, por la igualdad M (t) = G(et ).
Ejemplo. Sea X con distribuci
on gama(n, ). Entonces la f.g.m. de X puede
calcularse de la siguiente forma.
(x)n1
ex dx
(n)
0
[( t)x]n1
= n ( t)n
( t)e(t)x dx
(n)
0
= [/( t)]n .
M (t) =
etx
La u
ltima integral vale uno pues el integrando es la funci
on de densidad
de una distribuci
on gama. Observe que M (t) esta definida u
nicamente para
valores de t menores que .
La siguiente tabla muestra algunos otros ejemplos de funciones generadoras
de momentos para ciertas distribuciones continuas.
n generadora de momentos
8.2. Funcio
318
n
Distribucio
n generadora de momentos
Funcio
unif(a, b)
exp()
M (t) = /( t)
gama(n, )
N(, 2 )
2 (n)
M (t) = (1 2t)n/2
t(n)
Se demuestran a continuaci
on algunas propiedades b
asicas de la f.g.m., y
despues se muestra su utilidad mediante algunos ejemplos.
n. Sea X con f.g.m. M (t) finita para cada t (s, s), para
Proposicio
alg
un s > 0. Entonces
1. Todos los momentos de X son finitos.
2. M (t) =
n=0
tn
E(X n ).
n!
Demostraci
on.
319
(1 F (x)) xn1 dx + n
M (t) = 1 + t
0
(1 F (x)) etx dx t
E(X n ) = n
0
(1 F (x)) xn1 dx n
n generadora de momentos
8.2. Funcio
320
tn
tn
E(X n ) = 1 +
n
n!
n!
n=1
m
n=1
tn
n
n!
= 1+t
0
0
0
F (x) xn1 dx
(1 F (x))
(1 F (x)) xn1 dx
F (x)
m1 n
t
n!
xn dx
n=0
m1 n
t n
n=0
n!
x dx.
n=0
tn
E(X n ) = 1 + t
n!
(1 F (x)) etx dx t
F (x) etx dx
= M (t).
3. Dado que M (t) se puede expresar como una serie de potencias en t,
diferenciando y evaluando en cero se obtienen los coeficientes E(X n ).
321
Demostraci
on.
MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX ) E(etY ) = MX (t) MY (t).
n generadora de momentos
8.2. Funcio
322
323
ci
on generadora de momentos del vector (X, Y ) es la funci
on MX,Y (s, t) =
E(esX etY ), para valores reales de s y t donde esta esperanza sea absolutamente convergente. Puede demostrarse que las variables X y Y son independientes si, y s
olo si, MX,Y (s, t) = MX (s) MY (t). La definici
on de f.g.m.
para vectores de dimensi
on mayor es an
aloga.
En la secci
on de ejercicios se pueden encontrar las funciones generadoras de
momentos de algunas otras distribuciones de probabilidad, tanto discretas
como continuas, as como en el primer apendice al final del libro.
8.3.
Funci
on caracterstica
324
n caracterstica
8.3. Funcio
la funci
on caracterstica de X, y se escribe simplemente f.c. en lugar de funci
on caracterstica. Observe que la f.c., la f.g.m. y la f.g.p. est
an relacionadas,
cuando existen las dos u
ltimas, por las igualdades (t) = M (it) = G(eit ).
Se muestran a continuaci
on algunos ejemplos de la forma de encontrar la
funci
on caracterstica a partir de una distribuci
on de probabilidad.
Ejemplo. Sea X con distribuci
on bin(n, p). Entonces
(t) = E(eitX )
n
n
x
eitx
=
x=0
n
=
x=0
n
x
px (1 p)nx
(peit )x (1 p)nx
= (1 p + peit )n .
eitx e
x=0
= e
(eit )x
x!
x=0
(1eit )
= e
x
x!
n
Distribucio
n caracterstica
Funcio
Ber(p)
(t) = 1 p + peit
bin(n, p)
(t) = (1 p + peit )n
Poisson()
(t) = e(1e
geo(p)
bin neg(r, p)
it
325
Ahora se mostrar
a la forma de encontrar la funci
on caracterstica para dos
distribuciones continuas: la distribuci
on normal y la distribuci
on gama.
Ejemplo. Sea X con distribuci
on N(, 2 ). Entonces
(t) = E(eitX )
=
=
eitx
1
2 2
1
2 2
2 /2 2
e(x)
e(x
2 +(it 2 )2 )/2 2
= e(
2 2 /2
= eitt
dx
1
2 2
dx
e[x(it
2 )]2 /2 2
dx
Observe que el u
ltimo integrando es la funci
on de densidad normal con media
el n
umero complejo it 2 , y varianza 2 . El hecho de que esta integral
tambien vale uno puede comprobarse, por ejemplo, usando el principio de
n caracterstica
8.3. Funcio
326
continuaci
on analtica de la teora de variable compleja.
Ejemplo. Sea X con distribuci
on gama(n, ). Entonces
(t) = E(eitX )
=
0
eitx
(x)n1 x
e
dx
(n)
(x)n1 e(it)x dx
(n)
0
[( it)x]n1
n
( it) e(it)x dx
=
( it)n 0
(n)
n
= (
) .
it
=
El u
ltimo integrando es la funci
on de densidad de la distribuci
on gama(n,
it). Nuevamente usando la teora de variable compleja puede demostrarse
rigurosamente que esta integral tambien vale uno.
La siguiente tabla muestra algunos otros ejemplos de funciones caractersticas para variables aleatorias continuas.
n
Distribucio
n caracterstica
Funcio
unif(a, b)
exp()
(t) = /( it)
gama(n, )
N(, 2 )
2 (n)
t(n)
(t) = (1 2it)n/2
327
La existencia de la funci
on caracterstica para cualquier distribuci
on de
probabilidad se sigue del siguiente resultado.
n. (Existencia). Para cualquier n
Proposicio
umero real t, |(t)| 1.
En particular, (0) = 1.
Demostraci
on. Para cualquier n
umero real t,
|(t)| = |
eitx dF (x)|
|eitx | dF (x) =
dF (x) = 1.
dn
(t)
dtn
= in E(X n ).
t=0
2. Cuando t 0,
n1
(t) =
k=0
Demostraci
on.
(it)k
(it)n
E(X k ) +
( E(X n ) + o(1) ).
k!
n!
(8.1)
n caracterstica
8.3. Funcio
328
=
=
ei(t+h)x eitx
dF (x)
h
eitx
= E( eitX
Como lm
h0
eihx 1
dF (x)
h
eihX 1
).
h
(8.2)
eihx 1
= ix, entonces, puntualmente,
h
lm eitX
h0
eihX 1
= iX eitX .
h
Comprobaremos que las variables aleatorias de esta sucesion, parametrizada por h, estan uniformemente acotadas por una variable aleatoria integrable, en efecto,
|eitX
eihX 1
eihX 1
| = |
|
h
h
1 h
iX eisX ds|
= |
h 0
1 h isX
|X|
|e | ds
h 0
= |X|.
Por hip
otesis, E|X| < , de modo que usando el teorema de convergencia dominada en (8.2) se obtiene
d
(t) = E[ iX eitX ].
dt
Por el mismo procedimiento se encuentra que
dn
(t) = E[ (iX)n eitX ].
dtn
329
= in E(X n ).
t=0
2. La f
ormula se sigue del inciso anterior y del siguiente resultado de
an
alisis. Si g es una funci
on con valores reales o complejos y definida
en alg
un intervalo no trivial alrededor del origen con g(n) (0) finita,
entonces cuando t 0,
g(t) = g(0)+tg (0)+
t2
tn1 (n1)
tn
g (0)+ +
g
(0)+ ( g(n) (0)+o(1) ).
2!
(n 1)!
n!
En la u
ltima parte del curso se usar
a la expansi
on (8.1) para demostrar la
ley de los grandes n
umeros y el teorema del lmite central. Para el primer
resultado se supondr
a el primer momento finito y la expansi
on adquiere la
expresi
on (t) = 1 + it( E(X) + o(1) ), cuando t 0. Para el teorema del
lmite central se supondr
a el segundo momento finito y la expresi
on que se
usa es (t) = 1 + it E(X) + ((it)2 /2!)( E(X 2 ) + o(1) ), cuando t 0.
n. Si X y Y son independientes, entonces X+Y (t) =
Proposicio
X (t) Y (t).
Demostraci
on. Por independencia,
X+Y (t) = E(eit(X+Y ) ) = E(eitX eitY ) = E(eitX ) E(eitY ) = X (t) Y (t).
n caracterstica
8.3. Funcio
330
F (y) F (x) = lm
T
T
eitx eity
(t) dt.
it
1
2
1
2
1
2
1
2
T
T
T
T
T
eitx eity
(t) dt
it
eitx eity
[
it
eit(zx)
it
eitz dF (z)] dt
eit(zy)
dF (z) dt
eit(zx) eit(zy)
dt dF (z).
it
331
lm
t0
1
2
1
( cos t(z x) + i sen t(z x)
it
cos t(z y) i sen t(z y) ) dt dF (z),
y
T
cos(at)
dt = 0,
t
sen(at)
dt = 2
t
T
0
sen(at)
dt.
t
Por lo tanto
I(T ) =
1
2
(2
sen t(z x)
dt 2
t
T
0
sen t(z y)
dt ) dF (z).
t
1
(2
2
T
0
sen t(X x)
dt 2
t
T
0
sen t(X y)
dt ).
t
si a > 0,
T
sen at
si a < 0,
lm 2
dt = signo(a) =
T
t
0
0
si a = 0.
n caracterstica
8.3. Funcio
332
Entonces, puntualmente,
1
( signo(X x) signo(X y) )
2
1
1
(X) + 1(x,y) (X)
=
2 {x,y}
0
si X < x,
1/2 si X = x,
=
1
si x < X < y,
1/2 si X = y,
0
si X > y.
lm XT
Adem
as, las variables XT est
an acotadas en valor absoluto por una constante
pues para cualquier n
umero real a,
T
sen at
dt| sup |
t
T >0
T
0
sen t
dt| < .
t
Por lo tanto
lm I(T ) =
=
=
=
=
1
1{x,y} (z) + 1(x,y) (z) ] dF (z)
2
1
1
P (X = x) + P (X = y) + P (x < X < y)
2
2
1
1
P (x < X y) + P (X = x) P (X = y)
2
2
1
1
F (y) F (x) + P (X = x) P (X = y)
2
2
1
1
(F (y) + F (y)) (F (x) + F (x)).
2
2
[
333
Demostraci
on. Sea (t) la funci
on caracterstica com
un. Sea z cualquier
n
umero real, y sean x y y tales que x < z < y. Haciendo x tender a , y
y z, en la f
ormula de inversi
on de L`evy, se obtiene una u
nica funci
on de
distribuci
on dada por
F (z) = lm
lm
lm
yz x T
1
2
T
T
eitx eity
(t) dt.
it
Cuando la condici
on X (t) = Y (t) s
olo se cumple en una vecindad del
cero, no es necesariamente cierto que la distribuci
on de probabilidad queda
completamente especificada. Vease [13] para un ejemplo al respecto.
En el caso absolutamente continuo se tiene la siguiente f
ormula explcita.
n (Fo
rmula de inversio
n en el caso abs. continuo).
Proposicio
Sea X absolutamente continua con funci
on de densidad f (x), y funci
on
caracterstica (t). Entonces
f (x) =
1
2
Demostraci
on. Sean x < y, dos puntos de continuidad de F . Por el teorema
334
n caracterstica
8.3. Funcio
de inversi
on de L`evy, y por el teorema de Fubini,
F (y) F (x) =
=
=
1
T 2
lm
1
2
1
2
y
=
x
1
2
eitx eity
(t) dt
it
eitx eity
(t) dt
it
y
x
335
que
FX (y) FX (x) =
1
T 2
1
T 2
lm
T
T
lm
eitx eity
(t) dt.
it
eitx eity
[ lm Xn (t) ] dt.
n
it
T itx
1
e
eity
[ Xn (t) ] dt.
n T 2 T
it
= lm FXn (y) FXn (x).
lm lm
336
8.4.
8.4. Ejercicios
Ejercicios
Funci
on generadora de probabilidad
538. Sea X con varianza finita y con f.g.p. G(t). Demuestre que
a) E(X) = G (1).
b) E(X 2 ) = G (1) + G (1).
c) Var(X) = G (1) + G (1) [G (1)]2 .
539. Sean X y Y independientes, y sean a y b dos constantes. Demuestre
que
a) P (X = k) = G(k) (0)/k! para k = 0, 1, . . .
b) GaX+b (t) = tb GX (ta ).
c) GXY (t) = GX (t) GY (1/t).
540. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.p. Gk (t), para
k = 1, . . . , n. Demuestre que GX1 ++Xn (t) = G1 (t) Gn (t).
541. Demuestre o proporcione un contraejemplo: Si GX+Y (t) = GX (t)
GY (t), para valores de t en alg
un intervalo no trivial alrededor del
cero, entonces X y Y son independientes.
542. Sea X1 , X2 , . . . una sucesi
on de v.a.i.i.d. con f.g.p. GX (t). Sea N otra
variable aleatoria con valores en N, independiente de la sucesi
on y con
f.g.p. GN (t). Sea S = X1 + + XN . Demuestre que
a) GS (t) = GN (GX (t)).
b) E(S) = E(N )E(X), usando GS (t).
c) Var(S) = E 2 (X) Var(N ) + E(N ) Var(X), usando GS (t).
543. Encuentre la funci
on generadora de probabilidad, si existe, de una
variable aleatoria con funci
on de densidad
337
1
, para x = 1, 2, . . .
x!(e 1)
1
b) f (x) =
, para x = 1, 2, . . .
x(x + 1)
a) f (x) =
338
8.4. Ejercicios
Funci
on generadora de momentos
553. Encuentre la funci
on generadora de momentos, si existe, de una variable aleatoria con funci
on de densidad
a) f (x) =
1
, para x = 1, 2, . . .
x!(e 1)
339
557. Sea X con f.g.m. MX (t). Diga falso o verdadero, demuestre en cada
caso.
a) MX (t) 0.
340
8.4. Ejercicios
a) M (t) = exp[(et 1)].
a) M (t) =
341
1 si t = 0,
si t = 0.
1 si t = 0,
si t = 0.
342
8.4. Ejercicios
578. Sea n un n
umero natural. Demuestre que no existe la f.g.m. de la
siguiente funci
on de densidad. Esta distribuci
on tiene momentos finitos de orden 1, 2, . . . , n 1, pero el n-esimo momento y superiores no
existen.
n/xn+1 si x > 1,
f (x) =
0
otro caso.
Funci
on caracterstica
579. Encuentre la funci
on caracterstica de una variable aleatoria con funci
on de densidad
a) f (x) =
1
, para x = 1, 2, . . .
x!(e 1)
343
344
8.4. Ejercicios
n!
si n es par,
n
n/2
2 (n/2)!
E(X ) =
0
si n es impar.
para m = 0, 1, . . .
345
601. Mediante el c
alculo de residuos de la teora de variable compleja puede
demostrarse que la distribuci
on Cauchy est
andar tiene funci
on caracterstica
1
dx = e|t| .
(t) =
eitx
2)
(1
+
x
Suponiendo este resultado, encuentre el error en el siguiente argumento para encontrar la f.g.m. de la distribuci
on Cauchy: Como
(t) = e|t| y M (t) = (it), entonces M (t) = e|it| = e|t| . El
caso es que no existe la f.g.m. para la distribuci
on Cauchy.
602. Sean X1 , . . . , Xn independientes cada una de ellas con distribuci
on
|t|
Cauchy est
andar, es decir, la funci
on caracterstica es (t) = e .
Use este resultado para demostrar que la v.a. Sn = (X1 + + Xn )/n
tiene distribuci
on Cauchy est
andar para cualquier valor de n.
Captulo 9
En este u
ltimo captulo se estudian dos de los teoremas m
as importantes en
probabilidad: la ley de los grandes n
umeros y el teorema central del lmite.
Antes de ello se revisan algunas desigualdades de interes general.
9.1.
Algunas desigualdades
347
E(X)
.
348
Demostraci
on.
E(X) = E( X 1(X) + X 1(X<) )
E( X 1(X) )
E( 1(X) )
= P (X ).
2
.
2
Demostraci
on.
2 = E (X )2
= E (X )2 1(|X|) + (X )2 1(|X|<)
E (X )2 1(|X|)
E 2 1(|X|)
= 2 P (|X | ).
(9.1)
349
E[g(X)]
.
g()
Demostraci
on.
E[g(X)] = E[ g(X) 1(X) + g(X) 1(X<) ]
E[ g(X) 1(X) ]
E[ g() 1(X) ]
= g()P (X ).
(9.2)
350
Profesor y alumno.
Fuente: Archivo MacTutor, Universidad de St. Andrews.
k=1
Demostraci
on. Para cada k = 1, . . . , n, defina Sk = X1 + + Xk , cuya
esperanza es cero por hip
otesis. Observe que las variables Sk y Sn Sk son
independientes y por lo tanto E(Sk (Sn Sk )) = 0. Defina ahora los eventos
disjuntos
k1
Ak = ( |Sk | )
i=1
( |Si | < ),
351
E(Sn2 )
E(Sn2 1A )
E(Sn2 1Ak )
=
k=1
=
k=1
n
=
k=1
n
k=1
E(Sk2 1Ak )
k=1
2 E(1Ak )
2 P (Ak )
k=1
= 2 P (A).
El resultado se obtiene al observar que E(Sn2 ) = Var(Sn ) =
n
k=1 Var(Xk ).
Algunas desigualdades
Markov:
a) P (X ) E(X)/,
b) P (|X| ) E|X|/.
para X 0.
c) P (|X| ) E|X|n /n .
Chebyshev:
a) P (|X | ) Var(X)/2 .
b) P (X ) E[g(X)]/g(),
Kolmogorov:
con g 0 no decreciente.
P ( max{|X1 + + Xk |} )
k
1
2
Var(Xk ).
k=1
352
9.2.
meros
9.2. Ley de los grandes nu
Este interesante resultado establece que, bajo ciertas condiciones, el promedio de variables aleatorias converge a una constante cuando el n
umero de
sumandos crece a infinito. Demostraremos dos versiones de esta afirmaci
on,
las cuales se distinguen por el tipo de convergencia de la que se trate. La
ley debil establece la convergencia en probabilidad y la ley fuerte dice que
la convergencia es casi segura. La ley fuerte implica entonces la ley debil.
Existen adem
as varias generalizaciones de este resultado.
bil de los grandes nu
meros).
Teorema de Bernoulli. (Ley de
Sean X1 , X2 , . . . independientes e identicamente distribuidas con media
. Entonces
n
1
p
Xi .
n
i=1
Demostraci
on. Sea Sn = (X1 + + Xn )/n, y sea (t) la funci
on caracterstica de cualquier elemento X de la sucesi
on. Como X tiene esperanza
finita y por la expansi
on (8.1),
(t) = 1 + it( + o(1)),
cuando t 0.
cuando t 0,
353
354
meros
9.2. Ley de los grandes nu
randn(state,150)
N=200; S=zeros(1,N); Sn=zeros(1,N);
p=0.5; R=binornd(1,p);
S(1)=R; Sn(1)=R;
1/2
for j=2:N
S(j)=S(j-1)+binornd(1,p);
Sn(j)=S(j)/j;
end
plot([Sn],r-)
Sn /n
100
200
Figura 9.1: Comportamiento del cociente Sn /n cuando n crece cuando las variables
Xi tienen distribucion discreta Ber(p), con p = 0.5, y el codigo MATLAB para
generar la simulacion.
n
i=1
c.s.
Xi .
Demostraci
on. (Suponiendo cuarto momento finito). Dada la identica distribuci
on de los elementos de la sucesi
on, cualquier elemento de esta se
denota simplemente por X. Suponga que E|X |2 = 2 y observe que
randn(state,1500)
N=200; S=zeros(1,N); Sn=zeros(1,N);
R=1+3*randn;
S(1)=R; Sn(1)=R;
for j=2:N
S(j)=S(j-1)+1+3*randn;
Sn(j)=S(j)/j;
end
plot([Sn],r-)
355
Sn /n
100
200
Figura 9.2: Comportamiento del cociente Sn /n cuando n crece usando la distribucion normal con media uno y varianza nueve.
E|
i=1
P (|
i=1
n
i=1 (Xi )|
(Xi )| > n) E|
i=1
n
i=1
Xi | ) = 1.
356
meros
9.2. Ley de los grandes nu
P ( lm
Xi = ) = 1.
i=1
1 si Ak ocurre,
0 si Ak no ocurre.
P ( lm
Xk = p ) = 1.
k=1
357
9.3.
Concluimos el curso con el celebre y famoso teorema central del lmite. Este
resultado es de amplio uso en estadstica y otras ramas de aplicaci
on de la
probabilidad. Existen muchas versiones y generalizaciones de este teorema
pero nos limitaremos a enunciar y demostrar una versi
on simple y corta.
Un caso particular de este resultado lleva el nombre de A. de Moivre y de
P. S. Laplace.
Teorema de De Moivre-Laplace. Sea X1 , X2 , . . . una sucesi
on de
variables aleatorias independientes tal que cada una de ellas tiene distribuci
on Bernoulli con par
ametro p (0, 1). Para cualesquiera n
umeros
reales a < b,
lm P ( a <
X1 + + Xn np
1
< b) =
2
np(1 p)
ex
2 /2
dx.
358
N(0, 1).
n
Demostraci
on. Observe que
X1 + + Xn n
(X1 )/ + + (Xn )/
=
,
n
n
en donde cada sumando del numerador en el lado derecho es una variable
con media cero y varianza uno. As pues, sin perdida de generalidad, supondremos que cada variable de la sucesi
on tiene media cero y varianza uno.
2 /2
. Por
Por lo tanto,
t2
(1 + o(1)) )n .
2n
2
Haciendo n se obtiene Zn (t) et /2 .
Zn (t) = ( 1
lm P (
x ) = P (Z x),
n
n
359
N(0, 1).
/ n
Este teorema fue demostrado rigurosamente por A. M. Lyapunov alrededor
de 1901. Observe que no hay ninguna hip
otesis adicional sobre la distribuci
on de las variables de la sucesi
on, es decir, estas pueden tener cualquier
distribuci
on, s
olo requiriendo la existencia de la media y la varianza.
360
9.4.
9.4. Ejercicios
Ejercicios
Desigualdad de Markov
si X ,
0 si X < .
Desigualdad de Chebyshev
606. Conv. en m.c. Conv. en probabilidad. Use la desigualdad de
Chebyshev (9.2) para demostrar directamente que la convergencia en
media cuadr
atica implica la convergencia en probabilidad.
607. Demuestre la desigualdad de Chebyshev (9.1) usando la desigualdad
de Markov aplicada a la variable aleatoria no negativa |X |.
608. Use la desigualdad de Chebyshev para demostrar que si X es una
variable aleatoria tal que E(X) = a y Var(X) = 0, entonces X es
constante casi seguramente, es decir, P (X = a) = 1.
361
1/18 si x = 1, 1,
f (x) =
16/18 si x = 0,
0
otro caso.
362
9.4. Ejercicios
616. Desigualdad de Cantelli. Demuestre que si Var(X) < , entonces para cualquier > 0,
P (|X E(X)| > )
2 Var(X)
.
2 + Var(X)
363
1
en
n
k=0
nk
1
= .
k!
2
Ap
endice A
Distribuciones de probabilidad
Se presenta a continuaci
on una lista en orden alfabetico de algunas distribuciones de probabilidad univariadas de uso com
un. Como es costumbre,
la funci
on de probabilidad o de densidad se denota por f (x), y la funci
on
de distribuci
on por F (x). Como en el texto, G(t) es la funci
on generadora
de probabilidad, M (t) es la funci
on generadora de momentos, y (t) es la
funci
on caracterstica.
Distribuci
on Bernoulli
X Ber(p), con p (0, 1).
f (x) = px (1 p)1x para x = 0, 1.
E(X) = p.
Var(X) = p(1 p).
G(t) = 1 p + pt.
M (t) = 1 p + pet .
Este es el modelo m
as simple de variable aleatoria y corresponde a la observaci
on de la ocurrencia o no ocurrencia de un evento. La suma de n variables
independientes Ber(p) tiene distribuci
on bin(n, p).
365
366
Distribuci
on beta
X beta(a, b) con a > 0, b > 0.
f (x) = xa1 (1 x)b1 /B(a, b), para x (0, 1).
E(X) = a/(a + b).
Var(X) = ab/[(a + b + 1)(a + b)2 ].
Cuando a = 1, b = 2 o a = 2, b = 1 se obtiene la distribuci
on triangular.
Distribuci
on binomial
X bin(n, p) con n N y p (0, 1).
n
f (x) =
px (1 p)nx para x = 0, 1, . . . , n.
x
E(X) = np.
Var(X) = np(1 p).
G(t) = (1 p + pt)n .
M (t) = [1 p + pet ]n .
Una variable aleatoria binomial registra el n
umero de exitos en n ensayos
independientes Bernoulli en donde en cada ensayo la probabilidad de exito
es p. La suma de dos variables independientes con distribuci
on bin(n, p) y
bin(m, p) tiene distribuci
on bin(n + m, p).
Distribuci
on binomial negativa
X bin neg(r, p) con r N y p (0, 1).
r+x1
f (x) =
pr (1 p)x para x = 0, 1, . . .
x
E(X) = r(1 p)/p.
Var(X) = r(1 p)/p2 .
G(t) = [p/(1 t(1 p))]r .
Ap
endice A. Distribuciones de probabilidad
367
Distribuci
on Cauchy
X Cauchy(a, b) con a > 0 y b > 0.
1
f (x) =
.
b[1 + ((x a)/b)2 ]
La esperanza, la varianza y cualquier momento no existen.
La funci
on generadora de momentos no existe para t = 0.
(t) = exp(iat b|t|).
Cuando a = 0 y b = 1 se obtiene la distribuci
on Cauchy est
andar, y coincide
con la distribuci
on t(n) con n = 1. En este caso,
f (x) = 1/((1 + x2 )), para x R.
F (x) = 1/2 + (arctan x)/, para x R.
Distribuci
on exponencial
X exp() con > 0.
f (x) = ex , para x > 0.
F (x) = 1 ex , para x > 0.
E(X) = 1/.
Var(X) = 1/2 .
M (t) = /( t) para t < .
(t) = /( it).
La suma de n variables independientes exp() tiene distribuci
on gama(n, ).
368
Distribuci
on gama
X gama(n, ) con n > 0 y > 0.
(x)n1 x
f (x) =
e
para x > 0.
(n)
n1
F (x) = 1
(x)k /k!
ex
k=0
E(X) = n/.
Var(X) = n/2 .
M (t) = [/( t)]n , para t < .
Cuando n = 1 la distribuci
on gama se reduce a la distribuci
on exponencial. Advertencia: para denotar esta distribuci
on en algunos textos se usa
el smbolo gama(, n), es decir, el orden de los par
ametros es distinto. En
ocasiones se usa el par
ametro 1/ en lugar de .
Distribuci
on geom
etrica
X geo(p) con p (0, 1).
f (x) = p(1 p)x para x = 0, 1, . . .
E(X) = (1 p)/p.
Var(X) = (1 p)/p2 .
G(t) = p/[1 t(1 p)].
M (t) = p/[1 (1 p)et ].
Esta variable se usa para modelar el n
umero de fracasos antes de obtener el
primer exito en una sucesi
on de ensayos independientes Bernoulli, en donde
en cada uno de ellos la probabilidad de exito es p. La distribuci
on geometrica
es un caso particular de la distribuci
on binomial negativa.
Ap
endice A. Distribuciones de probabilidad
369
Distribuci
on hipergeom
etrica
X hipergeo(N, K, n) con N, K, n N y n K N .
K
N K
N
f (x) =
/
para x = 0, 1, . . . , n.
x
nx
n
E(X) = nK/N .
KN K N n
Var(X) = n
.
N N N 1
Si un conjunto de N elementos se puede separar en dos clases, una clase con
K elementos y la otra con N K elementos, y si se seleccionan n elementos
de este conjunto, entonces la variable X modela el n
umero de elementos
seleccionados de la primera clase.
Distribuci
on ji-cuadrada
X 2 (n) con n > 0.
1
1 n/2 n/21 x/2
f (x) =
x
e
para x > 0.
(n/2) 2
E(X) = n.
Var(X) = 2n.
M (t) = (1 2t)n/2 para t < 1/2.
(t) = (1 2it)n/2 .
Si X tiene distribuci
on N(0, 1), entonces X 2 tiene distribuci
on 2 (1).
Distribuci
on log normal
X log normal(, 2 ) con R y 2 > 0.
1
exp[(ln x )2 /2 2 ] para x > 0.
f (x) =
x 2 2
E(X) = exp( + 2 /2).
370
E(X n ) = exp(n + n2 2 /2).
Var(X) = exp(2 + 2 2 ) exp(2 + 2 ).
La funci
on generadora de momentos no existe. Si X tiene distribuci
on
2
X
2
N(, ), entonces e tiene distribuci
on log normal(, ).
Distribuci
on normal
X N(, 2 ) con R y 2 > 0.
2
2
1
e(x) /2 .
f (x) =
2
2
E(X) = .
Var(X) = 2 .
M (t) = exp (t + 2 t2 /2).
(t) = exp (it 2 t2 /2).
Cuando = 0 y 2 = 1 se obtiene la distribuci
on normal est
andar. La suma
o diferencia de dos variables independientes con distribuci
on normal tiene
distribuci
on normal.
Distribuci
on Pareto
X Pareto(a, b) con a > 0 y b > 0.
f (x) = aba /(b + x)a+1 para x > 0.
F (x) = 1 [b/(b + x)]a para x > 0.
E(X) = b/(a 1) para a > 1.
Var(X) = ab2 /[(a 1)2 (a 2)] para a > 2.
Ap
endice A. Distribuciones de probabilidad
371
Distribuci
on Poisson
X Poisson() con > 0.
f (x) = e x /x! para x = 0, 1, . . .
E(X) = .
Var(X) = .
G(t) = e(1t) .
M (t) = exp [(et 1)].
La suma de dos variables independientes con distribuci
on Poisson(1 ) y
Poisson(2 ) tiene distribuci
on Poisson(1 + 2 ).
Distribuci
on t
X t(n) con n > 0.
((n + 1)/2)
f (x) =
(1 + x2 /n)(n+1)/2 .
n (n/2)
E(X) = 0.
Var(X) = n/(n 2) para n > 2.
M (t) no existe para t = 0.
(t) = exp(|t|) , cuando n = 1. La expresi
on de (t) resulta complicada
para valores n 2.
Distribuci
on uniforme discreta
X unif{x1 , . . . , xn } con n N.
f (x) = 1/n para x = x1 , . . . , xn .
E(X) = (x1 + + xn )/n.
Var(X) = [(x1 )2 + + (xn )2 ]/n.
G(t) = (tx1 + + txn )/n.
M (t) = (ex1 t + + exn t )/n.
372
Distribuci
on uniforme continua
X unif(a, b) con a < b.
f (x) = 1/(b a) para x (a, b).
F (x) = (x a)/(b a) para x (a, b).
E(X) = (a + b)/2.
Var(X) = (b a)2 /12.
M (t) = (ebt eat )/(bt at).
Distribuci
on Weibull
X Weibull(r, ) con r > 0 y > 0.
r
f (x) = e(x) rr xr1 para x > 0.
r
F (x) = 1 e(x) para x > 0.
E(X) = (1 + 1/r)/.
Var(X) = [(1 + 2/r) 2 (1 + 1/r)]/2 .
Cuando r = 1 se obtiene la distribuci
on exp(). Cuando r = 2 se obtiene la
distribuci
on Rayleigh().
Ap
endice B
El alfabeto griego
A
B
E ,
Z
H
,
alfa
beta
gama
delta
epsilon
zeta
eta
theta
I
K
M
N
Oo
iota
kapa
lambda
mu
nu
xi
omikron
pi
373
P ,
,
T
,
X
rho
sigma
tau
upsilon
phi
ji
o chi
psi
omega
374
Notaci
on
B(R)
ab
ab
AB
x
F (x+)
F (x)
:
:
:
:
:
:
:
Conjuntos de Borel de R.
m
ax{a, b}.
mn{a, b}.
Independencia de los eventos A y B.
Parte entera de x.
Lmite por la derecha de la funci
on F en el punto x.
Lmite por la izquierda de la funci
on F en el punto x.
Lema de Abel
Sea a0 , a1 , . . . una sucesi
on de n
umeros reales o complejos tal que la serie
n
a
es
convergente.
Defina
la funci
on G(t) =
n=0 n
n=0 an t , la cual es
convergente para valores de t por lo menos en el intervalo [0, 1]. El lema de
Abel asegura que G(t) es una funci
on continua por la izquierda en t = 1, es
decir,
lm G(t) =
t1
an .
n=0
Ap
endice B. Conceptos y resultados varios
375
Imagen inversa
Sean A y B dos conjuntos. Considere una funci
on X : A B. La imagen
inversa de un conjunto B B es un subconjunto de A, denotado por X 1 B,
y definido como sigue: X 1 B = {a A : X(a) B}.
X
B
X 1 B
A
376
a) X 1 B = A.
b) X 1 (B c ) = (X 1 B)c .
c) Si B1 B2 , entonces X 1 B1 X 1 B2 .
d) X 1 (B2 B1 ) = X 1 B2 X 1 B1 .
e) X 1 (
k=1 Bk )
1 B .
k
k=1 X
f) X 1 (
k=1 Bk )
1 B .
k
k=1 X
Funci
on indicadora
La funci
on indicadora de un conjunto A es la funci
on 1A : {0, 1}
dada por
1A () =
1 si A,
0 si
/ A.
Ap
endice B. Conceptos y resultados varios
377
b) 1AB = mn {1A , 1B } = 1A 1B .
c) 1Ac = 1 1A .
d) 1AB = 1A 1A 1B .
e) 1AB = |1A 1B | = |1A 1B |2 = 1A + 1B 2 1A 1B .
f) Si A B, entonces 1A 1B .
Esperanza condicional
Sea (, F ) un espacio medible. Sean P y Q dos medidas de probabilidad.
Se dice que Q es absolutamente continua respecto de P si cada vez que
P (A) = 0, necesariamente Q(A) = 0 para cada A en F . En tal caso se
escribe Q P .
Teorema de Radon-Nikodym. Si Q P , entonces existe una variable
aleatoria integrable que es u
nica P -casi seguramente, y es tal que para
cada evento A,
Q(A) =
dP.
A
378
G,
X dP =
A
dP,
A
E(X | G ) dP =
X dP,
G
para cualquier G G .
3. E(E(X | G )) = E(X).
4. E(X | {, } ) = E(X).
5. Si B es un evento tal que 0 < P (B) < 1, entonces
E(1A | {, B, B c , } ) = P (A | B)1B + P (A | B c )1B c .
6. Si B1 , . . . , Bn es una partici
on de tal que cada elemento tiene probabilidad estrictamente positiva, entonces
E(X | {B1 , . . . , Bn }) = E(X | B1 ) 1B1 + + E(X | Bn ) 1Bn .
7. E(X + Y | G ) = E(X | G ) + E(Y | G ).
8. Si X 0, entonces E(X | G ) 0.
9. Si X Y , entonces E(X | G ) E(Y | G ).
10. | E(X | G ) | E( |X| | G ).
11. E |E(X | G )| E(|X|).
12. Caso discreto. Si Y toma los valores y1 , y2 , . . . con probabilidad estrictamente positiva, entonces E(X | Y ) =
i=1 E(X | Y = yi ) 1(Y =yi ) .
13. Caso abs. continuo. Si es tal que Y () = y, entonces
E(X | Y )() =
x dFX|Y (x|y),
cuando fY (y) = 0.
Ap
endice B. Conceptos y resultados varios
379
380
Tabla de la distribuci
on normal est
andar
1
(x) =
2
2 /2
et
dt
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8399
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.9980
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
Bibliografa
382
Bibliografa
Bibliografa
383
Indice
-
algebra, 3
de Borel de R, 11
de Borel de Rn , 14
generada, 7
producto, 14
Algebra, 9
Acoplamiento, 159
Aditividad finita, 24
Borel-Cantelli, 38
C
opula, 159
Cociente
de Mills., 140
Coeficiente
de correlaci
on, 174
multinomial, 182
Completaci
on de espacios, 27
Conjunto
Borel medible, 11
Boreliano, 11
de Borel, 11
medible, 3
Continuidad de la prob, 28, 30, 31
Convergencia
Indice
de Cauchy-Schwarz, 126
condicional, 227
de Chebyshev, 349
de H
older, 128
de Jensen, 127
de Kolmogorov, 350
de Kounias, 54
de Markov, 347
condicional, 227
de Minkowski, 129
Desviaci
on est
andar, 90
Distribuci
on
absolutamente continua, 76
arcoseno, 138
Bernoulli, 95, 365
beta, 103, 366
binomial, 96, 366
binomial negativa, 98, 366
bivariada, 144
Cauchy, 367
continua, 75
de acoplamiento, 159
discreta, 75
exponencial, 101, 367
exponencial doble, 135
F de Snedecor, 270
gama, 101, 368
geometrica, 96, 368
hipergeometrica, 99, 369
multivariada, 182
ji-cuadrada, 263, 369
log gama, 232
log normal, 106, 231, 369
multimodal, 94
385
multinomial, 181
multivariada, 145
normal, 104, 370
bivariada, 184
est
andar, 105
multivariada, 185
Pareto, 370
Poisson, 98, 371
Rayleigh, 372
singular, 76, 77
t de Student, 267, 371
trinomial, 182
uniforme
bivariada, 183
continua, 101, 372
discreta, 94, 371
unimodal, 94
univariada, 145
Weibull, 372
Ensayo Bernoulli, 95
Error
absoluto medio, 129
cuadr
atico medio, 123
Espacio
L1 , 126
L2 , 127
de probabilidad, 1, 2
completo, 27
medible, 3
muestral, 2
Esperanza
condicional, 214, 377
condicional (evaluada), 162
de un vector, 179
Indice
386
de una funci
on de un vector, 168 Funci
on de probabilidad
de una funci
on de una v.a., 88
acumulada, 68
de una v.a., 85
conjunta, 149
Estadstica, 261
Funci
on generadora
Estadsticas de orden, 272
de momentos, 317
Evento, 2
de momentos factoriales, 316
casi seguro, 80
de probabilidad, 311
compuesto, 2
Igualdad
simple, 2
casi segura, 80
F
ormula
en distribuci
on, 80
de inclusi
on y exlusi
on, 51
Imagen inversa, 375
Funci
on
Independencia
beta, 103
de -
algebras, 36
Borel medible, 61
de clases, 36
de acumulaci
on de prob, 68
de eventos, 34
de densidad, 75
de v.a.s, 163
de masa de probabilidad, 75
de vectores, 167
de probabilidad, 75
Integral de Riemann-Stieltjes, 81
gama, 102
Lmite inferior
indicadora, 376
de eventos, 15
medible, 112
de n
umeros, 374
signo, 111
L
mite
superior
Funci
on caracterstica, 323
de eventos, 15
f
ormula de inversi
on, 330, 333
de n
umeros, 374
teorema de continuidad, 334
Lema
de
Abel, 374
teorema de unicidad, 333
Ley de eventos raros, 132
Funci
on de densidad, 76
Ley de los grandes n
umeros, 352
condicional, 160
d
e
bil,
352
conjunta, 152
en media cuadr
atica, 362
marginal, 158
fuerte,
354
Funci
on de distribuci
on, 68
condicional, 161
conjunta, 144
marginal, 156
Matriz
de correlaci
on, 181
Indice
de covarianzas, 180
Media, 85
muestral, 262
Mediana
de una v.a., 93
muestral, 285
Medibilidad, 58
Medida de probabilidad, 2, 20
inducida, 58
inducida por una v.a., 112
Moda
de una v.a., 94
Momentos, 92
absolutos, 92
centrales, 92
centrales absolutos, 92
factoriales, 92
Muestra aleatoria, 261
Paradoja
de San Petersburgo, 119
Probabilidad
axiom
atica, 20
cl
asica, 21
condicional, 26
frecuentista, 353
geometrica, 22
Problema de los momentos, 92
Rango
de una m.a., 276
Regla del producto, 53
Semi
algebra, 10
Teorema
387
central del lmite, 358
de Bayes, 27
de Bernoulli, 352
de cambio de variable, 230, 233,
236
de convergencia dominada, 305
de convergencia mon
otona, 303
de de Moivre-Laplace, 357
de Poisson, 132
de probabilidad total, 27
Valor
esperado, 85
medio, 85
promedio, 85
Variable aleatoria, 58
continua, 75, 76
discreta, 75
mixta, 77
singular, 76, 77
Varianza
condicional, 223
de un vector, 179
de una v.a., 90
muestral, 262
Vector aleatorio, 141
continuo, 143
discreto, 143