Professional Documents
Culture Documents
Enero 2016
ii
Prefacio
iii
iv PREFACIO
Prefacio III
2. Variables aleatorias 31
2.1. Preambulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2. Concepto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1. Variables aleatorias discretas y continuas . . . . . . . . 34
2.3. La funcion de distribucion . . . . . . . . . . . . . . . . . . . . 35
2.4. Funcion de densidad probabilstica . . . . . . . . . . . . . . . 37
2.4.1. Algunas funciones de densidad probabilstica . . . . . . 40
2.5. Densidad y distribucion condicionales . . . . . . . . . . . . . . 46
2.5.1. Funcion de distribucion condicional . . . . . . . . . . . 46
2.5.2. Funcion de densidad condicional . . . . . . . . . . . . . 47
2.6. Valor esperado de una variable aleatoria . . . . . . . . . . . . 53
2.7. Valor esperado de una funcion g(X) . . . . . . . . . . . . . . . 54
2.8. Valor esperado condicional . . . . . . . . . . . . . . . . . . . . 56
2.9. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.9.1. Momentos alrededor del origen . . . . . . . . . . . . . 56
vii
viii INDICE GENERAL
6. Bibliografa 211
Indice de figuras
xi
xii INDICE DE FIGURAS
Indice de cuadros
xiii
xiv INDICE DE CUADROS
Captulo 1
1
2 CAPITULO 1. TEORIA BASICA DE LA PROBABILIDAD
1.1. Preambulo
Existen varios enfoques para la definicion y discusion de la probabilidad.
Vale la pena considerar dos de ellos. El primero emplea la definicion de fre-
cuencia relativa de probabilidad. Es principalmente util al tratar topicos que
no se relacionan con la teora de probabilidad misma.
El segundo enfoque emplea la definicion axiomatica. Este proporciona las
bases matematicas mas firmes y es el que se estudiara en este libro.
El enfoque axiomatico requiere del enunciado de los axiomas de la proba-
bilidad. Antes de hacerlo se hara un breve repaso de la teora de conjuntos.
aA (1.1)
Si no lo es,
a 6 A (1.2)
Ejemplo
El conjunto de todos los enteros entre 5 y 10 se escribira, con el metodo
tabular, de la forma: {6, 7, 8, 9}. Por el metodo de la regla, se escribira,
{enteros mayores que 5 pero menores que 10}.
AB (1.3)
AB (1.4)
Ejemplo:
A = {1, 3, 5, 7} D = {0,0}
B = {1, 2, 3, . . .} E = {2, 4, 6, 8, 10, 12, 14}
C = {0,5 c 8,5} F = {5,0 < f 12,0}
El conjunto A esta tabularmente especificado, es enumerable, y es finito.
B esta tambien tabularmente especificado y es enumerable, pero es infinito.
El conjunto C esta especificado por regla, no es enumerable e infinito, dado
que contiene todos los numeros mayores que 0,5 pero que no exceden 8,5.
Similarmente, los conjuntos D y E son finitos enumerablemente, mientras
que el conjunto F es infinito y no enumerable. D no es el conjunto nulo,
tiene un elemento, el numero cero. El conjunto A esta contenido en B, C y
F . Similarmente, C F , D F , y E B. Los conjuntos B y F no son
subconjuntos de algun otro de los conjuntos o uno del otro. Los conjuntos A,
D y E son mutuamente excluyentes uno del otro.
Ejemplo
Considerese el problema de tirar un dado. Solamente los numeros que
se muestran en la cara superior son de interes. Aqu el conjunto universal
es S = {1, 2, 3, 4, 5, 6}. En un juego de azar, la persona gana si el numero
esta en el conjunto A = {1, 3, 5}. Otra persona podra ganar si el numero
que aparece es cuatro o menor, es decir, por cualquier numero en el conjunto
B = {1, 2, 3, 4}. Tanto A como B son subconjuntos de S.
1.2. DEFINICIONES BASICAS DE LA TEORIA DE CONJUNTOS 5
Se suele usar una representacion geometrica que nos permite asociar una
imagen fsica con un conjunto. Tal representacion es el diagrama de Venn.
Los conjuntos son representados por figuras planas cerradas. Los elementos
de los conjuntos son representados por los puntos encerrados (es decir, por el
area encerrada). El conjunto universal S es representado por un rectangulo
que encierra a todas las figuras planas cerradas.
Igualdad y diferencia
A = B si y solo si A B y B A.
A B es el conjunto que contiene a los elementos de A que no estan
en B. Por ejemplo, con A = {0, 6 < a 6 1, 6} y B = {1, 0 < b 6 2, 5},
entonces A B = {0, 6 < c < 1, 0} o B A = {1, 6 < d 6 2, 5}. Notese que
A B 6= B A.
Union e interseccion
C =AB
D =AB
C = A1 A2 . . . AN
N
[
= An
n=1
D = A1 A2 . . . AN
N
\
= An
n=1
Complemento
A=SA
= S
S =
AA = S
AA =
1.2. DEFINICIONES BASICAS DE LA TEORIA DE CONJUNTOS 7
Ejemplo
Considerese los siguientes conjuntos:
S = {1 6 enteros 6 12}
B = {2, 6, 7, 8, 9, 10, 11}
A = {1, 3, 5, 12}
C = {1, 3, 4, 6, 7, 8}
Algebra de conjuntos
AB = BA
AB = BA
Ley distributiva
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
Ley asociativa
(A B) C = A (B C)
= ABC
(A B) C = A (B C)
= ABC
Leyes de De Morgan
AB = AB
AB = AB
Principio de la dualidad
Si en una identidad se reemplazara uniones por intersecciones, intersec-
ciones por uniones, S por y por S, la identidad se mantendra.
Ejemplo
Considerese la identidad
1.3. LOS CONCEPTOS DE LA PROBABILIDAD 9
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
N
! N
[ X
Axioma 3: P An = P (An ) (1.7)
n=1 n=1
Ejemplo
Aqu se analiza la situacion que puede ocurrir cuando se define un evento
discreto sobre un espacio continuo de muestras.
12 CAPITULO 1. TEORIA BASICA DE LA PROBABILIDAD
N
! N N
[ X X 1
P An = P (An ) = = 1 = P (S)
n=1 n=1 n=1
N
lo que satisface el axioma 3.
Si en este ejemplo se hace que xn xn1 0, la probabilidad P (An )
P (xn ); es decir, P (An ) deviene la probabilidad del puntero que cae directa-
mente en el punto xn . Puesto que N en esta situacion, P (An ) 0.
As, la probabilidad de un evento discreto definido sobre un espacio continuo
de muestras es 0. Esto es cierto en general.
Ejemplo
6
! 6
[ X 1 1
P (A) = P Ai,7i = P (Ai,7i ) = 6 =
i=1 i=1
36 6
1 1 1 1
P (B) = 9 = P (C) = 3 =
36 4 36 12
Adicionalmente,
1 1 10 5
P (B C) = 2 = P (B C) = =
36 18 36 18
Probabilidad conjunta
Equivalentemente,
Probabilidad condicional
Dado algun evento B con una probabilidad P (B) > 0 y no nula, se define
la probabilidad condicional de un evento A dado B, por
P (A B)
P (A | B) = (1.11)
P (B)
Esta probabilidad refleja el hecho de que la probabilidad de un evento A
depende de un segundo evento B. Si A y B son mutuamente excluyentes,
A B = , con lo que P (A | B) = 0.
Ejemplo
Tolerancia
Resistencia () 5 % 10 % Total
22 10 14 24
47 28 16 44
100 24 8 32
Total 62 38 100
44
P (A) =
100
62
P (B) =
100
32
P (C) =
100
Las probabilidades conjuntas son:
28
P (A B) =
100
P (A C) = 0
24
P (B C) =
100
Las probabilidades condicionales son:
P (AB)
P (A | B) = P (B)
= 28
62
P (AC)
P (A | C) = P (C)
= 0
P (BC)
P (B | C) = P (C)
= 24
32
Probabilidad total
N
[
Bn = S Bm Bn =
n=1
para todo m 6= n.
Se tiene que,
A = AS !
N
[
= A Bn
n=1
N
[
= (A Bn )
n=1
P (A) = P (A S)
"N #
[
= P (A Bn )
n=1
N
X
= P (A Bn )
n=1
XN
= P (A | Bn )P (Bn )
n=1
Teorema de Bayes
P (Bn A)
P (Bn | A) = (1.12)
P (A)
si P (A) 6= 0, o tambien,
P (A Bn
P (A | Bn ) = (1.13)
P (Bn )
si P (Bn ) 6= 0. Una forma del teorema de Bayes se obtiene igualando estas
dos dos ultimas expresiones:
P (A | Bn )P (Bn )
P (Bn | A) = (1.14)
P (A)
Una ecuacion equivalente (y mas conocida) se obtiene de una sustitucion
de P (A) en terminos de una probabilidad total:
P (A | Bn )P (Bn )
P (Bn | A) = (1.15)
P (A | B1 )P (B1 ) + + P (A | BN )P (BN )
para n = 1, 2, . . . , N .
Ejemplo
Un sistema de comunicaciones binario elemental consiste de un transmi-
sor que enva uno de dos posibles smbolos (un uno o un cero) sobre un canal
a un receptor. El canal ocasiona errores de modo que un uno aparece en el
receptor como un cero, y viceversa.
El espacio de muestras tiene dos elementos ( cero o uno). Se denota
por Bi , i = 1, 2, los eventos el smbolo antes del canal es uno y el
smbolo antes del canal es cero, respectivamente. Ademas, defina Ai ,
1.3. LOS CONCEPTOS DE LA PROBABILIDAD 19
Se tiene ademas:
P (A | B) = P (A) (1.16)
P (B | A) = P (B) (1.17)
Las ecuaciones 1.16 y 1.18 son condiciones tanto necesarias como suficien-
tes. En consecuencia, la ecuacion 1.18 puede servir como test de independen-
cia.
Se ha establecido que la probabilidad conjunta de dos eventos mutuamen-
te excluyentes es 0:
P (A B) = 0 (1.19)
tanto, para que dos eventos sean independientes deben tener una interseccion
A B 6= .
Si un problema involucra mas de dos eventos que satisfacen ya sea 1.16
o 1.18, se dice que tales eventos son independientes por parejas.
Caso de eventos multiples Cuando hay mas de dos eventos involucrados,
la independencia por parejas no es suficiente para establecer los eventos como
estadsticamente independientes.
Para el caso de tres eventos A1 , A2 , A3 , se dice que son independientes si
y solo si, son independientes por parejas todos y son tambien independientes
como tro, es decir, deben satisfacer las cuatro ecuaciones siguientes:
Ejemplo
1.3. LOS CONCEPTOS DE LA PROBABILIDAD 23
Las ecuaciones 1.20 y 1.21 no son validas si solo los eventos son inde-
pendientes por parejas.
Para este tipo de experimento, sea A el evento elemental que tiene uno de
los dos resultados posibles como su elemento. A es el otro posible (y unico)
evento elemental. Se repetira el experimento basico N veces, y se calculara la
probabilidad de que A acaezca k veces en las N veces. De aqu le viene el
nombre de pruebas repetidas o ensayos de Bernoulli.
Supongase que los eventos elementales son estadsticamente independien-
tes por cada ensayo. El evento A ocurre en cualquier ensayo con probabilidad
P (A) = p. El evento A entonces tiene probabilidad P (A) = 1 p.
Despues de N ensayos del experimento basico, una secuencia particular
de resultados tiene el evento A ocurriendo k veces, seguido por el evento A
ocurriendo N k veces. Puesto que se asumio la independencia estadstica
de los ensayos, la probabilidad de esta secuencia particular es:
N N!
= = {N
k (1.23)
k k!(N k)!
N
La cantidad k
se conoce como coeficiente binomial.
Se obtiene finalmente:
26 CAPITULO 1. TEORIA BASICA DE LA PROBABILIDAD
N k
P {A ocurre exactamente k veces} = p (1 p)N k (1.24)
k
Ejemplo
Un submarino intenta hundir un portaaviones. Sera exitoso solamente si
dos o mas torpedos aciertan en el barco. Si el submarino dispara tres torpedos
y la probabilidad de un acierto es 0,4 por cada torpedo, cual es la probabilidad
de que el barco sea hundido?
Defina el evento A = {aciertos de torpedo}. Entonces P (A) = 0,4, N =
3. Las probabilidades se hallan como sigue:
3
P {ningun acierto} = (0,4)0 (1 0,4)3 = 0,216
0
3
P {exactamente un acierto} = (0,4)1 (1 0,4)2 = 0,432
1
3
P {exactamente dos aciertos} = (0,4)2 (1 0,4)1 = 0,288
2
3
P {exactamente tres aciertos} = (0,4)3 (1 0,4)0 = 0,064
3
La respuesta que se busca es:
Ejemplo
En un cultivo usado para investigacion biologica el crecimiento de bacte-
rias (lo cual es inevitable) ocasionalmente altera los resultados de un experi-
mento que requiere a lo menos 3 de cuatro cultivos sin alterar para obtener
un punto dato. La experiencia ha demostrado que alrededor de 6 sobre 100
cultivos son alterados por las bacterias. Si el experimento requiere de tres
puntos datos inalterados y simultaneamente obtenidos para que sea exitoso,
se encontrara la probabilidad de exito por cada conjunto dado de 12 cultivos
(tres puntos datos a partir de cuatro cultivos cada uno).
Para resolver este problema, se calculara primero la probabilidad de en-
contrar un punto dato valido a partir de cuatro cultivos. Por consiguiente, se
tiene un problema de ensayo Bernoulli con N = 4 y p = P {buen cultivo} =
94
100
= 0,94.
El experimento dado sera exitoso cerca del 94,1 por ciento del tiempo.
28 CAPITULO 1. TEORIA BASICA DE LA PROBABILIDAD
Aproximaciones
1
m! (2m) 2 mm em (1.25)
para m grande. Al aplicar esta formula a los factoriales junto con otras apro-
ximaciones, se obtiene
(k N p)2
N k N k 1
p (1 p) p exp (1.26)
k 2N p(1 p) 2N p(1 p)
Ejemplo
Supongase que cierta ametralladora dispara balas durante tres segundos a
una tasa de 2400 por minuto, y la probabilidad de que una bala acierte en un
objetivo grande es 0,4. Encuentrese la probabilidad de que exactamente 50 de
las balas acierten en el objetivo.
Aqu N = 3( 2400
60
) = 120, k = 50, p = 0,4, N p = 120(0,4) = 48 y
N (1 p) = 120(0,6) = 72. As, puesto que N , k, (N k) = 70 son grandes
en tanto que k esta cerca de N p y la desviacion de k de N p (50 48 = 2) es
mucho mas pequena que N p = 48 y N (1 p) = 72, se puede usar la formula
de aproximacion anterior:
1.3. LOS CONCEPTOS DE LA PROBABILIDAD 29
(50 120(0,4))2
120 50 12050 1
0,4 (0,6) p exp
50 2120(0,4)(0,6) 2(120)(0,4)(0,6)
= 0,0693
(N p)k eN p
N k
p (1 p)N k (1.27)
k k!
para N grande y p pequena.
30 CAPITULO 1. TEORIA BASICA DE LA PROBABILIDAD
Captulo 2
Variables aleatorias
31
32 CAPITULO 2. VARIABLES ALEATORIAS
2.1. Preambulo
El concepto de variable aleatoria es muy importante dentro de la teora
general de los procesos estocasticos. De hecho, es el concepto fundamental
que soporta tal teora.
Es conveniente prestarle mucha atencion pues, una vez comprendido, la
presentacion de la materia relevante se hace muy comprensible.
2.2. Concepto
Una variable aleatoria real (las hay tambien complejas) es una funcion
real de los elementos de un espacio de muestras S. Una variable aleatoria se
representara por una letra mayuscula (W, X, Y) y cualquier valor particular
de la variable aleatoria por una letra minuscula (w, x, y). De esta forma, dado
un experimento definido por un espacio de muestras S con elementos s, se
asigna a todo s un numero real X(s) de acuerdo con alguna regla especfica,
y a X(s) se le llama variable aleatoria.
Una variable aleatoria X puede verse como una funcion que mapea todos
los elementos del espacio S a puntos sobre la recta real o sobre algunos
segmentos de ella.
Ejemplo
Un experimento consiste en tirar un dado y voltear una moneda. El espa-
cio de muestras consiste de doce elementos:
(C, 6) (E, 6)
(C, 5) (E, 5)
(C, 4) (E, 4)
(C, 3) (E, 3)
(C, 2) (E, 2)
(C, 1) (E, 1)
2.2. CONCEPTO 33
Sea X una variable aleatoria definida como: (1) un resultado escudo co-
rresponde a valores positivos de X que son iguales a los numeros que se
muestran en el dado y, (2) un resultado corona corresponde a valores nega-
tivos de X que son iguales en magnitud a dos veces el numero aparecido en
el dado. X mapea S a doce valores entre 12 y 6.
Ejemplo
Considerese una rueda con numeros marcados en su circunferencia, nu-
merados de 1 a 12, imitando un reloj, con la diferencia de que hay un pun-
tero en lugar de las dos manecillas del reloj. De esta forma, si se da vuelta
al puntero, este senalara un numero localizado en el intervalo ]0, 12]. El ex-
perimento fsico a considerar en este caso es girar el puntero y producir un
numero dentro del intervalo dado. S consiste de los numeros en el conjunto
{0 < s 6 12}. Se define una variable aleatoria por la funcion X = X(s) = s2 .
Los puntos de S mapean a la recta real como el conjunto {0 < x 6 144}.
Una variable aleatoria puede ser cualquier funcion que se desee, excepto
que no puede ser multivaluada. Es decir, todo punto en S debe corresponder
a solamente un valor de la variable aleatoria. Dos condiciones adicionales
deben ser satisfechas por una funcion X para que sea una variable aleatoria.
34 CAPITULO 2. VARIABLES ALEATORIAS
Una variable aleatoria mixta es una para la que algunos de sus valores
son discretos y algunos son continuos. Este caso es de los menos importantes,
2.3. LA FUNCION DE DISTRIBUCION 35
FX (x) = P {X 6 x} (2.1)
1. FX () = 0
2. FX () = 1
3. 0 6 FX (x) 6 1
mas grandes que algun numero x1 pero que no exceda otro numero x2 , es igual
a la diferencia en FX (x) evaluada en tales puntos. Esto viene del hecho de
que los eventos {X 6 x1 } y {x1 < X 6 x2 } son mutuamente excluyentes de
modo que, la probabilidad del evento {X 6 x2 } = {X 6 x1 }{x1 < X 6 x2 }
es la suma de las probabilidades P {X 6 x1 } y P {x1 < X 6 x2 }. La sexta
propiedad establece que FX (x) es una funcion continua desde la derecha.
Las propiedades 1, 2, 4 y 6 pueden usarse como temes en una prueba
para probar si una funcion dada es una funcion de distribucion valida. Las
cuatro propiedades deben ser satisfechas.
Si X es una variable aleatoria discreta, FX (x) debe tener una forma es-
calonada. La amplitud de un escalon igualara la probabilidad de ocurrencia
del valor de X donde el escalon ocurre. Si los valores de X se denotan xi ,
FX (x) se escribe como:
N
X
FX (x) = P {X = xi }u(x xi ) (2.2)
i=1
P (xi ) = P {X = xi }
se puede reescribir,
N
X
FX (x) = P (xi )u(x xi ) (2.3)
i=1
Ejemplo
X tiene los valores discretos {1; 0,5; 0,7; 1,5; 3}. Las probabilidades co-
rrespondientes son {0,1; 0,2; 0,1; 0,4; 0,2}. Ahora, P {X < 1} = 0 dado que
no hay puntos del espacio de muestra en el conjunto {X < 1}. Solamente
2.4. FUNCION DE DENSIDAD PROBABILISTICA 37
dFX (x)
fX (x) = (2.4)
dx
A fX (x) a menudo se le llama simplemente funcion de densidad.
Para una variable aleatoria discreta, despues de derivar FX (x):
N
X
fX (x) = P (xi )(x xi ) (2.5)
i=1
Ejemplo
Se tiene una funcion gX (x) definida por:
0 x0 > x > x0 +
1
2
(x x0 + ) x0 6 x < x0
gX (x) =
1 1
(x x0 ) x0 6 x < x0 +
2
Se trata de una funcion triangular, con una area determinada por el pro-
ducto a. Para que sea una funcion de densidad, se debe tener que a = 1,
2.4. FUNCION DE DENSIDAD PROBABILISTICA 39
0 x0 > x
2
(xx20 +) x0 6 x < x0
2
GX (x) =
1
+ 1 (x x0 ) 1
(x x0 )2 x0 6 x < x0 +
2 22
1 x0 + 6 x
Ejemplo
Suponga que una variable aleatoria tiene la densidad de probabilidad trian-
1
gular del ejemplo anterior con x0 = 8, = 5 y a =
= 51 . Por el trabajo
hecho anteriormente,
0 3 > x > 13
(x3)
fX (x) = 25
36x<8
(x8)
0,2
25
8 6 x < 13
Se va a buscar la probabilidad de que X tenga valores mayores que 4,5
pero menores que 6,7. De acuerdo con la cuarta propiedad de las funciones
de densidad, expuesta anteriormente:
6,7
(x 3)
Z
P {4,5 < X 6 6,7} = dx
4,5 25
6,7
1 x2
= 3x
25 2 4,5
= 0,2288
40 CAPITULO 2. VARIABLES ALEATORIAS
(x aX )2
1
fX (x) = p exp 2
(2.6)
2
2X 2X
donde X > 0 y < aX < son constantes reales. Su valor maximo
p
2
1/ 2X ocurre en x = aX . Su dispersion (es decir, la forma particular en
que se distribuyen los valores de la funcion) alrededor de x = aX esta relacio-
nado con X . La funcion disminuye a 0,607 veces su maximo en x = aX + X
y en x = aX X .
La respectiva funcion de distribucion es:
x
( aX )2
Z
1
FX (x) = p exp 2
d (2.7)
2
2X 2X
La integral anterior no puede resolverse en forma cerrada, por lo que para
su evaluacion, se debe utilizar metodos numericos de aproximacion. Dado que
la variable aleatoria gaussiana es muy usada para modelar el comportamiento
de numerosas variables fsicas, se ha escogido evaluar la integral 2.7 para el
caso normalizado de aX = 0 y X = 1, para as construir una tabla unica
que pueda usarse para todos los valores arbitrarios de aX y X .
Para utilizar la tabla mencionada anteriormente, se utiliza una transfor-
macion que se justifica mediante el siguiente procedimiento.
Considerese el caso normalizado donde aX = 0 y X = 1.
x
2
Z
1
F (x) = exp d (2.8)
2 2
Se trata de una funcion que depende solamente de x. Usualmente, las
tablas construidas para el caso normalizado se tabulan para x > 0. Para un
2.4. FUNCION DE DENSIDAD PROBABILISTICA 41
( aX )
u= (2.10)
X
de donde se obtiene d = X du y,
Z (xaX )/X
1 1 2
FX (x) = exp u du (2.11)
2 2
Esta expresion es equivalente a:
x aX
FX (x) = F (2.12)
X
Ejemplo
Encuentre la probabilidad del evento {X 6 5,5} para una variable aleato-
ria gaussiana con aX = 3 y X = 2.
Se tiene aqu que:
(x aX ) (5,5 3)
= = 1,25
X 2
Con lo que entonces:
Ejemplo
Suponga que la altura de las nubes arriba de la tierra en cierto lugar
es una variable aleatoria gaussiana X con aX = 1830 metros y X = 460
42 CAPITULO 2. VARIABLES ALEATORIAS
metros. Encuentre la probabilidad de que las nubes estaran mas altas que
2750 metros.
N
X N
fX (x) = pk (1 p)N k (x k) (2.13)
k=0
k
N
se llama la funcion de densidad binomial. La cantidad k
es el coeficiente
binomial
N N!
= (2.14)
k k!(N k)!
La densidad binomial se aplica al experimento de las pruebas de Bernoulli,
como asimismo a muchos juegos de azar, problemas de deteccion en radar
y sonar, y muchos experimentos con solamente dos posibles resultados en
cualquier prueba.
La correspondiente funcion de distribucion binomial es
N
X N
FX (x) = pk (1 p)N k u(x k) (2.15)
k=0
k
Funcion de densidad Poisson La variable aleatoria de Poisson X tiene
una densidad y distribucion dadas por
2.4. FUNCION DE DENSIDAD PROBABILISTICA 43
b
X bk
fX (x) = e (x k) (2.16)
k=0
k!
X bk
FX (x) = eb u(x k) (2.17)
k=0
k!
donde b > 0 es una constante real. Cuando son graficadas, estas funciones
parecen similares a la variable aleatoria binomial. De hecho, si N y
p 0 para el caso binomial de tal manera que N p = b, una constante,
entonces resulta la funcion de densidad de Poisson.
La variable aleatoria de Poisson se aplica a una amplia variedad de apli-
caciones que incluyen conteo. Describe el numero de unidades defectuosas
en una muestra tomada de una lnea de produccion, el numero de llamadas
telefonicas hechas durante un periodo de tiempo, el numero de electrones emi-
tidos desde una pequena seccion de un catodo en un intervalo dado, etcetera.
Si el intervalo de interes tiene duracion T y los eventos que se cuentan se sa-
be que ocurren a una tasa promedio y siguen una distribucion de Poisson,
entonces b esta dado por
b = T (2.18)
Ejemplo
Suponga que las llegadas de automoviles a una estacion de gasolina siguen
la distribucion de Poisson y ocurren a una tasa promedio de 50/hora. La
estacion tiene una sola bomba de gasolina. Si todos los carros se supone que
requieren de un minuto para cargar, cual es la probabilidad de que una fila
de espera ocurra en la bomba?
Una fila de espera ocurrira si dos o mas carros llegan en cualquier interva-
lo de un minuto. La probabilidad de este evento es uno menos la probabilidad
44 CAPITULO 2. VARIABLES ALEATORIAS
1
ba
a6x6b
fX (x) = (2.19)
0 para otros valores de x
0 x<a
(xa)
FX (x) = (ba)
a6x<b (2.20)
1 b6x
para constantes reales < a < y b > a.
La funcion de densidad uniforme halla un sinnumero de usos practicos.
Una aplicacion particularmente importante es en la cuantizacion de las mues-
tras de senal antes de su codificacion en sistemas de comunicaciones digitales.
La cuantizacion involucra el redondeo de la muestra real al mas cercano de
un numero grande de niveles discretos cuanticos. Los errores producidos en
el proceso de redondeo estan uniformemente distribuidos.
Funcion de densidad exponencial Las funciones de distribucion y de
densidad exponencial son:
1 xa
b
exp b
x>a
fX (x) = (2.21)
0 x<a
2.4. FUNCION DE DENSIDAD PROBABILISTICA 45
xa
1 exp b
x>a
FX (x) = (2.22)
0 x<a
para numeros reales < a < y b > 0.
La funcion de densidad exponencial es util para describir los tamanos de
las gotas cuando se hace un gran numero de mediciones de lluvia. Tambien
describe aproximadamente las fluctuaciones en la fuerza de la senal recibida
por radar de ciertos aviones.
Ejemplo
La potencia reflejada de un avion de estructura compleja que es recibida
por un radar puede describirse por una variable aleatoria exponencial P . La
funcion de densidad de P es por lo tanto,
( h i
1
P0
exp Pp0 p>0
fP (p) =
0 p<0
donde P0 es la cantidad promedio de potencia recibida. A algun tiempo dado
P puede haber un valor diferente de su valor promedio y se puede hacer la
pregunta: cual es la probabilidad de que la potencia recibida sea mayor que
la potencia recibida en el promedio?
Se debe hallar P {P > P0 }:
P {P > P0 } = 1 P {P 6 P0 }
= 1 FP (P0 )
P0
= 1 1 exp
P0
1
= e 0,368
FX (x | B) = P {X 6 x | B} (2.25)
P {{X 6 x} B}
=
P (B)
2.5. DENSIDAD Y DISTRIBUCION CONDICIONALES 47
(2.26)
X(s) 6 x y s B
1. FX ( | B) = 0
2. FX ( | B) = 1
3. 0 6 FX (x | B) 6 1
6. FX (x+ | B) = FX (x | B)
d
fX (x | B) = FX (x | B) (2.27)
dx
48 CAPITULO 2. VARIABLES ALEATORIAS
1. fX (x | B) > 0
Z
2. fX (x | B)dx = 1
Z x
3. FX (x | B) = fX (v | B)dv
Z x2
4. P {x1 < X 6 x2 | B} = fX (x | B)dx
x1
Ejemplo
Dos cajas tienen bolas rojas, verdes y azules; el numero de bolas de cada
color en cada caja se da en la tabla siguiente.
B1 B2 es el evento seguro, puesto que alguna caja debe ser escogida; por lo
tanto, P (B1 ) + P (B2 ) debe igualar 1).
5 80
P (X = 1 | B = B1 ) = P (X = 1 | B = B2 ) =
100 150
35 60
P (X = 2 | B = B1 ) = P (X = 2 | B = B2 ) =
100 150
60 10
P (X = 3 | B = B1 ) = P (X = 3 | B = B2 ) =
100 150
5 35 60
fX (x | B1 ) = (x 1) + (x 2) + (x 3)
100 100 100
5 35 60
FX (x | B1 ) = u(x 1) + u(x 2) + u(x 3)
100 100 100
P (X = 1) = P (X = 1 | B1 )P (B1 ) + P (X = 1 | B2 )P (B2 )
5 2 80 8
= +
100 10 150 10
= 0,437
P (X = 2) = P (X = 2 | B1 )P (B1 ) + P (X = 2 | B2 )P (B2 )
35 2 60 8
= +
100 10 150 10
= 0,390
P (X = 3) = P (X = 3 | B1 )P (B1 ) + P (X = 3 | B2 )P (B2 )
60 2 10 8
= +
100 10 150 10
= 0,173
Finalmente,
P {{X 6 x} {X 6 b}}
FX (x | X 6 b) = P {X 6 x | X 6 b} =
P {X 6 b}
2.5. DENSIDAD Y DISTRIBUCION CONDICIONALES 51
P {{X 6 x} {X 6 b}}
FX (x | X 6 b) =
P {X 6 b}
P {X 6 b}
=
P {X 6 b}
= 1
P {{X 6 x} {X 6 b}}
FX (x | X 6 b) =
P {X 6 b}
FX (x)
=
FX (b)
fX (x) fX (x)
F (b) = R b x<b
X fX (x)dx
fX (x | X 6 b) =
0 x>b
De la suposicion inicial de que el evento condicionante tiene probabilidad
diferente de cero, se tiene que 0 < FX (b) 6 1, con lo que la funcion de
52 CAPITULO 2. VARIABLES ALEATORIAS
Ejemplo
x2
FX (x) = 1 exp u(x)
800
E[X] = X (2.30)
Z
= xfX (x)dx (2.31)
Z N
X
E [X] = x P (xi )(x xi )dx
i=1
N
X Z
= P (xi ) x(x xi )dx
i=1
XN
= xi P (xi ) (2.32)
i=1
E [X] = a si fX (x + a) = fX (x + a)
Z
E [g(X)] = g(x)fX (x)dx (2.33)
N
X
E [g(X)] = g(xi )P (xi ) (2.34)
i=1
Ejemplo
Se sabe que un voltaje aleatorio particular puede representarse como una
variable aleatoria Rayleigh V con una funcion de densidad dada por a = 0 y
b = 5. El voltaje se aplica a un dispositivo que genera una salida Y = g(V ) =
V 2 , que es igual numericamente a la potencia de V (sobre una resistencia de
1 ).
La potencia promedio de V se encuentra como
E [g(V )] = E V 2
Z 2
2 2 v
= v v exp dv
0 5 5
Z 2
2 3 v
= v exp dv
0 5 5
Z
= 5e d
0
= 5
v2
En el desarrollo inmediato anterior, se utilizo la sustitucion = 5
y
luego se utilizo la tecnica de integracion por partes.
Si g(X) es una suma de N funciones gn (X), n = 1, . . . , N entonces el
valor esperado de la suma de N funciones de una variable aleatoria X es la
suma de los N valores esperados de las funciones individuales de la variable
aleatoria.
56 CAPITULO 2. VARIABLES ALEATORIAS
Z
E [X | {X 6 b}] = xfX (x | B)dx
Z " #
fX (x)
= x Rb dx
X
f (x)dx
R
xfX (x)dx
= R
b
(2.37)
f (x)dx
X
2.9. Momentos
2.9.1. Momentos alrededor del origen
La funcion g(X) = X n , n = 0, 1, 2, . . ., da los momentos alrededor del
origen de la variable aleatoria X.
mn = E [X n ] (2.38)
Z
= xn fX (x)dx (2.39)
2.9. MOMENTOS 57
n
n = E X X (2.40)
Z
n
= x X fX (x)dx (2.41)
h 2 i
2
X = E X X (2.42)
Z
= (x X)2 fX (x)dx (2.43)
h 2
i
= E X 2 2XX + X
2
= E[X 2 ] 2 (E[X])2 + X
2
= E[X 2 ] X (2.44)
= m2 m21 (2.45)
X () = E ejX
(2.46)
donde j = 1. Esta es una funcion del numero real < < y es la
transformada de Fourier (con el signo de cambiado) de fX (x):
Z
X () = fX (x)ejx dx (2.47)
n
nd X ()
mn = (j) (2.49)
d n =0
Una gran ventaja de usar X () para hallar momentos es que X ()
existe siempre, de modo que los momentos pueden encontrarse si X () es
conocida, siempre que sus momentos y derivadas existan.
Puede demostrarse que la magnitud maxima de una funcion caracterstica
es uno y ocurre en = 0; es decir,
MX () = E [ex ] (2.51)
Z
= fX (x)ex dx (2.52)
dn MX ()
mn = (2.53)
d n =0
La principal desventaja de la funcion generadora de momentos, de manera
contraria a como sucede con la funcion caracterstica, es que puede no existir
para todas las variables aleatorias y todos los valores de . No obstante, si
MX () existe para todos los valores de en un vecindario de = 0, los
momentos estan dados por la ecuacion 2.53.
60 CAPITULO 2. VARIABLES ALEATORIAS
Ejemplo
Considerese la variable aleatoria exponencialmente distribuida X con fun-
cion de densidad
1
e(xa)/b x > a
b
fX (x) =
0 x<a
Z
1 (xa)/b jx
X () = e e dx
a b
a/b Z
e 1
= exp j x dx
b a b
a/b (1/bj)x
e e
=
b (1/b j) a
eja
=
1 jb
La derivada de X () es
Z
1 (xa)/b x
MX () = e e dx
a b
a/b Z
e 1
= e( b )x dx
b a
a/b ( 1 )x
e e b
= 1
b b
a
a/b ( 1 )a
e e b
= 1
b b
ea
=
1 b
dMX ()
m1 =
d =0
aea (1 b) (b)ea
=
(1 b)2
=0
= a+b
Y = T (X) (2.54)
62 CAPITULO 2. VARIABLES ALEATORIAS
y0 = T (x0 ) o x0 = T 1 (y0 )
FY (y0 ) = P {Y 6 y0 } = P {X 6 x0 } = FX (x0 )
Z y0 Z x0 =T 1 (y0 )
fY (y)dy = fX (x)dx (2.55)
2
V. A.: variable aleatoria.
2.11. TRANSFORMACIONES DE UNA VARIABLE ALEATORIA 63
Z (u)
G(u) = H(x, u)dx
(u)
Z (u)
dG(u) d(u) d(u) H(x, u)
= H [(u), u] H [(u), u] + dx (2.56)
du du du (u) u
dT 1 (y0 )
fY (y0 ) = fX T 1 (y0 )
(2.57)
dy0
Como la ecuacion anterior aplica para cualquier y0 , se puede eliminar el
subndice y escribir:
dT 1 (y)
fY (y) = fX T 1 (y)
dy
dx
= fX (x) (2.58)
dy
dT 1 (y)
fY (y) = fX T 1 (y)
dy
dx
= fX (x) (2.59)
dy
No obstante, dado que la pendiente de T 1 (y) es negativa pues la transfor-
macion es decreciente, se concluye que, para cualquier tipo de transformacion
monotonica:
1 dT 1 (y)
fY (y) = fX T (y)
dy
dx
= fX (x) (2.60)
dy
Este ultimo resultado nos da la funcion de densidad probabilstica de
la nueva variable aleatoria Y, por lo que tal expresion debe siempre quedar
en terminos de la variable y. Por consiguiente, al lado derecho de la ultima
ecuacion, todo debe quedar escrito en terminos de tal variable.
Ejemplo
Si Y = T (X) = aX+b, donde a, b R, entonces X = T 1 (Y ) = (Y b)/a
y dx/dy = 1/a.
(y b) 1
fY (y) = fX
a a
Si X es gaussiana, la funcion de densidad de Y quedara como:
h i2
(yb)
1 a aX
1
fY (y) = p exp 2
2X2
2 X a
( )
1 [y (aaX + b)]2
= p exp 2
2
2a2 X 2a2 X
2.11. TRANSFORMACIONES DE UNA VARIABLE ALEATORIA 65
aY = aaX + b y Y2 = a2 X
2
Este ultimo ejemplo nos indica que una transformacion lineal de una
variable aleatoria gaussiana produce otra variable aleatoria gaussiana. En
el mundo practico, un amplificador lineal con un voltaje aleatorio X a su
entrada es un ejemplo de una transformacion lineal.
Z
FY (y0 ) = P {Y 6 y0 } = P {x | Y 6 y0 } = fX (x)dx
{x|Y 6y0 }
Z
d
fY (y0 ) = fX (x)dx (2.61)
dy0 {x|Y 6y0 }
X f (x )
fY (y) = X n (2.62)
dT (x)
n
dx x=xn
donde la suma incluye todas las races xn , n = 1, 2, . . . , que son las soluciones
reales de la ecuacion y = T (x). Si y = T (x) no tiene races reales para un
valor dado de y, fY (y) = 0.
Ejemplo
Encuentrese fY (y) para la transformacion de ley cuadrada Y = T (X) =
cX 2 , donde c > 0 R.
Para la solucion, se utilizara dos metodos.
p p
Metodo 1: El evento {Y 6 y} ocurre cuando { y/c 6 x 6 y/c} =
{x | Y 6 y}, con lo que
Z y/c
FY (y) = fX (x)dx
y/c
Z y/c
d
fY (y) = fX (x)dx
dy y/c
p 1 1 p 1 1
fY (y) = fX ( y/c) fX ( y/c)
c 2 y c 2 y
p p
fX ( y/c) + fX ( y/c)
= y>0
2 yc
Metodo 2: Si se despeja X de la ecuacion Y = cX 2 se encuentra:
Y
= X2
c p
X = Y /c
2.11. TRANSFORMACIONES DE UNA VARIABLE ALEATORIA 67
dT (x)
p p
de modo que x1 = y/c, x2 = y/c. Ademas, dx
= 2xc, con lo que
r
dT (x) y
= 2c = 2 yc
dx x=x1 c
r
dT (x) y
= 2c = 2 yc
dx x=x2 c
Finalmente,
p p
fX ( y/c) fX ( y/c)
fY (y) = +
|2 cy| |2 yc|
p p
fX ( y/c) + fX ( y/c)
= y>0
2 yc
X
fX (x) = P (xn )(x xn ) (2.63)
n
X
FX (x) = P (xn )u(x xn ) (2.64)
n
X
fY (y) = P (yn )(y yn ) (2.65)
n
X
FY (y) = P (yn )u(y yn ) (2.66)
n
69
70 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
3.1. Preambulo
A pesar del ttulo de este captulo, nuestro estudio hara enfasis sobre la
teora de dos variables aleatorias.
Si bien el estudio sera restringido a dos variables aleatorias, la generaliza-
cion a tres o mas variables sera evidente y podra llevarse a cabo sin dificultad.
A = {X 6 x} B = {Y 6 y}
N X
X M
FX,Y (x, y) = P (xn , ym )u(x xn )u(y ym ) (3.2)
n=1 m=1
2. FX,Y (, ) = 1.
72 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
3. 0 6 FX,Y (x, y) 6 1.
5. FX,Y (x2 , y2 )+FX,Y (x1 , y1 )FX,Y (x1 , y2 )FX,Y (x2 , y1 ) = P {x1 < X1 6
x2 , y1 < Y 6 y2 } > 0.
2 FX,Y (x, y)
fX,Y (x, y) = (3.4)
xy
Se le conoce tambien como funcion de densidad conjunta.
La funcion de densidad conjunta para dos variables aleatorias discretas
estara dada por:
N X
X M
fX,Y (x, y) = P (xn , ym )(x xn )(y ym ) (3.5)
n=1 m=1
Cuando N variables aleatorias X1 , X2 , . . . , XN estan involucradas, la fun-
cion de densidad conjunta se convierte en la N -esima derivada parcial de la
funcion de distribucion N -dimensional
Z xN Z x1
FX1 ,...,XN (x1 , . . . , xN ) = fX1 ,...,XN (v1 , . . . , vN )dv1 dvN
dFX (x)
fX (x) =
dx
dFY (y)
fY (y) =
dy
Ejemplo
Encuentre fX (x) y fY (y) cuando la funcion de densidad conjunta es
Z
fX (x) = u(x)u(y)xex(y+1) dy
0
Z
x
= u(x)xe exy dy
0 xy
e
= xex u(x)
x 0
= ex u(x)
3.5. DENSIDAD Y DISTRIBUCION CONDICIONAL 75
Z
fY (y) = u(x)u(y)xex(y+1) dx
0
Z
= u(y) xex(y+1) dx
0
x(y+1)
xex(y+1)
e
= u(y)
y+1
0 (y + 1)2 0
u(y)
=
(y + 1)2
En el calculo de la funcion de densidad de Y , se utilizo la tecnica de la
integracion por partes.
Z Z
fX1 ,...,XK (x1 , . . . , xK ) = fX1 ,...,XN (x1 , . . . , xN )dxK+1 dxN
(3.7)
B = {y y < Y 6 y + y}
R y+y R x
yy
f (v1 , v2 )dv1 dv2
X,Y
FX (x|y y < Y 6 y + y) = R y+y (3.8)
yy Y
f (v)dv
M
X
fY (y) = P (yj )(y yj )
j=1
N X
X M
fX.Y (x, y) = P (xi , yj )(x xi )(y yj )
i=1 j=1
N
X P (xi , yk )
FX (x|Y = yk ) = u(x xi ) (3.9)
i=1
P (yk )
Despues de derivar,
N
X P (xi , yk )
fX (x|Y = yk ) = (x xi ) (3.10)
i=1
P (yk )
3.5. DENSIDAD Y DISTRIBUCION CONDICIONAL 77
Rx
fX,Y (v, y)dv
FX (x|Y = y) = (3.11)
fY (y)
para todo y tal que fY (y) 6= 0. Despues de diferenciar ambos lados con
respecto a x:
fX,Y (x, y)
fX (x|Y = y) = (3.12)
fY (y)
Cuando no haya confusion con respecto al significado,
fX,Y (x, y)
fX (x|y) = (3.13)
fY (y)
Puede tambien demostrarse que:
fX,Y (x, y)
fY (y|x) = (3.14)
fX (x)
Ejemplo
Encuentre fY (y|x) para las funciones de densidad del ejemplo anterior.
Dado que:
no son nulas para x > 0, y > 0, fY (y|x) no es nulo solamente para y > 0
y x > 0.
fY (y|x) = u(x)u(y)xexy
78 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
Ejemplo
Encuentre fX (x|Y 6 y) de la funcion de densidad conjunta del ejemplo
anterior.
Puesto que se ha definido B = {Y 6 y}, entonces ya = e yb = y.
Ademas, dado que fX,Y (x, y) es no nula para x > 0 e y > 0, se necesita
solamente considerar esta region de x e y para hallar la funcion de densidad
condicional. El denominador de la formula anterior es
y y y
y
1
Z Z Z
u(v)dv dv y
fY (v)dv = = = = y>0
(v + 1)2 0 (v + 1)2 (v + 1) 0 y + 1
Z y Z y
fX,Y (x, v)dv = u(x)xex(v+1) dv
0
Z y
x
= xu(x)e exv dv
0 xv y
e
xu(x)ex
=
x 0
u(x)ex exy 1
=
1 exy u(x)ex y > 0
=
P {X 6 x, Y 6 y} = P {X 6 x}P {Y 6 y} (3.18)
P {X 6 x, Y 6 y}
FX (x|Y 6 y) = (3.21)
P {Y 6 y}
FX,Y (x, y)
= (3.22)
FY (y)
= FX (x) (3.23)
Ejemplo
Para las densidades de los ejemplos anteriores,
En tanto que,
ex
fX (x)fY (y) = u(x)u(y)
(y + 1)2
Como fX,Y (x, y) 6= fX (x)fY (y), las variables aleatorias X e Y no son
independientes.
W =X +Y (3.26)
FW (w) = P {W 6 w} = P {X + Y 6 w} (3.27)
Z Z wy
FW (w) = fX,Y (x, y)dxdy (3.28)
x=
Z Z wy
FW (w) = fY (y) fX (x)dxdy (3.29)
x=
Z
fW (w) = fY (y)fX (w y)dy (3.30)
82 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
Ejemplo
Encuentre la funcion de densidad de W = X + Y donde las densidades
respectivas son:
1
fX (x) = [u(x) u(x a)]
a
1
fY (y) = [u(y) u(y b)]
b
Z a
1 sx
L{fX (x)} = e dx
0 a
sx a
1 e
=
a s 0
1
1 eas
=
as
1
1 ebs
L{fY (y)} =
bs
1 1
1 ebs eas + e(a+b)s
L{fX (x)}L{fY (y)} =
ab s2
Lo que sigue ahora es encontrar la transformada de Laplace inversa, para
lo que es importante recordar la siguiente transformada:
n!
L{tn } =
sn +1
Se obtiene entonces:
11 as bs (a+b)s
fW (w) = L 1e e +e
abs2
1 1 1
= wu(w) (w a)u(w a) (w b)u(w b)
ab ab ab
1
+ (w a b)u(w a b)
ab
Notese que se ha hecho cambios de variable para emplear correctamente
la transformada de Laplace. Finalmente, dado que el resultado debe ser una
funcion de densidad, una prueba que se puede hacer para probar si el resultado
es correcto, es comprobar que el area bajo la curva de la nueva funcion es en
efecto igual a la unidad.
cho de que los Xi esten distribuidas identicamente implica que tienen una
distribucion comun - la distribucion de poblacion. Si la distribucion de pobla-
cion es normal o gaussiana, entonces la media de la muestra X esta tambien
distribuida normalmente. El teorema del lmite central establece que si bien
la distribucion de la poblacion pueda estar lejos de ser normal, aun para un
tamano N grande de la muestra, la distribucion de la media de la muestra X
es aproximadamente normal, con una aproximacion que mejora conforme au-
menta N . El teorema del lmite central permite el calculo de probabilidades
que involucran a X aun cuando las Xi individuales tienen una distribucion
desconocida y muy complicada. Solamente la media de la poblacion y la
desviacion estandar son necesarias para obtener la distribucion aproximada
de X.
El teorema del lmite central sera enunciado dos veces, una vez para sumas
y luego para las medias de muestra.
3.8. TEOREMA DEL LIMITE CENTRAL 85
S N = X1 + + XN (3.32)
Entonces la distribucion de
SN N
Z= (3.33)
N
1
La notacion N (0, 1) se refiere a una funcion de densidad gaussiana de media 0 y
varianza 1.
86 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
E [SN ] = E [X1 + X2 + + XN ]
= + + +
= N
h 2 i
2
SN = E SN SN
= E SN (E [SN ])2
2
E SN 2 = E (X1 + X2 + + XN )2
= E [(X1 + X2 + + XN )(X1 + X2 + + XN )]
= E X12 + X1 X2 + X1 X3 + X1 XN + + . . .
. . . + XN X1 + XN X2 + + XN XN 1 + XN2
N
X N
X
= E[Xi2 ] + E[Xi ]E[Xj ]
i=1 i=1,i6=j
= N ( + ) + N (N 1)2
2 2
= N 2 + N 2 + N 2 2 N 2
= N 2 + N 2 2
Finalmente,
3.8. TEOREMA DEL LIMITE CENTRAL 87
SN 2 = E SN 2 (E [SN ])2
= N 2 + N 2 2 N 2 2
= N 2
de donde se obtiene que SN = N .
Ejemplo
Se instala sucesivamente bombillos en un plafon. Suponga que cada uno
tiene una vida media de 2 meses con una desviacion estandar de 1/4 de mes.
Encuentre la probabilidad P {40 bombillos duran por lo menos 7 anos}.
Sea Xi el tiempo de vida del bombillo i-esimo instalado. Entonces N bom-
billos duran un tiempo total de SN = X1 + + XN . Con N = 40, = 2,
= 1/4,
S40 40 2
0,25 40
es una variable aleatoria distribuida aproximadamente de la forma N (0, 1),
suponiendo que N = 40 es suficientemente grande.
S40 80 84 80
P {S40 > 7 12 meses} = P >
0,25 40 0,25 40
= P {Z > 2,53}
= 1 P {Z < 2,53}
= P {Z < 2,53}
= 0,0057
Ejemplo
88 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
E [SN ] = 2N SN = 0,25 N
60 2N
= 1,645
0,25 N
Lo anterior lleva a una ecuacion cuadratica sobre la raz de N:
N 0,20565 N 30 = 0
p p
N1 = 5,581 o N2 = 5,375
SN N X
=
N / N
Sean X1 , . . . , XN variables aleatorias independientes e identicamente dis-
tribuidas con media comun , desviacion estandar y media de la muestra
X. Entonces la distribucion de la variable aleatoria definida por
X
Z=
/ N
aproxima N (0, 1) conforme N .
Ejemplo
Sea S la vida promedio de una caja de 25 bombillos de luz.
S2
Z=
0,25/5
es aproximadamente N (0, 1). As,
1,9 2
P {S > 1,9} = P Z >
0,25/5
= P {Z > 2}
= 1 P {Z < 2}
= 1 0,0228
= 0,9772
c
= 1,96
0,25/5
con lo que c = 0,098. De esta manera, 95 % de los paquetes con 25 bom-
billos tendra vida promedio en [1,902 2,098].
3.9. DESIGUALDAD DE CHEBYSHEV Y LEY DE LOS GRANDES NUMEROS91
Z
P (|W | > ) = f (x)dx
|x|>
2
Z
= f (x)dx
x2 >2 2
2 x2
Z Z
f (x)dx 6 f (x)dx
x2 >2 2 x2 >2 2
Z 2
x
6 f (x)dx
2
1 2
Z
= 2 x f (x)dx
E[W 2 ]
=
2
2
= 2
Notese que la primera desigualdad viene del hecho que el intervalo de
integracion lo constituye los puntos x donde x2 > 2 y, por lo tanto, el
integrando sera mas grande si 2 se reemplaza por x2 en el numerador. La
segunda desigualdad viene de aumentar el intervalo de integracion de los
puntos x donde x2 > 2 , a la recta numerica de a +.
Por consiguiente, se ha demostrado que si E[W ] = 0 y dado cualquier
numero positivo , el evento que W difiera en por lo menos de cero, esta aco-
tado:
2
P (|W | > ) 6
2
Supongase ahora que X es cualquier variable aleatoria y sea = E[X].
Entonces W = X tiene E[W ] = 0, por lo que el desarrollo anterior aplica
a W . Se puede entonces afirmar lo siguiente:
Desigualdad de Chebyshev: Sea X una variable aleatoria con media finita
y varianza finita 2 . Entonces para > 0 un numero fijo, la probabilidad
que X difiera en a lo menos de su media, esta acotada:
2
P (|X | > ) 6
2
3.9. DESIGUALDAD DE CHEBYSHEV Y LEY DE LOS GRANDES NUMEROS93
2
P (|X | < ) > 1
2
Ejemplo
32 16
P (95 < X < 105) = P (|X 100| < 5) > 1 2
= = 0,64
5 25
95 100 105 100
P (95 < X < 105) = P <Z<
3 3
5 5
= P <Z<
3 3
= P (1,67 < Z < 1,67)
= F (1,67) F (1,67)
= 1 F (1,67) F (1,67)
= 1 2(0,0475)
= 0,905
SN
lm X = lm =
N N N
se hace grande.
Sea > 0 un numero fijo. Por la independencia de la secuencia X1 , . . . , XN
en la muestra aleatoria, se cumple que:
E[SN ] = N
S2 N = N 2
S2 N N 2 2
P (|SN N | > N ) 6 = =
(N )2 N 2 2 N 2
En terminos de la media X de la muestra,
SN
P (|X | > ) = P N >
= P (|SN N | > N )
2
6
N 2
Ahora, hagase N . Entonces la cota de la derecha en la ultima
ecuacion tiende a 0 y la siguiente conclusion se obtiene:
(Ley de los grandes numeros) Sea {Xi }N
i=1 una muestra aleatoria con me-
SN = X1 + + XN
Entonces
SN
P N > 0
Z Z
g = E[g(X, Y )] = g(x, y)fX,Y (x, y)dxdy (3.34)
g = E[g(X1 , X2 , . . . , XN )] (3.35)
Z Z
= g(x1 , . . . , xN )fX1 ,...,XN (x1 , . . . , xN )dx1 dxN (3.36)
Ejemplo
Encuentre la media de una suma de N variables aleatorias pesadas:
N
X
g(X1 , X2 , , XN ) = i Xi
i=1
" N #
X
E[g(X1 , , XN )] = E i Xi
i=1
" N
#
Z Z X
= i Xi fX1 ,...,XN (x1 , . . . , xN )dx1 . . . dxN
i=1
N Z
X Z
= i xi fX1 ,...,XN (x1 , . . . , xN )dx1 . . . dxN
i=1
de modo que
" N
# N
X X
E i Xi = i E[Xi ]
i=1 i=1
98 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
mnk = E X n Y k
(3.37)
Z Z
= xn y k fX,Y (x, y)dxdy (3.38)
Z Z
RXY = m11 = E[XY ] = xyfX,Y (x, y)dxdy (3.39)
RXY = E[X]E[Y ]
Ejemplo
Sea X una variable aleatoria que tiene un valor medio X = E[X] = 3 y
2
varianza X = 2. El segundo momento de X alrededor del origen se calcula
de:
2
X = E[X 2 ] (E[X])2
E[X 2 ] = X
2
+ (E[X])2
= 11
E[Y ] = 6E[X] + 22
= 6(3) + 22
= 4
RXY = E[XY ]
= E[X(6X + 22)]
= E[6X 2 + 22X]
= 6E[X 2 ] + 22E[X]
= 6(11) + 22(3)
= 0
100 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
nk = E (X X)n (Y Y )k
(3.41)
Z Z
= (x X)n (y Y )k fX,Y (x, y)dxdy (3.42)
20 = E[(X X)2 ] = X
2
02 = E[(Y Y )2 ] = Y2
11 CXY
= = (3.47)
20 02 X Y
dado por
E[(X X)(Y Y )]
= (3.48)
X Y
(X X) (Y Y )
= E (3.49)
X Y
se conoce como el coeficiente de correlacion de X e Y, con 1 6 6 1.
Para N variables aleatorias X1 , X2 , , XN el momento central conjunto
de orden n1 + n2 + + nN esta definido por:
Ejemplo
Sea X una suma pesada de N variables aleatorias Xi :
N
X
X= i X i
i=1
Encuentre la varianza de X.
N
X
X = i X i
i=1
XN
X X = i (Xi Xi )
i=1
2
X = E[(X X)2 ]
" N N
#
X X
= E i (Xi Xi ) j (Xj Xj )
i=1 j=1
N X
X N
= i j E[(Xi Xi )(Xj Xj )]
i=1 j=1
N X
X N
= i j CXi Xj
i=1 j=1
N
X
2
X = i2 X
2
i
i=1
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES103
Con base en esto ultimo, se concluye que la varianza de una suma pesada
de variables aleatorias no correlacionadas (con pesos i ) iguala a la suma
pesada de las varianzas de las variables aleatorias (con pesos i2 ).
Z Z
X,Y (1 , 2 ) = fX,Y (x, y)ej1 x+j2 y dxdy (3.52)
Z Z
1
fX,Y (x, y) = X,Y (1 , 2 )ej1 xj2 y d1 d2 (3.53)
(2)2
X (1 ) = X,Y (1 , 0) (3.54)
Y (2 ) = X,Y (0, 2 ) (3.55)
n+k
X,Y ( 1 , 2 )
mnk = (j)n+k (3.56)
1n 2k
1 =0,2 =0
Ejemplo
Dos variables aleatorias X e Y tienen la funcion caracterstica conjunta:
X = m10
X,Y (1 , 2 )
= j
1
=0, =0
1 2 2 2
= (j)(41 ) exp 21 82 |1 =0,2 =0
= 0
Y = m01
= (j)(162 ) exp 212 822 1 =0,2 =0
= 0
RXY = m11
2
2
2
2
= (j) exp 21 82
1 2 1 =0,2 =0
2 2
= (41 )(162 ) exp 21 82 1 =0,2 =0
= 0
Puesto que las medias son cero, CXY = RXY . Por lo tanto, CXY = 0 y
las variables aleatorias no estan correlacionadas.
La funcion caracterstica conjunta para N variables aleatorias X1 , X2 , . . . , XN
esta definida por:
3.10. OPERACIONES CON VARIABLES ALEATORIAS MULTIPLES105
R
R X1 ,X2 ,...,XN (1 , 2 , . . . , N )
mn1 n2 ...nN = (j) nN
(3.58)
1n1 2n2 N
todo i =0
donde R = n1 + n2 + + nN .
La funcion caracterstica conjunta es util particularmente en ciertos pro-
blemas practicos donde la funcion de densidad probabilstica se necesita para
la variable aleatoria resultante de la suma de N estadsticamente indepen-
dientes variables aleatorias.
Ejemplo
Sea Y = X1 +X2 + +XN la suma de N estadsticamente independientes
variables aleatorias Xi , i = 1, 2, . . . , N. Denotese las funciones de densidad
probabilstica y funciones caractersticas respectivas por fXi (xi ) y Xi (i ).
Debido a la independencia estadstica, la funcion de densidad probabilstica
conjunta es el producto de todas las funciones de densidad, por lo que la
funcion caracterstica conjunta esta dada por:
Z Z "Y
N
# ( N
X
)
X1 ,...,XN (1 , . . . , N ) = fXi (xi ) exp ji xi dx1 dxN
i=1 i=1
N Z
Y
= fXi (xi )eji xi dxi
i=1
YN
= Xi (i )
i=1
Y () = E[ejY ]
" ( N )#
X
= E exp jXi
i=1
= X1 ,...,XN (, . . . , )
N
Y
= Xi ()
i=1
" N
#
Z
1 Y
fY (y) = Xi () ejy d
2 i=1
Z
1
fY (y) = [X ()]N ejy d
2
(x X)2
1 1
fX,Y (x, y) = p exp 2
2X Y 1 2 2(1 2 ) X
2(x X)(y Y ) (y Y )2
+ (3.59)
X Y Y2
(x X)2
1
fX (x) = p exp 2
2X2 2X
(y Y )2
1
fX (x) = p exp
2Y2 2Y2
1 2X Y
= arctan 2 (3.61)
2 X Y2
108 CAPITULO 3. VARIABLES ALEATORIAS MULTIPLES
Ejemplo
La transformacion 3.61 es aplicable tanto a variables aleatorias gaussia-
nas como a variables aleatorias arbitrarias. Considere variables aleatorias
Y1 e Y2 relacionadas con las variables aleatorias arbitrarias X e Y por la
rotacion de coordenadas:
Y1 = X cos + Y sen
Y2 = Xsen + Y cos
sen2 2 2
(Y X ) + cos 2CXY = 0
2
sen2 2 2
(Y X ) + cos 2X Y = 0
2
sen2 2
(X Y2 ) = 2 cos 2X Y
2
2X Y
tan 2 = 2
X Y2
1 2X Y
= arctan 2
2 (X Y2 )
Este ultimo resultado comprueba la ecuacion 3.61.
Yi = Ti (X1 , X2 , . . . , XN ) i = 1, 2, . . . , N (3.62)
Z Z Z Z
fX1 ,...,XN (x1 , . . . , xN )dx1 dxN = fY1 ,...,YN (y1 , . . . , yN )
| {z } | {z }
sobre RX sobre RY
dy1 . . . dyN (3.64)
T11 T11
Y1 YN
J = .. .. ..
(3.65)
. . .
1 1
TN TN
Y1
YN
El lado izquierdo de la ecuacion 3.64 se convierte en:
Z Z
fX1 ,...,XN (x1 , . . . , xN )dx1 dxN =
| {z }
sobre RX
Z Z
fX1 ,...,XN (x1 = T11 , . . . , xN = TN1 )|J|dy1 dyN (3.66)
| {z }
sobre RY
Dado que este resultado debe igualar el lado derecho de la ecuacion 3.64,
entonces:
fY1 ,...,YN (y1 , . . . , yN ) = fX1 ,...,XN (x1 = T11 , . . . , xN = TN1 )|J| (3.67)
Ejemplo
Considerese las siguientes transformaciones lineales:
Y1 = aX1 + bX2
Y2 = cX1 + dX2
a Y1
c Y2 cY1 + aY2
X2 = =
a
b ad bc
c d
El jacobiano de la transformacion estara dado por:
X1 X1 d b
Y1 Y2
adbc adbc
1
J =
X2 X2
=
c a
=
ad bc
Y1 Y2 adbc adbc
dy1 by2 cy1 + ay2
fY1 ,Y2 (y1 , y2 ) = fX1 ,X2 , |J|
ad bc ad bc
dy1 by2 cy1 + ay2 1
= fX1 ,X2 ,
ad bc ad bc |ad bc|
Captulo 4
Procesos estocasticos
113
114 CAPITULO 4. PROCESOS ESTOCASTICOS
4.1. Preambulo
Los procesos estocasticos constituyen una generalizacion del concepto de
variables aleatorias al campo de las funciones dependientes del tiempo. Se
conocera funciones que contienen cantidades que son estadsticas en su na-
turaleza esencial y otras que dependeran del tiempo directamente; sobre las
estadsticas, es donde se aplicara los conceptos aprendidos de las variables
aleatorias, en tanto que se considerara como constante aquellas cantidades
dependientes del tiempo.
x(t, s)
Xi = X(ti , s) = X(ti )
Estacionaridad e independencia
dFX (x1 ; t1 )
fX (x1 ; t1 ) = (4.5)
dx1
2
FX (x1 , x2 ; t1 , t2 )
fX (x1 , x2 ; t1 , t2 ) = (4.6)
x1 x2
N
FX (x1 , . . . , xN ; t1 , . . . , tN )
fX (x1 , . . . , xN ; t1 , . . . , tN ) = (4.7)
x1 xN
Z
E[X1 ] = E[X(t1 )] = x1 fX (x1 ; t1 )dx1 (4.11)
Para X2 :
Z
E[X2 ] = E[X(t2 )] = x1 fX (x1 ; t2 )dx1 (4.12)
Z
E[X2 ] = E[X(t2 )] = x1 fX (x1 ; t1 + )dx1 = E[X(t1 + )]
Z
= x1 fX (x1 ; t1 )dx1 = E[X(t1 )] = E[X1 ]
Se concluye finalmente
E[X(t1 + )] = E[X(t1 )]
Ejemplo
Se demostrara que el proceso aleatorio
X(t) = A cos (0 t + )
Z 2
1
E[X(t)] = A cos(0 t + ) d
0 2
= 0
Z T
1
A [ ] = lm [ ] dt (4.22)
T 2T T
El operador A se usa para denotar promedio temporal de una manera
analoga al operador E para el promedio estadstico. El promedio temporal se
toma sobre todo el tiempo, porque al ser aplicado sobre procesos aleatorios,
las funciones muestra de los procesos se supone que existen por todo tiempo.
Promedios especficos de interes son el valor medio x = A[x(t)] de una fun-
cion muestra (una letra minuscula se usa para denotar una funcion muestra) y
la funcion de autocorrelacion temporal, denotada RXX ( ) = A[x(t)x(t + )].
Estas funciones estan definidas por
x = A[x(t)] (4.23)
Z T
1
= lm x(t)dt (4.24)
T 2T T
Para cualesquiera funcion muestra del proceso X(t), estas dos ultimas
integrales simplemente producen dos numeros (para un valor fijo de ). Sin
embargo, cuando se consideran todas las funciones muestra, x y RXX ( ) son
realmente variables aleatorias. Tomando el valor esperado a ambos lados de
las definiciones, suponiendo que la operacion matematica de la esperanza
puede llevarse al interior de la integral y suponiendo que X(t) es un proceso
estacionario,
E[x] = X
E[RXX ( )] = RXX ( )
4.9. FUNCIONES DE CORRELACION 125
x = X
RXX ( ) = RXX ( )
Z T
1
RXY ( ) = lm x(t)y(t + )dt = RXY ( ) (4.27)
T 2T T
Con t1 = t y t2 = t1 +
2. RXX ( ) = RXX ( )
2
lm RXX ( ) = X
| |
lm RXX ( ) = 0
| |
Ejemplo
Para un proceso estacionario ergodico sin componentes periodicos,
4
RXX ( ) = 25 +
1 + 6 2
Encuentre el valor medio y la varianza del proceso.
De la cuarta propiedad anterior,
E[X(t)] = X = 25 = 5
2
X = E[X 2 (t)] [E[X(t)]]2
= RXX (0) 25
= 4
RXY ( ) = X Y (4.34)
1. RXY ( ) = RY X ( )
p
2. |RXY ( )| 6 RXX (0)RY Y (0)
p 1
RXX (0)RY Y (0) 6 [RXX (0) + RY Y (0)]
2
Ejemplo
Sea dos procesos estocasticos X(t) y Y (t) definidos por:
La funcion de covarianza cruzada para dos procesos X(t) y Y (t) esta de-
finida por:
o, alternativamente,
2
CXX ( ) = RXX ( ) X (4.39)
CXY ( ) = RXY ( ) X Y (4.40)
2 2
X = E[{X(t) E[X(t)]}2 ] = RXX (0) X (4.41)
(t)k et
P [X(t) = k] = k = 0, 1, 2, . . . (4.44)
k!
y la densidad de probabilidad del numero de ocurrencias es
X (t)k et
fX (x) = (x k) (4.45)
k=0
k!
La media y la varianza de una variable aleatoria de Poisson son am-
bas iguales a t. El segundo momento se sabe que es E[X 2 (t)] = X
2
+
{E[X(t)]}2 = t + 2 t2 . Esto se usa para establecer ecuaciones utiles compu-
tando formalmente la media y el segundo momento:
(t)k et
Z Z X
E[X(t)] = xfX (x)dx = x (x k)dx
k=0
k!
X k(t)k et
= = t
k=0
k!
k 2 (t)k et
Z X
2 2
E[X (t)] = x fX (x)dx = = t[1 + t]
k=0
k!
La densidad conjunta es
X
X
fX (x1 , x2 ) = P (k1 , k2 )(x1 k1 )(x2 k2 ) (4.48)
k1 =0 k2 =k1
Ejemplo
Tomese ahora el caso de tres variables aleatorias definidas en los tiempos
0 < t1 < t2 < t3 , para k1 6 k2 6 k3 ocurrencias a los tiempos respectivos. Se
tiene entonces:
y
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS135
X
X
X
fX (x1 , x2 , x3 ) = P (k1 , k2 , k3 )(x1 k1 )(x2 k2 )(x3 k3 )
k1 =0 k2 =k1 k3 =k2
T
|XT ()|2
Z Z
1 2 1
P (T ) = x (t)dt = d (4.53)
2T T 2 2T
|XT ()|2
Se observa que 2T
es un espectro de densidad de potencia porque de
la integracion sale la potencia. Empero, no es una funcion que sea utiil para
describir las propiedades espectrales de un proceso estocastico, por dos razo-
nes: (1) no representa la potencia de una funcion muestra completa (se podra
hacer T arbitrariamente grande para incluir toda la potencia en la funcion
muestra) y, (2) tal expresion es la potencia en una sola funcion muestra y
no representa al proceso. En otras palabras, P (T ) es realmente una variable
aleatoria con respecto al proceso aleatorio. Si se toma el valor esperado de la
funcion, se obtiene una potencia promedio PXX para el proceso aleatorio.
De la discusion anterior, es claro que se debe tomar el lmite T y el
valor esperado para obtener un espectro de densidad de potencia adecuado
para el proceso estocastico. Es importante que la operacion lmite se haga de
ultimo:
Z T
1
PXX = lm E[X 2 (t)]dt (4.54)
T 2T T
Z
1 E[|XT ()|2 ]
= lm d (4.55)
2 T 2T
Z T
1
PXX = lm E[X 2 (t)]dt = A{E[X 2 (t)]} (4.56)
T 2T T
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS137
E[|XT ()|2 ]
SXX () = lm (4.57)
T 2T
la integral aplicable es
Z
1
PXX = SXX ()d (4.58)
2
Ejemplo
X(t) = A cos (0 t + )
T
A2 A2
Z
1
A E[X 2 (t)] =
lm sen(20 t) dt
T 2T T 2
( T )
A2
2
1 A cos(20 t)
= lm (2T ) +
T 2T 2 20
T
2 2
1 A 1 A
= lm 2T + [cos(20 T ) cos(20 T )]
T 2T 2 2T 20
A2
PXX =
2
Ejemplo
Reconsiderese el proceso del ejemplo anterior para encontrar SXX () y
potencia promedio PXX mediante el uso de las definiciones respectivas.
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS139
Z T
XT () = A cos(0 t + )ejt dt
T
A j T j(0 )t A j T j(0 +)t
Z Z
= e e dt + e e dt
2 T 2 T
sen[( 0 )T ] sen[( + 0 )T ]
= AT ej + AT ej
( 0 )T ( + 0 )T
sen2 [( 0 )T ]
sen[( 0 )T ] sen[( + 0 )T ]
XT ()XT () = (AT ) 2
2
+ ej2
[( 0 )T ] ( 0 )T ( + 0 )T
2 #
sen[( + 0 )T ] sen[( 0 )T ] sen[( + 0 )T ]
+ ej2 +
( + 0 )T ( 0 )T ( + 0 )T
( 2
sen[( 0 )T ] sen[( 0 )T ] sen[( + 0 )T ]
= (AT )2 + 2 cos(2)
[( 0 )T ] ( 0 )T ( + 0 )T
2 )
sen[( + 0 )T ]
+
[( + 0 )T ]
Como
Z
2 2
E[cos(2)] = cos(2)d
0
2 sen(2) 2
=
2 0
= 0
entonces
140 CAPITULO 4. PROCESOS ESTOCASTICOS
" 2 2 #
sen[( 0 )T ]
sen[( + 0 )T ]
E[|XT ()|2 ] = (AT )2 +
( 0 )T ( + 0 )T
E[|XT ()|2 ] A2 T sen2 [( 0 )T ] T sen2 [( + 0 )T ]
= +
2T 2 [( 0 )T ]2 [( + 0 )T ]2
Como
2
T sen(T )
lm = ()
T T
entonces
A2
SXX () = {( 0 ) + ( + 0 )}
2
con lo que
A2
Z
1
PXX = {( 0 ) + ( + 0 )} d
2 2
A2
=
2
3. SXX () es real.
1
R
4. 2
SXX ()d = A{E[X 2 (t)]}
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS141
dX
5. SX X () = 2 SXX () donde X = dt
Z
SXX () = RXX ( )ej d (4.61)
Z
1
RXX ( ) = SXX ()ej d (4.62)
2
10
SXX () = h i2 (4.64)
2
1+ 10
a3 x a2
Z
adx x
2 i2 = + arctan
2(a2 + x2 ) 2 a
h
1 + xa
x2 dx a4 x a3
Z x
2 i2 = + arctan
2(a2 + x2 ) 2 a
h
1 + xa
Se omite la constante de integracion por economa. Si se evalua las inte-
grales definidas, queda entonces:
Z
SXX ()d = 50 arctan = 50
10
1
Se puede consultar el libro: Dwight, H. B. Tables of Integrals and Other Mathematical
Data. Cuarta edicion. New York: Macmillan, 1961.
4.11. CARACTERISTICAS ESPECTRALES DE PROCESOS ESTOCASTICOS143
Z
2 SXX ()d = 5000 arctan = 5000
10
r
5000
WRM S = = 10 rad/s
50
Si bien WRM S y el ancho de banda de 6 dB de SXX () son iguales en
este caso, no lo son en general.
El concepto de WRM S puede extenderse a un proceso que tiene una for-
ma pasabanda de espectro de potencia, es decir, sus componentes espectrales
significativos se congregan cerca de algunas frecuencias 0 y 0 . Si se su-
pone que el proceso X(t) es real, SXX () sera real y tendra simetra par
alrededor de = 0. Con esta suposicion se define una frecuencia media 0 y
el correspondiente ancho de banda RMS por:
R
SXX ()d
0 = R0 (4.65)
SXX ()d
R0
2 4 0 ( 0 )2 SXX ()d
WRM S = R (4.66)
0
SXX ()d
Z
1
SXX ()ej d = A [RXX (t, t + )] (4.67)
2
Z T Z T
1 jt1 jt2
SXX () = lm E X(t1 )e dt1 X(t2 )e dt2
T 2T T T
Z T Z T
1
= lm E[X(t1 )X(t2 )]ej(t2 t1 ) dt2 dt1
T 2T T T
Se usa X(t) en vez de x(t), para indicar que las operaciones realizadas
tienen lugar sobre el proceso en vez de una sola funcion muestra.
La esperanza matematica dentro del integrando es la autocorrelacion de
X(t):
As,
Z T Z T
1
SXX () = lm RXX (t1 , t2 )ej(t2 t1 ) dt1 dt2
T 2T T T
Z T t Z T
SXX () = lm RXX (t, t + )dtej d
T T t T
Z Z T
1
SXX () = lm RXX (t, t + )dt ej d
T 2T T
Z T
1
A[RXX (t, t + )] = lm RXX (t, t + )dt
T 2T T
con lo que
Z
SXX () = A[RXX (t, t + )]ej d
Z
SXX () = RXX ( )ej d (4.68)
Z
1
RXX ( ) = SXX ()ej d (4.69)
2
RXX ( ) SXX () (4.70)
Ejemplo
Se encontrara el espectro de potencia para el proceso aleatorio X(t) con
la autocorrelacion
146 CAPITULO 4. PROCESOS ESTOCASTICOS
A2
RXX ( ) = cos(0 )
2
Se tiene que
A2
1
ej0 + ej0
RXX ( ) =
2 2
A2
ej0 + ej0
=
4
F{RXX ( )} = SXX ()
A2
= [2( 0 ) + 2( + 0 )]
4
A2
= [( 0 ) + ( + 0 )]
2
1. SXY () = SY X () = SY X ()
SXY () = SY X () = 2X Y ()
6.
R R
SXY () =
RXY ( )ej d SY X () =
RY X ( )ej d
1
R 1
R
RXY ( ) = 2
S ()ej d RY X ( ) =
XY 2
SY X ()ej d
Ejemplo
Se tiene un espectro de potencia cruzado definido por
(jb)
a+ W < < W
SXY () = W
0 || > W
donde W > 0, a y b son constantes reales. Encuentrese la correlacion cruza-
da.
4.12. ALGUNAS DEFINICIONES DE RUIDO 149
Z W
1 jb j
RXY ( ) = a+ e d
2 W W
Z W Z W
a j jb
= e d + ej d
2 W 2W W
" # ( W )
j W
a e jb j 1
= + e
2 j W 2W j (j )2 W
1
= [(aW b)sen(W ) + bW cos(W )]
W 2
N0
SN N () = (4.77)
2
para ruido blanco, donde N0 es una constante positiva real. Por la transfor-
macion inversa de Fourier, la autocorrelacion de N (t) es
N0
RN N ( ) = ( ) (4.78)
2
El ruido blanco deriva su nombre por analoga con la luz blanca, que
contiene todas las frecuencias de luz visible en su espectro.
El ruido blanco no es realizable puesto que posee potencia promedio in-
finita:
Z
1
SN N ()d =
2
150 CAPITULO 4. PROCESOS ESTOCASTICOS
(N0 /2)(||/T )
SN N () = (4.79)
e||/T 1
donde = 7,64(1012 ) Kelvin-segundos es una 2
constante. A una tempe-
ratura de T = 290 K (usualmente llamada temperatura ambiente si bien
corresponde a una temperatura de 17 C), tal funcion permanece arriba de
0,9(N0 /2) para frecuencias hasta de 1012 Hz, o 1000 GHz. As, el ruido termi-
co tiene un espectro casi plano en aquellas frecuencias que son usadas en
sistemas de radio, microondas u ondas milimetricas.
El ruido que tiene un espectro de potencia constante y no nulo sobre
una banda de frecuencia finita y cero fuera de ella, se llama ruido blanco de
banda limitada. As, un ruido descrito por el siguiente espectro de potencia
constituye un ejemplo:
P
W < < W
SN N () = W
0 || > W
La transformacion inversa da la autocorrelacion correspondiente:
sen(W )
RN N ( ) = P
W
La constante P es la potencia del ruido.
2
Las unidades de SN N () son voltios cuadrados por hercio. De acuerdo a la convencion,
se obtiene watts/hertz suponiendo que el voltaje se da por una resistencia de 1 .
4.12. ALGUNAS DEFINICIONES DE RUIDO 151
P
0 (W/2) < || < 0 + (W/2)
SN N () = W
0 fuera de la banda
sen(W /2)
RN N ( ) = P cos(0 )
(W /2)
con 0 , W constantes y P la potencia en el ruido.
Por analoga con luz coloreada con solamente una porcion de las frecuen-
cias de luz visible en su espectro, se define ruido coloreado como cualquier
ruido que no es blanco.
Ejemplo
Un proceso N (t) de ruido estacionario en sentido amplio tiene una auto-
correlacion dada por:
RN N ( ) = P e3| |
Z
SN N () = P e3| | ej d
Z Z 0
(3+j)
= P e d + P e(3j) d
0
P P
= +
3 + j 3 j
6P
=
9 + 2
152 CAPITULO 4. PROCESOS ESTOCASTICOS
Z Z
E[Y (t)] = E h()X(t )d = h()E[X(t )]d (4.82)
Z
E[Y (t)] = X h()d = Y (constante) (4.83)
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL ALEATORIA153
Esta expresion indica que el valor medio de Y (t) iguala al valor medio
de X(t) veces el area bajo la curva de la respuesta al impulso si X(t) es
estacionario en sentido amplio.
Para el valor cuadratico medio de Y (t), se calcula
Z Z
2
E[Y (t)] = E h(1 )X(t 1 )d1 h(2 )X(t 2 )d2
Z Z
= E[X(t 1 )X(t 2 )]h(1 )h(2 )d1 d2 (4.84)
es valida, donde W (t) es alguna funcion acotada de un proceso aleatorio (sobre el intervalo
[t1 , t2 ]) y h(t) es una funcion del tiempo no-aleatoria.
154 CAPITULO 4. PROCESOS ESTOCASTICOS
Ejemplo
Se encontrara Y 2 para un sistema con ruido blanco en su entrada. Aqu:
Z Z
Y2 = (N0 /2)(1 2 )h(1 )d1 h(2 )d2
Z
= (N0 /2) h2 (2 )d2
que se reduce a:
Z Z
RY Y ( ) = RXX ( + 1 2 )h(1 )h(2 )d1 d2 (4.87)
RY Y ( ) = RXX ( ) h( ) h( ) (4.88)
Z
RXY ( ) = RXX ( )h()d (4.89)
Z
RY X ( ) = RXX ( )h()d (4.91)
= RXX ( ) h( ) (4.92)
156 CAPITULO 4. PROCESOS ESTOCASTICOS
Z
RY Y ( ) = RXY ( + 1 )h(1 )d1 (4.93)
= RXY ( )h( ) (4.94)
Igualmente,
Z
RY Y ( ) = RY X ( 2 )h(2 )d2 (4.95)
= RY X ( ) h( ) (4.96)
Ejemplo
Con los datos del ejemplo anterior, se encontrara las correlaciones cru-
zadas RXY ( ) y RY X ( ).
Z
RXY ( ) = RXX ( )h()d
Z
= (N0 /2)( )h()d
= (N0 /2)h( )
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL ALEATORIA157
Z
RY X ( ) = RXX ( )h()d
Z
= (N0 /2)( )h()d
= (N0 /2)h( )
= RXY ( )
Z
SY Y () = RY Y ( )ej d (4.97)
Z Z Z
SY Y () = h(1 ) h(2 ) RXX ( + 1 2 )ej d d2 d1
Z Z Z
j2
SY Y () = h(1 )e j1
d1 h(2 )e d2 RXX ()ej d
Las anteriores tres integrales se reconocen como H (), H() y SXX (),
respectivamente.
Ejemplo
Un circuito electrico esta caracterizado por la siguiente funcion de trans-
ferencia:
1
H() =
1 + (jL/R)
Tiene como entrada un proceso estocastico X(t) tipo ruido blanco con un
espectro de potencia dado por:
4.13. RESPUESTA DE SISTEMAS LINEALES A UNA SENAL ALEATORIA159
SXX () = N0 /2
1
|H()|2 =
1 + (L/R)2
SY Y () = SXX ()|H()|2
N0 /2
=
1 + (L/R)2
N0
Z Z
1 d
PY Y = SY Y ()d =
2 4 1 + (L/R)2
Si se usa el siguiente resultado:
Z
dx 1 bx
= arctan
a2 + b 2 x 2 ab a
se encuentra finalmente que:
N0 R
PY Y =
4L
Cadenas de Markov
161
162 CAPITULO 5. CADENAS DE MARKOV
5.1. Preambulo
Las cadenas de Markov hallan uso en multiples aplicaciones. Se estu-
diara los procesos de nacimiento y muerte como ejemplo de las cadenas de
Markov en tiempo continuo.
0 t<0
fT (t) = t (5.1)
e t>0
P (T > t) = et (5.3)
para t = 0.
Dos hechos fundamentales derivados de la distribucion exponencial se van
a utilizar en el analisis del tema de las cadenas de Markov. A continuacion
se justificara cada uno de ellos.
Ejemplo
164 CAPITULO 5. CADENAS DE MARKOV
Suponga que una maquina necesita tres componentes, que deben operar
simultaneamente. Cada uno tiene un tiempo de vida exponencialmente dis-
tribuido con media 2 das. La maquina llega con tres componentes instalados
mas uno de repuesto. Cual es el tiempo esperado en que el repuesto necesi-
tara ser instalado? Cual es el tiempo esperado en que la maquina parara
por falta de repuestos?
El tiempo de vida del equipo antes de la falla es el mnimo de tres variables
aleatorias exponencialmente distribuidas cada una con parametro 1/2. Por
lo tanto, el tiempo de vida del equipo esta exponencialmente ditribuido con
parametro 1/2 + 1/2 + 1/2 = 3/2 y media 2/3. Esto es el tiempo medio hasta
que el repuesto necesita ser instalado. Una vez que el repuesto es instalado,
debido a la propiedad de la falta de memoria, los dos originales operan como
nuevos. De modo que el tiempo hasta que uno de los tres termine su vida util
(los dos originales y el repuesto) es otra vez exponencialmente distribuido con
media 2/3. As, el tiempo de vida esperado de la maquina es 2 2/3 = 4/3
(2/3 para instalar el repuesto, mas 2/3 para que falle de nuevo).
j
P (Tj = min{T1 , T2 , . . . , TN }) = (5.5)
1 + 2 + + N
A continuacion se probara esta expresion.
Supongase que T1 y T2 son independientes y distribuidos exponencialmen-
te con parametros respectivos y . La funcion de densidad conjunta es el
5.2. CONCEPTOS INTRODUCTORIOS 165
producto
Ejemplo
166 CAPITULO 5. CADENAS DE MARKOV
Ejemplo
Llamadas entrantes a un negocio forman una corriente Poisson. Suponga-
se que las llamadas correctas llegan a una razon de 1.5 por minuto, pero
las llamadas equivocadas a una razon de 1 por media hora, en el promedio.
Cual es la probabilidad de que la primera llamada despues del medioda sea
un numero equivocado?
El tiempo T1 hasta el primer numero correcto esta exponencialmente dis-
tribuido con parametro 1.5. El tiempo T2 hasta el primer numero equivocado
esta tambien exponencialmente distribuido; el parametro es 1/30 en terminos
de minutos.
pados por la maquina para todos los tiempos t = 0. Estas son las dos su-
posiciones basicas de un proceso de nacimiento y muerte: la primera es si
al tiempo t la maquina esta en el estado i, permanece en ese estado por un
tiempo aleatorio que es exponencialmente distribuido con parametro i ; as,
el tiempo de espera promedio en el estado i es el recproco 1/i . i depende
del estado i, pero no depende de otras caractersticas; por ejemplo, i no
depende de si la maquina estaba en estado k o estado j. El estado i pudiera
ser absorbente: esto significa que una vez que la maquina entra al estado i,
permanecera siempre ah. Si esto ultimo es as, entonces i = 0; es decir, el
tiempo de espera promedio es 1/i = .
La segunda suposicion de un proceso de nacimiento y muerte es que cuan-
do la maquina sale del estado i, cambia al estado i + 1 o al estado i 1, con
probabilidades que no dependen de que tan largo la maquina estuvo en el es-
tado i o de otros detalles tales como el tiempo t o del estado de la maquina
168 CAPITULO 5. CADENAS DE MARKOV
Ejemplo
El ejemplo mas simple de un proceso de nacimiento y muerte en tiem-
po continuo es de hecho definido por la distribucion exponencial. Supongase
que T denota el tiempo de vida de un componente que es exponencialmente
distribuido con parametro . Sea S = {0, 1}. El estado de la maquina es 1
en tanto el componente sea operacional. Una vez que el componente falla, la
maquina pasa al estado 0, para permanecer ah siempre. De esta forma,
0 = 0 1 = p1 = 0 q1 = 1
Ejemplo
El proceso de Poisson puede verse como un ejemplo de un proceso de
nacimiento y muerte. Sea Xt el numero de arribos en el intervalo [0, t]. Re-
cordando que Xt es distribuida de acuerdo a Poisson con parametro t y que
los intervalos entre arribos estan distribuidos exponencialmente con el mismo
parametro ,
(t)i t
P (Xt = i) = e
i!
P ({tiempo entre arribos > s}) = es
llamadas en [0, t]). Tan pronto como otra llamada llegue, la maquina cambia
al estado i + 1. As, el tiempo de espera en el estado i es el tiempo entre
arribos, entre el arribo i-esimo y el (i + 1)-esimo; este esta exponencialmente
distribuido con parametro . Por lo tanto,
i = pi = 1 qi = 0
0 = p0 = 1 q0 = 0
1 = p1 = 0 q1 = 1
5.4. Colas
Colas son una subclase muy importante de procesos de nacimiento y
muerte. La maquina consiste de clientes y servidores (eg.: carros que llegan
a casetillas de peaje, clientes en una caja de supermercado, ninos que hacen
fila para juegos de video, aviones que sobrevuelan un aeropuerto esperando
5.4. COLAS 171
0 = p0 = 1
0 = p0 = 1
i = + pi = + qi = +
0 = p0 = 1
i
i = i + pi = i+ qi = i+
Ejemplo
Una oficina de negocios tiene un telefono con un boton de retencion.
Suponga que las llamadas entrantes forman una corriente de Poisson con
parametro . Tambien suponga que cada llamada toma un tiempo exponen-
cialmente distribuido con un promedio de 1/ minutos. Si una llamada llega
durante un tiempo en que el telefono esta ocupado, es colocada en retencion.
Si otra llamada llega, recibe un tono de ocupado y debe colgar. Sea el estado
del sistema el numero de llamadas que reciben servicio o estan retenidas.
Cuales son los parametros i y las probabilidades de transicion pi , qi ?
El espacio de estados es S = {0, 1, 2}. Cambio del estado 0 al estado 1
ocurre con la llegada de una llamada. De esta forma,
0 = p0 = 1
2 = q 2 = 1
174 CAPITULO 5. CADENAS DE MARKOV
1 = + p1 = q1 =
+ +
Ejemplo: Continuacion del anterior
Supongase que la oficina tiene dos telefonos ninguno de los cuales tiene un
boton de retencion. Si una llamada llega mientras un telefono esta ocupado,
la llamada es respondida por el otro telefono. El estado es el numero de
telefonos ocupados en el momento. Ahora, cuales son los parametros i y
las probabilidades de transicion pi , qi ?
0 , p0 , 1 , p1 y q1 son los mismos como en el ejemplo previo. Si el es-
tado es 2, ambas lneas estan ocupadas. Hay un cambio al estado 1 con la
finalizacion de una de las dos llamadas. Este tiempo es el mnimo de los
dos tiempos de servicio. Dado que cada uno esta exponencialmente distri-
buido con parametro , esto implica que el mnimo esta exponencialmente
distribuido con parametro + = 2. De esta manera,
2 = 2 q2 = 1
2
i = 2 + pi = qi =
2 + 2 +
Si i = 1, el tiempo de espera en el estado i = 1 es min{S, T } donde S es
el tiempo de servicio del cliente que es servido. As,
1 = + p1 = q1 =
+ +
Finalmente, el tiempo de espera en el estado 0 es el tiempo T de arribo;
de esta forma,
0 = p0 = 1
Hay que enfatizar que en una cola solamente un cambio ocurre a la vez.
Por ejemplo, en la cola con infinito numero de servidores, si hay 100 clientes
176 CAPITULO 5. CADENAS DE MARKOV
1. 0 i 1 para todo i S
5.5. EL VECTOR DE PROBABILIDAD DE ESTADO ESTABLE 177
P
2. iS i = 1
para este tiempo de espera. Por lo tanto, el proceso se movera del estado i
en un intervalo de tiempo de longitud t con probabilidad
i i qi = i1 i1 pi1 (5.8)
Ejemplo
Considere el dispositivo de dos estados de un ejemplo anterior. Para i = 1,
la ecuacion 5.8 se escribe como:
1 1 q1 = 0 0 p0
1 = 0
1 = 0 + 1 = 0 (1 + /)
0 = /( + )
1 = /( + )
qN = 1 si S = {0, . . . , N }
i > 0 para i S
i1 pi1
i = i1 (5.9)
i qi
para i = 1, 2, . . . para expresar cada i en terminos de 0 . Entonces se usa la
normalizacion
X
i = 1 (5.10)
i
Ejemplo
Encuentre las probabilidades de estado estable 0 , 1 , 2 para el telefono
con un boton de retencion de un ejemplo anterior. Encuentre el numero es-
perado de personas en la lnea o en espera en estado estable.
Si se usa la formula recursiva con los valores de los parametros i y las
probabilidades de transicion pi , qi para i = 0, 1, 2 se obtiene:
0 p0 1
1 = 0 = 0 = 0
1 q1 ( + )/( + )
2
1 p1 ( + )/( + )
2 = 1 = 1 = 1 = 0
2 q2 1
5.5. EL VECTOR DE PROBABILIDAD DE ESTADO ESTABLE 181
2 !
2 + + 2
1 = 0 + 1 + 2 = 0 1+ + = 0
2
Por consiguiente:
2 2
0 = 1 = 2 =
C C C
donde C = (2 + + 2 ). Hay i personas con probabilidad i en estado
estable. As, el numero esperado de personas en espera en estado estable es:
+ 22
0 0 + 1 1 + 2 2 =
C
Ejemplo
Encuentre el vector de probabilidad de estado estable para la cola de un
servidor.
Usando los valores de i , pi , qi de tal ejemplo,
i1 pi1 = i qi =
i1 pi1
i = i1 = i1
i qi
con lo que
2 i
i = i1 = i2 = = 0
para i = 0, 1, 2, . . .. La normalizacion implica que
i
" #
X X 1
1= i = 0 = 0
i=0 i=0
1
182 CAPITULO 5. CADENAS DE MARKOV
para
< 1. Si
1, la condicion de normalizacion no se satisface. Esto
significa que no hay vector de probabilidad de estado estable dado que la cola
tiende a hacerse mas y mas grande sin alcanzar tal estado. Es posible que en
este ultimo caso, la cola se vuelva mas y mas larga pero no necesariamente en
forma uniforme; podra haber periodos en los que la cola se haga mas pequena
pero eventualmente la cola se volvera mas larga que cualquier longitud pre-
especificada. Para que exista un estado estable, la tasa de partidas debe ser
mayor que la de llegadas .
Ejemplo
Para la cola de un servidor con < , encuentre la longitud esperada de
la cola en estado estable.
En el estado estable, la longitud L de la cola es i con probabilidad i para
i = 0, 1, 2, . . .. Notese que la variable aleatoria X = L + 1 esta geometrica-
mente distribuida. Para j 1,
P (X = j) = P (L = j 1) = j1 = (1 q)q j1
1
donde q = /. De esta forma
X X X 1 q 1
E[X] = j(1 q)q j1 = jq j1 jq j = =
j=0 j=0 j=0
(1 q)2 (1 q)2 1q
1
Se esta usando el resultado
X 1
jxj1 =
j=0
(1 x)2
E[X] =
E[L] = E[X 1] = E[X] 1 =
La longitud esperada de la cola de un servidor para < es /( ).
Ejemplo
Encuentre el vector de probabilidad de estado estable para la cola con
infinito numero de servidores.
Si se usa los valores de i , pi , qi de tal ejemplo,
((i 1) + )
i1 pi1 = =
(i 1) +
(i + )i
i qi = = i
i +
Por consiguiente,
i1 pi1
i = i1 = i1
i qi i
para i = 1, 2, . . .. Si se usa esta ultima relacion de manera recursiva,
i = i1
i
= i2
i (i 1)
..
.
i
1
= 0
i!
Si se usa normalizacion,
184 CAPITULO 5. CADENAS DE MARKOV
X X (/)i
1= i = 0 = 0 e/
i=0 i=0
i!
/
Por lo tanto, 0 = e . En conclusion, para la cola con infinito numero
de servidores, las probabilidades de estado estable son:
(/)i /
i = e
i!
para i = 0, 1, 2, . . ..
Las probabilidades en estado estable para la cola con infinito numero de
servidores estan distribuidas de acuerdo a Poisson con parametro /. Con-
secuentemente, la longitud esperada de la cola con infinito numero de ser-
vidores es /. En este ejemplo, el estado estable siempre existe; esto tiene
sentido porque hay un infinito numero de servidores.
Ejemplo
Para la cola con infinito numero de servidores con tasa de arribo y
tiempo medio de servicio 1/, encuentre el numero N mas pequeno de modo
que 90 % del tiempo habra N o menos clientes en el estado estable.
En el estado estable la probabilidad de i clientes es:
(/)i /
i =e
i!
N es el entero mas pequeno que satisface
0 + 1 + + N 0,90
N
X (/)i
0,90e/
i=0
i!
/ N
0.5 1
1 2
5 8
10 14
20 26
50 59
100 113
Cuadro 5.1: Numero N mas pequeno para que el 90 % del tiempo haya N o
menos clientes en el estado estable.
1. p0 = 1
3. qN = 1 si S = {0, 1, 2, . . . , N }
4. i > 0 para i S
infinito S = {0, 1, 2, . . .}. Supongase ahora que una partcula es libre de saltar
entre los estados del espacio de estados S; su localizacion al tiempo t es Xt .
De esta forma se tiene un proceso estocastico {Xt }
t=0 . La localizacion Xt se
i,3 = 0
N
X N
X
i,j = P (Xt+1 = j|Xt = i) = 1 (5.15)
j=0 j=0
Ejemplo 2
En una cadena de Markov hay 3 estados, con lo que S = {0, 1, 2}. Del
estado 0 la partcula salta a los estados 1 o 2 con una identica probabilidad
de 1/2. Del estado 2, la partcula debe saltar al estado 1. El estado 1 es
190 CAPITULO 5. CADENAS DE MARKOV
absorbente: una vez que la partcula entre al estado 1, no puede salirse. Dibuje
el diagrama y escriba la matriz de transicion.
En la Figura 5.2 se muestra el diagrama correspondiente y las probabi-
lidades de transicion. La primera fila de la matriz de transicion consiste
de las probabilidades de salto del estado 0 y similarmente para las otras dos
filas.
0 1/2 1/2
= 0 1 0
0 1 0
Definicion El estado i es absorbente si i,i = 1.
Esto corresponde en el lenguaje del azar al siguiente juego: tire una mo-
neda; si sale cruz, entonces gana un colon; si sale corona, entonces pierde un
5.6. CADENAS DE MARKOV DE TIEMPO DISCRETO 191
0,0 = 1 N,N = 1
0,1 = 1 N,N 1 = 1
r 1r 0 0 0 0
q 0 p 0 0 0
0 q 0 p 0
=
0 0 0 0 0 q 0 p
0 0 0 0 0 1s s
q p 0 0
q 0 p 0 0
= q 0 0 p 0
Vease que el espacio de estados S, en este caso, si bien discreto, tiene infi-
nitamente muchos estados. Este modelo recibe tambien el nombre de modelo
de nacimiento o de desastre. Algunas aplicaciones son evidentes: tiempos de
vida de componentes. Hay una que no es tan obvia: las noticias se apilan en
una pizarra de avisos a una razon mas o menos constante hasta que alguien
decide tirarlas todas. El estado del sistema es el numero de das desde la
ultima vez que la pizarra fue limpiada. Si la limpieza de la pizarra se hace
aleatoriamente, independiente de cuantas noticias haya o del tiempo desde
la ultima limpieza, la pizarra sera limpiada en la proxima unidad de tiempo
con una probabilidad constante q.
P (Xt+3 = j|Xt = i)
de que la partcula estara en estado j tres saltos desde el estado actual. Las
probabilidades de un paso i,j son las entradas de la matriz . De estas,
como puede encontrarse las probabilidades de tres pasos, y mas general-
mente, las probabilidades de t-pasos?
Definicion La matriz de transicion de orden t es t , cuya entrada (i, j)
es
t+1
i,j = P (Xt+1 = j|X0 = i)
N
X
= P (Xt+1 = j y Xt = k|X0 = i)
k=0
XN
= P (Xt+1 = j|Xt = k y X0 = i)P (Xt = k|X0 = i)
k=0
N
X
= P (Xt+1 = j|Xt = k)P (Xt = k|X0 = i)
k=0
XN
= k,j ti,k
k=0
XN
= ti,k k,j
k=0
5.6. CADENAS DE MARKOV DE TIEMPO DISCRETO 195
N
X
t+s
i,j = ti,k sk,j (5.17)
k=0
con t+s = t s .
Para que la partcula que comienza en i en el tiempo 0 este en j en el
tiempo t + s, debe estar en algun estado k en el tiempo intermedio t.
Ejemplo 5
Convierta el diagrama de salto de probabilidades de la Figura 5.4 en la co-
rrespondiente cadena de Markov y encuentre la probabilidad de que la partcu-
la estara en el estado 1 despues de tres saltos dado que empezara en el estado
1.
Si se pasa la informacion dada por el diagrama de saltos a la correspon-
diente matriz de transicion, se encuentra que:
0 0,1 0,9
= 0,8 0 0,2
0,7 0,3 0
Con la ayuda de la matriz anterior, se encuentra que:
196 CAPITULO 5. CADENAS DE MARKOV
0,71 0,27 0,02
2 = 1 1 = 0,14 0,14 0,72
0,24 0,07 0,69
0,230 0,077 0,693
3 = 2 = 0,616 0,230 0,154
0,539 0,231 0,230
Para responder a la pregunta hecha,
= (0 , 1 , 2 , . . . , N )
t = (t0 , t1 , t2 , . . . , tN )
donde
N
X N
X
tj = P (Xt = j) = 1
j=0 j=0
t
Es decir, para cada t, es un vector de probabilidad.
Definicion Un vector de probabilidad = (0 , 1 , . . . , N ) satisface
1. 0 6 i 6 1 para cada i = 0, 1, 2, . . . , N .
2. 0 + 1 + . . . + N = 1
N
X
tj = i ti,j
i=0
t = t = 0 t
tj = P (Xt = j)
N
X
= P (Xt = j|X0 = i)P (X0 = i)
i=0
N
X
= ti,j i
i=0
Ejemplo 6
1/4 3/4
=
1 0
= (1/3, 2/3)
2 13/16 3/16
==
1/4 3/4
3 2 25/64 39/64
= =
13/16 3/16
0 = (0, . . . , 0, 1, 0, . . . , 0)
t = (0, . . . , 0, 1, 0, . . . , 0)t
= (ti,o , ti,1 , ti,2 , . . . , ti,N )
P (Xt = j) = tj = ti,j
N
X
Nj j,i
j=0
N
X
Ni = Nj j,i
j=0
N
X
Ni /N = (Nj /N ) j,i
j=0
N
X
i = j j,i (5.18)
j=0
1 = = (5.19)
lo que implica
2 = 1 = =
202 CAPITULO 5. CADENAS DE MARKOV
3 = 2 = =
y, en general,
t = t1
=
=
N
X
j = i i,j
i=0
N
X
i = 1
i=0
5.6. CADENAS DE MARKOV DE TIEMPO DISCRETO 203
=
(0 , 1 ) = (0 , 1 )
1 1
= (0 , 1 ) 2 2
1 0
1
0 = 0 + 1
2
1
1 = 0
2
204 CAPITULO 5. CADENAS DE MARKOV
1 3
1 = 0 + 1 = 0 + 0 = 0
2 2
1 1
0 2 2
2 1
= 0
3 3
1 2
3 3
0
5.6. CADENAS DE MARKOV DE TIEMPO DISCRETO 205
1 1
0 2 2
2 1
(0 , 1 , 2 ) = (0 , 1 , 2 ) 0
3 3
1 2
3 3
0
1
0 = 2
3
1 2 2
1 = 0 + 1 + 2
2 3 3
1 1
2 = 0 + 1
2 3
lo cual genera,
30 + 2 = 0
30 21 + 42 = 0
30 + 21 62 = 0
2 = 30
15
1 = 0
2
q0 p0 0 0
0 q1 p1 0 0
=
0 0 q2 p2 0
pN 0 0 qN
(0 , 1 , . . . , N ) = (0 , 1 , . . . , N )
0 = q0 0 + pN N
1 = p0 0 + q1 1
2 = p1 1 + q2 2
p0 0 = pN N
p1 1 = p0 0
p2 2 = p1 1
1 = (p0 /p1 )0
2 = (p0 /p2 )0
3 = (p0 /p3 )0
N = (p0 /pN )0
1 = 0 + 1 + + N
= (1 + p0 /p1 + p0 /p2 + + p0 /pN ) 0
= (1/p0 + 1/p1 + 1/p2 + + 1/pN ) p0 0
1 1
= , , 0, 0
2 2
= (0, 0, 0, 1)
Figura 5.9: Ejemplo 11. Paseo aleatorio sobre los enteros positivos.
q0 = 0
p0 + q1 = 1
p1 + q2 = 2
Bibliografa
211
212 CAPITULO 6. BIBLIOGRAFIA
Bibliografa
[5] Rong Li, X. Probability, Random Signals, and Statistics. Boca Raton:
CRC Press, 1999.
213
214 BIBLIOGRAFIA