Professional Documents
Culture Documents
PROCESOS ESTOCASTICOS
Luis Rincn
o
Departamento de Matemticas
a
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mxico DF
e
Versin: Octubre 2008
o
http://www.matematicas.unam.mx/lars
ii
Contenido
1. Introduccin
o
2. Caminatas aleatorias
2.1. Caminatas aleatorias . .
2.2. El problema del jugador
Notas y referencias . . . . . .
Ejercicios . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
. 7
. 16
. 21
. 23
3. Cadenas de Markov
3.1. Propiedad de Markov . . . . . . .
3.2. Ejemplos . . . . . . . . . . . . . .
3.3. Ecuacin de Chapman-Kolmogorov
o
3.4. Comunicacin . . . . . . . . . . . .
o
3.5. Clases cerradas . . . . . . . . . . .
3.6. Periodo . . . . . . . . . . . . . . .
3.7. Primeras visitas . . . . . . . . . . .
3.8. Recurrencia y transitoriedad . . . .
3.9. Tiempo medio de recurrencia . . .
3.10. N mero de visitas . . . . . . . . .
u
3.11. Recurrencia positiva y nula . . . .
3.12. Evolucin de distribuciones . . . .
o
3.13. Distribuciones estacionarias . . . .
3.14. Distribuciones l
mite . . . . . . . .
3.15. Cadenas regulares . . . . . . . . .
3.16. Cadenas reversibles . . . . . . . . .
Resumen de la notacin . . . . . . . . .
o
Notas y referencias . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
25
25
29
36
40
42
43
46
48
54
55
61
65
66
73
78
80
83
84
86
4. El proceso de Poisson
4.1. Proceso de Poisson . . . . . . . . .
4.2. Deniciones alternativas . . . . . .
4.3. Proceso de Poisson no homogneo
e
4.4. Proceso de Poisson compuesto . . .
Notas y referencias . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
97
97
105
108
111
112
113
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
117
118
121
127
130
133
134
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
135
135
138
140
144
149
154
155
7. Martingalas
7.1. Filtraciones . . . . . . . . . . . . . . . .
7.2. Tiempos de paro . . . . . . . . . . . . .
7.3. Martingalas . . . . . . . . . . . . . . . .
7.4. Ejemplos . . . . . . . . . . . . . . . . .
7.5. Una aplicacin: Estrategias de juego . .
o
7.6. Procesos detenidos . . . . . . . . . . . .
7.7. Una aplicacin: La estrategia martingala
o
7.8. Teorema de paro opcional . . . . . . . .
7.9. Algunas desigualdades . . . . . . . . . .
7.10. Convergencia de martingalas . . . . . .
7.11. Representacin de martingalas . . . . .
o
Notas y referencias . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
157
157
159
161
162
165
165
167
169
172
174
178
182
185
iv
.
.
.
.
.
.
.
.
.
.
.
.
8. Movimiento Browniano
8.1. Denicin . . . . . . . . . . . . . . . . . .
o
8.2. Propiedades bsicas . . . . . . . . . . . .
a
8.3. Propiedades de las trayectorias . . . . . .
8.4. Movimiento Browniano multidimensional
8.5. El principio de reexin . . . . . . . . . .
o
8.6. Recurrencia y transitoriedad . . . . . . . .
Notas y referencias . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
191
191
196
200
204
207
210
216
219
9. Clculo estocstico
a
a
9.1. Integracin estocstica . . . . . . . .
o
a
9.2. Frmula de It . . . . . . . . . . . .
o
o
9.3. Ecuaciones diferenciales estocsticas
a
9.4. Simulacin . . . . . . . . . . . . . . .
o
9.5. Algunos modelos particulares . . . .
Notas y referencias . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
221
221
234
236
241
242
252
254
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
255
vi
Prlogo
o
El presente texto contiene material bsico en temas de procesos estocsticos a nivel
a
a
licenciatura. Est dirigido a estudiantes de las carreras de matemticas, actuar
a
a
a,
matemticas aplicadas y otras carreras anes. Este trabajo es una versin ampliada
a
o
de las notas de clase del curso semestral de procesos estocstico que he impartido
a
en la Facultad de Ciencias de la UNAM a alumnos de las carreras de actuar y
a
matemticas.
a
Los temas tratados en este texto corresponden a ciertos modelos clsicos de la
a
teor de los procesos estocsticos, y a ciertas preguntas o problemas matemticos
a
a
a
que uno puede plantearse al estudiar tales modelos. El texto inicia con una explicacin del concepto de proceso estocstico y con algunas deniciones y ejemplos
o
a
generales de este tipo de modelos. A manera de un acercamiento inicial se presenta
primero una introduccin breve al tema de caminatas aleatorias en una dimensin,
o
o
y particularmente se analiza el problema de la ruina del jugador. En el segundo
cap
tulo se estudian cadenas de Markov a tiempo discreto y despus se estudia el
e
mismo tipo de modelo para tiempos continuos, para ello se presenta primero el
proceso de Poisson. Se estudian despus los procesos de renovacin, y brevemente
e
o
tambin la teor de la conabilidad. Se presenta despus una introduccin a la
e
a
e
o
teor de martingalas a tiempo discreto, en donde se estudian unos pocos de sus
a
muchos resultados y aplicaciones. Se incluye adems una introduccin al movimiena
o
to Browniano. El texto naliza con una exposicin compacta y ligera del clculo
o
a
estocstico de It. El material completo excede lo que regularmente es impartido
a
o
en un curso semestral, y una seleccin adecuada de temas ser necesaria. Cada
o
a
cap
tulo contiene material que puede considerarse como introductorio al tema. Al
nal de cada uno de ellos se proporcionan algunas referencias para que el lector
pueda precisar o profundizar lo que aqu se presenta.
El texto contiene una coleccin de ejercicios que se han colocado al nal de cada
o
cap
tulo, y se han numerado de manera consecutiva a lo largo del libro. Se incluyen
tambin sugerencias o soluciones de algunos de estos ejercicios. A lo largo de la
e
exposicin el lector encontrar tambin algunos otros ejemplos y ejercicios, los
o
a
e
cuales son particularmente utiles para el estudiante autodidacta, o para presentar
en clase si se adopta alguna parte de este texto como material de estudio en alg n
u
curso.
A
Este material fue escrito en L TEX, y las grcas fueron elaboradas usando el exa
vii
viii
celente paquete Pstricks. La mayor parte de este trabajo fue elaborado mientras
realizaba una estancia sabtica en la universidad de Nottingham durante el a o
a
n
2007, y agradezco sinceramente al Prof. Belavkin su amable hospitalidad para llevar a cabo este proyecto, y a la DGAPA-UNAM por el generoso apoyo econmico
o
recibido durante esta agradable estancia.
Luis Rincn
o
Enero 2008
Ciudad Universitaria UNAM
lars@fciencias.unam.mx
Cap
tulo 1
Introduccin
o
Considere un sistema que puede caracterizarse por estar en cualquiera de un conjunto de estados previamente especicado. Suponga que el sistema evoluciona o
cambia de un estado a otro a lo largo del tiempo de acuerdo a una cierta ley de
movimiento, y sea Xt el estado del sistema al tiempo t. Si se considera que la forma en la que el sistema evoluciona no es determinista, sino provocada por alg n
u
mecanismo azaroso, entonces puede considerarse que Xt es una variable aleatoria
para cada valor del
ndice t. Esta coleccin de variables aleatorias es la denicin
o
o
de proceso estocstico, y sirve como modelo para representar la evolucin aleatoa
o
ria de un sistema a lo largo del tiempo. En general, las variables aleatorias que
conforman un proceso no son independientes entre s sino que estn relacionadas
,
a
unas con otras de alguna manera particular. Ms precisamente, la denicin de
a
o
proceso estocstico toma como base un espacio de probabilidad (, F , P ) y puede
a
enunciarse de la siguiente forma.
Denicin. Un proceso estocstico es una coleccin de variables aleatorias
o
a
o
{Xt : t T } parametrizada por un conjunto T , llamado espacio parametral, y
con valores en un conjunto S llamado espacio de estados.
En los casos ms sencillos, y que son los que consideraremos en este texto, se toma
a
como espacio parametral el conjunto T = {0, 1, 2, . . .}, o T = [0, ), y estos n meu
ros se interpretan como tiempos. En el primer caso se dice que el proceso es a tiempo
discreto, y en general este tipo de procesos se denotar por {Xn : n = 0, 1, . . .},
a
mientras que en el segundo caso el proceso es a tiempo continuo, y se denotar por
a
{Xt : t 0}. Es decir, seguiremos la convencin de que si el sub
o
ndice es n, enton1
2
ces los tiempos son discretos, y si el sub
ndice es t, el tiempo se mide de manera
continua. Los posibles espacios de estados que consideraremos son subconjuntos de
Z, y un poco ms generalmente tomaremos como espacio de estados el conjunto
a
de n meros reales R, aunque en algunos pocos casos tambin consideraremos a
u
e
Zn o Rn . Naturalmente espacios ms generales son posibles, tanto para el espacio
a
parametral como para el espacio de estados. En particular, para poder hablar de
variables aleatorias con valores en el espacio de estados S, es necesario asociar a
este conjunto una -lgebra, considerando que S es un subconjunto de R, puede
a
tomarse la -lgebra de Borel de S, es decir, S B(R).
a
Un proceso estocstico puede considerarse como una funcin de dos variables X :
a
o
T S tal que a la pareja (t, ) se le asocia el estado X(t, ), lo cual tambin
e
puede escribirse como Xt (). Para cada valor de t en T , el mapeo Xt ()
es una variable aleatoria, mientras que para cada en jo, la funcin t
o
Xt () es llamada una trayectoria o realizacin del proceso. Es decir, a cada
o
del espacio muestral le corresponde una trayectoria del proceso. Es por ello que
a veces se dene un proceso estocstico como una funcin aleatoria. Una de tales
a
o
trayectorias t
picas que adems cuenta con la propiedad de ser continua se muestra
a
en la Figura 1.1, y corresponde a una trayectoria de un movimiento Browniano,
proceso que deniremos y estudiaremos ms adelante.
a
Espacio
de estados
Xt ()
t
Espacio
parametral
Figura 1.1:
Si A es un conjunto de estados, el evento (Xt A) corresponde a la situacin en
o
donde al tiempo t el proceso toma alg n valor dentro del conjunto A. En particular,
u
(Xt = x) es el evento en donde al tiempo t el proceso se encuentra en el estado x.
Cap
tulo 1. Introduccion
4
(Xt1 , . . . , Xtn ) es la misma que la del vector (Xt1 +h , . . . , Xtn +h ) para cualquier
valor de h > 0. En particular, la distribucin de Xt es la misma que la de Xt+h
o
para cualquier h > 0, y entonces esta distribucin es la misma para cualquier valor
o
de t.
Procesos con incrementos estacionarios. Se dice que un proceso {Xt : t 0}
tiene incrementos estacionarios si para cualesquiera tiempos s < t, y para cualquier
h > 0, las variables Xt+h Xs+h y Xt Xs tienen la misma distribucin de
o
probabilidad. Es decir, el incremento que sufre el proceso entre los tiempos s y t
slo depende de estos tiempos a travs de la diferencia t s, y no de los valores
o
e
espec
cos de s y t.
Martingalas. Una martingala a tiempo discreto es, en trminos generales, un
e
proceso {Xn : n = 0, 1, . . .} que cumple la condicin
o
E(Xn+1 | X0 = x0 , . . . , Xn = xn ) = xn .
(1.1)
En palabras, esta igualdad signica que el estado promedio del proceso al tiempo
futuro n + 1 es el valor del proceso en su ultimo momento observado, es decir, xn .
Esto es, se trata de una ley de movimiento aleatoria equilibrada pues en promedio
el sistema no se mueve del ultimo momento observado. A estos procesos tambin se
e
les conoce como procesos de juegos justos pues si se considera una sucesin innita
o
de apuestas sucesivas y si Xn denota el capital de uno de los jugadores al tiempo
n, entonces la propiedad de martingala (1.1) establece que el juego es justo pues
en promedio el jugador no pierde ni gana en cada apuesta.
Procesos de L`vy. Se dice que un proceso a tiempo continuo {Xt : t 0} es
e
un proceso de L`vy si sus incrementos son independientes y estacionarios. Ms
e
a
adelante veremos que tanto el proceso de Poisson como el movimiento Browniano
son ejemplos de este tipo de procesos.
Procesos Gausianos. Se dice que un proceso a tiempo continuo {Xt : t 0} es
un proceso Gausiano si para cualesquiera coleccin nita de tiempos t1 , . . . , tn , el
o
vector (Xt1 , . . . , Xtn ) tiene distribucin normal o Gausiana. Nuevamente, el movio
miento Browniano es un ejemplo de este tipo de procesos.
El objetivo del presente texto es el de proporcionar una introduccin a algunos
o
resultados elementales sobre algunos tipos de procesos estocsticos.
a
Ejercicio. Demuestre que todo proceso a tiempo discreto {Xn : n = 0, 1, . . .} con
incrementos independientes es un proceso de Markov. Este resultado no es vlido
a
Cap
tulo 1. Introduccion
para procesos a tiempo continuo.
Cap
tulo 2
Caminatas aleatorias
En este cap
tulo se presenta una introduccin breve al tema de caminatas aleatorias
o
en una dimensin. Encontraremos la distribucin de probabilidad de la posicin de
o
o
o
una part
cula que efect a una caminata aleatoria en Z, y la probabilidad de retorno
u
a la posicin de origen. Se plantea y resuelve despus el problema de la ruina del
o
e
jugador, y se analizan algunos aspectos de la solucin.
o
2.1.
Caminatas aleatorias
P (Xn+1
p si j = i + 1,
= j | Xn = i) =
q si j = i 1,
0 otro caso.
Figura 2.2:
Xn = X0 + 1 + + n .
Demostracin.
o
n
1. E(Xn ) = i=1 E(i ) = n E() = n(p q).
2. Como E( 2 ) = p + q = 1 y E() = p q, se tiene que Var() = 1 (p q)2 = 4pq.
Por lo tanto Var(Xn ) = n Var(i ) = n Var() = 4npq.
i=1
Cap
tulo 2. Caminatas aleatorias
1
1
n
p 2 (n+x) q 2 (nx) .
+ x)
1
2 (n
(2.1)
10
tiene
Rn =
1
(n + Xn ) =
2
n
i=1
1
(1 + i ).
2
P (Rn =
1
(n + x))
2
n
+ x)
1
2 (n
p 2 (n+x) q 2 (nx) .
n
+ x)
1
2 (n
1
.
2n
n
1
1
i=1 2 (1 i ).
2 (n Xn ) =
Ejercicio. Demuestre que la probabilidad (2.1) es una funcin simtrica de x si, y
o
e
slo si, la caminata es simtrica.
o
e
11
Cap
tulo 2. Caminatas aleatorias
1
2 (n
n
+ x y)
p 2 (n+xy) q 2 (nx+y) .
(2.2)
1
<1
si p = q,
si p = q.
12
al origen es k=0 fk . Esta serie es convergente pues se trata de la suma de probabilidades de eventos disjuntos, y por lo tanto a lo sumo vale uno. Demostraremos
que en el caso simtrico la suma vale uno. Recordemos nuevamente que los valores
e
de fk son estrictamente positivos slo para valores pares de k distintos de cero.
o
b) No es dif comprobar que se cumple la siguiente igualdad
cil
n
pn =
fk pnk .
(2.3)
k=0
k=0
f k tk .
Cap
tulo 2. Caminatas aleatorias
13
p n tn
n=1
=
=
fk pnk tn
n=1 k=0
fk pnk tn
k=0 n=k
f k tk
k=0
G(t)
pnk tnk
n=k
p n tn .
n=0
Por lo tanto
(
n=0
pn tn ) 1 = G(t)
p n tn .
(2.4)
n=0
Para encontrar G(t) se necesita encontrar una expresin para la suma que aparece
o
en la ultima ecuacin, y que no es otra cosa sino el funcin generadora de los
o
o
n meros p0 , p1 , p2 , . . . Haremos esto a continuacin.
u
o
c) Para el anlisis que sigue necesitamos recordar que para cualquier n mero real
a
u
a y para cualquier entero n, se tiene el coeciente binomial
a
n
a(a 1) (a (n 1))
.
n!
(2.5)
a n
(1 + t)a =
t .
(2.6)
n
n=0
14
=
=
=
=
=
2n(2n 1)(2n 2) 3 2 1
n! n!
n
2 n! (2n 1)(2n 3) 5 3 1
n! n!
2n 2n 2n 1 2n 3
5 3 1
(
)(
) ( )( )( )
n!
2
2
2 2 2
2n 2n
1
3
5
3
1
n
(1) (n + )(n + ) ( )( )( )
n!
2
2
2
2
2
1/2
(4)n
.
n
(2.7)
d) Usando (2.6) y (2.7) podemos ahora encontrar una expresin cerrada para la
o
funcin generadora de la coleccin de n meros p0 , p1 , p2 , . . .
o
o
u
p n tn
n=0
=
=
n=0
n=0
n=0
2n n n 2n
p q t
n
(4)n
1/2 n n 2n
p q t
n
1/2
(4pqt2 )n
n
= (1 4pqt2 )1/2 .
(2.8)
(2.9)
n=0
15
Cap
tulo 2. Caminatas aleatorias
n=0
n fn = l G (t) = l
m
m
t1
t1
t
= .
1 t2
Puede considerarse tambin el caso de una caminata en donde sea posible permanee
cer en el mismo estado despus de una unidad de tiempo. Esta situacin se ilustra
e
o
en la Figura 2.3(a), en donde p, q y r son probabilidades tales que p + q + r = 1.
Tambin pueden considerarse caminatas aleatorias en Z2 como la que se muestra
e
en la Figura 2.3(b), en donde p + q + r + s = 1, o ms generalmente en Zn o
a
cualquier otro conjunto reticulado.
r
q
1
p
0
p
1
s
1
(a)
(b)
Figura 2.3:
En el siguiente cap
tulo se estudiarn algunas otras propiedades de las caminatas
a
aleatorias en el contexto de las cadenas de Markov.
16
2.2.
Cap
tulo 2. Caminatas aleatorias
17
(2.10)
(2.11)
= (q/p) (u1 1)
= (q/p)2 (u1 1)
.
.
.
= (q/p)k1 (u1 1).
o
1 + (q/p) + + (q/p)k pues al sumar las k 1 ecuaciones anteriores se obtiene
uk u1 = (Sk1 1) (u1 1). O bien
uk = 1 + Sk1 (u1 1).
(2.12)
De manera anloga pero ahora sumando todas las ecuaciones de (2.11) se obtiene
a
uN = 1 + SN 1 (u1 1). Usando la segunda condicin de frontera uN = 0 se llega
o
a u1 1 = 1/SN 1 . Substituyendo en (2.12) y simplicando se llega a la solucin
o
uk = 1
Sk1
.
SN 1
18
k+1
k
k+1
Sk = 1 + (q/p) + + (q/p) =
1 (q/p)
1 (q/p)
Por lo tanto
(N k)/N
k
N
uk =
(q/p) (q/p)
1 (q/p)N
si p = q,
si p = q.
si p = 1/2,
si p = 1/2.
(2.13)
uk
1
p = 0.01
p = 0.2
p = 0.35
p = 0.5
p = 0.65
p = 0.8
p = 0.99
k
10
20
30
40
50
Figura 2.5:
Anlisis de la solucin. Es interesante analizar la frmula (2.13) en sus varios
a
o
o
aspectos. Por ejemplo, para el caso simtrico p = 1/2, es decir, cuando el juego
e
es justo, la probabilidad de ruina es muy cercana a 1 cuando k es muy peque o
n
comparado con N . Esto sugiere que no conviene jugar esta serie de apuestas contra
adversarios demasiado ricos, a n cuando el juego sea justo. Es tambin un tanto
u
e
inesperado observar que la probabilidad uk es muy sensible a los valores de p
cercanos a 1/2. Esto puede apreciarse en la Figura 2.6. Cuando p es distante de
1/2 la probabilidad uk es casi constante, pero para valores de p cercanos a 1/2
19
Cap
tulo 2. Caminatas aleatorias
uk
uk
uk
k=5
0.5
k = 25
0.5
k = 45
0.5
Figura 2.6:
si q = 1/2,
k/N
k
vN k =
(q/p) 1
si q = 1/2.
N 1
(q/p)
N mero esperado de apuestas antes de la ruina. Hemos comprobado que con
u
probabilidad uno ocurre que eventualmente alguno de los dos jugadores se arruina.
Es natural entonces plantearse el problema de encontrar el tiempo promedio que
transcurre antes de observar la eventual ruina de alguna de las partes. Este n mero
u
de apuestas promedio antes de la ruina puede encontrarse expl
citamente, y el
mtodo que usaremos para encontrarlo es nuevamente el planteamiento de una
e
ecuacin en diferencias que resolveremos del modo mostrado antes. Sea entonces
o
mk el n mero esperado de apuesta antes de que termine el juego, en donde el
u
jugador A tiene un capital inicial de k unidades, y B tiene N k.
20
si p = q,
k (N k)
k
mk =
1 ( k N 1 (q/p) ) si p = q.
N
qp
1 (q/p)
Demostracin. Condicionando sobre el resultado de la primera apuesta se obtiene
o
que mk satisface la ecuacin
o
mk = 1 + p mk+1 + q mk1 ,
vlida para k = 1, 2, . . . , N 1. Esta es una ecuacin en diferencias, de segundo
a
o
orden, lineal y no homognea. Las condiciones de frontera son ahora m0 = 0 y
e
mN = 0. Substituyendo (p + q)mk por mk y agrupando trminos convenientemente
e
la ecuacin anterior puede reescribirse del siguiente modo
o
mk+1 mk =
q
1
(mk mk1 ) .
p
p
(2.14)
m3 m2
1
S0 ,
p
1
(q/p)2 m1 S1 ,
p
(q/p) m1
.
.
.
mk mk1
(q/p)k1 m1
1
Sk2 .
p
o
ecuaciones se obtiene
mk m1 = m1 (Sk1 1)
1
p
k2
Si .
i=0
Es decir,
mk = m1 Sk1
1
p
k2
Si .
i=0
(2.15)
21
Cap
tulo 2. Caminatas aleatorias
En particular, sumando todas las ecuaciones de (2.14) se obtiene
mN = m1 SN 1
1
p
N 2
Si .
i=0
1
SN 1
1
p
k2
Si .
i=0
Substituyendo en (2.15),
mk =
Sk1 1
SN 1 p
N 2
i=0
Si
1
p
k2
Si .
(2.16)
i=0
k+1
k
k+1
Sk = 1 + (q/p) + + (q/p) =
1 (q/p)
1 (q/p)
si p = q,
si p = q.
p = 0.5
p = 0.1
10
20
p = 0.9
30
40
Figura 2.7:
50
22
Cap
tulo 2. Caminatas aleatorias
23
Ejercicios
Caminatas aleatorias
1. Demuestre que una caminata aleatoria simple sobre Z cumple la propiedad de
Markov, es decir, demuestre que para cualesquiera enteros x0 , x1 , . . . , xn+1 ,
P (Xn+1 = xn+1 | X0 = x0 , . . . , Xn = xn ) = P (Xn+1 = xn+1 | Xn = xn ).
2. Para una caminata aleatoria simple Xn sobre Z demuestre que
P (Xn+1 = x) = p P (Xn = x 1) + q P (Xn = x + 1).
3. Una part
cula realiza una caminata aleatoria simtrica sobre Z empezando en
e
cero. Encuentre la probabilidad de que la part
cula se encuentre nuevamente
en el origen en el sexto paso.
4. Una part
cula realiza una caminata aleatoria simtrica sobre Z empezando
e
en cero. Cul es la probabilidad de que la part
a
cula regrese al estado cero
por primera vez en el sexto paso?
24
z:
Como segundo valor para m se propone k veces el valor de la primera
solucin, es decir, m2 = k. Proceda como en el inciso anterior para
o
encontrar (2.13) en este caso.
7. Siguiendo la notacin usada para encontrar el n mero esperado de apuestas
o
u
antes de la ruina en el problema del jugador, demuestre la igualdad mk =
1 + p mk+1 + q mk1 , para k = 1, 2, . . . , N 1.
8. Considere el problema de la ruina del jugador permitiendo ahora que existan
empates en cada una de las apuestas. Las probabilidades de ganar, perder o
empatar para el jugador A son p, q y r, respectivamente, con p+q+r = 1. Demuestre que la probabilidad de ruina para el jugador A sigue siendo la misma
expresin (2.13). Es decir, la posibilidad de empate en cada apuesta extiende
o
posiblemente la duracin del juego pero no modica las probabilidades de
o
ruina.
Cap
tulo 3
Cadenas de Markov
3.1.
Propiedad de Markov
25
26
(3.1)
Cap
tulo 3. Cadenas de Markov
0
0
P =
2
.
.
.
p00
p10
p20
.
.
.
p01
p11
p21
.
.
.
p02
p12
p22
.
.
.
Figura 3.1:
27
y el
ndice j a la columna.
Proposicin. La matriz de probabilidades de transicin P = (pij ) cumple las
o
o
siguientes dos propiedades.
a) pij 0.
b)
pij = 1.
j
=
j
(Xn+1 = j) | Xn = i)
P (Xn+1 = j | Xn = i)
pij .
Esto ultimo signica que a partir de cualquier estado i con probabilidad uno la
28
0.4
0.3
0.7
0.3
0.2
0
0.3
0.5
0.3
Ejercicio. Sea Xn una cadena de Markov con dos estados 0 y 1, con distribucin
o
inicial P (X0 = 0) = 0.5, P (X0 = 1) = 0.5, y con matriz de probabilidades de
Cap
tulo 3. Cadenas de Markov
29
transicin
o
P =
0.4
0.9
0.6
0.1
Calcule
a) P (X0 = 0, X1 = 1, X2 = 0).
b) P (X0 = 0 | X1 = 1).
c) P (X1 = 0).
d) P (X2 = 1).
e) P (X0 = 0, X1 = 0, X2 = 1, X3 = 1).
Ejercicio. Sea Xn una cadena de Markov con dos estados: 0,1, con distribucin
o
inicial P (X0 = 0) = 0.2, P (X0 = 1) = 0.8, y con matriz de probabilidades de
transicin como aparece abajo. Encuentre la distribucin de las variables X1 , X2 ,
o
o
X1 y X2 conjuntamente.
P =
1/2
2/3
1/2
1/3
3.2.
Ejemplos
30
3.2. Ejemplos
0
P =
0
1
1a
b
1
a
1b
1a
1b
Figura 3.2:
Aunque de aspecto sencillo, esta cadena es susceptible de muchas aplicaciones pues
es com n encontrar situaciones en donde se presenta siempre la dualidad de ser o
u
no ser, estar o no estar, tener o no tener, siempre en una constante alternancia entre
un estado y el otro. Cuando a = 1 b, las variables X1 , X2 , . . . son independientes
e idnticamente distribuidas con P (Xn = 0) = 1 a y P (Xn = 1) = a, para cada
e
n 1. Cuando a = 1 b, Xn depende de Xn1 . Mas adelante demostraremos que
las probabilidades de transicin en n pasos son, para a + b > 0,
o
p00 (n) p01 (n)
p10 (n) p11 (n)
1
a+b
b a
b a
(1 a b)n
a+b
a
b
a
b
Cap
tulo 3. Cadenas de Markov
31
a0
P = a0
.
.
.
a1
a1
.
.
.
a2
a2
.
.
.
Esta cadena tiene la cualidad de poder pasar a un estado cualquiera siempre con la
misma probabilidad, sin importar el estado de partida. Puede modelar, por ejemplo,
una sucesin de lanzamientos de una moneda.
o
b) El proceso Xn = mx {1 , . . . , n } es una cadena de Markov con matriz
a
a0
0
P = 0
.
.
.
a1
a0 + a1
0
.
.
.
a2
a2
a0 + a1 + a2
.
.
.
a3
a3
a3
.
.
.
a0
0
P = 0
.
.
.
a1
a0
0
.
.
.
a2
a1
a0
.
.
.
32
3.2. Ejemplos
r xitos
e
nr
nr+1
Figura 3.3:
La coleccin de variables aleatorias {Xn : n = 1, 2, . . .} es una cadena de Markov
o
con espacio de estados {0, 1, . . .}. Las probabilidades de transicin y la matriz
o
correspondiente se muestran en la Figura 3.4.
q
pij =
si j = i + 1,
si j = 0,
otro caso.
P =
Figura 3.4:
0
1
.
.
.
q
q
q
.
.
.
0 0
p 0
0 p .
.
.
.
p
0
0
.
.
.
Las posibles transiciones de un estado a otro para esta cadena de Markov se pueden
observar en la Figura 3.5.
q
0
p
q
1
q
2
q
3
Figura 3.5:
Cadena de la caminata aleatoria. Una caminata aleatoria simple sobre el con-
Cap
tulo 3. Cadenas de Markov
33
junto de n meros enteros constituye una cadena de Markov con espacio de estados
u
el conjunto Z, y con probabilidades de transicin
o
p si j = i + 1,
q si j = i 1,
pij =
0 otro caso,
N i
bolas
bolas
urna A
urna B
Figura 3.6:
34
3.2. Ejemplos
P =
0
1/N
0
.
.
.
0
0
1
0
2/N
.
.
.
0
0
0
(N 1)/N
0
.
.
.
0
0
0
0
(N 2)/N
.
.
.
0
0
0
0
0
.
.
.
0
1
0
0
0
.
.
.
1/N
0
Figura 3.7:
Cap
tulo 3. Cadenas de Markov
35
n+1
Xn + n+1 1
si Xn = 0,
si Xn 1.
Esto puede escribirse como Xn+1 = (Xn 1)+ + n+1 , en donde x+ = mx{x, 0}.
a
Por lo tanto el proceso {Xn : n = 0, 1, . . .} es una cadena de Markov con espacio
de estados {0, 1, . . .}, y probabilidades de transicin
o
pij =
Es decir,
P ( = j)
si i = 0,
P ( = j i + 1) si i 1.
P =
a0
a0
0
0
.
.
.
a1
a1
a0
0
.
.
.
a2
a2
a1
a0
.
.
.
36
Xn n+1
S n+1
si s Xn < S,
si Xn s.
P (n+1 = i j) = aij
P (n+1 = S j) = aSj
si s < i S,
si i s.
3.3.
Ecuacin de Chapman-Kolmogorov
o
Esta ecuacin es una frmula sencilla y muy util que permite descomponer la proo
o
Cap
tulo 3. Cadenas de Markov
37
= P (Xn = j | X0 = i)
=
=
k
=
k
P (Xn = j | Xr = k) P (Xr = k | X0 = i)
pkj (n r) pik (r).
Grcamente, las trayectorias que van del estado i al estado j en n pasos se desa
componen como se muestra en la Figura 3.8. Para nes ilustrativos se dibujan las
trayectorias de manera continua pero en realidad no lo son.
k
j
i
r
Figura 3.8:
38
=
i1 ,i2
.
.
.
=
=
i1 ,...,in1
(P n )ij .
p00 (n)
p10 (n)
.
.
.
p01 (n)
p11 (n)
.
.
.
p00
= p10
.
.
.
p01
p11
.
.
.
39
Cap
tulo 3. Cadenas de Markov
P =
a
1b
Q=
Q1 =
1
a+b
b a
1 1
La matriz D es la matriz diagonal que contiene a los dos eigenvalores. Puede entonces comprobarse la identidad P = QDQ1 , es decir,
1a
b
a
1b
1
1
a
b
1
0
1
a+b
0
1ab
b
1
a
1
Por lo tanto,
Pn
Q Dn Q1
1
1
1
a+b
a
b
b
b
1
0
0 (1 a b)n
a
a
(1 a b)n
a+b
b
1
1
a+b
a
1
a a
b b
40
3.4. Comunicacion
3.4.
Comunicacin
o
Comunicacin
o
i
Figura 3.9:
b) Es simtrica: si i j, entonces j i.
e
c) Es transitiva: si i j y j k, entonces i k.
41
Cap
tulo 3. Cadenas de Markov
C(i)
C(j)
S
Figura 3.10:
estados es una clase de comunicacin. Para la clase C(3) no existe una conexin
o
o
f
sica del estado 3 consigo mismo, sin embargo, por denicin p33 (0) = 1, y ello
o
hace que esta clase de unicamente un estado sea de comunicacin. Observe que
o
estas clases de comunicacin conforman una particin del espacio de estados.
o
o
C(0)
1
1/2
P =
0
1/2
0
0
1/2
0
0
1/2
1/2
1/2
0
0
0
0
C(1)
2
C(3)
Figura 3.11:
a) P =
0.3
0.4
0.5
0
0.6
0
0.7
0
0.5
0.2
0.4 0.6
b) P =
0
0
0
0
0
1
0.3
0.8
0
0
0.7
42
3.5.
Clases cerradas
Las clases cerradas son subconjuntos de estados de una cadena de Markov que
cumplen la propiedad de que partiendo de cualquiera estado de este subconjunto,
no se puede pasar a cualquier otro estado fuera del subconjunto. Esa propiedad
hace a este subconjunto de estados un subsistema propio de la cadena de Markov.
Denicin. Una coleccin de estados no vac C es cerrada si ning n estao
o
a
u
do fuera de C es accesible desde alg n estado dentro de C , es decir, si para
u
cualquier i C y j C , i j.
/
/
Por ejemplo, si i es un estado absorbente, entonces la coleccin {i} es claramente
o
Cap
tulo 3. Cadenas de Markov
43
una clase cerrada. Como un ejemplo adicional considere cualquier clase de comunicacin recurrente. Es claro que esta clase es cerrada pues de lo contrario, si i C
o
y j C con C recurrente, e i j, entonces necesariamente j i pues hemos
/
supuesto que i es recurrente. Por lo tanto i j, y entonces j C , contrario a
la hiptesis j C . Por lo tanto no es posible salir de una clase de comunicacin
o
/
o
recurrente. El siguiente resultado es una especie de rec
proco de lo que acabamos
de mencionar.
Proposicin. Toda coleccin de estados que es cerrada e irreducible es una clase
o
o
de comunicacin.
o
Demostracin. Sea C una coleccin no vac de estados que es irreducible y cerrada,
o
o
a
y sea i C . Entonces C C(i) pues como C es irreducible, todos sus estados se
comunican y por lo tanto deben pertenecer a la misma clase de comunicacin.
o
Como C es cerrada, no es posible salir de tal coleccin, de modo que la diferencia
o
C(i) C es vac si existiera j C(i) C , entonces i j, lo cual contradice el
a,
supuesto de que C es cerrada. Por lo tanto C = C(i).
3.6.
Periodo
44
3.6. Periodo
Figura 3.12:
Ejercicio. Dibuje un diagrama de transicin, determine las clases de comunicacin
o
o
y calcule el periodo de cada uno de los estados de las siguientes cadenas de Markov.
0
0
0
0
1
1/4 1/4 1/4 1/4
0
0
1
0
0
0 1/2 1/2 0
0
0
1/2 1/2
a) P =
b) P = 0
0
0
0
1
0
0
1
0
0
0
1/5
1/5
1/5
1/5
1/5
Cap
tulo 3. Cadenas de Markov
45
46
3.7.
Primeras visitas
m {n 1 : Xn A}
n
si Xn A para alg n n 1,
u
otro caso.
Cap
tulo 3. Cadenas de Markov
b) P (ij = 2) =
47
c) P (ij = n + 1) =
para n 1.
pij (n) =
k=1
(3.2)
48
P (Xn = j | X0 = i)
n
=
k=1
n
=
k=1
n
=
k=1
P (Xn = j, Xk = j, Xk1 = j, . . . , X1 = j | X0 = i)
P (Xn = j | Xk = j) P (Xk = j, Xk1 = j, . . . , X1 = j | X0 = i)
pjj (n k) fij (k).
Ejercicio. Use (3.2) para demostrar que para cada n 1, se cumple la desigualdad
pij (n) P (ij n).
3.8.
Recurrencia y transitoriedad
Veremos a continuacin que los estados de una cadena de Markov pueden ser clasio
cados, en una primera instancia, en dos tipos, dependiendo si la cadena es capaz
de regresar con certeza al estado de partida.
Denicin. (I) Se dice que un estado i es recurrente si la probabilidad de
o
eventualmente regresar a i, partiendo de i, es uno, es decir, si
P (Xn = i para alguna n 1 | X0 = i) = 1.
Un estado que no es recurrente se llama transitorio, y en tal caso la probabilidad
anterior es estrictamente menor a uno.
De manera intuitiva, un estado es recurrente si con probabilidad uno la cadena es
capaz de regresar eventualmente a ese estado, y cuando ello ocurre en alg n mou
mento nito, por la propiedad de Markov, se puede regresar a l una y otra vez con
e
probabilidad uno. Debido a este comportamiento es que al estado en cuestin se le
o
llama recurrente. En cambio, el estado se llama transitorio si existe una probabilidad positiva de que la cadena, iniciando en l, ya no regrese nunca a ese estado. En
e
Cap
tulo 3. Cadenas de Markov
49
fij (n).
n=1
n=1
n=1
pii (n) = .
pii (n) < .
50
m=1
m=1
m=1
P (Ni k, Xm = i, Xm1 = i, . . . , X1 = i | X0 = i)
P (Ni k | Xm = i, Xm1 = i, . . . , X1 = i, X0 = i)
P (Xm = i, Xm1 = i, . . . , X1 = i | X0 = i)
P (Ni k 1 | X0 = i) fii (m)
= P (Ni k 1 | X0 = i) fii
.
.
.
= P (Ni 1 | X0 = i) (fii )k1
= (fii )k .
La esperanza de Ni , posiblemente innita, puede calcularse de las siguientes dos
formas. Primero,
E(Ni | X0 = i) =
=
k=1
P (Ni k | X0 = i)
(fii )k
k=1
fii
1 fii
si 0 fii < 1,
si fii = 1.
n=1
n=1
E(1(Xn =i) | X0 = i)
P (Xn = i | X0 = i)
pii (n).
n=1
Cap
tulo 3. Cadenas de Markov
51
r=1
r=1
Si i es recurrente, la suma del lado derecho es innita. Se sigue entonces que la suma
del lado izquierdo tambin lo es, es decir, j es recurrente. La segunda armacin
e
o
se demuestra fcilmente por contradiccin usando el primer resultado.
a
o
En consecuencia, cuando una cadena es irreducible y alg n estado es recurrente,
u
todos los estados lo son, y se dice que la cadena es recurrente. Tambin puede
e
52
estados
transitorios
estados
recurrentes
Figura 3.13:
Ejemplo. La cadena de dos estados es irreducible y recurrente cuando a, b (0, 1).
En efecto, tenemos que f00 (1) = 1 a, y f00 (n) = a(1 b)n2 b para n 2. Por lo
tanto,
f00 =
n=1
f00 (n) = (1 a) + ab
n=2
(1 b)n2 = (1 a) +
ab
= 1.
b
n=1
q
= 1.
1p
Dado que la cadena es irreducible y la recurrencia es una propiedad de clase, cualquier otro estado es recurrente. Por lo tanto, la cadena es recurrente.
Ejercicio. Determine las clases de comunicacin de las siguientes cadenas de Maro
kov y clasique stas como recurrentes o transitorias.
e
53
Cap
tulo 3. Cadenas de Markov
a) P =
1/2
0
0
1/2
1/2
1/2
0
1/2
1/2
b)
1/2
0
P =
0
1/4
1/2
1/2
1/2
1/4
0
1/2
1/2
1/4
0
0
0
1/4
pij (n)
n=1
n1
n=1 k=0
k=0 m=1
k=0 n=k+1
k=0
pjj (k)
k=0
Proposicin. Toda cadena de Markov nita tiene por lo menos un estado recuo
rrente.
Demostracin. Por contradiccin, suponga que todos los estados son transitorios.
o
o
Entonces para cualesquiera estados i y j, se cumple n=1 pij (n) < . Sumando
sobre el conjunto nito de todos los posibles estados j se obtiene j pij (n) <
n=1
. Por otro lado, intercambiando el orden de las sumas se llega a la armacin
o
contraria, n=1 j pij (n) = n=1 1 = . Por lo tanto es errneo suponer que
o
todos los estados son transitorios, debe existir por lo menos uno que es recurrente.
54
3.9.
Hemos visto que si una cadena de Markov inicia en un estado recurrente, entonces
regresa a l una innidad de veces con probabilidad uno. Y hemos denido el
e
tiempo de primera visita a un estado j, a partir de cualquier estado i, como la
variable aleatoria discreta ij = m {n 1 : Xn = j | X0 = i}, con la posibilidad
n
de que tome el valor innito. Vamos a denir el tiempo medio de recurrencia como
la esperanza de esta variable aleatoria en el caso cuando el estado a visitar es
recurrente.
Denicin. El tiempo medio de recurrencia de un estado recurrente j, a partir
o
del estado i, se dene como la esperanza de ij , y se denota por ij , es decir,
ij = E(ij ) =
nfij (n).
n=1
Cap
tulo 3. Cadenas de Markov
55
tanto,
0 =
nf00 (n) =
n=1
(1 a) + ab
n=2
(1 a) + ab (
n(1 b)n2
b+1
)
b
a+b
.
b
3.10.
N mero de visitas
u
Nij (n) =
1(Xk =j) ,
cuando X0 = i.
k=1
Cuando los estados i y j coinciden, se escribe Ni (n) en lugar de Nii (n). Observe que
0 Nij (1) Nij (2) , es decir, se trata de una sucesin montona creciente
o
o
de variables aleatorias no negativas que converge casi seguramente a la variable
Nij =
1(Xk =j) ,
cuando X0 = i.
k=1
56
1. P (Nij k) =
2. P (Nij = k) =
3. E(Nij ) =
n=1
si k = 0,
si k 1.
1 fij
fij (fjj )k1 (1 fjj )
si
0
fij
si
pij (n) =
1 fjj
si
4. P (Nij = ) =
0
fij
5. P (Nij < ) =
1
1 fij
si k = 0,
si k 1.
fij = 0,
0 fjj < 1,
fij = 0 y fjj = 1.
si j es transitorio,
si j es recurrente.
si j es transitorio,
si j es recurrente.
Demostracin.
o
1. La primera parte de esta igualdad es evidente. Para demostrar el caso k 1
se usa anlisis del primer paso,
a
P (Nij k) =
=
=
n=1
fij P (Njj k 1)
fij (fjj )k1 .
Cap
tulo 3. Cadenas de Markov
57
E(
n=1
n=1
1(Xn =j) | X0 = i)
E(1(Xn =j) | X0 = i)
pij (n).
n=1
k=1
P (Nij k)
fij (fjj )k1
k=1
fij
1 fjj
P (Nij = ) =
=
=
si fij = 0,
si 0 fjj < 1,
si fij = 0 y fjj = 1.
l P (Nij k)
m
0
fij
si j es transitorio,
si j es recurrente.
58
59
Cap
tulo 3. Cadenas de Markov
Ejemplo: El problema del mono. Suponga que un mono escribe caracteres al azar
en una mquina de escribir. Cul es la probabilidad de que eventualmente el mono
a
a
escriba exactamente, y sin ning n error, las obras completas de Shakespeare? Puede
u
encontrarse la respuesta a esta pregunta de varias formas [30]. Usaremos la teor
a
de cadenas de Markov para demostrar que esta probabilidad es uno. Imaginemos
entonces que un mono escribe caracteres al azar en una mquina de escribir, y que
a
lo hace de manera continua generando una sucesin lineal de caracteres. Cada uno
o
de los caracteres tiene la misma probabilidad de aparecer y se genera un caracter
independientemente de otro. Sea m el total de caracteres disponibles que se pueden
imprimir, y sea N la longitud de caracteres de los cuales consta las obras completas
de Shakespeare. Sea Xn el n mero de caracteres correctos obtenidos inmediatamenu
te antes e incluyendo el ultimo momento observado n, es decir, se trata de un mo
delo de rachas de xitos. Es claro que las variables Xn toman valores en el conjunto
e
{0, 1, 2, . . . , N }, y dado que los caracteres se generan de manera independiente, el
valor de Xn+1 depende unicamente del valor de Xn y no de los anteriores, es decir,
P =
q
q
.
.
.
q
q
p
0
.
.
.
0
p
0
p
.
.
.
0
0
0
0
0
0
0
0
.
.
.
p
0
Figura 3.14:
Como puede observarse, se trata de una matriz nita e irreducible pues todos los
estados se comunican. Por lo tanto es recurrente. Entonces con probabilidad uno
60
la cadena visita cada uno de sus estados una innidad de veces. En particular,
cada vez que la cadena visita el estado N el mono concluye una sucesin exitosa
o
de caracteres, y ello suceder una innidad de veces con probabilidad uno.
a
Nij (n)
1
=
n
j
c.s.
(3.3)
siendo este l
mite cero cuando j = .
Demostracin. Si la cadena es transitoria, entonces ambos lados de la igualdad se
o
anulan. Suponga que la cadena es recurrente. El tiempo de primera visita al estado
j a partir de i es ij = m {n 1 : Xn = j | X0 = i}. Dada la recurrencia e
n
irreducibilidad, P (ij < ) = 1, y entonces para cualquier n 1 se cumple la
identidad
Nij (ij + n) = 1 + Njj (n).
Por lo tanto es suciente demostrar la convergencia para Njj (n)/n pues
Nij (n)
n
n
l
m
=
=
=
=
Nij (ij + n)
n
ij + n
1 + Njj (n)
l
m
n
ij + n
Njj (n)
n
l
m
n
n
ij + n
Njj (n)
l
m
.
n
n
l
m
Sea Y (k) la variable que registra el n mero de pasos que transcurren entre la visita
u
k 1 y la visita k que la cadena realiza al estado j. Sabemos que el tiempo medio
de recurrencia es E(Y (k)) = j , para j = 1, 2, . . ., y usando la propiedad fuerte de
Markov puede demostrarse que las variables Y (1), Y (2), . . . son independientes. Se
tienen entonces las siguientes estimaciones
Y (1) + + Y (Njj (n))
n
Y (1) + + Y (Njj (n) + 1)
.
Njj (n)
Njj (n)
Njj (n)
Cap
tulo 3. Cadenas de Markov
61
Njj (n)
1
=
n
j
c.s.
Nij (n)
)
n
1
E(Nij (n))
n
n
1
= l
m
pij (k)
n n
=
l
m
k=1
1
.
j
3.11.
1
n
pij (k) = 0.
k=1
Hemos visto que si una cadena de Markov inicia en un estado recurrente, entonces
regresa a l una innidad de veces con probabilidad uno. Sin embargo, esta recue
rrencia puede presentarse de dos formas: cuando el tiempo promedio de retorno
es nito o cuando es innito. Esto lleva a la denicin de recurrencia positiva y
o
recurrencia nula respectivamente. Consideremos entonces que j es un estado recurrente. El tiempo de primera visita a este estado, a partir de cualquier otro estado
62
nfij (n).
n=1
Cap
tulo 3. Cadenas de Markov
63
k=1
1
N
Haciendo N se obtiene
1
1
pji (m)
pij (n) > 0.
j
i
estados
transitorios
estados
recurrentes
nulos
estados
recurrentes
positivos
Figura 3.15:
Ejemplo. En el primer cap
tulo demostramos que para la caminata aleatoria sobre
Z, el tiempo promedio de regreso al estado 0 es
0 =
4pq
.
n f00 (n) =
1 4pq
n=0
64
n f00 (n) =
n=1
n=1
n (1 p)pn1 = (1 p)
n pn1 =
n=1
1
< .
1p
Esto demuestra que el estado 0 es recurrente positivo y siendo la cadena irreducible, es recurrente positiva. Por lo tanto el tiempo medio de recurrencia de cada
estado es nito. Hemos aprovechado la facilidad del clculo de las probabilidades
a
de primer regreso al estado 0.
Se ha demostrado antes que toda cadena nita tiene por lo menos un estado recurrente. Demostraremos ahora que para cadenas nitas slo puede haber dos tipos
o
de estados: transitorios o recurrentes positivos.
Proposicin. No existen estados recurrentes nulos en cadenas de Markov nitas.
o
Demostracin. Sea j un estado recurrente y sea C su clase de comunicacin. La
o
o
clase C es cerrada y adems es nita pues la cadena completa lo es. Demostraremos
a
que j < . Para cualquier i C, y k natural,
pij (k) = 1.
jC
Entonces
1
n
pij (k) =
k=1 jC
jC
1
n
pij (k) = 1.
k=1
1
= 1.
j
Para que esta suma sea uno debe existir por lo menos un valor de j en C tal
que j < , pues de lo contrario cada sumando ser cero y la suma total no
a
podr ser uno. Por lo tanto existe un estado j que es recurrente positivo. Dado
a
que la recurrencia positiva es una propiedad de clase, todos los elementos de C son
recurrentes positivos.
65
Cap
tulo 3. Cadenas de Markov
Observe que en particular, todos los estados de una cadena nita e irreducible son
recurrentes positivos.
3.12.
Evolucin de distribuciones
o
P (X1 = j)
N
=
i=0
=
=
p00
.
.
.
pN0
p0N
.
. .
.
pNN
0
0
1/2
1
0
1/2
0
1
0
66
con distribucin inicial (0) = (0.1, 0, 0.9). Las subsecuentes distribuciones se calo
culan a continuacin y las grcas aparecen en la Figura 3.16.
o
a
(1) =
(2) =
(0)
(3) =
(4) =
.
.
.
(1)
0 1 2
(2)
0 1 2
(3)
0 1 2
(4)
0 1 2
0 1 2
Figura 3.16:
Es natural preguntarse si existe alg n l
u mite para esta sucesin de distribuciones.
o
En las siguientes secciones estudiaremos tal problema y encontraremos condiciones
bajo las cuales existe un unico l
3.13.
Distribuciones estacionarias
Cap
tulo 3. Cadenas de Markov
67
1
1/3
0
0
1/3
0
0
1/3
1
P =
1a
b
a
1b
68
b
a
tiene una unica distribucin estacionaria dada por = (0 , 1 ) = ( a+b , a+b ), cuan
o
do a + b > 0. Cuando a = b = 0, la matriz resultante es la matriz identidad que
acepta como distribucin estacionaria a cualquier distribucin de probabilidad soo
o
bre {0, 1}.
Cap
tulo 3. Cadenas de Markov
69
1
n
pij (k) = 0.
k=1
i pij
i
i pij (k)
i
1
n
i pij (k)
k=1
i (
i
1
n
pij (k) )
k=1
Tomando el l
mite cuando n , por el teorema de convergencia dominada, se
obtiene
n
1
j =
i ( l
m
pij (k) ) = 0.
n n
i
k=1
El resultado anterior nos ayuda a corroborar nuevamente, por ejemplo, que una caminata aleatoria simtrica simple no tiene distribucin estacionaria pues se trata de
e
o
una cadena cuyos estados son todos recurrentes nulos. Ahora se presentan dos condiciones que en su conjunto garantizan la existencia y unicidad de una distribucin
o
estacionaria.
70
o
j =
1
> 0.
j
o
estacionaria.
i pij .
i
(2)
j = 1.
j
(3) j es unica.
l
m
1
1
pij (m) =
.
n m=1
j
i pij
i=0
( l
m
i=0
l
m
l
m
= j .
1
n
1
n
1
n
pkj (m + 1)
m=1
71
Cap
tulo 3. Cadenas de Markov
Haciendo N ,
i pij j .
(3.4)
i pij =
j
pij =
i .
Lo cual es una contradiccin. Por lo tanto (3.4) es una igualdad. Esto demuestra
o
que es estacionaria, y para cualquier m natural,
j =
i pij (m).
(3.5)
1
n n
( l
m
j=0
j=0
1
= l
m
n n
l
m
1
n
pij (k) )
k=1
N
pij (k)
k=1 j=0
n
1
k=1
= 1.
Por lo tanto
j
j 1.
j =
i (
i
1
pij (m) ).
n m=1
i=0
1
pij (m) ) =
n n
m=1
i ( l
m
i=0
i j .
72
i = 1.
j =
i (
i pij (m) =
i
1
pij (m))
n m=1
Haciendo n ,
i (
i=0
1
pij (m)).
n m=1
i j .
i=0
j j .
(3.6)
Si esta desigualdad fuera estricta para alg n valor de j, entonces sumando sobre
u
todos los valores de j se obtiene
j >
1=
j
j = 1.
j
Lo cual es una contradiccin. Por lo tanto (3.6) es una igualdad para cada valor de
o
j, y ello demuestra la unicidad.
Ejemplo. La cadena de Ehrenfest es nita e irreducible, y en consecuencia es recurrente positiva. Por lo tanto tiene una unica distribucin estacionaria. Resolviendo
o
el sistema de ecuaciones = P se encuentra que el vector tiene distribucin
o
bin(N, 1/2), es decir,
j =
N 1
j 2N
para j = 0, 1, . . . , N.
Cap
tulo 3. Cadenas de Markov
73
o
distribucin geo(1 p), es decir, el sistema de ecuaciones = P tiene como unica
o
solucin la distribucin
o
o
j = (1 p) pj
para j = 0, 1, 2 . . .
1
1
=
j
(1 p) pj
para j = 0, 1, 2 . . .
En particular, 0 = 1/(1 p). Esto conrma los clculos realizados antes para 0
a
3.14.
Distribuciones l
mite
74
3.14. Distribuciones l
mite
j 1.
2. j =
i pij (n).
i
Cuando el espacio de estados es nito se cumple la igualdad en el primer resultado obtenindose una distribucin de probabilidad verdadera.
e
o
j =
j=0
l pij (n) = l
m
m
j=0
pij (n) = 1.
j=0
Cap
tulo 3. Cadenas de Markov
75
i pij (n) =
i=0
l
m pki (m) pij (n)
i=0
m
N
=
=
=
l
m
i=0
l pkj (m + n)
m
m
j .
j =
j=0
l pij (n) = l
m
m
j=0
j=0
pij (n) l 1 = 1.
m
n
i pij
i=0
i=0
n
N
l
m
l pkj (n + 1)
m
n
j .
i,j
76
3.14. Distribuciones l
mite
l pij (n) = j .
m
77
Cap
tulo 3. Cadenas de Markov
P ( < ) = 1. Adems j . Por la propiedad de Markov
a
n
P (Xn = x, n) =
P (Xn = x, Xr = j, = r)
j
r=1
n
r=1
n
r=1
n
r=1
=
=
=
=
P (Xn = x | Xr = j, = r) P (Xr = j, = r)
P (Yn = x | Yr = j, = r) P (Yr = j, = r)
P (Yn = x | Yr = j) P (Yr = j, = r)
P (Yn = x, n),
(3.8)
78
1
existen, y constituyen
j
j =
i pij ,
(3.9)
i=0
j = 1.
j=0
o
sistema de ecuaciones = P , con j 0 y j j = 1. Adems por ser peridica,
a
o
pij (n) j .
3.15.
Cadenas regulares
Las cadenas de Markov regulares son cadenas nitas que cumplen la propiedad de
que a partir de un cierto momento, con probabilidad positiva se puede pasar de un
estado a otro cualquiera en un paso. Demostraremos que para este tipo de cadenas
existe siempre la distribucin l
o mite.
Denicin. Se dice que una cadena nita o su matriz de probabilidades de
o
transicin es regular si existe un entero natural n tal que pij (n) > 0, para
o
cualesquiera estados i y j.
En palabras, una cadena de Markov nita es regular si alguna potencia de su matriz
de probabilidades de transicin tiene todas sus entradas estrictamente positivas.
o
Otra forma de denir a una cadena regular es a travs del siguiente resultado.
e
Cap
tulo 3. Cadenas de Markov
79
Proposicin. Una matriz estocstica es regular si, y slo si, es nita, irreducible
o
a
o
y aperidica.
o
o
sistema (3.9).
2. regular y doblemente estocstica, tiene como distribucin l
a
o mite la distribucin uniforme.
o
3. irreducible, aperidica y doblemente estocstica, tiene como distribucin
o
a
o
l
mite la distribucin uniforme.
o
Demostracin.
o
1. Como la cadena es regular, es irreducible, aperidica, y es recurrente positiva
o
por ser nita. Por el teorema anterior la distribucin l
o mite existe y est dada
a
por el sistema de ecuaciones (3.9).
2. Como la cadena es regular, es aperidica, irreducible y recurrente positiva
o
por ser nita. Entonces la distribucin l
o mite existe. Por la hiptesis de doble
o
estocasticidad y suponiendo que el espacio de estados es {0, 1, . . . , N }, se
N
tiene que i=0 pij (n) = 1. Tomando el l
mite cuando n tiende a innito se
obtiene N j = 1. Por lo tanto j = 1/(N + 1).
i=0
3. Este resultado es idntico al anterior pues hemos demostrado que la regularie
dad es equivalente a la nitud, irreducibilidad y aperiodicidad conjuntamente.
80
P =
0
1/6
1/6
1/6
1/6
1/6
1/6
1/6
0
1/6
1/6
1/6
1/6
1/6
1/6
1/6
0
1/6
1/6
1/6
1/6
1/6
1/6
1/6
0
1/6
1/6
1/6
1/6
1/6
1/6
1/6
0
1/6
1/6
1/6
1/6
1/6
1/6
1/6
0
1/6
1/6
1/6
1/6
1/6
1/6
1/6
0
3.16.
Cadenas reversibles
81
Cap
tulo 3. Cadenas de Markov
En trminos del proceso X, esta probabilidad es
e
P (Xm1 = y1 , . . . , Xmr+1 = yr1 ,
Xmr1 = yr+1 , . . . , Xmn = yn | Xmr = yr ).
P (Xmn = i, Xmn1 = j)
P (Xmn = i)
= P (Xmn = i | Xmn1 = j)
= pji
P (Xmn1 = j)
P (Xmn = i)
P (Yn+1 = j)
,
P (Yn = i)
debe cumplirse que pij = pji j , es decir, i pij = j pji . Esto lleva a la siguiente
i
denicin de reversibilidad la cual a ade la hiptesis de irreducibilidad.
o
n
o
Denicin. Se dice que una cadena de Markov irreducible con probabilidades
o
de transicin pij y con distribucin estacionaria es reversible en el tiempo si
o
o
para cualesquiera estados i y j,
i pij = j pji .
(3.10)
82
(N i)/N si j = i + 1,
i/N
si j = i 1,
pij =
0
otro caso,
con p01 = 1 y pN,N 1 = 1. Esta cadena es nita, irreducible y recurrente positiva.
Si se desea encontrar la distribucin estacionaria a travs de la ecuacin = P ,
o
e
o
uno tendr que resolver el sistema
a
0
1 (1/N ),
para i = 1, . . . , N 1,
En lugar de ello se puede buscar una posible solucin al sistema (3.10), el cual se
o
escribe como sigue
i+1 =
N i
i ,
i+1
para i = 0, 1, . . . , N 1.
N
i
0 ,
para i = 1, . . . , N.
1 = 0
i=0
N
i
= 0 2N .
83
Cap
tulo 3. Cadenas de Markov
pi
qi
pij =
1 pi qi
=
=
0 (1 p0 ) + q1 1 ,
i+1 qi+1 + i (1 pi qi ) + i1 pi1 ,
para i 1.
pij (n)
fij (n)
probabilidad de llegar por primera vez al estado j a partir del estado i exactamente en el paso n, es decir, fij (n) = P (Xn = j, Xn1 = j, . . . , X1 = j | X0 =
(n)
i). A veces se escribe tambin como fij . En particular se dene fij (0) = 0
e
para cualesquiera estados i y j, incluyendo el caso i = j.
84
fij
Nij (n)
Nij
ij
ij
Cap
tulo 3. Cadenas de Markov
85
86
Ejercicios
Propiedad de Markov
Recordemos que para hacer la notacin ms corta, a la probabilidad P (Xn = xn )
o
a
se le ha escrito como p(xn ), es decir, el sub
ndice indica tambin la variable a la
e
que se hace referencia. El signicado de la probabilidad condicional p(xn+1 | xn ) es
anlogo.
a
9. Demuestre que la propiedad de Markov (3.1) es equivalente a cada una de las
siguientes condiciones.
a) Esta condicin establece que la distribucin conjunta queda especicada
o
o
a travs de la distribucin inicial y las probabilidades de transicin en
e
o
o
un paso: Para cualesquiera estados x0 , . . . , xn ,
p(x0 , x1 , . . . , xn ) = p(x0 ) p(x1 | x0 ) p(xn | xn1 ).
b) Esta condicin establece que el futuro, sin importar lo distante que se
o
encuentre, depende slamente del ultimo momento observado: Para cuao
lesquiera enteros n, m 1,
p(xn+m | x0 , . . . , xn ) = p(xn+m | xn ).
c) Esta es la condicin de Markov para tiempos no necesariamente conseo
cutivos: Para cualesquiera enteros 0 n1 < < nm+1 ,
p(xnm+1 | xn1 , . . . , xnm ) = p(xnm+1 | xnm ).
d ) Esta condicin expresa la independencia entre el pasado y el futuro
o
cuando se conoce el presente: Para cualesquiera enteros 0 < k < n,
p(x0 , . . . , xk1 , xk+1 , . . . , xn | xk ) =
p(x0 , . . . , xk1 | xk )
p(xk+1 , . . . , xn | xk ).
Cap
tulo 3. Cadenas de Markov
87
Matrices estocsticas
a
10. Demuestre que
a) si P y Q dos matrices estocsticas (o doblemente estocsticas) de la
a
a
misma dimensin, entonces P Q tambin es estocstica (o doblemente
o
e
a
estocstica).
a
b) si P es estocstica (o doblemente estocstica), entonces para cualquier
a
a
entero positivo n, la potencia P n tambin es estocstica (o doblemente
e
a
estocstica).
a
11. Demuestre que una matriz cuadrada P puede ser tal que la potencia P n sea
estocstica para alg n entero n 2, sin ser P misma estocstica.
a
u
a
12. Demuestre que si una matriz estocstica P es simtrica, entonces para cuala
e
quier n 1, la potencia P n tambin es simtrica.
e
e
13. Demuestre que toda matriz estocstica simtrica es doblemente estocstica.
a
e
a
14. Demuestre que toda matriz estocstica nita tiene siempre al n mero uno
a
u
como valor propio.
Probabilidades de transicin
o
15. Considere una cadena de Markov de dos estados: 0 y 1, con matriz de probabilidades de transicin como aparece abajo. Suponga que la cadena tiene
o
una distribucin inicial dada por el vector (0.6, 0.4). Encuentre P (X1 = 0),
o
P (X1 = 1), P (X2 = 0) y P (X2 = 1).
P =
0.2
0.5
0.8
0.5
1/3
3/4
2/3
1/4
88
b
b
+ (p0
) (1 a b)n ,
a+b
a+b
a
a
+ (p1
) (1 a b)n .
a+b
a+b
Figura 3.17:
Cap
tulo 3. Cadenas de Markov
89
o
u
Demuestre que Xn es una cadena de Markov y encuentre las probabilidades
de transicin.
o
22. Sea Xn una cadena de Markov con probabilidades de transicin pij , y sea m
o
1 un entero jo. Demuestre que los siguientes procesos son tambin cadenas
e
de Markov y encuentre las correspondientes probabilidades de transicin.
o
a) Xn+m .
b) Xnm .
23. Demuestre que para cualquier entero n 1,
a) P (Xn = j) =
b) P (Xn = j) =
E(Xn+1 | Xn = i) =
j pij = i,
j=0
90
P (X = i + 1)
,
P (X i + 1)
pi,i+1 =
P (X i + 2)
.
P (X i + 1)
91
Cap
tulo 3. Cadenas de Markov
Comunicacin
o
a)
c)
1/2
1/2
0
P =
0
0
P =
0
1/2
1/2
0
0
1
0
1
0
0
1/2
1
0
0
0
1/2
1
b) P =
1/2
1/3
0
1
0
0
0
0
1/2
1/3
1
0
0
1/3
0
0
0
0
Periodo
36. Dibuje un diagrama de transicin, determine las clases de comunicacin y
o
o
calcule el periodo de cada uno de los estados de las siguientes cadenas de
92
c)
1/2
1/2
0
1/2
1/2
1/2
0
0
1/2
1/2
0
P =
1/2
1/4
0
0
0
1/4
1/2
0
1/2
1/4
P =
b)
0
1
0
1/4
1/3
1
P =
1/2
1/3
1/3
0
1/2
1/3
1/3
0
0
1/3
0
0
0
0
37. Hemos demostrado que el periodo es una propiedad de clase, es decir, dos
estados que pertenecen a la misma clase de comunicacin tienen el mismo
o
periodo. El rec
proco de tal armacin es en general falso, es decir, dos eso
tados pueden tener el mismo periodo y sin embargo no ser comunicantes.
Proporcione un ejemplo de tal situacin.
o
Recurrencia y transitoriedad
41. Encuentre las clases de comunicacin de la siguiente cadena de Markov. Eno
cuentre adems los periodos, y clasique cada clase de comunicacin como
a
o
93
Cap
tulo 3. Cadenas de Markov
transitoria o recurrente.
P =
1/2
1/2
0
0
1/6
1/6
1/2
1/2
0
0
1/6
1/6
0
0
1/2
1/2
1/6
1/6
0
0
1/2
1/2
1/6
1/6
0
0
0
0
1/6
1/6
0
0
0
0
1/6
1/6
1/2
1/2
1/2
2
1
0
1
3
1
(a)
(b)
Figura 3.18:
44. Demuestre que el estado 0 de la cadena de Markov dada por el diagrama
de transicin de la Figura 3.18(b) es recurrente. Suponga que 0 < < 1 y
o
0 < < 1. Concluya que todos los estados de esta cadena son recurrentes.
94
Distribuciones estacionarias
47. Encuentre todas las distribuciones estacionarias, si existen, para cada una de
las siguientes cadenas de Markov.
a)
P =
1/2
0
0
1/2
1/2
1/2
1/2
0
1/2
1/2
0
b) P =
0
1/4
1/2
1/2
1/2
1/4
0
1/2
1/2
1/4
0
0
0
1/4
1p
0 1p
0
P =
1p p
0
0
0
p
0
0
1/2
0
P =
1/2
0
0
1/2
0
1/2
1/2
0
1/2
0
0
1/2
0
1/2
50. Demuestre que la cadena del jugador tiene una innidad de distribuciones
estacionarias.
51. Demuestre que la cadena de variables aleatorias independientes tiene una
unica distribucin estacionaria dada por (0 , 1 , . . .) = (a0 , a1 , . . .).
o
52. Demuestre que toda matriz doblemente estocstica, aperidica, nita e irrea
o
ducible tiene una unica distribucin estacionaria dada por la distribucin
o
o
uniforme.
53. Demuestre que si la distribucin uniforme es una distribucin estacionaria
o
o
para una cadena de Markov nita, entonces la correspondiente matriz de
probabilidades de transicin es doblemente estocstica.
o
a
Distribuciones l
mite
54. Calcule la distribucin l
o mite, cuando existe, de las siguientes cadenas de
Markov.
95
Cap
tulo 3. Cadenas de Markov
a)
c)
0
0
1/2
1/3
1
0
1
0
0
1
P =
1/2
1/3
0
0
P =
0
1/2
1
0
0
1/3
0
0
0
1/2
0
0
0
0
0
1
0
0
b)
0
0
P =
0
1/3
1
0
1
0
0
0
0
2/3
0
1
0
0
Cadenas regulares
56. Determine si las siguientes matrices estocsticas son regulares.
a
a)
P =
0
0
1
1
0
0
0
1
0
b) P =
0
0
1/2
1
1/2
1/2
0
1/2
0
57. Cuntas potencias de una matriz se necesitan calcular como mximo para
a
a
vericar que es regular?
58. Sean Xn y Yn dos cadenas de Markov independientes y regulares. Demuestre
que Zn = (Xn , Yn ) es una cadena de Markov regular. Encuentre adems sus
a
probabilidades de transicin.
o
96
Cadenas reversibles
59. Resolviendo la ecuacin de balance detallado (3.10), demuestre que la cadena
o
de dos estados es reversible y encuentre nuevamente la distribucin estacioo
b
a
naria (0 , 1 ) = ( a+b , a+b ), cuando a + b > 0.
Cap
tulo 4
El proceso de Poisson
4.1.
Proceso de Poisson
Suponga que un cierto evento ocurre repetidas veces de manera aleatoria a lo largo
del tiempo. Tal evento puede ser por ejemplo la llegada de una reclamacin a una
o
compa aseguradora, o la llegada de una llamada a un conmutador, o la llegada
na
de un cliente a una ventanilla para solicitar alg n servicio, etctera. Suponga que
u
e
las variables aleatorias T1 , T2 . . . representan los tiempos que transcurren entre una
ocurrencia del evento y la siguiente ocurrencia. Suponga que estos tiempos son
independientes uno del otro, y que cada uno de ellos tiene distribucin exp(). Se
o
dene el proceso de Poisson al tiempo t como el n mero de ocurrencias del evento
u
observadas hasta ese momento. Esta es una denicin constructiva de este proceso.
o
Ms adelante enunciaremos otras deniciones axiomticas equivalentes.
a
a
97
98
adquiere su nombre.
Cap
tulo 4. El proceso de Poisson
99
(t)n
.
n!
= P (Xt n) P (Xt n + 1)
= P (Wn t) P (Wn+1 t)
= et
(t)k
.
k!
Entonces, dado que Xt tiene una distribucin Poisson(t), se tiene que E(Xt ) =
o
t, y Var(Xt ) = t. Por lo tanto t es el promedio de observaciones o registros
del evento de inters en el intervalo [0, t]. As mientras mayor es la longitud del
e
,
intervalo de observacin, mayor es el promedio de observaciones realizadas, y mayor
o
tambin la incertidumbre del n mero de observaciones.
e
u
Prdida de memoria y sus consecuencias. Una de las propiedades que cae
racterizan de manera unica a la distribucin exponencial dentro del conjunto de
o
distribuciones continuas es que satisface la propiedad de prdida de memoria, esto
e
es, si T tiene distribucin exp(), entonces para cualesquiera tiempos s, t > 0 se
o
cumple la igualdad
P (T > t + s | T > s) = P (T > t).
En otras palabras, condicionada al evento (T > s), la variable T s sigue teniendo
distribucin exp(). Esto signica que el proceso de Poisson puede estudiarse a
o
partir de cualquier tiempo s 0, teniendo las mismas propiedades a partir de ese
momento hacia adelante. Esto es, si uno toma cualquier tiempo s 0 y empieza a
100
contar desde cero las ocurrencias de eventos a partir de ese momento, lo que uno
obtiene es nuevamente un proceso de Poisson. Entonces, para cualquier t > 0 y
para n = 0, 1, . . .
P (Xt+s Xs = n) = P (Xt = n) = et
(t)n
.
n!
(4.1)
Esta propiedad caracteriza de manera unica a este proceso y de ella pueden derivar
se todas las propiedades del Proceso de Poisson, incluida la propiedad de Markov.
Proposicin. El proceso de Poisson satisface las siguientes propiedades.
o
a) Es un proceso de Markov.
b) Tiene incrementos independientes.
c) Tiene incrementos estacionarios.
d) Para cualesquiera s, t > 0, Xt+s Xs Poisson(t).
Demostracin.
o
a) Considere la probabilidad condicional P (Xtn = xn | Xt1 = x1 , . . . , Xtn1 =
xn1 ), para cualesquiera n tiempos 0 t1 t2 tn , y estados 0 x1
. . . xn . Entonces al tiempo tn1 ha habido xn1 ocurrencias del evento de inters.
e
A partir de ese momento inicia un nuevo proceso de Poisson y para que al tiempo
tn hayan xn ocurrencias es necesario que en el intervalo de tiempo (tn1 , tn ] hayan
xn xn1 ocurrencias. Esto es exactamente P (Xtn = xn | Xtn1 = xn1 ).
b) Considere cualesquiera n tiempos 0 t1 t2 tn . Por la propiedad de
Cap
tulo 4. El proceso de Poisson
101
=
x
=
x
e
mbolos, pij (t) = p0,ji (t),
para j i.
Ejemplo. (Paradoja del autob s). Suponga que la llegada de autobuses a una estau
cin se modela mediante un proceso de Poisson de parmetro , es decir, el tiempo
o
a
que transcurre entre la llegada de un autob s y el siguiente es una variable aleau
toria con distribucin exp(). Suponga que el tiempo es medido en minutos. La
o
propiedad de prdida de memoria en este contexto puede interpretarse de la sie
guiente forma: Un persona ha llegado a la estacin y ha esperado s minutos sin que
o
un autob s aparezca. La probabilidad de que tenga que esperar ms de t minutos
u
a
adicionales es la misma que la probabilidad de espera de ms de t minutos para
a
una persona que acaba de llegar a la estacin!
o
Ejemplo. (Suma de dos procesos de Poisson independientes es un proceso de Poisson). Sean X1 (t) y X2 (t) dos procesos de Poisson independientes de parmetros 1
a
y 2 respectivamente. Demostraremos que X1 (t) + X2 (t) es un proceso de Poisson
de parmetro 1 + 2 . Sea T un tiempo de estancia cualquiera con distribucin
a
o
exp(1 ) para el primer proceso, y sea S otro tiempo de estancia cualquiera con
distribucin exp(2 ) para el segundo proceso. Debido a la propiedad de prdida
o
e
de memoria, los tiempos de estancia para el proceso X1 (t) + X2 (t) estn dados
a
102
por U = m
n{T, S}. Comprobaremos que U tiene distribucin exp(1 + 2 ). Por la
o
independencia, para u > 0,
P (U > u) =
P ( m
n{T, S} > u )
P (T > u, S > u)
=
=
P (T > u) P (S > u)
e1 u e2 u
e(1 +2 )u .
0
otro caso.
Demostracin. La frmula general para la funcin de densidad conjunta de las
o
o
o
estad
sticas de orden Y(1) , . . . , Y(n) de una muestra aleatoria Y1 , . . . , Yn de una
distribucin con funcin de densidad f (y) es, para y1 < < yn ,
o
o
fY(1) ,...,Y(n) (y1 , . . . , yn ) = n! f (y1 ) f (yn ).
Cuando la funcin de densidad f (y) es la uniforme en el intervalo [0, t], esta funcin
o
o
de densidad conjunta es la que aparece en el enunciado. Demostraremos que la
distribucin conjunta de las variables W1 , . . . , Wn , condicionada al evento (Xt = n)
o
tambin tiene esta misma funcin de densidad. Usaremos nuevamente la identidad
e
o
Cap
tulo 4. El proceso de Poisson
103
de eventos (Xt n) = (Wn t). Para tiempos 0 < w1 < < wn < t, se tiene
que
fW1 ,...,Wn |Xt (w1 , . . . , wn | n)
n
=
P (W1 w1 , W2 w2 , . . . , Wn wn | Xt = n)
w1 wn
n
=
P (Xw1 1, Xw2 2, . . . , Xwn n | Xt = n)
w1 wn
n
=
P (Xt Xwn = 0, Xwn Xwn1 = 1, . . .
w1 wn
. . . , Xw2 Xw1 = 1, Xw1 = 1)/P (Xt = n)
n
=
e(twn ) e(wn wn1 ) (wn wn1 )
w1 wn
e(w2 w1 ) (w2 w1 ) ew1 w1 /[ et (t)n /n! ]
n
=
n! (wn wn1 ) (w2 w1 )w1 /tn
w1 wn
= n!/tn .
Observe que bajo el signo de derivada, la probabilidad del evento (Xw1 1, Xw2
2, . . . , Xwn n, Xt = n), que aparece en la segunda igualdad, es idntica a la
e
probabilidad de (Xt Xwn = 0, Xwn Xwn1 = 1, . . . , Xw2 Xw1 = 1, Xw1 = 1),
pues si alguna de estas identidades (exceptuando la primera) fuera distinta de uno,
la derivada se anula.
La frmula anterior nos provee de un mecanismo para obtener simulaciones por
o
computadora de las trayectorias del proceso Poisson. El procedimiento es el siguiente: Fije un valor t > 0 y asigne un valor para > 0. Genere un valor al azar
de la variable Xt con distribucin Poisson(t). Suponga Xt = n. A continuacin
o
o
genere n valores u1 , . . . , un de la distribucin unif(0, t), y ordene estos valores de
o
menor a mayor u(1) u(n) . Estos son los tiempos en donde la trayectoria
tiene saltos. De esta forma pueden obtenerse trayectorias como la que se muestra
en la Figura 4.1.
El siguiente resultado establece una forma de obtener la distribucin binomial a
o
partir del proceso de Poisson. Suponga que durante el intervalo de tiempo [0, t] se
han observado n ocurrencias del evento de inters, es decir, el evento (Xt = n) ha
e
ocurrido. La pregunta es Cuntos de estos eventos ocurrieron en el subintervalo
a
104
[0, s]? Demostraremos a continuacin que esta variable aleatoria tiene distribucin
o
o
binomial(n, s/t).
Proposicin. Sean s y t tiempos tales que 0 < s < t, y sean k y n enteros tales
o
que 0 k n. Entonces
P (Xs = k | Xt = n) =
n s k
s
( ) (1 )nk .
t
t
k
n
1
1
(
)k (1
)nk .
k 1 + 2
1 + 2
Cap
tulo 4. El proceso de Poisson
105
4.2.
Deniciones alternativas
Esta denicin hace uso de las probabilidades innitesimales del proceso y ello tiene
o
algunas ventajas desde el punto de vista de la interpretacin de lo que sucede en
o
un intervalo innitesimal de tiempo (t, t + h]. El proceso empieza en cero y por el
tercer postulado la probabilidad de que pase al estado uno al nal de un intervalo
de tiempo peque o [0, h] es h + o(h), la probabilidad de que el proceso no sufra
n
ning n cambio en dicho intervalo es 1 h + o(h), y nalmente la probabilidad de
u
que el proceso tenga dos o ms incrementos en tal intervalo es o(h). Es decir, en un
a
intervalo cualquiera de longitud innitesimal h slo pueden ocurrir dos situaciones:
o
que haya un incremento o que no lo haya.
Ejemplo. (Demostracin de que la variable Xt+s Xs tiene distribucin Poisson(t)
o
o
a partir de los postulados de la denicin (II)). Se dene pn (t) = P (Xt = n)
o
106
p0 (t) p0 (t, t + h]
p0 (t) (1 h + o(h)).
Entonces pn (t) = pn (t) + pn1 (t), con condicin inicial pn (0) = 0 para
o
qn (t) = (t)n /n! Por lo tanto pn (t) = et (t)n /n! Esto signica que Xt tiene
distribucin Poisson(t). Debido al postulado de incrementos estacionarios, la vao
riable Xt+s Xs tiene la misma distribucin que Xt .
o
Denicin. (III) Un proceso de Poisson de parmetro > 0 es un proceso a
o
a
tiempo continuo {Xt : t 0} con espacio de estados {0, 1, . . .}, con trayectorias
no decrecientes y que cumple las siguientes propiedades:
a) X0 = 0.
b) Tiene incrementos independientes.
c) Xt+s Xs Poisson(t), para cualesquiera s 0, t > 0.
Esta es posiblemente la denicin mas frecuente del proceso de Poisson. A partir de
o
ella inmediatamente sabemos que Xt tiene distribucin Poisson(t). La indepeno
dencia de los incrementos es expl
cita, y la estacionariedad de los mismos aparece
de manera impl
cita en el tercer postulado. Para demostrar la equivalencia con la
denicin (I), el reto consiste en denir los tiempos de interarribo y demostrar que
o
stos son variables aleatorias independientes con distribucin exponencial().
e
o
Ejercicio. Usando la denicin (III), demuestre que la suma de dos procesos de
o
Poisson independientes es nuevamente un proceso Poisson.
Cap
tulo 4. El proceso de Poisson
107
1 P (Xt+h Xt = 0)
1 eh
1 (1 h + o(h))
h + o(h).
Anlogamente
a
P (Xt+h Xt 2) =
=
=
=
1 P (Xt+h Xt = 0) P (Xt+h Xt = 1)
1 eh eh h
1 (1 h + o(h)) (h + o(h))
o(h).
Estos clculos y lo desarrollado antes demuestra que (II) (III). Tambin antes
a
e
hemos demostrado que (I) (III). Para demostrar el rec
proco es necesario comprobar que los tiempos de interarribo T1 , T2 , . . . son independientes con distribucin
o
exp(). Daremos una demostracin no completamente rigurosa de este resultado.
o
Sean t1 , . . . , tn > 0 tiempos cualesquiera y sean t1 , . . . , tn las longitudes que se
muestran en la Figura 4.2.
t1
t1
t2
t2
tn
tn
Figura 4.2:
La probabilidad de que T1 tome un valor en el intervalo t1 , T2 tome un valor en
el intervalo t2 , etctera, es
e
fT1 ,...,Tn (t1 , . . . , tn )t1 tn
=
=
108
Al hacer t1 , . . . , tn 0 se obtiene
fT1 ,...,Tn (t1 , . . . , tn ) = et1 et2 etn .
Esto demuestra que las variables T1 , . . . , Tn son independientes y cada una de ellas
tiene distribucin exp(). En conjunto esto demuestra que (I) (III) (II).
o
Observe que la pregunta acerca de la existencia de un proceso estocstico que
a
cumpla los postulados de la denicin (II) o (III) queda resuelta al vericar la
o
equivalencia de tales postulados con la denicin constructiva (I).
o
Presentaremos a continuacin algunas generalizaciones del proceso de Poisson. Una
o
de tales generalizaciones que estudiaremos con mayor detalle en un cap
tulo ms
a
adelante es aquella en la que se considera que las variables T1 , T2 , . . . no son necesariamente exponenciales, en tal caso se pierde la propiedad de Markov del proceso.
A este tipo de procesos se les llama procesos de renovacin.
o
4.3.
Cap
tulo 4. El proceso de Poisson
109
Entonces pn (t) = (t) pn (t) + (t) pn1 (t), con condicin inicial pn (0) = 0 pao
ra n 1. Deniendo qn (t) = e(t) pn (t) la ecuacin diferencial se transforma en
o
qn (t) = (t) qn1 (t), con condiciones qn (0) = 0 y q0 (t) = 1. Esta ecuacin se reo
suelve iterativamente primero para q1 (t), despus para q2 (t), y as sucesivamente,
e
110
con saltos unitarios hacia arriba, pero la frecuencia promedio con la que aparecen
los saltos cambia a lo largo del tiempo. De manera anloga al caso homogneo, los
a
e
incrementos de este proceso tambin tienen distribucin Poisson.
e
o
Proposicin. Xt+s Xs tiene distribucin Poisson((t + s) (s)).
o
o
Demostracin. Se escribe Xt+s = Xs + (Xt+s Xs ), en donde, por el axioma de
o
incrementos independientes, en el lado derecho aparece la suma de dos variables
aleatorias independientes. Recordando que la funcin generadora de momentos de
o
la distribucin Poisson() es M (r) = exp [(er 1)], al aplicar este resultado a la
o
ecuacin anterior se obtiene
o
exp [(t + s) (er 1)] = exp [(s) (er 1)] MXt+s Xs (r).
Por lo tanto MXt+s Xs (r) = exp [((t + s) (s)) (er 1)].
Si la funcin (t) es constante igual a , entonces (t) = t, y se recupera el
o
proceso de Poisson homogneo. Cuando (t) es continua, (t) es diferenciable y
e
por lo tanto (t) = (t). A la funcin (t) se le llama funcin de intensidad y a (t)
o
o
se le conoce como funcin de valor medio. Un proceso de Poisson no homogneo
o
e
en donde {(t) : t 0} es un proceso estocstico se le llama proceso de Cox.
a
El siguiente resultado establece que bajo una transformacin del parmetro tiempo,
o
a
un proceso de Poisson no homogneo puede ser llevado a un proceso de Poisson
e
homogneo de parmetro uno. Antes de demostrar este resultado observemos que
e
a
como la funcin t (t) es positiva, la funcin de intensidad (t) es continua y no
o
o
decreciente, y en general no es invertible. Puede denirse, sin embargo, la inversa
por la derecha
1 (t) =
nf{u 0 : (u) = t},
que cumple la identidad (1 (t)) = t, y que es una funcin continua y creciente.
o
Proposicin. Sea Xt un proceso de Poisson no homogneo de parmetro (t),
o
e
a
t
y funcin de intensidad (t) = 0 (s) ds. Dena la funcin
o
o
1 (t) = nf{u 0 : (u) = t}.
Cap
tulo 4. El proceso de Poisson
111
4.4.
Xt =
Yn .
n=0
112
Figura 4.3:
En la Figura 4.3 se muestra una trayectoria de este proceso y en los siguientes ejercicios se presentan algunas de sus
propiedades bsicas. Cuando las variables
a
Y1 , Y2 , . . . toman valores en el conjunto
{1, 2, . . .} se dice que este proceso es un
proceso de Poisson generalizado pues los
saltos ya no son necesariamente unitarios.
Observe que si las variables Y1 , Y2 , . . . son
todas idnticamente uno, este proceso se
e
reduce al proceso de Poisson.
Cap
tulo 4. El proceso de Poisson
113
Ejercicios
Proceso de Poisson
60. Sean T1 , . . . , Tn variables aleatorias independientes cada una con distribucin exp(). Demuestre que la suma Wn = T1 + + Tn tiene distribucin
o
o
gama(n, ) y que la correspondiente funcin de distribucin puede escribirse
o
o
de la siguiente forma. Para cada t > 0,
n1
P (Wn t) = 1 et
k=0
(t)k
.
k!
Para los ejercicios restantes de esta seccin suponga que Xt es un proceso de Poisson
o
homogneo de parmetro > 0.
e
a
61. Sean s y t dos tiempos tales que 0 s < t. Demuestre que
a) P (Xs = 0, Xt = 1) = (t s)et .
b) P (Xs = Xt ) = e(ts) .
2 ew2
0
b) fW1 | W2 (w1 | w2 ) =
1/w2
0
si 0 < w1 < w2 ,
otro caso.
si w1 (0, w2 ),
otro caso.
114
Yt
Xt
t
t
s
Figura 4.4:
c) fW2 | W1 (w2 | w1 ) =
e(w2 w1 )
0
si w2 (w1 , ),
otro caso.
66. Sea T una variable aleatoria con distribucin exp() e independiente del proo
ceso de Poisson. Encuentre la funcin de densidad de la variable XT .
o
67. Sean r y n dos enteros tales que 1 r n, y sea t > 0. Suponga que el
evento (Xt = n) ocurre. Encuentre la densidad condicional de Wr .
68. Sean X1 (t) y X2 (t) dos procesos de Poisson independientes con parmetros
a
1 y 2 respectivamente. Calcule la probabilidad de que
a) X1 (t) = 1 antes que X2 (t) = 1.
b) X1 (t) = 2 antes que X2 (t) = 2.
69. Suponga que un cierto aparato elctrico sufre desperfectos a lo largo del
e
tiempo de acuerdo a un proceso de Poisson de parmetro . Suponga que
a
cada vez que el aparato se descompone es enviado a reparacin y despus
o
e
es puesto en funcionamiento nuevamente. Suponga adems que el aparato se
a
reemplaza completamente por uno nuevo cuando el tiempo que transcurre
entre dos descomposturas sucesivas es menor o igual a una cierta constate
a > 0, incluyendo el tiempo antes de la primera reparacin. Encuentre la
o
funcin de densidad del
o
a) tiempo de vida util del equipo antes de ser reemplazado.
115
Cap
tulo 4. El proceso de Poisson
n+k1
k
1
1 + 2
2
1 + 2
73. Sea Xt un proceso de Poisson de parmetro > 0, y sea a > 0 una constante.
a
Demuestre que Xat es un proceso de Poisson de parmetro a.
a
116
c) fT2 (t) =
[(t)]n1
(t).
(n 1)!
e(t+s)
[(s)]k2
(s) ds, k 2.
(k 2)!
Cap
tulo 5
Cadenas de Markov
a tiempo continuo
o
tiempos pasados t1 , . . . , tn1 . Supondremos nuevamente que estas probabilidades
de transicin son estacionarias en el tiempo, esto signica que para cada s 0 y
o
t 0, la probabilidad P (Xt+s = j | Xs = i) es idntica a P (Xt = j | X0 = i), es
e
decir, no hay dependencia del valor de s. Esta probabilidad se escribe de manera
breve mediante la expresin pij (t), para i y j enteros no negativos. En particular
o
para t = 0 se dene nuevamente pij (0) como la funcin delta de Kronecker, es decir,
o
pij (0) = ij =
117
1
0
si i = j,
si i = j.
118
5.1.
Procesos de saltos
o
grcamente en la Figura 5.1.
a
Xt ()
i4
i2
i1
i3
t
Ti1
Ti2
Ti3
Ti4
Figura 5.1:
Los tiempos aleatorios T son los tiempos en los que el proceso permanece constante
en alguno de sus estados, y se llaman tiempos de estancia (passage times). Los
momentos en donde el proceso tiene saltos son los tiempos Wn = Ti1 + + Tin ,
Cap
tulo 5. Cadenas de Markov a tiempo continuo
119
i1 si 0 t < W1 ,
i2 si W1 t < W2 ,
Xt =
i3 si W2 t < W3 ,
.
.
.
Un proceso de estas caracter
sticas se llama proceso de saltos, y parece ser una
buena versin continua de las cadenas de Markov a tiempo discreto. Sin embargo
o
puede comprobarse que un proceso con estas caracter
sticas pudiera no estar denido para todo t 0, y tampoco hay garant de que se cumpla la propiedad de
a
Markov. A n de evitar situaciones demasiado complicadas, los procesos de saltos
que consideraremos estarn restringidos por las siguientes condiciones:
a
No explosin. Puede suceder que los tiempos de estancia T sean cada vez ms
o
a
peque os de tal forma que l n Wn < , es decir, existe la posibilidad de que
n
m
el proceso efect e un n mero innito de saltos durante un intervalo de tiempo
u
u
acotado. En tal situacin el proceso no estar bien denido para todo t 0, y se
o
a
dice que el proceso explota en un tiempo nito. Para evitar tal comportamiento
supondremos que l n Wn = , y por lo tanto, para cada t 0, el valor de Xt
m
es nito.
Probabilidades de transicin. Supondremos que el espacio de estados es {0, 1, . . .}
o
y que el tiempo de estancia asociado el estado i es la variable aleatoria Ti , la
cual supondremos positiva con funcin de distribucin Fi (t). Como en el caso de
o
o
cadenas a tiempos discreto, se denotar por pij a la probabilidad de que la cadena
a
salte del estado i al estado j. Adicionalmente impondremos la condicin pii = 0, y
o
con ello se inhibe, por ahora, que la cadena salte al mismo estado de partida. Las
probabilidades de transicin cumplen entonces las siguientes condiciones:
o
a) pij 0.
b) pii = 0.
c)
pij = 1.
Independencia. Supondremos que los tiempos de estancia Ti1 , Ti2 , . . . son independientes entre s y tambin son independientes del mecanismo mediante el cual se
,
e
120
escoge el estado j al cual la cadena brinca despus de estar en cualquier otro estado
e
i.
Estados absorbentes o no absorbentes. Supondremos que cada variable Ti es nita
con probabilidad uno, o bien es innita con probabilidad uno. En el primer caso
se dice que el estado i es no absorbente, y en el segundo caso que es absorbente.
El hecho de que Ti = se interpreta en el sentido de que el proceso deja de
saltar y permanece en el estado i el resto del tiempo, es decir, es absorbente.
Estamos entonces suponiendo que slo hay dos tipos de estados: absorbentes o no
o
absorbentes, en otras palabras, con probabilidad uno el tiempo de estancia es nito
o con probabilidad uno es innito.
Propiedad de Markov. Puede demostrarse que el proceso de saltos descrito arriba
satisface la propiedad de Markov si, y slo si, los tiempos de estancia de estados
o
no absorbentes tienen distribucin exponencial. Este es un resultado importante
o
cuya demostracin omitiremos y que simplica el modelo general planteado antes.
o
Supondremos entonces que el tiempo de estancia en un estado no absorbente i tiene
distribucin exp(i ), con i > 0, es decir, Fi (t) = 1 ei t , para t 0. Cuando
o
Ti = puede considerarse que i = 0.
Denicin. A un proceso de saltos con las caracter
o
sticas arriba se aladas se
n
le llama cadena de Markov a tiempo continuo.
Observe que un proceso de Markov a tiempo continuo queda completamente especicado por los siguientes tres elementos: una distribucin de probabilidad inicial,
o
los parmetros i , y las probabilidades pij .
a
Ejemplo. (Cadena de primera ocurrencia). Sea Xt el estado de un sistema tal que
en cualquier instante se encuentra en alguno de los dos posibles estados: 0 y 1.
Suponga que X0 = 0 y que el proceso cambia al estado 1 despus de un tiempo
e
aleatorio con distribucin exp(), y permanece all el resto del tiempo. Una posible
o
p00 (t)
p10 (t)
p01 (t)
p11 (t)
et
0
1 et
1
121
Cap
tulo 5. Cadenas de Markov a tiempo continuo
Xt ()
Xt ()
1
t
(a)
(b)
Figura 5.2:
Ejemplo. (Cadena de dos estados). Considere el proceso Xt con dos posibles estados:
0 y 1, denido por la siguiente dinmica: Cuando el proceso entra al estado 0
a
permanece en l un tiempo exp(), y luego va al estado 1, entonces permanece en
e
el estado 1 un tiempo exp() y despus regresa a 0, y as sucesivamente. Se postula
e
que los tiempos de estancia en cada estado son variables aleatorias independientes.
Una trayectoria de este proceso se muestra en la Figura 5.2(b). Puede demostrarse
que las probabilidades de transicin son
o
Pt =
p00 (t)
p10 (t)
p01 (t)
p11 (t)
1
+
1
+
e(+)t .
5.2.
Propiedades generales
122
mismo s
mbolo {Xn : n = 0, 1, . . .}, y que est dada por la primera pero observada
a
en los tiempos en donde se efect an los saltos. Algunas caracter
u
sticas de la cadena
a tiempo discreto se trasladan a su versin continua. Inversamente, a partir de
o
una cadena a tiempo discreto puede construirse su versin continua en el tiempo
o
tomando tiempos exponenciales independientes entre salto y salto.
Probabilidades de transicin. Para una cadena de Markov a tiempo continuo
o
las probabilidades de transicin son los n meros pij (t) = P (Xt = j | X0 = i), para
o
u
cualesquiera estados i y j, y para cualquier tiempo t 0. Cuando el espacio de
estados es nito, los elementos de cada rengln de esta matriz suman uno, pero
o
para espacios de estados innito esta suma puede ser estrictamente menor a uno,
es decir, en general, j pij (t) 1. Esta es una diferencia inesperada respecto del
modelo a tiempo discreto.
Intentar encontrar pij (t) para cada par de estados i y j, y para cada t 0, es un
problema demasiado general, y slo en algunos casos es posible encontrar expl
o
citamente tales probabilidades. El siguiente resultado nos permitir obtener algunas
a
conclusiones generales acerca de pij (t).
Proposicin. Sean i y j dos estados. Para cualquier t 0,
o
t
pij (t) = ij ei t + i ei t
ei s (
(5.1)
k=i
P (Xt = j | X0 = i)
ij ei t +
k=i
ij ei t +
0
P (Xt = j, Ti t, XTi = k | X0 = i)
i ei u (
k=i
Cap
tulo 5. Cadenas de Markov a tiempo continuo
123
P (Xt+s = j | X0 = i)
=
k
=
k
P (Xt+s = j, Xt = k | X0 = i)
P (Xt+s = j | Xt = k) P (Xt = k | X0 = i)
pik (t) pkj (s).
124
Esto quiere decir que es suciente conocer el comportamiento de pij (t) en tiempos
t peque os para conocer su comportamiento para cualquier t > 0. Especicaremos
n
con detalle este resultado ms adelante.
a
Parmetros innitesimales. De la frmula (5.1) es inmediato observar que las
a
o
probabilidades pij (t) son funciones continuas en t, y en particular el integrando
en (5.1) es una funcin continua. Esto implica que la integral es diferenciable y por
o
lo tanto tambin pij (t). Derivando entonces (5.1) se obtiene el siguiente resultado.
e
Proposicin. Para cualquier t > 0,
o
p (t) = i pij (t) + i
ij
(5.2)
k=i
Tomando ahora el l
mite cuando t 0, se tiene que
p (0) =
ij
=
i ij + i
pik kj
k=i
i ij + i pij
i
i pij
si i = j,
si i = j.
Denicin. A las cantidades p (0) se les denota por gij , y se les conoce con el
o
ij
nombre de parmetros innitesimales del proceso. Es decir, estos parmetros
a
a
son
i
si i = j,
gij =
(5.3)
i pij si i = j.
Variando los
ndices i y j, estos nuevos parmetros se escriben en notacin matricial
a
o
de la forma siguiente:
1 p10
G = 2 p20
.
.
.
0 p01
1
2 p21
.
.
.
0 p02
1 p12
2
.
.
.
Cap
tulo 5. Cadenas de Markov a tiempo continuo
125
gij = 0.
j
pues
gij = i +
i pij = i + i (1 pii ) = 0.
j
j=i
pij
gii ,
0
gij /gii
si i = j,
si i = j.
(5.4)
para i = j.
126
(5.5)
p00 (t)
p10 (t)
.
.
.
p01 (t)
p11 (t)
.
.
.
0
= 1 p10
.
.
.
0 p01
1
.
.
.
p00 (t)
p10 (t)
.
.
.
p01 (t)
p11 (t)
.
.
.
Este sistema de ecuaciones se conoce como las ecuaciones hacia atrs de Kolmoa
gorov.
Comunicacin. Se dice que el estado j es accesible desde el estado i si pij (t) > 0
o
para alg n t 0, y se escribe i j. Se dice que los estados i y j se comunican
u
si i j y j i, y en tal caso se escribe i j. Nuevamente puede demostrarse
que la comunicacin es una relacin de equivalencia, y eso lleva a una particin del
o
o
o
espacio de estados en clases de comunicacin. Se dice que la cadena es irreducible
o
cuando todos los estados pertenecen a la misma clase de comunicacin.
o
Tiempos de primera visita. Para cualesquiera estados i y j, se dene
Tij = nf {t > W1 : Xt = j},
cuando X0 = i.
Cap
tulo 5. Cadenas de Markov a tiempo continuo
127
5.3.
brincar una unidad hacia arriba o una unidad hacia abajo. Un salto hacia arriba se
interpreta como un nacimiento mientras que un salto hacia abajo representa una
muerte. La matriz de parmetros innitesimales es de la siguiente forma
a
1
G= 0
.
.
.
0
(1 + 1 )
2
.
.
.
0
1
(2 + 2 )
.
.
.
0
0
2
+ si j = i + 1,
i
i
i
pij =
+ si j = i 1,
i
i
0
otro caso.
Una posible trayectoria de este proceso se muestra en la Figura 5.3 con X0 = 0, los
saltos son unitarios, hacia arriba o hacia abajo. La variable Xt puede interpretarse
como el n mero de individuos en una poblacin al tiempo t, en donde pueden preu
o
sentarse nacimientos y muertes de individuos. Como 0 > 0 y 0 = 0, la poblacin
o
puede crecer cuando se encuentre en el estado cero, pero nunca decrecer por abajo
de ese nivel.
Se pueden tomar las siguientes probabilidades innitesimales como postulados para
denir a este proceso. Para cualquier t 0, y cuando h 0,
128
Xt ()
3
2
1
t
Figura 5.3:
a) P (Xt+h Xt = 1 | Xt = k) = k h + o(h).
b) P (Xt+h Xt = 1 | Xt = k) = k h + o(h).
c) P (Xt+h Xt = 0 | Xt = k) = 1 (k + k ) h + o(h).
Para cualquier t 0 y h > 0 peque o consideremos el intervalo [0, t + h] visto
n
como [0, h] + (h, t + h]. Haciendo un anlisis sobre estos intervalos puede encona
trarse nuevamente que las probabilidades pij (t) satisfacen el sistema de ecuaciones
diferenciales hacia atrs de Kolmogorov:
a
p (t)
0j
p (t)
ij
=
=
Cap
tulo 5. Cadenas de Markov a tiempo continuo
0
G= 0
.
.
.
0
.
.
.
.
.
.
129
0
0
Ejemplo. Las ecuaciones hacia adelante de Kolmogorov del proceso de Poisson son
p (t) =
0
p (t)
n
p0 (t).
para n 1,
en donde pn (t) = p0n (t). Usaremos estas ecuaciones para comprobar nuevamente que Xt tiene distribucin Poisson(). Usando la condicin inicial p0 (0) = 1, la
o
o
primera ecuacin tiene solucin p0 (t) = et . Deniendo qn (t) = et pn (t), la seo
o
pn (t) un ,
n=0
para valores reales de u tales que |u| < 1, y en donde pn (t) = P (Xt = n). Consideraremos a esta funcin tambin como funcin del tiempo t y por comodidad
o
e
o
en los siguientes clculos la llamaremos G(t, u). Derivando respecto de t, para el
a
mismo radio de convergencia |u| < 1, y usando las ecuaciones hacia adelante de
130
p (t) un
n
n=0
n=0
=
=
uG(t, u) G(t, u)
(u 1)G(u),
(u1)t
=e
t tu
et
n=0
(t)n n
u .
n!
5.4.
0
0
G= 0
.
.
.
0
1
0
.
.
.
0
1
2
.
.
.
0
0
2
en donde, como antes, los parmetros 0 , 1 , . . . se conocen como las tasas insa
tantneas de nacimiento. En la Figura 5.4 se muestra una trayectoria de este proa
ceso cuando inicia en el estado cero. Por construccin, el tiempo de estancia en
o
el estado i tiene distribucin exponencial con parmetro i . Las probabilidades de
o
a
saltos son evidentemente pij = 1 cuando j = i + 1, y cero en caso contrario. Puede
Cap
tulo 5. Cadenas de Markov a tiempo continuo
131
demostrarse que los incrementos de un proceso de nacimiento puro son independientes pero no son necesariamente estacionarios.
Xt ()
3
2
1
t
exp(0 )
exp(1 )
exp(2 )
exp(3 )
Figura 5.4:
Un proceso de nacimiento puro puede tambin denirse mediante las siguientes
e
probabilidades innitesimales: Cuando h 0,
a) P (Xt+h Xt = 1 | Xt = k) = k h + o(h).
b) P (Xt+h Xt = 0 | Xt = k) = 1 k h + o(h).
En general no es fcil encontrar una frmula para las probabilidades de transicin
a
o
o
pij (t), sin embargo cuando el estado inicial es el cero se conoce la siguiente frmula
o
recursiva.
Proposicin. Para cualquier t 0 y cualquier entero n 1,
o
t
p0n (t) = n1 en t
(5.6)
132
p00 (t) =
p0n (t) =
0 p00 (t),
n 1,
con las condiciones de frontera p00 (0) = 1 y p0n (0) = 0, para n 1. La primera
ecuacin tiene solucin p00 (t) = e0 t , mientras que para el caso n 1, multiplicano
o
do por el factor integrante en t y resolviendo se obtiene la frmula enunciada.
o
De manera anloga puede denirse un proceso de muerte como un proceso de
a
nacimiento y muerte en donde los parmetros de nacimiento 0 , 1 , . . . son todos
a
cero. El proceso puede iniciar con una poblacin de tama o k 1, y presentar
o
n
fallecimientos sucesivos hasta una posible extincin completa de la poblacin.
o
o
El proceso de Yule. Este es un tipo particular de proceso de nacimiento puro,
y para el cual es posible encontrar expl
citamente las probabilidades de transicin.
o
Este proceso puede denirse a travs de los siguientes postulados:
e
a. El estado inicial es X0 = k 1.
b. Si Xt = n, entonces cada uno de estos elementos puede dar nacimiento a un
nuevo elemento durante un periodo de longitud innitesimal h > 0 con probabilidad
h + o(h), en donde > 0, es decir,
P (Xt+h Xt = 1 | Xt = n) =
=
n
[ h + o(h)] [1 h + o(h)]n1
1
nh + o(h).
k pkk (t),
n k + 1.
t
0
(5.7)
Cap
tulo 5. Cadenas de Markov a tiempo continuo
133
Proposicin.
o
pkn (t) =
n 1 kt
e
(1 et )nk , para n k.
nk
(n 1) ent
t
0
ens
n2
eks (1 es )n1k ds
n1k
n2
(n 1)
ent
n1k
(n 1)
(n 1)
n2
ent
n1k
n2
ent
n1k
0
t
0
t
0
t
n2
1
d s
ent
(e 1)nk ds
n1k
(n k) ds
0
n2
nt
t
e
(e 1)nk
n1k
(n 1)
n1
nk
n 1 kt
e
(1 et )nk .
k1
134
Ejercicios
Procesos de nacimiento y muerte
78. Para la cadena de Markov a tiempo continuo de dos estados en donde la
estancia en el estado 0 tiene distribucin exp(), y la estancia en el estado 1
o
es exp(), demuestre que
a) p00 (t) =
1
+
( + e(+)t ).
b) p01 (t) =
1
+
( e(+)t ).
c) p10 (t) =
1
+
( e(+)t ).
d) p11 (t) =
1
+
( + e(+)t ).
79. Considere una cadena de Markov a tiempo continuo de dos estados en donde
el tiempo de estancia en cada uno de ellos tiene distribucin exp(). Dena Nt
o
como el n mero de veces que la cadena de Markov ha efectuado saltos hasta
u
un tiempo t 0 cualquiera. Demuestre que Nt es un proceso de Poisson de
parmetro .
a
b) Var(Xt ) = k e2t (1 et ).
Cap
tulo 6
Procesos de renovacin
o
y conabilidad
En este cap
tulo se presenta otra generalizacin del proceso de Poisson. Se consio
dera ahora que los tiempos de interarribo no son necesariamente exponenciales. A
tales procesos de saltos unitarios se les conoce como procesos de renovacin, y en
o
general dejan de cumplir la propiedad de Markov. Adems de estudiar algunas proa
piedades generales de los procesos de renovacin, estudiaremos tambin el concepto
o
e
de conabilidad para sistemas conformados por varios componentes los cuales son
susceptibles de sufrir fallas en tiempos aleatorios.
6.1.
Procesos de renovacin
o
o
sucesin de tiempos de vida de componentes puestos en operacin uno tras otro.
o
o
Esto se ilustra en la Figura 6.1.
En este contexto es natural suponer que las variables que modelan los tiempos
de vida son no negativas, independientes y con la misma distribucin de probabio
lidad. Un proceso de estas caracter
sticas se conoce con el nombre de proceso de
135
136
T1
T2
T3
T4
Figura 6.1:
renovacin. Observe que exactamente en los tiempos en los que se efect an las renoo
u
vaciones, el proceso reinicia probabil
sticamente. Empezaremos por dar un primera
denicin formal de un proceso de renovacin basada en lo recin mencionado.
o
o
e
Denicin. Un proceso de renovacin es una sucesin innita de variables
o
o
o
aleatorias T1 , T2 , . . . que son no negativas, independientes e idnticamente dise
tribuidas.
Otra forma equivalente de denir a este proceso es a travs del registro de los
e
tiempos reales en los que se observan las renovaciones, o bien a travs del cone
teo de renovaciones observadas hasta un tiempo cualquiera. Estos puntos de vista
alternativos se denen a continuacin.
o
Denicin. Dado un proceso de renovacin {T1 , T2 , . . .}, se denen los tiempos
o
o
reales de renovacin como W0 = 0 y Wn = T1 + + Tn , para n 1. El proceso
o
de conteo de renovaciones es
Nt = mx {n 0 : Wn t},
a
para cada t 0.
Cap
tulo 6. Procesos de renovacion y confiabilidad
137
0
1
si t < 0,
si t 0.
Una de las primeras preguntas que uno puede hacerse acerca de un proceso de
renovacin es la de conocer la distribucin de la variable Nt . La respuesta no es
o
o
fcil de encontrar pues la distribucin de esta variable depende de la distribucin
a
o
o
de los tiempos de vida como indica la siguiente frmula.
o
Proposicin. Para cualquier n 0,
o
P (Nt = n) = F n (t) F (n+1) (t).
P (Nt = n) =
=
=
=
F n (t)
F n (t)
F n (t u) dF (u)
0
(n+1)
F n (t) F
(t).
FWn (t) =
0
(x)n1
ex dx =
(n)
k=n
et
(t)k
.
k!
138
(t)n
.
n!
6.2.
(t) = F (t) +
0
(t s) dF (s).
(6.1)
0
1 + (t s)
si s > t,
si s t.
Por lo tanto
t
(t) =
0
(t s) dF (s).
Cap
tulo 6. Procesos de renovacion y confiabilidad
139
Observe quela ecuacin (6.1) puede escribirse como (t) = F (t) + ( F )(t).
o
Debido a que se condiciona sobre el valor del primer tiempo de renovacin, a la
o
tcnica de la demostracin de este resultado se le llama a veces anlisis del primer
e
o
a
paso. Para el proceso de Poisson, el promedio de renovaciones o saltos al tiempo
t es (t) = t. Puede comprobarse directamente que esta funcin satisface (6.1)
o
con F (t) = 1 et . A una ecuacin integral del tipo (6.1) se le llama ecuacin
o
o
de renovacin, pues algunas funciones de inters en la teor de la renovacin la
o
e
a
o
cumplen. La denicin general aparece a continuacin.
o
o
Denicin. Sean F (t), g(t) y h(t) funciones denidas para t 0. Suponga que
o
F (t) y h(t) son conocidas, y g(t) es desconocida. Se dice que g(t) satisface una
ecuacin de renovacin si cumple la ecuacin integral
o
o
o
t
g(t) = h(t) +
0
g(t s) dF (s).
o
promedio de renovaciones (t).
Proposicin. (t) =
o
n=1
Demostracin.
o
(t)
n P (Nt = n)
n=0
= P (Nt = 1) + 2 P (Nt = 2) +
n=1
F n (t).
140
Por ejemplo, cuando los tiempos de interarribo tienen distribucin exp() se tiene
o
que
t
(x)n1
(t)k
F n (t) =
ex dx =
et
.
(n)
k!
0
k=n
6.3.
Tiempos de vida
Junto a todo proceso de renovacin y para cada tiempo jo, pueden considerarse
o
tres variables aleatorias no negativas, t , t y t , cuyo signicado geomtrico se
e
muestra en la Figura 6.2, y que deniremos con mayor precisin a continuacin.
o
o
Nt + 1
Nt
t
Nt 1
WNt
Figura 6.2:
WNt +1
Cap
tulo 6. Procesos de renovacion y confiabilidad
141
Tiempo de vida restante. Este es el tiempo de vida util que le resta al elemento
g(t) = 1 F (t + x) +
g(t s) dF (s).
T1
T1
t+x
Figura 6.3:
Puesto que un proceso de renovacin puede considerarse que inicia nuevamente a
o
partir del momento en que se observa una renovacin, se tiene que
o
si s > t + x,
1
0
si t < s t + x,
P (t > x | T1 = s) =
Por lo tanto
g(t) =
0
P (t > x | T1 = s) dF (s)
t
dF (s) +
t+x
= 1 F (t + x) +
g(t s) dF (s).
142
o
o
o
decir que la variable t tiene distribucin exp(). Esta es nuevamente la propiedad
o
de prdida de memoria de la distribucin exponencial.
e
o
Tiempo de vida transcurrido. Este es el tiempo que ha estado en uso el elemento
que se encuentra en operacin al tiempo t, y est dado por la variable
o
a
t = t WNt .
Vase nuevamente la Figura 6.2. Es claro que esta variable est acotada superiore
a
mente por el valor t, pues el elemento en uso al tiempo t no puede tener hasta ese
momento un tiempo de uso mayor a t. Sea nuevamente x > 0 y dena la funcin
o
t g(t) = P (t > x). Por las consideraciones anteriores, tenemos que g(t) = 0
para t (0, x]. Usando un argumento de renovacin demostraremos que la funcin
o
o
g(t) satisface una ecuacin de renovacin.
o
o
Proposicin. Para t (x, ), la funcin g(t) = P (t > x) satisface la ecuacin
o
o
o
de renovacin
o
tx
g(t) = 1 F (t) +
g(t s) dF (s).
T1
tx
T1
Figura 6.4:
Por lo tanto,
1
0
P (t > x | T1 = s) =
P (ts > x)
si s t,
si 0 < t x s < t,
si 0 < s < t x.
Cap
tulo 6. Procesos de renovacion y confiabilidad
143
Entonces
g(t) =
0
P (t > x | T1 = s) dF (s)
tx
dF (s) +
1 F (t) +
g(t s) dF (s).
En resumen,
g(t) =
1 F (t) +
si t (0, x],
tx
0
g(t s) dF (s)
si t (x, ).
g(t) = 1 F (t x) +
g(t s) dF (s),
144
T2
T3
t+x
Figura 6.5:
El caso s (t, t + x) se debe subdividir en dos casos: s x s > x. De este modo
o
se obtienen los siguientes resultados
1
P (t > x | T1 = s) =
1
P (ts > x)
si
si
si
si
t < s < t + x, y s x,
t < s < t + x, y s > x,
s t + x,
0 < s t.
g(t) =
0
P (t > x | T1 = s) dF (s)
t
dF (s) +
tx
= 1 F (t x) +
g(t s) dF (s).
6.4.
1 (1 + (t x)) ex
0
si x > 0,
otro caso.
Teoremas de renovacin
o
Cap
tulo 6. Procesos de renovacion y confiabilidad
145
l FWn (t)
m
l P (Wn t)
m
l P (Nt n)
m
P ( l Nt n).
m
t
o
montona no decreciente. Como el resultado demostrado vale para cualquier n
o
natural, se tiene que P ( l Nt = ) = 1.
m
t
Demostracin. Para valores enteros de n, por la ley fuerte de los grandes n meros,
o
u
Wn /n casi seguramente cuando n . Ahora observe la contencin de
o
eventos
WNt
Wn
(
) (Nt ) (
).
n
Nt
Los dos eventos del lado izquierdo tienen probabilidad uno, por lo tanto la interseccin tambin, y ello implica que el lado derecho tambin tiene probabilidad
o
e
e
uno.
146
Nt
1
= , c.s.
t
Demostracin. Para cualquier t > 0 se cumple WNt t < WNt +1 . Por lo tanto
o
WNt
t
WNt +1 Nt + 1
<
.
Nt
Nt
Nt + 1 Nt
Cuando t tiende a innito ambos extremos de estas desigualdades convergen a
c.s. Por lo tanto Nt /t 1/ c.s.
Teorema elemental de renovacin (W. Feller, 1941). Considere un proo
ceso de renovacin en donde E(T ) = , con 0 < < . Entonces
o
l
m
(t)
1
= .
t
t
Como WNt +1 > t, se tiene que E(WNt +1 t) 0. Por lo tanto
l inf
m
t
(t)
1
.
t
Cap
tulo 6. Procesos de renovacion y confiabilidad
147
Ahora estimaremos el l
mite superior del mismo cociente. Como WNt +1 t
WNt +1 WNt = TNt +1 , se tiene que E(WNt +1 t) E(TNt +1 ) y por lo tanto
(t)
1
1
+
E(TNt +1 ).
t
t
Consideremos primero el caso particular cuando las variables T son uniformemente
acotadas, es decir, supongamos que existe un entero k > 0 tal que para cada n 1,
P (Tn k) = 1. Entonces E(TNt +1 ) k y por lo tanto
l sup
m
t
(t)
1
.
t
Tn
k
si Tn k,
si Tn > k.
k
Observe que Tn Tn cuando k . A partir de estos tiempos se considera
un nuevo proceso de renovacin Ntk con funcin de renovacin k . Se cumple que
o
o
o
t
(t) k y por lo tanto
t
(t)
1
l sup
m
.
t
E(T k )
t
148
h
.
nd
.
A(t) = H(t) +
0
A(t s) dF (s),
H(t) dt.
H(t + kd).
k=0
Puede demostrarse que los teoremas de Smith y Blackwell son equivalentes, y que
cualquiera de ellos implica el teorema elemental de Feller.
Cap
tulo 6. Procesos de renovacion y confiabilidad
6.5.
149
Conabilidad
Suponga que T > 0 es una variable aleatoria continua que registra el tiempo de falla
de un cierto componente que se encuentra en operacin al tiempo cero. Nuevamente
o
denotaremos por F (t) y f (t) a la funcin de distribucin y de densidad de esta
o
o
variable aleatoria. En la teor de la conabilidad interesa conocer la probabilidad
a
de que el componente funcione correctamente por lo menos hasta un tiempo t
cualquiera, o la probabilidad de que deje de funcionar en el siguiente instante de
tiempo, dado que el componente ha funcionado bien hasta un cierto momento. Es
por ello que se denen las siguientes dos funciones.
Denicin. La funcin de conabilidad se dene como R(t) = P (T > t),
o
o
mientras que la funcin de tasa de falla es r(t) = f (t)/(1 F (t)).
o
A la funcin de conabilidad se le llama tambin funcin de supervivencia, y a la
o
e
o
funcin de tasa de falla se le conoce tambin como funcin hazard, y se le llama
o
e
o
as pues un componente que ha sobrevivido al tiempo t, fallar en el intervalo
a
(t, t + t] con probabilidad condicional r(t) t + o(t), en efecto,
P (t < T t + t | T > t)
P (t < T t + t)
P (t > t)
f (t)
=
t + o(t)
1 F (t)
= r(t) t + o(t).
=
Despus de algunos clculos sencillos es inmediato comprobar que estas dos fune
a
ciones estn relacionadas de la siguiente forma.
a
r(t)
f (t)
d
= ln R(t).
R(t)
dt
t
R(t) =
exp (
r(s) ds).
0
E(T ) =
0
R(t) dt.
150
6.5. Confiabilidad
Ejemplo. Suponga que el tiempo de falla T de un componente tiene una distribucin exponencial de parmetro . La funcin de conabilidad es R(t) = et , y
o
a
o
la funcin de tasa de falla es constante r(t) = . El hecho de que la funcin de
o
o
tasa de falla sea constante signica que la probabilidad de falla en un intervalo de
tiempo peque o t, dado que el componente se encuentra operando al tiempo t, es
n
aproximadamente t, independiente del valor de t. Esta es otra manifestacin de
o
la propiedad de prdida de memoria de la distribucin exponencial, y es la unica
e
o
distribucin continua con tasa de falla constante. Por otro lado, el tiempo medio
o
de falla es E(T ) = 1/.
Ejercicio. Demuestre que la funcin R(t) es decreciente, es decir, si t1 t2 , entonces
o
R(t1 ) R(t2 ). Puede decirse algo sobre la monoton de r(t)?
a
Confiabilidad para sistemas en serie. Considere un sistema de n componentes puestos en serie como se muestra en la Figura 6.6. Supondremos que cada uno
de estos componentes funciona de manera independiente uno del otro. Es intuitivamente claro que tal sistema en su conjunto funciona si todos y cada uno de los
componentes se encuentra en buen estado. Nos interesa encontrar las funciones de
conabilidad y de tasa de falla de este tipo de sistemas.
C1
C2
Cn
Figura 6.6:
Observe que el tiempo de falla T de un sistema de este tipo es el tiempo de falla ms
a
peque o de cada uno de los componentes, es decir, T = m
n
n{T1 , . . . , Tn }. Esquemas
f
sicos de este tipo ayudan a justicar el plantearse la pregunta de encontrar la
distribucin de probabilidad del m
o
nimo de n variables aleatorias independientes.
Ejercicio. Suponga que los tiempos de falla T1 , . . . , Tn de los componentes del
sistema en serie de la Figura 6.6 son idnticamente distribuidos con funcin de
e
o
distribucin F (t), y funcin de densidad f (t). Demuestre que el tiempo de falla
o
o
T del sistema tiene funcin de distribucin y densidad dada por las siguientes
o
o
expresiones:
a) FT (t) = 1 (1 F (t))n .
Cap
tulo 6. Procesos de renovacion y confiabilidad
151
Demostracin.
o
1. R(t) = P (T1 > t, . . . , Tn > t) = P (T1 > t) P (Tn > t) = R1 (t) Rn (t).
d
d
2. r(t) = dt ln R(t) = dt
n
k=1
ln Rk (t) =
n
k=1 rk (t).
152
6.5. Confiabilidad
C1
C2
Cn
Figura 6.7:
El tiempo de falla T de un sistema de este tipo es el tiempo de falla ms grande
a
de los componentes, es decir, T = mx {T1 , . . . , Tn }, y que el evento (T t) es
a
equivalente a que todos los componentes fallen antes del tiempo t.
Proposicin. La funcin de conabilidad del sistema en paralelo de la Figura 6.7
o
o
es R(t) = 1 (1 R1 (t)) (1 Rn (t)).
Demostracin. Primeramente se tiene que
o
F (t) = P (T t) = P (T1 t, . . . , Tn t) = F1 (t) Fn (t).
Por lo tanto
R(t) = 1 F (t) = 1 F1 (t) Fn (t) = 1 (1 R1 (t)) (1 Rn (t)).
Cap
tulo 6. Procesos de renovacion y confiabilidad
153
C1
C2
C3
C1
C3
C1
Figura 6.8:
Ejercicio. Encuentre la funcin de conabilidad para cada uno de los sistemas de
o
componentes que aparecen en la Figura 6.9.
154
6.5. Confiabilidad
C1
C2
C1
C2
C3
C3
C4
Figura 6.9:
Notas y referencias
En los textos de Karlin y Taylor [19], Basu [1], y Lawler [23] el lector puede encontrar algunos otros resultados y aplicaciones de los procesos de renovacin.
o
Cap
tulo 6. Procesos de renovacion y confiabilidad
155
Ejercicios
Procesos de renovacin
o
81. Demuestre que F n (t) F m (t), para n m.
82. Respecto de las varias deniciones de proceso de renovacin, demuestre que
o
los procesos Tn , Wn y Nt pueden escribirse cada uno en trminos de cualquier
e
otro.
83. Demuestre o proporcione un contraejemplo: La suma de dos procesos de renovacin independientes y con la misma funcin de distribucin de interarribo
o
o
o
es un proceso de renovacin.
o
84. Considere el proceso de Poisson visto como un proceso de renovacin, es
o
decir, los tiempos de vida tienen distribucin exponencial con parmetro .
o
a
Demuestre que la funcin de renovacin (t) = t satisface la ecuacin de
o
o
o
renovacin
o
(t) = 1 et +
(t s)es ds.
1 (1 + (t x)) ex
0
si x > 0,
otro caso.
1
Demuestre adems que E(t ) = (2 et ).
a
2 (t) = (t) + 2
0
(t s) d(s).
156
6.5. Confiabilidad
Conabilidad
87. Sean T1 , . . . , Tn los tiempos de falla de cada uno de los n componentes puestos
en serie como en la Figura 6.6. Suponga que las correspondientes funciones de
distribucin y de densidad son F1 (t), . . . , Fn (t), y f1 (t), . . . , fn (t), respectivao
mente. Demuestre que las funciones de distribucin y de densidad del tiempo
o
de falla del sistema dado por T = m {T1 , . . . , Tn } son
n
a) F (t) = 1 (1 F1 (t)) (1 Fn (t)).
n
b) f (t) =
k=1
88. Sean T1 , . . . , Tn los tiempos de falla de cada uno de los n componentes puestos
en paralelo como en la Figura 6.7. Suponga que las correspondientes funciones
de distribucin y de densidad son F1 (t), . . . , Fn (t), y f1 (t), . . . , fn (t), respeco
tivamente. Demuestre que las funciones de distribucin y de densidad del
o
tiempo de falla del sistema dado por T = mx {T1 , . . . , Tn } son
a
a) F (t) = F1 (t) Fn (t).
n
b) f (t) =
k=1
Cap
tulo 7
Martingalas
Existen varias acepciones para el trmino martingala. Una de ellas hace referencia a
e
un tipo de proceso estocstico que bsicamente cumple la identidad E(Xn+1 | X0 =
a
a
x0 , . . . , Xn = xn ) = xn . Hemos mencionado antes que este tipo de modelo corresponde a un proceso que representa la evolucin del capital de un jugador que realiza
o
una sucesin de apuestas justas. Parte de la motivacin para el estudio de este tipo
o
o
de procesos fue el buscar demostrar la inexistencia de estrategias ventajosas en
este juego de apuestas. El concepto de martingala fue incorporado a la teor de
a
la probabilidad por Paul L`vy, y buena parte de su desarrollo inicial fue realizado
e
por Joseph Doob.
En este cap
tulo se presenta una introduccin a la teor de martingalas a tiempo
o
a
discreto, aunque tambin se mencionan algunas deniciones generales a tiempo
e
continuo.
7.1.
Filtraciones
Sea (, F , P ) un espacio de probabilidad para modelar un cierto experimento aleatorio. La -lgebra F es la estructura que agrupa a los eventos del experimento
a
aleatorio a los cuales se les puede calcular su probabilidad. Suponga ahora que se
consideran dos sub -lgebras F1 y F2 tales que F1 F2 . Entonces F2 contiene
a
ms informacin que F1 en el sentido de que, en general, un mayor n mero de
a
o
u
conjuntos son considerados como eventos. Ms generalmente, puede considerarse
a
157
158
7.1. Filtraciones
F2
F3
=
=
.
.
.
{X1 },
{X1 , X2 },
{X1 , X2 , X3 },
Cap
tulo 7. Martingalas
159
Ft+
Ft ),
t0
Fs .
s>t
7.2.
Tiempos de paro
160
(2 = n) =
k=1
Cap
tulo 7. Martingalas
161
7.3.
Martingalas
E(Xm | Fn ) = Xn .
(7.1)
162
7.4. Ejemplos
o
usaremos para vericar la propiedad de martingala de un proceso a tiempo discreto.
Adems, cuando la ltracin es la natural, es decir, cuando Fn = {X1 , . . . , Xn }, la
a
o
condicin de martingala puede escribirse en la forma E(Xn+1 | X1 , . . . , Xn ) = Xn .
o
Observe que toda martingala es al mismo tiempo una submartingala y una supermartingala, y que si Xn es una submartingala, entonces Xn es una supermartingala. Por lo tanto, toda propiedad para submartingalas puede ser escrita
tambin para supermartingalas bajo este cambio de signo. Por otro lado, tomando
e
esperanza en (7.1) con n = 1 se obtiene la igualdad E(Xm ) = E(X1 ), para cada
m 1, esto quiere decir que todas las variables aleatorias que conforman una martingala tienen la misma esperanza. Anlogamente, tomando esperanza ahora en la
a
condicin de submartingala se obtiene que para cualesquiera tiempos 1 n m,
o
E(Xm ) E(Xn ), esto puede interpretarse en el sentido de que, en promedio, las
submartingalas son procesos que tienden a crecer. Ms adelante demostraremos que
a
cuando la submartingala es acotada superiormente, es convergente. Este interesante resultado es el anlogo estocstico al hecho de que toda sucesin de n meros
a
a
o
u
reales creciente y acotada es convergente.
Para procesos a tiempos continuos, la condicin de martingala se escribe E(Xt | Fs ) =
o
Xs , para cualesquiera tiempos s y t tales que 0 s t, sin olvidar la condiciones
de adaptabilidad e integrabilidad para poder llamar a tal proceso una martingala.
7.4.
Ejemplos
Cap
tulo 7. Martingalas
163
E(Xn + n+1 | Fn )
Xn + E(n+1 | Fn )
Xn + E(n+1 ).
E(Xt | Fs ) t
E(Xt Xs + Xs | Fs ) t
E(Xt Xs | Fs ) + Xs t
E(Xt Xs ) + Xs t
(t s) + Xs t
Xs s.
Este ejemplo es un caso particular del siguiente resultado que el lector puede fcila
mente vericar siguiendo el clculo anterior: Si un proceso integrable Xt tiene
a
incrementos independientes, entonces el proceso centrado Xt E(Xt ) es una martingala.
Martingala de la esperanza condicional. Sea X una variable aleatoria integrable, y sean F1 y F2 dos sub -lgebras tales que F1 F2 . No es dif coma
cil
probar la siguiente propiedad de la esperanza condicional: E( E(X | F2 ) | F1 ) =
E(X | F1 ). Sea Fn una ltracin dada. Usando la identidad anterior demostrao
remos que la sucesin de variables aleatorias dada por Xn = E(X | Fn ) es una
o
164
7.4. Ejemplos
martingala. Es claro que cada una de estas variables es integrable y por denicin
o
de esperanza condicional el proceso es adaptado a la ltracin. Adems
o
a
E(Xn+1 | Fn ) = E(E(X | Fn+1 ) | Fn ) = E(X | Fn ) = Xn .
Martingala de la urna de Polya. Suponga que una urna contiene inicialmente
una bola blanca y una bola negra. Un experimento consiste en escoger una bola al
azar y regresarla a la urna junto con otra bola del mismo color. Este experimento
se repite varias veces.
Sea Xn el n mero de bolas blancas en la urna despus
u
e
del n-simo ensayo. Es claro que X0 = 1, y que dese
pus del n-simo ensayo hay n + 2 bolas en la urna.
e
e
Adems 1 Xn n + 1, y por lo tanto E|Xn | < .
a
Las probabilidades de transicin son
o
k
,
n+2
n+2k
= k | Xn = k) =
.
n+2
P (Xn+1 = k + 1 | Xn = k) =
Figura 7.1:
P (Xn+1
n + 2 Xn
Xn
n+3
+ (1)
=
Xn .
n+2
n+2
n+2
Xn+1
Xn
| Fn ) =
= Mn .
n+3
n+2
Cap
tulo 7. Martingalas
7.5.
165
An + an+1 E(Xn+1 Xn | Fn )
An + an+1 (E(Xn+1 | Fn ) Xn )
An .
Esto quiere decir que bajo cualquier estrategia de juego, el proceso de ganancias An
es una martingala siempre y cuando el proceso original Xn lo sea. Este resultado
es importante saber para los apostadores pues quiere decir que no existe una estrategia de juego que convierta un juego justo en un juego favorable o desfavorable al
jugador. El mismo anlisis demuestra que si el proceso original Xn es una submara
tingala o supermartingala y la estrategia de juego consta de variables aleatorias
no negativas y acotadas, entonces el proceso An sigue siendo una submartingala o
supermartingala.
7.6.
Procesos detenidos
166
Xn
Xk
si n k,
si n > k.
Es decir, como funcin del parmetro n el proceso se vuelve constante a partir del
o
a
tiempo aleatorio . No es dif comprobar que n es tambin un tiempo de paro.
cil
e
Medibilidad y adaptabilidad de X n . Las variables del proceso detenido son
efectivamente variables aleatorias y el proceso mismo es adaptado a la misma ltracin pues para cualquier n mero real x, y para cada n mero natural n,
o
u
u
n
(X n x) =
k=1
= E( |X | 1( n) ) + E( |Xn | 1( >n) )
n
k=1
n
k=1
Por ejemplo, considere que Xn es la martingala del juego de apuestas. Suponga que
el jugador decide dejar de jugar cuando pierda todo su capital o cuando consigue
ganar el doble de su capital inicial. El momento aleatorio en el que ocurre alguno
de estos dos eventos es un tiempo de paro . El capital del jugador en cualquier
tiempo n puede expresarse como X n .
Ejercicio. Sea Xn un proceso adaptado a la ltracin Fn , y sea un tiempo de
o
paro a tiempo discreto que adems es nito, es decir, P ( < ) = 1. Demuestre
a
que X es una variable aleatoria.
Demostraremos a continuacin que una martingala detenida sigue siendo martino
gala.
Proposicin. Si Xn es una martingala, submartingala o supermartingala, y es
o
un tiempo de paro respecto de la misma ltracin, entonces el proceso detenido
o
X n tambin lo es.
e
Cap
tulo 7. Martingalas
167
E(X (n+1) | Fn ) =
k=1
n
=
k=1
n
k=1
7.7.
X n
Uno de los varios signicados del tmino martingala, y que parece ser el original,
e
establece que una martingala es una estrategia de juego en la cual un jugador
apuesta sucesivamente en cada lanzamiento de una moneda honesta del siguiente
modo: Inicialmente apuesta una unidad monetaria. En caso de perder, dobla el
monto de la apuesta para el siguiente lanzamiento. En caso de ganar, vuelve a
apostar una unidad monetaria en el siguiente lanzamiento. En la Figura 7.2 se
muestra una tabla con algunos resultados siguiendo esta estrategia de juego.
Bajo esta estrategia de juego resulta que, cada vez que el jugador acierta, se recupera de las prdidas anteriores e incluso incrementa su fortuna en una unidad
e
monetaria. En efecto, si el jugador pierde las primeras n apuestas y gana la apuesta
168
Monto de la apuesta
Resultado del lanzamiento
Capital
1
x
-1
2
x
-3
4
x
-7
1
x
1
2
3
1
x
2
Figura 7.2:
n + 1, entonces su capital al tiempo n + 1 es
n1
1 21 22 2n1 +
n apuestas perdidas
2n
apuesta n + 1 ganada
=
=
=
2k + 2n
k=0
1 2n
+ 2n
12
(1 2n ) + 2n
1.
De esta manera si el jugador pudiera mantener esta estrategia de juego tendr una
a
unidad ganada por cada acierto que haya conseguido. Parece ser una estrategia
segura de ganar, sin embargo, veamos cunto, en promedio, podr ser su dcit
a
a
e
justo antes de recuperarse, es decir, calcularemos E(X 1 ), en donde es el tiempo
de paro en el que el jugador acierta por primera vez. Puede comprobarse que este
tiempo de paro es nito casi seguramente, es decir, P ( < ) = 1. De hecho, con
probabilidad uno, el jugador tendr eventualmente un xito a n cuando sus proa
e
u
babilidades de acertar fueran peque as. Como hemos visto, despus de n apuestas
n
e
consecutivas perdidas el capital empe ado es 1 21 22 2n1 = 1 2n , y
n
la probabilidad de perder n apuestas sucesivas y ganar la apuesta n + 1 es 1/2n+1 .
Cap
tulo 7. Martingalas
169
Por lo tanto
E(X 1 ) =
=
=
n=1
E(X 1 | = n) P ( = n)
E(Xn1 ) P ( = n)
n=1
(1 2n1 )
n=1
1
2n
7.8.
Hemos observado antes que para una martingala Xn se cumple que E(Xn ) =
E(X1 ), para cualquier valor de n. Si adems se tiene un tiempo de paro , no
a
necesariamente es cierto que E(X ) = E(X1 ), e incluso el n mero E(X ) podr no
u
a
ser nito como en la estrategia de juego llamada martingala analizada en la seccin
o
anterior. El siguiente resultado establece condiciones bajo las cuales la variable X
tiene la misma esperanza que la martingala.
Teorema de paro opcional. Sea Xn una martingala y sea un tiempo de paro,
ambos respecto de una ltracin Fn . Suponga que
o
a) < c.s.
b) X es integrable.
c) l E(Xn 1( >n) ) = 0.
m
n
170
Como el proceso original es una martingala, el primer sumando es E(Xn ). Haciendo n , el tercer sumando se anula por hiptesis. Usando la hiptesis de
o
o
integrabilidad de X y el teorema de convergencia dominada, el segundo sumando
converge tambin a cero pues es la cola de la serie convergente
e
E(X ) = E(
k=1
Xk 1( =k) ) =
E(Xk 1( =k) ).
k=1
171
Cap
tulo 7. Martingalas
presentada puede demostrarse que
ab
b
a+b
1 (p/q)b
E( ) =
pq
p q 1 (p/q)a+b
si p = q,
si p = q.
l P ( > 2N k)
m
=
=
l (1 (1/2)2N )k
m
0.
2
2
b) Demostraremos ahora que E(|X |) < . Como X = N 2 , se tiene que
2
E(|X |)
N 2 + E( )
N2 +
k P ( = k)
k=0
N2 +
2N
(2N k + j) P ( = 2N k + j)
k=0 j=1
2N
N2 +
N 2 + (2N )
<
k=0 j=1
2
k=0
(k + 1) (1 (1/2)2N )k
172
2
c) Finalmente vericaremos que E((Xn n)1( >n) ) 0, cuando .
2
E(|Xn n|1( >n))
2
E(Xn 1( >n) ) + E(n1( >n) )
N 2 P ( > n) + E( 1( >n) ).
7.9.
Algunas desigualdades
E(X )
Es decir,
P (Xn )
= E(Xn 1(Xn ) ).
Cap
tulo 7. Martingalas
173
2
E(|Xn |2 ) 4 E(Xn ).
E(X 2 ) = 2
x P (X > x) dx.
E(|Xn |2 )
= 2
0
= 2
x P (Xn > x) dx
Xn dP ) dx
(Xn x)
Xn
= 2
Xn
= 2
dx dP
0
Xn Xn dP
= 2E(Xn Xn )
2
Por lo tanto,
E(|Xn |2 )
E|Xn |2
E|Xn |2
2
E|Xn |2 .
E|Xn |2 .
174
7.10.
Convergencia de martingalas
= m {k 1 : Xk > b},
n
175
Cap
tulo 7. Martingalas
denota por Dn [a, b], es decir,
Dn [a, b] = mx {k 1 : 2k < n}.
a
1
1
E(Xn b)+
( sup E|Xn | + |b| ).
ba
ba n
X2k1 dP
X2k dP.
Ac
2k1
X2k1 dP
X2k dP +
A2k1
Ac
2k1
X2k dP.
176
A2k1
(X2k1 b) dP
A2k1
(X2k b) dP
=
A2k
(X2k b) dP +
(a b)P (A2k ) +
A2k1 \A2k
A2k1 \A2k
(X2k b) dP
(Xn b) dP.
Por lo tanto
P (A2k )
1
ba
1
ba
A2k1 \A2k
A2k1 \A2k
(Xn b) dP
(Xn b)+ dP
P (Dn [a, b] k)
P (A2k )
k=1
1
ba
k=1
A2k1 \A2k
(Xn b)+ dP
1
E(Xn b)+ .
ba
Para la ultima desigualdad se hace uso del hecho de que las diferencias A2k1 \A2k
177
Cap
tulo 7. Martingalas
Entonces, en particular, para este par de n meros reales se tiene que U [a1 , b1 ]() =
u
, lo cual contradice la hiptesis inicial.
o
Resta demostrar que con probabilidad uno, D[a, b] < . Para llegar a esta conclusin es suciente probar que E(D[a, b]) < , pero ello es consecuencia del teorema
o
de convergencia montona y la ultima proposicin pues
o
o
E(D[a, b])
1
(sup E|Xn | + |b|) < .
ba n
La integrabilidad del l
mite X se sigue del lema de Fatou,
178
Como toda martingala es una submartingala, y toda supermartingala se convierte en una submartingala a travs de un cambio de signo, se tiene que el teorema
e
anterior es vlido en cualquiera de los tres casos. Es decir, toda martingala, suba
martingala o supermartingala acotada en media es convergente casi seguramente,
y su l
mite es una variable aleatoria integrable.
La demostracin presentada sobre la convergencia de submartingalas es la prueba
o
original de Doob de 1940. En [14] pueden encontrarse algunos otros mtodos altere
nativos de demostracin. Como hemos mencionado antes, las submartingalas son
o
procesos que en promedio tienden a crecer, de modo que en este caso hemos encontrado una cota superior para el n mero promedio de cruces hacia abajo, E(Dn [a, b]).
u
En algunos textos, por ejemplo [4], se enuncia y prueba el mismo resultado para
supermartingalas, procesos que, en promedio, tienden a decrecer.
7.11.
Representacin de martingalas
o
|X| dP < .
|Xn | dP < .
Cap
tulo 7. Martingalas
179
|Xn | dP < .
(|Xn |>M)
|Xn | dP =
1
0
si n > M,
si n M.
E|Xn |
(|Xn |>M)
|Xn | dP
M P (|Xn | > M ).
De modo que si se toma M > E(|X|)/, con > 0 arbitrario, entonces P (|Xn | >
180
|Xn | dP
(|Xn |>M)
=
(|Xn |>M)
E(|X| | Fn ) dP
|X| dP
< .
(|Xn |>M)
1
Es decir, P (|Xn | > M ) M E(|Xn |) si se toma M = 1 supn E((|Xn |). Tal
(|Xn |>M)
|Xn | dP
(|Xn |>M)
(|Xn |>M)
|X| dP +
(|Xn |>M)
|Xn X| dP
+ = .
2 2
181
Cap
tulo 7. Martingalas
|Xn X| dP <
.
3
Por otro lado, como la convergencia casi segura implica la convergencia en probabilidad se tiene que P (|Xn X| > /3) 0, cuando n , es decir, existe un
entero N tal que para n > N ,
(|Xn X|>M)
|Xn X| dP
+
(/3<|Xn X|M)
+
(|Xn X|/3)
<
<
|Xn X| dP
|Xn X| dP
182
Finalmente se presenta el resultado que establece que toda martingala uniformemente integrable se puede escribir como una esperanza condicional.
Teorema de representacin de martingalas. Sea Xn una martingala unio
formemente integrable, con ltracin natural Fn , y teniendo a la variable X
o
como su l
mite en media. Entonces
Xn = E(X | Fn ).
Xn dP.
A
Entonces
|
Xn X dP | = |
Xm X dP |
|Xm X| dP
|Xm X| dP.
e
decir, para cualquier A en Fn , A Xn dP = A X dP . Esto signica que Xn =
E(X | Fn ) c.s.
La variable Xn = E(X | Fn ) puede interpretarse como una aproximacin de la
o
variable desconocida X cuando se cuenta con la informacin dada por la -lgebra
o
a
Fn . Conforme n crece, la informacin acerca de X aumenta a travs de la ltracin,
o
e
o
y en el l
mite se obtiene o reconstruye X.
Notas y referencias. El lector puede encontrar otras exposiciones introductorias
al tema de martingalas a tiempo discreto en Karlin y Taylor [19], y Lawler [23].
Para lecturas ms avanzadas pueden consultarse Revuz y Yor [29] y Tudor [38].
a
Cap
tulo 7. Martingalas
183
o
n
se jubil. Dentro de sus estudiantes de doctorado guran, entre otros, Paul Halmos
o
(1938), David Blackwell (1941), J. Laurie Snell (1951) y John Walsh (1966). El
trabajo de Doob se centra principalmente en la teor de la medida, la teor de la
a
a
probabilidad y las relaciones de sta ultima con la teor del potencial. En partie
a
cular, y profundizando parte del trabajo de Paul L`vy, durante los a os cuarentas
e
n
y cincuentas Doob desarroll la teor bsica de las martingalas y algunas de sus
o
a a
aplicaciones. En 1953 public su libro clsico Stochastic Processes, el cual fue reo
a
editado en 1990. En 1984 public Classical Potential Theory and its Probabilistic
o
Counterparts, reimpreso en 2001. En 1994, a la edad de 84 a os, public su ultimo
n
o
texto titulado Measure Theory. Doob fue miembro de las Academias de Ciencias
de los Estados Unidos y de Francia, presidi el Instituto de Estad
o
stica Matemtica
a
(IMS) en 1950, y la Sociedad Matemtica Norteamericana (AMS) de 1963 a 1964.
a
Recibi varios premios prestigiosos de su pa por la trascendencia y profundidad
o
s
de sus trabajos. Durante muchos a os de su vida Doob mantuvo la costumbre y el
n
gusto por organizar y realizar las famosas caminatas de los sbados por la tarde
a
junto a profesores universitarios, colegas y amigos, de la universidad de Illinois. A
peticin propia, las cenizas de los restos mortales de Doob fueron esparcidas por
o
184
sus compa eros en uno de sus sitios favoritos donde acostumbraba caminar junto
n
a sus amigos.
Fuente: Archivo MacTutor, Universidad de St. Andrews. Para una informacin
o
ms amplia sobre la vida y el trabajo de Doob vanse los trabajos de Bingham [2],
a
e
Burkholder y Protter [5], y Snell [32], [33].
Cap
tulo 7. Martingalas
185
Ejercicios
Filtraciones
89. Sea Xt un proceso adaptado a la ltracin Ft , y sea Gt la ltracin natural
o
o
del proceso. Demuestre que para cada t 0 se cumple Gt Ft . Esto signica
que la ltracin natural es la ltracin ms peque a respecto de la cual un
o
o
a
n
proceso es adaptado.
Tiempos de paro
90. Demuestre que la condicin en la denicin de tiempo de paro a tiempo
o
o
discreto ( n) Fn es equivalente a la condicin ( = n) Fn .
o
91. Sea un tiempo de paro con valores en {1, 2, . . . , } y sea n un n mero
u
natural. Demuestre que n es tambin un tiempo de paro respecto de la
e
misma ltracin.
o
92. Sean 1 y 2 dos tiempos de paro respecto de la misma ltracin. Demuestre
o
que las siguientes variables aleatorias tambin son tiempos de paro.
e
a) 1 2
b) 1 2 .
93. Sean 1 y 2 dos tiempos de paro respecto de la misma ltracin. Demuestre
o
que 1 + 2 es tambin un tiempo de paro.
e
94. Sea Xn un proceso a tiempo discreto, y sea x un n mero real cualquiera
u
dentro del espacio de estados del proceso. Dena las variables aleatorias: 1
como el primer momento en el que el proceso toma el valor x, 2 como el
segundo momento en el que el proceso toma el valor x, etc. Demuestre que
1 2 son tiempos de paro.
95. Sea un tiempo de paro y sea c 1 una constante. Demuestre que c es
tiempo de paro.
96. Sea 1 , 2 , . . . una sucesin innita de tiempos de paro. Demuestre que tanto
o
supn n como n n son tiempos de paro.
nf
186
Martingalas
97. Sea Xn una martingala a tiempo discreto. Demuestre que la propiedad de
martingala E(Xm | Fn ) = Xn , para cualquier m n, es equivalente a la
condicin E(Xn+1 | Fn ) = Xn , para cada n 1. Enuncie y demuestre la
o
equivalencia anloga al caso submartingala y supermartingala.
a
98. Demuestre que
a) toda martingala es una submartingala y una supermartingala.
b) todo proceso que es al mismo tiempo una submartingala y una supermartingala es una martingala.
99. Demuestre que si Xt es una martingala, submartingala o supermartingala,
entonces para cualquier t > s 0, se cumple que E(Xt ) = E(Xs ), E(Xt )
E(Xs ) E(Xt ) E(Xs ), respectivamente.
o
100. Sea X una variable aleatoria integrable, y sea {Ft }t0 una ltracin a tiempo
o
continuo. Demuestre que Xt = E(X | Ft ) es una martingala.
101. Sea {Xn : n 1} un proceso adaptado a la ltracin {Fn }n1 . Demuestre
o
que si A es un evento F1 -medible, entonces el proceso Xn 1A es una martingala, submartingala o supermartingala cuando Xn lo es.
102. Sea M una constante. Demuestre que
a) si Xn es una submartingala, entonces mx {Xn , M } es una submartingala.
a
b) si Xn es una supermartingala, entonces m {Xn , M } es una supermartinn
gala.
103. Sean Xt and Yt dos martingalas, submartingalas o supermartingalas respecto
de la misma ltracin. Demuestre que el proceso aXt + bYt + c es tambin una
o
e
martingala, submartingala o supermartingala, respectivamente, en donde a, b
y c son constantes. Para el caso submartingala y supermartingala se necesita
suponer adems que a y b son no negativos. En particular esto demuestra
a
que la suma de dos martingalas es una martingala, y que el conjunto de
martingalas respecto de la misma ltracin y denidas en un mismo espacio
o
de probabilidad es un espacio vectorial.
Cap
tulo 7. Martingalas
187
105. Sean Xt y Yt dos martingalas o submartingalas respecto de la misma ltracin. Demuestre que el proceso mx {Xt , Yt } es una submartingala.
o
a
106. Sean Xt y Yt dos martingalas o supermartingalas respecto de la misma ltracin. Demuestre que el proceso m {Xt , Yt } es una supermartingala.
o
n
107. Martingala de de Moivre. Sea 1 , 2 , . . . una sucesin de variables aleatorias
o
independientes cada una de ellas con la misma distribucin dada por P ( =
o
+1) = p y P ( = 1) = q = 1 p. Sea Xn = 1 + + n . Demuestre
que Yn = (q/p)Xn es una martingala respecto de la ltracin generada por el
o
proceso Xn .
108. Sea Xt una martingala respecto de una ltracin Ft . Demuestre que el proo
ceso tambin es una martingala respecto de su ltracin natural. En general
e
o
el rec
proco es falso.
109. Sea 1 , 2 , . . . una sucesin de variables aleatorias independientes con esperano
za cero. Dena X0 = 0 y Xn = 1 + +n , para n 1. Se ha demostrado que
el proceso Xn es una martingala respecto de la ltracin Fn = {1 , . . . , n }.
o
Suponga ahora que las variables tienen segundo momento nito. Demues2
tre que el proceso Xn n es tambin una martingala respecto de la misma
e
ltracin si, y slo si, las variables tienen varianza uno.
o
o
110. Martingala producto. Sean 1 , 2 , . . . variables aleatorias independientes con
esperanza unitaria. Demuestre que el proceso Xn = 1 n es una martingala respecto de su ltracin natural.
o
111. Sea Xn una submartingala. Demuestre que los siguientes procesos tambin
e
son submartingalas.
+
a) Xn = mx {Xn , 0}.
a
b) Xn = m {Xn , 0}.
n
2
b) Xn nE( 2 ) es una martingala, suponiendo E( 2 ) < .
188
2
113. Sea Xt una martingala cuadrado integrable. Demuestre que Xt es una submartingala respecto de la misma ltracin. Vea el siguiente ejercicio para una
o
generalizacin de este resultado.
o
114. Sea Xt una martingala tal que E|Xt |p < para cada t 0, con p
1. Demuestre que |Xt |p es tambin una submartingala. Sugerencia: Use la
e
desigualdad de Jensen. En el siguiente ejercicio se generaliza este resultado.
115. Sea Xt un proceso integrable, y sea g una funcin convexa tal que g(Xt ) es
o
integrable. Demuestre que bajo cualquiera de las siguientes condiciones se
cumple que el proceso g(Xt ) es una submartingala.
a) cuando Xt es una martingala.
b) cuando Xt es una submartingala y g es una funcin no decreciente.
o
116. Sea 1 , 2 , . . . una sucesin de variables aleatorias independientes tales que
o
2
E() = k , Var() = k < , y con ltracin natural Fn . Demuestre que el
o
siguiente proceso es una martingala respecto de esta ltracin.
o
n
2
Xn = (
k=1
(k k ) )2
2
k .
k=1
Xn =
k=1
( k E(k | Fk1 ) ).
118. Sea Xt un proceso de Poisson de parmetro > 0. Demuestre que los sia
guientes procesos son martingalas.
a) Yt = (Xt t)2 t.
b) Yt = exp( Xt + t (1 e ) ), en donde R.
Teorema de paro opcional
119. Sea Xn = 1 + + n una caminata aleatoria simple sobre Z y que inicia
en el origen. Suponga P ( = +1) = p y P ( = 1) = q = 1 p. Sean a y b
Cap
tulo 7. Martingalas
189
si p = q,
ab
b
a + b 1 (p/q)b
E( ) =
si p = q.
pq
p q 1 (p/q)a+b
Integrabilidad uniforme
120. Demuestre que una variable aleatoria X es integrable si, y slo si, para cada
o
> 0 existe M > 0 tal que
(|X|>M)
|X| dP < .
Cap
tulo 8
Movimiento Browniano
El fenmeno natural que ahora se conoce como movimiento Browniano tiene una
o
interesante historia. El primer registro, aunque no as la primera observacin de l,
o
e
data de 1828 cuando el botnico Robert Brown [3] report en una revista cient
a
o
ca
que granos de polen suspendidos en una cierta substancia y vistos a travs de un
e
microscopio, realizaban un movimiento irregular e inexplicable. Este extra o mon
vimiento fue objeto de mucha discusin y controversias a partir de su divulgacin
o
o
en la comunidad cient
ca. Se llevaron a cabo diversos experimentos y se formularon muy diversas hiptesis con la intencin de dar una explicacin satisfactoria
o
o
o
al fenmeno observado [10]. Hoy en d este movimiento es entendido y explicado
o
a
a travs de las m ltiples colisiones aleatorias de las molculas del l
e
u
e
quido con los
granos de polen. Llegar a tal aseveracin tom muchos a os pues debi aceptarse
o
o
n
o
la teor cintico molecular de la materia, y el seminal trabajo de Einstein de 1905
a
e
sobre este fenmeno [10] contribuy decididamente a tal tarea.
o
o
En este cap
tulo se presenta una introduccin al modelo matemtico para el movio
a
miento Browniano. Se trata del ejemplo ms importante de un proceso de Markov
a
a tiempo continuo y espacio de estados tambin continuo.
e
8.1.
Denicin
o
Las observaciones reales del movimiento de granos de polen a travs del microscoe
pio sugieren que el fenmeno satisface las siguientes propiedades:
o
191
192
8.1. Definicion
Movimiento irregular
de un grano de polen.
Robert Brown
(Escocia 17731858)
Figura 8.1:
a) Es continuo.
b) Parece tener desplazamientos independientes en intervalos de tiempo disjuntos.
c) Debido al gran n mero de colisiones del grano de polen con las molculas ciru
e
cundantes en longitudes de tiempo no peque os, y teniendo en cuenta el teorema
n
central del l
mite, los incrementos pueden modelarse como variables aleatorias Gausianas.
La estructura matemtica de un proceso estocstico a tiempo continuo {Bt : t 0},
a
a
ha resultado adecuada para modelar este tipo de fenmenos. La variable Bt puede
o
representar la posicin de la part
o
cula al tiempo t. La denicin matemtica, en el
o
a
caso unidimensional, es la siguiente.
193
Cap
tulo 8. Movimiento Browniano
5. Para cualesquiera tiempos 0 < t1 < < tn , y para cualesquiera conjuntos de Borel A1 , . . . , An de R, se cumple que
P (Bt1 A1 , . . . , Btn An ) =
A1
An
p(t1 , 0, x1 )
2
2
1
p(t, x, y) =
e(yx) /2 t .
2t
2
(8.1)
194
8.1. Definicion
p(s, 0, x) p(t s, x, u + x) dx
2
2
2
1
1
ex /2s
eu /2 (ts) dx
2 2 (t s)
2 2 s
2
2
1
eu /2 (ts)
2 2 (t s)
p(t s, 0, u),
Cap
tulo 8. Movimiento Browniano
195
= p(t1 , 0, x1 )p(t2 t1 , x1 , x2 + x1 )
. . . p(tn tn1 , x1 + + xn1 , x1 + + xn )
= p(t1 , 0, x1 )p(t2 t1 , 0, x2 ) p(tn tn1 , 0, xn )
= fBt1 (x1 )fBt2 Bt1 (x2 ) fBtn Btn1 (xn ).
Esto demuestre que las variables Bt1 , Bt2 Bt1 , . . . , Btn Btn1 son independientes cada una de ellas con distribucin normal con los parmetros
o
a
mencionados.
p(t, x, y) dy.
A
Hemos hecho nfasis en la propiedad (5) pues sta tiene la ventaja de que proe
e
porciona una expresin expl
o
cita para la probabilidad del conjunto de trayectorias
Brownianas que cumplen las condiciones de encontrarse en el conjunto A1 al tiempo
t1 , estar en el conjunto A2 al tiempo posterior t2 , etctera.
e
La condicin de que el movimiento Browniano inicie en el origen no es absolutao
mente necesaria. Pueden considerarse trayectorias Brownianas que inicien en un
x
punto x cualquiera a travs del proceso x + Bt , el cual se denota a veces por Bt
e
para recordar la posicin de origen.
o
Ejercicio. Demuestre que para cualquier t = s, P (Bt > Bs ) = 1/2.
Ejercicio. Sea Bt un movimiento Browniano. Demuestre que los siguientes procesos
tambin son movimientos Brownianos.
e
a) Wt = Bt .
196
8.2.
Propiedades bsicas
a
Tenemos entonces que para el movimiento Browniano estndar cada variable aleaa
2
toria Bt tiene distribucin N (0, t) y por lo tanto E(Bt ) = 0 y Var(Bt ) = E(Bt ) = t.
o
2
En particular E(Bt Bs ) = t s, para 0 s < t. El movimiento Browniano f
sico
real se presenta en tres dimensiones y es completamente errtico. En la Figura 8.2
a
puede apreciarse una posible trayectoria Browniana cuando sta se proyecta sobre
e
una de sus coordenadas. Esta grca fue generada en computadora y es slo una
a
o
aproximacin del modelo matemtico. En la grca pueden apreciarse algunas peo
a
a
que as partes en donde aparentemente el comportamiento es lineal y suave, ello no
n
sucede en el modelo terico.
o
Bt ()
Figura 8.2:
Integrando directamente puede comprobarse que la probabilidad de transicin
o
Cap
tulo 8. Movimiento Browniano
197
Demostracin. Para cualesquiera tiempos 0 t1 < t2 < < tn < tn+1 , y para
o
cualquier evento A en R,
P (Btn+1 A | Bt1 = x1 , . . . , Btn = xn )
p(t1 , 0, x1 ) p(t2 t1 , x1 , x2 ) p(tn tn1 , xn1 , xn ) p(tn+1 tn , xn , A)
=
p(t1 , 0, x1 ) p(t2 t1 , x1 , x2 ) p(tn tn1 , xn1 , xn )
= p(tn+1 tn , xn , A)
p(tn , 0, xn )
= p(tn+1 tn , xn , A)
p(tn , 0, xn )
= P (Btn+1 A | Btn = xn ).
198
E(Bt Bs + Bs | Fs )
E(Bt Bs | Fs ) + E(Bs | Fs )
E(Bt Bs ) + Bs
Bs .
e
de martingala.
Teorema de caracterizacin de Paul L`vy. Un proceso {Xt : t 0} es un
o
e
movimiento Browniano si, y slo si, tiene trayectorias continuas, empieza en
o
2
cero, y tanto Xt como Xt t son martingalas.
El movimiento Browniano Bt cumple claramente cada una de las condiciones men2
cionadas, aunque posiblemente no sea tan evidente que el proceso Bt t sea tambin
e
una martingala, ello no es dif de vericar y se deja como ejercicio. La parte fuercil
te de esta caracterizacin radica en que estas condiciones denen a un movimiento
o
Browniano.
Ejercicio. Use la caracterizacin de Paul L`vy para demostrar nuevamente que los
o
e
siguientes procesos son movimientos Brownianos.
a) Wt = Bt .
b) Wt = 1 Bc2 t , con c > 0 constante.
c
c) Wt = t B1/t , con W0 = 0.
d) Wt = Bt+t0 Bt0 ,
con t0 0 jo.
Cap
tulo 8. Movimiento Browniano
199
Wnt = t 1 + + t n ,
una de cuyas trayectorias aparece en la Figura 8.3. Dada la simetr de la caminata
a
sigue cumplindose que E(Wnt ) = 0. La razn por la que se ha tomado esa
e
o
nueva escala en el tama o de los saltos es que con ello se logra similitud con
n
el movimiento Browniano al cumplirse tambin que para cualquier valor de n,
e
Var(Wnt ) = nt Var() = nt. Puede demostrarse que cuando t 0 esta
caminata tiende a un proceso a tiempo continuo con trayectorias continuas. El
proceso l
mite resultante es el movimiento Browniano estndar.
a
3 t
2 t
2t
3t
4t
5t
6t
7t
8t
2 t
Figura 8.3:
Esta aproximacin del movimiento Browniano como l
o
mite de una caminata aleatoria sugiere un mecanismo para simular trayectorias Brownianas por computadora:
Se escoge t peque o y N el n mero de puntos que se deseen gracar. Se genen
u
ran entonces N valores independientes de la variable con distribucin uniforme
o
en el conjunto {1, +1}, y se graca la sucesin de puntos (kt, Wkt ), para
o
k = 0, 1, . . . , N . En la prctica suelen generarse valores continuos para Y con disa
200
f (y) p(t, y, x) dx =
o
o
pues corresponde a la esperanza de la variable f (Bt ) para un movimiento Browx
niano que inicia en x, es decir, f (t, x) = E(f (Bt )). A esta funcin tambin se le
o
e
x
denota por E (f (Bt )), y puede demostrarse que satisface la ecuacin
o
1 2
f (t, x) =
f (t, x).
t
2 x2
8.3.
l sup
m
t0
i=0
Cuando este n mero es nito se dice que la funcin tiene variacin nita en dicho
u
o
o
intervalo. Anlogamente, la variacin cuadrtica es
a
o
a
n1
l sup
m
t0
i=0
Cap
tulo 8. Movimiento Browniano
201
l sup
m
t0
i=1
|Bti+1 Bti | = ,
c.s.
l sup
m
t0
i=1
|Bti+1 Bti |2 = b a,
c.s.
202
(Bi )2 (b a)|2
= E(
i
=E
i,j
(Bi )2 (b a))2
(Bi )2 (Bj )2 2(b a)E
4
E(Bi ) +
i
i=j
3(ti )2 +
=
i
i=j
2(ti ) + (
i
(ti ) + (b a)2
ti tj (b a)2
(Bi )2 + (b a)2
ti )2 (b a)2
2(ti )
i
2(b a) mx ti 0.
a
0i<n
l sup
m
t0
i=1
|Bti+1 Bti | = ,
c.s.
Demostracin. Para cada n natural sea Pn la particin uniforme del intervalo [a, b]
o
o
en n subintervalos, es decir cada incremento ti = ti+1 ti tiene longitud (ba)/n.
Sea nuevamente Bi = Bti+1 Bti . Entonces se tiene la estimacin
o
n1
i=0
n1
|Bi |2 ( mx |Bi | )
a
i
i=0
|Bi |.
(8.2)
Cap
tulo 8. Movimiento Browniano
203
nk 1
i=0
|Bi |2 = b a,
c.s.
Por otro lado, como las trayectorias del movimiento Browniano son continuas casi
seguramente, se tiene que
l ( mx |Bi | ) = 0,
m
a
c.s.
subsucesin de particiones,
o
l
m
nk 1
i=0
|Bi | = ,
c.s.
204
1
B1/n4 | > n )
1/n4
1
P ( |B1/n4 | > 3 )
n
1
2
P ( |n B(1/n4 )(1) | > )
n
1
P ( |B1 | > ) 1 cuando n .
n
P( |
8.4.
205
Cap
tulo 8. Movimiento Browniano
2
(t s)1
0
..
Var(B(t) B(s)) =
.
.
2
(t s)n
1
2(t
2
s)1
ex1 /2(ts)1
1
2(t
2
s)n
exn /2(ts)n .
Cuando los valores de los parmetros son todos uno, se dice nuevamente que
a
el movimiento Browniano es estndar, y la funcin de densidad de B(t) B(s)
a
o
adquiere la expresin compacta
o
f (x1 , . . . , xn ) =
2
1
e||x|| /2(ts) ,
n/2
(2(t s))
206
p(t, x, y) =
B2 (t)
B1 (t)
Figura 8.4:
El proceso de Bessel. Sea B(t) un movimiento Browniano en Rn . El proceso
2
2
de Bessel es el proceso dado por R(t) = ||B(t)|| = (B1 (t) + + Bn (t))1/2 . Es
decir, R(t) es la distancia Euclideana que guarda un movimiento Browniano ndimensional respecto al origen al tiempo t. Se trata de un proceso con valores
en [0, ), y que evidentemente tiene trayectorias continuas. Se le llama a veces
movimiento Browniano radial. Puede demostrarse [1] que es un proceso de Markov y
que la funcin de probabilidades de transicin p(t, x, y) puede escribirse en trminos
o
o
e
de las funciones de Bessel.
Ecuacin de calor en dominios acotados. Vamos a enunciar sin demostracin
o
o
un resultado que nos llevar a una aplicacin del movimiento Browniano. Considere
a
o
una regin abierta y acotada D de Rn con frontera D, y suponga que la funcin
o
o
u(t, x) representa la temperatura en el punto x D al tiempo t 0. La evolucin
o
en el tiempo de esta funcin est dada por la ecuacin de calor
o
a
o
d
u(t, x) = u(t, x),
t
2
en donde es el operador Laplaciano, y d es una constante positiva. Suponga
adems que se tiene una temperatura inicial u(0, x) = f (x) para x D, y la
a
Cap
tulo 8. Movimiento Browniano
207
8.5.
El principio de reexin
o
208
u(x)
Bt
1
b
x
a
t
(a)
(b)
Figura 8.5:
(8.4)
Cap
tulo 8. Movimiento Browniano
209
Xt ()
b
a
Figura 8.6:
tomar el valor innito si el evento mencionado nunca ocurre. Entonces
a
P ( Bs b para alg n s [0, t] ) =
u
=
P ( t)
P ( < t) + P ( = t)
P ( < t).
a
a
La ultima igualdad se debe a que P ( = t) P (Bt = b) = 0, por ser Bt una
a
P (Bt b | t) P ( t)
a
P (Bt b 0 | < t) P ( < t),
(8.5)
210
8.6.
Recurrencia y transitoriedad
2
t1
P ( Bt = 0 para alg n t [t1 , t2 ] ) = 1 arctan
u
.
t2 t1
=4
0
=4
0
P ( Bt2 t1 u ) p(t1 , 0, u) du
ev
/2(t2 t1 )
2
1
eu /2t1 dv du.
2t1
211
Cap
tulo 8. Movimiento Browniano
4
0
x t1 / t2 t1
1 r2 /2
e
r dr d
2
0
t2 t1
t1
1
= 4 ( arctan
)
2
t2 t1 2
2
t1
= 1 arctan
.
t2 t1
t
arctan 1
y=
er
/2
dr
t1
x
t2 t1
= arctan
t1
t2 t1
Figura 8.7:
Con ayuda de este resultado demostramos ahora la recurrencia puntual del movimiento Browniano unidimensional.
212
2
t1
P ( Bt = 0 para alg n t [t1 , ) ) = l (1 arctan
u
m
) = 1.
t2
t2 t1
Esto es, la probabilidad de que el movimiento Browniano unidimensional regrese
al cero para alg n tiempo t dentro del intervalo [t1 , ) es uno, sin importar la
u
magnitud de t1 . Ahora, una vez que regresa a cero, por la propiedad fuerte de
Markov, inicia en ese momento otro movimiento Browniano que eventualmente
regresar nuevamente a cero con probabilidad uno. De esta manera regresar a
a
a
cero una innidad de veces con probabilidad uno.
Esta propiedad de recurrencia signica que una trayectoria como la de la Figura 8.2
cruzar una innidad de veces el eje horizontal, casi seguramente. Puede uno tama
bin considerar que el movimiento inicia en un punto cualquiera x obtenindose
e
e
la misma propiedad de recurrencia al punto x. La siguiente conclusin es tambin
o
e
muy interesante: Hemos mencionado antes que el proceso Wt = tB1/t , con W0 = 0,
es tambin un movimiento Browniano. Ahora, dado que Bt es cero para una ine
nidad de valores de t en cualquier intervalo de la forma [t1 , ), se tiene entonces
que Wt es cero una innidad de veces dentro del intervalo (0, 1/t1 ). Es decir, en
cualquier vecindad de t = 0, las trayectorias del movimiento Browniano cruzan
el eje horizontal una innidad de veces, casi seguramente. Esta misma conclusin
o
puede obtenerse directamente de la frmula recin demostrada tomando t2 > 0 jo
o
e
y haciendo t1 0, es decir,
2
t1
P ( Bt = 0 para alg n t (0, t2 ] ) = l (1 arctan
u
m
) = 1.
t1 0
t2 t1
En el caso de dimensiones mayores la situacin es distinta.
o
Cap
tulo 8. Movimiento Browniano
213
Demostracin. Sean r1 y r2 dos radios tales que 0 < r1 < r2 , y dena la regin
o
o
A = {x Rn : r1 < ||x|| < r2 } como se muestra en la Figura 8.8. La frontera de A
es A = {x Rn : ||x|| = r1 o ||x|| = r2 }, y ||x|| = x2 + x2 .
1
2
r1
r2
Figura 8.8:
Suponga que el movimiento Browniano inicia en el origen y que en alg n tiempo
u
posterior se encuentra en un punto x dentro de la regin A. Dena la funcin f (x)
o
o
como la probabilidad de que el movimiento Browniano que parte de x llegue a la
circunferencia exterior {x Rn : ||x|| = r2 } antes que a la circunferencia interior
{x Rn : ||x|| = r1 }. Es decir, si se dene el tiempo de paro
= {t > 0 : B(t) D},
nf
214
entonces f (x) = P ( ||B( )|| = r2 | B(0) = x ). Esta funcin puede tambin escribirse
o
e
como
f (x) = E( g(B( )) | B(0) = x ),
en donde g(x) : A R es la funcin indicadora
o
g(y) =
si ||x|| = r2 ,
si ||x|| = r1 .
(8.6)
si ||y|| = r2 ,
f (y) = g(y) =
si ||y|| = r1 .
d n1 d
(r
)
dr
dr
n1 d
d2
+
.
dr2
r dr
rn1
n1
(r) = 0,
r
para r (r1 , r2 ),
si n = 2,
c1 r2n + c2
(r) =
si n 3,
(||x||)
ln ||x|| ln r1
ln r2 ln r1
2n
r1 ||x||2n
2n
2n
r1 r2
si n = 2,
si n 3.
(8.7)
(8.8)
Cap
tulo 8. Movimiento Browniano
215
r2
= l
m
r2
= 0.
ln ||x|| ln r1
ln r2 ln r1
r1 0
= l ( 1
m
r1 0
= 0.
ln ||x|| ln r1
)
ln r2 ln r1
r2
2n
r1 ||x||2n
2n
2n
r2
r1 r2
r1 n2
=1(
)
||x||
> 0.
= l
m
216
probabilidad es
l P ( ||B( )|| = r1 antes que ||B( )|| = r2 | B(0) = x )
m
r1 0
= l (1
m
r1 0
= 0.
2n
r1 ||x||2n
2n
2n )
r1 r2
Notas y referencias
El lector puede encontrar una muy interesante y motivadora exposicin histrica
o
o
sobre el descubrimiento del movimiento Browniano en el excelente libro de Edward
Nelson [24]. Este libro se encuentra disponible en formato electrnico en la pgina
o
a
web del autor. Para otras primeras lecturas y mas resultados sobre el movimiento
Browniano pueden consultarse, por ejemplo, los textos de Karlin y Taylor [19],
Lawler [23], Nelson [24], y Tudor [38].
Cap
tulo 8. Movimiento Browniano
217
218
Griego, f
sica y qu
mica. Ingres despus a la Ecole Polyo
e
technique y siendo all a n estudiante public su primer
u
o
art
culo en matemticas en 1905, el cual tocaba temas de
a
series convergentes. Despus de un a o de servicio militar,
e
n
L`vy
e
Cap
tulo 8. Movimiento Browniano
219
Ejercicios
Movimiento Browniano unidimensional
121. Sea Bt un movimiento Browniano de parmetro 2 . Demuestre que Wt =
a
Bt/2 es un movimiento Browniano estndar.
a
122. Sea = 0 una constante. Demuestre que si Bt es un movimiento Browniano
estndar, entonces los siguientes procesos son movimientos Brownianos de
a
parmetro 2 .
a
a) Wt = Bt .
b) Wt = B2 t .
123. Sea t0 > 0 jo y sea Bt es un movimiento Browniano estndar. Demuestre
a
que el proceso {Bt0 Bt0 t : 0 t t0 } es un movimiento Browniano en el
intervalo [0, t0 ]. Este es un movimiento Browniano con tiempo invertido.
124. Demuestre que la probabilidad de transicin p(t, x, y) del movimiento Browo
niano satisface la ecuacin de difusin
o
o
p
1 2p
=
.
t
2 y 2
125. Demuestre que la probabilidad de transicin p(t, x, y) del movimiento Browo
niano cumple la ecuacin de Chapman- Kolmogorov
o
p(t + s, x, y) =
b) E(Bt Bs )2 = |t s|.
a) E|Bt Bs | =
c) E(Bs Bt ) = m
n{s, t}.
d ) (Bt , Bs ) =
s
, para 0 s < t.
t
220
c2
t ).
2
130. El puente Browniano en (0, 1). Sea Bt un movimiento Browniano unidimensional estndar. Demuestre que la distribucin condicional de la variable Bt ,
a
o
con t (0, 1), dado que B0 = 0 y B1 = 0, es
f (x) =
1
2 t(1 t)
ex
/2t(1t)
para < x < , es decir, Bt tiene distribucin condicional N(0, t(1 t)).
o
A este proceso condicionado se le conoce con el nombre de puente Browniano
en el intervalo (0, 1). El siguiente ejercicio generaliza este resultado.
131. Sea Bt un movimiento Browniano unidimensional estndar, y sean t1 y t2 dos
a
tiempos jos tales que 0 t1 < t2 . Demuestre que la distribucin condicional
o
de la variable Bt , con t (t1 , t2 ), dado que Bt1 = a y Bt2 = b, es N(, 2 )
con
t t1
= a+
(b a),
t2 t1
(t2 t)(t t1 )
2 =
.
t2 t1
132. Sea B(t) = (B1 (t), . . . , Bn (t)) un movimiento Browniano estndar en Rn , y
a
sea r > 0. Sea ||x|| = (x2 + +x2 )1/2 la norma Euclideana en Rn . Demuestre
1
n
que la funcin de densidad de ||B(t)|| es, para x > 0,
o
f (x) =
1
(n/2)
1
2
n/2
x2
t
n/21
2x x2 /2t
e
.
t
/2t
Cap
tulo 9
Clculo estocstico
a
a
9.1.
Integracin estocstica
o
a
Xt dBt .
(9.1)
222
||X||L2 (P dt) = (E
Puede demostrarse que la funcin || ||L2 (P dt) es efectivamente una norma y que
o
este espacio es completo respecto de esta norma, es decir, es un espacio de Banach.
Cap
tulo 9. Calculo estocastico
223
||B||L2 (P dt)
= (E
0
T
= (
0
T
= (
|Bt |2 dt )1/2
E |Bt |2 dt )1/2
t dt )1/2
T
< .
2
2
El espacio H0 de procesos simples. Deniremos primero la integral de It para
o
procesos que tienen la forma indicada a continuacin.
o
Denicin. Sea 0 = t0 < t1 < < tn = T una particin nita del intervalo
o
o
[0, T ]. Un proceso estocstico simple es un proceso de la forma
a
n1
Xt =
(9.2)
k=0
224
Xt ()
X tn1
X t1
X t0
t
t1
t2
tn1
tn
Figura 9.1:
tiempo, entonces la integral debe ser esa constante multiplicada por el incremento
del movimiento Browniano en dicho intervalo.
Denicin. (Integral para procesos simples.) La integral estocstica de It de
o
a
o
un proceso simple X de la forma (9.2), respecto del movimiento Browniano,
denotada por I(X), se dene como la variable aleatoria
n1
I(X) =
Xs dBs =
0
k=0
X tk (Btk+1 Btk ).
Observe que esta integral es una variable aleatoria integrable pues siendo X tk y
(Btk+1 Btk ) independientes, cada sumando tiene esperanza cero, y por lo tanto
T
E( 0 Xs dBs ) = 0. Ms a n, la variable I(X) es cuadrado integrable y de hecho
a u
se cumple la siguiente igualdad fundamental.
Proposicin. (Isometr de It para procesos simples). Para cualquier proceso
o
a
o
simple X se cumple
||I(X)||L2 (P ) = ||X||L2 (P dt) .
(9.3)
Cap
tulo 9. Calculo estocastico
225
||I(X)||2 2 (P )
L
= E( |
k=0
n1
E( X tj X tk Bj Bk )
=
j,k=0
n1
E( (X tk )2 (Bk )2 )
=
k=0
n1
E(X tk )2 tk
=
k=0
|Xt |2 dt)
0
||X||2 2 (P dt) .
L
= E(
=
Esta identidad establece que tanto el proceso simple X como la variable aleatoria
I(X) tienen la misma norma en sus respectivos espacios. Como se ver ms adea a
lante, esta igualdad juega un papel primordial en la denicin general de integral
o
2
estocstica. La integral estocstica asigna entonces a cada elemento del espacio H0
a
a
2
una variable aleatoria dentro del espacio L (P ). De esta forma se tiene la trans2
formacin lineal I : H0 L2 (P ), que resulta ser continua por la isometr de
o
a
It.
o
2
Ejercicio. Demuestre que la integral estocstica para procesos simples I : H0
a
2
L (P ) es lineal y continua.
Observe que se puede tomar como ejemplo de proceso simple el movimiento Browniano discretizado, es decir, se puede tomar como proceso simple X tk = Btk , y de
esta forma tener la integral estocstica discreta del movimiento Browniano respecto
a
de s mismo,
n1
k=0
226
E
0
|Xt |2 dt < .
= ||I(X k X l )||L2 (P )
Debido a (9.4) la ultima expresin puede hacerse tan peque a como se desee, to
o
n
mando
ndices k y l sucientemente grandes.
Denicin. Sea X un proceso en H2 , y sea X k una sucesin de procesos en
o
o
2
H0 aproximante a X. Se dene la integral estocstica de X como
a
I(X) = l I(X k ),
m
k
en donde el l
mite debe entenderse dentro del espacio L2 (P ), es decir, se trata
de la convergencia en media cuadrtica de una sucesin de variables aleatorias.
a
o
227
Cap
tulo 9. Calculo estocastico
H2
0
H2
L2 (P dt)
L2 (P )
Figura 9.2:
La isometr de It se cumple tambin para procesos en H2 como se muestra a
a
o
e
continuacin.
o
Proposicin. (Isometr de It). Para cualquier proceso X en H2 se cumple
o
a
o
||I(X)||L2 (P ) = ||X||L2 (P dt) .
(9.5)
2
Demostracin. Sea X en H2 y sea Xn en H0 tal que ||X Xn ||L2 (P dt) 0. Esta
o
convergencia y la desigualdad | ||a|| ||b|| | ||a b|| implican que ||Xn ||L2 (P dt)
||X||L2 (P dt) . Anlogamente, como ||I(X)I(Xn )||L2 (P ) 0 se tiene que ||I(Xn )||L2 (P )
a
||I(X)||L2 (P ) . El resultado buscado se obtiene al tomar el l
mite en la isometr de
a
It como se muestra en el siguiente diagrama:
o
||I(Xn )||L2 (P )
||I(X)||L2 (P )
||X||L2 (P dt) .
228
Xt =
Bt dBt = l
m
k=0
en donde el l
mite debe entenderse en el sentido de que la distancia mxima entre
a
dos puntos sucesivos de la particin tiende a cero. Ms adelante calcularemos esta
o
a
integral estocstica de dos maneras, primero usando esta representacin como l
a
o
mite
en el espacio L2 (P ), y despus usando la frmula de It.
e
o
o
La integral como un proceso. Haremos ahora una peque a extensin. Para cada
n
o
t en [0, T ] y para cualquier X en H2 se dene el proceso
T
It (X) =
Xs dBs .
0
Este peque o articio permite ver a la integral estocstica no como una variable
n
a
aleatoria sino como un proceso. Es claro que tal proceso no es necesariamente
continuo, sin embargo puede demostrarse que existe una versin continua de l, y
o
e
que esa versin es una martingala respecto de la ltracin natural del movimiento
o
o
Browniano. Denotaremos por el mismo s
mbolo a tal martingala continua.
Cap
tulo 9. Calculo estocastico
229
P(
0
|Xt |2 dt < ) = 1.
(9.6)
Denotaremos por L2 el espacio de todos estos procesos. Este nuevo espacio conloc
tiene a H2 y es tal que para cada proceso X en L2 existe una sucesin creciente
o
loc
de tiempos de paro 0 1 2 tales que n T cuando n , y para
cada n 1 el proceso Xt 1(n t) pertenece al espacio H2 . Se dene entonces la
integral estocstica como el siguiente l
a
mite en el espacio L2 (P ),
t
Xs dBs = l
m
f (Bs ) dBs .
0
Se puede demostrar que esta integral puede ser calculada mediante el siguiente
l
mite en el espacio L2 (P ), aunque tambin se verica la convergencia en probabie
lidad:
n1
f (Bs ) dBs = l
m
0
k=0
(9.7)
230
Con esto concluimos la serie de ideas generales bajo las cuales puede construirse la integral de It. Las demostraciones de algunos detalles tcnicos que hemos
o
e
simplemente mencionado se pueden encontrar en [35]. El esquema simplicado del
procedimiento seguido para denir la integral estocstica se ilustra la Figura 9.3.
a
Denicin
o
H2
0
Aproximacin
o
H2
Localizacin
o
L2
loc
L2 (P )
Figura 9.3:
Ejemplo. Con la ayuda de (9.7) calcularemos la integral estocstica
a
t
Bs dBs .
0
Sea 0 = t0 < t1 < < tn = t una particin uniforme de [0, t], es decir ti+1 ti =
o
1/n. Usando la identidad
a(b a) =
1 2
1
(b a2 ) (a b)2
2
2
se obtiene
n1
Bs dBs
l
m
j=0
n1
=
=
l
m
1 2
1
2
[ (Btk+1 Btk ) (Btk+1 Btk )2 ]
2
2
j=0
1 2 1
B t.
2 t
2
Cap
tulo 9. Calculo estocastico
231
2
en el sentido de media cuadrtica. Observe que aparece el trmino 1 Bt como si
a
e
2
1
se siguieran las reglas de integracin usual, pero aparece tambin el trmino 2 t,
o
e
e
conocido como la correccin de It.
o
o
Bs dBs
l
m
j=0
n1
=
=
l
m
1 2
1
2
[ (Btk+1 Btk ) + (Btk+1 Btk )2 ]
2
2
j=0
1 2 1
B + t.
2 t
2
El signo del segundo trmino cambi de negativo a positivo. Esto muestra que, a
e
o
diferencia de la integral de Riemann, la integral estocstica es sensible al punto
a
donde se eval a el integrando. Al considerar el promedio de las dos evaluaciones
u
en los extremos se obtiene la as llamada integral de Stratonovich, denotada de la
forma siguiente
t
1 2
Bs dBs = Bt .
2
0
Observe que el trmino adicional de la integral de It ha desaparecido. La intee
o
gral de Stratonovich tiene algunas ventajas operacionales pues sigue algunas reglas
usuales del clculo integral, pero vista como proceso deja de ser una martingala.
a
Ejemplo. calcularemos ahora la esperanza y varianza del proceso
t
Bs dBs .
0
232
Var(
Bs dBs )
Bs dBs )2
= E(
0
t
= E(
0
t
=
0
2
Bs ds)
2
E(Bs ) ds
s ds
0
1 2
t .
2
2
Alternativamente, como 0 Bs dBs = 1 Bt 1 t, las cantidades anteriores pueden
2
2
1 2
calcularse usando el lado derecho de esta igualdad. Claramente E( 2 Bt 1 t) = 0.
2
Adems
a
1 2 1
Var( Bt t)
2
2
=
=
=
=
1
2
Var(Bt )
4
1
4
2
(E(Bt ) E 2 (Bt ))
4
1 2
(3t t2 )
4
1 2
t .
2
E(
Xs dBs
0
Ys dBs ) =
0
E(Xs Ys ) ds.
0
233
Cap
tulo 9. Calculo estocastico
1
2 (a
E(
Xs dBs
0
Ys dBs )
0
t
t
t
1
1
(Xs + Ys ) dBs |2 ) (E|
Xs dBs |2 + E|
Ys dBs |2 )
= E( |
2 0
2
0
0
t
t
1 t
1
=
E|Xs + Ys |2 ds (
E|Xs |2 ds +
E|Ys |2 ds)
2 0
2 0
0
t
E(Xs Ys ) ds.
0
(cXs + Ys ) dBs = c
0
Xs dBs +
0
Ys dBs ,
c.s.
E(
Xs dBs ) = 0,
c.s.
o
es decir,
t
E|
Xs dBs |2 = E
|Xs |2 ds.
E(
0
Xu dBu | Fs ) =
Xu dBu .
0
234
9.2.
Frmula de It
o
o
f (Bt ) f (B0 ) =
f (Bs ) dBs +
1
2
f (Bs ) ds.
R(x) =
x0
1
=
0
f (t)(x t) dt
(1 )f (x0 + (x x0 ))(x x0 )2 d.
235
Cap
tulo 9. Calculo estocastico
tanto, si 0 = t0 < t1 < < tn = t es una particin de [0, t], entonces
o
n
f (Bt ) f (B0 )
[ f (Btk ) f (Btk1 ) ]
=
k=1
n
f (Btk1 )Bk
=
k=1
+
0
(1 )
f (Btk1 + Bk )(Bk )2 d.
k=1
f (Bt ) f (B0 ) =
f (Bs ) dBs +
0
t
f (Bs ) dBs +
1
2
(1 )
t
f (Bs ) ds d
f (Bs ) ds.
Esta frmula es una versin estocstica de la regla de la cadena del clculo difeo
o
a
a
rencial usual, y es com n escribirla en su forma diferencial del siguiente modo
u
1
df (Bt ) = f (Bt ) dBt + f (Bt ) dt.
2
Esta expresin debe entenderse en el sentido de su forma integral arriba enunciado.
o
Ilustraremos su uso mediante algunos ejemplos.
Ejemplo. Sea f (x) = 1 x2 . Entonces la frmula de It establece que
o
o
2
1 2 1 2
B B0 =
2 t
2
Es decir,
Bs dBs +
0
Bs dBs =
0
1
2
1 ds.
0
1 2 1
B t.
2 t
2
Este resultado hab sido encontrado antes, ahora lo hemos obtenido de manera
a
inmediata de la frmula de It. De manera anloga, para la funcin f (x) = 1 x3 se
o
o
a
o
3
obtiene
t
t
1 3
2
Bs dBs = Bt
Bs ds.
3
0
0
236
n
Bs dBs =
1
n+1
n+1 x
se obtiene
1
1
B n+1
n+1 t
2
t
0
n1
nBs ds.
(2n)! n
t .
2n n!
Los momentos impares de dicha distribucin se anulan pues en tal caso el integrando
o
1
resulta ser una funcin impar. Consideremos entonces la funcin f (x) = 2n x2n ,
o
o
para cualquier entero natural n. De la frmula de It se sigue que
o
o
1 2n
1 2n
Bt
B =
2n
2n 0
t
0
2n1
Bs
dBs +
1
2
t
0
2n2
(2n 1)Bs
ds.
2n(2n 1) t
2n2
E(Bs
) ds
2
0
2n(2n 1) (2n 2)(2n 3)
2
2
t
0
t1
0
2n4
E(Bs
) ds dt1
.
.
.
=
(2n)!
2n
t
0
t1
0
tn1
1 ds dtn1 dt1 .
No es dif vericar que los resultados sucesivos de estas integrales son: tn1 ,
cil
t2 /2!, t3 /3!, . . ., tn /n! De esta forma se obtiene la frmula enunciada.
o
n2
n3
9.3.
Cap
tulo 9. Calculo estocastico
237
(9.8)
b(s, Xs ) ds +
Xt = X0 +
0
(s, Xs ) dBs ,
(9.9)
238
(0)
X0 ,
(n+1)
X0 +
Xt
t
0
(n)
b(s, Xs ) ds +
t
0
(n)
(s, Xs ) dBs .
Para que estas iteraciones tengan sentido es necesario vericar que los integrandos involucrados son efectivamente susceptibles de ser integrados respecto de la
diferencial respectiva. Para comprobar que tal sucesin de procesos es convergente
o
se demuestra que, con probabilidad uno, esta sucesin constituye una sucesin de
o
o
Cauchy en el espacio de funciones continuas C[0, T ], respecto de la norma uniforme
||X|| = sup0tT |Xt |. Dado lo anterior, existe entonces un proceso continuo X,
(n)
tal que con probabilidad uno, Xt converge a Xt de manera uniforme en el intervalo [0, T ]. Adicionalmente puede demostrarse que el proceso l
mite es L2 -acotado
(n)
en [0, T ], y que la convergencia Xt Xt tambin es vlida en L2 (P ). Tambin
e
a
e
debe demostrarse que el proceso l
mite es efectivamente solucin de la ecuacin
o
o
Cap
tulo 9. Calculo estocastico
239
a
o
enunciada.
Teorema.(Frmula de It II). Si Xt es un proceso de It dado por (9.8) y
o
o
o
f (t, x) es un funcin de clase C 1 en t y de clase C 2 en x, entonces el proceso
o
Yt = f (t, Xt ) es tambin un proceso de It y satisface la ecuacin estocstica
e
o
o
a
1
dYt = ft (t, Xt )dt + fx (t, Xt )dXt + fxx (t, Xt )(dXt )2 .
2
(9.10)
Los sub
ndices indican derivada y (9.8) se substituye en (9.10) usando la siguiente
tabla de multiplicacin de McKean:
o
dt
dBt
dt
0
0
dBt
0
dt
Observe que como las derivadas involucradas son funciones continuas, las integrales
estocsticas resultantes estn bien denidas. La demostracin de este resultado
a
a
o
sigue las mismas l
neas que la versin ms simple. Ilustraremos a continuacin el
o
a
o
uso de esta frmula con varios ejemplos.
o
t
s dBs = tBt
Bs ds.
0
1
= ft (t, Bt ) dt + fx (t, Bt ) dBt + fxx (t, Bt ) (dBt )2
2
= Bt dt + t dBt .
240
t
0
eBs dBs +
1
2
eBs ds,
1
= ft (t, Bt )dt + fx (t, Bt ) dBt + fxx (t, Bt ) dt
2
Bt
1
=
dt +
dBt
(1 + t)2
1+t
Xt
1
=
dt +
dBt .
1+t
1+t
Cap
tulo 9. Calculo estocastico
241
et
1
ft (t, x) + fxx (t, x)
2
f (t, x).
9.4.
=
=
et Bt dt + et dBt
Xt dt + et dBt .
Simulacin
o
Una ecuacin estocstica ha resultado muy util para modelar sistemas que preseno
a
242
= x0 ,
= Xtj + b(tj , Xtj )t + (tj , Xtj )
t Yj .
9.5.
Xt dt + Xt dBt ,
X0
(9.11)
x0 .
Cap
tulo 9. Calculo estocastico
243
(9.12)
1
ft (t, x) + fxx (t, x),
2
fx (t, x).
De la segunda ecuacin se obtiene que f (t, x) = exp [x+g(t)], para alguna funcin
o
o
g(t). Substituyendo en la primera ecuacin se obtiene g (t) = 1 2 , cuya solucin
o
o
2
es g(t) = ( 1 2 )t. De donde Xt = f (t, Bt ) adquiere la expresin indicada.
o
2
A este proceso se le llama tambin se le conoce con el nombre de movimiento
e
Browniano exponencial. En la Figura 9.4 puede apreciarse una trayectoria de este
proceso con una inversin inicial x0 de una unidad monetaria, y con parmetros
o
a
= 1, y = 1/3. La curva creciente corresponde al crecimiento determinista de
la inversin cuando no hay aleatoriedad, es decir, cuando el coeciente de difusin
o
o
es cero. El valor de en la simulacin es peque o y por esa razn la trayectoria
o
n
o
aleatoria mostrada se mantiene cerca de la trayectoria determinista. Cuando se
incrementa el valor de las trayectorias pueden diferir considerablemente.
En el programa de computadora de la Figura 9.5 se muestra una manera de simular trayectorias de este proceso. El cdigo es una traduccin a MATLAB de la
o
o
discretizacin de la ecuacin estocstica, y es una adaptacin del cdigo que apao
o
a
o
o
rece en [15]. Este programa puede ser encontrado en la pgina web de Desmond
a
J. Higham, junto con la implementacin de otros modelos y otras tcnicas de diso
e
cretizacin. La funcin randn produce un valor al azar de la distribucin normal
o
o
o
estndar.
a
244
Xt ()
E(Xt )
x0
t
Figura 9.4:
0
randn(state,100)
T=2; N=300; dt=T/N; xcero=1; mu=1; sigma=1/3;
-1 dW=zeros(1,N); MBG=zeros(1,N);
dW(1)=sqrt(dt)*randn;
MBG(1)=xcero+mu*dt+sigma*xcero*dW(1);
-2 for j=2:N
dW(j)=sqrt(dt)*randn
MBG(j)=MBG(j-1)+mu*MBG(j-1)*dt+sigma*MBG(j-1)*dW(j)
-3
end
0
1
2
3
4
5
6
7
8
9
plot([0:dt:T],[xcero,MBG],r-)
10
Figura 9.5:
Demostraremos ahora algunas caracter
sticas numricas de este proceso.
e
Proposicin. Para el movimiento Browniano geomtrico se cumple lo siguiente.
o
e
1. E(Xt ) = x0 et .
2
1), para 0 s t.
Cap
tulo 9. Calculo estocastico
245
1
= E(x0 exp[( 2 )t + Bt ])
2
1 2
= x0 exp[( )t] E(exp[Bt ])
2
1
1
= x0 exp[( 2 )t] exp[ t 2 ]
2
2
= x0 et .
1
Var(x0 exp[( 2 )t + Bt ])
2
1 2
2
x0 exp[2( )t] Var(exp[Bt ])
2
1
2
x0 exp[2( 2 )t] (E(exp[2Bt ]) E 2 (exp[Bt ]))
2
1 2
1
1
2
x0 exp[2( )t] (exp[ t(2)2 ] exp[2( t 2 )])
2
2
2
2
x2 e2t (e t 1).
0
1
= E(x2 exp[( 2 )(t + s) + (Bt + Bs )])
0
2
1 2
2
= x0 exp[( )(t + s) E(exp[(Bt + Bs )])
2
1
2
= x0 exp[( 2 )(t + s) E(e2Bs ) E(e(Bt Bs ) )
2
2
2
1
1
2
= x0 exp[( 2 )(t + s)e2s e 2 (ts)
2
= x2 exp[(t + s) + s 2 ].
0
Por lo tanto,
Cov(Xt , Xs )
= x2 e(t+s)+s x2 e(t+s)
0
0
2
= x2 e(t+s) (es 1)
0
246
X0
Xt dt + dBt ,
(9.13)
x0 .
Xt = x0 et +
e(ts) dBs .
(9.14)
Xt = a(t) [x0 +
b(s) dBs ],
(9.15)
a (t) [x0 +
a (t)
Xt dt + a(t) b(t) dBt .
a(t)
247
Cap
tulo 9. Calculo estocastico
Comparando con (9.13), las funciones a(t) y b(t) deben cumplir las ecuaciones
a (t)
= ,
a(t)
a(t) b(t) = .
Xt ()
x0 = 3
=1
=1
3
2
1
E(Xt )
t
Figura 9.6:
Proposicin. Para el proceso de Ornstein-Uhlenbeck se cumple lo siguiente.
o
1. E(Xt ) = x0 et .
2. Var(Xt ) =
2
(1 e2t ).
2
3. Cov(Xt , Xs ) =
2
n{s,t}
(1 e2 m
).
2
Demostracin.
o
1. Este resultado se obtiene al tomar esperanza en (9.14), y observar que la integral
248
2 Var(
Var(Xt ) =
e(ts) dBs )
0
t
2 E(
2 (
e(ts) dBs )2
0
t
e2(ts) ds)
1 2s
e
2
2 e2t
2
(1 e2t ).
2
E[(x0 et +
e(ts) dBs )
0
s
(x0 es +
0
2 E(
e(ts) dBs
e(su) dBu ).
2 E(
e(su) dBu )2
e2(su) du
0
2
(1 e2s ).
2
249
Cap
tulo 9. Calculo estocastico
Xt ()
Figura 9.7:
Denicin. El puente Browniano en el intervalo [0, 1] es aquel proceso Xt
o
solucin de la ecuacin estocstica
o
o
a
dXt
X0
= 0.
Xt
dt + dBt ,
1t
t [0, 1),
(9.16)
Xt = (1 t)
1
dBs .
1s
(9.17)
Xt = a(t) [x0 +
b(s) dBs ],
0
(9.18)
250
a (t) [x0 +
a (t)
Xt dt + a(t) b(t) dBt .
a(t)
para 0 s t.
Demostracin.
o
1. La integral es una martingala continua que inicia en cero, por lo tanto E(Xt ) = 0.
251
Cap
tulo 9. Calculo estocastico
2. Por la isometr de It,
a
o
t
Var(Xt )
1
dBs )
1s
0
t
1
= (1 t)2 E(
dBs )2
1s
0
t
1 2
) ds
= (1 t)2 E
(
0 1s
= (1 t)2 Var(
= (1 t)2
= t(1 t).
1
1s
3. Para 0 s t,
Cov(Xs , Xt ) =
E(Xs Xt )
s
(1 s)(1 t)E(
1
dBu
1u
t
0
1
dBu ).
1u
Cov(Xs , Xt ) =
=
=
=
1
dBu )2
1u
0
s
1 2
(1 s)(1 t)
(
) du
0 1u
s
1
(1 s)(1 t)
1u 0
s(1 t).
(1 s)(1 t)E(
Como era de esperarse, la varianza se anula en los extremos del intervalo pues
all el proceso es cero con probabilidad uno. Observe adems que la varianza se
a
hace mxima exactamente en la mitad de dicho intervalo. El puente Browniano en
a
[0, 1] puede representarse de varias formas como se muestra en el siguiente resultado.
252
b) Xt = B1t (1 t)B1 ,
Notas y referencias
Para el desarrollo de la denicin de integral estocstica respecto del movimiento
o
a
Browniano hemos seguido el lineamiento general presentado en el texto de Steele [35]. All pueden encontrarse las demostraciones completas de varios de los resul
tados que hemos solamente enunciado. Otros trabajos en donde pueden encontrarse
exposiciones elementales sobre integracin estocstica son ksendal [26], Kuo [22],
o
a
o Klebaner [20]. Para una exposicin ms completa y general puede consultarse
o
a
por ejemplo Protter [27], o Revuz y Yor [29]. En los trabajos de D. J Higham
como [15] pueden encontrarse algunas primeras lecturas sobre los mtodos para
e
simular ecuaciones estocsticas. En el texto de Kloeden y Platen [21] se expone
a
la teor general, varios mtodos numricos, y diversas aplicaciones de ecuaciones
a
e
e
estocsticas.
a
Cap
tulo 9. Calculo estocastico
253
254
Ejercicios
Integral de It
o
133. A partir de la denicin de integral estocstica demuestre que
o
a
t
0
t
b)
0
s dBs = tBt
a)
2
Bs dBs =
Bs ds.
0
t
1 3
B
3 t
Bs ds.
0
1 3
(y x3 (y x)3 ).
3
Frmula de It
o
o
134. Use la frmula de It para demostrar que el proceso Xt es una solucin de la
o
o
o
ecuacin estocstica indicada.
o
a
2
a) Xt = Bt , dXt = dt + 2Bt dBt .
1/3
2/3
3
b) Xt = Bt , dXt = 3Xt dt + 3Xt
Xt
dt + t dBt .
c) Xt = tBt , dXt =
t
dBt .
2
Bs ds =
1 3
B
3 t
Bs ds.
0
Apndice A
e
255
256
o en trminos de conjuntos de Borel A, A1 , . . . , An ,
e
P (X A, Xt1 A1 , . . . , Xtn An ) =
P (X A)
P (Xt1 A1 , . . . , Xtn An ).
En palabras, esta condicin signica que las distribuciones nito dimensionales cono
juntas son el producto de las distribuciones nito dimensionales marginales.
Lema de Abel
a. Si la serie
k=0
ak es convergente, entonces l t1
m
b. Inversamente, si ak 0 y l t1
m
k=0
k=0
ak tk , entonces
a k tk =
k=0
k=0
ak .
ak = l t1
m
Lema de Fatou
a. Sea {anm : n, m N} una coleccin de n meros reales. Entonces
o
u
m
l sup
m
n
anm .
m
bm < , entonces
anm
l sup anm .
m
n
l E(Xn ) = E( l Xn ).
m
m
k=0
a k tk .
257
casi seguramente, y para cada valor de n, |Xn | Y , para alguna variable Y con
E|Y | < . Entonces
l E(Xn ) = E( l Xn ).
m
m
n
m=0
anm =
m=0
l anm .
m
E(
Xk ) = E(X) E(N ).
k=1
258
Esperanza condicional. Sea (, F , P ) un espacio de probabilidad. Sea X una
variable aleatoria con esperanza nita, y sea G una sub -lgebra de F . La espea
ranza condicional de X dado G , es una variable aleatoria denotada por E(X | G ),
que cumple las siguientes tres propiedades:
a) Es G -medible.
b) Tiene esperanza nita.
c) Para cualquier evento G en G ,
E( X | G ) dP =
X dP.
(A.1)
si existe otra variable aleatoria con las tres propiedades anteriores, entonces con
probabilidad uno coincide con E(X | G ). Cuando la -lgebra G es generada por una
a
variable aleatoria Y , es decir, cuando G = (Y ), la esperanza condicional se escribe
simplemente como E(X | Y ). Mencionaremos a continuacin algunas propiedades
o
de esta variable aleatoria, en estas expresiones se postula de manera impl
cita que
la variable aleatoria a la que se le aplica la esperanza condicional es integrable.
1. Si c es constante, entonces E( c | G ) = c.
2. E(X | {, } ) = E(X).
3. Si A es un evento, entonces E(1A | {, } ) = P (A).
4. Si A y B son eventos con 0 < P (B) < 1, entonces
E(1A | {, B, B c , } ) = P (A | B) 1B + P (A | B c ) 1B c .
5. Si A es un evento y B1 , . . . , Bn es una particin de tal que P (Bi ) > 0 para
o
i = 1, . . . , n, entonces
n
E(1A | {B1 , . . . , Bn }) =
i=1
P (A | Bi ) 1Bi .
259
n=0
7. E(E(X | G )) = E(X).
8. | E(X | G ) | E( |X| | G ). Este es un caso particular de la desigualdad de
Jensen que se enunciar ms adelante. En particular, tomando esperanza se
a a
tiene el siguiente resultado.
9. E |E(X | G )| E(|X|).
10. Si c es constante, entonces E(c X + Y | G ) = c E(X | G ) + E(Y | G ).
11. Si X es G -medible, entonces E(X | G ) = X c.s.
12. Si X 0, entonces E(X | G ) 0.
13. Si X Y , entonces E(X | G ) E(Y | G ).
14. Si G1 G2 , entonces
E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ).
15. Si X es independiente de G , entonces E(X | G ) = E(X).
16. Si G1 y G2 son independientes, entonces
E(X | (G1 G2 )) = E(X | G1 ) + E(X | G2 ) E(X).
17. Si X es independiente de G2 , entonces
E(X | (G1 G2 )) = E(X | G1 ).
m
260
22. Desigualdad de Jensen. Si u es convexa y u(X) es integrable, entonces u(E(X | G ))
E(u(X) | G ).
Funciones directamente Riemann integrables. Sea H : [0, ) [0, ) una
funcin Borel medible. Sea h > 0, y para cada n natural dena las funciones
o
n (h) = { H(t) : (n 1)h t < nh },
nf
n (h) = sup { H(t) : (n 1)h t < nh }.
Suponga que las siguientes funciones son absolutamente convergentes
(h)
(h)
= h
= h
n=1
n (h),
n (h),
n=1
Bibliograf
a
262
Bibliograf
a
1973.
[12] Gard T. C. Introduction to stochastic dierential equations. Marcel Dekker,
1988.
[13] Grimmett G. R. y Stirzaker D. R. Probability and random processes. Clarendon
Press, Oxford, 1982.
[14] Gut A. Probability: a graduate course. Springer, 2005.
[15] Higham D. J. (2001) An algorithmic introduction to numerical simulation of
stochastic dierential equations. SIAM Review Vol. 43, No. 3, pp. 525-546.
[16] Hoel P. G., Port S. C. y Stone C. J. Introduction to stochastic processes.
Hougthon Miin Company, 1972.
[17] Jones P. W. y Smith P. Stochastic processes: an introduction. Arnold, 2001.
[18] Jordan D. W. y Smith P. Mathematical techniques. Oxford University Press,
1997.
[19] Karlin S. y Taylor H. M. A rst course in stochastic processes. Academic Press,
1975.
[20] Klebaner F. C. Introduction to stochastic calculus with applications. Imperial
College Press, 1998.
[21] Kloeden P. E. y Platen E. Numerical solution of stochastic dierential equations. SpringerVerlag, 1999.
[22] Kuo H. Introduction to stochastic integration. Springer, 2006.
[23] Lawler G. F. Introduction to stochastic processes. Chapman & Hall / CRC,
2006.
[24] Nelson E. Dynamical theories of Brownian motion. Princeton University Press,
1967.
[25] Norris J. Markov chains. Cambridge University Press, 1997.
[26] ksendal B. Stochastic dierential equations: an introduction with applications. SpringerVerlag, 1992.
[27] Protter P. H. Stochastic integration and dierential equations. Springer, 1990.
Bibliograf
a
263
Indice
Abel
lema, 256
Cadena de Markov, 23
a tiempo continuo, 120
comunicacin de edos, 38
o
de dos estados, 28
de Ehrenfest, 31
de inventarios, 34
de la caminata aleatoria, 30
de la la de espera, 33
de rachas de xitos, 29
e
de ramicacin, 32
o
de v.a.s independientes, 28
del jugador, 31
distribucin inicial, 26
o
ergdica, 40
o
estacionaria, 24
existencia, 26
nita, 24
irreducible, 40
recurrente, 50
regular, 77
reversible, 80
transitoria, 50
cadena de Markov
accesibilidad de edos, 38
Caminata aleatoria, 5
asimtrica, 7
e
del jugador, 14
simtrica, 7
e
Chapman-Kolmogorov, 35, 195
Clase
aperidica, 43
o
peridica, 43
o
Clases
de comunicacin, 39
o
Clases cerradas, 41
Coeciente
de difusin, 237
o
de tendencia, 237
Comunicacin, 38
o
Conabilidad, 149
Correccin de It, 231
o
o
Coseno hiperblico, 113
o
Delta de Kronecker, 27
Deriva, 237
Desigualdad
de Jensen, 260
Distribucin
o
estacionaria, 66
invariante, 66
reticulada, 257
tipo lattice, 257
Distribuciones nito dimensionales, 255
Doob, J. L., 182
Downcrossing, 174
Drift, 237
Ecuacin
o
264
Indice
de balance detallado, 81
de calor, 195
de Chapman-Kolmogorov, 35, 195
de difusin, 195
o
de renovacin, 140, 141
o
de Wald, 257
estocstica, 237
a
solucin fuerte, 238
o
Ecuaciones de Kolmogorov, 126, 129
hacia atrs, 126
a
Espacio
C 1 , 234
C 2 , 234
L2 (P ), 222
L2 (P dt), 222
H2 , 226
2
H0 , 223
2
Lloc , 229
de estados, 1
parametral, 1
Esperanza
condicional, 258
Estado
absorbente, 40
aperidico, 42
o
peridico, 42
o
recurrente, 47
recurrente nulo, 61
recurrente positivo, 61
transitorio, 47
Estrategia de juego, 165
Euler-Maruyama, 241
Fatou
lema, 256
Filtracin, 158
o
cannica, 158
o
continua por la derecha, 159
estndar, 159
a
265
natural, 158
Funcin
o
de conabilidad, 149
de intensidad, 110
de renovacin, 140
o
de supervivencia, 149
de tasa de falla, 149
de valor medio, 110
delta de Kronecker, 27
hazard, 149
variacin cuadrtica de una, 198
o
a
variacin de una, 198
o
Funciones
dir. Riemann integrables, 260
Igualdad de procesos, 255
Independencia
de procesos, 255
Integrabilidad uniforme, 177
Integral estocstica, 221
a
como un proceso, 228
de It, 224, 226, 228, 229
o
de Stratonovich, 231
extensin por aproximacin, 226
o
o
extensin por localizacin, 229
o
o
para procesos simples, 223
propiedades, 233
It
o
correcin, 231
o
frmula de, 234, 239
o
integral, 224, 226, 228, 229
isometr de, 224, 227
a
proceso de, 237
Kronecker, 27
Lema
de Abel, 256
de Fatou, 256
266
Mtodo de discretizacin, 241
e
o
Martingala, 4, 161
de de Moivre, 186
detenida, 166
estrategia de juego, 165, 167
exponencial, 219
producto, 186
Martingalas
teorema de convergencia, 175
teorema de representacin, 180
o
Matriz
de prob. de transicin, 24
o
doblemente estocstica, 26
a
estocstica, 26
a
regular, 77
McKean
Tabla de multiplicacin, 239
o
Movimiento Browniano, 189
estndar, 191, 194
a
exponencial, 243
geomtrico, 242
e
martingala, 196
multidimensional, 202
probabilidad de transicin, 193
o
radial, 204
recurrencia
por vecindades, 213
puntual, 210
unidimensional, 191
variacin, 200
o
variacin cuadrtica, 199
o
a
N mero de cruces, 173
u
Notacin o peque a, 257
o
n
Parmetros innitesimales, 125
a
Periodo, 42
Probabilidades
de transicin, 24, 27
o
de transicin en n pasos, 27
o
Indice
de transicin en un paso, 24
o
innitesimales, 126
Problema de la ruina del jugador, 14
Proceso, 1
a tiempo continuo, 1
a tiempo discreto, 1
adaptado, 159
con incrementos estacionarios, 4
con incrementos indep, 3
de Bessel, 204
de Cox, 110
de ensayos independientes, 3
de It, 237
o
de L`vy, 4
e
de Markov, 3
de muerte, 132
de nacimiento puro, 130
de nacimiento y muerte, 127
de Ornstein-Uhlenbeck, 246
de Poisson, 98, 105, 106
compuesto, 111
generalizado, 112
homogneo, 98
e
no homogneo, 108
e
simulaciones, 103
de renovacin, 138
o
de saltos, 118
de Wiener, 191
de Yule, 132
detenido, 165
distribuciones n. dim., 255
equivalencia de s, 255
espacio de estados, 1
espacio parametral, 1
estacionario, 3
ltracin de un, 158
o
Gausiano, 4
historia de un , 158
igualdad de s, 255
Indice
independencia, 255
indistinguibilidad, 255
modicacin de un , 255
o
predecible, 159
realizacin de un , 2
o
simple, 223
trayectoria de un , 2
versin de un , 255
o
Propiedad
de Markov, 3
de prdida de memoria, 99
e
de semigrupo, 123
Propiedad de
prdida de memoria, 143
e
Puente Browniano, 219, 249
densidad, 219
Racha de xitos, 29
e
Recurrencia, 47
nula, 61
positiva, 61
Renovacin
o
ecuacin de, 141
o
funcin de, 140
o
Seno hiperblico, 113
o
Stratonovich, 231
Submartingala, 161
Supermartingala, 161
Tcnica de acople, 75
e
Tabla de multiplicacin de McKean, 239
o
Teorema
de conv. de martingalas de Doob,
175
de convergencia dominada, 257
de convergencia montona, 256, 259
o
de paro opcional, 169
de representacin de martingalas, 180
o
teorema
267