You are on page 1of 37

Escuela de Matem atica 1era. Escuela de Matem atica Pura y Aplicada Guatemala 2012.

Curso 1 Introducci on a Cadenas de Markov1


Antonio Murillo Salas Departamento de Matem aticas Universidad de Guanajuato. Del 19 al 24 de noviembre de 2012.

1 Versi on

preliminar.

Indice general
1. Cadenas de Markov 1.1. Denici on y propiedades b asicas 1.2. Clasicaci on de estados . . . . . 1.3. Algunos modelos importantes . 1.4. An alisis de un paso . . . . . . . 3 3 6 8 10

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

2. Caminatas aleatorias simples 14 2.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2. Propiedades de las caminatas aleatorias simples . . . . . . . . . . . . . . . . . . . . 16 2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3. Procesos de Galton-Watson 26 3.1. Funciones generadoras de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2. Una breve introducci on a procesos de Galton-Watson . . . . . . . . . . . . . . . . . 30 3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Introducci on

Cap tulo 1 Cadenas de Markov


1.1. Denici on y propiedades b asicas

Denici on 1.1.1 Un proceso estoc astico es una colecci on de variables aleatorias, {Xt ; t T }, denidas sobre un mismo espacio de probabilidad (, F, P), donde T es un conjunto de indices. Para prop ositos del presente curso, T = Z+ := {0, 1, 2, } y las variables aleatorias Xt , t T , toman valores en alg un conjunto E (nito o numerable). Denici on 1.1.2 La sucesi on {Xn ; n 0} es llamada cadena de Markov si para todo n 1 y cualquier colecci on x0 , x1 , , xn E se cumple P(Xn = xn |X0 = x0 , X1 = x1 , , Xn1 = xn1 ), siempre que P(X0 = x0 , X1 = x1 , , Xn1 = xn1 ) > 0. Observaciones: (i) La identidad (1.1) es llamada propiedad de Markov. (ii) La distribuci on de X0 , 0 (x) := P(X0 = x) (x E ), es llamada distribuci on inicial de la cadena. (iii) La familia {P(Xn = y |Xn1 = x); n N, x, y E } es conocida como familia de probabilidades de transici on de la cadena. (iv) Si P(Xn = y |Xn1 = x) no depende de n, se dice que la cadena es homog enea con respecto al tiempo. En tal caso, se escribe pxy P(Xn = y |Xn1 = x), px,y es la probabilidad de pasar del punto x al punto y en un paso. Por otro lado, en el caso de que la cadena sea homog enea, para cada m 1 se dene
m) p( xy := P(Xn+m = y |Xn = y ), (m)

(1.1)

(1.2)

(1.3)

donde px,y denota la probabilidad de pasar de x a y en m pasos. En el presente curso s olo estudiar emos cadenas de Markov homog eneas. 3

(v) Para cada x, y E , se dene p(0) xy = xy = 1, si x = y , 0, en otro caso.

(vi) En el caso de que la cadena sea homog enea, (pxy ; x, y E ) es llamada matriz de transici on de la cadena. Notemos que, la suma por renglones de los elementos de la matriz de transici on es 1. M as precisamente, pxy = 1, para todo x E.
y E

En efecto, sabemos que 1 = P() = P(X1 E |X0 = x) = P(yE X1 = y |X0 = x) =


y E

P(X1 = y |X0 = x) pxy .


y E

La siguiente proposici on nos dice como determinar la distribuci on de una cadena de Markov apartir de su distribuci on inicial y sus probabilidades de transici on. Proposici on 1.1.3 La distribuci on de {Xn , n 0} queda determinada por las probabilidades de transici on y la distribuci on inicial, es decir, para cada n N y x0 , x1 , , xn E P(Xn = xn , Xn1 = xn1 , , X0 = x0 ) = 0 (x0 )px0 x1 px1 x2 pxn1 xn . Demostraci on: Usando varias veces la propiedad de Markov, tenemos que P(Xn = xn , Xn1 = xn1 , , X0 = x0 ) = P(Xn = xn |Xn1 = xn1 , , X1 = x1 , X0 = x0 )P(Xn1 = xn1 , , X1 = x1 , X0 = x0 ) = P(Xn = xn |Xn1 = xn1 )P(Xn1 = xn1 |Xn2 = xn2 , , X1 = x1 , X0 = x0 ) P(Xn2 = xn2 , , X1 = x1 , X0 = x0 ) = pxn1 xn P(Xn2 = xn2 |Xn1 = xn1 )P(Xn2 = xn2 , , X1 = x1 , X0 = x0 ) = pxn1 xn pxn2 ,xn1 P(Xn2 = xn2 , , X1 = x1 , X0 = x0 ) . . . = pxn1 xn pxn2 xn1 px0 x1 0 (x0 ).

La proposici on anterior nos permite decir sea {Xn , n 0} una cadena de Markov con distribuci on inicial 0 y matriz de transici on P (px,y ), donde x, y E . Notemos que las entradas 4

de la matriz de transici on contienen las probabilidades de transci on a un pasa. C omo usar P para calcular probabilidades de transci on en m pasos? Por el momento, supongamos que m = 2. Entonces, = P(X2 = y |X0 = x) p(2) xy =
x1 E

P(X2 = y, X1 = x1 |X0 = x) P(X2 = y |X1 = x1 , X0 = x0 )P(X1 = x1 |X0 = x0 )


x1 E

= =
x1 E (2)

p x0 x1 p x1 x2 .

2 , es decir, la entrada (x, y ) de la matriz P 2 . M as generalmente, para Notemos que pxy Pxy cualquier m N, se tiene que m) m p( xy = Pxy .

La matriz P m es llamada matriz de transci on en m pasos. Ahora vamos a ver una de las propiedades m as u tiles de la teor a de cadenas de Markov, la llamada ecuaci on de Chapman-Kolmogorov, que es una f ormula para calcular probabilidades de transci on en n + m pasos apartir de las transiciones en n y m pasos. Proposici on 1.1.4 Sea {Xn , n 0} una cadena de Markov con espacio de estados E . Para todo n, m N y x, y E se cumple
n+m) p( = P(Xn+m = y |X0 = x) = xy z E m) (n) p( xz pzy .

(1.4)

Demostraci on: Para la demostraci on usaremos la propiedad de Markov y la ley de probabilidad total:
n+m) p( = P(Xn+m = y |X0 = x) xy P(Xn+m = y, X0 = x) = P(x0 = x) z E P(Xn+m = y, Xm = z, X0 = x) = P(X0 = x) P(Xn+m = y |Xm = z, X0 = x)P(Xm = z, X0 = x) = P(X0 = x) z E

=
z E

P(Xn+m = y |Xm = z )

P(Xm = z, X0 = x) P(X0 = x)

=
z E

P(Xn = y |X0 = z )P(Xm = z |X0 = x)


m) (n) p( xz pzy . z E

1.2.

Clasicaci on de estados

Denici on 1.2.1 Sea {Xn , n 0} una cadena de Markov con espacio de estados E y matriz de transci on P . Dados x, y E se dene lo siguiente: 1. De x se accede a y si existe n 0 tal que pxy > 0, y se denota por (x y ). 2. x y y se comunican entre s , y se denota por (x y ), si (x y ) y (y x). La relaci on (x y ) es una relaci on de equivalencia como lo muestra la siguiente Proposici on 1.2.2 (x y ) es una relaci on de equivalencia y da lugar a una partici on del espacio de estados E . Demostraci on: Dedemos probar que (i) (x x) (ii) (x y ) si y s olo si (y x) (iii) (x y ) y (y z ) implican que (x z ). Notemos que (i) se cumple ya que pxx = xx = 1 > 0. La propiedad (ii) se sigue directamente de la denici on. Veamos que (iii) se cumple: sabemos que existen n, m, n , m N tales que
n) (m) (n ) (m ) p( xy > 0, pyx > 0, pyz > 0, pzy . (0) (n)

Lo anterior implica que (x z ). En efecto, por la ecuaci on de Chapman-Kolmogorov (1.4) se tiene que (n) (n ) n+n ) n) (n ) p( = pxl plx p( xz xy pyz > 0.
lE

Del mismo modo se verica que (z x). Por lo tanto, (x z ). La proposici on anterior nos permite hablar de clases de estados: Denici on 1.2.3 caci on. 1. Una clase de equivalencia, respecto a (x y ), se llama clase de comuni-

2. Dado x E , su clase de comunicaci on se denota por C (x) = {y E : x y }. 3. Se dide que un subconjunto de estados C E es cerrado si ning un estado de C c puede ser (m) accedido desde un estado en C , es decir, si pxy = 0 para todo x C , y C c y cualquier m 1. Ejemplos:

1. Considere una cadena de Markov con espacio de estados E = {1, 2, 3} y matriz de transci on 1 0 0 P = 0 2/3 1/3 0 1/2 1/2 En este caso hay dos clases de comunicaci on: {1} y {2, 3}, ambas clases son cerradas. 2. Considere una cadena de Markov con espacio de estados E = {0, 1, 2, 3, 4, 5} y matriz de transici on 1/3 0 2/3 0 0 0 0 1/4 0 3/4 0 0 2/3 0 1/3 0 0 0 P= 0 1/5 0 4/5 0 0 1/4 1/4 0 0 1/4 1/4 1/6 1/6 1/6 1/6 1/6 1/6 Las clases de comunicaci on de la cadena son: {0, 2}, {1, 3}, {4, 5}. Ejercicio... Ahora veremos el concepto de irreducibilidad de una cadena de Markov. Denici on 1.2.4 Se dice que una cadena de Markov Xn es irreducibe si se cumple cualquiera de la siguentes condiciones (equivalentes entre s ): (i) Desde cualquier estado de E se puede acceder a cualquier otro estado. (ii) Todos los estados se comunican entre s . (iii) C (x) = E para alg un x E. (iv) C (x) = E para todo x E. (v) El u nico conjunto cerrado es el total. Ejemplos... Denici on 1.2.5 Sea Xn una cadena de Markov con espacio de estados E. Dado x E denimos q = P(Xn = x para alg un n N|X0 = x), se dice que: x es un estado recurrente si q = 1. x es un estado transitorio si q < 1. x es un astado absorbente si pxx = 1. Una clase de comunicaci on es clase recurrente si todos sus estados son recurrentes. Notemos que en el caso en que x es un estado transitorio se tiene P(Xn = x para todo n 1|X0 = x) > 0, es decir, con probabilidad positiva la cadena nunca regresa al punto de inicio. Un estado absorbente, como su nombre lo indica, una vez que la cadena llega a el ah permanece. Pasaremos ahora a denir el concepto de tiempo de entrada a un conjunto A E. 7

Denici on 1.2.6 Dado A E, se dene el primer tiempo de entrada a A, TA , como TA = m n{n 0 : Xn A}, si {n 0 : Xn A} = +, si {n 0 : Xn A} = .

Notemos que TA denota la primera vez que la cadena visita (entra) el conjunto A.

1.3.

Algunos modelos importantes

Modelo de inventarios
Sea (n , n 0) una sucesi on de variables aleatorias independientes e id enticamente distribuidas tales que P(n = k ) = ak , k = 0, 1, , donde ak 0 y k ak = 1. Supongamos que nos interesa modelar el nivel de un inventario. Los l mites m aximo y m nimo del inventario son S y s (S > s), respectivamentecon S > s. El nivel del invetario se revisa a nal de cada peri odo (diario, mensual, etc.) si hay al menos s unidades entonces se surte hasta el nivel S , y si hay m as de s entonces no se surte el faltante. Sea Xn el nivel del inventario al nal del per odo n. Xn n+1 , si s < Xn S, Xn+1 = S n+1 , si Xn s. De la relaci on anterior y la independencia de la sucesi on (n ) obtenemos que el {Xn , n 0} es una cadena de Markov. Notemos que el espacio de estados es E = {S, S 1, , 1, 0, 1, 2 }. Las probabilidades de transici on de {Xn , n 0} estan dadas por pij = P(Xn+1 = j |Xn = i) = P(n+1 = i j ), s < i S, P(n+1 = S j ), i s.

Modelo de Wright-Fisher
Supongamos que se tiene una poblaci on compuesta de 2N genes, que pueden ser del tipo a o de tipo A. El tiempo se mide en generaciones, y se est a interesado en el n umero de genenes del tipo A en la n- esima generaci on. Sea Xn el n umero de tales genes. La composici on de la poblaci on en la generaci on n + 1 se determina de la siguiente manera: si en la generaci on n hay j del tipo a y 2N j del tipo A, entonces la probabilidad de que el padre mientras que con probabilidad de un individuo en la generaci on n + 1 sea del tipo a es pj = 2j N 2N j qj = 1 2N es del tipo A. Entonces, pjk = P(Xn+1 = k |Xn = j ) = 2N k 2N k pj qj , j, k = 0, 1, 2, , 2N. k 8

De la relaci on anterior se sigue inmediatamente que {Xn , n 0} es una cadena de Markov con espacio de estados E = {0, 1, , 2N }.

La urna de Ehrenfest
Supongamos que estamos interesados en modelar la difusi on de part culas a trav es de una membrana. En escenerio es el siguiente: se tienen dos urnas (A y B ), con a bolas repartidas dentro de ellas. Las bolas estan numeradas de 1, 2, , a. En cada etapa, se escoge un n umero al azar (uniforme) entre 1 y a, y la bola correspondiente se cambia de urna. Sea Xn el n umero de bolas en la urna A en la etapa n. Es claro que, Xn+1 s olo depende de Xn . Por lo tanton, {Xn , n 0} es una cadena de Markov con el espacio de estados es E = {1, 2, , a}. Las probabilidades de transici on est an dadas por i si i > 0, j = i 1, a, i pij = P(Xn+1 = j |Xn = i) = a , si i < a, j = i + 1, a 0, en otro caso.

Caminatas aleatorias
Sea (Xn , n 1) una sucesi on de variables aleatorias i.i.d. con distribuci on com un dada por P(X1 = 1) = 1 P(X1 = 1) = 1 q = p. La sucesi on (Sn , n 0), donde Sn = S0 +
i=1 n

Xi ,

es llamada caminata aleatoria simple. En general, S0 puede ser constante o una variable aleatoria, 1 se dice que la caminata inicia en S0 . Si p = q = 2 es llamada caminata aleatoria simple sim etrica.

Las caminatas aleatorias son u tiles para modelar varios fen omenos: podemos usarlo para modelar la posici on de una part cula que se mueve en los enteros, a cada paso la part cula puede avanzar o retroceder por un paso con probabilidad p y 1 p, respectivamente. Adem as, la direcci on (izquierda o derecha) es independiente de los pasos anteriores. Asimismo pueden servir para modelar un juego de apuestas donde en cada jugada se pierde o se gana una unidad. El objetivo del Cap tulo 3 es estudiar diversas propiedades de caminatas aleatorias.

Procesos Galton-Watson
Supongamos que una poblaci on de part culas (mol eculas, virus, etc.) evoluciona de la siguiente manera: la poblaci on inicia al tiempo n = 0 con una part cula, al tiempo n = 1 dicha part cula muere y da oringen a un n umero aleatorio (X ) de part culas id enticas entre s y su progenitora y, a tiempos subsecuentes n = 2, 3, . . . , cada individuo evoluciona de la misma manera (muriendo y ramicandose) produciendo as X part culas cada uno. El n umero de part culas que produce cada individuo es independiente de los dem as y que tiene la misma distribuci on que X . Sea Zn el tama no de la poblaci on al tiempo n, entonces Z = {Zn : n 0} es un proceso estoc astico en cual, a cada tiempo, nos da el total de la poblaci on. on de variables aleatorias independientes todas con la misma Sea (Xin , n 0, i 1) un colecci distribuci on que X . Entonces, el proceso Z se puede describir de la siguiente manera, Z0 = 1 y
Zn

Zn+1 =
i=1

Xin , n = 0, 1, . . . ,

(1.5)

donde Xin representa el n umero de descendientes que produce el i- esimo individuo presente en la generaci on n. Una consecuencia de la independencia de la colecci on (Xin ) y (1.5) es que el proceso Z es una cadena de Markov

Proceso de Galton -Watson

En el Cap tulo 4 trataremos este modelo.

1.4.

An alisis de un paso

Una t ecnica muy u til para encontrar el valor de diversos funcionales de una cadena de Markov es el an alisis de un paso, el cual consiste en condicionar a la primera transici on que realiza la cadena y luego iniciar (propiedad de Markov) el proceso. Vamos a ilustrar la t ecnica con algumos ejemplos. 10

Ejemplo 1.4.1 Considere una cadena de Markov matriz de transici on 0 1 0 1 0 1 2 0 0

Xn con espacio de estados E = {0, 1, 2} y 2 0 1

donde , , > 0 y tales que + + = 1. Sea T T{0,2} , encuentre u := P(XT = 0|X0 = 1) y vi := E[T |X0 = i], i = 0, 1, 2. Soluci on: Por la Ley de Probabilidad Total, se tiene u = P(XT = 0|X0 = 1)
2

=
j =0 2

P(XT = 0|X0 = 1, X1 = j )P(X1 = j |X0 = 1) P(XT = 0|X1 = j )p1j ,


j =0

para obtener la u ltima igualdad usamos la propiedad de Markov. Ahora bien, dado que 0 y 2 son estados absorbentes, tenemos P(XT = 0|X1 = 0) = 1, P(XT = 0|X0 = 1) = u y P(XT = 0|X0 = 2) = 0. Entonces, u = + u. Por lo tanto, = . 1 + Ahora veremos como encontrar v . Notemos que v0 = v2 = 0, pues la cadena inicia en la clase absorbente. Por otro lado, si X0 = 1 se requiere de al menos un paso para que la cadena sea absorbida por la clase {0, 2}. Luego, nuevamente por la Ley de Probabilidad Total, obtenemos u= v1 = 1 + 0 + v + 0, es decir, v =
1 . 1

Ejemplo 1.4.2 Un rat on se pone en un laberinto con el que se muestra en la siguiente gura:

0 2 8

1 3 5
11

7 4 6

Al llegar a la casilla 7 encuentra alimento y en la casilla 8 recibe una descarga el ectrica, una vez que llega a estas casillas ah permanece. El rat on tiene se mueve, con igual probabilidad, a las casillas posibles. Encuentre la probabilidad de que el rat on llegue a donde hay alimento, es decir, la probabilidad de que la cadena llegue al estado absorbente 7. La matriz de transici on resulta ser 0 0 0 1 1/3 2 1/3 3 0 4 0 5 0 6 0 7 0 8 0 1 2 1/2 1/2 0 0 0 0 1/4 1/4 0 0 0 0 0 0 0 0 0 0 3 4 5 6 0 0 0 0 1/3 0 0 0 1/3 0 0 0 0 1/4 1/4 0 1/3 0 0 1/3 1/3 0 0 1/3 0 1/2 1/2 0 0 0 0 0 0 0 0 0 7 8 0 0 1/3 0 0 1/3 0 0 1/3 0 0 1/3 0 0 1 0 0 1

Sea ui = ui (7) la probabilidad de que la cadena sea absorbida por 7 dado que inicia en la celda i, es decir, que el rat on encuentre el alimento antes de recibir una descarga el etrica. Es claro que u7 = 1 mientras que u8 = 0. Suponiendo que el rat on inicia en la casilla 0, el siguiente diagrama nos muestra las transiciones puede hacer:

0 0 1 2 0 8

3 7 3

2 4 5

5 6 4 3 5 6

12

3 8

Esquema de transiciones

Luego, utilizando el diagrama anterior, obtenemos que u0 = u1 = u2 = u3 = u4 = u5 = u6 = 1 (u1 + u2 ) 2 1 (u0 + u3 + u7 ) 3 1 (u0 + u3 + u8 ) 3 1 (u1 + u2 + u4 + u5 ) 4 1 (u3 + u6 + u7 ) 3 1 (u3 + u6 + u8 ) 3 1 (u4 + u5 ). 2

Por la simetr a del problema, se tiene que u0 = u6 y u1 = u4 . Por otro lado, dado que las transiciones son uniformes, si el rat on inicia en la casilla 3 entonces u3 = 1/2. Luego, recordando que u7 = 1 y 1 , u1 = 2 y u2 = 13. u8 = 0, obtenemos que u0 = 2 3

13

Cap tulo 2 Caminatas aleatorias simples


2.1. Introducci on

Para iniciar el estudio de caminatas aleatorias conviene recordar la denici on de independencia de una colecci on de variables aleatorias: se dice que (Xn , n 1) es una sucesi on de variables indendientes, si para cada n- eada de enteros (k1 , k2 , , kn ) distintos se cumple que las variables aleatorias Xk1 , Xk2 , , Xkn son indenpendientes. Denici on 2.1.1 Sea (Xn , n 1) una sucesi on de variables aleatorias i.i.d. con distribuci on com un dada por P(X1 = 1) = 1 P(X1 = 1) = 1 q = p. La sucesi on (Sn , n 0), donde Sn = S0 +
i=1 n

Xi ,

es llamada caminata aleatoria simple. En general, S0 puede ser constante o una variable aleatoria, 1 se dice que la caminata inicia en S0 . Si p = q = 2 es llamada caminata aleatoria simple sim etrica. Las caminatas aleatorias son u tiles para modelar varios fen omenos: podemos usarlo para modelar la posici on de una part cula que se mueve en los enteros, a cada paso la part cula puede avanzar o retroceder por un paso con probabilidad p y 1 p, respectivamente. Adem as, la direcci on (izquierda o derecha) es independiente de los pasos anteriores. Asimismo pueden servir para modelar un juego de apuestas donde en cada jugada se pierde o se gana una unidad. Las caminatas aleatorias simples se gr acan en el plano cartesiano con los puntos (n, Sn ) n=0 uniendo los puntos vecinos con lineas rectas con pendiente 1 o -1. A la gr aca resultante se le llama trayectoria o realizaci on, y dado que es trata de una sucesi on de variables aleatorias, para se tiene una trayectoria o realizaci on. La siguente gr aca muestra una realizaci on de una caminata aleatoria que inicia en 0:

14

Ejemplo 2.1.2 Dos jugadores A y B juegan una serie de volados de modo que A le gana 1 peso a B cada vez que la moneda cae aguila (con probababilidad p) o A le paga un peso a B en caso contrario. Supongamos que A inicia con a pesos y B con b pesos. El juego se detiene cuando alguno de los jugadores se queda sin dinero. Cu al es la probababilidad de que A gane el juego? Soluci on: sea Ak = P(A gane el juego dado que inicia con a pesos), notemos que A = 0 y Aa+b = 1. Condicionando en el primer volado obtenemos que Ak = pAk+1 + qAk1 . on denimos Adem as, por idenpendencia podemos obtener que Ak = Ak 1 y para simplicar notaci r = A1 . Entonces, de la ecuaci on anterior se sigue que rk = prk+1 + qrk1 , dividiendo por rk1 se tiene pr2 r + q = 0.
q . En efecto, la soluci on Las soluciones de la ecuaci on anterior est an dadas por r1 = 1 y r2 = p general es 1 1 4pq r = 2p 1 |p q | = , 2p

ya que 1 4pq = (p q )2 . Luego, Ak = c1 (1) + c2


k

q p

Ahora bien, de A0 = 0 y Aa+b = 1 se tiene que c1 = c2 con c2 =


q p

1
a+b

. 1

15

Por lo tanto, Ak =
q p q p q p

1
a+b

+ 1
q p

1
a+b

q p

1
a+b

. 1

2.2.

Propiedades de las caminatas aleatorias simples

Lema 2.2.1 Toda caminata aleatoria simple {Sn , n 0}, con S0 = a, posee las siguientes propiedades: (i) Homogeneidad espacial: P(Sn = j |S0 = a) = P(Sn = j + b|S0 = a + b). (ii) Homogeneidad temporal, para todo n, m Z: P(Sn = j |S0 = a) = P(Sn+m = j |Sm = a). (iii) Propiedad de Markov, para todo n, m Z, P(Sn+m = j |S0 , S1 , , Sn ) = P(Sn+m = j |Sn ). Demostraci on: (i) Veamos el lado izquierdo P(Sn = j, S0 = a) P(Sn = j |S0 = a) = =P P(S0 = a)
n

(2.1)

Xi = j a ,
i=1

note que usamos el hecho P(S0 = a) = 1. An alogamente, el lado derecho satisface


n n

P
i=1

Xi = j a

= P(Sn = j + b, S0 = a + b) = P
i=1

Xi = j + b (a + b) .

16

(ii) Procederemos como en (i). El lado derecho es igual a P S0 + P Xi = j, S0 + m i=1 Xi = a m P (S0 + i=1 Xi = a)
n+m i=m+1 n+m i=1

Xi = j a, S0 + m i=1 Xi = j m P (S0 + i=1 Xi = j ) (independencia)

n+m

= P
i=m+1 n

Xi = j a Xi = j a ,
i=1

= P

la u ltima igualdad es debido al hecho que el vector (X1 , , Xn ) tiene la misma distribuci on que el vector (Xm+1 , Xm+1 , , Xn+m ). Un c alculo similar, pero m as simple, demuestra la igualdad deseada. (iii) Sean s0 , s1 , , sn enteros tales que P(Sn+m = j |S0 = s0 , S1 = s1 , , Sn = sn ) P(S0 = s0 , S1 = s1 , , Sn = sn , Sn+m = sn+m ) = P(S0 = s0 , S1 = s1 , , Sn = sn ) +m P(S0 = s0 , X1 = s1 s0 , X2 = s2 s1 , , Xn = sn sn1 , n i=n+1 Xi = sn+m sn ) = P(S0 = s0 , X1 = s1 s0 , X2 = s2 s1 , , Xn1 = sn1 sn2 , Xn = sn sn1 )
n+m

= P(
i=n+1

Xi = sn+m sn ).

Por otro lado, tenemos que P(Sn+m = sn+m |Sn = sn ) = P(Sn+m = sn+m , Sn = sn ) P(Sn = sn )
n+m

= P(
i=n+1

Xi = sn+m sn ).

En el siguiente resultado calcularemos las probabilidades de transici on para la caminata aleatoria simple. Lema 2.2.2 Para todo a, b Z y n 0, se tiene que P(Sn = b|S0 = a) =
n (n+ba)/2

p(n+ba)/2 q (nb+a)/2

si (n + b a)/2 Z, en otro caso.

17

Demostraci on: Se tiene que, una realizaci on que lleva del punto (0, a) al punto (0, b) en n pasos tiene r pasos hacia arriba (+1) y l pasos hacia abajo (1), donde r, l son tales que l + r = n y r l = b a. Lo anterior es debido a que, Sn = r(+1) + l(1) = b a. Resolviendo las ecuaciones antariores obtenemos que, nb+a n+ba yl= . r= 2 2 Ahora bien, cada realizaci on que lleva de a a b en n pasos tiene probabilidad pr q l , y hay (n+bn a)/2 realizaciones posibles. Por lo que el resultado se sigue. Note que, la prueba del resultado anterior se basa en el conteo de trayectorias, i.e., casos favorables/casos posibles. Esta es una propiedad de muy interesante y que ha llamado la atenci on no s olo de la comunidad probabilista sino que tambi en es explotada en teor a combinatoria, teor a de juegos, entre otras. En lo que sigue procederemos a calcular probabilidades asociadas a la caminata aleatoria simple mediante las herramientas estudiadas hasta el momento. A saber, mediante el uso de esperanza condicional. Denici on 2.2.3 Para cada j Z, el primer tiempo de llegada al estado j se dene por Tj = m n{n 0 : Sn = j }. Proposici on 2.2.4 Para cada j Z, sea hj la probabilidad de que una caminata aleatoria que parte del estado j llegue al estado 0 antes de llegar al estado N , i.e., hj = P(T0 < Tn |S0 = j ). Entonces, q j q N ( p ) q( p ) p = q, 1( p )N hj = 1 1 j p= 2 . N Demostraci on: Condicionando en la primera transici on obtenemos la ecuaci on, hj = phj +1 + qhj 1 , para j {1, 2, , N 1}. Adem as, notemos que h0 = 1 y hN = 0. Reescribiendo la encuaci on anterior se obtiene hn = phn+1 + qhn1 q (hn+1 hn ) = p(hn+1 hn ), n 1. El caso sim etrico: p = q = 1/2. En este caso, se tiene la ecuaci on hn hn1 = hn+1 hn , n 1. Por lo tanto, la recta hn tiene una pendiente constante c := hn+1 hn , en consecuencia
n

(2.2)

hn = 1 +
j =1

(hj hj 1 ) = 1 + nc, 1 n N.

18

Ahora bien, recordando que hN = 1 obtemos que c = 1/N , i.e., hn = 1 n/N . El caso general: p = q . Denamos la sucesi on (xn , n 0) como sigue, x0 R (se determinar a m as adelante) y xn = hn hn1 , para 1 n N . De la ecuaci on en el lado derecho de (2.2) obtenemos q xn , para 1 n N . Por lo tanto, que la sucesi on (xn , n 0) satisface la relaci on xn+1 = p xn+1 = Luego, dado que
n

q p

x0 , 0 n N.

(2.3)

hn = h0 +
j =1

(hj hj 1 ),

la ecuaci on (2.3) implica


n

hn = h0 + x0
j =1

q p

= h0 + x0

q p

1 1

q p q p

(2.4)

Haciendo uso del hecho que, hN = 0 y h0 = 1, obtenemos que q p 1 1 1 1


q p N q p q p n

0 = 1 + x0 de donde se sigue que p x0 = q Finalmente, de (2.4) se concluye que


q p

q p

q p

hn =

q p N

Corolario 2.2.5 Para cada j N se tiene que P(T0 < |S0 = j ) = 1 19


q p j

si q p, si q > p.

Demostraci on: Para cada n, sea An := {T0 < Tn }. Notemos que An An+1 , dado que Tn Tn+1 , para cada n. Adem as, observemos que {T0 < } = n=1 {T0 < Tn }. Por lo tanto, dado que (An ) es una sucesi on creciente, la continuidad de la medida de probababilidad implica l m P(An |S0 = j ) = P(T0 < |S0 = j ).
n

Luego, el resultado se sigue de la proposici on anterior. Sean a, b Z y n N. Sea Nn(a,b) el n umero de trayectorias que van de a a b en n pasos y las trayectorias que unen a y b en n pasos; y que adem as, pasan por 0 al menos una vez.

0 Nn (a,b)

Teorema 2.2.6 (Principio de Reexi on) Para cada a, b N se tiene que


0 Nn (a,b) = Nn(a,b) .

Demostraci on: Haciendo bosquejo podemos ver que cada trayectoria que lleva de (0, a) a (b, n) cruza el eje x por lo menos una vez, sea (k, 0) el punto donde esto ocurre por primera vez.

Reejando el segmento de la trayectoria anterior se obtiene una trayectoria de (0, a) a (b, n) y que pasa por el eje x por lo menos una vez. Luego, haciendo lo mismo en el sentido opuesto obtenemos el resultado.

Lema 2.2.7 Para todo a, b Z, se cumple que Nn(a,b) =


1 (n 2

n . + b a)

20

Veamos el siguiente resultado importante, el cual es una consecuencia del lema anterior. Teorema 2.2.8 (Teorema de las votaciones (Ballot Theorem) Sea b N, entonces el n umero de realizaciones que van de (0, 0) a (n, b) y que no visitan al eje x despu es del primer paso est a dado por b Nn(0,b) . n Demostraci on: Notemos que, las trayectorias que nos interesa contar en el primer paso se encuentran en (1, 1). Por lo tanto, en n umero de trayectorias de inter es est a dado por
0 Nn1(1,b) Nn 1(1,b) = Nn1(1,b) Nn1 (1, b) (n 1)! (n 1)! = nb nb2 n+b2 b ! ! ! n+ ! 2 2 2 2 n+b nb (n 1)! = nb n+b 2 2 ! 2 ! 2 b = Nn(0,b) . n

Veamos ahora porque el resultado anterior se llama Teorema de las votaciones. Sunpongamos que tenemos dos candidatos A y B , y que A obtiene a votos y B obtiene b votos, donde a > b. Cual es la probabilidad de que A tenga la ventaja durante toda la votaci on? Supongamos que Xi = 1 si el i- esimo individuo vota por el candidato A y vale -1 si vota el canditato B . Supongamos que cualquier combinaci on de votos es igualmente probable, i.e., cada + una tiene probabilidad . La trayectoria que deben seguir las votaciones para que A tenga las preferencias durante toda la jornada de votaciones va del punto (0, 0) al punto ( + , ). Por lo tanto, por el Teorema 2.2.8 est a dada por N+ (0, ) + 1
+

. +

El siguiente resultado es una aplicaci on del Principio de Reexi on (Teorema 2.2.6) Teorema 2.2.9 Supongamos que S0 = 0, entonces para todo n 0 se cumple que P(S1 S2 Sn = 0, Sn = b) = |b| P(Sn = b) n (2.5)

Demostraci on: Supongamos que S0 = 0 y Sn = b > 0. Notemos que, S1 S2 Sn = 0 si y s olo si la caminata aleatoria no visita el eje x en el intervalo de tiempo [1, n]. Por lo tanto, por el Teorema 2.2.8 se tiene que el n umero de tales trayectorias es b Nn (0, b) n

21

y por argumentos similares a los del Lema 2.2.2 se sigue que hay (n + b)/2 pasos hacia arriba y (n b)/2 pasos hacia abajo. Por lo tanto, P(S1 S2 Sn = 0, Sn = b) = b Nn (0, b)p(n+b)/2 q (nb)/2 n n b = p(n+b)/2 q (nb)/2 1 n 2 (n + b) b = P(Sn = b|S0 = 0). n

El caso b < 0 es similar, concluyendo as que P(S1 S2 Sn = 0, Sn = b) = |b| P(Sn = b). n

Observaci on 2.2.10 Notemos que, la ecuaci on (2.5) implica P(S1 S2 Sn = 0) = 1 E(|Sn |). n

Ahora vamos a analizar el comportamiento de los m aximos de una caminata aleatoria. Sea Mn := {Sk : 1 n}, n 1, el m aximo de (Sn ) hasta el tiempo n. Tenemos el siguiente Teorema 2.2.11 Supongamos que S0 = 0. Entonces, para cada r 1, se cumple P(Sn = b), si b r, r b P(Mn r, Sn = b) = q P(Sn = 2r b), si b < r. p
r Demostraci on: Supongamos que r 1 y que b < r, pues el caso b r es trivial. Sea Nn (0, b) el n umero de realizaciones que van del (0, 0) a (n, b) y que pasan por el estado r al menos una vez. Sea ir el primer tiempo al cual la caminata visita el estado r, reejando la trayectoria entre ir y n en la recta r se obtiene una trayectoria que va de (0, 0) a (n, 2r b). Ahora bien, a una de estas trayectorias le aplicamos la transformaci on inversa y obtenemos una que va de (0, 0) a (n, b) y que adem as pasa por r. Entonces, se obtiene que r (0, b) = Nn (0, 2r b), Nn

y sabemos que cada una de tales realizaciones tiene probabilidad p(n+b)/2 q (nb)/2 . Por lo tanto,
r P(Mn r, Sn = b) = Nn (0, b)p(n+b)/2 q (nb)/2 rb

= =

q p q p

Nn (0, 2r b)p(n+2r+b)/2 q (n2r+b)/2


rb

P(Sn = 2r b). 22

Una pregunta interesate que podemos hacerno es la siguiente, Cu al es la probabilidad de que (Sn ), S0 = 0, alcance el nivel b por primera vez al tiempo n? Sea fb (n) tal probabilidad. Teorema 2.2.12 Para cada n 1 se cumple que fb (n) = |b| P(Sn = b). n

Demostraci on: Supongamos que b > 0. Notemos que, fb (n) = = = P(Mn1 = Sn1 = b 1, Sn = b) (P(Mn1 = Sn1 = b 1, Sn = b)P(Mn1 = Sn1 = b 1) pP(Mn1 = Sn1 = b 1) p [P(Mn1 b 1, Sn1 = b 1) P(Mn1 b, Sn1 = b 1)] q = p P(Sn1 = b 1) P(Sn1 = b 1) p b = P(Sn = b), n

donde en la pen ultima igualdad usamos el Teorema 2.2.11. El caso b < 0 se obtiene de manera similar.

Ejemplo 2.2.13 Sea (Sn )n0 una caminata aleatoria simple con S0 = 0. Para cada r = 0 denamos Vr como el n umero de visitas al estado r antes de que la cadena regrese a su estado inicial. (i) Demuestre que E(Vr ) = 1. (ii) Dar un criterio para determinar si el n umero de visitas a 0 es nito o innito. Soluci on: (i) Sea An el evento que al tiempo n la caminata visita el estado r y no ha visitado el estado 0 hasta ese instante. Entonces, Vr 1 1An . Por otro lado, se tiene que E(1An ) = P(An ) = P(Sn = r, S1 S2 Sn = 0) = Por lo tanto, E(Vr ) = E(
1

|r| P(Sn = r) fr (n). n

1An ) =
n1

fr (n) = 1.

Vamos a ver demostrar la u ltima igualdad. Note que, fr (n) P(Sn = r, para alg un n) := fr .
n1

Condicionando en el primer salto, i.e., en S1 obtemos la ecuaci on 1 fr = (fb+1 fb1 ), b > 0, 2 23

con condici on inicial f0 = 1. Resolviendo la ecuaci on obtenemos que fb = 1. Lo mismo se puede hacer para el caso b < 0. (ii) Sea R el n umero total de visitas al estado 0. Notemos que, R = n0 1{Sn =0} , entonces E(R) =
n0

P(Sn = 0) =
k 0

2k k k p q . k

(2.6)

Notemos que, pq 1/4 y pq = 1/4 si y s olo si p = 1/2. Luego, usando la identidad de Stirling n+ 1 n n! n 2 e 2 , se tiene que para k sucientemente grande 2k k (2k )2k+1/2 e2k = ( 2 )1 22k+1/2 k 1/2 , 2 (k k+1/2 e2 )2

es decir, el t ermino general en la ser e est a dado por la aproximaci on 2k k k p q ( )1 k 1/2 (4pq )k . k Por lo tanto, la ser e que aparece en (2.6) no es es convergente para p = 1/2 ya que el t ermino 1/2 general es de orden de k . Por otro lado, si p = 1/2, se tiene que 4pq < 1, en consecuencia (2.6) es convergente.

24

2.3.

Ejercicios

1. Sea b un entero negativo. Demuestre que el n umero de realizaciones que van de (0, 0) a (n, b) y que no visitan el eje x despu es del primer paso est a dado por b Nn(0,b) . n 2. Sea {Sn , n 0} la caminata aleatoria simple con S0 = 0, y dena T =: {n 1 : Sn = 0} el primer tiempo de regreso al punto de inicio. Demuestre que P(T = 2n) = 2n 2n 1 2 . 2n 1 n

1 Deduzca de lo anterior que E(T ) < si, y s olo si, < 2 . Sugerencia: recuerde la f ormula 1 n+ 2 n de Stirling, n! n e 2 .

3. Sea {Sn , n 0} la caminata aleatoria simple con S0 = 0, y dena T =: {n 1 : Sn = 0} el primer tiempo de regreso al punto de inicio. Demuestre que P(T = 2n) = 1 2n 2n 2 . 2n 1 n

4. Sea {Sn , n 0} la caminata aleatoria simple sim etrica con S0 = 0 y sea Mn = m axn0 Sn . Demuestre que P(Mn = r) = P(Sn = r) + P(Sn = r + 1), r 0. 5. Sea {Sn , n 0} la caminata aleatoria simple sim etrica con S0 = 0. a) Demuestre que P(S1 S2 S2m = 0) = P(S2m = 0), m 1. b) Sea 2n (2k ) la probabilidad de que la u ltima visita a 0 antes del tiempo 2n ocurri o en el tiempo 2k . Justique que 2n (2k ) = P(S2k = 0)P(S1 S2 S2n2k = 0). c) Pruebe que 2n (2k ) = P(S2k = 0)P(S2n2k = 0). 6. Sea (Sn )n0 un caminata aleatoria tal que p < q y S0 = 0. Denamos a M como el m aximo abosluto de la caminta, es decir, M = supn0 Sn . (a) Argumente la igualdad P(T0 < TN +j |S0 = 0) = P(Tj < TN |S0 = 0). (b) Demuestre que P(M < N |S0 = 0) = P(TN = |S0 = 0) = l m P(TN > Tj |S0 = 0)
j

(c) Concluir que la distribuci on de M dado que S0 = 0 es geom etrica de par ametro p/q .

25

Cap tulo 3 Procesos de Galton-Watson


3.1. Funciones generadoras de probabilidades

Denici on 3.1.1 Dado X = (X1 , X2 , . . . , Xn ) un vector aleatorio discreto con valores en Zn + y funci on de probabilidades conjunta fX (x1 , x2 , . . . , xn ), denimos la funci on generadora de probabilidades del vector X por
Xn 1 X2 GX (s1 , s2 , . . . , sn ) := E sX , |si | 1, i = 1, . . . , n, 1 s2 sn

=
x1 ,x2 ,...,xn

xn 1 x2 sx 1 s2 sn fX (x1 , x2 , . . . , xn )

De la denici on anterior obtenemos que la funci on generadora de probabilidades (f.g.p.) de Xi est a dada por GXi (s) = GX (1, . . . , 1, s, 1, . . . , 1) = E sXi , |s| 1, donde s aparece en la i- esima entrada. Notemos que, en general GX (s) est a bien denida para todo |s| 1. En efecto, |GX (s)| = |
x

sx P(X = x)|
x

|s|x P(X = x)
x

P(X = x) = 1.

Sin embargo, en algunos casos, puede extenderse el rango de denici on de GX . Al n umero R > 0 tal que |GX (s)| < , para todo |s| < R, se le llama radio de convergencia. Ejemplo 3.1.2 (i) Supongamos que X Bin(n, p). Entonces,
n

GX (s) =
k=0 n

sk

n k p (1 p)nk k

=
k=0

n (ps)k (1 p)nk k

= (q + ps)n , q := 1 p.

26

(ii) Si X Poisson(), se tiene

GX (s) = = e (iii) Si X Geo(p), entonces

sk e

k=0 s

k e k! = e(1s)

GX (s) =
x=0

sx p(1 p)x p 1 , |s| < . 1 (1 p)s 1p

= Note que, R =
1 1p

en (iii) y R = en (i) y (ii).

El siguiente resultado nos da luz de c omo podemos usar la funci on generadora de probabilidades. Teorema 3.1.3 Sea X una variable aleatoria no negativa tal que P(X = n) = pn , n = 0, 1, . . . , con funci on generadora de probabilidades G. Entonces, (i) G(s) es diferenciable en todo |s| < 1, y su derivada est a dada por

G ( s) =
n=1

npn sn1 .

Para s = 1, G (1) := l m
s1

npn sn1 nito o innito.


n=1

(ii) Para cada k 1, se tiene que la derivada k - esima est a dada por

G (s) =
n=1

(k)

n! pn snk . (n k )!

(iii) G determina la distribuci on de X , es decir, (pn )0 . Demostraci on: S olo vamos a demostrar parte (iii). Por denici on se tiene que G(0) = P(X = 0) = p0 . Ahora bien, para cada k 1, tenemos que

G (0) = l m
s0 n=1

(k)

n! pn snk = k !pk , (n k )! 1 (k) G (0). k! 27

entonces pk =

Por lo tanto, G determina (pk )k0 . La parte (iii) del teorema anterior nos dice que, para conocer (su distribuci on) a una variable aleatoria es suciente con conocer su f.g.p. Por otro lado, conociendo la distribuci on de una variable aleatoria se determina su f.g.p. Como un corolario del teorema anterior temenos el siguiente resultado. Corolario 3.1.4 Sea X una variable aleatoria con funci on generadora de probabilidades G. Entonces, E(X ) = G (1). M as generalmente, el k - esimo momento factorial, (k) , de X est a dado por (k) := E[X (X 1)(X 2) (X k + 1)] = G(k) (1). En particular, del corolario anterior se sigue que Var(X ) = G(2) (1) + G (1) (G (1))2 (3.1)

El siguiente resultado nos habla de la funci on generadora de probabilidades conjunta cuando hay independencia. Teorema 3.1.5 Suponga que X y Y tienen funci on generadora de probabilidades conjunta G(s, t). Entonces, X y Y son independientes si y s olo si G(s, t) = G(s, 1)G(1, t). Demostraci on: ) Por denici on tenemos que G(s, t) = E(sX tY = E(sX )E(tY ) = G(s, 1)G(1, t), donde la segunda igualdad es por independencia. ) Notemos que, G(s, 1)G(1, t) =
x

sx P(X = x)
y

t y P( Y = y )

=
x y

sx ty P(X = x)P(Y = y ).

Por otro lado, G(s, t) =


x,y

sx ty P(X = x, Y = y ).

Luego, para que se cumpla G(s, t) = G(s, 1)G(1, t) se debe tener que P(X = x, Y = y ) = P(X = x)P(Y = y ), para todo x, y, la u ltima relaci on en justamente la denici on de independencia.

28

Ejemplo 3.1.6 (Continuando con el Ejemplo ??) Una gallina pone X huevos, donde X es Poisson con par ametro . Cada huevo es fecundado con probabilidad p, independientemente de los otros. Sea Y en n umero de huevos fecundados y Z los restantes. Demuestre que Y y Z son independientes. Soluci on: Condicionalmente en X = x, Y Bin(x, p). Entonces, E[sY |X = x] = (ps + q )x . Luego, E(sY tZ ) = E(sY tX Y ) = E E[(s/t)Y tX |X ] = E tX E[(s/t)Y |X ] = E[tX (p(s/t) + q )X ] = E[(ps + qt)X ]. Recordando que X es tiene distribuci on Poisson temenos que E(sY tZ ) = exp{(ps + qt 1)} = exp{p(s 1)} exp{q (t 1)}, usando el teorema anterior obtemos que Y y Z son independientes. Adem as, por unicidad, se observa que Y Poisson(p) y Z Poisson(q ). Vamos a concluir la secci on con un resultado que ser a muy u ltil en lo que sigue. Proposici on 3.1.7 Sean N y (Xi )i1 variables aleatorias, supongamos que N es no negativa y que, para cada i 1 E(sXi ) = G(s), es decir, las Xi s tienen la misma distribuci on. Entonces, Z := de probabilidades GZ (s) = Gn (G(s)). Demostraci on: Condicionando tenemos que, E(sZ ) = = = = E[E(sZ |N )] E[E(sX1 ) E(sXN ] )] E[G(s)N ] GN (G(s)).
N i=1

Xi tiene funci on generadora

29

3.2.

Una breve introducci on a procesos de Galton-Watson

Supongamos que una poblaci on de part culas (mol eculas, virus, etc.) evoluciona de la siguiente manera. La poblaci on inicia al tiempo n = 0 con una part cula, al tiempo n = 1 dicha part cula muere y da oringen a un n umero aleatorio (X ) de part culas id enticas entre si y su progenitora y, a tiempos subsecuentes n = 2, 3, . . . , cada individuo evoluciona de la misma manera (muriendo y ramicandose) produciendo as X part culas cada uno. Supondremos que X tiene funci on de probabilidades fX (k ), k = 0, 1, 2, . Adem as, vamos a suponer que el n umero de part culas que produce cada individuo es independiente de los dem as y que tiene la misma distribuci on que X . Sea Zn el tama no de la poblaci on al tiempo n, entonces Z = {Zn : n 0} es un proceso estoc astico en cual, a cada tiempo, nos da el total de la poblaci on. n on de variables aleatorias independientes todas con funci on de Sea (Xi , n 0, i 1) un colecci probabilidades fX . Entonces, el proceso Z se puede describir de la siguiente manera, Z0 = 1 y
Zn

Zn+1 =
i=1

Xin , n = 0, 1, . . . ,

(3.2)

donde Xin representa el n umero de descendientes que produce el i- esimo individuo presente en la generaci on n. Una consecuencia de la independencia de la colecci on (Xin ) y (3.2) es que el proceso Z es una cadena de Markov a tiempo discreto, ver la Observaci on ?? (i). El proceso Z es llamado 1 proceso de Galton-Watson .

Proceso de Galton -Watson

El proceso de Galton-Watson ha sido fuente de inspiraci on para procesos de ramicaci on mucho m as generales, los cuales conforman un a rea de investigaci on dentro de la teor a de probabilidad y procesos estoc asticos por su riqueza en la variedad de modelos y su interacci on con otras a reas de las matem aticas. A principios del presente cap tulo vimos que la funci on generadora de probabilidades es muy u til cuando se trabaja con variables aleatorias que toman valores en los enteros no negativos, que es caso del proceso de Galton-Watson. Supongamos que X tiene funci on generadora de probabilidades G(s), |s| < 1. Entonces, Gn (s) := E(sZn ).
Francis Galton propuso la pregunta sobre la probabilidad de extinci on de apell dos aristocr aticos en Inglaterra en 1873 y Henry William Watson lo resolvi o; y el 1874 escribieron el paper On the probability of extinction of families.
1

30

Notemos que G1 (s) = G(s). Luego, por identidad (3.2) y la Proposici on 3.1.7 se tiene que para |s| 1 Gn+1 (s) = Gn (G(s)) = G(Gn (s)), para todo n 1, (3.3) es decir, Gn es la convoluci on de G consigo misma n veces. Proposici on 3.2.1 Supongamos que = E(X ) y 2 = Var(X ). Entonces, para cada n 1, E(Zn ) = n , y Var(Zn ) = n 2 , si = 1, 2 n1 n 1 , si = 1. 1

Demostraci on: Sabemos que E(Zn ) = Gn (s)|s=1 . Entonces, de (3.2) y (3.3) se sigue que E(Zn ) = E(Zn1 ) = Gn1 (1), el resultado se sigue por inducci on. Ahora vamos a demostrar la segunda armaci on. Recordando que Var(X ) = G (1) + G (1) [G (1)]2 , se tiene que 2 = G(2) (1) + 2 . Diferenciando dos veces en (3.3) y recordando que G(1) = 1, se obtiene
2 (2) G(2) n (1) = Gn1 (1) + Gn1 (1)G (1). (2)

(3.4)

Luego, el resultado se concluye usando la f ormula (3.1). En efecto, para = 1 se tiene G(2) (1) = 2 , y
2 G(2) n (1) = + Gn1 (1). (2)

Procediendo de manera an aloga obtenemos que


2 G(2) n (1) = n, n 0.

Caso = 1, ver Ejercicio 5. En general, hay muy pocos casos en los que se puede encontrar un expresi on expl cita para Gn . Uno de ellos es el caso en que la ramicaci on sigue una ley geom etrica como lo muestra el siguiente

31

Ejemplo 3.2.2 (Ramicaci on geom etrica) Supongamos que G(s) = q (1 ps)1 (p + q = 1), 1 |s| < p , es decir, P(X = k ) = qpk , k 0. En tal caso se tiene (Ver ejercicio ??) Gn (s) =
n(n1)s , n+1ns q [pn q n ps(pn1 q n1 )] , pn+1 q n+1 ps(pn q n )

p= 1 , 2 1 p = 2.

(3.5)

Una de las preguntas importantes acerca del proceso Z es conocer la probabilidad de extinci on al tiempo n, es decir, conocer P(Zn = 0) = Gn (0) as como tambi en l mn P(Zn = 0). En el presente ejemplo se pueden encontrar de manera expl cita. En efecto, de (3.5) tenemos que P(Zn = 0) = Por lo tanto,
n n , n+1 q (pn q n ) , pn+1 q n+1

p = q, p = q.

l m P(Zn = 0) =

1, p q, q , p > q. p

Observaci on 3.2.3 En el ejemplo anterior sabemos que E(Z1 ) = p/q 1 si y s olo si p q . n Luego, en tal caso, l mn E(Zn ) = 0 ya que E(Zn ) = [E(Z1 )] . Lo cual nos indica que, de alguna manera, Zn tiende a cero cuando n tiene a innito. La propiedad anterior no es propia de caso geom etrico como lo muestra el siguiente Teorema 3.2.4 Se cumple que l mn P(Zn = 0) = existe. M as a un, es la menor ra z no negativa de la ecuaci on G(s) = s, 0 s 1. Demostraci on: Sea n := P(Zn = 0), y sea la menor ra z no negativa de de la ecuaci on G(s) = s, 0 s 1. Vamos a demostrar que n . Consideremos los siguientes casos 1. Si fX (0) = 0, entonces n = Gn (0) = 0 = . 2. Si fX (0) = 1, entonces n = Gn (1) = 1 = . 3. Supongamos que fX (0) + fX (1) = 1 y fX (0)fX (1) = 0. Entonces, n = Gn (0) = 1 P(Zn > 0) = 1 [fX (1)]n 1, cuando n , y en este caso = 1.

32

4. Finalmente, supongamos que 0 < fX (0) < fX (0) + fX (1) < 1. Notemos que {Zn = 0} {Zn+1 = 0}, entonces n = P(Zn = 0) P(Zn+1 = 0) = n+1 . Luego, (n ) es una sucesi on creciente y acotada, y por lo tanto es convergente. Sea := l mn n . Por otro lado, sabemos que Gn+1 (0) = G(Gn (0)), entonces n = G(n ), en consecuencia si hacemos n tender a innito, por continuidad se sigue que = G(). Para concluir la prueba debemos demostrar que = . Notemos que, 1 = G1 (0) = G(0) G( ), y 2 = G2 (0) = G(G(0)) = G(1 ) G( ) = . Procediendo inductivamente obtenemos que n , entonces . Ahora bien, por hip otesis es la menor ra z no negativa de la ecuaci on G(s) = s, 0 s 1. Entonces, . Concluyendo as que = .

Puede demostrarse que = 1 si E(X ) < 1 y < 1 si E(X ) > 1. Si E(X ) = 1, entonces = 1 siempre que Var(X ) > 0, es decir, siempre que X no sea constante con probabilidad 1.

33

3.3.

Ejercicios

1. Sean X y Y variables aleatorias con valores en los enteros no negativos, con funci on de probabilidades conjunta dada por fX,Y (i, j ) = (1 )( )j ij 1 , 0 i j, donde 0 < < 1 y < son par ametros dados. (a) Encuentre la funci on generadora de probabilidades conjunta del vector (X, Y ). (b) Encuentre Cov(X, Y ). 2. Dado 0 < p < 1, considere la funci on f (k ) = (1 p)p|k| , , 2, 1, 0, 1, 2, . 1+p

(a) Verique que f es una funci on de probabilidades de alguna variable aleatoria X . (b) Encuentre la funci on generadora de probabilidades de X . (c) Encuentre la media y la varianza de X . 3. Sean X1 , X2 , variables aleatorias independientes e id enticamente distribuidas todas con distribuci on logar tmica, es decir, P( X = k ) = (1 p)k , k 1, k log(1/p)

donde 0 < p < 1. Suponga que N es independiente de las Xi s y tiene distribuci on de Poisson con par ametro . (a) Demuestre que Y := par ametros?
N i=1

Xi tiene distribuci on binomial negativa. Cu ales son los


(x1)2 2

Sugerencia: recuerde que log(x) = (x 1) (b) Encuentre la esperanza de Y .

(x1)3 3

+ .

4. Sea X una v.a. no-negativa con funci on generadora de probabilidades GX (s) tal que GX (1) < . Demuestre que 1 1 GX (s) G(s) = E(X ) 1 s es la funci on generadora de probabilidades de alguna variable aleatoria Y . Cuando se tiene que G(s) = GX (s)? 5. En la Proposici on 3.2.1 demuestre la relaci on para la varianza en el caso = 1. 6. En Ejemplo 3.2.2, para el caso p = 1 , demuestre que 2 Gn (s) := E(Zn ) = 34 n (n 1)s . n + 1 ns

7. Sea Z := {Zn , n 0} un proceso de Galton-Watson con Z0 = 1, E(Z1 ) = > 0 y Var(Z1 ) > 2 0. Demuestre que E(Zn Zm ) = nm E(Zm ), m n. Luego, encuentre (Zn , Zm ) en t erminos de , donde (X, Y ) denota el coeciente de correlaci on entre X y Y . 8. Sea Z como en el ejercicio anterior y Gn la funci on generadora de probabilidades de Zn . (a) Encuentre una expresi on para Gn cuando la funci on generadora de Z1 est a dada por G1 (s) G(s) = 1 (1 s) , 0 < , < 1. (b)Encuentre P(Z1 = k ), k = 0, 1, . . . . 9. Sea Z un proceso de Galton-Watson donde X (el n umero de descendientes) es tal que P(X = 0) = 2/5 = 1 P(X = 2). Encuentre la probabilidad de extinci on de Z .

35

Bibliograf a
[1] Caballero, M. E.; Rivero, V. M. Uribe Bravo, G.; Velarde, C. Cadenas de Markov. Un enfoque elemental Aportaciones Matem aticas: 29. Sociedad Matem atica Mexicana, M exico, 2004. iv+117 pp. ISBN 970-32-2189-0 [2] Fisher, R. A. The Genetical Theory of Natural Selection. Oxford (Claredon) Press. London and New York. (1962). [3] Karlin, S. and Taylor, H. An introducction to Stochastic Modelling. Boston: Academic Press Inc. (1998). [4] Ross, S. M. Introduction to probability models. Academic Press. 8th Edition. (2003). [5] Stirzaker, D. Elementary probability. Cambridge University Press. (1994).

36

You might also like