Integrantes: Ramn Moreno Torres Irak Lpez Briano Marco Flavio Ramos Tapia Ricardo Ocaa Cabrera Pedro Ismael Cuevas Mora Jacob Flores Herrera Definicin:
Una cadena de Markov es una serie de eventos, en la
cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. Procesos Estocticos
Una sucesin de observaciones X1,X2,.. Se denomina proceso
estocstico. Si los valores de estas observaciones no see puede predecir exactamente pero se pueden especificar las probabilidades para los distintos valores posibles en cualquier instante de tiempo Una cadena de markov es un proceso estocstico en el que si el estado actual Xn y los estados previos X1,X2,,Xn-1 son conocidos La probabilidad del estado futuro Xn+1 no depende de los estados anteriores X1,Xn-1 solamente depende del estado actual Xn Origen El anlisis de Markov, llamado as en honor de un matemtico ruso que desarrollo el mtodo en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Ms importante an, permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta informacin se puede predecir el comportamiento del sistema a travs del tiempo. Probabilidades de transicin
Una forma para describir una cadena de Markov es con un diagrama de
estados, como el que se muestra en la figura 11-2. En sta se ilustra un sistema de Markov con cuatro estados posibles: S1; S2, S3 y S4. La probabilidad condicional o de transicin de moverse de un estado a otro se indica en el diagrama. Para simplificar la notacin se usan subndices para el estado actual y el siguiente. Es decir, p14 = P(S4/S1). Las flechas muestran las trayectorias de transicin que son posibles. Ntese que no aparecen algunas trayectorias como la de S2 a S3. Su ausencia significa que esas trayectorias tienen probabilidad de ocurrencia igual que cero. Otro mtodo para exhibir las probabilidades de transicin es usar una matriz de transicin. La matriz de transicin para el ejemplo del diagrama de estados se muestra en la tabal 11-1. Ntese que, como existen cuatro estados posibles, se necesitan 4 x 4 = 16 probabilidades. Tambin ntese que cada rengln de la matriz suma 1. Esto se debe a que el sistema debe hacer una transicin. CALCULO DE LAS PROBABILIDADES DE TRANSICIN Considrese la cadena de Markov que se describe en la figura 11-3. Esta podra representar una copiadora de oficina, poco segura. Si est funcionando un da, existe un 75% de posibilidades de que al da siguiente funcione y un 25% de posibilidades de que no funcione. Pero si no est funcionando, hay 75% de posibilidades de que tampoco funcione al da siguiente y slo un 25% de que si lo haga (se lleva mucho tiempo la reparaci n). Para comenzar un anlisis de transicin, se deben conocer el estado actual. Supngase que se est comenzando y que hay 75% de posibilidades de estar en el estado 1 y 25 % de estar en el estado 2. Esto define el estado actual en forma probabilista. Cul es la probabilidad de estar en el estado 1 al da siguiente? Si se comienza en el estado 1 hay 75 % de posibilidades de seguir ah. Si se comienza en el estado 2, slo hay 25 % de cambiar el estado 1. As: EJEMPLO 2
En los sistemas con ms estados, los clculos se vuelven ms largos, pero
el procedimiento es el mismo. Considrese el sistema de tres estados que se, muestra en la figura 11-5. Supngase que el sistema se encuentra en el estado S1. En el diagrama puede observarse que para el siguiente ciclo: