You are on page 1of 11

CADENAS DE MARKOV

Integrantes:
Ramn Moreno Torres
Irak Lpez Briano
Marco Flavio Ramos Tapia
Ricardo Ocaa Cabrera
Pedro Ismael Cuevas Mora
Jacob Flores Herrera
Definicin:

Una cadena de Markov es una serie de eventos, en la


cual la probabilidad de que ocurra un evento depende
del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. "Recuerdan" el ltimo
evento y esto condiciona las posibilidades de los
eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de
eventos independientes, como tirar una moneda al aire
o un dado.
Procesos Estocticos

Una sucesin de observaciones X1,X2,.. Se denomina proceso


estocstico.
Si los valores de estas observaciones no see puede predecir
exactamente pero se pueden especificar las probabilidades para los
distintos valores posibles en cualquier instante de tiempo
Una cadena de markov es un proceso estocstico en el que si el estado
actual Xn y los estados previos X1,X2,,Xn-1 son conocidos
La probabilidad del estado futuro Xn+1 no depende de los estados
anteriores X1,Xn-1 solamente depende del estado actual Xn
Origen
El anlisis de Markov, llamado as en honor de un
matemtico ruso que desarrollo el mtodo en 1907,
permite encontrar la probabilidad de que un sistema se
encuentre en un estado en particular en un momento
dado.
Ms importante an, permite encontrar el promedio a
la larga o las probabilidades de estado estable para
cada estado. Con esta informacin se puede predecir
el comportamiento del sistema a travs del tiempo.
Probabilidades de transicin

Una forma para describir una cadena de Markov es con un diagrama de


estados, como el que se muestra en la figura 11-2. En sta se ilustra un
sistema
de Markov con cuatro estados posibles: S1; S2, S3 y S4.
La probabilidad condicional o de transicin de moverse de un estado a otro
se indica en el diagrama. Para simplificar la notacin se usan subndices
para el estado actual y el siguiente. Es decir, p14 = P(S4/S1). Las flechas
muestran las trayectorias de transicin que son posibles. Ntese que no
aparecen algunas trayectorias como la de S2 a S3. Su ausencia significa
que esas trayectorias tienen probabilidad de ocurrencia igual que cero.
Otro mtodo para exhibir las probabilidades de transicin es usar una
matriz de transicin. La matriz de transicin para el ejemplo del diagrama
de
estados se muestra en la tabal 11-1. Ntese que, como existen cuatro
estados
posibles, se necesitan 4 x 4 = 16 probabilidades. Tambin ntese que cada
rengln de la matriz suma 1. Esto se debe a que el sistema debe hacer una
transicin.
CALCULO DE LAS
PROBABILIDADES DE TRANSICIN
Considrese la cadena de Markov que se describe en la figura 11-3. Esta
podra representar una copiadora de oficina, poco segura. Si est funcionando
un da, existe un 75% de posibilidades de que al da siguiente
funcione y un 25% de posibilidades de que no funcione. Pero si no est
funcionando, hay 75% de posibilidades de que tampoco funcione al da
siguiente y slo un 25% de que si lo haga (se lleva mucho tiempo la reparaci
n).
Para comenzar un anlisis de transicin, se deben conocer el estado actual.
Supngase que se est comenzando y que hay 75% de posibilidades de estar
en el estado 1 y 25 % de estar en el estado 2. Esto define el estado actual en
forma probabilista. Cul es la probabilidad de estar en el estado 1 al da
siguiente? Si se comienza en el estado 1 hay 75 % de posibilidades de seguir
ah. Si se comienza en el estado 2, slo hay 25 % de cambiar el estado 1. As:
EJEMPLO 2

En los sistemas con ms estados, los clculos se vuelven ms largos, pero


el
procedimiento es el mismo. Considrese el sistema de tres estados que se,
muestra en la figura 11-5. Supngase que el sistema se encuentra en el
estado
S1. En el diagrama puede observarse que para el siguiente ciclo:

You might also like