Professional Documents
Culture Documents
INVESTIGACION:
CADENA DE MARKOV
GRUPO: “ B” GRADO: “ 7 “
OBJETIVOS..............................................................................................2
MARCO TEORICO.....................................................................................3
LA CONDICION DE MARKOV.....................................................................6
PROBABILIDADES DE TRANSICIÓN:..........................................................6
CLASIFICACIÓN DE LOS ESTADOS.............................................................9
COMPORTAMIENTO A LARGO PLAZO DE UNA CADENA REGULAR..............11
CADENAS ERGÓDICAS...........................................................................13
LÍMITES ERGÓDICOS EN LAS CADENAS DE MARKOV................................13
CLASIFICACIÓN DE LOS ESTADOS:..........................................................16
CONCLUSION........................................................................................16
OBJETIVOS
GENERAL:
ING. MANUEL DE JESUS MOLAS VAZQUEZ
2
Aplicar la teoría fundamental de cadenas de Markov para determinar el
ESPECIFICOS:
MARCO TEORICO
1. PROCESOS MARKOV
probabilidad pij
transferencia.
que demora hacer una parte. El tiempo para la falla, es el tiempo que ocurre
Se modela para una maquina y así tener una idea básica de la cadena de
Wi, donde:
1 máquina disponible
0 máquina en reparación
Wi =
0 1
S=(n,W1,W2),
Donde :
Sm. Entonces el sistema puede estar solo en uno de estos estados en algún
en el estado Si en el tiempo k.
LA CONDICION DE MARKOV
PROBABILIDADES DE TRANSICIÓN:
como:
0<=pij<=1
exhaustivos.
ejemplo,
P[Sj(k+1)]=P[S1(k)p1j+P[S2(k)]p2j+......+P[Sm(k)]pmj,
tiempo k+1.
obtener:
(P[S1(k+1)] P[S2(k+1)]……….P[Sm(k+1)])
O de la siguiente forma:
P(1) = P(0)P
P(2)= P(1)P= P(0)P2
. . .
. . .
P(k) = P(0)Pk
k=0,1,2......
0.
5
0. 1 2 0.
5 6
0.
4
0.5 0.5
P=
0.4 0.6
entonces :
P(k) = P(0)Pk
ejemplo:
4/9 5/9
Pk=
4/9 5/9
Con k tendiendo al infinito.
puede ser vista con el rotulo de P(0)=(1 0). Entonces P k=[4/9 5/9] con k
tendiendo al infinito sigue siendo igual. Así, los limites de las probabilidades
ergódicos.
condición inicial.
Limkinfinito P(k)= π
Σ i
m
π i =1 para obtener (π 1 π 2 )
Estado transitorio
retornar a él.
Estado absorbente
Cadena recurrente
cadena recurrente
previa:
es estrictamente positiva.
entonces existe una única distribución de probabilidad Xc tal que TXc=Xc. Si,
sería infinito para todas las coordenadas y si λ <1, Lim ninfinito X(n) seria cero
para todas las coordenadas. En ninguno de los dos últimos casos X c es una
Por lo tanto la matriz del estado estacionario L, debe tener todas las columnas
iguales a Xc.
Condición suficiente: si existe un n>0 tal que Pijn >0, i, j=0,1,2....m. la cadena de
Markov, con esta propiedad, se llama ergódica. Entonces, Pijn = Σ k=0 (Pikn *
Teorema. Para una cadena de Markov ergódica, π j =Lim ninfinito Pijn existe y π j (j
problema es encontrar las condiciones para que este límite exista y en caso de
inicial.
1
Lim ninfinito Piin = Σ inf
n=1 n fiin
comienza en el estado i.
ING. MANUEL DE JESUS MOLAS VAZQUEZ
13
Y además
es Pij(inf) =Lim ninfinito Pijn , pero como Pij(inf) = Pii(inf) se concluye que la
aperiódica.
• Supongamos que Lim ninfinito Piin = π i >0 para algún i en una clase
fuertemente ergódica.
• El valor Σ inf
n=1 n fiin = mi. se define como el tiempo medio de recurrencia
. . . . . .
. . . . . . = .
. . . . . .
P0i P1i P2i … π i π i
. . . . . .
. . . . . .
matriz de Markov tiene un autovalor igual a 1, más aún, este valor será
CONCLUSION
las cadenas de Markov no deben abordase de una forma simple, ellas tienen