You are on page 1of 2

Buen da,

En mi caso estoy en un gimnasio y es frecuente ver personas constantes y otras intermitentes, he


planteado una situacin con informacin subjetiva de la probabilidad, que se puede ajustar
rpidamente con informacin tangible.

Un socio que ha tenido entrenamiento en un ao se observa que es crtico el periodo de seis


meses.

Un socio es contante en 6 meses y el segundo periodo de 6 meses tambin tiene una probabilidad
de 0.8 de continuar un tercer periodo.

Un socio es contante en 6 meses y el segundo periodo de 6 meses no lo fue tiene una probabilidad
de 0.4 de continuar un tercer periodo.

Un socio no fue contante los primeros 6 meses y el segundo periodo de 6 meses lo fue tiene una
probabilidad de 0.6 de continuar un tercer periodo.

Un socio no fue contante los primeros 6 meses y el segundo periodo de 6 meses tampoco lo fue
tiene una probabilidad de 0.2 de continuar un tercer periodo, en este caso es considerado una
resucitacin.

Este proceso claramente no es Markoviano debido a que el que pueda estar un tercer periodo
depende de 2 periodos anteriores.

Para que sea un proceso de Markov se hace una extensin del espacio de estados. Ahora
definimos el proceso estocstico Yn|n>=0 donde Yn es la variable aleatoria que toma valores en
el espacio de estado.

S={0,1,2,3}

Socio que fue primer periodo de 6 meses si, fue segundo periodo de 6 meses si. (+,+)

Socio que fue primer periodo de 6 meses no, fue segundo periodo de 6 meses si. (+,-)

Socio que fue primer periodo de 6 meses si, fue segundo periodo de 6 meses no. (+,-)

Socio que fue primer periodo de 6 meses no, fue segundo periodo de 6 meses no. (-,-)

0.8 0 0.2 0
(0.6 0 0.4 0)
0 0.4 0 0.6
0 0.2 0 0.8

Al principio el estado inicial no est determinado sino que toma valores de acuerdo a una
distribucin de probabilidad, cuando se determina el estado inicial se puede hacer la cadena de
Markov.
Referencias:

Contenido unidad 2, procesos estocsticos, UNADM

Rincn, Luis, Introduccin a los procesos estocsticos, Las prensas de ciencia, (2012).

Hola Luis Gerardo,

Cules seran Xn, S y T. Cuando el proceso no es cadena de Markov?

Xn: Es la variable aleatoria que define los socios que ingresan el tercer semestre.

S={1,2,3,4}: estado en el que el socio asisti al semestre indicado,


1=Socio que fue primer periodo de 6 meses si, fue segundo periodo de 6 meses si, 2=Socio que fue
primer periodo de 6 meses no, fue segundo periodo de 6 meses si, 3=Socio que fue primer periodo de 6
meses si, fue segundo periodo de 6 meses no, 4=Socio que fue primer periodo de 6 meses no, fue
segundo periodo de 6 meses no.

= {1,2,3} semestre en que ingresa el socio al gimnasio. Discreto

Hasta pronto

Como preguntas dejo:

cal es la diferencia entre una cadena de Markov a tiempo discreto y una Markov estacionaria?

Como la probabilidad condicional es igual a la distribucin conjunta de las variables involucradas


entre la distribucin marginal del condicionante

como consecuencia de lo mencionado cmo son las probabilidades condicionales?

una consecuencia inmediata de lo anterior es que las probabilidades condicionales son iguales

You might also like