You are on page 1of 2

UNIVERSIDAD NACIONAL DE SAN AGUSTIN, ESCUELA PROFESIONAL DE INGENIERIA EN TELECOMUNICACIONES

Cadenas de Markov.
Ishbara D. Vizcarra Minaya CUI: 20121035 SOFTWARE Y LENGUAJE DE MODELADO DE
COMUNICACIONES.

Resumen El objetivo de este documento es


instruir al lector acerca de cadenas de
MARKOV citando ejemplos y a la vez conocer
los tipos que frecuentemente se observan.
Los procesos de Markov(o cadenas de Markov)
se utilizan para la modelizacin de un fenmeno
en el que el cambio con el tiempo de una
variable aleatoria comprenden una secuencia de
valores en el futuro.

A. CADENAS IRREDUCIBLES.

Son aquellas que en las que todos los estados


son alcanzables desde cualquier otro estado de
la cadena en un numero finito de pasos, esto
quiere decir que se puede llegar a cualquier
estado desde otro estado para un numero
entero N.
EJEMPLO

Abstract futuro The aim of this document is


instruct the reader about chains MARKOV citing
examples and at a time to know the types that
frequently observed.
Processes ARKOV (chains Markov) are used to
the modeling of the phenomenon in wich the
change over time of a random variable include a
sequence of values in the future.
I.

INTRODUCCIN

Una
cadena
de
Markov
describe
el
comportamiento de transicin de un sistema en
intervalos de tiempo igualmente espaciados. Sin
embargo, existen situaciones donde los
espaciamientos temporales dependen de las
caractersticas del sistema y por ello, pueden no ser
iguales entre s.
Una cadena de Markov es un proceso estocstico
en el que si el estado actual Xn y los estados
previos(X1,......,Xn1)son
conocidos
la
probabilidad del estado futuro Xn+1 No depende
de los estados anteriores X1,.., Xn1, solamente
depende del estado actual Xn.

Una cadena es irreducible cuando sus estados


son accesibles entre si y por tanto se
comunican y existe una nica clase de datos
como en la figura.
B. CADENAS ERGODICAS

Una cadena ergdica describe de forma


matemtica un proceso en el cual es posible
avanzar desde un estado hasta cualquier otro
estado, no es necesario que esto se d en un
slo paso, pero debe ser posible para que
cualquier
resultado
sea
logrado
independientemente del estado presente, los
estados son ergodicos son recurrentes, no nulos
y aperidicos.
EJEMPLO

II.
CLASIFICACIN DE CADENAS
En esta seccin se definirn las propiedades de
cadenas dentro de MARKOV, dentro de estas
tenemos:
A. CADENAS IRREDUCIBLES
B. CADENAS ERGODICAS
C. CADENAS INFINITAS
D. CADENAS PERIDICAS

SOFTWARE Y LENGUAJE DE MODELADO DE COMUNICACIONES

UNIVERSIDAD NACIONAL DE SAN AGUSTIN, ESCUELA PROFESIONAL DE INGENIERIA EN TELECOMUNICACIONES

Tomando un estado iconstruimos un conjunto


cerrado Ci con todos los alanzables desde el en una o
mas etapas:

La CM no ser irreducible, ya que Ca es un conjunto


separado de S
C.

CADENAS INFINITAS

Se considera una cadena infinita es parte de un


proceso continuo de manera indefinida. Se
comprende como parte de una visita a un estado j
como la etapa o momento en el que la cadena se
encuentra en el mismo estado j, y se denota por
Nj el nmero de visitas que se hacen al estado j
en el proceso.
D. CADENAS PERIODICAS

Se considera una cadena peridica si existe un


estado j es peridico con periodo
y otro estado i se comunica con el , entonces el
estado i tambin es peridico con el mismo
periodo.
Entonces el periodo es una caracterstica del
conjunto irreducible y cerrado.
EJEMPLO
En una carrera que dura 3 aos, una persona tiene
cada ao una probabilidad p de pasar al siguiente
curso, una probabilidad q de repetir curso y una
probabilidad 1 p q de abandonar los estudios.
Consideramos, as el espacio de estados E = {1, 2,
3,A, T} donde A es abandonar, y T es terminar los
estudios.

III.

[1]
[2]

[3]
[4]
[5]

SOFTWARE Y LENGUAJE DE MODELADO DE COMUNICACIONES

CONCLUSIONES.

Es una mezcla de principios algebraicos y


estadsticos para analizar procesos
estocsticos
Las cadenas de markov se utilizan para
hallar la probabilidad de un evento luego
de que ocurra un evento inmediato
Recuerdan el ltimo evento y esto
condiciona las posibilidades de los eventos
futuros
Las cadenas de Markov nos permiten hacer
anlisis sobre el estudio de los
comportamientos de ciertos sistemas en
ciertos periodos que pueden ser cortos o
largos
Tiene
mucha
relacin
con
las
probabilidades absolutas
Es posible aplicar este principio a campos
muy diversos como meteorologa,
astrologa, biologa, etc.
IV.
BIBLIOGRAFIA
(Elements Of The Theory of Markov
Processes And Their Applications. )
( INTRODUCCIN A LAS CADENAS DE
MARKOV
Investigacin de operaciones, 5 edicin,
Editorial taha, pp. 822-826 )
(http://tem-ing.blogspot.pe/p/cadenas-demarkov_02.html)
(http://halweb.uc3m.es/esp/Personal/perso
nas/jmmarin/esp/PEst/tema4pe.pdf)
(http://operativa7107.awardspace.com/ap
untes/MarkovParte2a.pdf)

You might also like