You are on page 1of 4

CADENAS DE MARKOV

Darwin Paul Cruz Merma - Unversidad

Nacional de

San

Agustin, Peru
Abstract .- Antiguamente, nadie
sabia
como se manejaba las cosas y solo nos
dedicamos en vivir y no recordar lo que
soliamos
hacer
en el pasado como
eventos,estados ,situaciones ,etc.Pues nos
dimos cuenta de que dependemos de
nuestro pasado asi es como se origina las
Cadenas de Markov que un evento no
puede ser independiente y que depende
de lo que se hizo el ayer.En este informe se
mencionara
los
conceptos
,ventajas
,caracteristicas y aplicaciones de este tema
de la comunicacion que es muy importante
en las telecomunicaciones que ayuda a
verificar los estados del trafico en las
redes de comunicaciones.

La propiedad de Markov es el estado


del proceso en un momento dado (X n),
su comportamiento futuro (X n+1)
depende del pasado (Xn-1). Es decir
dado el presente, el futuro es
independiente del pasado.

P Xn+1=Xn+

Los estados de una cadena de Markov


pueden ser:

Palabras relacionadas: matriz de transicin,


proceso estocstico, ergodico.

I.
INTRODUCCION
Un proceso de
eventos que se
desarrolla en el tiempo contiene algn
elemento aleatorio o al azar se
denomina proceso estocstico. El caso
ms simple de un proceso estocstico
en que los resultados dependen de
otros, ocurre cuando el resultado en
cada etapa slo depende del resultado
de la etapa anterior y no de cualquiera
de los resultados previos
Una cadena de Markov es un proceso
estocstico que viene con una serie de
eventos, en la cual la probabilidad de
que ocurra un evento depende del
evento inmediato anterior. En resumen,
las cadenas de este tipo tienen
memoria y recuerdan el ltimo evento y
esto condiciona las posibilidades de los
eventos futuros.
II.

PROPIEDADES Y ESTADOS DE
MARKOV

1
=Xn , Xn1= Xn1, X 2=x 2, X 1=
Xn

III.

Transitorios: Es transitorio
despus de haber entrado a
este estado, el proceso no
regresara a l.
Recurrentes: Un estado es
recurrente si despus de haber
entrado a este estado el
proceso definitivamente
regresara a ese estado. Por
defecto, un estado debe ser
recurrente si y solo si no es
transitorio.
Absorbentes: Pueden ser
absorbentes si despus de
haber estado en el proceso
nunca saldr de ese estado.
Entonces, el estado i es un
estado absorbente si y solo si
Pij=1.

MATRIZ DE TRANSICION

Una matriz de transicin para


una
cadena de markov de M estados es
una matriz de M*M
con todos los
registros no negativos y con la
propiedad adicional de que la suma de
los registros de cada fila es 1.

La suma de las responsabilidades de


los estados debe ser igual a 1, Debe
ser cuadrada y las probabilidades de
transicin deben estar entre 0 y 1.
Una matriz de transicin T se dice que
es regular si para algn elemento
positivo de k la matriz Tk no tiene
elementos iguales a cero. Adems debe
tener comunicacin directa con los
dems estados.

La siguiente aplicacin se fue


basada en salud fue en Cuba
donde se hace el servicio de
tiempo de permanencia
de
pacientes
intervenidos
quirrgicamente.

Si los estados de una cadena son


recurrentes, aperidicos y se comunican
entre s, se dice que la matriz es
ergdica.

Figura 2. Esquema de la aplicacin de


un centro de salud en cuba.[fuente:
www.academia.edu]

V.

Figura1 .Esquema de una matriz de


transicin [fuente: Khanacademy.org]
IV.

APLICACIONES

Una aplicacin interesante de


procesos de Markov que yo
conozco es la industria de
noruega del petrleo/gas. Donde
se planear la produccin para
aumentar
al
mximo
su
contribucin en el tiempo a la
economa noruega. Aqu los
horizontes de tiempo son muy
largos, tpicamente 30 a 50
aos.

Otra aplicacin es
la base
desarrollos hechos en Modelos
Ocultos de Markov para plantear
y aplicar un modelo de deteccin
de intrusos a partir del anlisis
de
trfico
en
redes
de
telecomunicaciones IP.
IMPORTANCIA
DE
LAS
CADENAS DE MARKOV EN
OTROS AMBITOS

En el mundo de los
negocios, las
cadenas de Markov se utilizan para
revisar los patrones de compra y venta,
los
morosos,
planeamiento
las
necesidades de personal y para analizar
el repuesto de equipo. Mucho ms
importante an, es que nos permite
encontrar promedios a la larga o las
probabilidades de estado equilibrado
para cada estado. Teniendo esta
informacin se puede predecir el
comportamiento del sistema a travs
del tiempo. La tarea ms difcil es
reconocer cundo puede aplicarse.

VI.

VII.

CONCLUSIONES
Llegamos a la conclusin que
las cadenas de markov son muy
importantes en el campo de las
Telecomunicaciones
ya que
ayuda a recuperar los eventos
del pasado.
Tambin se concluye que es un
modelo muy simplificado que
toma un proceso muy difcil y
complejo.
Finalmente
para
cualquier
problema
para
obtener un
diagrama
de
transicin
de
estado y que usa el enfoque
hace que se pueda analizarse.
REFERENCIAS
Y
BIBLIOGRAFIA

[1] Investigacin de
Operaciones
9Edicion Hamdy A. Taha - Pearson
2012
[2]http://www.bdigital.unal.edu.co/2409/
1/299726.2009.pdf
[3]https://es.khanacademy.org/computi
ng/computerscience/informationtheory/
moderninfotheory/p/markov-chainexploration
[4]https://www.academia.edu/5165509/
APLICACI
%C3%93N_DE_LAS_CADENAS_DE_MARK
OV_A_LOS_PROCESOS_DE_SERVICIOS_H
OSPITALARIOS_PARA_LA_TOMA_DE_DECI
SIONES_EN_LA_ADMINISTRACI
%C3%93N_DE_LA_SALUD
[5]https://www.youtube.com/watch?
v=uobVYajElqE

You might also like