Professional Documents
Culture Documents
CADENAS DE MARKOV
INVESTIGACIN DE OPERACIONES II
M.C. SHIRLEY MARBELLA ROJAS MINJAREZ
Grupo 552
Gmez Mokay Nely Melina
INDICE
INTRODUCCIN...............................................................................................................2
QU ES UNA CADENA DE MARKOV?..........................................................................3
PROCESOS ESTOCSTICOS.....................................................................................3
CADENAS DE MARKOV...............................................................................................3
EJEMPLO...................................................................................................................4
CADENAS DE MARKOV FINITAS CON PROBABILIDADES DE TRANSICIN
ESTACIONARIAS..........................................................................................................5
MATRIZ DE TRANSICIN.........................................................................................5
EJEMPLO: MATRIZ DE TRANSICIN EN UN SOLO PASO....................................6
EJEMPLO: MATRIZ DE TRANSICIN EN VARIOS PASOS....................................7
OBJETIVO DE LAS CADENAS DE MARKOV..................................................................7
APLICACIONES................................................................................................................8
TIPOS DE CADENAS DE MARKOV...............................................................................10
CADENAS IRREDUCIBLES........................................................................................10
CADENAS POSITIVO-RECURRENTES.....................................................................10
CADENAS REGULARES............................................................................................10
CADENAS ABSORBENTES........................................................................................11
CADENAS DE MRKOV EN TIEMPO CONTINUO....................................................11
CONCLUSIONES............................................................................................................13
REFERENCIAS...............................................................................................................14
INTRODUCCIN
curso.
Desde
que
es,
sus
orgenes,
ejerciendo
como
ingenieros
EJEMPLO
Consideremos que en un locutorio telefnico con 5 lneas de telfono en un instante de
tiempo dado puede haber un nmero cualquiera de lneas ocupadas. Durante un
periodo de tiempo se observan las lneas telefnicas a intervalos de 2 minutos y se
anota el nmero de lneas ocupadas en cada instante.
Sea X1 la v.a. que representa el nmero de lneas ocupadas al principio del periodo.
Sea X2 la v.a. que representa el nmero de lneas ocupadas cuando se observa en el
segundo instante de tiempo, 2 minutos ms tarde.
En general, n = 1, 2,... Xn es una v.a. que representa el nmero de lneas ocupadas
cuando se observan en el instante de tiempo nsimo.
El estado del proceso en cualquier instante de tiempo es el nmero de lneas que estn
siendo utilizadas en ese instante.
Un proceso estocstico como el que acabamos de describir se llama proceso de
parmetro discreto, ya que las lneas se observan en puntos discretos a lo largo del
tiempo.
APLICACIONES
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de
compra,los deudores morosos, para planear las necesidades de personal y para
analizar el reemplazo de equipo. El anlisis de Markov, llamado as en honor de un
matemtico ruso que desarrollo el mtodo en 1907, permite encontrar la probabilidad
de que un sistema se encuentre en un estado en particular en un momento dado. Algo
ms importante an, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta informacin se puede
predecir el comportamiento del sistema a travs del tiempo. La tarea ms difcil es
reconocer cundo puede aplicarse. La caracteristica ms importante que hay que
buscar en la memoria de un evento a otro.
Una aplicacin interesante de procesos de Markov es la industria costera noruega del
petroleo/gas. En Noruega un cuerpo estatal, el Consejo de administracin de Petrleo
noruego, (junto con la compaa de aceite estatal noruega (STATOIL)), tienen un papel
grande en la planeacin de los medios para el desarrollo costero del petroleo/gas.
El problema esencial que el Consejo de la administracin del Petrleo noruego tiene,
es cmo planear la produccin para aumentar al mximo su contribucin en el tiempo a
la economa noruega. Aqu los horizontes de tiempo son muy largos, tpicamente 30 a
50 aos. De importancia crtica es el precio del aceite - todava nosotros no podemos
prever esto, sensiblemente con exactitud, para esta horizonte de planeacin.
Para superar este problema ellos modelan el precio del aceite como un proceso de
Markov con tres niveles de precio (estados), correspondiendo a escenarios optimista,
probable y pesimista. Ellos tambin especifican las probabilidades de hacer una
transicin entre los estados cada periodo de tiempo (ao). Pueden usarse matrices de
transicin diferentes para horixzontes de tiempo diferentes ( matrices diferentes para el
cercano, medio y futuro lejano).
10
11
CADENAS REGULARES
Una cadena de Mrkov se dice regular (tambin primitiva o ergdica) si existe alguna
potencia positiva de la matriz de transicin cuyas entradas sean todas estrictamente
mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transicin de la
cadena se tiene que:
12
donde W es una matriz con todos sus renglones iguales a un mismo vector de
probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En el
caso de cadenas regulares, ste vector invariante es nico.
CADENAS ABSORBENTES
Una cadena de Mrkov con espacio de estados finito se dice absorbente si se cumplen
las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algn estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:
cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad
de Mrkovse expresa de la siguiente manera:
13
tal que
Para una cadena de Mrkov continua con un nmero finito de estados puede definirse
una matriz estocstica dada por:
14
CONCLUSIONES
Las cadenas de proporcionan un sistema muy til para crear e implementar un proceso
de toma de decisiones que sopese posibles escenarios y se utilice para predecir con
mayor exactitud comportamientos futuros. Las MLNs tienen muchas aplicaciones en el
mundo real, destacando su uso en negocios, poltica, finanzas, deportes, salud,
gentica, fsica, economa y un largo etctera.
15
REFERENCIAS
las
Cadenas
Procesos
de
Markov.
Encontrado
en
http://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_M
arkov.htm
decisiones.
Encontrado
en
http://www.bigdatahispano.org/noticias/cadenas-de-markov-para-tomar-mejoresdecisiones/
16