Professional Documents
Culture Documents
Markov
INVESTIGACION OPERATIVA
AÑO : CUARTO
TURNO : NOCTURNO
ALUMNAS :
Ururi Cauna, Anlly 2014-105055
Parra Escobar, Karla 2012-
Cruz Mamani, Jacquelin 2015-105020
Ticona Quispe, Madeleyne 2014-105014
Anahua Paucar, Yeny 2014-105055
TACNA – PERÚ
2017
TRABAJO GRUPAL
UNJBG
Cadenas de Markov UNJBG
Contenido
INTRODUCCION ............................................................................................. 2
ANTECEDENTES ............................................................................................ 3
CONCLUSIONES .......................................................................................... 21
REFERENCIAS ............................................................................................. 22
1
Cadenas de Markov UNJBG
INTRODUCCION
2
Cadenas de Markov UNJBG
ANTECEDENTES
Sin duda el más importante continuador de las ideas sobre probabilidad fue Markov,
sus trabajos son modelos de rigor y claridad en la exposición, y han contribuido en gran
medida a transformar la teoría de la probabilidad en uno de los más perfectos campos de la
matemática y a aumentar la popularidad de los métodos y las ideas de Chebyshev
3
Cadenas de Markov UNJBG
CADENAS DE MARKOV
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones
de compra de los deudores morosos, para planear las necesidades de personal y para
analizar el reemplazo de equipo.
“Los procesos de Markov o Cadena de Markov son procesos estocásticos
que son útiles al estudiar la evolución de ciertos sistemas en ensayos repetidos.
Los ensayos son frecuentemente periodos sucesivos en los que no se puede
determinar certidumbre del estado o resultado del sistema en cualquier lapso o
intervalo de tiempo determinado. Se utilizan probabilidades de transición para
describir la forma en el que el sistema hace transacciones de un periodo al
siguiente. Por ello se habla de la probabilidad de que el sistema se encuentre en
un estado específico en un periodo dado, que se encontraba en un estado en el
periodo anterior.” (Cabanillas, E., 2002)
4
Cadenas de Markov UNJBG
Ejemplo:
La probabilidad de que el día de mañana este nublado, esto depende solo de las
condiciones actuales del clima.
Después de un estudio sobre el clima, hemos visto que si un día está soleado, en el
70% de los casos el día siguiente continua soleado y en el 30% se pone nublado. En términos
de probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad
de que continúe soleado el día siguiente es 7 y la probabilidad de que al día siguiente esté
nublado es 3. También nos fijamos en que si un día está nublado, la probabilidad de que esté
soleado el día siguiente es .6 y la probabilidad de que se ponga nublado es 4.
Pregunta
Hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado? ¿Cuál
es la probabilidad de que está nublado pasado mañana?
Podemos ilustrar esta situación por medio de un diagrama de árbol:
Con la ayuda de la Figura 1 podemos predecir qué ocurrirá mañana si sabemos que
hoy está nublado.
Vemos que la probabilidad de que mañana continúe nublado es .4, es decir, si
hiciéramos esta predicción muchas veces estaríamos en lo correcto cerca del 40% de las
veces. Para conocer la probabilidad de esté nublado pasado mañana buscamos en las hojas
del árbol correspondientes al Tiempo pasado mañana los lugares donde dice nublado. Hay
dos hojas donde esto ocurre. Ahora lo que queda es determinar cómo desde el principio,
desde la raíz del árbol, podemos llegar allí.
Si hoy está nublado, para que pasado mañana esté nublado, podríamos tener un día
de mañana soleado o nublado. Así tenemos las siguientes secuencias en orden de (hoy,
mañana, pasado mañana):
(Nublado, soleado, nublado) o (nublado, nublado, nublado)
5
Cadenas de Markov UNJBG
Movimien
FIGURA 2 Estado to
Generador de
esto generador:
Markov Sj
Evento
generado
E E E E E
7 1 4
6 j
T T T T Tie
T
5
mpo
1 2 3 4
6
Cadenas de Markov UNJBG
Una forma para describir una cadena de Markov es un diagrama de estados, como el
que se muestra en la Figura 2. En esta se ilustra un sistema de Markov con cuatro estados
posibles: S1, S2, S3, S4. La probabilidad condicional o de transición de moverse de un estado
a otro se indica en el diagrama. Para simplificar la notación se utilizan subíndices para el
estado actual y el siguiente es decir P14 = P(S4/S1). Las flechas muestran las trayectorias
de transición que son posibles. En la figura se nota que no aparecen algunas trayectorias
como la de S2 a S3. Su ausencia significa que esas trayectorias tienen probabilidad de
ocurrencia igual que cero.
P
FIGURA 2
Un diagrama de
S 31
P3 S
1 P 1
3
Estados
13
P P P P
12 21 43 34
P
S 24 S
1 1
P4
P
4
Existen muchas situaciones en las cuales es posible
42 aplicar matrices, para esto
consideremos situaciones en la que se separa a la población en dos o más categorías o
estados.
Por ejemplo, podemos separar los ciudadanos de un país de acuerdo a:
Sus ingresos, en las categorías: pobre, ingresos medio o rico.
Las migraciones del campo a la ciudad; o del norte al sur.
7
Cadenas de Markov UNJBG
8
Cadenas de Markov UNJBG
Obsérvese que:
9
Cadenas de Markov UNJBG
1.4 APLICACIÓN A LA
ADMINISTRACION: CAMBIO DE MARCA
10
Cadenas de Markov UNJBG
P(A) + P (B) = 1
La solución de este sistema es:
P(A) = 0.6
P (B)= 0.4
Principio de Markov:
Cuando una probabilidad condicional depende únicamente del suceso
inmediatamente anterior, cumple con el Principio de Markov de Primer Orden, es decir.
12
Cadenas de Markov UNJBG
Ejemplo:
Para calcular:
( 2)
p11 P( X (2) 1 X (0) 1) = p11.p11+ p12.p21+ p13.p31
= 0,2.0,2+0,3.0,3+0,5.0,2 = 0,23
( 2)
p12 P( X (2) 2 X (0) 1) = p11.p12+ p12.p22+ p13.p32
= 0,2.0,3+0,3.0,4+0,5.0,4 = 0,38
( 2)
p13 P( X (2) 3 X (0) 1) = p11.p13+ p12.p23+ p13.p33
= 0,2.0,5+0,3.0,3+0,5.0,4 = 0,39
( 2) ( 2)
( 2)
Luego p11 + p12 + p13 =1
13
Cadenas de Markov UNJBG
Ejemplo 1:
Ejemplo 2:
0.4 0 0.6 0
0 0.3 0 0.7
P
0.6 0 0.4 0
0 0.5 0 0.5
0.52 0 0.48 0
0 0.44 0 0.56
P
2
0.48 0 0.52 0
0 0.40 0 0.60
p 0 1 p 0
0 q 0 1 q
P4
r 0 1 r 0
0 h 0 1 h
Esta matriz repite continuamente este patrón para todas las potencias de P; por
consiguiente no es regular ni tampoco ergódica.
14
Cadenas de Markov UNJBG
4.- Si S(t+1) = S(t) para t K, Entonces se dice que el sistema se estabiliza ó que
los estados son estacionarios ó estables. Esto implica que S = S.P , es decir. El vector de
estado estacionario sigue siendo igual después de la transición t.
Otra forma:
S S .P
Se calcula el siguiente sistema en este caso
S i 1
S 0,6S1 0,8S 2
0,4S1 0,8S 2 0
S 2 0,4 S1 0,2 S 2 y queda
S S 1 S1 S 2 1
1 2
Observación: Las ecuaciones que se obtienen del desarrollo de S =S.P Siempre hay
una ecuación que es combinación lineal de las demás ecuaciones, por lo tanto se omite para
que el sistema quede con n ecuaciones y n variables.
c) Estados Absorbentes:
Es aquel estado que tiene una probabilidad de ser abandonado igual a cero, es decir.
Una vez en él es imposible dejarlo. Esto quiere decir:
Si i es un estado absorbente si se cumple que pij =0 si i j y pii =1.
15
Cadenas de Markov UNJBG
16
Cadenas de Markov UNJBG
17
Cadenas de Markov UNJBG
El ejemplo más común es aquél en que ninguna empresa obtiene toda la clientela
o sea que en un total de tres empresas, ni una ni dos de ellas se apoderan de todo el
mercado. Hay cierta condición final de equilibrio que se desarrolla y continua basándose
en una matriz estable de probabilidades de transición.
En casi todos los problemas de Markov, ordinariamente las pérdidas y ganancias son
de gran magnitud en los primeros periodos (Thierauff, 1991).
A
BA .C5 .3 .1 Retención y ganancia
B .2 .6 .2
C
Retención y pérdida
.3 .1 .7
18
Cadenas de Markov UNJBG
A
A .7 .3 .1
B
B .C1 .6 .2
C
.2 .1 .7
A
A
B .5C .35 .2
B .2 .6 .1
C
.3 .0.5 .7
19
Cadenas de Markov UNJBG
20
Cadenas de Markov UNJBG
CONCLUSIONES
21
Cadenas de Markov UNJBG
REFERENCIAS
FINITE MARKOV CHAINS, Kemeny and Snell, Edit. D.Van Nostrand Company Inc.
Recuperado de http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-
en-el-157.html
http://ingindustrialio2.-:blogspot.mx/2011/06/cadenas-de-markov
http://investigacindeoperaciones.html
22