Professional Documents
Culture Documents
LA EDUCACIN
UNIVERSIDAD NACIONAL JOS FAUSTINO SNCHEZ CARRIN
MODELO DE MARKOV
INTRODUCCIN
OBJETIVOS
OBJETIVO GENERAL
OBJETIVOS ESPECFICOS
CADENA DE MARKOV
Las cadenas de Markov son unas herramientas para analizar el comportamiento y el gobierno
de determinados tipos de procesos estocsticos, esto es, procesos que evolucionan de forma
no deterministicas a lo largo del tiempo en torno a un conjunto de estados.
Una cadena de Markov, por lo tanto, representa un sistema de varia su estado a lo largo del
tiempo, siendo cada cambio una transicin del sistema. Dichos cambios no estn
predeterminado, aunque si lo esta la probabilidad del prximo estado en funcin de los
estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogneo en
el tiempo). Eventualmente, en una transicin, el nuevo estado puede ser el mismo que el
anterior y es posible que exista la posibilidad de influir en las probabilidades de transicin
actuando adecuadamente sobre el sistema (decisin). (EPPEN, GOULD & SCHMIDT; 2000)
Reciben su nombre del matemtico ruso Andrei Andreevitch Markov (1856-1922), que las
introdujo en 1907.
Puschkin, llamada Eugene Onieguin, y dedujo que las letras del alfabeto cirlico, como las
de cualquier otro alfabeto, iban apareciendo relacionadas con las que las precedan en la
escritura.
La nueva letra est determinada por la anterior, pero es independiente de la manera en la que
aparece respecto de las anteriores.
Markov es recordado por su estudio de cadenas secuenciales, que consisten en variables al
azar, en las que la variable futura es predeterminada por la preexistente, pero independiente de
la manera que sta se gener de sus precursores. Es decir, se trata de un sistema que sufre a lo
largo del tiempo cambios de estado o transiciones aleatorias y las probabilidades que
describen la forma en que el proceso evolucionar en el futuro, son independientes de los
eventos ocurridos en el pasado. El sistema no est desprovisto de memoria en su totalidad,
slo guarda informacin del recuerdo ms reciente de su pasado. Es muy importante comentar
que su estudio no estuvo basado en un simple anlisis estadstico, sino que intent aplicarlo a
la generacin de textos literarios.
Las cadenas de Markov se han aplicado en reas diversas, como educacin, comercializacin,
servicios de salud, finanzas, contabilidad y produccin, tras los aportes de Norbert Wiener
(1923) y Andrei Kolmogorov (1930).
Modelo de Markov
Una modelo de Markov por el nombre de Andrey Markov, es un sistema matemtico que
sufre transiciones de un estado a otro, entre un nmero finito o numerable de estados posibles.
Se trata de un proceso aleatorio generalmente caracterizado como sin memoria: el siguiente
estado depende slo del
secuencia de acontecimientos que la precedieron.
La probabilidad de transicion esta definida asi:
estado actual y no en la
Ejemplo:
Sea Xt la familia de estados del clima, donde X1,X2,,Xn representaran los estados del
clima en el da 1, da 2 hasta el da n.
Propiedad de Markov: Se dice que un proceso cumple la propiedad de Markov cuando toda
la historia pasada del proceso se puede resumir en la posicin actual que ocupa el proceso
para poder calcular la probabilidad de cambiar a otro estado, es decir, se cumple la propiedad
siguiente:
Para qu se utiliza?
Una de las principales utilidades que tiene el modelo de Markov es establecer las
posibilidades de cualquier evento futuro conociendo los eventos pasados. Esto puede y afecta
las decisiones que podramos tomar basndonos en la incertidumbre que provocan poseer
varios eventos futuros y todos tienen su grado de probabilidad de que sucedan.
Otro de los factores que altera la toma de decisiones es cuando estos posibles eventos futuros
se ven alterados con el paso del tiempo, para evitar este acontecimiento existe este modelo el
cual tiene la propiedad particular de que las probabilidades que describen la forma en que el
proceso evolucionara en el futuro solo dependern del estado actual en que se encuentra el
proceso y por lo tanto son independientes de los eventos ocurridos en el pasado.
Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de
eventos independientes, como tirar una moneda al aire o un dado.
QU TIPO ES?
El Modelo de Markov es un tipo de modelo probabilstico que se usa para predecir
la evolucin y el comportamiento a corto y a largo plazo de determinados sistemas.
Matriz De Transicin:
Una matriz de transicin para una cadena de Markov de n estado es una matriz de n X n con
todos los registros no negativos y con la propiedad adicional de que la suma de los registros
de cada columna (o fila) es 1. (EPPEN, GOULD & SCHMIDT; 2000)
Por ejemplo: las siguientes son matrices de transicin.
Procesos estocsticos
Una sucesin de observaciones X1, X2, . . se denomina proceso estocstico
Si los valores de estas observaciones no se pueden predecir exactamente.
Pero se pueden especicar las probabilidades para los distintos valores posibles en
cualquier instante de tiempo.
x 1 : v . a que define el estadoinicial del proceso
x n : v . a que define el estado del proceso en el instante deltiempo n
Para cada posible valor del estado inicial s1 y para cada uno de los sucesivos valores sn de los
estados Xn, n = 2, 3, . . ., Especicamos:
P( x n+1=s n+1x 1=s1 , x 2=s 2,, x n =s n)
FINITAS: Caracterizadas por que la ocurrencia de los eventos terminan en los estados
absorbentes.
Suelen ocurrir despus de un estado de procesos
Ejm: en la venta de manzanas, las manzanas terminan siendo vendidas o se pierden por
pudricin.
2.
3.
ESTADOS ABSORBENTES:
Un estado se llama absorbente si pik =1, es decir, si una vez que el estado llega a k,
permanece ah para siempre.
n estados .
=1
: S (1) = S (0) P
S (2) = S (1) P = S (0) P2
: S = SP
1. MTODO RECURSIVO
Para el desarrollo de este mtodo se tiene que tener en cuenta que debemos empezar el ensayo
con un estado inicial conocido, es decir que en el tiempo inicial sea da, mes u otro se
considere un estado que estamos pasando.
Ejm: que hoy nos encontremos en un da soleado, el estado inicial es conocido.
Se debe considerar esta frmula:
S (1) = S (0) P
S (2) = S (1) P
Esto indica que la probabilidad de encontrarnos en un estado en el tiempo 1, depende de cmo
nos encontremos en el estado inicial, a la cual tenemos que multiplicar por nuestra matriz de
transicin y as sucesivamente.
S0 = [ 10 0 ]
S1 =
p 11
p 12
p 13
[ 10 0 ] p 21 p 22 p 23 =[ p 11 p 12 p 13 ]
p 31
p 32
p 11
S2 = [ p 11 p 12 p 13 ] p 21
p31
p 33
p12
p22
p32
p13
p23 =[ x
p33
z]
2. MATRIZ ESTACIONARIA
Para este caso solo se considera la matriz estacionaria y se trabaja con la definicin de que la
probabilidad de encontrarse en un estado final tienden a estabilizarse con respecto a los
sucesos anteriores.
S S .P
Si 1
[S1
S2 S 3 ] = [ S 1 S 2 S 3 ]
Para dar solucin al sistema de ecuacin, depende que mtodo utiliza el analista.
3. rbol Markoviano
Para utilizar este mtodo se tiene que tener en consideracin un estado inicial, despus aplicar
el rbol de probabilidades.
Se detallara un ejemplo para mayor comprensin.
La probabilidad de que pasado maana est nublado si sabemos que hoy est nublado
corresponde entonces a encontrar P(X3 = n | X1 = n).
Para calcular esta probabilidad examinamos los posibles estados del da de maana y las
formas de cmo llegar a X3 = n (nublado), vemos esto en el siguiente rbol donde s (soleado):
As la probabilidad que nos interesa se puede calcular como hicimos antes, usando la frmula
de probabilidad total:
P(X3 = n | X1 = n) = (.6 X .3) + (.4 X .4) = 0.34
En trminos de nuestra notacin esto es igual a
= (p21 p12) + (p22 p22)
= P(X2 = s | X1 = n) P(X3 = n | X2 = s) + P(X2 = n | X1 = n) P(X3 = n | X2 = n).
Paso 2: se coloca smbolos a las matrices formadas despus de separarlos por una lnea
vertical y horizontal.
NF= F.L
Como se consider cantidades iniciales en los estados de proceso, solo queda multiplicar eso
por la nueva matriz fundamental y de ese modo resulta nuestras cantidades deseadas.
RESOLUCION:
a) Matriz de transicin.
E1
E2
E3
CLARO
ENTEL
MOVISTAR
CLARO
0.6
0.3
0.3
ENTEL
0.2
0.5
0.3
MOVISTAR
0.2
0.2
0.4
La suma de las probabilidades de cada estado en este caso operador deben ser iguales a 1
estado inicial
MATRIZ ESTACIONARIA
Conforme seguimos con el proceso de Markov, encontramos que la probabilidad de que el
sistema est en un estado de particular despus de un gran nmero de periodos es
independiente del estado inicial del sistema. Las probabilidades a las cuales nos acercamos
despus de un gran nmero de transacciones se conocen como las probabilidades de estado
estable. La cual calcularemos a continuacin.
[ S1
S 2 S 3 ] = [ S1 S2 S 3 ]
0.6 0 . 20 0. 20
0 .3 0 . 50 0. 20
0 .3 0 . 30 0 . 40
(2)
(3)
S 1 +S 2+ S 3=1 (4)
S 1 , S2 y S 3
S1
S
S 2=
S2
S
S3 = 3
S
S
Solo se resolver con las ecuaciones (2), (3) y (4), con el METODO DE CRAMER.
0.18
S 1=
0.24
0.56
S 1=0.4286
S 2=
0.18
0.14
S=
0.56 3 0.56
S 2=0.3214 S 3=0.25
INTERPRETACION
A la luz de los resultados obtenidos, la telefonia movil, CLARO, presenta mayor porcentaje
de de aceptacion por parte de los clientes.
CLARO
0.4286
MOVISTAR
0.3214
ENTEL
0.25
CONCLUSINES
Se ha realizado un estudio marcoviano de eventos infinitos.
Se han evaluado los resultados con tre metodos (Mtodo Recursivo, Mtodo estado
Estacionario)
Los datos escogidos para la toma de decision han sido seleccionados, tomando como
refenrencia los datos de la matriz estacionaria.
La empresa de telefonia movil con mayor aceptacion en el mercado peruano el
CLARO.
RECOMENDACINES
Para el dueo de la empresa que desee generar mas utilidades con su nueva inversion
debera invertir en un negocio de la telfonia movil, el mas optimo o apropiado, seria
invertir en la telefonia movil CLARO, puesto que los calculos realizados con
probabilidades, nos da una informacion clara que CLARO, presenta
el mayor
Cierto ao 10% de los obreros ascienden a operarios y aun 10% se les pide que abandonen la
empresa. Durante un ao cualquiera, 5% de los operarios ascienden a supervisores y un 13%
se les pide abandonar la empresa. Los obreros deben ascender a operarios antes de ser
supervisores. Los trabajadores que no se desempean adecuadamente jams descienden de su
categora, permanecen en su nivel o se les pide que abandonen la empresa.
Se pide determinar:
a) Cul es la probabilidad de que un obrero llegue a supervisor.
b) Cul es la probabilidad de que un obrero llegue a renunciar.
c) Cul es la probabilidad de que un operario se convierta en supervisor.
d) Cul es la probabilidad de que un operario renuncie.
S: Supervisores
Ob: Obreros
PASO 1:
D: Despedidos
Identificamos la matriz Absorbente y no absorbente.
PASO 2:
Luego de haber identificado la matriz absorbente y no absorbente se procede a restar la matriz
Identidad con la matriz no absorbente de la siguiente manera.
PASO3:
Luego se procede a calcular la matriz inversa de la matriz fundamental.
[I - N]
=A
0.2
0
-0.1
0.181
0
A . A-1
=I
0
PASO 4:
Para obtener la repuesta multiplicamos la Inversa de la Matriz Fundamental con los
datos de la matriz principal (Matriz absorbente).
Fx
J
5
0
0.1
0.05
2.78
5.56
0.13
0.14
0.24
0.86
0.72
CONCLUSIONES:
RECOMENDACIONES:
obreros sea mas frecuente, para que estos puedan ascender de puesto y lleguen
a ser supervisores.
BIBLIOGRAFA
Mtodos cuantitativos para los negocios [Libro] / aut. David Ray Anderson
Dennis J. Sweeney, Thomas Arthur Williams. - Mexico : Cengage Learning,
2004.