You are on page 1of 80

Universidad Cesar Vallejo

Unidad Acadmica : Facultad de Ingeniera

Escuela Acadmica : Ingeniera Industrial

Profesor : Mag. Angel Miklavec


Cadenas de Markov
Cuando, conociendo el pasado
y el presente, el comportamiento
probabilstico del futuro
inmediato slo depende del
estado presente
Definicin:
Una cadena de Markov es una sucesin
de ensayos similares u observaciones en
la cual cada ensayo tiene el mismo
nmero finito de resultados y en donde la
probabilidad de cada resultado para un
ensayo dado depende slo del resultado
del ensayo inmediatamente precedente y
no de cualquier resultado previo.
Propiedad Markoviana
Sea {Xn: n 0} un proceso estocstico discreto
(es decir, cada Xn es una variable aleatoria
discreta).
Diremos que tiene la propiedad de markoviana
si se cumple:

P{Xn+1= j / X0= i0 , X1= i1 . . . Xn= in } =

P{Xn+1= j / Xn= in } = pi,j(n)


Probabilidades de Transicin
pi,j(n) = la probabilidad de que el proceso,
estando en el estado i en el tiempo n,
pase al estado j en el instante
siguiente (n + 1).
Cuando pi,j(n) = pi,j (esto es, no depende de n)
se dice que las probabilidades de transicin son
estacionarias. Lo supondremos de ahora en
adelante.
Matriz de Transicin

Las probabilidades de transicin definen


la matriz P = [pij] que satisface:

1. pij 0 para todo i, j

2. para todo i j pij 1


Matriz de Transicin: Ejemplo
Tiempo n+1

Estado 0 Estado 1 Estado 2 Estado 3

Estado 0 0,20 0,65 0,15 0


Estado 1 0 0,60 0 0,40
Tiempo n
Estado 2 0,15 0,15 0,30 0,40
Estado 3 0 0 0 1
Espacio de estados de un proceso:
El conjunto de todos los Usaremos a1, a2, a3..... an
posibles estados que para representar los n
un proceso puede estados de un estado.
ocupar en los distintos ai ------> aj para
movimientos se llama representar que el
espacio de estados. proceso se mueve del
Un espacio de estados estado i al estado j.
puede ser:
finito,
numerable,
no numerable.
Probabilidades de transicin
de un solo paso
P(ai -----> aj) es la probabilidad condicional
para que el proceso que se encuentra en el
estado ai se mueva al estado aj en un slo
paso, y se designa por Pij. Esto recibe el
nombre de probabilidad de transicin de un
slo paso. Si todas estas probabilidades son
conocidas para todos los pares de estados se
ordenan en una matriz cuadrada que recibe el
nombre de matriz de transicin. P = [pij]
Probabilidades de transicin
de un solo paso
Ejemplo:
Sea una persona sentada en el asiento de en medio de
una fila de cinco asientos [marcados con A, B, C,
D, E] de izquierda a derecha. Esta persona se mueve
por seis veces de una silla a la otra, estando sus
movimientos controlados por una moneda que se tira al
aire.
a. Si no est al final de una fila de asientos se
mueve hacia la derecha si sale CARA y hacia la
izquierda si sale SELLO.
b. Si est al final se quedar donde est, salga lo que
salga.
Espacio de Estados: [ A, B, C, D, E ]
P[A ---> A] = P[E ---> E] = 1
A B C D E ya que se queda donde est.
P[B ---> A] = 1/2 puesto que
A 1 0 0 0 0 la probabilidad de que salga
Cara es 1/2.
B 1/2 0 1/2 0 0 P[C ---> C] = 0 ya que aqu
no se puede quedar.
C 0 1/2 0 1/2 0 pij = 1
Las matrices que tienen
D 0 0 1/2 0 1/2 elementos no negativos y a
suma de los elementos de sus
filas valen la unidad se llaman
E 0 0 0 0 1 matrices estocsticas.
Ejemplo:

Un ratn cambia de habitculo cada minuto con


igual probabilidad a las salas siguientes:
A C
Sala o
m
e
d
o
Habitacin Cocina
r
B C D

Halle la matriz de probabilidades de transicin.


n+1
A B C D
A
0 1/3 1/3 1/3
B 1/2 0 1/2 0
n C 0 1/3 1/3 1/3

D 1/2 0 1/2 0
Ejemplo
Supongamos que el clima de una determinada regin
slo puede ser soleado (s1) o nublado (s2) y que las
condiciones del clima en maanas sucesivas forman una
cadena de Markov con probabilidades de transicin
estacionarias. La matriz de transicin est dada por:

Dibujar el grfico asociado.


Si un da concreto est nublado, cul es la
probabilidad de que est nublado el da siguiente?
Si hoy es mircoles est nublado, cul es la
probabilidad de que el viernes siguiente haga sol?
Modifiquemos el ejemplo anterior, AHORA,
suponemos que la probabilidad de que el
mircoles haga sol es 0.2 y la probabilidad de
que est nublado es 0.8.
Calcular:
1. Probabilidad de que est nublado el jueves.
2. Probabilidad de que est nublado el viernes.
3. Probabilidad de que est nublado el sbado.
Supongamos que hoy es Mircoles:
est nublado
S1 S2
S1
S2
Calcular:
1. Probabilidad de que est nublado el jueves.

2. Probabilidad de que est nublado el viernes.

3. Probabilidad de que est nublado el sbado.


Vector probabilidad inicial
Existe un vector probabilidad inicial tal que:

a = (a1, a2,....an) en la que los elementos ai son


las probabilidades de que el estado inicial del proceso
sea Si.

En el ejemplo anterior, el vector probabilidad inicial sera:


a = (0, 0, 1, 0, 0) puesto que el proceso comienza en la
silla C.
Ejemplo: Caminata aleatoria
con barreras absorbentes
En el tiempo 0 tengo $2 y en los tiempos
1,2,3,... participo en un juego en el que apuesto
$1. Gano el juego (y gano $1) con probabilidad
p y lo pierdo (perdiendo lo apostado) con
probabilidad 1 - p. Mi meta es aumentar mi
capital hasta $4 y tan pronto lo logre me salgo
del juego. Tambin salgo cuando me arruine
(capital $0).
Ejemplo:
- Xn : mi capital inmediatamente despus del
juego n.
- Estados del proceso = {0, 1, 2, 3, 4}
- Matriz de transicin: 1 0 0 0 0

1 p 0 p 0 0
P 0 1 p 0 p 0

0 0 1 p 0 p
0 0 1
0 0
Ejemplo Demo: un modelo para
el desplazamiento poblacional
Para efectos de una investigacin, en un
determinado pas, una familia puede clasificarse
como habitante de zona urbana, rural o
suburbana. Se ha estimado que durante un ao
cualquiera, el 15% de todas las familias urbanas
se cambian a zona suburbana y el 5% a zona
rural. El 6% de las familias suburbanas pasan a
zona urbana y el 4% a zona rural. El 4% de las
familias rurales pasan a zona urbana y el 6% a
zona suburbana. Elabore la Matriz de Transicin
y dibujar el grfico asociado
Cadenas de Markov: Ejemplo
Tendremos la siguiente matriz de transicin:

Urb. Surb. Rur.

Urb.
0,80 0,15 0,05

P 0,06 0,90 0,04
Surb.

Rur.
0,04 0,06 0,90
Cadenas de Markov: Ejemplo

0,05
0,90
0,8 0,15 0,90
0,04

Urb Sub Rural


Urb.

0,06 0,06

0,04
Distribucin de una Cadena de
Markov
Sea {Xn : n 0} una Cadena de Markov, con
distribucin inicial aj = P{X0= j} para j = 1,2, . . .
Entonces, para cualquier k0 y para cualesquiera
i0 , . . , ik pertenecientes al conjunto de estados
del proceso se cumple:
P{X0=i0 , X1=i1,...,Xk=ik} = ai0 pi0i1 pi1i2 ... pik-1ik
donde:
pij = P{Xm+1= j / Xm= i}
Probabilidades de transicin en
n etapas
Pregunta:
Si en el tiempo t el proceso de Markov se
encuentra en el estado i. Cul es la probabilidad
de que n pasos despus se encuentre en el
estado j?
Respuesta:
P{Xn+t = j / Xt= i } = P{Xn= j / X0= i } (estacionaria)
= p(n)i,j (notacin)
n
= elemento (i,j) de la matriz P
Ecuacin de
Chapman-Kolgomorov
Si el resultado anterior se combina con la identidad
matricial Pn+m = Pn Pm, obtenemos:
pij( n m ) pik( n ) p(kjm )
k
Una transicin desde i hasta j en n+m pasos puede
lograrse movindose desde i hasta un punto intermedio
k en n pasos (con probabilidad p(n)i,k ) y despus, dado
que el proceso est en el estado k (la propiedad de
Markov permite que seamos indiferentes a la ruta
recorrida), moverse hasta el estado j en m pasos (con
probabilidad p(m)k,j). Luego, deben considerarse todas las
opciones posibles para el punto intermedio.
Consecuencia de los resultados
anteriores
Pregunta:
Cul es la probabilidad de que el sistema se
encuentre en el estado j en el tiempo n?
Respuesta:
Sea at = (a0, a1,...,am ) la distribucin inicial de
la Cadena de Markov (con m estados),
entonces:
P{Xn= j} = elemento j del vector at Pn
Aplicacin de resultados
anteriores
Consideremos el ejemplo demo y supongamos que al
inicio de la investigacin, el 35% de la poblacin viva en
reas urbanas, el 45% en rea suburbana, y el resto en
rea rural. Preguntas:
a) Si inicialmente una familia vive en un rea rural.
Cul es la probabilidad de que tres aos despus
esta familia viva en un rea urbana?
b) Cul es la probabilidad de que tres aos despus
de iniciada la investigacin una familia viva en el
rea urbana?
Aplicacin de resultados anteriores
0.80 0.15 0.05 0.80 0.15 0.05 0.80 0.15 0.05
0.06 0.90 0.04 * 0.06 0.90 0.04 * 0.06 0.90 0.04
0.04 0.06 0.90 0.04 0.06 0.90 0.04 0.06 0.90

Respuestas:
a) 0,0967
0.2691 0.4915 0.2394
b) 0,2691
Clasificacin de estados en
Cadenas de Markov
Estado Alcanzable:
El estado j es alcanzable desde el estado i, si
existe n > 0 tal que p(n)i,j > 0; es decir, es
posible que el proceso llegue al estado j desde
el estado i.
Se denota por: i j.
Clasificacin de estados en
Cadenas de Markov
Estados que se comunican:
Los estados i, j se comunican si: i j.
Atencin:
La relacin es una relacin de equivalencia
(reflexiva, simtrica y transitiva). Me permite dividir
el conjunto de estados en clases de equivalencia.
Cuando una cadena de Markov tiene slo una
clase de equivalencia, se dice que es irreducible.
Clasificacin de estados en
Cadenas de Markov
f (n)jk = probabilidad de que, partiendo del
estado j, la cadena llegue al estado k,
por primera vez en el tiempo n.

Probabilidad de llegar a k (en un tiempo finito),


partiendo de j:

f jk f (n)
jk
n 1
Clasificacin de estados en
Cadenas de Markov
Estado Recurrente.
Se dice que el estado i es recurrente si fii = 1.
Esto significa lo siguiente: siempre que parta del
estado i, podr regresar a l (en un tiempo finito).

Estado Transitorio (no recurrente)


Se dice que el estado i es transitorio si fii < 1.
(Esto significa lo siguiente: hay manera de
abandonar el estado i, de tal modo que nunca
regrese a l).
Clasificacin de estados en
Cadenas de Markov
Estado Absorbente:
Se dice que el estado i es absorbente si pii = 1.

Estado Peridico:
Un estado recurrente i es peridico, con
periodo k > 1, si k es el menor nmero tal que
todas las trayectoria que parte de i y regresan
a i, tienen longitud mltiplo de k.
Nota: Si no es peridico se le dice aperidico.
Clasificacin de estados en
Cadenas de Markov
Cadena Ergdica
Si todos los estados de una Cadena de
Markov son recurrentes, aperidicos y se
comunican entre si, se dice que la cadena
es Ergdica.
Propiedades a largo plazo de
una Cadena de Markov

Pregunta interesante:
Existe una probabilidad lmite de que el
sistema se encuentre en el estado j, despus
de muchas transiciones, y que esta
probabilidad sea independiente del estado
inicial?
Propiedades a largo plazo de
una Cadena de Markov

Afirmacin:
Si P es la matriz de transicin de una Cadena
de Markov que tiene los estados {1, 2, ...k},
entonces, para j=1, 2, ..,k.

lim p
(n)
i, j j
n
Propiedades a largo plazo de
una Cadena de Markov
Escrito de otra forma:

1 2 k

1 2 k
lim P n

n

2 k
1
Propiedades a largo plazo de una
Cadena de Markov
Para obtener los j se tiene presente las
ecuaciones de estado estable

a) j 0
k
b) j i pij esto es P
t t

i 1
k
c) j 1
j 1
Ejemplo (desplazamiento poblacional)
Dado que la matriz del ejemplo demo es
ergdica, podemos hacer: 0,80 0,15 0,05

( 1 , 2 , 3 ) ( 1 , 2 , 3 ) 0,06 0,90 0,04
0,04 0,06 0,90

1 2 3 1
Una opcin seria:
1 0,80 1 0,06 2 0,04 3
2 0,15 1 0,90 2 0,06 3
1 1 2 3
Solucin:
Cuya solucin es
(1, 2, 3) = (0.2077 , 0.4918 , 0.3005)
Es decir, si con el paso del tiempo se mantiene
el comportamiento descrito por el modelo (lo
cual es poco probable) despus de muchos
aos, aproximadamente, el 21% de la
poblacin ocupar las zonas urbanas, el 49%
las suburbanas y el 30% la rural.
Tiempo de primera pasada
Estamos interesados en tener informacin
respecto al nmero de pasos (transiciones) que
hace el proceso al ir de un estado i a un estado
j por primera vez.

Se define:
Ti,j = tiempo de primera pasada al ir del estado i
al estado j.
Tiempo de primera pasada
Definimos el tiempo esperado de recurrencia
E(Ti,j ) = mij

Se puede demostrar que se cumple:


1
m jj
j
mij 1 p
n j
in m nj
Ejemplo
En el ejemplo base:

m11 = 1/1 = 1/0,2077 = 4,8146

Es decir, el nmero promedio de aos para


que, partiendo de vivir en una zona urbana, una
familia regrese a vivir en una zona urbana por
primera vez es 4,8 aos.
Ejemplo: continuacin
Cul es el nmero promedio de aos para que,
partiendo de vivir en zona urbana, una familia llegue a
vivir en zona suburbana, por primera vez?. Hacemos
primero: m 1 p m p m p m
12 11 12 12 22 13 32

m 22 1 p 21m 12 p 22m 22 p 23m 32


m 32 1 p 31m 12 p 32m 22 p 33m 32

m 12 1 p11m 12 p12m 22 p13m 32


m 22 1 p 21m 12 p 22m 22 p 23m 32
m 32 1 p 31m 12 p 32m 22 p 33m 32
Ejemplo: continuacin
Luego, ignoramos todas las filas y columnas que
tengan m22 y queda el sistema:

m 12 1 p 11m 12 p 13m 32
m 32 1 p 31m 12 p 33m 32
se sustituye y agrupa
1 0 , 20 m 12 0 ,05 m 32
1 0 ,04 m 12 0 ,10 m 32
cuyo resultado es m 12 8, 33 y m 32 13, 33
Ejemplo: continuacin
Entonces, en promedio transcurren 8,33 aos
para que una familia que inicialmente vive en
una zona urbana llegue a vivir en zona
suburbana, por primera vez.
Ejemplo:
En una cierta regin el tiempo atmosfrico sigue la siguiente
secuencia: Un da se denomina soleado (S) si el sol luce ms
de la mitad del da, y se denomina nublado (N), si lo hace
menos. Por experiencia, se sabe que si hay un da nublado,
es igual de probable que el da siguiente sea tambin
nublado. Si el da es soleado hay una probabilidad de 2/3 de
que sea tambin soleado.
1. Construya la matriz de transicin T de este proceso.
2. Si hoy est nublado. Cul es la probabilidad de que
dentro de tres das est tambin nublado? y de que est
soleado?
Calcula T5 y T10. Cul es el comportamiento de Tn
cuando n ? Cmo se comporta p(n) cuando n ?
Depende el lmite de p(0)?
Ejemplo: continuacin
Asumimos que el proceso es markoviamo y que
el tiempo slo depende del da anterior.
Se tiene una cadena de Markov con dos
estados: E1 Da nublado N, E2 Da soleado

S. La matriz de transicin es:

Es decir:
Ejemplo: continuacin
Empezando los pasos a partir del da actual, se
tiene que:

De este modo, si hoy est nublado, dentro de


tres das, se tiene que:

As, la probabilidad de que haya un da nublado


en el tercer da es p1(3) = 29/72 y que sea
soleado es p2(3) = 43/72.
Clculos as se facilitan bastante usando programas,
de modo que:

de modo que:

ya que p1(0) + p2(0) = 1.


Se observa que cuando n , p(n) no depende de dnde
se parte: p(0).
Ejemplo:
Ejemplo: continuacin

La matriz de transicin asociada es:


Ejemplo: (El clima en la tierra de Oz)
Segn el cuento, en la tierra de Oz nunca hay
dos das seguidos con buen tiempo. A un da
soleado siempre le sigue (con igual
probabilidad) un da de lluvia o nieve. Por otra
parte, si un da tenemos mal tiempo hay 2
posibilidades, que el tiempo sea el mismo al da
siguiente o que cambie. De este modo, si un
da nieva (o llueve) al da siguiente nevar (o
llover) con probabilidad 1/2; pero si cambia el
tiempo slo la mitad de las veces ser un da
soleado.
Ejemplo: continuacin
Sea Xn Tiempo en la tierra de Oz el da n-
simo.
Xn: es una cadena de Markov, ya que el tiempo
en el da n-simo slo depender del tiempo
que haga el da anterior.
Para estudiar este problema, en primer lugar
calculamos las probabilidades de transicin; es
decir, las probabilidades de que teniendo cierto
tiempo un da determinado al da siguiente el
tiempo cambie. Para ello, notaremos por s si
el da est soleado, con l si llueve y con n si
nieva.
donde las filas indican el tiempo en un da determinado,
las columnas el tiempo que hace al da siguiente y las
entradas son las probabilidades de cambio o transicin

Ordenados obtenemos la
en un tabla Matriz transicin
Ejemplo:
El nivel de negocio de la Bolsa puede considerarse cada
da alto (A) o bajo (B). Para un periodo de 5301 das se
dispone de la secuencia BAABBA..., y que nos permite
representar la alternancia mediante el cuadro adjunto:

Podra indicar alguna relacin entre la duracin de


ciclos de das de nivel alto con los das de nivel bajo a
tenor de dichos datos?
Ejemplo: continuacin
Debemos normalizar la matriz por filas:

Supongamos que la bolsa est regida por dicho matriz de


probabilidad. Si la bolsa est baja la probabilidad de
que al da siguiente est baja es 0.85. Si elevamos la
matriz al cuadrado, P2, significa el pasar de A a B de B
a A en dos das. Si vamos calculando potencias de P,
veamos por ejemplo P8,
observamos que las dos filas se van pareciendo cada
vez ms, el sistema se va estabilizando. Nosotros
estamos interesados en lo que ocurre en el lmite, es
decir,
(se obtiene resolviendo P = )
Esto va a representar la fraccin de tiempo que la
bolsa est en B y la fraccin de tiempo que la
bolsa est en A. Entonces nos dice que la bolsa
est ms tiempo en baja que en alta.
i probabilidad estacionaria de estar en el estado i.
Siendo i = 1/i frecuencia que tarda en ser visitado el estado i.
1 = 1.4 la bolsa tarda en volver a baja 1.4 das.
2 = 3.3 la bolsa tarda en volver a alta 3.3 das.
Ejemplo:
Un taller de reparacin se ocupa de dos tipos de
motores. La reparacin de un motor de tipo M1 requiere
dos das y la del tipo M2 slo un da. La probabilidad de
avera para los motores de tipo uno es de 1/3 mientras
que es de 1/2 para los de tipo dos.
Los trabajos no admitidos en el taller se encargan al
exterior. Sabiendo que si una jornada de reparacin ha
sido asignada a un motor de tipo uno, se rechaza todo
trabajo que pueda presentarse al da siguiente; en otro
caso se admitir cualquier tarea si no se presenta ms
que una. Decidir que poltica es mejor: dar prioridad a los
motores de tipo uno ( dos) cuando se presenten para su
reparacin motores de ambos tipos.
Podemos tener el taller sin trabajo, con un motor de tipo 1 en
un da,con un motor de tipo 1 en dos das o con un motor de
tipo 2. Al da siguiente el taller puede estar en tres estados
distintos, de los cuatro posibles. Intentemos determinar la
matriz de transicin dando prioridad al motor de tipo 1, M1:
Dando prioridad al motor de tipo 2, M2, tenemos:

El taller tiene dos comportamientos segn elijamos la


poltica de dar prioridad a M1 a M2, que estn regidos por
las dos matrices de transicin.
Si calculamos la matriz lmite, haciendo = P tenemos:
para el primer caso

para el segundo caso


As, dado que no queremos tener mucho tiempo el taller
parado, nos interesa la poltica del tipo 1, pues a largo
plazo tiene ms ocupado el taller, (2/7 > 1/4).
Ejemplo

En un pueblo, al 90% de los das soleados le


siguen das soleados, y al 80% de los das
nublados le siguen das nublados. Con esta
informacin modelar el clima del pueblo como
una cadena de Markov
Suponga que toda la industria de refresco produce dos
colas: Coca Cola y Pepsi Cola. Cuando una persona ha
comprado Coca Cola hay una probabilidad de 90% de que
siga comprndola la vez siguiente. Si una persona compr
Pepsi, hay 80% de que repita la vez siguiente. Se pide:
a) Si una persona actualmente es comprador de Pepsi.
Cul es la probabilidad de que compre Coca Cola
pasadas dos compras a partir de hoy?
b) Si en la actualidad una persona es comprador de Coca
Cola. Cul es la probabilidad de que compre Coca Cola
pasadas tres compras a partir de ahora?
c) Supongamos que el 60% de toda la gente toma hoy
Coca Cola y el 40% Pepsi. A tres compras a partir de
ahora, Qu fraccin de los compradores estar tomando
Coca Cola.
d) Determinar el estado estable.
El ascensor de un edificio con bajo y dos pisos
realiza viajes de uno a otro piso. El piso en el que
finaliza el viaje n-simo del ascensor sigue una
cadena de Markov. Se sabe que la mitad de los
viajes que parten del bajo se dirigen a cada uno de
los otros dos pisos, mientras que si un viaje
comienza en el primer piso, slo el 25% de las veces
finaliza en el segundo. Por ltimo, si un trayecto
comienza en el segundo piso, siempre finaliza en el
bajo. Se pide:
a) Calcular la matriz de probabilidades de transicin
de la cadena
b) Dibujar el grafo asociado
c) Cul es la probabilidad de que, a largo plazo, el
ascensor se encuentre en cada uno de los tres pisos.
Un agente comercial realiza su trabajo en tres ciudades
A, B y C. Para evitar desplazamientos innecesarios est
todo el da en la misma ciudad y all pernocta,
desplazndose a otra ciudad al da siguiente, si no tiene
suficiente trabajo. Despus de estar trabajando un da
en C, la probabilidad de tener que seguir trabajando en
ella al da siguiente es 0,4, la de tener que viajar a B es
0,4 y la de tener que ir a A es 0,2. Si el viajante duerme
un da en B, con probabilidad de un 20% tendr que
seguir trabajando en la misma ciudad al da siguiente,
en el 60% de los casos viajar a C, mientras que ir a A
con probabilidad 0,2. Por ltimo si el agente comercial
trabaja todo un da en A, permanecer en esa misma
ciudad, al da siguiente, con una probabilidad 0,1, ir a
B con una probabilidad de 0,3 y a C con una
probabilidad de 0,6.
En una comunidad hay 3 supermercados (S1, S2,
S3) existe la movilidad de un cliente de uno a otro.
El 1 de septiembre, de los clientes va al S1, 1/3
al S2 y 5/12 al S3 de un total de 10.000 personas.
Cada mes esl S1 retiene el 90% de sus clientes y
pierde el 10% que se va al S2. Se averigu que el
S2 solo retiene el 5% y pierde el 85% que va a S1
y el resto se va a S3, el S3 retiene solo el 40%,
pierde el 50% que va al S1 y el 10% va al S2.
a) Establecer la matriz de transicin
b) Cul es la proporcin de clientes para los
supermercados el 1 de noviembre?
c) Hallar el vector de probabilidad estable.
EJEMPLOS
En un pueblo, al 90% de los das soleados le
siguen das soleados, y al 80% de los das
nublados le siguen das nublados. Con esta
informacin modelar el clima del pueblo como
una cadena de Markov.
Calcular la matriz de probabilidades de
transicin de la cadena.
Dibujar el grfico asociado.
Si hoy est nublado, cul es la probabilidad
que maana est soleado.
El departamento de estudios de mercado de una
fbrica estima que el 20% de la gente que
compra un producto un mes, no lo comprar el
mes siguiente. Adems, el 30% de quienes no lo
compren un mes lo adquirir al mes siguiente.
En una poblacin de 1000 individuos, 100
compraron el producto el primer mes.
Calcular la matriz de probabilidades de
transicin de la cadena. Dibujar el grfico
asociado. Cules son los porcentajes en
cada una de las alternativas?
Cuntos lo comprarn al mes prximo? Y
dentro de dos meses?
En una poblacin de 10,000 habitantes, 5000 no fuman,
2500 fuman uno o menos de un paquete diario y 2500
fuman ms de un paquete diario. En un mes hay un 5%
de probabilidad de que un no fumador comience a
fumar un paquete diario, o menos, y un 2% de que un
no fumador pase a fumar ms de un paquete diario.
Para los que fuman un paquete, o menos, hay un 10%
de probabilidad de que dejen el tabaco, y un 10% de
que pasen a fumar ms de un paquete diario. Entre los
que fuman ms de un paquete, hay un 5% de
probabilidad de que dejen el tabaco y un 10% de
que pasen a fumar un paquete, o menos. Calcular la
matriz de probabilidades de transicin de la cadena.
Dibujar el grfico asociado. Cules son los porcentajes
en cada una de las alternativas? Cuntos individuos
habr de cada clase el prximo mes?
El ascensor de un edificio con bajo y dos pisos realiza
viajes de uno a otro piso. El piso en el que finaliza el viaje
n-simo del ascensor sigue una cadena de Markov. Se
sabe que la mitad de los viajes que parten del bajo se
dirigen a cada uno de los otros dos pisos, mientras que si
un viaje comienza en el primer piso, slo el 25% de las
veces finaliza en el segundo. Por ltimo, si un trayecto
comienza en el segundo piso, siempre finaliza en el bajo.
Se pide:
Calcular la matriz de probabilidades de transicin de la
cadena.
Dibujar el grfico asociado.
Cul es la probabilidad de que, a largo plazo, el
ascensor se encuentre en cada uno de los tres pisos.
Un agente comercial realiza su trabajo en tres ciudades A, B y
C. Despus de estar trabajando un da en C, la probabilidad de
tener que seguir trabajando en ella al da siguiente es 0.4, la de
tener que viajar a B es 0.4 y la de tener que ir a A es 0.2.
Si el viajante duerme un da en B, con probabilidad de un
20% tendr que seguir trabajando en la misma ciudad al da
siguiente, en el 60% de los casos viajar a C, mientras que ir
a A con probabilidad 0.2. Por ltimo si el agente comercial
trabaja todo un da en A, permanecer en esa misma ciudad, al
da siguiente, con una probabilidad 0.1, ir a B con una
probabilidad de 0.3 y a C con una probabilidad de 0.6.
Calcular la matriz de probabilidades de transicin de la
cadena. Dibujar el grfico asociado. Cules son los
porcentajes de das en los que el agente comercial est en
cada una de las tres ciudades?
Si hoy el viajante est en C, Cul es la probabilidad de
que tambin tenga que trabajar en C al cabo de cuatro das?
Suponga que toda la industria de refresco produce dos colas:
Coca Cola y Pepsi Cola. Cuando una persona ha comprado
Coca Cola hay una probabilidad de 90% de que siga
comprndola la vez siguiente. Si una persona compr Pepsi,
hay 80% de que repita la vez siguiente.
Se pide: Calcular la matriz de probabilidades de transicin de
la cadena. Dibujar el grfico asociado. Cules son los
porcentajes en cada una de las alternativas?
Si una persona actualmente es comprador de Pepsi. Cul
es la probabilidad de que compre Coca Cola pasadas dos
compras a partir de hoy?
Si en la actualidad una persona es comprador de Coca Cola.
Cul es la probabilidad de que compre Coca Cola pasadas
tres compras a partir de ahora?
Supongamos que el 60% de toda la gente toma hoy Coca
Cola y el 40% Pepsi. A tres compras a partir de ahora, Qu
fraccin de los compradores estar tomando Coca Cola?.
En una comunidad hay 3 supermercados (S1, S2, S3)
existe la movilidad de un cliente de uno a otro. El 1 de
septiembre, de los clientes va al S1, 1/3 al S2 y 5/12 al
S3 de un total de 10.000 personas. Cada mes el S1
retiene el 90% de sus clientes y pierde el 10% que se va
al S2. Se averigu que el S2 solo retiene el 5% y pierde el
85% que va a S1 y el resto se va a S3, el S3 retiene solo
el 40%, pierde el 50% que va al S1 y el 10% va al S2.
Establecer la matriz de transicin
Cul es la proporcin de clientes para los
supermercados el 1 de noviembre?
Hallar el vector de probabilidad estable.
La cervecera ms importante del mundo (Guiness) ha
contratado a un analista de investigacin de operaciones
para analizar su posicin en el mercado. Estn
preocupados en especial por su mayor competidor
(Heineken). El analista piensa que el cambio de marca se
puede modelar como una cadena de Markov incluyendo
tres estados, los estados G y H representan a los clientes
que beben cerveza producida por las mencionadas
cerveceras y el estado I representa todas las dems
marcas. Los datos se toman cada mes y el analista
ha construido la siguiente matriz de transicin de los datos
histricos.

You might also like