You are on page 1of 8

Sistema CETYS Universidad.

Colegio de Ingeniera.
Campus Mexicali.
Escuela de Ingeniera.
Modelos de Investigacin de Operaciones II.
Problemas de la Unidad de Cadenas de Markov.
Fecha de Entrega: Noviembre 09 del 2015
Valor: 100 puntos.
Solucin de problemas estructurados de Cadenas de Markov.
(1) Un despacho de bienes y raices que utiliza dos computadoras muy viejas para tareas de formulacin
de documentos est padeciendo de altos costos y frecuentes inconvenientes debido al volumen crnico de
fallas de dichas computadoras. Se ha observado que cuando ambas computadoras estn funcionando por
la maana, existe un 30% de probabilidad de que una de ellas falle durante la tarde y un 10% de
probabilidad de que ambas computadoras fallen al llegar la tarde. Si sucede que solo una de las dos
computadoras est funcionando al inicio del da, existe una probabilidad del 20% de que la computadora
falle al trmino del da. Si ninguna de las dos computadoras est disponible al inicio del da, el despacho
tiene que enviar toda la documentacin que se debe formular en ese da a un servicio externo de
formulacin de documentos. En estos das es obvio que no pueden darse fallas de las computadoras. La
reparacin de las computadoras del despacho las realiza un taller de computacin externo. Este taller
recoge las computadoras descompuestas durante el da y las regresa al despacho la maana siguiente en
condiciones de operacin. El tiempo de reparacin de un da ocurre tanto para cuando hay una
computadora descompuesta, como cuando son dos. Modele el comportamiento de las computadoras del
despacho como una Cadena de Markov.
(a) Defina la variable estocstica, su espacio estado y la estructura de tiempo para esta Cadena de
Markov. Asuma que inicialmente el despacho cuenta con las dos computadoras en condiciones de
operacin.
Xn = numero n de computadoras que fallan
o 0 0 computadoras fallan
o 1 1 computadora falla
o 2 2 computadoras fallan
(b) Construya el diagrama de transiciones que describe cmo el despacho se mueve entre los
diferentes estados de la Cadena de Markov a travs del tiempo. Indiqu las probabilidades de
transicin de un estado a otro.

(c) Qu porcentaje del tiempo el despacho tendr que enviar todos sus documentos al servicio
externo de formulacin de documentos?
10%
(d) Si ahora hay dos computadoras disponibles, cul es la probabilidad de que al cuarto da haya
otra vez dos computadoras en condiciones de operacin?
42%
(2) Un despacho consultor en materia de Mercadotecnia est analizando para una firma productora de
yogurt griego como los clientes cambian de preferencia en relacin a tres marcas de este producto. La
tabla anexa muestra el comportamiento de 500 clientes y cmo modificaron sus preferencias de la semana
26 a la 27. As por ejemplo de un total de 100 clientes de la marca 1 en la semana 26, 90 siguieron con
esa marca, siete se cambiaron a la marca 2 y tres se cambiaron a la marca 3 en la semana 27.
Marca anterior
1
2

1
90
5

Marca nueva
2
7
205
2

Total
3
3
40

100
250

3
Total
(a)

30
125

18
230

102
145

150
500

Defina la variable estocstica, su espacio estado y la estructura de tiempo para esta Cadena
de Markov.
Xn = marca comprada en la semana n (x = 1,2,3) y (n = 0,1,2,27)

(b)

Formule la matriz de probabilidades de transicin de la primera etapa para esta Cadena de


Markov.
P=
[
.9
.02
.2

.7
.82
.12

.03
.16
.68

]
(c)

Cul ser la participacin en el mercado para cada una de las tres marcas en la semana 30?
32%, 40% y 26% sucesivamente

(d)

En las condiciones de estado estacionario, cul ser la marca menos favorecida?


La marca 3

(3) En el juego de dados denominado Craps (ojos de vbora) una jugada consiste en lanzar un par de
dados y sumar el nmero de puntos que cada dado muestra en su cara superior. Si la suma es 7 el
lanzador gana y el casino pierde. Si la suma es 2, 3 o 12 el casino gana. Cualquier otro resultado se
denomina el punto y el jugador debe lanzar los dados otra vez. Si el resultado de la suma de los dados
es igual al punto el jugador gana y el casino pierde. Si el resultado de la suma es 7, el casino gana.
Cualquier otro resultado requiere de otro lanzamiento del jugador hasta que resulta el punto o una suma
de 7.
(a)

Defina la variable estocstica, su espacio estado y la estructura de tiempo para esta Cadena
de Markov.
o
o
o
o
o
o

1 Comenzar
2 4 o 10
35o9
46u8
5 ganar
6 perder
3

(b)

Formule la matriz de probabilidades de transicin de la primera etapa para esta Cadena de


Markov.
P=[
0
0
0
0
0
0

6/36
27/36
0
0
0
0

8/36
0
26/36
0
0
0

10/36
0
0
25/36
0
0

8/36
3/36
4/36
5/36
1
0

]
(c)

A la larga, cul es la probabilidad de que el jugador gane el juego?


49%

(d)

Es este un juego de dados parejo? Es decir que tanto el jugador como el casino tengan la
misma oportunidad de ganar el juego.
No, el casino tiene mayor oportunidad de ganar.

(4) La Tierra de OZ tiene muchas bendiciones (acorde a la historia), pero el clima no es una de ellas. En
esa tierra nunca se tienen dos das seguidos de buen clima. Si tienen un da de buen clima, existe la
misma probabilidad de que el siguiente da ser con lluvia o con nieve. Si tienen un da de nieve o lluvia,
existe la misma probabilidad de que el da siguiente tengan el mismo clima. De darse un cambio de nieve
o lluvia, solo en la mitad de las veces ese cambio ser a das de buen clima.
(a)

Defina la variable estocstica, su espacio estado y la estructura de tiempo para la Cadena de


Markov que modele el clima en la Tierra de Oz.
Xn = el tiempo en la tierra de Oz el dia n

(b)

Formule la matriz de probabilidades de transicin de la primera etapa para esa Cadena de


Markov.
P=[

(c)

A la larga, qu porcentaje de los das sern de buen clima en la Tierra de OZ?


4

4/36
6/36
6/36
6/36
0
1

20%
(d)

Si hoy es un da de buen clima, en promedio cuntos das debern trascurrir en la Tierra de


Oz para que el clima vuelva a ser bueno?
6 dias

(5) El caballo de Skef denominado la Saeta de Palaco es un corcel pura sangre que compite en las
Ferias del Sol del Valle de Mexicali. Cada vez que compite este caballo tiene una probabilidad de de
ganar la carrera y de quedar en segundo o tercer lugar con la misma probabilidad. Cada vez que el corcel
gana una carrera, Skef gana un premio de $1,000 dlares, cada vez que el corcel llega en segundo lugar
Skef gana $500 dlares y pierde $500 dlares cada vez que el corcel llega en tercer lugar.
(a)

Defina la variable estocstica, su espacio estado y la estructura de tiempo para esta Cadena
de Markov.
Xn = En que lugar quedara el corcel de skeff en n

(b)

Formule la matriz de probabilidades de transicin de la primera etapa para esta Cadena de


Markov
P=
[

]
(c)

A la larga, qu porcentaje de las carreras sern ganadas por la Saeta de Palaco?


89% de carreras

(d)

A la larga, qu tan redituable (nueva palabra: renovable rentable) ser para Skef que su
caballo participe en las Ferias del Sol del Valle de Mexicali? Justifique su respuesta.
Es redituable ya que Saeta de Palaco tiene mayor probabilidad de quedar en los primeros 3
lugares de la carrera que perderla.

(6) La sala de emergencias del hospital Slvese el que Pueda posee dos ambulancias. Durante un da
cualquiera, cada ambulancia que se encontraba en buenas condiciones de operacin al inicio del da,
puede fallar con probabilidad de 1/4. Si una ambulancia se descompone durante el da, se enva a un taller
de la localidad para ser reparada, estando disponible dos das despus de haber fallado. Esto es, si una

ambulancia falla en el da tres, estar de vuelta, en condiciones de ser usada hasta el da 5. Sea el estado
del sistema igual al nmero de ambulancias disponibles al inicio del da.
(a) Define la variable estocstica, su estructura de tiempo y la matriz de probabilidades de transicin
de la primera etapa.
P=[
.25
.125
.0625
]

.5
.5
.375

.25
.375
.5625

Xn = una variable estocstica que representa el numero de ambulancias al inicio del dia (0,1 y 2)
(b) Si actualmente las dos ambulancias estn disponibles para ser usadas, dentro de tres das, cul
ser el nmero esperado de ambulancias disponibles?
Sumatoria de las probailidades Pj (j=0 hasta 2)^3 = 1.34 ambulancias = 1 ambulancia
(c) A la larga, cul ser el nmero ms probable de ambulancias disponibles en el hospital?
Valores de :
-

0 = 0.6667
1 = 0.3333

Probabilidades:
-

0 = 0.2258
1 = 0.4444
2 = 0.4444

(d) Si el hospital puede ser demandado por no contar con ambulancias disponibles, Cul ser la
probabilidad de una demanda?
Probabilidad de que lo demanden = 11%
(7) [Valor = 20 puntos] Una compaa posee dos mquinas. Durante un turno de trabajo cualquiera, cada
una de las mquinas que est trabajando al inicio del turno tiene 1/3 de probabilidad de descomponerse.
Si la mquina falla durante el turno se enva al departamento de mantenimiento y regresar a produccin
dos turnos despus de ocurrida la falla. Esto es, si una mquina falla durante el tercer turno, regresar a
produccin hasta el quinto turno. Sea el estado del sistema el nmero de mquinas trabajando al inicio del
n-avo turno,

(a) Formula el diagrama de transiciones para esta situacin y describe los estados de la cadena de
Markov.
P=[
0
0
1/9
]

0
1/3
4/9

1
2/3
4/9

Considere ahora cada una de las siguientes afirmaciones y coleque una X en las cajas () de
todas aquellas que considere verdaderas.

X (b) A la larga el porcentaje de turnos operando con una mquina en produccin ser mayor que el
porcentaje de turnos operando con dos mquinas.

(c) El nmero esperado de mquinas en produccin al cabo de un turno es menor que el nmero
esperado de mquinas al cabo de dos turnos, si al inicio se contaban con dos mquinas en produccin.

(d) Calcule la probabilidad de llegar a dos mquinas descompuestas partiendo de cero descompuestas
despus de exactamente un turno, dos turnos.

X (e) Todos los estados de esta cadena de Markov estn comunicados y son aperidicos, por lo cual
son recurrentes positivos.
(8) [Valor = 20 puntos] Considere la cadena de Markov con los estados 1,2,...,6 y con la siguiente matriz
de probabilidades de transicin:

0 0 1 0 0 0
0 0 0 0 0 1

P(1)

0
1
4
1

0
1
4
0
1
3

0 0 1 0
1

0
0 0
2
0 0 0 0
2
0 0 0

Considere ahora cada una de las siguientes afirmaciones relativas a esta Cadena de Markov y
coleque una X en las cajas () de todas aquellas que considere verdaderas.

(a) Los estados 1 y 4 son transitorios


X (b) Los estados 2 y 6 forman un conjunto cerrado mnimo de estados que son ergdicos
7

(c) El estados 3, 2, 5, y 6 son estados recurrentes nulos.


X (d) La cadena de Markov es ergdica.
(e) 3 > (2 + 4)

You might also like