You are on page 1of 3

Investigacin de Operaciones: Cadenas de Markov con estados absorbentes

Ms

Page 1 of 3

Crear blog

Siguiente blog

Acceder

ste blog est dedicado al curso de Investigacin de Operaciones II de la Ingeniera Industrial. Barranquilla,
Colombia.
Modelos de Inventario

Cadenas de Markov

Teora de Juegos

Teora de decisiones

Cadenas de Markov con estados absorbentes


A diferencia de los estadosrecurrentes, los estados absorbentes tendrs sumas de
probabilidades que con el correr del tiempo llegarn a ser cero, todo esto debido a que hay
estados que tiene probabilidad 1 y por ende los dems estados tendern a llegar a esta clase de
estados .
Para tener una idea ms clara sobre ste concepto, se muestra el siguiente ejemplo:
La empresa jurdica Angie Montero, emplea 3 tipos de abogados: subalternos, superiores y
socios. Durante cierto ao el 10% de los subalternos ascienden a superiores y a un 10% se les
pide que abandonen la empresa. Durante un ao cualquiera un 5% de los superiores ascienden a
socios y a un 13% se les pide la renuncia. Los abogados subalternos deben ascender a superiores
antes de llegar a socios. Los abogados que no se desempean adecuadamente, jams
descienden decategora.

Datos personales

Harold Torres

Barranquilla, Atlntico,
Colombia

Estudiante de Ingeniera
Industrial

Ver todo mi perfil


Archivos
individuales

2011 (17)

a) Forme la matriz de transicin T


b) Determine si T es regular, absorbente o ninguna de las 2.
c) Calcule la probabilidad de que un abogado subalterno llegue a socio
d) Cunto tiempo deberpermaneceren sucategoraun abogado
subalternorecincontratado?
e)Cunto tiempo deberpermaneceren la empresa un abogado subalternorecincontratado?
f) Calcule la probabilidad de que un abogado superior llegue a socio.
a) Se hace la matriz T y nos queda:

junio (12)

Conteo Cclico
de
Inventarios
Reduccin de
estrategias
(Ejemplo)

Seguidores

Google Friend
Connect

Miembros (9)
Ms

Teora de
decisiones
Juegos de
suma cero
para dos
jugadores
con
estrate...

Ya eres miembro?
Iniciar sesin

Juegos de
suma cero

Teora de
Juegos
(Conceptual
izacin)
Cadenas de
Markov con
estados
absorbente
s
Cadenas de
markov con
estados
recurrentes
Cadenas de
markov
(Conceptos
bsicos)

b) Ntese que la parte azul cielo tiene probabilidades iguales a 1, por lo tanto esta es la parte
absorbente de la matriz. Por estaraznes una matrizabsorbente.
Ahora se procede a restar la matriz normal de la identidad y se halla la inversa para ver los
tiempos entre estados, para posteriormente esta ltima ser multiplicada por la matriz
absorbente y saber las probabilidades de cambios de estado.

Gestin de
inventario

Modelo EOQ
(Economic
Order
Quantity)
con
demanda
p...

Modelo EOQ
(Economic
Order
Quantity)
con
descuento..
.
febrero (5)

http://invop2.blogspot.mx/2011/06/cadenas-de-markov-con-estados.html

23/08/2015

Investigacin de Operaciones: Cadenas de Markov con estados absorbentes

Page 2 of 3

c) Al multiplicar la matriz inversa por la Absorbente se puede hallar dicha probabilidad, esta es
0.14
d) Al simplemente hallar la matriz inversa se es posible hallar el tiempo en aos que debera
permanecer normalmente un abogado subalterno en su compaa, seran 5 aos.
e) Cuando piden el tiempo que deberapermanecerun abogado subalterno pero durante la
empresa sera sumar el tiempo en que se queda como subalterno con el tiempo en que
permanece como superior: esto es, 5+2.77= 7.77 aos.
f) Por ltimo la probabilidad de que pase de subalterno a socio es mostrado en la ltima
matriz, sera 0,28.

Tomado de : Clase de investigacin de operaciones dada por el Ingeniero Industrial Medardo Gonzlez

Publicado por Harold Torres


Etiquetas: Cadenas de Markov

Recomendar esto en Google

4 comentarios:
Annimo abril 11, 2012 6:52 p. m.

Muy bueno tu ejemplo me aclar muchas dudas, Gracias!!


Responder

almarmt_estudiantes junio 23, 2013 3:31 p. m.


Gracias por tu ejemplo. Me ayud mucho.
Responder

giovanet13 mayo 22, 2014 9:37 a. m.

Buen ejemplo. Gracias. Soy de cartagena saludos.


Responder

Annimo junio 10, 2014 10:43 a. m.


Gracias

Responder

Introduce tu comentario...

Comentar como:
Publicar

Seleccionar perfil...

Vista previa

http://invop2.blogspot.mx/2011/06/cadenas-de-markov-con-estados.html

23/08/2015

Investigacin de Operaciones: Cadenas de Markov con estados absorbentes

Entrada ms reciente

Pgina principal

Page 3 of 3

Entrada antigua

Suscribirse a: Enviar comentarios (Atom)

Translation Tool

Translate...

English

Get Babylon 8
Now

Gadgets powered by Google

Harold Torres Marino. Plantilla Simple. Con la tecnologa de Blogger.

http://invop2.blogspot.mx/2011/06/cadenas-de-markov-con-estados.html

23/08/2015

You might also like