Professional Documents
Culture Documents
Ingeniera de Produccin
Facultad Tecnolgica
Universidad Distrital Francisco Jos de Caldas
Agosto de 2015
Modelos Estocsticos
Ingeniera de Produccin
Facultad Tecnolgica
Universidad Distrital Francisco Jos de Caldas
Agosto de 2015
c
Copyright
Resumen
Caminante no hay camino...
Antonio Machado
vi
ndice general
Resumen
ndice general
vii
ndice de Tablas
ix
ndice de Figuras
xi
1 Anlisis de decisiones
1.1 Clases de modelos de decisin . . . . . . . . . . . . . .
1.1.1 Criterios de decisin . . . . . . . . . . . . . . .
1.1.2 Valor esperado de la informacin perfecta . . .
1.1.3 Valor esperado de la informacin experimental
1.1.4 rboles de decisin . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
1
1
1
2 Cadenas de Markov
2.1 Proceso Estocstico . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Cadena de Markov . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Probabilidades de transicin de n etapas . . . . . . . . . . .
2.1.3 Clasificacin de los estados en una cadena de Markov . . .
2.1.4 Probabilidades de estado estable y tiempos promedio de primer paso . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.5 Anlisis transitorio . . . . . . . . . . . . . . . . . . . . . . .
2.1.6 Interpretacin de las probabilidades de estado estable . . .
2.1.7 Tiempos promedio de primer paso . . . . . . . . . . . . . .
2.1.8 Cadenas absorbentes . . . . . . . . . . . . . . . . . . . . . .
2.2 Procesos de decisin de Markov . . . . . . . . . . . . . . . . . . . .
2.2.1 Proceso de decisin de Markov . . . . . . . . . . . . . . . .
2.2.2 Poltica ptima . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Mtodos para determinar una poltica ptima . . . . . . . .
3
3
4
5
6
7
8
8
9
9
11
11
12
13
3 Proceso de simulacin
3.1 Anlisis de entrada . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
17
vii
ndice general
3.1.1
viii
17
4 Planeacin de la produccin
4.1 El modelizado y el enfoque de optimizacin . . . . . . . . . . . . .
4.2 Pautas para construir un modelo . . . . . . . . . . . . . . . . . . .
4.3 Anlisis y programacin de las capacidades productivas . . . . . .
4.3.1 Capacidad Terica . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Capacidad Instalada . . . . . . . . . . . . . . . . . . . . . .
4.3.3 Capacidad Disponible . . . . . . . . . . . . . . . . . . . . .
4.3.4 Capacidad Necesaria . . . . . . . . . . . . . . . . . . . . . .
4.3.5 Capacidad Utilizada . . . . . . . . . . . . . . . . . . . . . .
4.4 Modelos de optimizacin de produccin con restricciones de capacidad
19
20
21
21
22
22
23
23
23
23
Bibliografa
27
ndice alfabtico
29
ndice de tablas
ix
ndice de figuras
xi
Captulo 1
Anlisis de decisiones
1.1
Bajo Certidumbre: son aquellos modelos bajo los cuales es conocido lo que
va a pasar. Dentro de tales modelos se encuentran los de planeacin de la
produccin en los cuales el comportamiento del sistema es explicable.
Bajo Riesgo: se utilizan cuando no se tiene certeza absoluta de lo que va a
ocurrir (comportamiento del sistema). Por lo general se tienen probabilidades
para la ocurrencia de los diferentes eventos o hechos de la naturaleza.
Bajo incertidumbre: Se refiere al desconocimiento total de lo que va a ocurrir,
tiene lugar una toma de decisiones basada en reglas claramente establecidas.
1.1.1
Criterios de decisin
1.1.2
1.1.3
1.1.4
rboles de decisin
Captulo 2
Cadenas de Markov
A veces conviene analizar el comportamiento de una variable aleatoria a lo largo
del tiempo, tal estudio recibe el nombre de proceso estocstico. Vamos a analizar
el comportamiento de las cadenas de Markov como uno de los principales procesos
estocsticos.
2.1
Proceso Estocstico
2.1.1
Cadena de Markov
Una cadena de Markov es un proceso estocstico de tiempo discreto que en cualquier tiempo puede estar en un nmero finito de estados 1, 2, . . . , s.
Definicin
Un proceso estocstico de tiempo discreto es una cadena de Markov si, para t =
0, 1, 2, . . . , s y todos los estados:
P (Xt+1 = it+1 | Xt = it , Xt1 = it1 , Xt2 = it2 , . . . , X1 = i1 , X0 = i0 ) = P (Xt+1 = it+1 | Xt = it )
(2.1)
En la ecuacin 2.1 se dice que lo que suceda en el periodo t+1 depende nicamente
del estado en el tiempo t, y no de los estados por los que pas la cadena para llegar
al estado it .
Como hiptesis adicional, se dice que para todos los estados i y j y todo t, se tiene
que P (Xt+1 = j | Xt = i) es independiente de t, por lo cual:
P (Xt+1 = j | Xt = i) = pi,j
(2.2)
P1,1
P2,1
P = .
..
P1,2
P2,2
..
.
Ps,1
Ps,2
. . . P1,s
. . . P2,s
..
..
.
.
. . . Ps,s
(2.3)
P (Xt+1 = j | Xt = i) = 1
(2.4)
jS
pi,j = 1
(2.5)
jS
Teniendo en cuenta que los valores de las probabilidades son no negativos y considerando las ecuaciones 2.4 y 2.5, puede afirmarse que para cada estado i las
probabilidades en el rengln correspondiente corresponden a la distribucin de
probabilidad para los diferentes estados del sistema. Dicho de otra forma, la suma
de las probabilidades para el espacio muestral asociado a cada estado es igual a
uno.
2.1.2
Para una cadena de Markov estacionaria con matriz P de probabilidades de transicin conocidas, puede establecerse la probabilidad de que partiendo del estado i
en el tiempo m se alcance el estado j n transiciones ms tarde. En vista de que la
cadena de Markov es estacionaria, puede decirse:
P (Xm+n = j | Xm = i) = P (Xn = j | X0 = i) = Pi,j (n)
(2.6)
En la ecuacin 2.6, Pi,j (1) = Pi,j . Para determinar Pi,j (2) debe tenerse en cuenta
que si el sistema est en estado i, para que termine en estado j al cabo de dos
periodos se requiere que en un periodo pase al estado k, y en el otro pase del estado
k al estado j. As se tiene:
Pi,j (2) =
(P rob. de ir de i a k) (P rob. de ir de k a j)
(2.7)
kS
Pi,j (2) =
pi,k pk,j
(2.8)
kS
(2.9)
1 si j = i
0 si j 6= i
(2.10)
iS
(2.11)
donde q = [q1 , q2 , . . . qs ].
2.1.3
Trayectoria: Para dos estados i y j, una trayectoria es la secuencia de transiciones que comienza en i y termina en j en el que todas las transiciones tienen
probabilidad mayor de cero (> 0) de ocurrir.
Alcanzabilidad: Un estado j es alcanzable desde i si hay una trayectoria entre
i y j.
Comunicacin: Dos estados i y j se comunican si j es alcanzable desde i e i es
alcanzable desde j.
Conjunto Cerrado: Un conjunto de estados S en una cadena de Markov es
un conjunto cerrado si ningn estado fuera de S es alcanzable desde algn
estado en S.
Estado Absorbente: Un estado i es absorbente si la probabilidad de ir a s
mismo es uno (Pi,i = 1).
Estado transitorio: Un estado i es transitorio al existir un estado j alcanzable
desde i e i no es alcanzable desde j.
6
2.1.4
1
1
lm P n = .
n
..
2
2
..
.
. . . s
. . . s
..
.
. . . s
(2.12)
Dado que el ij-simo elemento de P n es Pi,j (n), para cualquier estado inicial i, se
tiene:
lm Pi,j (n) = j
(2.13)
para n grande, P n tiende a una matriz con renglones idnticos. Lo que significa
que en el largo plazo la cadena se estabiliza y la probabilidad de llegar a un estado
j es j en el largo plazo (independientemente del estado inicial i.
El vector = [1 , 2, . . . , s ] se conoce como distribucin de estado estable (o de
equilibrio).
Clculo de la distribucin de estado estable Partiendo del teorema anterior, para
n grande y para toda i,
Pi,j (n + 1)
= Pi,j (n)
= j
(2.14)
7
Pi,k (n)pk,j
(2.15)
kS
k pk,j
(2.16)
kS
(2.17)
(2.18)
(2.19)
2.1.5
Anlisis transitorio
El comportamiento previo a alcanzar el estado estable se conoce como comportamiento transitorio, para cuyo clculo se debe trabajar con las ecuaciones para
Pi,j (n).
2.1.6
X
k6=j
k pk,j
(2.20)
2.1.7
Para una cadena ergdica, mi,j el nmero esperado de transiciones antes de llegar
por primera vez al estado j dado que estamos en estado i se conoce como tiempo
promedio de primer paso.
Partiendo del estado i, con probabilidad pi,j se llegar a j en una transicin. Para
k 6= j se pasa a continuacin con pi,k . En este caso llevar un promedio de 1 + mk,j
transiciones ir de i a j, lo que implica que:
mi,j = Pi,j (1) +
pi,k (1 + mk,j )
(2.21)
k6=j
dado que:
pi,j +
k = 1
(2.22)
k6=j
mi,j = 1 +
pi,k mk,j
(2.23)
k6=j
1
i
(2.24)
2.1.8
Cadenas absorbentes
Las cadenas de Markov, tales que poseen algunos estados absorbentes, se conocen
como Cadenas absorbentes, en ellas de comenzar en un estado transitorio, tarde o
temprano se llegar a un estado absorbente.
Para cualquer cadena absorbente es posible calcular:
1. El nmero de veces que se espera que entre a cada estado transitorio, dado
que inici en el estado transitorio i, esto es el nmero de periodos que se
9
(2.25)
(2.26)
(2.27)
10
2.2
1
<
1
(2.28)
2.2.1
2.2.2
Poltica ptima
La poltica es entendida como una regla que se establece para la toma de decisiones,
a manera de criterio. As, la decisin que se toma en un periodo t puede depender
de lo sucedido antes, es decir, la decisin puede depender del estado en los periodos
1, 2, . . . , t, y de las decisiones tomadas en los periodos 1, 2, . . . , t 1.
Se conoce como una poltica estacionaria si siempre que el estado sea i, mediante
la poltica se adopta, independientemente del periodo, la misma decisin (i).
Sea una poltica arbitraria y el conjunto de polticas. Entonces:
Xt : Variable de decisin para el estado del proceso markoviano de decisin al
comienzo del periodo t.
X1 : Estado particular del sistema al comienzo del periodo 1 (estado inicial).
dt : Decisin elegida durante el periodo t.
V (i): Recompensa descontada esperada obtenida durante un nmero infinito de
periodos, dado que al inicio del periodo 1 el estado es i y la poltica estacionaria es .
V(i) = E
t1
rxt ,dt | x1 = i
(2.30)
t=1
donde E t1 rxt ,dt | x1 = i es la recompensa descontada esperada durante el
periodo t, dado que al comienzo del periodo 1 el estado es i y se sigue la poltica
estacionaria .
En problema de optimizacin, es:
En caso de maximizacin: V (i) = maxin V (i)
En caso de minimizacin: V (i) = mnin V (i)
Si en una poltica , V (i) = V (i) para todo i S, entonces es una poltica
ptima. Sin embargo, la existencia de una poltica simple que obtiene de manera
simultnea los N ptimos en el problema de optimizacin no es evidente. Adems
se sabe que si ri,d estn acotadas, existe una poltica ptima.
12
2.2.3
1. Iteracin de Polticas
2. Programacin lineal
3. Iteracin de valores o aproximaciones sucesivas
Iteracin de Polticas
Una forma de evaluar cualquier poltica estacionaria consiste en determinar el
conjunto de ecuaciones lineales V (i) para todo i S, como sigue:
V (i) = ri,(i) +
(2.31)
jS
Donde:
V (i): Recompensa descontada esperada para un nmero infinito de periodos.
ri,(i) : Recompensa esperada del periodo actual.
P
jS p(j | i, (i))V(j) : Recompensa descontada esperada al comienzo del periodo dos, obtenida del periodo dos en adelante.
Para evaluar una poltica estacionaria delta se resuelve el sistema de ecuaciones
lineales asociado a ella.
Mtodo de iteracin de la poltica de Howard
la poltica estacionaria ptima para un MDP.
T(i) = m
ax ri,(i) +
dD(i)
p(j | i, d)V(j)
(2.32)
jS
Siempre T (i) V (i), dado que se puede elegir d D(i), para todo i S.
13
Vj
(2.33)
jS
sujeto a : Vi
i, d D(i)
(2.34)
jS
Vj
(2.35)
jS
sujeto a : Vi
i, d D(i)
(2.36)
jS
14
X
p(j | i, d)Vt1 (j)
Vt (i) = m
ax ri,(i) +
dD(i)
(2.37)
V0 (i) = 0
(2.38)
jS
15
Captulo 3
Proceso de simulacin
3.1
3.1.1
Anlisis de entrada
Observacin del sistema
3.1.2
Recolectar toda la informacin posible del sistema haciendo uso de las posibles
fuentes disponibles: conocimiento de expertos, estadsticas, datos hostricos, bases
de datos e informacin de campo.
3.1.3
Determinar los procesos crticos del sistema, pues no tiene sentido invertir tiempo
y dinero en solucionar los aspectos que no significan un verdadero problema.
Es importante que se tenga claridad respecto de la zona (parte del sistema) en la
cual se presenta el problema, el momento en el cual tiene lugar el problema, etc.
17
3.1.4
3.2
3.2.1
Modelizacin
Construccin de un modelo mental del sistema simulado
3.2.2
3.3
3.3.1
Anlisis de salida
Verificacin
18
3.3.2
Validacin
Con el fin de determinar si el modelo representa de manera fidedigna el comportamiento del sistema, es importante hacer un anlisis estadstico de las medidas de
desempeo del sistema simulado y compararlo con el sistema real. Las validaciones
deben hacerse sobre los grupos homogneos y no limitarse a la simple comparacin de promedios. Se recomienda realizar pruebas de diferencia de medias y de
varianzas.
3.3.3
Anlisis de escenarios
3.3.4
Toma de decisiones
19
Captulo 4
Planeacin de la produccin
La planeacin de la produccin implica la planeacin del aprovisionamiento de
los recursos necesarios para la produccin, la planeacin de las actividades de
produccin requeridas para transformar las materias primas en productos finales
satisfaciendo la demanda de los consumidores en la forma ms eficiente o econmica
posible (Pochet, 2006).
En ambientes industriales, los problemas a tratar en este campo del conocimiento
tienen que ver con la toma de decisiones respecto del tamao de los lotes a producir
de cada producto, el momento en el cual debe iniciar la produccin, la mquina o
conjunto de mquinas utilizadas para la produccin, o la secuencia de produccin
de los diferentes lotes. El objetivo usualmente es satisfacer la demanda al menor
coste total, y las decisiones segn su naturaleza pueden ser de largo, mediano o
corto plazo.
La planeacin de la cadena de suministros es similar a la planeacin de la produccin, pero incluye las decisiones de adquisicin y de distribucin.
Los problemas de diseo de la Cadena de suministros incluyen decisiones de largo
plazo como la localizacin, la seleccin de proveedores y el diseo de los sistemas
de distribucin.
Los objetivos que se persiguen son entre otros la minimizacin del coste total,
la maximizacin de la utilidad o la maximizacin de la satisfaccin del cliente.
Por lo anterior, los sistemas de planeacin de manufactura (produccin) son cada
vez ms sofisticados y flexibles. La actual tendencia de integracin en la cadena de
suministros implica la integracin de los modelos que incluyan: aprovisionamiento,
produccin, distribucin y ventas; adems, deben ser giles ante los cambios en la
demanda y el mercado.
21
En este contexto los modelos empleados son por lo general de programacin (lineal)
entera mixta (MIP, del ingls Mixed integer programming). Los alistamientos de
la produccin, la asignacin de mquinas, y sus costes asociados implican el uso de
variables enteras o binarias, y por ende aumentan la complejidad de los sistemas
de produccin.
4.1
22
4.2
4.3
4.3.1
Capacidad Terica
CT =
ni d h
[horas/ao]
(4.1)
iI
4.3.2
Capacidad Instalada
CI = CT G1 =
ni d h
iI
G1 =
ni gi
[horas/ao]
(4.2)
iI
ni gi
[horas/ao]
(4.3)
iI
4.3.3
Capacidad Disponible
CD =
ni dh ht nt (G1 + G2 + G3 + G4 )
[horas/ao]
(4.4)
iI
Donde: dh es el nmero de das hbiles por ao, ht la cantidad de horas por turno,
nt la cantidad de turnos trabajados por da, G2 son las prdidas por inasistencia
de los trabajadores, vacaciones, incapacidad, permisos, etc., G3 son las prdidas
por factores organizacionales y G4 las prdidas por factores externos naturales,
tcnicos, econmicos, etc.
4.3.4
Capacidad Necesaria
CN =
XX
Xj tei,j
[horas/ao]
(4.5)
iI jJ
4.3.5
Capacidad Utilizada
CU =
XX
Xj tri,j
[horas/ao]
(4.6)
iI jJ
4.4
Conjuntos:
I: centros de procesamiento,
J: productos
Parmetros:
Pj : precio de venta del producto j,
25
Pj Xj
(4.7)
CVj Xj + CAj Yj
(4.8)
Pj Xj (CVj Xj + CAj Yj )
(4.9)
jJ
M in CostT ot =
X
jJ
M in U tilT ot =
X
jJ
M ax V olP rod =
Xj
(4.10)
jJ
M ax U tilizCap =
XX
tej Xj +
iI jJ
XX
taj Yj
(4.11)
iI jJ
26
tej Xj +
X
jJ
taj Yj Cdi
i I
(4.12)
Dminj Xj Dmaxj
X
j J
Pj Xj (CVj Xj + CAj Yj ) 0
(4.13)
(4.14)
jJ
M (Yj ) Xj
j J
Xj 0 j J
Yj {0, 1}
j J
(4.15)
(4.16)
(4.17)
27
Bibliografa
29
Miguel de Cervantes
33