You are on page 1of 70

Apuntes de

Teoría de Decisiones

7º. Semestre
Licenciatura en
Ingeniería Civil

M. I. Iveth Adriana Samayoa Aquino


M. I. José Francisco Grajales Marín
2015
íNDICE
INTRODUCCIÓN 1

1 SÍNTESIS DE PROBABILIDAD 2
1.1 Definiciones 2
1.2 Medidas de tendencia central 4
1.3 Medidas de dispersión 4
1.4 Medidas de asimetría 5
1.5 Medidas de aplanamiento o exceso (kurtosis) 6
1.6 Probabilidad 6
1.7 Teorema de Bayes 6
1.8 Variable aleatoria 7
1.9 Distribuciones teóricas de probabilidad 8

2 ANÁLISIS DE DECISIÓN 9
2.1 Árbol de decisión 10
2.2 Análisis de decisión bajo incertidumbre 12
2.3 Análisis de decisión bajo riesgo 17

3 CADENAS DE MARKOV 23
3.1 Procesos estocásticos 23
3.2 Cadenas de Markov 23
3.3 Cadenas de Markov finitas con probabilidades de transición estacionarias 24
3.4 Matriz de transición 24
3.5 Vector de probabilidades iniciales 25
3.6 Ejemplo de cadena de Markov 28

4 LÍNEAS DE ESPERA 35
4.1 Clasificación 35
4.2 Notación de Kendall 37
4.3 Consideraciones en el análisis 38
4.4 Modelo M/M/1 39
4.5 Modelo M/M/S 42
4.6 Modelo M/G/1 44
4.7 Modelo M/D/1 44

5 SIMULACIÓN Y MÉTODOS DE MONTECARLO 49


5.1 Números aleatorios 50
5.2 Métodos de Montecarlo 52
5.3 Generador de proceso uniforme 52
5.4 Generador de proceso con distribución exponencial negativa 54
5.5 Generador de proceso binomial 56
5.6 Prueba de bondad de ajuste 56
5.7 Desviaciones aleatorias normales 58

ANEXO A TABLAS 64

BIBLIOGRAFÍA 68
INTRODUCCIÓN

Estos apuntes se crean para servir de apoyo en la asignatura Teoría de Decisiones que se cursa en el 7º.
Semestre del programa de la Licenciatura en Ingeniería Civil y se enfocan al conocimiento de algunos modelos
probabilísticos que pueden servir para la toma de decisiones en ambientes de incertidumbre.

En el capítulo 1, llamado Síntesis de Probabilidad, se hace un resumen de los contenidos del curso de
probabilidad y Estadística que representan los antecedentes de las técnicas que se estudian posteriormente. El
capítulo 2; denominado como Análisis de Decisión se enfoca al estudio de los criterios más conocidos para la
toma de decisiones, que incluye el análisis bajo completa incertidumbre y el análisis bajo riesgo. El capítulo 3 se
dedica al estudio de las cadenas de Markov, como una introducción a los procesos estocásticos, las matrices de
transición y los cambios de estado.

En el capítulo 4 se estudia la metodología de Líneas de Espera que es de utilidad en el modelado de diversas


situaciones que se observan con frecuencia en el mundo real y que pueden ser descritas mediante la técnica.

Finalmente, el capítulo 5, de Simulación, está enfocado a los métodos de Montecarlo, también llamado muestreo
aleatorio, el cual constituye una gran herramienta para simular muchos procesos de la ingeniería cuya operación
depende del comportamiento de variables aleatorias.

1
1 SÍNTESIS DE PROBABILIDAD

Son varios los vocablos que se reconocen como antecedentes del término estadística. Se pueden nombrar los
siguientes:
 Statistik, que proviene de la palabra Italiana statista, que significa estadista.
 Status, (latín), que significa posición, situación o estado.
 Staat (alemán), que se refiere al estado como unidad política superior.
 Statera (griego), que significa balanza.
La razón que motivó al hombre a registrar datos con propósitos estadísticos, tal vez se encuentre en su
necesidad, casi instintiva, de anotar aquellos hechos que aparecen como vivencias sociales transcendentes:
crecimiento de poblaciones, disposiciones del alimento, fenómenos naturales, etc. Con el desarrollo de las
civilizaciones, la estadística puede pensarse como una aritmética estatal para asistir a los gobernantes que
necesitaban conocer la riqueza de sus súbditos para así recaudar impuestos o presupuestar la guerra.

1.1 Definiciones
Dato
Número o medida que se obtiene de observaciones de una variable.
Variable
Es toda cualidad o característica que toma valores diferentes en distintos objetos.
Variable aleatoria
Es aquella variable que toma valores de algún proceso al azar.
Variable aleatoria continua
Es la variable aleatoria que puede tomar cualquier valor de un intervalo o dominio.
Variable aleatoria discreta
Es la variable que sólo puede tomar valores de un conjunto numerable.
Estadística
Ciencia cuyos propósitos son la extracción de datos y su uso en la realización de inferencias acerca de una
población, de la cual dichos datos fueron extraídos.
Estadística descriptiva
Es la que trata con la descripción numérica o gráfica de un conjunto de datos.
Estadística inferencial
Es la que trata con la formulación de conclusiones, estimaciones o generalizaciones acerca de parámetros
poblacionales, con base en la estadística descriptiva realizada con datos muestrales.
P oblación
Es un grupo de datos que se toma como referencia en un estudio estadístico, y que considera todas las
características de la variable definida en el problema bajo estudio.

2
M uestra
Es cualquier subconjunto de datos seleccionados de una población.
Diseño del ex perim ento
Estudio de los métodos de muestreo y los problemas que con él se relacionan.
Espacio de eventos
Colección de todos los resultados posibles de un experimento.
Ex perim ento aleatorio
Experimento que reúne las siguientes características: una acción, un resultado y una observación.
Evento sim ple
Es cada uno de los eventos que constituyen un espacio de eventos.
Estadística descriptiva

La estadística descriptiva hace uso de varias medidas para describir numéricamente un conjunto de datos
muéstrales o poblacionales. Tales medidas se pueden clasificar como sigue:
 Medidas de posición. Este tipo de medidas indican la distribución que guardan los datos a lo largo de su
rango (el dato mayor menos el menor). Se subclasifican en:
 Medidas de tendencia central. Son medidas que normalmente se localizan alrededor del centro de los
datos. Dentro de este tipo de medidas se encuentran la media aritmética, la mediana, el modo, la media
armónica, la media geométrica y la media cuadrática.
 Cuantiles. Estas medidas indican la localización de los datos de acuerdo con una subdivisión que se
realiza del rango de los mismos. Existen tres tipos de cuantiles: cuartiles, deciles, y percentiles.
 Medidas de dispersión. Son medidas que indican el grado en el cual están dispersos los datos con
respecto a alguna medida de tendencia central. Este tipo de medidas lo conforman la variancia, la
desviación estándar, la desviación media absoluta y el coeficiente de variación.
 Medidas de deformación. Este tipo de medidas son relativas a la forma que tienen las curvas de
frecuencias y también están relacionadas con la dispersión que tienen los datos. Existe dos tipos de medidas
de deformación: el coeficiente de sesgo o asimetría y el coeficiente de kurtosis o de apuntamiento.

Rango: Se define como la diferencia entre el mayor y el menor valor de una distribución

Criterio de Sturges para establecer el número de intervalos a utilizar en una distribución:

k = 1 + 3.3 log n k, número de intervalos

3
1.2 Medidas de tendencia central
Momentos con respecto al origen:

1 n
m´k = ∑ xk
n i =1 i
Datos no ordenados

1 m
m´k = ∑ t kj f j
n j =1
Datos ordenados

donde n=número de datos, m=número de intervalos, t=intervalo de clase, f=frecuencia de clase, k=orden del
momento.

Media. Se define como el momento de primer orden con respecto al origen:

1 n
m´1= x = ∑ x
n i =1 i
Datos no ordenados

1 m Datos ordenados
m´1= x = ∑t j f j
n j =1

donde n=número de datos; m=número de intervalos; t=intervalo de clase; f=frecuencia de clase

Modo:

∆1
x~ = L1 + c
∆1 + ∆ 2

Mediana:

n / 2 − (∑ f )1
xˆ = L1 + c
f

1.3 Medidas de dispersión


Momentos con respecto a la media:

1 n
mk = ∑ (x i − x )k
n i =1
Datos no ordenados

4
1 n
mk = ∑ (t j − x )k f j
n j =1
Datos ordenados

Variancia. Se define como el momento de orden dos con respecto a la media:

1 n
m2 = S x2 = ∑ (x i − x ) 2
n i =1
Datos ordenados

1 n
m2 = S x2 = ∑ (t j − x ) 2 f j
n j =1
Datos no ordenados

Desviación estándar:
Sx = m 2

Coeficiente de variación:
Sx
CVx =
x

1.4 Medidas de asimetría

Asimetría = [(q3 – q2) – (q2 – q1)] / Sx

donde q1, q2 y q3 son los cuartiles del 25 %, 50 % que corresponde a la mediana y del 75 %, Sx es la
desviación estándar. También se puede calcular una medida de asimetría con el momento de orden tres con
respecto a la media, con la variancia y finalmente con el parámetro b1:

1 m
m3 = ∑ (t j − x ) 3 f j
n j =1

b1 = m 32 / m 23

5
1.5 Medidas de aplanamiento o exceso (kurtosis)

b2 = m 4
m 22

γ 2 = b2 − 3

si γ 2 = 0 , es mesokúrtica

γ 2 > 0 , es leptokúrtica

γ 2 < 0 , es platokúrtica

1.6 Probabilidad
La teoría axiomática de probabilidades se basa en tres axiomas:
1. La probabilidad de ocurrencia de un evento A es un número, P(A), que se le asigna a dicho evento, cuyo
valor es menor o igual que uno, o sea
0 ≤ P(A) ≤ 1
2. Si E es el espacio de eventos asociados a un experimento, entonces
P(E) = 1
3. La probabilidad, P(C), de la unión, C, de dos eventos mutuamente exclusivos, A y B, es igual a la suma de
las probabilidades de estos, es decir
P(A∪B) = P(C) = P(A) + P(B)

Probabilidad condicional
Un concepto de gran importancia práctica es el de probabilidad condicional, P(AB), del evento A, dado que el B
ha ocurrido. Si P(B) es diferente de cero, esta expresa:

P( A ∩ B )
P( A | B ) =
P(B)

1.7 Teorema de Bayes


Se dice que un grupo de eventos es colectivamente exhaustivo si la unión de todos ellos es el espacio de
eventos correspondientes como se muestra en la figura 1.1:

6
A Espacio de eventos

B2
B1

Bn
Bi

A ∩ Bi
Figura 1.1 Eventos colectivamente exhaustivos

Con lo cual se define el llamado teorema de la probabilidad total.


Considerando que

P (Bj ∩ A) = P ( A ∩ Bj )

P (Bj ∩ A) P ( A ∩ Bj )
P (Bj | A) = =
P ( A) P ( A)

P ( Bj ) P ( A | Bj )
P ( Bj | A ) = i =n
∑ P ( Bi ) P ( A | Bj )
i =1

Este resultado se conoce como teorem a de Bayes . A las probabilidades P(Bj) que se asignan a los eventos Bj
antes de observar el evento A, se les denomina a priori; a las probabilidades P(Bj|A) que se obtiene des pues de
observar el evento A, se les llama a posteriori.

1.8 Variable aleatoria


Una variable aleatoria es una función que asocia un número con cada punto en un espacio muestral del
experimento.
Para un espacio muestral E de algún experimento, una variable aleatoria es cualquier regla que asocia un
número con cada resultado de E. Existen dos tipo de variables aleatorias, discretas y continuas; una variable
discreta es aquella cuyos valores posibles forman un conjunto finito o bien se pueden listar en una sucesión
infinita donde hay un primer elemento, un segundo elemento, etc. Una variable aleatoria es continua si su
conjunto de valores posibles abarca todo un intervalo.

7
1.9 Distribuciones teóricas de probabilidad
Distribución normal

1 2 2
f(x) = e −( x − µ ) /( 2σ ) -∞ < x < ∞
2π σ

donde: x = variable aleatoria


e,π = constantes
µ = media
σ= desviación estándar
σ2 = variancia

Distribución normal estándar

1 2 /2
f (z ) = e −z -∞ < z < ∞

Distribución binomial

f (x ) = (nx ) p x (q )n − x
x = 0, 1, 2,…, n,
Donde q = 1 - p
p: probabilidad de éxito.
q: probabilidad de fracaso.

Distribución de Poisson

e −λ λx
f (x ) = x = 0,1,2,…..
x!

donde: x= variable aleatoria


e = cte.
λ = media

8
2 ANÁLISIS DE DECISIÓN

Se llamará decisión al proceso de elegir un acto de entre un conjunto de formas alternativas de actuar. Lo
anterior puede enunciarse en una forma algo más precisa como sigue:
a) Son posibles dos o más formas alternativas de actuar.
b) Solo se puede actuar de una de esas formas.
c) El proceso de decisión elegirá a una de esas actuaciones alternativas para llevarla a cabo.
d) La elección de una actuación debe hacerse en forma tal que cumpla algún fin designado.
Observar que la condición (b) no es restrictiva ya que toda combinación de actuaciones puede considerarse
como una sola. De esta manera las componentes básicas de un problema de decisión son:
1. Sujeto de una decisión. Alguien o algún grupo debe identificarse como el que toma decisiones. Algunos
problemas pueden tener dos o más sujetos de decisión.
2. Objetivos. El que toma la decisión debe tener uno o más objetivos. Estos objetivos pueden definirse como
los resultados deseados para cada decisión. En el caso de objetivos múltiples, algunos de ellos pueden estar
en conflicto. Los objetivos pueden ser cualitativos o cuantitativos. En muchos problemas técnicos el objetivo
cuantitativo puede ser maximizar una ganancia o minimizar un costo.
3. Cursos alternos de acción. El que toma las decisiones debe tener la posibilidad de elegir entre dos o más
alternativas o cursos de acción. En muchos problemas de decisión se tiene una infinidad de cursos de
acción.
4. Una medida de efectividad. El que toma las decisiones debe tener alguna medida del nivel en que cada
curso de acción que satisface a sus objetivos. Desde luego implícitamente se supone que en caso de existir
esta medida para un problema dado no es necesariamente la misma para todas las alternativas.

La toma de decisiones comúnmente se divide por una parte de acuerdo con, que la decisión sea hecha por (a)
un individuo o (b) un grupo, y por otra de acuerdo con, que ella se realice bajo condiciones de (a) certidumbre,
(b) de riesgo o (c) de incertidumbre. A esta última clasificación debe agregarse (d) una combinación de
incertidumbre y riesgo a la luz de la evidencia experimental. Este es el dominio de la inferencia estadística.
Los problemas de decisión bajo certidumbre se presentan cuando se puede asegurar qué resultado ocurrirá si se
elige un curso de acción específico. En este caso no se tienen variables aleatorias controlables o no. La segunda
clase de problemas de decisión se presenta cuando cada acción conduce a uno de varios resultados posibles. En
este caso cada resultado posible puede verificarse con una probabilidad conocida. Se dice entonces que es un
problema de decisiones bajo riesgo. Si cada acción alternativa conduce a uno de varios resultados posibles los
cuales pueden verificarse con probabilidades desconocidas, se dice que es un problema de decisiones bajo
incertidumbre.

9
Terminología de modelos de toma de decisiones

Al igual que con cualquier tipo de modelo, los modelos de toma de decisiones tienen una terminología propia.
Esta terminología describe las tres partes esenciales de una decisión:
1. Las decisiones alternativas de entre las cuales se debe elegir.
Cuando el que toma decisiones enfrenta un problema que requiere una decisión, una de las acciones que debe
emprender antes de llegar a una decisión, es determinar las alternativas sobre las cuales se basará la decisión
final.
2. Los estados de la naturaleza, o acciones externas que enfrenta la persona encargada de tomar las
decisiones.
El que toma decisiones enfrenta una situación en la que pueden producirse resultados múltiples a partir de una
estrategia determinada, enfrenta estados de la naturaleza múltiples o acciones externas múltiples. Los estados
de la naturaleza son las circunstancias que afectan el resultado de la decisión pero que están fuera del control
del que toma decisiones.
3. El resultado que se obtiene por el uso de una alternativa cuando se presenta cierto estado de la naturaleza.
Para cada combinación de estrategia y estado de la naturaleza habrá un resultado. Este resultado puede
expresarse en términos de utilidades, puede expresarse en términos de valores presentes, o puede expresarse
en términos de alguna medida no monetaria. Para determinar los resultados es necesario considerar todas las
posibles combinaciones de decisiones y de estados de la naturaleza para determinar el resultado que se
obtendría si se utiliza una alternativa dada y si ocurre un estado específico de la naturaleza. En general, si
existen k alternativas y n estados de la naturaleza, será necesario calcular (k x n) resultados. Con bastante
frecuencia los resultados también se denominan pagos y una tabla de resultados se denomina matriz de pagos.

2.1 Árbol de decisión


Una forma clara y sencilla de estructurar el proceso de toma de decisiones es por medio de un árbol de decisión.
El árbol está formado por nodos de acción, nodos de probabilidad y ramas. Los nodos de acción se denotarán

con un cuadro (□) y representarán aquellos lugares del proceso de toma de decisiones en los que se toma una

decisión. Los nodos de probabilidad se denotarán por medio de un círculo ( ) e indicarán aquellas partes del
proceso de toma de decisiones en las que ocurre algún estado de la naturaleza. Las ramas se utilizan para
denotar las decisiones o los estados de la naturaleza. También pueden anotarse probabilidades sobre las ramas
para denotar la probabilidad de que ocurra un estado determinado de la naturaleza. Por último se colocan los
pagos al final de las ramas terminales del estado de la naturaleza para mostrar el resultado que se obtendría al
tomar una decisión particular, y que después ocurra un estado específico de la naturaleza.

10
Ejemplo 2.1 Plantear el árbol de decisión
Considerar el caso de una persona que está tratando de decidir si debe llevar o no un paraguas a su trabajo el
día de hoy. La decisión de llevar el paraguas se muestra como un nodo de acción en la figura 2.1.
Al final de cada una de las ramas que parten de un nodo de acción habrá un nodo de probabilidad u otro nodo
de acción. Los posibles estados de la naturaleza comenzarán en los nodos de probabilidad. También se
muestran los posibles estados de la naturaleza para la decisión de esta persona. En este caso se han anotado
también sobre la rama de probabilidad las probabilidades de que haya lluvia o esté despejado de acuerdo con la
oficina meteorológica.
Si se combinan los nodos de acción y los nodos de probabilidad con los pagos para cada combinación se tiene
un árbol de decisión. Esta persona ha determinado los diversos pagos asociados con las cuatro posibles
combinaciones de decisiones y de estados de la naturaleza. Estos pagos se colocan al final de las ramas
terminales de probabilidad. Ha decidido los siguientes pagos:
Llevar paraguas y que no llueva -1
Llevar paraguas y que llueva +20
No llevar paraguas y que no llueva +5
No llevar paraguas y que llueva -40
Utilizando estos pagos es posible construir un árbol final de decisión, que se muestra en la figura 2.2:

Figura 2.1 Nodos de acción y de probabilidad

Figura 2.2 Árbol de decisión

11
2.2 Análisis de decisión bajo incertidumbre

Para trabajar bajo incertidumbre se han propuesto diversos criterios que la experiencia ha mostrado como
populares en la toma de decisiones. En este trabajo se considerarán cinco de ellos: el de Bayes-Laplace, el
maximin de Wald, el maximax de Baumol, el de Hurwicz y el minimax de Savage.

a) Criterio de Bayes-Laplace 1
El criterio establece que si no se dispone absolutamente de ninguna información sobre las probabilidades
asociadas con los futuros resultados entonces se deben asignar probabilidades iguales a cada uno de los
posibles resultados y usar estas probabilidades para calcular el valor esperado de cada uno de los posibles
cursos de acción.
Evidentemente este criterio tiene varios inconvenientes. La más seria de estas deficiencias es que usualmente el
ejecutivo no puede considerar los diferentes resultados como igualmente posibles. De hecho, existen n posibles
cursos de acción y el ejecutivo está consciente de m de ellos, entonces su decisión estará influenciada por la
magnitud de m. Así, si existen 20 posibles cursos de acción y sólo hay conciencia de tres de ellos, asignará
probabilidades de 33.3 % cuando debía asignar sólo 5 %.
En ocasiones este criterio es llamado el de la razón insuficiente ya que no hay razón para preferir un curso de
acción sobre otro, no hay que seguir alguno de ellos; pero esto en sí constituye un curso de acción (dejar todo
al azar). Sin embargo, difícilmente puede considerarse ésta como una posición racional.

b) Criterio maximin de Wald 2


Este criterio representa un enfoque muy conservador del proceso de tomar decisiones. Para cada posible
alternativa el ejecutivo determina cuál es el peor de los posibles resultados, esto es, el que le produce máximos
perjuicios o beneficios mínimos. Selecciona entonces de entre todos estos últimos el que maximiza sus
beneficios o minimiza sus pérdidas.
Algunos han considerado que este criterio no es sino una manifestación típica de cobardía. Desde luego que no
puede considerarse como irracional y de hecho al confrontar situaciones conflictivas en las que debe esperarse
una actuación maliciosa e inteligente del oponente, es bueno y sano emplearlo. Sin embargo, en problemas en
los que se toman decisiones con relación a la naturaleza (juegos contra naturaleza) el criterio es
extremadamente conservador.

1
Thomas Bayes, nacido en Londres en 1702, era un clérigo presbiteriano que investigó sobre las probabilidades de causas desconocidas,
deduciéndolas de acontecimientos observados. Su conocida fórmula había sido publicada en 1763, en una memoria póstuma, dos años
después de su muerte. La fórmula de Bayes fue al principio poco aceptada. Más tarde, combinada con los teoremas de probabilidad total y
compuesta, permitió a Laplace calcular la probabilidad de numerosos fenómenos, basándose en observaciones anteriores.
2
Abraham Wald (1902-1950), son notables sus aportaciones a la toma de decisiones bajo incertidumbre, y propuso una función de
preferencias reveladas, que dista mucho de semejarse a las consideradas hoy día.
12
c) Criterio maximax de Baumol 3
Al contrario del anterior, este criterio corresponde a los optimistas, los que siempre consideran únicamente el
lado positivo de los posibles resultados en la toma de decisiones. Aquel que al apostarle a un caballo sólo toma
en cuenta que ganó en las dos últimas carreras, sin considerar que perdió las veinte anteriores.
Puede establecerse de la siguiente manera: para cada curso de acción defínase cuál es el mejor resultado
(máximas ganancias o pérdidas mínimas) y selecciónese de entre los anteriores el máximo de los máximos.

d) Criterio de Hurwicz 4
Por su parte Hurwicz ha propuesto un criterio que se encuentra a medio camino entre el maximin y el maximax.
Esto es, el ejecutivo hará un promedio ponderado entre el mejor resultado que pueda esperarse de cada curso
de acción y el peor para el mismo curso.
En la asignación del coeficiente de peso para el mejor y el peor se reflejarán las características conservadoras u
optimistas del ejecutivo. Así, un pesimista le asignará un peso de ¼ al mejor resultado y de ¾ al peor. Por el
contrario, un optimista, confrontado con la misma decisión, le asignará ¾ al mejor y ¼ al peor.
Se observa que este criterio posee la misma deficiencia de los dos anteriores; esto es, tomar en cuenta
únicamente resultados extremos ignorando los restantes.
Una extensión del criterio de Hurwicz consiste en hacer un análisis de sensibilidad graficando todas las
alternativas posibles para los valores de α (probabilidad de ocurrencia). En el ejemplo se observa el
procedimiento.

e) Criterio minimax de Savage 5


Este criterio se ocupa del costo de oportunidad de una decisión incorrecta. A partir de la matriz de pagos se
construye una nueva matriz llamada la matriz de arrepentimiento. Los elementos de esta matriz se calculan de
la siguiente manera: el elemento en el renglón i y columna j de la matriz de arrepentimiento es el costo de
oportunidad de elegir la i-ésima alternativa cuando el resultado obtenido es el j-ésimo.
La idea bajo este enfoque es la protección del ejecutivo contra costos de oportunidad excesivos. Para protegerse
a sí mismo, el ejecutivo aplica el criterio del minimax a la matriz de arrepentimiento. La pérdida máxima en cada
renglón se identifica y la alternativa cuyo renglón tiene el menor de los arrepentimientos es seleccionada por el
ejecutivo.
La principal deficiencia de este criterio es ignorar todos los elementos de la matriz de arrepentimiento salvo el
mayor, desperdiciándose gran cantidad de información.

3
William Baumol, Profesor Emérito de Economía de la Universidad de Princeton, EEUU, es uno de los economistas más citados de los
últimos años.
4
Leonid Hurwicz (1917-2008), fue profesor emérito en la Universidad de Minnesota. Obtuvo el Premio Nobel de Economía en 2007 por
haber sentado las bases de la teoría de diseño de mecanismos, en el marco de la teoría de juegos.
5
Leonard Savage (1917-1971), matemático estadounidense especializado en estadística. Su obra más conocida se titula Foundations of
Statistics (Fundamentos de estadística) en el que introduce ciertos elementos sobre la teoría de la decisión.
13
Ejemplo 2.2 Toma de decisión bajo incertidumbre
Considerar la siguiente matriz de pagos y tomar una decisión aplicando cada uno de los criterios de decisión
bajo incertidumbre:

Resultados
R1 R2 R3
A1 12 -6 24

Acciones
A2 36 12 48
A3 -3 60 30

a) Criterio de Bayes-Laplace

E(A1)=1/3(12)+1/3(-6)+1/3(24)=10
E(A2)=1/3(36)+1/3(12)+1/3(48)=32
E(A3)=1/3(-3)+1/3(60)+1/3(30)=29
La alternativa seleccionada es A2

b) Criterio maximin de Wald

Resultados
R1 R2 R3
A1 12 -6* 24
Acciones

A2 36 12* 48
A3 -3* 60 30

Max {-6, 12, -3} = 12


La alternativa seleccionada es A2

c) Criterio maximax de Baumol

Resultados
R1 R2 R3
A1 12 -6 24*
Acciones

A2 36 12 48*
A3 -3 60* 30

14
max {24, 48, 60} = 60
La alternativa seleccionada es A3

d) Criterio de Hurwicz
Resultados
R1 R2 R3
A1 12 -6* 24*

Acciones
A2 36 12* 48*
A3 -3* 60* 30

Pesimista:
A1=3/4(-6)+1/4(24)=-18/4+24/4=6/4
A2=3/4(12)+1/4(48)=36/4+48/4=84/4
A3=3/4(-3)+1/4(60)=9/4+60/4=51/4
Optimista:
A1=1/4(-6)+3/4(24)=6/4+72/4=68/4
A2=1/4(12)+3/4(48)=12/4+144/4=156/4
A3=1/4(-3)+3/4(60)=-3/4+180/4=177/4

Pesimista: max{6/4, 84/4, 51/4} = 84/4


Selección: A2

Optimista: max{68/4, 156/4, 177/4} = 177/4


Selección: A3

Con este mismo ejemplo, se hará una extensión al criterio de Hurwicz para la toma de decisiones; se selecciona
el mejor y el peor resultado de cada alternativa y cada uno de ellos es multiplicado por α y por (1-α)
respectivamente, obteniendo así los valores de cada alternativa para los valores de α establecidos:

R1 R2 R3 0 0 .2 5 0 .5 0 .7 5 1
A1 12 -6 24 24 -6 -6 1 .5 9 1 6 .5 24
A2 36 12 48 48 12 12 21 30 39 48
A3 -3 60 30 60 -3 -3 1 2 .8 2 8 .5 4 4 .3 60

Esta información se puede representar en una gráfica:

15
60
Pagos A3
40

20 A2
A1
0

-20
0 0.25 0.5 0.75 1
Probabilidad

Figura 2.3 Análisis de sensibilidad con el criterio de Hurwicz

La intersección de A2 con A3 se encuentra en α=0.5555, por lo que se puede establecer el siguiente criterio de
decisión: para valores de α de 0 a 0.5555 se decidirá por A2 y para valores de α de 0.5555 a 1.0 se decidirá por
A3 (valores más altos).
e) Criterio de Savage
Resultados
R1 R2 R3
A1 12 -6 24
Acciones

A2 36 12 48
A3 -3 60 30

Matriz de arrepentimiento:
Resultados
R1 R2 R3
A1 36-12 60+6 48-24
Acciones

A2 36-36 60-12 48-48


A3 36+3 60-60 48-30

Resultados
R1 R2 R3
A1 24 66* 24
Acciones

A2 0 48* 0
A3 39* 0 18

Min{66, 48, 39} = 39


La alternativa seleccionada es A3

16
2.3 Análisis de decisión bajo riesgo
En los casos en los que quien toma las decisiones se enfrenta a alternativas múltiples en las que cada
alternativa tiene a su vez resultados múltiples, es una práctica común encontrar el pago promedio para cada
estrategia y elegir después la alternativa que tenga el mayor pago promedio. En este modelo de decisión, si
existen n resultados para cada alternativa con
O ij = pago para la i-ésima alternativa dado el j-ésimo estado de la naturaleza, y

V i = pago promedio para la i-ésima alternativa

Entonces
1 n
V = ∑ O ij (2.1)
n j =1

El valor de la información perfecta


Con frecuencia surge la siguiente pregunta: ¿cuánto estaría dispuesta a pagar una persona que toma las
decisiones para obtener información adicional sobre cuáles serán las circunstancias reales? Antes de responder
esta pregunta se necesita conocer el valor de la información misma. Si la información es perfecta, es decir, si la
información dice exactamente qué es lo que va a ocurrir, resulta bastante sencillo responder la pregunta.
Si se sabe con exactitud cuál estado de la naturaleza ocurrirá, es fácil determinar la alternativa que debe
elegirse. Se elegirá la alternativa que produce el mayor pago para cada estado de la naturaleza.
Puesto que cada estado de la naturaleza ocurre sólo durante una fracción del tiempo, es posible calcular el valor
monetario esperado para el caso de la información perfecta utilizando los pagos máximos y las probabilidades
para cada estado de la naturaleza.
En general, se puede plantear de la siguiente manera
n
VME IP = ∑ O ij * p j (2.2)
j =1

Donde: O ij * = la máxima utilidad para cada uno estado de la naturaleza

p j = la probabilidad de cada estado de la naturaleza

Para calcular el valor de la información perfecta, lo único que se tiene que determinar es la diferencia entre el
valor monetario esperado con información perfecta y ese mismo valor monetario esperado sin información
perfecta:

VPI = VME IP - VME * (2.3)

donde VIP= valor de la información perfecta


VME IP = VME para la información perfecta

VME * = VME máximo sin información perfecta

17
El valor de la información de prueba
En la sección anterior se presentó el cálculo del valor de la información perfecta. Sin embargo, en términos
prácticos, por lo general la información proviene de algún procedimiento imperfecto de prueba. Con esto quiere
hacerse notar que la información de la prueba no siempre pronostica en forma correcta el estado de la
naturaleza que ocurrirá.
Debido a esta imperfección en el poder predictivo de las pruebas, el cálculo de la información de prueba es algo
más complejo que para la información perfecta. Para comprender el procedimiento que se utiliza para realizar
estos cálculos, sea
P(N|R) = la probabilidad de que ocurra en realidad el evento N,
dado que el resultado de la prueba fue R

Sin embargo, por lo general se desconocen los valores de P(N|R) lo cual se lee probabilidad de N dado R, puesto
que estos valores sólo se conocen después de haber utilizado la prueba las suficientes veces para recopilar
datos que permitan calcular probabilidades. Por lo general se conoce lo opuesto; es decir, la probabilidad de que
ocurra el resultado de la prueba dado el resultado correspondiente. Esta probabilidad es P(N|R) que
necesitamos, puesto que se calculó después de conocer el resultado. Para calcular P(N|R) se usa un resultado
bien conocido de la probabilidad, denominado Teorema de Bayes. Este resultado expresa:

P(R | N)P(N)
P(N|R) = (2.4)
P(R )

Por lo general, dos de los valores que aparecen en esta fórmula pueden obtenerse a partir de datos de prueba,
y el tercero puede calcularse a partir de los otros dos. Resulta fácil calcular a partir de datos previos la
probabilidad de que la prueba sea exacta, dado que se conoce el resultado real, P(R|N), y la probabilidad de que
ocurra un resultado particular sin importar cuál sea la prueba, P(N). P(N) también puede ser una probabilidad
subjetiva basada en la experiencia que tenga en esas situaciones quien toma las decisiones. Esta última
probabilidad, P(N), se conoce como probabilidad a priori puesto que se calcula antes de cualquier prueba,
mientras que las otras son probabilidades condicionales.
La tercera probabilidad que aparece en la Fórmula de Bayes, P(R), es la probabilidad de que ocurra el resultado
de prueba R. Esta probabilidad puede calcularse por medio del siguiente resultado de la teoría de
probabilidades:
P(R)=P(R|N)P(N)+P(R| N )P( N ) (2.5)
en donde N significa no N, o negación de N. Puesto que N incluye todos los eventos que no sean N, P( N ) y
P(R| N ) pueden ser sumas de diversos valores. Los valores de P(R| N ) y P( N ) pueden calcularse al mismo
tiempo que se obtienen P(R|N) y P(N).
Combinando (2.4) y (2.5) se llega a una versión modificada de la ley de Bayes:
P(R | N)P(N)
P(N|R) = (2.6)
P(R | N)P(N) + P(R | N )P( N )

18
El resultado final, P(N|R), la probabilidad de que ocurra el suceso N dado el resultado de prueba R, se conoce
como probabilidad a posteriori, puesto que se obtiene después del procedimiento de prueba. Una vez que se
conocen los valores de la probabilidad a posteriori, es posible emplearlos para llevar a cabo el análisis pre-
posterior con el objeto de determinar si debe llevarse a cabo una prueba o un muestreo.
Ejemplo 2.3 Determinación del valor de la información
Una compañía petrolera posee tierras que se supone contienen petróleo en el subsuelo. La compañía clasifica
estas tierras en cuatro categorías, según el número total de barriles que se espera obtener, esto es, un pozo de
500 000 barriles, uno de 200 000 barriles, uno de 50 000 barriles o un pozo seco. La compañía enfrenta el
problema de perforar o no, o de rentar la tierra incondicionalmente a un perforista independiente o rentársela
condicionada a la cantidad de petróleo que se encuentre. El costo de perforación de un pozo productivo es de
$100 000 y el costo de perforación de un pozo seco es de $75 000. Si el pozo es productivo, la ganancia por
barril es de $1.50 (después de deducir todos los costos de producción). Si se hace un contrato incondicional, la
compañía recibe $45 000 por la renta de la tierra, mientras que con el contrato condicional, recibe 50 centavos
por cada barril de petróleo extraído, siempre que el pozo sea de 200 000 o 500 000 barriles; de otra manera no
recibe nada.
Es posible obtener sondeos sísmicos a un costo de $12 000. Esta información conduce a cuatro clasificaciones
sísmicas posibles, denotadas por 1, 2, 3 y 4. La clasificación 1 indica que es definitiva la existencia de una
estructura geológica cerrada en la zona (condición muy favorable para encontrar petróleo); la clasificación 2
significa que tal vez exista una estructura cerrada en la zona; la clasificación 3 indica que existe una estructura
no cerrada en la zona (condición más o menos desfavorable) y la clasificación 4 dice que no hay una estructura
en la zona 8condición desfavorable). Con base en análisis anteriores de áreas geológicas parecidas (100
estudios de este tipo), la compañía obtiene los datos que se muestran en la tabla. Los valores entre paréntesis
en cada una de las celdas se pueden interpretar como probabilidades condicionales dado el estado de la
naturaleza; por ejemplo, si se trata de un pozo de 200 000 barriles, entonces (3/16) se puede interpretar como
probabilidad condicional de que la lectura sísmica quede clasificada como 2 (quizá una estructura cerrada en la
zona); si se trata de un pozo seco, (25/48) se puede interpretar como la probabilidad condicional de que la
lectura sísmica se clasifique como 3 (una estructura no cerrada en la zona); y así sucesivamente. La distribución
de probabilidades a priori de la clasificación de la tierra es 0.10, 0.15, 0.25, y 0.50 para los estados de la
naturaleza correspondientes a un pozo de 500 000, 200 000, 50 000 y 0 barriles de petróleo respectivamente.

Pozo de Pozo de Pozo de


Clasificación sísmica 500 000 200 000 50 000 Pozo seco
barriles barriles barriles
1 7(7/12) 9(9/12) 11(11/24) 9(9/48)
2 4(4/12) 3(3/16) 6(6/24) 13(13/48)
3 1(1/12) 2(2/16) 3(3/24) 15(15/48)
4 0(0/12) 2(2/16) 4(4/24) 11(11/48)

19
Crear una matriz de pagos, obtener el valor de la información perfecta, obtener el valor de la experimentación,
¿conviene contratar los servicios de información geológica?
La matriz de pagos es:

Estados de la naturaleza
E1 E2 E3 E4
Alternativa
Pozo de Pozo de 200 000 Pozo de 50 000
Pozo seco
500 000 barriles barriles barriles
A1 Perforación 650 000 200 000 -25 000 -75 000
A2 Renta condicional 45 000 45 000 45 000 45 000
A3 Renta incondicional 250 000 100 000 0 0

Conociendo las probabilidades asociadas a cada uno de los estados de la naturaleza, se puede calcular el VME
(valor monetario esperado) para cada una de las alternativas y se podría tomar la decisión por aquella que
maximice el VME:
Las probabilidades asociadas a cada estado de la naturaleza son 0.10, 0.15, 0.25 y 0.50 respectivamente; por lo
que los cálculos para determinar el VME son:
VME(A1)=650 000(0.10)+200 000(0.15)-25 000(0.25)-75 000(0.50) = 51 250
VME(A2)=45 000(0.10)+45 000(0.15)+45 000(0.25)+45 000(0.50) = 45 000
VME(A3)=250 000(0.10)+100 000(0.15)+0(0.25)+0(0.50) = 40 000
La mejor alternativa desde el criterio de mayor VME es la alternativa A1 que corresponde a perforación.

Valor de la información perfecta


Se obtiene primero, el VME con información perfecta:
VMEIP=650 000(0.10)+200 000(0.15)+45 000(0.25)+45 000(0.50) = 128 750
VIP=VMEIP-VME*
VIP=128 750 – 51 250 = 77 500
Puesto que lo que se estaría dispuesto a pagar por una información perfecta es mucho mayor que lo que cuesta
la información en forma de sondeos sísmicos (77 500>12 000), entonces se justifica hacer el análisis para
obtener el valor de la información y decidir si conviene adquirirla o no. Para esto es necesario calcular las
probabilidades a posteriori con la fórmula de Bayes, lo cual puede efectuarse como un algoritmo tabular que se
muestra:

20
Probabilidades a posteriori
P(A|E) P(A|E) P(E)
P((E|A)

E1 E2 E3 E4 E1 E2 E3 E4 E1 E2 E3 E4
1 7/12 9/16 11/24 9/48 1 .0583 .084 .1146 .0938 .3 1 .166 .240 .327 .267
Clasificación sísmica

Clasificación sísmica

Clasificación sísmica
2 4/12 3/16 6/24 13/48 2 .0333 .0281 .0625 .1354 .2593 2 .129 .108 .241 .522

3 1/12 2/16 3/24 15/48 3 .0083 .0188 .0313 .1563 .2147 3 .039 .087 .146 .728

4 0/12 2/16 4/24 11/48 4 0 .0188 .0417 .1146 .1751 4 0 .107 .238 .655

0.10 0.15 0.25 0.50 ∑=1

Distribución a priori

Utilizando las probabilidades a posteriori obtenidas y con la matriz de pagos se calculan los VME con los
pronósticos de la clasificación sísmica:
Con pronóstico de clasificación 1:
VME
A1 Perforación 127 700
A2 Renta condicional 45 000
A3 Renta incondicional 65 500

Con pronóstico de clasificación 2:


VME
A1 Perforación 60 275
A2 Renta condicional 45 000
A3 Renta incondicional 43 050

Con pronóstico de clasificación 3:


VME
A1 Perforación -15 000
A2 Renta condicional 45 000
A3 Renta incondicional 18 450

Con pronóstico de clasificación 4:


VME
A1 Perforación -33 675
A2 Renta condicional 45 000
A3 Renta incondicional 10 700

21
Enseguida se calcula el VME de la información con los valores de la probabilidad marginal y los máximos VME
calculados:
VMEINFORMACIÓN=0.351(127 700)+0.2593(60 275)+0.2147(45 000)+0.1751(45000)
= 78 005.77
Finalmente se puede calcular el valor neto de la información:
VNI = 78 005.77 – 51 250 = 26 755.77
El valor de VNI obtenido se compara con el precio a que se vende la información, observando que el VNI supera
al costo de la información; por lo que se concluye que es conveniente adquirir la información.

22
3 CADENAS DE MARKOV
Andrei Andreyevich Markov
Nació en Ryazan (Rusia) el 14 de junio de 1856 y murió el 20 de julio de 1922 en Petrogrado (hoy San Petersburgo). En
1906 definió por primera vez las cadenas de Markov en un artículo sobre la ley de los grandes números. Las cadenas de
Markov nacen de la teoría de la probabilidad. Markov nunca intentó aplicarlos a las ciencias sino que las aplicó en textos
literarios, los dos estados posibles o el espacio muestral eran vocal o consonante. Hizo un estudio de la alternancia de
vocales y consonantes en el libro del gran poeta ruso Pushkin titulado Eugene Onegin. Se graduó en la universidad de san
Petersburgo en 1878. Se inició en la docencia en esa misma universidad desde 1880 a 1905. Se retiró casi a los 50 años con
el fin de dar paso a matemáticos más jóvenes.
Después de 1900 aplicó el método de fracciones continuadas, del que fue pionero su profesor Pafnuty Chebychev, a la teoría
de probabilidad. Se interesó enormemente en probabilidad, en la teoría de números, fracciones continuas, teoría de la
aproximación, series de convergencia, secuencia de variables mutuamente dependientes y límites de integrales. Fue un
participante activo en el movimiento liberal ruso antes de la primera guerra mundial, criticó públicamente a las autoridades
estatales y fue miembro de la Academia de Ciencias de su país. Tuvo un hijo que nació el 9 de septiembre de 1903, y quien
fue también un reconocido matemático. En 1923 Norbert Wiener fue el primero en tratar rigurosamente los Procesos de
Markov Continuos; y en 1930 Andrei Kolmogorov enuncia teorías importantes en los procesos de Markov.

3.1 Procesos estocásticos


Una sucesión de observaciones X1, X2, . . .se denomina proceso estocástico
o Si los valores de estas observaciones no se pueden predecir exactamente
o Pero se pueden especificar para los distintos valores posibles en cualquier instante de tiempo.

X1: v. a. que define el estado inicial del proceso


Xn: v. a. que define el estado del proceso en el instante de tiempo n
Para cada posible valor del estado inicial s1 y para cada uno de los sucesivos valores sn de los estados Xn, n= 2,
3, . . . , se especifica:
P(Xn+1= sn+1│X1=s1, X2=s2, . . . , Xn=sn)

3.2 Cadenas de Markov


Una cadena de Markov es un proceso estocástico en el que:
Si el estado actual Xn y los estados previos X1, . . . , Xn-1 son conocidos

La probabilidad del estado futuro Xn+1


o No depende de los estados anteriores X1, . . . , Xn-1, y
o Solamente depende del estado actual Xn .

Es decir,
 Para n = 1, 2, . . . y
 Para cualquier sucesión de estados s1, . . . , sn+1

23
P(Xn+1= sn+1│X1=s1, X2=s2, . . . , Xn=sn) = P (Xn+1= sn+1│Xn = sn)

Considerar que en una caseta de teléfonos con 5 líneas de teléfono, en un instante de tiempo dado puede haber
un número cualquiera de líneas ocupadas. Durante un periodo de tiempo se observan las líneas telefónicas a
intervalos de 2 minutos y se anota el número de líneas ocupadas en cada instante.
 Sea X1 la v. a. que representa el número de líneas ocupadas al principio del periodo.
 Sea X2 la v. a. que representa el número de líneas ocupadas cuando se observa en el segundo instante de
tiempo, 2 minutos más tarde.
 En general, n = 1, 2, . . . , Xn es una v. a. que representa el número de líneas ocupadas cuando se observan
en el instante de tiempo n – ésimo.
o El estado del proceso en cualquier instante de tiempo es el número de líneas que están siendo utilizadas en
ese instante.
o Un proceso estocástico como el que se acaba de describir se llama proceso d e parámetro discreto, ya
que las líneas se observan en puntos discretos a lo largo del tiempo.

Para que el proceso estocástico del número de líneas ocupadas sea una cadena de Markov, es necesario que la
probabilidad de cada posible número de líneas ocupadas en cualquier instante de tiempo dependa solamente del
número de líneas ocupadas 2 minutos antes.

3.3 Cadenas de Markov finitas con probabilidades de transición estacionarias


Cadena de Markov finita
Es una cadena de Markov para la que existe sólo un número finito k de estados posibles s1, . . . , sk y en
cualquier instante de tiempo la cadena está en uno de estos k estados.
Probabilidad de transición
Es la probabilidad condicional: P (Xn+1 = sj│Xn = si )
Probabilidad de transición estacionaria
Una cadena de Markov tiene probabilidades de transición estacionarias si para cualquier par de estados si
y sj existe una probabilidad de transición pij tal que:
P (Xn+1 = sj│Xn = si ) = pij para n = 1, 2, . . .

3.4 Matriz de transición


Matriz estocástica
Es una matriz cuadrada cuyos elementos son no negativos y tal que la suma de los elementos de cada fila es
igual a 1.
Matriz de transición en un solo paso
Dada una cadena de Markov con k estados posibles s1, . . . , sk y probabilidades de transición estacionarias.

24
p11 . . . p1k
Si pij = P (Xn+1 = sj│Xn = si ) P= p21 . . . p2k
. .
. .
pk1 . . . pkk

La matriz de transición P de cualquier cadena de Markov finita con probabilidades de transición estacionarias es
una matriz estocástica.
Ejemplo
Suponer que el clima de una determinada región sólo puede ser soleado (s1) o nublado (s2) y que las
condiciones de del clima en mañanas sucesivas forman una cadena de Markov con probabilidades de transición
estacionarias. La matriz de transición está dada por:

P=

Si un día concreto está nublado, ¿Cuál es la probabilidad de que esté nublado el día siguiente?
P22 = 0.4
Matriz de transición en varios pasos
Dada una cadena de Markov con k posibles estados s1, . . . , sk y matriz de transición P si se nota que:
p (2)
ij = P (Xn+2 = sj│Xn = si )
o pij(2): Elemento de la i – ésima fila y j – ésima columna de la matriz P 2
o P m: potencia m – ésima de P, con (m = 2, 3, . . .) y
o Pij(2): Elemento de la fila i y de la columna j de la matriz P m

Generalizando
m
P es la matriz de probabilidades pij(m) de que la cadena pase del estado si al estado sj en m pasos; para
cualquier valor de m, (m = 2, 3, . . . ).
m
P es la matriz de transición de m pasos de la cadena de Markov
Ejemplo
En el ejemplo del clima con matriz de transición

P=

Si un miércoles está nublado, ¿cuál es la probabilidad de que el viernes siguiente haga sol?
o Se calcula la matriz de transición en dos pasos,

P2= Probabilidad pedida es 0.66

3.5 Vector de probabilidades iniciales


Vector de probabilidades
w = (w1, . . . , wk) se llama vector de probabilidades si

25
o wi ≥ 0 para i = 1, . . . , k, y
o i =1

Se considera una cadena de Markov con:


1. s1, . . . , sk posibles estados en los que la cadena puede estar en el tiempo de observación inicial n=1
2. Para i = 1, . . . , k ; P (X1 = si ) = vi ≥ 0 y v1 + . . . + vk = 1

Vector de probabilidades iniciales


El vector de probabilidades v = (v1, . . . , vk ) se llama vector de probabilidades iniciales de la cadena.
El vector de probabilidades iniciales y la matriz de transición determinan la probabilidad para el estado de la
cadena en el segundo instante de tiempo, dicha probabilidad viene dada por el vector vP.
o Además, si las probabilidades de los diversos estados en el instante n se especifican por el vector de
probabilidades w, entonces:
Las probabilidades en el instante n + 1 se especifican por el vector de probabilidades wP.

Ejemplo
En el ejemplo del clima con matriz de transición:

P=

o Se supone que la probabilidad de que el miércoles haga sol es 0.2 y la probabilidad de que esté nublado es
0.8.
Calcular:
1. Probabilidad de que esté nublado el jueves.
2. Probabilidad de que esté nublado el viernes.
3. Probabilidad de que esté nublado el sábado.

Solución
1. Miércoles: v = (0.2, 0.8) w = vP = (0.62, 0.38)
P (esté nublado el jueves) = 0.38
2. w = vP = (0.62, 0.38) vP 2 = vPP = wP = (0.662, 0.338)
P (esté nublado el viernes) = 0.338
3. vP 2 = (0.662, 0.338) vP 3 = vP 2P = wP = (0.6662, 0.3338)
P (esté nublado el sábado) = 0.3338

Ejemplo
Suponer que en el ejemplo de la caseta telefónica los números de líneas que están siendo utilizadas en los
instantes de tiempo 1, 2, . . . constituyen una cadena de Markov con probabilidades de transición estacionarias.
Sea bi el estado en el que se están utilizando exactamente i líneas en un instante determinado (i = 0, 1, . . , 5)
Matriz de transición P

26
0.1 0.4 0.2 0.1 0.1 0.1
0.2 0.3 0.2 0.1 0.1 0.1
P = 0.1 0.2 0.3 0.2 0.1 0.1
0.1 0.1 0.2 0.3 0.2 0.1
0.1 0.1 0.1 0.2 0.3 0.2
0.1 0.1 0.1 0.1 0.4 0.2

Si las cinco líneas están ocupadas en un instante de tiempo concreto.


P [Exactamente 4 líneas ocupadas en el siguiente instante de tiempo] = p 65 = 0.4
Si en un instante de tiempo no hay ninguna línea ocupada.
P [Al menos una línea ocupada en el siguiente instante de tiempo] = 1 - p 11= 0.9
Matriz de transición en dos pasos

0.14 0.23 0.2 0.15 0.16 0.12


P2=
0.13 0.24 0.2 0.15 0.16 0.12
0.12 0.2 0.21 0.18 0.17 0.12
0.11 0.17 0.19 0.2 0.2 0.13
0.11 0.16 0.16 0.18 0.24 0.15
0.11 0.16 0.15 0.17 0.25 0.16

Si dos líneas están ocupadas en un instante de tiempo concreto.


P [Cuatro líneas ocupadas dos instantes después] = 0.17
Si en un instante de tiempo concreto hay tres líneas ocupadas.
P [Dos instantes después haya de nuevo tres líneas ocupadas] = 0.2

0.123 0.208 0.192 0.166 0.183 0.128


3
P = 0.124 0.207 0.192 0.166 0.183 0.128
0.12 0.197 0.192 0.174 0.188 0.129
0.117 0.186 0.186 0.179 0.199 0.133
0.116 0.181 0.177 0.176 0.211 0.139
0.116 0.18 0.174 0.174 0.215 0.141

Si las cinco líneas están ocupadas en un instante de tiempo concreto.


P [No haya líneas ocupadas tres instantes después] = 0.116
Si una línea está ocupada en un instante de tiempo.
P [Tres instantes después haya de nuevo una línea ocupada] = 0.207
Al inicio del proceso de información (instante n = 1
P [No haya líneas ocupadas] = 0.5
P [Haya una línea ocupada] = 0.3
P [Haya dos líneas ocupadas] = 0.2

27
Vector de probabilidades iniciales: v = (0.5, 0.3, 0.2, 0, 0, 0)
vP = (0.13, 0.33, 0.22, 0.12, 0.1, 0.1) P [No haya líneas ocupadas en el instante 2] = 0.13
vP 2 = vPP = (0.133, 0.227, 0.202, 0.156, 0.162, 0.12) P [Haya dos líneas ocupadas en el instante 3] =
0.202

3.6 Ejemplo de cadena de Markov


Considerar el laberinto siguiente y suponer que se introduce de forma aleatoria a un ratón en una de las celdas:

1 2 3

4 5 6

Este ratón se traslada aleatoriamente de cada celda a una de las contiguas.


Planteamiento de la cadena de Markov
Definición de las variables aleatorias:
Xn = celda ocupada en el instante n
Estados:
Los posibles estados son: 1, 2, 3, 4, 5 y 6
Comprobar que se trata de una cadena de Markov (comprobar la condición de Markov)
Conocido el presente, el futuro no depende del pasado
Se cumple la condición de Markov
Es una cadena de Markov
Probabilidades de transición: pij = P [Xn+1 = j │Xn = i ]

Matriz de transición:
p11 p12 p13 p14 p15 p16
p21 p22 p23 p24 p25 p26
p31 p32 p33 p34 p35 p36
p41 p42 p43 p44 p45 p46
p51 p52 p53 p54 p55 p56
p61 p62 p63 p64 p65 p66

28
Desde el estado 1

1 2 3

4 5 6

P11 = P [Xn+1 = 1│Xn = 1] p12 = P [Xn+1 = 2│Xn = 1]


P13 = P [Xn+1 = 3│Xn = 1] = 0 p14 = P [Xn+1 = 4│Xn = 1]
P15 = P [Xn+1 = 5│Xn = 1] = 0 p16 = P [Xn+1 = 6│Xn = 1] = 0

Desde el estado 2

1 2 3

4 5 6

P21 = P [Xn+1 = 1│Xn = 2] p22 = P [Xn+1 = 2│Xn = 2]


P23 = P [Xn+1 = 3│Xn = 2] = 0 p24 = P [Xn+1 = 4│Xn = 2] = 0
P25 = P [Xn+1 = 5│Xn = 2] = 0 p26 = P [Xn+1 = 6│Xn = 2] = 0

Desde el estado 3

1 2 3

4 5 6

P31 = P [Xn+1 = 1│Xn = 3] = 0 p32 = P [Xn+1 = 2│Xn = 3] = 0


P33 = P [Xn+1 = 3│Xn = 3] p34 = P [Xn+1 = 4│Xn = 3] = 0
P35 = P [Xn+1 = 5│Xn = 3] = 0 p36 = P [Xn+1 = 6│Xn = 3]

29
Desde el estado 4

1 2 3

4 5 6

P41 = P [Xn+1 = 1│Xn = 4] p42 = P [Xn+1 = 2│Xn = 4] = 0


P43 = P [Xn+1 = 3│Xn = 4] = 0 p44 = P [Xn+1 = 4│Xn = 4]
P45 = P [Xn+1 = 5│Xn = 4] = 0 p46 = P [Xn+1 = 6│Xn = 4] = 0

Desde el estado 5

1 2 3

4 5 6

P51 = P [Xn+1 = 1│Xn = 5] = 0 p52 = P [Xn+1 = 2│Xn = 5] = 0


P53 = P [Xn+1 = 3│Xn = 5] = 0 p54 = P [Xn+1 = 4│Xn = 5] = 0
P15 = P [Xn+1 = 5│Xn = 5] p56 = P [Xn+1 = 6│Xn = 5]

Desde el estado 6

1 2 3

4 5 6

P61 = P [Xn+1 = 1│Xn = 6] = 0 p62 = P [Xn+1 = 2│Xn = 6] = 0


P63 = P [Xn+1 = 3│Xn = 6] p64 = P [Xn+1 = 4│Xn = 6] = 0
P65 = P [Xn+1 = 5│Xn = 6] p66 = P [Xn+1 = 6│Xn = 6]

¿Son estacionarias las probabilidades de transición?

30
pij no depende del instante en que se encuentre el proceso

Las probabilidades de transición son estacionarias

Matriz de transición:

p11 p12 0 p14 0 0

p21 p22 0 0 0 0

0 0 p33 0 0 p36

p41 0 0 p44 0 0

0 0 0 0 p55 p56

0 0 p63 0 p65 p66

Matriz de transición en dos pasos:


P2
Desde el estado 1

1 2 1 2 1 2

4 4 4

Matriz de transición en dos pasos


(2) 2
p 11 =p 11 + p14 p41 + p12 p21 p12(2) = p12 p22 + p11 p12
p14(2) = p14 p44 + p11 p14 p21(2) = p21 p11 + p22 p21
p22(2) = p222 + p21 p12 p24(2) = p21 p14
p33(2) = p332 + p36 p63 p35(2) = p36 p65
p36(2) = p36 p66 + p33 p36 p41(2) = p41 p11 + p44 p41
p42(2) = p41 p12 p44(2) = p442 + p41 p14
p53(2) = p56 p63 p55(2) = p552 + p56 p65
p56(2) = p55 p56 + p56 p66 p63(2) = p63 p33 + p66 p63
p65(2) = p65 p55 + p66 p65 p66(2) = p662 + p63 p36 + p65 p56
Vector de probabilidades iniciales
v = (p1, p2, p3, p4, p5, p6)
P [estar en la celda 1 en el instante 1] = p1
P [estar en la celda 2 en el instante 1] = p2

31
P [estar en la celda 3 en el instante 1] = p3
P [estar en la celda 4 en el instante 1] = p4
P [estar en la celda 5 en el instante 1] = p5
P [estar en la celda 6 en el instante 1] = p6
Probabilidad de estar en cierta celda en el instante de tiempo 2
vP = ([p1 p11 + p2 p21 + p4 p41], ([p1 p12 + p2 p22], ([p3 p33 + p6 p63],
[p1 p14 + p4 p44], ([p5 p55 + p6 p65], [p3 p36 + p5 p56 + p6 p66])
P [estar en la celda 1 en el instante 2] = p1 p11 + p2 p21 + p4 p41
P [estar en la celda 2 en el instante 2] = p1 p12 + p2 p22
P [estar en la celda 3 en el instante 2] = p3 p33 + p6 p63
P [estar en la celda 4 en el instante 2] = p1 p14 + p4 p44
P [estar en la celda 5 en el instante 2] = p5 p55 + p6 p65
P [estar en la celda 6 en el instante 2] = p3 p36 + p5 p56 + p6 p66
Caso A
Considerar que la probabilidad de introducir el ratón en cada una de las celdas del laberinto para comenzar el
experimento es la misma. Una vez dentro del laberinto el ratón se va a cualquier celda contigua o se queda en
la celda en la que está con la misma probabilidad:
Probabilidades de transición
Desde el estado 1
P11 = P [Xn+1 = 1│Xn = 1] = 1/3 p12 = P [Xn+1 = 2│Xn = 1] = 1/3
P13 = P [Xn+1 = 3│Xn = 1] = 0 p14 = P [Xn+1 = 4│Xn = 1] = 1/3
P15 = P [Xn+1 = 5│Xn = 1] = 0 p16 = P [Xn+1 = 6│Xn = 1] = 0
Desde el estado 2
P21 = P [Xn+1 = 1│Xn = 2] = 1/3 p22 = P [Xn+1 = 2│Xn = 2] = 1/3
P23 = P [Xn+1 = 3│Xn = 2] = 0 p24 = P [Xn+1 = 4│Xn = 2] = 1/3
P25 = P [Xn+1 = 5│Xn = 2] = 0 p26 = P [Xn+1 = 6│Xn = 2] = 0
Desde el estado 3
P31 = P [Xn+1 = 1│Xn = 3] = 1/3 p32 = P [Xn+1 = 2│Xn = 3] = 0
P33 = P [Xn+1 = 3│Xn = 3] = 1/2 p34 = P [Xn+1 = 4│Xn = 3] = 0
P35 = P [Xn+1 = 5│Xn = 3] = 0 p36 = P [Xn+1 = 6│Xn = 3] = 1/2
Desde el estado 4
P41 = P [Xn+1 = 1│Xn = 4] = 1/2 p42 = P [Xn+1 = 2│Xn = 4] = 0
P43 = P [Xn+1 = 3│Xn = 4] = 0 p44 = P [Xn+1 = 4│Xn = 4] = 1/2
P45 = P [Xn+1 = 5│Xn = 4] = 0 p46 = P [Xn+1 = 6│Xn = 4] = 0

32
Desde el estado 5
P51 = P [Xn+1 = 1│Xn = 5] = 0 p52 = P [Xn+1 = 2│Xn = 5] = 0
P53 = P [Xn+1 = 3│Xn = 5] = 0 p54 = P [Xn+1 = 4│Xn = 5] = 0
P55 = P [Xn+1 = 5│Xn = 5] = 0 p56 = P [Xn+1 = 6│Xn = 5] = 1/2
Desde el estado 6
P61 = P [Xn+1 = 1│Xn = 6] = 0 p62 = P [Xn+1 = 2│Xn = 6] = 0
P63 = P [Xn+1 = 3│Xn = 6] = 1/3 p64 = P [Xn+1 = 4│Xn = 6] = 0
P65 = P [Xn+1 = 5│Xn = 6] = 1/3 p66 = P [Xn+1 = 6│Xn = 6] = 1/3

Matriz de transición
1/3 1/3 0 1/3 0 0

1/2 1/2 0 0 0 0

0 0 1/2 0 0 1/2
P=
1/2 0 0 1/2 0 0

0 0 0 0 1/2 1/2

0 0 1/3 0 1/3 1/3

Vector de probabilidades iniciales


v = (1/6, 1/6, 1/6, 1/6, 1/6, 1/6)
P [estar en la celda 1 en el instante 1] = 1/6
P [estar en la celda 2 en el instante 1] = 1/6
P [estar en la celda 3 en el instante 1] = 1/6
P [estar en la celda 4 en el instante 1] = 1/6
P [estar en la celda 5 en el instante 1] = 1/6
P [estar en la celda 6 en el instante 1] = 1/6
Probabilidad de estar en cierta celda en el instante de tiempo 2
P [Celda 1 en el instante 2] = 2/9 P [Celda 2 en el instante 2] = 5/36
P [Celda 3 en el instante 2] = 5/36 P [Celda 4 en el instante 2] = 5/36
P [Celda 5 en el instante 2] = 5/36 P [Celda 6 en el instante 2] = 2/9
Caso B
Suponer que en el laberinto el ratón se traslada a celdas contiguas con igual probabilidad y que la probabilidad
de introducir el ratón en cada una de las celdas del laberinto para comenzar el experimento es:
P [X1 = 1] = 0.2 P [X1 = 2] = 0.2 P [X1 = 3] = 0.1
P [X1 = 4] = 0.05 P [X1 = 5] = 0.05 P [X1 = 6] = 0.4
Matriz de transición

33
P [Celda 1 en el instante 1] = 0.2 P [Celda 2 en el instante 1] = 0.2
P [Celda 3 en el instante 1] = 5/36 P [Celda 4 en el instante 1] = 0.05
P [Celda 5 en el instante 1] = 0.05 P [Celda 6 en el instante 1] = 0.4
Vector de probabilidades iniciales
v = (2/10, 2/10, 1/10, 5/100, 5/100, 4/10)
P [Celda 1 en el instante 1] = 0.2 P [Celda 2 en el instante 1] = 0.2
P [Celda 3 en el instante 1] = 5/36 P [Celda 4 en el instante 1] = 0.05
P [Celda 5 en el instante 1] = 0.05 P [Celda 6 en el instante 1] = 0.4
En el instante 2: calculando vP
vP = (0.191666, 0.1666, 0.18333, 0.091666, 0.158333, 0.208333)
P [Celda 1 en el instante 1] = 0.191666 P [Celda 2 en el instante 2] = 0.1666
P [Celda 3 en el instante 2] = 0.18333 P [Celda 4 en el instante 2] = 0.091666
P [Celda 5 en el instante 2] = 0.158333 P [Celda 6 en el instante 2] = 0.208333
Caso C
Suponer ahora que, en el laberinto el ratón irá a una celda contigua con probabilidad proporcional al número de
la celda y que la probabilidad de introducir el ratón en cada una de las celdas para comenzar el experimento es
la misma:
Matriz de transición
1/7 2/7 0 4/7 0 0

1/3 2/3 0 0 0 0

0 0 3/9 0 0 6/9
P=
1/5 0 0 4/5 0 0

0 0 0 0 5/11 6/11

0 0 3/14 0 5/14 6/14

Vector de probabilidades iniciales


v = (1/6, 1/6, 1/6, 1/6, 1/6, 1/6)
P [Celda 1 en el instante 1] = 1/6 P [Celda 2 en el instante 1] = 1/6
P [Celda 3 en el instante 1] = 1/6 P [Celda 4 en el instante 1] = 1/6
P [Celda 5 en el instante 1] = 1/6 P [Celda 6 en el instante 1] = 1/6
En el instante 2: Se calcula vP
vP = (71/630, 10/63, 23/252, 8/35, 125/924, 379/1386)
P [Celda 1 en el instante 2] = 71/630 P [Celda 2 en el instante 2] = 10/63
P [Celda 3 en el instante 2] = 23/252 P [Celda 4 en el instante 2] = 8/35
P [Celda 5 en el instante 2] = 125/924 P [Celda 6 en el instante 1] = 379/1386

34
4 LÍNEAS DE ESPERA
Considerando que las líneas de espera son tan frecuentes en la sociedad moderna, no resulta sorprendente que
se haya desarrollado un campo del conocimiento a partir de su estudio. Dicho campo, que comúnmente se
denomina teoría de líneas de espera lo inició un ingeniero danés de teléfonos, A. K. Erlang, quien en 1910
realizó los primeros trabajos sobre problemas de filas. Erlang estaba interesado en los problemas que tenían las
personas que llamaban a un conmutador telefónico.
En este trabajo se menciona con frecuencia a un sistema de líneas de espera. Con esto se hace referencia a
todos los componentes que conforman un arreglo de líneas de espera: unidades que solicitan servicio, la línea
de espera propiamente dicha, las instalaciones de servicio y las unidades que se retiran después de recibir
servicio.
La teoría de líneas de espera abarca un grupo muy grande de modelos, en donde cada uno se refiere a un tipo
diferente de situación de línea de espera. Sin embargo, todos estos modelos tienen algunas cosas en común. En
primer lugar, no pretenden resolver problemas de líneas de espera; más bien describen el sistema de líneas de
espera al calcular las características de operación.
Estas incluyen elementos como el número de unidades que esperan el servicio y el tiempo promedio que una
unidad espera para ser atendida. Para calcular las características de operación, el usuario debe especificar
ciertos parámetros del sistema, tales como la forma en que las unidades llegan para ser atendidas y la forma en
que se maneja el servicio real.
El objetivo de los modelos de líneas de espera es más de descripción que de optimización, y cualquier
optimización que tenga lugar debe llevarla a cabo el usuario variando los parámetros del sistema para obtener
diferentes conjuntos de características de operación. El conjunto de características de operación que se ajusta
en forma más estrecha a las necesidades del usuario define la mejor estructura del sistema. Por esta razón, es
común que los modelos de líneas de espera sean descriptivos más que normativos.
Dado que muchos de los parámetros de los modelos de líneas de espera no se conocen con certidumbre, estos
modelos son más bien estocásticos que determinísticos. Los parámetros como tasas de llegada y tasas de
servicio se describen a través de distribuciones de probabilidad; por ello, en el modelo se utilizan valores
esperados o promedio. Al mismo tiempo, los modelos de líneas de espera son estáticos y no lineales en vez de
dinámicos y lineales, debido a que se supone que los parámetros no varían con el tiempo y que los cambios en
las características de operación no son proporcionales a los cambios en los parámetros del modelo.

4.1 Clasificación
Con el objeto de verificar si una situación determinada del sistema de líneas de espera se ajusta o no a un
modelo conocido, se requiere un método para clasificar las líneas de espera. Esa clasificación debe responder
preguntas como las siguientes:
1. ¿El sistema de líneas de espera tiene un solo punto de servicio o existen puntos múltiples de servicio en
secuencia?

35
2. ¿Existe sólo una instalación de servicio o son múltiples las instalaciones de servicio que pueden atender a
una unidad?
3. ¿Las unidades que requieren servicio llegan siguiendo algún patrón o llegan en forma aleatoria?
4. ¿El tiempo que se requiere para el servicio se da en algún patrón o asume duraciones aleatorias de tiempo?
Para responder a las preguntas 1 y 2, en primer lugar debe decidirse si una unidad ha de pasar a través de un
solo punto de servicio o a través de varios. Si se trata del primer caso, entonces se tiene sólo una entrada al
punto de servicio y una salida del punto de servicio. Esto se denomina sistema de etapa única. Si la salida del
primer punto de servicio se convierte en la entrada aun segundo punto de servicio, y así sucesivamente, se tiene
un sistema de líneas de espera de etapas múltiples, que es mucho más complejo y difícil de analizar que los
sistemas de etapa única. En la figura 4.1 se muestran ambas estructuras de líneas de espera.

Figura 4.1 Sistemas de etapa única y de etapas múltiples

Considerando solo el análisis de sistemas de etapa única, entonces este trabajo solo se ocupará del número y
disposición de las líneas de espera en una sola etapa. En la figura 4.2 se muestran tres casos importantes de
este tipo de sistemas. El primer caso (a) es una instalación de servicio único, o canal como con frecuencia se
denomina, con una sola línea de espera. El segundo caso (b) tiene instalaciones de servicio o canales múltiples y
también líneas de espera múltiples. Estas son en esencia las simples en paralelo y pueden analizarse como tales.
El tercer caso (c) es una sola línea de espera atendida por instalaciones de servicio múltiple. En ambos casos (b
y c), se supone en general que todas las instalaciones de servicio tienen una eficiencia equivalente.

36
Figura 4.2 Ejemplos de sistemas de etapa única

4.2 Notación de Kendall


Por lo general, las tasas de llegada y de servicio no se conocen con certidumbre sino que son de naturaleza
estocástica o probabilística. Es decir, los tiempos de llegada y de servicio deben describirse a través de
distribuciones de probabilidad, y las distribuciones de probabilidad que se elijan deben describir la forma en que
se comportan los tiempos de llegada o de servicio.

En teoría de líneas de espera se utilizan tres distribuciones de probabilidad bastante comunes:


1. De Markov
2. Determinística
3. General
Una distribución de Markov (en honor de A. A. Markov, matemático que identificó los eventos sin memoria) se
utiliza para describir ocurrencias aleatorias, es decir, aquellas de las que puede decirse carecen de memoria
acerca de eventos pasados. Una distribución determinística es aquella en la que los sucesos ocurren en forma
constante y sin cambios. Por último, una distribución general sería cualquier otra distribución de probabilidad. Es
posible describir el patrón de llegadas por medio de una distribución de probabilidad y el patrón de servicio a
través de otra.
Para permitir a los investigadores y estudiantes de la teoría de líneas de espera comunicarse entre sí con
facilidad acerca de diversos sistemas de líneas de espera, Kendall, matemático británico, elaboró una notación
abreviada para describir en forma sencilla los parámetros de un sistema de este tipo. En la notación de Kendall
un sistema de líneas de espera se designa como
A/B/C
Donde: A se sustituye por una letra que denote la distribución de llegada
B se sustituye por una letra que denote la distribución de servicio

37
C se sustituye por un entero positivo que denote el número de canales de servicio

La notación de Kendall utiliza también M = Markoviano, D = Determinística y G = General. Por ejemplo, un


sistema de líneas de espera con llegadas aleatorias, servicio determinístico y 3 canales de servicio se identificaría
en notación de Kendall como:
M/D/3
En todos los casos, se supone que existe sólo una línea de entrada.

4.3 Consideraciones en el análisis


Es evidente que existen otros atributos aparte de los que se analizaron antes y que deben tomarse en
consideración cuando se analiza un sistema de líneas de espera, Estos incluyen:
a) El tamaño de la población de la que provienen los elementos que ingresan al sistema de líneas de espera
(población que llega).
b) La forma en que las unidades llegan para ingresar al sistema de líneas de espera; por ejemplo, una por una
o en grupos.
c) La disciplina de la línea de espera, o el orden en que se atienden las unidades (¿se atienden las unidades en
el orden en que llegan, es decir, el primero en llegar es el primero que se atiende, o existe algún otro
sistema de prioridad para el servicio?).
d) Si las unidades rechazan o no debido a la longitud de la línea de espera y no ingresan al sistema.
e) Si las unidades se arrepienten y abandonan el sistema después de haber aguardado un tiempo en la fila.
f) Si existe o no espacio suficiente para que todas las unidades que llegan aguarden en la fila.

Las diversas respuestas a preguntas de este tipo, junto con las diferentes disposiciones de probabilidad y los
diferentes números de canales de servicio, sirven para generar una gran variedad de tipos de sistemas de líneas
de espera que deben analizarse. En este análisis se supondrán los casos más simples; en particular se supondrá:
1. Una población infinita que llega.
2. Las llegadas son en forma individual.
3. Las unidades que llegan se atienden en el orden en que llegan.
4. Las llegadas no se rechazan ni abandonan por la longitud de la línea de espera.
5. Siempre hay suficiente espacio para que se forme la línea de espera.

Condiciones de estado estacionario


En muchas situaciones de sistemas de líneas de espera, existe un periodo inicial, que es cuando comienza el
periodo que se estudia. Este periodo inicial tiene muchas características transitorias que no son similares a los
valores promedio a largo plazo que se encuentran cuando se estabiliza el sistema de líneas de espera. Este
periodo no interesa. Se desean investigar las características promedio a largo plazo que se presentan cuando el
sistema ha alcanzado el estado estacionario o estable. Estas son las condiciones de estado estacionario que se

38
calcularán para las líneas de espera M/M/1 y M/M/S. Se analizan estos valores de estado estacionario porque no
dependen de la duración del tiempo que el sistema ha estado operando. Aunque es cierto que algunos sistemas
no alcanzan nunca el estado estacionario, muchos de ellos se aproximan lo suficiente para que las
características de este estado estacionario resulten útiles para describir el sistema.

Recopilación de datos y distribuciones de probabilidad


Con objeto de emplear un modelo determinado de líneas de espera, en primer lugar se debe validar el modelo;
es decir, se debe probar que la situación real de línea de espera se ajusta a ese modelo. En este caso, y para
utilizar el modelo M/M/1, interesa probar que las llegadas son aleatorias y que los tiempos de servicio tienen
duración aleatoria. Para hacerlo, se necesita probar que la tasa real de llegadas se ajusta a la distribución de
Poisson y que la tasa real de servicio se ajusta a la distribución exponencial negativa. En primer lugar, se deben
recopilar datos sobre los tiempos de llegada y de servicio. Después, puede utilizarse una técnica estadística bien

conocida que se denomina prueba de bondad d e a juste ji cuadrada ( χ 2 ) para determinar si los datos se

ajustan en realidad a las distribuciones mencionadas.


Para ajustar un modelo particular, por ejemplo el M/M/1, se necesita recopilar datos sobre la tasa promedio de
llegadas λ , y el tiempo promedio de servicio 1/ µ . Para encontrar la tasa promedio de llegadas se mantiene un

registro del número de llegadas por unidad de tiempo: hora, día, o el que sea. Después resulta sencillo calcular
el promedio para todos los periodos para los que se recopilaron datos. Por supuesto, se debe tener cuidado de
asegurarse que la tasa de llegadas no fluctúa tanto, que haga que el uso de un solo valor de λ resulte poco
realista.
Medir los tiempos de servicio es un poco más difícil puesto que no es posible contar simplemente el número de
casos de servicio que ocurrieron durante un periodo. Es evidente que a largo plazo este número siempre será
igual a la tasas de llegadas y por ello no sería una medida válida del tiempo promedio de servicio. Es necesario
medir en forma individual los tiempos de los servicios. Después, pueden utilizarse estos tiempos para calcular un
tiempo promedio de servicio, 1/ µ .

4.4 Modelo M/M/1


Con el objeto de utilizar las líneas de espera M/M/1, se tienen que suponer llegadas con distribución de Poisson
y distribución de servicio exponencial negativa. Para obtener las características de operación de este tipo de
línea de espera, se deben hacer otras consideraciones. En primer lugar, debe haber un solo canal de servicio al
cual ingresan las unidades que entran una por una. En segundo lugar, se considera que existe una población
infinita de entre la cual se originan las llegadas. También se supone que existe un espacio infinito para dar
cabida a las llegadas que esperan en la fila. Por último, se supone que las unidades que llegan se atienden
sobre la base primero que llega, primero que se atiende (que también se conoce como PEPS, primero que entra,
primero que sale). La siguiente lista incluye todas las consideraciones para las líneas de espera M/M/1:
1. Llegadas aleatorias únicas (distribución de Poisson).

39
2. Tiempos de servicio aleatorios (distribución exponencial negativa).
3. Existe una situación de estado estacionario.
4. Un solo canal de servicio.
5. Población que llega infinita.
6. Espacio de espera infinito.
7. Disciplina de servicio de primero que llega primero que se atiende.
8. No hay rechazo.
9. No hay abandono.

Ya se han analizado con detalle las tres primeras consideraciones. La cuarta de ellas, la de un solo canal de
servicio, se explica por sí misma. Las dos consideraciones siguientes, población que llega infinita y espacio de
espera infinito, simplemente significan que siempre estarán llegando clientes y que existe espacio adecuado
para que esas unidades que llegan esperen. Estas consideraciones aseguran que la situación de línea de espera
no se complique porque exista dependencia entre las llegadas o porque éstas abandonen el sistema por falta de
espacio para esperar. La consideración de que el primero que llega es el primero que se atiende asegura que las
unidades que llegan posteriormente no son atendidas antes que las que llegaron con anterioridad.

Características de operación de un sistema M/M/1


Para calcular las características de operación de una cola M/M/1, primero se debe observar que si λ =tasa
promedio de llegadas y µ =tasa promedio de servicio, entonces λ debe ser menor que µ . Si no fuera así, el

promedio de llegadas sería superior al número promedio de unidades que se atienden, y el número de unidades
que están esperando se volvería infinitamente grande. Si se hace que ρ = λ / µ puede denominarse a ρ factor

de utilización. Este valor, ρ = λ / µ, es la fracción promedio de tiempo que el sistema está ocupado (ocupado se

define como una o más unidades esperando y/o siendo atendidas). Observar que también puede considerarse
que ρ es el número promedio de unidades que están siendo atendidas en cualquier momento. En términos de

probabilidad:
P W = probabilidad de que el sistema esté ocupado

P W = λ /µ = ρ (4.1)

Entonces, la probabilidad de que el sistema no esté trabajando, o esté vacío, P 0 , puede obtenerse por medio de

P 0 = 1 − PW = 1 − λ / µ = 1 − ρ (4.2)

A partir de esto se puede obtener la probabilidad de que haya n unidades en el sistema, P n , mediante

P n = (P0 )(λ / µ) n = P0 ρ n (4.3)

en donde n es cualquier entero no negativo. Este importante resultado permite calcular las características de
operación de las líneas de espera.

40
La primera característica de operación que se calculará es el número promedio de unidades que se encuentran
en el sistema, ya sea esperando o siendo atendidas. Se denominará a este número promedio de unidades, L.
Recordar que el valor promedio o valor esperado para una distribución discreta de probabilidad está dado por

E(X) = ∑ XP(X)
X =0

Por ello, el número esperado de unidades en el sistema está dado por


L= número esperado de unidades en el sistema
∞ ∞
L= ∑
n =0
nPn = ∑ nP ρ
n =0
0
n

o
ρ λ
L= = (4.4)
1−ρ µ−λ

Ahora se puede utilizar L, número esperado de unidades en el sistema, para calcular todas las otras
características que se desean. En primer lugar se puede conocer el número promedio de unidades que esperan
ser atendidas o L q . Dado que L es el número promedio de unidades que están esperando o están siendo

atendidas, y ρ es el número promedio de unidades que están siendo atendidas en algún momento dado,

entonces L= L q + ρ . A partir de esto es fácil observar que

Lq = L - ρ

ρ2 λ2
Lq= = (4.5)
1 − ρ µ(µ − λ)

Examinando ahora el tiempo de espera y utilizando W para representar el tiempo promedio o esperado que una
unidad se encuentra en el sistema, se observa que si L es el número esperado de unidades en el sistema y λ es
el número promedio de unidades que llegan para ser atendidas por periodo, entonces el tiempo promedio que
cualquier unidad que llega debe estar en el sistema está dado por
W = tiempo esperado de una unidad en el sistema
L 1
W= = (4.6)
λ µ−λ

De manera similar, el tiempo esperado o promedio que una unidad tiene que esperar antes de ser atendida,
w q , está dado por

Lq λ
Wq= = (4.7)
λ µ(µ − λ)

41
Obsérvese que W=W q + 1/ µ . Esto indica que el total de tiempo invertido en el sistema, W; es igual al tiempo

de espera (W q ) más el tiempo de servicio (1/ µ).

4.5 Modelo M/M/S


El modo que supone llegadas y tiempos de servicio aleatorios para canales de servicios múltiples tiene las
mismas consideraciones que el modelo de canal único de servicio (M/M/1), excepto que ahora existe una sola
fila de entrada que alimenta los canales múltiples de servicio con iguales tasas de servicio.

Características de operación
En el modelo M/M/S, si µ es la tasa promedio de servicio para cada uno de los S canales de servicio, entonces

ya no se requiere que µ > λ , pero S µ debe ser mayor que λ para evitar una acumulación infinita de líneas de

espera. En el caso de M/M/S, la característica clave que se utiliza para hacer los demás cálculos es la
probabilidad de que el sistema esté ocupado. En otras palabras, la probabilidad es de que haya S o más
unidades en el sistema. En este caso, todos los canales de servicio se estarán utilizando y por ellos se dice que
el sistema está ocupado. Esto se escribe como
P(sistema ocupado) = P(n ≥ S) (4.8)

Y puede calcularse utilizando la fórmula

ρ S (µS)
P(sistema ocupado) = P0 (4.9)
S! (µS − λ)

donde
1
P0 = (4.10)
n =S −1 n S
1 λ 1 λ  Sµ 

n =0
  +  
n!  µ  S!  µ 
 
 Sµ − λ 

Encontrar P(sistema ocupado) utilizando la fórmula (4.9) no es difícil si se tiene el valor de P 0 , pero el cálculo

de P 0 utilizando la ecuación (4.10) es tedioso. En la tabla 4.1 se proporciona el valor de P 0 para diversos

valores de ρ (es decir, λ / µ) y S.

Ahora se puede utilizar esta peculiaridad del sistema para calcular sus demás características. En el modelo
M/M/S, al igual que en el M/M/1, se tiene que L=L q +ρ , pero se usa el valor de P(sistema ocupado) para

calcular L q

ρ
L q =P(sistema ocupado) * (4.11)
S−ρ

Y después se calcula L:
ρ
L = P(sistema ocupado) * +ρ (4.12)
S−ρ

En el caso M/M/S, al igual que en el M/M/1, W=L/ λ y W q =L q / λ , por ello, se tiene:

42
1  ρ 
W= P(sistemaocu pado) * + ρ (4.13)
λ  S−ρ 

1  ρ 
Wq = P(sistemaocu pado) *  (4.14)
λ  S − ρ

Tabla 4.1 Valores de P0

S
ρ
1 2 3 4 5 6 7
0.100 0.9000 0.9048 0.9048 0.9048 0.9048 0.9048 0.9048
0.200 0.8000 0.8182 0.8187 0.8187 0.8187 0.8187 0.8187
0.300 0.7000 0.7391 0.7407 0.7408 0.7408 0.7408 0.7408
0.400 0.6000 0.6667 0.6701 0.6703 0.6703 0.6703 0.6703
0.500 0.5000 0.6000 0.6061 0.6065 0.6065 0.6065 0.6065
0.600 0.4000 0.5385 0.5479 0.5487 0.5488 0.5488 0.5488
0.700 0.3000 0.4815 0.4952 0.4955 0.4966 0.4966 0.4966
0.800 0.2000 0.4286 0.4472 0.4491 0.4493 0.4493 0.4493
0.900 0.1000 0.3793 0.4035 0.4062 0.4065 0.4066 0.4066
1.000 0.3333 0.3636 0.3673 0.3678 0.3679 0.3679
1.100 0.2903 0.3273 0.3321 0.3328 0.3329 0.3329
1.200 0.2500 0.2941 0.3002 0.3011 0.3012 0.3012
1.300 0.2121 0.2638 0.2712 0.2723 0.2725 0.2725
1.400 0.1765 0.2360 0.2449 0.2463 0.2466 0.2466
1.500 0.1429 0.2105 0.2210 0.2228 0.2231 0.2231
1.600 0.1120 0.1881 0.2003 0.2024 0.2018 0.2018
1.700 0.0811 0.1657 0.1796 0.1821 0.1826 0.1827
1.800 0.0526 0.1460 0.1616 0.1646 0.1652 0.1653
1.900 0.0256 0.1278 0.1453 0.1487 0.1494 0.1495
2.000 0.1111 0.1304 0.1343 0.1351 0.1353
2.100 0.0957 0.1169 0.1213 0.1222 0.1224
2.200 0.0815 0.1046 0.1094 0.1105 0.1107
2.300 0.0683 0.0933 0.0987 0.0999 0.1002
2.400 0.0562 0.0831 0.0889 0.0903 0.0906
2.500 0.0449 0.0757 0.0801 0.0816 0.0820
2.600 0.0345 0.0651 0.0721 0.0737 0.0742
2.700 0.0249 0.0573 0.0648 0.0666 0.0671
2.800 0.0160 0.0502 0.0581 0.0601 0.0606
2.900 0.0077 0.0437 0.0521 0.0543 0.0548
3.000 0.0377 0.0466 0.0470 0.0496
3.100 0.0323 0.0417 0.0444 0.0448
3.200 0.0273 0.0372 0.0398 0.0405
3.300 0.0227 0.0330 0.0358 0.0366
3.400 0.0186 0.0293 0.0322 0.0331
3.500 0.0148 0.0259 0.0290 0.0298
3.600 0.0113 0.0228 0.0260 0.0269
3.700 0.0081 0.0200 0.0233 0.0243
3.800 0.0051 0.0174 0.0209 0.0219
3.900 0.0025 0.0151 0.0187 0.0198
4.000 0.0130 0.0167 0.0178
4.100 0.0120 0.0149 0.0160
4.200 0.0093 0.0132 0.0144
4.300 0.0077 0.0117 0.0130
4.400 0.0063 0.0104 0.0117
4.500 0.0050 0.0091 0.0105
4.600 0.0038 0.0080 0.0094
4.700 0.0027 0.0070 0.0084
4.800 0.0017 0.0061 0.0075
4.900 0.0008 0.0053 0.0067
5.000 0.0045 0.0060

43
4.6 Modelo M/G/1
En este caso las llegadas se distribuyen de acuerdo con la distribución de Poisson, pero los tiempos de servicio
no necesariamente se distribuyen de acuerdo con la distribución exponencial negativa. Si se considera el caso en
que existe un solo canal, se está considerando el modelo M/G/1, es decir, llegadas tipo Markov, tiempo de
servicio general y un canal de servicio. Observar que este caso incluye también el modelo M/D/1.
Al igual que con el caso M/M/S, no es posible calcular en forma directa L, número esperado de unidades en el
sistema. Más bien, debe calcularse L q , número de unidades que esperan ser atendidas, y utilizar el resultado de

que L=L q +ρ para encontrar el valor de L. Para calcular L q , se debe conocer el valor de la desviación estándar

de la distribución que describe los tiempos de servicio, σ . Si no se conoce la distribución de los tiempos de
servicio no es posible determinar las características de operación. Sin embargo, si se conoce la desviación
estándar y la media de la distribución de los tiempos de servicio, puede obtenerse L q , a partir de la ecuación

(4.15):

λ2 σ 2 + (λ / µ) 2
Lq= (4.15)
2(1 − λ / µ)

Utilizando L q , se puede ahora determinar el valor de L a través de

L=L q +ρ (4.16)

Al igual que con las características de operación de los casos M/M/1 y M/M/S, se puede determinar W, tiempo
esperado en el sistema de líneas de espera, y W q , tiempo de espera que se invierte antes de ser atendido,

dividiendo L y L q entre el valor de λ , es decir,

W=L/ λ (4.17)
y
W q =L q / λ (4.18)

4.7 Modelo M/D/1


El caso en el que los tiempos de servicio son determinísticos es el M/D/1, que es caso especial de la situación
M/G/1 que se analizó antes y en el que la desviación estándar es igual a cero. En este caso, se obtiene el valor
de L q de la siguiente manera

( λ / µ) 2
Lq= (4.19)
2(1 − λ / µ)

Y todas las demás características de operación pueden determinarse a partir de este valor.

44
Ejemplo 4.1 Aplicación de metodología de líneas de espera
La gerencia de una empresa de ferrocarril considera necesario pintar sus vagones una vez al año. La alternativa
1 cuesta $150 000 al año, y consiste en operar dos talleres de pintura donde se pintará manualmente. El tiempo
requerido para pintar cada vagón tiene una distribución exponencial con promedio de 6 horas. La alternativa 2
consiste en operar un taller donde utilizará aire comprimido; el costo anual será de $200 000. En este caso, el
tiempo para pintar cada vagón también sigue una distribución exponencial con promedio de 3 horas. En ambos
casos, los vagones llegarían al taller siguiendo una distribución de Poisson con promedio de un vagón por cada 8
horas.

Si no se utiliza un vagón el costo es de $30 por hora, y se supone que los talleres estarían operando todas las
8760 horas del año. ¿Cuál de las dos alternativas es la mejor?

Solución
Para la alternativa 1, la tasa promedio de llegadas, λ =3 vagones por día y la tasa promedio de servicio, µ =4
vagones por día y se trata de un sistema M/M/2.
Para la alternativa 2, la tasa promedio de llegadas, λ =3 vagones por día y la tasa promedio de servicio, µ =8

vagones por día y se trata de un sistema M/M/1.


El cálculo se hará en una hoja de cálculo de Excel, en la que se efectúan las operaciones introduciendo las
fórmulas indicadas para cada modelo de líneas de espera.

ALTERNATIVA 1 ALTERNATIVA 2
M/M/2 M/M/1
2 1
λ 3 3
µ 4 8
ρ 0.75 0.375
Po 0.455 0.625
Pso 0.20475
L 0.87285 0.6
Lq 0.12285 0.225
W 0.29095 0.2
Wq 0.04095 0.075
Costo de taller 410.9589041 547.9452055
Costo espera 628.452 432
COSTO TOTAL 1039.410904 979.9452055

Con el criterio de decisión del menor costo total, la alternativa a seleccionar es la alternativa 2 que consiste en
operar un solo taller. En el capítulo 5 (ejemplo 5.2) se simulan los dos sistemas y aparece como menor costo la
alternativa 1; en términos generales, puede afirmarse que se podría obtener un resultado acertado si se
simulara un número considerable de veces la llegada de los vagones y que dicho resultado coincidiría finalmente
con los valores esperados que se calcularon con criterio de línea de espera.

45
Ejemplo 4.2 Aplicación de metodologías de líneas de espera
Una compañía siderúrgica que opera su propia flota de barcos para importar mineral de hierro, está
considerando la construcción de facilidades portuarias para sostener una nueva planta. Se debe decidir tanto el
número de lugares de descarga como el tipo de instalación en cada uno, con la idea de hacer mínimos los
costos totales de descarga.
Se puede construir un máximo de tres lugares de descarga; y se requiere que cada uno de dichos lugares que
se construya tenga el mismo tipo de instalación entre el tipo A, el B y el C, para los cuales se dispone de la
siguiente información:

Capacidad: tonelaje
Tipo de Costo fijo Costo de operación
medio descargado
instalación por día por día
por día de operación
A 840 840 3 600
B 1 350 1 350 5 800
C 1 500 1 600 6 400

Los costos fijos incluyen elementos tales como la amortización del costo original de la instalación a lo largo de
su vida esperada, mantenimiento general, etc.; se aplican estos costos a todos los días, bien sea que se use o
no el equipo. Se incurre en los costos de operación únicamente durante los intervalos de tiempo en que el
equipo de descarga está realmente en uso.
Cada uno de los barcos que va a descargarse trae 8 000 toneladas de mineral, y se considera que llegan según
una distribución de Poisson durante todo el año con una tasa media de llegada de 5 barcos por semana. Los
tiempos de servicio para un tipo de instalación se considera que son exponenciales, con tasa media de servicio
que corresponde a la columna de capacidad media en la tabla.
Si el tiempo invertido en el sistema de descarga (tiempo de espera más tiempo de descarga) se considera que le
cuesta a la compañía $ 2 000 por barco y por día, ¿qué tipo de instalación de descarga debe seleccionarse, y
qué tantos lugares deben construirse?

Solución
Existen nueve políticas posibles, y cada una comprende la selección entre los tipos de instalación (A, B, o C) y el
número de lugares (1, 2, o 3). La combinación (A, 1) se puede descartar inmediatamente, puesto que la tasa
media de llegadas λ es 5/7=0.714 barcos por día, mientras que la tasa media de servicio µ con la combinación

(A1) es 3600/8000=0.45 barcos por día. El cociente de λ / µ , en este caso, tratándose de un sistema M/M/1 es

mayor que uno por lo que se elimina como alternativa ya que la línea de espera aumentaría en forma infinita.
Las alternativas posibles se pueden representar:

46
Tipo de Lugares
instalación 1 2 3

A (A1) (A2) (A3)

B (B1) (B2) (B3)

C (C1) (C2) (C3)

Por ejemplo, la alternativa B3 es un sistema M/M/3 de líneas de espera, tres lugares con instalación B en cada
uno de ellos:

La tasa de llegadas λ para cada una de las ocho alternativas permanece constante en 0.7144 barcos por día. La
tasa de servicio para un solo lugar depende solamente del tipo de instalación de descarga, es decir:
µ A = 0.450 barcos por día

µ B = 0.725 barcos por día

µ C = 0.800 barcos por día

El criterio de decisión será seleccionar aquella alternativa con el menor costo total esperado por día, el cual
estará integrado por la suma de tres componentes:
1. El costo fijo de las instalaciones
2. El costo de operación de las instalaciones
3. El costo del tiempo de espera de los barcos

De acá en adelante se calculará el costo total que se le asigna a cada una de las alternativas, en la forma
tabular que se presenta:
La m ejor a lternativa ( la de m enor c osto di ario) e s l a a lternativa de dos l ugares de d escarga c on
instalación B en cada uno de ellos.

47
Lugares
1 2 3
λ 0.714285714 0.714285714 0.714285714
µ 0.45 0.45 0.45
ρ 1.587301587 1.587301587 1.587301587
Po 0.112 0.1881
P so 0.683760684 0.266248822
L 4.217150371 1.886457567
A Lq 2.629848784 0.299155979
W 5.904010519 2.641040593
Wq 3.681788297 0.418818371
C. Fijo 1680 2520
C. Oper. 1333.333333 1333.333333
C. Espera 8434.300742 3772.915133
C. Total 11447.63408 7626.248467

Lugares
1 2 3
λ 0.714285714 0.714285714 0.714285714
µ 0.725 0.725 0.725
ρ 0.985221675 0.985221675 0.985221675
Po 0.3333 0.3636
P so 0.318810082 0.086291592
L 66.66666667 1.294746026 1.027418053
B Lq 65.68144499 0.309524351 0.042196378
W 93.33333333 1.812644437 1.438385274
Wq 91.95402299 0.433334092 0.059074929
C. Fijo 1350 2700 4050
C. Oper. 1330.049261 1330.049261 1330.049261
C. Espera 133333.3333 2589.492052 2054.836105
C. Total 136013.3826 6619.541313 7434.885366

Lugares
1 2 3
λ 0.714285714 0.714285714 0.714285714
µ 0.8 0.8 0.8
ρ 0.892857143 0.892857143 0.892857143
Po 0.3793 0.4035
P so 0.273113479 0.068149943
L 8.333333333 1.113109949 0.921734237
C Lq 7.44047619 0.220252806 0.028877094
W 11.66666667 1.558353928 1.290427932
Wq 10.41666667 0.308353928 0.040427932
C. Fijo 1500 3000 4500
C. Oper. 1428.571429 1428.571429 1428.571429
C. Espera 16666.66667 2226.219897 1843.468474
C. Total 19595.2381 6654.791326 7772.039903

48
5 SIMULACIÓN Y MÉTODOS DE MONTECARLO 6

La simulación es una técnica muy poderosa y ampliamente usada en para analizar y estudiar sistemas
complejos.
Se puede definir a la simulación como la técnica que imita el funcionamiento de un sistema del mundo real
cuando evoluciona en el tiempo. Esto se hace, por lo general, al crear un modelo de simulación. Un modelo de
simulación comúnmente, toma la forma de un conjunto de hipótesis acerca del funcionamiento del sistema,
expresado como relaciones matemáticas o lógicas entre los objetos de interés del sistema.
Se debe hacer notar que la simulación no es una técnica de optimización. Se emplea con más frecuencia para
analizar preguntas tipo ¿qué sucede sí . .? es posible optimizar con la simulación, pero, en general, es un
proceso tardado. También, la simulación puede ser costosa. Sin embargo, con la creación de lenguajes
especiales para simulación, costos decrecientes de cómputo y avances en metodología de simulación, el
problema del costo se hace cada vez menos importante.

Terminología básica
En la mayor parte de los estudios de simulación, se trata de simular un sistema. Por lo que se definirán varios
términos relacionados con los sistemas:
Sistema
Un sistema es un conjunto de entidades que actúan e interactúan para la realización de un fin lógico.
Estado
El estado de un sistema es el conjunto de variables necesarias para describir la condición del sistema en un
momento determinado.
Sistema discreto
Es aquel en el cual las variables de estado cambian sólo en puntos discretos o contables en el tiempo.
Sistema continuo
Un sistema continuo es aquel en el que las variables de estado cambian en forma continua a través del tiempo.
Modelo estático de simulación
Es una representación de un sistema en determinado punto en el tiempo.
Simulación dinámica
Es una representación de cómo evoluciona un sistema a través del tiempo.

6
El método fue llamado así por el principado de Mónaco, por ser la capital del juego de azar, al tomar una ruleta como un generador
simple de números aleatorios.
49
5.1 Números aleatorios
A la técnica de utilización de una distribución de probabilidad para generar muestras aleatorias de un proceso,
se le conoce como técnica de Montecarlo y al proceso para generar las observaciones muestrales de una
distribución específica de probabilidad se le denomina generador de proceso.

Generación de números aleatorios


En cualquier experimento de simulación o de muestreo, existe la necesidad de un mecanismo que proporcione
números aleatorios. La forma de obtener estos números puede ser muy variada y entre los primeros
mecanismos empleados se tenían las ruletas, dados, cartas, etc.
Las características que definen a los números aleatorios es que cualquiera de ellos tiene la misma probabilidad
de aparecer y cada número es estadísticamente independiente de los demás números de la secuencia.
Se requiere de un procedimiento matemático para generar números aleatorios y a través de la historia se han
ido perfeccionando, entre los más conocidos se pueden citar:

J. Von Neumann 7
Se parte de un número dado de n cifras que se eleva al cuadrado y del resultado obtenido, que en general es un
número de 2n cifras, se toman las n cifras de la parte central, que a su vez se vuelven a elevar al cuadrado, y
así, sucesivamente. Una desventaja de este método es que tiende a degenerar rápidamente dependiendo del
número inicial que se escoja.

Ejemplo
Suponer que se quieren generar números entre 0 y 999 y se escoge como número inicial 302, el cual produce la
siguiente secuencia:
(302)2=091204 120
(120)2=014400 440
2
(440) =193600 360
(360)2=129600 960
2
(960) =921600 160
2
(160) =025600 560
2
(560) =313600 360
a partir de este último resultado se empieza a repetir un ciclo formado por los números 960, 160, 560, 360, con
lo cual degenera la secuencia.

7
John von Neumann zu Margaritta, (1903-1957), fue uno de los más grandes matemáticos del siglo XX. Húngaro-estadounidense que
realizó contribuciones importantes en física cuántica, análisis funcional, teoría de conjuntos, ciencias de la computación, economía, análisis
numérico, cibernética, hidrodinámica, estadística y muchos otros campos de la matemática.
50
Productos centrales
Consiste en efectuar el producto entre dos números seguidos de la sucesión de números pseudoaleatorios y del
resultado, tomar los dígitos de en medio para obtener el siguiente número de la sucesión. Se puede expresar de
la manera siguiente
U i + 1 = U i * U i −1 (5.1)

Ejemplo: Generación de números aleatorios


Si se escoge arbitrariamente U0=1521 y U1=1815 se obtiene la siguiente secuencia
U2=1815*1521=02760615=7606
U3=7606*1815=13804890=8048
U4=8048*7606=61213088=2130
U5=2130*8048=01714224=7142

Lehmer 8
En 1951 sugirió que una secuencia de números pseudoaleatorios podría generarse mediante la relación
xi=axi-1 (módulo m) (5.2)

Greenberger 9
Se parte de una expresión general de la forma siguiente
Ui+1= aUi+c (módulo m) (5.3)
esta relación se lee diciendo que Ui+1 es congruente con aUi+c módulo m y significa que aUi+c se divide entre m
y que el residuo que se obtenga es el valor de Ui+1.

Ejemplo:
Si se escoge U0=5, a=2, c=3 y m=15 se tiene la siguiente secuencia
U1=(2*5 +3) mód 15=13
U2=(2*13+3) mód 15=14
U3=(2*14+3) mód 15= 1
U4=(2*1 +3) mód 15= 5
U5=(2*5 +3) mód 15= 1
Que como se observa tiene un periodo de n=4.

8
Emma Markovna Lehmer 1906-2007), fue una matemática estadounidense de origen ruso, conocida por su trabajo en las leyes de la
reciprocidad en la teoría de números algebraica. Se centró, más que en otros aspectos más abstractos de la teoría, en campos de números
complejos y en números enteros.
9
Martin Greenberger es profesor de sistemas de información en IBM y profesor de la Escuela Anderson de Administración en la Universidad
de California de los Ángeles.
51
A los números generados por algún procedimiento como los anteriores se les denominó como pseudoaleatorios,
por considerar que no fueron generados estrictamente en forma aleatoria.
En Excel de Microsoft® se pueden generar el número suficiente de números aleatorios.

5.2 Métodos de Montecarlo


Para extraer al azar un elemento de una población descrita por la densidad de probabilidad, f(x), se procede
como sigue:
a) Se dibuja la distribución de probabilidad acumulada:
x
y = F(x) = ∫ f ( x )dx (5.4)
−∞

b) Por medio de algún artificio se elige un decimal aleatorio (con tantas cifras como se desee).
c) Se traza una recta horizontal por el punto del eje y correspondiente al decimal aleatorio obtenido en el
inciso (b) hasta interceptar a la curva y=F(x).
d) Se obtiene el valor correspondiente al punto de intersección. Este valor se toma como un elemento de la
muestra de valores x.

Se ilustra el procedimiento en la figura 5.1:

1.0

y=F(x)
Decimal aleatorio

Elemento de la muestra x

Figura 5.1 Muestreo aleatorio. Método de Montecarlo

El proceso antes mencionado no siempre es necesario llevarlo al detalle, ya que mediante los generadores de
proceso de algunas distribuciones conocidas, es posible obtener muestras aleatorias mediante alguna función.

5.3 Generador de proceso uniforme


Para un generador de proceso uniforme se utilizan la función densidad y la función de distribución de la variable
aleatoria de que se trate.
La función densidad para la distribución uniforme se define como sigue
1
P(x) = para a ≤ x ≤ b (5.5)
b−a

52
Gráficamente, esto tendría la forma que se muestra en la figura 5.2. Observar que todos los valores que se
encuentran entre a y b tienen densidades iguales de 1/(b-a):

p(x)

1/(b-a)

x
a b

Figura 5.2 Distribución de probabilidad uniforme para el intervalo (a, b)

El procedimiento implica integrar la función densidad para el intervalo de valores; el procedimiento es como
sigue:
x
P(x) = ∫ p(x)dx
a

Sustituyendo p(x) = 1/(b-a), entonces


x 1
dx
P(x) = ∫
a
b−a

x
1
∫ [x ]
x
= a
b−a
a

1
= [x − a]
b−a
por tanto,
x−a
P(x) = (5.6)
b−a
La gráfica de la función de distribución aparece en la figura 5.3:

P(x)

1.0

x
a b

Figura 5.3 Función de distribución de la distribución uniforme

53
En el procedimiento de muestreo para el método de Montecarlo, se obtiene una muestra de la función de
distribución generando un decimal aleatorio, identificando la probabilidad asociada a aquél y eligiendo el valor
correspondiente de la variable. En términos numéricos, se utiliza el mismo procedimiento para elaborar un
generador de proceso. La técnica se denomina método de transformación inversa. El procedimiento implica
igualar la variable aleatoria uniforme R (en donde R se encuentra entre cero y uno) a P(x) y despejar x:
x−a
R = P(x) =
b−a
R(b-a) = x-a
Finalmente x será:
x = a + R(b-a) (5.7)

Dada la ecuación 5.7 que es el generador de proceso para la distribución uniforme, es posible generar variables
con distribución uniforme entre a y b, simplemente identificando a y b, generando un decimal aleatorio R y
sustituyendo en la ecuación. Por ejemplo, para generar una variable aleatoria entre 10 y 20, la relación funcional
sería
x = 10 + R(10)
Para el número aleatorio 0.6134, el valor de la variable aleatoria sería 16.134.
El muestreo en una distribución uniforme es bastante simple una vez que se ha determinado el generador de
proceso. Sin embargo, este beneficio no se limita a la distribución uniforme sino que se aplica a todas las
distribuciones continuas.

5.4 Generador de proceso con distribución exponencial negativa


Su función densidad se define como sigue

p(x) = µe −µx para 0 ≤ x ≤ ∞

en donde µ es la tasa promedio de servicio de una línea de espera, o número promedio de unidades a las que

se les da servicio por intervalo de tiempo. En la figura 5.4 aparece la gráfica de la función densidad:

p(x)

Figura 5.4 Función densidad de la distribución exponencial negativa

Para obtener el generador de proceso, debe calcularse primero la función acumulada de densidad:
54
x
P(x) = ∫ p(x)dx
0

∫ µe
−µx
= dx
0

[ ]
= − e −µx
x
0

= [− e ] − [− e ]
− µx 0

= − e −µx + 1

P(x) = -e −µx +1 (5.8)


Igualando la variable aleatoria uniforme R, a P(x) y despejando x se tiene:

R = P(x) = 1 - e −µx

e −µx = 1 − R

ln (e −µx ) = ln(1 − R )

- µx = ln (1-R)

por lo tanto
x = (-1/ µ) ln(1 − R ) (5.9)

dado que la variable aleatoria R es simétrica y tiene una distribución uniforme entre 0 y 1, la distribución
probabilística para (1-R) equivale a la de R; por tanto puede reemplazarse (1-R) por R. Entonces, un generador
de proceso igualmente válido para la distribución exponencial negativa es:
x =(-1/ µ) ln R ) (5.10)

Dada la tasa promedio de servicio, µ , y una variable aleatoria uniforme , R, ahora es posible generar valores

muestrales para la longitud del tiempo de servicio, x.

Ejemplo 5.1 Obtención de una muestra aleatoria


Si la tasa promedio de servicio, µ , para una operación determinada es de 6 unidades por hora y se genera el

valor aleatorio uniforme de 0.5, entonces el valor muestral sería:


−1
x= * ln(0.5)
6
= (-1/6)(-0.693) horas
= (-60/6)(-0.693) minutos
= 6.93 minutos

55
5.5 Generador de proceso binomial
La función densidad de la distribución binomial, se expresa como sigue
n!
p(x) = p x (1 − p) n− x (5.11)
x! (n − x )!

donde: n = número de ensayos independientes (tamaño de la muestra)


p = probabilidad de éxito en cualquier ensayo
x = variable aleatoria que representa el número de éxitos en n ensayos

Dados los parámetros n y p, el generador de proceso binomial simplemente implica muestrear n veces y contar
el número de éxitos, x. En cada ensayo, se genera un valor aleatorio, R, y se compara con la probabilidad de
éxito, p. Si el valor aleatorio R es menor que p, el ensayo se denomina éxito y se cuenta; si R ≥ p, el ensayo es
fracaso. Después de n ensayos, el número total de éxitos es el valor de la variable binomial aleatoria.

5.6 Prueba de bondad de ajuste


Antes de poder utilizar un generador de proceso en un estudio de simulación, debe demostrarse primero que es
posible representar los datos empíricos a través de una distribución de probabilidad teórica conocida. Es posible
emplear diversas pruebas estadísticas para probar la bondad de ajuste de una distribución teórica a un conjunto

determinado de datos. Una de las que se usan con más frecuencia es la prueba de ji cuadrada ( χ 2 ).

La prueba de χ 2 pretende determinar si existe diferencia significativa entre las frecuencias esperadas (las que

se basan en la distribución teórica) y las frecuencias reales (las de los datos). Los pasos que se utilizan en el
proceso de prueba son los siguientes:
1. Plantear la hipótesis de prueba, H0, que señala que los datos observados se extrajeron de una población que
puede describirse a través de una distribución teórica conocida.
2. Plantear la hipótesis alternativa, H1, que señala que los datos observados no se extrajeron de la población
planteada en el paso 1.
3. Identificar el nivel de significancia, α , con el que se llevará a cabo la prueba. [recordar que (1- α ) es el
nivel de confianza de una prueba estadística.].
4. Utilizando la siguiente relación:

(f 0 − f e ) 2
χ 2cal = ∑ fe
(5.12)

En donde χ 2cal = valor calculado de χ 2

f0 = frecuencias observadas
fe = frecuencias teóricas o esperadas

Probar la χ 2cal con la χ 2tablas . Si χ 2cal > χ 2tablas , entonces se rechaza H0 (se acepta H1); si χ 2cal ≤ χ 2tablas , no se

rechaza H0. El valor de χ 2tablas se encuentra en una tabla de ji cuadrada y está definido por el número de grados

56
de libertad (g. l.). Los grados de libertad, para la mayoría de las pruebas de bondad de ajuste, se definen de la
siguiente manera:
g. l. = Número de categorías (clases) – número de parámetros – 1
en donde el número de parámetros se define como el número de estadísticos ( µ, , λ , σ , etc.) que se requieren

para describir una distribución de probabilidad determinada.

Ejemplo 5.2 Prueba de bondad de ajuste


Suponer que los datos que aparecen en las dos primeras columnas de la tabla 5.1 corresponden al número de
clientes que entran a un banco cada hora. Estos datos se recolectaron al azar para 204 periodos de una hora.
Con base en estos datos, se plantearía la hipótesis H0 de que los datos pueden representarse por medio de una
distribución de Poisson. La hipótesis alternativa H1, es que la distribución no puede representarse mediante la de
Poisson.

Tabla 5.1 Cálculos de la prueba

Número de llegadas Frecuencia Frecuencia (f o − f e ) 2


por hora (x) observada (fo) esperada (fe) fe

0 70 75.05 0.3398
1 84 75.05 1.0673
2 34 37.52 .3302
3 12 12.51 .0088
4 o más 4 3.87

204 χ 2cal = 1.7461

Antes de probar la hipótesis H0, se necesita calcular χ 2cal . Se comienza calculando el número promedio de

llegadas por hora, λ :

λ=
∑ xf o
=
204
=1
∑f o
204

Utilizando λ = 1 y la función densidad de Poisson se pueden calcular las probabilidades de que entren al banco
diversos números de clientes. Estos serán:
P(x=0) = 0.36788
P(x=1) = 0.36788
P(x=2) = 0.18394
P(x=3) = 0.06131
P(x≥4) = 0.01899

57
Dado que n, número total de observaciones, es 204, las frecuencias teóricas o esperadas se determinan
multiplicando las probabilidades anteriores por 204. Estos datos se muestran en la columna 3 de la tabla 5.1.

Aplicando la ecuación 5.12 se puede calcular la columna 4 de la tabla. La suma de la columna 4 produce χ 2cal .

(Al calcularla, se supone que cada clase de datos tiene una fe de cuando menos 5. Dado que el valor esperado
para x ≥ 4 es de sólo 3.87 observaciones, se agruparon las clases 3 y 4.)
El número de grados de libertad para esta prueba específica es 2, puesto que existen cuatro clases de datos en
el conjunto original y la distribución de Poisson tiene un parámetro, λ . Si se desea probar la hipótesis H0 a un

nivel de confianza del 95 %, entonces α = 0.05. Consultando la tabla de χ 2 , se encuentra que para α = 0.05

y g. l.=2, χ 2tablas = 5.991 . Dado que χ 2cal es menor que χ 2tablas , entonces no se rechaza H0 y se concluye que

los datos pueden simularse en forma adecuada con un generador de proceso de Poisson.

5.7 Desviaciones aleatorias normales


El proceso descrito para un muestreo de Montecarlo, no es necesario emplearlo para el caso de la distribución
normal. Para obtener muestras de la distribución normal se utilizan tablas con desviaciones aleatorias normales
obtenidas de una población con media cero y desviación estándar uno. El elemento correspondiente de la
muestra se obtiene multiplicando la desviación aleatoria normal por σ x y sumándole µ x .

Se anexa la tabla de χ 2 y la tabla con desviaciones aleatorias normales.

Ejemplo 5.3 Simulación del sistema


La producción diaria de un sistema hidroeléctrico en kw-h tiene la siguiente distribución:

kw-h/día 10 11 12 13 14 15 16

Probabilidad 0.05 0.10 0.20 0.30 0.20 0.10 0.05


Probabilidad
0.05 0.15 0.35 0.65 0.85 0.95 1.0
acumulada

El número diario de consumidores de la energía producida tiene la siguiente distribución:

Número de
5 6 7 8 9 10
consumidores/día

Probabilidad 0.10 0.15 0.20 0.40 0.10 0.05

Probabilidad acumulada 0.10 0.25 0.45 0.85 0.95 1.0

La probabilidad de que un consumidor requiera de 1, 2, o 3 kw-h está dada por:

58
kw-h/consumidor 1 2 3
Probabilidad 0.40 0.40 0.20

Probabilidad acumulada 0.40 0.80 1.0

Estimar con métodos de Montecarlo, el número de kw-h no consumidos y el número medio de Kw-h requeridos
por día debido a una producción insuficiente. Suponer que la producción de un día no puede ser utilizada en el
siguiente.
Solución
El primer paso consiste en dibujar o conceptualizar la distribución de probabilidad acumulada para las variables
aleatorias en cuestión, las cuales se muestran en las figuras 4.5 a, 4.5 b y 4.5 c:

1.0 1.0 1.0

F(x) F(x) F(x)

0.5 0.5 0.5


0.5

0 0 0
10 11 12 13 14 15 16 5 6 7 8 9 10 1 2 3
Producción diaria Número diario de Consumo diario
Consumidores
5.5 a 5.5 b 5.5 c

Figura 5.5 Distribuciones de probabilidad acumulada

Se simularán 10 días del proceso producción-consumo, desde luego un mayor número de días proporcionarían
resultados más confiables.
Se calculará el número de kw-h producidos en cada uno de los 10 días, generando 10 números aleatorios
decimales y empleando la figura 5.5a; los resultados se muestran en la tabla 5.2:

Tabla 5.2
Día 1 2 3 4 5 6 7 8 9 10

Número aleatorio .271 .914 .045 .462 .493 .983 .756 .744 .184 .627
Producción 12 15 10 13 13 16 14 14 12 13

59
Enseguida se calcula el número diario de consumidores generando 10 números aleatorios y usando la figura
5.5b; los resultados se muestran en la tabla 5.3:

Tabla 5.3
Día 1 2 3 4 5 6 7 8 9 10

Número aleatorio .214 .371 .936 .852 .786 .991 .264 .268 .308 .385
Número de
6 7 9 9 8 10 7 7 7 7
consumidores

Ahora se calculará el consumo para cada uno de los 77 clientes que se muestran en la tabla 5.4. Esto se logra
utilizando la figura 5.5c y los resultados se muestran en la tabla 5.4. La suma por columna proporciona la
demanda del día correspondiente y la diferencia de éstas con la producción respectiva conduce al déficit o al
exceso de la misma.
Tabla 4.4

Consumo total

Producción

Exceso
Déficit
Día Consumidor
1 2 3 4 5 6 7 8 9 10

N. A. .37 .08 .65 .08 .57 .22


1
Cons. 1 1 2 1 2 1 8 12 4
N. A. .10 .72 .85 .51 .01 .09 .26
2
Cons. 1 2 3 2 1 1 1 11 15 4
N. A. .73 .55 .69 .84 .41 .49 .90 .72 .92
3
Cons. 2 2 2 3 2 2 3 2 3 21 10 11
N. A. .05 .92 .40 .67 .89 .13 .37 .34 .52
4
Cons. 1 3 2 2 3 1 1 1 2 16 13 3
N. A. .14 .04 .68 .20 .07 .95 .18 .58
5
Cons. 1 1 2 1 1 3 1 2 12 13 1
N. A. .53 .90 .52 .82 .48 .30 .44 .25 .68 .53
6
Cons. 2 3 2 3 2 1 2 1 2 2 20 16 4
N. A. .21 .99 .38 .34 .01 .63 .03
7
Cons. 1 3 1 1 1 2 1 10 14 4
N. A. .16 .55 .37 .99 .39 .71 .53
8
Cons. 1 2 1 3 1 2 2 12 14 2
N. A. .49 .38 .02 .95 .43 .17 .56
9
Cons. 2 1 1 3 2 1 2 12 12 - -
N. A. .97 .37 .75 .60 .12 .97 .95
10
Cons. 3 1 2 2 1 3 3 16 13 3

21 15

60
En el periodo de 10 días simulados se tiene un total de 15 Kw-h no consumidos y un total de 21 Kw-h
requeridos y no proporcionados. Consecuentemente:
Número medio de kw-h no consumidos = 1.5 kw-h/día
Número medio de kw-h requeridos y no proporcionados = 2.1 kw-h/día

Ejemplo 5.4 Toma de decisiones con simulación


La gerencia de una empresa de ferrocarril considera necesario pintar sus vagones una vez al año. La alternativa
1 cuesta $150 000 al año, y consiste en operar dos talleres de pintura donde se pintará manualmente. El tiempo
requerido para pintar cada vagón tiene una distribución exponencial con promedio de 6 horas. La alternativa 2
consiste en operar un taller donde utilizará aire comprimido; el costo anual será de $200 000. En este caso, el
tiempo para pintar cada vagón también sigue una distribución exponencial con promedio de 3 horas. En ambos
casos, los vagones llegarían al taller siguiendo una distribución de Poisson con promedio de un vagón por cada 8
horas.
Si no se utiliza un vagón, el costo es de $30 por hora, y se supone que los talleres estarían operando todas las
8760 horas del año. ¿Cuál de las dos alternativas es la mejor?

Solución
Para generar muestras aleatorias de las llegadas y de los servicios, se utilizarán los generadores de proceso de
Poisson y exponencial, respectivamente.
Tiempo entre llegadas:
x = -1/ λ (ln R)
Tiempo de servicio:
x = -1/ µ (ln R)

Donde λ es la tasa promedio de llegadas y µ es la tasa promedio de servicio; R representa a un número

decimal aleatorio, el cual puede ser generado en una hoja de cálculo de Excel: Herramientas – Análisis de datos
– Generación de números aleatorios, en esta ventana de diálogo hay que establecer el Número de variables,
Cantidad de números aleatorios y Distribución, que se refiere al número de variables aleatorias en cuestión, a la
cantidad de números en cada conjunto y al tipo de número que se desea generar, respectivamente. En este
caso, se necesitan de una distribución uniforme.
La tasa promedio de llegadas en ambas alternativas es λ = 3 vagones por día, la tasa promedio de servicio para
la alternativa 1 es de µ = 4 vagones por día y para la alternativa 2 es de µ =8 vagones por día.

El proceso de simulación se hará en una hoja de cálculo y se simulará cada tiempo entre llegadas y cada tiempo
de servicio, con las expresiones:
Tiempo entre llegadas, alternativas 1 y 2:
x = -1/3 (ln R) días = -24/3 (ln R) = -8 ln R (horas)

61
Tiempo de servicio, alternativa 1:
x = -1/4 (ln R) días = -24/4 (ln R) = -6 ln R (horas)
Tiempo de servicio, alternativa 2:
x = -1/8 (ln R) días = -24/8 (ln R) = -3 ln R (horas)

H o r a d e in ic io : 0 h r s
S IS T E M A M /M /2 A LT E R N A T IV A 1

T ie m p o H o ra e n
NA e n tre H o ra e n ¿E sp e ra ? q u e e n tra NA T ie m p o H o ra e n T a lle r L Lq
lle g a d a s q u e lle g a a s e r v ic io d e s e r v ic io q u e s a le
0 .3 8 2 7 .6 9 8 6 7 4 7 .6 9 8 6 7 4 7 .6 9 8 6 7 4 0 .1 0 0 6 8 1 1 3 .7 7 4 8 2 2 1 .4 7 3 4 9 1 1 0
0 .8 8 4 6 1 0 .9 8 0 8 7 2 8 .6 7 9 5 4 5 8 .6 7 9 5 4 5 0 .9 5 8 4 6 4 0 .2 5 4 5 3 8 8 .9 3 4 0 8 3 2 2 0
0 .8 6 3 2 4 7 1 .1 7 6 4 3 9 9 .8 5 5 9 8 5 9 .8 5 5 9 8 5 0 .1 3 8 5 8 5 1 1 .8 5 7 6 5 2 1 .7 1 3 6 3 2 2 0
0 .0 3 2 3 8 2 7 .4 4 1 6 8 3 7 .2 9 7 6 7 3 7 .2 9 7 6 7 0 .1 6 4 1 2 9 1 0 .8 4 2 6 3 4 8 .1 4 0 3 1 1 0
0 .2 8 5 0 4 3 1 0 .0 4 0 9 3 4 7 .3 3 8 5 9 4 7 .3 3 8 5 9 0 .3 4 3 0 8 9 6 .4 1 8 5 9 1 5 3 .7 5 7 1 8 2 2 0
0 .3 7 1 8 3 8 7 .9 1 4 3 8 6 5 5 .2 5 2 9 8 5 5 .2 5 2 9 8 0 .3 5 5 6 0 2 6 .2 0 3 6 6 4 6 1 .4 5 6 6 4 1 1 0
0 .4 2 6 1 6 6 .8 2 3 5 1 5 6 2 .0 7 6 4 9 6 2 .0 7 6 4 9 0 .3 0 3 9 0 3 7 .1 4 6 2 7 4 6 9 .2 2 2 7 7 2 1 0
0 .9 9 1 2 4 1 0 .0 7 0 3 7 9 6 2 .1 4 6 8 7 6 2 .1 4 6 8 7 0 .2 5 6 2 6 4 8 .1 6 9 2 8 4 7 0 .3 1 6 1 5 1 2 0
0 .7 0 5 0 3 9 2 .7 9 6 0 2 2 6 4 .9 4 2 8 9 4 .2 7 9 8 7 3 6 9 .2 2 2 7 7 0 .8 1 6 5 2 3 1 .2 1 6 2 0 3 7 0 .4 3 8 9 7 2 3 1
0 .3 0 0 2 1 1 9 .6 2 6 1 6 9 7 4 .5 6 9 0 6 7 4 .5 6 9 0 6 0 .7 5 0 2 0 6 1 .7 2 4 4 4 5 7 6 .2 9 3 5 1 1 1 0
0 .0 7 4 3 4 3 2 0 .7 9 2 5 2 9 5 .3 6 1 5 8 9 5 .3 6 1 5 8 0 .1 9 8 4 3 1 9 .7 0 3 8 7 3 1 0 5 .0 6 5 5 2 1 0
0 .4 8 7 0 4 5 5 .7 5 5 1 9 2 1 0 1 .1 1 6 8 1 0 1 .1 1 6 8 0 .5 1 1 2 1 6 4 .0 2 5 7 8 4 1 0 5 .1 4 2 6 1 2 0
0 .0 4 0 7 1 2 2 5 .6 0 9 9 2 1 2 6 .7 2 6 7 1 2 6 .7 2 6 7 0 .2 3 0 7 2 8 .7 9 9 3 0 4 1 3 5 .5 2 6 2 1 0
0 .1 0 0 3 1 4 1 8 .3 9 5 5 7 1 4 5 .1 2 2 3 1 4 5 .1 2 2 3 0 .2 5 6 6 9 1 8 .1 5 9 2 8 9 1 5 3 .2 8 1 6 1 1 0
0 .8 0 9 1 0 7 1 .6 9 4 5 9 6 1 4 6 .8 1 6 9 1 4 6 .8 1 6 9 0 .7 2 4 3 2 6 1 .9 3 5 0 8 1 4 8 .7 5 1 9 2 2 0
0 .7 5 6 1 5 7 2 .2 3 6 0 4 9 1 4 9 .0 5 2 9 1 4 9 .0 5 2 9 0 .6 2 6 5 1 4 2 .8 0 5 5 1 5 1 .8 5 8 4 2 2 0
0 .5 5 2 3 2 4 4 .7 4 8 9 6 4 1 5 3 .8 0 1 9 1 5 3 .8 0 1 9 0 .7 1 1 5 0 9 2 .0 4 2 2 0 7 1 5 5 .8 4 4 1 2 1 0
0 .9 7 0 2 7 5 0 .2 4 1 4 0 6 1 5 4 .0 4 3 3 1 5 4 .0 4 3 3 0 .6 8 6 9 4 1 2 .2 5 3 0 4 1 5 6 .2 9 6 3 1 2 0
0 .8 0 5 6 5 8 1 .7 2 8 7 6 6 1 5 5 .7 7 2 0 .0 7 2 0 3 5 1 5 5 .8 4 4 1 0 .2 6 2 2 1 5 8 .0 3 1 5 4 2 1 6 3 .8 7 5 6 2 2 0
0 .1 1 4 8 4 1 1 7 .3 1 3 6 4 1 7 3 .0 8 5 7 1 7 3 .0 8 5 7 0 .0 5 9 5 1 1 1 6 .9 2 9 5 6 1 9 0 .0 1 5 2 1 1 0
4 .3 5 1 9 0 8 1 3 2 .2 9 3 3 31 1

C o s to : L= 1 .5 5
T a lle r = 3 2 5 3 .6 8 6 C o s t o d ia r io a lt e r n a t iv a 1 = 9 2 8 .7 3 0 7 Lq= 0 .0 5
E sp e ra 4 0 9 9 .3 5 5 W= 6 .8 3 2 2 5 9 d ía s
7 3 5 3 .0 4 1 W q= 0 .2 1 7 5 9 5 d ía s

Comparando l os c ostos de las alternativas, s e o bserva q ue e s m enor e l costo di ario a sociado a l a


alternativa 1 (utilizar dos talleres de pintura), por lo que es preferible esta alternativa.

Este problema está resuelto también con criterio de línea de espera, en el capítulo 4, por lo que se sugiere al
lector comparar ambos métodos e inferir conclusiones.

62
H o r a d e in ic io : 0 h r s
S IS T E M A M /M /1 A LT E R N A T IV A 2

T ie m p o H o ra e n
NA e n tre H o ra e n ¿E sp e ra ? q u e e n tra NA T ie m p o H o ra e n L Lq
lle g a d a s q u e lle g a a s e r v ic io d e s e r v ic io q u e s a le
0 .5 9 6 4 8 4 4 .1 3 3 6 1 9 4 .1 3 3 6 1 9 4 .1 3 3 6 1 9 0 .8 9 9 1 0 6 0 .3 1 9 0 6 4 4 .4 5 2 6 8 3 1 0
0 .0 1 4 4 9 6 3 3 .8 7 0 9 3 8 .0 0 4 5 2 3 8 .0 0 4 5 2 0 .4 0 7 4 2 2 2 .6 9 3 7 1 7 4 0 .6 9 8 2 3 1 0
0 .2 4 5 0 3 3 1 1 .2 5 0 9 4 9 .2 5 5 4 1 4 9 .2 5 5 4 1 0 .0 4 5 4 7 3 9 .2 7 1 9 3 7 5 8 .5 2 7 3 5 1 0
0 .2 1 9 6 1 1 1 2 .1 2 7 1 7 6 1 .3 8 2 5 9 6 1 .3 8 2 5 9 0 .0 1 7 0 9 1 2 .2 0 7 7 2 7 3 .5 9 0 3 1 2 1
0 .5 5 3 6 3 6 4 .7 2 9 9 7 9 6 6 .1 1 2 5 7 7 .4 7 7 7 4 2 7 3 .5 9 0 3 1 0 .3 5 7 3 7 2 3 .0 8 6 9 3 6 7 6 .6 7 7 2 4 2 1
0 .9 1 0 3 0 6 0 .7 5 1 7 9 5 6 6 .8 6 4 3 6 9 .8 1 2 8 8 4 7 6 .6 7 7 2 4 0 .4 6 6 0 1 8 2 .2 9 0 5 9 5 7 8 .9 6 7 8 4 3 2
0 .9 7 5 7 0 7 0 .1 9 6 7 4 1 6 7 .0 6 1 1 1 1 .9 0 6 7 4 7 8 .9 6 7 8 4 0 .8 0 6 6 6 5 0 .6 4 4 5 4 7 9 .6 1 2 3 8 4 3
0 .9 5 1 6 8 9 0 .3 9 6 1 3 4 6 7 .4 5 7 2 4 1 2 .1 5 5 1 4 7 9 .6 1 2 3 8 0 .0 5 3 4 3 8 8 .7 8 7 7 0 5 8 8 .4 0 0 0 8 5 4
0 .9 7 2 5 0 3 0 .2 2 3 0 5 8 6 7 .6 8 0 2 9 2 0 .7 1 9 7 9 8 8 .4 0 0 0 8 0 .4 6 6 3 2 3 2 .2 8 8 6 3 1 9 0 .6 8 8 7 1 6 5
0 .3 5 1 4 8 2 8 .3 6 4 7 8 2 7 6 .0 4 5 0 8 1 4 .6 4 3 6 4 9 0 .6 8 8 7 1 0 .7 7 5 6 5 8 0 .7 6 2 1 2 9 9 1 .4 5 0 8 4 6 5
0 .0 6 4 0 5 8 2 1 .9 8 3 6 9 9 8 .0 2 8 7 6 9 8 .0 2 8 7 6 0 .3 5 8 3 4 8 3 .0 7 8 7 4 9 1 0 1 .1 0 7 5 1 0
0 .3 7 3 4 5 5 7 .8 7 9 6 6 2 1 0 5 .9 0 8 4 1 0 5 .9 0 8 4 0 .9 8 5 9 0 .0 4 2 6 1 0 5 .9 5 1 1 0
0 .0 0 4 9 7 5 4 2 .4 2 7 4 2 1 4 8 .3 3 5 8 1 4 8 .3 3 5 8 0 .9 2 6 1 4 5 0 .2 3 0 1 7 3 1 4 8 .5 6 6 1 0
0 .7 7 5 6 8 9 2 .0 3 2 0 2 9 1 5 0 .3 6 7 9 1 5 0 .3 6 7 9 0 .6 7 9 6 4 7 1 .1 5 8 5 4 4 1 5 1 .5 2 6 4 1 0
0 .0 8 5 0 5 5 1 9 .7 1 5 6 5 1 7 0 .0 8 3 5 1 7 0 .0 8 3 5 0 .1 3 2 2 6 7 6 .0 6 8 7 9 3 1 7 6 .1 5 2 3 1 0
0 .1 7 3 6 5 1 4 .0 0 5 6 9 1 8 4 .0 8 9 2 1 8 4 .0 8 9 2 0 .4 0 4 7 9 8 2 .7 1 3 1 0 5 1 8 6 .8 0 2 3 1 0
0 .5 5 5 1 6 2 4 .7 0 7 9 6 1 8 8 .7 9 7 2 1 8 8 .7 9 7 2 0 .1 8 1 1 5 8 5 .1 2 5 1 5 9 1 9 3 .9 2 2 3 1 0
0 .5 2 8 7 9 4 5 .0 9 7 2 4 7 1 9 3 .8 9 4 4 0 .0 2 7 9 1 2 1 9 3 .9 2 2 3 0 .7 9 6 6 8 6 0 .6 8 1 8 8 5 1 9 4 .6 0 4 2 2 1
0 .1 7 7 9 5 3 1 3 .8 0 9 8 7 2 0 7 .7 0 4 3 2 0 7 .7 0 4 3 0 .8 6 6 7 5 6 0 .4 2 8 9 9 3 2 0 8 .1 3 3 3 1 0
0 .7 6 1 5 5 9 2 .1 7 9 1 0 2 2 0 9 .8 8 3 4 2 0 9 .8 8 3 4 0 .7 3 8 3 9 5 0 .9 0 9 8 2 8 2 1 0 .7 9 3 2 1 0
7 6 .7 4 3 8 5 6 2 .7 9 0 8 42 22

C o s to : L= 2 .1
T a lle r = 4 8 1 2 .6 3 1 C o s t o d ia r io d e a lt e r n a t iv a 2 = 1 0 2 4 .5 4 9 Lq= 1 .1
E sp e ra 4 1 8 6 .0 4 W= 6 .9 7 6 7 3 3 d ía s
8 9 9 8 .6 7 W q= 3 .8 3 7 1 9 2 d ía s

63
ANEXO: TABLAS

Tabla A.1 Ordenadas de la curva normal estándar

1 2
f(z) = e z /2

t 0 1 2 3 4 5 6 7 8 9
0 0.3989 0.3989 0.3989 0.3988 0.3986 0.3984 0.3982 0.3980 0.3977 0.3973
0.1 0.3970 0.3965 0.3961 0.3956 0.3951 0.3945 0.3939 0.3932 0.3925 0.3918
0.2 0.3910 0.3902 0.3894 0.3885 0.3876 0.3867 0.3857 0.3847 0.3836 0.3825
0.3 0.3814 0.3802 0.3790 0.3778 0.3765 0.3752 0.3739 0.3725 0.3712 0.3697
0.4 0.3683 0.3668 0.3653 0.3637 0.3621 0.3605 0.3589 0.3572 0.3555 0.3538
0.5 0.3521 0.3503 0.3485 0.3467 0.3448 0.3429 0.3410 0.3391 0.3372 0.3352
0.6 0.3332 0.3312 0.3292 0.3271 0.3251 0.3230 0.3209 0.3187 0.3166 0.3144
0.7 0.3123 0.3101 0.3079 0.3056 0.3034 0.3011 0.2989 0.2966 0.2943 0.2920
0.8 0.2897 0.2874 0.285 0.2827 0.2803 0.278 0.2756 0.2732 0.2709 0.2685
0.9 0.2661 0.2637 0.2613 0.2589 0.2565 0.2541 0.2516 0.2492 0.2468 0.2444
1 0.2420 0.2396 0.2371 0.2347 0.2323 0.2299 0.2275 0.2251 0.2227 0.2203
1.1 0.2179 0.2155 0.2131 0.2107 0.2083 0.2059 0.2036 0.2012 0.1989 0.1965
1.2 0.1942 0.1919 0.1895 0.1872 0.1849 0.1826 0.1804 0.1781 0.1758 0.1736
1.3 0.1714 0.1691 0.1669 0.1647 0.1626 0.1604 0.1582 0.1561 0.1539 0.1518
1.4 0.1497 0.1476 0.1456 0.1435 0.1415 0.1394 0.1374 0.1354 0.1334 0.1315
1.5 0.1295 0.1276 0.1257 0.1238 0.1219 0.1200 0.1182 0.1163 0.1145 0.1127
1.6 0.1109 0.1092 0.1074 0.1057 0.1040 0.1023 0.1006 0.0989 0.0973 0.0957
1.7 0.0940 0.0925 0.0909 0.0893 0.0878 0.0863 0.0848 0.0833 0.0818 0.0804
1.8 0.0790 0.0775 0.0761 0.0748 0.0734 0.0721 0.0707 0.0694 0.0681 0.0669
1.9 0.0656 0.0644 0.0632 0.0620 0.0608 0.0596 0.0584 0.0573 0.0562 0.0551
2 0.0540 0.0529 0.0519 0.0508 0.0498 0.0488 0.0478 0.0468 0.0459 0.0449
2.1 0.0440 0.0431 0.0422 0.0413 0.0404 0.0396 0.0387 0.0379 0.0371 0.0363
2.2 0.0355 0.0347 0.0339 0.0332 0.0325 0.0317 0.0310 0.0303 0.0297 0.0290
2.3 0.0283 0.0277 0.0270 0.0264 0.0258 0.0252 0.0246 0.0241 0.0235 0.0229
2.4 0.0224 0.0219 0.0213 0.0208 0.0203 0.0198 0.0194 0.0189 0.0184 0.0180
2.5 0.0175 0.0171 0.0167 0.0163 0.0158 0.0154 0.0151 0.0147 0.0143 0.0139
2.6 0.0136 0.0132 0.0129 0.0126 0.0122 0.0119 0.0116 0.0113 0.0110 0.0107
2.7 0.0104 0.0101 0.0099 0.0096 0.0093 0.0091 0.0088 0.0086 0.0084 0.0081
2.8 0.0079 0.0077 0.0075 0.0073 0.0071 0.0069 0.0067 0.0065 0.0063 0.0061
2.9 0.0060 0.0058 0.0056 0.0055 0.0053 0.0051 0.0050 0.0048 0.0047 0.0046
3 0.0044 0.0043 0.0042 0.0040 0.0039 0.0038 0.0037 0.0036 0.0035 0.0034
3.1 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026 0.0025 0.0025
3.2 0.0024 0.0023 0.0022 0.0022 0.0021 0.0020 0.0020 0.0019 0.0018 0.0018
3.3 0.0017 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014 0.0013 0.0013
3.4 0.0012 0.0012 0.0012 0.0011 0.0011 0.0010 0.0010 0.0010 0.0009 0.0009
3.5 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007 0.0007 0.0007 0.0006
3.6 0.0006 0.0006 0.0006 0.0005 0.0005 0.0005 0.0005 0.0005 0.0005 0.0004
3.7 0.0004 0.0004 0.0004 0.0004 0.0004 0.0004 0.0003 0.0003 0.0003 0.0003
3.8 0.0003 0.0003 0.0003 0.0003 0.0003 0.0002 0.0002 0.0002 0.0002 0.0002
3.9 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0001 0.0001
4 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001

64
Tabla A.2 Áreas bajo la curva normal estándar entre 0 y z

1 2
f(z) = e z /2

z 0 1 2 3 4 5 6 7 8 9
0.0 0.0000 0.0040 0.0080 0.0120 0.0160 0.0199 0.0239 0.0279 0.0319 0.0359
0.1 0.0398 0.0438 0.0478 0.0517 0.0557 0.0596 0.0636 0.0675 0.0714 0.0754
0.2 0.0793 0.0832 0.0871 0.0910 0.0948 0.0987 0.1026 0.1064 0.1103 0.1141
0.3 0.1179 0.1217 0.1255 0.1293 0.1331 0.1368 0.1406 0.1443 0.1480 0.1517
0.4 0.1554 0.1591 0.1628 0.1664 0.1700 0.1736 0.1772 0.1808 0.1884 0.1879
0.5 0.1915 0.1950 0.1985 0.2019 0.2054 0.2088 0.2123 0.2157 0.2190 0.2224
0.6 0.2258 0.2291 0.2324 0.2357 0.2389 0.2422 0.2454 0.2486 0.2518 0.2549
0.7 0.2580 0.2612 0.2642 0.2673 0.2704 0.2734 0.2764 0.2794 0.2823 0.2852
0.8 0.2881 0.2910 0.2939 0.2967 0.2996 0.3023 0.3051 0.3078 0.3106 0.3133
0.9 0.3159 0.3189 0.3212 0.3238 0.3264 0.3289 0.3315 0.3340 0.3365 0.3389
1.0 0.3413 0.3438 0.3461 0.3485 0.3508 0.3531 0.3554 0.3577 0.3599 0.3621
1.1 0.3643 0.3665 0.3686 0.3708 0.3729 0.3749 0.3770 0.3790 0.3810 0.3830
1.2 0.3849 0.3869 0.3888 0.3907 0.3925 0.3944 0.3962 0.3980 0.3997 0.4015
1.3 0.4032 0.4049 0.4066 0.4082 0.4099 0.4115 0.4131 0.4147 0.4162 0.4177
1.4 0.4192 0.4207 0.4222 0.4236 0.4251 0.4265 0.4279 0.4292 0.4306 0.4319
1.5 0.4332 0.4345 0.4357 0.4370 0.4382 0.4394 0.4406 0.4418 0.4429 0.4441
1.6 0.4452 0.4463 0.4474 0.4484 0.4495 0.4505 0.4515 0.4525 0.4535 0.4545
1.7 0.4554 0.4564 0.4573 0.4582 0.4591 0.4599 0.4608 0.4616 0.4625 0.4633
1.8 0.4641 0.4649 0.4656 0.4664 0.4671 0.4678 0.4686 0.4693 0.4699 0.4706
1.9 0.4713 0.4719 0.4726 0.4732 0.4738 0.4744 0.475 0.4756 0.4761 0.4767
2.0 0.4772 0.4778 0.4783 0.4788 0.4793 0.4798 0.4803 0.4808 0.4812 0.4817
2.1 0.4821 0.4826 0.4830 0.4834 0.4838 0.4842 0.4846 0.4850 0.4854 0.4857
2.2 0.4861 0.4864 0.4868 0.4871 0.4875 0.4878 0.4881 0.4884 0.4887 0.4890
2.3 0.4893 0.4896 0.4898 0.4901 0.4904 0.4906 0.4909 0.4911 0.4913 0.4916
2.4 0.4918 0.4920 0.4922 0.4925 0.4927 0.4929 0.4931 0.4932 0.4934 0.4936
2.5 0.4938 0.4940 0.4941 0.4943 0.4945 0.4946 0.4948 0.4949 0.4951 0.4952
2.6 0.4953 0.4955 0.4956 0.4957 0.4959 0.496 0.4961 0.4962 0.4963 0.4964
2.7 0.4965 0.4966 0.4967 0.4968 0.4969 0.497 0.4971 0.4972 0.4973 0.4974
2.8 0.4974 0.4975 0.4976 0.4977 0.4977 0.4978 0.4979 0.4979 0.4980 0.4981
2.9 0.4981 0.4982 0.4982 0.4983 0.4984 0.4984 0.4985 0.4985 0.4986 0.4986
3.0 0.4987 0.4987 0.4987 0.4988 0.4988 0.4989 0.4989 0.4989 0.4990 0.4990
3.1 0.499 0.4991 0.4991 0.4991 0.4992 0.4992 0.4992 0.4992 0.4993 0.4993
3.2 0.4993 0.4993 0.4994 0.4994 0.4994 0.4994 0.4994 0.4995 0.4995 0.4995
3.3 0.4995 0.4995 0.4995 0.4996 0.4996 0.4996 0.4996 0.4996 0.4996 0.4997
3.4 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4998
3.5 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998
3.6 0.4998 0.4998 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999
3.7 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999
3.8 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999
3.9 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000

65
2
Tabla A.3 Áreas bajo la curva χ

2
P = Probabilidad de exceder un valor dado de χ

ν = Grados de libertad

P
v 0.99 0.95 0.9 0.5 0.2 0.1 0.05 0.02 0.01
1 0.0002 0.004 0.016 0.455 1.642 2.71 3.84 5.41 6.64
2 0.02 0.103 0.211 1.39 3.22 4.61 5.99 7.82 9.21
3 0.115 0.35 0.584 2.37 4.64 6.25 7.82 9.84 11.34
4 0.3 0.71 1.06 3.36 5.99 7.78 9.49 11.67 13.28
5 0.55 1.14 1.61 4.35 7.29 9.24 11.07 13.39 15.09
6 0.87 1.64 2.2 5.35 8.56 10.64 12.59 15.08 16.81
7 1.24 2.17 2.83 6.35 9.8 12.02 14.07 16.62 18.48
8 1.65 2.73 3.49 7.34 11.03 13.36 15.51 18.17 20.09
9 2.09 3.32 4.17 8.34 12.24 14.68 16.92 19.68 21.67
10 2.56 3.94 4.87 9.34 13.44 15.99 18.31 21.16 23.21
11 3.05 4.58 5.58 10.34 14.63 17.28 19.68 22.62 24.72
12 3.57 5.23 6.3 11.34 15.81 18.55 21.03 24.05 26.22
13 4.11 5.89 7.04 12.34 16.98 19.81 22.36 25.47 27.69
14 4.66 6.57 7.79 13.34 18.15 21.06 23.68 26.87 29.14
15 5.23 7.26 8.55 14.34 19.31 22.31 25 28.26 30.58
16 5.81 7.96 9.31 15.34 20.46 23.54 26.3 29.63 32
17 6.41 8.67 10.08 16.34 21.62 24.77 27.59 31 33.41
18 7.02 9.39 10.86 17.34 22.76 25.99 28.87 32.35 34.8
19 7.63 10.12 11.65 18.34 23.9 27.2 30.14 33.69 36.19
20 8.26 10.85 12.44 19.34 25.04 28.41 31.41 35.02 37.57
21 8.9 11.59 13.24 20.34 26.17 29.62 32.67 36.34 38.93
22 9.54 12.34 14.04 21.34 27.3 30.81 33.92 37.66 40.29
23 10.2 13.09 14.85 22.34 28.43 32.01 35.17 38.97 41.64
24 10.86 13.85 15.66 23.34 29.55 33.2 36.42 40.27 42.98
25 11.52 14.61 16.47 24.34 30.68 34.38 37.65 41.57 44.31
26 12.2 15.38 17.29 25.34 31.8 35.56 38.88 42.86 45.64
27 12.88 16.15 18.11 26.34 32.91 36.74 40.11 44.14 46.96
28 13.56 16.93 18.94 27.34 34.03 37.92 41.34 45.52 48.28
29 14.26 17.71 19.77 28.34 35.14 39.09 42.56 46.69 49.59
30 14.95 18.49 20.6 29.34 36.25 40.26 43.77 47.96 50.89

66
Tabla A.4 Desviaciones Aleatorias Normales

µ=0 σ=1

(1) (2) (3) (4) (5) (6) (7)


1 0.464 0.137 2.456 -0.323 -0.068 0.296 -0.288
2 0.06 -2.526 -0.531 -.40 0.543 -1.558 0.187
3 1.486 -0.354 -0.634 0.697 0.926 1.375 0.785
4 1.022 -0.472 1.279 3.521 0.571 -1.851 0.194
5 1.394 -.555 0.046 0.321 2.945 1.974 -0.258
6 0.906 -0.513 -0.525 0.595 0.881 0.934 1.579
7 1.179 -1.055 0.007 0.769 0.971 0.712 1.09
8 -.501 -0.488 -0.162 -0.136 1.033 0.203 0.448
9 -0.690 0.756 -1.618 -0.445 -0.511 -2.051 -0.457
10 1.372 0.225 0.378 0.761 0.181 -0.736 0.96
11 -0.482 1.677 -0.057 -1.229 -0.486 0.856 -0.491
12 -1.376 -0.150 1.356 -0.561 -0.256 0.212 0.219
13 -1.010 0.598 -.918 1.598 0.065 0.415 -.169
14 -0.005 -0.899 0.012 -0.725 1.147 -0.121 -0.096
15 1.393 -1.163 -0.911 1.231 -0.199 -0.246 1.239
16 -1.787 -0.261 1.237 1.046 -0.508 -1.63 -0.146
17 -0.105 -0.357 -1.384 0.36 -0.992 -0.116 -1.698
18 -1.339 1.827 -0.959 0.424 0.969 -1.141 -1.041
19 1.041 0.535 0.731 1.377 0.983 -1.33 1.62
20 0.279 -2.056 0.717 -0.873 -1.096 -1.396 1.047
21 -1.805 -2.008 -1.633 0.542 0.25 0.166 0.032
22 -1.186 1.18 1.114 0.882 1.265 -0.202 0.151
23 0.658 -1.141 1.151 -1.210 -0.927 0.425 0.29
24 -0.439 0.358 -1.939 0.891 -0.227 0.602 0.973
25 1.398 -0.23 0.385 -0.649 0.577 0.237 -0.289
26 0.199 0.208 -1.083 -0.219 -0.291 1.221 1.119
27 0.159 0.272 -0.313 0.084 -2.828 -0.439 -0.392
28 2.273 0.606 0.606 -0.747 0.247 1.291 0.063
29 0.041 -0.307 0.121 0.79 -0.584 0.541 0.484
30 -1.132 -2.098 0.921 0.145 0.446 -2.661 1.045
31 -0.768 0.079 -1.473 0.034 -2.127 0.665 0.084
32 0.375 -1.658 -0.851 0.234 -0.656 0.34 -0.086
33 -0.513 -0.344 0.21 -0.736 1.041 0.008 0.427
34 0.292 -0.521 1.296 -1.206 -0.899 0.11 -0.528
35 1.026 2.99 -0.574 -0.491 -1.114 1.297 -1.433
36 -1.334 1.278 -0.568 -0.109 -0.515 -0.566 2.923
37 -0.287 -0.144 -0.254 0.574 -0.451 -1.181 -1.19
38 0.161 -0.886 -0.921 -0.509 1.41 -0.518 0.192
39 -1.346 0.193 -1.202 0.394 -1.045 0.843 0.942
40 1.25 -0.199 -0.288 1.81 1.378 0.534 1.216

67
BIBLIOGRAFÍA

1 Sasieni, Maurice; Yaspan, Arthur; Friedman, Lawrence., 1982. 8ª Edición


I nvestigación de Operaciones
Editorial Limusa S. A de C. V,
Grupo Noriega Editores, México.

2 Namakforoosh, Mohammad Naghi. 1996. 4ª Edición


I nvestigación de Operaciones, I nterpretación de M odelos y Casos
Editorial Limusa S. A de C. V,
Grupo Noriega Editores, México.

3 Gerez Greiser, Victor; Csitróm, Verónica, 1978. 1ª Edición


I ntroducción al Análisis de Sistem as e I nvestigación de Operaciones
Representaciones y Servicios de Ingeniería, S. A,
México.

4 Ackoff, Russell L. y Sasieni M. W, 1985.


Fundam entos de I nvestigación de Operaciones
Editorial Limusa S. A de C. V,
Grupo Noriega Editores, México.

5 Thierauf Robert J. y Grosse Richard A., 1976. 3ª Edición


Tom a de decisiones por m edio de investigación de operaciones
Editorial Limusa. S. A de C. V,
Grupo Noriega editores, México.

6 Winston Wayne L.,1990. 1ª Edición


I nvestigación de Operaciones
Grupo Editorial Iberoamerica S. A de C. V,
México.

7 Hillier Frederick S. Y Lieberman, Gerald J., 1992. 1ª Edición


I ntroduction to Operations Research
Holden-day, Inc. San Francisco Cal.,
USA.

8 Davis, Roscoe K,; McKeown, Patrick G. 1986. 1ª Edición


M odelos Cuantitativos para Adm inistración
Grupo Editorial Iberoamérica, S. A de C. V,
México.

9 Spurr, Willian A.; Bonini, Charles P. 1982. 2ª Edición


Tom a de Decisiones M ediante M étodos Estadísticos
Editorial Limusa,
Grupo Noriega Editores, México.

10 Walpole, Ronald E.; Myers, Raymond H. 1992, 4ª Edición


P robabilidad y Estadística
Editorial McGraw-Hill Interamericana de México S. A de C. V.
México.

68

You might also like