Professional Documents
Culture Documents
GERENCIAL
Introducción a la Simulación
1. Índice
1. Introducción
2. ¿Qué
es
simulación?
2.1. Terminología
básica
2.2. Tipos
de
modelos
de
simulación
3. Pasos
de
un
estudio
de
simulación
Simulación
de
Montecarlo
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
la
definición
de
la
simulación
como
herramienta
esencial
para
el
soporte
en
el
proceso
de
toma
de
decisiones
dentro
de
las
organizaciones.
Con
el
objetivo
de
presentar
esta
definición
se
dará
al
estudiante
la
terminología
general
usada
en
este
ámbito
así
como
los
tipos
de
simulación.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad,
se
presentará
paso
a
paso
cuáles
son
las
actividades
que
deben
realizarse
para
lograr
un
estudio
exitoso.
Finalmente,
se
presentará
al
estudiante
el
concepto
de
la
simulación
de
Montecarlo,
eje
central
del
módulo.
3. Metodología
La
cartilla
les
dará,
de
forma
estructurada,
los
conceptos
básicos
a
los
estudiantes
para
iniciar
la
presentación
de
lo
que
es
la
Simulación
y
particularmente
la
Simulación
de
Montecarlo.
La
cartilla
inicia
con
la
presentación
de
conceptos
generales
de
sistemas
y
modelaje
para
construir
de
forma
lógica
el
concepto
completo
de
lo
que
es
la
Simulación
como
herramienta
que
da
soporte
y
permite
argumentar
las
decisiones
que
se
toman
con
respecto
a
algún
tema
en
específico.
Habiendo
definido
lo
que
es
la
simulación
se
presentarán
algunos
términos
básicos
propios
de
la
materia,
términos
que
se
utilizarán
con
frecuencia
a
lo
largo
del
proceso
de
aprendizaje.
Asimismo
se
presentará
al
estudiante
la
metodología
necesaria
cuando
se
quiere
llevar
a
cabo
un
proceso
de
simulación.
Finalmente,
se
le
dará
al
estudiante
el
concepto
de
la
simulación
de
Montecarlo,
eje
central
del
módulo.
2
[ POLITÉCNICO GANCOLOMBIANO]
5. Objetivo
General
Al
finalizar
el
módulo
los
estudiantes
sabrán
cuáles
son
los
conceptos
básicos
de
la
simulación
de
Montecarlo
y
algunas
de
sus
aplicaciones.
Al
finalizar
la
primera
semana
de
aprendizaje:
6. Desarrollo
temático
6.1
Componente
motivacional
Actualmente,
con
el
ánimo
de
minimizar
los
costos
en
los
procesos
de
toma
de
decisiones,
las
organizaciones
han
desarrollado
metodologías
más
cuidadosas
en
las
que
se
disminuya
el
riesgo
de
realización
pero
que
de
igual
manera
constituyan
un
soporte
real
a
decisiones
tomadas
al
interior
de
la
compañía.
[ SIMULACIÓN GERENCIAL ] 3
Por otra parte, con el objetivo de tener una excelente comunicación el estudiante deberá:
• Aprovechar
el
chat
semanal
en
el
cual
se
tendrá
un
encuentro
sincrónico
con
el
tutor.
• Presentar
sus
dudas
a
través
de
mensajes
personalizados
para
el
tutor.
• Realizar
los
ejercicios
de
los
talleres
propuestos,
los
cuales
permitirán
reforzar
los
conceptos
presentados
en
las
cartillas.
Además,
el
estudiante
debe
tener
presente
que
la
educación
virtual
es
un
proceso
autónomo
en
gran
medida
por
lo
cual
exige
un
nivel
de
compromiso
verdadero,
recuerden
que
1
hora
de
educación
presencial
es
equivalente
a
3
horas
de
educación
virtual,
no
olviden
revisar
semana
a
semana
las
actividades
recomendadas
así
como
las
fechas
para
entregas
del
4
[ POLITÉCNICO GANCOLOMBIANO]
• Evaluar
el
desempeño
de
un
sistema
bajo
condiciones
usuales
e
inusuales.
Un
modelo
se
puede
convertir
en
una
necesidad
si
la
operación
rutinaria
de
un
sistema
real
bajo
análisis,
no
puede
ser
interrumpida
sin
generar
consecuencias
severas.
(Por
ejemplo,
intentar
implementar
una
modificación
a
una
línea
de
producción
cuando
se
está
tratando
de
cumplir
fechas
de
entrega
muy
próximas).
• Predecir
el
desempeño
de
sistemas
experimentales.
Cuando
el
sistema
de
interés
aún
no
existe,
la
construcción
del
modelo
es
mucho
más
económica
y
segura
que
la
construcción
del
sistema
real
o
incluso,
de
su
prototipo.
• Evaluar
múltiples
alternativas
de
diseño.
Este
caso
está
relacionado
con
el
anterior,
sólo
que
la
motivación
económica
es
mucho
mayor.
Los
resultados
del
desempeño
potencial
del
sistema
son
evaluados
junto
con
indicadores
de
costo-‐beneficio.
Los modelos pueden tener varias tipificaciones, entre ellas se encuentran:
Un
modelo
de
simulación,
objeto
principal
de
este
curso,
es
un
caso
especial
de
los
modelos
de
tipo
analítico.
Mientras
que
los
modelos
enteramente
matemáticos
se
enfocan
en
la
[ SIMULACIÓN GERENCIAL ] 5
obtención
de
soluciones
óptimas
del
problema
a
través
de
procedimientos
algorítmicos,
los
modelos
de
simulación
buscan
soluciones
aproximadas
a
instancias
muestrales
específicas
del
sistema
en
estudio.
Para
aclarar
esta
diferencia,
supóngase
que
se
desea
estudiar
una
línea
de
producción,
la
cual
conceptualmente
se
puede
modelar
como
un
sistema
de
colas.
El
enfoque
matemático
crearía
un
modelo
analítico
de
colas,
representado
a
través
de
sistemas
de
ecuaciones
y
variables
de
decisión
y
mediante
la
aplicación
de
técnicas
matemáticas
de
optimización
se
encuentran
las
soluciones
al
problema
planteado.
El
modelo
de
simulación
crearía
una
representación
computacional
del
sistema
de
colas
y
la
correría
un
número
de
veces
suficiente
de
tal
forma
que
los
resultados
permitan
afirmar
que
el
modelo
es
una
fiel
representación
(muestra)
del
sistema
en
estudio.
Figura
1.
Formas
de
estudiar
un
sistema
6
[ POLITÉCNICO GANCOLOMBIANO]
Sin
embargo,
debe
tenerse
presentes
aquellas
circunstancias
en
las
cuales
no
sería
conveniente
la
aplicación
de
la
simulación
como
metodología
de
estudio
de
los
sistemas,
a
saber:
Dentro de las áreas de aplicación más relevantes de la simulación se pueden enumerar:
• Industria
manufacturera
• Construcción
y
administración
de
proyectos
• Industria
militar
• Logística,
cadena
de
abastecimiento
y
distribución
• Transporte
• Procesos
de
negocio
• Servicios
de
salud
• Redes
de
telecomunicaciones
• Análisis
de
call
centers.
Terminología básica:
[ SIMULACIÓN GERENCIAL ] 7
bancaria
si
un
cliente
ya
termina
su
transacción
y
sale
de
la
instalación
en
el
instante
t.
Por
lo
tanto,
dicha
oficina
podría
considerarse
un
sistema
discreto.
Sistema
Continuo:
Aquel
donde
la
variable
de
estado
cambia
continuamente
en
el
tiempo,
por
ejemplo,
el
nivel
de
agua
de
una
represa.
Cabe
aclarar
que,
según
esta
tipificación,
el
enfoque
de
este
módulo
está
encaminado
hacia
el
diseño
y
la
construcción
de
modelos
estocásticos,
dinámicos
y
discretos,
características
fundamentales
del
paradigma
de
la
Simulación
de
Eventos
Discretos.
1. Formulación
del
problema.
Este
primer
paso
consiste
esencialmente
en
el
análisis
del
sistema
y
definición
del
problema
a
resolver.
2. Fijación
de
los
objetivos.
En
esta
fase,
se
define
el
alcance
del
estudio,
y
las
fronteras
del
problema
que
va
a
ser
abordado.
Es
decir,
debe
determinarse
cuáles
instancias
del
problema
se
van
a
estudiar
y
solucionar.
3. Conceptualización
del
modelo.
En
esta
etapa
se
incluyen
actividades
tales
como
la
identificación
de
los
parámetros
de
entrada,
las
medidas
de
desempeño
de
interés,
establecimiento
de
las
relaciones
entre
los
parámetros
y
variables.
La
información
aquí
se
puede
representar
en
diagramas
de
flujo
o
árboles
jerárquicos.
8
[ POLITÉCNICO GANCOLOMBIANO]
[ SIMULACIÓN GERENCIAL ] 9
Figura
2.
Pasos
de
un
estudio
de
simulación
4. SIMULACIÓN
DE
MONTECARLO
10
[ POLITÉCNICO GANCOLOMBIANO]
La
Simulación
de
Montecarlo
se
puede
utilizar
de
acuerdo
a
los
siguientes
algoritmos:
• Simulación
de
Montecarlo
Pura:
Está
fundamentada
en
la
generación
de
números
aleatorios
por
el
método
de
Transformación
Inversa,
el
cual
se
basa
en
las
distribuciones
acumuladas
de
frecuencias.
Dicho
tema
se
verá
más
adelante.
• Combinación
de
Variables
Aleatorias:
Cuando
el
resultado
de
la
simulación
se
da
por
la
combinación
de
las
VA,
se
debe
realizar
y
verificar:
- Desarrollar
un
modelo
conceptual
o
lógico
de
decisión
- Construir
un
modelo,
especificando
la
relación
entre
las
variables
y
las
distribuciones
de
probabilidad
para
las
variables
aleatorias
- Verificar
y
validar
el
modelo
- Diseñar
experimentos
utilizando
el
modelo
- Analizar
los
resultados
y
concluir.
Las
principales
características
a
tener
en
cuenta
para
la
implementación
o
utilización
de
la
SMC
son:
• El
sistema
debe
ser
descripto
por
1
o
más
funciones
de
distribución
de
probabilidad
(FP).
• Las
técnicas
de
generación
de
Números
aleatorios
o
pseudo–aleatorios
debe
ser
correcta
y
no
debe
existir
correlación
entre
los
valores
muéstrales.
• Establecer
límites
y
reglas
de
muestreo
para
las
FP,
es
decir,
se
debe
definir
que
valores
pueden
adoptar
las
Variables
Aleatorias.
• Estimación
del
error
(¿Con
qué
error
trabajamos?
¿Cuánto
error
podemos
aceptar
para
que
una
corrida
sea
válida?)
[ SIMULACIÓN GERENCIAL ] 11
1 0,886 51
2 0,021 42
… … …
n
0,225
45
Figura
4.
Demanda
y
Probabilidades
-‐
Ejemplo
1
Si
se
aumenta
el
número
de
réplicas,
los
resultados
obtenidos
son:
Iteración
Media
Desviación
Error
12
[ POLITÉCNICO GANCOLOMBIANO]
[ SIMULACIÓN GERENCIAL ] 13
14
[ POLITÉCNICO GANCOLOMBIANO]
Figura
8.
Ganancia
Esperada
–
TX
1
-‐
Ejemplo
2
Figura
9.
Ganancia
Esperada
–
TX
2
-‐
Ejemplo
2
[ SIMULACIÓN GERENCIAL ] 15
SIMULACIÓN
GERENCIAL
Simulación de Montecarlo – Líneas de Espera
1. Índice
1. Introducción
a
Líneas
de
Espera
2. Simulación
de
Montecarlo
aplicada
a
un
modelo
de
Líneas
de
Espera
3. Variables
de
Resultado.
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
una
de
las
aplicaciones
más
utilizadas
de
la
Simulación
de
Montecarlo,
como
lo
es
el
análisis
de
las
líneas
de
espera.
Para
poder
realizar
esta
aplicación
es
importante
recordar
la
temática
de
líneas
de
espera,
con
el
objetivo
de
que
el
caso
presentado
sea
asimilado
por
los
estudiantes
de
manera
fácil
y
sin
complicaciones.
Finalmente,
se
mostrarán
cuáles
son
las
variables
de
resultados
en
dicha
aplicación
y
cómo
se
calculan
estas
medidas
de
desempeño
del
sistema
bajo
análisis.
3. Metodología
La
cartilla
presentará
de
forma
estructurada
los
conceptos
básicos
para
analizar
el
sistema
de
Líneas
de
Espera.
Para
esto,
empezará
presentando
conceptos
generales
de
los
sistemas
de
Líneas
de
Espera,
para
entender
la
dinámica
de
esta
clase
de
sistemas
y
poder
realizar
una
abstracción
y
simplificación
del
sistema
en
cuestión.
Habiendo
definido
la
metodología
de
los
sistemas
de
líneas
de
espera,
se
procederá
con
el
análisis
del
sistema
en
cuestión
por
medio
de
la
aplicación
de
la
simulación
de
Montecarlo.
Finalmente,
se
presentará
al
estudiante
el
concepto
de
variable
de
resultado
y
cómo
estimar
el
desempeño
de
un
sistema
de
Líneas
de
Espera.
4. Objetivo
general
1. Conocer una de las principales aplicaciones de simulación de Montecarlo.
2
[ POLITÉCNICO GANCOLOMBIANO]
5. Desarrollo
temático
5.1
Recomendaciones
académicas.
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana,
adicional
a
esto
debe
revisar
las
teleconferencias
así
como
las
video-‐diapositivas,
pues
estas
son
un
medio
que
puede
aclarar
las
dudas
generadas
con
la
lectura
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
Por
otra
parte,
con
el
objetivo
de
tener
una
excelente
comunicación
el
estudiante
deberá:
• Aprovechar
el
chat
semanal
en
el
cual
se
tendrá
un
encuentro
sincrónico
con
el
tutor.
• Presentar
sus
dudas
a
través
de
mensajes
personalizados
para
el
tutor.
• Realizar
los
ejercicios
de
los
talleres
propuestos,
los
cuales
permitirán
reforzar
los
conceptos
presentados
en
las
cartillas.
Además,
el
estudiante
debe
tener
presente
que
la
educación
virtual
es
un
proceso
autónomo
en
gran
medida
por
lo
cual
exige
un
nivel
de
compromiso
verdadero,
recuerden
que
1
hora
de
educación
presencial
es
equivalente
a
3
horas
de
educación
virtual,
no
olviden
revisar
semana
a
semana
las
actividades
recomendadas
así
como
las
fechas
para
entregas
del
proyecto,
realización
de
quices,
parciales
y
examen
final
y,
por
supuesto,
la
participación
en
los
foros
obligatorios
de
discusión.
Un
sistema
de
colas,
desde
su
concepción
más
simple,
se
puede
describir
como
un
sistema
al
cual
los
clientes
llegan
cada
intervalo
de
tiempo
y
se
unen
a
una
línea
de
espera
en
busca
de
ser
atendidos
por
medio
de
un
servidor;
tan
pronto
finaliza
el
servicio,
el
cliente
abandona
el
sistema.
Esta
descripción
simplificada
se
puede
ver
representada
en
la
siguiente
gráfica:
[ SIMULACIÓN GERENCIAL ] 3
Servidor
Fila de client es
Población de client es pot enciales
Figura
1.
Figura
simple
de
colas
Los
elementos
clave
de
este
tipo
de
sistemas
son
los
clientes
y
los
servidores.
El
término
cliente
puede
referirse
a
personas,
máquinas,
camiones,
piezas,
aviones,
correos
electrónicos,
pedidos,
llamadas,
etc.
El
término
servidor
puede
hacer
referencia
a
recepcionistas,
cajeros,
mecánicos,
enfermeras,
médicos,
etc.
En
resumen,
el
cliente
es
la
entidad
u
objeto
que
requiere
un
servicio
o
una
transformación;
esta
transformación
es
ejecutada
por
el
servidor.
El
sistema
es
alimentado
desde
una
población
infinita
de
clientes
potenciales.
Esto
quiere
decir
que
si
una
unidad
deja
la
población
y
se
une
a
la
fila
de
clientes,
no
hay
cambio
en
la
tasa
de
llegadas
de
las
otras
unidades
que
vayan
a
requerir
el
servicio.
Las
llegadas
de
los
clientes
ocurren
una
a
la
vez
y
de
forma
aleatoria;
se
unen
a
la
cola
en
espera
de
que
eventualmente
sean
atendidos.
El
tiempo
de
servicio
o
de
proceso,
que
es
el
tiempo
que
demora
el
servidor
en
procesar
o
atender
un
cliente,
también
tiene
un
comportamiento
aleatorio
de
acuerdo
con
una
distribución
de
probabilidad.
La
capacidad
del
sistema
se
asume
infinita,
lo
que
implica
que
el
número
de
clientes
puede
ser
cualquier
cantidad.
Finalmente,
los
clientes
son
atendidos
en
orden
de
llegada,
lo
que
quiere
decir
que
el
sistema
tiene
una
disciplina
FIFO
(First
In
First
Out)
o
primeros
en
llegar,
primeros
en
salir.
Ahora
bien,
es
necesario
aterrizar
los
conceptos
estudiados
en
la
lectura
anterior,
relacionados
con
el
estado
del
sistema
y
eventos.
El
estado
del
sistema
se
representa
a
través
de
las
variables
de
estado.
Estas
variables,
para
el
caso
específico
del
sistema
simple
de
colas,
corresponden
al
número
de
unidades
en
el
sistema
y
el
estado
del
servidor,
ocupado
o
desocupado.
Un
evento
es
un
conjunto
de
circunstancias
que
provocan
cambios
en
el
estado
del
sistema.
Para
este
ejemplo,
sólo
hay
dos
posibles
eventos
que
pueden
afectar
tales
cambios:
la
entrada
de
una
unidad
al
sistema
(evento
de
llegada)
y
la
finalización
un
servicio
(evento
de
salida).
4
[ POLITÉCNICO GANCOLOMBIANO]
Figura
2.
Diagrama
de
flujo
del
servicio
completado
Por
otro
lado,
cuando
un
cliente
entra
al
sistema,
la
simulación
se
ejecuta
siguiendo
la
lógica
mostrada
en
el
siguiente
diagrama.
Figura
3.
Diagrama
de
flujo
del
evento
de
llegada
A
esta
altura
surge
la
siguiente
pregunta:
¿cómo
pueden
estos
eventos
descritos
anteriormente
ocurrir
en
tiempo
simulado?
La
simulación
de
los
sistemas
de
colas
requiere,
generalmente,
la
utilización
de
una
lista
de
eventos
para
determinar
qué
ocurrirá
después
de
que
se
presente
un
evento.
La
lista
de
eventos
lleva
el
registro
de
los
instantes
de
tiempo
futuros
en
los
cuales
pueden
ocurrir
los
eventos.
Estos
tiempos
hacen
referencia
a
los
tiempos
de
llegada
de
los
clientes
y
al
tiempo
de
servicio.
Como
se
mencionó
anteriormente,
estos
tiempos
son
de
carácter
aleatorio,
por
[ SIMULACIÓN GERENCIAL ] 5
2. SIMULACIÓN DE MONTECARLO APLICADA A UN MODELO DE LÍNEAS DE ESPERA
Se
tiene
una
caja
de
pago
en
un
supermercado
y
se
quiere
simular
su
operación.
Para
generar
de
manera
aleatoria
los
tiempos
entre
llegadas
de
los
clientes
y
los
tiempos
de
servicio
se
lanza
un
dado
para
cada
cliente.
Supóngase
que
se
va
a
simular
el
servicio
a
seis
clientes
y
que
los
tiempos
generados
mediante
el
dado
fueron
los
siguientes:
Client Tiempo
entre
llegadas
Tiempo
de
servicio
e
(minutos)
(minutos)
1
-‐
2
2
2
1
3
4
3
4
1
2
5
2
1
6
6
4
Obsérvese
que
los
números
generados
están
en
el
intervalo
[0,6].
Si
se
asume
que
el
dado
no
está
cargado,
entonces
se
puede
afirmar
que
la
probabilidad
de
que
salga
cualquier
número
en
el
dado
después
de
un
lanzamiento,
es
de
tipo
uniforme.
Cabe
resaltar
también
que
en
lo
que
respecta
a
los
tiempos
de
llegadas,
lo
realmente
aleatorio
a
registrar
es
el
tiempo
que
transcurre
entre
la
llegada
de
dos
clientes
consecutivos.
Es
decir,
cuando
ocurre
la
llegada
de
un
cliente
al
sistema,
no
se
sabe
con
certeza
en
qué
instante
llegará
el
siguiente
cliente
y
así
sucesivamente.
Por
eso,
en
la
tabla
anterior,
se
enuncia
la
columna
Tiempo
entre
llegadas,
y
el
primer
cliente
no
tiene
dicho
tiempo
precisamente
por
ser
el
primero
y
no
tiene
punto
de
referencia.
En
este
caso,
para
efectos
de
la
simulación,
se
asume
que
el
primer
cliente
llega
en
el
minuto
cero.
6
[ POLITÉCNICO GANCOLOMBIANO]
[ SIMULACIÓN GERENCIAL ] 7
Con
los
resultados
obtenidos
anteriormente,
se
pueden
calcular
las
estadísticas
para
la
medición
del
desempeño
del
sistema,
lo
cual
es
uno
de
los
propósitos
principales
de
la
simulación.
Algunos
de
estos
indicadores
se
detallan
a
continuación:
!"#$%& !"!#$ !" !"#$ 4
!"#$%& !"#$%&'# !" !"#!$% = = = 0,66 !"#$%&'
!"#$% !" !ú!"#$ !" !"#$%&$' 6
!ú!"#$ !" !"#$%&$' !"# !"#!$%$&' 2
!"#$%$&'&(%( !" !"# !" !"#$%&$ ℎ!"! !"#$ = =
!"#$% !" !ú!"#$ !" !"#$%&$! 6
= 0,33 = 33,33%
!"#$%& !"!#$ !" !"#$%&%'! 13
!"#$%& !" !"#$%&%' !"#$%&'# = = = 2,16 !"#$%&'
!"#$% !" !ú!"#$ !" !"#$%&$' 6
!"#!" !" !"#$%&' !"#$! !""#$%& 15
!"#$%& !"#$%&'# !"#$! !""#$%& = = = 3 !"#$%&'
!ú!"#$ !" !"#$%&$' − 1 5
8
[ POLITÉCNICO GANCOLOMBIANO]
[ SIMULACIÓN GERENCIAL ] 9
SIMULACIÓN
GERENCIAL
Simulación de Montecarlo - Modelos de
Inventarios
1. Índice
1. Introducción
a
Modelos
de
Inventarios
2. Simulación
de
Montecarlo
Aplicada
a
un
Modelo
de
Inventarios
3. Variables
de
Resultado.
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
una
de
las
aplicaciones
más
utilizadas
de
la
Simulación
de
Montecarlo,
como
lo
es
el
análisis
de
los
modelos
de
Inventarios.
Para
poder
realizar
esta
aplicación
es
importante
recordar
la
temática
de
los
modelos
de
inventarios,
con
el
objetivo
de
que
el
caso
presentado
sea
asimilado
por
los
estudiantes
de
manera
fácil
y
sin
complicaciones.
Finalmente,
se
mostrarán
cuáles
son
las
variables
de
resultados
en
dicha
aplicación
y
cómo
se
calculan
estas
medidas
de
desempeño
del
sistema
bajo
análisis.
3. Metodología
Al
finalizar
el
módulo
los
estudiantes
conocerán
otra
aplicación
de
la
simulación
de
Montecarlo.
Adicionalmente,
mejorarán
la
habilidad
para
plantear
modelos
de
simulación
e
identificar
las
variables
de
entrada
y
las
variables
de
resultado.
Al
finalizar
la
segunda
semana
de
aprendizaje
el
estudiante
deberá:
1. Conocer
una
de
las
principales
aplicaciones
de
simulación
de
Montecarlo.
2. Plantear
un
modelo
de
simulación
de
Montecarlo,
identificando
las
variables
de
entrada
y
las
variables
de
resultado.
3. Encontrar
cuáles
son
las
medidas
de
desempeño
de
un
Modelo
de
Inventarios.
2
[ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo
temático
5.1
Recomendaciones
académicas.
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana.
Adicional
a
la
lectura
de
la
cartilla,
se
recomienda
al
estudiante
revisar
las
teleconferencias
así
como
las
video-‐diapositivas,
pues
estas
son
un
medio
que
puede
aclarar
las
dudas
generadas
con
la
lectura
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
Por otra parte, con el objetivo de tener una excelente comunicación, el estudiante deberá:
• Aprovechar
el
chat
semanal
en
el
cual
se
tendrá
un
encuentro
sincrónico
con
el
tutor.
• Presentar
sus
dudas
a
través
de
mensajes
personalizados
para
el
tutor.
• Realizar
los
ejercicios
de
los
talleres
propuestos,
los
cuales
permitirán
reforzar
los
conceptos
presentados
en
las
cartillas.
Además,
el
estudiante
debe
tener
presente
que
la
educación
virtual
es
un
proceso
autónomo
en
gran
medida
por
lo
cual
exige
un
nivel
de
compromiso
verdadero,
recuerden
que
1
hora
de
educación
presencial
es
equivalente
a
3
horas
de
educación
virtual,
recuerden
revisar
semana
a
semana
las
actividades
recomendadas
así
como
las
fechas
para
entregas
del
proyecto,
realización
de
quices,
parciales
y
examen
final
y
por
supuesto
la
participación
en
los
foros
obligatorios
de
discusión.
5.2
Desarrollo
de
cada
una
de
las
unidades
temáticas.
1.INTRODUCCIÓN
A
MODELOS
DE
INVENTARIOS
Un
sistema
simple
de
inventarios
es
como
se
muestra
en
la
figura
1,
el
cual
corresponde
a
un
modelo
de
revisión
periódica.
[ SIMULACIÓN GERENCIAL ] 3
Figura
1.
Sistema
de
Inventarios
de
Revisión
Periódica
Bajo
este
modelo
de
revisión,
las
existencias
son
monitoreadas
cada
intervalo
de
tiempo
T,
momento
en
el
cual
se
realiza
un
pedido
de
tamaño
Qi,
de
manera
tal
que
se
alcance
un
nivel
de
inventario
máximo
R.
La
demanda
no
se
conoce
con
certeza,
lo
cual
hace
que
las
cantidades
a
pedir
también
sean
aleatorias.
Para
este
modelo
en
particular
se
asume
que
el
tiempo
de
entrega
de
un
pedido
es
igual
a
cero.
Nótese
también
que
el
nivel
de
existencias
puede
ser
negativo,
como
se
puede
apreciar
en
el
tercer
ciclo
de
la
gráfica.
Esto
indica
que
aunque
no
había
existencias
para
atender
la
demanda,
estas
unidades
quedan
pendientes,
y
en
el
momento
que
llegue
el
pedido,
tales
unidades
deben
ser
despachadas
primero.
Es
decir,
debe
satisfacerse
primero
la
demanda
de
aquellos
clientes
a
los
que
no
se
les
pudo
vender
en
el
anterior
ciclo
por
falta
de
existencias.
El
papel
de
la
simulación
en
la
gestión
de
inventarios
consiste
en
encontrar
aquella
política
que
genere
los
menores
costos
posibles.
Para
ello,
debe
tenerse
en
cuenta
las
principales
fuentes
de
costo
en
un
sistema
de
inventarios:
• Costo
de
almacenamiento:
El
costo
incurrido
por
mantener
una
unidad
de
inventario
en
el
almacén
por
unidad
de
tiempo
• Costo
de
pedido:
El
costo
asociado
a
la
revisión
y
al
lanzamiento
del
pedido.
4
[ POLITÉCNICO GRANCOLOMBIANO]
Dado
lo
anterior,
el
administrador
del
sistema
de
inventarios
debe
decidir
qué
nivel
máximo
de
inventario
mantener
y
cuándo
hacer
la
revisión
con
el
objetivo
de
que
se
cause
el
menor
costo.
En
este
tipo
de
sistema
en
particular,
los
eventos
de
interés
que
pueden
ocurrir
son
la
demanda
de
los
ítems,
la
revisión
del
inventario
y
la
llegada
de
un
pedido.
Como
el
tiempo
de
entrega
de
un
pedido
es
cero,
estos
dos
últimos
eventos
ocurren
de
manera
simultánea.
Don
Pepe
tiene
un
depósito
donde
se
manejan
dos
tipo
de
productos:
cajas
de
gaseosa
y
cajas
de
cerveza.
El
camión
de
la
gaseosa
pasa
los
días
lunes
y
jueves,
mientras
que
el
camión
de
la
cerveza
lo
hace
los
días
lunes,
miércoles
y
viernes.
En
ambos
casos,
los
camiones
pasan
a
primera
hora
de
la
mañana.
El
nivel
de
inventario
se
revisa
al
final
de
cada
día,
y
Don
Pepe
tiene
la
política
de
que,
si
al
revisar,
la
suma
total
de
las
cajas
entre
gaseosa
y
cerveza
es
igual
o
menor
a
3
cajas,
entonces
se
hace
un
pedido
tanto
de
10
cajas
de
gaseosa
como
de
10
cajas
de
cerveza.
El
costo
por
hacer
un
pedido
de
gaseosa
es
de
$120.000
y
de
un
pedido
de
cerveza
es
de
$100.000.
El
costo
de
mantener
guardada
una
caja
en
el
almacén
es
de
$5.000
por
día.
El
costo
de
un
faltante
es
de
$60.000
por
la
gaseosa
y
$50.000
por
la
cerveza.
Una
vez
haya
inventario
disponible,
debe
cubrirse
el
faltante
a
primera
hora.
No
se
permite
la
acumulación
de
pedidos,
es
decir,
una
vez
se
haya
hecho
un
pedido,
no
se
puede
realizar
otro
si
no
ha
llegado
el
pedido
anterior.
Los
domingos
no
se
abre
la
bodega.
Para
efectos
de
la
simulación,
se
asume
que
se
arranca
con
un
inventario
inicial
de
5
cajas
de
cada
producto
el
día
lunes.
Debe
realizarse
una
simulación
manual
para
estimar
el
costo
y
los
indicadores
de
desempeño
de
esta
política.
En
las
siguientes
tablas
se
encuentran
las
distribuciones
de
probabilidad
de
la
demanda
tanto
de
gaseosa
como
de
cerveza.
Demanda gaseosa Demanda cerveza
Demanda Probabilidad Demanda Probabilidad
0 0,1 0 0,1
2 0,3 2 0,5
4 0,5 4 0,3
6 0,1 6 0,1
[ SIMULACIÓN GERENCIAL ] 5
Lo
primero
que
debe
hacerse
es
la
asignación
de
los
dígitos
aleatorios
para
las
demandas
así:
Demanda cerveza
Demanda Probabilidad Prob. Acumulada Intervalo de aleatorios
0 0,1 0,1 1
2 0,5 0,6 2-6
4 0,3 0,9 7-9
6 0,1 1 10
Demanda gaseosa
Demanda Probabilida Prob. Acumulada Intervalo de aleatorios
d
0 0,1 0,1 1
2 0,3 0,4 2-4
4 0,5 0,9 5-9
6 0,1 1 10
La
columna
de
probabilidad
acumulada
sirve
de
directriz
para
poder
definir
los
intervalos
de
dígitos
aleatorios.
Por
ejemplo,
en
el
caso
de
la
demanda
de
gaseosa,
la
probabilidad
acumulada
para
la
demanda
igual
a
2
unidades
es
0,4.
Al
multiplicar
por
diez,
esta
probabilidad
(para
evitar
el
manejo
de
decimales),
se
define
el
límite
superior
de
tal
intervalo,
o
sea,
4.
Estos
intervalos
servirán
de
referencia
para
simular
las
demandas
en
la
tabla
de
la
simulación
manual,
como
se
muestra
a
continuación.
Día
IIG
IIC
AG
AC
DG
DC
IFG
IFC
IF FG
FC
Q
T
L
5
5
4
8
M
7
3
Mi
1
4
J
6
10
V
5
1
S
2
6
Convenciones
IIG:
Inventario
inicial
de
gaseosa
IIC:
Inventario
inicial
de
cerveza
AG:
Número
aleatorio
asociado
con
la
demanda
de
gaseosa
AC:
Número
aleatorio
asociado
con
la
demanda
de
cerveza
DG:
Demanda
de
gaseosa
DC:
Demanda
de
cerveza
IFG:
Inventario
final
de
gaseosa
6
[ POLITÉCNICO GRANCOLOMBIANO]
Con
los
resultados
obtenidos
anteriormente,
se
pueden
calcular
las
estadísticas
para
la
medición
del
desempeño
del
sistema,
lo
cual
es
uno
de
los
propósitos
principales
de
la
simulación.
Algunos
de
estos
indicadores
se
detallan
a
continuación:
[ SIMULACIÓN GERENCIAL ] 7
!"# 9
!"#$"%&'() !"#$%&'# !"#$"% !"#$%#" = = = 1,5 !"#"$ !" !"#$%#"
6 6
!"# 10
!"#$"%&'() !"#$%&'# !"#$"% !"#$"%& = = = 1,67 !"#"$ !" !"#$"%&
6 6
!" 3
!"#$"%$& !"#$%&'# !"#$"% !"#$%#" = = = 0,5 !"#"$ !" !"#$%#"
6 6
!" 2
!"#$"%$& !"#$%&'! !"#$"% !"#$"%& = = = 0,33 !"#"$ !" !"#$"%&
6 6
!"#$" !"#$%&'# !"#$"% !" !"#$#% = (120.000 ! 2 + (100.000 ! 2))/6 = $73.333,33
!"#$" !"#$%&'# !" !"#$"%$&' = 60.000 ! 0,5 + 50.000 ! 0,33 = $46.500
8
[ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
GERENCIAL
Modelos Estadísticos en Simulación
1
1. Índice
1. Introducción
2. Valor
esperado
de
una
variable
aleatoria
2.1. Variables
discretas
2.2. Variables
continuas
3. Medidas
de
dispersión
3.1. Variables
discretas
3.2. Variables
continuas
4. Distribuciones
de
probabilidad
discreta
5. Procesos
de
Poisson.
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
los
conceptos
básicos
de
estadística
necesarios
para
desarrollar
una
simulación
de
Montecarlo.
La
estadística
será
una
herramienta
esencial
para
el
soporte
de
la
construcción
de
modelo,
tanto
al
inicio
como
al
final
para
realizar
el
análisis
de
resultados.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad,
se
hará
un
repaso
de
las
principales
funciones
de
probabilidad
discretas
que
se
emplean
frecuentemente
en
la
construcción
de
estos
tipos
de
modelo.
Finalmente,
se
presentará
al
estudiante
una
serie
de
ejercicios
relacionados
para
reforzar
los
conocimientos
adquiridos
en
el
desarrollo
del
módulo.
3. Objetivo
general
Al
finalizar
el
módulo,
los
estudiantes
sabrán
cuáles
son
los
conceptos
básicos
de
estadística
relacionados
con
la
simulación
de
Montecarlo,
así
como
las
principales
funciones
de
probabilidad
discretas
aplicadas
en
la
construcción
de
este
tipo
de
modelos.
Al
finalizar
la
primera
semana
de
aprendizaje
el
estudiante:
2
[ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo
temático
4.1
Recomendaciones
académicas.
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana,
adicional
a
la
lectura
de
la
cartilla
se
sugiere
al
estudiante
revisar
las
teleconferencias
así
como
las
video
diapositivas,
pues
estas
son
un
medio
que
puede
aclarar
las
dudas
generadas
con
la
lectura
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
Finalmente,
se
recomienda
al
estudiante
realizar
los
ejercicios
planteados
y
sugeridos
por
el
tutor
ya
que
estos
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota
si
harán
que
su
formación
sea
completa
y
pueda
ser
reforzada
de
forma
práctica.
4.2
Desarrollo
de
cada
una
de
las
unidades
temáticas.
1. Introducción
A
continuación
se
verán
los
conceptos
básicos
relacionados
con
los
modelos
estadísticos
que
sirven
de
soporte
para
un
estudio
en
simulación
de
Montecarlo.
Los
conceptos
que
se
trabajarán
en
este
apartado
están
relacionados
con
la
estadística
y
la
probabilidad
que
muy
seguramente
el
lector
ya
ha
cursado.
Sin
embargo,
con
el
objetivo
de
tener
una
metodología
completa,
se
presentarán
nuevamente
los
conceptos
pero
relacionados
directamente
a
la
herramienta
que
se
está
presentando
como
es
la
simulación.
Dentro
del
contenido
desarrollado
en
la
cartilla,
el
estudiante
podrá
encontrar
información
y
ejemplos
específicos
relacionados
con
los
siguientes
temas:
El
objetivo
de
realizar
la
revisión
de
estos
temas
se
debe
a
que
para
realizar
un
proceso
de
simulación
los
datos
de
entrada
que
alimentan
el
modelo
siempre
estarán
descritos
por
una
función
de
probabilidad
conocida
con
el
objetivo
de
modelar
su
aleatoriedad
y
comportamiento
propio.
Por
otra
parte,
en
cuanto
a
lo
que
se
refiere
a
los
valores
esperados
y
medidas
de
dispersión
estos
también
serán
supremamente
importantes
pues
a
partir
de
estas
medidas
básicas
el
estudiante
deberá
realizar
el
análisis
de
los
resultados
arrojados
por
el
modelo
propuesto.
Será
el
análisis
estadístico
entonces
un
elemento
fundamental
que
siempre
deberá
acompañar
cualquier
modelo
de
simulación
ya
que
ambos
se
complementan
y
el
primero
dará
soporte
a
los
resultados
encontrados
por
el
segundo.
[ SIMULACIÓN GERENCIAL ] 3
Ejemplo
introductorio:
Sea
X
una
variable
aleatoria
(VA)
que
define
el
número
de
hijos
en
una
familia
colombiana.
¿Cuál
es
el
número
esperado
de
hijos
en
una
familia
colombiana
cualquiera?
Para
responder
a
esta
pregunta
se
necesita
conocer
la
distribución
de
probabilidad
de
la
variable
aleatoria.
Suponga
que
a
partir
de
un
estudio
hecho
por
el
DANE,
se
tiene
la
siguiente
información:
Número
de
hijos
Proporción
de
familias
0
5/30
1
15/30
2
9/30
3
1/30
De
la
anterior
tabla
se
puede
afirmar,
por
ejemplo,
que
el
5/30
ó
16,66%
de
las
familias
no
tienen
hijos,
el
50%
ó
15/30
de
las
familias
tienen
un
solo
hijo,
y
así
sucesivamente.
Esta
tabla
es
la
distribución
de
probabilidad
de
la
VA
denominada
el
número
de
hijos
en
una
familia
colombiana.
El
posible
número
de
hijos
que
puede
tener
cualquier
familia
es
el
rango
de
la
variable,
definido
así:
! ! = 0,1,2,3
La
proporción
de
familias
que
tienen
su
número
respectivo
de
hijos
representan
la
función
de
distribución
de
probabilidad
de
la
variable,
definida
así:
5 15 9 1
g X = , , ,
30 30 30 30
Luego,
si
se
requiere
obtener
el
valor
esperado
de
hijos
en
una
familia
colombiana
cualquiera
seleccionada
al
azar,
basta
con
calcular
la
media
ponderada
así:
5 15 9 1
E X = 0 ∗ + 1 ∗ +2∗ +3∗ = 1,2 hijos
30 30 30 30
En
resumen,
se
tiene
que
para
calcular
el
valor
esperado
de
una
variable
aleatoria,
se
tiene:
2.1
Variable
aleatoria
discreta
Si
X
es
una
VA
discreta
con
rango
R(X),
entonces
el
valor
esperado
se
define
como
4
[ POLITÉCNICO GRANCOLOMBIANO]
E X = X! g(X)!
!
2.2
Variable
aleatoria
continua
Si
X
es
una
VA
continua
con
rango
R(X),
entonces
el
valor
esperado
se
define
como:
E X = X ∗ f X dX
!(!)
Ejemplo
variable
aleatoria
continua
Sea
X
una
VA
continua
definida
con
la
siguiente
función
de
distribución
de
probabilidad:
!
!" ! = ; 0 ≤ ! ≤ 2
2
! !
! 1
! ! = ! ∙ !" = ! ! !"
! 2 2 !
! !
1 !
! ! = ∙
2 3 !
8
! ! =
6
[ SIMULACIÓN GERENCIAL ] 5
!"# ! = !(! − ! ! )! = !!!
!! = !"# !
De
acuerdo
con
esta
definición,
la
varianza
se
puede
calcular
a
través
de
la
expresión:
3.1
Variable
aleatoria
discreta
!"# ! = ! !! (!! − !)!
3.2
Variable
aleatoria
continua
!"# ! = ! ! (! − !)! !"
!(!)
4. Funciones
de
distribuciones
de
probabilidad
discretas:
A
continuación
se
describen
las
distribuciones
de
probabilidad
discretas
más
utilizadas
en
simulación
de
Montecarlo
4.1
Distribución
de
Bernoulli
Es
la
más
elemental
de
las
distribuciones
discretas,
y
se
dice
que
un
experimento
aleatorio
es
un
experimento
de
Bernoulli,
si
su
espacio
muestral
o
el
rango
que
puede
tomar
la
variable
consta
de
sólo
dos
elementos,
es
decir
éxito, fracaso , falso, verdadero , etc.
Si
X!
es
la
variable
asociada
al
experimento
aleatorio
de
Bernoulli,
y
está
definida
por
X! E = 1, X! F = 0,
entonces:
Rango X! = 0,1
P X! = 1 = p, P X! = 0 = 1 − p
Por
tanto,
su
función
de
probabilidad
está
dada
por:
g X = p! (1 − p)!!!
Su
media
y
varianza,
están
dadas
respectivamente
por:
6
[ POLITÉCNICO GRANCOLOMBIANO]
E X = p
Var X = p(1 − p)
4.2
Distribución
geométrica
Si
se
realizan
sucesivamente
experimentos
independientes
de
Bernoulli
de
parámetro
p,
a
la
variable
aleatoria
X
=
número
de
ensayos
hasta
obtener
el
primer
éxito,
se
le
conoce
como
una
VA
con
distribución
geométrica,
cuya
función
de
distribución
de
probabilidad
está
dada
por:
g X = (1 − p)!!! p = !(! = !)
Su
media
y
varianza
están
dadas
por:
1
E X =
p
1−p
Var X = !
p
Fuente:
Statit
Solutions
Group
4.3
Distribución
Binomial
Si
se
hacen
N
experimentos
independientes,
cuyo
resultado
en
cada
ensayo
puede
ser
únicamente
ÉXITO
(con
probabilidad
p)
o
FRACASO
(con
probabilidad
1-‐p),
a
la
VA
X:
número
de
éxitos
en
los
N
ensayos,
se
le
conoce
como
la
VA
Binomial,
y
su
función
de
distribución
de
probabilidad
se
le
conoce
como
Distribución
Binomial
de
parámetros
N,
p:
[ SIMULACIÓN GERENCIAL ] 7
N !
g X = p (1 − p)!!! = P(X = k)
k
Su
media
y
varianza,
están
dadas
respectivamente
por:
E X = Np
Var X = Npq
Ejemplo:
Un
banco
sabe
que
en
su
tarjeta
de
crédito
el
30%
de
los
clientes
quedan
con
sobrecupo
en
los
cortes
mensuales.
Si
se
elige
una
muestra
aleatoria
de
10
clientes
de
dicha
tarjeta:
a.
¿Cuál
es
la
probabilidad
de
que
cuatro
exactamente
tengan
sobrecupo?
b.
¿Cuántos
clientes
se
esperaría
que
tengan
sobrecupo?
c.
¿Cuál
es
la
probabilidad
de
que
ocho
o
más
de
ellos
tengan
sobrecupo?
a.
P X = 4 = !" !
0,3! 0,7!
b.
E X = 10 ∗ 0,3 = 3
c.
P X ≥ 8 = P X = 8 + P X = 9 + P(X = 10)
4.4
Distribución
Binomial
Negativa
Consideremos
el
mismo
tipo
de
experimento
que
se
utilizó
en
la
definición
de
la
VA
X
con
distribución
geométrica,
y
definamos
la
VA
Xp
como
el
número
de
ensayos
hasta
obtener
el
r-‐ésimo
éxito.
Se
dice
que
dicha
VA
tiene
una
distribución
de
Pascal
(también
es
llamada
Binomial
Negativa)
de
parámetro
r,
r
≥
1.
Es
claro
que
la
VA
así
definida
es
una
generalización
natural
de
la
VA
geométrica
mediante
las
siguientes
expresiones:
!−1 !
! ! = ! (1 − !)!!! = ! ! = ! ! ≥ !
!−1
Su
media
y
varianza
están
dadas
por:
!
! ! =
!
!(1 − !)
!"# ! =
!!
Ahora
bien
una
vez
revisados
los
conceptos
de
variables
aleatorias
discretas
relevantes,
es
importante
conocer
uno
de
los
conceptos
más
importantes
dentro
de
la
simulación
y
que
8
[ POLITÉCNICO GRANCOLOMBIANO]
representa
una
transición
entre
las
variables
discretas
y
las
variables
continuas,
esto
es
el
Procesos
Poisson
(distribución
discreta)
y
las
distribuciones
de
probabilidad
continuas
más
aplicadas
en
simulación.
Ejemplo
introductorio:
En
cierta
oficina
se
quiere
analizar
un
experimento
aleatorio
que
consiste
en
observar
cómo
se
comportan
las
llegadas
de
los
clientes
con
respecto
al
tiempo,
en
el
sentido
de
ver
la
llegada
de
un
cliente
como
un
evento
puntual
(el
instante
en
que
llega
el
cliente)
que
tiene
lugar
a
lo
largo
de
tiempo.
El
tiempo
lo
podemos
representar
a
través
de
la
recta
real
y
las
llegadas
como
puntos
de
dicha
recta,
así:
Respecto
a
dicho
proceso
(el
experimento
aleatorio),
se
puede
definir
la
VA
Xp
para
un
intervalo
de
tiempo
de
longitud
t
como:
Xp(t)
=
número
de
arribos
(llegadas)
en
el
intervalo
de
tiempo
de
longitud
t.
Sea
t
un
intervalo
de
tiempo
dado,
arbitrario
pero
fijo,
y
se
quiere
examinar
la
VA
definida
anteriormente
y
deducir
su
distribución,
es
decir:
! !! = !; !, ! = ! ℎ!"! !"#$%#&!"#! ! !!"#$%$& !" !" !"#$%&'() !
Se
divide
el
intervalo
de
magnitud
t
en
N
intervalos
de
magnitud
t/N,
de
tal
manera
que
t/N
sea
tan
pequeño
como
sea
necesario
para
cumplir
los
supuestos
del
modelo.
El
evento
B
de
“que
hayan
exactamente
n
llegadas
del
proceso
en
el
intervalo
de
tiempo
t”,
es
equivalente
al
evento
de
obtener
exactamente
n
éxitos
en
los
N
experimentos
independientes
de
Bernoulli
que
consisten
en
observar
si
ha
habido
o
no
una
llegada
del
proceso
en
el
intervalo
de
tiempo
de
longitud
t/N.
La
probabilidad
de
tener
éxito
(que
haya
una
llegada)
en
cada
uno
de
estos
experimentos
de
!
Bernoulli
es
! = ! .
!
Es
decir,
se
tienen
N
experimentos
independientes
de
Bernoulli,
donde
la
probabilidad
del
evento
B
está
dada
por
[ SIMULACIÓN GERENCIAL ] 9
!"
! ! = !(!! = !; !; )
!
Tomando
el
límite
de
esta
expresión
cuando
N
tiende
a
infinito,
se
obtiene:
!" ! !!"
! ! ! = ! = !! ! , !; !, ! = ! , ! = 0, 1, 2, ….
!!
El
número
de
eventos
que
suceden
hasta
el
tiempo
t
se
distribuyen
de
manera
Poisson
con
parámetro
λ.
Este
tipo
de
procesos
cumple
con
los
supuestos
de
estacionariedad:
- El
valor
esperado
de
las
variables
aleatorias
no
depende
del
tiempo
- Las
varianzas
tampoco
dependen
del
tiempo
y
son
finitas.
El
tiempo
entre
eventos
es
independiente
e
idénticamente
distribuido
como
una
variable
aleatoria
exponencial
(Que
se
verá
en
la
siguiente
Semana)
con
media
1/λ.
Esta
propiedad
es
de
suma
importancia
para
el
modelaje
de
procesos
en
simulación,
ya
que
buena
parte
de
los
modelos
teóricos
y
empíricos
asumen
las
entradas
a
un
sistema
con
tiempos
exponenciales,
lo
que
quiere
decir
que
dichas
llegadas
se
comportan
como
Procesos
de
Poisson.
10
[ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
GERENCIAL
Modelos estadísticos en Simulación 2
MODELOS ESTADÍSTICOS EN SIMULACIÓN 2
1. Índice
1. Distribuciones de Probabilidad Continuas
1.1. Distribución Exponencial
1.2. Distribución Uniforme Continua
1.3. Distribución Normal
1.4. Distribución Triangular.
2. Estimación Puntual
3. Estimación por Intervalos de Confianza
3.1. Intervalos de Confianza Para una sola Muestra: Estimación de la Media
3.2. Intervalos de Confianza Para dos Muestras: Estimación de la diferencia entre dos
Medias
4. Pruebas de Hipótesis
4.1. Pruebas Para una sola Media
4.2. Pruebas Para dos Medias
2. Introducción
El propósito del presente documento es presentar a los estudiantes los conceptos básicos de
estadística necesarios para desarrollar una simulación de Montecarlo. La estadística será una
herramienta esencial para el soporte de la construcción de modelo, tanto al inicio como al final
para realizar el análisis de resultados.
Por otra parte, teniendo en cuenta que el objetivo general del módulo es que los estudiantes
desarrollen las capacidades necesarias para llevar a cabo un estudio completo de simulación,
en esta unidad, se hará un repaso de las principales funciones de probabilidad continuas que
se emplean frecuentemente en la construcción de estos tipos de modelo.
Finalmente, se presentará al estudiante una serie de ejercicios relacionados para reforzar los
conocimientos adquiridos en el desarrollo del módulo.
3. Objetivo general
Al finalizar el módulo los estudiantes sabrán cuáles son los conceptos básicos de estadística
relacionados con la simulación de Montecarlo, así como las principales funciones de
probabilidad continuas aplicadas en la construcción de este tipo de modelos y la aplicación de
técnicas de estimación por intervalo y pruebas de hipótesis.
2 [ POLITÉCNICO GRANCOLOMBIANO]
Al finalizar la primera semana de aprendizaje el estudiante estará en capacidad de:
4. Desarrollo temático.
[ SIMULACIÓN GERENCIAL] 3
(𝜆𝑡)0 −𝜆𝑡
𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑒
0!
𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑒 −𝜆𝑡
Ejemplo:
Suponga que la vida útil de una lámpara industrial, en miles de horas, se distribuye
exponencialmente con tasa de falla λ=1/3 (una falla cada 3000 horas, en promedio).
4 [ POLITÉCNICO GRANCOLOMBIANO]
La probabilidad de que la lámpara dure más de esta vida útil está dada por:
1
𝑓(𝑋) = {𝑏 − 𝑎 , 𝑎≤𝑋≤𝑏
0, 𝑑. 𝑙. 𝑐.
0 𝑥<𝑎
𝑥−𝑎
F(X) = {𝑏−𝑎 𝑎≤𝑥<𝑏
1 𝑥≥𝑏
𝑎+𝑏
𝐸(𝑋) =
2
(𝑏 − 𝑎)2
𝑉𝑎𝑟 𝑋 =
12
[ SIMULACIÓN GERENCIAL] 5
La distribución uniforme juega un papel importante en simulación. Los números aleatorios,
distribuidos uniformemente entre 0 y 1, proveen los medios básicos para generar eventos
aleatorios. Estos números aleatorios se usan para generar muestras de variables aleatorias de
otras distribuciones de probabilidad.
6 [ POLITÉCNICO GRANCOLOMBIANO]
x
F ( x ) P X x P Z
( x ) / 1 z2 / 2 z 1 t 2 / 2
e dz donde ( z ) e dt
2
2
( x ) /
( z )dz ( x )
La función Φ(z) es la función de distribución de probabilidad de una VA normal con media cero
y varianza 1. A esta distribución se le conoce como la distribución normal estándar, y ha sido
tabulada en distintos formatos para una mejor comprensión y resolución de situaciones que
involucren VA normales.
Dentro de los recursos adicionales encontrará la tabla donde se resumen los valores que toma
la distribución normal estándar.
Ejemplo:
El tiempo requerido en horas para cargar un container se distribuye normalmente con media
= 12 y varianza = 4. La probabilidad de que el container se cargue en menos de 10 horas, estaría
dada por
10 12
F (10 ) (1) 0.1587
2
[ SIMULACIÓN GERENCIAL] 7
2( x a)
(b a)(c a ) a x c
2(b x)
f ( x) c xb
(b a)(b c)
0 dlc
El nombre de esta distribución viene dado por la forma de su función de densidad, cuyo
comportamiento gráfico está dado por:
( x a) 2
axc
(b a )(c a )
(b x) 2
F ( x) 1 c xb
(b a )(b c)
1 xb
abc
E ( x)
3
8 [ POLITÉCNICO GRANCOLOMBIANO]
a 2 b 2 c 2 ab ac bc
V ( x)
18
Un ejemplo del uso de esta distribución se encuentra en el análisis del riesgo, donde la
distribución más apropiada es la beta pero dada su complejidad, tanto en la su comprensión
como en la estimación de sus parámetros, se utiliza la distribución triangular como
aproximación.
2. ESTIMACIÓN PUNTUAL
N
1
̅ = ∑ Yi
Y
N
i=1
N
1
2
S = ̅|2 ,
∑|Yi − Y
N−1
i=1
[ SIMULACIÓN GERENCIAL] 9
Cabe anotar que estos estimadores son puntuales, lo que quiere decir que proveen un
estimado escalar de algún parámetro desconocido.
Es muy poco probable que, incluso el estimador Insesgado más eficiente estime con exactitud
el parámetro poblacional. A pesar que, dicha precisión aumenta con muestras grandes, no
existe ninguna razón por la cual deberíamos considerar que el estimador puntual de una
muestra aleatoria sea exactamente igual al parámetro poblacional que se está estimando. Por
lo tanto, sería más conveniente pensar que se debería estimar un Intervalo, es decir, un límite
inferior y un límite superior en el cual, se esperaría encontrar el valor del parámetro. Este
intervalo se le conoce como estimación por intervalo.
𝑃(φ
̂𝑖𝑛𝑓 < φ < φ
̂)
sup = 1−∝
Donde ∝ es algún valor entre 0 y 1. Esto, en palabras significa que tenemos una probabilidad
1-∝ de seleccionar una Variable (Aleatoria) que contenga el parámetroφ. Por lo tanto, el
intervalo de la forma φ ̂𝑖𝑛𝑓 < φ < φ̂ 𝑠𝑢𝑝 calculado a partir de la muestra aleatoria se le
denomina Intervalo de Confianza, el Porcentaje 1−∝ se le denomina Nivel de Confianza y los
valores φ
̂𝑖𝑛𝑓 y φ
̂𝑠𝑢𝑝 se denominan límites Inferior y Superior del Intervalo, respectivamente.
Cuando se realiza la estimación por intervalo para la media, debemos recordar que, de acuerdo
al Teorema del Limite Central, la distribución muestral de 𝑋̅ será aproximadamente:
𝜎2
𝑋̅~𝑁 (𝜇; )
𝑛
Siempre y cuando el tamaño de la muestra sea grande. Por lo tanto, la forma límite de la
distribución de :
10 [ POLITÉCNICO GRANCOLOMBIANO]
X
Z
n
P X Z / 2 X Z / 2 1
n n
LI X Z / 2
n
LS X Z / 2
n
[ SIMULACIÓN GERENCIAL] 11
X
T
S n
S S
P X t v / 2 X t v , / 2 1
n n
S
LI X t / 2
n
S
LS X t / 2
n
Donde
t es el valor t que tiene un área α a la derecha.
12 [ POLITÉCNICO GRANCOLOMBIANO]
3.2. Intervalos de Confianza Para dos Muestras: Estimación de la diferencia entre dos
Medias
Muchas veces, en el análisis de los modelos de simulación de Montecarlo nos interesará
realizar un análisis sobre dos poblaciones, con medias 𝜇1 y 𝜇2 y varianzas 𝜎1 y 𝜎2
respectivamente. Un estimador puntual de la diferencia 𝜇1 − 𝜇2 está dado por el estadístico
𝑋̅1 − 𝑋̅2 . Teniendo en cuenta esto, para realizar una estimación puntual sobre la diferencia de
dos medias (𝜇1 − 𝜇2 ), se deberá seleccionar 2 muestras aleatorias independientes, de tamaño
n1 y n2 respectivamente. Al calcular la diferencia de los promedios 𝑋̅1 − 𝑋̅2 , debemos
considerar la distribución muestral de dicho estadístico.
21 2 2 21 2 2
P X 1 X 2 Z / 2
1 2 X 1 X 2 Z / 2 1
n1 n2 n1 n2
Por el contrario, si 𝑋̅1 𝑦 𝑋̅2 son las medias de dos muestras aleatorias independientes de
tamaño n1 y n2 respectivamente, de poblaciones aproximadamente normales con varianzas
desconocidas (𝜎1 y 𝜎2 ) pero iguales, el intervalo de confianza de 1−∝ para la diferencia 𝜇1 −
𝜇2 es:
1
P X 1 X 2 t / 2 S p 1 2 X 1 X 2 t / 2 S p
1 1 1
n
n n
n 1
1 2 1 2
Se debe tener en cuenta que S 21 y S 2 2 son las varianzas muestrales de las muestras n1 y n2
respectivamente.
[ SIMULACIÓN GERENCIAL] 13
4. PRUEBAS DE HIPÓTESIS
Las pruebas de hipótesis constituyen uno de los elementos más importantes de la Simulación
de Montecarlo y en la estadística inferencial, ya que representan la formalización de los
intervalos de confianza y su principal objetivo es generar un procedimiento de decisión basado
en un postulado o conjeturas y muestras aleatorias que permitan concluir sobre algún sistema
bajo estudio con un nivel de confianza 1 − 𝛼.
Para entender la estructura de las pruebas de hipótesis, se deben definir ciertos conceptos:
- Hipótesis Estadística: Una hipótesis estadística (HE) es una afirmación acerca del valor de
los parámetros de la distribución de una población si dicha distribución se conoce o sobre
el tipo de distribución si ésta es desconocida. Si la hipótesis caracteriza completamente la
distribución, se le llama hipótesis simple, de lo contrario decimos que es una hipótesis
compuesta.
- Prueba estadística (de H0 contra H1): Una prueba para confrontar una hipótesis estadística
H0 contra una hipótesis estadística H1 (dichas hipótesis deben ser excluyentes) es una regla
que permite tomar la decisión de aceptar o rechazar la hipótesis H0 (y consecuentemente
rechazar o aceptar H1), según los valores obtenidos en la muestra aleatoria y de acuerdo
con cierto porcentaje admisible de error.
Se debe tener en cuenta que, al momento de plantear las hipótesis estadísticas, dichas
pruebas pueden ser a 1 o 2 colas. En otras palabras, la región de aceptación y de rechazo
de las pruebas puede ser una o dos, dependiendo del planteamiento de la Hipótesis
alterna.
𝐻𝑜: 𝜃 = 𝜃𝑜
}
𝐻𝑎: 𝜃 ≠ 𝜃𝑜
𝐻𝑜: 𝜃 = 𝜃𝑜
}
𝐻𝑎: 𝜃 > 𝜃𝑜
14 [ POLITÉCNICO GRANCOLOMBIANO]
3. Pruebas de cola inferior (1 Cola) basadas en un estimador apropiado del parámetro.
𝐻𝑜: 𝜃 = 𝜃𝑜
}
𝐻𝑎: 𝜃 < 𝜃𝑜
Nota: Se debe tener en cuenta que, según la presentación de las alternativas anteriores, las
Hipótesis Nulas (Ho) en cualquier caso siempre se presentan en Igualdad.
- Región crítica (C): La región crítica (C) asociada a la prueba de una hipótesis estadística es
el conjunto de todos los posibles resultados de la muestra aleatoria para los cuales la
hipótesis nula es rechazada, de acuerdo con la prueba aplicada.
Al igual que en los intervalos de confianza, el objetivo de la prueba de hipótesis para una sola
media busca contrastar si el parámetro poblacional (𝜇) es igual a un valor específico de una
muestra aleatoria, denotado anteriormente como 𝜃𝑜, con un nivel de confianza 1-∝.
Teniendo en cuenta que los estadísticos utilizados en los intervalos de confianza para una
media se distribuían Normal o t de Student, bajo la afirmación del conocimiento de la varianza
poblacional (𝜎 2 ), los estadísticos de prueba de las pruebas de hipótesis tendrán el mismo
comportamiento.
[ SIMULACIÓN GERENCIAL] 15
X 0
Zp n
Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye Normal Estándar – N(0,1). El rechazo
de Ho a un nivel de significancia 𝛼 resulta cuando el estadístico de prueba Zp excede a 𝑍𝛼/2 o
es menor a −𝑍𝛼/2 siempre y cuando la prueba sea de dos colas. Si la prueba es de una cola se
rechazará Ho a un nivel de significancia 𝛼 cuando el estadístico de prueba Zp excede a 𝑍𝛼 o es
menor a −𝑍𝛼 , siempre y cuando la prueba sea de cola superior o inferior, respectivamente.
X 0
tp n
S
Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye t de Student con n-1 grados de
libertad – t(n-1). Nuevamente, el rechazo de Ho a un nivel de significancia 𝛼 resulta cuando el
estadístico de prueba tp excede a 𝑡𝛼/2,𝑛−1 o es menor a −𝑡𝛼/2,𝑛−1 siempre y cuando la prueba
sea de dos colas. Si la prueba es de una cola se rechazará Ho a un nivel de significancia 𝛼 cuando
el estadístico de prueba tp excede a 𝑡𝛼,𝑛−1 o es menor a −𝑡𝛼,𝑛−1 , siempre y cuando la prueba
sea de cola superior o inferior, respectivamente.
Ejemplo: En cierto estudio sobre la duración de las llamadas en un centro de quejas y reclamos,
se recolectó una muestra aleatoria de 100 llamadas. Dicha muestra aleatoria mostró que, la
duración promedio de una llamada es de 71,8 minutos con una desviación estándar poblacional
de 8.9 minutos. ¿Dicha información indicará que el tiempo promedio de duración de las
llamadas es superior a 70 minutos? ¿Indicará que el tiempo promedio de duración de las
llamadas es diferente a 70 minutos? Valide dichas afirmaciones con un nivel de confianza del
95% (1 − 𝛼)
16 [ POLITÉCNICO GRANCOLOMBIANO]
1. Establezca las hipótesis Nula y Alterna.
Teniendo en cuenta que la afirmación que se quiere validar es que la duración promedio de las
llamadas sea mayor a 70 minutos, las hipótesis para esta prueba son:
𝐻𝑜: 𝜃 = 70
𝐻𝑎: 𝜃 > 70
Nota: La hipótesis nula siempre debe ir en igualad. La hipótesis alterna se plantea de acuerdo
con la afirmación a verificar, que en este caso, hace referencia a que la duración promedio de
las llamadas es mayor a 70 minutos.
Para este problema, se quiere validar la hipótesis con un nivel de confianza del 95%. Por lo
tanto, el nivel de significancia es 𝛼 = 5% o 𝛼 = 0,05
X 0 71 .8 70
Zp n Zp 100 Z p 2.02
8.9
Teniendo en cuenta que la Hipótesis alterna es de orientación mayor (>), se puede establecer
que la prueba es a una cola, en este caso, a una cola superior. Por lo tanto, se debe encontrar
el valor crítico de la distribución. En este caso, como el estadístico de prueba se distribuye
normal estándar, se debe encontrar el valor en la distribución normal que acumula en la cola
superior el nivel de significancia del 5%. Gráficamente, este análisis será:
[ SIMULACIÓN GERENCIAL] 17
Por lo tanto, buscando en la tabla de la distribución Normal Estándar, el valor de la distribución
que acumula el 95% de probabilidad es 1.645. En Excel, este valor se calcula por medio de la
siguiente función:
Teniendo en cuenta el resultado del valor crítico del numeral anterior, podemos establecer
que la región de rechazo de Ho será cualquier valor mayor a 1.645. Por lo tanto, teniendo en
cuenta que el valor del estadístico de prueba es 2.02, podemos ver que el estadístico se
encuentra en la zona de rechazo de Ho.
Teniendo en cuenta el resultado anterior, se establece que, con un nivel de confianza del 95%,
se rechaza la hipótesis nula. Esto quiere decir que, la duración de las llamadas es superior a 70
minutos.
18 [ POLITÉCNICO GRANCOLOMBIANO]
1. Establezca las hipótesis Nula y Alterna.
Teniendo en cuenta que la afirmación que se quiere validar es que la duración promedio de las
llamadas es diferente a 70 minutos, las hipótesis para esta prueba son:
𝐻𝑜: 𝜃 = 70
𝐻𝑎: 𝜃 ≠ 70
Nota: La hipótesis nula siempre debe ir en igualad. La hipótesis alterna se plantea de acuerdo
con la afirmación a verificar, que en este caso, hace referencia a que la duración promedio de
las llamadas es diferente a 70 minutos.
Para este problema, se quiere validar la hipótesis con un nivel de confianza del 95%. Por lo
tanto, el nivel de significancia es 𝛼 = 5% o 𝛼 = 0,05
X 0 71 .8 70
Zp n Zp 100 Z p 2.02
8.9
Teniendo en cuenta que la Hipótesis alterna es de orientación mayor (≠), se puede establecer
que la prueba es a dos colas. Por lo tanto, en este caso se deben encontrar los valores críticos
de la distribución. En este caso, como el estadístico de prueba se distribuye normal estándar,
se debe encontrar el valor en la distribución normal que acumula en la cola superior el nivel de
significancia del 2.5%, ya que el nivel de significancia se reparte equitativamente entre las dos
colas. Gráficamente, este análisis será:
[ SIMULACIÓN GERENCIAL] 19
Por lo tanto, buscando en la tabla de la distribución Normal Estándar, el valor de la distribución
que acumula el 97.5% de probabilidad es 1.959 y el valor de la distribución que acumula el 2.5%
de probabilidad es -1.959. En Excel, estos valores se calculan por medio de la siguiente función:
Teniendo en cuenta el resultado del valor crítico del numeral anterior, podemos establecer
que la región de rechazo de Ho será cualquier valor mayor a 1.959 y cualquier valor menor a -
1.959. Por lo tanto, teniendo en cuenta que el valor del estadístico de prueba es 2.02, podemos
ver que el estadístico se encuentra en la zona de rechazo de Ho.
Teniendo en cuenta el resultado anterior, se establece que, con un nivel de confianza del 95%,
se rechaza la hipótesis nula. Esto quiere decir que, la duración de las llamadas es diferente a
70 minutos.
Al igual que en los intervalos de confianza, el objetivo de la prueba de hipótesis para dos
medias busca contrastar si la diferencia de los parámetros poblacionales (𝜇1 − 𝜇2 ) es igual a
un valor específico de una muestra aleatoria, denotado como 𝑑𝑜, con un nivel de confianza 1-
∝.
20 [ POLITÉCNICO GRANCOLOMBIANO]
Teniendo en cuenta que los estadísticos utilizados en los intervalos de confianza para la
diferencia de medias se distribuían Normal o t de Student, bajo la afirmación del conocimiento
de las varianzas poblacionales ( 𝜎 21 y 𝜎 2 2 ), los estadísticos de prueba de las pruebas de
hipótesis tendrán el mismo comportamiento.
Por lo tanto, si las varianzas poblacionales son conocidas (𝜎 21 y 𝜎 2 2 ) y teniendo en cuenta que
el modelo se centra en un experimento con X1, X2,…., Xn de dos muestras aleatorias de una
distribución con media 𝜇 y varianza 𝜎 2 el estadístico de prueba para la hipótesis de contraste
de una diferencia de medias (𝐻0 : 𝜇1 − 𝜇2 = 𝑑0 ), será:
X1 X 2 d0
Zp
21 22
n1 n2
Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye Normal Estándar – N(0,1). El rechazo
de Ho a un nivel de significancia 𝛼 resulta cuando el estadístico de prueba Zp excede a 𝑍𝛼/2 o
es menor a −𝑍𝛼/2 siempre y cuando la prueba sea de dos colas. Si la prueba es de una cola se
rechazará Ho a un nivel de significancia 𝛼 cuando el estadístico de prueba Zp excede a 𝑍𝛼 o es
menor a −𝑍𝛼 , siempre y cuando la prueba sea de cola superior o inferior, respectivamente.
X1 X 2 d0
tp
1 1
Sp
n1 n2
S 21 n1 1 S 2 2 n2 1
Sp
n1 n2 2
Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye t de Student con n1+n2-2 grados de
libertad – t(n1+n2-2). Nuevamente, el rechazo de Ho a un nivel de significancia 𝛼 resulta cuando
el estadístico de prueba tp excede a 𝑡𝛼/2,n1+n2−2 o es menor a −𝑡𝛼/2,n1+n2−2 siempre y cuando
la prueba sea de dos colas. Si la prueba es de una cola se rechazará Ho a un nivel de significancia
𝛼 cuando el estadístico de prueba tp excede a 𝑡𝛼,n1+n2−2 o es menor a −𝑡𝛼,n1+n2−2 , siempre y
cuando la prueba sea de cola superior o inferior, respectivamente.
[ SIMULACIÓN GERENCIAL] 21
SIMULACIÓN
GERENCIAL
Generación de números y variables aleatorias
• GENERACIÓN DE NÚMEROS Y VARIABLES
ALEATORIAS
1. Índice
1. Introducción
2. Propiedades de los números aleatorios
3. Técnicas de generación de números aleatorios
3.1. Método lineal de congruencias
4. Generación de variables aleatorias
4.1. Variables uniformes
4.2. Variables exponenciales
4.3. Variables triangulares
Variables continuas empíricas.
2. Introducción
El propósito del presente documento es presentar a los estudiantes las diferentes técnicas
para generar números aleatorios de forma analítica (sin apoyo de software especializado), así
como las técnicas apropiadas para transformar dichos números en variables aleatorias con una
distribución de probabilidad y parámetros definidos.
3. Objetivo general
Al finalizar la lectura, los estudiantes sabrán cuáles son los principales métodos para generar
números aleatorios y transformar estos en variables con una distribución de probabilidad
definida, de igual forma reconocerá cómo estas técnicas están estrechamente relacionadas
con la simulación de Montecarlo.
El estudiante sabrá cómo transformar un número aleatorio en una variable aleatoria específica
con los parámetros deseados.
2 [ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo temático
1. Introducción
En el presente documento se darán a los estudiantes las diferentes herramientas para generar
números aleatorios de forma analítica. Adicionalmente, conocerán las herramientas para
transformar dichos números aleatorios en variables aleatorias que sigan una distribución
probabilística definida.
Tener claridad en los conceptos básicos relacionados con la generación de números y variables
aleatorias, es un tema relevante y fundamental en la simulación de Montecarlo, pues
justamente la simulación se basa en que los eventos son aleatorios o estocásticos y, por tanto,
debe ser claro cómo es posible generar dichos valores en la simulación.
Dentro de los conceptos básicos relacionados con esta temática, el estudiante recordará
cuáles son las principales distribuciones de probabilidad así como cuáles son los parámetros
que la caracterizan, pues esto es fundamental justamente para la transformación de los
números aleatorios en variables aleatorias.
Para que un conjunto de números pueda ser clasificado como números aleatorios, estos deben
tener dos propiedades estadísticas fundamentales:
- Uniformidad: Se refiere a que todo número tiene la misma probabilidad de ser escogido
o generado (espacio equiprobable)
- Independencia: la elección de un número no depende de la elección de otro.
[ SIMULACIÓN GERENCIAL] 3
Ejemplo:
2-4-6-8-10-12-14-16
Puede notar dos cosas:
Con base en las propiedades anteriores, la idea es generar una secuencia de números entre
cero y 1 [0,1] que imiten justamente los comportamientos mencionados. Para lograr esto,
normalmente se emplean funciones deterministas a través de generadores los cuales deben
cumplir las siguientes características:
Esta es una de las rutinas más comunes para generar números aleatorios entre cero y uno.
4 [ POLITÉCNICO GRANCOLOMBIANO]
Donde:
𝑋0 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑖𝑛𝑖𝑐𝑖𝑎𝑙 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑛 𝑒𝑙 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑆𝑒𝑚𝑖𝑙𝑙𝑎
𝑚 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑚ó𝑑𝑢𝑙𝑜
𝑚𝑜𝑑𝑢𝑙𝑜 = 𝑒𝑠 𝑙𝑎 𝑜𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝑚𝑜𝑑𝑢𝑙𝑜, 𝑙𝑎 𝑐𝑢𝑎𝑙 𝑑𝑒𝑣𝑢𝑒𝑙𝑣𝑒 𝑒𝑙 𝑟𝑒𝑠𝑖𝑑𝑢𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑑𝑖𝑣𝑖𝑠𝑖ó𝑛
𝑎 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑎
𝑐 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑖𝑛𝑐𝑟𝑒𝑚𝑒𝑛𝑡𝑜
Ahora bien vale la pena aclarar que la escogencia de todos estos parámetros a, c, m, X0
afecta directamente las propiedades estadísticas (uniformidad e independencia) y,
además, la longitud del ciclo (periodo).
Finalmente, para convertir los enteros generados con la relación recursiva presentada
anteriormente en números aleatorios entre cero y uno, basta con dividirlos entre el
módulo m.
Ejemplo:
𝑋0 = 27
𝑚 = 100
𝑎 = 17
𝑐 = 43
Solución:
𝑋0 = 27
𝑋0+1 = 𝑋1 = (17 ∗ 27 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 502 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 2
𝑋1+1 = 𝑋2 = (17 ∗ 2 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77
𝑋2+1 = 𝑋3 = (17 ∗ 77 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 1352 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 52
𝑋3+1 = 𝑋1 = (17 ∗ 52 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 927 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 27
Dado que ya se repitió el primer número la secuencia para y no se generan más enteros,
pues si lo hiciéramos se volvería a repetir la secuencia, 2, 77, 52,…
Ahora bien, recordemos que los números deben ser entre cero y uno, para ello de acuerdo
con el método, dice que se deben dividir los enteros calculados (X) nuevamente entre la
constante m (que para este caso es 100), de acuerdo con esto tenemos:
[ SIMULACIÓN GERENCIAL] 5
27
𝑅0 = = 0,27
100
2
𝑅1 = = 0,02
100
77
𝑅2 = = 0,77
100
52
𝑅3 = = 0,52
100
- Variables aleatorias que direccionen ciertos comportamientos del sistema (por ejemplo
los tiempos de arribo, los tiempos de servicio, las fallas de los recursos, etc.)
Con base en lo anterior es posible definir métodos para que a partir de muestras de números
aleatorios se puedan generar variables aleatorias que permitan describir diferentes procesos
estocásticos.
Generación de
números Transformación
aleatorios {Xi}
X=f(U)
{Ui}
Algoritmo:
Independiente del tipo de variable que se quiera obtener (uniforme, exponencial, triangular),
el algoritmo que debe aplicarse es el mismo y es el siguiente:
6 [ POLITÉCNICO GRANCOLOMBIANO]
1. Calcular la función acumulada de probabilidad de la variable aleatoria X
2. Igualar dicha función de probabilidad acumulada con el número aleatorio F(X) = R
3. Resolver la ecuación para X en términos de R (despejar X)
4. Reemplazar por los valores numéricos y obtener la distribución deseada.
Ejemplo:
De acuerdo con lo anterior y siguiendo el algoritmo presentado tenemos que nos piden
una variable distribuida uniformemente U[6,16]:
𝑋−𝑎
𝐹(𝑋) =
𝑏−𝑎
2. Igualar la función con el aleatorio:
𝑋−𝑎
=𝑅
𝑏−𝑎
3. Despejar X:
𝑋 = 𝑎 + (𝑏 − 𝑎)𝑅
4. Resolver:
Ejemplo:
Suponga que se tienen los siguientes números aleatorios:
[ SIMULACIÓN GERENCIAL] 7
0,12 0,01 0,23 0,28 0,89
𝐹(𝑋) = 1 − 𝑒 −𝜆𝑥
1 − 𝑒 −𝜆𝑥 𝑅
3. Despejar X:
−1
𝑋= ln(1 − 𝑅)
𝜆
4. Resolver:
Ejemplo:
8 [ POLITÉCNICO GRANCOLOMBIANO]
1. Función acumulada de la distribución triangular:
0 𝑥<𝑎
(𝑥 − 𝑎)2
𝑎≤𝑥<𝑏
(𝑏 − 𝑎)(𝑐 − 𝑎)
𝐹(𝑥) =
(𝑐 − 𝑥)2
1− 𝑏≤𝑥<𝑐
(𝑐 − 𝑎)(𝑐 − 𝑏)
{ 1 𝑥≥𝑐
(𝑥 − 𝑎)2 𝑏−𝑎
=𝑅 0≤𝑅<
(𝑏 − 𝑎)(𝑐 − 𝑎) 𝑐− 𝑎
(𝑐 − 𝑥)2 𝑏−𝑎
1− =𝑅 ≤𝑅<1
(𝑐 − 𝑎)(𝑐 − 𝑏) 𝑐−𝑎
3. Despejar X:
𝑏−𝑎
𝑎 + √(𝑏 − 𝑎)(𝑐 − 𝑎)𝑅 0≤𝑅<
𝑋={ 𝑐−𝑎
𝑏−𝑎
𝑐 − √(𝑐 − 𝑎)(𝑐 − 𝑏)(1 − 𝑅) ≤𝑅<1
𝑐−𝑎
4. Resolver:
[ SIMULACIÓN GERENCIAL] 9
4.4. Variables continuas empíricas
Cuando las distribuciones teóricas (como las vistas anteriormente) no son aplicables se
debe emplear distribuciones empíricas y, por lo tanto, el algoritmo cambia. A continuación
se explicará, a través de un ejemplo, la metodología que debe seguirse:
Ejemplo:
Suponga que se toman los tiempos de reparación de 100 componentes electrónicos:
Calcular la frecuencia relativa a cada una de las clases (recuerde que la frecuencia relativa
simplemente es la frecuencia de la clase dividida en el número total de datos):
Frecuencia
xi-1 <x≤ xi Frecuencia
Relativa
1,00 <x≤ 1,50 25,00 0,25
1,50 <x≤ 2,00 23,00 0,23
2,00 <x≤ 2,30 32,00 0,32
2,30 <x≤ 3,00 20,00 0,20
Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada
(f)
(f/n) (ci)
1,00 <x≤ 1,50 25,00 0,25 0,25
1,50 <x≤ 2,00 23,00 0,23 0,48
2,00 <x≤ 2,30 32,00 0,32 0,80
2,30 <x≤ 3,00 20,00 0,20 1,00
Una vez calculada la frecuencia acumulada halle la pendiente de los datos (ai), dicha
pendiente se calcula de acuerdo a la siguiente expresión:
10 [ POLITÉCNICO GRANCOLOMBIANO]
𝑥𝑖 − 𝑥𝑖−1
𝑎𝑖 =
(𝑓/𝑛)
Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada Pendiente
(f)
(f/n) (ci) (ai)
1,00 <x≤ 1,50 25,00 0,25 0,25 2,00
1,50 <x≤ 2,00 23,00 0,23 0,48 2,17
2,00 <x≤ 2,30 32,00 0,32 0,80 0,94
2,30 <x≤ 3,00 20,00 0,20 1,00 3,50
Una vez se han calculado todas estas medidas es posible realizar la interpolación necesaria
de acuerdo a la expresión:
𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
Cuando:
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖
𝑐3 < 𝑅 ≤ 𝑐4
𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
𝑋 = 𝑥3 + 𝑎4 (𝑅 − 𝑐3 )
𝑋 = 2.475
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖
[ SIMULACIÓN GERENCIAL] 11
𝑐1 < 𝑅 ≤ 𝑐2
𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
𝑋 = 𝑥1 + 𝑎2 (𝑅 − 𝑐1 )
𝑋 = 1.738
Si trabajáramos con muchos números aleatorios, podríamos encontrar una gráfica como
la siguiente:
12 [ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
GERENCIAL
Análisis de datos de entrada
1. Índice
1. Introducción
2. Identificación
gráfica
de
distribuciones
de
probabilidad
adecuadas
2.1. Histogramas
2.2. Q-‐Q
Plot
2.3. P-‐P
Plot
3. Pruebas
de
bondad
de
ajuste
3.1. Prueba
Chi
Cuadrado
3.2. Prueba
Kolmogorov-‐Smirnov
P-‐Value.
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
las
herramientas
gráficas
y
analíticas
para
llevar
a
cabo
un
correcto
análisis
de
los
datos
de
entrada,
teniendo
muy
presente
que
son
estos
los
que
alimentarán
el
modelo
de
simulación
que
se
esté
construyendo
y
que,
por
lo
tanto,
tendrán
una
alta
influencia
en
los
resultados
que
se
reporten
después
de
haber
corrido
la
simulación.
También
se
les
presentará
una
serie
de
ejercicios
relacionados
con
el
tema
para
reforzar
los
conocimientos
adquiridos
durante
el
desarrollo
del
módulo.
3. Objetivo
general
Al
finalizar
el
módulo
los
estudiantes
sabrán
cuáles
son
las
herramientas
gráficas
fundamentales
para
llevar
a
cabo
un
análisis
de
datos
de
entrada,
así
como
también
reconocerá
y
sabrá
emplear
de
forma
adecuada
las
pruebas
analíticas
para
realizar
dicho
análisis
y,
de
esta
manera,
alimentar
el
modelo
de
simulación
que
se
esté
construyendo.
Al
finalizar
la
séptima
semana
de
aprendizaje:
1. El
estudiante
entenderá
la
importancia
de
realizar
un
análisis
de
datos
de
entrada.
2. El
estudiante
conocerá
las
distintas
metodologías
para
ejecutar
un
correcto
análisis
de
la
información
de
entrada.
El
estudiante
podrá
realizar
un
análisis
de
entrada
empleando
herramientas
computacionales
adecuadas.
2
[ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo
temático
4.1 Recomendaciones
académicas.
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana,
adicionalmente
se
le
recomienda
revisar
las
teleconferencias
así
como
las
video
diapositivas,
pues
estas
son
un
medio
que
puede
aclarar
las
dudas
generadas
con
la
lectura
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
Finalmente,
se
recomienda
al
estudiante
realizar
los
ejercicios
planteados
y
sugeridos
por
el
tutor
ya
que
estos
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota
sí
harán
que
su
formación
sea
completa
y
pueda
ser
reforzada
de
forma
práctica.
4.2
Desarrollo
de
cada
una
de
las
unidades
temáticas.
1.Introducción
El
término
“GIGO”
o
“garbage-‐in-‐garbage-‐out”
(si
entra
basura,
sale
basura)
es
un
concepto
básico
en
ciencias
de
la
computación
y
se
aplica
sin
problema
en
el
área
de
simulación
de
Montecarlo.
Aun
cuando
la
estructura
del
modelo
sea
válida
y
robusta,
si
los
datos
de
entrada
han
sido
recolectados
de
manera
inapropiada,
o
analizados
de
manera
imprecisa,
o
simplemente
no
son
representativos,
los
datos
de
salida
o
resultados
del
modelo
serán
inservibles
para
tomar
buenas
decisiones,
derivándose
en
pérdidas
costosas
para
la
organización.
Para
llevar
a
cabo
un
correcto
análisis
de
datos
de
entrada
y
recolectar
datos
que
no
sean
“basura”,
se
recomienda
lo
siguiente:
[ SIMULACIÓN GERENCIAL ] 3
2.1. Histogramas
4
[ POLITÉCNICO GRANCOLOMBIANO]
2.2. Q-‐Q
Plot
(Diagramas
Cuantil
–
Cuantil)
Al
igual
que
los
histogramas,
los
gráficos
Cuantil
–
Cuantil
o
Q-‐Q
plot,
dan
una
idea
también
gráfica
del
posible
comportamiento
que
pueden
seguir
los
datos
de
entrada
que
se
estén
analizando.
La
diferencia
principal
entre
un
histograma
y
un
Q-‐Q
plot
es
que
los
segundos
no
muestran
propiamente
el
comportamiento
de
la
distribución
si
no
que
muestra
la
relación
de
los
cuantiles
de
la
distribución
que
se
sospecha
siguen
los
datos
con
la
distribución
real
que
siguen
los
datos
y
a
partir
de
dicha
relación
es
posible
realizar
conclusiones.
Estrictamente
hablando,
un
cuantil
se
define
como:
Sea
X
es
una
variable
aleatoria
(VA)
con
función
acumulada
de
probabilidad
Fx(x),
entonces
el
q-‐cuantil
de
X
es
aquel
valor
!
tal
que
! ! = ! ! ≤ ! = !.
Luego,
! = ! !! (!).
Ahora
bien,
partiendo
de
este
concepto
se
presenta
a
continuación
el
algoritmo
(metodología)
a
desarrollar
para
obtener
los
cuantiles
y,
por
lo
tanto,
la
gráfica
que
propone
la
herramienta
debe
realizarse:
[ SIMULACIÓN GERENCIAL ] 5
! − 0.5
!! ≅ ! !!
!
!!!.!
4. Graficar
yj
v.s.
! !! !
Supóngase
que
se
ha
escogido
una
distribución
con
función
F
como
una
posible
representación
de
la
distribución
de
X.
Si
F
es
un
miembro
de
una
familia
apropiada
de
distribuciones,
entonces
la
gráfica
de
yj
versus
F-‐1
será
aproximadamente
una
línea
recta.
Ejemplo
Se
tienen
los
siguientes
diez
datos,
y
se
sospecha
que
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13
105
91
103
83
71
120
100
135
123
9
0
Con
base
en
la
metodología
anterior,
el
primer
paso
consiste
en
ordenarlos
de
menor
a
mayor,
así:
j
Yj
1
71
2
83
3
90
4
91
5
100
6
103
7
105
8
120
9
123
10
135
El
segundo
paso
es
asignarle
una
probabilidad
de
acuerdo
con
la
expresión
(j-‐0.5)/n:
j
Yj
Probabilidad
1
71
0,05
2
83
0,15
3
90
0,25
4
91
0,35
6
[ POLITÉCNICO GRANCOLOMBIANO]
5
100
0,45
6
103
0,55
7
105
0,65
8
120
0,75
9
123
0,85
10
135
0,95
El
tercer
paso
es
calcular
la
función
inversa
para
cada
una
de
las
probabilidades
asignadas
en
el
paso
anterior.
Como
en
este
caso
se
sospecha
que
los
datos
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13,
debe
calcularse
la
inversa
de
una
distribución
normal.
Probabilid Función
j
Yj
ad
inversa
1
71
0,05
78,616903
2
83
0,15
86,526366
3
90
0,25
91,231633
4
91
0,35
94,990834
5
100
0,45
98,366402
6
103
0,55
101,633598
7
105
0,65
105,009166
8
120
0,75
108,768367
9
123
0,85
113,473634
10
135
0,95
121,383097
Nota:
si
por
ejemplo
se
hubiese
dicho
que
se
sospechaba
que
los
datos
seguían
una
distribución
exponencial,
los
pasos
1
y
2
se
debían
haber
realizado
de
la
misma
forma,
pero
en
el
paso
tres
debería
haberse
calculado
la
inversa
de
una
distribución
exponencial
y
no
de
la
normal,
es
decir,
la
función
inversa
se
calcula
con
base
en
la
distribución
de
probabilidad
que
se
sospecha
siguen
los
datos.
[ SIMULACIÓN GERENCIAL ] 7
140
120
100
80
60
40
20
0
0 20 40 60 80 100 120 140 160
La
columna
denominada
Probabilidad,
corresponde
al
cálculo
del
cuantil
respectivo.
Por
!!!/!
ejemplo,
para
j
=
1,
reemplazando
en
la
expresión
! ,
da
como
resultado
0,05,
para
n
=
10.
La
columna
de
Función
Inversa,
se
puede
calcular
utilizando
Excel,
mediante
la
función
DISTR.NORM.INV,
con
parámetros:
media
=
100;
desviación
estándar
=
13;
probabilidad
=
la
recién
calculada
para
cada
uno
de
los
datos.
Cabe
anotar
que
la
decisión
de
aceptar
o
rechazar
la
hipótesis
es
subjetiva,
por
cuanto
la
apreciación
de
la
gráfica
y
el
ajuste
de
los
puntos
a
una
línea
recta
parten
de
simple
observación.
Al
igual
que
con
el
diagrama
Q-‐Q,
el
diagrama
P-‐P
permite
evaluar
un
conjunto
de
datos
mediante
la
comparación
de
una
distribución
teórica
de
probabilidad.
Su
principal
diferencia
con
respecto
al
diagrama
anteriormente
descrito,
radica
en
que
los
valores
a
contrastar
corresponden
al
cuantil
calculado
versus
la
función
de
distribución
acumulada.
Si
los
datos
corresponden
a
la
distribución
teórica
que
se
está
probando,
la
nube
de
puntos
debe
aproximarse
a
una
línea
recta.
Ahora
bien,
partiendo
de
lo
anterior
se
presenta
a
continuación
el
algoritmo
(metodología)
a
desarrollar
para
obtener
los
percentiles
y,
por
lo
tanto,
la
gráfica
que
propone
la
herramienta
debe
realizarse:
8
[ POLITÉCNICO GRANCOLOMBIANO]
2. Asignar
una
probabilidad
de
ocurrencia
a
cada
uno
de
los
datos
recolectados,
dicha
probabilidad
es
asignada
de
acuerdo
con
la
expresión
(j-‐0.5)/n.
3. Calcular
la
probabilidad
“real”
de
que
se
de
cada
uno
de
los
valores
de
los
datos
que
se
recolectaron.
En
otras
palabras:
!! !!
!!!.!
4. Graficar
!
v.s.
!! !!
Ejemplo:
Se
tienen
los
siguientes
diez
datos,
y
se
sospecha
que
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13
105
91
103
83
71
120
100
135
123
90
Con
base
en
la
metodología
anterior,
el
primer
paso
consiste
en
ordenarlos
de
menor
a
mayor,
así:
J
Yj
1
71
2
83
3
90
4
91
5
100
6
103
7
105
8
120
9
123
10
135
El
segundo
paso
es
asignarle
una
probabilidad
de
acuerdo
con
la
expresión
(j-‐0.5)/n:
j
Yj
Probabilidad
1
71
0,05
2
83
0,15
3
90
0,25
4
91
0,35
5
100
0,45
[ SIMULACIÓN GERENCIAL ] 9
6
103
0,55
7
105
0,65
8
120
0,75
9
123
0,85
10
135
0,95
El
tercer
paso
es
calcular
la
probabilidad
real
para
cada
uno
de
los
valores
de
los
datos
ordenados
en
el
paso
1.
Como
en
este
caso
se
sospecha
que
los
datos
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13,
debe
calcularse
la
probabilidad
de
los
yj
con
esta
distribución.
j
Yj
Probabilidad
Acumulada
1
71
0,05
0,01284821
2
83
0,15
0,09548885
3
90
0,25
0,22087816
4
91
0,35
0,24437206
5
100
0,45
0,5
6
103
0,55
0,59125296
7
105
0,65
0,6497388
8
120
0,75
0,9380321
9
123
0,85
0,96157231
10
135
0,95
0,99645203
Nota:
si
por
ejemplo
se
hubiese
dicho
que
se
sospechaba
que
los
datos
seguían
una
distribución
exponencial,
los
pasos
1
y
2
se
debían
haber
realizado
de
la
misma
forma,
pero
en
el
paso
tres
debería
haberse
calculado
la
probabilidad
con
una
distribución
exponencial
y
no
de
la
normal,
es
decir,
la
probabilidad
se
calcula
con
base
en
la
distribución
de
probabilidad
que
se
sospecha
siguen
los
datos.
10
[ POLITÉCNICO GRANCOLOMBIANO]
1,2
0,8
0,6
0,4
0,2
0
0 0,2 0,4 0,6 0,8 1
Las
pruebas
de
bondad
de
ajuste
son
pruebas
de
hipótesis
que
permiten
evaluar
la
idoneidad
de
un
conjunto
de
datos,
dada
una
distribución
teórica
de
probabilidad
donde
se
podrían
ajustar.
Como
toda
prueba
de
hipótesis,
este
tipo
de
pruebas
comienza
con
el
enunciado
de
la
hipótesis
nula
y
alternativa.
La
hipótesis
nula
afirma
que
la
variable
aleatoria
que
describe
el
conjunto
de
datos,
se
distribuye
según
la
función
de
probabilidad
propuesta,
mientras
que
la
hipótesis
alternativa
contradice
tal
afirmación.
Nota:
Las
pruebas
de
hipótesis
corresponden
a
procesos
de
toma
de
decisión
estadísticos.
El
modelador
formula
dos
hipótesis
complementarias,
llamadas
la
hipótesis
nula
(denotada
por
H0)
y
la
hipótesis
alternativa
(denotada
por
H1).
Generalmente,
una
decisión
se
asocia
con
la
hipótesis
nula,
la
cual
puede
ser
aceptada
o
rechazada.
Consecuentemente,
se
pueden
generar
dos
tipos
de
error:
El
objetivo
de
las
pruebas
de
hipótesis
es
rechazar
(o
aceptar
H0)
de
tal
manera
que
si
H0
es
en
realidad
verdadera,
entonces
la
probabilidad
de
rechazarla
erróneamente
(error
tipo
I),
no
exceda
un
valor
de
probabilidad
previamente
definido,
α,
el
cual
es
llamado
nivel
de
confianza
o
nivel
de
significancia.
Mientras
más
pequeño
es
α,
más
alta
es
la
confianza
en
la
decisión
de
rechazo
correspondiente.
[ SIMULACIÓN GERENCIAL ] 11
Para
realizar
esta
prueba
se
disponen
los
datos
en
una
tabla
de
frecuencias.
Para
cada
valor
o
intervalo
de
valores
se
indica
la
frecuencia
absoluta
observada
(Oi).
A
continuación,
y
suponiendo
que
la
hipótesis
nula
es
cierta,
se
calculan
para
cada
valor
o
intervalo
de
valores
la
frecuencia
esperada
(Ei=n·∙pi,
donde
n
es
el
tamaño
de
la
muestra
y
pi
la
probabilidad
del
i-‐
ésimo
valor
o
intervalo
de
valores
según
la
hipótesis
nula).
Para
emplear
esta
metodología
que
es
analíticamente
más
confiable
que
los
histogramas
o
gráficos
P-‐P
y
Q-‐Q
es
necesario
calcular
un
estadístico
de
prueba,
dicho
estadístico
se
calcula
con
base
en
la
frecuencia
observada
y
frecuencia
esperada,
así:
!
!! − !! !
!=
!!
!!!
Este
estadístico
tiene
una
distribución
Chi-‐cuadrado
con
k-‐1
grados
de
libertad
si
n
es
suficientemente
grande,
es
decir,
si
todas
las
frecuencias
esperadas
son
mayores
que
5.
Si
existe
concordancia
perfecta
entre
las
frecuencias
observadas
y
las
esperadas,
el
estadístico
tomará
un
valor
igual
a
0;
por
el
contrario,
si
existe
una
gran
discrepancia
entre
estas
frecuencias
el
estadístico
tomará
un
valor
grande
y,
en
consecuencia,
se
rechazará
la
hipótesis
nula.
Así
pues,
la
región
crítica
estará
situada
en
el
extremo
superior
de
la
distribución
Chi-‐cuadrado
con
k-‐1
grados
de
libertad.
Ejemplo:
La
distribución
de
los
ingresos
anuales
en
dólares
de
una
muestra
de
100
familias
que
habitan
en
cierta
población
presentó
los
siguientes
resultados:
Ingresos
anuales
en
miles
de
Frecuencia
Observada
dólares
(Oi)
40
≤
x
≤
60
12
60
<
x
≤
80
8
80
<x
≤
100
25
100
<x
≤
120
30
120
<x
≤
140
25
Puede
admitirse
que
los
ingresos
de
las
familias
que
habitan
en
dicha
población
sigue
una
distribución
uniforme
en
el
intervalo
[40.000
–
140.000]
con
un
nivel
de
significancia
del
5%
Dado
que
ya
se
tienen
las
frecuencias
observadas,
el
siguiente
paso
es
calcular
la
frecuencia
esperada
Ei,
recordando
que
esta
siempre
será
igual
a
pi·∙n,
donde
n
es
el
número
total
de
12
[ POLITÉCNICO GRANCOLOMBIANO]
[ SIMULACIÓN GERENCIAL ] 13
Teniendo
los
valores
de
la
frecuencia
observada
y
de
la
frecuencia
esperada
es
posible
realizar
el
cálculo
del
estadístico
recordando
que
este
es
igual
a:
!
!! − !! !
!=
!!
!!!
Se
obtienen
entonces
los
siguientes
resultados:
Ingresos
anuales
Frecuencia
Probabilida Frecuencia
(Oi-‐Ei)2/Ei
en
miles
de
Observada
d
Esperada
(Ei)
dólares
(Oi)
40
≤
x
≤
60
12
0,2
20
3.2
60
<
x
≤
80
8
0,2
20
7.2
80
<x
≤
100
25
0,2
20
1.25
100
<x
≤
120
30
0,2
20
5
120
<x
≤
140
25
0,2
20
1.25
Y
=
17.9
Una
vez
obtenido
el
estadístico
este
deberá
compararse
con
el
valor
Chi2
de
la
tabla
Chi2,
para
calcular
este
valor
recuerde
que
deben
tenerse
presente
el
nivel
de
significancia
con
que
se
realizó
la
prueba
y
los
grados
de
libertad.
Para
este
ejemplo,
específicamente,
se
sugirió
que
alfa
fuera
igual
a
0.05
y
los
grados
de
libertad
siempre
serán
iguales
al
número
de
clases
menos
1,
es
decir,
que
para
el
ejercicio
los
grados
de
libertad
serían
df
=
5-‐1
=
4.
Observando
la
tabla
de
la
Chi2
obtenemos
entonces
que
el
resultado
es:
Para
concluir,
si
se
rechaza
o
no
la
hipótesis
de
que
la
distribución
de
los
ingresos
anuales
de
dichas
familias
sigue
una
distribución
entre
[40.000
–
140.000]
se
deben
comparar
los
valores
del
estadístico
calculado
Y
y
los
de
la
tabla
Chi2,
así:
14
[ POLITÉCNICO GRANCOLOMBIANO]
Para
este
ejemplo
en
particular
dado
que
Y
=
17.9
no
es
menor
a
9.48,
entonces
se
debe
rechazar
la
hipótesis
nula
y,
por
lo
tanto,
se
concluye
que
el
ingreso
anual
de
las
familias
no
sigue
una
distribución
uniforme
ente
[40.000
–
140.000].
[ SIMULACIÓN GERENCIAL ] 15
De
manera
similar
a
la
elaboración
de
los
diagramas
Q-‐Q
y
P-‐P,
resulta
bastante
útil
la
elaboración
de
una
tabla
para
completar
la
prueba.
D+
=
0,07
D-‐
=
0,33
Entonces,
el
estadístico
de
la
prueba
corresponde
a
0,33.
Se
procede
ahora
a
consultar
la
tabla
de
valores
críticos
de
la
prueba
Kolmogorov-‐Smirnov,
la
cual
se
muestra
a
continuación:
Se
puede
observar
que
el
valor
crítico
equivale
a
0,40925,
para
un
tamaño
de
muestra
n
=
10,
y
un
nivel
de
significancia
del
5%.
Como
este
valor
es
mayor
al
estadístico
de
la
prueba,
no
existe
suficiente
evidencia
estadística
para
rechazar
la
hipótesis
de
que
los
datos
se
distribuyen
uniformemente.
16
[ POLITÉCNICO GRANCOLOMBIANO]
4. P-‐Value
Otra
forma
de
determinar
si
se
rechaza
o
no
una
hipótesis
sin
emplear
directamente
los
estimadores
es
a
través
del
concepto
de
P-‐value
(esta
metodología
es
la
que
suelen
emplear
la
gran
mayoría
de
software
estadísticos
capaces
de
realizar
análisis
de
entrada).
El
P-‐Value
corresponde
al
área
superior
derecha
a
partir
del
estadístico
de
prueba,
es
decir,
es
la
probabilidad
acumulada
que
existe
después
del
estadístico
de
prueba.
Por
ejemplo
para
el
caso
de
la
prueba
Chi2
realizada
en
el
ejemplo
podemos
ver
que
el
p-‐value
corresponde
al
área
amarilla
+
área
azul:
Con
base
en
este
análisis,
las
conclusiones
se
tomarían
así:
Si
el
p-‐value
es
menor
que
el
nivel
de
significancia
entonces
se
debe
rechazar
la
hipótesis
nula,
de
lo
contrario
no
se
rechaza
[ SIMULACIÓN GERENCIAL ] 17
SIMULACIÓN
GERENCIAL
Análisis de datos de salida Sensibilidad
1. Índice
1. Análisis
de
Sensibilidad
2. Análisis
de
Sensibilidad
en
Simulación
de
Montecarlo
3. Ejemplos.
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
las
herramientas
gráficas
y
analíticas
para
llevar
a
cabo
un
correcto
análisis
de
los
datos
de
salida,
teniendo
muy
presente
que
son
estos
los
resultados
de
los
modelos
de
Simulación
y
obtenidos
luego
de
haber
corrido
la
simulación.
Finalmente,
se
presentará
al
estudiante
una
serie
de
ejercicios
relacionados
para
reforzar
los
conocimientos
adquiridos
durante
el
desarrollo
del
módulo.
3. Objetivo
general
Al
finalizar
el
módulo,
los
estudiantes
sabrán
cuáles
son
las
herramientas
gráficas
y
analíticas
fundamentales
para
llevar
a
cabo
un
análisis
de
datos
de
salida,
así
como
su
respectiva
aplicación
con
el
objetivo
de
realizar
dicho
análisis
y
así
hacer
inferencias
sobre
el
comportamiento
de
los
sistemas
bajo
estudio.
Al
finalizar
la
séptima
semana
de
aprendizaje:
1. El
estudiante
entenderá
la
importancia
de
realizar
un
análisis
de
Datos
de
Salida
2. El
estudiante
conocerá
la
forma
de
aplicar
todos
los
conceptos
vistos
durante
el
módulo
en
el
análisis
de
Salida
3. El
estudiante
podrá
aplicaciones
de
pruebas
estadísticas,
resultados
de
los
modelos
de
Simulación
de
Montecarlo
4. Desarrollo
temático
4.1
Recomendaciones
académicas.
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana,
adicional
a
la
lectura
de
la
cartilla
se
le
recomienda
revisar
las
teleconferencias
así
como
las
video-‐diapositivas,
pues
estas
son
un
medio
que
puede
aclarar
las
dudas
generadas
con
la
lectura
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
2
[ POLITÉCNICO GRANCOLOMBIANO]
Finalmente,
se
le
sugiere
realizar
los
ejercicios
planteados
por
el
tutor
ya
que
estos,
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota,
sí
harán
que
su
formación
sea
completa
y
pueda
ser
reforzada
de
forma
práctica.
4.2
Desarrollo
de
cada
una
de
las
unidades
temáticas.
1. ANÁLISIS
DE
SENSIBILIDAD
Un
análisis
de
sensibilidad
es
una
técnica
a
través
de
la
cual
se
intenta
evaluar
el
efecto
que
los
parámetros
de
entrada
o
las
restricciones
especificadas
de
un
modelo
tienen
sobre
las
variables
de
salida
del
mismo
tanto
en
términos
relativos
como
en
términos
absolutos,
con
el
objetivo
de
cuantificar
el
riesgo.
El
análisis
de
sensibilidad
puede
servir
para:
- Identificar
las
variables
críticas
del
modelo.
- Identificar
dónde
se
deben
dedicar
mayores
esfuerzos
en
los
procesos
de
planeación,
control
y
seguimiento
de
las
decisiones.
- Identificar
las
variables
que
deben
ser
incluidas
en
la
creación
de
escenarios
o
en
los
modelos
de
Simulación
de
Montecarlo.
Teniendo
en
cuenta
que
por
medio
de
la
Simulación
de
Montecarlo
se
pueden
obtener
varios
resultados
para
las
diferentes
variables
involucradas
en
el
modelo
(Variables
aleatorias,
Variables
de
decisión
y
variables
de
resultados)
por
medio
de
las
diferentes
iteraciones,
el
análisis
de
sensibilidad
se
puede
realizar
en
varios
niveles:
• Análisis
de
Sensibilidad
de
una
variable:
Teniendo
en
cuenta
que
por
medio
de
las
iteraciones
se
obtienen
diferentes
valores
para
las
variables
de
resultados,
se
pueden
realizar
los
siguientes
análisis:
- Estadísticas
descriptivas
de
las
variables
de
resultados:
Se
calculan
con
el
objetivo
de
entender
el
comportamiento
de
la
distribución
de
la
variable
por
medio
de
las
medidas
de
dispersión
y
Variabilidad.
Adicionalmente,
se
puede
analizar
el
tercer
y
cuarto
momento
de
la
distribución.
[ SIMULACUÓN GERENCIAL ] 3
4
[ POLITÉCNICO GRANCOLOMBIANO]
70
60
80,00%
50
60,00%
40
30
40,00%
20
20,00%
10
Frecuencia
0
0,00%
36513383,57
37642322,58
39900200,61
41029139,62
42158078,64
43287017,65
44415956,66
45544895,68
46673834,69
47802773,7
48931712,72
50060651,73
51189590,74
52318529,76
53447468,77
38771261,6
% acumulado
Clase
80
80,00%
60
60,00%
40
40,00%
20
20,00%
Frecuencia
0
0,00%
36459651,23
37318131,74
38176612,25
40752053,77
42469014,79
43327495,29
45044456,31
45902936,82
46761417,32
47619897,83
48478378,34
49336858,85
44185975,8
39035092,76
39893573,26
41610534,28
% acumulado
Clase
[ SIMULACUÓN GERENCIAL ] 5
Ejemplo:
Con
el
objetivo
de
dar
respuesta
a
los
siguientes
interrogantes,
se
generaron
1.000
iteraciones
del
modelo
realizado
anteriormente
(TX-‐1
y
TX-‐2),
obteniendo
como
resultados:
¿En
qué
porcentaje
de
escenarios
la
máquina
TX-‐1
supera
a
la
máquina
TX-‐2?
Alternativa
Frecuencia
%
6
[ POLITÉCNICO GRANCOLOMBIANO]
[ SIMULACUÓN GERENCIAL ] 7
8
[ POLITÉCNICO GRANCOLOMBIANO]