You are on page 1of 100

SIMULACIÓN

GERENCIAL
 

 
 
Introducción a la Simulación
 

 
 
 
 

   
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• INTRODUCCIÓN  A  LA  SIMULACIÓN  


 

1. Índice  
1. Introducción    
2. ¿Qué  es  simulación?  
2.1. Terminología  básica  
2.2. Tipos  de  modelos  de  simulación  
3. Pasos  de  un  estudio  de  simulación  
Simulación  de  Montecarlo  
 

2. Introducción  
El   propósito   del   presente   documento   es   presentar   a   los   estudiantes   la   definición   de   la  
simulación  como  herramienta  esencial  para  el  soporte  en  el  proceso  de  toma  de  decisiones  
dentro   de   las   organizaciones.   Con   el   objetivo   de   presentar   esta   definición   se   dará   al  
estudiante  la  terminología  general  usada  en  este  ámbito  así  como  los  tipos  de  simulación.  
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en   esta   unidad,   se   presentará   paso   a   paso   cuáles   son   las   actividades   que   deben   realizarse  
para  lograr  un  estudio  exitoso.  
Finalmente,   se   presentará   al   estudiante   el   concepto   de   la   simulación   de   Montecarlo,   eje  
central  del  módulo.  
 

3. Metodología  
La  cartilla  les  dará,  de  forma  estructurada,  los  conceptos  básicos  a  los  estudiantes  para  iniciar  
la  presentación  de  lo  que  es  la  Simulación  y  particularmente  la  Simulación  de  Montecarlo.  
La   cartilla   inicia   con   la   presentación   de   conceptos   generales   de   sistemas   y   modelaje   para  
construir  de  forma  lógica  el  concepto  completo  de  lo  que  es  la  Simulación  como  herramienta  
que  da  soporte  y  permite  argumentar  las  decisiones  que  se  toman  con  respecto  a  algún  tema  
en  específico.  
Habiendo  definido  lo  que  es  la  simulación  se  presentarán  algunos  términos  básicos  propios  
de  la  materia,  términos  que  se  utilizarán  con  frecuencia  a  lo  largo  del  proceso  de  aprendizaje.  
Asimismo   se   presentará   al   estudiante   la   metodología   necesaria   cuando   se   quiere   llevar   a  
cabo  un  proceso  de  simulación.  
Finalmente,  se  le  dará  al  estudiante  el  concepto  de  la  simulación  de  Montecarlo,  eje  central  
del  módulo.  
 
 

 
2   [ POLITÉCNICO GANCOLOMBIANO]
 

4. Mapa  conceptual  del  módulo  


 
 
 
 
 
 
 
 
 
 
 
   
 
 
 
 
 
 
 
 
 
 
 

5. Objetivo  General  
Al   finalizar   el   módulo   los   estudiantes   sabrán   cuáles   son   los   conceptos   básicos   de   la  
simulación  de  Montecarlo  y  algunas  de  sus  aplicaciones.  
Al  finalizar  la  primera  semana  de  aprendizaje:  

1. Identificar  los  conceptos  fundamentales  de  la  Simulación  


2. Aprenderá  los  pasos  a  seguir  para  realizar  un  estudio  de  Simulación.  

6. Desarrollo  temático  
 
6.1  Componente  motivacional  
Actualmente,  con  el  ánimo  de  minimizar  los  costos  en  los  procesos  de  toma  de  decisiones,  
las  organizaciones  han  desarrollado  metodologías  más  cuidadosas  en  las  que  se  disminuya  el  
riesgo   de   realización   pero   que   de   igual   manera   constituyan   un   soporte   real   a   decisiones  
tomadas  al  interior  de  la  compañía.  
 

 
[ SIMULACIÓN GERENCIAL ] 3
 

Por   ejemplo:   suponga   que   cierta   compañía   se   encuentra   analizando   la   posibilidad   de  


modificar   la   forma   como   se   encuentra   dispuesta   su   línea   de   producción   porque   considera  
que  actualmente  ésta  es  ineficiente  y  la  tasa  de  unidades  producidas  por  unidad  de  tiempo  
no  es  suficiente.  
 
Existen  dos  formas  de  tomar  la  decisión  de  realizar  el  cambio:  
1. Hacer   un   experimento   directamente   sobre   la   línea   de   producción,   es   decir,   realizar   las  
modificaciones   sobre   el   sistema,   moviendo   maquinaria,   realizando   ajustes   necesarios,  
realizando  pruebas.  
2. Hacer  un  experimento  sobe  un  modelo  que  represente  la  línea  de  producción,  es  decir,  
realizar   las   modificaciones   en   un   modelo   computarizado,   en   el   cual   no   se   deba   mover  
maquinaria  y  tampoco  ajustes  directos.  
 
Si   después   de   realizar   el   experimento   se   demuestra   que   el   cambio   propuesto   no   es   válido  
porque  no  se  logra  aumentar  la  tasa  de  producción,  es  evidente  que  con  la  opción  número  
uno,  la  inversión  y  el  tiempo  de  prueba  del  experimento  es  mucho  mayor  que  con  la  opción  
número  dos.  
 
A   partir   de   lo   anterior   resulta   relevante   que   el   egresado   del   Politécnico   Grancolombiano  
desarrolle   todas   las   habilidades   necesarias   para   emplear   herramientas   de   vanguardia   que  
permitan  a  las  compañías  ser  más  competitivas  dentro  del  mercado,  cualquiera  sea  en  el  que  
se  desarrolle.  
 

6.2  Recomendaciones  académicas  


Dentro   de   las   recomendaciones   generales   que   debe   seguir   el   estudiante   para   lograr   un  
excelente  desempeño  en  el  desarrollo  del  módulo,  tenemos  un  primer  paso  que  consiste  en  
realizar   la   evaluación   diagnóstica   del   módulo   pues   esta   le   permitirá   identificar   cuáles   son   sus  
fortalezas   y   acrecentarlas   y   por   supuesto   cuáles   son   sus   debilidades   para   enfrentarlas   y  
mejorarlas.  

Por  otra  parte,  con  el  objetivo  de  tener  una  excelente  comunicación  el  estudiante  deberá:  

• Aprovechar  el  chat  semanal  en  el  cual  se  tendrá  un  encuentro  sincrónico  con  el  tutor.  
• Presentar  sus  dudas  a  través  de  mensajes  personalizados  para  el  tutor.  
• Realizar   los   ejercicios   de   los   talleres   propuestos,   los   cuales   permitirán   reforzar   los  
conceptos  presentados  en  las  cartillas.  
 
Además,  el  estudiante  debe  tener  presente  que  la  educación  virtual  es  un  proceso  autónomo  
en  gran  medida  por  lo  cual  exige  un  nivel  de  compromiso  verdadero,    recuerden  que  1  hora  
de   educación   presencial   es   equivalente   a   3   horas   de   educación   virtual,   no   olviden   revisar  
semana   a   semana   las   actividades   recomendadas   así   como   las   fechas   para   entregas   del  

 
4   [ POLITÉCNICO GANCOLOMBIANO]
 

proyecto,   realización   de   quices,   parciales   y   examen   final   y   por   supuesto   la   participación   en  


los  foros  obligatorios  de  discusión.  
 

6.3    Desarrollo  de  cada  una  de  las  unidades  temáticas.    


 
INTRODUCCIÓN  
El  modelamiento  es  el  arte  de  diseñar  una  representación  simplificada  de  un  sistema  real  con  
el  propósito  de  predecir  el  comportamiento  futuro  de  tal  sistema,  a  través  del  análisis  de  sus  
medidas   de   desempeño.   Dicha   representación   es   un   modelo.     Los   modelos   son   utilizados  
para  capturar  ciertos  aspectos  del  comportamiento  del  sistema  –  los  que  son  de  interés  para  
el  analista-­‐  y  de  esta  manera  se  adquiere  un  mayor  entendimiento  de  su  funcionamiento.  
   
El   modelaje   requiere   dos   competencias   fundamentales:   Abstracción   y   Simplificación.   Estas  
habilidades  deben  ser  aplicadas  teniendo  en  cuenta  el  contexto  en  el  cual  se  desenvuelve  la  
situación   o   el   sistema   de   interés.   Es   decir,   si   cada   elemento   del   sistema   en   estudio,   se  
reprodujera  en  un  modelo  tan  detallado  en  el  orden  de  minuto  a  minuto,  el  costo  del  modelo  
sería   equivalente   al   costo   del   sistema   real,   lo   que   implicaría   que   el   modelaje   fuese   una  
alternativa   poco   atractiva   o   nada   viable.     Por   lo   tanto,   cabe   aclarar   cuáles   son   las  
circunstancias   en   las   cuales   hay   motivaciones   para   recurrir   a   la   metodología   del   modelaje   de  
sistemas.  Tales  motivaciones  se  resumen  a  continuación:  

• Evaluar  el  desempeño  de  un  sistema  bajo  condiciones  usuales  e  inusuales.  Un  modelo  
se  puede  convertir  en  una  necesidad  si  la  operación  rutinaria  de  un  sistema  real  bajo  
análisis,  no  puede  ser  interrumpida  sin  generar  consecuencias  severas.  (Por  ejemplo,  
intentar   implementar   una   modificación   a   una   línea   de   producción   cuando   se   está  
tratando  de  cumplir  fechas  de  entrega  muy  próximas).  
• Predecir  el  desempeño  de  sistemas  experimentales.  Cuando  el  sistema  de  interés  aún  
no   existe,   la   construcción   del   modelo   es   mucho   más   económica   y   segura   que   la  
construcción  del  sistema  real  o  incluso,  de  su  prototipo.  
• Evaluar   múltiples   alternativas   de   diseño.   Este   caso   está   relacionado   con   el   anterior,  
sólo   que   la   motivación   económica   es   mucho   mayor.   Los   resultados   del   desempeño  
potencial  del  sistema  son  evaluados  junto  con  indicadores  de  costo-­‐beneficio.  

Los  modelos  pueden  tener  varias  tipificaciones,  entre  ellas  se  encuentran:  

• Modelos  físicos:  Corresponden  a  objetos  físicos  simplificados  o  a  escala  (por  ejemplo,  


aviones  a  escala  o  maquetas).  
• Modelos   analíticos:   Es   un   conjunto   de   ecuaciones   o   relaciones   entre   variables   de   tipo  
matemático.  

Un   modelo   de   simulación,   objeto   principal   de   este   curso,   es   un   caso   especial   de   los   modelos  
de   tipo   analítico.   Mientras   que   los   modelos   enteramente   matemáticos   se   enfocan   en   la  

 
[ SIMULACIÓN GERENCIAL ] 5
 

obtención  de  soluciones  óptimas  del  problema  a  través  de  procedimientos  algorítmicos,  los  
modelos   de   simulación   buscan   soluciones   aproximadas   a   instancias   muestrales   específicas  
del   sistema   en   estudio.   Para   aclarar   esta   diferencia,   supóngase   que   se   desea   estudiar   una  
línea  de  producción,  la  cual  conceptualmente  se  puede  modelar  como  un  sistema  de  colas.    
El   enfoque   matemático   crearía   un   modelo   analítico   de   colas,   representado   a   través   de  
sistemas   de   ecuaciones   y   variables   de   decisión   y   mediante   la   aplicación   de   técnicas  
matemáticas  de  optimización  se  encuentran  las  soluciones  al  problema  planteado.  El  modelo  
de   simulación   crearía   una   representación   computacional   del   sistema   de   colas   y   la   correría   un  
número  de  veces  suficiente  de  tal  forma  que  los  resultados  permitan  afirmar  que  el  modelo  
es  una  fiel  representación  (muestra)  del  sistema  en  estudio.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Figura  1.  Formas  de  estudiar  un  sistema  
 

2.¿QUÉ  ES  SIMULACIÓN?  


Simular   es   imitar   la   operación   de   un   proceso   o   sistema   real.   Implica   la   generación   de   una  
historia   “artificial”   del   sistema   y   mediante   observación   de   esa   historia   se   realizan   inferencias  
de  las  características  y  desempeños  del  sistema  en  estudio.  Con  base  en  esta  definición  y  en  
lo   explicado   en   párrafos   anteriores,   se   puede   afirmar   que   la   simulación   debe   utilizarse   con  
los  siguientes  propósitos:  
 

 
6   [ POLITÉCNICO GANCOLOMBIANO]
 

• Estudiar  y  experimentar  con  las  interacciones  de  un  sistema  complejo  


• Observar  el  efecto  de  las  alteraciones  al  sistema  en  el  modelo  
• Tener  conocimiento  del  comportamiento  del  sistema  
• Experimentar  nuevas  políticas  o  nuevos  diseños  antes  de  su  implementación  
• Determinar  requerimientos  de  capacidad  
• Entrenamiento  y  aprendizaje.  

Sin   embargo,   debe   tenerse   presentes   aquellas   circunstancias   en   las   cuales   no   sería  
conveniente  la  aplicación  de  la  simulación  como  metodología  de  estudio  de  los  sistemas,  a  
saber:  

• El  problema  puede  resolverse  por  sentido  común  


• El  problema  puede  ser  abordado  y  resuelto  analíticamente  
• Es  más  fácil  realizar  experimentación  directa  
• No  hay  tiempo  o  recursos    para  realizar  los  estudios  
• No  hay  datos  disponibles.  

Dentro  de  las  áreas  de  aplicación  más  relevantes  de  la  simulación  se  pueden  enumerar:  

• Industria  manufacturera  
• Construcción  y  administración  de  proyectos  
• Industria  militar  
• Logística,  cadena  de  abastecimiento  y  distribución  
• Transporte  
• Procesos  de  negocio  
• Servicios  de  salud  
• Redes  de  telecomunicaciones  
• Análisis  de  call  centers.  

Terminología  básica:  

 Sistema:   Grupo   de   objetos   que   relacionados   entre   sí   ordenadamente   contribuyen   al  


cumplimiento  de  determinado  objetivo,  por  ejemplo,  una  línea  de  producción,  una  oficina  
bancaria,  etc.  
 Entidad:   Un   objeto   de   interés   en   el   sistema,   por   ejemplo,   una   pieza   de   la   línea   de  
producción.  
 Atributo:  Un  rasgo  o  característica  de  la  entidad.  
 Estado  del  sistema:  Conjunto  de  variables  necesarias  para  describir  el  sistema  en  cualquier  
momento.  
 Evento:  Suceso  que  puede  cambiar  el  estado  del  sistema.  
 Recurso:  Objeto  del  sistema  que  transforma  o  presta  servicio  a  la  entidad.  
 Sistema   Discreto:   Aquel   donde   la   variable   de   estado   cambia   en   un   conjunto   discreto   de  
puntos   en   el   tiempo,   por   ejemplo,   el   número   de   clientes   disminuye   en   una   oficina  

 
[ SIMULACIÓN GERENCIAL ] 7
 

bancaria  si  un  cliente  ya  termina  su  transacción  y  sale  de  la  instalación  en  el  instante  t.  Por  
lo  tanto,  dicha  oficina  podría  considerarse  un  sistema  discreto.  
 Sistema  Continuo:  Aquel  donde  la  variable  de  estado  cambia  continuamente  en  el  tiempo,  
por  ejemplo,  el  nivel  de  agua  de  una  represa.  

Tipos  de  Modelos  de  Simulación  

1. Según  la  naturaleza  de  los  parámetros:  


 Determinísticos:  Los  datos  de  entrada  son  conocidos  con  plena  certeza.  
 Estocásticos:   Los   datos   tienen   un   grado   de   incertidumbre   tal   que   deben   ser  
manejados  como  variables  aleatorias.  
 
2. Según  el  carácter  evolutivo  del  modelo:  
 Estáticos:   El   modelo   evoluciona   sin   tener   en   cuenta   los   cambios   que   genera   el  
paso  del  tiempo.  (Simulación  Monte  Carlo).  
 Dinámicos:   Las   variables   de   estado   cambian   en   la   medida   que   el   tiempo  
transcurre.  
 
3. Según  el  tipo  de  variable  de  estado:  
 Discretos:  La  variable  de  estado  cambia  en  un  conjunto  discreto  de  puntos  
 Continuos:  La  variable  de  estado  cambia  continuamente  en  el  tiempo.  

Cabe  aclarar  que,  según  esta  tipificación,  el  enfoque  de  este  módulo  está  encaminado  hacia  
el   diseño   y   la   construcción   de   modelos   estocásticos,   dinámicos   y   discretos,   características  
fundamentales  del  paradigma  de  la  Simulación  de  Eventos  Discretos.  
 

3. PASOS  DE  UN  ESTUDIO  DE  SIMULACIÓN  

Como   se   mencionó   inicialmente,   el   modelaje   incluido   el   de   simulación,   es   una   actividad  


complicada   que   combina   arte   y   ciencia.   Sin   embargo,   desde   una   óptica   más   general,   el  
proceso   para   llevar   a   cabo   un   estudio   de   simulación   se   puede   resumir   en   los   siguientes  
pasos:  

1. Formulación  del  problema.  Este  primer  paso  consiste  esencialmente  en  el  análisis  del  
sistema  y  definición  del  problema  a  resolver.    
2. Fijación  de  los  objetivos.  En  esta  fase,  se  define  el  alcance  del  estudio,  y  las  fronteras  
del  problema  que  va  a  ser  abordado.  Es  decir,  debe  determinarse  cuáles  instancias  del  
problema  se  van  a  estudiar  y  solucionar.  
3. Conceptualización   del   modelo.   En   esta   etapa   se   incluyen   actividades   tales   como   la  
identificación   de   los   parámetros   de   entrada,   las   medidas   de   desempeño   de   interés,  
establecimiento   de   las   relaciones   entre   los   parámetros   y   variables.   La   información  
aquí  se  puede  representar  en  diagramas  de  flujo  o  árboles  jerárquicos.  

 
8   [ POLITÉCNICO GANCOLOMBIANO]
 

4. Recolección   de   información.   Es   una   de   las   fases   más   importantes   y   críticas   del  


estudio,   ya   que   producto   de   esta   etapa   está   la   estimación   de   los   parámetros   de  
entrada  del  modelo,  y  dependiendo  de  la  calidad  de  la  información  recogida,  está  el  
éxito  de  los  resultados  del  modelo.  En  esta  fase,  el  analista  hace  presunciones  sobre  
las   distribuciones   de   probabilidad   de   los   datos   recolectados   y   luego,   a   través   de  
pruebas  de  hipótesis,  corrobora  o  rechaza  los  supuestos  planteados.  
5. Construcción   del   modelo.   Una   vez   el   problema   ha   sido   analizado   y   la   información  
procesada,   se   procede   a   construir   el   modelo   e   implementarlo   en   un   programa  
computacional.  Este  programa  puede  ser  un  lenguaje  de  programación  general  (C++,  
Visual   Basic,   Java,   entre   otros),   o   un   software   especializado   de   simulación   (Arena,  
Promodel,  ExtendSim,  entre  otros).  
6. Verificación   del   modelo.   El   propósito   de   esta   fase   consiste   en   asegurarse   que   el  
modelo   está   diseñado   y   construido   correctamente.   Esta   verificación   es   una   labor  
delicada   de   inspección   y   radica   en   la   comparación   del   código   de   modelo   con   la  
especificación  del  mismo.  
7. Validación  del  modelo.  La  validación  examina  el  grado  de  ajuste  del  modelo  con  los  
datos   empíricos   del   sistema.   Es   decir,   compara   el   desempeño   del   modelo   con   la  
información  real  arrojada  por  el  sistema  en  estudio.  
8. Diseño   de   experimentos.   Una   vez   validado   y   calibrado   el   modelo,   el   analista   procede  
con  la  planeación  y  el  diseño  de  las  experimentaciones  que  se  llevarán  a  cabo  sobre  
el   modelo   de   simulación.   En   esta   etapa   se   definen   los   distintos   escenarios   en   los  
cuales  se  va  a  analizar  el  desempeño  del  modelo,  así  como  el  número  de  réplicas  o  
corridas  que  se  ejecutarán  con  el  propósito  de  garantizar  la  confiabilidad  del  estudio.  
9. Corridas   y   análisis   de   resultados.   En   esta   fase   se   ejecutan   las   corridas   oficiales   del  
modelo,   cuyos   resultados   serán   el   objeto   de   análisis,   de   naturaleza   estadística  
principalmente.  Una  actividad  típica  de  esta  fase  consiste  en  la  determinación  de  la  
mejor   alternativa   mediante   la   comparación   de   los   desempeños   de   todas   las  
alternativas  estudiadas.  

 
 
 
 
   
 
 
 
 
 
 
 
 

 
[ SIMULACIÓN GERENCIAL ] 9
 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Figura  2.  Pasos  de  un  estudio  de  simulación  

 
4. SIMULACIÓN  DE  MONTECARLO  

La   Simulación   de   Montecarlo   es   una   técnica   cuantitativa   que   hace   uso   de   muestreos  


estadísticos   para   imitar,   mediante   modelos   matemáticos,   el   comportamiento   aleatorio   de  
sistemas  reales  no  dinámicos.  
 
Generalmente   en   estadística,   los   modelos   aleatorios   se   usan   para   simular   fenómenos   que  
poseen   algún   componente   aleatorio.   Pero   en   la   Simulación   de   Montecarlo   el   objeto   de   la  
investigación  es  el  objeto  en  sí  mismo,  es  decir,  un  suceso  aleatorio  o  pseudo-­‐aleatorio  se  usa  
para  estudiar  el  modelo.  
 
La   clave   de   la   Simulación   de   Montecarlo   consiste   en   crear   un   modelo   matemático   del  
sistema,  proceso  o  actividad  que  se  quiere  analizar,  identificando:  
 

 
10   [ POLITÉCNICO GANCOLOMBIANO]
 

• Variables   de   Entrada   (Inputs   del   modelo):   Son   aquellas   cuyo   comportamiento  


aleatorio  determina  el  comportamiento  global  del  sistema.  Se  utilizan  por  medio  de  
la  Generación  de  números  y  variables  aleatorias.  
• Variables   de   Resultado   (Outputs   del   modelo):   Son   aquellas   que   dependen   de   las  
variables   aleatorias   y   que   sirven   para   medir   el   desempeño   del   sistema   que   se   está  
modelando.   Se   debe   tener   en   cuenta   que,   estas   variables   dependen   del  
comportamiento   aleatorio   de   las   variables   de   entrada,   por   lo   que   su   resultado  
siempre  será  aleatorio.  
• Resultados  de  la  Simulación  (Experimento):  Analizar  el  comportamiento  del  sistema  
ante  los  valores  generados.  El  objetivo  es  repetir  n  veces  el  experimento  obteniendo  
n   observaciones   sobre   el   comportamiento   del   sistema.   Los   resultados   serán   más  
precisos  cuanto  mayor  sea  el  número  n  de  experimentos  que  llevemos  a  cabo.    

La  Simulación  de  Montecarlo  se  puede  utilizar  de  acuerdo  a  los  siguientes  algoritmos:  
 
• Simulación   de   Montecarlo   Pura:   Está   fundamentada   en     la   generación   de   números  
aleatorios   por   el   método   de   Transformación   Inversa,   el   cual   se   basa   en   las  
distribuciones  acumuladas  de  frecuencias.  Dicho  tema  se  verá  más  adelante.  
• Combinación  de  Variables  Aleatorias:  Cuando  el  resultado  de  la  simulación  se  da  por  
la  combinación  de  las  VA,  se  debe  realizar  y  verificar:  
 
- Desarrollar  un  modelo  conceptual  o  lógico  de  decisión  
- Construir   un   modelo,   especificando   la   relación   entre   las   variables   y   las  
distribuciones  de  probabilidad  para  las  variables  aleatorias  
- Verificar  y  validar  el  modelo  
- Diseñar  experimentos  utilizando  el  modelo  
- Analizar  los  resultados  y  concluir.  
 
Las   principales   características   a   tener   en   cuenta   para   la   implementación   o   utilización   de   la  
SMC  son:  
 
• El   sistema   debe   ser   descripto   por   1   o   más   funciones   de   distribución   de   probabilidad  
(FP).  
• Las   técnicas   de   generación   de   Números   aleatorios   o   pseudo–aleatorios   debe   ser  
correcta  y  no  debe  existir  correlación  entre  los  valores  muéstrales.  
• Establecer   límites   y   reglas   de   muestreo   para   las   FP,   es   decir,   se   debe   definir   que  
valores  pueden  adoptar  las  Variables  Aleatorias.  
• Estimación   del   error   (¿Con   qué   error   trabajamos?   ¿Cuánto   error   podemos   aceptar  
para  que  una  corrida  sea  válida?)  
 
 
 

 
[ SIMULACIÓN GERENCIAL ] 11
 

A  continuación  se  presentan  dos  ejemplos  de  Simulación  de  Montecarlo:  


 
Ejemplo   1   (Simulación   de   Montecarlo   Pura):   Se   tiene   la   siguiente   distribución   de  
probabilidades   para   una   demanda   aleatoria   (diaria)   y   queremos   ver   qué   sucede   con   el  
promedio  de  la  demanda  en  varias  iteraciones:  
 
Frecuencia  
Unidades   Frecuencia  
Acumulada  
42   0,1   0,1  
45   0,2   0,3  
48   0,4   0,7  
51   0,2   0,9  
54   0,1   1  
Figura  3.  Demanda  y  Probabilidades  -­‐  Ejemplo  1  
 
Generando  los  valores  aleatorios  vamos  a  ver  cómo  se  obtiene  el  valor  de  la  demanda  para  
cada  día:  
 
Número   Valor  de  la  
Iteración  
Aleatorio  [R]   Demanda  

1   0,886   51  

2   0,021   42  

…   …   …  

n   0,225   45  
Figura  4.  Demanda  y  Probabilidades  -­‐  Ejemplo  1  
 
Si  se  aumenta  el  número  de  réplicas,  los  resultados  obtenidos  son:  
 
Iteración   Media   Desviación   Error  

10   48,60   3,41   1,078  


100   48,12   3,16   0,316  
1000   47,87   3,28   0,104  

 
12   [ POLITÉCNICO GANCOLOMBIANO]
 

10000   47,87   3,30   0,033  


Figura  5.  Resultados  e  Iteraciones  -­‐  Ejemplo  1  
 
Ejemplo  2  (Combinación  de  Variables  Aleatorias):  La  compañía  Plásticos  de  Colombia  S.A.,  se  
dedica   a   la   fabricación   de   productos   plásticos   y   telas   vinílicas.   En   la   actualidad,   están  
analizando   la   posibilidad   de   lanzar   un   nuevo   producto   llamado   impermeable   plástico   (en  
colores   amarillo   y   negro).   Este   producto   puede   ser   utilizado   como   protector   solar   o   como  
recubrimiento  para  la  lluvia  por  las  personas  y  las  industrias.    
 
Teniendo   en   cuenta   que   es   un   producto   nuevo,   la   gerencia   de   la   compañía   ha   analizado   la  
situación   y   ha   encontrado   que   para   fabricarlo   se   requiere   de   una   máquina   especializada,   con  
la  que  no  se  cuenta  en  la  actualidad.  Por  lo  tanto,  han  definido  como  alternativa  arrendar  la  
máquina  que  se  requiere.  
 
La   compañía   ha   identificado   dos   modelos   de   máquinas   que   se   ajustan   a   las   necesidades  
actuales   de   producción   de   impermeable   de   color   negro   y   de   color   amarillo.   La   primera  
alternativa  es  arrendar  la  máquina  TX-­‐1.  Esta  máquina  tiene  una  capacidad  de  producción  de  
32.000  metros  al  mes,  y  su  costo  de  leasing  es  1’950.000/mes.  
 
La  segunda  alternativa  es  arrendar  la  máquina  TX-­‐2.  Esta  máquina  tiene  un  costo  de  leasing  
más  bajo  $1’650.000.  Su  capacidad  de  producción  es  mayor  (5.000  metros  más  que  la  TX-­‐1).  
 
Para   estimar   el   comportamiento   de   la   demanda   del   nuevo   producto,   la   compañía   ha  
recolectado   información   sobre   la   demanda   esperada   por   mes   del   impermeable   plástico  
negro   y   la   demanda   de   impermeable   amarillo,   y   ha   encontrado   los   siguientes   resultados  
respecto  al  comportamiento  de  cada  mercado:  
 
•  Color  Amarillo:  Mínimo  12000  metros,  máximo  21000  metros,  y  valor  más  probable  18000  
metros.  
 
•  Color  Negro:  Entre  17000  y  23000  metros  
 
Adicionalmente,   la   compañía   estima   que   el   precio   de   venta   por   metro   de   impermeable  
amarillo  es  de  $2500,  y  el  precio  de  venta  por  metro  de  impermeable  negro  es  de  $2300.  
 
Los   costos   unitarios   asociados   con   la   producción   en   cada   máquina   se   presentan   a  
continuación:  
 
Costos  Variables   TX-­‐  1   TX  -­‐  2  
Distribución   Normal   Normal  

 
[ SIMULACIÓN GERENCIAL ] 13
 

Media   $  950   $  1.100  


Desviación  Estándar   $  90   $  25  
Figura  6.  Distribución  de  los  Costos  Variables  -­‐  Ejemplo  2  
 
 
¿Qué  decisión  debe  tomar  la  compañía?  
 
El  modelo  Conceptual  sería:  
 
Ítem   Alternativa  1  -­‐  TX-­‐1   Alternativa  2  -­‐  TX-­‐2  
Arriendo   $                        2.100.000   $                        2.500.000  
Servicios   $                              300.000   $                              450.000  
Imp.  Negro   $                                                -­‐   $                                                -­‐  
Costo  
Producción   Imp.  
$                                                -­‐  
Amarillo    
Imp.  Negro   $                                      1.400   $                                      1.400  
Precio  Venta   Imp.  
$                                      2.300  
Amarillo    
Imp.  Negro   $                                                -­‐   $                                                -­‐  
Metros  
Demandados   Imp.  
$                                                -­‐  
Amarillo    
Ganancia  
$                      (2.400.000)   $                      (2.950.000)  
Esperada    
 
Figura  7.  Modelo  Conceptual  -­‐  Ejemplo  2  
 
 
 
 
 
 
 
 
 
 
 
 

 
14   [ POLITÉCNICO GANCOLOMBIANO]
 

Obteniendo  como  resultado:  


 
 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Figura  8.  Ganancia  Esperada  –  TX  1  -­‐  Ejemplo  2  
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 
 
 
 
 
Figura  9.  Ganancia  Esperada  –  TX  2  -­‐  Ejemplo  2  

 
[ SIMULACIÓN GERENCIAL ] 15
SIMULACIÓN
GERENCIAL
 

 
 
Simulación de Montecarlo – Líneas de Espera
 

 
 
 
 

   
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• SIMULACIÓN  DE  MONTECARLO  –  LÍNEAS  DE  


ESPERA  
 

1. Índice  
1. Introducción  a  Líneas  de  Espera  
2. Simulación  de  Montecarlo  aplicada  a  un  modelo  de  Líneas  de  Espera  
3. Variables  de  Resultado.  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  una  de  las  aplicaciones  
más  utilizadas  de  la  Simulación  de  Montecarlo,  como  lo  es  el  análisis  de  las  líneas  de  espera.  
Para   poder   realizar   esta   aplicación   es   importante   recordar   la   temática   de   líneas   de   espera,  
con  el  objetivo  de  que  el  caso  presentado  sea  asimilado  por  los  estudiantes  de  manera  fácil  y  
sin  complicaciones.  

Finalmente,  se  mostrarán  cuáles  son  las  variables  de  resultados  en  dicha  aplicación  y  cómo  se  
calculan  estas  medidas  de  desempeño  del  sistema  bajo  análisis.  
 
3. Metodología  
 
La   cartilla   presentará   de   forma   estructurada   los   conceptos   básicos   para   analizar   el   sistema  
de  Líneas  de  Espera.  Para  esto,  empezará  presentando  conceptos  generales  de  los  sistemas  
de  Líneas  de  Espera,  para  entender  la  dinámica  de  esta  clase  de  sistemas  y  poder  realizar  una  
abstracción  y  simplificación  del  sistema  en  cuestión.  Habiendo  definido  la  metodología  de  los  
sistemas  de  líneas  de  espera,  se  procederá  con  el  análisis  del  sistema  en  cuestión  por  medio  
de  la  aplicación  de  la  simulación  de  Montecarlo.  
 
Finalmente,   se   presentará   al   estudiante   el   concepto   de   variable   de   resultado   y   cómo   estimar  
el  desempeño  de  un  sistema  de  Líneas  de  Espera.  
 
4. Objetivo  general  

Al   finalizar   el   módulo   los   estudiantes   conocerán   una   aplicación   de   la     simulación   de  


Montecarlo.   Adicionalmente,   comenzarán   a   desarrollar   las   habilidades   para   plantear  
modelos  de  simulación  e  identificar  las  variables  de  entrada  y  las  variables  de  resultado.  
Al  finalizar  la  segunda  semana  de  aprendizaje:  

1. Conocer  una  de  las  principales  aplicaciones  de  simulación  de  Montecarlo.  

 
2   [ POLITÉCNICO GANCOLOMBIANO]
 

2. Plantear   un   modelo   de   simulación   de   Montecarlo,   identificando   las   variables   de  


entrada  y  las  variables  de  resultado.  
3. Encontrar  cuáles  son  las  medidas  de  desempeño  del  sistema  de  líneas  de  espera.  

5. Desarrollo  temático  
5.1  Recomendaciones  académicas.  
 
Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información   relevante   que   se   evaluará   en   la   semana,   adicional   a   esto   debe   revisar   las  
teleconferencias   así   como   las   video-­‐diapositivas,   pues   estas   son   un   medio   que   puede   aclarar  
las  dudas  generadas  con  la  lectura  o  también  dar  soporte  a  los  temas  expuestos  en  la  misma.  
Por  otra  parte,  con  el  objetivo  de  tener  una  excelente  comunicación  el  estudiante  deberá:  

• Aprovechar  el  chat  semanal  en  el  cual  se  tendrá  un  encuentro  sincrónico  con  el  tutor.  
• Presentar  sus  dudas  a  través  de  mensajes  personalizados  para  el  tutor.  
• Realizar   los   ejercicios   de   los   talleres   propuestos,   los   cuales   permitirán   reforzar   los  
conceptos  presentados  en  las  cartillas.  
 
Además,  el  estudiante  debe  tener  presente  que  la  educación  virtual  es  un  proceso  autónomo  
en  gran  medida  por  lo  cual  exige  un  nivel  de  compromiso  verdadero,    recuerden  que  1  hora  
de   educación   presencial   es   equivalente   a   3   horas   de   educación   virtual,   no   olviden   revisar  
semana   a   semana   las   actividades   recomendadas   así   como   las   fechas   para   entregas   del  
proyecto,  realización  de  quices,  parciales  y  examen  final  y,  por  supuesto,  la  participación  en  
los  foros  obligatorios  de  discusión.  
 

5.2    Desarrollo  de  cada  una  de  las  unidades  temáticas.    


 

1.INTRODUCCIÓN  A  LÍNEAS  DE  ESPERA  

Un  sistema  de  colas,  desde  su  concepción  más  simple,  se  puede  describir  como  un  sistema  al  
cual   los   clientes   llegan   cada   intervalo   de   tiempo   y   se   unen   a   una   línea   de   espera   en   busca   de  
ser  atendidos  por  medio  de  un  servidor;  tan  pronto  finaliza  el  servicio,  el  cliente  abandona  el  
sistema.  Esta  descripción  simplificada  se  puede  ver  representada  en  la  siguiente  gráfica:  

 
[ SIMULACIÓN GERENCIAL ] 3
 

 
 

 
Servidor
Fila de client es
Población de client es pot enciales
 
 
Figura  1.  Figura  simple  de  colas  
 
Los   elementos   clave   de   este   tipo   de   sistemas   son   los   clientes   y   los   servidores.   El   término  
cliente   puede   referirse   a   personas,   máquinas,   camiones,   piezas,   aviones,   correos  
electrónicos,   pedidos,   llamadas,   etc.   El   término   servidor   puede   hacer   referencia   a  
recepcionistas,   cajeros,   mecánicos,   enfermeras,   médicos,   etc.   En   resumen,   el   cliente   es   la  
entidad   u   objeto   que   requiere   un   servicio   o   una   transformación;   esta   transformación   es  
ejecutada  por  el  servidor.  
 
El   sistema   es   alimentado   desde   una   población   infinita   de   clientes   potenciales.   Esto   quiere  
decir  que  si  una  unidad  deja  la  población  y  se  une  a  la  fila  de  clientes,  no  hay  cambio  en  la  
tasa   de   llegadas   de   las   otras   unidades   que   vayan   a   requerir   el   servicio.   Las   llegadas   de   los  
clientes   ocurren   una   a   la   vez   y   de   forma   aleatoria;   se   unen   a   la   cola   en   espera   de   que  
eventualmente   sean   atendidos.   El   tiempo   de   servicio   o   de   proceso,   que   es   el   tiempo   que  
demora   el   servidor   en   procesar   o   atender   un   cliente,   también   tiene   un   comportamiento  
aleatorio   de   acuerdo   con   una   distribución   de   probabilidad.   La   capacidad   del   sistema   se  
asume   infinita,   lo   que   implica   que   el   número   de   clientes   puede   ser   cualquier   cantidad.  
Finalmente,  los  clientes  son  atendidos  en  orden  de  llegada,  lo  que  quiere  decir  que  el  sistema  
tiene  una  disciplina  FIFO  (First  In  First  Out)  o  primeros  en  llegar,  primeros  en  salir.  
 
Ahora   bien,   es   necesario   aterrizar   los   conceptos   estudiados   en   la   lectura   anterior,  
relacionados   con   el   estado   del   sistema   y   eventos.   El   estado   del   sistema   se   representa   a  
través  de  las  variables  de  estado.  Estas  variables,  para  el  caso  específico  del  sistema  simple  
de   colas,   corresponden   al   número   de   unidades   en   el   sistema   y   el   estado   del   servidor,  
ocupado  o  desocupado.  Un  evento  es  un  conjunto  de  circunstancias  que  provocan  cambios  
en   el   estado   del   sistema.   Para   este   ejemplo,   sólo   hay   dos   posibles   eventos   que   pueden  
afectar   tales   cambios:   la   entrada   de   una   unidad   al   sistema   (evento   de   llegada)   y   la  
finalización  un  servicio  (evento  de  salida).  
 

 
4   [ POLITÉCNICO GANCOLOMBIANO]
 

Cuando   se   ha   completado   el   servicio   de   un   cliente,   la   simulación   se   ejecuta   tal   como   se  


muestra  en  el  siguiente  diagrama  de  flujo:  
 

 
Figura  2.  Diagrama  de  flujo  del  servicio  completado  
 
Por   otro   lado,   cuando   un   cliente   entra   al   sistema,   la   simulación   se   ejecuta   siguiendo   la   lógica  
mostrada  en  el  siguiente  diagrama.  
 
 
 

 
 
Figura  3.  Diagrama  de  flujo  del  evento  de  llegada  
 
A   esta   altura   surge   la   siguiente   pregunta:   ¿cómo   pueden   estos   eventos   descritos  
anteriormente  ocurrir  en  tiempo  simulado?  
 
La  simulación  de  los  sistemas  de  colas  requiere,  generalmente,  la  utilización  de  una  lista  de  
eventos   para   determinar   qué   ocurrirá   después   de   que   se   presente   un   evento.   La   lista   de  
eventos  lleva  el  registro  de  los  instantes  de  tiempo  futuros  en  los  cuales  pueden  ocurrir  los  
eventos.  Estos  tiempos  hacen  referencia  a  los  tiempos  de  llegada  de  los  clientes  y  al  tiempo  
de  servicio.  Como  se  mencionó  anteriormente,  estos  tiempos  son  de  carácter  aleatorio,  por  

 
[ SIMULACIÓN GERENCIAL ] 5
 

lo   que   deben   ser   caracterizados   a   través   de   distribuciones   de   probabilidad.   Para   representar  


esta   incertidumbre   en   los   tiempos   de   ocurrencia   de   los   eventos,   la   simulación   utiliza   la  
generación   de   números   aleatorios.   Los   números   aleatorios   están   distribuidos   uniforme   e  
independientemente   en   el   intervalo   [0,1],   lo   que   quiere   decir   que   todos   y   cada   uno   de   los  
números   reales   que   se   encuentre   en   ese   intervalo   tienen   la   misma   probabilidad   de   ser  
generados.  Existen  múltiples  formas  de  generar  números  aleatorios,  desde  el  lanzamiento  de  
un  dado  (generaría  números  aleatorios  uniformes  de  1  a  6)  hasta  la  aplicación  de  paquetes  
computacionales,  como  el  caso  de  la  función  ALEATORIO()  de  Excel.  
 
En  el  siguiente  ejemplo,  se  aplicarán  los  conceptos  de  lista  de  eventos  y  números  aleatorios  
para  realizar  una  simulación  manual  de  un  sistema  simple  de  colas.  
 

2. SIMULACIÓN  DE  MONTECARLO  APLICADA  A  UN  MODELO  DE  LÍNEAS  DE  ESPERA  

 
Se  tiene  una  caja  de  pago  en  un  supermercado  y  se  quiere  simular  su  operación.  Para  generar  
de  manera  aleatoria  los  tiempos  entre  llegadas  de  los  clientes    y  los  tiempos  de  servicio  se  
lanza  un  dado  para  cada  cliente.  Supóngase  que  se  va  a  simular  el  servicio  a  seis  clientes  y  
que  los  tiempos  generados  mediante  el  dado  fueron  los  siguientes:  
 
Client Tiempo   entre   llegadas   Tiempo   de   servicio  
e   (minutos)   (minutos)  
1   -­‐   2  
2   2   1  
3   4   3  
4   1   2  
5   2   1  
6   6   4  
 
Obsérvese  que  los  números  generados  están  en  el  intervalo  [0,6].  Si  se  asume  que  el  dado  no  
está  cargado,  entonces  se  puede  afirmar  que  la  probabilidad  de  que  salga  cualquier  número  
en  el  dado  después  de  un  lanzamiento,  es  de  tipo  uniforme.  
 
Cabe   resaltar   también   que   en   lo   que   respecta   a   los   tiempos   de   llegadas,   lo   realmente  
aleatorio   a   registrar   es   el   tiempo   que   transcurre   entre   la   llegada   de   dos   clientes  
consecutivos.   Es   decir,   cuando   ocurre   la   llegada   de   un   cliente   al   sistema,   no   se   sabe   con  
certeza  en  qué  instante  llegará  el  siguiente  cliente  y  así  sucesivamente.  Por  eso,  en  la  tabla  
anterior,   se   enuncia   la   columna   Tiempo   entre   llegadas,   y   el   primer   cliente   no   tiene   dicho  
tiempo  precisamente  por  ser  el  primero  y  no  tiene  punto  de  referencia.  En  este  caso,  para  
efectos  de  la  simulación,  se  asume  que  el  primer  cliente  llega  en  el  minuto  cero.  
 

 
6   [ POLITÉCNICO GANCOLOMBIANO]
 

Con   base   en   lo   anterior,   la   lista   de   eventos   se   puede   resumir   en   la   siguiente   tabla   de  


simulación  manual:  
 
Cliente   Tiempo   Tiempo   Hora   de   Hora   Tiempo   en   Hora  
entre   de   llegada   inicio   cola   finalizació
llegadas   servicio   servicio   n  servicio  
1   -­‐   2   0   0      
2   2   1   2        
3   4   3   6        
4   1   2   7        
5   2   1   9        
6   6   4   15        
 
Esta   primera   tabla   corresponde   a   las   condiciones   de   arranque   de   la   simulación.   Obsérvese  
que  la  hora  de  llegada  puede  calcularse  desde  ya  para  todos  los  clientes.  
 
 
Cliente   Tiempo   Tiempo   Hora   de   Hora   Tiempo   en   Hora  
entre   de   llegada   inicio   cola   finalizació
llegadas   servicio   servicio   n  servicio  
1   -­‐   2   0   0   0   2  
2   2   1   2   2   0   3  
3   4   3   6   6   0   9  
4   1   2   7   9   2   11  
5   2   1   9   11   2   12  
6   6   4   15   15   0   19  
 
Las  columnas  sombreadas  corresponden  a  la  hora  registrada  por  el  reloj  de  la  simulación.  Por  
ejemplo,  el  primer  cliente  llega  en  el  minuto  t  =  0;  como  es  el  primero  en  llegar,  no  hay  nadie  
delante   de   él,   por   lo   tanto,   no   debe   hacer   cola   y   por   ende,   su   servicio   empieza  
inmediatamente,   es   decir,   también   en   el   minuto   t   =   0.   (Debido   a   que   la   hora   de   llegada   es  
igual   a   la   hora   de   inicio   del   servicio,   el   tiempo   en   cola   es   igual   a   cero).   Como   el   tiempo   de  
servicio  simulado  es  de  2  minutos,  entonces  el  servicio  del  primer  cliente  finaliza  en  el  minuto  
t  =  2.  
 
¿Qué  ocurre  ahora  para  el  cliente  número  2?  Obsérvese  primero  que  la  hora  de  llegada  es  la  
suma   acumulada   de   la   columna   de   los   tiempos   entre   llegadas.   Es   decir,   el   segundo   cliente  
llega   2   minutos   después   que   el   primero,   o   sea,   en   el   minuto   t   =   2;   el   tercer   cliente   llega   4  
minutos   después   que   el   segundo   cliente,   o   sea,   en   el   minuto   t   =   6;   y   así   sucesivamente.   El  
segundo   cliente   llega   en   t   =   2   minutos.   Lo   que   debe   corroborarse,   según   los   diagramas   de  
flujo   arriba   descritos,   es   si   el   servidor   no   está   ocupado   para   que   inicie   el   servicio.   La   mejor  
forma  de  hacer  esta  comprobación  es  verificar  la  hora  de  finalización  del  servicio  del  cliente  

 
[ SIMULACIÓN GERENCIAL ] 7
 

anterior.   En   este   caso,   el   primer   cliente   termina   su   servicio   en   t   =   2,   y   justamente   en   ese  


instante   arriba   el   segundo   cliente,   también   en   t   =   2;   luego   su   servicio   arranca  
inmediatamente,   pues   el   servidor   recién   se   desocupó   y   no   debe   hacer   fila.   Dado   que   el  
tiempo   de   servicio   simulado   es   de   1   minuto,   entonces   el   servicio   del   segundo   cliente   termina  
en  el  minuto  t  =  3.  
 
¿Qué  pasa  con  el  cliente  4?  Este  cliente  arriba  en  el  minuto  t  =  7.  En  este  instante,  se  puede  
corroborar  que  el  servidor  se  encuentra  ocupado,  pues  se  tiene  registrado  que  el  servicio  del  
cliente   3   finalizará   en   el   minuto   t   =   9.   Esto   implica   que   el   cuarto   cliente   debe   esperar   2  
minutos  a  que  el  servidor  finalice  el  servicio  con  el  cliente  número  3.  Por  lo  tanto,  tan  pronto  
el  servidor  despache  al  cliente  tres  en  el  minuto  t  =  9,  inicia  el  servicio  del  cliente  4,  y  dado  
que  el  tiempo  simulado  de  servicio  es  de  dos  minutos,  la  finalización  del  servicio  será  en  el  
minuto  t  =  11.  Se  debe  hacer  un  análisis  similar  para  el  cliente  5,  pues  también  tiene  que  hacer  
cola.  
Cabe   aclarar   que   la   tabla   se   debe   llenar   en   la   medida   que   van   ocurriendo   los   eventos,  
generalmente  en  la  medida  en  que  los  clientes  van  llegando  y  van  saliendo.  Es  decir,  no  es  
posible  determinar,  por  ejemplo,  la  hora  de  finalización  del  cliente  5,  si  no  se  sabe  siquiera  a  
qué  horas  terminó  el  servicio  del  cliente  4.  
 

3. VARIABLES  DE  RESULTADO  

 
Con   los   resultados   obtenidos   anteriormente,   se   pueden   calcular   las   estadísticas   para   la  
medición     del   desempeño   del   sistema,   lo   cual   es   uno   de     los   propósitos   principales   de   la  
simulación.  Algunos  de  estos  indicadores  se  detallan  a  continuación:  
 
!"#$%&  !"!#$  !"  !"#$ 4
!"#$%&  !"#$%&'#  !"  !"#!$% =   = = 0,66  !"#$%&'  
!"#$%  !"  !ú!"#$  !"  !"#$%&$' 6
 
 
!ú!"#$  !"  !"#$%&$'  !"#  !"#!$%$&' 2
!"#$%$&'&(%(  !"  !"#  !"  !"#$%&$  ℎ!"!  !"#$ =   =
!"#$%  !"  !ú!"#$  !"  !"#$%&$! 6
= 0,33 = 33,33%  
 
!"#$%&  !"!#$  !"  !"#$%&%'! 13
!"#$%&  !"  !"#$%&%'  !"#$%&'# = = = 2,16  !"#$%&'  
!"#$%  !"  !ú!"#$  !"  !"#$%&$' 6
 
 
!"#!"  !"  !"#$%&'  !"#$!  !""#$%& 15
!"#$%&  !"#$%&'#  !"#$!  !""#$%& = = = 3  !"#$%&'  
!ú!"#$  !"  !"#$%&$' − 1 5
 

 
8   [ POLITÉCNICO GANCOLOMBIANO]
 

!"#$%&  !"#$%&'#  !"  !"  !"!#$%&


= !"#$%&  !"#$%&'#  !"  !"#$ + !"#$%&  !"  !"#$%&%'    !"#$%&'! = 2,83  !"#$%&'  
 
 
 
 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
[ SIMULACIÓN GERENCIAL ] 9
SIMULACIÓN
GERENCIAL
 

 
 
Simulación de Montecarlo - Modelos de   Inventarios
 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• SIMULACIÓN  DE  MONTECARLO  –  MODELOS  DE  


INVENTARIOS  
 

1. Índice  
1. Introducción  a  Modelos  de  Inventarios  
2. Simulación  de  Montecarlo  Aplicada  a  un  Modelo  de  Inventarios  
3. Variables  de  Resultado.  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  una  de  las  aplicaciones  
más   utilizadas   de   la   Simulación   de   Montecarlo,   como   lo   es   el   análisis   de   los   modelos   de  
Inventarios.  
 
Para   poder   realizar   esta   aplicación   es   importante   recordar   la   temática   de   los   modelos   de  
inventarios,  con  el  objetivo  de  que  el  caso  presentado  sea  asimilado  por  los  estudiantes  de  
manera  fácil  y  sin  complicaciones.  

Finalmente,  se  mostrarán  cuáles  son  las  variables  de  resultados  en  dicha  aplicación  y  cómo  se  
calculan  estas  medidas  de  desempeño  del  sistema  bajo  análisis.  
 
3. Metodología  
Al   finalizar   el   módulo   los   estudiantes   conocerán   otra   aplicación   de   la     simulación   de  
Montecarlo.  Adicionalmente,  mejorarán  la  habilidad  para  plantear  modelos  de  simulación  e  
identificar  las  variables  de  entrada  y  las  variables  de  resultado.  
 
Al  finalizar  la  segunda  semana  de  aprendizaje  el  estudiante  deberá:  

1. Conocer  una  de  las  principales  aplicaciones  de  simulación  de  Montecarlo.  
2. Plantear   un   modelo   de   simulación   de   Montecarlo,   identificando   las   variables   de  
entrada  y  las  variables  de  resultado.  
3. Encontrar  cuáles  son  las  medidas  de  desempeño  de  un  Modelo  de  Inventarios.  

 
 
 
 
 
 
 

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

4. Desarrollo  temático  
 
5.1  Recomendaciones  académicas.  
Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información   relevante   que   se   evaluará   en   la   semana.   Adicional   a   la   lectura   de   la   cartilla,   se  
recomienda   al   estudiante   revisar   las   teleconferencias   así   como   las   video-­‐diapositivas,   pues  
estas   son   un   medio   que   puede   aclarar   las   dudas   generadas   con   la   lectura   o   también   dar  
soporte  a  los  temas  expuestos  en  la  misma.  

Por  otra  parte,  con  el  objetivo  de  tener  una  excelente  comunicación,  el  estudiante  deberá:  

• Aprovechar  el  chat  semanal  en  el  cual  se  tendrá  un  encuentro  sincrónico  con  el  tutor.  
• Presentar  sus  dudas  a  través  de  mensajes  personalizados  para  el  tutor.  
• Realizar   los   ejercicios   de   los   talleres   propuestos,   los   cuales   permitirán   reforzar   los  
conceptos  presentados  en  las  cartillas.  

Además,  el  estudiante  debe  tener  presente  que  la  educación  virtual  es  un  proceso  autónomo  
en  gran  medida  por  lo  cual  exige  un  nivel  de  compromiso  verdadero,    recuerden  que  1  hora  
de   educación   presencial   es   equivalente   a   3   horas   de   educación   virtual,   recuerden   revisar  
semana   a   semana   las   actividades   recomendadas   así   como   las   fechas   para   entregas   del  
proyecto,   realización   de   quices,   parciales   y   examen   final   y   por   supuesto   la   participación   en  
los  foros  obligatorios  de  discusión.  
 
5.2    Desarrollo  de  cada  una  de  las  unidades  temáticas.    
 
1.INTRODUCCIÓN  A  MODELOS  DE  INVENTARIOS  

Una   de   las   aplicaciones   más   comunes   de   la   simulación   está   en   el   análisis   de   sistemas   de  


inventarios.  En  la  literatura  existe  gran   cantidad  de  modelos  cuantitativos   para   abordar   los  
problemas   derivados   de   la   gestión   de   inventarios;   sin   embargo,   los   sistemas   de  
abastecimiento   hoy   en   día   son   más   complejos   y   cada   vez   es   más   difícil   abordarlos   desde   una  
óptica   enteramente   matemática.   De   aquí   la   relevancia   que   toma   la   simulación   como  
metodología  primordial  en  el  estudio  de  este  tipo  de  sistemas.  

 
Un   sistema   simple   de   inventarios   es   como   se   muestra   en   la   figura   1,   el   cual   corresponde   a   un  
modelo  de  revisión  periódica.  
 

 
[ SIMULACIÓN GERENCIAL ] 3
 

 
Figura  1.  Sistema  de  Inventarios  de  Revisión  Periódica  
 
Bajo  este  modelo  de  revisión,  las  existencias  son  monitoreadas  cada  intervalo  de  tiempo  T,  
momento  en  el  cual  se  realiza  un  pedido  de  tamaño  Qi,  de  manera  tal  que  se  alcance  un  nivel  
de   inventario   máximo   R.   La   demanda   no   se   conoce   con   certeza,   lo   cual   hace   que   las  
cantidades  a  pedir  también  sean  aleatorias.  Para  este  modelo  en  particular  se  asume  que  el  
tiempo  de  entrega  de  un  pedido  es  igual  a  cero.  Nótese  también  que  el  nivel  de  existencias  
puede  ser  negativo,  como  se  puede  apreciar  en  el  tercer  ciclo  de  la  gráfica.  Esto  indica  que  
aunque  no  había  existencias  para  atender  la  demanda,  estas  unidades  quedan  pendientes,  y  
en   el   momento   que   llegue   el   pedido,   tales   unidades   deben   ser   despachadas   primero.   Es  
decir,   debe   satisfacerse   primero   la   demanda   de   aquellos   clientes   a   los   que   no   se   les   pudo  
vender  en  el  anterior  ciclo  por  falta  de  existencias.    
 
El  papel  de  la  simulación  en  la  gestión  de  inventarios  consiste  en  encontrar  aquella  política  
que   genere   los   menores   costos   posibles.   Para   ello,   debe   tenerse   en   cuenta   las   principales  
fuentes  de  costo  en  un  sistema  de  inventarios:  

• Costo  de  almacenamiento:  El  costo  incurrido  por  mantener  una  unidad  de  inventario  
en  el  almacén  por  unidad  de  tiempo  
• Costo  de  pedido:  El  costo  asociado  a  la  revisión  y  al  lanzamiento  del  pedido.  

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

• Costo   de   compra:   Es   simplemente   el   costo   de   adquisición   o   el   que   aparece   en   la  


factura  del  ítem.  
• Costo   de   faltante:   Es   el   que   se   origina   por   el   hecho   de   no   tener   las   existencias  
disponibles  en  el  momento  en  que  son  demandadas.  

Dado  lo  anterior,  el  administrador  del  sistema  de  inventarios  debe  decidir  qué  nivel  máximo  
de  inventario  mantener  y  cuándo  hacer  la  revisión  con  el  objetivo  de  que  se  cause  el  menor  
costo.  En  este  tipo  de  sistema  en  particular,  los  eventos  de  interés  que  pueden  ocurrir  son  la  
demanda  de  los  ítems,  la  revisión  del  inventario  y  la  llegada  de  un  pedido.  Como  el  tiempo  de  
entrega  de  un  pedido  es  cero,  estos  dos  últimos  eventos  ocurren  de  manera  simultánea.  
 

2. SIMULACIÓN  DE  MONTECARLO  APLICADA  A  UN  MODELO  DE  INVENTARIOS  

Don   Pepe   tiene   un   depósito   donde   se   manejan   dos   tipo   de   productos:   cajas   de   gaseosa   y  
cajas  de  cerveza.  El  camión  de  la  gaseosa  pasa  los  días  lunes  y  jueves,  mientras  que  el  camión  
de  la  cerveza  lo  hace  los  días  lunes,  miércoles  y  viernes.  En  ambos  casos,  los  camiones  pasan  
a  primera  hora  de  la  mañana.  El  nivel  de  inventario  se  revisa  al  final  de  cada  día,  y  Don  Pepe  
tiene   la   política   de   que,   si   al   revisar,     la   suma   total   de   las   cajas   entre   gaseosa   y   cerveza   es  
igual  o  menor  a  3  cajas,  entonces  se  hace  un  pedido  tanto  de  10  cajas  de  gaseosa  como  de  10  
cajas  de  cerveza.  El  costo  por  hacer  un  pedido  de  gaseosa  es  de  $120.000  y  de  un  pedido  de  
cerveza  es  de  $100.000.  El  costo  de  mantener  guardada  una  caja  en  el  almacén  es  de  $5.000  
por  día.  El  costo  de  un  faltante  es  de  $60.000  por  la  gaseosa  y  $50.000  por  la  cerveza.  Una  
vez   haya   inventario   disponible,   debe   cubrirse   el   faltante   a   primera   hora.   No   se   permite   la  
acumulación   de   pedidos,   es   decir,   una   vez   se   haya   hecho   un   pedido,   no   se   puede   realizar  
otro   si   no   ha   llegado   el   pedido   anterior.   Los   domingos   no   se   abre   la   bodega.   Para   efectos   de  
la  simulación,  se  asume  que  se  arranca  con  un  inventario  inicial  de  5  cajas  de  cada  producto  el  
día  lunes.  Debe  realizarse  una  simulación  manual  para  estimar  el  costo  y  los  indicadores  de  
desempeño  de  esta  política.  
 
En  las  siguientes  tablas  se  encuentran  las  distribuciones  de  probabilidad  de  la  demanda  tanto  
de  gaseosa  como  de  cerveza.  
 
 
Demanda gaseosa Demanda cerveza
 
Demanda Probabilidad Demanda Probabilidad
  0 0,1 0 0,1
  2 0,3 2 0,5
  4 0,5 4 0,3
  6 0,1 6 0,1
 
 
 
 

 
[ SIMULACIÓN GERENCIAL ] 5
 

Lo  primero  que  debe  hacerse  es  la  asignación  de  los  dígitos  aleatorios  para  las  demandas  así:  
 
 
  Demanda cerveza
  Demanda Probabilidad Prob. Acumulada Intervalo de aleatorios
  0 0,1 0,1 1
  2 0,5 0,6 2-6
  4 0,3 0,9 7-9
  6 0,1 1 10
  Demanda gaseosa
  Demanda Probabilida Prob. Acumulada Intervalo de aleatorios
  d
  0 0,1 0,1 1
  2 0,3 0,4 2-4
4 0,5 0,9 5-9
 
6 0,1 1 10
 
 
La  columna  de  probabilidad  acumulada  sirve  de  directriz  para  poder  definir  los  intervalos  de  
dígitos   aleatorios.   Por   ejemplo,   en   el   caso   de   la   demanda   de   gaseosa,   la   probabilidad  
acumulada   para   la   demanda   igual   a   2   unidades   es   0,4.   Al   multiplicar   por   diez,   esta  
probabilidad  (para  evitar  el  manejo  de  decimales),  se  define  el  límite  superior  de  tal  intervalo,  
o  sea,  4.  Estos  intervalos  servirán  de  referencia  para  simular  las  demandas  en  la  tabla  de  la  
simulación  manual,  como  se  muestra  a  continuación.  
 
 
Día   IIG   IIC   AG   AC   DG   DC   IFG   IFC   IF FG   FC   Q  
T  
L   5   5   4   8                  
M       7   3                  
Mi       1   4                  
J       6   10                  
V       5   1                  
S       2   6                  
 
Convenciones  
IIG:  Inventario  inicial  de  gaseosa  
IIC:  Inventario  inicial  de  cerveza  
AG:  Número  aleatorio  asociado  con  la  demanda  de  gaseosa  
AC:  Número  aleatorio  asociado  con  la  demanda  de  cerveza  
DG:  Demanda  de  gaseosa  
DC:  Demanda  de  cerveza  
IFG:  Inventario  final  de  gaseosa  

 
6   [ POLITÉCNICO GRANCOLOMBIANO]
 

IFC:  Inventario  final  de  cerveza  


IFT:  Inventario  final  total  
FG:  Faltante  de  gaseosa  
FT:  Faltante  de  cerveza  
Q:  Cantidad  de  cajas  pedidas.  
 
Los   números   aleatorios   de   las   columnas   AG   y   AC   fueron   generados   con   la   función  
ALEATORIO.ENTRE   de   Excel   para   un   intervalo   entre   0   y   10.   Si   se   utiliza   esta   función,   los  
números   generados   son   enteros   y   siguen   una   distribución   uniforme.   Ahora,   para   hacer   la  
asignación   de   los   valores   aleatorios   de   la   demanda,   deben   relacionarse   éstos   con   los  
números   aleatorios   generados   para   tal   fin.   Por   ejemplo,   para   el   día   lunes,   los   números  
aleatorios  para  la  demanda  de  cerveza  y  gaseosa  son  4  y  8,  respectivamente.  En  la  tabla  de  
demanda  de  gaseosa,  en  la  columna  de  intervalo  de  aleatorios,  el  intervalo  de  números  2-­‐4,  
corresponde   a   una   demanda   igual   a   2   unidades.   Como   el   4   se   encuentra   en   este   intervalo,  
entonces   la   demanda   de   gaseosa   simulada   para   el   día   lunes   es   2   cajas   de   gaseosa.   Si   se   hace  
lo   mismo   para   la   cerveza,   se   toma   entonces   que   dicha   demanda   corresponde   a   4   cajas   de  
cerveza.  
 
Las   columnas   restantes   facilitan   realizar   el   juego   de   inventarios   diario,   o   sea,   el   inventario  
final   del   día   equivale   al   inventario   inicial   más   la   llegada   de   pedido   menos   la   demanda  
atendida   y   menos   los   pedidos   pendientes   por   atender.   En   este   último   aspecto,   debe  
resaltarse   que   si   existían   pedidos   pendientes   por   despachar,   o   sea,   faltantes,   éstos   deben  
atenderse   inmediatamente   llegue   el   pedido   correspondiente,   y   las   unidades   remanentes  
servirán  para  atender  la  demanda  del  día.    
 
Dicho  lo  anterior,  la  tabla  de  simulación  manual  quedaría  de  la  siguiente  forma:  
 
Día   IIG   IIC   AG   AC   DG   DC   IFG   IFC   IFT   FG   FC   Q  
L   5   5   4   8   2   4   3   1   4   0   0    
M   3   1   7   3   4   2   0   0   0   1   1   20  
Mi   0   9   1   4   0   2   0   7   7   1   0    
J   9   7   6   10   4   6   5   1   6   0   0    
V   5   1   5   1   4   0   1   1   2   0   0   20  
S   1   1   2   6   2   2   0   0   0   1   1    
 

3. VARIABLES  DE  RESULTADO  

Con   los   resultados   obtenidos   anteriormente,   se   pueden   calcular   las   estadísticas   para   la  
medición     del   desempeño   del   sistema,   lo   cual   es   uno   de     los   propósitos   principales   de   la  
simulación.  Algunos  de  estos  indicadores  se  detallan  a  continuación:  
 

 
[ SIMULACIÓN GERENCIAL ] 7
 

 
!"# 9
!"#$"%&'()  !"#$%&'#  !"#$"%  !"#$%#" = = = 1,5  !"#"$  !"  !"#$%#"  
6 6
 
!"# 10
!"#$"%&'()  !"#$%&'#  !"#$"%  !"#$"%& = = = 1,67  !"#"$  !"  !"#$"%&  
6 6
 
!" 3
!"#$"%$&  !"#$%&'#  !"#$"%  !"#$%#" = = = 0,5  !"#"$  !"  !"#$%#"  
6 6
 
!" 2
!"#$"%$&  !"#$%&'!  !"#$"%  !"#$"%& = = = 0,33  !"#"$  !"  !"#$"%&  
6 6
 
!"#$"  !"#$%&'#  !"#$"%  !"  !"#$#% = (120.000  !  2 + (100.000  !  2))/6 = $73.333,33  
!"#$"  !"#$%&'#  !"  !"#$"%$&' = 60.000  !  0,5 + 50.000  !  0,33 = $46.500  

 
 
   
 
 
 
 
 
 

 
 
 
 

 
8   [ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
GERENCIAL
 

 
 
Modelos Estadísticos en Simulación
 
1
 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• MODELOS  ESTADÍSTICOS  EN  SIMULACIÓN  1  


 

1. Índice  
1. Introducción  
2. Valor  esperado  de  una  variable  aleatoria  
2.1. Variables  discretas  
2.2. Variables  continuas  
3. Medidas  de  dispersión  
3.1. Variables  discretas  
3.2. Variables  continuas  
4. Distribuciones  de  probabilidad  discreta  
5. Procesos  de  Poisson.  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  los  conceptos  básicos  de  
estadística  necesarios  para  desarrollar  una  simulación  de  Montecarlo.  La  estadística  será  una  
herramienta   esencial   para   el   soporte   de   la   construcción   de   modelo,   tanto   al   inicio   como   al  
final  para  realizar  el  análisis  de  resultados.    
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en  esta  unidad,  se  hará  un  repaso  de  las  principales  funciones  de  probabilidad  discretas  que  
se  emplean  frecuentemente  en  la  construcción  de  estos  tipos  de  modelo.  

Finalmente,   se   presentará   al   estudiante   una   serie   de   ejercicios   relacionados   para   reforzar   los  
conocimientos  adquiridos  en  el  desarrollo  del  módulo.  
 
3. Objetivo  general  
Al   finalizar   el   módulo,   los   estudiantes   sabrán   cuáles   son   los   conceptos   básicos   de   estadística  
relacionados   con   la   simulación   de   Montecarlo,   así   como   las   principales   funciones   de  
probabilidad  discretas  aplicadas  en  la  construcción  de  este  tipo  de  modelos.  
Al  finalizar  la  primera  semana  de  aprendizaje  el  estudiante:  

1. Identificar   los   conceptos   fundamentales   de   los   modelos   estadísticos   aplicados   a  


simulación  
2. Reconocer   las   distintas   funciones   de   probabilidad   discreta   utilizadas   en   simulación   de  
Montecarlo.  

 
 
 

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

4. Desarrollo  temático  
4.1  Recomendaciones  académicas.  
Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información   relevante   que   se   evaluará   en   la   semana,   adicional   a   la   lectura   de   la   cartilla   se  
sugiere  al  estudiante  revisar  las  teleconferencias  así  como  las  video  diapositivas,  pues  estas  
son  un  medio  que  puede  aclarar  las  dudas  generadas  con  la  lectura  o  también  dar  soporte  a  
los  temas  expuestos  en  la  misma.  
Finalmente,  se  recomienda  al  estudiante  realizar  los  ejercicios  planteados  y  sugeridos  por  el  
tutor   ya   que   estos   a   pesar   de   no   tener   un   valor   porcentual   en   la   nota   si   harán   que   su  
formación  sea  completa  y  pueda  ser  reforzada  de  forma  práctica.  
 
4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas.    
 
1. Introducción  

A  continuación  se  verán  los  conceptos  básicos  relacionados  con  los  modelos  estadísticos  que  
sirven  de  soporte  para  un  estudio  en  simulación  de  Montecarlo.  

Los  conceptos  que  se  trabajarán  en  este  apartado  están  relacionados  con  la  estadística  y  la  
probabilidad  que  muy  seguramente  el  lector  ya  ha  cursado.  Sin  embargo,  con  el  objetivo  de  
tener   una   metodología   completa,   se   presentarán   nuevamente   los   conceptos   pero  
relacionados  directamente  a  la  herramienta  que  se  está  presentando  como  es  la  simulación.  
 
Dentro   del   contenido   desarrollado   en   la   cartilla,   el   estudiante   podrá   encontrar   información   y  
ejemplos  específicos  relacionados  con  los  siguientes  temas:  

 Valor  esperado  de  una  variable  aleatoria  


 Medidas  de  dispersión  para  una  variable  aleatoria  
 Distribuciones  de  probabilidad  discretas  
 Distribuciones  de  probabilidad  continuas.  

 
El  objetivo  de  realizar  la  revisión  de  estos  temas  se  debe  a  que  para  realizar  un  proceso  de  
simulación  los  datos  de  entrada  que  alimentan  el  modelo  siempre  estarán  descritos  por  una  
función   de   probabilidad   conocida   con   el   objetivo   de   modelar   su   aleatoriedad   y  
comportamiento  propio.  Por  otra  parte,  en  cuanto  a  lo  que  se  refiere  a  los  valores  esperados  
y   medidas   de   dispersión   estos   también   serán   supremamente   importantes   pues   a   partir   de  
estas  medidas  básicas  el  estudiante  deberá  realizar  el  análisis  de  los  resultados  arrojados  por  
el  modelo  propuesto.  
 
Será   el   análisis   estadístico   entonces   un   elemento   fundamental   que   siempre   deberá  
acompañar   cualquier   modelo   de   simulación   ya   que   ambos   se   complementan   y   el   primero  
dará  soporte  a  los  resultados  encontrados  por  el  segundo.  

 
[ SIMULACIÓN GERENCIAL ] 3
 

2. Valor  Esperado  de  una  Variable  Aleatorio  

Ejemplo  introductorio:  
 
Sea  X  una  variable  aleatoria  (VA)  que  define  el  número  de  hijos  en  una  familia  colombiana.  
¿Cuál  es  el  número  esperado  de  hijos  en  una  familia  colombiana  cualquiera?  
 
Para   responder   a   esta   pregunta   se   necesita   conocer   la   distribución   de   probabilidad   de   la  
variable   aleatoria.   Suponga   que   a   partir   de   un   estudio   hecho   por   el   DANE,   se   tiene   la  
siguiente  información:  
 
Número  de  hijos   Proporción  de  familias  
0   5/30  
1   15/30  
2   9/30  
3   1/30  
 
De   la   anterior   tabla   se   puede   afirmar,   por   ejemplo,   que   el   5/30   ó   16,66%   de   las   familias   no  
tienen  hijos,  el  50%  ó  15/30  de  las  familias  tienen  un  solo  hijo,  y  así  sucesivamente.  Esta  tabla  
es   la   distribución   de   probabilidad   de   la   VA   denominada   el   número   de   hijos   en   una   familia  
colombiana.  El  posible  número  de  hijos  que  puede  tener  cualquier  familia  es  el  rango  de  la  
variable,  definido  así:  
 
! ! = 0,1,2,3  
 
La  proporción  de  familias  que  tienen  su  número  respectivo  de  hijos  representan  la  función  de  
distribución  de  probabilidad  de  la  variable,  definida  así:  
 
5 15 9 1
g X =   , , ,  
30 30 30 30
 
Luego,  si  se  requiere  obtener  el  valor  esperado  de  hijos  en  una  familia  colombiana  cualquiera  
seleccionada  al  azar,  basta  con  calcular  la  media  ponderada  así:  
 
5 15 9 1
E X =  0 ∗ +  1 ∗ +2∗ +3∗ = 1,2  hijos  
30 30 30 30
 
En  resumen,  se  tiene  que  para  calcular  el  valor  esperado  de  una  variable  aleatoria,  se  tiene:  
 
2.1  Variable  aleatoria  discreta  
 
Si  X  es  una  VA  discreta  con  rango  R(X),  entonces  el  valor  esperado  se  define  como  

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

 
E X = X! g(X)!  
!
 
2.2  Variable  aleatoria  continua  
 
Si  X  es  una  VA  continua  con  rango  R(X),  entonces  el  valor  esperado  se  define  como:  
 
 
E X = X ∗ f X dX  
!(!)
 
Ejemplo  variable  aleatoria  continua  
 
Sea  X  una  VA  continua  definida  con  la  siguiente  función  de  distribución  de  probabilidad:  
 
!
!" ! = ; 0 ≤ ! ≤ 2  
2
 

 
 
! !
! 1
! ! = ! ∙ !" = ! ! !"  
! 2 2 !
! !
1 !
! ! = ∙    
2 3 !
8
! ! =  
6
 

3. Medidas  de  Dispersión  

Sea   X   una   VA   discreta   o   continua.   La   varianza   y   la   desviación   estándar   de   la   VA   se   definen  


como  

 
[ SIMULACIÓN GERENCIAL ] 5
 

 
!"#  ! = !(! − ! ! )! =   !!!  
!! =   !"#  !  
 
De  acuerdo  con  esta  definición,  la  varianza  se  puede  calcular  a  través  de  la  expresión:  
 
3.1  Variable  aleatoria  discreta  
 
!"#  ! =   ! !! (!! − !)!  
 
3.2  Variable  aleatoria  continua  
 
 
!"#  ! =   ! ! (! − !)! !"  
!(!)
 
 

 
4. Funciones  de  distribuciones  de  probabilidad  discretas:  

 
A   continuación   se   describen   las   distribuciones   de   probabilidad   discretas   más   utilizadas   en  
simulación  de  Montecarlo  
 
4.1  Distribución  de  Bernoulli  
 
Es  la  más  elemental  de  las  distribuciones  discretas,  y  se  dice  que  un  experimento  aleatorio  es  
un  experimento  de  Bernoulli,  si  su  espacio  muestral  o  el  rango  que  puede  tomar  la  variable  
consta  de  sólo  dos  elementos,  es  decir   éxito, fracaso , falso, verdadero ,  etc.  
 
Si  X!  es   la   variable   asociada   al   experimento   aleatorio   de   Bernoulli,   y   está   definida   por  
X! E = 1, X! F = 0,  entonces:  
 
Rango   X! = 0,1  
P X! = 1 = p,      P X! = 0 = 1 − p  
 
Por  tanto,  su  función  de  probabilidad  está  dada  por:  
 
g X = p! (1 − p)!!!  
 
Su  media  y  varianza,  están  dadas  respectivamente  por:  
 

 
6   [ POLITÉCNICO GRANCOLOMBIANO]
 

E X = p  
Var  X = p(1 − p)  
 
4.2  Distribución  geométrica  
 
Si   se   realizan   sucesivamente   experimentos   independientes   de   Bernoulli   de   parámetro   p,   a   la  
variable  aleatoria  X  =  número  de  ensayos  hasta  obtener  el  primer  éxito,  se  le  conoce  como  
una  VA  con  distribución  geométrica,  cuya  función  de  distribución  de  probabilidad  está  dada  
por:  
 
g X = (1 − p)!!! p = !(! = !)  
 
Su  media  y  varianza  están  dadas  por:  
 
1
E X =  
p
1−p
Var  X = !  
p

 
Fuente:    Statit  Solutions  Group  
 
4.3  Distribución  Binomial  
 
Si   se   hacen   N   experimentos   independientes,   cuyo   resultado   en   cada   ensayo   puede   ser  
únicamente  ÉXITO  (con  probabilidad  p)  o  FRACASO  (con  probabilidad  1-­‐p),  a  la  VA  X:  número  
de  éxitos  en  los  N  ensayos,  se  le  conoce  como  la  VA  Binomial,  y  su  función  de  distribución  de  
probabilidad  se  le  conoce  como  Distribución  Binomial  de  parámetros  N,  p:  
 

 
[ SIMULACIÓN GERENCIAL ] 7
 

N !
g X = p (1 − p)!!! = P(X = k)  
k
 
Su  media  y  varianza,  están  dadas  respectivamente  por:  
 
E X = Np  
Var  X = Npq  
Ejemplo:  
 
Un  banco  sabe  que  en  su  tarjeta  de  crédito  el  30%  de  los  clientes  quedan  con  sobrecupo  en  
los  cortes  mensuales.  Si  se  elige  una  muestra  aleatoria  de  10  clientes  de  dicha  tarjeta:  
 
a.  ¿Cuál  es  la  probabilidad  de  que  cuatro  exactamente  tengan  sobrecupo?  
b.  ¿Cuántos  clientes  se  esperaría  que  tengan  sobrecupo?  
c.    ¿Cuál  es  la  probabilidad  de  que  ocho  o  más  de  ellos  tengan  sobrecupo?  
 
a.  P X = 4 =   !" !
0,3! 0,7!  
 
b.  E X = 10 ∗ 0,3 = 3  
 
c.  P X ≥ 8 = P X = 8 + P X = 9 + P(X = 10)  
 
4.4  Distribución  Binomial  Negativa  
 
Consideremos   el   mismo   tipo   de   experimento   que   se   utilizó   en   la   definición   de   la   VA   X   con  
distribución   geométrica,   y   definamos   la   VA   Xp  como  el  número  de  ensayos  hasta  obtener  el  
r-­‐ésimo   éxito.   Se   dice   que   dicha   VA   tiene   una   distribución   de   Pascal   (también   es   llamada  
Binomial  Negativa)  de  parámetro  r,  r  ≥  1.  Es  claro  que  la  VA  así  definida  es  una  generalización  
natural  de  la  VA  geométrica  mediante  las  siguientes  expresiones:  
 
!−1 !
! ! = ! (1 − !)!!! = ! ! = !      ! ≥ !  
!−1
 
Su  media  y  varianza  están  dadas  por:  
 
!
! ! =  
!
!(1 − !)
!"#  ! =  
!!
 
Ahora   bien   una   vez   revisados   los   conceptos   de   variables   aleatorias   discretas   relevantes,   es  
importante   conocer   uno   de   los   conceptos   más   importantes   dentro   de   la   simulación   y   que  

 
8   [ POLITÉCNICO GRANCOLOMBIANO]
 

representa   una   transición   entre   las   variables   discretas   y   las   variables   continuas,   esto   es   el  
Procesos   Poisson   (distribución   discreta)   y   las   distribuciones   de   probabilidad   continuas   más  
aplicadas  en  simulación.  
 

5. Proceso  de  Poisson  

Ejemplo  introductorio:  
 
En  cierta  oficina  se  quiere  analizar  un  experimento  aleatorio  que  consiste  en  observar  cómo  
se   comportan   las   llegadas   de   los   clientes   con   respecto   al   tiempo,   en   el   sentido   de   ver   la  
llegada  de  un  cliente  como  un  evento  puntual  (el  instante  en  que  llega  el  cliente)  que  tiene  
lugar  a  lo  largo  de  tiempo.  El  tiempo  lo  podemos  representar  a  través  de  la  recta  real  y  las  
llegadas  como  puntos  de  dicha  recta,  así:  
 

 
 
Respecto   a   dicho   proceso   (el   experimento   aleatorio),   se   puede   definir   la   VA   Xp   para   un  
intervalo  de  tiempo  de  longitud  t  como:  
Xp(t)  =  número  de  arribos  (llegadas)    en  el  intervalo  de  tiempo  de  longitud  t.  
 
Sea   t   un   intervalo   de   tiempo   dado,   arbitrario   pero   fijo,   y   se   quiere   examinar   la   VA   definida  
anteriormente  y  deducir  su  distribución,  es  decir:  
 
! !! = !; !, ! = ! ℎ!"!  !"#$%#&!"#!  !  !!"#$%$&  !"  !"  !"#$%&'()  !  
 
Se  divide  el  intervalo  de  magnitud  t  en  N  intervalos  de  magnitud  t/N,  de  tal  manera  que  t/N  
sea  tan  pequeño  como  sea  necesario  para  cumplir  los  supuestos  del  modelo.  
 
El  evento  B  de  “que  hayan    exactamente  n  llegadas  del  proceso  en  el  intervalo  de  tiempo  t”,  
es   equivalente   al   evento   de   obtener   exactamente   n   éxitos   en   los   N   experimentos  
independientes   de   Bernoulli   que   consisten   en   observar     si   ha   habido   o   no   una   llegada   del  
proceso  en  el  intervalo  de  tiempo  de  longitud  t/N.  
 
La  probabilidad  de  tener  éxito  (que  haya  una  llegada)  en  cada  uno  de  estos  experimentos    de  
!
Bernoulli  es  ! = ! .  
!
Es   decir,   se   tienen   N   experimentos   independientes   de   Bernoulli,   donde   la   probabilidad   del  
evento  B  está  dada  por  

 
[ SIMULACIÓN GERENCIAL ] 9
 

!"
! ! = !(!! = !; !; )  
!
 
Tomando  el  límite  de  esta  expresión  cuando  N  tiende  a  infinito,  se  obtiene:  
 
!" ! !!"
! ! ! = ! = !! ! , !; !, ! = ! , ! = 0, 1, 2, ….  
!!
 
El  número  de  eventos  que  suceden    hasta  el  tiempo  t  se  distribuyen  de  manera  Poisson  con  
parámetro  λ.  
 
Este  tipo  de  procesos  cumple  con  los  supuestos  de  estacionariedad:  
 

- El  valor  esperado  de  las  variables  aleatorias  no  depende  del  tiempo  
- Las  varianzas  tampoco  dependen  del  tiempo  y  son  finitas.  

 
El   tiempo   entre   eventos   es   independiente   e   idénticamente   distribuido   como   una   variable  
aleatoria   exponencial   (Que   se   verá   en   la   siguiente   Semana)   con   media   1/λ.   Esta   propiedad   es  
de   suma   importancia   para   el   modelaje   de   procesos   en   simulación,   ya   que   buena   parte   de   los  
modelos  teóricos  y  empíricos  asumen  las  entradas  a  un  sistema  con  tiempos  exponenciales,  
lo  que  quiere  decir  que  dichas  llegadas  se  comportan  como  Procesos  de  Poisson.  
 
 
 
 

 
 
 

 
 

 
10   [ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
GERENCIAL
Modelos estadísticos en Simulación 2
 MODELOS ESTADÍSTICOS EN SIMULACIÓN 2

1. Índice
1. Distribuciones de Probabilidad Continuas
1.1. Distribución Exponencial
1.2. Distribución Uniforme Continua
1.3. Distribución Normal
1.4. Distribución Triangular.
2. Estimación Puntual
3. Estimación por Intervalos de Confianza
3.1. Intervalos de Confianza Para una sola Muestra: Estimación de la Media
3.2. Intervalos de Confianza Para dos Muestras: Estimación de la diferencia entre dos
Medias
4. Pruebas de Hipótesis
4.1. Pruebas Para una sola Media
4.2. Pruebas Para dos Medias

2. Introducción
El propósito del presente documento es presentar a los estudiantes los conceptos básicos de
estadística necesarios para desarrollar una simulación de Montecarlo. La estadística será una
herramienta esencial para el soporte de la construcción de modelo, tanto al inicio como al final
para realizar el análisis de resultados.

Por otra parte, teniendo en cuenta que el objetivo general del módulo es que los estudiantes
desarrollen las capacidades necesarias para llevar a cabo un estudio completo de simulación,
en esta unidad, se hará un repaso de las principales funciones de probabilidad continuas que
se emplean frecuentemente en la construcción de estos tipos de modelo.

Adicionalmente, se presentarán dos de los conceptos de la estadística inferencial más


utilizados en la Simulación. Los Intervalos de Confianza y las Pruebas de Hipótesis.

Finalmente, se presentará al estudiante una serie de ejercicios relacionados para reforzar los
conocimientos adquiridos en el desarrollo del módulo.

3. Objetivo general
Al finalizar el módulo los estudiantes sabrán cuáles son los conceptos básicos de estadística
relacionados con la simulación de Montecarlo, así como las principales funciones de
probabilidad continuas aplicadas en la construcción de este tipo de modelos y la aplicación de
técnicas de estimación por intervalo y pruebas de hipótesis.

2 [ POLITÉCNICO GRANCOLOMBIANO]
Al finalizar la primera semana de aprendizaje el estudiante estará en capacidad de:

1. Identificará los conceptos fundamentales de los modelos estadísticos aplicados a


simulación
2. Reconocerá las distintas funciones de probabilidad continuas utilizadas en simulación
de Montecarlo
3. Reconocerá los estimadores por intervalo
4. Reconocerá las pruebas de hipótesis.

4. Desarrollo temático.

4.1 Recomendaciones académicas.


Se recomienda al estudiante realizar la lectura de la cartilla, en la cual se encuentra toda la
información relevante que se verá en la semana. Adicional a la lectura de la cartilla es necesario
que revise las teleconferencias así como las video-diapositivas, pues estas son un medio que
puede aclarar las dudas generadas con la lectura o también dar soporte a los temas expuestos
en la misma.

Finalmente, se recomienda al estudiante realizar los ejercicios planteados y sugeridos por el


tutor ya que estos a pesar de no tener un valor porcentual en la nota sí harán que su formación
sea completa y pueda ser reforzada de forma práctica.

4.2 Desarrollo de cada una de las unidades temáticas.

1. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS

A continuación se presentarán las distribuciones de probabilidad continuas más empleadas en


el modelaje de sistemas a través de la simulación de eventos discretos, aunque existen otro
tipo de distribuciones que también pueden emplearse, aquí solo presentaremos las más
relevantes.

1.1 Distribución Exponencial


Considérese un Proceso de Poisson de parámetro λ observado a partir de un instante t0, y
defínase la VA continua XE como:

XE = tiempo que transcurre entre el instante t0 y la próxima llegada del proceso

La función de distribución acumulada, F(X) de la VA XE estará dada por:

𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑃(𝑋𝑔 > 𝑡)


𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑃(ℎ𝑎𝑦𝑎 0 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑒𝑛 𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜 𝑡)

[ SIMULACIÓN GERENCIAL] 3
(𝜆𝑡)0 −𝜆𝑡
𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑒
0!
𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑒 −𝜆𝑡

Por lo tanto, la función de distribución acumulada de la VA exponencial se expresa como:


𝐹𝑥𝑔 (𝑡; 𝜆) = 𝑃(𝑋𝑔 ≤ 𝑡) = 1 − 𝑒 −𝜆𝑡 𝑡 > 0

Se sabe que la función de distribución de probabilidad de una VA continua se obtiene


calculando la derivada de la función de distribución acumulada. Por lo tanto, dicha función,
fXE(t; λ) se expresa como:

𝑓𝑥𝑔 (𝑡; 𝜆) = 𝜆𝑒 −𝜆𝑡 𝑡 > 0

Su media y varianza están dadas por:


1
𝐸(𝑋) =
𝜆
1
𝑉𝑎𝑟 𝑋 = 2
𝜆

Ejemplo:

Suponga que la vida útil de una lámpara industrial, en miles de horas, se distribuye
exponencialmente con tasa de falla λ=1/3 (una falla cada 3000 horas, en promedio).

4 [ POLITÉCNICO GRANCOLOMBIANO]
La probabilidad de que la lámpara dure más de esta vida útil está dada por:

𝑃(𝑋 > 3) = 1 − 𝑃(𝑋 ≤ 3)

En Excel, se busca la función DISTR.EXP, con parámetros: X=3; λ=1/3; Acumulado = 1. El


resultado de esta función sería de 0,632; luego la probabilidad de que la lámpara dure más que
la vida útil diseñada es de 1-0,632 = 0,368.

1.2 Distribución Uniforme

Una VA X se distribuye uniformemente en el intervalo (a, b) si su función de distribución de


probabilidad está dada por:

1
𝑓(𝑋) = {𝑏 − 𝑎 , 𝑎≤𝑋≤𝑏
0, 𝑑. 𝑙. 𝑐.

La función de distribución acumulada está dada por:

0 𝑥<𝑎
𝑥−𝑎
F(X) = {𝑏−𝑎 𝑎≤𝑥<𝑏
1 𝑥≥𝑏

Su media y varianza, están dadas respectivamente por:

𝑎+𝑏
𝐸(𝑋) =
2
(𝑏 − 𝑎)2
𝑉𝑎𝑟 𝑋 =
12

[ SIMULACIÓN GERENCIAL] 5
La distribución uniforme juega un papel importante en simulación. Los números aleatorios,
distribuidos uniformemente entre 0 y 1, proveen los medios básicos para generar eventos
aleatorios. Estos números aleatorios se usan para generar muestras de variables aleatorias de
otras distribuciones de probabilidad.

1.3 Distribución Normal

Considérese la VA binomial XB, definida por el lanzamiento de una moneda 15 veces. Si se


grafica la probabilidad de obtener 0,1,2,…,15 caras, se obtiene la siguiente gráfica

Se puede demostrar, en efecto, que si se realizan N experimentos independientes de Bernoulli


de parámetro p, para un valor de N suficientemente grande, se obtiene:

La aproximación anterior dio lugar a la definición de una VA continua conocida como la


distribución Normal de parámetros µ y σ, cuya función de probabilidad está dada por:

Esta expresión no se puede evaluar mediante métodos numéricos tradicionales; de hecho


estos métodos se podrían aplicar pero la integral debería evaluarse para cada par (µ, σ). Sin
embargo, una transformación de variables, z = (x- µ)/ σ, permite la evaluación de esa integral,
independiente de dichos valores.

Si 𝑋~𝑁(𝜇, 𝜎), 𝑠𝑒𝑎 𝑍 = (𝑋 − 𝜇)/𝜎, para obtener:

6 [ POLITÉCNICO GRANCOLOMBIANO]
 x 
F ( x )  P  X  x   P Z  
  
( x ) /  1 z2 / 2 z 1 t 2 / 2
 e dz donde ( z )   e dt

2

2
( x ) / 
  ( z )dz   ( x  )


La función Φ(z) es la función de distribución de probabilidad de una VA normal con media cero
y varianza 1. A esta distribución se le conoce como la distribución normal estándar, y ha sido
tabulada en distintos formatos para una mejor comprensión y resolución de situaciones que
involucren VA normales.

Dentro de los recursos adicionales encontrará la tabla donde se resumen los valores que toma
la distribución normal estándar.

Ejemplo:

El tiempo requerido en horas para cargar un container se distribuye normalmente con media
= 12 y varianza = 4. La probabilidad de que el container se cargue en menos de 10 horas, estaría
dada por

 10  12 
F (10 )      (1)  0.1587
 2 

1.4 Distribución Triangular

Una VA X se distribuye de forma Triangular en el intervalo (a, c, b) si su función de distribución


de probabilidad está dada por:

[ SIMULACIÓN GERENCIAL] 7
 2( x  a)
 (b  a)(c  a ) a  x  c

 2(b  x)
f ( x)   c xb
 (b  a)(b  c)
0 dlc

El nombre de esta distribución viene dado por la forma de su función de densidad, cuyo
comportamiento gráfico está dado por:

La función de distribución acumulada está dada por:

 ( x  a) 2
 axc
 (b  a )(c  a )
 (b  x) 2
F ( x)  1  c xb
 (b  a )(b  c)
1 xb



Su media y varianza, están dadas respectivamente por:

abc
E ( x) 
3

8 [ POLITÉCNICO GRANCOLOMBIANO]
a 2  b 2  c 2  ab  ac  bc
V ( x) 
18

La distribución triangular juega un papel fundamental en simulación. Esta distribución


proporciona una aproximación cuando hay poca información disponible, de forma que sólo se
necesita conocer el mínimo (valor pesimista (a)), el máximo (valor optimista (b)) y la moda
(valor más probable (c)). Estos tres valores son los parámetros que caracterizan a la
distribución.

Un ejemplo del uso de esta distribución se encuentra en el análisis del riesgo, donde la
distribución más apropiada es la beta pero dada su complejidad, tanto en la su comprensión
como en la estimación de sus parámetros, se utiliza la distribución triangular como
aproximación.

2. ESTIMACIÓN PUNTUAL

Un estimador es un estadístico aleatorio, es decir, una función de una muestra aleatoria de


algunos datos observados. Un valor cualquiera del estimador se le conoce como un estimado.
Cabe aclarar que un estimador es una variable aleatoria, mientras que un estimado es uno de
sus resultados. Los buenos estimadores son insesgados, lo que quiere decir que en la medida
que el tamaño de muestra tiende a infinito, las esperanzas de dichos estimadores convergen
hacia el valor real del parámetro.

Comúnmente, los momentos y las estadísticas relacionadas se calculan a partir de datos


muestrales utilizando estimadores. Consideremos una muestra finita Y = {Y1, Y2, …, YN},
donde las observaciones aleatorias {j = 1, …, N} tienen una distribución común con media µ y
varianza σ2. Un estimador insesgado para la media, µ, basado en la muestra Y, es la media
muestral

N
1
̅ = ∑ Yi
Y
N
i=1

Un estimador insesgado para la varianza, σ2, basado en la muestra Y, es la varianza muestral

N
1
2
S = ̅|2 ,
∑|Yi − Y
N−1
i=1

Donde la desviación estándar muestral, S, es simplemente la raíz cuadrada de S2.

[ SIMULACIÓN GERENCIAL] 9
Cabe anotar que estos estimadores son puntuales, lo que quiere decir que proveen un
estimado escalar de algún parámetro desconocido.

3. ESTIMACIÓN POR INTERVALOS DE CONFIANZA

Es muy poco probable que, incluso el estimador Insesgado más eficiente estime con exactitud
el parámetro poblacional. A pesar que, dicha precisión aumenta con muestras grandes, no
existe ninguna razón por la cual deberíamos considerar que el estimador puntual de una
muestra aleatoria sea exactamente igual al parámetro poblacional que se está estimando. Por
lo tanto, sería más conveniente pensar que se debería estimar un Intervalo, es decir, un límite
inferior y un límite superior en el cual, se esperaría encontrar el valor del parámetro. Este
intervalo se le conoce como estimación por intervalo.

La estimación por intervalo de un parámetro poblacional (Denotado por φ), es un intervalo de


la forma φ ̂𝑖𝑛𝑓 < φ < φ̂,
𝑠𝑢𝑝 donde φ ̂𝑖𝑛𝑓 y φ
̂𝑠𝑢𝑝 dependen del valor del estimador φ ̂ para una
muestra y de su distribución de muestreo. Como muestras distintas, darán como resultado
diferentes valores de φ̂𝑖𝑛𝑓 y φ
̂,
𝑠𝑢𝑝 dichos valores serán aleatorios. Por lo tanto, si queremos
realizar dicha estimación con algún grado de certeza, deberíamos realizar la estimación de la
forma:

𝑃(φ
̂𝑖𝑛𝑓 < φ < φ
̂)
sup = 1−∝

Donde ∝ es algún valor entre 0 y 1. Esto, en palabras significa que tenemos una probabilidad
1-∝ de seleccionar una Variable (Aleatoria) que contenga el parámetroφ. Por lo tanto, el
intervalo de la forma φ ̂𝑖𝑛𝑓 < φ < φ̂ 𝑠𝑢𝑝 calculado a partir de la muestra aleatoria se le
denomina Intervalo de Confianza, el Porcentaje 1−∝ se le denomina Nivel de Confianza y los
valores φ
̂𝑖𝑛𝑓 y φ
̂𝑠𝑢𝑝 se denominan límites Inferior y Superior del Intervalo, respectivamente.

3.1 Intervalos de confianza para una sola muestra: Estimación de la Media

Cuando se realiza la estimación por intervalo para la media, debemos recordar que, de acuerdo
al Teorema del Limite Central, la distribución muestral de 𝑋̅ será aproximadamente:

𝜎2
𝑋̅~𝑁 (𝜇; )
𝑛

Siempre y cuando el tamaño de la muestra sea grande. Por lo tanto, la forma límite de la
distribución de :

10 [ POLITÉCNICO GRANCOLOMBIANO]
X 
Z
 n

Cuando n   es la distribución Normal estándar n (z; 0, 1).

Adicionalmente, otro de los elementos a tener en cuenta es el conocimiento de la varianza


poblacional 𝜎 2 . En este caso, si conocemos la varianza poblacional, el intervalo de confianza
de 1−∝ de una muestra aleatoria de tamaño n para el parámetro poblacional µ estimado por
𝑋̅ será:

   
P X  Z  / 2    X  Z / 2   1  
 n n

Es claro que los límites Inferior y Superior del Intervalo son:


LI  X  Z  / 2
n


LS  X  Z / 2
n

En el caso de no conocer la varianza poblacional 𝜎 2 , debemos estimarla por medio de la


varianza muestral 𝑆 2 . Si la muestra aleatoria proviene de una distribución normal, la
distribución de:

[ SIMULACIÓN GERENCIAL] 11
X 
T
S n

Es la distribución t de Student t(n-1). Se debe tener en cuenta que S es la desviación estándar


de la muestra y (n-1) corresponde a los grados de libertad de la distribución t.

En este caso, si no conocemos la varianza poblacional, el intervalo de confianza de 1−∝ de


una muestra aleatoria de tamaño n para el parámetro poblacional µ estimado por 𝑋̅ será:

 S S 
P X  t v / 2    X  t v , / 2   1  
 n n

Donde 𝑡𝛼/2 es el valor de 𝑡 con v=n-1 grados de libertad.

Es claro que los límites Inferior y Superior del Intervalo son:

S
LI  X  t / 2
n

S
LS  X  t / 2
n

Donde
t es el valor t que tiene un área α a la derecha.

12 [ POLITÉCNICO GRANCOLOMBIANO]
3.2. Intervalos de Confianza Para dos Muestras: Estimación de la diferencia entre dos
Medias
Muchas veces, en el análisis de los modelos de simulación de Montecarlo nos interesará
realizar un análisis sobre dos poblaciones, con medias 𝜇1 y 𝜇2 y varianzas 𝜎1 y 𝜎2
respectivamente. Un estimador puntual de la diferencia 𝜇1 − 𝜇2 está dado por el estadístico
𝑋̅1 − 𝑋̅2 . Teniendo en cuenta esto, para realizar una estimación puntual sobre la diferencia de
dos medias (𝜇1 − 𝜇2 ), se deberá seleccionar 2 muestras aleatorias independientes, de tamaño
n1 y n2 respectivamente. Al calcular la diferencia de los promedios 𝑋̅1 − 𝑋̅2 , debemos
considerar la distribución muestral de dicho estadístico.

Como se analizó en el numeral anterior, debemos realizar previamente un análisis y determinar


si se conocen las varianzas poblacionales. Si 𝑋̅1 𝑦 𝑋̅2 son las medias de dos muestras aleatorias
independientes de tamaño n1 y n2 respectivamente, de poblaciones con varianzas conocidas
(𝜎1 y 𝜎2 ), el intervalo de confianza de 1−∝ para la diferencia 𝜇1 − 𝜇2 es:

  21  2 2  21  2 2 
P X 1  X 2   Z  / 2
   1   2  X 1  X 2   Z  / 2   1
 n1 n2 n1 n2 

Por el contrario, si 𝑋̅1 𝑦 𝑋̅2 son las medias de dos muestras aleatorias independientes de
tamaño n1 y n2 respectivamente, de poblaciones aproximadamente normales con varianzas
desconocidas (𝜎1 y 𝜎2 ) pero iguales, el intervalo de confianza de 1−∝ para la diferencia 𝜇1 −
𝜇2 es:

 1 
P X 1  X 2   t / 2 S p  1   2   X 1  X 2   t  / 2 S p
1 1 1
n

n n

n   1
 1 2 1 2 

Donde t / 2 es el valor de la distribución t con un nivel de significancia de 𝛼/2 con v=n1+n2-2


grados de libertad y Sp es la estimación de la unión de la desviación estándar poblacional. Dicha
estimación se calcula por medio de:

n1  1S 21  n2  1S 2 2


Sp 
n1  n2  2

Se debe tener en cuenta que S 21 y S 2 2 son las varianzas muestrales de las muestras n1 y n2
respectivamente.

[ SIMULACIÓN GERENCIAL] 13
4. PRUEBAS DE HIPÓTESIS

Las pruebas de hipótesis constituyen uno de los elementos más importantes de la Simulación
de Montecarlo y en la estadística inferencial, ya que representan la formalización de los
intervalos de confianza y su principal objetivo es generar un procedimiento de decisión basado
en un postulado o conjeturas y muestras aleatorias que permitan concluir sobre algún sistema
bajo estudio con un nivel de confianza 1 − 𝛼.

Para entender la estructura de las pruebas de hipótesis, se deben definir ciertos conceptos:

- Hipótesis Estadística: Una hipótesis estadística (HE) es una afirmación acerca del valor de
los parámetros de la distribución de una población si dicha distribución se conoce o sobre
el tipo de distribución si ésta es desconocida. Si la hipótesis caracteriza completamente la
distribución, se le llama hipótesis simple, de lo contrario decimos que es una hipótesis
compuesta.
- Prueba estadística (de H0 contra H1): Una prueba para confrontar una hipótesis estadística
H0 contra una hipótesis estadística H1 (dichas hipótesis deben ser excluyentes) es una regla
que permite tomar la decisión de aceptar o rechazar la hipótesis H0 (y consecuentemente
rechazar o aceptar H1), según los valores obtenidos en la muestra aleatoria y de acuerdo
con cierto porcentaje admisible de error.

- Hipótesis nula e hipótesis alterna: En pruebas de hipótesis estadísticas, se acostumbra a


llamar hipótesis nula (H0) a aquella que se asume hasta el momento como verdadera, e
hipótesis alterna (H1) a aquella que se presenta como “nueva alternativa” a la hipótesis H0
que hasta el momento aparecía como verdadera.

Se debe tener en cuenta que, al momento de plantear las hipótesis estadísticas, dichas
pruebas pueden ser a 1 o 2 colas. En otras palabras, la región de aceptación y de rechazo
de las pruebas puede ser una o dos, dependiendo del planteamiento de la Hipótesis
alterna.

Dichas alternativas son:

1. Pruebas de 2 colas basadas en un estimador apropiado del parámetro.

𝐻𝑜: 𝜃 = 𝜃𝑜
}
𝐻𝑎: 𝜃 ≠ 𝜃𝑜

2. Pruebas de cola superior (1 Cola) basadas en un estimador apropiado del parámetro.

𝐻𝑜: 𝜃 = 𝜃𝑜
}
𝐻𝑎: 𝜃 > 𝜃𝑜

14 [ POLITÉCNICO GRANCOLOMBIANO]
3. Pruebas de cola inferior (1 Cola) basadas en un estimador apropiado del parámetro.

𝐻𝑜: 𝜃 = 𝜃𝑜
}
𝐻𝑎: 𝜃 < 𝜃𝑜

Nota: Se debe tener en cuenta que, según la presentación de las alternativas anteriores, las
Hipótesis Nulas (Ho) en cualquier caso siempre se presentan en Igualdad.

- Región crítica (C): La región crítica (C) asociada a la prueba de una hipótesis estadística es
el conjunto de todos los posibles resultados de la muestra aleatoria para los cuales la
hipótesis nula es rechazada, de acuerdo con la prueba aplicada.

El Procedimiento general para realizar las pruebas de hipótesis es:

1. Establezca las hipótesis Nula y Alterna.


2. Defina el nivel de significancia de la prueba (𝛼).
3. Seleccione un estadístico de prueba adecuado.
4. Establezca la región crítica con base en (𝛼).
5. A partir del estadístico de prueba calculado, rechace Ho si el estadístico de prueba está
en la región crítica. De lo contrario, no rechace Ho.
6. Genere sus conclusiones.

4.1. Pruebas para una sola Media

Al igual que en los intervalos de confianza, el objetivo de la prueba de hipótesis para una sola
media busca contrastar si el parámetro poblacional (𝜇) es igual a un valor específico de una
muestra aleatoria, denotado anteriormente como 𝜃𝑜, con un nivel de confianza 1-∝.

Teniendo en cuenta que los estadísticos utilizados en los intervalos de confianza para una
media se distribuían Normal o t de Student, bajo la afirmación del conocimiento de la varianza
poblacional (𝜎 2 ), los estadísticos de prueba de las pruebas de hipótesis tendrán el mismo
comportamiento.

Por lo tanto, si la varianza poblacional es conocida (𝜎 2 ) y teniendo en cuenta que el modelo se


centra en un experimento con X1, X2,…., Xn de una muestra aleatoria de una distribución con
media 𝜇 y varianza 𝜎 2 el estadístico de prueba para la hipótesis de contraste de una media
será:

[ SIMULACIÓN GERENCIAL] 15
X  0
Zp  n

Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye Normal Estándar – N(0,1). El rechazo
de Ho a un nivel de significancia 𝛼 resulta cuando el estadístico de prueba Zp excede a 𝑍𝛼/2 o
es menor a −𝑍𝛼/2 siempre y cuando la prueba sea de dos colas. Si la prueba es de una cola se
rechazará Ho a un nivel de significancia 𝛼 cuando el estadístico de prueba Zp excede a 𝑍𝛼 o es
menor a −𝑍𝛼 , siempre y cuando la prueba sea de cola superior o inferior, respectivamente.

Por otro lado, si la varianza poblacional es desconocida (𝜎 2 ) el estadístico de prueba para la


hipótesis de contraste de una media será:

X  0
tp  n
S

Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye t de Student con n-1 grados de
libertad – t(n-1). Nuevamente, el rechazo de Ho a un nivel de significancia 𝛼 resulta cuando el
estadístico de prueba tp excede a 𝑡𝛼/2,𝑛−1 o es menor a −𝑡𝛼/2,𝑛−1 siempre y cuando la prueba
sea de dos colas. Si la prueba es de una cola se rechazará Ho a un nivel de significancia 𝛼 cuando
el estadístico de prueba tp excede a 𝑡𝛼,𝑛−1 o es menor a −𝑡𝛼,𝑛−1 , siempre y cuando la prueba
sea de cola superior o inferior, respectivamente.

Ejemplo: En cierto estudio sobre la duración de las llamadas en un centro de quejas y reclamos,
se recolectó una muestra aleatoria de 100 llamadas. Dicha muestra aleatoria mostró que, la
duración promedio de una llamada es de 71,8 minutos con una desviación estándar poblacional
de 8.9 minutos. ¿Dicha información indicará que el tiempo promedio de duración de las
llamadas es superior a 70 minutos? ¿Indicará que el tiempo promedio de duración de las
llamadas es diferente a 70 minutos? Valide dichas afirmaciones con un nivel de confianza del
95% (1 − 𝛼)

Solución: Para solucionar el problema anterior, se construirán dos pruebas de hipótesis. La


primera con el objetivo de validar si la duración de las llamadas es superior a 70 minutos y la
siguiente con el objetivo de validar si la duración de las llamadas es diferente a 70 minutos.

Adicionalmente, se utilizará el procedimiento presentado anteriormente para la construcción


de las pruebas de hipótesis:

Prueba 1: Validar si la duración de las llamadas es superior a 70 minutos

Utilizando el procedimiento para la construcción de las pruebas de hipótesis, los resultados


son:

16 [ POLITÉCNICO GRANCOLOMBIANO]
1. Establezca las hipótesis Nula y Alterna.

Teniendo en cuenta que la afirmación que se quiere validar es que la duración promedio de las
llamadas sea mayor a 70 minutos, las hipótesis para esta prueba son:

𝐻𝑜: 𝜃 = 70
𝐻𝑎: 𝜃 > 70

Nota: La hipótesis nula siempre debe ir en igualad. La hipótesis alterna se plantea de acuerdo
con la afirmación a verificar, que en este caso, hace referencia a que la duración promedio de
las llamadas es mayor a 70 minutos.

2. Defina el nivel de significancia de la prueba (𝛼).

Para este problema, se quiere validar la hipótesis con un nivel de confianza del 95%. Por lo
tanto, el nivel de significancia es 𝛼 = 5% o 𝛼 = 0,05

3. Seleccione un estadístico de prueba adecuado.

Para seleccionar el estadístico de prueba adecuado, se debe analizar la información disponible


en el problema. En este caso, en la información inicial tenemos la varianza poblacional 𝜎 = 8.9
o 𝜎 2 = (8.9)2 . Teniendo en cuenta esto, usamos como estadístico de prueba:

X  0 71 .8  70
Zp  n  Zp  100  Z p  2.02
 8.9

4. Establezca la región crítica con base en (𝛼).

Teniendo en cuenta que la Hipótesis alterna es de orientación mayor (>), se puede establecer
que la prueba es a una cola, en este caso, a una cola superior. Por lo tanto, se debe encontrar
el valor crítico de la distribución. En este caso, como el estadístico de prueba se distribuye
normal estándar, se debe encontrar el valor en la distribución normal que acumula en la cola
superior el nivel de significancia del 5%. Gráficamente, este análisis será:

[ SIMULACIÓN GERENCIAL] 17
Por lo tanto, buscando en la tabla de la distribución Normal Estándar, el valor de la distribución
que acumula el 95% de probabilidad es 1.645. En Excel, este valor se calcula por medio de la
siguiente función:

5. A partir del estadístico de prueba calculado, rechace Ho si el estadístico de prueba está en


la región crítica. De lo contrario, no rechace Ho.

Teniendo en cuenta el resultado del valor crítico del numeral anterior, podemos establecer
que la región de rechazo de Ho será cualquier valor mayor a 1.645. Por lo tanto, teniendo en
cuenta que el valor del estadístico de prueba es 2.02, podemos ver que el estadístico se
encuentra en la zona de rechazo de Ho.

6. Genere sus conclusiones.

Teniendo en cuenta el resultado anterior, se establece que, con un nivel de confianza del 95%,
se rechaza la hipótesis nula. Esto quiere decir que, la duración de las llamadas es superior a 70
minutos.

Prueba 2: Validar si la duración de las llamadas es diferente a 70 minutos.

Utilizando el procedimiento para la construcción de las pruebas de hipótesis, los resultados


son:

18 [ POLITÉCNICO GRANCOLOMBIANO]
1. Establezca las hipótesis Nula y Alterna.

Teniendo en cuenta que la afirmación que se quiere validar es que la duración promedio de las
llamadas es diferente a 70 minutos, las hipótesis para esta prueba son:

𝐻𝑜: 𝜃 = 70
𝐻𝑎: 𝜃 ≠ 70

Nota: La hipótesis nula siempre debe ir en igualad. La hipótesis alterna se plantea de acuerdo
con la afirmación a verificar, que en este caso, hace referencia a que la duración promedio de
las llamadas es diferente a 70 minutos.

2. Defina el nivel de significancia de la prueba (𝛼).

Para este problema, se quiere validar la hipótesis con un nivel de confianza del 95%. Por lo
tanto, el nivel de significancia es 𝛼 = 5% o 𝛼 = 0,05

3. Seleccione un estadístico de prueba adecuado.

Para seleccionar el estadístico de prueba adecuado, se debe analizar la información disponible


en el problema. En este caso, en la información inicial tenemos la varianza poblacional 𝜎 = 8.9
o 𝜎 2 = (8.9)2 . Teniendo en cuenta esto, usamos como estadístico de prueba:

X  0 71 .8  70
Zp  n  Zp  100  Z p  2.02
 8.9

4. Establezca la región crítica con base en (𝛼).

Teniendo en cuenta que la Hipótesis alterna es de orientación mayor (≠), se puede establecer
que la prueba es a dos colas. Por lo tanto, en este caso se deben encontrar los valores críticos
de la distribución. En este caso, como el estadístico de prueba se distribuye normal estándar,
se debe encontrar el valor en la distribución normal que acumula en la cola superior el nivel de
significancia del 2.5%, ya que el nivel de significancia se reparte equitativamente entre las dos
colas. Gráficamente, este análisis será:

[ SIMULACIÓN GERENCIAL] 19
Por lo tanto, buscando en la tabla de la distribución Normal Estándar, el valor de la distribución
que acumula el 97.5% de probabilidad es 1.959 y el valor de la distribución que acumula el 2.5%
de probabilidad es -1.959. En Excel, estos valores se calculan por medio de la siguiente función:

5. A partir del estadístico de prueba calculado, rechace Ho si el estadístico de prueba está en


la región crítica. De lo contrario, no rechace Ho.

Teniendo en cuenta el resultado del valor crítico del numeral anterior, podemos establecer
que la región de rechazo de Ho será cualquier valor mayor a 1.959 y cualquier valor menor a -
1.959. Por lo tanto, teniendo en cuenta que el valor del estadístico de prueba es 2.02, podemos
ver que el estadístico se encuentra en la zona de rechazo de Ho.

6. Genere sus conclusiones.

Teniendo en cuenta el resultado anterior, se establece que, con un nivel de confianza del 95%,
se rechaza la hipótesis nula. Esto quiere decir que, la duración de las llamadas es diferente a
70 minutos.

4.2 Pruebas para dos Medias

Al igual que en los intervalos de confianza, el objetivo de la prueba de hipótesis para dos
medias busca contrastar si la diferencia de los parámetros poblacionales (𝜇1 − 𝜇2 ) es igual a
un valor específico de una muestra aleatoria, denotado como 𝑑𝑜, con un nivel de confianza 1-
∝.

20 [ POLITÉCNICO GRANCOLOMBIANO]
Teniendo en cuenta que los estadísticos utilizados en los intervalos de confianza para la
diferencia de medias se distribuían Normal o t de Student, bajo la afirmación del conocimiento
de las varianzas poblacionales ( 𝜎 21 y 𝜎 2 2 ), los estadísticos de prueba de las pruebas de
hipótesis tendrán el mismo comportamiento.

Por lo tanto, si las varianzas poblacionales son conocidas (𝜎 21 y 𝜎 2 2 ) y teniendo en cuenta que
el modelo se centra en un experimento con X1, X2,…., Xn de dos muestras aleatorias de una
distribución con media 𝜇 y varianza 𝜎 2 el estadístico de prueba para la hipótesis de contraste
de una diferencia de medias (𝐻0 : 𝜇1 − 𝜇2 = 𝑑0 ), será:

X1  X 2  d0
Zp 
 21  22

n1 n2

Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye Normal Estándar – N(0,1). El rechazo
de Ho a un nivel de significancia 𝛼 resulta cuando el estadístico de prueba Zp excede a 𝑍𝛼/2 o
es menor a −𝑍𝛼/2 siempre y cuando la prueba sea de dos colas. Si la prueba es de una cola se
rechazará Ho a un nivel de significancia 𝛼 cuando el estadístico de prueba Zp excede a 𝑍𝛼 o es
menor a −𝑍𝛼 , siempre y cuando la prueba sea de cola superior o inferior, respectivamente.

Por otro lado, si las varianzas poblacionales son desconocidas (𝜎 21 y 𝜎 2 2 ), el estadístico de


prueba para la hipótesis de contraste de una diferencia de medias (𝐻0 : 𝜇1 − 𝜇2 = 𝑑0 ), será:

X1  X 2  d0
tp 
1 1
Sp 
n1 n2

Donde, Sp se calcula por medio de:

S 21 n1  1  S 2 2 n2  1
Sp 
n1  n2  2

Bajo la Hipótesis nula (Ho), dicho estadístico se distribuye t de Student con n1+n2-2 grados de
libertad – t(n1+n2-2). Nuevamente, el rechazo de Ho a un nivel de significancia 𝛼 resulta cuando
el estadístico de prueba tp excede a 𝑡𝛼/2,n1+n2−2 o es menor a −𝑡𝛼/2,n1+n2−2 siempre y cuando
la prueba sea de dos colas. Si la prueba es de una cola se rechazará Ho a un nivel de significancia
𝛼 cuando el estadístico de prueba tp excede a 𝑡𝛼,n1+n2−2 o es menor a −𝑡𝛼,n1+n2−2 , siempre y
cuando la prueba sea de cola superior o inferior, respectivamente.

[ SIMULACIÓN GERENCIAL] 21
SIMULACIÓN
GERENCIAL
Generación de números y variables aleatorias
• GENERACIÓN DE NÚMEROS Y VARIABLES
ALEATORIAS

1. Índice
1. Introducción
2. Propiedades de los números aleatorios
3. Técnicas de generación de números aleatorios
3.1. Método lineal de congruencias
4. Generación de variables aleatorias
4.1. Variables uniformes
4.2. Variables exponenciales
4.3. Variables triangulares
Variables continuas empíricas.

2. Introducción
El propósito del presente documento es presentar a los estudiantes las diferentes técnicas
para generar números aleatorios de forma analítica (sin apoyo de software especializado), así
como las técnicas apropiadas para transformar dichos números en variables aleatorias con una
distribución de probabilidad y parámetros definidos.

Adicionalmente, se presentará al estudiante una serie de ejercicios relacionados para reforzar


los conocimientos adquiridos en el desarrollo del módulo.

3. Objetivo general
Al finalizar la lectura, los estudiantes sabrán cuáles son los principales métodos para generar
números aleatorios y transformar estos en variables con una distribución de probabilidad
definida, de igual forma reconocerá cómo estas técnicas están estrechamente relacionadas
con la simulación de Montecarlo.

Al finalizar esta semana de aprendizaje:

1. El estudiante aprenderá a generar números aleatorios a través de la técnica del método


lineal de congruencias.

El estudiante sabrá cómo transformar un número aleatorio en una variable aleatoria específica
con los parámetros deseados.

2 [ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo temático

4.1 Recomendaciones académicas.


Se recomienda al estudiante realizar la lectura de la cartilla, en la cual se encuentra toda la
información relevante que se evaluará en la semana, adicionalmente se le recomienda revisar
las teleconferencias así como las video-diapositivas, pues estas son un medio que puede
aclarar las dudas generadas con la lectura o también dar soporte a los temas expuestos en la
misma.

Finalmente, se le recuerda al estudiante realizar los ejercicios planteados y sugeridos por el


tutor ya que estos, a pesar de no tener un valor porcentual en la nota, sí harán que su
formación sea completa y pueda ser reforzada de forma práctica.

4.2 Desarrollo de cada una de las unidades temáticas.

1. Introducción

En el presente documento se darán a los estudiantes las diferentes herramientas para generar
números aleatorios de forma analítica. Adicionalmente, conocerán las herramientas para
transformar dichos números aleatorios en variables aleatorias que sigan una distribución
probabilística definida.

Tener claridad en los conceptos básicos relacionados con la generación de números y variables
aleatorias, es un tema relevante y fundamental en la simulación de Montecarlo, pues
justamente la simulación se basa en que los eventos son aleatorios o estocásticos y, por tanto,
debe ser claro cómo es posible generar dichos valores en la simulación.

Dentro de los conceptos básicos relacionados con esta temática, el estudiante recordará
cuáles son las principales distribuciones de probabilidad así como cuáles son los parámetros
que la caracterizan, pues esto es fundamental justamente para la transformación de los
números aleatorios en variables aleatorias.

2. Propiedades de los números aleatorios

Para que un conjunto de números pueda ser clasificado como números aleatorios, estos deben
tener dos propiedades estadísticas fundamentales:

- Uniformidad: Se refiere a que todo número tiene la misma probabilidad de ser escogido
o generado (espacio equiprobable)
- Independencia: la elección de un número no depende de la elección de otro.

[ SIMULACIÓN GERENCIAL] 3
Ejemplo:

Imagine que a usted le presentan los siguientes números:

2-4-6-8-10-12-14-16
Puede notar dos cosas:

- La probabilidad de que el número 1 o el número 3 o el número 7 esté en ese conjunto


es cero, por lo tanto, la primera propiedad no se está cumpliendo, pues la probabilidad
de que apareciera cualquier número debería ser la misma para todos los números.
- Si cree que el siguiente número que debe aparecer en la secuencia es 18, es correcto y
muy seguramente acertó porque los números anteriores le dieron una idea de cuáles
serían los siguientes números que aparecerían, por lo tanto, la propiedad de
independencia tampoco se cumple, pues los números que aparecieron en la secuencia
están afectando a los números que podrían aparecer más adelante en la secuencia.

3. Técnicas de generación de números aleatorios

Con base en las propiedades anteriores, la idea es generar una secuencia de números entre
cero y 1 [0,1] que imiten justamente los comportamientos mencionados. Para lograr esto,
normalmente se emplean funciones deterministas a través de generadores los cuales deben
cumplir las siguientes características:

- Secuencias no correlacionadas, esta característica hace referencia justamente a la


propiedad de independencia que deben tener los números aleatorios.
- Tener un periodo largo, es decir, que con la función determinista que maneje el
generador se puedan generar una gran cantidad de números antes de que se repita un
número generado previamente. Idealmente las secuencias no deberían repetirse, sin
embargo en la práctica una repetición debe ocurrir después de un gran conjunto de
números generados.
- Uniformidad, esta es la misma propiedad.
- Eficiencia, es decir, la función determinista generadora de números debe ser muy
rápida y no requerir de cálculos complejos para generar los números aleatorios.

3.1. Método lineal de congruencias

Esta es una de las rutinas más comunes para generar números aleatorios entre cero y uno.

Para generar dichos números, primero es necesario generar enteros a través de la


siguiente relación recursiva:

𝑋𝑖+1 = (𝑎𝑋𝑖 + 𝑐) 𝑚𝑜𝑑𝑢𝑙𝑜 𝑚 ∀𝑖 = 0, 1, 2, 3, … , 𝑛

4 [ POLITÉCNICO GRANCOLOMBIANO]
Donde:
𝑋0 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑖𝑛𝑖𝑐𝑖𝑎𝑙 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑛 𝑒𝑙 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑆𝑒𝑚𝑖𝑙𝑙𝑎
𝑚 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑚ó𝑑𝑢𝑙𝑜
𝑚𝑜𝑑𝑢𝑙𝑜 = 𝑒𝑠 𝑙𝑎 𝑜𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝑚𝑜𝑑𝑢𝑙𝑜, 𝑙𝑎 𝑐𝑢𝑎𝑙 𝑑𝑒𝑣𝑢𝑒𝑙𝑣𝑒 𝑒𝑙 𝑟𝑒𝑠𝑖𝑑𝑢𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑑𝑖𝑣𝑖𝑠𝑖ó𝑛
𝑎 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑎
𝑐 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑖𝑛𝑐𝑟𝑒𝑚𝑒𝑛𝑡𝑜

Ahora bien vale la pena aclarar que la escogencia de todos estos parámetros a, c, m, X0
afecta directamente las propiedades estadísticas (uniformidad e independencia) y,
además, la longitud del ciclo (periodo).

Finalmente, para convertir los enteros generados con la relación recursiva presentada
anteriormente en números aleatorios entre cero y uno, basta con dividirlos entre el
módulo m.

Ejemplo:

Dados los siguientes parámetros:

𝑋0 = 27
𝑚 = 100
𝑎 = 17
𝑐 = 43

Emplee el método lineal de congruencias para generar números aleatorios.

Solución:

𝑋𝑖+1 = (𝑎𝑋𝑖 + 𝑐) 𝑚𝑜𝑑𝑢𝑙𝑜 𝑚

𝑋0 = 27
𝑋0+1 = 𝑋1 = (17 ∗ 27 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 502 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 2
𝑋1+1 = 𝑋2 = (17 ∗ 2 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77
𝑋2+1 = 𝑋3 = (17 ∗ 77 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 1352 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 52
𝑋3+1 = 𝑋1 = (17 ∗ 52 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 927 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 27

Dado que ya se repitió el primer número la secuencia para y no se generan más enteros,
pues si lo hiciéramos se volvería a repetir la secuencia, 2, 77, 52,…

Ahora bien, recordemos que los números deben ser entre cero y uno, para ello de acuerdo
con el método, dice que se deben dividir los enteros calculados (X) nuevamente entre la
constante m (que para este caso es 100), de acuerdo con esto tenemos:

[ SIMULACIÓN GERENCIAL] 5
27
𝑅0 = = 0,27
100

2
𝑅1 = = 0,02
100
77
𝑅2 = = 0,77
100

52
𝑅3 = = 0,52
100

Y de esta forma se obtienen los números aleatorios (R) deseados.

4. Generación de variables aleatorias

Para que el modelamiento de un sistema tome forma se deben definir correctamente:

- Variables aleatorias que direccionen ciertos comportamientos del sistema (por ejemplo
los tiempos de arribo, los tiempos de servicio, las fallas de los recursos, etc.)

Con base en lo anterior es posible definir métodos para que a partir de muestras de números
aleatorios se puedan generar variables aleatorias que permitan describir diferentes procesos
estocásticos.

A continuación se presentará la metodología general para transformar un número entre 0 y 1


en una variable aleatoria:

Generación de
números Transformación
aleatorios {Xi}
X=f(U)
{Ui}

Algoritmo:

Independiente del tipo de variable que se quiera obtener (uniforme, exponencial, triangular),
el algoritmo que debe aplicarse es el mismo y es el siguiente:

6 [ POLITÉCNICO GRANCOLOMBIANO]
1. Calcular la función acumulada de probabilidad de la variable aleatoria X
2. Igualar dicha función de probabilidad acumulada con el número aleatorio F(X) = R
3. Resolver la ecuación para X en términos de R (despejar X)
4. Reemplazar por los valores numéricos y obtener la distribución deseada.

4.1. Variables uniformes

Ejemplo:

Suponga que se tienen los siguientes números aleatorios:

0,12 0,01 0,23 0,28 0,89

Transformarlos en una variable aleatoria con distribución uniforme con parámetros


mínimo: 6 y máximo:16

De acuerdo con lo anterior y siguiendo el algoritmo presentado tenemos que nos piden
una variable distribuida uniformemente U[6,16]:

1. Función acumulada de la distribución uniforme:

𝑋−𝑎
𝐹(𝑋) =
𝑏−𝑎
2. Igualar la función con el aleatorio:

𝑋−𝑎
=𝑅
𝑏−𝑎
3. Despejar X:
𝑋 = 𝑎 + (𝑏 − 𝑎)𝑅
4. Resolver:

7,2 6,1 8,3 8,8 14,9

4.2. Variables exponenciales

Ejemplo:
Suponga que se tienen los siguientes números aleatorios:

[ SIMULACIÓN GERENCIAL] 7
0,12 0,01 0,23 0,28 0,89

Transformarlos en una variable aleatoria con distribución exponencial con parámetro


lambda: 0,05

De acuerdo con lo anterior y siguiendo el algoritmo presentado anteriormente tenemos


que nos piden una variable distribuida exponencialmente Exp[λ=0,05]:

1. Función acumulada de la distribución uniforme:

𝐹(𝑋) = 1 − 𝑒 −𝜆𝑥

2. Igualar la función con el aleatorio:

1 − 𝑒 −𝜆𝑥 𝑅

3. Despejar X:

−1
𝑋= ln(1 − 𝑅)
𝜆
4. Resolver:

2,55 0,2 5,23 6,57 44,1

4.3. Variables triangulares

Ejemplo:

Suponga que se tienen los siguientes números aleatorios:

0,12 0,01 0,23 0,28 0,89

Transformarlos en una variable aleatoria con distribución triangular con parámetros


mínimo: 3, más probable: 8, máximo: 14.

De acuerdo con lo anterior y siguiendo el algoritmo presentado anteriormente tenemos


que nos piden una variable distribuida exponencialmente Tria[3, 8, 14]:

8 [ POLITÉCNICO GRANCOLOMBIANO]
1. Función acumulada de la distribución triangular:

0 𝑥<𝑎
(𝑥 − 𝑎)2
𝑎≤𝑥<𝑏
(𝑏 − 𝑎)(𝑐 − 𝑎)
𝐹(𝑥) =
(𝑐 − 𝑥)2
1− 𝑏≤𝑥<𝑐
(𝑐 − 𝑎)(𝑐 − 𝑏)
{ 1 𝑥≥𝑐

La función acumulada de la triangular está definida en dos rangos


diferentes, por lo tanto, al igualar la función debe tenerse especial cuidado
en verificar cuál de las dos funciones debe emplearse.

2. Igualar la función con el aleatorio:

(𝑥 − 𝑎)2 𝑏−𝑎
=𝑅 0≤𝑅<
(𝑏 − 𝑎)(𝑐 − 𝑎) 𝑐− 𝑎
(𝑐 − 𝑥)2 𝑏−𝑎
1− =𝑅 ≤𝑅<1
(𝑐 − 𝑎)(𝑐 − 𝑏) 𝑐−𝑎

3. Despejar X:
𝑏−𝑎
𝑎 + √(𝑏 − 𝑎)(𝑐 − 𝑎)𝑅 0≤𝑅<
𝑋={ 𝑐−𝑎
𝑏−𝑎
𝑐 − √(𝑐 − 𝑎)(𝑐 − 𝑏)(1 − 𝑅) ≤𝑅<1
𝑐−𝑎
4. Resolver:

4,90 3,55 5,63 5,90 11,31

[ SIMULACIÓN GERENCIAL] 9
4.4. Variables continuas empíricas

Cuando las distribuciones teóricas (como las vistas anteriormente) no son aplicables se
debe emplear distribuciones empíricas y, por lo tanto, el algoritmo cambia. A continuación
se explicará, a través de un ejemplo, la metodología que debe seguirse:

Ejemplo:
Suponga que se toman los tiempos de reparación de 100 componentes electrónicos:

xi-1 <x≤ xi Frecuencia


1,00 <x≤ 1,50 25,00
1,50 <x≤ 2,00 23,00
2,00 <x≤ 2,30 32,00
2,30 <x≤ 3,00 20,00

Calcular la frecuencia relativa a cada una de las clases (recuerde que la frecuencia relativa
simplemente es la frecuencia de la clase dividida en el número total de datos):

Frecuencia
xi-1 <x≤ xi Frecuencia
Relativa
1,00 <x≤ 1,50 25,00 0,25
1,50 <x≤ 2,00 23,00 0,23
2,00 <x≤ 2,30 32,00 0,32
2,30 <x≤ 3,00 20,00 0,20

Calcule la frecuencia acumulada (ci) de las clases:

Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada
(f)
(f/n) (ci)
1,00 <x≤ 1,50 25,00 0,25 0,25
1,50 <x≤ 2,00 23,00 0,23 0,48
2,00 <x≤ 2,30 32,00 0,32 0,80
2,30 <x≤ 3,00 20,00 0,20 1,00

Una vez calculada la frecuencia acumulada halle la pendiente de los datos (ai), dicha
pendiente se calcula de acuerdo a la siguiente expresión:

10 [ POLITÉCNICO GRANCOLOMBIANO]
𝑥𝑖 − 𝑥𝑖−1
𝑎𝑖 =
(𝑓/𝑛)

Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada Pendiente
(f)
(f/n) (ci) (ai)
1,00 <x≤ 1,50 25,00 0,25 0,25 2,00
1,50 <x≤ 2,00 23,00 0,23 0,48 2,17
2,00 <x≤ 2,30 32,00 0,32 0,80 0,94
2,30 <x≤ 3,00 20,00 0,20 1,00 3,50

Una vez se han calculado todas estas medidas es posible realizar la interpolación necesaria
de acuerdo a la expresión:

𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
Cuando:
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖

Si, por ejemplo, el aleatorio es R = 0.85, el valor de la variable sería:

𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖

𝑐3 < 𝑅 ≤ 𝑐4

0.80 < 0.85 ≤ 1

Por lo tanto, i = 4. Reemplazando en la expresión:

𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )

𝑋 = 𝑥3 + 𝑎4 (𝑅 − 𝑐3 )

𝑋 = 2.30 + 3.50(0.85 − 0,80)

𝑋 = 2.475

Si por ejemplo el aleatorio hubiese sido R = 0.36, el valor de la variable sería:

𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖

[ SIMULACIÓN GERENCIAL] 11
𝑐1 < 𝑅 ≤ 𝑐2

0.25 < 0.36 ≤ 0.48

Por lo tanto, i = 2. Reemplazando en la expresión:

𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )

𝑋 = 𝑥1 + 𝑎2 (𝑅 − 𝑐1 )

𝑋 = 1.50 + 2.17(0.36 − 0,25)

𝑋 = 1.738

Si trabajáramos con muchos números aleatorios, podríamos encontrar una gráfica como
la siguiente:

12 [ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
GERENCIAL
 

 
 
Análisis de datos de entrada
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• ANÁLISIS  DE  DATOS  DE  ENTRADA  


 

1. Índice  
1. Introducción  
2. Identificación  gráfica  de  distribuciones  de  probabilidad  adecuadas  
2.1. Histogramas  
2.2. Q-­‐Q  Plot  
2.3. P-­‐P  Plot  
3. Pruebas  de  bondad  de  ajuste  
3.1. Prueba  Chi  Cuadrado  
3.2. Prueba  Kolmogorov-­‐Smirnov  
P-­‐Value.  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  las  herramientas  gráficas  
y   analíticas   para   llevar   a   cabo   un   correcto   análisis   de   los   datos   de   entrada,   teniendo   muy  
presente   que   son   estos   los   que   alimentarán   el   modelo   de   simulación   que   se   esté  
construyendo   y   que,   por   lo   tanto,   tendrán   una   alta   influencia   en   los   resultados   que   se  
reporten  después  de  haber  corrido  la  simulación.  
 
También  se  les  presentará  una  serie  de  ejercicios  relacionados  con  el  tema  para  reforzar  los  
conocimientos  adquiridos  durante  el  desarrollo  del  módulo.    
 

3. Objetivo  general  
Al   finalizar   el   módulo   los   estudiantes   sabrán   cuáles   son   las   herramientas   gráficas  
fundamentales   para   llevar   a   cabo   un   análisis   de   datos   de   entrada,   así   como   también  
reconocerá   y   sabrá   emplear   de   forma   adecuada   las   pruebas   analíticas   para   realizar   dicho  
análisis  y,  de  esta  manera,  alimentar  el  modelo  de  simulación  que  se  esté  construyendo.  
 
Al  finalizar  la  séptima  semana  de  aprendizaje:  

1. El  estudiante  entenderá  la  importancia  de  realizar  un  análisis  de  datos  de  entrada.  
2. El  estudiante  conocerá  las  distintas  metodologías  para  ejecutar  un  correcto  análisis  de  
la  información  de  entrada.  

El  estudiante  podrá  realizar  un  análisis  de  entrada  empleando  herramientas  computacionales  
adecuadas.  
 
 

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

4. Desarrollo  temático  
 
4.1 Recomendaciones  académicas.  
Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información  relevante  que  se  evaluará  en  la  semana,  adicionalmente  se  le  recomienda  revisar  
las   teleconferencias   así   como   las   video   diapositivas,   pues   estas   son   un   medio   que   puede  
aclarar  las  dudas  generadas  con  la  lectura  o  también  dar  soporte  a  los  temas  expuestos  en  la  
misma.  
 
Finalmente,  se  recomienda  al  estudiante  realizar  los  ejercicios  planteados  y  sugeridos  por  el  
tutor   ya   que   estos   a   pesar   de   no   tener   un   valor   porcentual   en   la   nota   sí   harán   que   su  
formación  sea  completa  y  pueda  ser  reforzada  de  forma  práctica.  
 
4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas.    
 
1.Introducción  

La   recolección   de   datos   y   el   procesamiento   de   la   información   es   una   de   las   tareas   más  


grandes  y  difíciles  en  los  problemas  reales.  Incluso,  aún  cuando  hay  información  disponible,  
rara   vez   los   datos   vienen   o   están   grabados   en   un   formato   que   sea   útil   y   aplicable  
directamente  en  un  modelo  de  simulación.  

El  término  “GIGO”  o  “garbage-­‐in-­‐garbage-­‐out”  (si  entra  basura,  sale  basura)  es  un  concepto  
básico   en   ciencias   de   la   computación   y   se   aplica   sin   problema   en   el   área   de   simulación   de  
Montecarlo.     Aun   cuando   la   estructura   del   modelo   sea   válida   y   robusta,   si   los   datos   de  
entrada  han  sido  recolectados  de  manera  inapropiada,  o  analizados  de  manera  imprecisa,  o  
simplemente   no   son   representativos,   los   datos   de   salida   o   resultados   del   modelo   serán  
inservibles   para   tomar   buenas   decisiones,   derivándose   en   pérdidas   costosas   para   la  
organización.  
 
Para   llevar   a   cabo   un   correcto   análisis   de   datos   de   entrada   y   recolectar   datos   que   no   sean  
“basura”,  se  recomienda  lo  siguiente:  

• Planeación:  observación  del  sistema  actual  y  situaciones  atípicas,  etc.  


• Análisis  de  los  datos  a  medida  que  son  recolectados.  Revisar  su  pertinencia.  
• Verificar  homogeneidad  en  los  diferentes  grupos  de  datos.  
• Revisar  la  relación  entre  variables.  
• Revisar  autocorrelación.  
• Diferenciar  claramente  entre  datos  de  entrada  y  de  salida.  
 
 
 
 

 
[ SIMULACIÓN GERENCIAL ] 3
 

2. Identificación  gráfica  de  distribuciones  de  probabilidad  adecuadas  

En   esta   sección   se   describirán   métodos   para   seleccionar   familias   de   distribuciones   de  


probabilidad  cuando  los  datos  están  disponibles.  Básicamente  la  identificación  gráfica  como  
su   nombre   lo   indica   permite   visualizar   la   forma   de   una   distribución   como   punto   de   partida  
para  realizar  una  primera  aproximación  de  cuál  es  el  tipo  de  distribución  que  siguen  los  datos  
recolectados  para  la  construcción  del  modelo  de  simulación.  

2.1. Histogramas  

Una   distribución   de   frecuencias   o   un   histograma   es   útil   para   identificar   la   forma   de   una  


distribución.  Un  histograma  se  construye  bajo  la  siguiente  metodología:  
 
  1.  Dividir  el  rango  de  datos  en  intervalos,  generalmente  de  igual  amplitud.  
  2.  Marcar  el  eje  horizontal  del  gráfico  para  conformar  los  intervalos.  
  3.  Encontrar  la  frecuencia  de  ocurrencias  dentro  de  cada  intervalo.  
  4.  Marcar  en  el  eje  vertical  del  gráfico  el  total  de  ocurrencias  de  cada  intervalo.  
 
El   número   de   intervalos   depende   del   número   de   observaciones   y   de   la   dispersión   de   los  
datos.   Generalmente,   en   la   práctica   s   establece   que   el   número   de   intervalos   es  
aproximadamente   igual   a   la   raíz   cuadrada   del   tamaño   de   la   muestra   que   se   utiliza   para   el  
análisis.   Si   los   intervalos   son   muy   anchos,   el   histograma   no   mostrará   claramente   un  
comportamiento  visible  de  la  información.  
 
El  histograma  para  datos  continuos  corresponde  a  la  función  de  densidad  de  la  distribución  
teórica   de   los   datos,   mientras   que   para   datos   discretos,   la   forma   del   histograma   debería  
parecerse  a  la  función  de  masa  de  la  distribución  teórica.  
 
Sin   embargo,   debe   tenerse   en   cuenta   que   un   histograma   tan   sólo   da   una   idea   de   cómo   se  
distribuyen  los  datos,  mas  no  como  única  herramienta  de  identificación  de  los  mismos.  
 

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

 
2.2. Q-­‐Q  Plot  (Diagramas  Cuantil  –  Cuantil)  

Al  igual  que  los  histogramas,  los  gráficos  Cuantil  –  Cuantil  o  Q-­‐Q  plot,  dan  una  idea  también  
gráfica   del   posible   comportamiento   que   pueden   seguir   los   datos   de   entrada   que   se   estén  
analizando.    
 
La  diferencia  principal  entre  un  histograma  y  un  Q-­‐Q  plot  es  que  los  segundos  no  muestran  
propiamente   el   comportamiento   de   la   distribución   si   no   que   muestra   la   relación   de   los  
cuantiles   de   la   distribución   que   se   sospecha   siguen   los   datos   con   la   distribución   real   que  
siguen  los  datos  y  a  partir  de  dicha  relación  es  posible  realizar  conclusiones.  
 
Estrictamente  hablando,  un  cuantil  se  define  como:  
 
Sea  X  es  una  variable  aleatoria  (VA)  con  función  acumulada  de  probabilidad  Fx(x),  entonces  
el  q-­‐cuantil  de  X  es  aquel  valor  !    tal  que  ! ! = ! ! ≤ ! = !.    Luego,  ! = ! !! (!).  
 
Ahora   bien,   partiendo   de   este   concepto   se   presenta   a   continuación   el   algoritmo  
(metodología)  a  desarrollar  para  obtener  los  cuantiles  y,  por  lo  tanto,  la  gráfica  que  propone  
la  herramienta  debe  realizarse:  

1. Si   se   tiene   una   muestra   de   n   datos   de   X,   estos   deben   ordenarse   de   menor   a   mayor,   y  


denotarlos   como   yj,   donde   j   es   el   orden   que   tiene   el   dato   dentro   del   conjunto,   es  
decir,  j  =  1  para  el  menor  dato  y  j  =  n  para  el  mayor.    
2. Asignar  una  probabilidad  de  ocurrencia  a  cada  uno  de  los  datos  recolectados,  dicha  
probabilidad  es  asignada  de  acuerdo  con  la  expresión  (j-­‐0.5)/n.  
3. Basado   en   el   hecho   de   que   yj   es   una   estimación   del   cuantil   (j-­‐0.5)/n   de   X   calculado   en  
el  paso  anterior,  debe  calcularse  la  función  inversa  de  la  distribución  que  se  sospecha  
siguen  los  datos.  En  otras  palabras:  

 
[ SIMULACIÓN GERENCIAL ] 5
 

! − 0.5
!! ≅ ! !!  
!
!!!.!
4. Graficar  yj  v.s.  ! !! !
 

 
Supóngase   que   se   ha   escogido   una   distribución   con   función   F   como   una   posible  
representación   de   la   distribución   de   X.   Si   F   es   un   miembro   de   una   familia   apropiada   de  
distribuciones,  entonces  la  gráfica  de  yj  versus  F-­‐1  será  aproximadamente  una  línea  recta.  
 
Ejemplo  
 
Se   tienen   los   siguientes   diez   datos,   y   se   sospecha   que   siguen   una   distribución   normal   con  
media  =  100  y  desviación  estándar  =  13  
 
105   91   103   83   71  
120   100   135   123   9
0  
 
Con   base   en   la   metodología   anterior,   el   primer   paso   consiste   en   ordenarlos   de   menor   a  
mayor,  así:  
 
j   Yj  
1   71  
2   83  
3   90  
4   91  
5   100  
6   103  
7   105  
8   120  
9   123  
10   135  
 
El  segundo  paso  es  asignarle  una  probabilidad  de  acuerdo  con  la  expresión  (j-­‐0.5)/n:  
 
j   Yj   Probabilidad  
1   71   0,05  
2   83   0,15  
3   90   0,25  
4   91   0,35  

 
6   [ POLITÉCNICO GRANCOLOMBIANO]
 

5   100   0,45  
6   103   0,55  
7   105   0,65  
8   120   0,75  
9   123   0,85  
10   135   0,95  
 
El  tercer  paso  es  calcular  la  función  inversa  para  cada  una  de  las  probabilidades  asignadas  en  
el   paso   anterior.   Como   en   este   caso   se   sospecha   que   los   datos   siguen   una   distribución  
normal   con   media   =   100   y   desviación   estándar   =   13,   debe   calcularse   la   inversa   de   una  
distribución  normal.  
 
Probabilid Función  
j   Yj   ad   inversa  
1   71   0,05   78,616903  
2   83   0,15   86,526366  
3   90   0,25   91,231633  
4   91   0,35   94,990834  
5   100   0,45   98,366402  
6   103   0,55   101,633598  
7   105   0,65   105,009166  
8   120   0,75   108,768367  
9   123   0,85   113,473634  
10   135   0,95   121,383097  
 
Nota:   si   por   ejemplo   se   hubiese   dicho   que   se   sospechaba   que   los   datos   seguían   una  
distribución  exponencial,  los  pasos  1  y  2  se  debían  haber  realizado  de  la  misma  forma,  pero  
en  el  paso  tres  debería  haberse  calculado  la  inversa  de  una  distribución  exponencial  y  no  de  
la  normal,  es  decir,  la  función  inversa  se  calcula  con  base  en  la  distribución  de  probabilidad  
que  se  sospecha  siguen  los  datos.  
 

 
[ SIMULACIÓN GERENCIAL ] 7
 

140

120

100

80

60

40

20

0
0 20 40 60 80 100 120 140 160
 
 
La   columna   denominada   Probabilidad,   corresponde   al   cálculo   del   cuantil   respectivo.   Por  
!!!/!
ejemplo,   para   j   =   1,   reemplazando   en   la   expresión   ! ,   da   como   resultado   0,05,   para   n   =   10.  
La   columna   de   Función   Inversa,   se   puede   calcular   utilizando   Excel,   mediante   la   función  
DISTR.NORM.INV,  con  parámetros:  media  =  100;  desviación  estándar  =  13;  probabilidad  =  la  
recién  calculada  para  cada  uno  de  los  datos.  
 
Cabe   anotar   que   la   decisión   de   aceptar   o   rechazar   la   hipótesis   es   subjetiva,   por   cuanto   la  
apreciación   de   la   gráfica   y   el   ajuste   de   los   puntos   a   una   línea   recta   parten   de   simple  
observación.  
 

2.3. P-­‐P  Plot  (Diagramas  Probabilidad  –  Probabilidad)  

Al   igual   que   con   el   diagrama   Q-­‐Q,   el   diagrama   P-­‐P   permite   evaluar   un   conjunto   de   datos  
mediante  la  comparación  de  una  distribución  teórica  de  probabilidad.  Su  principal  diferencia  
con   respecto   al   diagrama   anteriormente   descrito,   radica   en   que   los   valores   a   contrastar  
corresponden   al   cuantil   calculado   versus   la   función   de   distribución   acumulada.   Si   los   datos  
corresponden   a   la   distribución   teórica   que   se   está   probando,   la   nube   de   puntos   debe  
aproximarse  a  una  línea  recta.  
 
Ahora  bien,  partiendo  de  lo  anterior  se  presenta  a  continuación  el  algoritmo  (metodología)  a  
desarrollar  para  obtener  los  percentiles  y,  por  lo  tanto,  la  gráfica  que  propone  la  herramienta  
debe  realizarse:  

1. Si   se   tiene   una   muestra   de   n   datos   de   X,   estos   deben   ordenarse   de   menor   a   mayor,   y  


denotarlos   como   yj,   donde   j   es   el   orden   que   tiene   el   dato   dentro   del   conjunto,   es  
decir,  j  =  1  para  el  menor  dato  y  j  =  n  para  el  mayor.    

 
8   [ POLITÉCNICO GRANCOLOMBIANO]
 

2. Asignar  una  probabilidad  de  ocurrencia  a  cada  uno  de  los  datos  recolectados,  dicha  
probabilidad  es  asignada  de  acuerdo  con  la  expresión  (j-­‐0.5)/n.  
3. Calcular   la   probabilidad   “real”   de   que   se   de   cada   uno   de   los   valores   de   los   datos   que  
se  recolectaron.  En  otras  palabras:  

!! !!  
!!!.!
4. Graficar   !
 v.s.  !! !!  
 

Ejemplo:  
 
Se   tienen   los   siguientes   diez   datos,   y   se   sospecha   que   siguen   una   distribución   normal   con  
media  =  100  y  desviación  estándar  =  13  
 
 
105   91   103   83   71  
120   100   135   123   90  
 
Con   base   en   la   metodología   anterior,   el   primer   paso   consiste   en   ordenarlos   de   menor   a  
mayor,  así:  
 
J   Yj  
1   71  
2   83  
3   90  
4   91  
5   100  
6   103  
7   105  
8   120  
9   123  
10   135  
 
El  segundo  paso  es  asignarle  una  probabilidad  de  acuerdo  con  la  expresión  (j-­‐0.5)/n:  
 
j   Yj   Probabilidad  
1   71   0,05  
2   83   0,15  
3   90   0,25  
4   91   0,35  
5   100   0,45  

 
[ SIMULACIÓN GERENCIAL ] 9
 

6   103   0,55  
7   105   0,65  
8   120   0,75  
9   123   0,85  
10   135   0,95  
 
El   tercer   paso   es   calcular   la   probabilidad   real   para   cada   uno   de   los   valores   de   los   datos  
ordenados  en  el  paso  1.  Como  en  este  caso  se  sospecha  que  los  datos  siguen  una  distribución  
normal  con  media  =  100  y  desviación  estándar  =  13,  debe  calcularse  la  probabilidad  de  los  yj  
con  esta  distribución.  
 
j   Yj   Probabilidad   Acumulada  
1   71   0,05   0,01284821  
2   83   0,15   0,09548885  
3   90   0,25   0,22087816  
4   91   0,35   0,24437206  
5   100   0,45   0,5  
6   103   0,55   0,59125296  
7   105   0,65   0,6497388  
8   120   0,75   0,9380321  
9   123   0,85   0,96157231  
10   135   0,95   0,99645203  
 
Nota:   si   por   ejemplo   se   hubiese   dicho   que   se   sospechaba   que   los   datos   seguían   una  
distribución  exponencial,  los  pasos  1  y  2  se  debían  haber  realizado  de  la  misma  forma,  pero  
en  el  paso  tres  debería  haberse  calculado  la  probabilidad  con  una  distribución  exponencial  y  
no   de   la   normal,   es   decir,   la   probabilidad   se   calcula   con   base   en   la   distribución   de  
probabilidad  que  se  sospecha  siguen  los  datos.  
 

 
10   [ POLITÉCNICO GRANCOLOMBIANO]
 

1,2

0,8

0,6

0,4

0,2

0
0 0,2 0,4 0,6 0,8 1
 
 

3. Pruebas  de  bondad  de  ajuste  

Las  pruebas  de  bondad  de  ajuste  son  pruebas  de  hipótesis  que  permiten  evaluar  la  idoneidad  
de   un   conjunto   de   datos,   dada   una   distribución   teórica   de   probabilidad   donde   se   podrían  
ajustar.  Como  toda  prueba  de  hipótesis,  este  tipo  de  pruebas  comienza  con  el  enunciado  de  
la  hipótesis  nula  y  alternativa.  La  hipótesis  nula  afirma  que  la  variable  aleatoria  que  describe  
el  conjunto  de  datos,  se  distribuye  según  la  función  de  probabilidad  propuesta,  mientras  que  
la  hipótesis  alternativa  contradice  tal  afirmación.  
 
Nota:  Las  pruebas  de  hipótesis  corresponden  a  procesos  de  toma  de  decisión  estadísticos.  El  
modelador  formula  dos  hipótesis  complementarias,  llamadas  la  hipótesis  nula  (denotada  por  
H0)  y  la  hipótesis  alternativa  (denotada  por  H1).  Generalmente,  una  decisión  se  asocia  con  la  
hipótesis  nula,  la  cual  puede  ser  aceptada  o  rechazada.    
 
Consecuentemente,  se  pueden  generar  dos  tipos  de  error:  

- Error  tipo  I:  Rechazar  H0  erróneamente  


- Error  tipo  II  :  Aceptar  H0    erróneamente  

El  objetivo  de  las  pruebas  de  hipótesis  es  rechazar  (o  aceptar  H0)  de  tal  manera  que  si    H0    es  
en  realidad  verdadera,  entonces  la  probabilidad  de  rechazarla  erróneamente  (error  tipo  I),  
no   exceda   un   valor   de   probabilidad   previamente   definido,   α,   el   cual   es   llamado   nivel   de  
confianza  o  nivel  de  significancia.  Mientras  más  pequeño  es  α,    más  alta  es  la  confianza  en  la  
decisión  de  rechazo  correspondiente.    
 
 

 
[ SIMULACIÓN GERENCIAL ] 11
 

3.1. Prueba  Chi  Cuadrado  

Para  realizar  esta  prueba  se  disponen  los  datos  en  una  tabla  de  frecuencias.  Para  cada  valor  o  
intervalo   de   valores   se   indica   la   frecuencia   absoluta   observada   (Oi).   A   continuación,   y  
suponiendo  que  la  hipótesis  nula  es  cierta,  se  calculan  para  cada  valor  o  intervalo  de  valores  
la  frecuencia  esperada  (Ei=n·∙pi,  donde  n  es  el  tamaño  de  la  muestra  y  pi  la  probabilidad  del  i-­‐
ésimo  valor  o  intervalo  de  valores  según  la  hipótesis  nula).    
 
Para  emplear  esta  metodología  que  es  analíticamente  más  confiable  que  los  histogramas  o  
gráficos   P-­‐P   y   Q-­‐Q   es   necesario   calcular   un   estadístico   de   prueba,   dicho   estadístico   se   calcula  
con  base  en  la  frecuencia  observada  y  frecuencia  esperada,  así:  
 
!
!! − !! !
!=  
!!
!!!
 

Este   estadístico   tiene   una   distribución   Chi-­‐cuadrado   con   k-­‐1   grados   de   libertad   si   n   es  
suficientemente  grande,  es  decir,  si  todas  las  frecuencias  esperadas  son  mayores  que  5.    
Si   existe   concordancia   perfecta   entre   las   frecuencias   observadas   y   las   esperadas,   el  
estadístico  tomará  un  valor  igual  a  0;  por  el  contrario,  si  existe  una  gran  discrepancia  entre  
estas  frecuencias  el  estadístico  tomará  un  valor  grande  y,  en  consecuencia,  se  rechazará  la  
hipótesis   nula.   Así   pues,   la   región   crítica   estará   situada   en   el   extremo   superior   de   la  
distribución  Chi-­‐cuadrado  con  k-­‐1  grados  de  libertad.  

Ejemplo:  
 
La  distribución  de  los  ingresos  anuales  en  dólares  de  una  muestra  de  100  familias  que  habitan  
en  cierta  población  presentó  los  siguientes  resultados:  
 
Ingresos   anuales   en   miles   de   Frecuencia   Observada  
dólares   (Oi)  
40  ≤  x  ≤  60   12  
60  <  x  ≤  80   8  
80  <x  ≤  100   25  
100  <x  ≤  120   30  
120  <x  ≤  140   25  
 
Puede   admitirse   que   los   ingresos   de   las   familias   que   habitan   en   dicha   población   sigue   una  
distribución  uniforme  en  el  intervalo  [40.000  –  140.000]  con  un  nivel  de  significancia  del  5%  
 
Dado  que  ya  se  tienen  las  frecuencias  observadas,  el  siguiente  paso  es  calcular  la  frecuencia  
esperada   Ei,   recordando   que   esta   siempre   será   igual   a   pi·∙n,   donde   n   es   el   número   total   de  

 
12   [ POLITÉCNICO GRANCOLOMBIANO]
 

observaciones   y   pi   es   la   probabilidad   de   la   clase   estimada   con   base   en   la   función   de  


distribución  de  probabilidad  que  se  sospecha  tienen  los  datos.  
 
Dado  que  se  sospecha  que  los  datos  siguen  una  distribución  uniforme  [40  –  140],  el  cálculo  
de   la   probabilidad   pi   debería   realizarse   con   la   función   de   densidad   acumulada   de   una  
uniforme  que  como  habíamos  visto  en  la  semana  2  del  curso  es  igual  a:  
 
!−!
!! ! =  
!−!
 
Para  la  primera  clase  pi  sería  entonces:  
 
! 40 < ! ≤ 60 = ! ! ≤ 60 − ! ! ≤ 40  
 
60 − 40 40 − 40
! 40 < ! ≤ 60 = −  
140 − 40 140 − 40
 
! 40 < ! ≤ 60 = 0,2 − 0  
 
! 40 < ! ≤ 60 = 0,2  
 
Entonces  Ei  seria  0,2*100  =20  
 
Nota:   Dado   que   se   sospechaba   que   los   datos   seguían   una   distribución   uniforme,   la  
probabilidad   fue   calculada   con   la   función   de   densidad   acumulada   de   la   uniforme,   si   por   el  
contrario   se   hubiese   sospechado   que   los   datos   seguían   una   distribución   exponencial,   la  
probabilidad   debería   haber   sido   calculada   con   la   función   de   densidad   acumulada   de   la  
exponencial,   si   se   hubiese   sospechado   que   los   datos   seguían   una   distribución   Poisson,  
entonces  debía  haberse  calculado  la  probabilidad  con  la  función  de  densidad  de  una  Poisson,  
etc…  
 
Este   procedimiento   se   repite   para   cada   una   de   las   clases   obteniendo   los   siguientes  
resultados:  
 
Ingresos   anuales   Frecuencia   Probabilida Frecuencia  
en   miles   de   Observada   d   Esperada  (Ei)  
dólares   (Oi)  
40  ≤  x  ≤  60   12   0,2   20  
60  <  x  ≤  80   8   0,2   20  
80  <x  ≤  100   25   0,2   20  
100  <x  ≤  120   30   0,2   20  
120  <x  ≤  140   25   0,2   20  

 
[ SIMULACIÓN GERENCIAL ] 13
 

 
Teniendo   los   valores   de   la   frecuencia   observada   y   de   la   frecuencia   esperada   es   posible  
realizar  el  cálculo  del  estadístico  recordando  que  este  es  igual  a:  
 
!
!! − !! !
!=  
!!
!!!
 
Se  obtienen  entonces  los  siguientes  resultados:  
 
Ingresos   anuales   Frecuencia   Probabilida Frecuencia   (Oi-­‐Ei)2/Ei  
en   miles   de   Observada   d   Esperada  (Ei)  
dólares   (Oi)  
40  ≤  x  ≤  60   12   0,2   20   3.2  
60  <  x  ≤  80   8   0,2   20   7.2  
80  <x  ≤  100   25   0,2   20   1.25  
100  <x  ≤  120   30   0,2   20   5  
120  <x  ≤  140   25   0,2   20   1.25  
  Y  =   17.9  
 
Una   vez   obtenido   el   estadístico   este   deberá   compararse   con   el   valor   Chi2   de   la   tabla   Chi2,  
para   calcular   este   valor   recuerde   que   deben   tenerse   presente   el   nivel   de   significancia   con  
que  se  realizó  la  prueba  y  los  grados  de  libertad.  
 
Para   este   ejemplo,   específicamente,   se   sugirió   que   alfa   fuera   igual   a   0.05   y   los   grados   de  
libertad   siempre   serán   iguales   al   número   de   clases   menos   1,   es   decir,   que   para   el   ejercicio   los  
grados  de  libertad  serían  df  =  5-­‐1  =  4.  
 
Observando  la  tabla  de  la  Chi2  obtenemos  entonces  que  el  resultado  es:  
 

 
 
Para  concluir,  si  se  rechaza  o  no  la  hipótesis  de  que  la  distribución  de  los  ingresos  anuales  de  
dichas   familias   sigue   una   distribución   entre   [40.000   –   140.000]   se   deben   comparar   los  
valores  del  estadístico  calculado  Y  y  los  de  la  tabla  Chi2,  así:  

 
14   [ POLITÉCNICO GRANCOLOMBIANO]
 

- Si   el   estadístico   Y   es   menor   al   valor   en   tabla   de   la   Chi2,   entonces   no   se   rechaza   la  


hipótesis  nula  de  lo  contrario  se  rechaza  

Para   este   ejemplo   en   particular   dado   que   Y   =   17.9   no   es   menor   a   9.48,   entonces   se   debe  
rechazar  la  hipótesis  nula  y,  por  lo  tanto,  se  concluye  que  el  ingreso  anual  de  las  familias  no  
sigue  una  distribución  uniforme  ente  [40.000  –  140.000].  
 

3.2. Prueba  Kolmogorov-­‐Smirnov  

En   esta   prueba   se   pretende   medir   la   mayor   desviación   entre   la   función   de   distribución  


teórica   y   la   empírica.   Esta   desviación   se   compara   con   el   valor   crítico   respectivo,   según   la  
tabla  asociada  a  este  tipo  de  prueba.  Una  ventaja  de  esta  prueba  consiste  en  que  funciona  
muy  bien  para  cualquier  tamaño  de  muestra,  incluso  para  conjuntos  de  datos  muy  pequeños.  
 
El  algoritmo  para  ejecutar  esta  prueba  es  como  sigue:  
 
  1.    Ordenar  los  datos  de  manera  ascendente  
  2.    Calcular  F  (X)  para  cada  uno  de  los  datos  
  3.    Calcular  las  siguientes  desviaciones  
 
!
!! = !"# − ! !  
!
!−1
!! = !"# ! ! −  
!
 
  4.    Estimar  el  estadístico  de  la  prueba  dado  por  ! = max !! , !!  
5.     Determinar   el   valor   crítico  !!  de   la   tabla,   para   un   nivel   de   significancia   α   y   un   tamaño   de  
muestra  N.  
6.     Si   el   estadístico   de   la   prueba   es   mayor   que   el   valor   crítico   de   la   tabla,   entonces   se  
rechaza  la  hipótesis.  
 
Ejemplo:  
 
Se  tomaron  mediciones  de  tiempo  de  un  proceso  crítico  en  una  línea  de  producción,  y  se  
tiene  la  siguiente  información  (en  segundos)  
 
17,3   19,6   10,7   11,3   17,8  
16,1   18,0   17,6   18,7   14,5  
 
Se  quiere  comprobar  la  hipótesis  de  que  este  tiempo  sigue  una  distribución  uniforme  con  
parámetros  (10,  20)  segundos,  con  un  nivel  de  confianza  del  95%.  
 

 
[ SIMULACIÓN GERENCIAL ] 15
 

De   manera   similar   a   la   elaboración   de   los   diagramas   Q-­‐Q   y   P-­‐P,   resulta   bastante   útil   la  
elaboración  de  una  tabla  para  completar  la  prueba.  
 

 
 
D+  =  0,07  
D-­‐    =  0,33  
 
Entonces,   el   estadístico   de   la   prueba   corresponde   a   0,33.   Se   procede   ahora   a   consultar   la  
tabla  de  valores  críticos  de  la  prueba  Kolmogorov-­‐Smirnov,  la  cual  se  muestra  a  continuación:  
 

 
 
Se  puede  observar  que  el  valor  crítico  equivale  a  0,40925,  para  un  tamaño  de  muestra  n  =  10,  
y   un   nivel   de   significancia   del   5%.   Como   este   valor   es   mayor   al   estadístico   de   la   prueba,   no  
existe   suficiente   evidencia   estadística   para   rechazar   la   hipótesis   de   que   los   datos   se  
distribuyen  uniformemente.  
 

 
16   [ POLITÉCNICO GRANCOLOMBIANO]
 

4. P-­‐Value  

Otra   forma   de   determinar   si   se   rechaza   o   no   una   hipótesis   sin   emplear   directamente   los  
estimadores   es   a   través   del   concepto   de   P-­‐value   (esta   metodología   es   la   que   suelen   emplear  
la  gran  mayoría  de  software  estadísticos  capaces  de  realizar  análisis  de  entrada).  
 
El  P-­‐Value  corresponde  al  área  superior  derecha  a  partir  del  estadístico  de  prueba,  es  decir,  
es  la  probabilidad  acumulada  que  existe  después  del  estadístico  de  prueba.  Por  ejemplo  para  
el  caso  de  la  prueba  Chi2  realizada  en  el  ejemplo  podemos  ver  que  el  p-­‐value  corresponde  al  
área  amarilla  +  área  azul:  
 

 
 
Con  base  en  este  análisis,  las  conclusiones  se  tomarían  así:  
 
Si  el  p-­‐value  es  menor  que  el  nivel  de  significancia  entonces  se  debe  rechazar  la  hipótesis  nula,  de  
lo  contrario  no  se  rechaza  

 
[ SIMULACIÓN GERENCIAL ] 17
SIMULACIÓN
GERENCIAL
 

 
 
Análisis de datos de salida Sensibilidad
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• ANÁLISIS  DE  DATOS  DE  SALIDA  SENSIBILIDAD  


 

1. Índice  
1. Análisis  de  Sensibilidad  
2. Análisis  de  Sensibilidad  en  Simulación  de  Montecarlo  
3. Ejemplos.  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  las  herramientas  gráficas  
y   analíticas   para   llevar   a   cabo   un   correcto   análisis   de   los   datos   de   salida,   teniendo   muy  
presente   que   son   estos   los   resultados   de   los   modelos   de   Simulación   y   obtenidos   luego   de  
haber  corrido  la  simulación.  

Finalmente,   se   presentará   al   estudiante   una   serie   de   ejercicios   relacionados   para   reforzar   los  
conocimientos  adquiridos  durante  el  desarrollo  del  módulo.  
 

3. Objetivo  general  
Al  finalizar  el  módulo,  los  estudiantes  sabrán  cuáles  son  las  herramientas  gráficas  y  analíticas  
fundamentales   para   llevar   a   cabo   un   análisis   de   datos   de   salida,   así   como   su   respectiva  
aplicación   con   el   objetivo   de   realizar   dicho   análisis   y   así   hacer   inferencias   sobre   el  
comportamiento  de  los  sistemas  bajo  estudio.  
 
Al  finalizar  la  séptima  semana  de  aprendizaje:  

1. El  estudiante  entenderá  la  importancia  de  realizar  un  análisis  de  Datos  de  Salida  
2. El   estudiante   conocerá   la   forma   de   aplicar   todos   los   conceptos   vistos   durante   el  
módulo  en  el  análisis  de  Salida  
3. El   estudiante   podrá   aplicaciones   de   pruebas   estadísticas,   resultados   de   los   modelos  
de  Simulación  de  Montecarlo    

4. Desarrollo  temático  
 
4.1  Recomendaciones  académicas.  

Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información  relevante  que  se  evaluará  en  la  semana,  adicional  a  la  lectura  de  la  cartilla  se  le  
recomienda   revisar   las   teleconferencias   así   como   las   video-­‐diapositivas,   pues   estas   son   un  
medio   que   puede   aclarar   las   dudas   generadas   con   la   lectura   o   también   dar   soporte   a   los  
temas  expuestos  en  la  misma.  

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

Finalmente,  se  le  sugiere  realizar  los  ejercicios  planteados  por  el  tutor  ya  que  estos,  a  pesar  
de  no  tener  un  valor  porcentual  en  la  nota,  sí  harán  que  su  formación  sea  completa  y  pueda  
ser  reforzada  de  forma  práctica.  
 
4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas.    
 
1. ANÁLISIS  DE  SENSIBILIDAD  

Un  análisis  de  sensibilidad  es  una  técnica  a  través  de  la  cual  se  intenta  evaluar  el  efecto  que  
los   parámetros   de   entrada   o   las   restricciones   especificadas   de   un   modelo   tienen   sobre   las  
variables  de  salida  del  mismo  tanto  en  términos  relativos  como  en  términos  absolutos,  con  el  
objetivo  de  cuantificar  el  riesgo.  
 
El  análisis  de  sensibilidad  puede  servir  para:  
 
- Identificar  las  variables  críticas  del  modelo.  
- Identificar  dónde  se  deben  dedicar  mayores  esfuerzos  en  los  procesos  de  planeación,  
control  y  seguimiento  de  las  decisiones.  
- Identificar  las  variables  que  deben  ser  incluidas  en  la  creación  de  escenarios  o  en  los  
modelos  de  Simulación  de  Montecarlo.  
 

2. ANÁLISIS  DE  SENSIBILIDAD  EN  SIMULACIÓN  DE  MONTECARLO  

Teniendo  en  cuenta  que  por  medio  de  la  Simulación  de  Montecarlo  se  pueden  obtener  varios  
resultados   para   las   diferentes   variables   involucradas   en   el   modelo   (Variables   aleatorias,  
Variables   de   decisión   y   variables   de   resultados)   por   medio   de   las   diferentes   iteraciones,   el  
análisis  de  sensibilidad  se  puede  realizar  en  varios  niveles:  
 
• Análisis   de   Sensibilidad   de   una   variable:   Teniendo   en   cuenta   que   por   medio   de   las  
iteraciones   se   obtienen   diferentes   valores   para   las   variables   de   resultados,   se   pueden  
realizar  los  siguientes  análisis:  
 

- Estadísticas  descriptivas  de  las  variables  de  resultados:  Se  calculan  con  el  objetivo  de  
entender   el   comportamiento   de   la   distribución   de   la   variable   por   medio   de   las  
medidas   de   dispersión   y   Variabilidad.   Adicionalmente,   se   puede   analizar   el   tercer   y  
cuarto  momento  de  la  distribución.  

Ejemplo:   Luego   de   generar   1.000   iteraciones   para   el   modelo   planteado   anteriormente  


(Impermeables),  se  obtienen  los  siguientes  resultados:  
 

 
[ SIMULACUÓN GERENCIAL ] 3
 

Margen  Total  TX1 Margen  Total  TX2


Media 44.789.909 Media 44.901.602
Error  típico 93.824 Error  típico 74.388
Mediana 44.826.429 Mediana 45.600.765
Moda #N/A Moda #N/A
Desviación  estándar 2.966.987 Desviación  estándar 2.352.344
Varianza  de  la  muestra 8.803.010.228.953 Varianza  de  la  muestra 5.533.521.827.090
Curtosis -­‐0,122867 Curtosis 0,447441
Coeficiente  de  asimetría -­‐0,038616 Coeficiente  de  asimetría -­‐0,974297
Rango 17.498.555 Rango 13.306.448
Mínimo 36.513.384 Mínimo 36.459.651
Máximo 54.011.938 Máximo 49.766.099
Suma 44.789.908.840 Suma 44.901.601.838
Cuenta 1.000 Cuenta 1.000
 
- Representación  gráfica  de  las  variables  de  resultado:  La  descripción  gráfica  se  realiza  
con  el  objetivo  de  corroborar  los  resultados  obtenidos  por  medio  de  las  estadísticas  
descriptivas  acerca  del  comportamiento  de  la  distribución  de  los  resultados  obtenidos.  

Ejemplo:   Luego   de   generar   1.000   iteraciones   para   el   modelo   planteado   anteriormente  


(Impermeables),  se  obtienen  los  siguientes  resultados:  
 

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

Histograma  -­‐  Margen  Total  -­‐  TX  1  


90   120,00%  
80   100,00%  
Frecuencia  

70  
60   80,00%  
50   60,00%  
40  
30   40,00%  
20   20,00%  
10   Frecuencia  
0   0,00%  
36513383,57  
37642322,58  

39900200,61  
41029139,62  
42158078,64  
43287017,65  
44415956,66  
45544895,68  
46673834,69  
47802773,7  
48931712,72  
50060651,73  
51189590,74  
52318529,76  
53447468,77  
38771261,6  

%  acumulado  

Clase  

Histograma  -­‐  Margen  Total  -­‐  TX  2  


120   120,00%  
100   100,00%  
Frecuencia  

80   80,00%  
60   60,00%  
40   40,00%  
20   20,00%  
Frecuencia  
0   0,00%  
36459651,23  
37318131,74  
38176612,25  

40752053,77  

42469014,79  
43327495,29  

45044456,31  
45902936,82  
46761417,32  
47619897,83  
48478378,34  
49336858,85  
44185975,8  
39035092,76  
39893573,26  

41610534,28  

%  acumulado  

Clase  
 
 
 

- Cálculo   de   probabilidades:   Se   pueden   realizar   cálculos   de   probabilidades   para   cada  


una   de   las   variables   de   resultados   del   modelo   de   simulación,   ya   que   se   tiene  
diferentes  valores  por  medio  de  las  iteraciones.  (Visto  anteriormente  en  el  curso)  
- Estimación  por  Intervalo:  Se  pueden  realizar  cálculos  de  intervalos  de  confianza  para  
las   diferentes   variables   de   resultados   del   modelo   de   simulación,   ya   que   se   tiene  
diferentes  valores  por  medio  de  las  iteraciones.  (Visto  anteriormente  en  el  curso)  
 
• Análisis   de   sensibilidad   de   Variables   aleatorias:   Para   analizar   cada   una   de   las   variables  
aleatorias   que   intervienen   en   el   modelo   de   SMC,   se   analizan   estas   variables   de   forma  

 
[ SIMULACUÓN GERENCIAL ] 5
 

individual   con   el   objetivo   de   encontrar   cuál   es   el   impacto   de   estas   variables   en   las  


variables  de  resultados.  

 
Ejemplo:  Con   el   objetivo   de   dar   respuesta   a   los   siguientes   interrogantes,   se   generaron   1.000  
iteraciones  del  modelo  realizado  anteriormente  (TX-­‐1  y  TX-­‐2),  obteniendo  como  resultados:  
 
¿En  qué  porcentaje  de  escenarios  la  máquina  TX-­‐1  supera  a  la  máquina  TX-­‐2?  
 
Alternativa   Frecuencia   %  

TX-­‐1   419   42%  


TX-­‐2   581   58%  
 
¿Cuál   es   la   probabilidad   de   que   en   promedio,   el   margen   total   de   las   máquinas   TX-­‐1   y   TX-­‐2   sea  
superior  a  45´000.000?  
 
Por  el  Teorema  del  límite  Central,  los  resultados  son:  
 
 
TX-­‐1:       P( X > 45´000.000) = 0.003%
 
´
TX-­‐2:       P( X > 45 000.000) = 43.97%
 
¿Cuál   es   el   intervalo   de   confianza   de   los   costos   totales?   ¿Cuál   es   el   coeficiente   de   variabilidad  
para  las  variables  de  entrada?  
 
Asumiendo  un  Nivel  de  significancia  del  5%,  encontramos  los  siguientes  resultados:  
 
 
⎡ s s ⎤
  IC95% = ⎢ X − Zα / 2 ; X + Zα / 2
  ⎣ n n ⎥⎦
 
 
 
[
IC95% = 73´374 .103;73´895 .008 ]
 
 
 
 
 
 

 
6   [ POLITÉCNICO GRANCOLOMBIANO]
 

El  coeficiente  de  variabilidad  para  los  inputs  es:  


 

Demanda   Demanda   Costo   unitario  Costo   unitario  


  amarillo   negro   TX1   TX2  

CV   13,17%   8,52%   9,39%   2,26%  


 
 
¿Qué   ventaja,   en   el   largo   plazo,   representa   la   elección   de   la   máquina   TX-­‐2   sobre   la   TX-­‐1?  
¿Estadísticamente,  hay  diferencias  entre  el  margen  de  las  máquinas  TX-­‐1  y  TX-­‐2?  
 
En  el  largo  plazo,  es  decir,  teniendo  en  cuenta  los  resultados  de  las  variables  de  desempeño  
luego  de  las  diferentes  iteraciones,  los  resultados  son:  
 

    Margen  Total  TX1   Margen  Total  TX2   Resultado  

Promedio   $    44.634.563,19   $    44.989.129,43   $    354.566,25  


 
 
Estadísticamente,   los   resultados   se   pueden   comparar   por   medio   de   pruebas   de   hipótesis.  
Estos  resultados  son:  
 
- Pruebas   de  Hipótesis:  Con  el  objetivo  de  contrastar  si  las  varianzas  de  las  poblaciones  
son  iguales,  primero  realizamos  esta  prueba,  a  un  nivel  de  significancia  del  5%.  
 
Realizamos   la   siguiente   prueba,   con   el   objetivo   de   contrastar   la   diferencia   de   medias   del  
margen  total  de  las  alternativas  TX1  y  TX2:  
 
  H 0 = µ 2 − µ1 = 0
  H A = µ 2 − µ1 > 0
 
Con  grados  de  Libertad  V=1983  
 
Por  lo  tanto,  el  valor  crítico  de  la  Distribución  t  a  1  cola  es:  
  t
0.95 ,1893 = 1.645
 
 
 
 

 
[ SIMULACUÓN GERENCIAL ] 7
 

Donde  el  estadístico  de  prueba  es:  


 
  ( X TX 2 − X TX 1 ) − δ 0
t   = = 3.05
S 2TX 2 S 2TX 1
  n2
+
n1
 
 
Por   lo   tanto,   con   un   nivel   de   confianza   del   95%   podemos   concluir   que   existe   suficiente  
evidencia  estadística  para  decir  que  los  promedios  de  los  márgenes  no  son  iguales.  

 
8   [ POLITÉCNICO GRANCOLOMBIANO]

You might also like