Professional Documents
Culture Documents
Una vez activado dicho paquete se tiene la opción se análisis de datos en la pestaña de DATOS
2. A partir de aceptar la hoja puede empezar a generar números aleatorios con distribuciones
de probabilidad; así se empieza a pedir a Excel que genere valores aleatorios que provienen
de la distribución de probabilidad de cada uno de los servidores, mediante el uso de la
función de distribución de probabilidad inversa, la cual se alimenta con un número aleatorio
que sería la probabilidad de cierto valor, y el mismo programa busca, en la distribución de
probabilidad acumulada, el valor correspondiente a esa probabilidad puntual.
3. Después de lo anterior se genera una variable contadora que nos permite saber el
porcentaje de veces que cada servidor es el mas rápido y el porcentaje de iteraciones
desarrolladas; para lo anterior se usan variables contadoras que cuentan todos los valores
numéricos de una columna dada de Excel con y sin una condición; posterior se halla el
porcentaje
Tabla 2, datos de conteo
Tiempo
22.882 =PROMEDIO(J:J)
medio (seg)
Desviación
estándar 2.395 =DESVEST.M(J:J)
(seg)
Límite
18.135 =$C$15- 2* DESVEST.M(J:J)
inferior
Límite
27.704 =$C$15+ 2* DESVEST.M(J:J)
superior
+- 4.784 =2* DESVEST.M(J:J)
El programa Excel también permite analizar los histogramas que se producen mediante las
distribuciones de probabilidad de los servidores por separado y por la distribución generada por el
conjunto de respuesta. Esto igualmente se desarrolla mediante la herramienta de análisis de datos.
A partir de los datos generados en cada una de las columnas del servidor (Servidor 1y Servidor 2) y
la columna de tiempo total de respuesta; previamente se generan los rangos de clases requeridos.
Analizando los datos, desde la tabla 2 se puede ver que el servidor 1 es el mas rápido superando al
servidor 2 en un 68% de los intentos; mas sin embargo es de notar que el histograma generado para
los servidores 1 y 2 y el servidor conjunto se parece mucho más al del servidor 2 y sus datos son en
general mas parecidos al del servidor 2 como se ve más adelante en la ilustración 6, pues el servidor
conjunto tiene un promedio de 22.882 seg con desviación estándar de 2.395, y el servidor 2 un
promedio de 22 seg y desviación de 2.6. la mejora es tangible, pero, aunque el servidor 1 sea en
promedio mas rápido, su alta desviación estándar es la que condiciona su mejora al servidor
conjunto. También se puede analizar mediante el intervalo de confianza generado para el tiempo
de respuesta de cada servidor respecto al servidor conjunto, pues analizándolos datos se obtiene
un intervalo de confianza de 22.869 seg +- 4.784 mientras que el servidor 1 tiene un parámetro de
20 +- 6.8 y el servidor 2 de 22 +-5.2 por lo que la intercepción de los intervalos de confianza (todos
al 95%) disminuye el intervalo de confianza del servidor conjunto.
Caso de estudio 2: Medición del coeficiente adiabático mediante los métodos de Clement-
Desormes y Ruchard
Método de Clement y Desormes
Este método se basa en el principio de Clement & Desormes, para el cual se tiene inicialmente un
volumen que se encuentra delimitado por un pistón, se introduce gas en el cilindro generando una
presión inicial a la temperatura ambiente, posteriormente se libera el pistón, en este caso se cuenta
con una válvula la cual se abre y se cierra rápidamente de manera que se presenta un cambio en el
volumen y la presión se equilibra bruscamente con la presión atmosférica.
1400
1200
Servidor 1
1000
Frecuencia 800
600
400
200
0
Clase
2000
1500 Servidor 2
Frecuencia
1000
500
Clase
2000
1500 Conjunto
Frecuencia
1000
500
0
8
9
22
28
10
11
12
13
14
15
16
17
18
19
20
21
23
24
25
26
27
29
30
31
32
33
y mayor...
Clase
Gamma
Promedio 1.302
Desviación 0.021
estándar
Intervalo de 0.042
confianza (+-)
Inferior 1.260
Superior 1.344
Coeficiente de 1.61
variación (%)
Se puede también analizar cual variable tiene mayor importancia en el coeficiente de variación de
Gamma, por lo que se puede hacer el análisis de aumentar y disminuir la desviación estándar de las
3 variables involucradas como se hace a continuación.
Tabla 8, Análisis de sensibilidad a la desviación estándar de cada parámetro
Para el método de Ruchard los estudiantes igualmente obtuvieron el siguiente set de datos,
igualmente para el cálculo del coeficiente adiabático para el CO2
Tabla 9, datos tomados para el método de Ruchard
Gamma
Promedio 1.303
Desviación estándar 0.041
Intervalo de 0.082
confianza (+-)
Inferior 1.221
Superior 1.385
Coeficiente de 3.149
variación (%)
Se puede también analizar cual variable tiene mayor importancia en el coeficiente de variación de
Gamma, por lo que se puede hacer el análisis de aumentar y disminuir la desviación estándar de
las variables involucradas como se hace a continuación.
Tabla 11, Análisis de sensibilidad a la desviación estándar de cada parámetro
Dcoef/tiempo 16.257
Dcoef/dDiametros 15.965
dcoef/dT 0.016
Dcoef/dmasa -0.225
dcoef/dpresion 0.000
Tal como se puede ver en la tabla 10, se puede ver que la variación en la desviación del tiempo es
la que más influye en el coeficiente de variación, seguido por la variación es los diámetros; debe
tenerse en cuenta que la variación es los diámetros está dada para ambos diámetros suponiendo
que el instrumento de medida sea el mismo para ambos valores. Igualmente, las otras variables no
tienen un gran efecto dentro de la variación del Gamma teniendo en cuenta el error del método de
Montecarlo; es por ello que para la presión da 0 esta variación y respecto para la masa es negativa.
Puede verse que la variable que más influye es el tiempo calculado para las 30 oscilaciones, siendo
la variable más difícil de medir y la que mas problemas presenta cuando el equipo esta
incorrectamente construido (presenta problemas de rotación y decaimiento, lo que genera
ineficiencias en el sistema que dificulta el conteo)
Por ultimo se tiene el histograma de datos generados para Gamma mediante el método de Clement
y Desormes y de Ruchard en la ilustración 7. Se puede ver a partir de todo el procedimiento de
Montecarlo, el método de Clement es el mas exacto teniendo en cuenta nada mas las
incertidumbres determinadas en las medidas, ya que tiene menor número de variables y estas
pueden tener menor incertidumbre asociada. Por otro lado, el método de Ruchard integra muchas
mas variables con mayor desviación y la formulación del método no minimiza la desviación, como
si sucede en el método de Ruchard. Sin embargo, durante la experimentación el método de Ruchard
es el método con la mejor experimentación pues, en las condiciones optimas de ambos métodos, el
de Ruchard solo tiene 1 variable de medición; mientras que el método de Clement implica controlar
3 variables de las cuales 2 varían en el tiempo
1800
1600
1400
Clement
1200
Frecuencia
1000
800
600
400
200
0
Clase
2500
2000
Ruchard
Frecuencia
1500
1000
500
Clase
Caso de estudio 3: Medición del coeficiente de difusividad binario gaseoso en la celda de Arnold
Estado estable.
c 1 y A2
NAZ D AB ln
Z 2 Z1 1 y A1 Igualando las anteriores ecuaciones e
integrando se obtiene:
El promedio logarítmico de la
concentración del componente B se Z 2t Z 2t0 1 D AB P ( y A1 y A 2 )
t
define como: 2 c AL RT y BML
y A1 y A2 Donde: Zt = Z2 – Z1,t
y BML
1- y A2
ln Zt0 = Z2 – Z1,t =0
1- y A1
Esta ecuación corresponde a una línea
Si se reemplaza las dos anteriores
recta, donde la pendiente es
ecuaciones se obtiene:
cDAB y A1 y A2
1 DAB P y A1 y A2
NAZ
Z2 Z1 yBML cAL RT yBML
La ecuación (11) describe el flujo de masa A partir de esta ecuación y teniendo los
en la película de gas estancado. datos de altura para diferentes tiempos,
Colocando el flux de A como función del se puede hallar la difusividad de un
volumen y la concentración de A en el sistema binario empleando la Celda de
líquido se tiene: Arnold.
c AL dV
N AZ
A t dt
Implementación
Los estudiantes para esta practica obtuvieron los siguientes datos; tomados para medir la
difusividad de la acetona en aire seco a la presión de Bogotá; no se presentan los datos tomados
para medir el caudal de aire ingresado a la celda y garantizar que el numero de Reynolds se
mantenga entre 100 y 200
A partir de estos datos de entrada los estudiantes calculan los siguientes parámetros
Tabla 13, Dato intermedios calculados para la celda de Arnold
ya1 0.411
ya2 0
T(°C) 25 yBML 0.77648317
T(K) 298.15 m 3.0491E-08
P(Pa) 74954 Dab(m2/s) 1.29405E-05
Una vez tomados los datos; se deben convertir en datos del Z2-Z2o de forma que se pueda
correlacionar esta Z2-Z2o vs Tiempo. Respecto a las incertidumbres tomadas de los datos, se tiene
que la incertidumbre de los datos de tiempo tienen un valor de 10 s excepto el primer dato el cual
tendrá incertidumbre de 0.1 segundos y los datos de longitud tienen una incertidumbre de 5 mm;
esto se tiene ya que los estudiantes miden el tiempo con el cronometro y al determinar 10 minutos
demoran algún tiempo en revisar el teodolito y visualizar el menisco del nivel de acetona y el nivel
de la acetona se mide a partir de una regla con medición mínima a mm por tanto se considera que
no hay mas incertidumbre que la arrojada por la mitad de la mínima división de la regla. Se sigue
tomando la incertidumbre de la presión atmosférica como el 0.25% del valor reportado y se asigna
la desviación a la temperatura de la celda pues el termómetro de la misma generaba una variación
constante durante los experimentos; otros parámetros como las Constantes de Antoine y la
contante de los gases ideales se consideran libres de incertidumbre en este ejercicio. Con todo lo
anterior se le pide a Excel que calcule parámetros provenientes de una distribución normal inversa
y se obtienen los siguientes parámetros
Tabla 14,Datos arrojados por el Método de Montecarlo para el cálculo de la Difusividad
Dab(m2/s)
Promedio 1.295 E-05
Desviación 0.341 E-05
+- 6.8340E-06
Inferior 9.5354E-06
Superior 1.6369E-05
Coef 26.542
Varianza (%)
Analizando la variación del error de algunas variables, se ve que las variables como la presión
atmosférica, la presión manométrica del sistema, temperatura de la celda y los tiempos tienen un
efecto casi nulo sobre el coeficiente de varianza del método, pues variaciones del error en estos
parámetros pues variaciones de un orden de magnitud generan menos del 1% del cambio en el
coeficiente de varianza. El caso no es el mismo de la variable de altura del capilar si genera un
cambio; aumentar en un orden de magnitud el error de las mediciones de esta altura genera una
variación de un orden de magnitud en el coeficiente de variación, pasando de 25.54 a 254.41 % al
aumentar la varianza de las mediciones de longitud de 0.5 mm a 5 mm. También se puede ver a
partir de los daos de coeficiente de variación y de los histogramas presentados a continuación que
la distribución generada es muy amplia, siendo la principal fuente de varianza las mediciones de
longitud; esto se puede deber a que, como con 10 puntos se debe generar una línea con pendiente
constante que se ve muy afectada por cualquier cambio en la posición de los puntos, pudiendo
generar una gran sinergia entre los mismos. Es importante mencionar que para este ejercicio y para
el ejercicio con el método de Ruchard se requirieron muchas mas iteraciones que para el método
de Clement y para el caso base por que involucran un mayor numero de variables. Esto se vio porque
en algún momento el promedio calculado difería bastante del caso base real de lo que se calcula
con los datos de partida.
7000
6000
Frecuencia
5000
4000
3000
2000
1000
0
Clase
4000
3500
3000
Frecuencia
2500
2000
1500
1000
500
0
5.3551E-06
6.7281E-06
1.22201E-05
3.98209E-06
8.10111E-06
9.47412E-06
1.08471E-05
1.35931E-05
1.49661E-05
1.63391E-05
1.77122E-05
1.90852E-05
2.04582E-05
2.18312E-05
2.32042E-05
2.45772E-05
2.59502E-05
y mayor...
Clase