You are on page 1of 6

4.

DESARROLLO DEL TRABAJO

- PRECISIÓN Y EXACTITUD:

En ingeniería, ciencia, industria y estadística, exactitud y precisión no son equivalentes.


Es importante resaltar que la automatización de diferentes pruebas o técnicas puede
producir un aumento de la precisión. Esto se debe a que con dicha automatización, lo
que logramos es una disminución de los errores manuales o su corrección inmediata.

EXACTITUD:
La exactitud se puede definir como la diferencia entre el promedio de las mediciones
hechas por un operario (VP) y el valor real (VR) obtenido con el máster (patrón o
instrumento de medición usado para medir a los de uso diario). El porcentaje de error
se define mediante:

Se espera que este valor sea no mayor de 10%. Los problemas de falta de exactitud pueden
deberse a calibración inadecuada, error en el máster, gage (o gauge es el instrumento de
medición) desgastado, el calibrador no está hecho para medir esa característica, se está
midiendo la característica equivocada, se usa de manera incorrecta.
La exactitud se expresa en términos de error absoluto o error relativo.

ERROR ABSOLUTO:

Se representa por:

E=O–A

Dónde:

E = error absoluto

O = valor observado o medido

A = valor verdadero o aceptado

¿Para qué sirve el error absoluto?


El error absoluto es un indicador de la imprecisión que tiene una determinada media. De
hecho, cuando se proporciona el resultado de una medida suele venir acompañada de dicha
imprecisión.

Ejemplo: Imagina que al medir un determinado objeto con un instrumento de precisión ± 1 cm


obtenemos el valor de 23.5 cm. Si adicionalmente sabemos que la imprecisión absoluta de esa
medida es 0.2 cm, entonces el resultado de esa medición se representa como: 23.5 cm ± 0.2
cm donde el valor real de la magnitud queda incluida en el intervalo 23.3 cm <= 23.5 cm <=
23.7 cm.

De forma general:

1. Si únicamente realizamos una sola medición con el instrumento de medida, el resultado


final será el valor leído ± la precisión del instrumento de medida.

2. Si realizamos n medidas en las mismas condiciones, tomaremos como valor la media


aritmética (X) ± el menor valor entre la imprecisión absoluta y la precisión del instrumento de
medida.


ERROR RELATIVO:
Se expresa en porcentaje o en partes por mil, se calcula con la siguiente relación:

Er = (O – A) / A * 100

¿Para qué sirve el error relativo?


El error relativo tiene la misión de servir de indicador de la calidad de una medida. Para
entender este concepto utilizaremos otro ejemplo. Imagina que se comete un error
absoluto de 1 metro al medir una finca de 200 metros y otra de 3000. Si calculamos los
errores relativos en ambas mediciones tenemos que son 1/200 y 1/3000. Dado que en
la segunda medición el error relativo es más pequeño quiere decir que la calidad de la
medida es mucho mejor que la de la primera. De hecho si lo piensas, bien es mucho
mejor equivocarse en un metro cuando cuento 3000 metros que cuando cuento 200
metros.
Cuando se realizan una medición se considera que su calidad es mucho mayor cuanto
más pequeño es el error relativo que se comete.
- 5 maneras de determinar la exactitud:
 Prueba de un Estándar de Referencia

 Mezcla con excipientes (placebo con una cantidad agregada conocida)

 Agregado de estándar (muestra con cantidad agregada conocida)

 Se deduce a partir de los datos de especificidad y linealidad.

 Comparación con un método reconocido como exacto (método de referencia)

 Exactitud en instrumentos de medida:


PRECISION:

Se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una


magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la
variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como
una función de ella.

- Repetibilidad:
Precisión determinada cuando las mediciones se realizan en condiciones repetibles, es decir:
el mismo método, mismo material, mismo operador, mismo laboratorio; período de tiempo
limitado.

- Reproductibilidad:
Precisión determinada cuando las mediciones se realizan en condiciones reproducibles, es
decir: el mismo método; diferentes operadores; diferentes laboratorios, diferentes equipos y
un largo período de tiempo.

Existen tres términos utilizados para describir la precisión de los datos de un conjunto de
réplicas:

 La desviación estándar
 La varianza
 Coeficiente de variación

Desviación estándar:
La desviación típica o desviación estándar (denotada con el símbolo σ o s, dependiendo de la
procedencia del conjunto de datos) es una medida de dispersión para variables de razón
(variables cuantitativas o cantidades racionales) y de intervalo. Se define como la raíz cuadrada
de la varianza de la variable.

Para conocer con detalle un conjunto de datos, no solo basta con conocer las medidas de
tendencia central, sino que necesitamos conocer también la desviación que presentan los
datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de
tener una visión de los mismos más acorde con la realidad al momento de describirlos e
interpretarlos para la toma de decisiones.
La varianza:
En teoría de probabilidad, la varianza o variancia (que suele representarse como σ 2) de una
variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la
desviación de dicha variable respecto a su media.

Su unidad de medida corresponde al cuadrado de la unidad de medida de la variable: por


ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al
cuadrado. La varianza tiene como valor mínimo 0. La desviación estándar (raíz cuadrada de la
varianza) es una medida de dispersión alternativa, expresada en las mismas unidades que los
datos de la variable objeto de estudio.

Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no
se aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas.
En tales casos se recomienda el uso de otras medidas de dispersión más robustas.

Coeficiente de variación:
El coeficiente de variación permite comparar la dispersión entre dos poblaciones distintas e
incluso, comparar la variación producto de dos variables diferentes (que pueden provenir de
una misma población).

Estas variables podrían tener unidades diferentes, por ejemplo, podremos determinar si los
datos tomados al medir el volumen de llenado de un envase de cierto líquido varían más que
los datos tomados al medir la temperatura del líquido contenido en el envase al salir al
consumidor. El volumen los mediremos en centímetros cúbicos y la temperatura en grados
centígrados.

El coeficiente de variación elimina la dimensionalidad de las variables y tiene en cuenta la


proporción existente entre una medida de tendencia y la desviación típica o estándar.
Desviación relativa:
La precisión se puede expresar también en términos relativos, como desvió medio por ciento o
como desvió medio en partes por mil.

Ejemplo:

D media = (0.07 * 100) / 24.29 = 0.29 %

D media = (0.07 * 1000) / 24.29 = 2.9 partes por mil

En conclusión
La exactitud indica qué tan cerca se encuentra del resultado correcto. Mientras que, la
precisión es que tan consistentemente se obtiene el resultado con el mismo método.

Por lo tanto, la diferencia entre la precisión y la exactitud es crucial en muchos empeños


científicos.

No hay precisión, si existe una dispersión amplia entre los dardos ni tampoco exactitud porque
están alejados de la diana, es decir, del centro

Bibliografía:

- http://www.monografias.com/trabajos102/analisis-instrumental/analisis-
instrumental.shtml#ixzz5Dvc4cIgd
- “Principios de análisis instrumental” 5ª edición. D. A. Skoog, F. J. Holler, T. A. Nieman.
Editorial: McGraw Hill (2000).
- “introducción al análisis instrumental”. L. Hernández, C. González. Editorial Ariel
Ciencia (2002).

You might also like