Cómo calcular la incertidumbre
Incertidumbre = desviación estándar × factor de cobertura. La desviación estándar es la raíz cuadrática media de la distribución de los resultados de la medición, y el factor de cobertura es un factor relacionado con la probabilidad de confianza que se utiliza para convertir la desviación estándar en incertidumbre. Métodos comunes de cálculo de incertidumbre: método de lectura directa, el método de cálculo más simple y más utilizado. La diferencia entre error e incertidumbre es la siguiente: en principio, el valor del error conocido se puede utilizar para corregir el resultado. El resultado del análisis corregido está muy cerca del valor medido, por lo que el error se puede ignorar. Sin embargo, la incertidumbre sigue siendo grande porque los analistas no están seguros de qué tan cercanas son las mediciones. El significado de incertidumbre se refiere al grado de incertidumbre sobre el valor medido debido a la existencia de un error de medición. A su vez, también indica cuán confiables son los resultados. Es una medida de la calidad de los resultados.