¿Qué es la incertidumbre de medición y cuáles son sus clasificaciones?
Clasificación abierta: instrumento, medición
La incertidumbre de medición se refiere a "un parámetro que representa razonablemente la dispersión de los valores de medición y está relacionado con los resultados de la medición".
Lo "razonable" en esta definición significa que se debe considerar la influencia de diversos factores en la medición, especialmente la medición debe estar bajo control estadístico, es decir, debe modificarse en el proceso de control aleatorio. Es decir, la medición se realiza bajo condiciones repetidas (ver JJG1001-1998 "Términos y Definiciones Generales de Metrología" ¿Artículo 5? Artículo 6, Artículo XX en este artículo se refiere al número de cláusula de la especificación) o condiciones de reproducibilidad (Ver 5? Punto 7), cuando se realiza la misma medición varias veces, la dispersión de los resultados de la medición puede ser 5? Artículo 8 La fórmula de Bessel se calcula y expresa mediante la desviación estándar de repetibilidad sr o la desviación estándar de reproducibilidad Sr.
"Relevante" en la definición significa que la incertidumbre de la medición es un parámetro "junto" con el resultado de la medición, y el resultado de la medición (ver 5?1) debe incluir la incertidumbre de la medición.
La incertidumbre de la medición, entendida desde el significado, se refiere al grado de duda o incertidumbre sobre la credibilidad y validez de los resultados de la medición. Es un parámetro que explica cuantitativamente la calidad de los resultados de la medición. De hecho, debido a mediciones imperfectas y a la falta de comprensión de las personas, los valores medidos obtenidos están dispersos, es decir, el resultado de cada medición no es el mismo valor, sino múltiples valores dispersos en un área determinada con una cierta probabilidad. . Aunque el error sistemático objetivo es un valor constante, solo podemos pensar que existe en un área determinada con una determinada distribución de probabilidad, y esta distribución de probabilidad en sí está dispersa. La incertidumbre de la medición es un parámetro que describe la dispersión de los valores de medición y no indica si los resultados de la medición están cerca del valor real.
Para caracterizar esta dispersión, la incertidumbre de medición se expresa en términos de desviación estándar. En aplicaciones prácticas, a menudo es necesario conocer los intervalos de confianza de los resultados de las mediciones. Por lo tanto, la Nota 1 de esta definición estipula que la incertidumbre de la medición también puede expresarse como un múltiplo de la desviación estándar o como la mitad del ancho de un intervalo que expresa el nivel de confianza. Para distinguir estas dos representaciones diferentes, se denominan incertidumbre estándar e incertidumbre expandida.
En la práctica, la incertidumbre de la medición puede provenir de los siguientes aspectos:
(1) La definición del mensurando es incompleta o imperfecta;
(2) La El método para lograr claridad en la medición no es ideal;
(3) El muestreo no es lo suficientemente representativo, es decir, la muestra medida no puede representar la muestra medida definida;
(4) El entorno durante el proceso de medición Comprensión incompleta del impacto, o medición y control imperfectos de las condiciones ambientales;
(5) Hay desviaciones humanas en las lecturas de instrumentos analógicos;
(6) La resolución de los instrumentos de medición o Discriminación insuficiente
(7) No se permite dar los valores numéricos de los estándares de medición y materiales de referencia (materiales de referencia
(8); ) No está permitido citar constantes y otros valores en los parámetros de cálculo de datos;
(9) Aproximaciones y suposiciones sobre métodos y procedimientos de medición;
(10) Variaciones en parámetros repetidos observaciones medidas en condiciones aparentemente idénticas.
Se puede observar que la incertidumbre en la medición generalmente proviene de la aleatoriedad y la ambigüedad, la primera se debe a condiciones insuficientes y la segunda a conceptos poco claros de las cosas mismas. Esto hace que la incertidumbre de la medición generalmente conste de múltiples componentes, algunos de los cuales pueden estimarse mediante la distribución estadística de los resultados (observaciones) de la serie de mediciones, cuya diferencia se basa en criterios experimentales (ver 5?8; otros componentes pueden); Estimado por otros métodos (distribuciones de probabilidad hipotéticas basadas en la experiencia u otra información), también se puede caracterizar por la desviación estándar. Se debe entender que todos estos ingredientes ayudan en la dispersión. Si necesita indicar que un determinado componente es causado por una determinada causa, puede utilizar la incertidumbre causada por efectos aleatorios y la incertidumbre causada por efectos sistemáticos para reemplazar los términos obsoletos u obsoletos "incertidumbre aleatoria" e "incertidumbre del sistema". . Por ejemplo, los componentes de incertidumbre causados por los valores de corrección y los estándares de medición pueden denominarse incertidumbres causadas por efectos del sistema.
Cuando la incertidumbre proviene de la varianza, sácale su raíz cuadrada positiva. Cuando el tamaño de la dispersión se expresa por la mitad del ancho del intervalo que representa el nivel de confianza, obviamente no tiene sentido tomar un valor negativo como la mitad del intervalo. Cuando la incertidumbre se divide por el resultado de la medición, se llama incertidumbre relativa, que es una cantidad adimensional generalmente expresada como porcentaje o potencia negativa de 10.
En el desarrollo de la incertidumbre de la medición, la gente la ha entendido tradicionalmente como “una estimación (o parámetro) que representa (o explica) el rango del valor real que se está midiendo”; Se entendió como "una medida del posible error en la estimación de una medición dada por el resultado de la misma". Conceptualmente, estas definiciones utilizadas son un proceso de desarrollo y evolución, que involucra dos conceptos idealizados o teóricos (en realidad cantidades desconocidas que son difíciles de operar), y lo que se puede operar específicamente son los resultados de la medición en la definición actual. , la discreción del valor medido. Ya a principios de la década de 1970, cada vez más estudiosos internacionales de la metrología se dieron cuenta de que era más científico utilizar "incertidumbre" en lugar de "error". Desde entonces, el término incertidumbre se ha ido utilizando progresivamente en el campo de la medición. En 1978, la Oficina Internacional de Pesas y Medidas propuso una recomendación para expresar la incertidumbre experimental INC-1. Las "Directrices para la expresión de la incertidumbre de la medición" de 1993 han sido reconocidas por BIPM, OIML, ISO, IEC, IUPAC, IUPAP e IFCC.
Aprobado por siete organizaciones internacionales y publicado por ISO, es un importante documento autorizado de organizaciones internacionales. Nuestro país también promulgó en 1999 las “Especificaciones Técnicas para la Evaluación y Expresión de la Incertidumbre en la Medición”. Llegados a este punto, la evaluación de la incertidumbre de la medida se ha convertido en una de las tareas básicas de los laboratorios de ensayo y calibración. Debido a que la teoría de la incertidumbre de la medición es relativamente nueva, es difícil de entender. Este artículo analiza algunas de las características de la incertidumbre.
Primero, el resultado de la medición es el área.
El objetivo de la medición es determinar el valor medido. La calidad de los resultados de las mediciones es la base más importante para medir la credibilidad de los resultados de las mediciones. La incertidumbre de la medición es una representación cuantitativa de la calidad de un resultado de medición, y la usabilidad del resultado de la medición depende en gran medida de su incertidumbre. Por lo tanto, la expresión de los resultados de la medición debe incluir tanto el valor medido como la incertidumbre de la medición asociada con el valor para que sea completa y significativa.
La incertidumbre de la medición es un parámetro que representa la dispersión de los valores de medición y está relacionado con los resultados de la medición. La definición de incertidumbre del diccionario es "cambio, falta de confiabilidad, incertidumbre, incertidumbre". Por lo tanto, en un sentido amplio, la incertidumbre de la medición se refiere al grado de duda o incertidumbre sobre la confiabilidad y validez de un resultado de medición. De hecho, debido a mediciones imperfectas y a la falta de comprensión de las personas, los valores medidos obtenidos están dispersos, es decir, el resultado de cada medición no es el mismo valor, sino múltiples valores dispersos en un área determinada con una cierta probabilidad. . Aunque el error sistemático objetivo es un valor relativamente determinado, solo podemos pensar que está distribuido en un área determinada con una cierta probabilidad, y esta distribución de probabilidad en sí está dispersa. La incertidumbre de la medición es un parámetro que explica la dispersión de los valores medidos. La incertidumbre de los resultados de la medición refleja la falta de comprensión precisa de los valores medidos. Incluso después de corregir ciertos errores sistemáticos, los resultados de la medición siguen siendo sólo una estimación del valor medido.
Valores porque la incertidumbre surge no sólo de efectos aleatorios en la medición sino también de una corrección incompleta por efectos sistemáticos.
En el sistema de transmisión de flujo original, el error permitido del estándar superior debe ser inferior a 1/2 ~ del estándar inferior.
1/3, con el desarrollo de la teoría de la incertidumbre, la gente se da cuenta de que la incertidumbre de los resultados de las mediciones debe analizarse utilizando métodos de evaluación de la incertidumbre. Cuando el instrumento bajo prueba tiene buena repetibilidad y el proceso de medición está bien controlado, las diferencias de incertidumbre de los dos estándares pueden ser casi las mismas, lo que reduce en gran medida la pérdida de precisión durante el proceso de transferencia y hace que el sistema de transferencia de valor sea más razonable.
En segundo lugar, la incertidumbre y el error
La teoría de la probabilidad, el álgebra lineal y la transformación integral son los fundamentos matemáticos de la teoría del error. Después de décadas de desarrollo, la teoría del error se ha convertido en un sistema propio. La desviación estándar experimental es el medio básico de análisis de errores y la base de la teoría de la incertidumbre. Por lo tanto, en esencia, la teoría de la incertidumbre se desarrolla sobre la base de la teoría del error, y sus métodos básicos de análisis y cálculo son los mismos. Pero hay una gran diferencia conceptual.
La incertidumbre de la medición representa la dispersión de los valores de medición y es un intervalo obtenido a través del análisis y evaluación del proceso de medición. El error de medición es la diferencia entre el resultado de una medición y su valor real. La medición corregida puede estar muy cerca del valor real (es decir, el error es pequeño), pero debido a la falta de comprensión, el valor asignado se encuentra dentro de un rango amplio (es decir, la incertidumbre de la medición es grande). Existen muchas diferencias conceptuales entre la incertidumbre de la medición y el error de medición.
Tres.
Evaluación de la incertidumbre de nivel A y nivel B
La incertidumbre estándar obtenida mediante el análisis estadístico de la serie de observaciones se denomina incertidumbre estándar de nivel A. La evaluación es diferente de la incertidumbre estándar obtenida mediante el análisis estadístico. análisis de la serie de observaciones. El grado de certeza se denomina incertidumbre estándar tipo B. La división de la incertidumbre en categorías "A" y "B" es sólo para facilitar la discusión y no significa que exista una diferencia esencial entre los dos tipos de evaluación. La incertidumbre de tipo A es
La función de densidad de probabilidad derivada de un conjunto de distribuciones de frecuencia observadas muestra que la incertidumbre de tipo B se basa en el grado de confianza en el evento. Todos se basan en distribuciones de probabilidad, caracterizadas por varianza o desviación estándar. No hay preguntas confiables en ninguna de las categorías de incertidumbre. En términos generales, A es más objetivo y estadísticamente riguroso que B. La independencia de la medición, si está bajo control estadístico y el número de mediciones determinan la confiabilidad de la incertidumbre tipo A.
No existe una correspondencia simple entre las incertidumbres "A" y "B" y la clasificación de "errores aleatorios" y "errores sistemáticos". "Aleatorio" y "sistemático" representan dos propiedades diferentes de los errores, y "A" y "B" representan dos métodos diferentes de evaluación de la incertidumbre. No existe un principio definido a seguir para la síntesis de errores aleatorios y errores sistemáticos, lo que genera diferencias y confusión en el procesamiento de los resultados experimentales. La síntesis de la incertidumbre de tipo A y la incertidumbre de tipo B utiliza la incertidumbre estándar, que también es uno de los avances en la teoría de la incertidumbre.