La metrología
Short Description
vienen explicados varios temas sobre la metrologia.....
Description
La metrología como ciencia
Metrología: Es la ciencia de las mediciones. Deriva del griego “metrón” medida y “logos” “logos” lógica. Sus elementos elementos clave son: son:
El establecimiento de estándares de medición que sean internacionalmente internacionalmente aceptados y definidos El uso de equipo de medición para correlacionar correlacionar la extensión que los datos del producto y proceso están conforme a especificaciones La calibración regular de equipos de medición, rastreables a estándares internacionales establecidos
“La Metrología es la ciencia de la medida”. Las medidas y l a metrología son esenciales y prácticamente para todas las facetas del desarrollo del hombre debido a que son utilizadas en actividades que van desde el control de la producción, la medida de la calidad del medio ambiente, la evaluación de la salud, seguridad y los ensayos relativos a la calidad de los materiales, alimentos y otros productos, productos, hasta la garantía de un comercio justo y la protección de los consumidores. consumidores. La metrología tiene varios campos: campos: metrología legal, metrología industrial y metrología científica son divisiones que se ha aceptado en el mundo encargadas en cubrir todos los aspectos técnicos y prácticos de las mediciones.
1.2 Importancia y necesidades de las mediciones
La metrología es decisiva en el comercio internacional debido a que proporciona los medios técnicos necesarios para asegurar medidas correctas, correctas, mediante la implementación de un sistema armonizado de medición compuesto por el Sistema Internacional de Unidades (SI), la exactitud de los instrumentos instrumentos de medidas cumpliendo con normas internacionales (como las recomendaciones recomendaciones de la OIML) y los métodos y procedimientos validados: validados: la medición entra en prácticamente todas las operaciones comerciantes, desde el comercio del producto a granel (como los minerales, el petróleo y el gas natural) hasta la venta minorista de productos al público en el mercado. La realidad es que existen sin fin de ejemplo que podremos citar y los cuales demuestran demuestran la importancia que tiene la metrología, alguno de ellos son los siguientes: 1. El precio de los productos comercializados comercializados se deriva de la cantidad que está involucrada en ellos, la cual normalmente se determina por medición. Los precios correctos obviamente dependerán de mediciones correctas. Para lograr estas mediciones es necesario verificar y calibrar los instrumentos de medidas. En ambos casos, el comportamiento comportamiento de un equipo de medida se compara con el de instrumento de medida con mayor exactitud, conocido como patrón de medida. 2. La tarea de asegurar la verificación de instrumentos de medida y la vigilancia de su uso en el comercio recae en los Servicios Nacionales de Metrología. 3. Además de la cantidad, la calidad de los productos y su conformidad con las normas son conceptos esenciales en el comercio internacional. internacional. El control de la calidad y la conformidad requiere de muchos casos mediciones mediciones los resultados de las medidas deben ser indudable si se espera confianza en los resultados del ensayo y en la aceptación de los certificados. certificados. Los laborato l aboratorios rios de calibración debe cerciorarse de que sus mediciones y el equipo de ensayo son debidamente calibrados. La mayoría de los procesos de producción modernos se caracterizan por el ensamblaje de la mayoría de sus partes y componentes comprados en el mercado internacional. Esto implica de manera directa la aplicación de sistemas de medida uniformes, fiables que garanticen el intercambio de las dimensiones mecánicas y la compatibilidad de las especificaciones eléctricas. Por tal motivo es tarea de los institutos nacionales de metrología mantener mantener los patrones nacionales de manera que el equipo de medición pueda referirse a estos patrones.
La instrumentación es una de las llaves de la tecnología que esta envuelta en toda manufactura industrializada. industrializada. Hoy en día es inimaginable la industria moderna sin una compleja interacción de numerosos numerosos sistemas envueltos por diferentes instrumentos de medición. Pero el conocimiento y entendimiento del funcionamiento de estos instrumentos no basta para obtener la calidad total de nuestro producto, existe la necesidad de realizar mediciones adecuadas para poder controlar y/o corregir nuestro producto final. La medición es la herramienta que usamos para obtener la información proporcionada por los instrumentos, que nos proveen los datos del comportamiento de nuestros sistemas para poder tomar decisiones. Pero, ¿que serian de estas mediciones sin la metrología?. metrología?. La metrología, es la ciencia que estudia las mediciones y en la cual se incluyen todos los aspectos teóricos y prácticos de estas, que nos ayudan a describir numéricamente el comportamiento del sistema. El costo de producción de trabajo, es uno de los elementos más importantes en la estructura de los costos de producción para una empresa bajo condiciones de competencia perfecta. Toda empresa debe organizar de algún modo el proceso productivo para resolver adecuadamente los problemas económicos fundamentales. Desafortunamente Desafortunamente algunas veces solo consideramos el mantenimiento preventivo y correctivo del instrumento como parte fundamental en el proceso, olvidamos olvidamos analizar los factores metrológicos metrológicos que pueden existir en el sistema, por ejemplo los factores ambientales, humanos, calibraciones, fuentes de errores dinámicos y estáticos en los equipos, la confirmación metrológica, metrológica, métodos de medición adecuados, etc., pudiéramos mencionar un sin número de efectos que pudieran provocar cambios en el producto final. Si la l a metrología fuera considerada como parte importante de nuestros procesos de producción, los costos de producción algunas veces pudieran reducirse y no optar por la compra de equipo que algunas veces son innecesarios.
1.3 Sistema de unidades y patrones
El Sistema Internacional de Unidades (SI) El Sistema Internacional de Unidades (SI) tiene su origen en el sistema métrico, sistema de medición adoptado con la firma de la Convención del Metro en 1875. Para 1960, la Conferencia General de Pesos y medidas (C.G.P.M) como autoridad suprema para la época adoptó el nombre de Sistema Internacional de Unidades (SI). El SI está hoy en día en uso en más de 100 países. Está formado por siete unidades básicas y varias unidades derivadas derivadas.. Las unidades básicas son: • El metro (m) para la magnitud longitud • El kilogramo (kg) para la magnitud masa • El segundo (s) para la magnitud tiempo • El amperio (A) para la corriente eléctrica • El Kelvin (k) para la temperatura termodinámica • El mol (mol) para la cantidad de sustancia • La candela (cd (cd)) para la intensidad luminosa. A partir de este conjunto coherente de unidades de medición se establecen otras unidades derivadas, mediante las cuales se miden muy diversas magnitudes tales como velocidad velocidad,, aceleración, fuerza fuerza,, presión,, energía, tensión y resistencia eléctrica, entre otras. presión
¿Qué es un patrón de medida? Un patrón puede ser un instrumento de medida, una medida materializada, un material de referencia o un sistema de medida destinado a definir, realizar o reproducir una unidad o varios valores de magnitud, para que sirvan de referencia.
Por ejemplo, la unidad de magnitud "masa", en su forma materializada, es un cilindro de metal de 1kg, y un bloque calibrador representa ciertos valores de magnitud "longitud". La jerarquía de los patrones comienza desde el patrón internacional en el vértice y va descendiendo hasta el patrón de trabajo trabajo.. Las definiciones de estos términos, según se citan en el Vocabulario Internacional de Términos Básicos y generales en Metrología se indican a continuación: •
Patrón Primario.
Patrón que es designado o ampliamente reconocido como poseedor de las más altas cualidades metrológicas y cuyo valor se acepta sin referirse a otros patrones de la misma magnitud.
•
Patrón Nacional
Patrón reconocido por la legislación nacional para servir de base, en un país, en la asignación de valores a otros patrones de la magnitud afectada. •
Patrón Internacional
Patrón reconocido por un acuerdo internacional para servir de base internacionalmente en la asignación de valores a otros patrones de la magnitud afectada. La custodia del patrón internacional corresponde a la Oficina Internacional de Pesos y Medidas (BIPM) en Sévres, cerca de París. El patrón más antiguo en uso es el prototipo del Kilogramo. •
Patrón Secundario
Patrón cuyo valor se asigna por la comparación con un patrón primario de la misma magnitud, normalmente los patrones primarios son utilizados para calibrar patrones secundarios. •
Patrón de Trabajo
Patrón que se utiliza corrientemente para calibrar o controlar medidas materializadas, instrumentos de medición o materiales de referencia. •
Patrón de referencia
Patrón en general, de la más alta calidad metrológica disponible en un lugar dado o en una organización determinada, de la cual se derivan las mediciones efectuadas en dicho lugar. Los laboratorios de calibración mantienen los patrones de referncia para calibrar sus patrones de trabajo. •
Patrón de transferencia
Patrón utilizado como intermediario para comparar patrones. Las resistencias se utilizan como patrones de transferencia para comparar patrones de voltaje. Las pesas se utilizan para comparar balanzas. •
Patrón viajero
Patrón, algunas veces de construcción especial, diseñado para el transporte entre distintos emplazamientos utilizado para la intercomparación de patrones. Un patrón de frecuencia de cesio accionado por acumulador portátil puede utilizarse como patrón de fuerza viajero.
1.4 Conceptos de medida precisión y exactitud
Medida: Medir consiste en obtener la magnitud (valor numérico) de algún objeto físico, mediante su comparación con otro de la misma naturaleza que tomamos como como patrón. Esta comparación comparación con un patrón, que constituye el acto de medir, está sujeta a una incertidumbre, que puede tener diversos orígenes. Nunca lograremos obtener el verdadero valor de la magnitud, siempre vamos a obtener un valor aproximado de la misma y necesitamos pues indicar lo buena que es esta aproximación. Por ello junto con el valor de la magnitud medida se debe adjuntar una estimación de la incertidumbre o error al objeto de saber cuan fiable son los resultados r esultados que obtenemos.
Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella.
Exactitud: se refiere a que tan cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacta es una estimación.
Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero.
1.5 Sensibilidad e incertidumbre
Sensibilidad: Es la relación entre el desplazamiento de la marca en un aparato de medida y la variación de la magnitud, observada en dicho aparato y la variación de la magnitud de medida que ha provocado dicho desplazamiento. Incertidumbre: Es un parámetro asociado al resultado de una medida que caracteriza la dispersión de los valores que pueden atribuirse razonablemente a dicha medición; En metrología, metrología, es una cota superior del valor de la corrección residual de la medida. medida. También se puede expresar como el valor de la semi-amplitud semi- amplitud de un intervalo alrededor del valor resultante de la medida, que se entiende como el valor convencionalmente verdadero. El Vocabulario Internacional de Metrología (VIM) define la incertidumbre de medida como un parámetro un parámetro,, asociado al resultado de una medición, medición, que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al mensurando. mensurando . Existen muchas formas de expresar la incertidumbre de medida o conceptos derivados o asociados: incertidumbre típica, típica, incertidumbre expandida, expandida, incertidumbre de calibración -calibración-, calibración-, incertidumbre máxima, máxima, incertidumbre de uso, uso, etc. Como concepto metrológico, es del mismo ámbito, pero diferente a los de tolerancia y precisión. precisión. Para la determinación del valor de las magnitudes fundamentales
(obtenido experimentalmente) en unidades del SI, SI, se aplica la incertidumbre típica, revisada periódicamente.
¿Es posible realizar una calibración sin evaluar su incertidumbre? Según el Vocabulario internacional de términos metrológicos (VIM), el resultado de medición es “el valor atribuido al mensurando, obtenido por medición”, y el resultado no está completo si no incluye información sobre la incertidumbre de medida. Además, la norma UNE-EN ISO/IEC 17025:2006 - Requisitos generales para la competencia de los laboratorios de ensayo y calibración indica claramente (5.10.4.1) que los certificados de calibración deben incluir la incertidumbre de medición. Así pues, para que un informe o certificado pueda ser llamado de calibración es indispensable acompañar los resultados de las mediciones de su respectiva incertidumbre. ¿Cómo estimo la incertidumbre asociada a mis mediciones? La incertidumbre de medición comprende, en general, muchas componentes; algunas de ellas pueden evaluarse a partir de la distribución estadística de los resultados de series de medidas, y pueden caracterizarse por desviaciones típicas experimentales; otras componentes, que también pueden ser caracterizadas por desviaciones típicas, se evalúan a partir de la asunción de determinadas distribuciones de probabilidad basadas en la experiencia o en otras informaciones. Las etapas a seguir para evaluar y expresar la incertidumbre del resultado de una medición, tal como se presentan en la Guía para la expresión de la incertidumbre de medida, pueden resumirse como sigue: 1. Expresar matemáticamente la relación existente entre el mensurando Y y las magnitudes de entrada Xi de las que depende el mensurando, en la forma Y = f(X1, X2,…, XN), incluyendo correcciones y factores de corrección, que pueden contribuir significativamente a la incertidumbre del resultado. 2. Determinar los valores estimados xi de las magnitudes de entrada Xi, a partir del análisis estadístico de series de observaciones, o por otros métodos. 3. Evaluar las incertidumbres típicas u (xi) de cada valor estimado xi bien por análisis estadístico de series de observaciones (evaluación de tipo A), bien por otros medios (evaluación de tipo B). 4. Evaluar, si es el caso, las covarianzas asociadas a todas las estimaciones de entrada que estén correlacionadas. 5. Calcular el resultado de medición; esto es, la estimación y del mensurando Y, a partir de la relación funcional f utilizando para las magnitudes de entrada Xi las estimaciones xi obtenidas en el paso 2. 6. Determinar la incertidumbre típica combinada uc (y) del resultado de medida y, a partir de las incertidumbres típicas y covarianzas asociadas a las estimaciones de entrada.
7. Si debe obtenerse una incertidumbre expandida U, multiplicar la incertidumbre típica combinada uc (y) por un factor de cobertura k, normalmente comprendido entre los valores 2 y 3, Página 3 de 5 para obtener U = k?uc (y). Seleccionar k considerando el nivel de confianza (normalmente 95%) requerido para el intervalo y-UCI+U. 8. Documentar el resultado de medición y, junto con su incertidumbre típica combinada uc (y), o su incertidumbre expandida U, describir cómo han sido obtenidos los valores de y, y de uc (y) o U.
¿Qué fuentes de incertidumbre es necesario considerar en una medición? En una medición existen numerosas fuentes posibles de incertidumbre, entre ellas: A. definición incompleta del mensurando, B. realización imperfecta de la definición del mensurando, C. muestra no representativa del mensurando (la muestra analizada puede no representar al mensurando definido), D. conocimiento incompleto de los efectos de las condiciones ambientales sobre la medición, o medición imperfecta de dichas condiciones ambientales, E. lectura sesgada de instrumentos analógicos, por parte del personal técnico, F. resolución finita del instrumento de medida o umbral de discriminación, G. valores inexactos de los patrones de medida o de los materiales de referencia, H. valores inexactos de constantes y otros parámetros tomados de fuentes externas y utilizados en el algoritmo de tratamiento de los datos, I. aproximaciones e hipótesis establecidas en el método/procedimiento de medida, J. variaciones en las observaciones repetidas del mensurando, en condiciones aparentemente idénticas.
1.6 Sensibilidad e incertidumbre
Sensibilidad: es la relación entre el desplazamiento de la marca en un aparato de medida y la variación de la magnitud, observada en dicho aparato y la variación de la magnitud de medida que ha provocado dicho desplazamiento. Es la relación que existe entre la variación del instrumento y la del efecto medido.Es la magnitud más pequeña que puede medir el instrumento.
Incertidumbre: Es una parámetro asociado al resultado de una medición que caracteriza la dispersión de los valores que pueden atribuirse razonablemente a dicha medicion; en metrología, metrología, es una cota superior del valor de la corrección residual de la medida. medida. También se puede expresar como el valor de la semi-amplitud semi- amplitud de un intervalo alrededor del valor resultante de la medida, que se entiende como el valor convencionalmente verdadero. El Vocabulario Internacional de Metrología (VIM) define la incertidumbre de medida como un parámetro un parámetro,, asociado al resultado de una medición, medición, que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al mensurando. mensurando . Existen muchas formas de expresar la incertidumbre de medida o conceptos derivados o asociados: incertidumbre típica, típica, incertidumbre expandida, expandida, incertidumbre de calibración -calibración-, calibración-, incertidumbre máxima, máxima, incertidumbre de uso, uso, etc. Como concepto metrológico, es del mismo ámbito, pero diferente a los de tolerancia y precisión. precisión. Para la determinación del valor de las magnitudes fundamentales (obtenido experimentalmente) en unidades del SI, SI, se aplica la incertidumbre típica, revisada periódicamente.
¿Es posible realizar una calibración sin evaluar su incertidumbre? Según el Vocabulario internacional de términos metrológicos (VIM), el resultado de medición es “el valor atribuido al mensurando, obtenido por medición”, y el resultado no está completo si no incluye información sobre la incertidumbre de medida. Además, la norma UNE-EN ISO/IEC 17025:2006 - Requisitos generales para la competencia de los laboratorios de ensayo y calibración indica claramente (5.10.4.1) que los certificados de calibración deben incluir la incertidumbre de medición. Así pues, para que un informe o certificado pueda ser llamado de calibración es indispensable acompañar los resultados de las mediciones de su respectiva incertidumbre.
¿Cómo estimo la incertidumbre asociada a mis mediciones? La incertidumbre de medición comprende, en general, muchas componentes; algunas de ellas pueden evaluarse a partir de la distribución estadística de los resultados de series de medidas, y pueden caracterizarse por desviaciones típicas experimentales; otras componentes, que también pueden ser caracterizadas por desviaciones típicas, se evalúan a partir de la asunción de
determinadas distribuciones de probabilidad basadas en la experiencia o en otras informaciones. Las etapas a seguir para evaluar y expresar la incertidumbre del resultado de una medición, tal como se presentan en la Guía para la expresión de la incertidumbre de medida, pueden resumirse como sigue: 1. Expresar matemáticamente la relación existente entre el mensurando Y y las magnitudes de entrada Xi de las que depende el mensurando, en la forma Y = f(X1, X2,…, XN), incluyendo correcciones y factores de corrección, que pueden contribuir significativamente a la incertidumbre del resultado. 2. Determinar los valores estimados xi de las magnitudes de entrada Xi, a partir del análisis estadístico de series de observaciones, o por otros métodos. 3. Evaluar las incertidumbres típicas u (xi) de cada valor estimado xi bien por análisis estadístico de series de observaciones (evaluación de tipo A), bien por otros medios (evaluación de tipo B). 4. Evaluar, si es el caso, las covarianzas asociadas a todas las estimaciones de entrada que estén correlacionadas. 5. Calcular el resultado de medición; esto es, la estimación y del mensurando Y, a partir de la relación funcional f utilizando para las magnitudes de entrada Xi las estimaciones xi obtenidas en el paso 2. 6. Determinar la incertidumbre típica combinada uc (y) del resultado de medida y, a partir de las incertidumbres típicas y covarianzas asociadas a las estimaciones de entrada. 7. Si debe obtenerse una incertidumbre expandida U, multiplicar la incertidumbre típica combinada uc (y) por un factor de cobertura k, normalmente comprendido entre los valores 2 y 3, para obtener U = k?uc (y). Seleccionar k considerando el nivel de confianza (normalmente 95%) requerido para el intervalo y-UCI+U. 8. Documentar el resultado de medición y, junto con su incertidumbre típica combinada uc (y), o su incertidumbre expandida U, describir cómo han sido obtenidos los valores de y, y de uc (y) o U.
¿Qué fuentes de incertidumbre es necesario considerar en una medición? En una medición existen numerosas fuentes posibles de incertidumbre, entre ellas: A. definición incompleta del mensurando, B. realización imperfecta de la definición del mensurando, C. muestra no representativa del mensurando (la muestra analizada puede no representar al mensurando definido), D. conocimiento incompleto de los efectos de las condiciones ambientales sobre la medición, o medición imperfecta de dichas condiciones ambientales, E. lectura sesgada de instrumentos analógicos, por parte del personal técnico, F. resolución finita del instrumento de medida o umbral de discriminación,
G. valores inexactos de los patrones de medida o de los materiales de referencia, H. valores inexactos de constantes y otros parámetros tomados de fuentes externas y utilizados en el algoritmo de tratamiento de los datos, I. aproximaciones e hipótesis establecidas en el método/procedimiento de medida, J. variaciones en las observaciones repetidas del mensurando, en condiciones aparentemente idénticas.
1.7 Errores en la medición Clasificación de los errores Mediciones repetidas de una magnitud dada con el método, por el mismo observador e instrumento y en circunstancias análogas, no conducen siempre al mismo mismo resultado. Esto muestra que cada una de ellas está afectada de un error que depende de los agentes que concurren a la medición, a saber: 1. 2. 3. 4.
El métod método o de medid medida a emplea empleada. da. El obse observ rvad ador or.. El inst instru rume ment nto. o. y las condicio condiciones nes del ambient ambiente e en que se se desarrolla desarrolla la experiencia.
Atendiendo a su naturaleza y a las causas que los producen estos e stos errores pueden clasificarse en tres categorías: •
•
•
Errores groseros o fallas. Errores sistemáticos constantes. Errores accidentales, casuales y fortuitos.
Errores groseros o fallas Caracteriza a los errores groseros, el hecho de que su magnitud excede la que puede preverse teniendo en cuenta los medios con que opera. Estos errores provienen generalmente de la distracción del observador, y para ellos no existe teoría. El cuidado con que trabaja el observador contribuye a disminuir la frecuencia de estos errores los cuales es necesario precaverse mediante oportunas operaciones de control.
Errores sistemáticos Estos errores son llamados así en razón de que su característica es que se repiten exactamente y en el mismo sentido, para todas las mediciones que se hagan en iguales condiciones, de tal manera que
las causas perturbadoras que conducen muchas veces a estos errores, pueden ser expresadas en fórmulas matemáticas. Consecuente con ello, al ser determinados en valor y signo, en general es posible desafectarlos del resultado de, la medición, es decir que los valores medidos pueden ser "corregidos" o "reducidos”. No en todos los casos esto es aceptable, en razón de que la aplicación de la formula puede crear incertidumbre en los valores corregidos de una manera exagerada, como luego puede verse en la segunda parte de este tema. Otras veces es posible eliminar la causa que origina este error, no por un tratamiento matemático sino mediante un artificio que logre que esta perturbación sé "auto elimine" y por lo tanto no quede incluida en el resultado final de la medición. Se considera que este procedimiento es más adecuado que la eliminación del error mediante la "corrección" antes mencionada. Finalmente puede existir una causa de origen sistemático que el observador por su poca experiencia, estudio u otra circunstancia, no lo descubra en el análisis previo a la medición y por lo tanto el mismo quedará incluido en el resultado final. Ante la duda es preferible buscar otro método de medida. En virtud de las distintas causas que involucra este tipo de error, es conveniente para su estudio efectuar una subdivisión del mismo comprendiendo: 1)
Errores en los instrumentos o aparatos (errores de aparatos.
2)
Errores debidos al método de medida (errores de método).
3) Errores debidos a las condiciones externas o del medio ambiente. 4)
Errores debidos al observador (ecuación personal.
Errores sistemáticos debidos a los instrumentos y componentes de medida Si bien hemos introducido los errores que cometen estos instrumentos en la clasificación de los sistemáticos, en un sentido estricto, no debe olvidarse que también en estos aparatos existen
causas de otro origen, que producen errores adicionales superpuestos con los primeros. En general la magnitud de los efectos. Sistemáticos (orden de grandor) frente a los restantes y en particular a los que corresponden a los instrumentos indicadores, justifica en cierto cie rto modo su inclusión en este capítulo. Los errores sistemáticos en estos instrumentos son consecuencia de la falta de ajuste e imperfección en la calibración de los mismos, mientras que los restantes, denominados accidentales son debidos a las variaciones en el tiempo de la magnitud calibrada (inestabilidad), a su diseño constructivo, a los errores cometidos en el propio contraste y a los patrones utilizados. Para un estudio racional del problema es interesante efectuar una subdivisión de los instrumentos que constituyen este capítulo, dada sus propias características, diseño y sistema de lectura, en dos categorías, definidas: los primeros se han de referir a mediciones efectuadas mediante la posición de un índice en su escala -sistema de deflexión o instrumento indicador- los segundos son aquellos en que la medición es realizada, en el preciso momento de un equilibrio, como son los denominados métodos de cero, -tales como los potenciómetros, puentes, etc., con sus correspondientes partes componentes; resistencias, inductancias, capacidades, divisores de tensión, etc.
Instrumentos Indicadores Como ya hemos dicho, en estos instrumentos y en particular en los indicadores, gran parte de los errores cometidos son por causas sistemáticas, pero también se superponen a estas, otras de carácter accidental que perturban la posición del índice, por lo que también han de ser tomadas en cuenta al establecer el error total que comete el instrumento indicador. En consecuencia, es conveniente separar estas fuentes de error por que corresponden a efectos secundarios distintos a saber. a) Los errores sistemáticos son causados por: 1. Imperfecció Imperfección n en el el trazado trazado de de la escala escala..
2. Modificació Modificación n de los parámetros parámetros que que contribuyen contribuyen a la, formació formación n del par motor y del antagónico (instrumentos de rotación pura. 3. Efectos, Efectos, secundari secundarios os exteriores exteriores cuya ley causal causal es conocida, conocida, (estos han de ser estudiados en tema aparte. b) los errores de característica accidental, cuya ley de variación es desconocida, causan efectos de incertidumbre en la posición, del índice, como consecuencia principalmente de los rozamientos, en los apoyos de su sistema móvil (sistema mecánico de pivotes); de la histéresis elástica de la suspensión, etc. y han de caracterizar 'la no repetibilidad de las lecturas, es decir que bajo la misma excitación (constancia de par motor), las indicaciones del instrumento no serán iguales; esto afectaran la llamada "precisión" del instrumento como luego hemos, de ver al estudiar los errores accidentales por ser una característica inherente a ellos. •
•
rozamientos en los apoyos de su sistema móvil. histéresis elástica de la suspensión.
View more...
Comments