Metrologia, Teoria de Errores

Aquí explicaremos un poco acerca de "La Teoría de Errores" con ello, se pretende que se sepa reconocer los
factores que influyen en el error, así como el cálculo del mismo. Además, se ofrecen algunas nociones sobre tratamiento de datos que incluye el ajuste de rectas mediante el método de mínimos cuadrados.

EXACTITUD Y PRECISION
En metrología, la exactitud es el grado de concordancia entre el valor verdadero y el experimental. Un aparato es exacto si las medidas realizadas con él son todas muy próximas al valor "verdadero" de la magnitud medida.
La precisión es el grado de concordancia entre una medida y otras de la misma magnitud realizadas en condiciones sensiblemente iguales. Un aparato es preciso cuando la diferencia entre diferentes medidas de una misma magnitud sean muy pequeñas.

CLASIFICACION DEL ERROR:
En metrología, el error se define como la diferencia entre el valor verdadero y el obtenido experimentalmente. Los errores no siguen una ley determinada y su origen esta en múltiples causas. Atendiendo a las causas que los producen, los errores se pueden clasificar en dos grandes grupos: errores sistemáticos y errores accidentales estos ultimos tambien conocidos como aleatorios.

Los errores sistemáticos son aquellos que permanecen constantes a lo largo de todo el proceso de medida y, por tanto, afectan a todas las mediciones de un modo definido y es el mismo para todas ellas.

Los errores accidentales o aleatorios son aquellos que se producen en las variaciones que pueden darse entre observaciones sucesivas realizadas por un mismo operador.
Estas variaciones no son reproducibles de una medición a otra y su valor es diferente para cada medida.


ERROR ABSOLUTO Y ERROR RELATIVO
En metrología, el error absoluto en una medida x de determinada magnitud es la diferencia entre dicho valor y el valor verdadero de la medida; se notará por Δx y, por tanto, su expresión es:

Δx=X-X0

donde x0 representa el valor verdadero de la medida. El error absoluto cuantifica la desviación en términos absolutos respecto al valor verdadero. No obstante, en ocasiones es más interesante resaltar la importancia relativa de esa desviación. Por ello, se define el error relativo como el cociente entre el error absoluto y el valor verdadero; notándolo por ε su expresión es:

ε =Δx/X0 y se multiplica por 100
Expresión del error
En metrología, presentar una medida efectuada, significa expresar el valor de dicha cantidad y expresar cual es su error; no tiene sentido establecer un determinado valor si no se acota debidamente el mismo. Así, la expresión correcta de una medida debe ser: x ± Δx
Dado que que existe imprescisión, este se escribe siempre con una única cifra significativa, es decir con el primer dígito comenzando por la izquierda distinto de cero; este número ser redondeado por exceso en una unidad si la segunda cifra significativa es 5 o mayor de 5. Este convenio de expresión del error encuentra dos excepciones: que la primera cifra significativa sea un 1 o que siendo la primera un 2, la segunda no llega 5; en estos casos, el error vendrá dado por las dos primeras cifras significativas, procediéndose al redondeo de la segunda en el mismo sentido que ya se ha explicado.
Se acepta como criterio que si el valor de una medida es leído de una tabla u otro lugar, sin indicación de su error, se tomará como error una unidad del orden de la última cifra con que se expresa; por ejemplo, si en una tabla aparece que el valor de una medida es de 0.056 sin ninguna indicación de error, se conviene en que el mismo es de ±0.001.

Determinación de errores en medidas directas.
Como ya se ha explicado, cuando se realice la medida de cualquier magnitud hay que indicar el error asociado a la misma. Dado que no conocemos el valor verdadero de la magnitud que deseamos medir, se siguen ciertos procedimientos para hacer una estimación del mismo y de su cota de error.

Determinación de errores en medidas indirectas.
Como ya se ha indicado, la medida indirecta de una magnitud se alcanza por aplicación de una fórmula a un conjunto de medidas directas, (variables independientes o datos), que las relacionan con la magnitud problema. Mediante dicha fórmula se obtiene también el error de la medida. Debe tenerse muy presente que si en la expresión matemática que relaciona las magnitudes aparecen números irracionales (tales como π o e) se deben elegir con un número de cifras significativas que no afecten a la magnitud del error absoluto de la magnitud que queremos determinar. En cualquier caso, esta elección determinará el valor del error asignado a dicha constante; en muchas ocasiones, sobre todo cuando se trabaja con calculadora u ordenador, lo más conveniente es tomar todos los decimales que aparecen para el número en cuestión: de esta manera, su error es muy pequeño y puede despreciarse frente a los del resto de las magnitudes que intervengan.
El procedimiento para determinar el error de la medida hecha de manera indirecta es el siguiente. Supongamos que la magnitud F es función de otras magnitudes físicas, estando relacionadas con ellas por la expresión genérica: ( , ,..., ) 1 2 N F = f x x x
Supongamos, además, que se han realizado medidas de las variables, xi, y se han determinado su valor y su error. Se obtiene la diferencial total de F en función de las diferenciales de las variables xi
y se hace la sumatoria de cada una de la derivadas paraciales, finalmente despues de pocos calculos podemos llegar a obtener que el es la sumatorio de una costante multiplicado por el error relativo

No hay comentarios.: