Descargar la presentación
La descarga está en progreso. Por favor, espere
1
INCERTIDUMBRE EN MEDICIONES
Los errores y las incertidumbres son dos términos diferentes, pero generalmente son interpretados como algo similar, siendo errónea esta deducción; por lo que se hace necesario explicar cada uno de ellos. Además, siendo la metrología una ciencia y, estando sus componentes y conocimientos basados en observaciones y/o experimentaciones se construyen hipótesis, se deducen principios y se elaboran leyes generales, lo que lleva a tener tanto para el error como para la incertidumbre fórmulas que permiten su obtención. 𝑥 = 𝑖 𝑛 𝑥 𝑖 𝑛 𝜎= 𝑖 𝑛 ( 𝑥 𝑖 − 𝑥 ) 2 (𝑛−1) = Promedio = Desviación Estándar 𝜀 𝑖 = 𝑥 𝑖 − 𝑥 Error = ERROR Es la diferencia entre el resultado obtenido y el valor aceptado como verdadero del mesurando (objeto medido). INCERTIDUMBRE Es la cantidad que describe la posible o probable magnitud del error. ERROR ≠ INCERTIDUMBRE ¿CÓMO CALCULAR UNA INCERTIDUMBRE? Identificar fuentes de incertidumbre. Estimar el tamaño de la incertidumbre de cada fuente. Combinar incertidumbres individuales para obtener una cifra total (estadística). CLASES DE ERRORES: SISTEMÁTICOS: son debidos a defectos del método o del instrumento ACCIDENTALES: son debidos a causas imposibles de controlar (cambios de temperatura, presión, vibraciones ) José Luis Gómez Jaime Villalobos, Ph.D. Universidad Nacional de Colombia Conozca como calcular las incertidumbre paso a paso con la Norma GTC 115 en
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.