Nuevo

¿Cuál es la diferencia entre precisión y precisión?

¿Cuál es la diferencia entre precisión y precisión?

La precisión y la precisión son dos factores importantes a tener en cuenta al tomar mediciones de datos. Tanto la precisión como la precisión reflejan qué tan cerca está una medición de un valor real, pero la precisión refleja qué tan cerca está una medición de un valor conocido o aceptado, mientras que la precisión refleja qué tan reproducibles están las mediciones, incluso si están lejos del valor aceptado.

Conclusiones clave: precisión y precisión

  • La precisión es qué tan cerca está un valor de su verdadero valor. Un ejemplo es qué tan cerca llega una flecha al centro de la diana.
  • La precisión es lo repetible que es una medición. Un ejemplo es qué tan cerca está una segunda flecha de la primera (independientemente de si cualquiera está cerca de la marca).
  • El porcentaje de error se usa para evaluar si una medición es lo suficientemente precisa y precisa.

Puedes pensar en precisión y precisión en términos de dar en el blanco. Golpear con precisión el objetivo significa que está cerca del centro del objetivo, incluso si todas las marcas están en diferentes lados del centro. Golpear con precisión un objetivo significa que todos los golpes están muy separados, incluso si están muy lejos del centro del objetivo. Las mediciones que son precisas y exactas son valores repetibles y muy cercanos a los verdaderos.

Exactitud

Hay dos definiciones comunes de exactitud. En matemáticas, ciencias e ingeniería, la precisión se refiere a qué tan cerca está una medición del valor real.

La ISO (Organización Internacional de Normalización) aplica una definición más rígida, donde la precisión se refiere a una medición con resultados verdaderos y consistentes. La definición ISO significa que una medición precisa no tiene error sistemático ni error aleatorio. Esencialmente, la ISO aconseja que preciso se utilizará cuando una medición sea precisa y precisa.

Precisión

Precisión es cuán consistentes son los resultados cuando se repiten las mediciones. Los valores precisos difieren entre sí debido a un error aleatorio, que es una forma de error de observación.

Ejemplos

Puedes pensar en precisión y precisión en términos de un jugador de baloncesto. Si el jugador siempre hace una canasta, aunque golpea diferentes partes del aro, tiene un alto grado de precisión. Si no hace muchas canastas pero siempre golpea la misma porción del borde, tiene un alto grado de precisión. Un jugador cuyos tiros libres siempre hacen que la canasta sea exactamente igual tiene un alto grado de precisión y precisión.

Tome medidas experimentales para otro ejemplo de precisión y exactitud. Si toma medidas de la masa de una muestra estándar de 50.0 gramos y obtiene valores de 47.5, 47.6, 47.5 y 47.7 gramos, su escala es precisa, pero no muy precisa. Si su escala le da valores de 49.8, 50.5, 51.0 y 49.6, es más precisa que el primer balance pero no tan precisa. La escala más precisa sería mejor para usar en el laboratorio, siempre que hiciera un ajuste por su error.

Nemotécnico para recordar la diferencia

Una manera fácil de recordar la diferencia entre precisión y precisión es:

  • UNAdoel cura es dorecto (o doperder a valor real)
  • PAGSRecise es Repeating (o Repeatable)

Precisión, precisión y calibración

¿Crees que es mejor usar un instrumento que registra mediciones precisas o uno que registra mediciones precisas? Si se pesa en una báscula tres veces y cada vez que el número es diferente, pero está cerca de su peso real, la báscula es precisa. Sin embargo, podría ser mejor usar una escala que sea precisa, incluso si no es precisa. En este caso, todas las mediciones estarían muy cerca una de la otra y estarían "apagadas" del valor verdadero en aproximadamente la misma cantidad. Este es un problema común con las escalas, que a menudo tienen un botón de "tara" para ponerlas a cero.

Si bien las escalas y balanzas pueden permitirle tarar o realizar un ajuste para realizar mediciones precisas y precisas, muchos instrumentos requieren calibración. Un buen ejemplo es un termómetro. Los termómetros a menudo leen de manera más confiable dentro de un cierto rango y dan valores cada vez más inexactos (pero no necesariamente imprecisos) fuera de ese rango. Para calibrar un instrumento, registre qué tan lejos están sus mediciones de los valores conocidos o verdaderos. Mantenga un registro de la calibración para garantizar lecturas adecuadas. Muchos equipos requieren calibración periódica para garantizar lecturas precisas y precisas.

Aprende más

La precisión y la precisión son solo dos conceptos importantes utilizados en las mediciones científicas. Otras dos habilidades importantes para dominar son figuras significativas y notación científica. Los científicos usan el porcentaje de error como un método para describir cuán exacto y preciso es un valor. Es un cálculo simple y útil.