Evaluación de datos en investigación: exactitud, precisión y tipos de errores

Publicado: 2021-11-13

Al estudiar o revisar datos científicos, es esencial y de suma importancia estudiar y evaluar cuidadosamente los datos científicos. Los datos científicos son un factor crucial en la formulación de políticas y también tienen un efecto profundo y de gran alcance en la realización de investigaciones. Cuando se presentan con cálculos exactos y precisos, los datos contribuyen en gran medida a que la evaluación de datos científicos sea un éxito. Cuando las decisiones están respaldadas por datos científicos precisos, se da más credibilidad a la investigación científica.

La exactitud de los datos científicos depende de la precisión del experimento. La replicación de un experimento una y otra vez brinda datos más precisos y más información que los datos recopilados al experimentar solo unas pocas veces. Dichos datos se obtienen repitiendo los mismos pasos una y otra vez al experimentar. Repetir el experimento trae errores inesperados y da la oportunidad de negarlos. Los datos, cuando están libres de errores, se vuelven precisos y dan un resultado que se esperaba lograr del experimento.

En los datos científicos, términos como errores, precisión y exactitud tienen una gran importancia. Deben entenderse con cierto detalle para comprender mejor cómo funciona la evaluación de datos en la investigación científica. Además, la relación entre estos términos debe ser percibida de varias maneras, para que la investigación científica sea un éxito.

Mostrar tabla de contenido
  • Exactitud
    • Cómo medir la precisión
  • Precisión
  • Error sistematico
  • Error al azar
  • Personajes importantes
    • Cálculo y calculadora de cifras significativas
    • ¿Cómo usar la Calculadora de cifras significativas para la precisión de los resultados?

Exactitud

análisis-de-datos-informe-gráfico-estadísticas-tabla-marketing-investigación

Cuando la medición es precisa, está muy cerca del valor real. El valor real es el valor que no se conoce de antemano, pero suele ser el valor deseado que se espera alcanzar. La precisión es como dar en el blanco al que apunta un dardo cada vez que se lanza. Si el dardo no da en el blanco y está lo suficientemente cerca para dar en él, mide la precisión del dardo. Cualquier diferencia entre el valor real y el valor aceptado es un error.

Tomemos otro ejemplo, por ejemplo. Si el volumen de un líquido se toma en 100 ml y, en cambio, el volumen medido es de 98 ml, está muy cerca de dar la precisión del experimento. La precisión se define como qué tan cerca está la medición del valor real o aceptado. La precisión se logra tomando varias medidas y tomando un promedio de los valores medidos. La diferencia entre estos se puede expresar como positiva o negativa. Un valor positivo es también el valor absoluto, y es leer con una puntuación alta. Un valor negativo también es el valor absoluto cuando la lectura tiene una puntuación baja.

Recomendado para usted: Ciencia de datos vs. Inteligencia artificial: ¿cuáles son las diferencias?

Cómo medir la precisión

La precisión puede ser absoluta o relativa. Una vez más, la precisión se mide en términos de errores o diferencias de valores. Así, obtenemos una precisión absoluta o una precisión relativa.

Error absoluto: La precisión absoluta es la diferencia entre un valor medido y el valor real. Si el valor medido es inferior al valor real, el resultado es negativo o negativo. Y cuando el valor medido es mayor que el valor real o verdadero, el resultado es un valor positivo o positivo. Esto también se puede expresar mediante un cálculo simple: error absoluto = valor medido – valor real.

Error relativo: Esto se mide como un porcentaje. Cuando el error absoluto se divide por el valor verdadero y se multiplica por 100, obtenemos un porcentaje de error relativo. También se expresa en partes por mil o partes por millón, según sea el caso. Por lo tanto, se puede llegar al error relativo mediante las fórmulas:

 Error relativo = {(Valor medido – Valor verdadero) / Valor verdadero} x 100%

Precisión

código-programación-desarrollador-proyector-presentación

La precisión es otro factor que influye en la evaluación de datos. Se puede decir como los valores repetidos que se lograron en las mismas condiciones y realizando el experimento muchas veces. En el caso del juego de dardos, si el dardo sigue fallando en el blanco y sigue dando en el mismo lugar, cerca del blanco, repetidamente, es una medida de la precisión del dardo. Volviendo al análisis científico, la precisión es el número de veces que se logró la misma medida. Si se esperaba que el volumen real y deseado de líquido fuera de 100 ml, y cada 10 veces que se hizo el experimento, el resultado fue de 80 ml, se puede decir que los datos son precisos. Porque el resultado fue que el volumen de líquido fue de 80 ml, y se logró cada 10 veces que se hizo el experimento.

Exactitud y precisión no son términos independientes, sino que están interrelacionados entre sí. Esto se expresa en términos de errores. Los errores son causados ​​por instrumentos defectuosos y también por humanos. Estos pueden clasificarse además como errores sistemáticos y errores aleatorios. Comprender los errores es una mejor manera de comprender los términos de exactitud y precisión.

Error sistematico

contabilidad-finanzas-negocio-calculadora-datos-dinero-inversion

Los errores causados ​​por instrumentos defectuosos tomados para un experimento o el uso de instrumentos viejos y obsoletos para las mediciones son errores sistemáticos. Por ejemplo, usar escalas de medir oxidadas y viejas. Los errores sistemáticos por lo general no son un error por parte de la persona que mide o realiza los experimentos. Es un error en el sistema o en la configuración utilizada lo que provoca el error. Tal error puede corregirse reemplazando lo viejo por nuevo y ajustando y corrigiendo los sistemas utilizados.

Un tablero de dardos, por ejemplo, fijado en un ángulo, de modo que los dardos sigan golpeando el lado izquierdo es un error sistemático, y realinear el tablero de dardos corregirá este error. Una escala de medición vieja y oxidada se puede reemplazar con una escala nueva, de modo que las marcas se vean en negrita y se rectifique el error. Pero si toma varias medidas de una regla antigua y toma las medidas promedio, el resultado estará lejos del valor real.

Los errores sistemáticos pueden ser:

  • Errores en los cálculos.
  • Tomando temperaturas incorrectas.
  • Pérdida mecánica de material en varias etapas.
  • En el análisis se utilizaron sustancias impuras.
  • Errores en la toma de lecturas.
  • Instrumentos no calibrados correctamente.
  • Brazos de longitudes desiguales.
  • Materiales extraños que ingresan al experimento.
  • Uso de productos químicos impuros para un experimento.
Te puede interesar: Aplicación de Big Data para aprovechar tu publicidad en redes sociales.

Error al azar

Code-Byte-Digital-Cryptography-Cyber-Electronic-Encryption-Algorithm-Data

Los errores aleatorios son relativamente más fáciles de rectificar. Este error es un tipo de error humano y un error de juicio por parte de las personas que toman las lecturas o hacen el experimento. Tomar múltiples lecturas y luego llegar a una cifra promedio estará más cerca del valor real.

Personajes importantes

negocio-comercio-computadora-escritorio-internet-oficinatecnología-trabajo

Una Cifra Significativa es un dígito con valor práctico. Entendiendo el concepto de si un dígito tiene cifras significativas, podemos ver algunas reglas. Estas reglas son aplicables para conocer dígitos con valor práctico y dígitos que no tienen valor práctico, y su lugar en un número no lo afecta de ninguna manera. Estas reglas son:

  • Los dígitos que no son 'ceros' siempre son significativos. Por ejemplo, 269 es un dígito significativo.
  • Los ceros al principio no son significativos. Por ejemplo, 0,065.
  • Los ceros cautivos son significativos. Por ejemplo, 2,0085.
  • Si un número tiene puntos decimales y los ceros van detrás del número, entonces el número es significativo. Por ejemplo, 3.65800.
  • El cero puede ser o no una cifra significativa. Depende de dónde se coloque en un número. Por ejemplo, en 15.0002598 o 25.365100, los ceros son cifras significativas. Cero antes de un punto decimal, por ejemplo, 0.00258, solo hay tres cifras significativas, ya que los ceros no tienen ningún valor práctico.

Además, las cifras significativas también están determinadas por un conjunto de reglas, que son:

  • La suma/resta se redondea al menor número de decimales.
  • La multiplicación/división se redondea al menor número de cifras significativas.
  • Los logaritmos se redondean de modo que varias cifras significativas en la entrada coincidan con el número de decimales en el resultado.
  • Exponenciación redondeada a la certeza en la base solamente.
  • Los ceros finales se colocan después de un lugar decimal después del número. Por ejemplo, 1200.
  • Rondas en el último paso. Va después de paréntesis cuando es aplicable.

Cálculo y calculadora de cifras significativas

Good Calculators tiene su propia calculadora de cifras significativas, y calcula y calcula cuántas cifras significativas tiene un número.

¿Qué operadores y funciones admite la Calculadora de cifras significativas?

  • Funciones aritméticas como suma (+), resta (-), división (/ o ÷), multiplicación (* o x), exponente (^).
  • Símbolos de grupo como ().
  • Funciones como log n, ln n.
  • Constantes como pi, e.
También te puede interesar: Tecnología de excavación en datos profundos: una búsqueda del tesoro global del mundo real.

¿Cómo usar la Calculadora de cifras significativas para la precisión de los resultados?

Al calcular la Calculadora de cifras significativas a veces, los datos del resultado no son precisos. Entonces, para obtener una mayor precisión en los datos, coloque # al final del número. Por ejemplo, 6.24#.

 Ejemplo: 10,00698 ÷ 13,6 = 0,736 (las cifras significativas son 3).

10,00698 ÷ 13,6# = 0,7358074 (las cifras significativas son 7).

Agregar el símbolo # al final del número brinda resultados más precisos que simplemente poner un número. Cifras significativas es solo una forma de dar mayor precisión en las mediciones y cálculos. Al aplicar las reglas anteriores en el cálculo de una cifra significativa, los usuarios pueden ser más precisos al llegar a los resultados. Es aplicable en todos los campos de los cálculos científicos y tiene un impacto relevante y directo en la evaluación de los datos científicos.