Cómo calcular errores estándar

El error estándar indica qué tan dispersas están las mediciones dentro de una muestra de datos. Es la desviación estándar dividida por la raíz cuadrada del tamaño de la muestra de datos. La muestra puede incluir datos de mediciones científicas, puntajes de pruebas, temperaturas o una serie de números aleatorios. La desviación estándar indica la desviación de los valores muestrales de la media muestral. El error estándar está inversamente relacionado con el tamaño de la muestra: cuanto mayor es la muestra, menor es el error estándar.

Calcule la media de su muestra de datos. La media es el promedio de los valores de la muestra. Por ejemplo, si las observaciones meteorológicas en un período de cuatro días durante el año son 52, 60, 55 y 65 grados Fahrenheit, entonces la media es 58 grados Fahrenheit: (52 + 60 + 55 + 65) / 4.

Calcule la suma de las desviaciones cuadradas (o diferencias) de cada valor de muestra de la media. Tenga en cuenta que multiplicar números negativos por sí mismos (o elevarlos al cuadrado) produce números positivos. En el ejemplo, las desviaciones al cuadrado son (58 - 52) ^ 2, (58 - 60) ^ 2, (58 - 55) ^ 2 y (58 - 65) ^ 2, o 36, 4, 9 y 49, respectivamente. Por lo tanto, la suma de las desviaciones al cuadrado es 98 (36 + 4 + 9 + 49).

Calcula la desviación estándar. Divida la suma de las desviaciones al cuadrado por el tamaño de la muestra menos uno; luego, saca la raíz cuadrada del resultado. En el ejemplo, el tamaño de la muestra es cuatro. Por lo tanto, la desviación estándar es la raíz cuadrada de [98 / (4 - 1)], que es aproximadamente 5,72.

Calcule el error estándar, que es la desviación estándar dividida por la raíz cuadrada del tamaño de la muestra. Para concluir el ejemplo, el error estándar es 5.72 dividido por la raíz cuadrada de 4, o 5.72 dividido por 2, o 2.86.

  • Cuota
instagram viewer