Erros como instrumentos, premissas ou observações defeituosos podem surgir de várias causas em matemática e ciências. Determinar a porcentagem de erro pode expressar a precisão de seus cálculos. Você precisa conhecer duas variáveis: o valor estimado ou previsto e o valor conhecido ou observado. Subtraia o primeiro do último, divida o resultado pelo valor conhecido e converta esse número em porcentagem. Nesta fórmula, Y1 representa o valor estimado e Y2, o valor conhecido: [(Y1-Y2) / Y2] x 100 por cento.
O manual do laboratório do Departamento de Física e Astronomia da Universidade de Iowa fornece um exemplo histórico de porcentagem de erro: o cálculo de Ole Romer da velocidade da luz. Romer estimou a velocidade da luz em 220.000 quilômetros por segundo, embora a constante real seja muito maior, 299.800 quilômetros por segundo. Usando a fórmula acima, você pode subtrair a estimativa de Romer do valor real para obter 79.800; dividir esse resultado pelo valor real dá o resultado 0,26618, que equivale a 26,618 por cento. As aplicações mais mundanas da fórmula podem prever altas temperaturas por uma semana e depois comparar essa previsão com as temperaturas reais observadas. Cientistas sociais e profissionais de marketing também podem usar a fórmula; por exemplo, você pode prever que 5.000 pessoas comparecerão a um evento público e, em seguida, comparar isso às 4.550 pessoas que realmente compareceram. O erro percentual, neste caso, seria de -9 por cento.