Exatidão e precisão - Accuracy and precision

Em um conjunto de medições, a precisão é a proximidade das medições a um valor específico, enquanto a precisão é a proximidade das medições entre si.

A precisão tem duas definições:

  1. Mais comumente, é uma descrição de erros sistemáticos , uma medida de viés estatístico ; a baixa precisão causa uma diferença entre um resultado e um valor "verdadeiro". ISO chama isso de veracidade .
  2. Alternativamente, a ISO define precisão como a descrição de uma combinação de ambos os tipos de erro observacional acima (aleatório e sistemático), portanto, alta precisão requer alta precisão e alta exatidão.

A precisão é uma descrição de erros aleatórios , uma medida de variabilidade estatística .

Em termos mais simples, dado um conjunto de pontos de dados de medições repetidas da mesma quantidade, o conjunto pode ser considerado preciso se sua média estiver próxima do valor real da quantidade sendo medida, enquanto o conjunto pode ser considerado preciso se os valores forem próximos uns dos outros. Na primeira definição mais comum de "precisão" acima, os dois conceitos são independentes um do outro, portanto, um determinado conjunto de dados pode ser considerado exato ou preciso, ou ambos, ou nenhum.

Definição técnica comum

A precisão é a proximidade dos resultados da medição com o valor real; precisão é o grau em que medições repetidas (ou reproduzíveis ) sob condições inalteradas mostram os mesmos resultados.

Nos campos da ciência e da engenharia , a precisão de um sistema de medição é o grau de proximidade entre as medições de uma quantidade e seu valor real . A precisão de um sistema de medição, relacionada à reprodutibilidade e repetibilidade , é o grau em que medições repetidas sob condições inalteradas mostram os mesmos resultados . Embora as duas palavras precisão e exatidão possam ser sinônimos no uso coloquial , elas são deliberadamente contrastadas no contexto do método científico .

O campo da estatística , onde a interpretação das medidas desempenha um papel central, prefere usar os termos viés e variabilidade em vez de exatidão e precisão: viés é a quantidade de imprecisão e a variabilidade é a quantidade de imprecisão.

Um sistema de medição pode ser preciso, mas não preciso, preciso mas não preciso, nenhum ou ambos. Por exemplo, se um experimento contém um erro sistemático , aumentar o tamanho da amostra geralmente aumenta a precisão, mas não melhora a exatidão. O resultado seria uma série de resultados consistentes, mas imprecisos, do experimento defeituoso. A eliminação do erro sistemático melhora a precisão, mas não altera a precisão.

Um sistema de medição é considerado válido se for preciso e preciso . Os termos relacionados incluem viés ( efeitos não aleatórios ou direcionados causados ​​por um fator ou fatores não relacionados à variável independente ) e erro (variabilidade aleatória).

A terminologia também é aplicada a medições indiretas - ou seja, valores obtidos por um procedimento computacional a partir de dados observados.

Além da exatidão e precisão, as medições também podem ter uma resolução de medição , que é a menor alteração na quantidade física subjacente que produz uma resposta na medição.

Na análise numérica , a precisão é também a proximidade de um cálculo do valor verdadeiro; enquanto a precisão é a resolução da representação, normalmente definida pelo número de dígitos decimais ou binários.

Em termos militares, a precisão refere-se principalmente à precisão do tiro ( justesse de tir ), a precisão do tiro expressa pela proximidade de um agrupamento de tiros no centro do alvo e em torno dele.

Quantificação

Em instrumentação industrial, precisão é a tolerância de medição ou transmissão do instrumento e define os limites dos erros cometidos quando o instrumento é usado em condições normais de operação.

Idealmente, um dispositivo de medição é preciso e preciso, com medições todas próximas e agrupadas em torno do valor real. A exatidão e a precisão de um processo de medição são geralmente estabelecidas medindo repetidamente algum padrão de referência rastreável . Esses padrões são definidos no Sistema Internacional de Unidades (abreviado do francês para SI: Système international d'unités ) e mantidos por organizações de padrões nacionais , como o Instituto Nacional de Padrões e Tecnologia dos Estados Unidos.

Isso também se aplica quando as medições são repetidas e calculadas. Nesse caso, o termo erro padrão é devidamente aplicado: a precisão da média é igual ao desvio padrão conhecido do processo dividido pela raiz quadrada do número de medições calculadas. Além disso, o teorema do limite central mostra que a distribuição de probabilidade das medições médias estará mais próxima de uma distribuição normal do que a das medições individuais.

No que diz respeito à precisão, podemos distinguir:

  • a diferença entre a média das medições e o valor de referência, o viés . Estabelecer e corrigir o viés é necessário para a calibração .
  • o efeito combinado disso e precisão.

Uma convenção comum em ciência e engenharia é expressar exatidão e / ou precisão implicitamente por meio de algarismos significativos . Onde não for declarado explicitamente, a margem de erro é entendida como a metade do valor da última casa significativa. Por exemplo, um registro de 843,6 m, ou 843,0 m, ou 800,0 m implicaria em uma margem de 0,05 m (o último lugar significativo é o décimo lugar), enquanto um registro de 843 m implicaria em uma margem de erro de 0,5 m ( os últimos dígitos significativos são as unidades).

Uma leitura de 8.000 m, com zeros à direita e sem vírgula decimal, é ambígua; os zeros finais podem ou não ser considerados algarismos significativos. Para evitar essa ambigüidade, o número pode ser representado em notação científica: 8,0 × 10 3  m indica que o primeiro zero é significativo (portanto, uma margem de 50 m), enquanto 8,000 × 10 3  m indica que todos os três zeros são significativos, dando um margem de 0,5 m. Da mesma forma, pode-se usar um múltiplo da unidade básica de medida: 8,0 km é equivalente a 8,0 × 10 3  m. Indica uma margem de 0,05 km (50 m). No entanto, confiar nessa convenção pode levar a erros de falsa precisão ao aceitar dados de fontes que não obedecem a ela. Por exemplo, uma fonte relatando um número como 153.753 com precisão +/- 5.000 parece ter precisão +/- 0,5. Segundo a convenção, teria sido arredondado para 154.000.

Alternativamente, em um contexto científico, se desejar indicar a margem de erro com mais precisão, pode-se usar uma notação como 7,54398 (23) × 10 −10 m, o que significa um intervalo entre 7,54375 e 7,54421 × 10 −10 m.

A precisão inclui:

  • repetibilidade - a variação que surge quando todos os esforços são feitos para manter as condições constantes usando o mesmo instrumento e operador, e repetindo durante um curto período de tempo; e
  • reprodutibilidade - a variação que surge usando o mesmo processo de medição entre diferentes instrumentos e operadores, e ao longo de períodos de tempo mais longos.

Em engenharia, a precisão é frequentemente tomada como três vezes o Desvio Padrão das medições feitas, representando a faixa em que 99,73% das medições podem ocorrer. Por exemplo, um ergonomista que mede o corpo humano pode ter certeza de que 99,73% de suas medições extraídas caem dentro de ± 0,7 cm - se estiver usando o sistema de processamento GRYPHON - ou ± 13 cm - se estiver usando dados não processados.

Definição ISO (ISO 5725)

De acordo com a ISO 5725-1, a precisão consiste em veracidade (proximidade dos resultados da medição com o valor real) e precisão (repetibilidade ou reprodutibilidade da medição)

Uma mudança no significado desses termos apareceu com a publicação da série de normas ISO 5725 em 1994, que também se reflete na edição de 2008 do "BIPM International Vocabulary of Metrology" (VIM), itens 2.13 e 2.14.

De acordo com a ISO 5725-1, o termo geral "precisão" é usado para descrever a proximidade de uma medição com o valor real. Quando o termo é aplicado a conjuntos de medições do mesmo mensurando , envolve um componente de erro aleatório e um componente de erro sistemático. Nesse caso, exatidão é a proximidade da média de um conjunto de resultados de medição com o valor real (verdadeiro) e a precisão é a proximidade de concordância entre um conjunto de resultados.

A ISO 5725-1 e o VIM também evitam o uso do termo " viés ", anteriormente especificado na BS 5497-1, por ter diferentes conotações fora dos campos da ciência e da engenharia, como na medicina e no direito.

Na classificação binária

A precisão também é usada como uma medida estatística de quão bem um teste de classificação binária identifica ou exclui corretamente uma condição. Ou seja, a precisão é a proporção de previsões corretas ( verdadeiros positivos e verdadeiros negativos ) entre o número total de casos examinados. Como tal, ele compara estimativas de probabilidade pré e pós-teste . Para tornar o contexto claro pela semântica, ele é freqüentemente referido como "precisão de Rand" ou " índice de Rand ". É um parâmetro do teste. A fórmula para quantificar a precisão binária é:

onde TP = Verdadeiro positivo ; FP = falso positivo ; TN = Verdadeiro negativo ; FN = falso negativo

Observe que, neste contexto, os conceitos de veracidade e precisão definidos pela ISO 5725-1 não são aplicáveis. Uma razão é que não existe um único “valor verdadeiro” de uma quantidade, mas sim dois valores verdadeiros possíveis para cada caso, enquanto a precisão é uma média em todos os casos e, portanto, leva em consideração ambos os valores. No entanto, o termo precisão é usado neste contexto para significar uma métrica diferente originada do campo de recuperação de informação ( veja abaixo ).

Em psicometria e psicofísica

Em psicometria e psicofísica , o termo precisão é usado de forma intercambiável com validade e erro constante . Precisão é sinônimo de confiabilidade e erro variável . A validade de um instrumento de medida ou teste psicológico é estabelecida por meio de experimento ou correlação com o comportamento. A confiabilidade é estabelecida com uma variedade de técnicas estatísticas, classicamente por meio de um teste de consistência interna como o alfa de Cronbach para garantir que conjuntos de perguntas relacionadas tenham respostas relacionadas e, em seguida, a comparação dessas perguntas relacionadas entre a população de referência e a população-alvo.

Na simulação lógica

Na simulação lógica , um erro comum na avaliação de modelos precisos é comparar um modelo de simulação lógica a um modelo de simulação de circuito de transistor . Esta é uma comparação de diferenças de precisão, não exatidão. A precisão é medida com respeito aos detalhes e a exatidão é medida com respeito à realidade.

Em sistemas de informação

Os sistemas de recuperação de informações, como bancos de dados e motores de busca na web , são avaliados por muitas métricas diferentes , algumas das quais são derivadas da matriz de confusão , que divide os resultados em verdadeiros positivos (documentos recuperados corretamente), negativos verdadeiros (documentos corretamente não recuperados), falsos positivos (documentos recuperados incorretamente) e falsos negativos (documentos não recuperados incorretamente). As métricas comumente usadas incluem as noções de precisão e recall . Neste contexto, a precisão é definida como a fração de documentos recuperados que são relevantes para a consulta (verdadeiros positivos divididos por verdadeiros + falsos positivos), usando um conjunto de resultados relevantes por verdade terrestre selecionados por humanos. A recuperação é definida como a fração de documentos relevantes recuperados em comparação com o número total de documentos relevantes (verdadeiros positivos divididos por verdadeiros positivos + falsos negativos). Menos comumente, a métrica de precisão é usada, é definida como o número total de classificações corretas (verdadeiros positivos mais verdadeiros negativos) dividido pelo número total de documentos.

Nenhuma dessas métricas leva em consideração a classificação dos resultados. A classificação é muito importante para os mecanismos de pesquisa da web porque os leitores raramente vão além da primeira página de resultados e há muitos documentos na web para classificar manualmente todos eles quanto a se devem ser incluídos ou excluídos de uma determinada pesquisa. Adicionar um ponto de corte a um determinado número de resultados leva a classificação em consideração até certo ponto. A precisão da medida em k , por exemplo, é uma medida de precisão olhando apenas para os dez primeiros (k = 10) resultados da pesquisa. Métricas mais sofisticadas, como ganho cumulativo descontado , levam em consideração cada classificação individual e são mais comumente usadas onde isso é importante.

Veja também

Referências

links externos